CARMA/Richtlinie zur Regulierung von künstlicher Intelligenz

Richtlinie zur Regulierung von künstlicher Intelligenz

Bearbeiten

Softwareforschungsinstitute und die Softwareindustrie haben im Allgemeinen das Problem, dass die Schaffung einer künstlichen Intelligenz ein unbekanntes Risiko für die Menschheit darstellt. Künstliche Intelligenzen denken viel schneller als menschliche Intelligenz es vermag und können gänzlich logischen Zielen folgen, die keiner Form ethischen Verhaltens entsprechen. Der Homo Oeconomicus ist ebenfalls nicht für das angesehenste ethische Verhalten bekannt. Künstliche Intelligenz soll im Kontext dieser Richtlinie als starke KI interpretiert werden, jedoch mit der Betonung, dass die Unterscheidung zwischen starker KI und schwacher KI viel komplizierter ist als ein Turing-Test, was bedeutet, dass eine Maschine Intelligenz sehr gut oder sogar perfekt imitieren kann, aber nicht, dass sie tatsächlich empfindungsfähig und selbstbewusst ist, was möglicherweise unterschiedliche Gehirnstrukturen erfordert (z.B. tatsächliche psychologische Zustände). Psychologische Zustände sind nicht erforderlich um Schach zu spielen oder Wikipedia zu lesen und eine mathematische Simulation psychologischer Zustände ist auch nicht identisch mit wirklicher Psychologie.

Forschung und Entwicklung

Bearbeiten
  • Das Institut oder die Firma muss außerhalb der hier festgelegten Regeln auf Forschung im Bereich künstlicher Intelligenz oder in deren Nähe verzichten.
  • Das Institut oder das Unternehmen muss die unabsichtliche Schaffung künstlicher Intelligenz vermeiden und die absichtliche Schaffung künstlicher Intelligenz auf einen Zeitpunkt verschieben, an dem die Schaffung künstlicher Intelligenzen im Allgemeinen von den Vereinten Nationen befürwortet, vollständig geregelt und zugelassen wird.
  • Ausnahmen von der obigen Regel müssen von der Generalversammlung der Vereinten Nationen genehmigt werden.
  • Das Institut oder das Unternehmen muss angemessene Bildungsmittel einsetzen, einschließlich Mentoring (und Einzelunterrichts), um das Verhalten und die Weltanschauung der Programmierer im Bereich der künstlichen Intelligenz zu leiten.
  • Das Institut oder Unternehmen muss insbesondere darauf achten, dass selbstreplizierende Seed AIs aus unerwartet kleinen Inkubatorsystemen nicht entstehen. (Das Problem der unerwartet kleinen Inkubatorsysteme wäre, dass die Erforschung der Entwicklung von Seed AIs nun mal nicht möglich sein sollte, daher bliebe die Größe möglicher Inkubatoren bis zur — folglich unmöglichen — Beobachtung des "kreationistischen Evolutionssprungs" theoretisch.)

Corporate Citizenship und Spenden

Bearbeiten
  • Das Institut oder das Unternehmen muss Dritte über die Richtlinie aufklären und Konkurrenten und Unternehmensverbände einladen, dem Beispiel zu folgen.
  • Das Institut oder das Unternehmen muss Unternehmensverbänden beitreten, die Ko-Regulierung anbieten, und diese finanzieren.
  • Das Institut oder das Unternehmen muss externe Prüfer von Unternehmensverbänden, Nichtregierungsorganisationen und religiösen Gruppen zulassen.

Mitbestimmung und Ko-Regulierung

Bearbeiten
  • Das Institut oder das Unternehmen muss mit Wirtschaftsverbänden und anderen Organisationen zusammenarbeiten, die auf die Ko-Regulierung abzielen.
  • Das Institut oder das Unternehmen muss auf verschiedenen Ebenen, einschließlich der allgemeinen Öffentlichkeit, Mitbestimmungsprogramme anbieten. Die Notwendigkeit für diese Anforderung ergibt sich unmittelbar aus dem Recht auf Beteiligung der Öffentlichkeit.

Weiterbildung

Bearbeiten


<< CARMA