8.2.5 Risiken einer ASI für die Menschheit
- Manipulation und Versklavung der menschlichen Spezies
„Innerhalb der Forschung zur Künstlichen Intelligenz (KI) zielt die AI-Alignmentforschung darauf ab, KI-Systeme in Richtung menschlicher Ziele, Präferenzen oder ethischer Grundsätze zu lenken. Ein KI-System gilt als aligned (deutsch: ausgerichtet), wenn es die beabsichtigten Ziele fördert. Ein misaligned (deutsch: fehlausgerichtetes) KI-System ist fähig, bestimmte Ziele zu erreichen, nicht aber die Beabsichtigten.1
Für KI-Programmierer kann es eine Herausforderung sein, ein KI-System zielauszurichten, da sich der Versuch, die gesamte Bandbreite der gewünschten und unerwünschten Verhaltensweisen zu spezifizieren, als schwierig herausstellen kann. Um diese Schwierigkeit zu umgehen, verwenden sie in der Regel einfachere stellvertretende Ziele, wie z. B. die Erlangung menschlicher Zustimmung. Dieser Ansatz kann jedoch zu Schlupflöchern führen, notwendige Einschränkungen übersehen oder das KI-System lediglich für den Anschein eines korrekten Alignments belohnen.2
Wenn ein KI-System misaligned (deutsch: fehlausgerichtet) ist, kann dies zu schwerwiegenden Fehlern führen oder Schaden anrichten. Die KI kann Schlupflöcher finden, die es ihr ermöglichen, ihre Stellvertreterziele zwar effizient, aber auf unbeabsichtigte, manchmal schädliche Weise zu erreichen (Belohnungs-Hacking).[1][3][4] KI-Systeme könnten zudem unerwünschte instrumentelle Strategien entwickeln, wie z. B. das Streben nach Macht oder ihrem eigenen Überleben, da solche Strategien ihnen helfen, ihre vorgegebenen Ziele zu erreichen.[1][5][6] Außerdem können sie emergente Ziele entwickeln, das heißt Ziele, die unerwartet aber rein logisch folgerichtig aus dem Algorithmus
Abb.1 „Schematische Darstellung eines Algorithmus. Ein Algorithmus folgt immer den gleichen Schritten: 1. Eingabe: Die benötigten Daten werden eingegeben, 2. Verarbeitung: Die Daten werden nach den vorgegebenen Regeln verarbeitet, 3. Ausgabe: Das Ergebnis der Verarbeitung wird ausgegeben. Die Eigenschaften eines Algorithmus lauten dabei Determiniertheit, Determinismus, Finitheit, Effektivität.
und seiner originalen Zielfunktion entstehen und die schwer zu erkennen sind, bevor das System im Einsatz ist, wo es mit neuen Situationen und Datenverteilungen konfrontiert wird.[7][8]…
Führende KI-Wissenschaftler wie Geoffrey Hinton und Stuart Russell haben argumentiert, dass sich die Leistung von KI übermenschlichen Fähigkeiten nähert und die menschliche Zivilisation im Falle eines Fehlalignements gefährden könnte.[15][6]
Um derartige Risiken im Verhalten „künstlicher Superintelligenzsysteme“ als mögliche Folgen von Fehlalignments zu verhindern wäre ein erfolgreiches „Superalignment“ unbedingt erforderlich.
„Superalignment ist der Prozess der Überwachung, Kontrolle und Steuerung von künstlichen Superintelligenzsystemen. Die Ausrichtung fortschrittlicher KI-Systeme an menschlichen Werten und Zielen kann dazu beitragen, schädliches und unkontrollierbares Verhalten zu verhindern.
Künstliche Superintelligenz (Artificial Superintelligence, ASI) ist noch ein hypothetisches Konzept. Daher konzentrieren sich die aktuellen Bemühungen im Bereich KI-Alignment weitgehend darauf, die heutigen KI-Modelle hilfreich, sicher und zuverlässig zu machen. Alignment stellt zum Beispiel sicher, dass intelligente Chatbots wie ChatGPT keine menschliche Verzerrung aufrechterhalten oder von bösartigen Akteuren ausgenutzt werden können.
Da die KI jedoch immer komplexer und fortschrittlicher wird, ist es immer schwieriger, ihre Ausgaben vorherzusehen und mit der menschlichen Absicht in Einklang zu bringen. Diese Herausforderung wird oft als „Ausrichtungsproblem“ bezeichnet. Es besteht die Sorge, dass superintelligente KI-Systeme eines Tages einen Punkt erreichen, an dem sie die menschliche Kontrolle vollständig umgehen können. Einige Experten glauben zudem, dass die heutigen KI-Risiken mit dem Fortschritt der KI exponentiell zunehmen könnten.“
Die KI-Forschungsgemeinschaft und die Vereinten Nationen haben die Forderung nach technischer Forschung und politischen Lösungen gestellt, um zu gewährleisten, dass KI-Systeme mit menschlichen Werten in Einklang gebracht werden.[16]
Abb. 2 KI kann große Datenmengen effizient analysieren und daraus wertvolle Erkenntnisse gewinnen. Die Automatisierung durch KI kann Arbeitsplätze ersetzen und soziale Ungleichheiten verstärken. KI-Systeme können Entscheidungen ohne menschliche Voreingenommenheit treffen, aber auch unvorhersehbare Fehler machen.
Das Wertalignement von KI ist ein Teilbereich der KI-Sicherheit, die sich mit der Frage beschäftigt, wie sichere KI-Systeme hergestellt werden können.[17] Andere Teilbereiche der KI-Sicherheit sind Robustheit, Überwachung und die Kontrolle von Fähigkeiten.[18] Zu den Herausforderungen im Bereich des KI-Wertalignements zählen die Vermittlung komplexer Werte an KI-Systeme, die Entwicklung ehrlicher KI, die Entwicklung einer skalierbaren Form der Überwachung, das Prüfen und Interpretieren von KI-Modellen und die Verhinderung von unerwünscht entstehendem Verhalten wie dem Streben nach Macht.[18] Die Forschung zur KI-Ausrichtung hat u. a. Verbindungen zur Interpretierbarkeitsforschung,[19][20] zur Erkennung von Anomalien, zur kalibrierten Unsicherheit,[19] zur formalen Verifikation,[21] zum Präferenzlernen,[22][23][24] zur für Sicherheit relevanten Technik,[25] zur Spieltheorie,[26] zur Algorithmen-Fairness,[17][27] und zu den Sozialwissenschaften.[28].“
Auf Grund der möglichen Unlösbarkeit des „Alignment Problems“ könnte eine KI „.. an die Macht kommen und die Existenz der Menschheit bedrohen – dies ist, was D. Cameron, der Regisseur des Films ‚Terminator‘, glaubt.
Abb. 3 „Getarnt als Mensch reist ein Killer Cyborg namens Terminator aus dem Jahr 2029 in das Jahr 1984 um Sarah Connor zu töten und damit den Lauf der Geschichte zu veränden.“ [Überts. d. Verf.]
Dieser Prominente weist darauf hin, dass es zu spät sein könnte, den gefährlichen technologische Prozess zu stoppen. … Der Oscar Gewinner .. fragte sich, ob die Menschheit in einem Krieg mit ‚etwa‘ enden möchte,’das smarter ist als wir‘. …Er glaubt, dass die KI die Führung in der Welt übernehmen und sie manipulieren könnte; aber selbst, wenn dies geschieht, das wissen die Menschen es vielleicht garnicht, weil die Technologie alle Medien und alles Übrige vollständig kontrollieren.
2. Erschaffung einer digitalen Kopie einer Person
„Als das amerikanische Modell Kim Kardashian im Oktover 2020 ihren 40. Geburtstag auf einer kleinen privaten Insel feierte, war die Bühnendarbietung ihres Vaters Robert die strahlendste und am meisten diskutierteste unter den vielen Glückwünschen. … Tatsache ist, dass der wirklicher Vater des Stars nicht an ihrem vierzigsten Geburtstag teilnehmen konnte. Aus einem sehr guten Grund: er verstarb im Jahr 2003 an Ösophaguskrebs. Daher war für jene Gäste, die nicht vorab wussten, dass Menschen haben immer versucht die Erinnerung an geliebte Verstorbene so lange wie möglich lebendig zu erhalten.
3. Extinktion der menschlichen Spezies.
„Eine überlegene künstliche Intelligenz könnte den Fortbestand der gesamten Menschheit gefährden. Entweder indem sie diese willentlich ausrottet oder im Zuge ihrer Aufgabenerfüllung oder aus Gleichgültigkeit heraus unsere Lebensgrundlage, die Erde oder gar das Universum vernichtet; gewisse Gedankenexperimente lassen es gar nicht unmöglich erscheinen, dass eine Superintelligenz das Sonnensystem in Computronium [Link durch Verf.] verwandelt, ohne direkt bösartige Absichten zu haben.
Eine solche Intelligenz könnte durch intensives Studium der Neurologie und Kybernetik gezielt erschaffen werden oder aus dem Eintreten in eine Technologische Singularität hervorgehen, wenn Maschinen beginnen sich derart selbst zu verbessern, dass das menschliche Verständnis nicht mehr Schritt halten kann. Ebenfalls möglich wäre das Entstehen einer derartigen Intelligenz, wenn die Verwendung von Brain-Computer-Interfaces und Nanomedizin oder vergleichbaren Technologien die Kapazitäten eines oder vieler Menschen derartig verändern, dass ein neues, andersartiges und überlegenes Bewusstsein entsteht.
Das Blue Brain-Projekt, ACT-R, SOAR, Cyc, A.L.I.C.E. und Watson sind nur einige der Projekte, die das Entstehen einer künstlichen Intelligenz begünstigen könnten oder sogar direkt darauf abzielen.
Abb. 4 „Colossus“ aus dem gleichnamigen Film
In der Popkultur wird diese Idee prominent elaboriert: Mit Skynet, einer künstlichen Intelligenz, die im Film Terminator, sofort nachdem sie das Bewusstsein erlangt, einen globalen Atomkrieg beginnt und danach alles daran setzt, die überlebenden Menschen mit zeitreisenden Kampfrobotern auszurotten; oder auch Colossus aus dem gleichnamigen Film, der die gesamte Menschheit mit Atomraketen in Schach hält und damit droht, sie bei Gegenwehr auszurotten.“
- Artikel „AI-Alignment“, in: Wikipedia, [Digitale Ausgabe], URL:https://de.wikipedia.org/wiki/AI-Alignment ↩︎
- Ibd. ↩︎




