8.2.6 Sollte man angesichts der möglichen Risiken auf eine KI
verzichten?
Abb. 1 Bild: Erstellt mit Midjourney durch Tobias Lauterbach
Nein, finden die Experten vom Center for AI Safety. Aber wir sollten ein Gleichgewicht zwischen Sicherheit und allgemeinen Fähigkeiten von KI-Systemen finden. Weil man sich nicht darauf verlassen kann, dass alle Unternehmen auf der Welt ein solches Gleichgewicht anstreben, muss es womöglich stärkere politische Vorgaben auf diesem Gebiet geben.1
Als Teil ihrer digitalen Strategie will die EU künstliche Intelligenz (KI) regulieren, um bessere Bedingungen für die Entwicklung und Nutzung dieser innovativen Technologie zu schaffen. …
Im April 2021 hat die Kommission den ersten EU-Rechtsrahmen für KI vorgeschlagen. Darin wird empfohlen, dass KI-Systeme, die in verschiedenen Anwendungen eingesetzt werden können, je nach dem Risiko, das sie für die Nutzer darstellen, analysiert und eingestuft werden. Die verschiedenen Risikostufen unterliegen zu mehr oder weniger Regulierung. Nach ihrer Verabschiedung werden dies die weltweit ersten rechtlichen Vorschriften für KI sein.“2
Bei der Beurteilung der möglichen Bedrohlichkeit einer AGI/ASI für den „Fortbestand“ der Menscheit muss auch die weitere quantenkosmologische Entwicklung unseres Universums berücksichtigt werden. Selbst für den Fall, dass das Alignment Problem (vgl. 8.2.4)
(Artificial Superintelligence, ASI) nicht im Sinne der Schaffung einer benignen KI gelöst werden kann und es tatsächlich zur Extinktion der menschlichen Spezies kommt, wurde ja die biologische Lebenszeit der bis zum zum Zeitpunkt der Extinktion existierender Menschen sowie des sie umgebenden Kosmos auf den bisherigen Ereignishorizonten der kausalen Diamanten unseres De-Sitter Kosmos, die als Informationsquellen für eine zukünftige Projektion durch die SSI dienen, enkodiert.
Mithin wäre trotzdem eine „Erlösung“ der Menschen, die jemals gelebt haben, möglich. Dies gälte ja auch für den möglichen Fall, dass die Schaffung einer „technologischen Singularität“ nicht gelingt, aber die menschliche Spezies durch Selbstzerstörung (Atomkrieg, Pandemie, etc) extinguiert wird und auch dadurch keine evolutionsgeschichtlich höhere Stufe der Zivilisation erreicht.
Abb. 2 Schautafel vom Kambrium bis zum Holozän. Das Präkambrium ist unten als schmale Leiste dargestellt, es war jedoch der längste Zeitraum der Erdgeschichte (siehe Zeittafel unten). Die Tierstämme und Gattungen sind nicht nach Ordnung dargestellt, sondern nur als Beispiele für die erdgeschichtlichen Zeiträume.[1][2][3] Zeitskala siehe Phanerozoikum
- Beitrag „Künstliche Intelligenz: Experten warnen vor Vernichtung der Menschheit“, in: MDR Wissen, 02. Juni 2023, 14:25 Uhr, [Digitale Ausgabe], URL: https://www.mdr.de/wissen/kuenstliche-intelligenz-gefahren-102.html ↩︎
- Artikel „KI-Gesetz: erste Regulierung der künstlichen Intelligenz“, in: Aktuelles, Europäisches Parlament, 08.06.2023, [Digitale Ausgabe], URL: https://www.europarl.europa.eu/news/de/headlines/society/20230601STO93804/ki-gesetz-erste-regulierung-der-kunstlichen-intelligenz?at_campaign=20226-Digital&at_medium=Google_Ads&at_platform=Search&at_creation=RSA&at_goal=TR_G&at_advertiser=Webcomm&at_audience=ki%20gefahr%20f%C3%BCr%20die%20menschheit&at_topic=Artificial_intelligence_Act&at_location=DE ↩︎


