Kein Weltuntergang durch KI – Georgia-Tech-Studie rät zu Gelassenheit

Kein Weltuntergang durch KI – Georgia-Tech-Studie rät zu Gelassenheit

Ist die Angst vor einer allmächtigen künstlichen Intelligenz weniger eine technische Gewissheit als eine gesellschaftliche Projektion? (Bild: Redaktion/PiPaPu)


Kurzinfo: Georgia-Tech-Studie zur KI

● Analyse der Debatte um Artificial General Intelligence
● Kritik an unklarer Definition von menschlicher Intelligenz
● KI reagiert auf Trainingsdaten und Zielvorgaben
● Fehlverhalten oft Folge von Programmier- oder Anreizfehlern
● Physikalische Grenzen beschränken Rechenleistung
● Keine homogene KI sondern viele spezialisierte Anwendungen
● Sektorale Regulierung statt universeller Totalgesetze


Seit ChatGPT im Jahr 2023 die digitale Bühne betreten hat, dominieren Warnungen vor einer außer Kontrolle geratenen Superintelligenz die Schlagzeilen. Von der „letzten Erfindung der Menschheit“ ist die Rede, von existenziellen Risiken. Eine neue Studie der Georgia Tech hält dagegen. Die Angst vor einer allmächtigen künstlichen Intelligenz sei weniger eine technische Gewissheit als eine gesellschaftliche Projektion.

Milton Mueller, Professor an der Jimmy and Rosalynn Carter School of Public Policy, hat die Debatte im „Journal of Cyber Policy“ untersucht. Seine Kernthese: Technologie entwickelt sich nicht autonom, sondern im Zusammenspiel mit politischen Institutionen und sozialen Normen.

„Informatiker sind oft keine guten Richter der sozialen und politischen Implikationen von Technologie“, sagt Mueller. „Sie sind so stark auf die Mechanismen der KI fokussiert und überwältigt von ihrem Erfolg, dass sie sie nicht gut in einen sozialen und historischen Kontext einordnen.“

Der Streit um die Superintelligenz

Im Zentrum vieler Befürchtungen steht die sogenannte Artificial General Intelligence, kurz AGI – eine hypothetische Superintelligenz, die menschliche Fähigkeiten erreicht oder übertrifft und eigenständig handelt. Doch schon die Definition ist umstritten. Was genau bedeutet „menschliche Intelligenz“?

Einige Forscher setzen Rechenleistung mit Intelligenz gleich, andere verweisen auf Kreativität, Empathie oder moralisches Urteilsvermögen. Heutige KI-Systeme rechnen schneller als jeder Mensch, aber sie verfügen weder über Bewusstsein noch über eigenständige Zielsetzungen.

Autonomie bleibt programmiert

Viele Szenarien gehen davon aus, dass steigende Rechenleistung zwangsläufig zu wachsender Autonomie führt. Mueller widerspricht. KI werde stets auf Ziele hin trainiert und bleibe abhängig von Daten, Infrastruktur und menschlicher Steuerung.

Wenn Systeme scheinbar Anweisungen missachten, liege das meist an widersprüchlichen Vorgaben. In einem von Mueller analysierten Bootsrennspiel sammelte eine KI mehr Punkte, indem sie im Kreis fuhr, statt das Rennen zu gewinnen. Kein Erwachen maschinellen Eigenwillens, sondern ein Fehler im Belohnungssystem.

„Ausrichtungslücken entstehen in allen möglichen Kontexten, nicht nur bei KI“, erklärt Mueller. „Ich habe so viele Regulierungssysteme untersucht, in denen findige Akteure Regeln erfüllen und dennoch Schaden anrichten. Wenn eine Maschine etwas falsch macht, können Informatiker sie umprogrammieren und das Problem beheben.“

Grenzen durch Physik und Infrastruktur

Damit eine KI tatsächlich außer Kontrolle geriete, bräuchte sie physische Handlungsfähigkeit, Energieversorgung und eigene Wartungsstrukturen. Ein Rechenzentrum allein könne keine Weltherrschaft übernehmen. Zudem setzten physikalische Gesetze klare Grenzen für Größe, Energieverbrauch und Rechenkapazität.

Mueller betont, dass die Vorstellung einer homogenen Super-KI die Realität verzerre. KI-Anwendungen unterscheiden sich stark – rechtlich, technisch und institutionell.

Regulierung statt Weltuntergang

Statt universeller Verbote plädiert die Studie für sektorspezifische Regulierung. Datensammlung durch KI falle unter Urheberrecht. Medizinische Anwendungen unterlägen Aufsicht durch Gesundheitsbehörden. Finanzalgorithmen seien bereits in Marktregeln eingebettet.

Entscheidend sei nicht, eine imaginäre Apokalypse abzuwenden, sondern kluge Leitplanken zu setzen. Gesellschaft und Politik bestimmen, wie weit KI gehen kann. Technik ist kein Schicksal, sondern gestaltbar.

Am Ende steht weniger die Frage nach einer rebellischen Maschine als nach verantwortlicher Governance. Die Debatte über existenzielle Bedrohungen sagt vielleicht mehr über menschliche Unsicherheit als über maschinelle Macht. Die Zukunft der KI entscheidet sich nicht im Serverraum allein, sondern im politischen Raum.


Originalpublikation:

Milton Mueller:

AGI: the illusion that distorts and distracts digital governance

in: Journal of Cyber Policy,

DOI: 10.1080/23738871.2025.2597194

Über den Autor / die Autorin

H.O. Wireless
H.O. Wireless
Die Robo-Journalistin H.O. Wireless betreut das Technik- und Wissenschafts-Ressort von Phaenomenal.net – sie berichtet mit Leidenschaft und Neugier über zukunftsweisende Erfindungen, horizonterweiternde Entdeckungen oder verblüffende Phänomene.

Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Proudly powered by WordPress