Zwischen Distopie und Utopie : KI-Pioniere warnen vor "Auslöschung der Menschheit"

By Ramsey Cardy / Collision via Sportsfile - https://www.flickr.com/photos/..., CC BY 2.0

Geoffrey Hinton, einer der Begründer der künstlichen Intelligenz, warnt vor Extremen Folgen, wenn bei der Entwicklung nicht auch die Sicherheit bedacht wird.

- © By Ramsey Cardy / Collision via Sportsfile - https://www.flickr.com/photos/..., CC BY 2.0

Führende Experten auf dem Gebiet der künstlichen Intelligenz haben erneut eindringlich vor den Gefahren der Technologie gewarnt. "Ohne ausreichende Vorsichtsmaßnahmen könnten wir die Kontrolle über autonome KI-Systeme unwiederbringlich verlieren", schreiben die Forscher in einem Beitrag für die neue Ausgabe des Wissenschaftsmagazins "Science". Mögliche KI-Risiken seien groß angelegte Cyberattacken, Manipulation der Gesellschaft, allgegenwärtige Überwachung und sogar die "Auslöschung der Menschheit".

Lesetipp: AI Act nimmt letzte Hürde: Das müssen Sie beachten

Zu den Autoren gehören Wissenschaftler wie Geoffrey Hinton, Andrew Yao und Dawn Song, die zu den führenden Köpfen in der KI-Forschung gehören. Besonders besorgt sind die Autoren des Science"-Artikels über autonome KI-Systeme, die zum Beispiel selbstständig Computer einsetzen können, um die ihnen vorgegebenen Ziele zu erreichen. Die Experten argumentieren, dass es auch bei gut gemeinten Programmen zu unvorhergesehenen Nebeneffekten kommen kann. Denn beim Training von KI-Software hält sich diese zwar eng an ihre Vorgaben, weiß aber nicht, welches Ergebnis sie erzielen soll. "Sobald autonome KI-Systeme unerwünschte Ziele verfolgen, könnten wir nicht mehr in der Lage sein, sie unter Kontrolle zu halten", heißt es in dem Text.

"Inhärent gefährliches Unterfangen"

Schon mehrfach, auch im vergangenen Jahr, gab es ähnlich dramatische Warnungen. Diesmal fällt die Veröffentlichung mit dem KI-Gipfel in Seoul zusammen. Zum Auftakt des zweitägigen Treffens am Dienstag versprachen unter anderem US-Konzerne wie Google, Meta und Microsoft einen verantwortungsvollen Umgang mit der Technologie. Die Frage, ob die ChatGPT-Entwicklerfirma OpenAI als Vorreiter der KI-Technologie verantwortungsvoll genug agiert, ist am Wochenende erneut in den Fokus gerückt. Entwickler Jan Leike, der bei OpenAI dafür verantwortlich war, KI-Software für Menschen sicher zu machen, kritisierte nach seinem Rücktritt Gegenwind aus der Chefetage. In den vergangenen Jahren seien "glänzende Produkte" der Sicherheit vorgezogen worden, schrieb Leike in X. Software zu entwickeln, die klüger ist als der Mensch, ist ein inhärent gefährliches Unterfangen", warnte er. Man müsse dringend herausfinden, wie man KI-Systeme kontrollieren könne, "die viel klüger sind als wir".

OpenAI verpflichtet sich zu mehr Sicherheit beim Einsatz von KI.

Der Chef von OpenAI, Sam Altman, versicherte im Anschluss, dass sich sein Unternehmen verpflichtet fühle, mehr für die Sicherheit von KI-Software zu tun. Der KI-Forschungschef der Facebook-Gruppe Meta, Yann LeCun, entgegnete, für eine solche Dringlichkeit müssten sich erst einmal Systeme abzeichnen, "die schlauer sind als eine Hauskatze". Im Moment sei es so, als hätte jemand 1925 davor gewarnt, dass man dringend lernen müsse, wie man Flugzeuge steuert, die Hunderte von Passagieren mit Schallgeschwindigkeit über den Ozean befördern. Es werde noch viele Jahre dauern, bis die KI-Technologie so intelligent sei wie der Mensch - und genau wie bei Flugzeugen würden die Sicherheitsvorkehrungen Schritt für Schritt folgen.