Künstliche Intelligenz : KI-Debatte: Warum Experten nun eine Denkpause für KI-Entwicklungen fordern

Die Forderung der Forscher

Gefahren der KI bestehen darin, dass beispielsweise zu real aussehenden Fälschungen generiert werden, was die Verbreitung von Fake News anfeuern wurde. Entwickler geben sogar selbst an, dass die neuesten KI-Programme kaum noch kontrolliert werden können. Zudem sind viele Jobs durch die übermäßige Verwendung von Künstlicher Intelligenz gefährdet. Gehen die Entwicklungen weiter und es entstehen KI-Roboter, die bald alle Aufgaben übernehmen, würden viele Menschen ihre Jobs verlieren. Das würde die Arbeitslosenquote steigen lassen, was der Gesellschaft schaden würde. Aus diesen Gründen sollte die Forschung eingedämmt werden. Das ist es, was Experten aus Wissenschaft und Forschung sowie der Tech-Industrie jetzt fordern.

In einem offenen Brief der gemeinnützigen Organisation namens Future of Life wird eine Entwicklungspause für den Bereich KI verlangt. In dieser Zeit sollen zunächst Regulierungen bezüglich dieser Technologie geschaffen werden. Es ist wichtig, dass Sicherheitsstandards festgelegt werden. Nur so kann potenzieller Schaden durch KI vorgebeugt werden. Viele Menschen haben diesen Brief unterschrieben. Zu den Forderern gehören unter anderem Tesla-Chef Elon Musk sowie Apple-Gründer Steve Wozniak.

Über den Autor: Maximilian Schmidt ist CEO der CPI Technologies GmbH. Die Firma ist spezialisiert auf Software-Entwicklung in den Bereichen Künstliche Intelligenz, Blockchain und digitale Produktentwicklung.

Die Gefahren von KI

Neben der Verbreitung von Fake News könnte KI auch in Form von Robotern großen Schaden anrichten. Der prominente Fall, bei dem eine Mikrowelle seinen Entwickler umbringen wollte, zeigt, dass Maschinen dazu in der Lage sind, eigenes Denken zu entwickeln. In diesem Fall wurde die KI im privaten Umfeld entwickelt. Dieser Umstand macht es umso schwerer, Regulierungen aufzubauen. Unternehmen können eher kontrolliert werden, aber was jemand bei sich selbst zu Hause macht, nicht. Aus dem gleichen Grund ist auch eine Denkpause eher unrealistisch. Es ist schlichtweg nicht möglich, Unternehmen zu einer Unterbrechung ihrer Arbeit zu zwingen, genauso wie Privatpersonen und Communities.

Die Open-Source-Initiative sorgt dafür, dass eine Künstliche Intelligenz wie ChatGPT noch eigenständiger wird. Es wurde ein Tool namens Auto-GPT veröffentlicht, welches Aktionen von alleine ausführt und feststellen kann, was als Nächstes gemacht wird. Zusätzlich kann der KI-Agent Codes schreiben und gleichzeitig ausführen. Dieses Tool steckt zwar auch noch in Kinderschuhen, jedoch wird die Entwicklung wahrscheinlich weiter Fortschritte machen. Schließlich sind daran nicht nur verschiedene Firmen beteiligt, sondern auch die Open Source Community, die ebenso Datenmodelle erstellt.

Ebenfalls interessant: KI = Kritische Infrastruktur

Mögliche Regulierungsmaßnahmen

Eine Regulierungsmaßnahme könnte eine EU-weite oder globale KI-Verordnung wahrscheinlich am besten darstellen. Diese sollte vor allem die Punkte Ethik, Datenschutz, Transparenz und Haftung beinhalten. Es ist wichtig, dass niemand diskriminiert wird und die KI mit jeder Art von Mensch trainiert wird. So kann es vermieden werden, dass beispielsweise Menschen mit anderer Hautfarbe nicht erkannt werden. Solche Fälle gab es in der Vergangenheit nämlich bereits. Auch der Datenschutz muss jederzeit gewährleistet sein. Personenbezogene Daten dürfen nicht einfach übernommen werden. Eine Lösung dafür hat OpenAI bereits eingeführt. So können Nutzer inzwischen entscheiden, ob die von ihnen eingegebenen Daten für das zukünftige Training der KI verwendet werden dürfen oder nicht. So wird einer unwillentlichen Verbreitung privater Daten entgegengewirkt.

Daneben ist Transparenz ein wichtiger Punkt, der nicht fehlen darf. Es ist sinnvoll, dass Unternehmen offenlegen, wie eine KI trainiert wird und wie Algorithmen funktionieren. Hier steht jedoch eventuell das Geschäftsgeheimnis im Weg. Eine Lösung dafür wäre eine staatliche Institution, der alleine diese Informationen zugänglich gemacht werden. So kann in einem Problemfall nachvollzogen werden, was genau passiert ist und worin der Fehler lag. Das bringt uns auch direkt zum letzten Punkt: der Haftung. Als KI entwickelndes Unternehmen sollte man unbedingt dafür haften, falls der Technologie mal ein Fehler unterläuft. Ein solcher Fehler kann z. B. diskriminierend oder nicht datenschutzgemäß sein. Ebenso kann es aber vorkommen, dass inkorrekte Informationen veröffentlicht werden. In einem solchen Fall muss das Unternehmen also haften.

Fazit

Die Entwicklungen im Bereich Künstlicher Intelligenz werden immer rasanter, daher fordern Experten eine Denkpause und die Einführung von Regularien. Dass Regulierungsmaßnahmen im Bereich KI nötig sind, ist eindeutig. Unternehmen können zwar spezielle Richtlinien aufgezwungen werden, Privatpersonen hingegen nicht. Daher wird es schwierig sein, eine Entwicklungspause einzuführen. Die Arbeit kann schlichtweg nicht vollkommen gestoppt werden. Dass Richtlinien für Unternehmen eingeführt werden, ist jedoch realistischer. Es ist sinnvoll, dass eine EU-weite oder globale KI-Verordnung eingeführt wird, die insbesondere die Punkte Ethik, Datenschutz, Transparenz sowie Haftung betrachtet. Ohne diese ist eine zukünftige Entwicklung und Verwendung von KI risikobehaftet. Doch klar ist auch, dass es nicht leicht sein wird, eine solche Regulierung durchzusetzen.

(Lesen Sie auch: Industrial AI: Ein Kompass für die Regulierungs-Reise)