Kommentar : KI = Kritische Infrastruktur

Einige Tage nach der Veröffentlichung von ChatGPT gab Demis Hassabis der „Time“ ein Interview, das in Österreich viel mehr Menschen lesen sollten. Hassabis ist der CEO des britischen Unternehmens DeepMind, das mittlerweile zum Google-Konzern gehört. Er ist einer der einflussreichsten Köpfe, wenn es um KI geht. Und will 2023 auch einen Chatbot herausbringen, aber in „private beta“.

Ein Absatz, der vielen zu denken geben sollte: „Wir kommen in eine Zeit, in der wir anfangen müssen, über die Trittbrettfahrer nachzudenken, oder über Leute, die zwar lesen, aber nichts zu dieser Informationsbasis beitragen", sagt er. „Und das gilt auch für die Nationalstaaten“. Er lehnt es ab, die Staaten zu nennen, die er meint – „es ist ziemlich offensichtlich, wen man meinen könnte“ – aber er deutet an, dass die Kultur der KI-Industrie, ihre Ergebnisse offen zu veröffentlichen, vielleicht bald ein Ende haben muss.

Tools wie ChatGPT sind großartig, aber in den falschen Händen auch gefährlich.

Warum müssen sich Open Source und KI trennen? Aus ethischen Gründen vielleicht, denn Tools wie ChatGPT sind großartig, aber in den falschen Händen auch gefährlich. Wir werden bald eine verschärfte Regulierungsdiskussion in Europa erleben. In den USA entbrannte schnell eine Diskussion darüber, ob man ChatGPT so veröffentlichen dürfe.

Der zweite Grund: Aus ökonomischen Gesichtspunkten, denn auch die großen Tech-Konzerne wollen jetzt mal Kasse machen. Stopp, Denkfehler! Mit Open Source können Unternehmen auch Geld verdienen. Gegenfrage: Warum kündigt Google gerade einigen seiner Open Source-Experten? Ich empfehle dazu den Kommentar von Steven J. Vaughan-Nichols auf „The Register“. Zitat: „Viele derjenigen, denen die Türen gezeigt wurden, waren die Besten der Besten in Googles Open Source Programm Office (OSPO) und anderen Open-Source-Bemühungen.“

Open Source heißt aber nicht nur Code teilen, auch Research-Papers und Ergebnisse fallen darunter. Der Meta KI-Vordenker Yann LeCun kommentierte vor einigen Tagen einen Beitrag auf Twitter, in dem Unternehmen waren, die sich bei Open Source Projekten am meisten einbringen und veröffentlichen. LeCuns Anmerkung dazu lautete: „Daten über den intellektuellen Beitrag zu KI von verschiedenen Forschungsorganisationen. Einige der Organisationen veröffentlichen Wissen und Open-Source-Code, damit die ganze Welt ihn nutzen kann. Andere verbrauchen es nur." Gemeint war wohl OpenAI, die Firma hinter ChatGPT, die in der Grafik weit abgeschlagen war.

Kommt es zur Trennung von Open Source und KI , wäre das fatal.

Aber vielleicht müssen sich Open Source und KI auch trennen, weil die Politik es so will. Die US-Administration machte den US-Konzernen schon bei den Chips Druck. Erinnern Sie sich noch an die ASML-Maschine im Hafen von Rotterdam? Sie kam nie in China an. Folgt jetzt die KI?

Kommt es zur Trennung, wäre es fatal, wenn wir Europäer keinen Zugang mehr hätten. Wir Europäer hängen von den KI-Tools, von den Modellen und auch von der Wissenschaftsförderung der großen US-Tech-Konzerne ab. Stellen Sie sich vor, PyTorch, TensorFlow oder Rasa gäbe es morgen nicht mehr. Übertrieben? Vielleicht.

Die Diskussionen in den USA müssen ein Weckruf für uns in Österreich und Europa sein. Wir müssen mehr Open Source aus Europa machen, wir müssen mehr junge Menschen schon im Studium „verpflichten“ Open Source zu denken, zu arbeiten und zu entwickeln. Proprietär holen wir den Vorsprung der US-Tech-Konzerne sicher nicht auf. Die kritische Infastruktur KI braucht jetzt unsere Aufmerksamkeit.

(Ebenfalls interessant: Machine-Learning-Experte: "Einen Prozess zu steuern ist die Königsdisziplin")