Kaum sind KI-Systeme wie ChatGPT Teil unseres Alltags geworden, mehren sich die Diskussionen über die Gefahren von Generative AI: Von Fake News bis zur Entwicklung Biowaffen können diese Modelle angeblich eingesetzt werden. Und jetzt stellen auch noch Firmen solche Modelle freizugänglich ins Internet. Naht die Apokalypse? Spoiler: Nein. Aber ein paar Risiken gibt es schon. 


Noch vor ein paar Monaten drehte sich die Diskussion um Generative AI wie ChatGPT hauptsächlich um die Frage, ob sie tatsächlich intelligent sind und wie schlimm es ist, dass diese Systeme Prüfungen an Schulen und Unis bestehen können. Seitdem hat sich die öffentliche Debatte auf deutlich dramatischere Fragen fokussiert. Und damit haben sich auch Regierungen in aller Welt eingeschaltet und wollen nun in die Forschung und Veröffentlichung von KI-Modellen eingreifen. 

Dieser Teil der KI-Kolumne wäre viel lustiger, wenn ich hier nur diskutieren würde, wie sinnvoll es ist, wenn Gesetzgebung davon beeinflusst wird, dass der US-Präsident Mission Impossible: Dead Reckoning gesehen hat. Aber leider ist die Situation nicht besonders lustig, wenn KI-Forscher wie Yann LeCun als „gefährlich“ bezeichnet werden oder gleich behauptet wird, KI wird die Welt zerstören. Besonders wenn dann auch noch Konsequenzen gefordert werden, die KI-Forschung – besonders in Europa – langfristig auf’s Abstellgleis stellen würden. Deshalb muss es hier stattdessen darum gehen, warum KI-Modelle Open Source sein sollten und warum das nicht das Ende der Menschheit bedeutet, ganz im Gegenteil. 

Was bedeutet Open Source?

Bevor wir uns aber mit dem eigentlichen Thema befassen können, müssen wir aber zuerst klären, was Open Source bedeutet. Der Begriff Open Source kommt aus der Informatik und ist kurz für Open Source Code, also dass der Quellcode öffentlich einsehbar ist und prinzipiell auch in anderen Programmen weiterverwendet werden kann.

Open Source ist, ohne zu übertreiben, eine zentrale Grundlage unserer Gesellschaft. Jedes Smartphone, jeder Computer, jeder Server verwendet solchen Code. Die allermeisten Programmiersprachen und ganze Betriebssysteme sind Open Source. Auch zentrale Teile von Android und iOS sind Open Source. Ohne Open Source müssten alle Firmen und Einzelpersonen, die etwas programmieren wollen, immer bei 0 anfangen oder viel Geld für Softwarekomponenten ausgeben. Damit läge die Einstiegshürde massiv höher als heute, wo man mit einem 5€-Computer Programme schreiben kann. 

Ok, Open Source ist also super für alle, die den Code nicht schreiben. Aber wenn man Code geschrieben hat, warum würde man ihn freiwillig öffentlich machen? Einige machen das, weil sie nicht wollen, dass einzelne Firmen die Welt kontrollieren können. Es gibt allerdings auch deutlich pragmatischere Gründe für Open Source: Auf dem Lebenslauf sehen Beiträge zu Open Source-Projekten sehr gut aus und sie sind gute Lerngelegenheiten. Aber selbst Firmen tragen teilweise zu Open Source-Projekten bei oder machen eigene Software öffentlich verfügbar. So bekommen sie zusätzliche Programmierer:innen um den Code besser zu machen oder um Sicherheitsprobleme aufzudecken.

Was bedeutet Open Source bei KI?

Bei KI ist die Sache mit Open Source etwas komplizierter: Man könnte unterschiedliche Sachen öffentlich machen und es Open Source nennen. Am einfachsten stellt man das fertig trainierte Modell online, sodass es alle herunterladen und bei sich betreiben oder ggf. sogar etwas anpassen zu können. 

Für Forscher:innen ist es aber auch spannend, wie das Modell trainiert wurde, also mit welchen Daten und wie aus diesen Daten das Model erzeugt wurde. Gleichzeitig sind diese Dinge allerdings auch das, was einer Firma den technischen Vorsprung verschafft. Deshalb, und weil die Trainingsdaten evtl. aus Datenschutzsicht sensibel sind, werden diese zwei Dinge in der Regel nicht veröffentlicht.

Sidenote: Ironischerweise sind ausgerechnet die aktuellen Modelle von OpenAI, also ChatGPT 3 und neuer, nicht Open Source. Dagegen stellt Facebook die fertig trainierten Modelle der Llama-Familie (mehr oder weniger) frei zugänglich online.

Ist Open Source KI gefährlich?

Wenn Open Source bei „traditioneller“ Software so wichtig  ist, fragt man sich nun, warum manche Leute, darunter auch angesehene KI-Forscher, fordern, Open Source-KI zu verbieten oder zumindest drastisch zu regulieren. Da gibt es drei Hauptgründe: Tatsächliche Risiken, insbesondere bezüglich Fake News, Missverständnisse über die Fähigkeiten aktueller Generative AI und kommerzielle Interessen.

  1. Fake News mit Generative AI. Der Einsatz von ChatGPT. kann die Produktivität, insbesondere von geringer qualifizierten Menschen, signifikant steigern. Damit ist es naheliegend, dass Generative AI die Menge an zirkulierenden Fake News deutlich steigern könnte, insbesondere wenn man Text- und Bilderzeugung zusammen nutzt.
  2. Missverständnisse. In einem Pre-Print haben Wissenschaftler:innen, unter anderem vom MIT, argumentiert, dass Generative AI viel zu leichten Zugang zu Bauplänen von Biowaffen ermöglicht. Das klingt erstmal schrecklich, bis man realisiert, dass Systeme wie ChatGPT zwar tatsächlich lernen können, aber sicherlich nicht, wie man Biowaffen erzeugt. Stattdessen waren diese Informationen schlicht in den Trainingsdaten – und die sind schlicht aus dem Internet. Das heißt, jede:r kann ohnehin darauf zugreifen. Die KI-Modelle haben hier also einfach Suchmaschinen ersetzt.
  3. Kommerzielle Interessen. Der KI-Forscher Andrew Ng argumentierte kürzlich, dass es aktuell für große Unternehmen vorteilhaft sein könnte, wenn Open Source-KI streng reguliert oder verboten würde. Für aktuell marktführende Unternehmen ist es vorteilhaft, weniger Konkurrenz zu haben. Umso besser, wenn es einen Teil der Konkurrenz einfach nicht geben darf. Wenn Forschung prinzipiell reguliert werden soll, wie beispielsweise durch eine Executive Order des Weißen Hauses, sind große Firmen mit ihren großen Rechtsabteilungen ebenfalls im Vorteil gegenüber kleinen Startups. 

Wozu braucht man Open Source-KI?

Ok, also Open Source-KI wird die Welt tendenziell nicht zerstören. Aber braucht man sie denn überhaupt? Und hier ist die Antwort eindeutig. Ja. 

Zunächst mal sind KI-Systeme, egal ob Open Source oder nicht ganz allgemein einfach zentral für Wirtschaft und Wissenschaft. KI kann nämlich deutlich mehr als nur Alpha Go spielen oder Witze erzählen. In praktisch allen Disziplinen helfen neuronale Netze dabei, die Grenzen des Unbekannten zu verschieben. Hier mal zwei aktuelle Beispiele, die ich ganz spannend finde:

  • Computer lösen komplizierte Probleme, indem sie die in viele einfache Probleme aufteilen und dann lösen. So ein einfaches Problem ist das Sortieren von Listen. Also nichts anderes als 8, 2, 3, 4, 1, 9 in 1, 2, 3, 4, 8, 9 umzuwandeln.
    Letztes Jahr konnten Wissenschaftler:innen in einem Nature-Paper seit relativ langer Zeit erstmals wieder signifikante Fortschritte erzielen, die inzwischen auch in sehr vielen Programmen verwendet werden. Geschafft haben sie das mittels Reinforcement Learning, einer speziellen Sorte von KI.
  • Zahlen sortieren ist jetzt natürlich nicht so richtig cool. Aber wie wäre es damit, das Leben von Menschen vorherzusagen? Also zum Beispiel, wann sie aus einem Land wegziehen? In einem kürzlich veröffentlichten Paper hat die Gruppe um Sune Lehmann ein neuronales Netzwerk vorgestellt, dass sehr komplexe Daten mittels neuronaler Netze so zusammenfasst, dass solche Vorhersagen möglich werden. Langfristig könnten damit zum Beispiel auch rare diseases besser diagnostiziert werden. 

KI-Systeme zu trainieren, ist enorm aufwendig. Selbst für vergleichsweise simple Modelle kann es mehrere Tage dauern, bis sie fertig gelernt haben. Für die zwei oben genannten Beispiele braucht man zumindest ein kleineres Rechenzentrum. Für komplexe Modelle wie ChatGPT massiv große Rechenzentren. Selbst die allermeisten Universitäten verfügen nicht über die nötige Rechenleistung, um solche komplexen Modelle zu trainieren. Und kleine Firmen erst recht nicht. 

Aber es braucht unabhängige Forschung an Universitäten, um zu verstehen, wie KI funktioniert, welche Limits existieren und mögliche Biases zu identifizieren. Genauso braucht es möglichst viele Firmen – und auch non-profit Organisationen – um zu verhindern, dass einzelne Firmen in Monopol-Positionen kommen.

Ich glaube, die allermeisten von uns wünschen sich KI, bei deren Entwicklung auch darauf geachtet wird, welche negativen Seiteneffekte es geben könnte. Das kann nur sichergestellt werden, wenn wir selbst KI entwickeln – und hier hinkt Europa bereits hinterher. Open Source-Modelle sind aktuell unsere beste Chance, zumindest weiterhin im Rennen zu bleiben.