Unser Autor Bastian ist zunehmend genervt von der öffentlichen Debatte über künstliche Intelligenz. Ein Thema über das größtenteils von absoluten Laien mit starken Meinungen diskutiert wird. Nur fair, wenn sich jemand mit starken Meinungen und zumindest ein bisschen Ahnung einmischt. Heute mit der ganz großen Frage: Können Maschinen denken?

Lass uns ein Spiel spielen: Du sitzt in einem Raum. Auf dem Tisch vor dir liegt ein Smartphone. WhatsApp ist geöffnet. Eine leerer Chatverlauf mit “Luca”. Ich komme rein und erkläre dir deine Aufgabe: “Finde heraus, ob Luca ein Mensch oder eine künstliche Intelligenz ist. Du kannst Fragen stellen und erhältst Antworten. Aber Achtung: Falls Luca eine KI ist, wird sie versuchen sich als Mensch auszugeben. Falls Luca ein Mensch ist, wird er/sie versuchen, dich davon zu überzeugen. Spiele solange, bis du zu einer Entscheidung gekommen bist.”

Ok, das klingt nach einem halbwegs komischen Spiel. Aber es ist eine leichte Abwandlung von dem Spiel, nach dem ein Film benannt ist und das mehr oder weniger Grundlage der Philosophie über künstliche Intelligenz ist: Das “Imitation Game” oder bekannter — der “Turing Test”. Vorgestellt wurde der Test von Alan Turing im Jahre 1952. Falls dir der Name bekannt vorkommt, kann das viele Gründe haben. Alan Turing war nämlich ein echter Tausendsassa: Er hat geholfen den zweiten Weltkrieg für die Alliierten zu gewinnen, hat die Turing-Maschine erfunden, an biologischen Problemen gearbeitet und hätte die Menschheit wahrscheinlich noch viel weitergebracht, wenn er nicht 1954 Suizid begangen hätte—vermutlich infolge der Hormonbehandlung, zu der er wegen seiner Homosexualität verurteilt wurde.

Ja, ich bin ein riesiger Turing-Fan. Trotzdem wieder zurück zum Thema. Turing hat sich—wie viele andere auch—nämlich bereits damals mit künstlicher Intelligenz befasst. Und wenn man den Begriff KI verwendet, kommt unweigerlich eine Frage auf: Können Maschinen denken? Deshalb hat er das Imitation Game entworfen.

Eine ganz ähnliche Frage ist vor einigen Wochen durch die Nachrichten gegangen: Können Maschinen Bewusstsein entwickeln? Ein Google-Ingenieur hatte nämlich genau das nach einer schriftlichen Konversation mit einer Google-KI behauptet. Als er diese “Gespräche” und weitere Dokumente veröffentlichte, wurde er schließlich von Google wegen Verstoß gegen Verschwiegenheitsrichtlinien freigestellt. Praktisch alle, die die Worte “künstliche Intelligenz” buchstabieren können, haben umgehend ihre Meinung dazu geäußert. 

Was würde also Turing dazu sagen? Naja, keine Ahnung. Turing ist tot und für ihn sprechen kann wirklich niemand. Aber man kann sich fragen, warum Turing lieber einen Aufsatz über das Imitation Game geschrieben hat, statt über die Frage “Können Maschinen denken?”. Praktischerweise hat er das gleich mit in seinen Aufsatz geschrieben. Sehr grob formuliert: Die Frage, ob Maschinen denken können, fand er schlecht. Dazu müsste man zunächst definieren, was eine Maschine ist und was “denken” bedeutet. 

Schon alleine “Maschine” von “Lebewesen” abzugrenzen ist nicht einfach: Wie sieht es aus mit genetisch veränderten Bakterien? Was ist mit Nanorobotern? Aber richtig schwierig wird es mit “denken”. Klar kann man versuchen, sich eine Definition aus dem Hut zu zaubern—schließlich kann jede:r eine Definition erfinden. Nur wo zieht man die Grenze zwischen “Denken” und “Nicht-Denken”? Das ist in allen Fällen mehr oder weniger willkürlich. Abhängig davon, wie man dann noch “Maschine” definiert, kann man sich die Frage, ob Maschinen denken können, schon selber beantworten. 

Für Mathematiker:innen und Ingenieur:innen ist so eine Frage irgendwo witzlos, wenn sie so ungenau gestellt ist, dass man sie nicht beantworten kann bzw. man durch die Wahl der Definition jede Antwort rechtfertigen kann. Deswegen hat sich Turing dieses Spiel ausgedacht und die Frage gestellt: “Kann man sich vorstellen, dass eine Maschine in diesem Spiel gut ist?” Das ist nämlich aus zweierlei Gründen schlauer: 

  1. Das Aussehen bzw. die Konstruktion der Maschine wird nicht bewertet. Solange sie das Verhalten eines Menschen imitieren kann, ist sie gut in dem Spiel. Das ist schon recht nahe an der Frage nach “denken”.
  2. Es wird nirgends vorgeschrieben, wie die Maschine intern funktioniert. Einerseits kann man das kritisieren, wenn man “denken” an bestimmte biologischen Prozesse knüpft. Andererseits passt es sehr gut zu einer typischen Annahme von Ingenieur:innen: Haben zwei Systeme für gleiche Eingaben gleiches Ausgabe-Verhalten, sind sie äquivalent.

Würde Turing also die heutige Diskussion über “Bewusstsein von Maschinen” mitbekommen, wäre es nicht undenkbar, dass er auch diese Frage für schlecht gestellt (dumm) hält: Je nachdem, wie man “Bewusstsein” definiert, kann man die Frage so beantworten, wie man möchte. 

Und genau da liegt aus meiner bescheidenen Sicht der Knackpunkt: Man kann durch die Frage, ob Maschinen ein Bewusstsein haben, nichts gewinnen. Egal welche Antwort jemand findet, jemand kann die zugrundeliegende Definition von “Bewusstsein” kritisieren und alle können wieder von vorne anfangen. Also überlegt man sich entweder eine bessere Frage so wie Turing (vielleicht sogar genau die gleiche Frage) oder man akzeptiert, dass man die eigene Lebenszeit auch besser verbringen kann: Feiern, Forschen oder Kunst bewundern.

Man kann sogar an künstlicher Intelligenz forschen, die Kunst erzeugt und dann die Veröffentlichung seiner Arbeit feiern. Nur so als Anregung, was du so machen könntest 😉

Zum Abschluss eine weitere persönliche Anregung: Unabhängig davon, wie man zu dem Thema steht: Der originale Aufsatz von Turing ist absolut lesenswert—er erfordert auch kein Vorwissen aus dem Informatikstudium. 

von Bastian Heinlein

Beitragsbild: Pixabay, Unsplash