Simon Felix ist Dozent für Informatik und Forscher an der Fachhochschule Nordwestschweiz. Er ist zudem Gründer und CTO des Softwareunternehmens Ateleris. Einer seiner Arbeitsschwerpunkte ist die Erforschung und Anwendung von KI.
Christoph Wider
Wenn Sie einer KI eine Frage stellen, reist Ihre Anfrage durch das Internet zu einem Rechenzentrum irgendwo auf der Welt. Was dort passiert, überrascht die meisten: Die KI arbeitet nicht mit logischen Regeln oder einem strukturierten Denkplan. Stattdessen baut sie ihre Antwort einfach Wort für Wort auf, indem sie jedes Mal statistisch wahrscheinliche Wörter wählt. Auf «Es war einmal» folgt «vor langer Zeit», weil das eine häufige Fortsetzung in Millionen von Texten war.
Auf den ersten Blick klingt das weniger nach Denken als nach simpler Wahrscheinlichkeitsrechnung. Und damit liegen Sie gar nicht so falsch. In dieser Statistik steckt aber bereits mehr Intelligenz, als wir vermuten.
Denn das nächste Wort vorherzusagen ist keine einfache Aufgabe. Stellen Sie sich vor, Sie müssten mitten in einem komplizierten mathematischen Beweis das nächste, wahrscheinlichste Wort vorhersagen. Oder betrachten wir einen Reim: Ein Wort am Ende eines Verses ist nur dann wahrscheinlich, wenn damit der Reim am Schluss aufgeht. Um passende Wörter auszuwählen, muss die Statistik also abbilden, wie mathematische Beweise funktionieren, welche Versmasse es gibt, wie Argumente aufgebaut sind.
Die KI hat nie verstanden, was ein Argument ist. Sie hat aber gelernt, wie Argumente aussehen. Und das, so stellt sich heraus, reicht erstaunlich weit. Ähnliches gilt für Ironie, für Mitgefühl, für juristische Präzision – die KI hat keines dieser Konzepte verstanden – und trotzdem produziert sie Texte, die danach klingen. Was sagt das über die Konzepte aus? Und was über uns, die wir das für echtes Denken halten?
Interessanterweise legt die Hirnforschung nahe, dass das menschliche Denken ähnlich funktionieren könnte. Nach der sogenannten Predictive-Coding-Theorie, einem heute weitgehend akzeptierten Modell in den Neurowissenschaften, ist das Gehirn im Kern eine Vorhersagemaschine. Es modelliert ständig, was als nächstes kommen wird – ein Geräusch, ein Wort, eine Empfindung – und gleicht diese Erwartung mit dem tatsächlich eintreffenden Signal ab.
Was wir als Wahrnehmung und Denken erleben, ist das Ergebnis dieses permanenten Abgleichs von Vorhersage und Korrektur. Nicht die Realität dringt ins Bewusstsein, sondern das, was das Gehirn erwartet hat – und was davon abweicht. Glaubt man dieser Forschung, entsteht das Denken also nicht als freier, logischer Fluss, sondern Schritt für Schritt, aus biologisch-chemischen Prozessen heraus, die sich dem Bewusstsein weitgehend entziehen.
Eine KI, die Wort für Wort das Wahrscheinlichste vorhersagt, macht strukturell dasselbe. Das klingt nicht nach einem fundamentalen Unterschied zwischen Menschen und Maschine. Es klingt vielmehr nach einem Spiegel.
Manche werden jetzt einwenden: «Aber die Maschine hat doch kein Bewusstsein, keine Emotionen!» Stimmt. Aber eine einzelne Hirnzelle auch nicht. Bewusstsein und Emotionen entstehen irgendwo zwischen Milliarden von Neuronen – niemand weiss genau wo. Ist dasselbe Prinzip bei Milliarden von Transistoren ausgeschlossen? Vielleicht ist menschliche Intelligenz selbst nichts anderes als ein sehr komplexes Muster, nur eben in Neuronen statt in Silizium.
Ob Maschinen wirklich denken, werden wir so schnell nicht beantworten können. Die Frage ist allerdings gar nicht so interessant. Spannender wäre: Warum sind wir Menschen so sicher, dass wir es tun?