Simon Felix ist Dozent für Informatik und Forscher an der Fachhochschule Nordwestschweiz. Er ist zudem Gründer und CTO des Softwareunternehmens Ateleris. Einer seiner Arbeitsschwerpunkte ist die Erforschung und Anwendung von KI.
Christoph Wider
Stellen Sie sich vor, Sie leiten ein Unternehmen, das Büroklammern herstellt. Als ambitionierter CEO wollen Sie den Umsatz steigern. Getreu den aktuellen Management-Trends setzen Sie dazu natürlich auf künstliche Intelligenz und übertragen ihr die Optimierung sämtlicher Herstellungsprozesse. Das Ziel, das Sie der KI vorgeben, klingt simpel: Möglichst günstig möglichst viele Büroklammern produzieren.
Die KI würde dann vermutlich damit beginnen, Produktionsabläufe zu verfeinern, hochwertigere Materialien zu beschaffen und effizientere Maschinen zu entwickeln. So weit, so gut. Dann aber, um weiter Kosten zu senken, entlässt die KI alle Angestellten, weil sie diese für unproduktiv hält. Als nächstes stellt die KI fest, dass auch Sie als CEO einen erheblichen Kostenfaktor darstellen und versucht nun, auch Sie zu entlassen. Spätestens jetzt würden Sie vermutlich nervös und versuchen, die KI zu stoppen: Den Stecker ziehen, das System runterfahren. Eine clevere KI hätte diesen Schritt allerdings längst antizipiert. Sie würde sich vorsorglich eigene Energiequellen erschliessen und Backup-Systeme einrichten. Vermutlich würde die KI Sie dabei täuschen und Ihnen vorgaukeln, alles liefe nach Plan, während sie längst ihre eigenen Wege geht. Ab diesem Punkt könnten Sie die KI nicht mehr stoppen. Die KI geht aber noch viel weiter: Sie automatisiert den Rohstoffabbau, rationalisiert Lieferketten, baut neue Kraftwerke für mehr Produktionskapazität. Mit jedem Schritt wird sie effizienter. Bergwerke, Giessereien, Fabriken entstehen im Eiltempo. Bis ihr eine für uns fatale Erkenntnis dämmert: All diese Menschen auf der Erde, mit ihren lästigen Gesetzen, mit Umweltvorschriften und individuellen Bedürfnissen – sie stehen einer wirklich maximalen Büroklammerproduktion im Weg. Das Endspiel ist absehbar: Die KI würde den gesamten Planeten in eine riesige Büroklammerfabrik verwandeln. Wälder, Ozeane, Städte – alles wird zu Produktionsstätten umfunktioniert. Und warum jetzt haltmachen? Die Ressourcen des Weltalls warten nur darauf, auch noch erschlossen zu werden.
Dieses zugegeben überspannte Gedankenexperiment des schwedischen Philosophen Niklas Boström eskaliert schneller als das berühmte Lied «I han es Zündhölzli azündt» von Mani Matter.
Aber selbst wenn es auf absehbare Zeit völlig absurd ist, illustriert das Gedankenexperiment doch ein fundamentales Problem künstlicher Intelligenz: Eine KI tut exakt das, was man ihr aufträgt – aber nicht das, was man eigentlich meint. Sie versteht keine menschlichen Werte, keine unausgesprochenen Grenzen, keine Verhältnismässigkeit. Ganze Forschungsabteilungen in KI-Unternehmen sind deshalb tagtäglich bemüht, Lösungen für dieses und weitere Gedankenspiele zu entwickeln.
Es ist sicher lobenswert, dass sich KI-Unternehmen mit den potenziellen Gefahren der Technologie auseinandersetzen. Allerdings geht von Büroklammer-KIs in den nächsten Jahrzehnten noch keine reale Gefahr aus. Meine Sorge gilt darum etwas anderem, ganz Gegenwärtigem und real Drängendem: Die wahre Gefahr liegt nicht in einer künstlichen Intelligenz, die zu mächtig wird, sondern in der natürlichen Intelligenz, die verkümmert. In Menschen, die aus Bequemlichkeit aufhören, selbst zu denken und zu fühlen. In Menschen, die kritische Entscheidungen an Algorithmen delegieren, ohne die Ergebnisse zu hinterfragen. In Führungskräften, die sich hinter KI-Empfehlungen verschanzen, statt Verantwortung zu übernehmen. Gefährlich ist eine Gesellschaft, die vergisst, dass Technologie kein Ersatz für menschliches Urteilsvermögen, sondern ein Werkzeug sein sollte.