«Künstliche Intelligenz verletzt Menschenrechte»

Philosoph und Ethiker Peter Kirchschläger warnt vor den Risiken durch Künstliche Intelligenz. Er fordert klare Leitplanken.

Porträt von Peter Kirchschläger
Peter G. Kirchschläger ist Professor für Theologische Ethik und Leiter des Instituts für Sozialethik ISE an der Universität Luzern. Die Forschungsschwerpunkte des 47-Jährigen sind die Ethik der «künstlichen Intelligenz» und digitalen Transformation.

Noch nie in der Geschichte hatte eine Technologie ein solches Tempo in ihrer Entwicklung und Verbreitung wie Künstliche Intelligenz (KI). Doch was macht das mit uns als Menschen und wo liegen die ethischen Grenzen? Professor Peter Kirchschläger erklärt, welche moralischen und philosophischen Fragen sich durch KI stellen.

Herr Kirchschläger, welche zentralen Fragen in puncto KI kamen Ihrer Meinung nach bis dato zu kurz?

Sogenannte KI fängt nicht an, wenn wir sie zum Beispiel in Form von ChatGPT vor uns haben. Sie beginnt bei der Schürfung von Rohstoffen, die für die Herstellung der Computerchips nötig sind. Menschenrechtsverletzungen, Kinderarbeit und Umweltzerstörung sind dabei leider an der Tagesordnung. Darüber hinaus würde ich mir wünschen, dass die Diskussion um den ökologischen Fussabdruck stärker in den Fokus rückt.

Rohstoffe wie Silizium sind unabdingbar für die Chipherstellung – und sie kommen fast nur in Drittweltländern vor. Die Ausbeutung dieser Regionen ist nicht neu.

Deswegen muss es nicht so bleiben. Demokratische Regierungen und multinationale Techkonzerne sind in der Verantwortung, zusammen mit lokalen Verantwortlichen den menschenrechtskonformen Abbau dieser Ressourcen sicherzustellen.

Die meisten Konzerne im Bereich KI sind amerikanisch. Die ersten Aussagen des neuen US-Präsidenten Donald Trump deuten nicht auf schnelle Besserung hin.

Das würde ich so unterschreiben. Die Wahl von Trump hat die Situation nicht verbessert. Er tritt mit seinen Worten und Taten unter anderem die Menschenwürde und die Menschenrechte sowie den Umwelt- und Klimaschutz mit Füssen und zieht abschätzig über Andersdenkende, Frauen und Menschen auf der Flucht oder mit Migrationsgeschichte her. Als Präsident der USA ist er fatal für die Menschheit und die Schöpfung. Meines Erachtens gilt es unter anderem, kritisch zu untersuchen, welche Rolle die von Trump-Unterstützer Elon Musk kontrollierte und zensierte Plattform X (früher Twitter) sowie sogenannte KI und Social Media generell in diesem Wahlkampf gespielt haben.

Ist die KI-Technologie ein Spiegel des menschlichen Denkens oder vielmehr die Konkurrenz dessen?

Weder noch. Im Bereich von emotionaler und sozialer Intelligenz haben Menschen ein Alleinstellungsmerkmal. Anders als KIs sind wir zu echten Gefühlen und authentischen Emotionen fähig. Das Gleiche gilt für die Moralfähigkeit: Menschen können erkennen, was richtig oder falsch und gut oder böse ist. Weil dies für Maschinen unerreichbar ist, halte ich auch den Begriff Künstliche Intelligenz für irreführend. «Datenbasiertes System» ist treffender.

Bleiben wir der Einfachheit halber beim Begriff KI. Es ist zu beobachten, dass KI-Roboter immer öfter in der Pflege eingesetzt werden. Was bedeutet das für unsere Empathiefähigkeit?

Es ist möglich, ein datenbasiertes System so weit zu bringen, dass es eine fast perfekte Gefühlsäusserung nachahmen kann. Das Problem dabei: Dem Roboter ist es nicht einmal egal, ob er einen Patienten anschreit, ihn tröstet oder ihm ein Glas Wasser bringt. Er tut einfach, was ihm beigebracht worden ist. Deshalb halte ich es für essenziell wichtig, dass in Bereichen, wo emotionale, soziale Intelligenz eine wichtige Rolle spielt, auf Menschen gesetzt wird.

Worin KI-Systeme uns Menschen aber überlegen sind, ist zum Beispiel in der Verarbeitung grosser Datenmengen.

Das ist richtig, dennoch sollten wir uns nicht als Mangelwesen verstehen. Es geht darum, die Stärken von KI auszunutzen – zur Erweiterung unserer Fähigkeiten. Und in jenen Bereichen, in denen der Mensch überlegen ist, gilt es, KI-Systeme mit Bedacht einzusetzen oder die Finger davon zu lassen.

Sehen Sie die Gefahr von einer Abhängigkeit von diesen Werkzeugen? Und ist es denkbar, dass sich unsere Fähigkeiten zurückentwickeln?

Es ist absehbar, dass beides passiert. Schon heute lässt sich beobachten, dass wir nicht unbedingt gescheiter werden, wenn wir KI-Tools zu intensiv nutzen. Ich sehe aber noch eine dritte Auswirkung: Durch die Gestaltung der Algorithmen und die Auswahl der Trainingsdaten ergibt sich Manipulationspotenzial. Das heisst, dass die Menschen, die KI-Tools nutzen, durch die Antworten der Maschine manipuliert werden.

Was lässt sich dagegen tun?

Durch eine bewusste und kritische Nutzung von KI-Tools lässt sich dem entgegenwirken.

Reicht das gegen mögliche Manipulationen? Sie passieren so subtil, dass die Erkennung selbst für Menschen, die ein tiefes Verständnis von KI haben, schwierig wird.

Ja, wir werden teilweise nicht mehr unterscheiden können, ob Botschaften oder Bilder und Videos von einer KI stammen oder nicht. Der Einfluss auf unsere Entscheidungen, sei es bei Wahlen und Abstimmungen oder im Alltag beim Einkaufen, wird noch massiv zunehmen.

KI-Systeme beeinflussen unsere Entscheidungs­freiheit. Aber sie werden künftig auch selbst Entscheide treffen. Zum Beispiel, ob jemand einen Job oder eine Versicherungspolice erhält oder ob die Polizei jemanden festnimmt. Was bedeutet das?

Das ist aus ethischer Sicht hochproblematisch, weil es dazu führt, dass Menschen diskriminiert und benachteiligt werden. KIs sind weder fair, objektiv noch neutral. Zwar können Menschen in einem Recruitingprozess zum Beispiel auch Vorurteile haben, aber wir können das selbstkritisch reflektieren und zu Methoden greifen, um dem entgegenzuwirken: zum Beispiel durch das Vier- oder Sechs- Augen-Prinzip, um die Besetzung einer Stelle so fair wie möglich zu gestalten. Und genauso verhält es sich in allen anderen Bereichen auch.

Wer trägt die Verantwortung, wenn eine KI «falsch» entscheidet?

Eine KI selbst kann das nicht tun. Für mich wären die Anbieter von Dienstleistungen in der Verantwortung, die KI-Systeme einsetzen – analog zur heutigen Produkthaftung.

Es stellt sich auch die Frage, wer von KI überhaupt profitiert – und wer ausgeschlossen wird. Gilt die soziale Ungerechtigkeit auch, wenn zum Beispiel einkommensschwachen Menschen der Zugang zu KI-Technologien verwehrt bleibt?

Richtig, aber es ist nicht nur der Zugang ungerecht verteilt, sondern auch die Teilnahme an der Wertschöpfung. Künftig wird nur noch eine kleine Gruppe von Menschen Teil des Wertschöpfungsprozesses sein und an den Gütern und Dienstleistungen teilhaben, die effizienter und effektiver produziert werden.

Aus rechtlicher Sicht existiert in der Schweiz ein Diskriminierungsverbot. Das müsste doch anwendbar sein, wenn eine KI jemanden benachteiligt?

Es gibt zwar Gesetze, aber wir haben ein Durchsetzungsproblem. Aktuell werden Bereiche, in denen KI-Systeme zum Einsatz kommen, praktisch wie ein rechtsfreier Raum behandelt. Ich möchte das mit einem widerlichen Beispiel veranschaulichen: Es ist möglich, eine App auf den Markt zu bringen, die mit einer KI Bilder von Kindern sexualisiert – und diese App als legal eingetragenes Unternehmen in den USA auf normalen Social-Media-Kanälen zu vertreiben. Den Verantwortlichen passiert dabei nichts, ausser dass sie mit der App Unmengen an Geld verdienen.

Viele Menschen trennen online und offline. Auf der einen Seite wird dem Konzern Roche die Zulassung von Medikamenten nicht selbst über­lassen, Facebook dagegen die Bestimmung der Regeln für Onlinediskussionen schon. Wie passt das zusammen?

Die Marktzulassung von Medikamenten ist ein hervorragendes Beispiel. Bei Arzneimitteln ist diese zu Recht unumstritten, aber bei der Markteinführung von KI-Systemen fehlt die Überprüfung und Kontrolle komplett. Diese sind einfach plötzlich da und werden auf die Menschen losgelassen – obwohl sie im Kern Menschenrechte verletzen. Zum Beispiel in den Bereichen Datenschutz, Privatsphäre sowie Recht auf geistiges Eigentum.

Ist die Situation aussichtslos?

Nein. Ich konnte basierend auf meiner Forschung zwei Handlungsvorschläge formulieren, um die ethischen Probleme in den Griff zu kriegen: erstens die Schaffung einer Internationalen Agentur für datenbasierte Systeme (IDA) bei der UNO und zweitens die Forderung, Menschenrechte bei der Nutzung von KI-Systemen ins Zentrum zu stellen. Zu letzterem gibt es mittlerweile zwei UNO-Resolutionen, die verabschiedet worden sind. Und die Schaffung von IDA erhält globale Unterstützung, unter anderem von UNO-Generalsekretär António Guterres, vom UNO-Hochkommissar für Menschenrechte Volker Türk, aber auch von Papst Franziskus und Sam Altman, dem Gründer
von OpenAI.

Beides dürfte aber nicht von heute auf morgen passieren. Sind Sie ein geduldiger Mensch?

Nein, eigentlich nicht. Mir geht es oft nicht schnell genug, vor allem weil es hier wirklich um das Eingemachte geht und darum eine hohe Dringlichkeit angesagt ist. Aber die Anzeichen stimmen mich positiv.

Was stimmt Sie positiv?

Ich möchte IDA mit der internationalen Atomenergie­behörde vergleichen. Damals waren die Industriestaaten und die Rüstungsindustrien zunächst dagegen, diesen Bereich zu regulieren, was man sich heute kaum mehr vorstellen kann. Und doch gelang es schliesslich, die Atomenergiebehörde bei der UNO und eine entsprechende Regulierung zu schaffen, die nicht perfekt ist, aber Schlimmeres verhindern konnte. Das könnte auch im Bereich KI passieren: IDA soll dafür sorgen, dass nicht mehr jedes neue Sprachmodell sofort auf den Markt geworfen wird, sondern es vorher auf seine Menschenrechtskonformität geprüft wird.

Haben Sie jetzt KI mit der Atombombe verglichen?

Nein, mir geht es um die Art und Weise, wie diese Technologie angepackt wird. KIs lassen sich mit Nukleartechnologien aber dahingehend vergleichen, dass sie einen dualen Charakter haben. Überraschend ist das indes nicht: Die meisten Technologien lassen sich ethisch positiv und negativ nutzen. Meine Zuversicht rührt daher, dass es die Menschheit schon einmal geschafft hat, technisch Machbares zum Schutz aller einzuschränken.

Gilt der mögliche negative Einfluss von KI auch in Bezug auf die Religionsfreiheit?

Natürlich können Menschen auch bei religiösen Fragen oder Glaubensthemen manipuliert werden. Leider gibt es schon erste Versuche mit KI im seelsorgerischen Bereich. Ich halte das für ein Armutszeugnis, wenn in solch beziehungsbasierten Bereichen vermehrt auf KI gesetzt wird.

Unweit von Ihrem Büro hier an der Universität Luzern gab es einen solchen Versuch. In der Peterskirche konnten Gläubige zu einem «KI-Jesus» beten. Was halten Sie davon?

Es handelte sich um ein Kunstprojekt, das diesbezügliche Gespräche anregen wollte. Grundsätzlich halte ich solche Versuche des Einsatzes von KI im religiösen Bereich aber für ethisch problematisch. Die Gefahr der Manipulation ist im Bereich Spiritualität viel zu gross.

Aber die Realität ist eine andere. Sehen Sie die Gefahr, dass KI die Kirche in ein Pro- und Kontralager spaltet und mehr Verwirrung stiftet, denn Einigkeit?

Es ist nicht die erste Frage, die innerhalb von Glaubensgemeinschaften intensiv diskutiert wird. Spaltungsgefahr sehe ich mehr in der Beeinflussung von Menschen: Zum Beispiel, wenn KI in der Seelsorge eingesetzt wird, um Menschen in eine bestimmte Richtung zu lenken – auf eine missionarische Art und Weise.

Kriegen wir die vielen Probleme in den Griff? Wir haben gelernt, dass Sie kein geduldiger Mensch sind. Sind Sie ein optimistischer Mensch?

Ja. Ich glaube an das Gute im Menschen und traue es der Menschheit zu, die negativen Seiten von KI in den Griff zu bekommen und die Systeme ethisch und menschenrechtskonform zu gestalten und zu nützen.

KI wird in Zürcher Pfarreien eingesetzt

In einer nicht repräsentativen Umfrage hat das Forum-Magazin die 104 katholischen Pfarreien im Kanton Zürich zum Thema «Künstliche Intelligenz» (KI) befragt. 25 Pfarreien haben geantwortet, was in etwa einem Viertel der Pfarreien entspricht. 18 verwenden KI, 13 regelmässig, 5 ab und zu. Verwendet wird die KI sowohl von Pfarrpersonen, Seelsorgenden als auch von Sekretariatsmit­arbeitenden.

Wie in der Abbildung dargestellt, wird KI in 12 Fällen verwendet, um Texte zu schreiben, zu verbessern und zu korrigieren – etwa für die Pfarreiseite des Forum-Magazins. Dabei dient sie in 8 Fällen auch als Ideengeberin. In 2 Fällen hilft sie bei mangelnden Sprachkenntnissen zu übersetzen. KI unterstützt in 2 Fällen auch, Bilder oder Grafiken zu generieren. Dabei wird der Umstand geschätzt, dass KI-generierte Bilder nicht urheberrechtlich geschützt sind. In einer Pfarrei wird mit KI meditative Musik komponiert. Eine andere setzt KI bei administrativen Arbeiten ein. 7 Teilnehmende der Umfrage fanden es in Ordnung, KI für das Verfassen einer Predigt zu verwenden unter den folgenden Vorbehalten: KI dient als Inspirationsquelle, zur Strukturierung des Textes, als Rechercheinstrument.

In 2 Antworten wird grundsätzliche Skepsis gegenüber der Künstlichen Intelligenz geäussert. Bei allen anderen hängt die ethische Bewertung der KI von deren Verwendung ab. Sie gilt dann als unethisch, wenn die Absicht der Verwendung unethisch ist, wenn sie nicht deklariert wird, wenn ihre Resultate nicht von Menschen geprüft werden, wenn ihre Quellen nicht nachvollziehbar sind und wenn es keine verbindlichen Regeln gibt, nach denen sich die KI richten soll. Ausserdem weistjemand auf den hohen Energieverbrauch der KI hin.

Veronika Jehle und Eva Meienberg