Chatbots: Leiden am und für den Algorithmus

Nr. 14 –

Italien schiebt als erstes Land Chat GPT einen Riegel vor, zugleich warnt auch die Techbranche vor künstlicher Intelligenz. Im Silicon Valley stösst man aber rasch auf eher dubiose Befürchtungen.

Vier Monate dauerte es, bis das erste Land Chat GPT ausbremste: Gemäss der italienischen Datenschutzbehörde ist der Chatbot der US-amerikanischen Firma Open AI nicht mit der europäischen Datenschutzverordnung konform. Vergangenen Freitag wies sie Open AI an, das Tool in Italien für mindestens zwanzig Tage zu suspendieren, und drohte mit einer Millionenstrafe, sollten die Vorwürfe nicht widerlegt werden.

Für ganze sechs Monate sollen Techunternehmen das Training von künstlicher Intelligenz (KI) einstellen, die noch leistungsfähiger ist als GPT-4. Das forderte ebenfalls vergangene Woche ein offener Brief. Veröffentlicht wurde er auf der Website der amerikanischen Non-Profit-Organisation Future of Life Institute (FLI). Die Hauptunterzeichner:innen sind Techmilliardäre, Philosoph:innen und Akademiker:innen. Unter anderen Twitter-Chef Elon Musk, Apple-Mitgründer Steve Wozniak oder der Bestsellerautor Yuval Noah Harari sehen in unregulierten KI-Algorithmen eine grosse Gefahr. Sie fordern staatliche Zertifizierungsmassnahmen, eine Haftungspflicht für KI-Entwickler:innen sowie Markierungssysteme, die mittels KI generierte Inhalte erkennbar machen sollen.

Eine dubiose Philosophie

Auf den ersten Blick scheinen der Entscheid Italiens und der Appell rund um die reichen Männer des Silicon Valley Hand in Hand zu gehen. Tatsächlich aber liegen grundsätzlich verschiedene Auffassungen darüber vor, wie genau künstliche Intelligenz die Gesellschaft gefährden könnte – und dementsprechend auch darüber, wie die gesetzlichen Rahmenbedingungen ausgestaltet werden müssen, um den sozialen Kosten der Innovationen in diesem Bereich Rechnung zu tragen.

Im Zentrum der Beschwerdeführer:innen aus der Techbranche steht der schwedische Philosoph Nick Bostrom, der das Future of Humanity Institute an der Universität Oxford leitet. Bostrom ist Vertreter des «Longtermism», einer utilitaristisch geprägten Ideologie, die sich der Bewältigung der ganz grossen Zukunftsfragen verschrieben hat. Gegenwärtige Probleme werden dabei als blosse Kollateralschäden angesehen, solange sie die Menschheit nicht existenziell bedrohen. Im Silicon Valley stossen die Ansichten Bostroms auf Anklang: Sein Institut wird unter anderem mit Geldern von Musk sowie Skype-Mitgründer und FLI-Mitglied Jaan Tallinn finanziert.

Die «Techbros» aus Kalifornien haben sich aus den Prinzipien des «Longtermism» eine Art säkulares Glaubenssystem gebastelt: Sie betrachten die Verschmelzung des Menschen mit einer übermächtigen Superintelligenz als nächste Stufe der Evolution. Dadurch würden langfristig alle Probleme der Menschheit gelöst. In dieser Erzählung kommt der künstlichen Intelligenz die Rolle der grossen Bedrohung zu – in Gestalt einer vermeintlich drohenden KI-Apokalypse, ausgelöst von allmächtigen Algorithmen, die sich irgendwann gegen die Menschen wenden.

Nüchterne Einschätzung

Das FLI, zu dessen Hauptgönner:innen auch die Musk Foundation gehört, versucht daher, in Brüssel die geplanten KI-Regulierungen der EU zu beeinflussen. Viele Forderungen, die das Institut in der europäischen Gesetzgebung verankert haben will, finden sich auch im offenen Brief. Zitiert wird dabei ausgerechnet ein Papier des progressiven KI-Instituts DAIR um die ehemalige Google-Forscherin Timnit Gebru. Dort aber schätzt man das Potenzial der KI deutlich nüchterner ein. Zusammen mit Linguistikprofessorin Emily M. Bender sowie zwei weiteren Mitautor:innen prägte Gebru den Begriff des «stochastischen Papageis»: Sogenannte Large Language Models (LLMs) wie Chat GPT seien lediglich Modelle, die mittels Wahrscheinlichkeiten Wörter nachplapperten.

Gebru und Bender gehören zu den wenigen Stimmen aus dem Umfeld der KI-Forschung, die vor der Ideenwelt des «Longtermism» warnen. Daher kritisieren die Forscher:innen auch den offenen Brief aus dem Silicon Valley: Dass heute kein KI-Tool auch nur in der Nähe menschlichen Leistungsvermögens operiere, geschweige denn ein Bewusstsein besitze, werde ausgeblendet. Die Beschwörung der von «bösen» Superalgorithmen ausgehenden Gefahren verschleiere zudem aktuelle Probleme. «Der Brief adressiert keine der bestehenden Schäden, die KI-Systeme hervorrufen», heisst es in der Erklärung.

Zu diesen Schäden zählen die Ausbeutungspraktiken bei der KI-Entwicklung. Im Januar enthüllte das US-Magazin «Time», dass die Trainingsdaten für Chat GPT durch das amerikanische Unternehmen Sama in Kenia ausgewertet wurden. Die Arbeiter:innen dort agierten dabei gleichsam als Schutzschild für den Chatbot: Sie sollten pornografische Darstellungen oder solche von Gewalt oder Kindesmissbrauch herausfiltern, die sich in den Open-AI-Bibliotheken verfangen hatten. Angestellte bezeichneten die traumatisierende Arbeit als «Folter», psychologische Unterstützung wurde kaum angeboten. Dafür sollen sie zwischen 1,32 und 2 US-Dollar pro Stunde verdient haben.

Trotzdem bezeichnet sich Sama unverdrossen als «ethisches KI-Unternehmen», das bereits Tausenden aus der Armut geholfen haben will. Tatsächlich kam, als Open AI den Vertrag mit der Firma vorzeitig kündigte, Widerstand von unerwarteter Seite: Die kenianischen Arbeiter:innen waren auf die Bonuszahlungen angewiesen, die sie für das Bearbeiten besonders verstörender Inhalte erhielten. Sama steht derzeit bereits im Zusammenhang mit Aufträgen für den Facebook-Konzern Meta in Kenia vor Gericht – unter anderem wegen der Unterdrückung von Gewerkschaften und unmenschlicher Arbeitsbedingungen.

Die kenianischen Datensortierer:innen sind aber nur ein Glied einer ausbeuterischen Wertschöpfungskette. Ein weiteres sind die Daten, die sie verarbeiten – das eigentliche Fundament der Large Language Models. Sie werden aus dem Internet zusammengeklaubt. Im Februar kritisierten daher Medien wie CNN oder das «Wall Street Journal» Chat GPT: Die KI verwende für ihr Training journalistische Inhalte ohne urheberrechtliche Vergütung. Auch Künstler:innen und Autor:innen werfen den Tech-Start-ups Datenklau vor.

Intransparente Datensätze

Regulierungen, die dies verhindern könnten, bestehen nicht. Bei vielen Algorithmen ist ohnehin schwer nachzuverfolgen, wessen geistiges Eigentum in den Modellen steckt. So verschweigt Open AI, welche Daten in GPT-4 verwendet werden. Die Intransparenz wird mit dem Wettbewerbsdruck gerechtfertigt. Unternehmen, die für das Internet Inhalte erschaffen, kann dies in die Zwickmühle führen: sich verweigern oder mitmachen? Anfang Jahr verkündete «Buzzfeed» als erstes journalistisches Medium, in Zukunft Inhalte mittels Chat GPT zu verfassen. Der Aktienkurs des US-Onlinemagazins verdoppelte sich daraufhin.

Es ist bezeichnend für die fehlenden gesetzlichen Rahmenbedingungen, dass nun Italien mittels der eigentlich nicht auf KI ausgerichteten europäischen Datenschutzverordnung durchgreift. Sowohl die EU als auch der Europarat wollen daher bei den KI-Regulierungen vorwärtsmachen. Ein Konsens, wie diese konkret aussehen sollen, fehlt aber. Eine Studie der ETH Zürich von 2019 belegte, dass in 84 Dokumenten mit Richtlinien, die sich mit «ethischer KI» befassten, kein einziges gemeinsames Prinzip auftauchte. Nicht überraschend also, dass das europäische Bestreben, die künstliche Intelligenz in Schach zu halten, dem Lobbyismus aus dem Silicon Valley Tür und Tor öffnet.