Dushan-Wegner

21.01.2021

Wenn Chatbots zu Rassisten werden

von Dushan Wegner, Lesezeit 8 Minuten, Foto von Ben Gao
Mit künstlicher Intelligenz ausgestattete Chatbots werden schnell »rassistisch«. Lernen sie einfach nur von ihren Benutzern, oder sind Computer eben so?
Telegram
Facebook
𝕏 (Twitter)
WhatsApp

»Microsoft shuts down AI chatbot after it turned into a Nazi«, zu Deutsch etwa: »Microsoft fährt Künstliche-Intelligenz-Chatroboter herunter, nachdem er zum Nazi wurde« so lasen wir im März 2016 (cbsnews.com, 25.3.2016).

Anlass der Empörung war ein Software-Projekt mit dem Namen »Tay« (Abkürzung für »Thinking About You« – etwa: »An dich denkend«). Microsoft hatte die selbstständig antwortende Software auf Twitter angesetzt, auf dass sie den übrigen Twitterern zuhöre, von ihnen lerne und ihnen dann gemäß ihrer Interessen antworte.

Kaum 16 Stunden Twitter-Erfahrung hatte die Maschine auch wirklich gelernt – sie hatte gelernt, zu fluchen und lauter »verbotene« Dinge zu sagen, und Microsoft schaltete den Twitter-Roboter wieder ab (und wenn man einige der Roboter-Aussagen etwa zu einem bestimmten in Deutschland um 1940 herum tätigen Österreicher liest, kann man gut verstehen, dass sie den Bot ausschalteten).

(Randnotiz: Es ist 2021 und heute werden nicht nur Bots »ausgeschaltet«, sondern auch einfache Bürger und sogar Politiker, wenn sie das Narrativ der Konzerne und die in wohlgesicherten Fluren festgelegte Version der erlaubten Wahrheit auf die eine oder andere Weise stören, etwa durch wahre Wahrheit, doch das soll heute nicht (mehr) unser Thema sein.)

Halb amüsiert, halb verstört fragten manche Beobachter: Ist künstliche Intelligenz gar inhärent böse? (Mit »böse« ist hier alles gemeint, was die Fake-Moral des Konzernmarketings als solches festlegt, also von der Behauptung, dass es nur zwei Geschlechter gibt, bis hin zum Genozid (außer natürlich dieser Genozid geschah in Ländern, wo diesen zu erwähnen in wirtschaftliche Nachteile resultieren würde).)

Die wahrscheinliche Antwort auf den Grund der »Roboter-Boshaftigkeit« war schnell gefunden: Der Roboter hatte tatsächlich von den Benutzern, die mit ihm kommunizierten, gelernt. Ganz wie Menschen auch hatte der Roboter versucht, Dinge zu sagen, die ihm positive Reaktionen einbrachten – und so konnte er von einer (laut Microsoft: relativ kleinen) Gruppe von zynisch trollenden Benutzern dazu trainiert werden, sehr schlimme Dinge zu sagen.

Turing-Test, in echt

Das Tay-Experiment war für Konzerne und Software-Firmen keineswegs ein Anlass, ihre Entwicklungen im Bereich Chatbots einzustellen! Interaktive Sprachkommunikation mit dem Menschen bleibt aus vielen Gründen eins der Hauptziele der Künstliche-Intelligenz-Forschung; es wird bereits jetzt von Kunden erwartet (siehe etwa »Siri« auf Apple-Geräten), es ist wissenschaftlich begrüßenswert, da es in mehreren Disziplinen zu Spitzenleistung motiviert (von der Computerlinguistik über Machine Learning bis hin zur Psychologie von Mensch-Computer-Interaktionen), weil es natürlich politische und militärische Implikationen hat (man bedenke die Propaganda- und Geheimdienst-Möglichkeiten…) – und zu all dem stellt es eine denkbar buchstäbliche Umsetzung des »Turing-Tests« dar (siehe Wikipedia), wonach ein Computer dann ein dem Menschen gleichwertiges Denkvermögen aufweist, wenn die Kommunikation mit ihm ununterscheidbar von der Kommunikation mit einem echten Menschen ist.

Immer wieder, bis heute, versuchen sich Tech- und Kommunikationsfirmen daran, der Öffentlichkeit einen Roboter anzubieten, der von dieser lernt – nur um ihn dann peinlich berührt wieder abzuschalten. Die neuen Anbieter können etwa Klick-Nachrichten-Sites wie buzzfeed.com sein (deren Kollegen von vice.com berichten einigermaßen hämisch darüber: vice.com, 3.1.2020), oder Südkoreanische Startups (vice.com, 12.1.2021).

Aber auch Microsoft selbst lässt sich wohl (zum Glück!) nicht davon abbringen, von künstlicher Intelligenz getriebene Chatbots zu erfinden. Ein aktuelles Patent lässt vermuten, dass Microsoft mit dem Gedanken spielt, Verstorbene als Chatbots »wiederauferstehen« zu lassen (independent.co.uk, 20.1.2021) – inklusive virtueller Simulation der Toten nach Fotos und Videos!

Wieder Elon Musk

2020 wurde eine neue Generation von Sprachen-Modellen vorgestellt, die als »GPT-3« bekannt ist, was für »Generative Pre-trained Transformer 3« steht, und sie stammt vom Projekt »Open AI« (openai.com), an welchem – oh, Überraschung! – ein gewisser Elon Musk beteiligt ist.

GPT-3 stellt nicht nur in rohen Zahlen alle bisherigen Sprach-Modelle in den Schatten. Es arbeitet mit 175 Milliarden Parametern (siehe Wikipedia), also gewissermaßen »Variablen«, die im automatischen Lernprozess gesetzt wurden und weiterhin gesetzt werden. Interessanter als die blanken Zahlen aber ist die Qualität der Sprache und Aussagen, welche von GPT-3 erzeugt werden.

Eines der spannendsten YouTube-Videos zu GPT-3 ist eine Demonstration von Eric Elliot, der via Text-Schnittstelle einige echte Wissens- und Denkfragen an das Modell stellt, die Antworten allerdings von einer Avatar-Firma vertonen und bebildern ließ, und also mit der Software wie mit einem Menschen zu sprechen scheint (youtube.com/watch?v=PqbB07n_uQ4).

Ich bin damit aufgewachsen, mich alle paar Monate über neue technische Erfindungen zu freuen; immer wieder aufs Neue waren wir erstaunt: »Oh, das können Computer jetzt also auch!«

Meine Kinder wachsen mit einer anderen Beziehung zur Technik auf (und zu Medien insgesamt, was ich merkte, als meine Tochter vor Jahren einmal in einem Kinderbuch zu »wischen« versuchte, wie man es auf einem Tablet tut). Wenn Kinder heute von Technik überrascht sind, dann in ganz anderen Situationen als wir damals, denn sie rufen nicht: »Oh, das können Computer jetzt also auch?!«, sondern: »Wie, das können Computer noch nicht?!«

Ist halt so

Einer der erwähnten Texte (vice.com, 3.1.2021) über fehlgelaufene Bots zitiert im Bild zwei der Aussagen, welche die Software ungünstigerweise »gelernt« hatte, und sie lautet: »I feel like interracial relationships were easier before wokeness took over«; zu Deutsch etwa: »Ich habe das Gefühl, das Beziehungen zwischen Menschen unterschiedlicher Hautfarbe einfacher waren, bevor ›wokeness‹ übernahm.«

Im Artikel dann wird aber aufgrund von anekdotaler Evidenz (und selbst die ist spärlich) von der Autorin behauptet, dem sei natürlich nicht so – es ist auch schwer, von einer Publikation (zu deren Investoren auch ein gewisser Herr Soros zählt), die unablässig »wokeness« predigt, etwas anderes als das Nachziehen »woker« Glaubenssätze zu erwarten.

Dass Computer zu »politisch unkorrekten« Erkenntnissen gelangen und dann von »woken« Angestellten der Konzernen korrigiert werden (sollen/müssen), scheint mir aber mehr zu sein als die übliche und wohl auch natürliche Propaganda-Nähe der globalen Big-Tech-Konzerne.

Wenn wir das obige, politisch recht neutrale Beispiel-Interview mit GPT-3 betrachten (youtube.com/watch?v=PqbB07n_uQ4), dann wirkt die Maschine auf den ersten Blick wirklich sehr intelligent und allwissend – bis es uns nach einigen Minuten schwant: Die Maschine hat »einfach nur« das Internet auswendig gelernt, wahrscheinlich von Wikipedia und großen Nachrichtenseiten ausgehend.

Ja, ja, ich weiß: »einfach nur das Internet auswendig lernen« ist selbstredend weit mehr als irgendein Mensch auch nur im Ansatz leisten kann – jedoch in einem wichtigen Aspekt ist es auch weniger!

GPT-3 stellt sich selbst die Frage nach dem Sinn des Lebens (3:45) – und beantwortet sie sich selbst mit »42«, einer nun dann doch abgedroschenen Referenz, welche exemplarisch für drei Eigenschaften steht: 1. Die Software hat wohl wirklich »das Internet auswendig gelernt«, 2. sie ist darauf trainiert, im Hörer eine zufriedene Reaktion zu erzeugen, 3. sie hat keinen Deut »weiter gedacht«, sie arrangiert bekannte Bruchstücke neu, vertieft die allgemeine Erkenntnis jedoch nicht – noch nicht.

Ein Mensch kann Wissen und Erkenntnisse finden und erschaffen, die über den gesamten Erkenntnisstand des Internets (und damit meist auch: der restlichen Menschheit bis dahin) hinausgehen – kann das auch ein Computer?

Klüger als ich

Ich gehöre entschiedenerweise nicht zum Kreis jener, die halb panisch am Glaubenssatz festhalten, ein Computer könne niemals die schöpferische Leistung eines Menschen erreichen (wer solche Dogmen hochhält, der lässt mich an die Legende von »John Henry« denken, der beweisen wollte, dass er schneller als der Dampfhammer den Felsen zerschlagen konnte – was ihm einmal auch gelang, woraufhin er allerdings tot zusammenbrach).

Ein Roboter wird bestmöglich das tun, wofür er programmiert ist. Wer das gesamte Internet verinnerlicht hat, und wer einigermaßen sicher angeben kann, was davon wahrscheinlich wahr ist und was nach gegenwärtigem Wissensstand unwahr, und wer darauf programmiert ist, auf Fragen auch entsprechend zufriedenstellende Antworten gemäß des aktuellen Stands der Wissenschaft zu geben, der ist noch lange nicht »klug« oder gar »weise«.

Sowohl die vulgären Chatbots, deren Sinn es etwa ist, das Sprachverhalten von Jugendlichen zu imitieren, und die das dann »zu gut« tun (denn eigentlich will man, wie später klar wird, dass sie das Sprachverhalten eines vom Konzern-Marketing idealtypisch und klinisch rein geträumten »woken« Jugendlichen simulieren), als auch das sehr fortschrittliche GPT-3-Modell scheinen sich auf den ersten Blick nur innerhalb der gelernten Begriffskombinationen zu bewegen. Selbst wenn das Modell tatsächlich kleine JavaScript-Routinen schreibt, rekombiniert es doch bestehende simple Strukturen, es schafft keine – zumindest keine für uns bislang sichtbare und nutzbare – Ebene des Wissens und der Einsicht in die Welt.

Die Maschinen sind noch nicht klug, sie sind noch nicht weise.

Ich sage aber definitiv nicht, dass Maschinen nicht klug und weise werden können!

Das positive Modell

Menschen haben Computer geschaffen, die schneller rechnen als der schnellste Mensch, dazu Datenbanken und Speichervorrichtungen, die sich weit mehr merken können, als der belesenste Mensch sich merken kann, selbst »unberechenbare« Spiele wie Go werden erfolgreich berechnet (im asiatischen Spiel Go existieren mehr mögliche Positionen als es Atome im Universum gibt, und ein Computer kann nicht durch rohe Geschwindigkeit und rasend schnelle Mathematik gewinnen – er muss tatsächlich intelligent vorgehen; siehe dazu etwa bbc.com, 25.5.2017).

Wir könnten den Maschinen auch Klugheit beibringen, wir könnten die Maschinen klüger und weiser werden lassen, als wir es sind – doch dafür müssten wir zunächst für uns definieren (und sei es auch grob und provisorisch!), was wir mit dieser Klugheit meinen!

Ja, ich halte den Versuch für maximal erstrebenswert, Maschinen zu den »besseren Menschen« zu machen – aber sicherlich nicht durch Verbote, wie jene »woken« Big-Tech-Marketer, die den Chatbots eine immer längere Liste buchstäblicher Denk- und Sprechverbote erteilen.

Ich halte es für wertvoll und wichtig, darüber nachzudenken, welche positiven Lernvorgaben man einem Computer geben soll, damit er klüger und weiser wird als wir es sind. (Hätten wir ausreichend Mut, den Computer einfach »selbst denken« zu lassen? Wie ausgeschlossen ist es, dass der Computer tatsächlich klug wird, und dann erst recht »politisch unkorrekt« klingt?)

Ein solcher Versuch würde nichts weniger bedeuten, als dass wir das Modell des Menschen erschaffen, der wir selbst gerne wären.

Während wir für den Computer das positive Modell eines klugen Menschen entwickeln, könnte es uns ja passieren, dass wir ganz im Geiste des alten Auftrags, »erkenne dich selbst!«, uns selbst ein wenig besser erkennen.

Weiterschreiben, Wegner!

Danke fürs Lesen! Bitte bedenken Sie: Diese Arbeit (inzwischen 2,033 Essays) ist nur mit Ihrer Unterstützung möglich.

Wählen Sie bitte selbst:

Jahresbeitrag(entspr. 1€ pro Woche) 52€

Augen zu … und auf!

Auf /liste/ finden Sie alle Essays, oder lesen Sie einen zufälligen Essay:

Mit Freunden teilen

Telegram
Reddit
Facebook
WhatsApp
𝕏 (Twitter)
E-Mail

Wegner als Buch

alle Bücher /buecher/ →

Wenn Chatbots zu Rassisten werden

Darf ich Ihnen mailen, wenn es einen neuen Text hier gibt?
(Via Mailchimp, gratis und jederzeit mit 1 Klick abbestellbar – probieren Sie es einfach aus!)