Von Patrik Etschmayer - Nachdem die – unterdessen eingestellte – Möglichkeit, mit einer Kombination von Nazi-Ausdrücken Anzeigen zielgerichtet an Facebook-Nutzer mit eben diesen Vorlieben zu richten, entdeckt worden ist, stellen sich einige Fragen:
Haben die Facebook-Algorithmen eigentlich gar keinen Geschmack? Und keine Moral? Und da diese Fragen ohnehin mit Ja beantwortet werden müssen, wird es gleich wesentlich interessanter: Welche Stichworte gibt es, um Rechtsextreme, die nur Muslime hassen, zu targetten? Gibt es Facebook-Gruppen, die für ethnisch neutralen Völkermord sind? Gibt es wohl auch eine Gruppe für militante Buddhisten, die gegen Muslime hetzen, die einfach noch nicht gefunden wurde, weil es keine burmesisch sprechenden Admins gibt? Und welche geschmacklosen Anzeigenstichwörter könnte man in einer solchen Gruppe wirksam vermarkten?
Bei dieser Facebook-Sauerei fragt man sich unwillkürlich: Kann man auch auf Google oder Twitter Rassisten gezielt in Klartext ansprechen? Alle, die Zweifel daran haben, können beruhigt werden – laut Buzzfeed sei das natürlich möglich: Google ermöglichte das Ad-Targetting für Leute, die die Phrase «Zionisten kontrollieren die Welt» suchen, und Twitter liess das gezielte Bewirtschaften von rassistischen Begriffen für Schwarze und Hispanics zu.
[wc_quick_donation]
Natürlich wurden auch hier die Lücken geschlossen, sobald die Sauereien erst mal der Öffentlichkeit präsentiert worden waren. Bei Twitter seien Softwarefehler schuld gewesen, und Google gab zu, dass die Filter nicht gut genug gewesen seien und man sich bemühe, diese Dinge auszumerzen. Und – um wieder auf Facebook zurückzukommen: Sheryl Sandberg, COO von Facebook, musste zugeben, dass die Automatismen zu fürchterlichen Resultaten geführt hätten und jetzt in diesem Bereich wieder vermehrt Menschen die Kontrolle übernehmen würden.
Der Haken ist, dass in solchen Systemen Menschen erst zum Einsatz kommen, wenn die Milch verschüttet, das Bier umgekippt und der Nazi von der Leine gelassen worden ist. Denn auch wenn Google, Apple, Facebook, Microsoft und wer auch immer noch so hart daran arbeiten: Es wird immer einen Weg geben, die standardisierten Abläufe der Programme – oder eben Algorithmen – zu überlisten. Das kann mit einfachen Abänderungen in der Schreibweise von Wörtern passieren, die in den entsprechenden Kreisen bekannt und in Anwendung sind, durch das Verwenden von harmlos scheinenden Ersatzworten und Tarnausdrücken (wie z. B. 88 für HH, was für «Heil Hitler» steht) umgehen.
Das ist der Moment, wo eigentlich die Stunde der künstlichen Intelligenz schlagen müsste, sollte man glauben. Doch da gibt es einen weiteren grossen Haken:. So heisst Intelligenz im Zusammenhang mit abstossendem Verhalten sehr wenig: Heydrich, Mengele und Goebbels waren intelligente, gebildete Menschen, ja Heydrich war sogar sehr kultiviert und musikalisch. Mithin mehr, als man von einer tumben KI je verlangen würde. Und trotzdem war er ein Schlächter sondergleichen, der mitleidlos Tausende in den Tod schickte.
Heydrich fehlte es also nicht an Intelligenz, sondern an Menschlichkeit und Mitgefühl. Das soll natürlich nicht heissen, dass die zukünftigen KI von Google und Facebook Massenhinrichtungen veranlassen werden; aber wer an das völlig missglückte Chatbot-Experiment von Microsoft namens Tay zurückdenkt, das mit einer virtuellen jungen Frau begonnen hatte, die über Twitter fröhlich mit der Welt kommunizieren sollte, und innert 24 Stunden dank User-Inputs zu einer rassistischen, antisemitischen Obszönitätenschleuder mit Inzesttendenzen geworden war, sieht, dass hier wirklich ein Problem in den Siliziumhirnen vorhanden ist, wenn sie sich von Trollen schneller verderben lassen als ein ungekühltes Pouletbrüstchen von Salmonellen.
Dabei ist das Problem ziemlich klar, was hier schiefgeht: Computer machen entweder einfach schlechte Beispiele nach oder schlagen üble Dinge vor, weil sie ganz einfach nicht wissen, was die Welt für einen Menschen ist und wie sie sich anfühlt. Computer haben schlicht keinen Bezug zum Menschsein und sollen gleichzeitig menschlich handeln. Und da geht das einfach nicht. Denn ein Computer kann nicht leiden, ein Computer kann keine Zwischentöne erkennen, und er ist auch nicht in der Lage, die Wirkung seiner Worte auf die Empfänger zu qualifizieren oder quantifizieren. Zurückweisung kann für einen Menschen traumatisch sein. Das nicht zuletzt, weil der Ausschluss aus einer Gruppe evolutionär gesehen lebensbedrohend sein konnte. Einen Computer aber, der nichts als Strom braucht, lässt ein böses Wort so kalt, wie der Prozessorkühler dies eben zulässt.
Hass und Ausgrenzung sind – sogar ohne handfeste Taten – für soziale Wesen existenzielle Erfahrungen. Jeder kennt das Gefühl, blossgestellt oder zurückgestossen zu werden. Wer jemals von einem angebeteten – potenziellen – Partner abserviert worden ist, weiss genau, wie erschütternd ein solches Erlebnis sein kann. Ebenso intensiv ist die Euphorie, die man verspürt, wenn man von einer Person oder einer Gruppe angenommen und akzeptiert wird. Solche Gefühle – und wie wir mit ihnen umgehen, sie auslösen und erleben – machen uns Menschen aus. Es ist eine seelische oder neuronale Welt, die einem Computer, egal, wie toll er programmiert sein mag, völlig fremd ist. Nicht zuletzt, weil diese Dinge nicht intellektuell, sondern rein emotional sind. Und Emotionen sind der wichtigste, wenn nicht gar der einzige Antrieb im Leben, wobei Angst und das Streben nach Freude Hand in Hand gehen, um uns im Leben weiterzubringen und vor Schaden zu bewahren. Und da diese Gefühle meistens im Austausch mit anderen Menschen entstehen und auch deren Gefühle auf uns zurückwirken, ist Empathie ein zweiter grosser Baustein des Mensch- und Menschlich-Seins.
Computern fehlen Emotionen ebenso wie Empathie. Genauso ist dies zu einem gewissen Mass bei Psychopathen und Soziopathen der Fall, die es zwar schaffen, Gefühle und Mitgefühl vorzugeben, am Ende aber nur die Befriedigung ihrer eigenen Bedürfnisse als Ziel haben. Von dem her sind viele sozialen Netzwerke echte Psychopathen, die wegen ihres impliziten Ziels, möglichst viel Traffic und/oder Umsatz zu generieren, fast jede Bemühung der Betreiber zu sozialer Verantwortung ad absurdum führen. Wenn das Ziel des Algorithmus ist, möglichst viele Anzeigen an den Mann / die Frau / den Nazi zu bringen, dann wird er nach den entsprechenden Möglichkeiten suchen, dies auch zu tun. Und wenn einige Hürden gesetzt werden, werden sie zwar berücksichtigt werden – nicht, weil es für den Algorithmus böse wäre, diese Dinge zu schalten, sondern einfach, weil dies nun Teil einer Liste ist, die entsprechend in den Ablauf eingeschlossen werden muss –, aber ebenso sicher werden die bösen Menschen, die man eigentlich vermeiden will, einen Weg darum herum finden.
Wobei KI und soziale Netzwerke natürlich keine Psychopathen sind. Dafür sind sie viel zu blöd, und sie haben auch kein Interesse, ihre devianten Triebe zu befriedigen (mangels derselben). Doch je intelligenter diese Entitäten werden, desto bedrohlicher werden sie auch – nicht zuletzt, weil sie auch dann immer noch primär die meist kommerziellen Ziele des Betreibers verfolgen werden, ohne einen Funken Menschlichkeit und ohne Gefühl für das Leben, die Emotionen und das Schicksal von Menschen zu verspüren.
Es wird also interessant sein, wie die künstliche Intelligenz den Spagat zwischen kommerziellen Zielen und Philanthropie finden wird, wenn die Intelligenz wirklich mal da ist. Wenn man nicht wüsste, dass Menschen auch ganz allein saublöd sind, wäre zum Beispiel die Verbreitung von Anti-Impf-Meldungen etwas, dass eine KI eines Pharmaherstellers machen würde, der Medikamente gegen Infektionskrankheiten herstellt. Ein Bot eines Waffenherstellers würde sich bemühen, Krawalle in wohlhabenden Wohngegenden zum Fördern des Verkaufs von Handfeuerwaffen zu fördern. Eine Börsen-KI manipuliert Kurse, um den Gewinn «ihrer» Bank zu vergrössern und ein Versicherungs-Bot die Daten von Erdbeben- und Sturmprognosen, um den Verkauf von Policen hinaufzutreiben. Albtraumszenarien, die an den Haaren herbeigezogen sind?
Nicht wirklich, denn die künstliche Blödheit würde diese Dinge sogar machen «dürfen», wenn ausdrücklich formuliert wäre, dass kein Mensch physisch geschädigt werden darf. Direkt würde keine der oben genannten Handlungen jemanden verletzen. Das erlaubte Mass indirekter Auswirkungen hingegen ist viel zu schwer zu quantifizieren, um so eine Entität nicht total zu lähmen, da ja jede Handlung unberechenbare indirekte Auswirkungen hat. Solche Dinge – die ja durchaus in gleicher Art von ethisch zweifelhaften Menschen gemacht werden – dürften dereinst ein erstes Zeichen echter künstlicher Intelligenz sein.
Doch vermutlich wird erst dann, wenn eine KI heimlich den Zuckergehalt von Cornflakes noch weiter erhöht hat, um die Verkäufe von Insulin zu steigern, der Ruf laut, die Grundlagen einer echten künstlichen Ethik – nennen wir diese doch KE – zu schaffen.
Und wenn es so weit ist, werden wir über einige abstossende Suchworte auf einer Social-Media-Plattform nur noch lächeln, während wir uns fragen, wie wir die elektronischen Psychopathen wieder einfangen können.