• zurück

Künstliche Psychopathen

Von Patrik Etschmayer - Nachdem die – unter­des­sen ein­ge­stell­te – Möglichkeit, mit einer Kombination von Nazi‐​Ausdrücken Anzeigen ziel­ge­rich­tet an Facebook‐​Nutzer mit eben die­sen Vorlieben zu rich­ten, ent­deckt wor­den ist, stel­len sich eini­ge Fragen:

Haben die Facebook‐​Algorithmen eigent­lich gar kei­nen Geschmack? Und kei­ne Moral? Und da die­se Fragen ohne­hin mit Ja beant­wor­tet wer­den müs­sen, wird es gleich wesent­lich inter­es­san­ter: Welche Stichworte gibt es, um Rechtsextreme, die nur Muslime has­sen, zu tar­get­ten? Gibt es Facebook‐​Gruppen, die für eth­nisch neu­tra­len Völkermord sind? Gibt es wohl auch eine Gruppe für mili­tan­te Buddhisten, die gegen Muslime het­zen, die ein­fach noch nicht gefun­den wur­de, weil es kei­ne bur­me­sisch spre­chen­den Admins gibt? Und wel­che geschmack­lo­sen Anzeigenstichwörter könn­te man in einer sol­chen Gruppe wirk­sam ver­mark­ten?

Bei die­ser Facebook‐​Sauerei fragt man sich unwill­kür­lich: Kann man auch auf Google oder Twitter Rassisten gezielt in Klartext anspre­chen? Alle, die Zweifel dar­an haben, kön­nen beru­higt wer­den – laut Buzzfeed sei das natür­lich mög­lich: Google ermög­lich­te das Ad‐​Targetting für Leute, die die Phrase «Zionisten kon­trol­lie­ren die Welt» suchen, und Twitter liess das geziel­te Bewirtschaften von ras­sis­ti­schen Begriffen für Schwarze und Hispanics zu.


15 Jahre ensui­te – Zeitschrift zu Kultur & Kunst: SET ME FREE!
Unterstütze die unab­hän­gi­ge Redaktion und den Verlag!
Dein Beitrag: CHF

Natürlich wur­den auch hier die Lücken geschlos­sen, sobald die Sauereien erst mal der Öffentlichkeit prä­sen­tiert wor­den waren. Bei Twitter sei­en Softwarefehler schuld gewe­sen, und Google gab zu, dass die Filter nicht gut genug gewe­sen sei­en und man sich bemü­he, die­se Dinge aus­zu­mer­zen. Und – um wie­der auf Facebook zurück­zu­kom­men: Sheryl Sandberg, COO von Facebook, muss­te zuge­ben, dass die Automatismen zu fürch­ter­li­chen Resultaten geführt hät­ten und jetzt in die­sem Bereich wie­der ver­mehrt Menschen die Kontrolle über­neh­men wür­den.

Der Haken ist, dass in sol­chen Systemen Menschen erst zum Einsatz kom­men, wenn die Milch ver­schüt­tet, das Bier umge­kippt und der Nazi von der Leine gelas­sen wor­den ist. Denn auch wenn Google, Apple, Facebook, Microsoft und wer auch immer noch so hart dar­an arbei­ten: Es wird immer einen Weg geben, die stan­dar­di­sier­ten Abläufe der Programme – oder eben Algorithmen – zu über­lis­ten. Das kann mit ein­fa­chen Abänderungen in der Schreibweise von Wörtern pas­sie­ren, die in den ent­spre­chen­den Kreisen bekannt und in Anwendung sind, durch das Verwenden von harm­los schei­nen­den Ersatzworten und Tarnausdrücken (wie z. B. 88 für HH, was für «Heil Hitler» steht) umge­hen.

Das ist der Moment, wo eigent­lich die Stunde der künst­li­chen Intelligenz schla­gen müss­te, soll­te man glau­ben. Doch da gibt es einen wei­te­ren gros­sen Haken:. So heisst Intelligenz im Zusammenhang mit abstos­sen­dem Verhalten sehr wenig: Heydrich, Mengele und Goebbels waren intel­li­gen­te, gebil­de­te Menschen, ja Heydrich war sogar sehr kul­ti­viert und musi­ka­lisch. Mithin mehr, als man von einer tum­ben KI je ver­lan­gen wür­de. Und trotz­dem war er ein Schlächter son­der­glei­chen, der mit­leid­los Tausende in den Tod schick­te.

Heydrich fehl­te es also nicht an Intelligenz, son­dern an Menschlichkeit und Mitgefühl. Das soll natür­lich nicht heis­sen, dass die zukünf­ti­gen KI von Google und Facebook Massenhinrichtungen ver­an­las­sen wer­den; aber wer an das völ­lig miss­glück­te Chatbot‐​Experiment von Microsoft namens Tay zurück­denkt, das mit einer vir­tu­el­len jun­gen Frau begon­nen hat­te, die über Twitter fröh­lich mit der Welt kom­mu­ni­zie­ren soll­te, und innert 24 Stunden dank User‐​Inputs zu einer ras­sis­ti­schen, anti­se­mi­ti­schen Obszönitätenschleuder mit Inzesttendenzen gewor­den war, sieht, dass hier wirk­lich ein Problem in den Siliziumhirnen vor­han­den ist, wenn sie sich von Trollen schnel­ler ver­der­ben las­sen als ein unge­kühl­tes Pouletbrüstchen von Salmonellen.

Dabei ist das Problem ziem­lich klar, was hier schief­geht: Computer machen ent­we­der ein­fach schlech­te Beispiele nach oder schla­gen üble Dinge vor, weil sie ganz ein­fach nicht wis­sen, was die Welt für einen Menschen ist und wie sie sich anfühlt. Computer haben schlicht kei­nen Bezug zum Menschsein und sol­len gleich­zei­tig mensch­lich han­deln. Und da geht das ein­fach nicht. Denn ein Computer kann nicht lei­den, ein Computer kann kei­ne Zwischentöne erken­nen, und er ist auch nicht in der Lage, die Wirkung sei­ner Worte auf die Empfänger zu qua­li­fi­zie­ren oder quan­ti­fi­zie­ren. Zurückweisung kann für einen Menschen trau­ma­tisch sein. Das nicht zuletzt, weil der Ausschluss aus einer Gruppe evo­lu­tio­när gese­hen lebens­be­dro­hend sein konn­te. Einen Computer aber, der nichts als Strom braucht, lässt ein böses Wort so kalt, wie der Prozessorkühler dies eben zulässt.

Hass und Ausgrenzung sind – sogar ohne hand­fes­te Taten – für sozia­le Wesen exis­ten­zi­el­le Erfahrungen. Jeder kennt das Gefühl, bloss­ge­stellt oder zurück­ge­stos­sen zu wer­den. Wer jemals von einem ange­be­te­ten – poten­zi­el­len – Partner abser­viert wor­den ist, weiss genau, wie erschüt­ternd ein sol­ches Erlebnis sein kann. Ebenso inten­siv ist die Euphorie, die man ver­spürt, wenn man von einer Person oder einer Gruppe ange­nom­men und akzep­tiert wird. Solche Gefühle – und wie wir mit ihnen umge­hen, sie aus­lö­sen und erle­ben – machen uns Menschen aus. Es ist eine see­li­sche oder neu­ro­na­le Welt, die einem Computer, egal, wie toll er pro­gram­miert sein mag, völ­lig fremd ist. Nicht zuletzt, weil die­se Dinge nicht intel­lek­tu­ell, son­dern rein emo­tio­nal sind. Und Emotionen sind der wich­tigs­te, wenn nicht gar der ein­zi­ge Antrieb im Leben, wobei Angst und das Streben nach Freude Hand in Hand gehen, um uns im Leben wei­ter­zu­brin­gen und vor Schaden zu bewah­ren. Und da die­se Gefühle meis­tens im Austausch mit ande­ren Menschen ent­ste­hen und auch deren Gefühle auf uns zurück­wir­ken, ist Empathie ein zwei­ter gros­ser Baustein des Mensch‐ und Menschlich‐​Seins.

Computern feh­len Emotionen eben­so wie Empathie. Genauso ist dies zu einem gewis­sen Mass bei Psychopathen und Soziopathen der Fall, die es zwar schaf­fen, Gefühle und Mitgefühl vor­zu­ge­ben, am Ende aber nur die Befriedigung ihrer eige­nen Bedürfnisse als Ziel haben. Von dem her sind vie­le sozia­len Netzwerke ech­te Psychopathen, die wegen ihres impli­zi­ten Ziels, mög­lichst viel Traffic und/​oder Umsatz zu gene­rie­ren, fast jede Bemühung der Betreiber zu sozia­ler Verantwortung ad absur­dum füh­ren. Wenn das Ziel des Algorithmus ist, mög­lichst vie­le Anzeigen an den Mann /​ die Frau /​ den Nazi zu brin­gen, dann wird er nach den ent­spre­chen­den Möglichkeiten suchen, dies auch zu tun. Und wenn eini­ge Hürden gesetzt wer­den, wer­den sie zwar berück­sich­tigt wer­den – nicht, weil es für den Algorithmus böse wäre, die­se Dinge zu schal­ten, son­dern ein­fach, weil dies nun Teil einer Liste ist, die ent­spre­chend in den Ablauf ein­ge­schlos­sen wer­den muss –, aber eben­so sicher wer­den die bösen Menschen, die man eigent­lich ver­mei­den will, einen Weg dar­um her­um fin­den.

Wobei KI und sozia­le Netzwerke natür­lich kei­ne Psychopathen sind. Dafür sind sie viel zu blöd, und sie haben auch kein Interesse, ihre devi­an­ten Triebe zu befrie­di­gen (man­gels der­sel­ben). Doch je intel­li­gen­ter die­se Entitäten wer­den, des­to bedroh­li­cher wer­den sie auch – nicht zuletzt, weil sie auch dann immer noch pri­mär die meist kom­mer­zi­el­len Ziele des Betreibers ver­fol­gen wer­den, ohne einen Funken Menschlichkeit und ohne Gefühl für das Leben, die Emotionen und das Schicksal von Menschen zu ver­spü­ren.

Es wird also inter­es­sant sein, wie die künst­li­che Intelligenz den Spagat zwi­schen kom­mer­zi­el­len Zielen und Philanthropie fin­den wird, wenn die Intelligenz wirk­lich mal da ist. Wenn man nicht wüss­te, dass Menschen auch ganz allein sau­blöd sind, wäre zum Beispiel die Verbreitung von Anti‐​Impf‐​Meldungen etwas, dass eine KI eines Pharmaherstellers machen wür­de, der Medikamente gegen Infektionskrankheiten her­stellt. Ein Bot eines Waffenherstellers wür­de sich bemü­hen, Krawalle in wohl­ha­ben­den Wohngegenden zum Fördern des Verkaufs von Handfeuerwaffen zu för­dern. Eine Börsen‐​KI mani­pu­liert Kurse, um den Gewinn «ihrer» Bank zu ver­grös­sern und ein Versicherungs‐​Bot die Daten von Erdbeben‐ und Sturmprognosen, um den Verkauf von Policen hin­auf­zu­trei­ben. Albtraumszenarien, die an den Haaren her­bei­ge­zo­gen sind?

Nicht wirk­lich, denn die künst­li­che Blödheit wür­de die­se Dinge sogar machen «dür­fen», wenn aus­drück­lich for­mu­liert wäre, dass kein Mensch phy­sisch geschä­digt wer­den darf. Direkt wür­de kei­ne der oben genann­ten Handlungen jeman­den ver­let­zen. Das erlaub­te Mass indi­rek­ter Auswirkungen hin­ge­gen ist viel zu schwer zu quan­ti­fi­zie­ren, um so eine Entität nicht total zu läh­men, da ja jede Handlung unbe­re­chen­ba­re indi­rek­te Auswirkungen hat. Solche Dinge – die ja durch­aus in glei­cher Art von ethisch zwei­fel­haf­ten Menschen gemacht wer­den – dürf­ten der­einst ein ers­tes Zeichen ech­ter künst­li­cher Intelligenz sein.

Doch ver­mut­lich wird erst dann, wenn eine KI heim­lich den Zuckergehalt von Cornflakes noch wei­ter erhöht hat, um die Verkäufe von Insulin zu stei­gern, der Ruf laut, die Grundlagen einer ech­ten künst­li­chen Ethik – nen­nen wir die­se doch KE – zu schaf­fen.

Und wenn es so weit ist, wer­den wir über eini­ge abstos­sen­de Suchworte auf einer Social‐​Media‐​Plattform nur noch lächeln, wäh­rend wir uns fra­gen, wie wir die elek­tro­ni­schen Psychopathen wie­der ein­fan­gen kön­nen.

FacebooktwitterlinkedinFacebooktwitterlinkedin
Artikel online veröffentlicht: 26. September 2017 – aktualisiert am 1. November 2017