• zurück

Künstliche Psychopathen

Von Patrik Etschmay­er - Nach­dem die – unter­dessen eingestellte – Möglichkeit, mit ein­er Kom­bi­na­tion von Nazi-Aus­drück­en Anzeigen ziel­gerichtet an Face­book-Nutzer mit eben diesen Vor­lieben zu richt­en, ent­deckt wor­den ist, stellen sich einige Fra­gen:

Haben die Face­book-Algo­rith­men eigentlich gar keinen Geschmack? Und keine Moral? Und da diese Fra­gen ohne­hin mit Ja beant­wortet wer­den müssen, wird es gle­ich wesentlich inter­es­san­ter: Welche Stich­worte gibt es, um Recht­sex­treme, die nur Mus­lime has­sen, zu tar­get­ten? Gibt es Face­book-Grup­pen, die für eth­nisch neu­tralen Völk­er­mord sind? Gibt es wohl auch eine Gruppe für mil­i­tante Bud­dhis­ten, die gegen Mus­lime het­zen, die ein­fach noch nicht gefun­den wurde, weil es keine burme­sisch sprechen­den Admins gibt? Und welche geschmack­losen Anzeigen­stich­wörter kön­nte man in ein­er solchen Gruppe wirk­sam ver­mark­ten?

Bei dieser Face­book-Sauerei fragt man sich unwillkür­lich: Kann man auch auf Google oder Twit­ter Ras­sis­ten gezielt in Klar­text ansprechen? Alle, die Zweifel daran haben, kön­nen beruhigt wer­den – laut Buz­zfeed sei das natür­lich möglich: Google ermöglichte das Ad-Tar­get­ting für Leute, die die Phrase «Zion­is­ten kon­trol­lieren die Welt» suchen, und Twit­ter liess das gezielte Bewirtschaften von ras­sis­tis­chen Begrif­f­en für Schwarze und His­pan­ics zu.

[wc_quick_donation]

Natür­lich wur­den auch hier die Lück­en geschlossen, sobald die Sauereien erst mal der Öffentlichkeit präsen­tiert wor­den waren. Bei Twit­ter seien Soft­warefehler schuld gewe­sen, und Google gab zu, dass die Fil­ter nicht gut genug gewe­sen seien und man sich bemühe, diese Dinge auszumerzen. Und – um wieder auf Face­book zurück­zukom­men: Sheryl Sand­berg, COO von Face­book, musste zugeben, dass die Automa­tis­men zu fürchter­lichen Resul­tat­en geführt hät­ten und jet­zt in diesem Bere­ich wieder ver­mehrt Men­schen die Kon­trolle übernehmen wür­den.

Der Hak­en ist, dass in solchen Sys­te­men Men­schen erst zum Ein­satz kom­men, wenn die Milch ver­schüt­tet, das Bier umgekippt und der Nazi von der Leine gelassen wor­den ist. Denn auch wenn Google, Apple, Face­book, Microsoft und wer auch immer noch so hart daran arbeit­en: Es wird immer einen Weg geben, die stan­dar­d­isierten Abläufe der Pro­gramme – oder eben Algo­rith­men – zu überlis­ten. Das kann mit ein­fachen Abän­derun­gen in der Schreib­weise von Wörtern passieren, die in den entsprechen­den Kreisen bekan­nt und in Anwen­dung sind, durch das Ver­wen­den von harm­los scheinen­den Ersatz­worten und Tar­naus­drück­en (wie z. B. 88 für HH, was für «Heil Hitler» ste­ht) umge­hen.

Das ist der Moment, wo eigentlich die Stunde der kün­stlichen Intel­li­genz schla­gen müsste, sollte man glauben. Doch da gibt es einen weit­eren grossen Hak­en:. So heisst Intel­li­genz im Zusam­men­hang mit abstossen­dem Ver­hal­ten sehr wenig: Hey­drich, Men­gele und Goebbels waren intel­li­gente, gebildete Men­schen, ja Hey­drich war sog­ar sehr kul­tiviert und musikalisch. Mithin mehr, als man von ein­er tum­ben KI je ver­lan­gen würde. Und trotz­dem war er ein Schlächter son­der­gle­ichen, der mitlei­d­los Tausende in den Tod schick­te.

Hey­drich fehlte es also nicht an Intel­li­genz, son­dern an Men­schlichkeit und Mit­ge­fühl. Das soll natür­lich nicht heis­sen, dass die zukün­fti­gen KI von Google und Face­book Massen­hin­rich­tun­gen ver­an­lassen wer­den; aber wer an das völ­lig miss­glück­te Chat­bot-Exper­i­ment von Microsoft namens Tay zurück­denkt, das mit ein­er virtuellen jun­gen Frau begonnen hat­te, die über Twit­ter fröh­lich mit der Welt kom­mu­nizieren sollte, und innert 24 Stun­den dank User-Inputs zu ein­er ras­sis­tis­chen, anti­semi­tis­chen Obszönitäten­schleud­er mit Inzest­ten­den­zen gewor­den war, sieht, dass hier wirk­lich ein Prob­lem in den Siliz­iumhir­nen vorhan­den ist, wenn sie sich von Trollen schneller verder­ben lassen als ein ungekühltes Poulet­brüstchen von Sal­mo­nellen.

Dabei ist das Prob­lem ziem­lich klar, was hier schiefge­ht: Com­put­er machen entwed­er ein­fach schlechte Beispiele nach oder schla­gen üble Dinge vor, weil sie ganz ein­fach nicht wis­sen, was die Welt für einen Men­schen ist und wie sie sich anfühlt. Com­put­er haben schlicht keinen Bezug zum Men­sch­sein und sollen gle­ichzeit­ig men­schlich han­deln. Und da geht das ein­fach nicht. Denn ein Com­put­er kann nicht lei­den, ein Com­put­er kann keine Zwis­chen­töne erken­nen, und er ist auch nicht in der Lage, die Wirkung sein­er Worte auf die Empfänger zu qual­i­fizieren oder quan­tifizieren. Zurück­weisung kann für einen Men­schen trau­ma­tisch sein. Das nicht zulet­zt, weil der Auss­chluss aus ein­er Gruppe evo­lu­tionär gese­hen lebens­bedro­hend sein kon­nte. Einen Com­put­er aber, der nichts als Strom braucht, lässt ein bös­es Wort so kalt, wie der Prozes­sorküh­ler dies eben zulässt.

Hass und Aus­gren­zung sind – sog­ar ohne hand­feste Tat­en – für soziale Wesen exis­ten­zielle Erfahrun­gen. Jed­er ken­nt das Gefühl, bloss­gestellt oder zurück­gestossen zu wer­den. Wer jemals von einem ange­beteten – poten­ziellen – Part­ner abserviert wor­den ist, weiss genau, wie erschüt­ternd ein solch­es Erleb­nis sein kann. Eben­so inten­siv ist die Euphorie, die man ver­spürt, wenn man von ein­er Per­son oder ein­er Gruppe angenom­men und akzep­tiert wird. Solche Gefüh­le – und wie wir mit ihnen umge­hen, sie aus­lösen und erleben – machen uns Men­schen aus. Es ist eine seel­is­che oder neu­ronale Welt, die einem Com­put­er, egal, wie toll er pro­gram­miert sein mag, völ­lig fremd ist. Nicht zulet­zt, weil diese Dinge nicht intellek­tuell, son­dern rein emo­tion­al sind. Und Emo­tio­nen sind der wichtig­ste, wenn nicht gar der einzige Antrieb im Leben, wobei Angst und das Streben nach Freude Hand in Hand gehen, um uns im Leben weit­erzubrin­gen und vor Schaden zu bewahren. Und da diese Gefüh­le meis­tens im Aus­tausch mit anderen Men­schen entste­hen und auch deren Gefüh­le auf uns zurück­wirken, ist Empathie ein zweit­er gross­er Baustein des Men­sch- und Men­schlich-Seins.

Com­put­ern fehlen Emo­tio­nen eben­so wie Empathie. Genau­so ist dies zu einem gewis­sen Mass bei Psy­chopa­then und Soziopa­then der Fall, die es zwar schaf­fen, Gefüh­le und Mit­ge­fühl vorzugeben, am Ende aber nur die Befriedi­gung ihrer eige­nen Bedürfnisse als Ziel haben. Von dem her sind viele sozialen Net­zw­erke echte Psy­chopa­then, die wegen ihres impliziten Ziels, möglichst viel Traf­fic und/oder Umsatz zu gener­ieren, fast jede Bemühung der Betreiber zu sozialer Ver­ant­wor­tung ad absur­dum führen. Wenn das Ziel des Algo­rith­mus ist, möglichst viele Anzeigen an den Mann / die Frau / den Nazi zu brin­gen, dann wird er nach den entsprechen­den Möglichkeit­en suchen, dies auch zu tun. Und wenn einige Hür­den geset­zt wer­den, wer­den sie zwar berück­sichtigt wer­den – nicht, weil es für den Algo­rith­mus böse wäre, diese Dinge zu schal­ten, son­dern ein­fach, weil dies nun Teil ein­er Liste ist, die entsprechend in den Ablauf eingeschlossen wer­den muss –, aber eben­so sich­er wer­den die bösen Men­schen, die man eigentlich ver­mei­den will, einen Weg darum herum find­en.

Wobei KI und soziale Net­zw­erke natür­lich keine Psy­chopa­then sind. Dafür sind sie viel zu blöd, und sie haben auch kein Inter­esse, ihre devianten Triebe zu befriedi­gen (man­gels der­sel­ben). Doch je intel­li­gen­ter diese Entitäten wer­den, desto bedrohlich­er wer­den sie auch – nicht zulet­zt, weil sie auch dann immer noch primär die meist kom­merziellen Ziele des Betreibers ver­fol­gen wer­den, ohne einen Funken Men­schlichkeit und ohne Gefühl für das Leben, die Emo­tio­nen und das Schick­sal von Men­schen zu ver­spüren.

Es wird also inter­es­sant sein, wie die kün­stliche Intel­li­genz den Spa­gat zwis­chen kom­merziellen Zie­len und Phil­an­thropie find­en wird, wenn die Intel­li­genz wirk­lich mal da ist. Wenn man nicht wüsste, dass Men­schen auch ganz allein saublöd sind, wäre zum Beispiel die Ver­bre­itung von Anti-Impf-Mel­dun­gen etwas, dass eine KI eines Pharma­her­stellers machen würde, der Medika­mente gegen Infek­tion­skrankheit­en her­stellt. Ein Bot eines Waf­fen­her­stellers würde sich bemühen, Krawalle in wohlhaben­den Wohnge­gen­den zum Fördern des Verkaufs von Hand­feuer­waf­fen zu fördern. Eine Börsen-KI manip­uliert Kurse, um den Gewinn «ihrer» Bank zu ver­grössern und ein Ver­sicherungs-Bot die Dat­en von Erd­beben- und Sturm­prog­nosen, um den Verkauf von Poli­cen hin­aufzutreiben. Alb­traum­szenar­ien, die an den Haaren her­beige­zo­gen sind?

Nicht wirk­lich, denn die kün­stliche Blöd­heit würde diese Dinge sog­ar machen «dür­fen», wenn aus­drück­lich for­muliert wäre, dass kein Men­sch physisch geschädigt wer­den darf. Direkt würde keine der oben genan­nten Hand­lun­gen jeman­den ver­let­zen. Das erlaubte Mass indi­rek­ter Auswirkun­gen hinge­gen ist viel zu schw­er zu quan­tifizieren, um so eine Entität nicht total zu läh­men, da ja jede Hand­lung unberechen­bare indi­rek­te Auswirkun­gen hat. Solche Dinge – die ja dur­chaus in gle­ich­er Art von ethisch zweifel­haften Men­schen gemacht wer­den – dürften dere­inst ein erstes Zeichen echter kün­stlich­er Intel­li­genz sein.

Doch ver­mut­lich wird erst dann, wenn eine KI heim­lich den Zuck­erge­halt von Corn­flakes noch weit­er erhöht hat, um die Verkäufe von Insulin zu steigern, der Ruf laut, die Grund­la­gen ein­er echt­en kün­stlichen Ethik – nen­nen wir diese doch KE – zu schaf­fen.

Und wenn es so weit ist, wer­den wir über einige abstossende Such­worte auf ein­er Social-Media-Plat­tform nur noch lächeln, während wir uns fra­gen, wie wir die elek­tro­n­is­chen Psy­chopa­then wieder ein­fan­gen kön­nen.

Artikel online veröffentlicht: 26. September 2017 – aktualisiert am 1. November 2017