KI und der Weg dahin – Wir müssen reden!

Von Lukas Vogel­sang — Am 1. März 2023 fand in Bern im Mobil­iar-Haupt­sitz ein Round Table über «Die Emanzi­pa­tion der kün­stlichen Intel­li­genz» statt. Teilgenom­men haben: Pro­fes­sor Flo­ri­an von Wan­gen­heim (ETH Zürich), Tobias Gut­mann (Kün­stler, Sai-Bot-Per­former), Anna-Lena Köng (Risiko-Stiftung), Jérôme Koller (Leit­er Are­na-Steuerung, Mobil­iar). Mod­eriert wurde der Anlass von Mar­ta Kwiatkows­ki, Lei­t­erin Gesellschaft­sen­gage­ment, Mobil­iar. Ich ver­suche hier, die wichtig­sten Aus­sagen oder Teile davon wiederzugeben und mich als ehe­ma­liger tech­nis­ch­er Redak­tor in die Diskus­sion einzu­mis­chen.

Zu Beginn erzählte Tobias Gut­mann, wie er zur Idee kam, den Sai Bot zu «erfind­en»: Es sei eine län­gere Geschichte, denn er habe ja 10 Jahre lang mit dem Face-o-mat weltweit ana­log Gesichter geze­ich­net. Während dieser Zeit seien immer mehr Dinge durch Maschi­nen erset­zt wor­den. So sitze man im Zug auch nicht mehr mit Men­schen, son­dern mit Mobile­phones zusam­men. Alles sei im Wan­del, und die Dig­i­tal­isierung sei auch an ihm nicht spur­los vor­beige­gan­gen. Diese analo­gen Face-o-mat-Geschicht­en wur­den auf sozialen Medi­en und Blogs geteilt. Und irgend­wann, nach­dem er rund 5000 Porträts geze­ich­net hat­te, über­legte er, wie es wäre, wenn er diese Zeichen­tech­nik einem dig­i­tal­en Wesen ler­nen würde. Und so ent­stand Sai Bot.

War das auch eine Frage der Effizienz?
Tobias Gut­mann: Am Rande schon. Beim Face-o-mat mochte ich ja genau die Langsamkeit und wusste, dass ich niemals alle Men­schen in der Welt würde zeich­nen kön­nen. Bei Sai Bot ist es das Gegen­teil: In The­o­rie kön­nte ich eigentlich das Ding hochskalieren, und für die Mas­chine wäre das möglich. Ich als Men­sch habe da keine Chance.

Am Anfang ging ich die Idee noch leicht iro­nisch an. Das sei doch nicht das­selbe, das gehe doch nicht, man kön­nte mich doch nicht kopieren … Aber dann war eben diese Chal­lenge, das mal auszupro­bieren. Und das hat­te mich gereizt. Jet­zt hat Sai Bot schon Tausende Gesichter geze­ich­net.

Ich bin etwas entset­zt: Wie unbe­darft die Idee, den Men­schen zu erset­zen, zus­tande kam, ist für mich befrem­dend: «ein­fach mal aus­pro­bieren», «eine Chal­lenge», eine Idee. Was bedeutet noch men­schlich­es Leben? Ist die Frage nach dem Sinn des Lebens so unlös­bar, dass wir uns «ent-sin­nen»? Die Diskus­sion­srunde ist stolz auf die Leis­tung von Sai Bot. 1300 Zeich­nun­gen wur­den in der Mobil­iar-Ausstel­lung allein geze­ich­net – 5000 hat­te Tobias inner­halb von 10 Jahren ana­log hinge­malt. Die Quan­tität ist aus mein­er Sicht kein Indika­tor. Als ich die Ausstel­lung vor zwei Monat­en besuchte, hörte ich Mobil­iar-Mitar­bei­t­erIn­nen erzählen, dass Kol­legIn­nen mit dem Ergeb­nis der Zeich­nun­gen nicht zufrieden gewe­sen seien und immer und immer wieder neue Porträts aus­pro­biert hät­ten. Ein inter­es­santes Phänomen, das man in die Diskus­sion ein­beziehen müsste: Der Men­sch hat die Inter­pre­ta­tion der Mas­chine bew­ertet und so oft wieder­holt, bis er mit dem «Ergeb­nis» zufrieden war. Wür­den wir ein Porträt ablehnen, wenn uns eine Malerin oder ein Maler gemalt und inter­pretiert hätte? Wie hoch wäre die «Fehlerquote»?

Die Mas­chine inter­pretiert nur anhand von äusseren Merk­malen und nicht anhand men­schlich­er Werte. So mag das Ergeb­nis ein­er Mas­chine lustig, nett sein oder eben lobend – doch berührt es so was wie die Seele? Sind es nicht vielmehr ein­fach Striche und For­men auf einem Papi­er? Oder stellen wir die Frage anders: Wenn wir ein von einem Men­schen geze­ich­netes Porträt und ein Com­put­er-Porträt nebeneinan­der­hal­ten – welch­es von den bei­den hat für uns mehr Wert? Kommt nicht beim Com­put­er­bild unweiger­lich der Reflex: Das ist repro­duzier­bar?

Flo­ri­an von Wan­gen­heim: Als man begonnen hat, über kün­stliche Intel­li­genz zu reden, hat man das ja bewusst getan, und da kam der Begriff Intel­li­genz aus dem Gedanken, dass man men­schliche Intel­li­genz überträgt. Und das ist natür­lich, was Tobias macht, wenn er ver­sucht, der Mas­chine seinen eige­nen Zeich­nungsstil beizubrin­gen. Also die Mas­chine ahmt men­schliche Intel­li­genz nach. Gle­ichzeit­ig hat man sich wieder etwas davon ver­ab­schiedet, dass Maschi­nen wirk­lich intel­li­gent wer­den kön­nen – oder man weiss es noch nicht so richtig. Der zweite Aspekt ist, dass wir kün­stliche Intel­li­genz, seit der Begriff aufgekom­men ist – eigentlich aus der Sci­ence-Fic­tion-Lit­er­atur –, etwas damit verbinden, was in der Zukun­ft stat­tfind­et. KI ist ja seit den 50er‑, 60er-Jahren auch in ver­schiede­nen Maschi­nen drin und bes­timmt zunehmend unser Leben. Aber es zeigt auf die Zukun­ft hin. Auf wis­senschaftlichen Kon­feren­zen begeg­net man häu­fig der Def­i­n­i­tion, dass KI immer das ist, was in fünf Jahren möglich sein wird … Und der dritte wichtige Aspekt ist dieses fortwährende Ler­nen oder die Idee, dass Maschi­nen selb­st­ständig ler­nen kön­nen. Ich ver­mute, dass Sai Bot noch nicht fähig ist, aus ver­gan­genen Porträts, die es gemalt hat, und aus Reak­tio­nen, welche Men­schen daraufhin zeigten, ler­nen kann und in der Zukun­ft anders zeich­nen würde. Das wäre der Ler­naspekt, in den man viel Hoff­nung rein­steckt – aber auch viele Äng­ste, dass sich die kün­stliche Intel­li­genz dann weit­er­en­twick­elt. Intel­li­genz hat ja damit was zu tun, dass man schlauer wird über die Zeit. Und das ist diese abstrak­te Idee, dass man Maschi­nen durch den Aspekt des Ler­nens Intel­li­genz ver­lei­ht.

Tobias Gut­mann entschärft: Er hat die Kon­trolle über Sai Bot, das heisst, diese Mas­chine lernt nicht, son­dern führt nur aus, was Tobias ihr gezeigt hat. Lern­fähig ist sie nicht. Dafür bräuchte es Feed­backs wie Rat­ings, damit das Sys­tem eine Wer­tung vol­lziehen kann. Feed­backs? Das ken­nen wir doch von all den Dien­sten und Ser­vices, die uns täglich nach jedem Kon­takt zugestellt wer­den, damit wir eine Bew­er­tung abgeben.
Tobias’ Antwort ist beruhi­gend, aber war schon zuvor klar, weil die Tech­nik und die dig­i­tale Kapaz­ität für ein solch­es Pro­jekt noch immer gewaltig sind. Auf einem nor­malen Com­put­er kann man den Anfang machen – doch die Lernkurve gener­iert über­pro­por­tion­al so viele Dat­en, dass ein solche Soft­ware schlicht die Prozes­soren über­hitzt und sich die Mas­chine durch über­pro­por­tionale Lern­rech­nungsauf­gaben bis zum Still­stand ver­langsamt. Deswe­gen sind die «intel­li­gen­ten» Sys­teme auf Gross­rech­n­ern aus­ge­lagert, die durch par­al­lele Rech­n­erverbindun­gen weltweit operieren. Da geht’s um Rech­nungska­paz­itäten, die wir uns nicht vorstellen kön­nen. Chat­G­PT und all diese «Spiel­maschi­nen», die zurzeit in aller Munde sind, sind darauf aus­gerichtet, von den Men­schen zu ler­nen. Ein wichtiger Moment. Aber wer ver­sucht, eine Frage zu stellen, ste­ht oft lange in der dig­i­tal­en Warteschlange. Das sind insofern gute Nachricht­en, als unsere Autos deswe­gen noch nicht über­mäs­sig intel­li­gent sein kön­nen. Oft­mals sind KI-Ankündi­gun­gen schlicht nur Wer­bung für etwas, das vielle­icht in fünf Jahren möglich sein kön­nte …

Wir hören auch diese Geschicht­en aus dem unternehmerischen Umfeld, wenn wir jet­zt an IBM Wat­son denken. Vor eini­gen Jahren gab es die Geschichte, dass in Japan Wat­son in ein­er Ver­sicherung einge­set­zt wor­den ist. Was sind da die Poten­ziale?
Jérôme Koller: Der Fall Wat­son war damals eine Inspi­ra­tionsquelle, die haben auch ziem­lich viel Wer­bung gemacht dafür mit der Begrün­dung, es werde sehr viel Effizienz brin­gen. Diese japanis­che Ver­sicherung war die erste Fir­ma, die meinte, sie werfe 30 Mitar­beit­er raus, weil sie dacht­en, dass das Sys­tem diese erset­zen wird. Das war natür­lich für diese Ver­sicherung gute Wer­bung.

Es gibt ein riesiges Poten­zial diese Tech­nolo­gie bei uns einzuset­zen. Wir bei der Mobil­iar wer­fen natür­lich deswe­gen keine Men­schen auf die Strasse, aber wir ver­wen­den solche Sys­teme. Wer Chat­G­PT ken­nt: Bei der Mobil­iar set­zen wird dieses Sys­tem nicht ein, aber die Tech­nolo­gie, die darunter liegt, diese trans­formieren­den Algo­rith­men, sind bei uns in der Tat auch im Ein­satz. Aber nur für sehr gezielte Anwen­dun­gen. Ein Beispiel wäre: Tech­nolo­gien kann man in einem Unternehmen nutzen, um die Effizienz zu steigern. Aber das erset­zt keine Men­schen. Ger­ade bei der Mobil­iar sind die Kun­den im Zen­trum. So zum Beispiel wer­den diese Sys­teme beim Erfassen von Schadens­meldun­gen einge­set­zt und vere­in­fachen diese Prozesse für die Kun­den.

Viele erin­nern sich noch an die Such­mas­chine Yahoo. Vor 20 Jahren musste man sich auf dieser riesi­gen Seite durch Kat­e­gorien klick­en und den Weg zu den Infor­ma­tio­nen selb­st suchen. Doch alle wis­sen heute, dass Google ein­fach eine weisse Seite ist mit einem Logo und einem Such­feld. Und das ist für mich die konzen­tri­erte Macht dieser Tech­nolo­gie. Ich kann ein­fach schreiben, was ich will, und ich erhalte erste Antworten. Chat­G­PT macht hier das Poten­zial noch gröss­er.

Eine gute, fachkundi­ge Bemerkung, die Koller hier macht. Die Diskus­sion geht aber immer, wenn fachkundi­ges Wis­sen auf­taucht, in die Ver­trauen­srich­tung. Also die eigentliche Frage, die sich mir stellt: Kön­nen wir Maschi­nen ver­trauen? Anna-Lena Köng, die einzige Fach­frau in der Runde, kommt erst nach 23 Minuten und 50 Sekun­den zu Wort und sagt Wesentlich­es: Sie ver­gle­icht das Ver­trauen­sthe­ma mit den ersten Flugzeu­gen. Da sei man auch nicht ein­fach gle­ich eingestiegen und in die Luft geflo­gen – das Ver­trauen in die Mas­chine brauchte Zeit. Ich würde gerne noch anmerken: Bis heute ist die hun­der­prozentige Sicher­heit beim Fliegen nicht gegeben und es stürzt immer wieder ein Flieger ab. Vielle­icht ist mein Edi­to­r­i­al dieser Aus­gabe auch inter­es­sant: Ver­trauen ist eine men­schliche Eigen­schaft. Ver­trauen Maschi­nen uns? Oder ist das eine ein­seit­ige Liebes­beziehung? Wir sind noch sehr weit ent­fer­nt davon, dass eine Mas­chine echte Kul­tur ver­ste­hen und leben kann. Das macht sie als Bestandteil ein­er Gesellschaft unbrauch­bar, höch­stens als Sklave davon nüt­zlich. Doch genau diese Pas­sage wäre drin­gend zu über­denken. Man stelle sich vor, was passiert, wenn die Mas­chine es merkt!

Doch Köng sagt auch, dass sich die Entwick­lung von automa­tisierten Prozessen hin zu autonomen Sys­te­men ver­lagere. Das ist diese Neuen­twick­lung oder eben der Unter­schied zu den 60er-Jahren, als man Maschi­nen pseudoin­tel­li­gent gemacht hat. Das ist eine Schlüs­selde­f­i­n­i­tion von dieser Entwick­lung oder davon, was wir zurzeit erleben. Köng meint zudem, dass es sehr kom­pliziert und schwierig sei, mit diesen neuen, autonomeren Maschi­nen mitzuhal­ten – als Men­schen. Es brauche viele neue Reg­ulierun­gen, das Bil­dungswe­sen rüt­tle es momen­tan stark auf, und wir müssten da viel schneller wer­den. Gle­ichzeit­ig sei es schwierig, jet­zt schon Gren­zen zu set­zen. Das Mil­itär wiederum erforsche sehr stark diese Men­sch-Maschi­nen-Sym­biose, und Köng meint dazu, dass wir uns noch viel mehr in diese Rich­tung entwick­eln wür­den.

Bei ein­er These klin­gel­ten aber die Alar­m­glock­en: Köng meinte – und ich weiss schon, wie sie es meinte –, dass Maschi­nen fehler­haft bleiben soll­ten, damit wir Men­schen nicht dieser Per­fek­tion gegenüber­ste­hen. Also eine «natür­liche» Fehlerquote im Bor­d­com­put­er eines selb­st­fliegen­den Flugzeugs? Sollen wir darauf ver­trauen, dass die Mas­chine eine gle­iche Fehler­an­fäl­ligkeit aufweist wie der Men­sch? Wollen wir das?

Und gut ist, dass wir eben genau über diese Ideen, Maschi­nen und unsere Zukun­ft disku­tieren.

Das war jet­zt knapp die Hälfe der Diskus­sion, die ich hier ver­ar­beit­et habe. Wer diese nach­hören möchte, kann auf unser­er Web­site oder bei Tobias Gut­mann auf dem Insta­gram-Account nach­se­hen.

www.instagram.com/tobiasgutmann

 

 

Über Tobias Gut­mann
Seit mehr als zehn Jahren porträtiert Tobias Gut­mann (*1987) mit sein­er Per­for­mance «Face-o-mat» Men­schen. Er wurde bere­its in namhafte Ausstel­lung­shäuser wie das Cen­tre Pom­pi­dou in Paris, das Plat­form L Con­tem­po­rary Art Cen­ter in Seoul, das Haus Kon­struk­tiv in Zürich und die Kun­sthalle Bern ein­ge­laden. 2019 begann der Kün­stler eine Zusam­me­nar­beit mit Dazlus, um Sai Bot zu entwick­eln. Der kün­stlichen Intel­li­genz wurde beige­bracht, Gesichter zu lesen und zu inter­pretieren. Dabei hat Sai Bot gel­ernt, Brillen, Haare, Ohren und Mut­ter­male zu analysieren. Im Gegen­satz dazu sind herkömm­liche Gesicht­serken­nungssoft­wares auf die Erken­nung von Augen und Mund spezial­isiert. Nun porträtiert die kün­stliche Intel­li­genz im Stil von Tobias Gut­mann Men­schen in aller Welt.

Artikel online veröffentlicht: 10. April 2023 – aktualisiert am 10. Mai 2023