- ensuite | kulturagenda | enBlog - https://ensuite.we-are.gmbh -

KI und der Weg dahin – Wir müs­sen reden!

Von Lukas Vogelsang – Am 1. März 2023 fand in Bern im Mobiliar-Hauptsitz ein Round Table über «Die Emanzipation der künst­li­chen Intelligenz» statt. Teilgenommen haben: Professor Florian von Wangenheim (ETH Zürich), Tobias Gutmann (Künstler, Sai-Bot-Performer), Anna-Lena Köng (Risiko-Stiftung), Jérôme Koller (Leiter Arena-Steuerung, Mobiliar). Moderiert wur­de der Anlass von Marta Kwiatkowski, Leiterin Gesellschaftsengagement, Mobiliar. Ich ver­su­che hier, die wich­tig­sten Aussagen oder Teile davon wie­der­zu­ge­ben und mich als ehe­ma­li­ger tech­ni­scher Redaktor in die Diskussion ein­zu­mi­schen.

Zu Beginn erzähl­te Tobias Gutmann, wie er zur Idee kam, den Sai Bot zu «erfin­den»: Es sei eine län­ge­re Geschichte, denn er habe ja 10 Jahre lang mit dem Face-o-mat welt­weit ana­log Gesichter gezeich­net. Während die­ser Zeit sei­en immer mehr Dinge durch Maschinen ersetzt wor­den. So sit­ze man im Zug auch nicht mehr mit Menschen, son­dern mit Mobilephones zusam­men. Alles sei im Wandel, und die Digitalisierung sei auch an ihm nicht spur­los vor­bei­ge­gan­gen. Diese ana­lo­gen Face-o-mat-Geschichten wur­den auf sozia­len Medien und Blogs geteilt. Und irgend­wann, nach­dem er rund 5000 Porträts gezeich­net hat­te, über­leg­te er, wie es wäre, wenn er die­se Zeichentechnik einem digi­ta­len Wesen ler­nen wür­de. Und so ent­stand Sai Bot.

War das auch eine Frage der Effizienz?
Tobias Gutmann: Am Rande schon. Beim Face-o-mat moch­te ich ja genau die Langsamkeit und wuss­te, dass ich nie­mals alle Menschen in der Welt wür­de zeich­nen kön­nen. Bei Sai Bot ist es das Gegenteil: In Theorie könn­te ich eigent­lich das Ding hoch­ska­lie­ren, und für die Maschine wäre das mög­lich. Ich als Mensch habe da kei­ne Chance.

Am Anfang ging ich die Idee noch leicht iro­nisch an. Das sei doch nicht das­sel­be, das gehe doch nicht, man könn­te mich doch nicht kopie­ren … Aber dann war eben die­se Challenge, das mal aus­zu­pro­bie­ren. Und das hat­te mich gereizt. Jetzt hat Sai Bot schon Tausende Gesichter gezeich­net.

[fvplay­er id=«4»]

Ich bin etwas ent­setzt: Wie unbe­darft die Idee, den Menschen zu erset­zen, zustan­de kam, ist für mich befrem­dend: «ein­fach mal aus­pro­bie­ren», «eine Challenge», eine Idee. Was bedeu­tet noch mensch­li­ches Leben? Ist die Frage nach dem Sinn des Lebens so unlös­bar, dass wir uns «ent-sin­nen»? Die Diskussionsrunde ist stolz auf die Leistung von Sai Bot. 1300 Zeichnungen wur­den in der Mobiliar-Ausstellung allein gezeich­net – 5000 hat­te Tobias inner­halb von 10 Jahren ana­log hin­ge­malt. Die Quantität ist aus mei­ner Sicht kein Indikator. Als ich die Ausstellung vor zwei Monaten besuch­te, hör­te ich Mobiliar-MitarbeiterInnen erzäh­len, dass KollegInnen mit dem Ergebnis der Zeichnungen nicht zufrie­den gewe­sen sei­en und immer und immer wie­der neue Porträts aus­pro­biert hät­ten. Ein inter­es­san­tes Phänomen, das man in die Diskussion ein­be­zie­hen müss­te: Der Mensch hat die Interpretation der Maschine bewer­tet und so oft wie­der­holt, bis er mit dem «Ergebnis» zufrie­den war. Würden wir ein Porträt ableh­nen, wenn uns eine Malerin oder ein Maler gemalt und inter­pre­tiert hät­te? Wie hoch wäre die «Fehlerquote»?

Die Maschine inter­pre­tiert nur anhand von äus­se­ren Merkmalen und nicht anhand mensch­li­cher Werte. So mag das Ergebnis einer Maschine lustig, nett sein oder eben lobend – doch berührt es so was wie die Seele? Sind es nicht viel­mehr ein­fach Striche und Formen auf einem Papier? Oder stel­len wir die Frage anders: Wenn wir ein von einem Menschen gezeich­ne­tes Porträt und ein Computer-Porträt neben­ein­an­der­hal­ten – wel­ches von den bei­den hat für uns mehr Wert? Kommt nicht beim Computerbild unwei­ger­lich der Reflex: Das ist repro­du­zier­bar?

Florian von Wangenheim: Als man begon­nen hat, über künst­li­che Intelligenz zu reden, hat man das ja bewusst getan, und da kam der Begriff Intelligenz aus dem Gedanken, dass man mensch­li­che Intelligenz über­trägt. Und das ist natür­lich, was Tobias macht, wenn er ver­sucht, der Maschine sei­nen eige­nen Zeichnungsstil bei­zu­brin­gen. Also die Maschine ahmt mensch­li­che Intelligenz nach. Gleichzeitig hat man sich wie­der etwas davon ver­ab­schie­det, dass Maschinen wirk­lich intel­li­gent wer­den kön­nen – oder man weiss es noch nicht so rich­tig. Der zwei­te Aspekt ist, dass wir künst­li­che Intelligenz, seit der Begriff auf­ge­kom­men ist – eigent­lich aus der Science-Fiction-Literatur –, etwas damit ver­bin­den, was in der Zukunft statt­fin­det. KI ist ja seit den 50er‑, 60er-Jahren auch in ver­schie­de­nen Maschinen drin und bestimmt zuneh­mend unser Leben. Aber es zeigt auf die Zukunft hin. Auf wis­sen­schaft­li­chen Konferenzen begeg­net man häu­fig der Definition, dass KI immer das ist, was in fünf Jahren mög­lich sein wird … Und der drit­te wich­ti­ge Aspekt ist die­ses fort­wäh­ren­de Lernen oder die Idee, dass Maschinen selbst­stän­dig ler­nen kön­nen. Ich ver­mu­te, dass Sai Bot noch nicht fähig ist, aus ver­gan­ge­nen Porträts, die es gemalt hat, und aus Reaktionen, wel­che Menschen dar­auf­hin zeig­ten, ler­nen kann und in der Zukunft anders zeich­nen wür­de. Das wäre der Lernaspekt, in den man viel Hoffnung rein­steckt – aber auch vie­le Ängste, dass sich die künst­li­che Intelligenz dann wei­ter­ent­wickelt. Intelligenz hat ja damit was zu tun, dass man schlau­er wird über die Zeit. Und das ist die­se abstrak­te Idee, dass man Maschinen durch den Aspekt des Lernens Intelligenz ver­leiht.

Tobias Gutmann ent­schärft: Er hat die Kontrolle über Sai Bot, das heisst, die­se Maschine lernt nicht, son­dern führt nur aus, was Tobias ihr gezeigt hat. Lernfähig ist sie nicht. Dafür bräuch­te es Feedbacks wie Ratings, damit das System eine Wertung voll­zie­hen kann. Feedbacks? Das ken­nen wir doch von all den Diensten und Services, die uns täg­lich nach jedem Kontakt zuge­stellt wer­den, damit wir eine Bewertung abge­ben.
Tobias’ Antwort ist beru­hi­gend, aber war schon zuvor klar, weil die Technik und die digi­ta­le Kapazität für ein sol­ches Projekt noch immer gewal­tig sind. Auf einem nor­ma­len Computer kann man den Anfang machen – doch die Lernkurve gene­riert über­pro­por­tio­nal so vie­le Daten, dass ein sol­che Software schlicht die Prozessoren über­hitzt und sich die Maschine durch über­pro­por­tio­na­le Lernrechnungsaufgaben bis zum Stillstand ver­lang­samt. Deswegen sind die «intel­li­gen­ten» Systeme auf Grossrechnern aus­ge­la­gert, die durch par­al­le­le Rechnerverbindungen welt­weit ope­rie­ren. Da geht’s um Rechnungskapazitäten, die wir uns nicht vor­stel­len kön­nen. ChatGPT und all die­se «Spielmaschinen», die zur­zeit in aller Munde sind, sind dar­auf aus­ge­rich­tet, von den Menschen zu ler­nen. Ein wich­ti­ger Moment. Aber wer ver­sucht, eine Frage zu stel­len, steht oft lan­ge in der digi­ta­len Warteschlange. Das sind inso­fern gute Nachrichten, als unse­re Autos des­we­gen noch nicht über­mäs­sig intel­li­gent sein kön­nen. Oftmals sind KI-Ankündigungen schlicht nur Werbung für etwas, das viel­leicht in fünf Jahren mög­lich sein könn­te …

Wir hören auch die­se Geschichten aus dem unter­neh­me­ri­schen Umfeld, wenn wir jetzt an IBM Watson den­ken. Vor eini­gen Jahren gab es die Geschichte, dass in Japan Watson in einer Versicherung ein­ge­setzt wor­den ist. Was sind da die Potenziale?
Jérôme Koller: Der Fall Watson war damals eine Inspirationsquelle, die haben auch ziem­lich viel Werbung gemacht dafür mit der Begründung, es wer­de sehr viel Effizienz brin­gen. Diese japa­ni­sche Versicherung war die erste Firma, die mein­te, sie wer­fe 30 Mitarbeiter raus, weil sie dach­ten, dass das System die­se erset­zen wird. Das war natür­lich für die­se Versicherung gute Werbung.

Es gibt ein rie­si­ges Potenzial die­se Technologie bei uns ein­zu­set­zen. Wir bei der Mobiliar wer­fen natür­lich des­we­gen kei­ne Menschen auf die Strasse, aber wir ver­wen­den sol­che Systeme. Wer ChatGPT kennt: Bei der Mobiliar set­zen wird die­ses System nicht ein, aber die Technologie, die dar­un­ter liegt, die­se trans­for­mie­ren­den Algorithmen, sind bei uns in der Tat auch im Einsatz. Aber nur für sehr geziel­te Anwendungen. Ein Beispiel wäre: Technologien kann man in einem Unternehmen nut­zen, um die Effizienz zu stei­gern. Aber das ersetzt kei­ne Menschen. Gerade bei der Mobiliar sind die Kunden im Zentrum. So zum Beispiel wer­den die­se Systeme beim Erfassen von Schadensmeldungen ein­ge­setzt und ver­ein­fa­chen die­se Prozesse für die Kunden.

Viele erin­nern sich noch an die Suchmaschine Yahoo. Vor 20 Jahren muss­te man sich auf die­ser rie­si­gen Seite durch Kategorien klicken und den Weg zu den Informationen selbst suchen. Doch alle wis­sen heu­te, dass Google ein­fach eine weis­se Seite ist mit einem Logo und einem Suchfeld. Und das ist für mich die kon­zen­trier­te Macht die­ser Technologie. Ich kann ein­fach schrei­ben, was ich will, und ich erhal­te erste Antworten. ChatGPT macht hier das Potenzial noch grös­ser.

Eine gute, fach­kun­di­ge Bemerkung, die Koller hier macht. Die Diskussion geht aber immer, wenn fach­kun­di­ges Wissen auf­taucht, in die Vertrauensrichtung. Also die eigent­li­che Frage, die sich mir stellt: Können wir Maschinen ver­trau­en? Anna-Lena Köng, die ein­zi­ge Fachfrau in der Runde, kommt erst nach 23 Minuten und 50 Sekunden zu Wort und sagt Wesentliches: Sie ver­gleicht das Vertrauensthema mit den ersten Flugzeugen. Da sei man auch nicht ein­fach gleich ein­ge­stie­gen und in die Luft geflo­gen – das Vertrauen in die Maschine brauch­te Zeit. Ich wür­de ger­ne noch anmer­ken: Bis heu­te ist die hun­der­pro­zen­ti­ge Sicherheit beim Fliegen nicht gege­ben und es stürzt immer wie­der ein Flieger ab. Vielleicht ist mein Editorial die­ser Ausgabe auch inter­es­sant: Vertrauen ist eine mensch­li­che Eigenschaft. Vertrauen Maschinen uns? Oder ist das eine ein­sei­ti­ge Liebesbeziehung? Wir sind noch sehr weit ent­fernt davon, dass eine Maschine ech­te Kultur ver­ste­hen und leben kann. Das macht sie als Bestandteil einer Gesellschaft unbrauch­bar, höch­stens als Sklave davon nütz­lich. Doch genau die­se Passage wäre drin­gend zu über­den­ken. Man stel­le sich vor, was pas­siert, wenn die Maschine es merkt!

Doch Köng sagt auch, dass sich die Entwicklung von auto­ma­ti­sier­ten Prozessen hin zu auto­no­men Systemen ver­la­ge­re. Das ist die­se Neuentwicklung oder eben der Unterschied zu den 60er-Jahren, als man Maschinen pseu­do­in­tel­li­gent gemacht hat. Das ist eine Schlüsseldefinition von die­ser Entwicklung oder davon, was wir zur­zeit erle­ben. Köng meint zudem, dass es sehr kom­pli­ziert und schwie­rig sei, mit die­sen neu­en, auto­no­me­ren Maschinen mit­zu­hal­ten – als Menschen. Es brau­che vie­le neue Regulierungen, das Bildungswesen rütt­le es momen­tan stark auf, und wir müss­ten da viel schnel­ler wer­den. Gleichzeitig sei es schwie­rig, jetzt schon Grenzen zu set­zen. Das Militär wie­der­um erfor­sche sehr stark die­se Mensch-Maschinen-Symbiose, und Köng meint dazu, dass wir uns noch viel mehr in die­se Richtung ent­wickeln wür­den.

Bei einer These klin­gel­ten aber die Alarmglocken: Köng mein­te – und ich weiss schon, wie sie es mein­te –, dass Maschinen feh­ler­haft blei­ben soll­ten, damit wir Menschen nicht die­ser Perfektion gegen­über­ste­hen. Also eine «natür­li­che» Fehlerquote im Bordcomputer eines selbst­flie­gen­den Flugzeugs? Sollen wir dar­auf ver­trau­en, dass die Maschine eine glei­che Fehleranfälligkeit auf­weist wie der Mensch? Wollen wir das?

Und gut ist, dass wir eben genau über die­se Ideen, Maschinen und unse­re Zukunft dis­ku­tie­ren.

Das war jetzt knapp die Hälfe der Diskussion, die ich hier ver­ar­bei­tet habe. Wer die­se nach­hö­ren möch­te, kann auf unse­rer Website oder bei Tobias Gutmann auf dem Instagram-Account nach­se­hen.

www.instagram.com/tobiasgutmann

 

 

Über Tobias Gutmann
Seit mehr als zehn Jahren por­trä­tiert Tobias Gutmann (*1987) mit sei­ner Performance «Face-o-mat» Menschen. Er wur­de bereits in nam­haf­te Ausstellungshäuser wie das Centre Pompidou in Paris, das Platform L Contemporary Art Center in Seoul, das Haus Konstruktiv in Zürich und die Kunsthalle Bern ein­ge­la­den. 2019 begann der Künstler eine Zusammenarbeit mit Dazlus, um Sai Bot zu ent­wickeln. Der künst­li­chen Intelligenz wur­de bei­gebracht, Gesichter zu lesen und zu inter­pre­tie­ren. Dabei hat Sai Bot gelernt, Brillen, Haare, Ohren und Muttermale zu ana­ly­sie­ren. Im Gegensatz dazu sind her­kömm­li­che Gesichtserkennungssoftwares auf die Erkennung von Augen und Mund spe­zia­li­siert. Nun por­trä­tiert die künst­li­che Intelligenz im Stil von Tobias Gutmann Menschen in aller Welt.