KI und der Weg dahin – Wir müs­sen reden!

Von

|

Drucken Drucken

Von Lukas Vogelsang – Am 1. März 2023 fand in Bern im Mobiliar-Hauptsitz ein Round Table über «Die Emanzipation der künst­li­chen Intelligenz» statt. Teilgenommen haben: Professor Florian von Wangenheim (ETH Zürich), Tobias Gutmann (Künstler, Sai-Bot-Performer), Anna-Lena Köng (Risiko-Stiftung), Jérôme Koller (Leiter Arena-Steuerung, Mobiliar). Moderiert wur­de der Anlass von Marta Kwiatkowski, Leiterin Gesellschaftsengagement, Mobiliar. Ich ver­su­che hier, die wich­tig­sten Aussagen oder Teile davon wie­der­zu­ge­ben und mich als ehe­ma­li­ger tech­ni­scher Redaktor in die Diskussion ein­zu­mi­schen.

Zu Beginn erzähl­te Tobias Gutmann, wie er zur Idee kam, den Sai Bot zu «erfin­den»: Es sei eine län­ge­re Geschichte, denn er habe ja 10 Jahre lang mit dem Face-o-mat welt­weit ana­log Gesichter gezeich­net. Während die­ser Zeit sei­en immer mehr Dinge durch Maschinen ersetzt wor­den. So sit­ze man im Zug auch nicht mehr mit Menschen, son­dern mit Mobilephones zusam­men. Alles sei im Wandel, und die Digitalisierung sei auch an ihm nicht spur­los vor­bei­ge­gan­gen. Diese ana­lo­gen Face-o-mat-Geschichten wur­den auf sozia­len Medien und Blogs geteilt. Und irgend­wann, nach­dem er rund 5000 Porträts gezeich­net hat­te, über­leg­te er, wie es wäre, wenn er die­se Zeichentechnik einem digi­ta­len Wesen ler­nen wür­de. Und so ent­stand Sai Bot.

War das auch eine Frage der Effizienz?
Tobias Gutmann: Am Rande schon. Beim Face-o-mat moch­te ich ja genau die Langsamkeit und wuss­te, dass ich nie­mals alle Menschen in der Welt wür­de zeich­nen kön­nen. Bei Sai Bot ist es das Gegenteil: In Theorie könn­te ich eigent­lich das Ding hoch­ska­lie­ren, und für die Maschine wäre das mög­lich. Ich als Mensch habe da kei­ne Chance.

Am Anfang ging ich die Idee noch leicht iro­nisch an. Das sei doch nicht das­sel­be, das gehe doch nicht, man könn­te mich doch nicht kopie­ren … Aber dann war eben die­se Challenge, das mal aus­zu­pro­bie­ren. Und das hat­te mich gereizt. Jetzt hat Sai Bot schon Tausende Gesichter gezeich­net.

[fvplay­er id=«4»]

Ich bin etwas ent­setzt: Wie unbe­darft die Idee, den Menschen zu erset­zen, zustan­de kam, ist für mich befrem­dend: «ein­fach mal aus­pro­bie­ren», «eine Challenge», eine Idee. Was bedeu­tet noch mensch­li­ches Leben? Ist die Frage nach dem Sinn des Lebens so unlös­bar, dass wir uns «ent-sin­nen»? Die Diskussionsrunde ist stolz auf die Leistung von Sai Bot. 1300 Zeichnungen wur­den in der Mobiliar-Ausstellung allein gezeich­net – 5000 hat­te Tobias inner­halb von 10 Jahren ana­log hin­ge­malt. Die Quantität ist aus mei­ner Sicht kein Indikator. Als ich die Ausstellung vor zwei Monaten besuch­te, hör­te ich Mobiliar-MitarbeiterInnen erzäh­len, dass KollegInnen mit dem Ergebnis der Zeichnungen nicht zufrie­den gewe­sen sei­en und immer und immer wie­der neue Porträts aus­pro­biert hät­ten. Ein inter­es­san­tes Phänomen, das man in die Diskussion ein­be­zie­hen müss­te: Der Mensch hat die Interpretation der Maschine bewer­tet und so oft wie­der­holt, bis er mit dem «Ergebnis» zufrie­den war. Würden wir ein Porträt ableh­nen, wenn uns eine Malerin oder ein Maler gemalt und inter­pre­tiert hät­te? Wie hoch wäre die «Fehlerquote»?

Die Maschine inter­pre­tiert nur anhand von äus­se­ren Merkmalen und nicht anhand mensch­li­cher Werte. So mag das Ergebnis einer Maschine lustig, nett sein oder eben lobend – doch berührt es so was wie die Seele? Sind es nicht viel­mehr ein­fach Striche und Formen auf einem Papier? Oder stel­len wir die Frage anders: Wenn wir ein von einem Menschen gezeich­ne­tes Porträt und ein Computer-Porträt neben­ein­an­der­hal­ten – wel­ches von den bei­den hat für uns mehr Wert? Kommt nicht beim Computerbild unwei­ger­lich der Reflex: Das ist repro­du­zier­bar?

Florian von Wangenheim: Als man begon­nen hat, über künst­li­che Intelligenz zu reden, hat man das ja bewusst getan, und da kam der Begriff Intelligenz aus dem Gedanken, dass man mensch­li­che Intelligenz über­trägt. Und das ist natür­lich, was Tobias macht, wenn er ver­sucht, der Maschine sei­nen eige­nen Zeichnungsstil bei­zu­brin­gen. Also die Maschine ahmt mensch­li­che Intelligenz nach. Gleichzeitig hat man sich wie­der etwas davon ver­ab­schie­det, dass Maschinen wirk­lich intel­li­gent wer­den kön­nen – oder man weiss es noch nicht so rich­tig. Der zwei­te Aspekt ist, dass wir künst­li­che Intelligenz, seit der Begriff auf­ge­kom­men ist – eigent­lich aus der Science-Fiction-Literatur –, etwas damit ver­bin­den, was in der Zukunft statt­fin­det. KI ist ja seit den 50er‑, 60er-Jahren auch in ver­schie­de­nen Maschinen drin und bestimmt zuneh­mend unser Leben. Aber es zeigt auf die Zukunft hin. Auf wis­sen­schaft­li­chen Konferenzen begeg­net man häu­fig der Definition, dass KI immer das ist, was in fünf Jahren mög­lich sein wird … Und der drit­te wich­ti­ge Aspekt ist die­ses fort­wäh­ren­de Lernen oder die Idee, dass Maschinen selbst­stän­dig ler­nen kön­nen. Ich ver­mu­te, dass Sai Bot noch nicht fähig ist, aus ver­gan­ge­nen Porträts, die es gemalt hat, und aus Reaktionen, wel­che Menschen dar­auf­hin zeig­ten, ler­nen kann und in der Zukunft anders zeich­nen wür­de. Das wäre der Lernaspekt, in den man viel Hoffnung rein­steckt – aber auch vie­le Ängste, dass sich die künst­li­che Intelligenz dann wei­ter­ent­wickelt. Intelligenz hat ja damit was zu tun, dass man schlau­er wird über die Zeit. Und das ist die­se abstrak­te Idee, dass man Maschinen durch den Aspekt des Lernens Intelligenz ver­leiht.

Tobias Gutmann ent­schärft: Er hat die Kontrolle über Sai Bot, das heisst, die­se Maschine lernt nicht, son­dern führt nur aus, was Tobias ihr gezeigt hat. Lernfähig ist sie nicht. Dafür bräuch­te es Feedbacks wie Ratings, damit das System eine Wertung voll­zie­hen kann. Feedbacks? Das ken­nen wir doch von all den Diensten und Services, die uns täg­lich nach jedem Kontakt zuge­stellt wer­den, damit wir eine Bewertung abge­ben.
Tobias’ Antwort ist beru­hi­gend, aber war schon zuvor klar, weil die Technik und die digi­ta­le Kapazität für ein sol­ches Projekt noch immer gewal­tig sind. Auf einem nor­ma­len Computer kann man den Anfang machen – doch die Lernkurve gene­riert über­pro­por­tio­nal so vie­le Daten, dass ein sol­che Software schlicht die Prozessoren über­hitzt und sich die Maschine durch über­pro­por­tio­na­le Lernrechnungsaufgaben bis zum Stillstand ver­lang­samt. Deswegen sind die «intel­li­gen­ten» Systeme auf Grossrechnern aus­ge­la­gert, die durch par­al­le­le Rechnerverbindungen welt­weit ope­rie­ren. Da geht’s um Rechnungskapazitäten, die wir uns nicht vor­stel­len kön­nen. ChatGPT und all die­se «Spielmaschinen», die zur­zeit in aller Munde sind, sind dar­auf aus­ge­rich­tet, von den Menschen zu ler­nen. Ein wich­ti­ger Moment. Aber wer ver­sucht, eine Frage zu stel­len, steht oft lan­ge in der digi­ta­len Warteschlange. Das sind inso­fern gute Nachrichten, als unse­re Autos des­we­gen noch nicht über­mäs­sig intel­li­gent sein kön­nen. Oftmals sind KI-Ankündigungen schlicht nur Werbung für etwas, das viel­leicht in fünf Jahren mög­lich sein könn­te …

Wir hören auch die­se Geschichten aus dem unter­neh­me­ri­schen Umfeld, wenn wir jetzt an IBM Watson den­ken. Vor eini­gen Jahren gab es die Geschichte, dass in Japan Watson in einer Versicherung ein­ge­setzt wor­den ist. Was sind da die Potenziale?
Jérôme Koller: Der Fall Watson war damals eine Inspirationsquelle, die haben auch ziem­lich viel Werbung gemacht dafür mit der Begründung, es wer­de sehr viel Effizienz brin­gen. Diese japa­ni­sche Versicherung war die erste Firma, die mein­te, sie wer­fe 30 Mitarbeiter raus, weil sie dach­ten, dass das System die­se erset­zen wird. Das war natür­lich für die­se Versicherung gute Werbung.

Es gibt ein rie­si­ges Potenzial die­se Technologie bei uns ein­zu­set­zen. Wir bei der Mobiliar wer­fen natür­lich des­we­gen kei­ne Menschen auf die Strasse, aber wir ver­wen­den sol­che Systeme. Wer ChatGPT kennt: Bei der Mobiliar set­zen wird die­ses System nicht ein, aber die Technologie, die dar­un­ter liegt, die­se trans­for­mie­ren­den Algorithmen, sind bei uns in der Tat auch im Einsatz. Aber nur für sehr geziel­te Anwendungen. Ein Beispiel wäre: Technologien kann man in einem Unternehmen nut­zen, um die Effizienz zu stei­gern. Aber das ersetzt kei­ne Menschen. Gerade bei der Mobiliar sind die Kunden im Zentrum. So zum Beispiel wer­den die­se Systeme beim Erfassen von Schadensmeldungen ein­ge­setzt und ver­ein­fa­chen die­se Prozesse für die Kunden.

Viele erin­nern sich noch an die Suchmaschine Yahoo. Vor 20 Jahren muss­te man sich auf die­ser rie­si­gen Seite durch Kategorien klicken und den Weg zu den Informationen selbst suchen. Doch alle wis­sen heu­te, dass Google ein­fach eine weis­se Seite ist mit einem Logo und einem Suchfeld. Und das ist für mich die kon­zen­trier­te Macht die­ser Technologie. Ich kann ein­fach schrei­ben, was ich will, und ich erhal­te erste Antworten. ChatGPT macht hier das Potenzial noch grös­ser.

Eine gute, fach­kun­di­ge Bemerkung, die Koller hier macht. Die Diskussion geht aber immer, wenn fach­kun­di­ges Wissen auf­taucht, in die Vertrauensrichtung. Also die eigent­li­che Frage, die sich mir stellt: Können wir Maschinen ver­trau­en? Anna-Lena Köng, die ein­zi­ge Fachfrau in der Runde, kommt erst nach 23 Minuten und 50 Sekunden zu Wort und sagt Wesentliches: Sie ver­gleicht das Vertrauensthema mit den ersten Flugzeugen. Da sei man auch nicht ein­fach gleich ein­ge­stie­gen und in die Luft geflo­gen – das Vertrauen in die Maschine brauch­te Zeit. Ich wür­de ger­ne noch anmer­ken: Bis heu­te ist die hun­der­pro­zen­ti­ge Sicherheit beim Fliegen nicht gege­ben und es stürzt immer wie­der ein Flieger ab. Vielleicht ist mein Editorial die­ser Ausgabe auch inter­es­sant: Vertrauen ist eine mensch­li­che Eigenschaft. Vertrauen Maschinen uns? Oder ist das eine ein­sei­ti­ge Liebesbeziehung? Wir sind noch sehr weit ent­fernt davon, dass eine Maschine ech­te Kultur ver­ste­hen und leben kann. Das macht sie als Bestandteil einer Gesellschaft unbrauch­bar, höch­stens als Sklave davon nütz­lich. Doch genau die­se Passage wäre drin­gend zu über­den­ken. Man stel­le sich vor, was pas­siert, wenn die Maschine es merkt!

Doch Köng sagt auch, dass sich die Entwicklung von auto­ma­ti­sier­ten Prozessen hin zu auto­no­men Systemen ver­la­ge­re. Das ist die­se Neuentwicklung oder eben der Unterschied zu den 60er-Jahren, als man Maschinen pseu­do­in­tel­li­gent gemacht hat. Das ist eine Schlüsseldefinition von die­ser Entwicklung oder davon, was wir zur­zeit erle­ben. Köng meint zudem, dass es sehr kom­pli­ziert und schwie­rig sei, mit die­sen neu­en, auto­no­me­ren Maschinen mit­zu­hal­ten – als Menschen. Es brau­che vie­le neue Regulierungen, das Bildungswesen rütt­le es momen­tan stark auf, und wir müss­ten da viel schnel­ler wer­den. Gleichzeitig sei es schwie­rig, jetzt schon Grenzen zu set­zen. Das Militär wie­der­um erfor­sche sehr stark die­se Mensch-Maschinen-Symbiose, und Köng meint dazu, dass wir uns noch viel mehr in die­se Richtung ent­wickeln wür­den.

Bei einer These klin­gel­ten aber die Alarmglocken: Köng mein­te – und ich weiss schon, wie sie es mein­te –, dass Maschinen feh­ler­haft blei­ben soll­ten, damit wir Menschen nicht die­ser Perfektion gegen­über­ste­hen. Also eine «natür­li­che» Fehlerquote im Bordcomputer eines selbst­flie­gen­den Flugzeugs? Sollen wir dar­auf ver­trau­en, dass die Maschine eine glei­che Fehleranfälligkeit auf­weist wie der Mensch? Wollen wir das?

Und gut ist, dass wir eben genau über die­se Ideen, Maschinen und unse­re Zukunft dis­ku­tie­ren.

Das war jetzt knapp die Hälfe der Diskussion, die ich hier ver­ar­bei­tet habe. Wer die­se nach­hö­ren möch­te, kann auf unse­rer Website oder bei Tobias Gutmann auf dem Instagram-Account nach­se­hen.

www.instagram.com/tobiasgutmann

 

 

Über Tobias Gutmann
Seit mehr als zehn Jahren por­trä­tiert Tobias Gutmann (*1987) mit sei­ner Performance «Face-o-mat» Menschen. Er wur­de bereits in nam­haf­te Ausstellungshäuser wie das Centre Pompidou in Paris, das Platform L Contemporary Art Center in Seoul, das Haus Konstruktiv in Zürich und die Kunsthalle Bern ein­ge­la­den. 2019 begann der Künstler eine Zusammenarbeit mit Dazlus, um Sai Bot zu ent­wickeln. Der künst­li­chen Intelligenz wur­de bei­gebracht, Gesichter zu lesen und zu inter­pre­tie­ren. Dabei hat Sai Bot gelernt, Brillen, Haare, Ohren und Muttermale zu ana­ly­sie­ren. Im Gegensatz dazu sind her­kömm­li­che Gesichtserkennungssoftwares auf die Erkennung von Augen und Mund spe­zia­li­siert. Nun por­trä­tiert die künst­li­che Intelligenz im Stil von Tobias Gutmann Menschen in aller Welt.

Einen Text gelesen und der hat gefallen? Spende per TWINT ein paar Franken - ohne Abo, aber mit gutem Gewissen. Geht doch auch.



Newsletter

Unsere Newsletter kommt nicht oft und nur dann, wenn etwas wichtig ist. Sie können sich jederzeit wieder abmelden.




Mit der Nutzung dieses Formulars erklärst Du dich mit der Speicherung und Verarbeitung Deiner Daten durch die Schweizer-Newsletter-Software von «ensuite» einverstanden. (CH-Server)

logo