Künstliche Psychopathen

Von

|

Drucken Drucken

Von Patrik Etschmayer - Nachdem die – unter­des­sen ein­ge­stell­te – Möglichkeit, mit einer Kombination von Nazi-Ausdrücken Anzeigen ziel­ge­rich­tet an Facebook-Nutzer mit eben die­sen Vorlieben zu rich­ten, ent­deckt wor­den ist, stel­len sich eini­ge Fragen:

Haben die Facebook-Algorithmen eigent­lich gar kei­nen Geschmack? Und kei­ne Moral? Und da die­se Fragen ohne­hin mit Ja beant­wor­tet wer­den müs­sen, wird es gleich wesent­lich inter­es­san­ter: Welche Stichworte gibt es, um Rechtsextreme, die nur Muslime has­sen, zu tar­get­ten? Gibt es Facebook-Gruppen, die für eth­nisch neu­tra­len Völkermord sind? Gibt es wohl auch eine Gruppe für mili­tan­te Buddhisten, die gegen Muslime het­zen, die ein­fach noch nicht gefun­den wur­de, weil es kei­ne bur­me­sisch spre­chen­den Admins gibt? Und wel­che geschmack­lo­sen Anzeigenstichwörter könn­te man in einer sol­chen Gruppe wirk­sam ver­mark­ten?

Bei die­ser Facebook-Sauerei fragt man sich unwill­kür­lich: Kann man auch auf Google oder Twitter Rassisten gezielt in Klartext anspre­chen? Alle, die Zweifel dar­an haben, kön­nen beru­higt wer­den – laut Buzzfeed sei das natür­lich mög­lich: Google ermög­lich­te das Ad-Targetting für Leute, die die Phrase «Zionisten kon­trol­lie­ren die Welt» suchen, und Twitter liess das geziel­te Bewirtschaften von ras­si­sti­schen Begriffen für Schwarze und Hispanics zu.

[wc_quick_donation]

Natürlich wur­den auch hier die Lücken geschlos­sen, sobald die Sauereien erst mal der Öffentlichkeit prä­sen­tiert wor­den waren. Bei Twitter sei­en Softwarefehler schuld gewe­sen, und Google gab zu, dass die Filter nicht gut genug gewe­sen sei­en und man sich bemü­he, die­se Dinge aus­zu­mer­zen. Und – um wie­der auf Facebook zurück­zu­kom­men: Sheryl Sandberg, COO von Facebook, muss­te zuge­ben, dass die Automatismen zu fürch­ter­li­chen Resultaten geführt hät­ten und jetzt in die­sem Bereich wie­der ver­mehrt Menschen die Kontrolle über­neh­men wür­den.

Der Haken ist, dass in sol­chen Systemen Menschen erst zum Einsatz kom­men, wenn die Milch ver­schüt­tet, das Bier umge­kippt und der Nazi von der Leine gelas­sen wor­den ist. Denn auch wenn Google, Apple, Facebook, Microsoft und wer auch immer noch so hart dar­an arbei­ten: Es wird immer einen Weg geben, die stan­dar­di­sier­ten Abläufe der Programme – oder eben Algorithmen – zu über­li­sten. Das kann mit ein­fa­chen Abänderungen in der Schreibweise von Wörtern pas­sie­ren, die in den ent­spre­chen­den Kreisen bekannt und in Anwendung sind, durch das Verwenden von harm­los schei­nen­den Ersatzworten und Tarnausdrücken (wie z. B. 88 für HH, was für «Heil Hitler» steht) umge­hen.

Das ist der Moment, wo eigent­lich die Stunde der künst­li­chen Intelligenz schla­gen müss­te, soll­te man glau­ben. Doch da gibt es einen wei­te­ren gros­sen Haken:. So heisst Intelligenz im Zusammenhang mit abstos­sen­dem Verhalten sehr wenig: Heydrich, Mengele und Goebbels waren intel­li­gen­te, gebil­de­te Menschen, ja Heydrich war sogar sehr kul­ti­viert und musi­ka­lisch. Mithin mehr, als man von einer tum­ben KI je ver­lan­gen wür­de. Und trotz­dem war er ein Schlächter son­der­glei­chen, der mit­leid­los Tausende in den Tod schick­te.

Heydrich fehl­te es also nicht an Intelligenz, son­dern an Menschlichkeit und Mitgefühl. Das soll natür­lich nicht heis­sen, dass die zukünf­ti­gen KI von Google und Facebook Massenhinrichtungen ver­an­las­sen wer­den; aber wer an das völ­lig miss­glück­te Chatbot-Experiment von Microsoft namens Tay zurück­denkt, das mit einer vir­tu­el­len jun­gen Frau begon­nen hat­te, die über Twitter fröh­lich mit der Welt kom­mu­ni­zie­ren soll­te, und innert 24 Stunden dank User-Inputs zu einer ras­si­sti­schen, anti­se­mi­ti­schen Obszönitätenschleuder mit Inzesttendenzen gewor­den war, sieht, dass hier wirk­lich ein Problem in den Siliziumhirnen vor­han­den ist, wenn sie sich von Trollen schnel­ler ver­der­ben las­sen als ein unge­kühl­tes Pouletbrüstchen von Salmonellen.

Dabei ist das Problem ziem­lich klar, was hier schief­geht: Computer machen ent­we­der ein­fach schlech­te Beispiele nach oder schla­gen üble Dinge vor, weil sie ganz ein­fach nicht wis­sen, was die Welt für einen Menschen ist und wie sie sich anfühlt. Computer haben schlicht kei­nen Bezug zum Menschsein und sol­len gleich­zei­tig mensch­lich han­deln. Und da geht das ein­fach nicht. Denn ein Computer kann nicht lei­den, ein Computer kann kei­ne Zwischentöne erken­nen, und er ist auch nicht in der Lage, die Wirkung sei­ner Worte auf die Empfänger zu qua­li­fi­zie­ren oder quan­ti­fi­zie­ren. Zurückweisung kann für einen Menschen trau­ma­tisch sein. Das nicht zuletzt, weil der Ausschluss aus einer Gruppe evo­lu­tio­när gese­hen lebens­be­dro­hend sein konn­te. Einen Computer aber, der nichts als Strom braucht, lässt ein böses Wort so kalt, wie der Prozessorkühler dies eben zulässt.

Hass und Ausgrenzung sind – sogar ohne hand­fe­ste Taten – für sozia­le Wesen exi­sten­zi­el­le Erfahrungen. Jeder kennt das Gefühl, bloss­ge­stellt oder zurück­ge­stos­sen zu wer­den. Wer jemals von einem ange­be­te­ten – poten­zi­el­len – Partner abser­viert wor­den ist, weiss genau, wie erschüt­ternd ein sol­ches Erlebnis sein kann. Ebenso inten­siv ist die Euphorie, die man ver­spürt, wenn man von einer Person oder einer Gruppe ange­nom­men und akzep­tiert wird. Solche Gefühle – und wie wir mit ihnen umge­hen, sie aus­lö­sen und erle­ben – machen uns Menschen aus. Es ist eine see­li­sche oder neu­ro­na­le Welt, die einem Computer, egal, wie toll er pro­gram­miert sein mag, völ­lig fremd ist. Nicht zuletzt, weil die­se Dinge nicht intel­lek­tu­ell, son­dern rein emo­tio­nal sind. Und Emotionen sind der wich­tig­ste, wenn nicht gar der ein­zi­ge Antrieb im Leben, wobei Angst und das Streben nach Freude Hand in Hand gehen, um uns im Leben wei­ter­zu­brin­gen und vor Schaden zu bewah­ren. Und da die­se Gefühle mei­stens im Austausch mit ande­ren Menschen ent­ste­hen und auch deren Gefühle auf uns zurück­wir­ken, ist Empathie ein zwei­ter gros­ser Baustein des Mensch- und Menschlich-Seins.

Computern feh­len Emotionen eben­so wie Empathie. Genauso ist dies zu einem gewis­sen Mass bei Psychopathen und Soziopathen der Fall, die es zwar schaf­fen, Gefühle und Mitgefühl vor­zu­ge­ben, am Ende aber nur die Befriedigung ihrer eige­nen Bedürfnisse als Ziel haben. Von dem her sind vie­le sozia­len Netzwerke ech­te Psychopathen, die wegen ihres impli­zi­ten Ziels, mög­lichst viel Traffic und/oder Umsatz zu gene­rie­ren, fast jede Bemühung der Betreiber zu sozia­ler Verantwortung ad absur­dum füh­ren. Wenn das Ziel des Algorithmus ist, mög­lichst vie­le Anzeigen an den Mann / die Frau / den Nazi zu brin­gen, dann wird er nach den ent­spre­chen­den Möglichkeiten suchen, dies auch zu tun. Und wenn eini­ge Hürden gesetzt wer­den, wer­den sie zwar berück­sich­tigt wer­den – nicht, weil es für den Algorithmus böse wäre, die­se Dinge zu schal­ten, son­dern ein­fach, weil dies nun Teil einer Liste ist, die ent­spre­chend in den Ablauf ein­ge­schlos­sen wer­den muss –, aber eben­so sicher wer­den die bösen Menschen, die man eigent­lich ver­mei­den will, einen Weg dar­um her­um fin­den.

Wobei KI und sozia­le Netzwerke natür­lich kei­ne Psychopathen sind. Dafür sind sie viel zu blöd, und sie haben auch kein Interesse, ihre devi­an­ten Triebe zu befrie­di­gen (man­gels der­sel­ben). Doch je intel­li­gen­ter die­se Entitäten wer­den, desto bedroh­li­cher wer­den sie auch – nicht zuletzt, weil sie auch dann immer noch pri­mär die meist kom­mer­zi­el­len Ziele des Betreibers ver­fol­gen wer­den, ohne einen Funken Menschlichkeit und ohne Gefühl für das Leben, die Emotionen und das Schicksal von Menschen zu ver­spü­ren.

Es wird also inter­es­sant sein, wie die künst­li­che Intelligenz den Spagat zwi­schen kom­mer­zi­el­len Zielen und Philanthropie fin­den wird, wenn die Intelligenz wirk­lich mal da ist. Wenn man nicht wüss­te, dass Menschen auch ganz allein sau­blöd sind, wäre zum Beispiel die Verbreitung von Anti-Impf-Meldungen etwas, dass eine KI eines Pharmaherstellers machen wür­de, der Medikamente gegen Infektionskrankheiten her­stellt. Ein Bot eines Waffenherstellers wür­de sich bemü­hen, Krawalle in wohl­ha­ben­den Wohngegenden zum Fördern des Verkaufs von Handfeuerwaffen zu för­dern. Eine Börsen-KI mani­pu­liert Kurse, um den Gewinn «ihrer» Bank zu ver­grös­sern und ein Versicherungs-Bot die Daten von Erdbeben- und Sturmprognosen, um den Verkauf von Policen hin­auf­zu­trei­ben. Albtraumszenarien, die an den Haaren her­bei­ge­zo­gen sind?

Nicht wirk­lich, denn die künst­li­che Blödheit wür­de die­se Dinge sogar machen «dür­fen», wenn aus­drück­lich for­mu­liert wäre, dass kein Mensch phy­sisch geschä­digt wer­den darf. Direkt wür­de kei­ne der oben genann­ten Handlungen jeman­den ver­let­zen. Das erlaub­te Mass indi­rek­ter Auswirkungen hin­ge­gen ist viel zu schwer zu quan­ti­fi­zie­ren, um so eine Entität nicht total zu läh­men, da ja jede Handlung unbe­re­chen­ba­re indi­rek­te Auswirkungen hat. Solche Dinge – die ja durch­aus in glei­cher Art von ethisch zwei­fel­haf­ten Menschen gemacht wer­den – dürf­ten der­einst ein erstes Zeichen ech­ter künst­li­cher Intelligenz sein.

Doch ver­mut­lich wird erst dann, wenn eine KI heim­lich den Zuckergehalt von Cornflakes noch wei­ter erhöht hat, um die Verkäufe von Insulin zu stei­gern, der Ruf laut, die Grundlagen einer ech­ten künst­li­chen Ethik – nen­nen wir die­se doch KE – zu schaf­fen.

Und wenn es so weit ist, wer­den wir über eini­ge abstos­sen­de Suchworte auf einer Social-Media-Plattform nur noch lächeln, wäh­rend wir uns fra­gen, wie wir die elek­tro­ni­schen Psychopathen wie­der ein­fan­gen kön­nen.

Einen Text gelesen und der hat gefallen? Spende per TWINT ein paar Franken - ohne Abo, aber mit gutem Gewissen. Geht doch auch.



Newsletter

Unsere Newsletter kommt nicht oft und nur dann, wenn etwas wichtig ist. Sie können sich jederzeit wieder abmelden.




Mit der Nutzung dieses Formulars erklärst Du dich mit der Speicherung und Verarbeitung Deiner Daten durch die Schweizer-Newsletter-Software von «ensuite» einverstanden. (CH-Server)

logo