Entscheider statt Terminator Warum wir oft ein falsches Bild von künstlicher Intelligenz haben

Oberschlauer Computer strebt Weltherrschaft mit Killerrobotern an - so funktionieren immer noch viele Hollywood-Stoffe. Experten warnen, dass dieses verzerrte Bild von künstlicher Intelligenz ernste Folgen haben kann.

Der Terminator
AFP

Der Terminator

Aus Austin berichtet


Im Kino oder auf der Couch begegnet uns künstliche Intelligenz oft als ein wahnwitziges Computerprogramm, das zur tödlichen Bedrohung wird. In den "Terminator"-Filmen schickt das Skynet Killermaschinen, in "2001: Odyssee im Weltraum" will der Bordrechner Raumfahrer meucheln, in "Ex-Machina" rächen sich scharfsinnige Sexbots.

Es gibt auch nette Roboter. Data auf der "Enterprise" oder der Hologramm-Doktor auf der "Voyager". Die Mensch-Kopien taugen leider auch nicht, Zuschauerinnen und Zuschauern ein halbwegs realistisches Bild künstlicher Intelligenz zu vermitteln. Wer nur schlaue Humanoiden oder fiese Killerprogramme zu sehen bekommt, hat ein verzerrtes Bild.

Warum das ein Problem ist, erklären Forscher und Science-Fiction-Autoren auf dem Technik-Festival "South by Southwest" in Austin. Künstliche Intelligenz ist hier überall Thema, ob bei Marsreisen, Krebsforschung oder beim Online-Shopping: Computer lernen und treffen Entscheidungen, auf die ein Mensch nicht gekommen wäre.

Wer bekommt eine Versicherung, wer keinen Kredit?

Das passiert schon jetzt, etwa bei den automatischen Vorschlägen von YouTube oder Netflix, bei der Übersetzung von Sprachen oder im Support-Chat: Maschinen statt Menschen treffen Entscheidungen. Mit dem Terminator hat das nicht viel tun. Trotzdem ist die Technik neu, es gibt ungelöste Fragen und Fallstricke.

"Nur die Hälfte dessen, worüber sich Forscher Gedanken machen, kommt in Filmen und Serien überhaupt vor" sagt Christopher Noessel. Er arbeitet bei IBM an Watson, einer künstlichen Intelligenz, die "Jeopardy" spielt oder Ärzte bei Diagnosen unterstützt. Noessel hat 147 Filme und Serien sowie 68 Manifeste von Forschern und Firmen ausgewertet. Er stieß auf Parallelen - und auf Leerstellen.

Wichtige Fragen kommen in den fiktiven Stoffen praktisch nicht vor: Wie Entscheidungen einer künstlichen Intelligenz nachvollziehbar werden. Damit Entscheidungen von Software - wer bekommt eine Versicherung, keinen Kredit, ein neues Herz - überprüft und korrigiert werden können. Außerdem auf der Agenda der Forscher: Gesetze und Normen, um die neue Technik zu regulieren.

Proben für den Hollywood-Ernstfall

Der Science-Fiction-Autor Cory Doctorow sieht Filmemacher und Geschichtenerzähler in der Verantwortung: "Die Zukunft hängt davon ab, was wir tun." Man dürfe Science Fiction nicht mit Wahrsagerei verwechseln. "Wie wir Geschichten erzählen, hat einen großen Einfluss." Science Fiction zeige nicht, was genau passieren würde, aber was passieren könnte.

Den Einfluss der Hollywood-Geschichten auf Politik illustriert er anhand von Verschlüsselung: Wenn in Filmen Codes in Sekunden geknackt werden, wecke das Begehrlichkeiten bei Politikern und ziehe schlechte Ideen wie den Zwang zu einer Hintertür nach sich. Wie Filme und Serien künstliche Intelligenz darstelle, habe direkten Einfluss auf die Wahrnehmung der neuen Technik in der Gesellschaft.

Noch schlimmer seien nur Katastrophenfilme: Kaum passiere etwas, gerieten die Menschen auf der Leinwand aneinander und die Ordnung breche zusammen. Tatsächlich verhielten sich die meisten Menschen genau gegenteilig - trotzdem würde die Politik sich zunehmend auf den Hollywood-Ernstfall vorbereiten. Bald auch bei künstlicher Intelligenz?

Waschmaschinen statt Roboter

Malka Older, Autorin des viel gelobten Cyberpunk-Buchs "Infomocracy", fordert deswegen vielfältige Geschichten und genaues Hinschauen. Science Fiction habe die Kraft, gesellschaftliche Vorstellungen nachhaltig zu verändern. Ihr Beispiel: Der Kuss zwischen Uhura und Kirk, einer Schwarzen und eines Weißen, in der Fernsehserie "Raumschiff Enterprise".

Older sorgt sich, dass auch Nachrichten zunehmend als Geschichten erzählt werden und sich an Hollywood orientieren. Bilder vom Terminator für Artikel nutzen (wie hier geschehen), an der Vorstellung einer künstlichen Intelligenz festhalten, die wie ein Mensch fühlt und ein eigenes Bewusstsein hat. Ihre Hoffnung: Mit der Zeit nehme das allgemeine Wissen über künstliche Intelligenz zu. In ihren Büchern schreibt Older deswegen auch nicht von "künstlicher Intelligenz". Die schlauen Funktionen seien schließlich schon jetzt überall eingebaut. "Wir nennen Waschmaschinen auch nicht mehr Roboter", sagt sie.

Intelligenz sei oft noch voller Vorurteile, berichtet die Bürgerrechts- und KI-Expertin Rashida Richardson. Weil bestimmte Personengruppen in den Daten, mit denen die Programme trainiert werden, kaum vorkämen. Weil die Programmierer selbst eine homogene Truppe weißer Männer sei. Was unter anderem dazu führte, dass Gesichtserkennung bei Menschen mit schwarzer Hautfarbe kaum funktioniere.

Ein Begriff wie eine Blendgranate

Das zeigt sich auch in Hollywood: Auf den Filmplakaten sind künstliche Intelligenzen oft humanoide Roboter mit weißer Hautfarbe, männliche Killermaschinen oder weibliche Sexsklaven.

Das verzerrte KI-Bild führt auch zu Auswüchsen wie diesen: Experten haben sich 2830 europäische Start-ups genauer angesehen, die angeblich oder vermeintlich künstliche Intelligenz einsetzen. Bei 40 Prozent traf das entweder gar nicht zu oder war eine maßlose Übertreibung. Das Blenden funktioniert dann besonders gut, wenn das allgemeine Verständnis gering ist.

Aber nicht nur Hollywood hat Aufholbedarf. Eine womöglich beunruhigende Randbeobachtung von Noessel: In den von ihm untersuchten Manifesten von Forschern und Firmen fand sich kaum ein Wort über autonome Waffensysteme. Womit wir doch wieder beim Terminator wären.

insgesamt 33 Beiträge
Alle Kommentare öffnen
Seite 1
steffenkroll 14.03.2019
1. Das Brechen der eigenen Regeln
Was ich selber denk und tu, trau ich auch den andren zu. Ebenso verhält es ich mit künstlicher Intelligenz. Wir haben Angst vor KI gesteuerter Technik, weil wir Menschen davon ausgehen, dass die KI so egoistisch, sadistisch und asozial programmiert sein wird, wie wir uns meist selbst verhalten. Genau so kann es kommen, wenn Menschen programmieren, die egoistischen Prinzipien folgen. Programmieren aber sozial eingestellte Charaktere, wird die KI-Basierte Zukunft wunderbar sein!
ebieberich 14.03.2019
2. Schoener Artikel
Vor allen Dingen weil heute fast jeder mit angeblicher KI Werbung macht, obwohl die Steuerung nicht besser ist als ein Windows Betriebssystem. KI ist aber schon etwas mit dem man vorsichtig umgehen sollte, vor allem wenn der "Entscheider" grosse Entscheidungen im Bankwesen oder Militaer treffen sollte. Zwar ist jede auf heutigen Chips und digitaler Logik basierende KI niemals in der Lage Bewusstsein und Gefuehle zu entwickeln, aber auch die "Zombie" KI kann mal nicht funktionieren oder zum Missbrauch programmiert werden. Richtig gefaehrlich wird es erst, wenn KI ihr eigenes Bewusstsein und Gefuehle entwickelt, dann agiert sie aus eine schwer zu kontrollierenden Motivation heraus. Dass das schief geht, kennen wir ja vom Menschen schon. Daher sollten Experimente mit "bewusster" KI in aboluter Quarantaene durchgefuehrt werden.
steffenkroll 14.03.2019
3. Das Brechen der eigenen Regeln
... wir werden wundervolle Musik hören, die wir bis dato noch nicht hörten, wir werden betörende Bilder sehen, die wir uns bis zu diesem Zeitpunkt nicht vorstellen konnten, wir werden Produkte erleben, die bisher undenkbar waren für die mindere Intelligenz des Menschen ...
ajantis 14.03.2019
4. naja die Frage ist doch, ab wann sprechen wir von einer "echten" KI?
Jeder etwas bessere Algorithmus wird heute KI genannt, weil es aktuell DAS Modewort in der IT ist. Ein Programm was mir youtubevideos vorschlägt oder shoppingtips gibt ist in meinen Augen keine KI. Von einer KI würde ich erst dann sprechen, wenn diese sich selbst bewusst ist und "selbständig" agieren kann. Stichwort Turing-Test usw.
shardan 14.03.2019
5. Der Artikel verzerrt ebenso!
Vorweg: Der Computer "HAL" in "2001-Odyssee im Weltraum" will nicht morden, er mordet, höchst erfolgreich die gesamte Besatzung bis auf einen oder zwei. Ansonsten sind die Beispiele für KI im Artikel bemerkenswert. Die Auswahl bei Netflix usw? Das ist ja auch das Ausspielen von "zielgerichteter Werbung" auf etlichen Platformen... Wenn das das Resultat für KI-Entscheidungen ist, danke ich aber recht herzlich, so viel Stuss kriege ich selten zu sehen. Von z.B. Kreditentscheidungen hängt da deutlich mehr für die Menschen ab - auch da habe ich die Erfahrung gemacht, dass die getroffenen Entscheidungen mitunter reiner Hohn sind. Aber der Artikel redet in meinen Augen auch schön: Es wird bereits an KI-gesteuerten Kampfdrohnen entwickelt, die die KI zum Töten nutzen. Man muss sich vor Augen führen, dass eine KI nur bedingt nachvollziehbar agiert - selbst Experten können bei einer trainierten KI nach wie vor nicht sicher sagen, wie die Entscheidungen zustande kommen. Das wünsche ich mir bei keiner Waschmaschine, bei keinem "autonomen" Fahrzeug und erst recht nicht bei einer Kampfdrohne. Ich sehe KI durchaus als ein nützliches Hilfsmittel an. Eine KI kann bei der Diagnose von Krankheiten ein hervorragendes Hilfsmittel (!) sein - das letzte Wort muss aber auch da ein menschlicher Arzt haben.
Alle Kommentare öffnen
Seite 1

© SPIEGEL ONLINE 2019
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung


TOP
Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.