Trend: „Are Robots Better Humans?“

Zum ersten Teil: Google Car, Unfälle und Datenschutz

Foto: (c) Raimund Appel

Foto: (c) Raimund Appel

“Wir haben gerade dein Auto gehackt”
CryptoLocker war 2013 die erfolgreichste Ransomware (=Schadprogramm, bei der eine Zugriffsverhinderung auf den PC erwirkt wird, Anm. d. Red.) der Welt: Bei Aktivierung verschlüsselte das Programm Dateien der befallenen Computer. Man hatte mehrere Tage Zeit, „Lösegeld“ in Form von Bitcoins zu überweisen, sonst würde der Schlüssel vernichtet und man hatte keinen Zugriff mehr auf seine Daten. Die Verantwortlichen verdienten damit in nur drei Monaten 30 Millionen Dollar. Was sehr erfolgreich bei Computern auf der ganzen Welt funktioniert hat, ließe sich laut Peter Purgathofer nun ebenso auf selbstfahrende Autos umlegen. Die Situation wäre dabei allerdings fatal: “Stellen Sie sich vor, Sie fahren ein Auto mit 130 km/h. Auf einmal erscheint eine Sprachnachricht: „Wir haben gerade dein Auto gehackt. Du hast zehn Minuten Zeit um uns eine Geldsumme zu überweisen. Dann entscheiden wir, ob diese Summe genug ist.“ Ich glaube nicht, dass wir in Zukunft für eine solche Situation gewappnet sind.“

Nicht nur bei der Sicherheit von Fahrzeugen, gesteuert über künstliche Intelligenz, sind noch viele Fragen offen, sondern auch zur Beschaffenheit von AI an sich. Vor allem bei moralischen Entscheidungen ist hier das Feld noch offen. Zum besseren Verständnis der Komplexität erläutert der TU-Professor das Trolley-Problem.

Das Trolley-Problem
Eine Straßenbahn gerät außer Kontrolle und droht in eine Gruppe von fünf Personen zu schlittern. Durch Umstellen einer Weiche kann die Bahn auf ein anderes Gleis umgeleitet werden, an dessen Ende steht allerdings auch eine Person. Entweder man greift nicht ein und es stirbt die Gruppe, oder man legt den Schalter um und nimmt somit den Tod eines Menschen in Kauf, um die restlichen fünf zu retten.

Wie bei vielen anderen Gedankenexperimenten gibt es keine eindeutig richtige Lösung, nur unterschiedliche philosophische Ansätze. Wenn es allerdings zur realen Situation im Straßenverkehr mit rechtlichen Folgen kommt, sieht das Ganze anders aus: Man fährt mit hoher Geschwindigkeit, plötzlich kreuzen bei einem Übergang zwei Autos die Straße. In einem Fahrzeug sitzen fünf Personen, im anderen nur eine. Ein Anhalten ist nicht mehr möglich, die Kollision mit einem der beiden Fahrzeuge ist unausweichlich. Peter Purgathofer meint dazu: “Wenn wir eine solche Situation im Auto erleben, stehen wir unter Stress und denken nicht wirklich darüber nach, sondern handeln durch pure Reaktion. Künstliche Intelligenz als Fahrer eines autonomen Autos hat so viel Zeit über die Situation nachzudenken, dass es eine fundierte Entscheidung treffen kann.“

Foto: (c) Raimund Appel

Foto: (c) Raimund Appel

“Are Robots Better Humans?”
Genau hier liegt die Krux, denn selbst wenn künstliche Intelligenz solche Situationen bewerten könnte, würde man als Fahrer ein solches Fahrzeug überhaupt wollen? Der TU-Professor gibt dazu ein letztes Beispiel: Man fährt mit hoher Geschwindigkeit auf den Eingang eines Tunnels zu. Plötzlich springt ein Kind auf die Straße, man kann nicht mehr ausweichen, ohne selbst einen Unfall zu haben. Weicht das Auto aus und riskiert den Tod des Fahrers, oder überfährt es das Kind? Wie ein Fahrzeug, gesteuert über künstliche Intelligenz mit solchen Situationen umgeht, ist folglich eines der größten Kriterien für den kommerziellen Erfolg einer solchen Technologie.

Diese Entscheidungen über Leben und Tod werden im Straßenverkehr täglich aus purer Reaktion heraus getroffen. Der Bericht von Google über ihr „Self-Driving Car Project“ gibt Aufschluss darüber, dass die Technik zur frühzeitigen Gefahrerkennung bei solch autonomen Fahrzeugen bereits sehr fortgeschritten ist. Ob Artificial Intelligence bei der Bewertung solcher Gefahren nach menschlichem Vorbild gestaltet wird, steht dabei allerdings nicht fest. Auf die Frage der Konferenz: „Are robots better humans?“ antwortet zumindest Peter Purgathofer: „Die Menschheit ist nicht so toll. Wenn wir Roboter wollen, dann sollten wir sie nicht nach uns modellieren.“

Zum ersten Teil: Google Car, Unfälle und Datenschutz

Titelbild: flickr.com/jamesvaughan

Markus Füxl studiert Publizistik- und Kommunikationswissenschaft in Wien und ist als Redakteur für mokant.at tätig. Kontakt: markus.fuexl[at]mokant.at

Leave a Reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.