Trend: „Wir haben gerade dein Auto gehackt“

Seit 2009 arbeitet Google an selbstfahrenden Autos. Welche ethischen Grauzonen sich daraus ergeben und welche Gefahren hinter diesen „Self-Driving Cars“ stecken, hat sich mokant.at genauer angesehen.

Stell dir folgende Situation vor: Du steigst in ein Taxi und nennst die gewünschte Adresse. Der Taxifahrer dreht sich mit einem metallenen Summen um und rote Lichtpunkte starren dich durch zwei Linsen an. Eine vorher eingesprochene Nachricht wiederholt die gewünschte Destination und den Preis. Nachdem du den Betrag mit Münzen in einen kleinen Schlitz am Hinterkopf des Fahrers eingeworfen hast, fährt das Taxi los. Was in ähnlicher Form in Science Fiction Romanen von Autoren wie Philip K. Dick bereits in den 80ern beschrieben wird, könnte schon in den nächsten Jahren in ähnlicher Form Realität werden: Autonome Fahrzeuge, gelenkt von einem per künstlicher Intelligenz gesteuerten Betriebssystem.

Google‘s Self-Driving Car
Ein solches System wird gerade von Google entwickelt. Bereits 2009 begann man unter der Leitung von Sebastian Thrun, ehemaliger Vizepräsident des Unternehmens, mit der Entwicklung eines selbstfahrenden Fahrzeuges, einem „autonomous car“. 2012 erlangte man im Bundesstaat Nevada schließlich eine Lizenz, die Testfahrten auf öffentlichen Straßen erlaubt. Es mussten zu Anfang allerdings aus Sicherheitsgründen stets mindestens zwei Personen im Wagen sitzen. Seitdem hat sich viel getan: Die hauseigen entwickelte Software mit dem Namen „Google Chauffeur“ steuert momentan insgesamt 23 Lexus RX 450h SUVs auf öffentlichen Straßen in Mountain View (Kalifornien) und 9 neue Prototypen auf abgesperrten Strecken. Seit dem Start des Projektes 2009 legten die von „Google Chauffeur“ gelenkten Fahrzeuge insgesamt 1 011 338 Meilen, umgerechnet 1 627 590 Kilometer, zurück. Aktuell schätzen die Entwickler die zurückgelegte Strecke der selbstfahrenden Autos in der Woche auf 10 000 Meilen (16 093 Kilometer). (Stand 3. Juni 2015)

12 Crashes
Das erklärte Ziel dieser umfangreichen Testungen ist es, für mehr Sicherheit auf den Straßen der Welt zu sorgen. Doch seit 2009 ereigneten sich insgesamt zwölf Unfälle der Google Cars. Anfang Juni veröffentlichte nun Google einen ersten Bericht mit eindeutiger Botschaft: Von den zwölf Unfällen befanden sich die Fahrzeuge in fünf Fällen in „manual mode“, das heißt sie wurden zum Zeitpunkt des Unfalles von Menschenhand gesteuert. In den meisten der zwölf Situationen war das Google Car an einer Ampel gehalten und wurde von hinten angefahren. Das Fazit in diesem Bericht lautet folgend: „Not once was the self-driving car the cause of the accident”. In Zukunft sollen monatlich Berichte über Unfälle und gefährliche Situationen veröffentlicht werden.

Die Technik der Früherkennung der self-driving-cars von Google scheint somit massentauglich. Doch was passiert, wenn ein Auto aufgrund unvorhersehbarer Faktoren wählen muss, in welche Richtung es ausweichen muss, um möglichst wenig Schaden anzurichten? Oder noch extremer: In welche Richtung es ausweichen kann, um möglichst wenig Menschenleben zu gefährden. Kann künstliche Intelligenz solche Fragen beantworten?

Foto: (c) Raimund Appel

Foto: (c) Raimund Appel

Planet der Roboter
Wir trafen im Rahmen der Konferenz „Are Robots Better Humans?“ Peter Purgathofer vom Informatik-Institut der TU Wien. Er beschäftigte sich in seiner Rede mit den Möglichkeiten und Gefahren im Bereich der Ethik von AI (=Artificial Intelligence, Anm. d. Red.). Viele Probleme der Zukunft sollen laut Purgathofer aufgrund von Automatisierung entstehen: Was vor über 30 Jahren in der Fleischproduktion begonnen hat, soll sich in Folge auf viele weitere Bereiche ausdehnen, so meint er: „Menschen werden fast überall von Maschinen ersetzt werden. Es gibt etwa vier Millionen Trucker und Busfahrer in den USA. Jede dieser Stellen wird beseitigt werden.“ Er spielt dabei auf die selbstfahrenden Autos von Google an, die im Sinne der Anwendbarkeit in naher Zukunft mehrere Ungereimtheiten bieten. Eine davon ist das Problem mit dem Datenschutz.

Datenschutz im Auto
„Überwachung ist zum Geschäftsmodell von Technologie geworden“, sagt Peter Purgathofer. Diese Überwachung mache in Folge auch nicht vor autonomen Fahrzeugen halt. Die Autos müssen natürlich die Strecken und Destinationen gespeichert haben, sonst könnten sie keine Passagiere transportieren. Der TU-Professor sieht in dieser Technologie einen weiteren Schritt zum gläsernen Menschen: „Sobald man sie benutzt, wird man vollständig transparent. Nichts gibt so viel Information über uns weiter, wie Reiseziele.“ Aus diesem Grund würden auch Googles Executives selbst nie ein solches Auto fahren, merkt Purgathofer mit einem Augenzwinkern an. Aber nicht nur Probleme mit Datenschutz lassen sich erkennen, es könnte durch Übergriffe von Hackern auch zu tatsächlichen Bedrohungen des eigenen Lebens kommen.

Hier geht’s zum zweiten Teil: Autohacking und das Trolley-Problem

Markus Füxl studiert Publizistik- und Kommunikationswissenschaft in Wien und ist als Redakteur für mokant.at tätig. Kontakt: markus.fuexl[at]mokant.at

1 Comment

  1. kelicfacebook@gmail.com'

    Flughafen

    27. Oktober 2016 at 18:31

    Ja es ist tatsächlich so das immer mehr Maschinen arbeit übernehmen
    aber das eines tages maschinen taxi fahren übernehmen hm Ich hoffe das nicht bald kommt sonst bin ich arbeitslos haha aber es verleit jemanden zu nachdenken.

    Lg

Leave a Reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.