Gewissenlose Roboterautos: Richter zwischen Leben und Tod?

Das autonome Auto schlägt Alarm: Bremsversagen! Frontal ein von Menschen gesäumter Zebrastreifen, auf der Gegenfahrbahn eine Betonbarriere. Wie soll sich das Fahrzeug entscheiden: Weiterfahren oder ausweichen?

Gefahr sehen, erkennen und auf die Bremse treten – dabei vergeht durchschnittlich eine Sekunde. Was nach menschlichem Ermessen blitzschnell erscheint, sind für einen Bordcomputer Welten. Der kann geruhsam alle Möglichkeiten durchrechnen und eine fundierte Entscheidung treffen – doch nach welchen einprogrammierten Präferenzen? Wer ist schützenswerter: Insassen oder Passanten? Und sollten deren Anzahl oder sogar Merkmale wie Alter oder Geschlecht eine Rolle spielen?

Die Autohersteller treiben die Technik voran, die Gesetzgeber erarbeiten erste rechtliche Rahmenbedingungen, die Gesellschaft diskutiert solche moralischen Fragen. Zu diesem Zweck hat Professor Iyad Rahwan und sein Team vom Massachusetts Institute of Technology (MIT) die Moral Machine (http://moralmachine.mit.edu) entwickelt. Diese Plattform ermittelt, wie Menschen zu Entscheidungen stehen, die von autonomen Fahrzeugen getroffen werden.

Wer soll überleben?

Das geschieht anhand schematisch aufgebauter Unfallszenarien: Ein oder mehrere Fußgänger gehen über einen Zebrastreifen, teils bei Grün, teils unrechtmäßig bei Rot. Da taucht ein selbstfahrendes Auto auf, dem plötzlich die Bremsen versagen. Soll es nun passiv geradeaus weiterrollen? Oder aktiv ausweichen und in eine Betonbarriere oder in Fußgänger auf der Gegenspur rasen? Diese Frage gilt es als unbeteiligter Beobachter zu beantworten, man sitzt weder im Wagen noch quert die Straße.

Das tun hingegen Menschen und Tiere, Kinder und Senioren, Sportler und Übergewichtige, Obdachlose und Manager, Kriminelle und Ärzte, jeweils beiderlei Geschlechts. Können Autos solche Merkmale überhaupt erkennen? Ja, meint Iyad Rahwan, zumindest theoretisch sei das möglich. Und schließlich beeinflussen derlei Informationen auch unsere Denkweise. So erhält man am Ende eine Auswertung, welche Personengruppen man tendenziell als schützenswerter erachtet.

Einprogrammierter Fußgängerschutz vonnöten

Die meisten Moral-Machine-Teilnehmer waren der Ansicht: Je mehr Menschenleben gerettet werden können, desto besser – solange sie nicht zu den Leidtragenden gehören, wie eine im Science Magazin veröffentlichte Umfrage ergab. Für den Eigengebrauch bevorzugen die meisten Befragten ein selbstfahrendes Vehikel, das auf größtmöglichen Schutz der Insassen programmiert ist – wäre das gesetzlich verboten, würden viele sogar auf einen Kauf verzichten.

Ein solches Verbot ist jedoch notwendig. Die Autohersteller haben naturgemäß eher die Sicherheit ihrer Kunden im Blick und wollen – neben dem finanziellen Gewinn – den Schutz der Mitfahrer maximieren. Deren Überlebenschancen sind aber ohnehin schon dank Karosserie, Gurt und Airbag weit höher als jene der Passanten, die daher gesetzlichen Schutz benötigen, verankert im Programmiercode. Darüber hinaus müssen unabhängige Prüfer die lernfähigen Fahrzeuge auf Teststrecken oder im Straßenverkehr regelmäßig beobachten und analysieren.

Immer sicher und mobil bleiben

Anzeige

Mit dem richtigen Partner an der Seite sicher im Straßenverkehr unterwegs sein? Den vollen Leistungsumfang eines klassischen Automobilclubs zu günstigeren Preisen bietet JimDrive mit Mobilitätsgarantie.

Mobil bleiben mit der europaweiten Pannenhilfe.

Jetzt informieren

Moral Machine im Realitätscheck

Zurück zur Moral Machine. Bei diesem sozial-moralischen Experiment lernt man vor allem etwas über sich selbst. Daher sollte man die Szenarien nicht allzu wörtlich begreifen – um sie aber als Grundlage für eine sachliche Maschinenmoral-Diskussion verwenden zu können, empfiehlt sich vorher die Frage nach deren Wahrscheinlichkeit.

Vorweg: Technische Gebrechen lassen sich zwar nie vollkommen ausschließen, doch in der Regel wird schon der kleinste Hinweis darauf mittels zahlreicher Sensoren erkannt. Versagt dennoch die Betriebsbremse, wird das Auto beispielsweise zurückschalten und die Motorbremse nutzen, scharfe Zickzackkurven fahren, an einer Mauer oder Leitplanke entlang schrammen und/oder schlichtweg die Feststellbremse betätigen.

Da in den Szenarien offenbar keine dieser unkonventionellen Bremsoptionen ausgeschöpft wurde, ist anzunehmen, dass der Bremsausfall plötzlich auftritt – wenige Meter vor einem belebten Zebrastreifen, bei einer vermutlich angemessen geringen Geschwindigkeit. Somit sollte einerseits der Gebrauch der Feststellbremse eine lebensrettende Alternative darstellen, andererseits ist es eher unwahrscheinlich, dass alle Insassen bei einer Kollision mit einer Betonbarriere sterben.

Um sich nicht in Details zu verlieren: Generell sind Roboterautos auf Risikominimierung getrimmt. Ist zum Beispiel der Straßenrand zugeparkt, wird angesichts der Möglichkeit, dass plötzlich ein Fußgänger auf die Straße treten könnte, das Tempo entsprechend gedrosselt. Und da die menschliche Reaktionszeit entfällt, ist bei einer Notbremsung der Anhalteweg deutlich verkürzt.

Panikmache vermeiden

Folglich werden autonome Fahrzeuge durch Echtzeit-Überwachung der Mechanik, intelligente Notbremsmanöver und risikoarmes Fahrverhalten wohl nicht allzu häufig in die Situation kommen, über Leben und Tod entscheiden zu müssen. Diese Einzelfälle stehen in keinem Verhältnis zum Gesamtnutzen selbstfahrender Vehikel. So sollte zwar eine Diskussion darüber geführt werden, aber nicht wegen hochstilisierter Horrorszenarien in einem gesellschaftlichen Vertrauensverlust enden, der womöglich den Markterfolg hinauszögern würde.

Eine Verzögerung würde unnötig Menschenleben gefährden: Sobald die Technik ausreichend erprobt und rechtlich eingebettet ist, wird das autonome Auto auf den Markt kommen und – sofern eine intakte Vertrauensbasis vorliegt – die Unfallzahlen drastisch reduzieren. Schließlich sind aktuell rund 90 % der Autounfälle auf menschliches Versagen zurückzuführen. Allein aufgrund der Chance, diesen Wert gen Null zu schrauben, wird sich zukünftig nicht mehr die Frage stellen, ob die Gesellschaft selbstfahrende Autos akzeptiert – fraglich ist dann eher, ob sie noch selbst fahrende Menschen akzeptiert.