Es gibt kaum einen Lebensbereich, der nicht zumindest indirekt von der fortschreitenden Digitalisierung der letzten Jahre und Jahrzehnte betroffen ist. Auch die menschliche Fortbewegung ist hier keine Ausnahme. Angefangen vom Fahrradcomputer bis hin zu Neufahrzeugen, deren eingebaute Rechner eine ganze Reihe von Aufgaben im Straßenverkehr übernehmen, gibt es eine große Spannbreite von digitalen Erweiterungen, die uns in diesem Teil des täglichen Lebens begegnen. Und das Ende der technischen Fahnenstange ist noch nicht erreicht. Immer mehr Programme werden entwickelt, um den Menschen im Straßenverkehr immer mehr Aufgaben abzunehmen. Schon im Jahr 1965 stellte der Intel-Mitbegründer Gordon Earle Moore die These auf, dass es in der Zukunft Autos geben könnte, die aufgrund der immer weiter steigenden Rechenleistung von Computern keine Fahrer*in mehr benötigen würden.
Mehr als 60 Jahre später hat sich diese These – anders als Moores Voraussage der Etablierung des Heimcomputers – noch nicht bewahrheitet. Doch die Anzeichen mehren sich, dass sich dies in den nächsten Jahren oder spätestens Jahrzehnten ändern wird. Doch mit der Ermöglichung des autonomen Fahrens kommen neben technischen und juristischen auch ethische Fragen auf. – Wie soll ein Fahrzeug in einem Unfallszenario reagieren?
Doch könnten denn autonome Fahrzeuge nicht jeden Unfall verhindern? Brauchen wir dann überhaupt noch eine Ethik? Wie der Verkehrsforscher Noah J. Goodall ausführt, bleiben selbst in Simulationen, bei denen alle Fahrzeuge autonom agieren, immer noch gewisse Restrisiken für Kollisionen. Auch wenn autonome Fahrzeuge das Unfallrisiko wahrscheinlich erheblich reduzieren werden (wozu es bisher noch wenige belastbare Nachweise, allerdings sehr deutliche Tendenzen gibt), so senkt sich das Risiko eben nicht auf null. Entsprechend werden selbst unter idealen Voraussetzungen – die wir in der Realität in der Form wohl nie umsetzen werden können – immer noch Situationen entstehen, in denen ein Schaden oder gar Verletzungen und Todesfälle unausweichlich sind. Wie das autonome Fahrzeug in diesen Fällen reagieren soll, muss vorher entschieden und einprogrammiert beziehungsweise per Machine Learning „beigebracht“ werden.
Unterkomplexität der Debatte
Die Debatte (im Sinne der Ethik als Reflexion von moralischen Setzungen) ist notwendig. Es wird eine Entscheidung getroffen werden, wie Fahrzeuge in diesen Situationen reagieren, da es unmöglich wäre, sie nicht zu treffen. Die Debatte darüber wird nicht nur in den philosophischen Fakultäten der Universitäten oder bei den Ingenieur*innen geführt, sondern auch in großen Tageszeitungen, sowohl in Deutschland als auch international. Doch die Debatte hat dabei einige Probleme, die dafür sorgen, dass sie unterkomplex geführt wird. Im Folgenden möchte ich diese Probleme erläutern und Ansätze für eine sinnvollere Diskussion anbieten.
Ein erstes Problem der Debatte ist, dass nicht zwischen autonomen und hochautomatisierten Fahrzeugen unterschieden wird. Hochautomatisierte Fahrzeuge fahren weitestgehend ohne menschliche Eingriffe, geben die Fahrzeugkontrolle in Grenzsituationen allerdings wieder an den Fahrer bzw. die Fahrerin ab. Diese*r hat dann eine gewisse Zeit (in der Forschung werden Zeitabstände zwischen drei und fünf Sekunden diskutiert) bis das Fahrzeug wieder in seiner bzw. ihrer Kontrolle ist. Autonome Fahrzeuge behalten dagegen auch in Grenzfällen die Kontrolle: In vielen Plänen ist eine Übernahme der Kontrolle durch einen Menschen nicht einmal vorgesehen. Für hochautomatisierte Fahrzeuge stellt sich die ethische Frage also nicht im gleichen Maße, da die möglichen Reaktionen eingeschränkt sind oder in diesen Situationen doch wieder ein Mensch selbst entscheiden muss.
Doch auch wenn die Debatte auf autonomes Fahren beschränkt wird, ist diese in der derzeit populären Form nicht unproblematisch. Sie wird meist anhand von Gedankenexperimenten geführt, die etwas so aussehen: Ein Auto fährt über eine glatte Straße und gerät ins Schlingern. Eine Gruppe Kinder kommt um die Ecke. Soll das Auto die Kinder überfahren und die Insassen retten oder die Kinder retten und die Insassen töten, da es mit einem Baum kollidiert?
Diese Art von Gedankenexperimenten entspricht strukturell augenscheinlich dem Trolley-Problem. Jenes Gedankenexperiment, das in seiner modernen Form auf die britische Moralphilosophin Philippa Foot zurückgeht, geht wie folgt: Ein Moralsubjekt führt eine Straßenbahn, deren Bremsen versagen. Auf der Strecke vor der Bahn befinden sich fünf Personen, die das Gleis nicht verlassen können. Das Moralsubjekt kann die Bahn allerdings auf ein enges Nebengleis umleiten, auf der sich eine Person befindet, die ebenfalls nicht ausweichen kann. Auf dem Gleis, auf dem die Bahn weiterfährt, werden die Personen beziehungsweise die Person sterben.
Es gibt nicht nur Entscheidung A oder B
Dieses Gedankenexperiment wird oft herangezogen, um die Unterschiede zwischen telelogischer (auf die Konsequenzen gerichtete) und deontologischer (auf die Handlung gerichtete) Moralvorstellungen zu unterscheiden. Zunächst einmal erscheint eine Übertragung des Gedankenexperiments naheliegend und sinnvoll. Allerdings hat diese Struktur das Problem, dass sie der Komplexität von Situationen im Straßenverkehr nicht gerecht wird.
Autofahrer*innen (oder selbst Spieler*innen von Rennspielen am Computer) sollte auffallen, dass dies eine sehr simple Konstruktion für den Straßenverkehr oder den Umgang mit Vehikeln generell ist. In keiner Situation, in der es nicht sowieso schon zu spät ist, gibt es nur zwei Möglichkeiten. Das lässt sich schon daran belegen, dass eine leichte Variation von Gas und Bremse oder ein paar Grad stärkerer Lenkradeinschlag durchaus eine weitere Möglichkeit sind. Nun könnte eingewandt werden, dass dies zwar faktisch Möglichkeiten sind, für die Diskussion aber nicht notwendig, wenn sie zum gleichen Ergebnis führen würden. Das setzt aber einerseits voraus, dass es bei Handlungen nur auf die Konsequenzen ankommt. Andererseits heißt das, dass die Entscheidung unter Gewissheit getroffen werden kann, dass also jede Entscheidung unter Garantie zu einem vorher bestimmbaren Ergebnis führt, analog wie etwa die Eingabe einer Rechnung in einen Taschenrechner immer das gleiche Ergebnis anzeigt. Wenn Entscheidung A getroffen wird, trifft Folge B zwangsläufig ein. Wenn dies der Fall wäre, müssten wir uns über die Ethik autonomen Fahrens keine Gedanken machen. Es käme schlicht und ergreifend nicht zu Unfällen. Die Realität sieht aber anders aus. Nicht alles im Straßenverkehr ist vorher berechenbar, insbesondere wenn nicht-autonome Vehikel (andere Autos, Fahrräder) und Menschen zu Fuß an der Situation beteiligt sind. Es handelt sich in den Worten Ottfried Höffes um eine Entscheidung unter Risiko.
Risiko ist ein blinder Fleck vieler Moralvorstellungen. Dabei stellen sie teleologische Moralvorstellungen vor ein großes Problem: Wie soll damit umgegangen werden, wenn eine Handlung sowohl die Möglichkeit hat, das größtmögliche Glück für die größtmögliche Anzahl an Menschen zu ermöglichen und genauso das Gegenteil? Hierzu gibt es verschiedene Ansätze – auf einer Makroebene etwa Hans Jonas‘ Verantwortungsethik, die besagt, dass jede Handlung, die die Möglichkeit hat, die Menschheit auszulöschen, ausgelassen werden muss, unabhängig vom möglichen Gewinn.
Beim autonomen Fahren findet der Umgang mit Risiko auf zwei Ebenen statt: Einerseits muss abgeschätzt werden, welches Risiko für einen Unfall für welchen Komfort eingegangen werden muss. In der Praxis heißt das, welche Regelungen (z.B. Geschwindigkeitsbegrenzung) vorgenommen werden soll, die das Risiko einer potenziellen Unfallsituation verringern, im Gegenzug aber die Fahrtdauer verlängern. Auf der anderen Ebene muss das Fahrzeug in der potenziellen Unfallsituation selbst, wenn also der Risikofall eingetreten ist, reagieren. Keine Aktion führt mit einer Garantie zu einem Ergebnis. Entsprechend müssen Lösungen gefunden werden, wie mit dieser Unsicherheit umgegangen werden kann. Ein möglicher Ansatz hierfür wäre, Schäden mit Zahlen zu belegen und diese dann mit dem berechneten Risiko zu verrechnen.
Diese Unsicherheit lässt sich auch nur bedingt technisch lösen. Selbst wenn alle erbringbaren Daten im Moment der Unfallsituation vorhanden wären (beispielsweise dadurch, dass alle autonomen Fahrzeuge vernetzt sind), so verringert sich zwar die Unsicherheit, lässt sich aber nicht komplett aufheben: Insbesondere, wenn nicht autonome Fahrzeuge an der Situation beteiligt sind, fehlen Daten, da sie in dem Moment noch gar nicht existieren, sondern erst im Vollzug entstehen. Ein Computer kann zwar berechnen, dass ein*e Fußgänger*in wahrscheinlich in der Situation ausweicht, aber es ist genauso möglich, dass er oder sie es nicht tut.
Die Frage nach den Risiken
Philippa Foot weist bei ihrer Konzeption des Trolley-Problems selbst darauf hin, dass dieser von Sicherheit ausgeht, die in der Realität so nicht gegeben sind: „In der Realität wäre es kaum sicher, dass der Mann auf der engen Strecke (der zweiten Möglichkeit) getötet würde. Möglicherweise kann er sich an die Seite drücken, während die Bahn vorbeifährt. Der Fahrer würde in dem Fall nicht herausspringen und ihn mit einer Brechstange erschlagen.“ Oder anders: Die Konzeption des Gedankenexperiments sieht eine Diskussion über Risiken in dem Sinne nicht vor.
Die Debatte um das Trolley-Problem wärmt nur eine alte Debatte zwischen deontologischer und teleologischer Ethiken auf, für die das Problem schon in der Schule häufig herangezogen wird. Diese Debatte hinterlässt einen bitteren Beigeschmack, denn sie verzerrt das Bild der Technik und nimmt den Platz von Debatten ein, die sachbezogener sind.
Ein Beispiel hierfür ist das Thema Datenschutz: Autonome Fahrzeuge werden wahrscheinlich nicht allein mit einem Computer an Bord fahren, sondern auch mithilfe von Cloud-Diensten – das Auto muss also ständig mit dem Internet verbunden sein. Das heißt auch, dass das Fahrzeug und mit ihm die Insassen potenziell überwacht werden und Bewegungsprofile erstellt werden können. Hier ist eine Abwägung nötig: Ab welchem Nutzen, also weniger Unfällen, nehmen wir in Kauf, dass unsere Fortbewegung möglicherweise ständig überwacht werden kann? Welche Risiken nehmen wir für wie viel Komfort in Kauf? Inwiefern unterscheidet sich diese mögliche Überwachung von der Gefahr durch Smartphone-Nutzung, die heute schon Realität ist?
Zu guter Letzt wird der technische Stand zu wenig in der Debatte berücksichtigt. Die Entwicklung der Fahrzeuge wird nicht enden, wenn die ersten autonomen Vehikel auf den Straßen rollen. Möglicherweise können Fahrzeuge zu diesem Zeitpunkt noch gar nicht so genaue Manöver in Krisensituationen vollführen, sind aber dennoch deutlich sicherer. Daraus ergibt sich die Frage, ob es sinnvoll ist, das autonome Fahren schon zu erlauben, wenn insgesamt weniger Menschen sterben, im Einzelfall aber Tode, die verhindert werden könnten, in Kauf genommen werden müssen. Soll möglicherweise schon eine Regelung etabliert werden, die anfangs technisch unmöglich ist, auf lange Sicht aber nutzt, da weniger Änderungen vollzogen werden müssen? Diese Fragen sind sicherlich nicht die einzigen, die sich bei der Etablierung stellen werden. Doch es sind Fragen, die sich auf die Technik beziehen und kein 50 Jahre altes Gedankenexperiment in neuer Fassade erneut durchdiskutieren. Neue Probleme erfordern neue Fragen – und selbst wenn wir versuchen, diese mit alten Konzepten (beispielsweise des Utilitarismus oder Spielformen der Tugendethiken) zu lösen, so braucht es zumindest auch eine neue Anwendung dieser Ansätze.