Suche
Entscheidung unter Risiko

Ethik des autonomen Fahrens

Wie soll ein autonomes Fahrzeug im Falle eines drohenden Unfalls reagieren? Da dies vorab entschieden und programmiert werden muss, braucht es eine Debatte. Doch diese wird unterkomplex geführt.

Es gibt kaum einen Lebens­be­reich, der nicht zumin­dest indi­rekt von der fort­schrei­ten­den Digi­ta­li­sie­rung der letz­ten Jah­re und Jahr­zehn­te betrof­fen ist. Auch die mensch­li­che Fort­be­we­gung ist hier kei­ne Aus­nah­me. Ange­fan­gen vom Fahr­rad­com­pu­ter bis hin zu Neu­fahr­zeu­gen, deren ein­ge­bau­te Rech­ner eine gan­ze Rei­he von Auf­ga­ben im Stra­ßen­ver­kehr über­neh­men, gibt es eine gro­ße Spann­brei­te von digi­ta­len Erwei­te­run­gen, die uns in die­sem Teil des täg­li­chen Lebens begeg­nen. Und das Ende der tech­ni­schen Fah­nen­stan­ge ist noch nicht erreicht. Immer mehr Pro­gram­me wer­den ent­wi­ckelt, um den Men­schen im Stra­ßen­ver­kehr immer mehr Auf­ga­ben abzu­neh­men. Schon im Jahr 1965 stell­te der Intel-Mit­be­grün­der Gor­don Ear­le Moo­re die The­se auf, dass es in der Zukunft Autos geben könn­te, die auf­grund der immer wei­ter stei­gen­den Rechen­leis­tung von Com­pu­tern kei­ne Fahrer*in mehr benö­ti­gen wür­den.

Mehr als 60 Jah­re spä­ter hat sich die­se The­se – anders als Moo­res Vor­aus­sa­ge der Eta­blie­rung des Heim­com­pu­ters – noch nicht bewahr­hei­tet. Doch die Anzei­chen meh­ren sich, dass sich dies in den nächs­ten Jah­ren oder spä­tes­tens Jahr­zehn­ten ändern wird. Doch mit der Ermög­li­chung des auto­no­men Fah­rens kom­men neben tech­ni­schen und juris­ti­schen auch ethi­sche Fra­gen auf. – Wie soll ein Fahr­zeug in einem Unfall­sze­na­rio reagie­ren?

Doch könn­ten denn auto­no­me Fahr­zeu­ge nicht jeden Unfall ver­hin­dern? Brau­chen wir dann über­haupt noch eine Ethik? Wie der Ver­kehrs­for­scher Noah J. Goo­dall aus­führt, blei­ben selbst in Simu­la­tio­nen, bei denen alle Fahr­zeu­ge auto­nom agie­ren, immer noch gewis­se Rest­ri­si­ken für Kol­li­sio­nen. Auch wenn auto­no­me Fahr­zeu­ge das Unfall­ri­si­ko wahr­schein­lich erheb­lich redu­zie­ren wer­den (wozu es bis­her noch weni­ge belast­ba­re Nach­wei­se, aller­dings sehr deut­li­che Ten­den­zen gibt), so senkt sich das Risi­ko eben nicht auf null. Ent­spre­chend wer­den selbst unter idea­len Vor­aus­set­zun­gen – die wir in der Rea­li­tät in der Form wohl nie umset­zen wer­den kön­nen – immer noch Situa­tio­nen ent­ste­hen, in denen ein Scha­den oder gar Ver­let­zun­gen und Todes­fäl­le unaus­weich­lich sind. Wie das auto­no­me Fahr­zeug in die­sen Fäl­len reagie­ren soll, muss vor­her ent­schie­den und ein­pro­gram­miert bezie­hungs­wei­se per Machi­ne Lear­ning „bei­gebracht“ wer­den.

Unterkomplexität der Debatte

Die Debat­te (im Sin­ne der Ethik als Refle­xi­on von mora­li­schen Set­zun­gen) ist not­wen­dig. Es wird eine Ent­schei­dung getrof­fen wer­den, wie Fahr­zeu­ge in die­sen Situa­tio­nen reagie­ren, da es unmög­lich wäre, sie nicht zu tref­fen. Die Debat­te dar­über wird nicht nur in den phi­lo­so­phi­schen Fakul­tä­ten der Uni­ver­si­tä­ten oder bei den Ingenieur*innen geführt, son­dern auch in gro­ßen Tages­zei­tun­gen, sowohl in Deutsch­land als auch inter­na­tio­nal. Doch die Debat­te hat dabei eini­ge Pro­ble­me, die dafür sor­gen, dass sie unter­kom­plex geführt wird. Im Fol­gen­den möch­te ich die­se Pro­ble­me erläu­tern und Ansät­ze für eine sinn­vol­le­re Dis­kus­si­on anbie­ten.

Ein ers­tes Pro­blem der Debat­te ist, dass nicht zwi­schen auto­no­men und hoch­au­to­ma­ti­sier­ten Fahr­zeu­gen unter­schie­den wird. Hoch­au­to­ma­ti­sier­te Fahr­zeu­ge fah­ren wei­test­ge­hend ohne mensch­li­che Ein­grif­fe, geben die Fahr­zeug­kon­trol­le in Grenz­si­tua­tio­nen aller­dings wie­der an den Fah­rer bzw. die Fah­re­rin ab. Diese*r hat dann eine gewis­se Zeit (in der For­schung wer­den Zeit­ab­stän­de zwi­schen drei und fünf Sekun­den dis­ku­tiert) bis das Fahr­zeug wie­der in sei­ner bzw. ihrer Kon­trol­le ist. Auto­no­me Fahr­zeu­ge behal­ten dage­gen auch in Grenz­fäl­len die Kon­trol­le: In vie­len Plä­nen ist eine Über­nah­me der Kon­trol­le durch einen Men­schen nicht ein­mal vor­ge­se­hen. Für hoch­au­to­ma­ti­sier­te Fahr­zeu­ge stellt sich die ethi­sche Fra­ge also nicht im glei­chen Maße, da die mög­li­chen Reak­tio­nen ein­ge­schränkt sind oder in die­sen Situa­tio­nen doch wie­der ein Mensch selbst ent­schei­den muss.

Doch auch wenn die Debat­te auf auto­no­mes Fah­ren beschränkt wird, ist die­se in der der­zeit popu­lä­ren Form nicht unpro­ble­ma­tisch. Sie wird meist anhand von Gedan­ken­ex­pe­ri­men­ten geführt, die etwas so aus­se­hen: Ein Auto fährt über eine glat­te Stra­ße und gerät ins Schlin­gern. Eine Grup­pe Kin­der kommt um die Ecke. Soll das Auto die Kin­der über­fah­ren und die Insas­sen ret­ten oder die Kin­der ret­ten und die Insas­sen töten, da es mit einem Baum kol­li­diert?

Die­se Art von Gedan­ken­ex­pe­ri­men­ten ent­spricht struk­tu­rell augen­schein­lich dem Trol­ley-Pro­blem. Jenes Gedan­ken­ex­pe­ri­ment, das in sei­ner moder­nen Form auf die bri­ti­sche Moral­phi­lo­so­phin Phil­ip­pa Foot zurück­geht, geht wie folgt: Ein Moral­sub­jekt führt eine Stra­ßen­bahn, deren Brem­sen ver­sa­gen. Auf der Stre­cke vor der Bahn befin­den sich fünf Per­so­nen, die das Gleis nicht ver­las­sen kön­nen. Das Moral­sub­jekt kann die Bahn aller­dings auf ein enges Neben­gleis umlei­ten, auf der sich eine Per­son befin­det, die eben­falls nicht aus­wei­chen kann. Auf dem Gleis, auf dem die Bahn wei­ter­fährt, wer­den die Per­so­nen bezie­hungs­wei­se die Per­son ster­ben.

Es gibt nicht nur Entscheidung A oder B

Die­ses Gedan­ken­ex­pe­ri­ment wird oft her­an­ge­zo­gen, um die Unter­schie­de zwi­schen tele­lo­gi­scher (auf die Kon­se­quen­zen gerich­te­te) und deon­to­lo­gi­scher (auf die Hand­lung gerich­te­te) Moral­vor­stel­lun­gen zu unter­schei­den. Zunächst ein­mal erscheint eine Über­tra­gung des Gedan­ken­ex­pe­ri­ments nahe­lie­gend und sinn­voll. Aller­dings hat die­se Struk­tur das Pro­blem, dass sie der Kom­ple­xi­tät von Situa­tio­nen im Stra­ßen­ver­kehr nicht gerecht wird.

Autofahrer*innen (oder selbst Spieler*innen von Renn­spie­len am Com­pu­ter) soll­te auf­fal­len, dass dies eine sehr simp­le Kon­struk­ti­on für den Stra­ßen­ver­kehr oder den Umgang mit Vehi­keln gene­rell ist. In kei­ner Situa­ti­on, in der es nicht sowie­so schon zu spät ist, gibt es nur zwei Mög­lich­kei­ten. Das lässt sich schon dar­an bele­gen, dass eine leich­te Varia­ti­on von Gas und Brem­se oder ein paar Grad stär­ke­rer Lenk­rad­ein­schlag durch­aus eine wei­te­re Mög­lich­keit sind. Nun könn­te ein­ge­wandt wer­den, dass dies zwar fak­tisch Mög­lich­kei­ten sind, für die Dis­kus­si­on aber nicht not­wen­dig, wenn sie zum glei­chen Ergeb­nis füh­ren wür­den. Das setzt aber einer­seits vor­aus, dass es bei Hand­lun­gen nur auf die Kon­se­quen­zen ankommt. Ande­rer­seits heißt das, dass die Ent­schei­dung unter Gewiss­heit getrof­fen wer­den kann, dass also jede Ent­schei­dung unter Garan­tie zu einem vor­her bestimm­ba­ren Ergeb­nis führt, ana­log wie etwa die Ein­ga­be einer Rech­nung in einen Taschen­rech­ner immer das glei­che Ergeb­nis anzeigt. Wenn Ent­schei­dung A getrof­fen wird, trifft Fol­ge B zwangs­läu­fig ein. Wenn dies der Fall wäre, müss­ten wir uns über die Ethik auto­no­men Fah­rens kei­ne Gedan­ken machen. Es käme schlicht und ergrei­fend nicht zu Unfäl­len. Die Rea­li­tät sieht aber anders aus. Nicht alles im Stra­ßen­ver­kehr ist vor­her bere­chen­bar, ins­be­son­de­re wenn nicht-auto­no­me Vehi­kel (ande­re Autos, Fahr­rä­der) und Men­schen zu Fuß an der Situa­ti­on betei­ligt sind. Es han­delt sich in den Wor­ten Ott­fried Höf­fes um eine Ent­schei­dung unter Risi­ko.

Risi­ko ist ein blin­der Fleck vie­ler Moral­vor­stel­lun­gen. Dabei stel­len sie teleo­lo­gi­sche Moral­vor­stel­lun­gen vor ein gro­ßes Pro­blem: Wie soll damit umge­gan­gen wer­den, wenn eine Hand­lung sowohl die Mög­lich­keit hat, das größt­mög­li­che Glück für die größt­mög­li­che Anzahl an Men­schen zu ermög­li­chen und genau­so das Gegen­teil? Hier­zu gibt es ver­schie­de­ne Ansät­ze – auf einer Makro­ebe­ne etwa Hans Jonas‘ Ver­ant­wor­tungs­ethik, die besagt, dass jede Hand­lung, die die Mög­lich­keit hat, die Mensch­heit aus­zu­lö­schen, aus­ge­las­sen wer­den muss, unab­hän­gig vom mög­li­chen Gewinn.

Beim auto­no­men Fah­ren fin­det der Umgang mit Risi­ko auf zwei Ebe­nen statt: Einer­seits muss abge­schätzt wer­den, wel­ches Risi­ko für einen Unfall für wel­chen Kom­fort ein­ge­gan­gen wer­den muss. In der Pra­xis heißt das, wel­che Rege­lun­gen (z.B. Geschwin­dig­keits­be­gren­zung) vor­ge­nom­men wer­den soll, die das Risi­ko einer poten­zi­el­len Unfall­si­tua­ti­on ver­rin­gern, im Gegen­zug aber die Fahrt­dau­er ver­län­gern. Auf der ande­ren Ebe­ne muss das Fahr­zeug in der poten­zi­el­len Unfall­si­tua­ti­on selbst, wenn also der Risi­ko­fall ein­ge­tre­ten ist, reagie­ren. Kei­ne Akti­on führt mit einer Garan­tie zu einem Ergeb­nis. Ent­spre­chend müs­sen Lösun­gen gefun­den wer­den, wie mit die­ser Unsi­cher­heit umge­gan­gen wer­den kann. Ein mög­li­cher Ansatz hier­für wäre, Schä­den mit Zah­len zu bele­gen und die­se dann mit dem berech­ne­ten Risi­ko zu ver­rech­nen.

Die­se Unsi­cher­heit lässt sich auch nur bedingt tech­nisch lösen. Selbst wenn alle erbring­ba­ren Daten im Moment der Unfall­si­tua­ti­on vor­han­den wären (bei­spiels­wei­se dadurch, dass alle auto­no­men Fahr­zeu­ge ver­netzt sind), so ver­rin­gert sich zwar die Unsi­cher­heit, lässt sich aber nicht kom­plett auf­he­ben: Ins­be­son­de­re, wenn nicht auto­no­me Fahr­zeu­ge an der Situa­ti­on betei­ligt sind, feh­len Daten, da sie in dem Moment noch gar nicht exis­tie­ren, son­dern erst im Voll­zug ent­ste­hen. Ein Com­pu­ter kann zwar berech­nen, dass ein*e Fußgänger*in wahr­schein­lich in der Situa­ti­on aus­weicht, aber es ist genau­so mög­lich, dass er oder sie es nicht tut.

Die Frage nach den Risiken

Phil­ip­pa Foot weist bei ihrer Kon­zep­ti­on des Trol­ley-Pro­blems selbst dar­auf hin, dass die­ser von Sicher­heit aus­geht, die in der Rea­li­tät so nicht gege­ben sind: „In der Rea­li­tät wäre es kaum sicher, dass der Mann auf der engen Stre­cke (der zwei­ten Mög­lich­keit) getö­tet wür­de. Mög­li­cher­wei­se kann er sich an die Sei­te drü­cken, wäh­rend die Bahn vor­bei­fährt. Der Fah­rer wür­de in dem Fall nicht her­aus­sprin­gen und ihn mit einer Brech­stan­ge erschla­gen.“ Oder anders: Die Kon­zep­ti­on des Gedan­ken­ex­pe­ri­ments sieht eine Dis­kus­si­on über Risi­ken in dem Sin­ne nicht vor.

Die Debat­te um das Trol­ley-Pro­blem wärmt nur eine alte Debat­te zwi­schen deon­to­lo­gi­scher und teleo­lo­gi­scher Ethi­ken auf, für die das Pro­blem schon in der Schu­le häu­fig her­an­ge­zo­gen wird. Die­se Debat­te hin­ter­lässt einen bit­te­ren Bei­geschmack, denn sie ver­zerrt das Bild der Tech­nik und nimmt den Platz von Debat­ten ein, die sach­be­zo­ge­ner sind.

Ein Bei­spiel hier­für ist das The­ma Daten­schutz: Auto­no­me Fahr­zeu­ge wer­den wahr­schein­lich nicht allein mit einem Com­pu­ter an Bord fah­ren, son­dern auch mit­hil­fe von Cloud-Diens­ten – das Auto muss also stän­dig mit dem Inter­net ver­bun­den sein. Das heißt auch, dass das Fahr­zeug und mit ihm die Insas­sen poten­zi­ell über­wacht wer­den und Bewe­gungs­pro­fi­le erstellt wer­den kön­nen. Hier ist eine Abwä­gung nötig: Ab wel­chem Nut­zen, also weni­ger Unfäl­len, neh­men wir in Kauf, dass unse­re Fort­be­we­gung mög­li­cher­wei­se stän­dig über­wacht wer­den kann? Wel­che Risi­ken neh­men wir für wie viel Kom­fort in Kauf? Inwie­fern unter­schei­det sich die­se mög­li­che Über­wa­chung von der Gefahr durch Smart­phone-Nut­zung, die heu­te schon Rea­li­tät ist?

Zu guter Letzt wird der tech­ni­sche Stand zu wenig in der Debat­te berück­sich­tigt. Die Ent­wick­lung der Fahr­zeu­ge wird nicht enden, wenn die ers­ten auto­no­men Vehi­kel auf den Stra­ßen rol­len. Mög­li­cher­wei­se kön­nen Fahr­zeu­ge zu die­sem Zeit­punkt noch gar nicht so genaue Manö­ver in Kri­sen­si­tua­tio­nen voll­füh­ren, sind aber den­noch deut­lich siche­rer. Dar­aus ergibt sich die Fra­ge, ob es sinn­voll ist, das auto­no­me Fah­ren schon zu erlau­ben, wenn ins­ge­samt weni­ger Men­schen ster­ben, im Ein­zel­fall aber Tode, die ver­hin­dert wer­den könn­ten, in Kauf genom­men wer­den müs­sen. Soll mög­li­cher­wei­se schon eine Rege­lung eta­bliert wer­den, die anfangs tech­nisch unmög­lich ist, auf lan­ge Sicht aber nutzt, da weni­ger Ände­run­gen voll­zo­gen wer­den müs­sen? Die­se Fra­gen sind sicher­lich nicht die ein­zi­gen, die sich bei der Eta­blie­rung stel­len wer­den. Doch es sind Fra­gen, die sich auf die Tech­nik bezie­hen und kein 50 Jah­re altes Gedan­ken­ex­pe­ri­ment in neu­er Fas­sa­de erneut durch­dis­ku­tie­ren. Neue Pro­ble­me erfor­dern neue Fra­gen – und selbst wenn wir ver­su­chen, die­se mit alten Kon­zep­ten (bei­spiels­wei­se des Uti­li­ta­ris­mus oder Spiel­for­men der Tugend­ethi­ken) zu lösen, so braucht es zumin­dest auch eine neue Anwen­dung die­ser Ansät­ze.

Inhalt teilen

Kommentar verfassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Meistgelesen

Ähnliche Beiträge

Ein persönlicher Nachruf

Die ehemalige Vorstandsvorsitzende der Humanisten Baden-Württemberg, ...

Nach oben scrollen