Die Nutzung der künstlichen Intelligenz (KI) nimmt immer weiter zu, wenn auch vielleicht nicht ganz so schnell, wie die Hype-Zyklen uns glauben machen. Aber nach und nach sehen wir, wie KI für Aufgaben angewendet wird, die bisher von Menschen erledigt wurden, einschließlich intelligenterer Chat-Bots, die Kundendienstanfragen der ersten und zweiten Ebene beantworten können oder intelligenten Software-Bots zur Automatisierung von Geschäftsprozessen und Pilotprojekten mit autonomen Fahrsystemen.

Diese Fahrzeuge sind es, die die Öffentlichkeit beschäftigen. Die Befürworter sehen eine Welt vor sich, in der Todesfälle durch Geschwindigkeitsüberschreitungen, unaufmerksame Fahrer, Müdigkeit, Trunkenheit am Steuer und anderes menschliches Versagen drastisch reduziert werden können. Eine Welt des Mitfahrens, eine Welt, in der ältere und behinderte Menschen an Mobilität gewinnen, in der viele Menschen, insbesondere in urbanen Zentren, gar keine Autos mehr kaufen werden.

Auf der anderen Seite verweisen Skeptiker auf die jüngsten Unfälle mit autonomen Fahrzeugen, die weithin für Schlagzeilen gesorgt haben, und argumentieren, dass es der Technologie nie gelingen wird, einen Menschen hinterm Steuer zu ersetzen.

Diese Diskussionen scheinen immer auf das Szenario hinauszulaufen, in dem KI-basierte Technologie in Sekundenbruchteilen ethische Entscheidungen über Leben und Tod zu fällen hat. Die Bremsen versagen und die KI muss entscheiden, ob sie einer älteren Person oder einer Mutter ausweicht, die einen Kinderwagen vor das Fahrzeug schiebt. Das Gaspedal klemmt; soll die KI den Fahrzeuginsassen oder andere schützen? Dabei ist die Anzahl der Horrorszenarien, die wir uns ausmalen können, schier unendlich.

Doch wie sieht die Realität aus? Wo stehen wir heute in Bezug auf die technologischen und ethischen Aspekte KI-basierter, vollautonomer Fahrzeuge nach Level 5 SAE (Society of Automative Engineers)?

 

Die Technologie ist der einfachste Teil

Eines vorneweg: Aus rein technologischer Sicht macht das autonome Fahren Fortschritte. Ähnlich wie Menschen zu besseren Fahrern werden, je mehr Zeit sie hinter dem Lenkrad verbringen (vergleichen Sie nur Ihre ersten Fahrstunden mit Ihrer heutigen Fahrkompetenz), verbessern auch KI-basierte autonome Fahrsysteme kontinuierlich ihre Fähigkeiten. Je erfahrener KI-basierte Systeme werden, desto ähnlicher werden sie einem menschlichen Fahrer – eigentlich noch besser, da KI-Systeme nicht in Panik geraten, können solche Systeme in einer kritischen Situation präziser steuern, sanfter bremsen und besser navigieren als Menschen. Das KI-System kennt keine Angststarre.

Die eigentliche Frage lautet möglicherweise nicht, ob autonome Fahrzeuge für die Menschen bereit sind, sondern ob die Menschen für autonome Fahrzeuge bereit sind. Aktuell sind die Menschen noch nicht soweit. Egal ob es um einen Fahrer auf der Autobahn geht, der ein fahrerloses Auto neben sich aufschließen sieht, einen Fußgänger, der eine belebte Straße überquert oder einen Radfahrer im Straßenverkehr – die Menschen vertrauen noch nicht darauf, dass sich ein autonomes Fahrzeug so verhält, wie sie es von menschlichen Fahrern gewohnt sind.

In den nächsten drei bis fünf Jahren wird der Einsatz autonomer Fahrzeuge wohl beschränkt sein auf Anwendungsfälle wie autonom fahrende Lkws auf der rechten Autobahnspur und Kleinbusse, die als Mitfahrgelegenheit zu Hochschulen und Firmengeländen genutzt werden – Umgebungen, in denen sich die Menschen langsam an fahrerlose Fahrzeuge gewöhnen können.

 

Die Frage der Ethik

Betreffend autonomer Fahrzeuge lautet die zentrale Frage der Ethik: Wer sollte über Leben und Tod entscheiden? Sollte der Algorithmus von den Fahrzeugherstellern geschrieben werden und in jedem Fahrzeug Standard sein? Sollten dies die Versicherungsunternehmen übernehmen oder der Staat? Oder sollten die einzelnen Fahrer die Möglichkeit erhalten, die Regeln für ihre Fahrzeuge selbst festzulegen?

Auch wenn wir uns noch ziemlich am Anfang befinden, zeichnen sich bereits erste Ansätze zur Lösung dieser Fragen ab. Die Staaten legen die Regeln fest, die Automobilhersteller wenden sie an und die Versicherungsunternehmen weiten ihr anreizbasiertes Modell auf die Welt der selbstfahrenden Fahrzeuge aus. So könnten die Versicherer beispielsweise sichere Fahrer belohnen, die ihre Fahrzeuge so einstellen, dass sie Geschwindigkeitsbegrenzungen einhalten und Zuschläge für Fahrer vorsehen, die die Selbstfahrfunktionen deaktivieren und sich ein Knöllchen wegen zu schnellen Fahrens einhandeln.

Aktuell haben in den Vereinigten Staaten mehr als 20 Bundesstaaten Regeln erlassen, die autonome Fahrzeuge erlauben, aber aus Sicherheitsgründen auch einen menschlichen Fahrer hinter dem Steuer einfordern. Wenn Hersteller während Pilotprojekte von einer Automatisierungsstufe zur nächsten wechseln wollen, müssen sie beim Staat eine Genehmigung beantragen.

Ende 2017 veröffentlichte die US-Bundesbehörde für Straßen- und Fahrzeugsicherheit (NHTSA) unter dem Titel „Automated Driving Systems (ADS): A Vision for Safety 2.0“ neue Richtlinien für die gesamte USA. Die darin enthaltenen Vorschriften stellen die neueste Leitlinie zu automatisierten Antriebssystemen für die Industrie und der US-Bundesstaaten dar.

Das deutsche Bundesministerium für Verkehr und digitale Infrastruktur hat kürzlich erste ethische Leitlinien zu selbstfahrenden Fahrzeugen veröffentlicht, die anderen Ländern als Grundlage für eigene Regeln dienen können. Die Kommission hat 20 zentrale Positionen identifiziert, darunter folgende:

  • Sachschäden dürfen nicht höher bewertet werden als Personenschäden. In Gefahrensituationen besitzt der Schutz menschlichen Lebens stets höchste Priorität.
  • Bei unausweichlichen Unfallsituationen ist jede Qualifizierung nach persönlichen Merkmalen (Alter, Geschlecht, körperliche oder geistige Konstitution) strikt untersagt.
  • In jeder Fahrsituation muss klar geregelt und unterscheidbar sein, wer für das Fahren zuständig ist: Mensch oder Computer.

Wie bei vielen anderen bahnbrechenden technologischen Entwicklungen, wie z. B. Drohnen, steht die Technologie plötzlich im Raum – doch die Regulierung holt schnell auf. Um die Sicherheit bei selbstfahrenden Autos zu gewährleisten, ist damit zu rechnen, dass sich in den nächsten drei bis fünf Jahren noch menschliche Fahrer am Steuer befinden werden. Nach und nach werden die Technologie und die Bestimmungen rund um die Sicherheit und die ethischen Belange jedoch weiterentwickelt und zur gegebenen Zeit ausgereift und einsatzbereit sein.