Die Software als Gehirn – Wie autonome Fahrzeuge planen und entscheiden
Wahrnehmung sagt dem Fahrzeug, was um es herum geschieht. Steuerungssysteme bewegen es entsprechend der gegebenen Befehle. Doch die kritische Schicht dazwischen ist die Planung und Entscheidungsfindung. Sie ist das „Software-Gehirn“ – dort, wo aus Rohdaten Absicht wird und aus Absicht Handlung.
In diesem Blog entmystifizieren wir die Softwarearchitektur hinter autonomen Systemen: von Verhaltensprognosen über Routenplanung bis hin zur Echtzeitumsetzung. Und wir zeigen: Autonomie bedeutet nicht einfach „Intelligenz“, sondern Sicherheit, Verlässlichkeit und Reaktionsgeschwindigkeit.
Von der Wahrnehmung zur Aktion: Die Planungs-Pipeline
Autonome Fahrzeuge durchlaufen einen klar strukturierten Ablauf:
- Perzeption: Objekte, Personen, Fahrzeuge, Markierungen werden erkannt und klassifiziert
- Lokalisierung: Das Fahrzeug bestimmt seine Position mithilfe von GPS, IMUs und HD-Karten
- Prädiktion: Das Verhalten anderer Verkehrsteilnehmer wird vorhergesagt (z. B. Fußgänger, Gegenverkehr)
- Pfadplanung: Ein sicherer, effizienter Kurs wird auf Basis des Fahrziels und der Umgebung berechnet
- Bewegungskontrolle: Die Fahrbefehle werden über Drive-by-Wire-Systeme ausgeführt
Dieser Planungszyklus wiederholt sich alle 10–50 Millisekunden – schneller als ein menschlicher Wimpernschlag.
„Fahren bedeutet nicht nur erkennen – es bedeutet reagieren. In der Autonomie kann die Verzögerung zwischen Input und Aktion über Sicherheit oder Unfall entscheiden.“
- Prof. J. Christian Gerdes, Stanford University, Center for Automotive Research
Im Software-Stack: Die zentralen Module
Ein autonomes System besteht aus mehreren Schichten:
- Mapping & Lokalisierung: HD-Karten mit Zentimetergenauigkeit, SLAM-Algorithmen
- Objekterkennung & Prädiktion: Kalman-Filter, neuronale Netze, Reinforcement Learning
- Pfadplanung: Algorithmen wie Hybrid A*, RRT*, dynamische Programmierung, verhaltensbasierte Planung
- Entscheidungslogik: Regelbasierte Systeme kombiniert mit Machine Learning
- Fallback-Strategien: Notstopp, Umplanung, Übergabe an Teleoperation
Branchenführer wie Mobileye, NVIDIA und Oxbotica integrieren diese Module in modulare Stacks, zugeschnitten auf Fahrzeugtyp, Einsatzzweck und regulatorische Anforderungen.
Fail-Operational-Logik: Denn auch Nicht-Entscheiden ist eine Entscheidung
In sicherheitskritischen Umgebungen – z. B. Häfen, Verteidigung, Bergbau – kann Untätigkeit tödlich sein. Deshalb ist fehlertolerante Entscheidungsfindung Kernbestandteil moderner AD-Stacks:
- Vordefiniertes Fallback-Verhalten bei Sensorausfall oder Softwarefehler
- Regelbasierte Zustände mit minimalem Risiko (z. B. langsames Ausrollen an den Fahrbahnrand)
- Nahtlose Übergabe an Teleoperation, wenn verfügbar
- Blackbox-Logging für forensische Analyse und Zulassung
Untermauert wird dies durch Normen wie ISO 26262, ISO 61508, UNECE R155 und UL 4600 für autonome Systeme.
Mensch oder Maschine? Realitätsspezifische Autonomiegrade
Autonomie folgt keinem Standardmuster – der benötigte Entscheidungsgrad hängt vom Einsatzzweck ab:
- Öffentlicher Verkehr: Meist geofenced, mit Sicherheitsfahrer oder Remote-Supervision
- Logistik: Mischung aus festgelegten Routen und dynamischer KI-basierten Umplanung
- Verteidigung: Erfordert eingebettete ethische Regeln (z. B. keine autonome Waffenentscheidung)
- Bergbau/Landwirtschaft: Hohe Vorhersagbarkeit erlaubt vollautonomen Betrieb in abgegrenzten Zonen
Arnold NextG-Systeme setzen genau dort an: zertifizierte Ausführung von Kommandos, Rückmeldung in Echtzeit und vollständige Integration in die übergeordneten Entscheidungs- und Planungssysteme.
Der Weg zur Zertifizierung: Entscheidungen müssen nachvollziehbar sein
Autonome Entscheidungen müssen nachvollziehbar, testbar und zertifizierbar sein. Regulierungsbehörden verlangen zunehmend:
- Modelltransparenz: Warum hat das Fahrzeug diesen Fahrweg gewählt?
- Szenariodeckung: Wurde genau dieser Fall im Vorfeld getestet?
- Fehlersicherheit: Kann das System sich aus Grenzfällen retten?
Daher gehören Simulationen, standardisierte Szenariobibliotheken (z. B. PEGASUS, ASAM OpenSCENARIO) und Echtweltvalidierung mittlerweile zur Grundausstattung jeder Autonomieentwicklung.
Fazit: Schnelle, sichere und transparente Entscheidungen – oder keine Autonomie
Autonomes Fahren ist kein Intelligenzspiel. Es ist eine Vertrauensfrage. Wenn Maschinen Verantwortung übernehmen sollen, müssen ihre Entscheidungen vorhersehbar, erklärbar und auditierbar sein – unter allen Umständen.
Im nächsten Beitrag zeigen wir, wie genau dieses Vertrauen entsteht: durch funktionale Sicherheit, Cybersecurity und internationale Standards im gesamten autonomen Ökosystem.
Quellen
- ISO 26262, ISO 61508, UNECE R155, UL 4600 – funktionale Sicherheit und Cybersecurity
- Prof. Christian Gerdes, Stanford CARS Lecture Series, 2022
- Arnold NextG, Sicherheitsarchitektur-Vergleich mit Mobileye, 2025
- BMDV (2024), Handbuch Autonomes Fahren – Öffentlicher Verkehr
PEGASUS-Projekt & ASAM Open Standards, 2023