27.01.2026

Die Software als Gehirn – Wie autonome Fahrzeuge planen und entscheiden

Wahrnehmung sagt dem Fahrzeug, was um es herum geschieht. Steuerungssysteme bewegen es entsprechend der gegebenen Befehle. Doch die kritische Schicht dazwischen ist die Planung und Entscheidungsfindung. Sie ist das „Software-Gehirn“ – dort, wo aus Rohdaten Absicht wird und aus Absicht Handlung.

In diesem Blog entmystifizieren wir die Softwarearchitektur hinter autonomen Systemen: von Verhaltensprognosen über Routenplanung bis hin zur Echtzeitumsetzung. Und wir zeigen: Autonomie bedeutet nicht einfach „Intelligenz“, sondern Sicherheit, Verlässlichkeit und Reaktionsgeschwindigkeit.

Von der Wahrnehmung zur Aktion: Die Planungs-Pipeline

Autonome Fahrzeuge durchlaufen einen klar strukturierten Ablauf:

  1. Perzeption: Objekte, Personen, Fahrzeuge, Markierungen werden erkannt und klassifiziert
  2. Lokalisierung: Das Fahrzeug bestimmt seine Position mithilfe von GPS, IMUs und HD-Karten
  3. Prädiktion: Das Verhalten anderer Verkehrsteilnehmer wird vorhergesagt (z. B. Fußgänger, Gegenverkehr)
  4. Pfadplanung: Ein sicherer, effizienter Kurs wird auf Basis des Fahrziels und der Umgebung berechnet
  5. Bewegungskontrolle: Die Fahrbefehle werden über Drive-by-Wire-Systeme ausgeführt

Dieser Planungszyklus wiederholt sich alle 10–50 Millisekunden – schneller als ein menschlicher Wimpernschlag.

„Fahren bedeutet nicht nur erkennen – es bedeutet reagieren. In der Autonomie kann die Verzögerung zwischen Input und Aktion über Sicherheit oder Unfall entscheiden.“
- Prof. J. Christian Gerdes, Stanford University, Center for Automotive Research

Im Software-Stack: Die zentralen Module

Ein autonomes System besteht aus mehreren Schichten:

  • Mapping & Lokalisierung: HD-Karten mit Zentimetergenauigkeit, SLAM-Algorithmen
  • Objekterkennung & Prädiktion: Kalman-Filter, neuronale Netze, Reinforcement Learning
  • Pfadplanung: Algorithmen wie Hybrid A*, RRT*, dynamische Programmierung, verhaltensbasierte Planung
  • Entscheidungslogik: Regelbasierte Systeme kombiniert mit Machine Learning
  • Fallback-Strategien: Notstopp, Umplanung, Übergabe an Teleoperation

Branchenführer wie Mobileye, NVIDIA und Oxbotica integrieren diese Module in modulare Stacks, zugeschnitten auf Fahrzeugtyp, Einsatzzweck und regulatorische Anforderungen.

Fail-Operational-Logik: Denn auch Nicht-Entscheiden ist eine Entscheidung

In sicherheitskritischen Umgebungen – z. B. Häfen, Verteidigung, Bergbau – kann Untätigkeit tödlich sein. Deshalb ist fehlertolerante Entscheidungsfindung Kernbestandteil moderner AD-Stacks:

  • Vordefiniertes Fallback-Verhalten bei Sensorausfall oder Softwarefehler
  • Regelbasierte Zustände mit minimalem Risiko (z. B. langsames Ausrollen an den Fahrbahnrand)
  • Nahtlose Übergabe an Teleoperation, wenn verfügbar
  • Blackbox-Logging für forensische Analyse und Zulassung

Untermauert wird dies durch Normen wie ISO 26262, ISO 61508, UNECE R155 und UL 4600 für autonome Systeme.

Mensch oder Maschine? Realitätsspezifische Autonomiegrade

Autonomie folgt keinem Standardmuster – der benötigte Entscheidungsgrad hängt vom Einsatzzweck ab:

  • Öffentlicher Verkehr: Meist geofenced, mit Sicherheitsfahrer oder Remote-Supervision
  • Logistik: Mischung aus festgelegten Routen und dynamischer KI-basierten Umplanung
  • Verteidigung: Erfordert eingebettete ethische Regeln (z. B. keine autonome Waffenentscheidung)
  • Bergbau/Landwirtschaft: Hohe Vorhersagbarkeit erlaubt vollautonomen Betrieb in abgegrenzten Zonen

Arnold NextG-Systeme setzen genau dort an: zertifizierte Ausführung von Kommandos, Rückmeldung in Echtzeit und vollständige Integration in die übergeordneten Entscheidungs- und Planungssysteme.

Der Weg zur Zertifizierung: Entscheidungen müssen nachvollziehbar sein

Autonome Entscheidungen müssen nachvollziehbar, testbar und zertifizierbar sein. Regulierungsbehörden verlangen zunehmend:

  • Modelltransparenz: Warum hat das Fahrzeug diesen Fahrweg gewählt?
  • Szenariodeckung: Wurde genau dieser Fall im Vorfeld getestet?
  • Fehlersicherheit: Kann das System sich aus Grenzfällen retten?

Daher gehören Simulationen, standardisierte Szenariobibliotheken (z. B. PEGASUS, ASAM OpenSCENARIO) und Echtweltvalidierung mittlerweile zur Grundausstattung jeder Autonomieentwicklung.

Fazit: Schnelle, sichere und transparente Entscheidungen – oder keine Autonomie

Autonomes Fahren ist kein Intelligenzspiel. Es ist eine Vertrauensfrage. Wenn Maschinen Verantwortung übernehmen sollen, müssen ihre Entscheidungen vorhersehbar, erklärbar und auditierbar sein – unter allen Umständen.

Im nächsten Beitrag zeigen wir, wie genau dieses Vertrauen entsteht: durch funktionale Sicherheit, Cybersecurity und internationale Standards im gesamten autonomen Ökosystem.

Ein freundlich lächelnder glatzköpfiger Mann mit Brille der Mathias Koch ist un dein Ansprechpartner ist.
Mathias Koch
Business Development

Quellen

  • ISO 26262, ISO 61508, UNECE R155, UL 4600 – funktionale Sicherheit und Cybersecurity
  • Prof. Christian Gerdes, Stanford CARS Lecture Series, 2022
  • Arnold NextG, Sicherheitsarchitektur-Vergleich mit Mobileye, 2025
  • BMDV (2024), Handbuch Autonomes Fahren – Öffentlicher Verkehr
  • PEGASUS-Projekt & ASAM Open Standards, 2023