Forschungsinformationssystem des BMVI

zurück Zur Startseite FIS

Digitale Umfelderfassung auf der digitalen Straße

Erstellt am: 14.06.2017 | Stand des Wissens: 07.12.2023
Synthesebericht gehört zu:

Das maschinelle Verstehen und Vorhersagen einer Verkehrssituation sind Aufgabe der digitalen Umfelderfassung (auch Umfeldwahrnehmung) und damit die Grundlage für eine Vielzahl im Fahrzeug vorhandener Fahrerassistenzsysteme. Das Erkennen von anderen, auch nicht motorisierten, Verkehrsteilnehmern ist dabei von elementarer Bedeutung und die Grundvoraussetzung für automatisiertes Fahren im öffentlichen Raum. Um das Umfeld in allen Richtungen erfassen zu können, werden Daten und Informationen benötigt, welche mithilfe von baulichen Elementen (Sensoren) erhoben werden. Die Leistungsfähigkeit der Sensoren und die Datenverarbeitung in den Steuergeräten verbessern sich stetig, sodass die mithilfe von hoch entwickelter Software ausgewerteten Informationen künftig ein vollständiges Umgebungsbild in Echtzeit bieten werden. Wurden die unterschiedlichen Sensortypen in der Vergangenheit für voneinander unabhängige Funktionen verwendet, werden inzwischen alle relevanten Daten mithilfe der Sensorfusion (englisch sensor fusion) intelligent und zeitgleich miteinander verknüpft, weil jeder Sensor seine spezifischen Vor- und Nachteile besitzt. Mithilfe von Redundanzen und systeminternen Plausibilitätsprüfungen soll auch die fehlerfreie Interpretation der Daten sichergestellt und somit die Funktionssicherheit gesteigert werden [Lemm16a, S. 51-56; VDA15, S. 12].
Neben der Datenaufnahme, -verarbeitung und -fusion bilden die Situationsmodellierung und-interpretation den zweiten Schritt der Umfeldwahrnehmung. Hierbei wird ausgehend von den gewonnenen Daten die Situation modelliert und interpretiert, sodass anschließend die algorithmenbasierte Manöverplanung und - ausführung vorgenommen werden können. Insbesondere die Modellierung des urbanen Raums ist aufgrund von Verdeckungen, höherer Dynamik sowie komplexen und inhomogenen Straßenverläufen extrem aufwendig [Lemm16a, S. 51 f.].
Um einen Überblick über die vorhandenen Sensoren zu erhalten, sollen nachfolgend kurz die für den Straßenverkehr wichtigsten Sensortypen skizziert werden. Sie lassen sich anhand des physikalischen Prinzips (elektromagnetisch, optisch und akustisch) differenzieren, welches zur Umfelderfassung verwendet wird. Die Aufgabe besteht jedoch unabhängig davon stets darin, ein Hindernis in der Umgebung des Fahrzeugs zu erkennen. Nach Möglichkeit sollen der Ort (Koordinaten), die Abmessung und die Geschwindigkeit des relevanten Objekts vom Sensor ermittelt werden. Die Hindernisse werden dabei ohne eigenes Zutun vom Sensor erkannt [ZuMo14].
Bei Ultraschallsensoren werden Schallwellen oberhalb des menschlichen Hörbereichs ausgesendet. Das Hindernis reflektiert die Schallwellen, wobei ein kleiner Teil absorbiert wird, und der Sensor nimmt die reflektierten Wellen auf. Anhand von Phasenlage und Amplitude lässt sich der zeitliche Versatz zwischen Aussendung und Eintreffen ermitteln und damit die Entfernung zum Hindernis berechnen. Aufgrund der eingeschränkten Reichweite (unter drei Metern) wird der Ultraschallsensor für Einparkvorgänge und die Nahfeldüberwachung eingesetzt. Die Erkennungsqualität ist dabei weitgehend unabhängig vom Material des zu detektierenden Objekts. Die kostengünstige Herstellung und die geringe Witterungsabhängigkeit sind als weitere Vorteile zu nennen [ZuMo14; InWe16; WHLS15, S. 256].
Radio Detection and Ranging (Radar) arbeitet prinzipiell wie die Ultraschalltechnik, allerdings wird in diesem Fall eine elektromagnetische Welle ausgesendet. Aus der Laufzeit der Welle und dem Frequenzunterschied der zurückkommenden Welle werden mithilfe des Dopplereffekts die Messgrößen Entfernung und Geschwindigkeit ermittelt. Radar-Sensoren haben einen Erfassungsbereich von 0,5 bis 200 Metern und werden für die Abstandskontrolle (Verhinderung eines Auffahrunfalls auf ein Stauende) sowie die adaptive Geschwindigkeitsregelung (Long-Range-Radar), aber auch für Ein- und Ausparkvorgänge sowie die Nahfeldüberwachung (Short-Range-Radar) eingesetzt. Da Fußgänger gegenüber elektromagnetischen Wellen schlechte Reflexionseigenschaften besitzen, sind Radar-Sensoren im Innenstadtverkehr ungeeignet. Ihr Vorteil liegt in der ausgeprägten Unabhängigkeit vom Wetter [ZuMo14; InWe16].
Light Detection and Ranging (LIDAR) verwendet einen Lichtstrahl, der von einem Objekt reflektiert wird. Anhand der Laufzeit und der Lichtgeschwindigkeit des ausgesendeten Lichtstrahls wird die Entfernung gemessen und daraus die Relativgeschwindigkeit des Objekts abgeleitet. Dafür werden Diodenzeilen verwendet, wobei keine beweglichen Teile zum Einsatz kommen. Beim Light Amplification by stimulated Emission of Radiation (Laser) kommen eine Diode und ein rotierender Spiegel zum Einsatz. Die Reichweite der Sensoren beträgt über 150 Meter. Im Vergleich zum Radar, wo nur punktuelle Informationen des Objekts ermittelt werden, werden von LIDAR-Sensoren auch die Konturen dargestellt, wobei die Performance jedoch schlechter ist als die einer Kamera. Die LIDAR-Technik ist außerdem etwas störanfälliger (etwa durch Regen, Schnee oder Nebel) und teurer als Radar-Sensoren. Eingesetzt werden LIDAR-Sensoren vor allem für City-Break-Assistenten im Stop-and-go-Verkehr. Laser-Sensoren besitzen eine sehr gute Auflösung bezüglich der Größen Entfernung und Winkel, kommen in Fahrzeugen jedoch aufgrund ihres hohen Preises bisher kaum zum Einsatz [ZuMo14; InWe16; WHLS15, S. 314-320].
Auch Infrarot-Sensoren verwenden Licht, um Objekte zu erkennen. In ihrem Fall befindet sich das ausgesendete Licht allerdings im infraroten Spektrum. Nach dem Aussenden, Reflektieren und Empfangen werden die Lichtstrahlen verarbeitet. Im Fahrzeug kommen Infrarot-Sensoren bei Nachtsicht-Assistenten zum Einsatz, da sie auch Teile des unsichtbaren Lichtspektrums registrieren, wozu herkömmliche Kameras nicht in der Lage sind. Dadurch können mithilfe von Infrarot-Sensoren beispielsweise Fußgänger auch in der Dämmerung oder bei Nacht korrekt erkannt werden [ZuMo14; WHLS15, S. 422].
Mithilfe von Kameras wird ein 3-D-Umfeld auf ein 2-D-Bild reduziert. Dieses wird anschließend weiterverarbeitet, indem innerhalb des Bildes beispielsweise nach Kanten gesucht wird, die auf einen Fahrzeugumriss oder eine Fahrspurmarkierung hindeuten. Durch eine zweite Kamera (Stereokamera), welche im Fahrzeug in einem bestimmten Abstand zur ersten Kamera verbaut wird, lässt sich auch die Entfernung zum Objekt ermitteln. Zum Einsatz kommen Kameras in Spurhalteassistenten zum Erkennen von Fahrspuren sowie in der Verkehrszeichenerkennung. Teilweise werden sie auch zur Identifikation von Hindernissen verwendet, weil selbst auf kleine Veränderungen auf der Bildfläche sensibel reagiert wird [ZuMo14; WHLS15].
Die Satellitennavigation erlaubt es, die genaue Position eines Fahrzeugs mittels Global Positioning System (GPS) oder Galileo festzustellen. Vor allem für die Fahrzeugnavigation ist diese Information von entscheidender Bedeutung. In Kombination mit anderen Sensoren trägt die Satellitennavigation außerdem dazu bei, stationäre Objekte und Markierungen zu erkennen, welche im Sensorsichtfeld zu erwarten sind. Die übrige Sensorik muss dann nur noch deren tatsächliches Vorhandensein verifizieren. Um wirklich zuverlässig zu arbeiten, ist eine hoch genaue und umfassend attribuierte Karte notwendig [Lemm16a, S. 51; MGLW15, S. 423].
Eine Umfelderfassung, die ausschließlich auf fahrzeuginterner Sensorik basiert, ist ab einem gewissen Grad jedoch sehr kostenintensiv. Aus diesem Grund gilt das zusätzliche Heranziehen externer Daten als effektive Lösung. Für bestimmte Fahrfunktionen und Verkehrssituationen ist eine vollständige Datenerfassung aus dem eigenen Fahrzeug heraus nahezu unmöglich. Das Einbinden von Informationen und Daten anderer
Verkehrsteilnehmer oder der Infrastruktur wird mit dem Begriff der Vernetzung beschrieben [Lemm16a, S. 51].
Ansprechperson
Bauhaus-Universität Weimar, Professur Verkehrssystemplanung, Prof. Dr.-Ing. Plank-Wiedenbeck
Zugehörige Wissenslandkarte(n)
Zuverlässiges automatisiertes Fahren durch digitale Straßen (Stand des Wissens: 06.10.2023)
https://www.forschungsinformationssystem.de/?471802
Literatur
[InWe16] Intelligente Welt (Hrsg.) Forschung fürs autonome Fahren: Software macht Sensoren besser, 2016/05/03
[Lemm16a] Karsten Lemmer Neue autoMobilität / Automatisierter Straßenverkehr der Zukunft (acatech STUDIE), Herbert Utz Verlag München, 2016, ISBN/ISSN ISBN 978-3-8316-4503-9
[MGLW15] Maurer, Markus, Gerdes, J. Christian, Lenz, Barbara, Winner, Hermann (Hrsg.) Autonomes Fahren
Technische, rechtliche und gesellschaftliche Aspekte, Springer Vieweg, E-Book , 2015, ISBN/ISSN 978-3-662-45854-9
[VDA15] Verband der Automobilindustrie (Hrsg.) Automatisierung - Von Fahrerassistenzsystemen zum automatisierten Fahren, 2015/09
[WHLS15] Winner, Hermann, Hakuli, Stephan, Lotz, Felix, Singer, Christina (Hrsg.) Handbuch Fahrerassistenzsysteme
Grundlagen, Komponenten und Systeme für aktive Sicherheit und Komfort, Ausgabe/Auflage 3. Auflage, Springer Vieweg, Wiesbaden, 2015, ISBN/ISSN 978-3-658-05733-6
[ZuMo14] Zukunft Mobilität (Hrsg.) Fahrzeugumfeldsensorik: Lidar, Radar, Infrarot, Ultraschall und Video im Vergleich - Funktionsweise, Vor- und Nachteile, Sensorfusion, 2014/09/11
Weiterführende Literatur
[ITF15] International Transport Forum (Hrsg.) Automated and Autonomous Driving - Regulation under uncertainty, veröffentlicht in International Transport Forum Policy Papers, Ausgabe/Auflage 7, OECD Publishing, Paris, 2015
Glossar
Galileo Globales Satellitennavigationssystem unter ziviler, europäischer Kontrolle. Es soll weltweit Daten zur Positionsbestimmung liefern. Dabei ähnelt es im prinzipiellen Aufbau dem GPS oder GLONASS.
City Der in der Stadtforschung und im allgemeinen Sprachgebrauch für die Kennzeichnung des Stadtzentrums meist größerer Städte verwendete Begriff City ist nicht eindeutig, da er im Englischen eine völlig andere Bedeutung hat. Im englischen Sprachgebrauch kann der Begriff City für drei verschiedene Varianten stehen:
  1. allgemein für eine Großstadt,
  2. für eine historische Stadt mit Bischofssitz und Kathedrale,
  3. für eine Stadt mit königlicher Urkunde und zeremoniellen Privilegien.
Der deutsch Begriff der City leitet sich aus der frühen Konzentration von Bürofunktionen in der historischen City of London ab, da sich dort bereits im 18. Jahrhundert mit dem aufkommenden und rasch entfaltenden Banken- und Versicherungswesen der neue Typ des Bürohauses herausbildete, der den Prozess der Citybildung enorm beschleunigte. In erster Linie ist City ein Funktionsbegriff. Die City ist der zentralst gelegene Teilraum einer größeren Stadt mit einer räumlichen Konzentration hochrangiger zentraler Funktionen des tertiären und quartären Sektors.
Lidar Lidar (Light Detection And Ranging) oder auch Laserentfernungsmessung funktioniert im Prinzip ähnlich wie Radar, nur dass anstatt der elektromagnetischen Wellen Laserstrahlen verwendet werden. Im Gegensatz zu Radar wird die Objektgeschwindigkeit gewöhnlich über mehrere Entfernungsmessungen bestimmt und nicht direkt durch Auswertung des Dopplereffektes. Ein Nachteil der Lidar-Systeme ist die Empfindlichkeit gegenüber Witterung (Nebel, Schnee und Regen, aber auch Gischtfahnen von vorausfahrenden Fahrzeugen) und die mögliche Verschmutzung der Empfangsoptik.
Radar Radio Detecting and Ranging Dieses elektromagnetische Ortungsverfahren beruht auf dem Prinzip des Echos. Man unterscheidet zwischen Primär- und Sekundärradar.
Global Positioning System Global Positioning System (GPS), offiziell NAVSTAR GPS, ist ein globales Navigationssatellitensystem zur Positionsbestimmung und Zeitmessung. GPS basiert auf Satelliten, die mit kodierten Radiosignalen ständig ihre aktuelle Position und die genaue Uhrzeit ausstrahlen. Aus den Signallaufzeiten können GPS-Empfänger dann ihre eigene Position und Geschwindigkeit berechnen.

Auszug aus dem Forschungs-Informations-System (FIS) des Bundesministeriums für Verkehr und digitale Infrastruktur

https://www.forschungsinformationssystem.de/?471568

Gedruckt am Samstag, 21. September 2024 14:34:45