Fabian Casares:
Datenfusion von Kamera und LiDAR unter Verwendung von YOLO in Verkehrsszenarien
Kurzbeschreibung
Die Wahrnehmung der Umgebung ist für autonomes Fahren eine fundamentale Eigenschaft. Mit Sensoren wie LiDAR (Light Detection and Ranging) ist es möglich, Objekte zu extrahieren und zu klassifizieren und so die bestmöglichen Entscheidungen zu treffen. Fehlerhafte Informationen können zu falschen Entscheidungen des autonomen Fahrzeuges führen, was fatale Folgen haben kann. Daher ist es sinnvoll, verschiedene Sensoren zu verwenden, um ein Ereignis mit unterschiedlichen Informationen zu bewerten und die Nachteile eines Sensors durch die eines anderen Sensors auszugleichen.
Doch wie für den Menschen kann es auch für Algorithmen schwierig sein, eine Situation nur anhand eines bestimmten Augenblicks zu bewerten. Das liegt meist daran, dass keine ausreichenden Informationen vorliegen, um mit hoher Sicherheit die richtige Entscheidung zu treffen. Daher bietet es sich an, eine Situation zu verfolgen und die gesammelten Informationen für eine Entscheidung des Fahrzeuges zu verwenden. Dafür ist es sinnvoll, die Bewegung von Objekten zu berücksichtigen, um die korrekte Extrahierung und Klassifizierung von Objekten zu gewährleisten.
In dieser Arbeit wird ein echtzeitfähiges System vorgestellt, das LiDAR, Kamera und Bewegungsdaten miteinander kombiniert mit dem Ziel, fehlerhafte Informationen der LiDAR Objekterkennung zu filtern. Dafür werden die LiDAR Objekte auf dem Kamerabild mit einer 2D Objekterkennung verglichen und über mehreren Frames verfolgt, um so mit größerer Sicherheit falsche Informationen zu löschen.
Doch auch das hier untersuchte Verfahren hat Schwächen, denn verschiedene Experimente haben gezeigt, dass der alleinige Vergleich der Objekterkennungen im Kamerabild nicht ausreichend ist, um falsche Informationen fehlerfrei zu filtern. Die in dieser Arbeit entwickelte High-Level-Datenfusion kann jedoch leicht in Zukunft durch neue Funktionen erweitert werden.