DE102007024641A1 - Verfahren und Vorrichtung zur Darstellung einer Fahrzeugumgebung - Google Patents

Verfahren und Vorrichtung zur Darstellung einer Fahrzeugumgebung Download PDF

Info

Publication number
DE102007024641A1
DE102007024641A1 DE102007024641A DE102007024641A DE102007024641A1 DE 102007024641 A1 DE102007024641 A1 DE 102007024641A1 DE 102007024641 A DE102007024641 A DE 102007024641A DE 102007024641 A DE102007024641 A DE 102007024641A DE 102007024641 A1 DE102007024641 A1 DE 102007024641A1
Authority
DE
Germany
Prior art keywords
sensor signal
sensors
measuring range
hypotheses
signal currents
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102007024641A
Other languages
English (en)
Inventor
Otto Dr.-Ing. Löhlein
Matthias Dipl.-Inform. Oberländer
Werner Dr.Rer.Nat. Ritter
Matthias Dipl.-Ing. Serfling
Roland Dipl.-Inform. Schweiger
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Daimler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler AG filed Critical Daimler AG
Priority to DE102007024641A priority Critical patent/DE102007024641A1/de
Publication of DE102007024641A1 publication Critical patent/DE102007024641A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Darstellung einer Fahrzeugumgebung, wobei anhand von generierten Objekthypothesen in einem jeweiligen Sensorsignalstrom mehrerer Sensoren (1.1 bis 1.z) mindestens ein Messbereich (R1 bis Rn) des Messraumes (R) ermittelt wird, in welchem dasselbe Objekt (O), dasselbe Objektteil und/oder derselbe Umgebungsteilbereich identifiziert sind bzw. ist, wobei die Sensorsignalströme der betreffenden Sensoren (1.1 bis 1.z) nur in dem oder den ermittelten Messbereich(en) (R1 bis Rn) gemeinsam analysiert und unangepasst miteinander verarbeitet werden.

Description

  • Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Darstellung einer Fahrzeugumgebung, insbesondere einer einem eigenen Fahrzeug voraus liegenden Fahrzeugumgebung.
  • Im Stand der Technik sind verschiedene Vorrichtungen zur Darstellung einer Fahrzeugumgebung, z.B. von vorderen Sichtfeldern aus einem Fahrzeug auf einem Anzeigefeld einer Anzeige bekannt, welche für eine genaue Erkennbarkeit von Objekten in dieser voraus liegenden Fahrzeugumgebung mehrere verschiedenartige Sensoren zur Erfassung unterschiedlicher Sensordaten für dieses Fahrzeugumgebung verwenden.
  • Beispielsweise sind Fahrerassistenzsysteme für Straßenfahrzeuge erhältlich, welche vorausfahrende Fahrzeuge mittels Radar erkennen und nach verfolgen, um z.B. die Geschwindigkeit und den Abstand des eigenen Fahrzeugs zum vorausfahrenden Verkehr automatisch zu regeln. Für den Einsatz im Fahrzeugumfeld sind darüber hinaus unterschiedlichste Arten von Sensoren, wie z.B. Radar, Laser- und Kamerasensoren, bereits bekannt. Diese Sensoren sind in ihren Eigenschaften sehr unterschiedlich und besitzen unterschiedliche Vor- und Nachteile.
  • Beispielsweise unterscheiden sich derartige Sensoren in ihrem Auflösungsvermögen oder in der spektralen Empfindlichkeit.
  • Aus der älteren Anmeldung DE 102006013597. 0-5 ist ein multisensorieller Hypothesen-basierter Objektdetektor und Objektverfolger bekannt, bei welchem Sensorinformationen aus mehreren unterschiedlichen für einen Messraum, z.B. ein Suchfenster, erfassten Sensorsignalströmen mit unterschiedlichen Sensorsignaleigenschaften gemeinsam ausgewertet werden. Zur Auswertung werden wenigstens zwei der Sensorsignalströme nicht aneinander angepasst und/oder aufeinander abgebildet, sondern in jedem der wenigstens zwei Sensorsignalströme Objekthypothesen generiert und auf der Grundlage dieser Objekthypothesen Merkmale für wenigstens einen Klassifikator generiert. Die Objekthypothesen werden anschließend mittels des Klassifikators bewertet und einer oder mehreren Klassen zugeordnet, wobei wenigstens zwei Klassen definiert sind und einer der beiden Klassen Objekte zuzuordnen sind. Dabei werden die unterschiedlichen Sensorsignalströme von Sensoren weitgehend gleichen Typs aber mit unterschiedlichen Sensorsignaleigenschaften, wie z.B. unterschiedliche Auflösung oder Empfindlichkeit von verschiedenen Kamerasensoren, erfasst und gemeinsam verarbeitet. Beispielsweise werden die Bilder zweier Kameras mit unterschiedlichem Auflösungsvermögen miteinander fusioniert. Dieses Verfahren ist hinsichtlich einer differenzierten Erkennung eines im Messraum identifizierten Objektes begrenzt.
  • Der Erfindung liegt daher die Aufgabe zu Grunde, ein Verfahren und eine Vorrichtung zur Darstellung einer Fahrzeugumgebung anzugeben, womit Objekte und weitere diese Objekte und/oder deren Umgebung repräsentierende Informationen auf eine einfache und sehr genaue Weise erkannt und gegebenenfalls verfolgt werden können.
  • Hinsichtlich des Verfahrens wird diese Aufgabe erfindungsgemäß durch die im Anspruch 1 angegebenen Merkmale gelöst. Hinsichtlich der Vorrichtung wird die Aufgabe erfindungsgemäß gelöst durch die Merkmale des Anspruchs 5.
  • Vorteilhafte Weiterbildungen der Erfindung sind Gegenstand der Unteransprüche.
  • Ausgehend von der oben genannten älteren Anmeldung DE 102006013597.0 , deren gesamte Offenbarung hiermit durch Verweis miteinbezogen wird, wobei Sensorinformationen aus wenigstens zwei unterschiedlichen Sensorsignalströmen mit unterschiedlichen Sensorsignaleigenschaften wenigstens zweier Sensoren erfasst werden und in jedem der wenigstens zwei Sensorsignalströme Objekthypothesen generiert werden, die mittels wenigstens einem Klassifikator bewertet und einer oder mehreren, zugehörige Objekte umfassenden Klassen zugeordnet werden, wird beim erfindungsgemäßen Verfahren anhand der generierten Objekthypothesen in dem jeweiligen Sensorsignalstrom der verschiedenen Sensoren zumindest derjenige Messbereich eines vorgegebenen Messraumes ermittelt, in welchem dasselbe Objekt, Objektteil und/oder ein und derselbe Umgebungsteilbereich identifiziert sind bzw. ist, wobei die Sensorsignalströme der betreffenden Sensoren nur in dem oder den ermittelten Messbereichen gemeinsam analysiert und unangepasst miteinander verarbeitet werden.
  • Durch eine derartige Erweiterung des Verfahrens zur multisensoriellen Objekterkennung auf eine Fusionierung von Sensorsignalströmen nur in denjenigen Messbereichen, in welchen beispielsweise ein und dasselbe Objekt identifiziert wurden, ist eine einfache, schnelle und speicheroptimierte sowie differenzierte Objekterkennung und Umgebungserkennung sowie gegebenenfalls Objektverfolgung ermöglicht. Dabei können beliebige Objekte, insbesondere bewegliche Objekte, wie z.B. Tiere und Personen, flache Objekte, wie z.B. Kanalisationsdeckel, Bordsteinkante, besonders schnell und sicher erkannt und berücksichtigt werden.
  • Im Detail werden die Objekthypothesen unabhängig voneinander einzeln in jedem Sensorsignalstrom generiert, wobei die Objekthypothesen unterschiedlicher Sensorsignalströme sodann über Zuordnungsvorschriften einander zuordenbar sind. Zunächst werden in jedem Sensorsignalstrom mittels Suchfenstern in dem vorgegebenen Messraum, beispielsweise in einem zuvor definierten 3D-Zustandsraum, welcher durch physikalische Größen aufgespannt wird, die Objekthypothesen generiert. Aufgrund des definierten 3D-Zustandsraums sind die in den einzelnen Sensorsignalströmen generierten Objekthypothesen später einander zuordenbar. Beispielsweise werden die Objekthypothesen aus zwei unterschiedlichen Sensorsignalströmen später bei der sich anschließenden Klassifikation paarweise klassifiziert, wobei eine Objekthypothese aus einem Suchfensterpaar gebildet wird. Falls mehr als zwei Sensorsignalströme vorhanden sind, wird dementsprechend aus jedem Sensorsignalstrom jeweils ein Suchfenster herangezogen und daraus eine Objekthypothese gebildet, welche sodann zur gemeinsamen Auswertung an den Klassifikator übergeben wird. Bei den physikalischen Größen zum Aufspannen des 3D-Zustandsraums kann es sich beispielsweise um eine oder mehrere Komponente(n) der voraus liegenden Fahrzeugumgebung, insbesondere deren dreidimensionalen Ausdehnung, der Objektausdehnung, einen Geschwindigkeits- und/oder Beschleunigungsparameter, um eine Zeitan gabe usw. handeln. Der Zustandsraum kann dabei auch höher dimensional ausgestaltet sein.
  • Der oder die in dem 3D-Zustandsraum ermittelten Messbereiche mit in diesen erfassten selben Objekten, Objektteilen und/oder Umgebungsteilbereichen werden anhand der relevanten Sensorsignalströme in mindestens einer räumlichen Dimension in einen vorderen Teilmessbereich und einen hinteren Teilmessbereich unterteilt, für welche jeweils die Sensorsignalströme gemeinsam analysiert und unangepasst miteinander verarbeitet werden. Vorzugsweise werden die für die Teilmessbereiche fusionierten Sensorsignalströme anschließend überlagert und zu Anzeigedaten modifiziert. Auch können die erfassten Sensorsignalströme gewichtet werden. Durch eine derartige messbereichsabhängige Differenzierung des Messraumes können die ermittelten Sensorinformationen in Bezug auf dem zugrunde liegenden Mess- oder Erfassungsraum genauer und umfangreicher, insbesondere in Bezug auf Tiefeninformationen, insbesondere Vordergrund- und Hintergrundinformationen analysiert und anhand des Klassifikators bewertet werden. Dabei werden für die ermittelten Messbereiche, insbesondere deren Teilmessbereiche anhand der unterschiedlichen Sensorsignaleigenschaften in den Sensorsignalströmen aufgrund unterschiedlicher Sensorgrößen der verwendeten Sensoren ermittelt. Beispielsweise verursachen Kamerasensoren mit einem unterschiedlichen Auflösungsvermögen Unterschiede in den Größen bei den Bildaufnahmen. Auch können aufgrund unterschiedlicher Kameraoptiken unterschiedlich große Bildbereiche erfasst werden. Weiterhin können z.B. die physikalischen Eigenschaften der Kamerasensoren völlig unterschiedlich sein, sodass beispielsweise eine Kamera Umgebungsinformationen im sichtbaren Wellenlängenspektrum und eine weitere Kamera Umgebungsinformationen im infraroten Spektrum erfasst und eine Differenzierung und Trennung von Vorder- und Hintergrundinformationen im ermittelten Messbereichs ermöglicht ist, wobei die Bildaufnahmen ein völlig unterschiedliches Auflösungsvermögen aufweisen können. Darüber hinaus können zusätzlich zur differenzierten Tiefenauswertung Positions- und/oder Orientierungsabweichungen oder einzelne Komponenten davon in den Sensorsignalströmen für die ermittelten Messbereiche analysiert und bewertet werden.
  • Bevorzugt wird das Verfahren zur Umgebungserfassung und/oder Objektverfolgung bei einem Fahrzeug verwendet.
  • Ausführungsbeispiele der Erfindung werden anhand einer Zeichnung näher erläutert. Dabei zeigen:
  • 1 schematisch ein Blockschaltbild mit einer Mehrzahl von Sensoren unterschiedlichen Typs zur Erfassung von Sensorsignalströmen unterschiedlichen Sensorsignalformats zur differenzierten und erweiterten Objekterkennung und/oder Objektverfolgung, und
  • 2 Ausführungsbeispiel für eine Bilddarstellung mit maskierten Teilmessbereichen von miteinander korrespondierenden NIR- und FIR-Bildern.
  • 1 zeigt mehrere Sensoren 1.1 bis 1.z zur Erfassung von zugehörigen Sensorsignalströmen in einem vorgebbaren Messraum R zur Detektion eines Objekts O, z.B. in einer voraus liegenden Fahrzeugumgebung zur Detektion eines voraus fahrenden Fahrzeugs.
  • Dabei werden die mittels der Sensoren 1.1 bis 1.z erfassten Sensorsignalströme gemäß dem in der oben genannten älteren Anmeldung DE 102006013597.0 offenbarten Verfahren zur multisensoriellen Objekterkennung analysiert und gemeinsam verarbeiten, insbesondere fusioniert. Hierzu werden die mittels der Sensoren 1.1 bis 1.z erfassten Sensorsignalströme einer Steuer- oder Verarbeitungseinheit 2, z.B. einem Fahrassistenzsystem, zur Analyse und gemeinsamen Verarbeitung zugeführt, wobei in der Verarbeitungseinheit 2 das Verfahren zur multisensoriellen Objekterkennung und anschließenden Darstellung der Fahrzeugumgebung implementiert ist.
  • Im Detail werden Sensorinformationen aus wenigstens zwei unterschiedlichen Sensorsignalströmen mit unterschiedlichen Sensorsignaleigenschaften von Sensoren 1.1 bis 1.z unterschiedlichen Typs und gleichen Sensorsignalformen zur gemeinsamen Auswertung herangezogen. Die Sensorsignalströme werden dabei zur Auswertung nicht aneinander angepasst und/oder aufeinander abgebildet. Anhand der wenigstens zwei erfassten Sensorsignalströme werden zunächst Objekthypothesen für den vorgegebenen Messraum R generiert und auf der Grundlage dieser Objekthypothesen werden sodann Merkmale für wenigstens einen Klassifikator generiert. Die Objekthypothesen werden anschließend mittels dem wenigstens einen Klassifikator bewertet und einer oder mehreren Klassen zugeordnet. Dabei sind wenigstens zwei Klassen definiert, wobei einer der beiden Klassen Objekte O zuzuordnen sind. Die Objekthypothesen können entweder eindeutig einer Klasse zugeordnet werden, oder sie werden mehreren Klassen zugeordnet, wobei die jeweilige Zuordnung mit einer Wahrscheinlichkeit belegt ist. Somit wird eine einfache und zuverlässige Objekterkennung möglich. Eine aufwendige Anpassung unterschiedlicher Sensorsignalströme aneinander bzw. eine Abbildung aufeinander entfällt hierbei.
  • Im Ausführungsbeispiel weisen die Sensorsignalströme unterschiedliche Sensorsignaleigenschaften, die im Wesentlichen auf unterschiedlichen Positionen und/oder Orientierungen und/oder Sensorgrößen der verwendeten Sensoren 1.1 bis 1.z basieren. Positions- und/oder Orientierungsabweichungen oder durch einzelne Komponenten verursachte Abweichungen bei den verwendeten Sensorgrößen führen ferner zu unterschiedlichen Sensorsignaleigenschaften in den einzelnen Sensorsignalströmen. Zur Ermittlung einer differenzierten Abstands- oder Tiefenbewertung der ermittelten Objekte O werden Sensoren 1.1 bis 1.z mit unterschiedlichen physikalischen Eigenschaften verwendet. Beispielsweise erfasst eine Kamera Umgebungsinformationen im sichtbaren Wellenlängenspektrum und eine weitere Kamera Umgebungsinformationen im nahen infraroten Spektrum und eine im fernen infraroten Spektrum, wobei die Bildaufnahmen ein völlig unterschiedliches Auflösungsvermögen aufweisen können. Mit anderen Worten: Das beschriebene Verfahren wird erfindungsgemäß erweitert, indem als Sensoren 1.1 bis 1.z Sensoren unterschiedlichen Typs, z.B. Kamerasensoren, wie im Nah- oder Ferninfrarotbereich empfindliche Kameras (kurz NIR- oder FIR-Kamera genannt) und/oder CCD-Kameras (mit CCD = charge coupled device), ein oder mehrere Ultraschallsensoren, RF-Sensor (Funkwellen-Sensor), Lichtsensoren, Temperatursensoren, Radar, Schallsensoren, Drucksensoren, Regensensoren, mit unterschiedlichen Sensorsignalformen, insbesondere einoder mehrdimensionalen Signalformen, eingesetzt werden.
  • Dabei werden die mittels der Sensoren 1.1 bis 1.z unterschiedlichen Typs erfassten verschiedenen Sensorsignalströme in Analogie zu dem oben beschrieben Verfahren zur Objekterkennung nur in denjenigen Messbereichen R1 bis Rn des zugrunde liegenden Messraumes R miteinander kombiniert, insbesondere fusioniert und gemeinsam verarbeitet, in welchen dasselbe Objekt O oder dasselbe Objektteil oder derselbe Umgebungsteilbereich identifiziert wurde. Dabei müssen die Sensoren 1.1 bis 1.z nicht orts- und zeitgleiche Videobilder liefern, da die Abbildungsvorschriften aus den Fusionsalgorithmen für jeden der Messbereiche R1 bis Rn abgeleitet werden. Die ermittelten Messbereichen R1 bis Rn werden darüber hinaus insbesondere bei der Verwendung und Kombination von NIR-Kamera oder Radar und FIR-Kamera in Teilmessbereiche T1 bis Tn unterteilt, welche unterschiedliche Bildbereiche des betrachteten Messbereiches R1 bis Rn darstellen, beispielsweise ein von der NIR-Kamera aufgenommenes Vordergrundbild und ein von der FIR-Kamera aufgenommenes Hintergrundbild. Wie dies beispielhaft in 2 dargestellt ist, wobei im linken Bild Teilmessbereiche T1 bis T5 der NIR-Kamera und im rechten Bild ein zu den Teilmessbereichen T1 bis T5 korrespondierender Teilmessbereich T6 der FIR-Kamera dargestellt sind, in welchen als ein und dasselbe Objekt O ein Fußgänger in der voraus liegenden Fahrzeugumgebung identifiziert wurde.
  • Anschließend werden die für diese ermittelten Teilmessbereiche T1 bis Tn erfassten Sensorsignalströme fusioniert, insbesondere überlagert. Dabei erfolgt die Fusion der Sensorsignalströme für diese Teilmessbereiche T1 bis Tn auf Pixelebene, um den räumlichen Bezug von Pixeln zu dem ermittelten Objekt O im Raum zu analysieren, beispielsweise um Tiefeninformationen der Kameras zu extrahieren.
  • Darüber hinaus können die ermittelten Teilmessbereiche T1 bis Tn mittels einer festen vorgegebenen Maskierung oder einer variablen Maskierung überlagert werden. Die variable Maskierung hängt insbesondere von weiteren Umgebungsinformationen, welche in Form von so genanntem Metawissen vorliegen, z.B. die momentane Fahrzeugposition (z.B. GPS-Position), Straßen typ, Ländergegebenheiten, Wetter, Temperatur, ab. Auch können situationsbedingt weitere Informationen berücksichtigt werden, wie beispielsweise Gefahren, wenn als Objekt O ein Fußgänger auf der voraus liegenden Fahrbahn identifiziert wird, der entsprechend maskiert wird, wie in 2 dargestellt. Ferner können situations- und/oder objektabhängige unterschiedliche Sichtbarkeiten in den einzelnen Sensorsignalströmen analysiert und entsprechend maskiert werden. Beispielsweise können Objektteile (z.B. Beine vs. Oberkörper), Objekteigenschaften (z.B. Bewegungen des Objektes, Erhabenheit von Oberflächen) und/oder ein Kontext, d.h. mindestens eine dem Objekt O zugehörige Objektumgebung (z.B. Straße S, Straßenrand, Wald, Stadtgebiet, Hintergrund, Himmel) bei der Überlagerung der Teilmessbereiche T1 bis Tn entsprechend variabel maskiert werden. Beispielsweise erfasst ein so genannter Lidar-Sensor (Lidar = light detection and ranging, Lasersensor) Information über bewegte Beine; ein FIR-Sensor liefert Informationen über einen warmen Kopf; ein NIR-Sensor liefert Informationen über Wald. Ferner können Umgebungs- oder Zusatzinformationen, die nicht Bestandteil des Objektes O sind, aber zur Objekterkennung beitragen, in Form von Metadaten, wie Fahrzeugabstand zum Objekt O, bei der Überlagerung entsprechend maskiert werden.
  • Die Umgebungsinformationen sind dabei nicht notwendigerweise auf die räumliche oder zeitliche Umgebung des in den Teilmessbereichen T1 bis Tn identifizierten Objektes O in den unterschiedlichen Sensorsignalströmen beschränkt, sondern umfassen vielmehr auch Metawissen, das abhängig oder unabhängig der eingesetzten Sensoren 1.1 bis 1.z sein kann. Beispiele hierfür sind:
    • – sensorunabhängiges Metawissen: bei der Fahrzeugerkennung kann die Straße S und das Metawissen, dass sich Fahrzeuge in der Regel auf der Straße S bewegen, herangezogen werden, um die Erkennungsaufgabe zu lösen; umgekehrt kann in diesem Szenario "Wasser" und das Metawissen, dass Fahrzeuge in der Regel nicht schwimmen können, herangezogen werden, um Falschalarme zu verhindern.
    • – sensorabhängiges Metawissen: kleine Fahrzeuge im Bild haben eine große Entfernung vom Betrachter, etc.
  • Bei der Verarbeitung der Sensorsignalströme der Sensoren 1.1 bis 1.z werden diese Umgebungsinformationen als Kontext in die Fusionierung der verschiedenen Sensorsignalströme für die Teilmessbereiche T1 bis Tn eingebunden, indem:
    • – Kontextinformationen als wenigstens ein separater Sensor 1.1 bis 1.z beschrieben und in dem oben beschriebenen und bekannten Fusionierungsverfahren als weitere Fusionsgröße eingebracht werden;
    • – Kontextinformationen nicht als Sensorstrom, sondern als Merkmal beschrieben und in dem oben beschriebenen und bekannten Fusionierungsverfahren als weitere Fusionsgröße eingebracht werden.
  • Auch können die Umgebungsinformationen und/oder die Detektionsergebnisse in jeder anderen beliebigen und geeigneten Art und Weise kombiniert werden, um eine differenzierte und verbesserte Objekterkennung zu ermöglichen.
  • In einer weiteren Ausführungsform kann die Fusionierung der Sensorsignalströme in den identifizierten Teilmessbereichen T1 bis Tn derart realisiert werden, dass nur harte Übergänge, weiche Übergänge, unterschiedliche Farben und/oder un terschiedliche Intensitäten im jeweiligen Bild und/oder unterschiedlich gewichtete Eigenschaften der zu kombinierenden Sensorsignalströme überlagert werden.
  • Im Detail kann die Überlagerung additiv (= auf Addition der Sensorsignalströme beruhend), multiplikativ (= auf Multiplikation der Sensorsignalströme beruhend), subtraktiv (= auf Subtraktion der Sensorsignalströme beruhend) und/oder eine andere beliebige Funktion oder Kombinationen von Funktionen ausgeführt werden.
  • Die konkrete Kombination (= Fusionierung) von Merkmalen aus den Sensorsignalströmen für die Teilmessbereiche T1 bis Tn kann in einer weiteren Ausgestaltung automatisiert auf Basis von Trainingsdaten ausgeführt werden. Auch können einzelne Merkmale oder Eigenschaften der erfassten Sensorsignalströme gewichtet werden. Beispielsweise können diese situationsabhängig, objektabhängig, entfernungsabhängig, gefahrenabhängig und/oder geschwindigkeitsabhängig gewichtet werden. Das Resultat stellt näherungsweise eine optimale Wahl und Gewichtung der Merkmale aus den relevanten Sensorsignalströmen dar. Ein Vorteil ist hierbei der erweiterte Merkmalsraum. Sind bestimmte Teilmengen der Daten oder Merkmale jeweils nur in einem der Sensorsignalströme und somit leicht trennbar, dann kann durch die Kombination eine Trennung aller Daten vereinfacht werden. Beispielsweise ist im NIR-Bild die Fußgängersilhouette gut zu erkennen, dagegen ist im FIR-Bild ein beleuchtungsunabhängiger Kontrast zwischen Fußgänger und Hintergrund abgebildet. In der Praxis hat sich gezeigt, dass mit der Fusion auf Merkmalsebene die Zahl der notwendigen Merkmale drastisch gesenkt werden kann.
  • Durch die Reduzierung des bekannten Verfahrens auf Daten von Sensorsignalströme in denjenigen Messbereichen R1 bis Rn, in welchen dasselbe Objekt O oder dasselbe Objektteil oder derselbe Teilumgebungsbereich identifiziert wurde, ist ein besonders einfaches und schnelles sowie hinsichtlich einer differenzierten Tiefenbewertung der erfassten Daten genaues Verfahren für beliebige Sensorkombinationen gegeben. Darüber hinaus ist durch die Berücksichtigung von Kontextinformationen eine verbesserte Detektions- und Erkennungsleistung möglich. Die Kombination beliebiger Sensoren 1.1 bis 1.z oder die Kombination beliebiger Sensoren 1.1 bis 1.z mit Einbindung von Kontextinformationen oder Zusatzinformationen wird zur Detektion von beliebigen Objekten O, z.B. Tieren, erhabenen Objekten, flachen Objekten, Kanalisationsdeckel, eingesetzt.
  • 1.1 bis 1.z
    Sensoren
    2
    Verarbeitungseinheit
    O
    Objekt
    R
    Messraum
    R1
    bis Rn Messbereiche
    S
    Straße
    T1
    bis Tn Teilmessbereiche
    X,
    y, z, t Dimensionen

Claims (7)

  1. Verfahren zur Darstellung einer Fahrzeugumgebung, insbesondere einer zu einem eigenen Fahrzeug voraus liegenden Fahrzeugumgebung, mittels multisensorieller Objekterkennung in mindestens einem vorgebbaren Messraum (R), wobei Sensorinformationen aus wenigstens zwei unterschiedlichen Sensorsignalströmen wenigstens zweier Sensoren (1.1 bis 1.z) erfasst werden und in jedem der wenigstens zwei Sensorsignalströme Objekthypothesen generiert werden, die mittels wenigstens einem Klassifikator bewertet und einer oder mehreren, zugehörige Objekte (O) umfassenden Klassen zugeordnet werden, dadurch gekennzeichnet, dass anhand der generierten Objekthypothesen in dem jeweiligen Sensorsignalstrom mehrerer Sensoren (1.1 bis 1.z) mindestens ein Messbereich (R1 bis Rn) des Messraumes (R) ermittelt wird, in welchem dasselbe Objekt (O), dasselbe Objektteil und/oder derselbe Umgebungsteilbereich identifiziert sind bzw. ist, wobei die Sensorsignalströme der betreffenden Sensoren (1.1 bis 1.z) nur in dem oder den ermittelten Messbereichen (R1 bis Rn) gemeinsam analysiert und unangepasst miteinander verarbeitet werden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass anhand der erfassten Sensorsignalströme der ermittelte Messbereich (R1 bis Rn) in mindestens einer räumlichen Dimension in einen vorderen Teilmessbereich (T1 bis T5) und einen hinteren Teilmessbereich (T6) unterteilt wird, für welche jeweils die Sensorsignalströme gemeinsam analysiert und unangepasst miteinander verarbeitet werden.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass die für die Teilmessbereiche (T1 bis Tn) fusionierten Sensorsignalströme überlagert und zu Anzeigedaten modifiziert werden.
  4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die erfassten Sensorsignalströme gewichtet werden.
  5. Vorrichtung zur Darstellung einer Fahrzeugumgebung, insbesondere einer voraus liegenden Fahrzeugumgebung, wobei wenigstens zwei Sensoren (1.1 bis 1.z) zur Ermittlung von Sensorinformationen aus wenigstens zwei unterschiedlichen Sensorsignalströmen und mindestens eine Verarbeitungseinheit (2) vorgesehen sind, welche in jedem der wenigstens zwei Sensorsignalströme Objekthypothesen generiert, die mittels wenigstens einem Klassifikator bewertet und einer oder mehreren, zugehörige Objekte (O) umfassenden Klassen zugeordnet werden, dadurch gekennzeichnet, dass mittels der Verarbeitungseinheit (2) anhand der generierten Objekthypothesen in dem jeweiligen Sensorsig nalstrom mehrerer Sensoren (1.1 bis 1.z) mindestens ein Messbereich (R1 bis Rn) eines Messraumes (R) ermittelbar ist, in welchem dasselbe Objekt, dasselbe Objektteil und/oder derselbe Umgebungsteilbereich identifiziert sind bzw. ist, wobei die Sensorsignalströme der relevanten Sensoren (1.1 bis 1.z) nur in dem ermittelten Messbereich (R1 bis Rn) gemeinsam analysiert und unangepasst miteinander verarbeitet werden.
  6. Verwendung des Verfahrens nach einem der vorhergehenden Ansprüche 1 bis 5 zur Umgebungserfassung und/oder Objektverfolgung bei einem Fahrzeug.
  7. Verwendung des Verfahrens nach einem der vorhergehenden Ansprüche 1 bis 5 zur Objektverfolgung.
DE102007024641A 2007-05-24 2007-05-24 Verfahren und Vorrichtung zur Darstellung einer Fahrzeugumgebung Withdrawn DE102007024641A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102007024641A DE102007024641A1 (de) 2007-05-24 2007-05-24 Verfahren und Vorrichtung zur Darstellung einer Fahrzeugumgebung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102007024641A DE102007024641A1 (de) 2007-05-24 2007-05-24 Verfahren und Vorrichtung zur Darstellung einer Fahrzeugumgebung

Publications (1)

Publication Number Publication Date
DE102007024641A1 true DE102007024641A1 (de) 2008-02-07

Family

ID=38885098

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102007024641A Withdrawn DE102007024641A1 (de) 2007-05-24 2007-05-24 Verfahren und Vorrichtung zur Darstellung einer Fahrzeugumgebung

Country Status (1)

Country Link
DE (1) DE102007024641A1 (de)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008038731A1 (de) * 2008-08-12 2010-02-18 Continental Automotive Gmbh Verfahren zur Erkennung ausgedehnter statischer Objekte
WO2011061173A1 (de) 2009-11-23 2011-05-26 Robert Bosch Gmbh Verfahren zur erfassung von objekten
DE102010031040A1 (de) 2010-07-07 2012-01-12 Robert Bosch Gmbh Verfahren zur Unterstützung eines Fahrers eines Kraftfahrzeugs
EP2851840A1 (de) * 2013-09-24 2015-03-25 Autoliv Development AB Sichtsystem und -verfahren für ein Kraftfahrzeug
DE102018116173A1 (de) * 2018-07-04 2020-01-09 Connaught Electronics Ltd. Betreiben eines Fahrassistenzsystems für ein Kraftfahrzeug
DE102022109334A1 (de) 2022-04-14 2023-10-19 Marelli Automotive Lighting Reutlingen (Germany) GmbH Verfahren zur Ermittlung eines Objektabstands von einem Fahrzeug und Fahrzeug mit einem LiDAR-System

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008038731A1 (de) * 2008-08-12 2010-02-18 Continental Automotive Gmbh Verfahren zur Erkennung ausgedehnter statischer Objekte
WO2011061173A1 (de) 2009-11-23 2011-05-26 Robert Bosch Gmbh Verfahren zur erfassung von objekten
DE102009047012A1 (de) 2009-11-23 2011-05-26 Robert Bosch Gmbh Verfahren zur Erfassung von Objekten
US8982669B2 (en) 2009-11-23 2015-03-17 Robert Bosch Gmbh Method for detecting objects
EP2504718B1 (de) * 2009-11-23 2017-09-27 Robert Bosch GmbH Verfahren zur erfassung von objekten
DE102010031040A1 (de) 2010-07-07 2012-01-12 Robert Bosch Gmbh Verfahren zur Unterstützung eines Fahrers eines Kraftfahrzeugs
EP2851840A1 (de) * 2013-09-24 2015-03-25 Autoliv Development AB Sichtsystem und -verfahren für ein Kraftfahrzeug
DE102018116173A1 (de) * 2018-07-04 2020-01-09 Connaught Electronics Ltd. Betreiben eines Fahrassistenzsystems für ein Kraftfahrzeug
DE102022109334A1 (de) 2022-04-14 2023-10-19 Marelli Automotive Lighting Reutlingen (Germany) GmbH Verfahren zur Ermittlung eines Objektabstands von einem Fahrzeug und Fahrzeug mit einem LiDAR-System

Similar Documents

Publication Publication Date Title
EP1589484B1 (de) Verfahren zur Erkennung und/oder Verfolgung von Objekten
DE102018201054A1 (de) System und Verfahren zur Bilddarstellung durch ein Fahrerassistenzmodul eines Fahrzeugs
DE112018007287T5 (de) Fahrzeugsystem und -verfahren zum erfassen von objekten und einer objektentfernung
WO2019174682A1 (de) Verfahren und vorrichtung zur erkennung und bewertung von fahrbahnzuständen und witterungsbedingten umwelteinflüssen
EP2629243A1 (de) Verfahren zum Erkennen und Verfolgen von Fahrspurmarkierungen
DE102009048699A1 (de) Pixelbasierte Detektion einer nicht vorhandenen Struktur eines freien Pfads
EP1298454A2 (de) Verfahren zur Erkennung und Verfolgung von Objekten
DE102014207802B3 (de) Verfahren und System zum proaktiven Erkennen einer Aktion eines Verkehrsteilnehmers
DE102018212655A1 (de) Erkennung der Bewegungsabsicht eines Fußgängers aus Kamerabildern
EP2033165B1 (de) Verfahren für die erfassung eines verkehrsraums
EP3044727B1 (de) Verfahren und vorrichtung zur objekterkennung aus tiefenaufgelösten bilddaten
DE102008041679A1 (de) Vorrichtung und Verfahren zur erinnerungsbasierten Umfelderkennung
WO2018215031A1 (de) Verfahren zur erkennung von objekten in einem bild einer kamera
WO2018206213A1 (de) Verfahren und vorrichtung zur ortsaufgelösten detektion von einem fahrzeugexternen objekt mithilfe eines in einem fahrzeug verbauten sensors
EP3671546A1 (de) Verfahren und system zum bestimmen von landmarken in einer umgebung eines fahrzeugs
DE102007013664A1 (de) Multisensorieller Hypothesen-basierter Objektdetektor und Objektverfolger
DE102018121008A1 (de) Kreuzverkehrserfassung unter verwendung von kameras
DE102007024641A1 (de) Verfahren und Vorrichtung zur Darstellung einer Fahrzeugumgebung
EP1642770A2 (de) Verfahren zur Lenkung der Aufmerksamkeit eines Fahrers eines Fahrzeugs auf Objekte in einem Bild
DE102006039104A1 (de) Verfahren zur Entfernungsmessung von Objekten auf von Bilddaten eines Monokamerasystems
DE102017215718B4 (de) Verfahren zum Auswerten eines optischen Erscheinungsbildes in einer Fahrzeugumgebung und Fahrzeug
DE102018211368A1 (de) Verfahren zur Beschreibung einer Umgebung eines Fahrzeugs durch die Topologie der befahrenen Straße
DE102008017833A1 (de) Verfahren zum Betrieb einer Bildaufnahmevorrichtung und eine Bildaufnahmevorrichtung
DE102015216352A1 (de) Verfahren zum Erkennen einer möglichen Kollision eines Fahrzeuges mit einem Fußgänger auf Grundlage hochaufgelöster Aufnahmen
DE102015006569A1 (de) Verfahren zur bildbasierten Erkennung des Straßentyps

Legal Events

Date Code Title Description
OAV Applicant agreed to the publication of the unexamined application as to paragraph 31 lit. 2 z1
R005 Application deemed withdrawn due to failure to request examination

Effective date: 20140527