DE102009006113A1 - Vorrichtung und Verfahren zur Sensorfusion mit dynamischen Objekten - Google Patents

Vorrichtung und Verfahren zur Sensorfusion mit dynamischen Objekten Download PDF

Info

Publication number
DE102009006113A1
DE102009006113A1 DE102009006113A DE102009006113A DE102009006113A1 DE 102009006113 A1 DE102009006113 A1 DE 102009006113A1 DE 102009006113 A DE102009006113 A DE 102009006113A DE 102009006113 A DE102009006113 A DE 102009006113A DE 102009006113 A1 DE102009006113 A1 DE 102009006113A1
Authority
DE
Germany
Prior art keywords
sensor
objects
fusion
existence
probability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102009006113A
Other languages
English (en)
Other versions
DE102009006113B4 (de
Inventor
Thien-Nghia Nguyen
Marc Michael Dr. Meinecke
Thanh-Binh Dr. To
Bernd Prof. Dr. Michaelis
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE102009006113.4A priority Critical patent/DE102009006113B4/de
Publication of DE102009006113A1 publication Critical patent/DE102009006113A1/de
Application granted granted Critical
Publication of DE102009006113B4 publication Critical patent/DE102009006113B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
    • G01S13/726Multiple target tracking
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft eine Vorrichtung und ein Verfahren zum Bereitstellen einer Umfelddarstellung eines Fahrzeugs mit mindestens einer ersten Sensoreinrichtung (2) und mindestens einer zweiten Sensoreinrichtung (3) sowie einer Auswerteeinrichtung (4), wobei die Sensoreinrichtungen (2, 3) Informationen über in einem Umfeld des Fahrzeugs (6) erkannte Objekte (10, 14) in Form von Sensorobjekten bereitstellen, wobei ein Sensorobjekt ein von der jeweiligen Sensoreinrichtung (2, 3) erkanntes Objekt (10, 14) repräsentiert, und die Sensorobjekte als Attribut mindestens eine Existenzwahrscheinlichkeit des repräsentierten Objekts (10, 14) umfassen und die von der mindestens einen ersten Sensoreinrichtung (2) und von der mindestens einen zweiten Sensoreinrichtung (3) erkannten Sensorobjekte einer Objektfusion (66) unterzogen werden, bei der Fusionsobjekte erzeugt werden, denen mindestens eine Existenzwahrscheinlichkeit als ein Attribut zugeordnet wird, wobei die Existenzwahrscheinlichkeiten der Fusionsobjekte basierend auf den Existenzwahrscheinlichkeiten der Sensorobjekte fusioniert werden, wobei die Fusionierung der Existenzwahrscheinlichkeit eines der Sensorobjekte jeweils abhängig von der jeweiligen Sensoreinrichtung (2, 3) erfolgt, von der das entsprechende Sensorobjekt bereitgestellt ist.

Description

  • Die Erfindung betrifft ein Verfahren und eine Vorrichtung für ein Fahrzeug zur Beschreibung eines Umfelds des Fahrzeugs, das mit mindestens einer ersten Sensoreinrichtung und mindestens einer zweiten Sensoreinrichtung erfasst wird und deren bereitgestellte Informationen in einer Auswerteeinrichtung ausgewertet werden, um eine Umfelddarstellung bereitzustellen. Insbesondere betrifft die Erfindung ein Verfahren zum Bereitstellen einer Umfelddarstellung eines Fahrzeugs mit mindestens einer ersten Sensoreinrichtung und mindestens einer zweiten Sensoreinrichtung sowie einer Auswerteeinrichtung. Ferner betrifft die Erfindung eine Vorrichtung zum Bereitstellen einer Umfelddarstellung eines Fahrzeugs, umfassend mindestens eine erste Sensoreinrichtung und mindestens eine zweite Sensoreinrichtung, die das Umfeld erfassen, sowie eine Auswerteeinrichtung, die mit der mindestens einen ersten Sensoreinrichtung und mit der mindestens einen zweiten Sensoreinrichtung gekoppelt ist.
  • Die Kenntnis eines Umfelds eines Fahrzeugs ist für unterschiedliche Fahrzeugsysteme, wie z. B. Sicherheitssysteme, von großer Wichtigkeit. Mit Sensoreinrichtungen, die beispielsweise einen Ultraschallsensor oder eine Kamera umfassen, werden Daten über das Umfeld erfasst. Durch ein Nutzen von Informationen unterschiedlicher Sensoreinrichtungen wird eine Repräsentation des Umfelds erzeugt, welche die Realität des Umfelds möglichst gut widerspiegeln soll. In der Umgebung befinden sich statische Objekte, wie beispielsweise Bäume, Häuser usw., und dynamische Objekte, die sich in einem ortsfesten Bezugssystem bewegen, wie beispielsweise Personen, Tiere, Kraftfahrzeuge usw. Um ausreichende Informationen über diese sich bewegenden Objekte (dynamischen Objekte) im Umfeld des Fahrzeugs zu jedem Zeitpunkt zur Verfügung zu haben, ist eine kontinuierliche Überwachung, d. h. ein kontinuierliches Erfassen von Messdaten, über die Umgebung notwendig. In der Regel arbeiten die Sensoreinrichtungen in sich fortwährend iterativ wiederholenden Messzyklen.
  • Aus der DE 10 2006 035 207 ist eine Vorrichtung bekannt, die mittels einer Kameraeinrichtung einen Näherungswert für eine Position eines möglichen Objektes bestimmt. In einer Auswerteeinrichtung werden zwei Grenzwerte für die Position des Objekts anhand der von der Kamera zur Verfügung gestellten Daten ermittelt. Mit einem einen Laser nutzenden so genannten Lidar-System (Laser Imaging Detection and Ranging System) oder einem Radarsystem wird überprüft, ob sich tatsächlich ein Objekt in dem durch den ersten Grenzwert und den zweiten Grenzwert definierten Positionsbereich befindet.
  • Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren und eine Vorrichtung zu schaffen, die es ermöglichen, eine verbesserte Umfeldrepräsentation eines Umfelds eines Fahrzeugs mit statischen und dynamischen Objekten bereitzustellen.
  • Die Aufgabe wird erfindungsgemäß durch ein Verfahren mit den Merkmalen des Patentanspruchs 1 sowie eine Vorrichtung mit den Merkmalen des Patentanspruchs 12 gelöst. Vorteilhafte Ausführungsformen der Erfindung ergeben sich aus den Unteransprüchen.
  • Insbesondere wird ein Verfahren zum Bereitstellen einer Umfelddarstellung eines Fahrzeugs mit mindestens einer ersten Sensoreinrichtung und mindestens einer zweiten Sensoreinrichtung sowie eine Auswerteeinrichtung vorgeschlagen, bei dem die Sensoreinrichtungen Informationen über in einem Umfeld des Fahrzeugs erkannte Objekte in Form von Sensorobjekten bereitstellen, wobei ein Sensorobjekt ein von der jeweiligen Sensoreinrichtung erkanntes Objekt repräsentiert, und die Sensorobjekte als Attribut mindestens eine Existenzwahrscheinlichkeit des repräsentierten Objekts umfassen und die von der mindestens einen ersten Sensoreinrichtung und von der mindestens einen zweiten Sensoreinrichtung erkannten Sensorobjekte einer Objektfusion unterzogen werden, bei der Fusionsobjekte erzeugt werden, denen mindestens eine Existenzwahrscheinlichkeit als Attribut zugeordnet wird, wobei die Existenzwahrscheinlichkeiten der Fusionsobjekte basierend auf den Existenzwahrscheinlichkeiten der Sensorobjekte fusioniert wird, wobei die Fusionierung der Existenzwahrscheinlichkeit eines der Sensorobjekte jeweils abhängig von der jeweiligen Sensoreinrichtung erfolgt, von der das entsprechende Sensorobjekt bereitgestellt ist. Eine entsprechende Vorrichtung zum Bereitstellen einer Umfelddarstellung eines Fahrzeugs umfasst mindestens eine erste Sensoreinrichtung und mindestens eine zweite Sensoreinrichtung, die das Umfeld erfassen, sowie eine Auswerteeinrichtung, die mit der mindestens einen ersten Sensoreinrichtung und der mindestens einen zweiten Sensoreinrichtung gekoppelt ist, wobei die Sensoreinrichtungen ausgebildet sind, Informationen über jeweils erfasste Objekte in Form von Sensorobjekten bereitzustellen, die als Attribut mindestens eine Existenzwahrscheinlichkeit für das erfasste Objekt umfassen, und die Auswerteeinheit ausgebildet ist, die von der mindestens einen ersten Sensoreinrichtung und von der mindestens einen zweiten Sensoreinrichtung erkannten Sensorobjekte einer Objektfusion zu unterziehen, bei der Fusionsobjekte erzeugt werden, denen mindestens eine Existenzwahrscheinlichkeit als ein Attribut zugeordnet ist, wobei die Fusion der Existenzwahrscheinlichkeit des Fusionsobjekts basierend auf den Existenzwahrscheinlichkeiten der Sensorobjekte ausgeführt ist und abhängig von der jeweiligen Sensoreinrichtung erfolgt, von der das jeweilige Sensorobjekt bereitgestellt ist. Obwohl die einzelnen Sensoreinrichtungen bereits selbständig Objekte erkennen und diese erkannten Objekte als Sensorobjekte, in der Regel in Form einer Liste von Sensorobjekten, bereitstellen, ist es erfindungsgemäß vorgesehen, die von den unterschiedlichen Sensoreinrichtungen bereitgestellten Sensorobjekte einer Fusion zu unterziehen. Hierbei werden Fusionsobjekte erzeugt. Da insbesondere eine Existenzwahrscheinlichkeit der erkannten Objekte von besonderer Bedeutung ist, umfassen die Fusionsobjekte als Attribut mindestens eine Existenzwahrscheinlichkeit. Durch die Fusionierung der Sensorobjekte werden Fusionsobjekte geschaffen, die die real existierenden Objekte repräsentieren. Aufgrund der Fusion der Sensorobjekte, die jeweils von einer der Sensoreinrichtungen erfasst und erkannt sind, können die Existenzwahrscheinlichkeiten der Fusionsobjekte (wie auch andere Attribute) durch eine Fusion der Sensorobjekte zu den Fusionsobjekten deutlich verbessert werden. Da die einzelnen Sensoreinrichtungen hinsichtlich ihrer Messgüte und/oder Fehleranfälligkeit, beispielsweise aufgrund von Rauschen, einer Anfälligkeit gegenüber veränderlichen Umweltbedingungen usw., unterscheiden, ist es vorgesehen, dass bei der Fusionierung der Existenzwahrscheinlichkeiten der einzelnen Sensorobjekte zu der Existenzwahrscheinlichkeit der Fusionsobjekte eine Fusionierung jeweils unter Berücksichtigung der Sensoreinrichtung erfolgt, die das jeweilige Sensorobjekt bereitgestellt hat, dessen Sensorobjekt-Existenzwahrscheinlichkeit in die Existenzwahrscheinlichkeit für das Fusionsobjekt fusioniert wird. Durch die Fusionierung der Sensorobjekte zu Fusionsobjekten wird eine deutlich verbesserte Umfelddarstellung erreicht. Insbesondere für sicherheitsrelevante Fahrzeugsysteme, die von einer Existenz von Objekten in der Umgebung des Kraftfahrzeugs abhängig sind, ist eine gute Kenntnis über die tatsächliche Existenz von Objekten in der Umgebung notwendig. Durch die Fusionierung der Existenzwahrscheinlichkeiten der Sensorobjekte zu einer Existenzwahrscheinlichkeit von Fusionsobjekten, die die realen Objekten repräsentieren, wird somit die Aussage über die Existenzwahrscheinlichkeit von Objekten in der Umgebung des Kraftfahrzeugs deutlich verbessert. Hierüber können Fehlauslösungen von Sicherheitssystemen, die beispielsweise Rückhaltesysteme vor einem tatsächlichen Eintreffen einer Kollision mit einem Objekt in der Umgebung, die als unvermeidbar erkannt ist, auslösen, deutlich reduziert oder vollständig vermieden werden.
  • Bei einer besonders vorteilhaften Ausführungsform ist vorgesehen, dass für die zum Zeitpunkt k ermittelten Fusionsobjekte eine Prädiktion auf einen Zeitpunkt k + 1 vorgenommen wird und die zum Zeitpunkt k + 1 ermittelten Sensorobjekte mit den Fusionsobjekten assoziiert werden, mit deren Prädiktion sie gemäß Assoziationsvorgaben übereinstimmen, wobei die Existenzwahrscheinlichkeit des Fusionsobjekts zum Zeitpunkt k + 1 anhand der Existenzwahrscheinlichkeit des Fusionsobjekts zum Zeitpunkt k und der Existenzwahrscheinlichkeit zum Zeitpunkt k + 1 des Sensorobjekts fusioniert wird. Als Assoziationsvorgabe kann ein Mahalanobis-Abstandsvorgabewert dienen. Bei dieser Ausführungsform ist es möglich, die in vorausgegangenen Fusionierungsschritten erzeugten Fusionsobjekte mit den aktuell bereitgestellten Sensorobjekten zu assoziieren und hierüber die bereits zuvor gewonnenen Informationen, insbesondere hinsichtlich der Existenzwahrscheinlichkeit der im Umfeld existierenden Objekte, optimal auszuwerten.
  • Eine Weiterbildung sieht vor, dass die Existenzwahrscheinlichkeit eines Fusionsobjekts, das mit einem Sensorobjekt assoziiert werden kann, gemäß folgender Formel berechnet wird:
    Figure 00040001
    wobei PFusObj(k) die Existenzwahrscheinlichkeit des Fusionsobjekt zum Zeitpunkt k, PSenObj(k) die Existenzwahrscheinlichkeit des Sensorobjekts zum Zeitpunkt k, γ eine sensoreinrichtungsunabhängige Fusionierungskonstante und δa und δb sensoreinrichtungsabhängige Fusionierungskonstanten angeben, wobei gilt: δa + δb = 1. Die angegebene Formel, die der Fuzzy-Logik entlehnt ist, ermöglicht über die festgelegte Wahl der Konstante γ eine Vorwahl, ob die Fusionierung eher einer Und-Verknüpfung oder eher einer Oder-Verknüpfung der beiden Existenzwahrscheinlichkeiten, d. h. der Existenzwahrscheinlichkeit des Fusionsobjekts zum Zeitpunkt k und der Existenzwahrscheinlichkeit des Sensorobjekts zum Zeitpunkt k + 1 entsprechen soll. Darüber hinaus wird über die sensoreinrichtungsabhängigen Fusionierungskonstanten δa und δb die Möglichkeit geschaffen, die von unterschiedlichen Sensoreinrichtungen gelieferten Existenzwahrscheinlichkeiten unterschiedlich relativ zu der bereits in dem Fusionsobjekt fusionierten Existenzwahrscheinlichkeit zu gewichten. Hierüber kann berücksichtigt werden, dass die Zuverlässigkeit von Existenzwahrscheinlichkeitsaussagen der einzelnen Sensoreinrichtungen eine unterschiedliche Zuverlässigkeit und Güte aufweisen. Ferner kann abhängig von der Güte der Assoziation ebenfalls eine Wichtung der ”alten” Fusionsobjekt-Existenzwahrscheinlichkeit PFusObj(k) relativ zur Existenzwahrscheinlichkeit PSenObj(k + 1) des Sensorobjekts erfolgen.
  • Um im Umfeld auftretende neue Objekte bei der Fusionierung berücksichtigen zu können, ist bei einer Ausführungsform der Erfindung vorgesehen, dass für Sensorobjekte, die mit keinem der bekannten Fusionsobjekte assoziiert werden können, die Fusionierung ein Erzeugen eines neuen Fusionsobjekts umfasst, welchem als Existenzwahrscheinlichkeit die Existenzwahrscheinlichkeit des Sensorobjekts zugewiesen wird.
  • Während eine Umfelddarstellung über Sensorobjekte und hieraus fusionierte Fusionsobjekte besonders gut für sich bewegende, d. h. in einem ortsfesten Bezugssystem bewegende, Objekte im Umfeld des Fahrzeugs geeignet ist, kann eine verbesserte Umfeldrepräsentation erreicht werden, wenn von den Sensoreinrichtungen zusätzlich Informationen bereitgestellt werden, anhand derer eine Belegungskarte erstellt wird, wobei das Umfeld in Bereiche unterteilt wird und jedem Bereich jeweils eine Zelle zugeordnet wird, wobei die Zellen gemeinsam die Belegungskarte darstellen, und vorgesehen ist, für die Zellen Belegungswahrscheinlichkeiten zu ermitteln, die ein Maß für eine Existenz eines Objekts in dem der Zelle zugeordneten Bereich des Umfelds angeben. Zusätzlich zu einer Objekterkennung in den Sensoreinrichtungen, die zur Ableitung der Sensorobjekte führt, werden somit Informationen bereitgestellt, die es ermöglichen, eine Belegungskarte des Umfelds zu erstellen. Das Erstellen der Belegungskarte wird in der Regel so ausgeführt, dass den einzelnen Zellen mindestens ein Wert zugeordnet ist, welcher die Existenzwahrscheinlichkeit eines Objekts in dem der Zelle zugeordneten Raumbereich des Umfelds angibt. Ein Vorteil eines solchen Verfahrens zur Umfelddarstellung bzw. Bereitstellung einer Umfelddarstellung liegt in einer möglichst vollständigen Nutzung der Informationen der mindestens zwei Sensoreinrichtungen, wobei zum einen die guten Belegungswahrscheinlichkeitsaussagen in den durch die Zellen gebildeten Belegungskarten erzeugt werden, die insbesondere für statische Objekte eine hohe Aussagekraft besitzen, und zum anderen auch für dynamische Objekte hohe Existenzwahrscheinlichkeiten über die Fusionierungsobjekte erlangt werden können.
  • Eine deutliche weitere Verbesserung lässt sich erreichen, wenn die Ergebnisse der objektorientierten Umfelddarstellung mit einer kartenbasierten Umfelddarstellung kombiniert werden. Bei einer bevorzugten Ausführungsform ist daher vorgesehen, dass für Fusionsobjekte, die zu einem Messzeitpunkt k + 1 keinem der Sensorobjekte zugeordnet werden können, die Existenzwahrscheinlichkeit fusioniert wird, indem anstelle der Existenzwahrscheinlichkeit des entsprechenden Sensorobjekts eine anhand der Belegungskarte ermittelte Belegungswahrscheinlichkeit für den Bereich oder die Bereiche verwendet wird, an dem oder denen sich das Fusionsobjekt gemäß der Prädiktion aufhält. Solche Situationen, bei denen kein entsprechendes Sensorobjekt für ein Fusionsobjekt von einer Messeinrichtung geliefert wird, treten beispielsweise bei einem Radarsystem auf, wenn ein anderes statisches oder dynamisches Objekt im Umfeld das entsprechende zu dem Fusionsobjekt korrespondierende Objekt zwischenzeitlich verdeckt. Dies bedeutet, dass das Objekt in der Umgebung, welches mit dem Fusionsobjekt korrespondiert, durch die Radarstrahlen nicht erfasst werden kann, weil ein anderes Objekt, beispielsweise ein Brückenpfeiler oder ein auf einer Verkehrsinsel montiertes Verkehrsschild, das Sichtfeld des Radars auf das entsprechende reale Objekt in einem oder mehreren Messzyklen verdeckt. In einer solchen Situation ist eine Sensoreinrichtung häufig nicht in der Lage, für dieses reale Objekt ein Sensorobjekt bereitzustellen, da die Sensoreinrichtung hierfür das reale Objekt selber über einen gewissen Zeitraum erfassen und nachverfolgen können muss, um sicherzugehen, dass ein real existierendes Objekt vorliegt. Die Rohdaten hingegen können bereits häufig früher und zuverlässiger eine Aussage über eine Belegung eines bestimmten Bereichs im Umfeld des Kraftfahrzeugs liefern. Somit wird die Fusionierung dadurch verbessert, dass aus der Belegungskarte bekannte Existenzwahrscheinlichkeiten für Objekte in einem bestimmten Bereich genutzt werden, der mit dem Bereich korrespondiert, in den sich das Fusionsobjekt gemäß der Prädiktion bewegt hat.
  • Bei einer Ausführungsform ist vorgesehen, dass die Fusionierung nach folgender Formel erfolgt: PFusObj(k + 1) = [PFusObj(k)·PGrid(k + 1)]1-γ·[1 – (1 – PFusObj(k))·(1 – PGrid(k + 1))]γ,wobei PGrid(k + 1) die aus der Belegungskarte abgeleitete Belegungswahrscheinlichkeit an dem prädizierten Ort des Fusionsobjekts angibt. Hierbei gibt γ erneut eine Fusionierungskonstante an, die festlegt, ob die Fusionierung eher einer Und-Verknüpfung oder einer Oder-Verknüpfung der Existenzwahrscheinlichkeiten bzw. Belegungswahrscheinlichkeiten ähneln soll.
  • Weiterhin ist es vorteilhaft, eine Klassifizierung der Objekte vorzunehmen. Hierbei erfolgt eine Klassifizierung der Sensorobjekte hinsichtlich ihres Typs als auch vorzugsweise eine Klassifizierung der Fusionsobjekte hinsichtlich ihres Typs. Mit einer Klassifizierung ist ein Objekttyp bzw. eine Objektklasse gemeint. Zu diesen zählen Fußgänger, Fahrradfahrer, Autos, Bäume, Häuser usw. Besonders vorteilhaft wird die Klassifizierung mit Vergleichsdaten vorgenommen, die entweder in den Sensoreinrichtungen vorliegen und/oder in der Auswerteeinrichtung abgelegt sind. Als Vergleichsdaten können beispielsweise Referenzdaten dienen. Für eine Sensoreinrichtung, die als Stereokamera ausgebildet ist, kann beispielsweise ein Höhenverhältnis zu einem Breitenverhältnis eines ermittelten Objekts innerhalb eines definierten Raumbereichs bzw. einer definierten Fläche des Umfelds bestimmt werden. Anhand dieses Verhältnisses kann beispielsweise ermittelt werden, ob es sich um einen Fußgänger handelt. Die Klassifizierung anhand von Referenzdaten kann sowohl in den Sensoreinrichtungen als auch in der Auswerteeinrichtung oder alternativ in den Sensoreinrichtungen oder der Auswerteeinrichtung vorgenommen werden. Die Klassifizierung stellt somit ein mögliches Attribut der Sensorobjekte und auch der Fusionsobjekte dar. Als weitere Attribute werden Vorgaben über die Geometrie der Objekte, wie beispielsweise eine Länge, eine Breite und/oder eine Höhe bestimmt. Weiterhin vorteilhaft ist es, eine Dynamik der Objekte zu bestimmen. Mit der Dynamik der Objekte sind eine Gierrate, eine Geschwindigkeit, eine Orientierung sowie eine Beschleunigung usw. eines Objekts gemeint. Weiterhin zählen zur Dynamik Informationen, die ein fahrzeugbezogenes Fahrverhalten charakterisieren, beispielsweise einen Überholvorgang, einen Ein- und/oder Ausparkvorgang, einen Notbremsvorgang, einen Beschleunigungsvorgang, einen Verzögerungsvorgang, ein Kreuzen einer Fahrbahn von Fußgängern und/oder Radfahrern usw., um nur einige charakterisierende Eigenschaften der Dynamik von Objekten zu nennen.
  • Ebenso wie die Existenzwahrscheinlichkeiten der einzelnen Sensorobjekte können auch weitere Attribute einer Fusionierung unterzogen werden. Eine bevorzugte Ausführungsform sieht daher vor, dass die Sensorobjekte und Fusionsobjekte hinsichtlich weiterer Attribute einem Fusionierungsverfahren unterzogen werden, beispielsweise unter Verwendung eines Kalman-Filters. Dies bedeutet, dass eine Dynamik und Prädiktion beispielsweise mittels eines Kalman-Filters ausgeführt werden kann.
  • Zur weiteren Ausgestaltung der Erfindung ist es vorteilhaft, dass die in der Auswerteeinheit verarbeiteten Informationen zu einer detaillierten Beschreibung des Umfelds zusammengefügt werden. Die Auswerteeinheit kann ein Rechner sein, der Informationen aufnimmt, verarbeitet und die Ergebnisse zusammenfügt. Die zusammengefügten Ergebnisse können vorteilhaft auch grafisch durch die Auswerteeinheit aufbereitet werden, so dass sie auf einer Ausgabeeinheit, z. B. einer Anzeigevorrichtung, darstellbar sind. Die detaillierten Ergebnisse werden vorteilhaft von anderen System genutzt, die auf Umfeldinformationen angewiesen sind, um beispielsweise das Fahrzeug zu lenken, in die Längs- und/oder Querführung und/oder -dynamik einzugreifen, Precrash-Maßnahmen zu ergreifen usw. Daher ist es vorteilhaft, wenn die Umfeldrepräsentation zumindest auch in elektronischer Form bereitgestellt wird.
  • In der Auswerteeinrichtung sind Informationen eines Expertensystems angesiedelt bzw. umgesetzt. Das Expertenwissen, welches zum Teil in den Fusionierungsvorschriften und Formeln enthalten ist, kann zusätzlich weitere Informationen auswerten und nutzbar machen, um die Informationsfusionierung zu verbessern. Bei einer Ausführungsform der Erfindung ist vorgesehen, dass mittels mindestens einer dritten Sensoreinrichtung Informationen über das Umfeld und/oder die mindestens eine Sensoreinrichtung und/oder die mindestens eine zweite Einrichtung erfasst werden und die Sensoreinrichtungsabhängigkeit der Fusionierung abhängig von den Informationen der mindestens einen dritten Sensoreinrichtung variiert wird. Bei der dritten Sensoreinrichtung kann es sich beispielsweise um einen Sensor handeln, der Regen im Umfeld des Kraftfahrzeugs detektiert. Handelt es sich bei einer der Sensoreinrichtungen beispielsweise um eine Stereokamera, so ist es bekannt, dass diese bei starkem Regen hinsichtlich der Objekterfassung gestört ist. Somit ist es vorteilhaft, beispielsweise bei der Fusionierung der Existenzwahrscheinlichkeiten der Sensorobjekte, die von der als Stereokamera ausgebildeten Sensoreinrichtung bereitgestellten Informationen schwächer gewichtet in die Fusionsobjekte zu fusionieren, als dies der Fall ist, wenn trockene Verhältnisse herrschen. Ebenso spielen insbesondere Lichtverhältnisse, beispielsweise eine tief stehende, entgegen der Fahrtrichtung gerichtete Sonneneinstrahlung eine entscheidende Rolle für eine Güte der mittels der Stereokamera empfangenen Daten. Auch andere Sensoreinrichtungen, die andere Messverfahren und Prinzipien verwenden, können von Umfeldeinflüssen abhängig unterschiedlich zuverlässige Messergebnisse liefern. Vorteilhaft ist ferner ein Expertensystem, welches Informationen der Sensoreinrichtungen vergleicht, beispielsweise hinsichtlich ihrer Klassifikation, und zumindest die Daten einzelner Sensorobjekte nur in die Fusionierung einbezieht, wenn diese durch ein Sensorobjekt einer anderen Sensoreinrichtung plausibilisiert und/oder bestätigt werden. Wenn ein Radar beispielsweise einen stationären Gullideckel auf einer Straße erfasst, dann wird diese Information von dem Expertensystem bei einer Ausführungsform nur weitergegeben, wenn die Information von einer Kamera bestätigt wird.
  • Um insbesondere eine objektbasierte Umfelddarstellung, wie sie über die Fusionierungsobjekte bereitgestellt wird, mit der über die Belegungskarte bereitgestellten Umfelddarstellung in konsistenter Weise zu verbessern, ist bei einer Ausführungsform vorgesehen, dass den Fusionierungsobjekten eine Nachverfolgungsinformation zugeordnet wird, die ein Maß für eine Güte einer Nachverfolgung des Fusionsobjekts über mehrere Messzeitpunkte angibt, und für die Fusionsobjekte, die bewegte Objekte repräsentieren und für die die Nachverfolgungsinformation eine ausreichende Nachverfolgungsgüte anzeigt, die im Ausdehnungsbereich des Fusionsobjekts liegenden Zellen der Belegungskarte als belegt gekennzeichnet werden und diesen Zellen die Belegungswahrscheinlichkeit zugeordnet wird, die der Existenzwahrscheinlichkeit des Fusionsobjekts entspricht. Hierdurch wird eine Belegungskartendarstellung geschaffen, in der sowohl die statischen Objekte als auch die dynamisch bewegten Objekte mit einer hohen Existenzwahrscheinlichkeit an den Positionen dargestellt sind, die dem optimalen ”Wissensstand” der Umfelderfassung entsprechen. Es versteht sich, dass die Zellen, denen über die Fusionierungsobjekte eine Belegung und eine Existenzwahrscheinlichkeit bzw. Belegungswahrscheinlichkeit zugewiesen ist, gesondert gekennzeichnet sind, so dass bei einer Aktualisierung der Belegungskarte die Bewegung des Fusionsobjekts berücksichtigt wird.
  • Als besonders vorteilhaft erweist sich hierbei eine Ausführungsform, bei der die Belegungswahrscheinlichkeiten, die bei der Erstellung der Belegungskarte ohne Berücksichtigung der Fusionierungsobjekte ermittelt sind, für die Zellen abgespeichert werden, wenn deren Belegungswahrscheinlichkeit aufgrund eines Fusionierungsobjekts verändert wird. Hat sich das Fusionierungsobjekt aus dem der Zelle zugeordneten Bereich wegbewegt, d. h. entfernt, können dann der Belegungszustand und/oder die Belegungswahrscheinlichkeit der Zelle, die zuvor abgespeichert wurden, erneut der Zelle zugewiesen bzw. in die Fusionierung der neu gewonnenen Informationen der Sensoreinrichtungen miteinbezogen werden.
  • Die mindestens eine erste Sensoreinrichtung umfasst vorzugsweise eine Stereokamera und/oder die mindestens eine zweite Sensoreinrichtung ein Radar oder Lidar (Laser Imaging Detection and Ranging System).
  • Die im Zusammenhang mit dem Verfahren beschriebenen Vorteile gelten entsprechend für die korrespondierenden Vorrichtungsmerkmale der erfindungsgemäßen Vorrichtung.
  • Nachfolgend wird die Erfindung unter Bezugnahme auf eine Zeichnung anhand von Ausführungsbeispielen näher erläutert. Hierbei zeigen:
  • 1 ein schematisches Blockschaltbild einer Vorrichtung zum Bereitstellen einer Umfelddarstellung eines Fahrzeugs;
  • 2 eine schematische Darstellung einer Erläuterung einer kartenbasierten Umfelddarstellung;
  • 3 eine schematische Darstellung zur Beschreibung der Informationsgewinnung mit einem Radarsystem;
  • 4 eine schematische Darstellung zur Erläuterung der Informationsgewinnung mittels einer Stereokamera; und
  • 5 eine schematische Darstellung eines Verfahrens zur Umfelddarstellung.
  • In 1 ist schematisch eine Ausführungsform einer Vorrichtung 1 zum Bereitstellen einer Umfelddarstellung eines Fahrzeugs beschrieben. Die Vorrichtung 1 umfasst eine erste Sensoreinrichtung, die beispielsweise als Radar oder Lidar ausgebildet ist. Eine solche Einrichtung sendet in unterschiedliche Richtungen elektromagnetische Strahlung aus, die an Objekten in der Umgebung zu dem Fahrzeug zurückreflektiert werden. Anhand der Laufzeit und einer eventuellen Frequenzverschiebung können eine Entfernung und eine Relativgeschwindigkeit des Objekts zu dem Fahrzeug ermittelt werden, an dem die erste Sensoreinrichtung 2 angeordnet ist. Die Vorrichtung 1 umfasst ferner eine zweite Sensoreinrichtung 3, die beispielsweise als Stereokamera ausgebildet ist. Eine Stereokamera umfasst zwei zueinander beabstandet angeordnete Bilderfassungseinheiten, die beispielsweise ein linkes und ein rechtes Kamerabild desselben Raumbereichs des Umfelds erfassen. Die Stereokamera berechnet anhand einer Disparität zwischen linkem und rechtem Kamerabild Tiefeninformationen von Objekten, die in den Bildern erkannt werden. Hierdurch ist eine 3D-Rekonstruktion von den in den Bildern erfassten Objekten im Umfeld des Fahrzeugs möglich, an dem die zweite Sensoreinrichtung angeordnet ist. Es versteht sich für den Fachmann, dass die Vorrichtung zum Bereitstellen einer Umfelddarstellung weitere Sensoreinrichtungen umfassen kann, die nach demselben oder unterschiedlichen Messprinzipien das Umfeld des Fahrzeugs erfassen.
  • Die erste Sensoreinrichtung 2 und die zweite Sensoreinrichtung 3 sind so ausgestaltet, dass diese eine Vorauswertung der erfassten Informationen vornehmen und Objekte im Umfeld des Kraftfahrzeugs identifizieren. Die Informationen über die einzelnen detektierten Objekte werden zu einem so genannten Sensorobjekt zusammengefasst, welches die Attribute umfasst, die das entsprechende Objekt charakterisieren. Diese Attribute können beispielsweise die Position, eine Geschwindigkeit, eine Orientierung der Bewegung, eine Ausdehnung in den unterschiedlichen Raumrichtungen usw. umfassen. Ebenso können die einzelnen erkannten Objekte hinsichtlich ihres Objekttyps klassifiziert werden. Dies kann beispielsweise über ein Vergleichen der erfassten Daten mit Referenzdaten erfolgen. Die Sensoreinrichtungen 2, 3 sind ferner so ausgebildet, dass sämtliche Sensorobjekte, d. h. sämtliche erkannte Objekte, mit einer Existenzwahrscheinlichkeit als Attribut versehen werden. Diese Existenzwahrscheinlichkeit ist ein Maß dafür, dass das bei der Umfelderfassung von einer der Sensoreinrichtungen 2, 3 erkannte Objekt auch tatsächlich im Umfeld des Kraftfahrzeugs existiert.
  • Die erste Sensoreinrichtung 2 und die zweite Sensoreinrichtung 3 sind mit einer Auswerteeinrichtung 4 gekoppelt. An diese werden die Informationen über die erfassten Sensorobjekte, vorzugsweise in Form einer Objektliste, übertragen. In der Auswerteeinrichtung werden die erfassten Sensorobjekte der verschiedenen Sensoreinrichtungen 2, 3 zu Fusionsobjekten fusioniert. Hierbei können unterschiedliche Fusionierungsverfahren Anwendung finden. Diese können für die einzelnen Attribute angepasst gewählt werden. Die Auswerteeinrichtung 4 kann beispielsweise ein Expertensystem 5 umfassen, in dem Expertenwissen gespeichert ist, welches es ermöglicht, die in der Fusionierung erzeugten Fusionsobjekte zuverlässiger zu klassifizieren, als dies beispielsweise den einzelnen Sensoreinrichtungen möglich ist. Während beispielsweise anhand einer Stereokamera die räumlichen Abmessungen eines erfassten Objekts häufig gut ermittelt werden können, ist es nicht möglich, dynamische Aussagen, beispielsweise eine Relativgeschwindigkeit zum Fahrzeug, zu ermitteln. Diese Informationen kann jedoch beispielsweise aus einem Radarsystem anhand des Dopplereffekts bestimmt werden. Werden die Informationen über eine räumliche Ausdehnung und eine erfasste Relativgeschwindigkeit gemeinsam mit der bekannten Eigengeschwindigkeit des Fahrzeugs in Relation gesetzt, so können einzelne Objekte, die erkannt sind, zuverlässiger klassifiziert werden. Ein abgestellter Müllcontainer und ein Kleinwagen besitzen beispielsweise ungefähr identische Abmessungen. Anhand einer ermittelten Eigengeschwindigkeit des detektierten Objekts in einem ortsfesten Koordinatensystem ist es jedoch möglich, einen solchen am Straßenverkehr teilnehmenden Kleinwagen von einem abgestellten Container zu unterscheiden.
  • Insbesondere ist die Auswerteeinrichtung ausgebildet, für die von der ersten Sensoreinrichtung 2 und der zweiten Sensoreinrichtung 3 erkannten Sensorobjekte Fusionsobjekte zu ermitteln und insbesondere für diese eine Existenzwahrscheinlichkeit aus den Existenzwahrscheinlichkeiten der Sensorobjekte zu fusionieren. Die Fusion wird sensoreinrichtungsabhängig ausgeführt. Beispielsweise wird ein Gewicht einer Existenzwahrscheinlichkeit eines Sensorobjekts bei der Fusion verringert, wenn über eine dritte Sensoreinrichtung 17, die beispielsweise als Regensensor ausgebildet ist, Regen detektiert ist, der eine Datenerfassung einer Kamera nachteilig beeinflusst (nicht jedoch eine Radarmessung), und das Sensorobjekt von der als Stereokamera ausgebildeten zweiten Sensoreinrichtung 3 bereitgestellt ist. Bei einigen Ausführungsformen kann vorgesehen sein, dass die Sensoreinrichtungen 2, 3 so ausgebildet sind, dass diese als Objekte nur solche erkennen, die sich in einem ortsfesten Koordinatensystem selbst bewegen. Dies bedeutet, dass als Sensorobjekte nur dynamische Objekte detektiert bzw. an die Auswerteeinrichtung 4 übermittelt werden.
  • Um eine verbesserte Umfelddarstellung zu erhalten, liefern die erste Sensoreinrichtung 2 und die zweite Sensoreinrichtung 3 an die Auswerteeinrichtung 4 darüber hinaus Informationen, die es der Auswerteeinrichtung ermöglichen, eine Belegungskarte für das Umfeld des Fahrzeugs zu erstellen. Hierfür wird die Umgebung des Fahrzeugs, d. h. dessen Umfeld, gedanklich in Bereiche unterteilt. Jedem Bereich wird dann eine Zelle zugeordnet. Die einzelnen Zellen bilden dann eine so genannte Belegungskarte. Jeder Zelle wird ein Belegungszustand zugeordnet, der angibt, ob sich in dem der Zelle zugeordneten Bereich des Umfelds ein Objekt befindet (Zustand ”belegt”) oder kein Objekt befindet (Zustand ”frei”). Die Zellen können darüber hinaus den Zustand ”unbekannt” annehmen, wenn es anhand der erfassten Informationen nicht möglich ist, eine Aussage über den entsprechenden Bereich der Umgebung des Fahrzeugs hinsichtlich eines Belegungszustands zu geben.
  • Dem Fachmann sind Verfahren bekannt, wie eine solche Belegungskarte erstellt werden kann. Üblich ist es, dass jeder Zelle mindestens eine Belegungswahrscheinlichkeit zugeordnet ist, die ein statistisches Maß dafür ist, dass die Zelle belegt oder frei ist. Wird die Belegungswahrscheinlichkeit für die Zelle auf einen Wert zwischen Null und Eins begrenzt, so ist es beispielsweise möglich, dem Wert Eins den Zustand ”belegt” und dem Wert Null den Zustand ”frei” zuzuordnen. Da einzelne Messungen nur eine endliche Wahrscheinlichkeit für eine Existenz eines Objekts in einem entsprechenden Raumbereich angeben, ist es vorteilhaft, die Belegungswahrscheinlichkeit einer Zelle in der Belegungskarte dadurch abzusichern oder zu erhärten, dass die Belegungsinformationen unterschiedlicher Messzyklen fusioniert werden. Als Fusionierungsmethoden werden häufig das Bayes-Theorem, die Dempster-Shafer-Theorie oder eine Fuzzy-Logik verwendet. Beispielsweise kann die Belegungswahrscheinlichkeit P i / Beleg(k + 1) einer Zelle i zum Zeitpunkt k + 1 anhand folgender Fusionsformel errechnet werden:
    Figure 00120001
  • Hierbei gibt P i.Sensor / Beleg(k + 1) die durch die Sensoreinrichtung ermittelte Belegungswahrscheinlichkeit für die Zelle i zum Zeitpunkt k + 1 an. Zellen werden mit einer Belegungswahrscheinlichkeit PBeleg = 0,5 initialisiert, was bedeutet, dass der Belegungszustand unbekannt ist.
  • In 2 ist schematische im oberen Teil eine Draufsicht auf eine Straßenszene gezeigt, in der sich ein Kraftfahrzeug 6 auf einer Straße 7 in einer durch einen Pfeil 8 angegebenen Richtung bewegt. Am in Fahrtrichtung linken Fahrbahnrand 9 befinden sich als Bäume und Sträucher ausgebildete Objekte 10. Am in Fahrtrichtung rechten Fahrbahnrand 11 befindet sich eine Leitplanke 12. Ferner befindet sich auf einem Seitenstreifen 13 ein weiteres Objekt 14. Zur Erleichterung einer Orientierung ist ein Koordinatensystem 15 eingezeichnet. Im unteren Teil der Darstellung der 2 ist eine Belegungskarte 16 dargestellt, wie sie von dem Kraftfahrzeug 6 während der Fahrt erfasst worden ist. Eine Belegungswahrscheinlichkeit ist über eine Schraffur angedeutet. Je enger die Schraffur, desto höher ist die Belegungswahrscheinlichkeit. Das Kraftfahrzeug selbst ist auf die Belegungswahrscheinlichkeit 1 gesetzt, obwohl dieses selbstverständlich nicht von den Sensoreinrichtungen erfasst wird. In der Belegungskarte sind die erkannten Gegenstände mit denselben Bezugszeichen wie im oberen Teil der 1 bezeichnet, jedoch mit einem Apostroph versehen.
  • Anhand von 3 und 4 soll erläutert werden, wie die verschiedenen Sensoreinrichtungen Informationen zum Erstellen einer Belegungskarte sowie zum Detektieren von Sensorobjekten erfassen und auswerten.
  • In 3 ist auf der rechten Seite eine fotografische Abbildung 21 eines Bereichs vor einem Kraftfahrzeug, gesehen von dem Kraftfahrzeug aus, dargestellt. Zu erkennen ist eine Fahrbahn 22, auf der sich ein vorausfahrendes Fahrzeug 23 befindet. Ferner ist links der Fahrbahn 22 ein Straßenbaum 24 zu erkennen. In größerem Abstand seitlich links von der Fahrbahn 22 sind ferner abgestellte Fahrzeuge 25 schwach zu erkennen. Auf der linken Seite der 3 sind die von einem Radarsystem erfassten Rohdaten grafisch aufgetragen. Die Ordinate 27 gibt eine Entfernung vor dem Kraftfahrzeug an, während die Abszisse 28 quer zur Fahrtrichtung orientiert ist. In einem Erfassungsbereich 32 des Radars ist über Graustufen eine Signalstärke für jene Signale codiert, die aus dem entsprechenden Raumbereich zum Fahrzeug zurückreflektiert wurden. Je dunkler ein Bereich ist, desto höher ist die gemessene Signalstärke. Gut zu erkennen sind die starken Reflexionssignale 29, die mit dem Straßenbaum 24 korrespondieren, sowie die Reflexionssignale 30, die mit dem vorausfahrenden Fahrzeug 23 korrespondieren. Über eine schwächere Schraffur sind ferner Reflexionssignale 31 zu erkennen, die den abgestellten Fahrzeugen 25 zugeordnet werden können. Diese erfassten Informationen können unmittelbar zum Erstellen einer Belegungskarte durch die Auswerteeinrichtung (vergleiche 1) verwendet werden. Eine Belegungswahrscheinlichkeit ist hierbei durch die Signalstärke der Reflexion angegeben.
  • Die Sensoreinrichtung ist ferner so ausgebildet, dass einzelne Objekte, hier der Straßenbaum 24 und das vorausfahrende Fahrzeug 23, als Objekte im Umfeld des Kraftfahrzeugs identifiziert und gegebenenfalls beispielsweise über eine ermittelte Eigengeschwindigkeit durch Auswertung einer Dopplerverschiebung klassifiziert werden. Eine Klassifizierung kann auch beispielsweise über ein Höhen-Ausdehnungsverhältnis erfolgen.
  • In 4 ist analog die Datenerfassung für eine Stereokamera schematisch dargestellt. Auf der linken Seite ist erneut eine fotografische Abbildung 41 des Bereichs vor dem Kraftfahrzeug dargestellt. Zu erkennen ist eine Fahrbahn 42, mehrere vorausfahrende Fahrzeuge 4345, eine Straßenlaterne 46, einige Straßenbäume 47 sowie eine Hecke oder Mauer 48. Anhand einer Disparität zwischen zwei in einem Abstand zueinander aufgenommenen Aufnahmen wird eine 3D-Rekonstruktion der grafisch erfassten Elemente und Objekte vorgenommen. Hierdurch kann sowohl eine Position der Objekte in der Ebene bestimmt werden, in der sich das Fahrzeug bewegt, als auch eine Höhe der Objekte über dieser Ebene. Auf der rechten Seite der 4 ist eine Draufsicht auf den Raum vor dem Fahrzeug grafisch dargestellt. Die Ordinate 51 kennzeichnet erneut den Abstand vom Fahrzeug in Fahrtrichtung und die Abszisse 52 eine Orientierung quer zur Fahrtrichtung des Fahrzeugs. Über eine Graustufe ist jeweils eine Höhe der rekonstruierten Bildpunkte in dem entsprechenden Bereich angedeutet. Die Höhen korrespondieren mit Höhen der detektierten Objekte gegenüber der Ebene. Zu erkennen sind sowohl die Mauer/Hecke 48' als auch die vorausfahrenden Fahrzeuge 43'45' sowie die Straßenlaterne 46' in der Darstellung zu erkennen sind. Ein Maß für die Existenzwahrscheinlichkeit ist dadurch gegeben, wie viele Bildpunkte innerhalb eines Flächenbereichs, der dem erkannten Objekt zugeordnet wird, erfasst worden sind. Die dargestellten Informationen können somit ebenfalls verwendet werden, um eine Belegungskarte zu verbessern. Ferner ist es möglich, aufgrund von mehreren nacheinander aufgenommenen Stereoabbildungen ein so genanntes Objekttracking durchzuführen. Hierbei werden bei einer Ausführungsform die erkannten Objekte selektiert, die dynamische Objekte sind. Diese werden dann in Form einer Objektliste der Auswerteeinrichtung 4 (vergleiche 1) bereitgestellt.
  • Um die Existenzwahrscheinlichkeit der erkannten Objekte verbessert bestimmen zu können, werden diese von den einzelnen Sensoreinrichtungen über mehrere Messzyklen verfolgt (getrackt). Hierbei wird anhand der Häufigkeit, mit der ein Objekt vorausgehend erkannt wurde, eine Existenzwahrscheinlichkeit aufgrund seiner ”Lebensdauer”, d. h. Erfassungslebensdauer, ermittelt. Je häufiger ein Objekt erkannt wurde, desto höher ist dessen Existenzwahrscheinlichkeit und desto unwahrscheinlicher ist es, dass die Detektion auf ein Messrauschen oder Ähnliches zurückzuführen ist. Zusätzlich werden bei einer Kamera beispielsweise die Anzahl der dem Objekt zugeordneten 3D-Punkte ausgewertet, um eine Existenzwahrscheinlichkeit zu erhalten. Je mehr 3D-Bildpunkte einem Objekt zugeordnet werden, desto größer ist dessen Existenzwahrscheinlichkeit. Hierbei ist jedoch zu berücksichtigen, dass Objekte in großer Entfernung aufgrund der Abbildungsperspektive zwangsläufig nur einen kleineren Bildbereich bedecken und eine Anzahl der Bildpunkte, die diesen zugeordnet werden können, zwangsweise geringer sind als bei einem Objekt, welches sich in unmittelbarer Nähe des Fahrzeugs bei der Detektion befindet. Daher wird die Existenzwahrscheinlichkeit aufgrund der Anzahl der detektierten und dem Objekt zugewiesenen Messpunkte bei einer Ausführungsform in Abhängigkeit eines Abstands von dem Fahrzeug ermittelt. Für andere Sensoreinrichtungen können andere Kriterien herangezogen werden, um eine Existenzwahrscheinlichkeit der detektierten Objekte zu ermitteln. Für Radar- oder Lidarsensoren wird hierzu beispielsweise wie oben bereits erwähnt eine Reflexionssignalstärke herangezogen. Die einzelnen so ermittelten Existenzwahrscheinlichkeiten für die einzelnen Objekte werden in den einzelnen Sensoreinrichtungen vorzugsweise über einen der Fuzzy-Logik entstammenden Ansatz fusioniert, welcher über die nachfolgenden Fusionierungsformeln für die Existenzwahrscheinlichkeit einzelner Objekte, wie sie in den Sensoreinrichtungen ermittelt werden, angegeben sind. Die Gammafaktoren werden verwendet, um eine Verknüpfung zu wählen, die zwischen einer Oder-Verknüpfung (γ = 1) und einer Und-Verknüpfung (γ = 0) angepasst an den entsprechenden Sensortyp ausgewählt werden kann. Die Gammafaktoren werden somit für jeden einzelnen Sensor bzw. jede einzelne Sensoreinrichtung individuell angepasst. Für eine Stereokamera wird somit die Existenzwahrscheinlichkeit eines detektierten Sensorobjekts vorzugsweise nach folgender Formel berechnet: PCameraObj(k) = [PLebensdauer(k)·P3D-Punkte(k)]1-γ·[1 – (1 – PLebensdauer(k))·(1 – P3D-Punkte(k))]γ,wobei PLebensdauer(k) die aus der Anzahl der vorangegangenen Erkennungen abgeleitete Existenzwahrscheinlichkeit und P3D-Punkte, die aus der Anzahl der zum Objekt gehörigen 3D-Punkte ermittelten Existenzwahrscheinlichkeiten angeben. Entsprechend lautet die Fusionierungsformel für ein durch ein Radarsystem erfasstes Sensorobjekt: PRadarObj(k) = [PLebensdauer(k)·PSignalstäike(k)]1-γ·[1 – (1 – PLebensdauer(k))·(1 – PSignalstäike(k))]γ.
  • Hierbei gibt PSignalstärke(k) die aufgrund der Reflexionssignalstärke ermittelte Existenzwahrscheinlichkeit eines Objekts an.
  • Auch wenn die in den einzelnen Sensoreinrichtungen ermittelten Existenzwahrscheinlichkeiten bereits eine hohe Güte aufweisen, lässt sich diese deutlich verbessern, indem in der Auswerteeinrichtung eine Fusionierung der Sensorobjekte zu Fusionsobjekten durchgeführt wird. Dies ist exemplarisch in 5 dargestellt. Eine erste als Radar ausgebildete Sensoreinrichtung 61 und eine als Stereokamera ausgebildete zweite Sensoreinrichtung 62 erfassen das Umfeld. Diese Sensoreinrichtungen 61, 62 liefern sowohl Informationen 63, die für eine kartenbasierte Fusion 64 verwendet werden können, als auch Informationen 65 über erkannte Sensorobjekte für eine objektbasierte Sensorfusion 66. Bei einigen Ausführungsformen umfassen die Informationen 63 für die kartenbasierte Fusion nur solche Informationen, die nicht den für die objektbasierte Fusion 66 zugeführten Sensorobjekte zugeordnet werden können. Entsprechend werden für die objektbasierte Fusion nur solche erkannten Objekte verwendet, welche als dynamische, d. h. selbstbewegte, Objekte erkannte sind.
  • Bei der kartenbasierten Fusion 64 werden die einzelnen Informationen mit Zellen der Belegungskarte assoziiert 67 und anschließend eine Aktualisierung 68 der einzelnen Zellen der Belegungskarte durchgeführt. Hierbei werden insbesondere die bereits zuvor ermittelten Belegungswahrscheinlichkeiten der Zellen mit den neu ermittelten Belegungswahrscheinlichkeiten fusioniert. Man erhält eine Belegungskarte 69 mit Zellen, denen Belegungswahrscheinlichkeiten zugeordnet sind.
  • Bei der objektbasierten Fusion 66 werden die Sensorobjekte, die von den einzelnen Sensoreinrichtungen 61, 62 in Form von Objektlisten geliefert sind, miteinander assoziiert 71 und beispielsweise über ein Kalman-Filter-Tracking 72 nachverfolgt. Für die einzelnen fusionierten Objekte wird abhängig davon, ob ein Sensorobjekt mit einem bereits zuvor erkannten Objekt fusioniert werden kann, eine Initialisierung 73 eines Fusionsobjekts oder eine Aktualisierung 74 des Fusionsobjekts vorgenommen, mit dem das Sensorobjekt assoziiert werden kann. Für Fusionsobjekte, die eine vorgegebene Existenzwahrscheinlichkeit unterschreiten und mit keinem Sensorobjekt assoziiert werden können, findet eine Verwerfung 75 statt.
  • Wird ein Objekt erstmals erfasst, so kann das zugehörige Sensorobjekt mit keinem der zuvor ermittelten Fusionsobjekte assoziiert werden. Somit wird ein neues Fusionsobjekt initialisiert, dessen Existenzwahrscheinlichkeit PFusobj(k) die Existenzwahrscheinlichkeit des entsprechenden Sensorobjekts PSensobj(k) zugewiesen wird: PFusObj(k) = PSenObj(k).
  • Kann ein Sensorobjekt einem Fusionsobjekt zugeordnet werden, so wird die Existenzwahrscheinlichkeit des Fusionsobjekts zum Zeitpunkt k + 1 gemäß folgender Formel berechnet:
    Figure 00170001
  • Hierbei geben δA und δB Gewichtungen für das Sensorobjekt und das Fusionsobjekt an. Hierbei gilt: δA + δB = 1. Die Gewichte werden auf Basis eines aktuellen Sensorvertrauensgrads und einer Abweichung zwischen prädiziertem Fusionsobjekt und gemessenem Sensorobjekt festgelegt. Wird somit eine große Abweichung beim Tracken des Fusionsobjekts festgestellt, so wird die Existenzwahrscheinlichkeit des Sensorobjekts geringer gewichtet. Die Gewichtung des Sensorobjekts wird verringert, wenn äußere Einflüsse für eine Sensoreinrichtung deren Messzuverlässigkeit beeinflusst. Beispielsweise beeinflusst Regen eine Detektionszuverlässigkeit einer Stereokamera nachteilig. Solche Informationen können beispielsweise über die dritte Sensoreinrichtung 1 bei der Vorrichtung 1 nach 1 gewonnen werden. Die Gewichte werden somit aktuell und sensorabhängig angepasst. Der Gammafaktor gibt wie bei den oben angegebenen Fusionsformeln erneut an, ob die beiden fusionierten Existenzwahrscheinlichkeiten eher als Oder- oder als Und-Verknüpfung miteinander fusioniert werden sollen.
  • Kann ein Fusionsobjekt keinem der ermittelten Sensorobjekte zugeordnet werden, so wird bei einer bevorzugten Ausführungsform dessen Existenzwahrscheinlichkeit dadurch aktualisiert, dass anstelle einer durch ein Sensorobjekt gelieferten Existenzwahrscheinlichkeit anhand der Belegungskarte die Belegungswahrscheinlichkeit an dem Ort, an dem sich das Fusionsobjekt gemäß der Prädiktion befinden soll, verwendet wird, um eine Existenzwahrscheinlichkeit abzuleiten. Eine Fusionierung der Existenzwahrscheinlichkeit des Fusionsobjekts erfolgt in einem solchen Fall gemäß folgender Formel: PFusObj(k + 1) = [PFusObj(k)·PGrid(k + 1)]1-γ·[1 – (1 – PFusObj(k))·(1 – PGrid(k + 1))]γ.
  • γ ist erneut eine geeignet zu wählende Fusionierungskonstante. PGrid(k + 1) gibt die aus der Belegungskarte abgeleitete Existenzwahrscheinlichkeit zum Zeitpunkt k + 1, vorzugsweise nach dem Aktualisieren der Belegungskarte, an.
  • Kann ein Fusionsobjekt keinem der Sensorobjekte zugeordnet werden und ist dessen Existenzwahrscheinlichkeit kleiner als ein Vorgabewert, beispielsweise kleiner 0,2, so wird das Fusionsobjekt verworfen, d. h. nicht weiter nachverfolgt (getrackt).
  • Die objektbasierte Fusion 66 liefert somit Objekte, Fusionsobjekte, mit einer sehr zuverlässigen Existenzwahrscheinlichkeit 76.
  • Bei einer Ausführungsform ist vorgesehen, dass die dynamischen Objekte gemäß ihrer Klassifizierung, welche eine Ausdehnung angibt, oder nur punktuell, d. h. in einer Zelle, in die Belegungskarte eingetragen werden und ihnen dort als Belegungswahrscheinlichkeit die ermittelte Existenzwahrscheinlichkeit des entsprechenden Fusionsobjekts zugeordnet wird. Hierdurch erhält man eine sehr stark verbesserte Belegungskarte, in der sowohl die statischen Bereiche als auch die dynamischen Objekte jeweils mit einer hohen Zuverlässigkeit hinsichtlich der Belegungswahrscheinlichkeit bzw. Existenzwahrscheinlichkeit verzeichnet sind.
  • Allgemein wird den übrigen Fahrzeugsystemen eine Umfelddarstellung bereitgestellt, die die dynamischen Objekte und die statischen Bereiche optimal charakterisieren. Hierbei ist es möglich, dass sowohl die Fusionsobjekte mit ihren Existenzwahrscheinlichkeiten als auch eine Belegungskarte mit und/oder ohne darin eingefügte Fusionsobjekte bereitgestellt werden.
  • Es versteht sich, dass die dargestellten Ausführungsformen lediglich beispielhafte Ausführungsformen sind. Insbesondere können mehr Sensoreinrichtungen in die Sensordatenfusion einbezogen werden. Ferner wird angemerkt, dass die Fusionierung der Sensorobjekte jeweils über Fusionsobjekte ausgeführt ist. Dies bietet den Vorteil, dass die einzelnen Sensoreinrichtungen nicht zeitlich synchronisiert ihre Sensordaten zur Verfügung stellen müssen. Andere Ausführungsformen können jedoch sehr wohl vorsehen, dass Sensordaten einzelner unterschiedlicher Sensoreinrichtungen zunächst miteinander assoziiert und fusioniert werden und erst anschließend gegebenenfalls zusätzlich mit einem zuvor ermittelten Fusionsobjekt zu einem aktualisierten Fusionsobjekt fusioniert werden.
  • 1
    Vorrichtung zum Bereitstellen einer Umfelddarstellung
    2
    erste Sensoreinrichtung
    3
    zweite Sensoreinrichtung
    4
    Auswerteeinrichtung
    5
    Expertensystem
    6
    Kraftfahrzeug
    7
    Straße
    8
    Pfeil
    9
    linker Fahrbahnrand (in Fahrtrichtung)
    10
    Objekte
    11
    rechter Fahrbahnrand (in Fahrtrichtung)
    12
    Leitplanke
    13
    Seitenstreifen
    14
    weiteres Objekt
    15
    Koordinatensystem
    16
    Belegungskarte
    17
    dritte Sensoreinrichtung
    21
    Bild
    22
    Fahrbahn
    23
    vorausfahrendes Fahrzeug
    24
    Straßenbaum
    25
    abgestelltes Fahrzeug
    27
    Ordinate
    28
    Abszisse
    29–31
    Reflexionssignale
    32
    Erfassungsbereich
    41
    Abbildung
    42
    Fahrbahn
    43–45
    vorausfahrende Fahrzeuge
    46
    Straßenlaterne
    47
    Baum
    48
    Hecke/Mauer
    51
    Ordinate
    52
    Abszisse
    53
    Randstreifen
    61
    erste Sensoreinrichtung
    62
    zweite Sensoreinrichtung
    63
    Informationen für eine kartenbasierte Fusion
    64
    kartenbasierte Fusion
    65
    Informationen für eine Sensorobjektfusion
    66
    objektbasierte Fusion
    67
    Assoziieren mit Zellen
    68
    Aktualisieren der Zellen
    69
    Belegungskarte
    71
    Assoziation
    72
    Kalman-Filter-Tracking
    73
    Initialisierung
    74
    Aktualisierung
    75
    Verwerfung
    76
    Bereitstellen von Objekten mit Existenzwahrscheinlichkeit
    77
    Bereitstellen einer Umfelddarstellung
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - DE 102006035207 [0003]

Claims (23)

  1. Verfahren zum Bereitstellen einer Umfelddarstellung eines Fahrzeugs mit mindestens einer ersten Sensoreinrichtung (2) und mindestens einer zweiten Sensoreinrichtung (3) sowie einer Auswerteeinrichtung (4), dadurch gekennzeichnet, dass die Sensoreinrichtungen (2, 3) Informationen über in einem Umfeld des Fahrzeugs (6) erkannte Objekte (10, 14) in Form von Sensorobjekten bereitstellen, wobei ein Sensorobjekt ein von der jeweiligen Sensoreinrichtung (2, 3) erkanntes Objekt (10, 14) repräsentiert, und die Sensorobjekte als Attribut mindestens eine Existenzwahrscheinlichkeit des repräsentierten Objekts (10, 14) umfassen und die von der mindestens einen ersten Sensoreinrichtung (2) und von der mindestens einen zweiten Sensoreinrichtung (3) erkannten Sensorobjekte einer Objektfusion (66) unterzogen werden, bei der Fusionsobjekte erzeugt werden, denen mindestens eine Existenzwahrscheinlichkeit als ein Attribut zugeordnet wird, wobei die Existenzwahrscheinlichkeiten der Fusionsobjekte basierend auf den Existenzwahrscheinlichkeiten der Sensorobjekte fusioniert werden, wobei die Fusionierung der Existenzwahrscheinlichkeit eines der Sensorobjekte jeweils abhängig von der jeweiligen Sensoreinrichtung (2, 3) erfolgt, von der das entsprechende Sensorobjekt bereitgestellt ist.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass für die zum Zeitpunkt k ermittelten Fusionsobjekte eine Prädiktion auf einen Zeitpunkt k + 1 vorgenommen wird und die zum Zeitpunkt k + 1 ermittelten Sensorobjekte mit den Fusionsobjekten assoziiert werden, mit deren Prädiktion sie gemäß Assoziationsvorgaben übereinstimmen, wobei die Existenzwahrscheinlichkeit des Fusionsobjekts zum Zeitpunkt k + 1 anhand der Existenzwahrscheinlichkeit des Fusionsobjekts zum Zeitpunkt k und der Existenzwahrscheinlichkeit zum Zeitpunkt k + 1 des Sensorobjekts fusioniert wird.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass die Existenzwahrscheinlichkeit eines Fusionsobjekts, das mit einem Sensorobjekt assoziiert werden kann, gemäß folgender Formel berechnet wird:
    Figure 00210001
    wobei PFusObj(k) die Existenzwahrscheinlichkeit des Fusionsobjekt zum Zeitpunkt k, PsenObj(k) die Existenzwahrscheinlichkeit des Sensorobjekts zum Zeitpunkt k, γ eine sensoreinrichtungsunabhängige Fusionierungskonstante und δa und δb sensoreinrichtungsabhängige Fusionierungskonstanten angeben, wobei gilt: δa+ δb = 1.
  4. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass für Sensorobjekte, die mit keinem der bekannten Fusionsobjekte assoziiert werden können, die Fusionierung ein Erzeugen eines neuen Fusionsobjekts umfasst, welchem als Existenzwahrscheinlichkeit die Existenzwahrscheinlichkeit des Sensorobjekts zugewiesen wird.
  5. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Sensoreinrichtungen Informationen bereitstellen, anhand derer eine Belegungskarte (16, 69) erstellt wird, wobei das Umfeld in Bereiche unterteilt wird und jedem Bereich jeweils eine Zelle zugeordnet wird, wobei die Zellen die Belegungskarte darstellen und für die Zellen Belegungswahrscheinlichkeiten ermittelt werden, die ein Maß für eine Existenz eines Objekts in dem der Zelle zugeordneten Bereich des Umfelds angeben.
  6. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass für Fusionsobjekte, die zu einem Messzeitpunkt k + 1 keinem der Sensorobjekte zugeordnet werden können, die Existenzwahrscheinlichkeit fusioniert wird, indem anstelle der Existenzwahrscheinlichkeit eines entsprechenden Sensorobjekts eine anhand der Belegungskarte (16, 69) ermittelte Belegungswahrscheinlichkeit für den Bereich oder die Bereiche verwendet wird, an dem oder denen sich das Fusionsobjekt gemäß der Prädiktion aufhält.
  7. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Fusionierung nach folgender Formel erfolgt: PFusObj(k + 1) = [PFusObj(k)·PGrid(k + 1)]1-γ·[1 – (1 – PFusObj(k))·(1 – PGrid(k + 1))]γ.wobei PGrid(k + 1) die aus der Belegungskarte abgeleitete Belegungswahrscheinlichkeit an dem prädizierten Ort des Fusionsobjekts angibt.
  8. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Sensorobjekte hinsichtlich ihres Typs klassifiziert werden.
  9. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Sensorobjekte und Fusionsobjekte hinsichtlich weiterer Attribute einem Fusionierungsverfahren unterzogen werden, beispielsweise unter Verwendung eines Kalman-Filters.
  10. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass mittels mindestens einer dritten Sensoreinrichtung (17) Informationen über das Umfeld und oder die mindestens eine erste Sensoreinrichtung (2) und/oder die mindestens eine zweite Sensoreinrichtung (3) erfasst werden und die die Sensoreinrichtungsabhängigkeit der Fusionierung abhängig von den Informationen der mindestens einen dritten Sensoreinrichtung (17) variiert wird.
  11. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass den Fusionierungsobjekten eine Nachverfolgungsinformation zugeordnet wird, die ein Maß für eine Güte einer Nachverfolgung des Fusionsobjekts über mehrere Messzeitpunkte angibt, und für die Fusionsobjekte, die bewegte Objekte repräsentieren und für die die Nachverfolgungsinformation eine ausreichende Nachverfolgungsgüte anzeigt, die im Ausdehnungsbereich des Fusionsobjekts liegenden Zellen der Belegungskarte als belegt gekennzeichnet werden und diesen Zellen die Belegungswahrscheinlichkeit zugeordnet wird, die der Existenzwahrscheinlichkeit des Fusionsobjekts entspricht.
  12. Vorrichtung (1) zum Bereitstellen einer Umfelddarstellung eines Fahrzeugs (6), umfassend mindestens eine erste Sensoreinrichtung (2) und mindestens eine zweite Sensoreinrichtung (3), die das Umfeld erfassen, sowie eine Auswerteeinrichtung (4), die mit der mindestens einen ersten Sensoreinrichtung (2) und der mindestens einen zweiten Sensoreinrichtung (3) gekoppelt ist, dadurch gekennzeichnet, dass die Sensoreinrichtungen (2, 3) ausgebildet sind, Informationen über jeweils erfasste Objekte (9, 14) in Form von Sensorobjekten bereitstellen, die als Attribut mindestens eine Existenzwahrscheinlichkeit für das erfasste Objekt (10, 14) umfassen, und die Auswerteeinrichtung (4) ausgebildet ist, die von der mindestens einen ersten Sensoreinrichtung (2) und von der mindestens einen zweiten Sensoreinrichtung (3) erkannten Sensorobjekte einer Objektfusion zu unterziehen, bei der Fusionsobjekte erzeugt werden, denen mindestens eine Existenzwahrscheinlichkeit als ein Attribut zugeordnet ist, wobei die Fusion einer Existenzwahrscheinlichkeit des Fusionsobjekts basierend auf der Existenzwahrscheinlichkeit der Sensorobjekte ausgeführt ist und abhängig von der jeweiligen Sensoreinrichtung (2, 3) erfolgt, von der das Sensorobjekt bereitgestellt ist.
  13. Vorrichtung (1) nach Anspruch 12, dadurch gekennzeichnet, dass die Auswerteeinrichtung (4) eine Prädiktionseinheit umfasst, die für zum Zeitpunkt k ermittelte Fusionsobjekte eine Prädiktion auf einen Zeitpunkt k + 1 vornimmt, die die Auswerteeinrichtung (4), die zum Zeitpunkt k + 1 ermittelten Sensorobjekte mit den Fusionsobjekten assoziiert, mit deren Prädiktion die Sensorobjekte gemäß Assoziationsvorgaben übereinstimmen, und wobei die Existenzwahrscheinlichkeit des Fusionsobjekts zum Zeitpunkt k + 1 anhand der Existenzwahrscheinlichkeit des Fusionsobjekts zum Zeitpunkt k und der Existenzwahrscheinlichkeit zum Zeitpunkt k + 1 des Sensorobjekts fusioniert wird.
  14. Vorrichtung (1) nach Anspruch 13, dadurch gekennzeichnet, dass die Auswerteeinrichtung (4) ausgebildet ist, die Existenzwahrscheinlichkeit eines Fusionsobjekts, das mit einem Sensorobjekt assoziiert werden kann, gemäß folgender Formel zu berechnen:
    Figure 00240001
    wobei PFusObj(k) die Existenzwahrscheinlichkeit des Fusionsobjekt zum Zeitpunkt k, PSenObj(k) die Existenzwahrscheinlichkeit des Sensorobjekts zum Zeitpunkt k, γ eine sensoreinrichtungsunabhängige Fusionierungskonstante und δa und δb sensoreinrichtungsabhängige Fusionierungskonstanten angeben, wobei gilt: δa + δb = 1.
  15. Vorrichtung (1) nach einem der Ansprüche 12 bis 14, dadurch gekennzeichnet, dass die Auswerteeinrichtung (4) ausgebildet ist, für Sensorobjekte, die mit keinem der bekannten Fusionsobjekte assoziiert werden können, bei der Fusionierung ein neues Fusionsobjekts zu erzeugen, welches als Existenzwahrscheinlichkeit die Existenzwahrscheinlichkeit des Sensorobjekts zugewiesen wird.
  16. Vorrichtung (1) nach einem der Ansprüche 12 bis 15, dadurch gekennzeichnet, dass die Auswerteeinrichtung (4) eine Kartenerzeugungseinrichtung umfasst und die Sensoreinrichtungen (2, 3) ausgebildet sind, Informationen bereitstellen, anhand derer die Kartenerzeugungseinrichtung eine Belegungskarte (16, 69) erstellen kann, wobei das Umfeld in Bereiche unterteilt ist und jedem Bereich jeweils eine Zelle zugeordnet ist und die Zellen die Belegungskarte (16, 69) darstellen, und die Kartenerzeugungseinrichtung ausgebildet ist, für die Zellen Belegungswahrscheinlichkeiten zu ermitteln, die ein Maß für eine Existenz eines Objekts (10, 14) in dem der Zelle zugeordneten Bereich des Umfelds angeben.
  17. Vorrichtung (1) nach Anspruch 16, dadurch gekennzeichnet, dass die Auswerteeinrichtung ausgebildet ist, dass für Fusionsobjekte, die zu einem Messzeitpunkt k + 1 keinem der Sensorobjekte zugeordnet werden können, die Existenzwahrscheinlichkeit fusioniert wird, indem anstelle der Existenzwahrscheinlichkeit eines entsprechenden Sensorobjekts eine anhand der Belegungskarte (16, 69) ermittelte Belegungswahrscheinlichkeit für den Bereich oder die Bereiche verwendet wird, an dem sich das Fusionsobjekt gemäß der Prädiktion aufhält.
  18. Vorrichtung (1) nach Anspruch 17, dadurch gekennzeichnet, dass die Fusionierung nach folgender Formel erfolgt: PFusObj(k + 1) = [PFusObj(k)·PGrid(k + 1)]1-γ·[1 – (1 – PFusObj(k))·(1 – PGrid(k + 1))]γ.wobei PGrid(k + 1) die aus der Belegungskarte abgeleitete Belegungswahrscheinlichkeit an dem prädizierten Ort des Fusionsobjekts angibt.
  19. Vorrichtung (1) nach einem der Ansprüche 12 bis 18, dadurch gekennzeichnet, dass in mindestens einer der Sensoreinrichtungen (2, 3) und oder der Auswerteeinrichtung (4) Vergleichsinformationen vorliegen, anhand derer die Sensorobjekte hinsichtlich ihres Typs klassifizierbar sind.
  20. Vorrichtung (1) nach einem der Ansprüche 12 bis 19, dadurch gekennzeichnet, dass die Auswerteeinrichtung (4) ausgebildet ist, die Sensorobjekte und Fusionsobjekte hinsichtlich weiterer Attribute einem Fusionierungsverfahren zu unterziehen, beispielsweise unter Verwendung eines Kalman-Filters.
  21. Vorrichtung (1) nach einem der Ansprüche 12 bis 20, dadurch gekennzeichnet, dass mindestens eine dritte Sensoreinrichtung (17) mit der Auswerteeinrichtung gekoppelt ist, die Informationen über das Umfeld und/oder die mindestens eine erste Sensoreinrichtung (2) und/oder die mindestens eine zweite Sensoreinrichtung (3) erfasst, und die Auswerteeinrichtung (4) ausgebildet ist, die Sensoreinrichtungsabhängigkeit der Fusionierung abhängig von den Informationen der mindestens einen dritten Sensoreinrichtung (17) zu variieren.
  22. Vorrichtung (1) nach einem der Ansprüche 12 bis 21, dadurch gekennzeichnet, dass die Auswerteeinrichtung (4) ausgebildet ist, den Fusionierungsobjekten eine Nachverfolgungsinformation zuzuordnen, die ein Maß für eine Güte einer Nachverfolgung des Fusionsobjekts über mehrere Messzeitpunkte angibt, und für die Fusionsobjekte, die die bewegte Objekte repräsentieren und für die die Nachverfolgungsinformation eine ausreichende Nachverfolgungsgüte anzeigt, die im Ausdehnungsbereich des Fusionsobjekts liegenden Zellen der Belegungskarte (16, 69) als belegt zu kennzeichnen und diesen Zellen die Belegungswahrscheinlichkeit zuzuordnen, die der Existenzwahrscheinlichkeit des Fusionsobjekts entspricht.
  23. Vorrichtung (1) nach einem der Ansprüche 12 bis 22, dadurch gekennzeichnet, dass die mindesten eine erste Sensoreinrichtung (2) eine Stereokamera umfasst und/oder die mindestens eine zweite Sensoreinrichtung (3) ein Radar oder Lidar (Laser Imaging Detection and Ranging System) umfasst.
DE102009006113.4A 2008-03-03 2009-01-26 Vorrichtung und Verfahren zur Sensorfusion mit dynamischen Objekten Active DE102009006113B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102009006113.4A DE102009006113B4 (de) 2008-03-03 2009-01-26 Vorrichtung und Verfahren zur Sensorfusion mit dynamischen Objekten

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102008012197 2008-03-03
DE102008012197.5 2008-03-03
DE102009006113.4A DE102009006113B4 (de) 2008-03-03 2009-01-26 Vorrichtung und Verfahren zur Sensorfusion mit dynamischen Objekten

Publications (2)

Publication Number Publication Date
DE102009006113A1 true DE102009006113A1 (de) 2009-09-10
DE102009006113B4 DE102009006113B4 (de) 2019-03-28

Family

ID=40936482

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102009006113.4A Active DE102009006113B4 (de) 2008-03-03 2009-01-26 Vorrichtung und Verfahren zur Sensorfusion mit dynamischen Objekten

Country Status (1)

Country Link
DE (1) DE102009006113B4 (de)

Cited By (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010023199A1 (de) 2010-06-09 2011-02-10 Daimler Ag Bilderfassungsvorrichtung für ein Fahrzeug und Verfahren zum Betrieb einer Bilderfassungsvorrichtung
DE102010006828A1 (de) * 2010-02-03 2011-08-04 Volkswagen AG, 38440 Verfahren zur automatischen Erstellung eines Modells der Umgebung eines Fahrzeugs sowie Fahrerassistenzsystem und Fahrzeug
DE102010003375A1 (de) * 2010-03-29 2011-09-29 Bayerische Motoren Werke Aktiengesellschaft Umfeldbewertungssystem in einem Fahrzeug mit Sensormitteln zur Erfassung von Objekten im Umfeld des Fahrzeuges
DE102012220191A1 (de) 2012-11-06 2014-05-08 Robert Bosch Gmbh Verfahren zur Unterstützung eines Fahrers bei der Querführung eines Fahrzeugs
WO2014131666A1 (de) * 2013-02-27 2014-09-04 Bayerische Motoren Werke Aktiengesellschaft Gridbasierte vorhersage der position eines objektes
DE102013008828A1 (de) 2013-05-24 2014-11-27 Volkswagen Aktiengesellschaft Verfahren zur Erstellung eines Modells eines Umfelds eines Fahrzeugs sowie entsprechend ausgestaltetes Fahrerassistenzsystem
FR3005923A1 (fr) * 2013-05-27 2014-11-28 Bosch Gmbh Robert Procede pour assister un conducteur et appareil de commande pour sa mise en oeuvre
WO2014198484A1 (de) * 2013-06-14 2014-12-18 Robert Bosch Gmbh Assistenzvorrichtung und verfahren zum unterstützen eines fahrers des fahrzeugs
CN104816697A (zh) * 2014-02-05 2015-08-05 丰田自动车株式会社 防碰撞控制装置
CN102614003B (zh) * 2011-01-31 2015-10-28 柯惠Lp公司 用于施夹器的锁紧凸轮驱动器及钳夹组件
WO2015166156A1 (fr) * 2014-04-30 2015-11-05 Renault S.A.S. Dispositif de signalisation d'objets a un module de navigation de vehicule equipe de ce dispositif
CN105334514A (zh) * 2015-10-19 2016-02-17 上海无线电设备研究所 一种有轨电车雷达视频复合预警防撞系统及其方法
DE102014220687A1 (de) * 2014-10-13 2016-04-14 Continental Automotive Gmbh Kommunikationsvorrichtung für ein Fahrzeug und Verfahren zum Kommunizieren
DE102014223363A1 (de) * 2014-11-17 2016-05-19 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Lokalisation eines Kraftfahrzeugs in einer ortsfesten Referenzkarte
EP3082067A1 (de) * 2015-04-17 2016-10-19 Toyota Jidosha Kabushiki Kaisha Stereoskopische objekterkennungsvorrichtung und stereoskopisches objekterkennungsverfahren
DE102015107391A1 (de) * 2015-05-12 2016-11-17 Valeo Schalter Und Sensoren Gmbh Verfahren zum Steuern einer Funktionseinrichtung eines Kraftfahrzeugs anhand von fusionierten Sensordaten, Steuereinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102015107392A1 (de) * 2015-05-12 2016-11-17 Valeo Schalter Und Sensoren Gmbh Verfahren zum Erfassen eines Objekts in einer Umgebung eines Kraftfahrzeugs anhand von fusionierten Sensordaten, Steuereinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
CN107031646A (zh) * 2015-09-11 2017-08-11 罗伯特·博世有限公司 用于确定在处于停车场内的机动车的环境中是否存在对象的方法和设备
DE102016205661A1 (de) * 2016-04-06 2017-10-12 Continental Teves Ag & Co. Ohg Verfahren zum Vermeiden einer Kollision und Fahrzeug
DE102016212716A1 (de) * 2016-07-13 2018-01-18 Conti Temic Microelectronic Gmbh Steuervorrichtung und verfahren
CN107813821A (zh) * 2016-09-12 2018-03-20 北京行易道科技有限公司 预警方法及装置
FR3056531A1 (fr) * 2016-09-29 2018-03-30 Valeo Schalter Und Sensoren Gmbh Detection d'obstacles pour vehicule automobile
FR3056530A1 (fr) * 2016-09-29 2018-03-30 Valeo Schalter Und Sensoren Gmbh Detection d'obstacles par fusion d'objets pour vehicule automobile
DE102016220581A1 (de) * 2016-10-20 2018-04-26 Continental Teves Ag & Co. Ohg Verfahren und vorrichtung zur bestimmung eines umfeldmodells
DE102016122193A1 (de) * 2016-11-18 2018-05-24 Valeo Schalter Und Sensoren Gmbh Funktionsüberwachung einer Sensoreinrichtung eines Kraftfahrzeugs
EP3351965A1 (de) * 2017-01-19 2018-07-25 Honeywell International Inc. Qualitätsmetrik für peilungssensor in einer abgeschwächten visuellen umgebung für ein situationsbewusstseinssystem
FR3062836A1 (fr) * 2017-02-10 2018-08-17 Valeo Schalter Und Sensoren Gmbh Procede et systeme de determination d'un indice de confiance associe a un objet d'un environnement d'un vehicule
CN108569295A (zh) * 2017-03-08 2018-09-25 奥迪股份公司 用于环境检测的方法和系统
DE102018004125A1 (de) 2018-05-23 2018-11-22 Daimler Ag Verfahren zum Analysieren eines Objekts in einer Umgebung eines Kraftfahrzeugs
DE102017210830A1 (de) * 2017-06-27 2018-12-27 Bayerische Motoren Werke Aktiengesellschaft Erzeugen und Verwenden einer Randbebauungskarte
DE102017116017A1 (de) 2017-07-17 2019-01-17 Valeo Schalter Und Sensoren Gmbh Kraftfahrzeug-Sensorvorrichtung mit mehreren Sensoreinheiten und mehreren neuronalen Netzen zum Erzeugen einer kombinierten Repräsentation einer Umgebung
DE102017116016A1 (de) 2017-07-17 2019-01-17 Valeo Schalter Und Sensoren Gmbh Kraftfahrzeug-Sensorvorrichtung mit mehreren Sensoreinheiten und einem neuronalen Netz zum Erzeugen einer integrierten Repräsentation einer Umgebung
WO2019029969A1 (de) 2017-08-10 2019-02-14 Siemens Mobility GmbH Sensoriell gesteuertes anpassen von odometrischen messparametern an wetterbedingungen
DE102017220269A1 (de) * 2017-11-14 2019-05-16 Continental Automotive Gmbh Fahrerassistenzsystem, fahrzeug und verfahren zum nachverfolgen von objekten
WO2019120392A1 (de) 2017-12-20 2019-06-27 Conti Temic Microelectronic Gmbh Verfahren und vorrichtung zur fusion von messungen aus unterschiedlichen informationsquellen
WO2019196986A1 (de) * 2018-04-09 2019-10-17 Bayerische Motoren Werke Aktiengesellschaft Fusionssystem zur fusion von umfeldinformation für ein kraftfahrzeug
FR3080590A1 (fr) * 2018-04-25 2019-11-01 Psa Automobiles Sa Procede et systeme de detection d’obstacle dans l’environnement d’un vehicule automobile
CN110494866A (zh) * 2017-04-10 2019-11-22 罗伯特·博世有限公司 用于对象识别的多个传感器的数据的融合
WO2020025674A1 (de) * 2018-08-01 2020-02-06 Carl Zeiss Ag Sensorfusion mit wechselseitiger korrespondenzanalyse von sensordaten
DE102018220024B3 (de) * 2018-11-22 2020-03-12 Audi Ag Verfahren zur Fusion von Sensordaten von mehreren Sensoren und Fusionsvorrichtung zum Fusionieren von Sensordaten von mehreren Sensoren
CN111507372A (zh) * 2019-01-30 2020-08-07 斯特拉德视觉公司 方法和装置
DE102019201930A1 (de) * 2019-02-14 2020-08-20 Continental Automotive Gmbh Verfahren zum Erzeugen eines Umfeldmodells
DE102019123483A1 (de) * 2019-09-02 2021-03-04 Audi Ag Verfahren sowie Kraftfahrzeug-Steuereinheit zum Erfassen einer Umgebung eines Kraftfahrzeugs durch Fusionieren von Sensordaten auf Punktwolkenebene
DE102019216387A1 (de) * 2019-10-24 2021-04-29 Zf Friedrichshafen Ag Flurfördergerät mit Ultrabreitband-Radar
DE102019132363A1 (de) * 2019-11-28 2021-06-02 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Betreiben einer Umgebungserfassungsvorrichtung mit einer gridbasierten Auswertung und mit einer Fusionierung, sowie Umgebungserfassungsvorrichtung
DE102021003297A1 (de) 2021-06-25 2021-09-02 Daimler Ag Verfahren zur Objektverfolgung und Fusionierung von mindestens zwei Sensorsignalen, Steuervorrichtung zur Durchführung eines solchen Verfahrens, Fusionsvorrichtung mit einer solchen Steuervorrichtung und Kraftfahrzeug mit einer solchen Fusionsvorrichtung
CN114511978A (zh) * 2021-12-27 2022-05-17 浙江华锐捷技术有限公司 一种入侵预警方法、装置、车辆和计算机可读存储介质
DE112012006868B4 (de) 2012-09-03 2022-09-22 Toyota Jidosha Kabushiki Kaisha Kollisionsbestimmungsvorrichtung und Kollisionsbestimmungsverfahren
DE102021113111A1 (de) 2021-04-12 2022-10-13 Conti Temic Microelectronic Gmbh Verfahren zur Kalibrierung von Sensorinformationen eines Fahrzeugs sowie Fahrassistenzsystem
DE102022211052A1 (de) 2022-10-19 2024-04-25 Robert Bosch Gesellschaft mit beschränkter Haftung Verarbeitung von Messdaten aus einer Multi-Sensor-Anordnung mit Plausibilitätsprüfung
DE102023100418A1 (de) 2023-01-10 2024-07-11 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Nachverfolgung des lateralen Abstands eines Objektes

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006035207A1 (de) 2006-07-29 2008-01-31 Volkswagen Ag Fahrzeug-Objekterfassungsvorrichtung

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2718252B1 (fr) 1994-03-30 1996-06-14 Onera (Off Nat Aerospatiale) Procédé de poursuite de mobiles.
DE59809476D1 (de) 1997-11-03 2003-10-09 Volkswagen Ag Autonomes Fahrzeug und Verfahren zur Steuerung eines autonomen Fahrzeuges
DE102005009146A1 (de) 2005-03-01 2006-09-21 Robert Bosch Gmbh Fahrerassistenzsystem mit mehreren Assistenzfunktionen

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006035207A1 (de) 2006-07-29 2008-01-31 Volkswagen Ag Fahrzeug-Objekterfassungsvorrichtung

Cited By (78)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010006828A1 (de) * 2010-02-03 2011-08-04 Volkswagen AG, 38440 Verfahren zur automatischen Erstellung eines Modells der Umgebung eines Fahrzeugs sowie Fahrerassistenzsystem und Fahrzeug
DE102010006828B4 (de) 2010-02-03 2021-07-08 Volkswagen Ag Verfahren zur automatischen Erstellung eines Modells der Umgebung eines Fahrzeugs sowie Fahrerassistenzsystem und Fahrzeug
DE102010003375A1 (de) * 2010-03-29 2011-09-29 Bayerische Motoren Werke Aktiengesellschaft Umfeldbewertungssystem in einem Fahrzeug mit Sensormitteln zur Erfassung von Objekten im Umfeld des Fahrzeuges
DE102010003375B4 (de) 2010-03-29 2021-07-22 Bayerische Motoren Werke Aktiengesellschaft Umfeldbewertungssystem in einem Fahrzeug mit Sensormitteln zur Erfassung von Objekten im Umfeld des Fahrzeuges
DE102010023199A1 (de) 2010-06-09 2011-02-10 Daimler Ag Bilderfassungsvorrichtung für ein Fahrzeug und Verfahren zum Betrieb einer Bilderfassungsvorrichtung
CN102614003B (zh) * 2011-01-31 2015-10-28 柯惠Lp公司 用于施夹器的锁紧凸轮驱动器及钳夹组件
DE112012006868B4 (de) 2012-09-03 2022-09-22 Toyota Jidosha Kabushiki Kaisha Kollisionsbestimmungsvorrichtung und Kollisionsbestimmungsverfahren
DE102012220191A1 (de) 2012-11-06 2014-05-08 Robert Bosch Gmbh Verfahren zur Unterstützung eines Fahrers bei der Querführung eines Fahrzeugs
WO2014131666A1 (de) * 2013-02-27 2014-09-04 Bayerische Motoren Werke Aktiengesellschaft Gridbasierte vorhersage der position eines objektes
DE102013008828A1 (de) 2013-05-24 2014-11-27 Volkswagen Aktiengesellschaft Verfahren zur Erstellung eines Modells eines Umfelds eines Fahrzeugs sowie entsprechend ausgestaltetes Fahrerassistenzsystem
FR3005923A1 (fr) * 2013-05-27 2014-11-28 Bosch Gmbh Robert Procede pour assister un conducteur et appareil de commande pour sa mise en oeuvre
WO2014198484A1 (de) * 2013-06-14 2014-12-18 Robert Bosch Gmbh Assistenzvorrichtung und verfahren zum unterstützen eines fahrers des fahrzeugs
CN104816697A (zh) * 2014-02-05 2015-08-05 丰田自动车株式会社 防碰撞控制装置
US9481365B2 (en) 2014-02-05 2016-11-01 Toyota Jidosha Kabushiki Kaisha Collision prevention control apparatus
WO2015166156A1 (fr) * 2014-04-30 2015-11-05 Renault S.A.S. Dispositif de signalisation d'objets a un module de navigation de vehicule equipe de ce dispositif
FR3020616A1 (fr) * 2014-04-30 2015-11-06 Renault Sas Dispositif de signalisation d'objets a un module de navigation de vehicule equipe de ce dispositif
US10035508B2 (en) 2014-04-30 2018-07-31 Renault S.A.S. Device for signalling objects to a navigation module of a vehicle equipped with this device
JP2017521745A (ja) * 2014-04-30 2017-08-03 ルノー エス.ア.エス. 車両のナビゲーションモジュールに対象物の存在を知らせる車載装置
DE102014220687A1 (de) * 2014-10-13 2016-04-14 Continental Automotive Gmbh Kommunikationsvorrichtung für ein Fahrzeug und Verfahren zum Kommunizieren
DE102014223363A1 (de) * 2014-11-17 2016-05-19 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Lokalisation eines Kraftfahrzeugs in einer ortsfesten Referenzkarte
DE102014223363B4 (de) * 2014-11-17 2021-04-29 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Lokalisation eines Kraftfahrzeugs in einer ortsfesten Referenzkarte
US10203409B2 (en) 2014-11-17 2019-02-12 Volkswagen Aktiengesellschaft Method and device for the localization of a vehicle from a fixed reference map
CN106060517A (zh) * 2015-04-17 2016-10-26 丰田自动车株式会社 立体物检测装置以及立体物检测方法
EP3082067A1 (de) * 2015-04-17 2016-10-19 Toyota Jidosha Kabushiki Kaisha Stereoskopische objekterkennungsvorrichtung und stereoskopisches objekterkennungsverfahren
DE102015107392A1 (de) * 2015-05-12 2016-11-17 Valeo Schalter Und Sensoren Gmbh Verfahren zum Erfassen eines Objekts in einer Umgebung eines Kraftfahrzeugs anhand von fusionierten Sensordaten, Steuereinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102015107391A1 (de) * 2015-05-12 2016-11-17 Valeo Schalter Und Sensoren Gmbh Verfahren zum Steuern einer Funktionseinrichtung eines Kraftfahrzeugs anhand von fusionierten Sensordaten, Steuereinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
CN107031646A (zh) * 2015-09-11 2017-08-11 罗伯特·博世有限公司 用于确定在处于停车场内的机动车的环境中是否存在对象的方法和设备
CN105334514A (zh) * 2015-10-19 2016-02-17 上海无线电设备研究所 一种有轨电车雷达视频复合预警防撞系统及其方法
DE102016205661A1 (de) * 2016-04-06 2017-10-12 Continental Teves Ag & Co. Ohg Verfahren zum Vermeiden einer Kollision und Fahrzeug
DE102016205661B4 (de) 2016-04-06 2024-10-02 Continental Automotive Technologies GmbH Verfahren zum Vermeiden einer Kollision und Fahrzeug
DE102016212716A1 (de) * 2016-07-13 2018-01-18 Conti Temic Microelectronic Gmbh Steuervorrichtung und verfahren
CN107813821A (zh) * 2016-09-12 2018-03-20 北京行易道科技有限公司 预警方法及装置
CN107813821B (zh) * 2016-09-12 2024-05-31 北京行易道科技有限公司 预警方法及装置
WO2018060380A1 (fr) * 2016-09-29 2018-04-05 Valeo Schalter Und Sensoren Gmbh Détection d'obstacles par fusion d'objets pour véhicule automobile
WO2018060381A1 (fr) * 2016-09-29 2018-04-05 Valeo Schalter Und Sensoren Gmbh Détection d'obstacles pour véhicule automobile
FR3056531A1 (fr) * 2016-09-29 2018-03-30 Valeo Schalter Und Sensoren Gmbh Detection d'obstacles pour vehicule automobile
FR3056530A1 (fr) * 2016-09-29 2018-03-30 Valeo Schalter Und Sensoren Gmbh Detection d'obstacles par fusion d'objets pour vehicule automobile
DE102016220581A1 (de) * 2016-10-20 2018-04-26 Continental Teves Ag & Co. Ohg Verfahren und vorrichtung zur bestimmung eines umfeldmodells
DE102016122193A1 (de) * 2016-11-18 2018-05-24 Valeo Schalter Und Sensoren Gmbh Funktionsüberwachung einer Sensoreinrichtung eines Kraftfahrzeugs
EP3351965A1 (de) * 2017-01-19 2018-07-25 Honeywell International Inc. Qualitätsmetrik für peilungssensor in einer abgeschwächten visuellen umgebung für ein situationsbewusstseinssystem
FR3062836A1 (fr) * 2017-02-10 2018-08-17 Valeo Schalter Und Sensoren Gmbh Procede et systeme de determination d'un indice de confiance associe a un objet d'un environnement d'un vehicule
CN108569295A (zh) * 2017-03-08 2018-09-25 奥迪股份公司 用于环境检测的方法和系统
US11009602B2 (en) 2017-03-08 2021-05-18 Audi Ag Method and system for environment detection
DE102017203838B4 (de) 2017-03-08 2022-03-17 Audi Ag Verfahren und System zur Umfelderfassung
CN108569295B (zh) * 2017-03-08 2021-11-23 奥迪股份公司 用于环境检测的方法和系统
CN110494866B (zh) * 2017-04-10 2024-02-09 罗伯特·博世有限公司 用于对象识别的多个传感器的数据的融合
CN110494866A (zh) * 2017-04-10 2019-11-22 罗伯特·博世有限公司 用于对象识别的多个传感器的数据的融合
DE102017210830A1 (de) * 2017-06-27 2018-12-27 Bayerische Motoren Werke Aktiengesellschaft Erzeugen und Verwenden einer Randbebauungskarte
DE102017116017A1 (de) 2017-07-17 2019-01-17 Valeo Schalter Und Sensoren Gmbh Kraftfahrzeug-Sensorvorrichtung mit mehreren Sensoreinheiten und mehreren neuronalen Netzen zum Erzeugen einer kombinierten Repräsentation einer Umgebung
DE102017116016A1 (de) 2017-07-17 2019-01-17 Valeo Schalter Und Sensoren Gmbh Kraftfahrzeug-Sensorvorrichtung mit mehreren Sensoreinheiten und einem neuronalen Netz zum Erzeugen einer integrierten Repräsentation einer Umgebung
WO2019029969A1 (de) 2017-08-10 2019-02-14 Siemens Mobility GmbH Sensoriell gesteuertes anpassen von odometrischen messparametern an wetterbedingungen
DE102017220269A1 (de) * 2017-11-14 2019-05-16 Continental Automotive Gmbh Fahrerassistenzsystem, fahrzeug und verfahren zum nachverfolgen von objekten
WO2019120392A1 (de) 2017-12-20 2019-06-27 Conti Temic Microelectronic Gmbh Verfahren und vorrichtung zur fusion von messungen aus unterschiedlichen informationsquellen
US11521027B2 (en) 2017-12-20 2022-12-06 Conti Temic Microelectronic Gmbh Method and device for fusion of measurements from different information sources
DE102017223325A1 (de) * 2017-12-20 2019-06-27 Conti Temic Microelectronic Gmbh Verfahren und Vorrichtung zur Fusion von Messungen aus unterschiedlichen Informationsquellen
WO2019196986A1 (de) * 2018-04-09 2019-10-17 Bayerische Motoren Werke Aktiengesellschaft Fusionssystem zur fusion von umfeldinformation für ein kraftfahrzeug
US11836987B2 (en) 2018-04-09 2023-12-05 Bayerische Motoren Werke Aktiengesellschaft Fusion system for fusing environment information for a motor vehicle
FR3080590A1 (fr) * 2018-04-25 2019-11-01 Psa Automobiles Sa Procede et systeme de detection d’obstacle dans l’environnement d’un vehicule automobile
DE102018004125A1 (de) 2018-05-23 2018-11-22 Daimler Ag Verfahren zum Analysieren eines Objekts in einer Umgebung eines Kraftfahrzeugs
US12000923B2 (en) * 2018-08-01 2024-06-04 Carl Zeiss Ag Sensor fusion with alternating correspondence analysis of sensor data
WO2020025674A1 (de) * 2018-08-01 2020-02-06 Carl Zeiss Ag Sensorfusion mit wechselseitiger korrespondenzanalyse von sensordaten
US20210319271A1 (en) * 2018-08-01 2021-10-14 Carl Zeiss Ag Sensor fusion with alternating correspondence analysis of sensor data
CN112585499A (zh) * 2018-08-01 2021-03-30 卡尔蔡司股份公司 利用传感器数据的交互对应分析实现传感器融合
DE102018220024B3 (de) * 2018-11-22 2020-03-12 Audi Ag Verfahren zur Fusion von Sensordaten von mehreren Sensoren und Fusionsvorrichtung zum Fusionieren von Sensordaten von mehreren Sensoren
CN111507372A (zh) * 2019-01-30 2020-08-07 斯特拉德视觉公司 方法和装置
CN111507372B (zh) * 2019-01-30 2023-10-20 斯特拉德视觉公司 在执行协同驾驶中的多智能体传感器的方法和装置
DE102019201930A1 (de) * 2019-02-14 2020-08-20 Continental Automotive Gmbh Verfahren zum Erzeugen eines Umfeldmodells
DE102019123483B4 (de) 2019-09-02 2021-12-09 Audi Ag Verfahren sowie Kraftfahrzeug-Steuereinheit zum Erfassen einer Umgebung eines Kraftfahrzeugs durch Fusionieren von Sensordaten auf Punktwolkenebene
DE102019123483A1 (de) * 2019-09-02 2021-03-04 Audi Ag Verfahren sowie Kraftfahrzeug-Steuereinheit zum Erfassen einer Umgebung eines Kraftfahrzeugs durch Fusionieren von Sensordaten auf Punktwolkenebene
DE102019216387A1 (de) * 2019-10-24 2021-04-29 Zf Friedrichshafen Ag Flurfördergerät mit Ultrabreitband-Radar
WO2021104805A1 (de) 2019-11-28 2021-06-03 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum betreiben einer umgebungserfassungsvorrichtung mit einer gridbasierten auswertung und mit einer fusionierung, sowie umgebungserfassungsvorrichtung
DE102019132363A1 (de) * 2019-11-28 2021-06-02 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Betreiben einer Umgebungserfassungsvorrichtung mit einer gridbasierten Auswertung und mit einer Fusionierung, sowie Umgebungserfassungsvorrichtung
DE102021113111A1 (de) 2021-04-12 2022-10-13 Conti Temic Microelectronic Gmbh Verfahren zur Kalibrierung von Sensorinformationen eines Fahrzeugs sowie Fahrassistenzsystem
DE102021003297A1 (de) 2021-06-25 2021-09-02 Daimler Ag Verfahren zur Objektverfolgung und Fusionierung von mindestens zwei Sensorsignalen, Steuervorrichtung zur Durchführung eines solchen Verfahrens, Fusionsvorrichtung mit einer solchen Steuervorrichtung und Kraftfahrzeug mit einer solchen Fusionsvorrichtung
CN114511978A (zh) * 2021-12-27 2022-05-17 浙江华锐捷技术有限公司 一种入侵预警方法、装置、车辆和计算机可读存储介质
CN114511978B (zh) * 2021-12-27 2024-02-20 浙江华锐捷技术有限公司 一种入侵预警方法、装置、车辆和计算机可读存储介质
DE102022211052A1 (de) 2022-10-19 2024-04-25 Robert Bosch Gesellschaft mit beschränkter Haftung Verarbeitung von Messdaten aus einer Multi-Sensor-Anordnung mit Plausibilitätsprüfung
DE102023100418A1 (de) 2023-01-10 2024-07-11 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Nachverfolgung des lateralen Abstands eines Objektes

Also Published As

Publication number Publication date
DE102009006113B4 (de) 2019-03-28

Similar Documents

Publication Publication Date Title
DE102009006113B4 (de) Vorrichtung und Verfahren zur Sensorfusion mit dynamischen Objekten
DE102014223363B4 (de) Verfahren und Vorrichtung zur Lokalisation eines Kraftfahrzeugs in einer ortsfesten Referenzkarte
EP1298454B1 (de) Verfahren zur Erkennung und Verfolgung von Objekten
DE102005002760B4 (de) Vorrichtung und Verfahren zur Unfallvermeidung bei Kraftfahrzeugen
EP1475764B1 (de) Verfahren und Vorrichtung zur Ermittlung der Wahrscheinlichkeit für eine Kollision eines Fahrzeugs mit einem Gegenstand
DE102011119767A1 (de) Erscheinungsbild-gestützte vereinigung von kamera- undentfernungssensordaten für mehrere objekte
EP3627386A1 (de) Verfahren und vorrichtung zum bereitstellen eines umfeldabbildes eines umfeldes einer mobilen einrichtung und kraftfahrzeug mit einer solchen vorrichtung
DE102008041679A1 (de) Vorrichtung und Verfahren zur erinnerungsbasierten Umfelderkennung
DE102011111440A1 (de) Verfahren zur Umgebungsrepräsentation
DE102018122374B4 (de) Verfahren zum Bestimmen eines ein Kraftfahrzeug umgebenden Freiraums, Computerprogrammprodukt, Freiraumbestimmungseinrichtung und Kraftfahrzeug
DE102017111468A1 (de) Fahrzeugsystem und Verfahren zum Bestimmen, ob ein Fahrzeuginsasse ein fahrzeugexternes Objekt wahrgenommen hat
DE102009031319A1 (de) Verfahren und System zur Bestimmung einer Fahrzeugklasse
WO2015010901A1 (de) Effizientes bereitstellen von belegungsinformationen für das umfeld eines fahrzeugs
DE102014212216A1 (de) Verfahren und Fahrerassistenzsystem zur Erfassung eines Fahrzeugumfel-des
DE102017211387A1 (de) System und Verfahren zum automatisierten Manövrieren eines Ego-Fahrzeugs
EP1298012B1 (de) Verfahren zur Erkennung und Verfolgung von Objekten
DE102016220450A1 (de) Vorrichtung, Fortbewegungsmittel und Verfahren zur Abschätzung einer Kollisionswahrscheinlichkeit zwischen einem Fortbewegungsmittel und einem Umgebungsobjekt
DE102013214631A1 (de) Effizientes Bereitstellen von Belegungsinformationen für das Umfeld eines Fahrzeugs
DE102017205245A1 (de) Freibereichsfusion für Fahrerassistenzsysteme
DE102019208507A1 (de) Verfahren zur Bestimmung eines Überlappungsgrades eines Objektes mit einem Fahrstreifen
DE102022000849A1 (de) Verfahren zur Erzeugung einer Umgebungsrepräsentation für ein Fahrzeug
DE102021207609A1 (de) Verfahren zur Kennzeichnung eines Bewegungsweges
WO2022129266A1 (de) Verfahren zur detektion zumindest eines objektes einer umgebung mittels reflexionssignalen eines radar-sensorsystems
DE102016119592A1 (de) Verfahren zum Erkennen von Objekten in einem Umgebungsbereich eines Kraftfahrzeugs unter Berücksichtigung von Sensordaten im infraroten Wellenlängenbereich, Objekterkennungsvorrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102020212306A1 (de) Verfahren zur Tunnelfrüherkennung

Legal Events

Date Code Title Description
OR8 Request for search as to paragraph 43 lit. 1 sentence 1 patent law
R163 Identified publications notified
R163 Identified publications notified

Effective date: 20130802

R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R082 Change of representative