DE102015107392A1 - Verfahren zum Erfassen eines Objekts in einer Umgebung eines Kraftfahrzeugs anhand von fusionierten Sensordaten, Steuereinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug - Google Patents

Verfahren zum Erfassen eines Objekts in einer Umgebung eines Kraftfahrzeugs anhand von fusionierten Sensordaten, Steuereinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug Download PDF

Info

Publication number
DE102015107392A1
DE102015107392A1 DE102015107392.7A DE102015107392A DE102015107392A1 DE 102015107392 A1 DE102015107392 A1 DE 102015107392A1 DE 102015107392 A DE102015107392 A DE 102015107392A DE 102015107392 A1 DE102015107392 A1 DE 102015107392A1
Authority
DE
Germany
Prior art keywords
sensor data
sensors
motor vehicle
control device
assistance system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102015107392.7A
Other languages
English (en)
Inventor
Axel Klekamp
Petr Krejci
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Valeo Schalter und Sensoren GmbH
Original Assignee
Valeo Schalter und Sensoren GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Schalter und Sensoren GmbH filed Critical Valeo Schalter und Sensoren GmbH
Priority to DE102015107392.7A priority Critical patent/DE102015107392A1/de
Publication of DE102015107392A1 publication Critical patent/DE102015107392A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
    • G01S13/726Multiple target tracking
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9324Alternative operation using ultrasonic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Abstract

Die Erfindung betrifft ein Verfahren zum Erfassen eines Objekts (6) in einer Umgebung (5) eines Kraftfahrzeugs (1), bei welchem während eines aktuellen Detektionszyklus mittels einer Steuereinrichtung (3) von zumindest zwei Sensoren (4) eines Fahrerassistenzsystems (2) jeweils Sensordaten empfangen werden (S1), welche das Objekt (6) beschreiben, die jeweiligen empfangenen Sensordaten mittels der Steuereinrichtung (3) zu fusionierten Sensordaten fusioniert werden (S2) und anhand der fusionierten Sensordaten das Objekt (6) in der Umgebung (5) erfasst wird, wobei mittels der Steuereinrichtung (3) zusätzlich zu den fusionierten Sensordaten Historiendaten bereitgestellt werden (S3), welche Informationen zu dem Objekt (6) umfassen, die während zumindest eines vorhergehenden Detektionszyklus bestimmt wurden, und das Objekt (6) zusätzlich anhand der Historiendaten erfasst wird (S4).

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zum Erfassen eines Objekts in einer Umgebung eines Kraftfahrzeugs, bei welchem während eines aktuellen Detektionszyklus mittels einer Steuereinrichtung von zumindest zwei Sensoren eines Fahrerassistenzsystems jeweils Sensordaten empfangen werden, welche das Objekt beschreiben, die jeweiligen empfangenen Sensordaten mittels der Steuereinrichtung zu fusionierten Sensordaten fusioniert werden und anhand der fusionierten Sensordaten das Objekt in der Umgebung erfasst wird. Die Erfindung betrifft außerdem eine Steuereinrichtung für ein Fahrerassistenzsystem eines Kraftfahrzeugs. Zudem betrifft die vorliegende Erfindung ein Fahrerassistenzsystem mit einer derartigen Steuereinrichtung. Schließlich betrifft die Erfindung ein Kraftfahrzeug mit einem solchen Fahrerassistenzsystem.
  • Verfahren zum Erfassen beziehungsweise Erkennen von Objekten in der Umgebung eines Kraftfahrzeugs sind aus dem Stand der Technik bekannt. Hierzu wird üblicherweise ein Fahrerassistenzsystem verwendet, das eine Mehrzahl von Sensoren beziehungsweise Umfeldsensoren umfasst, wobei mit der Mehrzahl von Sensoren eine Umgebung des Kraftfahrzeugs erfasst werden kann. Die Sensoren können beispielsweise Radarsensoren, Lasersensoren, Kameras und/oder Ultraschallsensoren sein. Weiterhin ist es aus dem Stand der Technik bekannt, die Sensordaten von zumindest zwei Sensoren eines Fahrerassistenzsystems zu fusionieren. Dabei werden die Sensordaten von unterschiedlichen Sensoren, welche die gleiche Information – beispielsweise das gleiche Objekt – beschreiben, miteinander verknüpft. Die Verknüpfung kann anhand der Rohdaten der Sensoren erfolgen. Die Verknüpfung kann auch auf Merkmalsebene oder auf Objektebene durchgeführt werden. Die Sensordatenfusion auf Objektebene hat den Vorteil, dass hier eine geringe Datenübertragungsrate zur Übertragung der Daten von den Sensoren zu einer Steuereinrichtung des Fahrerassistenzsystems benötigt wird. Die Verfolgung des Objekts, das auch als tracking bezeichnet wird, wird dabei üblicherweise von jedem der Sensoren durchgeführt, wodurch die optimale Vorhersage für das jeweilige Sensormodell getroffen werden kann. Die Fusionierung des jeweiligen trackings, das von den unterschiedlichen Sensoren stammt, wird als track-to-track Fusion bezeichnet.
  • Wenn die Objekte von unterschiedlichen Sensoren mittels der sogenannten track-to-track Fusion bearbeitet werden, soll eine zusätzliche Verfolgung der fusionierten Sensordaten vermieden werden, da die Sensordaten, die als Eingang für die Fusion genutzt werden, üblicherweise gefiltert sind. Weiterhin soll eine Filterung von bereits gefilterten Daten vermieden werden, da einerseits zu viele nützliche Daten aufgrund der nicht optimalen Filterung verloren gehen und andererseits die Latenzzeit deutlich ansteigt.
  • In diesem Zusammenhang beschreibt die US 2006/0220912 A1 eine Vorrichtung zum Erkennen einer Fahrspur für ein Kraftfahrzeug. Die Vorrichtung umfasst zwei Sensoren, mit denen die Fahrbahn vor dem Kraftfahrzeug erfasst werden kann. Zudem umfasst die Vorrichtung einen Prozessor, welcher die Grenzen der Fahrspur anhand der Sensordaten der zwei Sensoren schätzen kann. Dabei kann es auch vorgesehen sein, dass für die Sensordaten der zwei Sensoren jeweils ein Konfidenz-Wert bestimmt wird.
  • Darüber hinaus beschreibt die US 2011/0025548 A1 ein Verfahren zur Nachverfolgung von Objekten, die von Sensoren eines Kraftfahrzeugs erfasst werden. Hierzu werden die Sensordaten von mehreren Sensoren des Kraftfahrzeugs fusioniert. Es kann auch vorgesehen sein, dass ein Alter oder eine Plausibilität der Objekte, die anhand der fusionierten Sensordaten erkannt wurden, bestimmt werden.
  • Ferner ist in der DE 10 2008 001 672 A1 ein Verfahren zur Fusion von Zustandsdaten erfasster Sensorobjekte mehrerer, insbesondere verschiedenartiger Objektdetektionssensoren eines Kraftfahrzeugs. Die Zustandsdaten können beispielsweise den Ort, die Geschwindigkeit und/oder die Beschleunigung des Sensorobjekts beschreiben. Anhand der Zustandsdaten kann Umfeldmodell für ein Fahrerassistenzsystem des Kraftfahrzeugs bereitgestellt werden. Dabei können auch historische Assoziationsinformationen bezüglich der Zustandsdaten berücksichtigt werden.
  • Zudem ist aus der DE 10 2006 046 843 A1 ein Verfahren zum Erkennen eines Umfelds für ein Kraftfahrzeug bekannt. Hierbei werden Daten zum Erkennen von Objekten in dem Umfeld und Daten zum Erkennen von freien Gebieten in dem Umfeld gemeinsam verarbeitet. Zudem wird eine Wahrscheinlichkeit dafür, dass mindestens ein Gebiet des Umfelds frei ist, bereitgestellt. Es kann vorgesehen sein, dass die Sensordaten von unterschiedlichen Sensoren fusioniert werden. Hierzu kann die Dempster-Shafer-Theorie genutzt werden. Dabei kann es auch vorgesehen sein, dass Komfortfunktionen und/oder Sicherheitsfunktion eines Fahrerassistenzsystems angesteuert werden.
  • Es ist Aufgabe der vorliegenden Erfindung, eine Lösung aufzuzeigen, wie das Erkennen eines Objekts in einer Umgebung eines Kraftfahrzeugs, insbesondere bei einer Nutzung von Sensordatenfusion, einfacher und zugleich zuverlässiger erfolgen kann.
  • Diese Aufgabe wird erfindungsgemäß durch ein Verfahren, durch eine Steuereinrichtung, durch ein Fahrerassistenzsystem sowie durch ein Kraftfahrzeug mit den Merkmalen gemäß den jeweiligen unabhängigen Patentansprüchen gelöst. Vorteilhafte Ausführungen der Erfindung sind Gegenstand der abhängigen Patentansprüche, der Beschreibung und der Figuren.
  • Ein erfindungsgemäßes Verfahren dient zum Erfassen eines Objekts in einer Umgebung eines Kraftfahrzeugs. Hierbei werden während eines aktuellen Detektionszyklus mittels einer Steuereinrichtung von zumindest zwei Sensoren eines Fahrerassistenzsystems jeweils Sensordaten empfangen, welche das Objekt beschreiben. Zudem werden die jeweiligen empfangenen Sensordaten mittels der Steuereinrichtung zu fusionierten Sensordaten fusioniert und anhand der fusionierten Sensordaten wird das Objekt in der Umgebung erfasst. Ferner werden mittels der Steuereinrichtung zusätzlich zu den fusionierten Sensordaten Historiendaten bereitgestellt, welche Informationen zu dem Objekt umfassen, die während zumindest eines vorhergehenden Detektionszyklus bestimmt wurden, und das Objekt wird zusätzlich anhand der Historiendaten erfasst.
  • Das Fahrerassistenzsystem des Kraftfahrzeugs umfasst zumindest zwei Sensoren. Insbesondere umfasst das Fahrerassistenzsystem eine Mehrzahl von Sensoren, mit denen beispielsweise die Umgebung beziehungsweise ein Umgebungsbereich des Kraftfahrzeugs erfasst werden kann. Die Sensoren basieren insbesondere auf unterschiedlichen Sensorprinzipien. Die Sensoren können nach dem Echolotprinzip arbeiten oder als optische Sensoren ausgebildet sein. Die Sensoren können beispielsweise Radarsensoren, Lasersensoren, Kameras, Ultraschallsensoren oder dergleichen sein. Mit jedem der Sensoren können Sensordaten bereitgestellt werden. Diese Sensordaten werden der Steuereinrichtung zugeführt. Hierzu können die Sensoren zur Datenübertragung mit der Steuereinrichtung verbunden sein. Mit der Steuereinrichtung werden insbesondere zeitlich aufeinanderfolgenden Detektionszyklen durchgeführt. Hierbei können die jeweiligen Sensordaten von zwei unterschiedlichen der Sensoren mittels der Steuereinrichtung fusioniert werden. Die Sensordatenfusion kann anhand der Rohdaten, die von den Sensoren bereitgestellt werden, erfolgen. Die Sensordatenfusion kann auch auf Merkmalsebene oder auf Objektebene durchgeführt werden. Als Ergebnis der Fusion der Sensordaten liefert die Steuereinrichtung fusionierte Sensordaten.
  • Zusätzlich zu den fusionierten Sensordaten werden mittels der Steuereinrichtung Historiendaten bereitgestellt. Diese Historiendaten liefern Informationen zu dem Objekt, die während eines oder mehrerer vorhergehender Detektionszyklen bestimmt wurden. Anhand der Historiendaten kann die Steuereinrichtung die Historie des Objekts überprüfen. Dabei ist es insbesondere vorgesehen, dass Informationen bezüglich des Objekts aus den zuvor erfassten Sensordaten extrahiert werden. Das einzelne Objekt wird dabei in jedem Sensor zeitlich verfolgt. Eine auf ähnlichen Algorithmen basierende zeitliche Verfolgung des fusionierten Objektes ist in der Steuereinrichtung zu vermeiden, da eine doppelte zeitliche Filterung (in jedem Sensor und im Fusionsalgorithmus) zu erhöhten Latenzen und zu einem Informationsverlust führen kann. Jede zeitliche oder sonstige Sensordatenfilterung verringert die zur Verfügung stehende gemessene Information über das Objekt. Beispielsweise kann überprüft werden, ob ein Objekt, das zu einem vorhergehenden Detektionszyklus erkannt wurde, in dem aktuellen Detektionszyklus weiterhin erkannt wird. Auf diese Weise kann das Objekt in Abhängigkeit von der Zeit nachverfolgt werden. Somit kann die Erkennung des Objekts stabiler und zuverlässiger erfolgen. Zudem kann die Sensordatenfusion genutzt werden, ohne dass die Latenzzeiten beziehungsweise die Verarbeitungszeiten ansteigen.
  • Bevorzugt beschreiben die Historiendaten jeweilige Sensordaten, die mit den zumindest zwei Sensoren während des zumindest einen vorhergehenden Detektionszyklus bestimmt wurden. Auf diese Weise können Informationen zu dem Objekt bereitgestellt werden, die mittels der zumindest zwei Sensoren des Fahrerassistenzsystems zu zeitlich vorhergehenden Detektionszyklen bestimmt wurden. Ferner können die Historiendaten die fusionierten Sensordaten beschreiben, die während eines vorhergehenden Detektionszyklus bestimmt wurden. Diese fusionierten Sensordaten stammen von den jeweiligen Sensordaten. Auf diese Weise kann die Historie eines erkannten Objekts bestimmt werden.
  • Weiterhin ist es vorteilhaft, wenn die Historiendaten jeweilige ungefilterte Sensordaten beschreiben, die mit den zumindest zwei Sensoren während des zumindest einen vorhergehenden Detektionszyklus bestimmt wurden. Es werden also keine Filter wie beispielsweise Kalman-Filter oder dergleichen verwendet. Somit kann im Vergleich zu aus dem Stand der Technik bekannten Verfahren vermieden werden, dass eine Filterung der Sensordaten, insbesondere bei der Verfolgung von Objekten, durchgeführt wird. Beispielsweise ist es gemäß der Lehre der DE 10 2008 001 672 A1 vorgesehen, dass die Sensordaten entsprechend gefiltert werden. Dies hat beispielsweise zur Folge, dass die Zusammenhänge beziehungsweise Assoziationen zwischen den Sensordaten für unterschiedliche Kombinationen berücksichtigt werden müssen.
  • Gemäß einer weiteren Ausführungsform wird anhand der Historiendaten überprüft, ob ein Objekt, das während des zumindest einen vorhergehenden Detektionszyklus erfasst wurde, in dem aktuellen Detektionszyklus erkannt wird. Auf diese Weise kann insbesondere überprüft werden, ob das Objekt noch in der Umgebung des Kraftfahrzeugs vorhanden ist. Dies kann insbesondere während eines Prä-Fusionsschrittes erfolgen. Weiterhin kann mit einer höheren Wahrscheinlichkeit davon ausgegangen werden, dass das erfasste Objekt in der Umgebung vorhanden ist, wenn es bereits während eines früheren Detektionszyklus erkannt wurde. Auf diese Weise kann die Objekterkennung stabiler und zuverlässiger erfolgen.
  • In einer Ausgestaltung werden die Historiendaten für die jeweiligen Sensordaten der zumindest zwei Sensoren, anhand der das Objekt erfasst wurde, eine Kennung umfassen und überprüft wird, ob die Kennungen in dem aktuellen Detektionszyklus anhand der Sensordaten der zumindest zwei Sensoren bestimmt. Mit anderen Worten wird jedem Objekt, das mit einem der zumindest zwei Sensoren erfasst wurde, eine Kennung beziehungsweise ID zugeordnet. Diese ID wird im jeweiligen Sensor dem Objekt zugeordnet. Dem Objekt, das anhand der fusionierten Sensordaten erkannt wurde, kann zudem eine Kennung zugeordnet werden. In der Fusion wird jedem Objekt, ob mit einem Objekt von mindestens einem weiteren Sensor fusioniert oder nicht, eine neue eineindeutige Kennung zugewiesen. Dies ist notwendig, da die verschiedenen Sensoren unabhängig voneinander Kennungen vergeben und es nicht auszuschließen ist, dass die zumindest zwei Sensoren dieselbe Kennung für unterschiedliche Objekte verwenden. Die Kennung ist solange vorhanden, solange das Objekt auch mit dem jeweiligen Sensor erfasst beziehungsweise erkannt wird. Eine Auswertung der jeweiligen Sensordaten, die während des zumindest einen vorhergehenden Detektionszyklus bestimmt wurden, ist somit nicht notwendig. Somit kann ferner überprüft werden, von welchem der Sensoren und von wie vielen der Sensoren das Objekt bereits erkannt wurde. Im fusionierten Objekt können dazu die ID und der Sensor für jedes Sensordatenobjekt gespeichert werden, das zum fusionierten Objekt beiträgt.
  • In einer weiteren Ausführungsform umfassen die Historiendaten einen Bestimmungszeitpunkt, der beschreibt, während welchem vorhergehenden Detektionszyklus das Objekt anhand der fusionierten Sensordaten erfasst wurde. Mit anderen Worten kann das Alter des Objekts, das anhand der fusionierten Sensordaten erfasst wurde, in den Historiendaten gespeichert werden. Somit kann bestimmt werden, wie lange das Objekt bereits in der Umgebung des Kraftfahrzeugs erfasst beziehungsweise erkannt wurde. Dadurch kann das Alter des fusionierten Objekts bestimmt werden. Hierbei wird insbesondere angegeben, wie lange das Objekt von den zumindest zwei Sensoren detektiert wurde. Dies kann als unabhängige Bestätigung genutzt werden, dass das Objekt vorhanden ist. Weiterhin kann aus dieser Information eine Existenzwahrscheinlichkeit für das Objekt abgeleitet werden.
  • Bevorzugt wird bei jedem durchgeführten Detektionszyklus ein Zählerstand eines ersten Zählers erhöht und der Bestimmungszeitpunkt wird anhand des Zählerstands des ersten Zählers und einer aktuellen Zeit bestimmt. Zu dem Bestimmen des Alters des Objekts, das anhand der fusionierten Sensordaten erkannt wurde, kann der erster Zähler verwendet werden. Der Zählerstand des ersten Zählers kann die Detektionszyklen beschreiben, bei denen das Objekt anhand der fusionierten Sensordaten erkannt wurde. Das Alter beziehungsweise der Bestimmungszeitpunkt kann dadurch ermittelt werden, dass zu dem Zählerstand des ersten Zählers die aktuelle Zeit hinzu addiert wird. Der erste Zähler kann den Zeitraum bestimmen, für den das aus mindestens zwei Sensordaten fusionierte Objekt als fusioniertes Objekt existiert.
  • In einer weiteren Ausführungsform beschreiben die Historiendaten einen Zählerstand eines zweiten Zählers, wobei der Zählerstand des zweiten Zählers erhöht wird, falls das Erfassen des Objekts mittels eines der zumindest zwei Sensoren während eines durchgeführten Detektionszyklus unterbleibt. Mit dem zweiten Zähler kann also bestimmt werden, wie lange das Objekt nicht von allen beteiligten Sensoren detektiert wird. In einem Detektionszyklus kann eine Detektion von einem beteiligten Sensor fehlen, dies kann über den zweiten Zähler erfasst werden. Des Weiteren kann mit dem zweiten Zähler die Zeit bestimmt, wie lange das fusionierte Objekt von mindestens einem der in der Fusion beteiligten Sensoren detektiert wurde. Dieser zweite Zähler kann wieder auf null gesetzt werden, wenn das fusionierte Objekt wieder von allen an der Fusion dieses Objekts beteiligten Sensoren detektiert wird. Damit kann ein zeitweiliger Ausfall der Detektion von einem Sensor erfasst werden. Erst wenn das einmal fusionierte Objekt von allen beteiligten Sensoren nicht mehr detektiert wird, kann es zum Beispiel gelöscht werden. Vorübergehende Messausfälle können detektiert und als Information zur Berechnung, beispielsweise einer Existenzwahrscheinlichkeit, weitergegeben werden, führen aber nicht automatisch zur sofortigen Löschung des fusionierten Objekts.
  • Zudem ist es vorteilhaft, wenn anhand der Historiendaten eine Existenzwahrscheinlichkeit bestimmt wird, welche eine Wahrscheinlichkeit des Vorhandenseins des Objekts in der Umgebung beschreibt. Die Historiendaten stammen von dem Sensordaten der zumindest zwei Sensoren des Fahrerassistenzsystems. Damit sind die Historiendaten unabhängig voneinander bestimmt. Auf diese Weise kann die Existenzwahrscheinlichkeit für das Objekt zuverlässig bestimmt werden.
  • Eine erfindungsgemäße Steuereinrichtung für ein Fahrerassistenzsystem eines Kraftfahrzeugs ist zum Durchführen eines erfindungsgemäßen Verfahrens ausgelegt ist. Die Steuereinrichtung kann beispielsweise durch ein elektronisches Steuergerät (ECU – Electronic Control Unit) des Kraftfahrzeugs gebildet sein.
  • Ein erfindungsgemäßes Fahrerassistenzsystem für ein Kraftfahrzeug umfasst eine erfindungsgemäße Steuereinrichtung. Das Fahrerassistenzsystem kann ein Bremsassistent, ein Spurhalteassistent, ein Spurwechselassistent, ein Abstandsregeltempomat oder dergleichen sein.
  • Bevorzugt umfasst das Fahrerassistenzsystem als die zumindest zwei Sensoren einen Radarsensor, einen Lasersensor, eine Kamera und/oder einen Ultraschallsensor. Das Fahrerassistenzsystem kann auch zumindest zwei gleiche Sensoren aufweisen. Dies können beispielsweise mehrere Radarsensoren oder mehrere Lasersensoren sein. Die zumindest zwei Sensoren können verteilt an dem Kraftfahrzeug angeordnet sein. Die jeweiligen Sensoren können zur Datenübertragung – beispielsweise über einen Fahrzeugdatenbus – mit der Steuereinrichtung zur Datenübertragung verbunden sein. Die Sensoren können unterschiedliche Erfassungsbereiche aufweisen.
  • Ein erfindungsgemäßes Kraftfahrzeug umfasst ein erfindungsgemäßes Fahrerassistenzsystem. Das Kraftfahrzeug ist insbesondere als Personenkraftwagen ausgebildet.
  • Die mit Bezug auf das erfindungsgemäße Verfahren vorgestellten bevorzugten Ausführungsformen und deren Vorteile gelten entsprechend für die erfindungsgemäße Steuereinrichtung, das erfindungsgemäße Fahrerassistenzsystem sowie für das erfindungsgemäße Kraftfahrzeug.
  • Weitere Merkmale der Erfindung ergeben sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung. Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen, sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar, ohne den Rahmen der Erfindung zu verlassen. Es sind somit auch Ausführungen von der Erfindung als umfasst und offenbart anzusehen, die in den Figuren nicht explizit gezeigt und erläutert sind, jedoch durch separierte Merkmalskombinationen aus den erläuterten Ausführungen hervorgehen und erzeugbar sind. Es sind auch Ausführungen und Merkmalskombinationen als offenbart anzusehen, die somit nicht alle Merkmale eines ursprünglich formulierten unabhängigen Anspruchs aufweisen.
  • Die Erfindung wird nun anhand von bevorzugten Ausführungsbeispielen sowie unter Bezugnahme auf die beigefügten Zeichnungen näher erläutert.
  • Dabei zeigen:
  • 1 in schematischer Darstellung ein Kraftfahrzeug gemäß einer Ausführungsform der vorliegenden Erfindung, welches ein Fahrerassistenzsystem aufweist; und
  • 2 in schematischer Darstellung ein Ablaufdiagramm eines Verfahrens zum Erfassen eines Objekts einer Umgebung des Kraftfahrzeugs.
  • In den Figuren werden gleiche oder funktionsgleiche Elemente mit den gleichen Bezugszeichen versehen.
  • 1 zeigt in schematischer Darstellung ein Kraftfahrzeug 1 gemäß einer Ausführungsform der Erfindung in einer Draufsicht. Das Kraftfahrzeug 1 ist in dem vorliegenden Fall als Personenkraftwagen ausgebildet. Das Kraftfahrzeug 1 umfasst ein Fahrerassistenzsystem 2, welches zum Unterstützen eines Fahrers beim Führen des Kraftfahrzeugs 1 dient. Das Fahrerassistenzsystem 2 kann beispielsweise ein Notbremsassistent, Spurhalteassistent, Spurwechselassistent, Abstandsregeltempomat oder dergleichen ausgebildet sein.
  • Das Fahrerassistenzsystem 2 umfasst wiederum eine Steuereinrichtung 3, die beispielsweise durch ein elektronisches Steuergerät des Kraftfahrzeugs 1 gebildet sein kann. Darüber hinaus umfasst das Fahrerassistenzsystem 2 eine Mehrzahl von Sensoren 4 mit denen eine Umgebung 5 beziehungsweise ein Umgebungsbereich des Kraftfahrzeugs 1 erfasst werden kann. Mit den Sensoren 4 kann insbesondere ein Objekt 6 in der Umgebung 5 des Kraftfahrzeugs 1 zumindest bereichsweise erfasst werden. Die Sensoren 4 können beispielsweise verteilt an dem Kraftfahrzeug 1 angeordnet sein. Die Sensoren 4 können Radarsensoren, Lasersensoren, Lidar-Sensoren, optische Sensoren, Kameras, Ultraschallsensoren oder dergleichen sein. Mit den Sensoren 4 können jeweils Sensordaten erfasst werden. Die Sensordaten können die aktuelle Position und/oder die aktuelle Geschwindigkeit des Objekts 6 beschreiben.
  • In dem vorliegenden Ausführungsbeispiel umfasst das Fahrerassistenzsystem 2 als die Sensoren 4 einen Radarsensor 8 und eine Kamera 9. Mit den Sensoren 4 kann das Objekt 6 in der Umgebung 5 in Vorwärtsfahrtrichtung vor dem Kraftfahrzeug 1 erfasst werden. Die Auswahl und Anordnung der Sensoren 4 ist vorliegend rein beispielhaft zu verstehen. Der Radarsensor 8 kann ein Radarsignal beziehungsweise elektromagnetische Strahlung aussenden und das von dem Objekt 6 reflektierte Radarsignal wieder empfangen. Anhand der Laufzeit des Radarsignals kann der Abstand zwischen dem Kraftfahrzeug 1 und dem Objekt 6 bestimmt werden. Die Kamera 9 kann Videodaten beziehungsweise Bildsequenzen von der Umgebung 5 bereitstellen. Mit Hilfe einer entsprechenden Bildverarbeitungseinrichtung kann dann das Objekt 6 in den Videodaten erkannt werden. In Beispiel von 1 ist die Steuereinrichtung 3 separat angeordnet. Die Steuereinrichtung 3 könnte auch mit der Sensorelektronik in einen Sensor 4 integriert sein.
  • Die Sensordaten, die mit den Sensoren 4 bereitgestellt werden, werden von den jeweiligen Sensoren 4 an die Steuereinrichtung 3 übertragen. Hierzu ist die Steuereinrichtung 3 über eine jeweilige Datenleitung 10 mit den jeweiligen Sensoren 4 verbunden. Die Steuereinrichtung 3 ist dazu ausgelegt, die Sensordaten entsprechend zu verarbeiten. Insbesondere kann die Steuereinrichtung 3 anhand der Sensordaten bestimmen, ob das Objekt 6 in der Umgebung 6 des Kraftfahrzeugs 1 vorhanden ist. Hierzu werden mit der Steuereinrichtung 3 mehrere zeitlich aufeinanderfolgenden Detektionszyklen durchgeführt. Bei jedem der Detektionszyklen wird mittels der Steuereinrichtung 3 eine Fusion der Sensordaten der einzelnen Sensoren 4 durchführt Ferner kann die Steuereinrichtung Historiendaten bereitstellen, welche insbesondere die Sensordaten, die zu vorhergehenden Detektionszyklen bestimmt wurden, beschreiben. Anhand der fusionierten Sensordaten und der Historiendaten kann dann das Objekt 6 in der Umgebung erkannt werden.
  • Wenn das Objekt 6 in der Umgebung des Kraftfahrzeugs 1 erkannt wurde, kann mittels der Steuereinrichtung 3 ein Steuersignal ausgegeben werden. In Folge des Steuersignals kann beispielsweise eine Warnung an den Fahrer des Kraftfahrzeugs 1 ausgegeben werden. Das Kraftfahrzeug 1 umfasst vorliegend ferner eine Funktionseinrichtung 11, die über eine Datenleitung 10 mit der Steuereinrichtung 3 verbunden ist. Die Steuereinrichtung 3 kann ein Steuersignal zum Ansteuern beziehungsweise Steuern der Funktionseinrichtung 11 bereitstellen. Die Funktionseinrichtung 11 kann dazu dienen eine sicherheitskritische Funktion des Fahrerassistenzsystems 2 bereitzustellen. Mittels der Funktionseinrichtung 11 kann eine Längsführung und/oder eine Querführung des Kraftfahrzeugs 1 beeinflusst werden. Die Funktionseinrichtung 11 kann eine Lenkung, eine Bremsanlage und/oder ein Antriebsmotor des Kraftfahrzeugs 1 sein.
  • 2 zeigt in schematischer Ansicht ein Ablaufdiagramm eines Verfahrens zum Erfassen des Objekts 6 in der Umgebung 5 des Kraftfahrzeugs 1. In einem Schritt S1 wird mittels der Steuereinrichtung 3 ein aktueller Detektionszyklus durchgeführt. Hierbei werden mit den Sensoren 4 beziehungsweise mit dem Radarsensor 8 und der Kamera 9 jeweils die Sensordaten, die das Objekt 6 beschreiben, erfasst und an die Steuereinrichtung 3 übertragen. Die Sensordaten werden mit den Sensoren 4 insbesondere zeitgleich erfasst.
  • In einem weiteren Schritt S2 werden die Sensordaten mittels der Steuereinrichtung 3 fusioniert. Dabei sind die Messzeitpunkte, an denen mit den beiden Sensoren 4 die Sensordaten bestimmt werden, bekannt. Als Ergebnis stellt die Steuereinrichtung 3 fusionierte Sensordaten bereit. Die Sensordatenfusion kann insbesondere auf Objektebene durchgeführt werden. Es kann auch vorgesehen sein, dass die Sensordatenfusion auf Merkmalsebene oder anhand der Rohdaten, die von den Sensoren 4 bereitgestellt werden, erfolgt.
  • In einem Schritt S3 werden die Historiendaten mittels der Steuereinrichtung 3 bereitgestellt. Die Historiendaten können als ersten Teil eine Information zu den Sensordaten, die zu vorherigen Detektionszyklen bestimmt wurden, umfassen. Die Sensordaten werden zum Bereitstellen der Historiendaten insbesondere nicht zeitlich gefiltert, wie beispielsweise mit einem Kalman-Filter. Beispielsweise können die Historiendaten entsprechende Kennungen beziehungsweise IDs umfassen. Diese Kennungen sind dem Objekt für die jeweiligen Sensoren 4, mit denen das Objekt 6 erkannt wurde, zugeordnet. Als zweiten Teil können die Historiendaten einen Bestimmungszeitpunkt beziehungsweise ein Alter umfassen, welcher beziehungsweise welches beschreibt, wann das Objekt 6 anhand der fusionierten Sensordaten erstmals erkannt wurde.
  • In einem Schritt S4 wird dann das Objekt 6 anhand der fusionierten Sensordaten und der Historiendaten mittels der Steuereinrichtung 3 erkannt. Dabei kann eine Existenzwahrscheinlichkeit, welche die Wahrscheinlichkeit für das Vorhandensein des Objekts 6 in der Umgebung 5 beschreibt, bestimmt werden. Anhand der Sensordaten von vorhergehenden Detektionsalgorithmen und des Alters des Objekts 6, das anhand der fusionierten Sensordaten erkannt wurde, können voneinander unabhängige Informationen zum Bestimmen der Existenzwahrscheinlichkeit bereitgestellt werden. Die Existenzwahrscheinlichkeit wird auf Grundlage der Sensordaten bestimmt, die von unterschiedlichen und voneinander unabhängigen Sensoren 4 bereitgestellt werden. Auf diese Weise können Sensoren 4 verwendet werden, die selbst keine Informationen bezüglich der Existenzwahrscheinlichkeit bereitstellen können. Somit kann die Existenzwahrscheinlichkeit zuverlässig bestimmt werden und fehlerhafte Ansteuerungen des Fahrerassistenzsystems 2 effektiv verhindert werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 2006/0220912 A1 [0004]
    • US 2011/0025548 A1 [0005]
    • DE 102008001672 A1 [0006, 0014]
    • DE 102006046843 A1 [0007]

Claims (13)

  1. Verfahren zum Erfassen eines Objekts (6) in einer Umgebung (5) eines Kraftfahrzeugs (1), bei welchem während eines aktuellen Detektionszyklus mittels einer Steuereinrichtung (3) von zumindest zwei Sensoren (4) eines Fahrerassistenzsystems (2) jeweils Sensordaten empfangen werden (S1), welche das Objekt (6) beschreiben, die jeweiligen empfangenen Sensordaten mittels der Steuereinrichtung (3) zu fusionierten Sensordaten fusioniert werden (S2) und anhand der fusionierten Sensordaten das Objekt (6) in der Umgebung (5) erfasst wird, dadurch gekennzeichnet, dass mittels der Steuereinrichtung (3) zusätzlich zu den fusionierten Sensordaten Historiendaten bereitgestellt werden (S3), welche Informationen zu dem Objekt (6) umfassen, die während zumindest eines vorhergehenden Detektionszyklus bestimmt wurden, und das Objekt (6) zusätzlich anhand der Historiendaten erfasst wird (S4).
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Historiendaten jeweilige Sensordaten beschreiben, die mit den zumindest zwei Sensoren (4) während des zumindest einen vorhergehenden Detektionszyklus bestimmt wurden.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass die Historiendaten jeweilige ungefilterte Sensordaten beschreiben, die mit den zumindest zwei Sensoren (4) während des zumindest einen vorhergehenden Detektionszyklus bestimmt wurden.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass anhand der Historiendaten überprüft wird, ob das Objekt (6), das während des zumindest einen vorhergehenden Detektionszyklus erfasst wurde, in dem aktuellen Detektionszyklus erkannt wird.
  5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die Historiendaten für die jeweiligen Sensordaten der zumindest zwei Sensoren (4), anhand der das Objekt (6) erfasst wurde, eine Kennung umfassen und überprüft wird, ob die Kennungen in dem aktuellen Detektionszyklus anhand der Sensordaten der zumindest zwei Sensoren (4) bestimmt wird.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Historiendaten einen Bestimmungszeitpunkt umfassen, der beschreibt, während welchem vorhergehenden Detektionszyklus das Objekt (6) anhand der fusionierten Sensordaten erfasst wurde.
  7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass bei jedem durchgeführten Detektionszyklus ein Zählerstand eines ersten Zählers erhöht wird und der Bestimmungszeitpunkt anhand des Zählerstands des ersten Zählers und einer aktuellen Zeit bestimmt wird.
  8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Historiendaten einen Zählerstand eines zweiten Zählers beschreiben, wobei der Zählerstand des zweiten Zählers erhöht wird, falls das Erfassen des Objekts (6) mittels eines der zumindest zwei Sensoren während eines durchgeführten Detektionszyklus unterbleibt.
  9. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass anhand der Historiendaten eine Existenzwahrscheinlichkeit bestimmt wird, welche eine Wahrscheinlichkeit des Vorhandenseins des Objekts (6) in der Umgebung (5) beschreibt.
  10. Steuereinrichtung (3) für ein Fahrerassistenzsystem (2) eines Kraftfahrzeugs (1) welche zum Durchführen eines Verfahrens nach einem der vorhergehenden Ansprüche ausgelegt ist.
  11. Fahrerassistenzsystem (2) für ein Kraftfahrzeug (1) mit einer Steuereinrichtung (3) nach Anspruch 10.
  12. Fahrerassistenzsystem (2) nach Anspruch 11, dadurch gekennzeichnet, dass das Fahrerassistenzsystem (2) als die zumindest zwei Sensoren (4) einen Radarsensor (8), einen Lasersensor, eine Kamera (9) und/oder einen Ultraschallsensor umfasst.
  13. Kraftfahrzeug (1) mit einem Fahrerassistenzsystem (2) nach Anspruch 11 oder 12.
DE102015107392.7A 2015-05-12 2015-05-12 Verfahren zum Erfassen eines Objekts in einer Umgebung eines Kraftfahrzeugs anhand von fusionierten Sensordaten, Steuereinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug Pending DE102015107392A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102015107392.7A DE102015107392A1 (de) 2015-05-12 2015-05-12 Verfahren zum Erfassen eines Objekts in einer Umgebung eines Kraftfahrzeugs anhand von fusionierten Sensordaten, Steuereinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102015107392.7A DE102015107392A1 (de) 2015-05-12 2015-05-12 Verfahren zum Erfassen eines Objekts in einer Umgebung eines Kraftfahrzeugs anhand von fusionierten Sensordaten, Steuereinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug

Publications (1)

Publication Number Publication Date
DE102015107392A1 true DE102015107392A1 (de) 2016-11-17

Family

ID=57208752

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015107392.7A Pending DE102015107392A1 (de) 2015-05-12 2015-05-12 Verfahren zum Erfassen eines Objekts in einer Umgebung eines Kraftfahrzeugs anhand von fusionierten Sensordaten, Steuereinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug

Country Status (1)

Country Link
DE (1) DE102015107392A1 (de)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180348781A1 (en) * 2017-06-06 2018-12-06 PlusAI Corp Method and system for object centric stereo via cross modality validation in autonomous driving vehicles
DE102018109469A1 (de) * 2018-04-20 2019-10-24 Valeo Schalter Und Sensoren Gmbh Verfahren zum Warnen eines Fahrers vor einer Kollision mit einem Hindernis in einer Umgebung eines Kraftfahrzeugs mit Anpassung eines Hysteresewerts für die Hinderniserkennung, Sensorvorrichtung sowie Fahrerassistenzsystem
CN110494866A (zh) * 2017-04-10 2019-11-22 罗伯特·博世有限公司 用于对象识别的多个传感器的数据的融合
DE102018220024B3 (de) * 2018-11-22 2020-03-12 Audi Ag Verfahren zur Fusion von Sensordaten von mehreren Sensoren und Fusionsvorrichtung zum Fusionieren von Sensordaten von mehreren Sensoren
DE102019123483A1 (de) * 2019-09-02 2021-03-04 Audi Ag Verfahren sowie Kraftfahrzeug-Steuereinheit zum Erfassen einer Umgebung eines Kraftfahrzeugs durch Fusionieren von Sensordaten auf Punktwolkenebene
EP3635497A4 (de) * 2017-06-06 2021-04-21 PlusAI Corp Verfahren und system zum verteilten lernen und anpassen in autonom fahrenden fahrzeugen
US11042155B2 (en) 2017-06-06 2021-06-22 Plusai Limited Method and system for closed loop perception in autonomous driving vehicles
CN113167892A (zh) * 2019-02-06 2021-07-23 宝马股份公司 用于车辆的传感器数据融合的方法和装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060220912A1 (en) 2003-07-31 2006-10-05 Heenan Adam J Sensing apparatus for vehicles
DE102006046843A1 (de) 2006-10-02 2008-04-03 Robert Bosch Gmbh Verfahren zur Erkennung eines Umfelds
DE102007018470A1 (de) * 2007-04-19 2008-10-23 Robert Bosch Gmbh Fahrerassistenzsystem und Verfahren zur Objektplausibilisierung
DE102009006113A1 (de) * 2008-03-03 2009-09-10 Volkswagen Ag Vorrichtung und Verfahren zur Sensorfusion mit dynamischen Objekten
DE102008001672A1 (de) 2008-05-09 2009-11-12 Robert Bosch Gmbh Verfahren zur Fusion von Zustandsdaten erfasster Sensorobjekte
US20110025548A1 (en) 2009-07-31 2011-02-03 Gm Global Technology Operations, Inc. System and method for vehicle sensor fusion

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060220912A1 (en) 2003-07-31 2006-10-05 Heenan Adam J Sensing apparatus for vehicles
DE102006046843A1 (de) 2006-10-02 2008-04-03 Robert Bosch Gmbh Verfahren zur Erkennung eines Umfelds
DE102007018470A1 (de) * 2007-04-19 2008-10-23 Robert Bosch Gmbh Fahrerassistenzsystem und Verfahren zur Objektplausibilisierung
DE102009006113A1 (de) * 2008-03-03 2009-09-10 Volkswagen Ag Vorrichtung und Verfahren zur Sensorfusion mit dynamischen Objekten
DE102008001672A1 (de) 2008-05-09 2009-11-12 Robert Bosch Gmbh Verfahren zur Fusion von Zustandsdaten erfasster Sensorobjekte
US20110025548A1 (en) 2009-07-31 2011-02-03 Gm Global Technology Operations, Inc. System and method for vehicle sensor fusion

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110494866A (zh) * 2017-04-10 2019-11-22 罗伯特·博世有限公司 用于对象识别的多个传感器的数据的融合
CN110494866B (zh) * 2017-04-10 2024-02-09 罗伯特·博世有限公司 用于对象识别的多个传感器的数据的融合
US11392133B2 (en) 2017-06-06 2022-07-19 Plusai, Inc. Method and system for object centric stereo in autonomous driving vehicles
EP3635497A4 (de) * 2017-06-06 2021-04-21 PlusAI Corp Verfahren und system zum verteilten lernen und anpassen in autonom fahrenden fahrzeugen
US11042155B2 (en) 2017-06-06 2021-06-22 Plusai Limited Method and system for closed loop perception in autonomous driving vehicles
US20180348781A1 (en) * 2017-06-06 2018-12-06 PlusAI Corp Method and system for object centric stereo via cross modality validation in autonomous driving vehicles
US11435750B2 (en) 2017-06-06 2022-09-06 Plusai, Inc. Method and system for object centric stereo via cross modality validation in autonomous driving vehicles
US11537126B2 (en) 2017-06-06 2022-12-27 Plusai, Inc. Method and system for on-the-fly object labeling via cross modality validation in autonomous driving vehicles
US11550334B2 (en) 2017-06-06 2023-01-10 Plusai, Inc. Method and system for integrated global and distributed learning in autonomous driving vehicles
US11573573B2 (en) 2017-06-06 2023-02-07 Plusai, Inc. Method and system for distributed learning and adaptation in autonomous driving vehicles
DE102018109469A1 (de) * 2018-04-20 2019-10-24 Valeo Schalter Und Sensoren Gmbh Verfahren zum Warnen eines Fahrers vor einer Kollision mit einem Hindernis in einer Umgebung eines Kraftfahrzeugs mit Anpassung eines Hysteresewerts für die Hinderniserkennung, Sensorvorrichtung sowie Fahrerassistenzsystem
DE102018220024B3 (de) * 2018-11-22 2020-03-12 Audi Ag Verfahren zur Fusion von Sensordaten von mehreren Sensoren und Fusionsvorrichtung zum Fusionieren von Sensordaten von mehreren Sensoren
CN113167892A (zh) * 2019-02-06 2021-07-23 宝马股份公司 用于车辆的传感器数据融合的方法和装置
DE102019123483A1 (de) * 2019-09-02 2021-03-04 Audi Ag Verfahren sowie Kraftfahrzeug-Steuereinheit zum Erfassen einer Umgebung eines Kraftfahrzeugs durch Fusionieren von Sensordaten auf Punktwolkenebene
DE102019123483B4 (de) 2019-09-02 2021-12-09 Audi Ag Verfahren sowie Kraftfahrzeug-Steuereinheit zum Erfassen einer Umgebung eines Kraftfahrzeugs durch Fusionieren von Sensordaten auf Punktwolkenebene

Similar Documents

Publication Publication Date Title
DE102015107392A1 (de) Verfahren zum Erfassen eines Objekts in einer Umgebung eines Kraftfahrzeugs anhand von fusionierten Sensordaten, Steuereinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102015209857B4 (de) Autonomes Notbremssystem und Verfahren zum Erkennen von Fußgängern in diesem
EP2285632B1 (de) Fahrerassistenzsystem
DE102013102087A1 (de) Verfahren zum Betrieb eines Fahrerassistenzsystems eines Fahrzeugs
EP2242674A1 (de) Verfahren und assistenzsystem zum erfassen von objekten im umfeld eines fahrzeugs
DE102017117593A1 (de) Fahrzeugfahrassistenzvorrichtung
DE102012016866A1 (de) Verfahren zur verbesserten Ansteuerung von Ultraschallsensoren, Fahrerassistenzeinrichtung und Kraftfahrzeug
DE102009028451A1 (de) Kollisionsüberwachung für ein Kraftfahrzeug
EP3386825A1 (de) Verfahren zum erkennen einer möglichen kollision zwischen einem kraftfahrzeug und einem objekt unter berücksichtigung einer räumlichen unsicherheit, steuereinrichtung, fahrerassistenzsystem sowie kraftfahrzeug
DE102014219876B4 (de) Verfahren und Vorrichtung zur Unterstützung eines automatischen Einparkvorganges eines Kraftfahrzeugs
DE102015107391A1 (de) Verfahren zum Steuern einer Funktionseinrichtung eines Kraftfahrzeugs anhand von fusionierten Sensordaten, Steuereinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102019206178A1 (de) Verfahren und Vorrichtung zum Abschätzen einer Fahrspurwechselabsicht eines Fahrzeugs
WO2008071473A1 (de) Verfahren und vorrichtung zum erfassen eines hindernisses in einem umgebungsbereich eines kraftfahrzeugs und kraftfahrzeug
DE102008001672A1 (de) Verfahren zur Fusion von Zustandsdaten erfasster Sensorobjekte
DE102015112313A1 (de) Verfahren zum zumindest semi-autonomen Manövrieren eines Kraftfahrzeugs mit Lagekorrektur, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102019217428A1 (de) Verfahren zum Betreiben eines Fahrerassistenzsystems, Fahrerassistenzsystem und Fahrzeug
DE102016117712A1 (de) Verfahren zum zumindest semi-autonomen Manövrieren eines Kraftfahrzeugs unter Berücksichtigung eines Erfassungsbereichs eines Sensors, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102020211970A1 (de) Verfahren zum Steuern eines Fahrzeugs
DE102011109712A1 (de) Verfahren und Vorrichtung zum unterstützten Einparken eines Kraftfahrzeugs
DE102016208774A1 (de) Fahrassistenzvorrichtung und Fahrassistenzverfahren
WO2020165058A1 (de) System und verfahren zum sicheren betreiben eines automatisierten fahrzeugs
DE102009033853A1 (de) Verfahren zum Betrieb eines Fahrerassistenzsystems und Vorrichtung zur Durchführung des Verfahrens
DE102019216686A1 (de) Verfahren zum sicheren Abschleppen eines Fahrzeugs
DE102007043911A1 (de) Verfahren für die Steuerung eines Fahrerassistenzsystems
DE102018213103A1 (de) Verfahren zum sicheren Abschleppen eines Fahrzeugs

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed