-
Die vorliegende Erfindung betrifft ein Verfahren zum Erfassen eines Objekts in einer Umgebung eines Kraftfahrzeugs, bei welchem während eines aktuellen Detektionszyklus mittels einer Steuereinrichtung von zumindest zwei Sensoren eines Fahrerassistenzsystems jeweils Sensordaten empfangen werden, welche das Objekt beschreiben, die jeweiligen empfangenen Sensordaten mittels der Steuereinrichtung zu fusionierten Sensordaten fusioniert werden und anhand der fusionierten Sensordaten das Objekt in der Umgebung erfasst wird. Die Erfindung betrifft außerdem eine Steuereinrichtung für ein Fahrerassistenzsystem eines Kraftfahrzeugs. Zudem betrifft die vorliegende Erfindung ein Fahrerassistenzsystem mit einer derartigen Steuereinrichtung. Schließlich betrifft die Erfindung ein Kraftfahrzeug mit einem solchen Fahrerassistenzsystem.
-
Verfahren zum Erfassen beziehungsweise Erkennen von Objekten in der Umgebung eines Kraftfahrzeugs sind aus dem Stand der Technik bekannt. Hierzu wird üblicherweise ein Fahrerassistenzsystem verwendet, das eine Mehrzahl von Sensoren beziehungsweise Umfeldsensoren umfasst, wobei mit der Mehrzahl von Sensoren eine Umgebung des Kraftfahrzeugs erfasst werden kann. Die Sensoren können beispielsweise Radarsensoren, Lasersensoren, Kameras und/oder Ultraschallsensoren sein. Weiterhin ist es aus dem Stand der Technik bekannt, die Sensordaten von zumindest zwei Sensoren eines Fahrerassistenzsystems zu fusionieren. Dabei werden die Sensordaten von unterschiedlichen Sensoren, welche die gleiche Information – beispielsweise das gleiche Objekt – beschreiben, miteinander verknüpft. Die Verknüpfung kann anhand der Rohdaten der Sensoren erfolgen. Die Verknüpfung kann auch auf Merkmalsebene oder auf Objektebene durchgeführt werden. Die Sensordatenfusion auf Objektebene hat den Vorteil, dass hier eine geringe Datenübertragungsrate zur Übertragung der Daten von den Sensoren zu einer Steuereinrichtung des Fahrerassistenzsystems benötigt wird. Die Verfolgung des Objekts, das auch als tracking bezeichnet wird, wird dabei üblicherweise von jedem der Sensoren durchgeführt, wodurch die optimale Vorhersage für das jeweilige Sensormodell getroffen werden kann. Die Fusionierung des jeweiligen trackings, das von den unterschiedlichen Sensoren stammt, wird als track-to-track Fusion bezeichnet.
-
Wenn die Objekte von unterschiedlichen Sensoren mittels der sogenannten track-to-track Fusion bearbeitet werden, soll eine zusätzliche Verfolgung der fusionierten Sensordaten vermieden werden, da die Sensordaten, die als Eingang für die Fusion genutzt werden, üblicherweise gefiltert sind. Weiterhin soll eine Filterung von bereits gefilterten Daten vermieden werden, da einerseits zu viele nützliche Daten aufgrund der nicht optimalen Filterung verloren gehen und andererseits die Latenzzeit deutlich ansteigt.
-
In diesem Zusammenhang beschreibt die
US 2006/0220912 A1 eine Vorrichtung zum Erkennen einer Fahrspur für ein Kraftfahrzeug. Die Vorrichtung umfasst zwei Sensoren, mit denen die Fahrbahn vor dem Kraftfahrzeug erfasst werden kann. Zudem umfasst die Vorrichtung einen Prozessor, welcher die Grenzen der Fahrspur anhand der Sensordaten der zwei Sensoren schätzen kann. Dabei kann es auch vorgesehen sein, dass für die Sensordaten der zwei Sensoren jeweils ein Konfidenz-Wert bestimmt wird.
-
Darüber hinaus beschreibt die
US 2011/0025548 A1 ein Verfahren zur Nachverfolgung von Objekten, die von Sensoren eines Kraftfahrzeugs erfasst werden. Hierzu werden die Sensordaten von mehreren Sensoren des Kraftfahrzeugs fusioniert. Es kann auch vorgesehen sein, dass ein Alter oder eine Plausibilität der Objekte, die anhand der fusionierten Sensordaten erkannt wurden, bestimmt werden.
-
Ferner ist in der
DE 10 2008 001 672 A1 ein Verfahren zur Fusion von Zustandsdaten erfasster Sensorobjekte mehrerer, insbesondere verschiedenartiger Objektdetektionssensoren eines Kraftfahrzeugs. Die Zustandsdaten können beispielsweise den Ort, die Geschwindigkeit und/oder die Beschleunigung des Sensorobjekts beschreiben. Anhand der Zustandsdaten kann Umfeldmodell für ein Fahrerassistenzsystem des Kraftfahrzeugs bereitgestellt werden. Dabei können auch historische Assoziationsinformationen bezüglich der Zustandsdaten berücksichtigt werden.
-
Zudem ist aus der
DE 10 2006 046 843 A1 ein Verfahren zum Erkennen eines Umfelds für ein Kraftfahrzeug bekannt. Hierbei werden Daten zum Erkennen von Objekten in dem Umfeld und Daten zum Erkennen von freien Gebieten in dem Umfeld gemeinsam verarbeitet. Zudem wird eine Wahrscheinlichkeit dafür, dass mindestens ein Gebiet des Umfelds frei ist, bereitgestellt. Es kann vorgesehen sein, dass die Sensordaten von unterschiedlichen Sensoren fusioniert werden. Hierzu kann die Dempster-Shafer-Theorie genutzt werden. Dabei kann es auch vorgesehen sein, dass Komfortfunktionen und/oder Sicherheitsfunktion eines Fahrerassistenzsystems angesteuert werden.
-
Es ist Aufgabe der vorliegenden Erfindung, eine Lösung aufzuzeigen, wie das Erkennen eines Objekts in einer Umgebung eines Kraftfahrzeugs, insbesondere bei einer Nutzung von Sensordatenfusion, einfacher und zugleich zuverlässiger erfolgen kann.
-
Diese Aufgabe wird erfindungsgemäß durch ein Verfahren, durch eine Steuereinrichtung, durch ein Fahrerassistenzsystem sowie durch ein Kraftfahrzeug mit den Merkmalen gemäß den jeweiligen unabhängigen Patentansprüchen gelöst. Vorteilhafte Ausführungen der Erfindung sind Gegenstand der abhängigen Patentansprüche, der Beschreibung und der Figuren.
-
Ein erfindungsgemäßes Verfahren dient zum Erfassen eines Objekts in einer Umgebung eines Kraftfahrzeugs. Hierbei werden während eines aktuellen Detektionszyklus mittels einer Steuereinrichtung von zumindest zwei Sensoren eines Fahrerassistenzsystems jeweils Sensordaten empfangen, welche das Objekt beschreiben. Zudem werden die jeweiligen empfangenen Sensordaten mittels der Steuereinrichtung zu fusionierten Sensordaten fusioniert und anhand der fusionierten Sensordaten wird das Objekt in der Umgebung erfasst. Ferner werden mittels der Steuereinrichtung zusätzlich zu den fusionierten Sensordaten Historiendaten bereitgestellt, welche Informationen zu dem Objekt umfassen, die während zumindest eines vorhergehenden Detektionszyklus bestimmt wurden, und das Objekt wird zusätzlich anhand der Historiendaten erfasst.
-
Das Fahrerassistenzsystem des Kraftfahrzeugs umfasst zumindest zwei Sensoren. Insbesondere umfasst das Fahrerassistenzsystem eine Mehrzahl von Sensoren, mit denen beispielsweise die Umgebung beziehungsweise ein Umgebungsbereich des Kraftfahrzeugs erfasst werden kann. Die Sensoren basieren insbesondere auf unterschiedlichen Sensorprinzipien. Die Sensoren können nach dem Echolotprinzip arbeiten oder als optische Sensoren ausgebildet sein. Die Sensoren können beispielsweise Radarsensoren, Lasersensoren, Kameras, Ultraschallsensoren oder dergleichen sein. Mit jedem der Sensoren können Sensordaten bereitgestellt werden. Diese Sensordaten werden der Steuereinrichtung zugeführt. Hierzu können die Sensoren zur Datenübertragung mit der Steuereinrichtung verbunden sein. Mit der Steuereinrichtung werden insbesondere zeitlich aufeinanderfolgenden Detektionszyklen durchgeführt. Hierbei können die jeweiligen Sensordaten von zwei unterschiedlichen der Sensoren mittels der Steuereinrichtung fusioniert werden. Die Sensordatenfusion kann anhand der Rohdaten, die von den Sensoren bereitgestellt werden, erfolgen. Die Sensordatenfusion kann auch auf Merkmalsebene oder auf Objektebene durchgeführt werden. Als Ergebnis der Fusion der Sensordaten liefert die Steuereinrichtung fusionierte Sensordaten.
-
Zusätzlich zu den fusionierten Sensordaten werden mittels der Steuereinrichtung Historiendaten bereitgestellt. Diese Historiendaten liefern Informationen zu dem Objekt, die während eines oder mehrerer vorhergehender Detektionszyklen bestimmt wurden. Anhand der Historiendaten kann die Steuereinrichtung die Historie des Objekts überprüfen. Dabei ist es insbesondere vorgesehen, dass Informationen bezüglich des Objekts aus den zuvor erfassten Sensordaten extrahiert werden. Das einzelne Objekt wird dabei in jedem Sensor zeitlich verfolgt. Eine auf ähnlichen Algorithmen basierende zeitliche Verfolgung des fusionierten Objektes ist in der Steuereinrichtung zu vermeiden, da eine doppelte zeitliche Filterung (in jedem Sensor und im Fusionsalgorithmus) zu erhöhten Latenzen und zu einem Informationsverlust führen kann. Jede zeitliche oder sonstige Sensordatenfilterung verringert die zur Verfügung stehende gemessene Information über das Objekt. Beispielsweise kann überprüft werden, ob ein Objekt, das zu einem vorhergehenden Detektionszyklus erkannt wurde, in dem aktuellen Detektionszyklus weiterhin erkannt wird. Auf diese Weise kann das Objekt in Abhängigkeit von der Zeit nachverfolgt werden. Somit kann die Erkennung des Objekts stabiler und zuverlässiger erfolgen. Zudem kann die Sensordatenfusion genutzt werden, ohne dass die Latenzzeiten beziehungsweise die Verarbeitungszeiten ansteigen.
-
Bevorzugt beschreiben die Historiendaten jeweilige Sensordaten, die mit den zumindest zwei Sensoren während des zumindest einen vorhergehenden Detektionszyklus bestimmt wurden. Auf diese Weise können Informationen zu dem Objekt bereitgestellt werden, die mittels der zumindest zwei Sensoren des Fahrerassistenzsystems zu zeitlich vorhergehenden Detektionszyklen bestimmt wurden. Ferner können die Historiendaten die fusionierten Sensordaten beschreiben, die während eines vorhergehenden Detektionszyklus bestimmt wurden. Diese fusionierten Sensordaten stammen von den jeweiligen Sensordaten. Auf diese Weise kann die Historie eines erkannten Objekts bestimmt werden.
-
Weiterhin ist es vorteilhaft, wenn die Historiendaten jeweilige ungefilterte Sensordaten beschreiben, die mit den zumindest zwei Sensoren während des zumindest einen vorhergehenden Detektionszyklus bestimmt wurden. Es werden also keine Filter wie beispielsweise Kalman-Filter oder dergleichen verwendet. Somit kann im Vergleich zu aus dem Stand der Technik bekannten Verfahren vermieden werden, dass eine Filterung der Sensordaten, insbesondere bei der Verfolgung von Objekten, durchgeführt wird. Beispielsweise ist es gemäß der Lehre der
DE 10 2008 001 672 A1 vorgesehen, dass die Sensordaten entsprechend gefiltert werden. Dies hat beispielsweise zur Folge, dass die Zusammenhänge beziehungsweise Assoziationen zwischen den Sensordaten für unterschiedliche Kombinationen berücksichtigt werden müssen.
-
Gemäß einer weiteren Ausführungsform wird anhand der Historiendaten überprüft, ob ein Objekt, das während des zumindest einen vorhergehenden Detektionszyklus erfasst wurde, in dem aktuellen Detektionszyklus erkannt wird. Auf diese Weise kann insbesondere überprüft werden, ob das Objekt noch in der Umgebung des Kraftfahrzeugs vorhanden ist. Dies kann insbesondere während eines Prä-Fusionsschrittes erfolgen. Weiterhin kann mit einer höheren Wahrscheinlichkeit davon ausgegangen werden, dass das erfasste Objekt in der Umgebung vorhanden ist, wenn es bereits während eines früheren Detektionszyklus erkannt wurde. Auf diese Weise kann die Objekterkennung stabiler und zuverlässiger erfolgen.
-
In einer Ausgestaltung werden die Historiendaten für die jeweiligen Sensordaten der zumindest zwei Sensoren, anhand der das Objekt erfasst wurde, eine Kennung umfassen und überprüft wird, ob die Kennungen in dem aktuellen Detektionszyklus anhand der Sensordaten der zumindest zwei Sensoren bestimmt. Mit anderen Worten wird jedem Objekt, das mit einem der zumindest zwei Sensoren erfasst wurde, eine Kennung beziehungsweise ID zugeordnet. Diese ID wird im jeweiligen Sensor dem Objekt zugeordnet. Dem Objekt, das anhand der fusionierten Sensordaten erkannt wurde, kann zudem eine Kennung zugeordnet werden. In der Fusion wird jedem Objekt, ob mit einem Objekt von mindestens einem weiteren Sensor fusioniert oder nicht, eine neue eineindeutige Kennung zugewiesen. Dies ist notwendig, da die verschiedenen Sensoren unabhängig voneinander Kennungen vergeben und es nicht auszuschließen ist, dass die zumindest zwei Sensoren dieselbe Kennung für unterschiedliche Objekte verwenden. Die Kennung ist solange vorhanden, solange das Objekt auch mit dem jeweiligen Sensor erfasst beziehungsweise erkannt wird. Eine Auswertung der jeweiligen Sensordaten, die während des zumindest einen vorhergehenden Detektionszyklus bestimmt wurden, ist somit nicht notwendig. Somit kann ferner überprüft werden, von welchem der Sensoren und von wie vielen der Sensoren das Objekt bereits erkannt wurde. Im fusionierten Objekt können dazu die ID und der Sensor für jedes Sensordatenobjekt gespeichert werden, das zum fusionierten Objekt beiträgt.
-
In einer weiteren Ausführungsform umfassen die Historiendaten einen Bestimmungszeitpunkt, der beschreibt, während welchem vorhergehenden Detektionszyklus das Objekt anhand der fusionierten Sensordaten erfasst wurde. Mit anderen Worten kann das Alter des Objekts, das anhand der fusionierten Sensordaten erfasst wurde, in den Historiendaten gespeichert werden. Somit kann bestimmt werden, wie lange das Objekt bereits in der Umgebung des Kraftfahrzeugs erfasst beziehungsweise erkannt wurde. Dadurch kann das Alter des fusionierten Objekts bestimmt werden. Hierbei wird insbesondere angegeben, wie lange das Objekt von den zumindest zwei Sensoren detektiert wurde. Dies kann als unabhängige Bestätigung genutzt werden, dass das Objekt vorhanden ist. Weiterhin kann aus dieser Information eine Existenzwahrscheinlichkeit für das Objekt abgeleitet werden.
-
Bevorzugt wird bei jedem durchgeführten Detektionszyklus ein Zählerstand eines ersten Zählers erhöht und der Bestimmungszeitpunkt wird anhand des Zählerstands des ersten Zählers und einer aktuellen Zeit bestimmt. Zu dem Bestimmen des Alters des Objekts, das anhand der fusionierten Sensordaten erkannt wurde, kann der erster Zähler verwendet werden. Der Zählerstand des ersten Zählers kann die Detektionszyklen beschreiben, bei denen das Objekt anhand der fusionierten Sensordaten erkannt wurde. Das Alter beziehungsweise der Bestimmungszeitpunkt kann dadurch ermittelt werden, dass zu dem Zählerstand des ersten Zählers die aktuelle Zeit hinzu addiert wird. Der erste Zähler kann den Zeitraum bestimmen, für den das aus mindestens zwei Sensordaten fusionierte Objekt als fusioniertes Objekt existiert.
-
In einer weiteren Ausführungsform beschreiben die Historiendaten einen Zählerstand eines zweiten Zählers, wobei der Zählerstand des zweiten Zählers erhöht wird, falls das Erfassen des Objekts mittels eines der zumindest zwei Sensoren während eines durchgeführten Detektionszyklus unterbleibt. Mit dem zweiten Zähler kann also bestimmt werden, wie lange das Objekt nicht von allen beteiligten Sensoren detektiert wird. In einem Detektionszyklus kann eine Detektion von einem beteiligten Sensor fehlen, dies kann über den zweiten Zähler erfasst werden. Des Weiteren kann mit dem zweiten Zähler die Zeit bestimmt, wie lange das fusionierte Objekt von mindestens einem der in der Fusion beteiligten Sensoren detektiert wurde. Dieser zweite Zähler kann wieder auf null gesetzt werden, wenn das fusionierte Objekt wieder von allen an der Fusion dieses Objekts beteiligten Sensoren detektiert wird. Damit kann ein zeitweiliger Ausfall der Detektion von einem Sensor erfasst werden. Erst wenn das einmal fusionierte Objekt von allen beteiligten Sensoren nicht mehr detektiert wird, kann es zum Beispiel gelöscht werden. Vorübergehende Messausfälle können detektiert und als Information zur Berechnung, beispielsweise einer Existenzwahrscheinlichkeit, weitergegeben werden, führen aber nicht automatisch zur sofortigen Löschung des fusionierten Objekts.
-
Zudem ist es vorteilhaft, wenn anhand der Historiendaten eine Existenzwahrscheinlichkeit bestimmt wird, welche eine Wahrscheinlichkeit des Vorhandenseins des Objekts in der Umgebung beschreibt. Die Historiendaten stammen von dem Sensordaten der zumindest zwei Sensoren des Fahrerassistenzsystems. Damit sind die Historiendaten unabhängig voneinander bestimmt. Auf diese Weise kann die Existenzwahrscheinlichkeit für das Objekt zuverlässig bestimmt werden.
-
Eine erfindungsgemäße Steuereinrichtung für ein Fahrerassistenzsystem eines Kraftfahrzeugs ist zum Durchführen eines erfindungsgemäßen Verfahrens ausgelegt ist. Die Steuereinrichtung kann beispielsweise durch ein elektronisches Steuergerät (ECU – Electronic Control Unit) des Kraftfahrzeugs gebildet sein.
-
Ein erfindungsgemäßes Fahrerassistenzsystem für ein Kraftfahrzeug umfasst eine erfindungsgemäße Steuereinrichtung. Das Fahrerassistenzsystem kann ein Bremsassistent, ein Spurhalteassistent, ein Spurwechselassistent, ein Abstandsregeltempomat oder dergleichen sein.
-
Bevorzugt umfasst das Fahrerassistenzsystem als die zumindest zwei Sensoren einen Radarsensor, einen Lasersensor, eine Kamera und/oder einen Ultraschallsensor. Das Fahrerassistenzsystem kann auch zumindest zwei gleiche Sensoren aufweisen. Dies können beispielsweise mehrere Radarsensoren oder mehrere Lasersensoren sein. Die zumindest zwei Sensoren können verteilt an dem Kraftfahrzeug angeordnet sein. Die jeweiligen Sensoren können zur Datenübertragung – beispielsweise über einen Fahrzeugdatenbus – mit der Steuereinrichtung zur Datenübertragung verbunden sein. Die Sensoren können unterschiedliche Erfassungsbereiche aufweisen.
-
Ein erfindungsgemäßes Kraftfahrzeug umfasst ein erfindungsgemäßes Fahrerassistenzsystem. Das Kraftfahrzeug ist insbesondere als Personenkraftwagen ausgebildet.
-
Die mit Bezug auf das erfindungsgemäße Verfahren vorgestellten bevorzugten Ausführungsformen und deren Vorteile gelten entsprechend für die erfindungsgemäße Steuereinrichtung, das erfindungsgemäße Fahrerassistenzsystem sowie für das erfindungsgemäße Kraftfahrzeug.
-
Weitere Merkmale der Erfindung ergeben sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung. Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen, sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar, ohne den Rahmen der Erfindung zu verlassen. Es sind somit auch Ausführungen von der Erfindung als umfasst und offenbart anzusehen, die in den Figuren nicht explizit gezeigt und erläutert sind, jedoch durch separierte Merkmalskombinationen aus den erläuterten Ausführungen hervorgehen und erzeugbar sind. Es sind auch Ausführungen und Merkmalskombinationen als offenbart anzusehen, die somit nicht alle Merkmale eines ursprünglich formulierten unabhängigen Anspruchs aufweisen.
-
Die Erfindung wird nun anhand von bevorzugten Ausführungsbeispielen sowie unter Bezugnahme auf die beigefügten Zeichnungen näher erläutert.
-
Dabei zeigen:
-
1 in schematischer Darstellung ein Kraftfahrzeug gemäß einer Ausführungsform der vorliegenden Erfindung, welches ein Fahrerassistenzsystem aufweist; und
-
2 in schematischer Darstellung ein Ablaufdiagramm eines Verfahrens zum Erfassen eines Objekts einer Umgebung des Kraftfahrzeugs.
-
In den Figuren werden gleiche oder funktionsgleiche Elemente mit den gleichen Bezugszeichen versehen.
-
1 zeigt in schematischer Darstellung ein Kraftfahrzeug 1 gemäß einer Ausführungsform der Erfindung in einer Draufsicht. Das Kraftfahrzeug 1 ist in dem vorliegenden Fall als Personenkraftwagen ausgebildet. Das Kraftfahrzeug 1 umfasst ein Fahrerassistenzsystem 2, welches zum Unterstützen eines Fahrers beim Führen des Kraftfahrzeugs 1 dient. Das Fahrerassistenzsystem 2 kann beispielsweise ein Notbremsassistent, Spurhalteassistent, Spurwechselassistent, Abstandsregeltempomat oder dergleichen ausgebildet sein.
-
Das Fahrerassistenzsystem 2 umfasst wiederum eine Steuereinrichtung 3, die beispielsweise durch ein elektronisches Steuergerät des Kraftfahrzeugs 1 gebildet sein kann. Darüber hinaus umfasst das Fahrerassistenzsystem 2 eine Mehrzahl von Sensoren 4 mit denen eine Umgebung 5 beziehungsweise ein Umgebungsbereich des Kraftfahrzeugs 1 erfasst werden kann. Mit den Sensoren 4 kann insbesondere ein Objekt 6 in der Umgebung 5 des Kraftfahrzeugs 1 zumindest bereichsweise erfasst werden. Die Sensoren 4 können beispielsweise verteilt an dem Kraftfahrzeug 1 angeordnet sein. Die Sensoren 4 können Radarsensoren, Lasersensoren, Lidar-Sensoren, optische Sensoren, Kameras, Ultraschallsensoren oder dergleichen sein. Mit den Sensoren 4 können jeweils Sensordaten erfasst werden. Die Sensordaten können die aktuelle Position und/oder die aktuelle Geschwindigkeit des Objekts 6 beschreiben.
-
In dem vorliegenden Ausführungsbeispiel umfasst das Fahrerassistenzsystem 2 als die Sensoren 4 einen Radarsensor 8 und eine Kamera 9. Mit den Sensoren 4 kann das Objekt 6 in der Umgebung 5 in Vorwärtsfahrtrichtung vor dem Kraftfahrzeug 1 erfasst werden. Die Auswahl und Anordnung der Sensoren 4 ist vorliegend rein beispielhaft zu verstehen. Der Radarsensor 8 kann ein Radarsignal beziehungsweise elektromagnetische Strahlung aussenden und das von dem Objekt 6 reflektierte Radarsignal wieder empfangen. Anhand der Laufzeit des Radarsignals kann der Abstand zwischen dem Kraftfahrzeug 1 und dem Objekt 6 bestimmt werden. Die Kamera 9 kann Videodaten beziehungsweise Bildsequenzen von der Umgebung 5 bereitstellen. Mit Hilfe einer entsprechenden Bildverarbeitungseinrichtung kann dann das Objekt 6 in den Videodaten erkannt werden. In Beispiel von 1 ist die Steuereinrichtung 3 separat angeordnet. Die Steuereinrichtung 3 könnte auch mit der Sensorelektronik in einen Sensor 4 integriert sein.
-
Die Sensordaten, die mit den Sensoren 4 bereitgestellt werden, werden von den jeweiligen Sensoren 4 an die Steuereinrichtung 3 übertragen. Hierzu ist die Steuereinrichtung 3 über eine jeweilige Datenleitung 10 mit den jeweiligen Sensoren 4 verbunden. Die Steuereinrichtung 3 ist dazu ausgelegt, die Sensordaten entsprechend zu verarbeiten. Insbesondere kann die Steuereinrichtung 3 anhand der Sensordaten bestimmen, ob das Objekt 6 in der Umgebung 6 des Kraftfahrzeugs 1 vorhanden ist. Hierzu werden mit der Steuereinrichtung 3 mehrere zeitlich aufeinanderfolgenden Detektionszyklen durchgeführt. Bei jedem der Detektionszyklen wird mittels der Steuereinrichtung 3 eine Fusion der Sensordaten der einzelnen Sensoren 4 durchführt Ferner kann die Steuereinrichtung Historiendaten bereitstellen, welche insbesondere die Sensordaten, die zu vorhergehenden Detektionszyklen bestimmt wurden, beschreiben. Anhand der fusionierten Sensordaten und der Historiendaten kann dann das Objekt 6 in der Umgebung erkannt werden.
-
Wenn das Objekt 6 in der Umgebung des Kraftfahrzeugs 1 erkannt wurde, kann mittels der Steuereinrichtung 3 ein Steuersignal ausgegeben werden. In Folge des Steuersignals kann beispielsweise eine Warnung an den Fahrer des Kraftfahrzeugs 1 ausgegeben werden. Das Kraftfahrzeug 1 umfasst vorliegend ferner eine Funktionseinrichtung 11, die über eine Datenleitung 10 mit der Steuereinrichtung 3 verbunden ist. Die Steuereinrichtung 3 kann ein Steuersignal zum Ansteuern beziehungsweise Steuern der Funktionseinrichtung 11 bereitstellen. Die Funktionseinrichtung 11 kann dazu dienen eine sicherheitskritische Funktion des Fahrerassistenzsystems 2 bereitzustellen. Mittels der Funktionseinrichtung 11 kann eine Längsführung und/oder eine Querführung des Kraftfahrzeugs 1 beeinflusst werden. Die Funktionseinrichtung 11 kann eine Lenkung, eine Bremsanlage und/oder ein Antriebsmotor des Kraftfahrzeugs 1 sein.
-
2 zeigt in schematischer Ansicht ein Ablaufdiagramm eines Verfahrens zum Erfassen des Objekts 6 in der Umgebung 5 des Kraftfahrzeugs 1. In einem Schritt S1 wird mittels der Steuereinrichtung 3 ein aktueller Detektionszyklus durchgeführt. Hierbei werden mit den Sensoren 4 beziehungsweise mit dem Radarsensor 8 und der Kamera 9 jeweils die Sensordaten, die das Objekt 6 beschreiben, erfasst und an die Steuereinrichtung 3 übertragen. Die Sensordaten werden mit den Sensoren 4 insbesondere zeitgleich erfasst.
-
In einem weiteren Schritt S2 werden die Sensordaten mittels der Steuereinrichtung 3 fusioniert. Dabei sind die Messzeitpunkte, an denen mit den beiden Sensoren 4 die Sensordaten bestimmt werden, bekannt. Als Ergebnis stellt die Steuereinrichtung 3 fusionierte Sensordaten bereit. Die Sensordatenfusion kann insbesondere auf Objektebene durchgeführt werden. Es kann auch vorgesehen sein, dass die Sensordatenfusion auf Merkmalsebene oder anhand der Rohdaten, die von den Sensoren 4 bereitgestellt werden, erfolgt.
-
In einem Schritt S3 werden die Historiendaten mittels der Steuereinrichtung 3 bereitgestellt. Die Historiendaten können als ersten Teil eine Information zu den Sensordaten, die zu vorherigen Detektionszyklen bestimmt wurden, umfassen. Die Sensordaten werden zum Bereitstellen der Historiendaten insbesondere nicht zeitlich gefiltert, wie beispielsweise mit einem Kalman-Filter. Beispielsweise können die Historiendaten entsprechende Kennungen beziehungsweise IDs umfassen. Diese Kennungen sind dem Objekt für die jeweiligen Sensoren 4, mit denen das Objekt 6 erkannt wurde, zugeordnet. Als zweiten Teil können die Historiendaten einen Bestimmungszeitpunkt beziehungsweise ein Alter umfassen, welcher beziehungsweise welches beschreibt, wann das Objekt 6 anhand der fusionierten Sensordaten erstmals erkannt wurde.
-
In einem Schritt S4 wird dann das Objekt 6 anhand der fusionierten Sensordaten und der Historiendaten mittels der Steuereinrichtung 3 erkannt. Dabei kann eine Existenzwahrscheinlichkeit, welche die Wahrscheinlichkeit für das Vorhandensein des Objekts 6 in der Umgebung 5 beschreibt, bestimmt werden. Anhand der Sensordaten von vorhergehenden Detektionsalgorithmen und des Alters des Objekts 6, das anhand der fusionierten Sensordaten erkannt wurde, können voneinander unabhängige Informationen zum Bestimmen der Existenzwahrscheinlichkeit bereitgestellt werden. Die Existenzwahrscheinlichkeit wird auf Grundlage der Sensordaten bestimmt, die von unterschiedlichen und voneinander unabhängigen Sensoren 4 bereitgestellt werden. Auf diese Weise können Sensoren 4 verwendet werden, die selbst keine Informationen bezüglich der Existenzwahrscheinlichkeit bereitstellen können. Somit kann die Existenzwahrscheinlichkeit zuverlässig bestimmt werden und fehlerhafte Ansteuerungen des Fahrerassistenzsystems 2 effektiv verhindert werden.
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- US 2006/0220912 A1 [0004]
- US 2011/0025548 A1 [0005]
- DE 102008001672 A1 [0006, 0014]
- DE 102006046843 A1 [0007]