DE102004052242A1 - Sensorfusionssystem und Fahrzeugsteuersystem mit diesem - Google Patents

Sensorfusionssystem und Fahrzeugsteuersystem mit diesem Download PDF

Info

Publication number
DE102004052242A1
DE102004052242A1 DE102004052242A DE102004052242A DE102004052242A1 DE 102004052242 A1 DE102004052242 A1 DE 102004052242A1 DE 102004052242 A DE102004052242 A DE 102004052242A DE 102004052242 A DE102004052242 A DE 102004052242A DE 102004052242 A1 DE102004052242 A1 DE 102004052242A1
Authority
DE
Germany
Prior art keywords
probability
probability distribution
data
data value
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102004052242A
Other languages
English (en)
Inventor
Naoki Kariya Kawasaki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Publication of DE102004052242A1 publication Critical patent/DE102004052242A1/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D1/00Measuring arrangements giving results other than momentary value of variable, of general application
    • G01D1/16Measuring arrangements giving results other than momentary value of variable, of general application giving a value which is a function of two or more values, e.g. product or ratio

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Image Analysis (AREA)
  • Controls For Constant Speed Travelling (AREA)
  • Image Processing (AREA)

Abstract

Jede von mehreren Wahrscheinlichkeitsverteilungs-Ausgabeeinheiten berechnet eine Wahrscheinlichkeitsverteilung eines Datenwerts, der von einem entsprechenden Sensor oder Algorithmus in einer Bilderkennungsverarbeitung oder dergleich erfasst wird. Die jeweiligen Wahrscheinlichkeitsverteilungen der mehreren Wahrscheinlichkeitsverteilungs-Ausgabeeinheiten werden als Ausgabe zu einer Synthesebestimmungs-Bearbeitungseinheit gegeben. Datenformate der Ausgaben der Synthesebestimmungs-Verarbeitungseinheit können dadurch standardisiert werden. Daher wird die Synthesebestimmungs-Verarbeitungseinheit davon ausgenommen, zu berücksichtigen, auf welchem Typ des Sensors oder Algorithmus jede der Ausgaben basiert. Auch dann, wenn ein Sensor oder Algorithmus hinzugefügt oder geändert wird, kann der gleiche datenfusionierende Algorithmus in der Synthesebestimmungs-Verarbeitungseinheit gleichartig verwendet werden.

Description

  • Die vorliegende Erfindung betrifft ein Sensortusionssystem und ein Fahrzeugsteuersystem mit diesem. In dem Sensorfusionssystem erfassen mehrere Typen von Erfassungseinrichtungen, zum Beispiel Sensoren, ein einziges Erfassungsobjekt und werden sich ergebende Erfassungswerte zum Verbessern einer Genauigkeit beim Erfassen des Erfassungsobjekts synthetisch bewertet.
  • Herkömmlicherweise ist ein adaptives Geschwindigkeitsregelsystem entwickelt worden, das automatisch eine Fahrzeuggeschwindigkeit einstellt, um einen Folgeabstand zu einem vorausfahrenden Fahrzeug durch Messen des Folgeabstands zu dem vorausfahrenden Fahrzeug zu steuern. Weiterhin ist ein Kollisionswarn- und Kollisionsverhinderungssystem entwickelt worden, das Steuervorgänge, wie zum Beispiel ein Alarmieren oder Bremsen, durchführt, wenn eine Kollisionsauftretenswahrscheinlichkeit hoch ist.
  • In diesen Systemen weist eine Erfassungsgenauigkeit eine bedeutsame Wichtigkeit bei Erkennungsvorrichtungen auf, die einen Radarsensor oder dergleichen verwenden, der eine Position, eine relative Geschwindigkeit und eine Abmessung des Erfassungsobjekts erkennt. Deshalb ist, wie es in den nachfolgend genannten Patentdruckschriften 1 bis 5 beschrieben ist, ein Sensorfusionssystem entwickelt worden. Dieses Sensorfusionssystem beinhaltet mehrere Erkennungsvorrichtungen, wie zum Beispiel eine Lasersensor-Erkennungseinheit und eine Bildsensor-Erkennungseinheit, die eine Kamera verwendet. Hierbei beinhaltet die Lasersensor-Erkennungseinheit so etwas, wie einen Milimeterwellenradar eines Funkwellentyps oder einen Laserradar, der einen Infrarotlaser verwendet. Die Erfassungsergebnisse aus den mehreren Erkennungseinheiten werden dadurch kombiniert, um eine höhere Genauigkeit und Zuverlässigkeit zu erzielen.
  • Zum Beispiel erkennt in einer Vorrichtung zum Erkennen eines vorde ren Fahrzeugs in der Patentdruckschrift 1 die Radarerkennungseinheit einen Folgeabstand, eine Ausrichtung und eine relative Geschwindigkeit, während die Bildsensor-Erkennungseinheit einen Folgeabstand, eine Ausrichtung, eine relative Geschwindigkeit, eine Fahrzeugbreite und eine Position innerhalb einer Fahrspur erkennt. In einer Syntheseverarbeitungseinheit wird es, wenn die erfassten Folgeabstände, Ausrichtungen, relativen Geschwindigkeiten in der Radarerkennungseinheit und der Bildsensor-Erkennungseinheit zwischen diesen gleich sind, erachtet, dass das gleiche einzelne Fahrzeug erfasst wird. Dieses Ergebnis wird zu Erkennungsergebnissen hinzugefügt. Hierbei werden als das Erkennungsergebnis der Folgeabstand, die Ausrichtung und die relative Geschwindigkeit, die gemeinsam von der Radarerkennungseinheit und der Bildsensor-Erkennungseinheit erkannt worden sind, und die Fahrzeugbreite und Position innerhalb einer Fahrspur, die aus der Bildsensor-Erkennungseinheit erkannt worden ist, von der Syntheseverarbeitungseinheit ausgegeben.
    • Patentdruckschrift 1: JP-2003-169197 A (US 2003/105578 A)
    • Patentdruckschrift 2: JP-2003-151094 A (US 2003/0097237 A)
    • Patentdruckschrift 3: JP-2003-84064 A
    • Patentdruckschrift 4: JP-2003-172780 A
    • Patentdruckschrift 5: JP-2003-99906 A
  • Es wird erwartet, dass dieser Typ einer Syntheseverarbeitungseinheit in verschiedenen Fahrzeugtypen verwendet wird. Hierbei können, wenn die Einheit in verschiedenen Fahrzeugtypen (luxuriös oder üblich) verwendet wird, verschiedene Funktionen, verschiedene Sensoren oder verschiedene Kombinationen von Sensoren erforderlich sein. Weiterhin kann ein Sensorfusionssystem durch Kombinieren von verschiedenen Sensoren ausgebildet sein, von denen jeder von einem unterschiedlichen Anbieter geliefert wird.
  • Hierbei bringt dieses Sensorfusionssystem potentiell Probleme mit sich. Typischerweise beinhaltet das Sensorfusionssystem verschiedene Erkennungseinrichtungen, die Sensoren beinhalten, und eine letztstufige Synthesebestimmungsverarbeitung, die ein Algorithmus ist, der die Datenausgaben aus der Erkennungseinrichtung sammelt und fusioniert. Dieser Algorithmus ist dadurch den Typen oder der Kombination der Sensoren zugeordnet. An ders ausgedrückt muss zu jeder Zeit, zu der die Kombination von Sensoren oder eine Spezifikation von einer der Erkennungseinrichtungen geändert wird, der Algorithmus der Synthesebestimmungsverarbeitung erneut überprüft werden.
  • Es wird angenommen, dass als ein auf ein übliches Fahrzeug ausgerichtetes Fahrunterstützungssystem ein adaptives Geschwindigkeitsregelsystem und ein Fahrspurabweichungsalarm in ein Fahrzeug eingebaut sind. Hierbei wird es erwartet, dass ein billiger Laserradar, eine Kamera einer niedrigen Auflösung und eine Berechnungsschaltung eines verhältnismäßig niedrigen Leistungsvermögens eine billige Erkennungssensoreinheit zum Erkennen von weißen Spuren und Objekten bilden. Im Gegensatz wird es für ein luxuriöses Fahrzeug, um eine Funktion zu erweitern, erwartet, dass ein Kollisionsverringerungssystem oder ein Fahrspurhalte-Unterstützungssystem in ein Fahrzeug eingebaut sind. Hierbei können ein Millimeterwellenradar mit einem hohen Umgebungswiderstand, eine hochauflösende Kameravorrichtung, die einen Dynamikbereich aufweist, und eine Berechnungsschaltung eines hohen Leistungsvermögens die Erkennungssensoreinheit zum Erfassen von weißen Spuren und Objekten bilden. Weiterhin kann für ein Mittelklassefahrzeug eine unterschiedliche Kombination, die ein verhältnismäßig niedriges Leistungsvermögen und einen verhältnismäßig niedrigen Preis aufweist, angewendet werden.
  • In dieser Situation werden, wenn der Algorithmus für die Syntheesbestimmungverarbeitung bezüglich jeder der Kombinationen entwickelt werden muss, die Entwicklungskosten hoch. Weiterhin muss auch dann, wenn ein Erkennungsalgorithmus oder dergleichen der ein lediglich kleiner Teil des Systems ist, geändert werden muss, der gesamte Algorithmus für die Datenfusion erneut überprüft werden.
  • Es ist eine Aufgabe der vorliegenden Erfindung, ein Sensorfusionssystem, in dem eine Vielseitigkeit und Wiederverwendbarkeit hervorragend sind, und ein Fahrzeugsteuersystem mit diesem zu schaffen.
  • Diese Aufgabe wird hinsichtlich des Sensorfusionssystem mit den in Anspruch 1 angegebenen Maßnahmen und hinsichtlich des Fahrzeugsteuer systems mit den in Anspruch 7 angegebenen Maßnahmen gelöst.
  • Weitere vorteilhafte Ausgestaltungen der vorliegenden Erfindung sind Gegenstand der abhängigen Ansprüche.
  • Genauer gesagt, wird, um die vorhergehende Aufgabe zu lösen, ein Sensorfusionssystem mit dem Folgenden geschaffen. Eine Mehrzahl von Erfassungseinheiten sind vorgesehen. Jede der Erfassungseinheiten erfasst einen Datenwert einer gegebenen Datenart. Eine Mehrzahl von Ausgabeeinheiten ist vorgesehen. Jede der Ausgabeeinheiten berechnet eine Wahrscheinlichkeitsverteilung des Datenwerts, der von einer entsprechenden Erfassungseinheit erfasst wird, die in der Mehrzahl von Erfassungseinheiten enthalten ist, und gibt dann die berechnete Wahrscheinlichkeitsverteilung aus. Hierbei zeigt die Wahrscheinlichkeitsverteilung des Datenwerts eine Wahrscheinlichkeit bezüglich eines wahren Werts der gegebenen Datenart an. Eine Synthesebestimmungseinheit ist zum Schätzen eines wahrscheinlichsten Datenwerts der gegebenen Datenart auf der Grundlage der Wahrscheinlichkeitsverteilungen vorgesehen, die aus den Ausgabeeinheiten ausgegeben werden.
  • In dieser Struktur erfassen die mehreren Erfassungseinheiten die Datenwerte der gegebenen (gewünschten) Datenart und geben die entsprechenden Ausgabeeinheiten die Wahrscheinlichkeitsverteilungen von jeweiligen derartigen Datenwerten aus. Das heißt, die Erfassungseinheiten geben nicht die Erfassungsdaten, wie zum Beispiel eine Position, eine Abmessung oder dergleichen, aus, die direkt erfasst werden. Stattdessen erzielen die Erfassungseinheiten die Wahrscheinlichkeiten bezüglich des wahren Werts der jeweiligen Datenart und geben diese zu der Synthesebestimmungseinheit aus. Die Wahrscheinlichkeit ist eine Wahrscheinlichkeitsverteilung, die darstellt, mit welchem Grad dem Datenwert vertraut werden kann. Daher ist die Ausgabeform der Daten, die aus der Synthesebestimmungseinheit ausgegeben werden, standardisiert, so dass die Synthetikbestimmungseinheit nicht berücksichtigen muss, welcher Typ einer Erfassungseinheit das Erfassungsergebnis liefert. Als Ergebnis kann auch dann, wenn irgendein Typ einer Erfassungseinheit kombiniert werden kann, der gleiche Datenfusionsalgorithmus ohne Änderung angewendet werden.
  • Die vorliegende Erfindung wird nachstehend anhand von Ausführungsbeispielen und Bezugnahme auf die beiliegende Zeichnung näher erläutert.
  • Es zeigt:
  • 1 eine Darstellung einer schematischen Struktur einer Fahrunterstützungs-Steuervorrichtung gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
  • 2 einen Graph einer durch Kombinieren einer Gauss-Verteilung und einer Gleichverteilung dargestellten Wahrscheinlichkeitsverteilung;
  • 3A bis 3D Graphen von anderen als eine Kombination einer Gauss-Verteilung und einer Gleichverteilung dargestellten Wahrscheinlichkeitsverteilungen;
  • 4A einen gleichzeitig mehrere Wahrscheinlichkeitsverteilungen bezüglich einer einzigen Datenart zeigenden Graph;
  • 4B einen Graph einer Wahrscheinlichkeitsverteilung als ein Ergebnis einer Multiplikation (eines Produkts) von mehreren Wahrscheinlichkeitsverteilungen;
  • 5 einen Graph eines Beispiels einer Kausalbeziehung von Variablen;
  • 6A einen Graph einer Wahrscheinlichkeitsverteilung eines von einer Bilderkennungsverarbeitung, während es hell ist, erfassten Datenwerts; und
  • 6B einen Graph einer Wahrscheinlichkeitsverteilung eines von einer Bilderkennungsverarbeitung, während es dunkel oder regnerisch ist, erfassten Datenwerts.
  • 1 zeigt eine Struktur einer Fahrunterstützungs-Steuervorrichtung 10 gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Wie es in 1 gezeigt ist, beinhaltet die in ein Fahrzeug eingebaute Vorrichtung 10 Erfassungseinheiten, wie zum Beispiel einen Millimeterwellenradar, eine Navigationsvorrichtung, eine Bilderkennungsvorrichtung, die eine Kamera beinhaltet, einen Beleuchtungssensor oder dergleichen. Andere Erfassungseinheiten (nicht gezeigt) sind ein Regentropfensensor, ein Fahrzeuggeschwindigkeitssensor, ein Lenkwinkelsensor, welche Daten erfassen, die zum Erfassen von Fahrzeug-Fahrzuständen oder Fahrumgebungen verwendet werden.
  • Der Millimeterwellenradar berechnet einen Abstand, eine relative Geschwindigkeit und eine Ausrichtung zu einem vorausfahrenden Fahrzeug oder einem Hindernis, das vor dem Fahrzeug vorhanden ist, auf der Grundlage des Ergebnisses eines Empfangens und Sendens von Millimeterwellen und berechnet weiterhin eine Wellenstärke der empfangenen Millimeterwelle. Die berechneten Datenwerte werden ausgegeben.
  • Die Navigationsvorrichtung erfasst eine derzeitige Position des Fahrzeugs und gibt einen Datenwert aus, der sich auf einen Straßentyp bezieht, der der erfassten derzeitigen Position entspricht.
  • Die Bilderkennungsvorrichtung führt eine Bildverarbeitung für Bildsignale eines Bilds durch, das von innerhalb eines gegebenen Bereichs vor dem Fahrzeug genommen ist, um dadurch zum Beispiel einen Typ eines vorausfahrenden Fahrzeugs, einen Folgeabstand zu dem vorausfahrenden Fahrzeug, eine Abmessung (Breite, Enden der hinteren Breite, eine Mitte der hinteren Breite) des vorausfahrenden Fahrzeugs, eine Breite einer weißen Spur oder dergleichen zu erfassen.
  • Der Beleuchtungssensor gibt Datenwerte aus, die sich auf eine Helligkeit außerhalb des Fahrzeugs beziehen. Die ausgegebenen Datenwerte werden zum Beispiel zum Einstellen einer Wahrscheinlichkeit des erkannten Ergebnisses verwendet.
  • Die Datenwerte, die von den jeweiligen Erfassungseinheiten erfasst werden, werden in die entsprechenden Wahrscheinlichkeitsverteilungs-Aus gabeeinheiten 1a bis 1d eingegeben, welche dann rechnen, um Wahrscheinlichkeitsverteilungen auszugeben, die Wahrscheinlichkeiten der jeweiligen Datenwerte darstellen.
  • Das Berechnungsverfahren für die Wahrscheinlichkeitsverteilung in den Wahrscheinlichkeitsverteilungs-Ausgabeeinheiten 1a bis 1d wird später im Detail erläutert. Hierbei entspricht in 1 jede Erfassungseinheit einer Signalwahrscheinlichkeitsverteilungs-Ausgabeeinheit. Jedoch werden als die zuvor beschriebene Bilderkennungsvorrichtung, wenn Datenwerte von mehreren Datenarten, wie zum Beispiel der Typ des vorausfahrenden Fahrzeugs, der Folgeabstand zu dem vorausfahrenden Fahrzeug, die Abmessung des vorausfahrenden Fahrzeugs, die Breite der weißen Spur oder dergleichen, von jeder Erfassungseinheit auf der Grundlage der Bildsignale erfasst werden, Wahrscheinlichkeitsverteilungen bezüglich jeder der mehreren Datenarten berechnet.
  • Die Wahrscheinlichkeitsverteilungen, die aus den Wahrscheinlichkeitsverteilungs-Ausgabeeinheiten 1a bis 1d ausgegeben werden, werden in eine Synthesebestimmungs-Verarbeitungseinheit 2 eingegeben. Wenn die Synthesebestimmungs-Verarbeitungseinheit 2 die mehreren Wahrscheinlichkeitsverteilungen der Datenwerte der gleichen Datenart empfängt, berechnet die Synthesebestimmungs-Verarbeitungseinheit 2 das (Multiplikations)-Produkt der mehreren Wahrscheinlichkeitsverteilungen, um dadurch die Datenwerte zu fusionieren. Das heißt, ein Datenwert, der die maximale (höchste) Wahrscheinlichkeit in einer sich ergebenden Wahrscheinlichkeitsverteilung als ein Ergebnis des Produkts aufweist, wird als der wahrscheinlichste Datenwert der Datenart geschätzt. Hierbei werden ebenso die Wahrscheinlichkeitsdaten ausgegeben, die die maximale Wahrscheinlichkeit darstellen. Die Verarbeitung in der Synthesebestimmungs-Verarbeitungseinheit 2 wird später im Detail erläutert. 1 beinhaltet in der Synthesebestimmungs-Verarbeitungseinheit 2 eine Rückkopplungsschleife, in der ein zu dieser Zeit ausgegebener Datenwert in die Synthesebestimmungs-Verarbeitungseinheit 2 oder dergleichen als ein Schätzwert einer vorhergehenden Zeit eingegeben wird.
  • Die Synthesebestimmungs-Verarbeitungseinheit 2 führt ihr Ausgangs signal einer Fahrzeugsteuereinheit 3 zu. Die Fahrzeugsteuereinheit 3 beinhaltet eine Fahrunterstützungs-Steuervorrichtung, wie zum Beispiel ein adaptives Geschwindigkeitsregelsystem, ein Kollisionsverringerungssystem usw. Das heißt, auf der Grundlage des Ausgangssignals aus der Synthesebestimmungs-Verarbeitungseinheit 2 führt die Fahrunterstützungs-Steuervorrichtung eine Fahrunterstützung wie folgt durch: Liefern einer Information zu einem Fahrer; Ausgeben einer Warnung; Steuern von Fahrzeug-Fahrzuständen durch Betätigen einer Bremse oder eines Drosselventils; Aktivieren einer Sicherheitsvorrichtung oder einer Insassenschutzvorrichtung, wie zum Beispiel eines Airbags oder eines Sicherheitsgurts; oder Steuern einer Lenkkraft einer elektromotorischen Lenkvorrichtung. Wenn diese Fahrunterstützungs-Steuervorrichtung in ein Fahrzeug eingebaut ist, wird es erwartet, dass ein Typ oder ein Leistungsvermögen eines angewendeten Sensors abhängig von einem Typ des Fahrzeugs geändert wird. In dem Sensorfusionssystem dieses Ausführungsbeispiels der vorliegenden Erfindung müssen Differenzen (oder Typen) der Sensoren nicht berücksichtigt werden, so dass dieses Sensorfusionssystem vorzugsweise in einem Fahrzeug angewendet wird.
  • Als Nächstes werden die Wahrscheinlichkeitsverteilungs-Ausgabeeinheiten 1a bis 1d, die Wahrscheinlichkeitsverteilungen berechnen, die eine Datenwahrscheinlichkeit anzeigen, um diese dadurch auszugeben, nachstehend im Detail erläutert. Hierbei werden Verfahren, um Wahrscheinlichkeitsverteilungen aus erfassten Datenwerten zu berechnen, abhängig von diskreten Datenwerten oder kontinuierlichen Datenwerten erläutert.
  • Zum Beispiel erfasst ein Millimeterwellenradar einen Abstand, eine relative Geschwindigkeit, eine Ausrichtung oder dergleichen zu einem reflektierenden Objekt als eindeutige Werte auf der Grundlage von Ergebnissen eines Empfangens oder Sendens. Der Abstand, die relative Geschwindigkeit, die Ausrichtung oder dergleichen werden in Übereinstimmung mit einer relativen Position oder Geschwindigkeit zwischen dem Bezugsfahrzeug und dem reflektierenden Objekt kontinuierlich verändert. Dieser Typ eines Sensors erfasst Daten, die kontinuierliche Werte einer Zustandsgröße aufweisen, als den eindeutigen Wert. Das Verfahren, das bei diesem Typ des Sensors zum Wandeln der erfassten Datenwerte zu einer Wahrscheinlichkeitsverteilung (genauer einer Wahrscheinlichkeit) verwendet wird, wird nachstehend erläutert.
  • Eine Darstellungsform für die Wahrscheinlichkeitsverteilung wendet eine Form an, in der eine Gauss-Verteilung und eine Gleichverteilung kombiniert sind, während ein ausgegebener Datenwert auf eine Mitte festgelegt wird. Der Grund, warum diese Darstellungsform angewendet wird, ist, dass der Sensor eine Möglichkeit eines Erfassens eines falschen Datenwerts und eines Ausgebens von diesem aufweist und dass angenommen wird, dass Datenwerte, die von dem Sensor erfasst werden, eine Verteilung darstellen, die eine bestimmte Standardabweichung aufweist.
  • Zum Beispiel wird angenommen, dass ein Sensor einen Winkel α als eine Datenart erfasst, die eine Ausrichtung eines reflektierenden Objekts darstellt, und dass eine Fehlerkennungswahrscheinlichkeit des Sensors 20% und eine Standardabweichung 0,4 ist. Hierbei bedeutet die Fehlerkennungswahrscheinlichkeit des Sensors eine Wahrscheinlichkeit, dass der Sensor ein falsches Objekt erkennt. In diesem Fall wird die Wahrscheinlichkeitsverteilung aus einer Kombination einer Gleichverteilungskomponente (20%) und einer Gauss-Verteilungskomponente (80%) ausgebildet, die eine Standardabweichung und eine Mitte bei dem erfassten Datenwert eines Winkels α aufweist. Das heißt, die Gleichverteilungskomponente (eine integrierte Fläche eines Abschnitts B in 2) hat einen Anteil von 20% des Ganzen, während die Gauss-Verteilungskomponente (eine integrierte Fläche eines Abschnitts A in 2) einen Anteil von 80% des Ganzen hat.
  • Die Fehlerkennungswahrscheinlichkeit und Standardabweichung werden durch eine Trennschärfe oder Eigenschaft des Sensors oder eine Kumulation der tatsächlichen Erfassungsergebnisse erzielt.
  • Im Gegensatz dazu können die Daten, die diskrete (oder verteilte) Werte einer Zustandsgröße, wie zum Beispiel eines Fahrzeugtyps, aufweisen, in einer Form einer Wahrscheinlichkeitsverteilung ausgegeben werden, wie es nachstehend erläutert wird. Der Fahrzeugtyp wird als ein Beispiel von Daten verwendet, die diskrete Werte als eine Zustandsgröße aufweisen. Der Fahrzeugtyp wird zum Beispiel durch einen Bildverarbeitungsalgorithmus bestimmt, der einen Vorlagenabgleich mit Bildsignalen durchführt, die von einer Kamera erfasst werden.
  • Zum Beispiel wird angenommen, dass der Fahrzeugtyp "Personenkraftwagen", "Lastkraftwagen", "Rad", "Person", "Hindernis" und "andere" beinhaltet. Ein Ausgeben eines Fahrzeugtyps in einer Wahrscheinlichkeitsverteilungsform bedeutet, dass die entsprechenden Wahrscheinlichkeiten als "3%, 1%, 10%, 50%, 30% bzw. 6%" bezüglich den Fahrzeugtypen dargestellt werden. Hierbei wird das Ganze von "3%, 1%, 10%, 50%, 30%, 6%" gleich 100%.
  • Zum Beispiel wird, wenn der Bildverarbeitungsalgorithmus ein einziges Ergebnis von "Personenkraftwagen" ausgibt, dieses Ergebnis wie folgt zu einer Wahrscheinlichkeitsverteilung geändert.
  • Zuerst werden die verstrichenen Ergebnisse, die der Algorithmus "Personenkraftwagen" ausgibt, als ein Fahrzeugtyp gesammelt. Zu welchen Fahrzeugtypen die relevanten Objekte, die als "Personenkraftwagen" ausgegeben werden, tatsächlich klassifiziert werden, wird dann innerhalb der verstrichenen Ergebnisse gesammelt. Als ein Ergebnis wird zum Beispiel "90 der relevanten Objekte sind tatsächlich zu "Personenkraftwagen" klassifiziert, 2% der relevanten Objekte sind tatsächlich zu "Lastkraftwagen" klassifiziert, ..." als ein kumuliertes Ergebnis erzielt. Auf der Grundlage des kumulierten Ergebnisses wird eine Wahrscheinlichkeitsverteilungs-Wandlungseinheit innerhalb der Wahrscheinlichkeitsverteilungs-Ausgabeeinheit ausgebildet. Das heißt, wenn der Algorithmus den Fahrzeugtyp als "Personenkraftwagen" ausgibt, gibt die Wahrscheinlichkeitsverteilungs-Wandlungseinheit eine Wahrscheinlichkeitsverteilung von "90%, 2%, ..." aus.
  • Weiterhin kann ein umgekehrtes Verfahren angewendet werden. Zuerst werden die verschiedenen Bilder von "Personenkraftwagen" in den Bildverarbeitungsalgorithmus eingegeben, der einen Vorlagenabgleich durchführt. Zu welchem Fahrzeugtyp die eingegebenen Bilder klassifiziert werden, wird statistisch kumuliert. Hierbei werden zum Beispiel Verteilungsdaten, wie zum Beispiel 80% werden zu Personenkraftwagen klassifiziert, 10% werden zu Lastkraftwagen klassifiziert, ... kumuliert. Auf eine ähnliche Weise werden Verteilungsdaten bezüglich Bildern von "Lastkraftwagen", "Rad", usw. kumuliert. Wenn die Verteilungsdaten bezüglich den gesamten Typen kumuliert worden sind, bedeutet dies, dass eine Wahrscheinlichkeitsverteilungsfunktion erzielt wird, die über zwei variable Achsen verteilt ist. Weiterhin ist die Wahrscheinlichkeitsverteilungsfunktion eine kombinierte Wahrscheinlichkeitsverteilungsfunktion P (ausgegebener Typ | wahrer Typ), so dass in dem nächsten Schritt eine Funktion berechnet wird, die die umgekehrten Eingabevariablenachsen aufweist. Das heißt, die Funktion P (wahrer Typ | ausgegebener Typ), die einen wahren Typ erzielt, wenn der ausgegebene Typ bekannt ist, berechnet. Die Verteilung der Funktion wird einfach durch typisches Multiplizieren einer Normalisierungskonstante ausgebildet, die durch einen Wert der Variablen in dem umgekehrten Zustand bestimmt wird.
  • Die zuvor beschriebene Wahrscheinlichkeitsverteilungs-Wandlungseinheit kann unberücksichtigt des Sensortyps, Datentyps (diskret oder kontinuierlich) aufgebaut werden. Dies ist so, da die Wahrscheinlichkeitsverteilungs-Wandlungseinheit auf der Grundlage der Verteilungsdaten ausgebildet ist, die statistisch erneut aus Datenwerten angeordnet werden, die in der Vergangenheit erfasst worden sind, und da es keine Ausgaben gibt, deren Ergebnisse nicht statistisch angeordnet werden können. Dies ist der bedeutsamste Vorteil dieses Verfahrens und der Grund, warum Ausgaben frei von einer Abhängigkeit bezüglich des Sensortyps oder Datentyps sind.
  • Weiterhin kann die Variable eines inhärent kontinuierlichen Datenwerts als die diskreten Werte behandelt werden. Zum Beispiel wird eine Sonnenstrahlungsgröße durch erneutes Definieren der Sonnenstrahlungsgröße, die von dem Bestrahlungssensor erfasst wird, zu "direkter Sonnenschein", "wolkig", "Dämmerung" usw. zu diskreten Werten gewandelt. Unberücksichtigt des diskreten oder kontinuierlichen Werts wird die Variable, wenn die Zustände der Variable als sich gegenseitig unterscheidende und vollständige Zustände definiert sind (auf alle Fälle ist einer der Zustände vorhanden), letztlich als die Zustandswahrscheinlichkeitskumulation dargestellt, die insgesamt 100% aufweist.
  • Die Wahrscheinlichkeitsverteilung der Datenwerte, die von der Erfassungseinheit erfasst werden, wird durch die zuvor beschriebenen Verfahren erzielt und dann zu der Synthesebestimmungs-Verarbeitungseinheit 2 ausgegeben.
  • Es wird angenommen, dass die Wahrscheinlichkeitsverteilungen der Datenwerte, die von dem Wahrscheinlichkeitsverteilungs-Ausgabeeinheiten 1a bis 1d erzielt werden, ausgegeben werden. Hierbei kann, wenn Abbildungsdaten, die den Formen der Wahrscheinlichkeitsverteilungen entsprechen, ausgebildet werden, die Wahrscheinlichkeitsverteilung am Genausten dargestellt werden, jedoch wird das Datenvolumen zwischen den Wahrscheinlichkeitsverteilungs-Ausgabeeinheiten 1a bis 1d und der Synthesebestimmungs-Verarbeitungseinheit 2 bedeutsam groß. Daher werden in diesem Ausführungsbeispiel der vorliegenden Erfindung die Wahrscheinlichkeitsverteilungen durch skalare Größen dargestellt und aus den Wahrscheinlichkeitsverteilungs-Ausgabeeinheiten 1a bis 1d zu der Synthesebestimmungs-Verarbeitungseinheit 2 ausgegeben.
  • Zum Beispiel wird, wenn die Wahrscheinlichkeitsverteilung als die Summe einer Gauss-Verteilung und einer Gleichverteilung dargestellt ist, die Wahrscheinlichkeitsverteilung durch drei skalare Größen eines "Mittelwerts" der Gauss-Verteilung; einer "Varianz" der Gauss-Verteilung und einem "normalen Erkennungsverhältnis" dargestellt, das ein Verhältnis zwischen der Gauss-Verteilung und der Gleicherteilung anzeigt.
  • Hierbei entspricht die Gauss-Verteilung einem Abschnitt A in 2 während die Gleichverteilung einem Abschnitt B in 2 entspricht. Die Spitze der Gauss-Verteilung ist durch den "Mittelwert" definiert. Die Spanne einer breiten Grundlinie der Gauss-Verteilung ist durch die "Varianz (oder Standardabweichung)" definiert. Die Dicke der Gleichverteilung oder die vertikale Skala der Gauss-Verteilung ist durch das "normale Erkennungsverhältnis (oder Fehlerkennungsverhältnis)" definiert. Diese Struktur kann ebenso eine Möglichkeit eines Ausgebens eines falschen Datenwerts und eine Standardabweichung zeigen, die eine Möglichkeit einer Verteilung eines wahren Werts anzeigt.
  • Weiterhin können die Wahrscheinlichkeitsverteilungs-Ausgabeeinheiten 1a bis 1d andere Wahrscheinlichkeitsverteilungen als die Kombination der Gauss-Verteilung und der Gleichverteilung ausgeben. Die 3A bis 3D zeigen Graphen von Beispielen der anderen Wahrscheinlichkeitsverteilungen als der Kombination der Gauss-Verteilung und der Gleichverteilung. In diesen Wahrscheinlichkeitsverteilungen werden skalare Größen verwendet, die sich von dem "Mittelwert" oder der "Varianz" unterscheiden.
  • Als Nächstes wird die Synthesebestimmungs-Verarbeitungseinheit 2 nachstehend erläutert. Die Synthesebestimmungs-Verarbeitungseinheit 2 gibt die Wahrscheinlichkeitsverteilungen auf der Grundlage der empfangenen skalaren Größen wieder, wenn die Wahrscheinlichkeitsverteilungs-Ausgabeeinheiten 1a bis 1d die Wahrscheinlichkeitsverteilungen durch die skalaren Größen ausgeben. Dann wird das Produkt der wiedergegebenen Wahrscheinlichkeitsverteilungen, die die gleiche Datenart (Winkel) aufweisen, berechnet, wie es in den 4A, 4B gezeigt ist, um die Datenwerte z fusionieren. Das heißt, der Datenwert, der die maximale (höchste) Wahrscheinlichkeit in einer Wahrscheinlichkeitsverteilung (in 4B gezeigt) als ein Ergebnis des Produkts aufweist, wird mathematisch als der wahrscheinlichste Datenwert angenommen. Die Begründung für diese Annahme wird nachstehend erläutert.
  • Es wird angenommen, dass ein wahrer Wert x ist, Überwachungsergebnisse x1, x2, ..., sind und irgendeines der Überwachungsergebnisse von einem anderen Überwachungsergebnis unabhängig ist. Hierbei ist typischerweise ein kombinierte Wahrscheinlichkeitsdichtefunktion wie folgt gezeigt:
  • – Gleichung 1
    • P(x, x1, x2, ...) = P(x) P(x1|x) P(x2|x) ...
  • Hierbei ist P(x|x1) eine bedingte Wahrscheinlichkeit, dass eine Wahrscheinlichkeit x ist, wenn x1 erzielt wird.
  • Wenn das Überwachungsergebnis erzielt wird, wird ein wahrer Wert durch P(x|x1, x2, ...) geschätzt, welches wie folgt mit der Bayes-Gleichung modifiziert ist:
  • – Gleichung 2
    • P(x|x1, x2, ...) = {P(x) P(x1|x) P(x2|x) ...}/{P(x1) P(x2) ...}
  • Der Nenner wird eine Konstante zur Normalisierung, so dass er vernachlässigt werden kann. Weiterhin ist P(x) eine vorhergehende Wahrscheinlichkeit des wahren Werts x und kann nicht irgendwo lokalisiert werden. Er wird daher eine Gleichverteilung und gleich zu einer Multiplikation einer Konstante, so dass er ebenso vernachlässigt werden kann. Als ein Ergebnis wird diese Wahrscheinlichkeitsverteilung als das Produkt von P(x1 x), P(x2|x), ... dargestellt.
  • Zum Beispiel ist P(x1|x) eine Funktion mit zwei Variablen, die durch die Basis von durchlaufenen statistischen Daten ausgebildet ist, "wie x1 statistisch verteilt ist, wenn x erzielt wird". Weiterhin wird er, da x1 gegeben ist, eine Wahrscheinlichkeitsfunktion " bei der der wahre Wert mit der höchsten Wahrscheinlichkeit vorhanden ist, wenn x1 gegeben ist". Deshalb wird es, wenn der wahre Wert x aus den mehreren Überwachungsergebnissen geschätzt wird, durch das Produkt der Wahrscheinlichkeitsfunktionen dargestellt, die aus den jeweiligen Überwachungsergebnissen erzielt werden.
  • Daher wird, wenn Ausgangsergebnisse auf der Grundlage der Daten, die von den jeweiligen Erfassungseinheiten 1a bis 1d erfasst werden, in Formen von Wahrscheinlichkeitsfunktionen (Wahrscheinlichkeitsverteilungen) ausgegeben werden, die Verarbeitung in der Synthesebestimmungs-Verarbeitungseinheit 2 die einfache Multiplikation, während das erzielte Ergebnis die mathematische Begründung aufweist. Dies stellt einen Vorteil dar, dass das erzielte Ergebnis eine hohe Genauigkeit und allgemeine Vielseitigkeit aufweist.
  • Weiterhin nimmt die Synthesebestimmungs-Verarbeitungseinheit 2 als den wahrscheinlichsten Datenwert den Datenwert an, der die höchste Wahrscheinlichkeit in der sich ergebenden Wahrscheinlichkeitsverteilung des Produkts der Wahrscheinlichkeitsverteilungen aufweist, die aus den mehreren Wahrscheinlichkeitsverteilungs-Ausgabeeinheiten 1a bis 1d ausgegeben werden.
  • Das heißt, wenn ein einzelner Wert aus den Wahrscheinlichkeitsverteilungen, die aus den Wahrscheinlichkeitsverteilungs-Ausgabeeinheiten 1a bis 1d ausgegeben werden, ausgewählt werden muss, nimmt er die Synthesebestimmungs-Verarbeitungseinheit 2 als die endgültige Ausgabe den Datenwert an, der die höchste Wahrscheinlichkeit in der sich ergebenden Wahrscheinlichkeitsverteilung des Produkts der Wahrscheinlichkeitsverteilungen aufweist, die aus den mehreren Wahrscheinlichkeitsverteilungs-Ausgabeeinheiten 1a bis 1d ausgegeben werden. Dies vereinfacht bedeutsam den Algorithmus zum Erzielen der endgültigen Ausgabe. Dies minimiert ebenso das Gesamtrisiko, wenn das erwartete Risiko beim falschen Auswählen eines anderen als dem wahren Wert als gleich wie bei einem Auswählen aus anderen als dem wahren Wert erwartet wird.
  • Im Detail wird es angenommen, dass eine Dämpfung λ(xJ|xi) ist, wenn ein wahrer Wert xi ist und der Wahre Wert als xj ausgegeben wird. Ebenso wird gleichzeitig angenommen, dass ein Gesamtrisiko R(xi|xv) ist, wenn der Überwachungsvektor xv erzielt wird und der wahre Wert als xi ausgegeben wird.
  • – Gleichung 3
    • R(xi|xv) = Σ λ(xi|xj) P(xj|xv) (Σ wird am gesamten j angewendet)
  • Hierbei ist, wenn es definiert ist, dass λ(xj|xi) = 0 ist, wenn i = j ist, während λ(xj|xi) = 1 ist, wenn i ≠ j ist, das Gesamtrisiko R(xi|xv) wie folgt gezeigt:
  • – Gleichung 4
    • R(xi|xv) = Σ P(xj|xv) (Σ wir am gesamten j ausschließlich = 1 – P(xi|xv) j = i angewendet)
  • Das Ergebnis von Gleichung 4 ist eine mittlere Fehlerwahrscheinlich keit. Diese Entscheidungsregel, die das Gesamtrisiko R minimiert, besteht darin, die vorhergehende Wahrscheinlichkeit P(xi|xv) zu maximieren. Das heißt, ein Anwenden der Entscheidungsregel von "xi wird bestimmt, wenn P(xi|xv) > P(xj|xv) unter dem gesamten j, aber j ≠ i ist" führt zu dem erzielbaren maximalen Leistungsvermögen.
  • Das Produkt der Wahrscheinlichkeitsverteilungen wird immer eine Wahrscheinlichkeitsverteilung, wie es in den 4A, 4B gezeigt ist. Unberücksichtigt des diskreten oder kontinuierlichen Datenwerts der Datenart (Variable) kann der Datenwert, der die maximale Wahrscheinlichkeit aufweist, extrahiert werden. Die Multiplikation der Wahrscheinlichkeitsverteilungen und die Annahme des wahrscheinlichsten Datenwerts werden nachstehend erläutert.
  • Zum Beispiel wird es angenommen, dass eine Ausgabeeinheit die Wahrscheinlichkeitsverteilung des Fahrzeugtyps als "3%, 1%,, 10%, 50%, 30%, 6%" ausgibt und eine andere Ausgabeeinheit ebenso die Wahrscheinlichkeitsverteilung des Fahrzeugtyps als 3%, 1%, 10%, 50%, 30%, 6%" ausgibt. Hierbei werden die beiden Wahrscheinlichkeitsverteilungen multipliziert, um das Produkt zu berechnen, und normalisiert, um insgesamt 100% zu sein, so dass eine Wahrscheinlichkeitsverteilung des Ergebnisses "0,25%, 0,03%, 2,82%, 70,50%, 25,38%, 1,02%" wird. Der vierte Typ von "70,50%" wird als der wahrscheinlichste Datenwert extrahiert.
  • Daher lässt, wenn mehrere Informationsstücke in Formen angesammelt werden, die die Wahrscheinlichkeit anzeigen, dass "der wahre Typ dieser" aus den Wahrscheinlichkeitsverteilungs-Ausgabeeinheiten 1a bis 1d sein kann, ein einfaches Berechnen des Produkts der mehreren Wahrscheinlichkeitsverteilungen zu, dass die sich ergebende Wahrscheinlichkeitsverteilung das Maximum in jedem Zustand (Typ) aufweist. Weiterhin kann, wenn mehrere Zustände (Typen) das gleiche Maximum aufweisen, irgendeiner von diesen extrahiert werden.
  • Der Fahrzeugtyp wird nicht nur durch Durchführen des Vorlagen abgleichenden Bilderkennungsalgorithmus, sondern ebenso auf der Grundlage der Fahrzeugbreite erkannt, die als ein Ergebnis einer Bilderkennung oder einer Funkwellenstärke der Millimeterwelle erwartet wird. Das heißt, die Funkwellenstärke oder Breite kann zum Beispiel, wenn der Fahrzeugtyp einmal als "Personenkraftwagen" bezeichnet worden ist, innerhalb eines bestimmten Bereichs fallen. Im Gegensatz dazu kann, wenn die Breite einmal bezeichnet worden ist, die Wahrscheinlichkeitsverteilung des Fahrzeugtyps, die anzeigt, welcher Typ am wahrscheinlichsten ist, erzielt werden.
  • Auf eine ähnliche Weise wird der Straßentyp direkt durch eine "Straßentypinformation aus einem Navigationssystem" erfasst und indirekt durch eine "Spurbreite durch die Erkennung der weißen Spur" erfasst oder erwartet. In diesem Fall kann ebenso die Wahrscheinlichkeitsverteilung, die die Wahrscheinlichkeit der verschiedenen Erfassungsergebnisse darstellt, erzielt werden.
  • Weiterhin wird die Sonnenstrahlungsgröße von einer der Fahrumgebungen einzeln durch "einen Beleuchtungssensor", "EIN/AUS-Signale des Scheibenwischers", "einen Algorithmus zum Bestimmen eines mittleren Beleuchtungswerts für das gesamte Bild durch die Bildverarbeitung, "Stunden" usw. erfasst. Die Wahrscheinlichkeitsverteilung, die die Wahrscheinlichkeit der verschiedenen Erfassungsergebnisse anzeigt, kann ebenso erzielt werden.
  • Weiterhin wird der Straßenzustand (oder Straßenoberflächenzustand) von einer der Fahrumgebungen einzeln durch "einen Beleuchtungssensor", "EIN/AUS-Signale des Scheibenwischers", "eine Außenlufttemperatur", "einen Straßenzustands-Erkennungsalgorithmus durch die Bildverarbeitung", "eine Information aus einer Infrastruktur über eine Straßen/Fahrzeugkommunikation" usw. erfasst. Die Wahrscheinlichkeitsverteilung, die die Wahrscheinlichkeit der verschiedenen Erfassungsergebnisse darstellt, kann ebenso erzielt werden.
  • Ein Beispiel der zuvor beschriebenen Kausalbeziehung zwischen den verschiedenen Variablen ist in 5 gezeigt. Die Kreise stellen Variablen (Knoten) dar, während die Teile zwischen den Knoten Kausalbeziehungen darstellen, wobei die Richtung von den Gründen zu den Ergebnissen ist. Die leeren Kreise stellen Daten dar, die vorzugsweise zu schätzen sind, während die Punkte aufweisende Kreise Daten darstellen, die mit Algorithmusnamen oder dergleichen als Datenquellen, die durch Pfeile dargestellt sind, zu erzielende Daten darstellen. Hierbei zeigen die Pfeile keine Datenflüsse, sondern zeigen das Vorhandensein der Beziehungen zwischen den Eltern- und Kinderknoten. Das heißt, es wird zum Beispiel, wenn der Datenwert des Kinderknotens geleert wird, angenommen, was der Datenwert des Elternknotens ist. Die Information kann rückwärts umgekehrt zu den Richtungen der Pfeile übertragen werden. Umgekehrt kann die Information in die Richtungen der Pfeile übertragen werden. Weiterhin kann die Information durch Verfolgen der Pfeile zum Knoten übertragen werden.
  • Unter Bezugnahme auf 5 wird es einfach erwartet, welche Variable die Wahrscheinlichkeit beeinträchtigt. Zum Beispiel ist bezüglich des zuvor beschriebenen Fahrzeugtyps der Knoten "TYP" mit drei Knoten einer Funkwellenstärke (wie hoch die reflektierende Funkwellenstärke einer Millimeterwelle ist), eines Fahrzeugbilds (welchem Fahrzeugtypvorlagenbild das Bild des Zielobjekts ähnelt) und einer Breite verbunden. Wenn die Fahrzeugtypen durch die Wellenstärke und den Bildabgleich gemessen bzw. erfasst werden, werden dann die entsprechenden Wahrscheinlichkeitsverteilungen (Wahrscheinlichkeiten) ausgegeben. Weiterhin wird der Fahrzeugtyp aus der Breite erwartet, so dass die entsprechende Wahrscheinlichkeitsverteilung ausgegeben wird. Andererseits kann, wenn der Fahrzeugtyp bezeichnet ist, die Breite verschmälert werden. Beides beeinträchtigt einander.
  • Das heißt, das Ergebnis, das aus der Heckmasseerkennung durch die Bildverarbeitung abgeleitet wird, ändert die Wahrscheinlichkeitsverteilung der Position "ENDEN DER HINTEREN BREITE", so dass die Breite weiter verschmälert werden kann. Weiterhin beeinträchtigt dies die Wahrscheinlichkeitsverteilung des Fahrzeugtyps. Andererseits kann, wenn die Wahrscheinlichkeit eines "Lastkraftwagens" durch den Musterabgleich als hoch erwartet wird, der Bereich der Breite durch die Wahrscheinlichkeit des Typs verschmälert werden. Die Wahrscheinlichkeitsverteilungen, die aus den jeweiligen Wahrscheinlichkeitsverteilungs-Ausgabeeinheiten 1a bis 1d ausgegeben werden, werden durch die Synthesebestimmungs-Verarbeitungseinheit 2 mit einem Modell kombiniert, dass die Kausalbeziehung integriert. Dies berechnet schließlich die Wahrscheinlichkeitsverteilung des Datenwerts der Datenart (Variable), die vorzugsweise zu schätzen ist.
  • Weiterhin werden die Wahrscheinlichkeitsverteilungen, die aus den jeweiligen Wahrscheinlichkeitsverteilungs-Ausgabeeinheiten 1a bis 1d ausgegeben werden, dynamisch abhängig von der Erfassungsgenauigkeit der Erfassungseinheiten geändert. Das heißt, jede der Wahrscheinlichkeitsverteilungs-Ausgabeeinheiten 1a bis 1d speichert einen Zustand, in dem sich die Erfassungsgenauigkeit verringert, und eine Datenbank, die statistisch die entsprechenden sich verringernden Grade kumuliert.
  • Zum Beispiel speichert in der Bilderkennungsvorrichtung die Wahrscheinlichkeitsverteilungs-Ausgabeeinheit 1d eine Datenbank (Funktion) einer Beziehung zwischen Dunkelheit und einem Fehlerkennungsverhältnis. Die Daten, die sich auf "Dunkelheit" beziehen, werden in die Wahrscheinlichkeitsverteilungs-Ausgabeeinheit 1d eingegeben. Hierbei werden in 1 die Daten, die sich auf "Dunkelheit" beziehen, die von der Synthesebestimmungs-Verarbeitungseinheit geschätzt werden, in die Wahrscheinlichkeitsverteilungs-Ausgabeeinheit 1d eingegeben. Jedoch kann der Erfassungswert des Beleuchtungssensors ebenso direkt in die Wahrscheinlichkeitsverteilungs-Ausgabeeinheit 1d eingegeben werden.
  • Die Wahrscheinlichkeitsverteilungs-Ausgabeeinheit 1d der Bilderkennungsvorrichtung ändert dynamisch die Wahrscheinlichkeitsverteilung des Datenwerts, der durch die Erkennungsverarbeitung in der Bilderkennungsvorrichtung erfasst wird, auf der Grundlage des Datenwerts, der sich auf "Dunkelheit" bezieht.
  • Die 6A, 6B zeigen ein Beispiel der Wahrscheinlichkeitsverteilung, die auf der Grundlage des Datenwerts geändert wird, die sich auf "Dunkelheit" bezieht. In 6A wird die Wahrscheinlichkeitsverteilung des Datenwerts durch die Bilderkennungsverarbeitung in einem hellen Hintergrund erfasst, während in 6B die Wahrscheinlichkeitsverteilung des Datenwerts durch die Bilderkennungsverarbeitung in einem dunklen Hinter grund oder einem regnerischen Tag erfasst wird.
  • Zum Beispiel wird angenommen, dass die Bilderkennungsvorrichtung eine Bildverarbeitung durchführt und eine Wahrscheinlichkeitsverteilung als ein Erfassungsergebnis ausgibt und dass ein Erkennungsleistungsvermögen in "Dunkelheit" schlechter als die in "Helligkeit" ist. Hierbei wird, wenn Daten, die "Dunkelheit" oder Nachtzeit anzeigen, vorgesehen sind, die ausgegebene Wahrscheinlichkeitsverteilung verglichen mit der in "Helligkeit" oder Tageszeit verringert. In dem extremen Fall kann eine gründliche Gleichverteilung oder eine sehr geringfügig erhöhte Wahrscheinlichkeit ausgegeben werden.
  • Weiterhin verwendet die Synthesebestimmungs-Verarbeitungseinheit 2, wenn die einzelne Wahrscheinlichkeitsverteilungs-Ausgabeeinheit 1d die verringerte Wahrscheinlichkeitsverteilung ausgibt und eine andere Wahrscheinlichkeitsverteilungs-Ausgabeeinheit eine verhältnismäßig hohe Wahrscheinlichkeitsverteilung ausgibt, die ausgegebene verhältnismäßig hohe Wahrscheinlichkeitsverteilung durch Gewichten von ihr. Die geschätzte Genauigkeit des Datenwerts in der Synthesebestimmungs-Verarbeitungseinheit 2 kann dadurch verbessert werden.
  • Hierbei werden die Daten, die sich auf "Dunkelheit" beziehen, die die Erfassungsgenauigkeit in der Bilderkennungsvorrichtung beeinträchtigen, anstatt zu der Synthesebestimmungs-Verarbeitungseinheit 2 zu der Wahrscheinlichkeitsverteilungs-Ausgabeeinheit 1d gegeben, so dass die Wahrscheinlichkeitsverteilung auf der Grundlage der gegebenen Daten in der Wahrscheinlichkeitsverteilungs-Ausgabeeinheit 1 geändert wird. Deshalb wird auch dann, wenn die Erfassungsgenauigkeit in der Erfassungseinrichtung der Bilderkennungsvorrichtung oder dergleichen geändert wird, der Einfluss innerhalb der geschlossenen Fläche begrenzt, die durch die Erfassungseinrichtung und die Wahrscheinlichkeitsverteilungs-Ausgabeeinheiten 1a bis 1d gebildet wird. Dies beeinträchtigt dadurch nicht die Verarbeitung in der Synthesebestimmungs-Verarbeitungseinheit 2, welche nicht geändert werden muss.
  • Die Erfassungsgenauigkeit in den Sensoren als die Erfassungseinrich tungen oder die Erkennungsalgorithmen, wie zum Beispiel die Bilderkennungsverarbeitung oder dergleichen, wird durch den entsprechenden unterschiedlichen Zustand geändert. Deshalb müssen, um die Wahrscheinlichkeitsverteilungen, die aus den Wahrscheinlichkeitsverteilungs-Ausgabeeinheiten 1a bis 1d ausgegeben werden, zu ändern, die jeweiligen Wahrscheinlichkeitsverteilungs-Ausgabeeinheiten 1a bis 1d die jeweiligen Daten abrufen die sich auf die kritischen Parameter beziehen, die die Erfassungsgenauigkeit beeinträchtigen.
  • Wie es zuvor erläutert worden ist, berechnet die Synthesebestimmungs-Verarbeitungseinheit 2 das Produkt der mehreren Wahrscheinlichkeitsverteilungen, um die Wahrscheinlichkeitsverteilung als das Ergebnis zu erzielen, und gibt den Datenwert aus, der der höchsten Wahrscheinlichkeit entspricht. Hierbei gibt die Synthesebestimmungs-Verarbeitungseinheit 2 ebenso die Daten der höchsten Wahrscheinlichkeit als die Zuverlässigkeitsdaten aus. Dies bedeutet, dass der Datenwert zusammen mit den Zuverlässigkeitsdaten ausgegeben wird. Auch dann, wenn die mehreren Steuervorrichtungen die relevante Ausgabe empfangen, kann der Datenwert der relevanten Ausgabe standardisiert werden, ohne von den Typen der Steuervorrichtungen oder der Anzahl der Steuervorrichtungen abzuhängen. Das heißt, die Steuervorrichtungen als Empfänger der Ausgaben empfangen ebenso die Zuverlässigkeitsdaten, so dass die Steuervorrichtungen bestimmen können, ob eine Genauigkeit, die zum Durchführen des relevanten Steuervorgangs erforderlich ist, erfüllt ist oder nicht. Daher sind auch dann, wenn die Steuervorrichtungen unterschiedliche Genauigkeitsanforderungen aufweisen, unterschiedliche Daten, die jeder der Steuervorrichtungen zugeordnet sind, nicht erforderlich. Dies verbessert einen Betriebswirkungsgrad beim Einbau der verschiedenen Steuervorrichtungen.
  • Hierbei können die Zuverlässigkeitsdaten mindestens einen von diesen beinhalten:
    eine Fehlerwahrscheinlichkeit; eine Wahrscheinlichkeit einer richtigen Antwort; eine Wahrscheinlichkeitsverteilung; einen Mittelwert der Wahrscheinlichkeitsverteilung; eine Varianz der Wahrscheinlichkeitsverteilung; und ein normales Erkennungsverhältnis. Insbesondere dann, wenn die Synthesebestimmungs-Verarbeitungseinheit 2 das Produkt der mehreren Wahr scheinlichkeitsverteilungen berechnet und den Datenwert, der die höchste Wahrscheinlichkeit in der sich ergebenden Wahrscheinlichkeitsverteilung aufweist, als den wahrscheinlichsten Datenwert anwendet, wird die höchste Wahrscheinlichkeit vorzugsweise als die Zuverlässigkeitsdaten ausgegeben. Ohne die besondere Berechnung kann dies die Zuverlässigkeitsdaten, die einfach und objektiv als der Index der Zuverlässigkeit zu verstehen sind, ausgeben.

Claims (16)

  1. Sensorfusionssystem, das aufweist: eine Mehrzahl von Erfassungseinheiten, von denen jede einen Datenwert einer gegebenen Datenart erfasst; eine Mehrzahl von Ausgabeeinheiten (1a bis 1d), von denen jede eine Wahrscheinlichkeitsverteilung des Datenwerts berechnet, der von einer entsprechenden Erfassungseinheit erfasst wird, die in der Mehrzahl von Erfassungseinheiten enthalten ist, wobei die Wahrscheinlichkeitsverteilung des Datenwerts eine Wahrscheinlichkeit eines wahren Werts der gegebenen Datenart anzeigt, und dann die berechnete Wahrscheinlichkeitsverteilung ausgibt; und eine Synthesebestimmungseinheit (2), die einen wahrscheinlichsten Datenwert der gegebenen Datenart auf der Grundlage der Wahrscheinlichkeitsverteilungen schätzt, die aus der Mehrzahl von Ausgabeeinheiten ausgegeben werden.
  2. Sensorfusionssystem nach Anspruch 1, wobei die Synthesebestimmungseinheit ein Produkt der Wahrscheinlichkeitsverteilungen berechnet, die aus der Mehrzahl von Ausgabeeinheiten ausgegeben werden.
  3. Sensorfusionssystem nach Anspruch 2, wobei die Synthesebestimmungseinheit als den wahrscheinlichsten Datenwert der gegebenen Datenart einen Datenwert annimmt, der eine höchste Wahrscheinlichkeit in einer Wahrscheinlichkeitsverteilung des berechneten Produkts der Wahrscheinlichkeitsverteilungen aufweist, die aus der Mehrzahl von Ausgabeeinheiten ausgegeben werden.
  4. Sensorfusionssystem nach einem der Ansprüche 1 bis 3, wobei die Wahrscheinlichkeitsverteilung, die von jeder der Ausgabeeinheiten berechnet wird, als eine Summe einer Gauss-Verteilung und einer Gleichverteilung dargestellt ist.
  5. Sensorfusionssystem nach einem der Ansprüche 1 bis 4, wobei mindestens eine der Ausgabeeinheiten eine Form der berechneten Wahrscheinlichkeitsverteilung zu mindestens einem skalaren Wert wandelt und den mindestens einen skalaren Wert ausgibt, und die Synthesebestimmungseinheit den mindestens einen skalaren Wert zu der Form der Wahrscheinlichkeitsverteilung wandelt.
  6. Sensorfusionssystem nach einem der Ansprüche 1 bis 5, wobei mindestens eine der Ausgabeeinheiten eine Information empfängt, die sich auf einen Parameter bezieht, der eine Erfassungsgenauigkeit in der entsprechenden Erfassungseinheit beeinträchtigt, und die Wahrscheinlichkeitsverteilung auf der Grundlage der empfangenen Information ändert.
  7. Fahrzeugsteuersystem, das in ein Fahrzeug eingebaut ist, wobei das Fahrzeugsteuersystem aufweist: eine Sensorfusionssystem, das aufweist: eine Mehrzahl von Erfassungseinheiten, von denen jede einen Datenwert einer gegebenen Datenart erfasst, eine Mehrzahl von Ausgabeeinheiten (1a bis 1d), von denen jede eine Wahrscheinlichkeitsverteilung des Datenwerts berechnet, der von einer entsprechenden Erfassungseinheit erfasst wird, die in der Mehrzahl von Erfassungseinheiten enthalten ist, wobei die Wahrscheinlichkeitsverteilung des Datenwerts eine Wahrscheinlichkeit eines wahren Werts der gegebenen Datenart anzeigt, und dann die berechnete Wahrscheinlichkeitsverteilung ausgibt, und eine Synthesebestimmungseinheit (2), die einen wahrscheinlichsten Datenwert der gegebenen Datenart auf der Grundlage der Wahrscheinlichkeitsverteilungen schätzt, die aus der Mehrzahl von Ausgabeeinheiten ausgegeben werden; und mindestens eine Steuereinheit, die den geschätzten wahrscheinlichsten Datenwert empfängt, der von der Synthesebestimmungseinheit eingegeben wird, und eine fahrzeugseitige Vorrichtung auf der Grundlage des empfangenen wahrscheinlichsten Datenwerts der gegebenen Datenart steuert.
  8. Fahrzeugsteuersystem nach Anspruch 7, wobei die Synthesebestimmungseinheit den wahrscheinlichsten Datenwert der gegebenen Datenart schätzt, der mindestens eines eines Straßentyps, eines Straßenoberflächenzustands, einer Sonnestrahlungsgröße, einer Position eines Objekts, einer Geschwindigkeit des Objekts, einer Abmessung des Objekts, eines Typs des Objekts beinhaltet, wobei das Objekt ein vorausfahrendes Fahrzeug beinhaltet, und die mindestens eine Steuereinheit mindestens eines von diesen aufweist: eine Steuereinheit einer Informations-Liefervorrichtung zum Liefern einer Information zu einem Fahrer des Fahrzeugs, eine Steuereinheit einer Warnvorrichtung, eine Steuereinheit einer Fahrvorrichtung zum Steuern eines Fahrzeug-Fahrzustands, eine Steuereinheit einer Fahrzustands-Steuervorrichtung zum Steuern eines Zustands einer Fahrbetriebsvorrichtung, und eine Steuereinheit einer Insassenschutzvorrichtung zum Schützen eines Insassen.
  9. Fahrzeugsteuersystem nach Anspruch 7 oder Anspruch 8, wobei dann, wenn die Synthesebestimmungseinheit den geschätzten wahrscheinlichsten Datenwert in die mindestens eine Steuereinheit eingibt, die Synthesebestimmungseinheit ebenso Zuverlässikeitsdaten eingibt, die eine Zuverlässigkeit des geschätzten wahrscheinlichsten Datenwerts anzeigen.
  10. Fahrzeugsteuersystem nach Anspruch 9, wobei die Zuverlässigkeitsdaten mindestens eines von diesen aufweisen: eine Fehlerwahrscheinlichkeit des geschätzten wahrscheinlichsten Datenwerts, eine Wahrscheinlichkeit einer richtigen Antwort des geschätzten wahrscheinlichsten Datenwerts, eine Wahrscheinlichkeitsverteilung des geschätzten wahrscheinlichsten Datenwerts, einen Mittelwert der Wahrscheinlichkeitsverteilung, eine Varianz der Wahrscheinlichkeitsverteilung, und ein normales Erkennungsverhältnis.
  11. Fahrzeugsteuersystem nach Anspruch 9, wobei dann, wenn die Synthesebestimmungseinheit ein Produkt der Wahrscheinlichkeitsverteilun gen berechnet, die aus der Mehrzahl von Ausgabeeinheiten ausgegeben werden, und als den wahrscheinlichsten Datenwert einen Datenwert annimmt, der eine höchste Wahrscheinlichkeit in einer Wahrscheinlichkeitsverteilung des berechneten Produkts aufweist, wobei die Synthesebestimmungseinheit die höchste Wahrscheinlichkeit als die Zuverlässigkeitsdaten eingibt.
  12. Fahrzeugsteuersystem nach Anspruch 7, wobei die Synthesebestimmungseinheit ein Produkt der Wahrscheinlichkeitsverteilungen berechnet, die aus der Mehrzahl von Ausgabeeinheiten ausgegeben werden.
  13. Fahrzeugsteuersystem nach Anspruch 12, wobei die Synthesebestimmungseinheit als den wahrscheinlichsten Datenwert der gegebenen Datenart einen Datenwert annimmt, der eine höchste Wahrscheinlichkeit in einer Wahrscheinlichkeitsverteilung des berechneten Produkts der Wahrscheinlichkeitsverteilungen aufweist, die aus der Mehrzahl von Ausgabeeinheiten ausgegeben werden.
  14. Fahrzeugsteuersystem nach einem der Ansprüche 7 und 12 bis 13, wobei die Wahrscheinlichkeitsverteilung, die von jeder der Ausgabeeinheiten berechnet wird, als eine Summe einer Gauss-Verteilung und einer Gleichverteilung dargestellt ist.
  15. Fahrzeugsteuersystem nach einem der Ansprüche 7 und 12 bis 14, wobei mindestens eine der Ausgabeeinheiten eine Form der berechneten Wahrscheinlichkeitsverteilung zu mindestens einem skalaren Wert wandelt und den mindestens einen skalaren Wert ausgibt, und die Synthesebestimmungseinheit den mindestens einen skalaren Wert zu der Form der Wahrscheinlichkeitsverteilung wandelt.
  16. Fahrzeugsteuersystem nach einem der Ansprüche 7 und 12 bis 15, wobei mindestens eine der Ausgabeeinheiten eine Information empfängt, die sich auf einen Parameter bezieht, der eine Erfassungsgenauigkeit in der entsprechenden Erfassungseinheit beeinträchtigt, und die Wahrscheinlichkeitsverteilung auf der Grundlage der empfangenen Information ändert.
DE102004052242A 2003-11-28 2004-10-27 Sensorfusionssystem und Fahrzeugsteuersystem mit diesem Ceased DE102004052242A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003400184A JP3931879B2 (ja) 2003-11-28 2003-11-28 センサフュージョンシステム及びそれを用いた車両制御装置
JP2003-400184 2003-11-28

Publications (1)

Publication Number Publication Date
DE102004052242A1 true DE102004052242A1 (de) 2005-06-30

Family

ID=34631633

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102004052242A Ceased DE102004052242A1 (de) 2003-11-28 2004-10-27 Sensorfusionssystem und Fahrzeugsteuersystem mit diesem

Country Status (3)

Country Link
US (1) US7542825B2 (de)
JP (1) JP3931879B2 (de)
DE (1) DE102004052242A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014183949A1 (de) 2013-05-16 2014-11-20 Siemens Aktiengesellschaft Vorrichtung und verfahren für ein fahrerassistenzsystem eines fahrzeuges
WO2021089787A1 (de) * 2019-11-08 2021-05-14 Zf Friedrichshafen Ag Verfahren, vorrichtung und computerprogramm zur freigabe eines sensorsystems zur erfassung von objekten in einem umfeld eines fahrzeuges
DE102006036999B4 (de) 2006-08-02 2023-11-16 Volkswagen Ag Fahrzeugpositions-Ermittlungsvorrichtung und Verfahren zum Ermitteln einer Positionsinformation für ein Fahrzeug

Families Citing this family (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7801392B2 (en) 2005-07-21 2010-09-21 Fuji Xerox Co., Ltd. Image search system, image search method, and storage medium
JP2007026386A (ja) * 2005-07-21 2007-02-01 Fuji Xerox Co Ltd 画像検索システム及び方法
JP2007310741A (ja) * 2006-05-19 2007-11-29 Fuji Heavy Ind Ltd 立体物認識装置
JP2007333486A (ja) * 2006-06-13 2007-12-27 Denso Corp 車両用障害物検知装置
JP4899657B2 (ja) * 2006-06-21 2012-03-21 トヨタ自動車株式会社 道路形状取得装置
JP2008008679A (ja) * 2006-06-27 2008-01-17 Toyota Motor Corp 物体検出装置、衝突予測装置、及び車両制御装置
DE102006058308A1 (de) * 2006-12-11 2008-06-12 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erfassen eines Hindernisses in einem Umgebungsbereich eines Kraftfahrzeugs und Kraftfahrzeug
JP4876938B2 (ja) * 2007-01-29 2012-02-15 パナソニック株式会社 運転支援装置、方法およびプログラム
JP5627164B2 (ja) * 2007-04-17 2014-11-19 三菱電機株式会社 目標類別装置
JP4990013B2 (ja) * 2007-04-18 2012-08-01 三菱電機株式会社 監視装置
JP2008299787A (ja) * 2007-06-04 2008-12-11 Mitsubishi Electric Corp 車両検知装置
JP4879202B2 (ja) * 2008-02-26 2012-02-22 三菱電機株式会社 追尾装置及びプログラム及び追尾方法
US8421859B2 (en) * 2008-04-24 2013-04-16 GM Global Technology Operations LLC Clear path detection using a hierachical approach
US8890951B2 (en) * 2008-04-24 2014-11-18 GM Global Technology Operations LLC Clear path detection with patch smoothing approach
US9404775B2 (en) * 2008-04-30 2016-08-02 Honeywell International Inc. Systems and methods for identifying faulty sensors
US8055445B2 (en) * 2008-09-24 2011-11-08 Delphi Technologies, Inc. Probabilistic lane assignment method
US8403105B2 (en) * 2008-12-16 2013-03-26 Koninklijke Philips Electronics N.V. Estimating a sound source location using particle filtering
JP4709943B2 (ja) 2009-02-19 2011-06-29 パナソニック株式会社 物体位置推定システム、物体位置推定装置、物体位置推定方法、及び物体位置推定プログラム
JP4988786B2 (ja) * 2009-04-09 2012-08-01 株式会社日本自動車部品総合研究所 境界線認識装置
FR2947656B1 (fr) * 2009-07-06 2016-05-27 Valeo Vision Procede de detection d'un obstacle pour vehicule automobile
FR2947657B1 (fr) * 2009-07-06 2016-05-27 Valeo Vision Procede de detection d'un obstacle pour vehicule automobile
JP5402335B2 (ja) * 2009-07-10 2014-01-29 アイシン・エィ・ダブリュ株式会社 信頼度評価装置、信頼度評価方法および信頼度評価プログラム
JP5039765B2 (ja) * 2009-09-17 2012-10-03 日立オートモティブシステムズ株式会社 車両制御装置
JP5206752B2 (ja) 2010-08-30 2013-06-12 株式会社デンソー 走行環境認識装置
US8509982B2 (en) 2010-10-05 2013-08-13 Google Inc. Zone driving
JP5361914B2 (ja) * 2011-02-03 2013-12-04 株式会社東芝 レーダ装置、レーダ受信装置及び目標検出方法
WO2012111252A1 (ja) * 2011-02-17 2012-08-23 日本電気株式会社 情報処理装置
WO2013001704A1 (ja) * 2011-06-30 2013-01-03 日本電気株式会社 解析エンジン制御装置
CN102289674B (zh) * 2011-07-15 2013-01-23 王世峰 基于垂直加速度及路面图像的路面类型识别方法及装置
CN102254161B (zh) * 2011-07-15 2012-12-19 王世峰 基于路面轮廓及路面图像特征的路面类型识别方法及装置
US8718861B1 (en) 2012-04-11 2014-05-06 Google Inc. Determining when to drive autonomously
US9633564B2 (en) * 2012-09-27 2017-04-25 Google Inc. Determining changes in a driving environment based on vehicle behavior
US8949016B1 (en) 2012-09-28 2015-02-03 Google Inc. Systems and methods for determining whether a driving environment has changed
US9367065B2 (en) * 2013-01-25 2016-06-14 Google Inc. Modifying behavior of autonomous vehicles based on sensor blind spots and limitations
US9436180B1 (en) * 2014-04-11 2016-09-06 Google Inc. Location-based privacy
US9321461B1 (en) 2014-08-29 2016-04-26 Google Inc. Change detection using curve alignment
US9248834B1 (en) 2014-10-02 2016-02-02 Google Inc. Predicting trajectories of objects based on contextual information
KR101678583B1 (ko) * 2014-10-29 2016-11-22 현대모비스 주식회사 차량 간 통신을 이용한 차간 거리 제어 시스템 및 그 제어방법
US9727785B2 (en) * 2015-06-18 2017-08-08 The Boeing Company Method and apparatus for tracking targets
EP3358552A4 (de) * 2015-09-30 2019-04-24 Sony Corporation Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
WO2017057056A1 (ja) 2015-09-30 2017-04-06 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
JP6641849B2 (ja) * 2015-10-01 2020-02-05 日本製鉄株式会社 電力予測方法
US10229363B2 (en) 2015-10-19 2019-03-12 Ford Global Technologies, Llc Probabilistic inference using weighted-integrals-and-sums-by-hashing for object tracking
CN105426858A (zh) * 2015-11-26 2016-03-23 哈尔滨工业大学 一种基于视觉和振动信息融合的地面类型辨识方法
US9889859B2 (en) * 2015-12-21 2018-02-13 Intel Corporation Dynamic sensor range in advanced driver assistance systems
US9892012B2 (en) * 2015-12-30 2018-02-13 International Business Machines Corporation Detecting anomalous sensors
US11222438B2 (en) 2016-05-27 2022-01-11 Kabushiki Kaisha Toshiba Information processing apparatus, vehicle, and information processing method for presence probability of object
US11132611B2 (en) 2016-05-27 2021-09-28 Kabushiki Kaisha Toshiba Information processing apparatus and information processing method for determining presence probability of object
US11204610B2 (en) 2016-05-30 2021-12-21 Kabushiki Kaisha Toshiba Information processing apparatus, vehicle, and information processing method using correlation between attributes
EP3252658B1 (de) 2016-05-30 2021-08-11 Kabushiki Kaisha Toshiba Informationsverarbeitungsvorrichtung und informationsverarbeitungsverfahren
JP6239047B1 (ja) * 2016-06-17 2017-11-29 三菱電機株式会社 物体認識統合装置および物体認識統合方法
CN107945198B (zh) * 2016-10-13 2021-02-23 北京百度网讯科技有限公司 用于标注点云数据的方法和装置
US10315649B2 (en) * 2016-11-29 2019-06-11 Ford Global Technologies, Llc Multi-sensor probabilistic object detection and automated braking
US10466361B2 (en) 2017-03-14 2019-11-05 Toyota Research Institute, Inc. Systems and methods for multi-sensor fusion using permutation matrix track association
CA3066764A1 (en) * 2017-06-22 2018-12-27 Agjunction Llc 3-d image system for vehicle control
JP7027738B2 (ja) 2017-09-06 2022-03-02 株式会社デンソー 運転支援装置
US11068735B2 (en) 2017-12-05 2021-07-20 Denso Corporation Reliability calculation apparatus
WO2019151489A1 (ja) 2018-02-02 2019-08-08 日本電気株式会社 センサ情報統合システム、センサ情報統合方法及びプログラム
JP2019157652A (ja) * 2018-03-07 2019-09-19 トヨタ自動車株式会社 内燃機関の制御装置
DE112019001842T5 (de) * 2018-04-09 2021-01-14 Cambridge Mobile Telematics Inc. Fahrzeugklassifizierung basierend auf Telematikdaten
FR3088041B1 (fr) * 2018-11-02 2020-10-16 Renault Sas Procede d’elaboration d’une consigne de pilotage d’un vehicule automobile
JP7069061B2 (ja) * 2019-01-31 2022-05-17 株式会社デンソー 物体判定装置
US11619494B2 (en) * 2020-02-13 2023-04-04 Mitsubishi Electric Research Laboratories, Inc. System and method for tracking expanded state of an object
US11879964B2 (en) * 2020-02-13 2024-01-23 Mitsubishi Electric Research Laboratories, Inc. System and method for tracking expanded state of moving object with model geometry learning
US11731662B2 (en) 2020-10-08 2023-08-22 Ford Global Technologies, Llc Autonomous vehicle system for detecting pedestrian presence
US11361201B2 (en) 2020-10-08 2022-06-14 Argo AI, LLC Systems and methods for determining an object type and an attribute for an observation based on fused sensor data

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4578649A (en) * 1985-02-04 1986-03-25 Motorola, Inc. Random voltage source with substantially uniform distribution
US5661666A (en) * 1992-11-06 1997-08-26 The United States Of America As Represented By The Secretary Of The Navy Constant false probability data fusion system
US5482314A (en) * 1994-04-12 1996-01-09 Aerojet General Corporation Automotive occupant sensor system and method of operation by sensor fusion
US6516307B1 (en) * 1995-02-24 2003-02-04 Fujitsu Limited Next alternative generating apparatus using simulated annealing and method thereof
US5986357A (en) * 1997-02-04 1999-11-16 Mytech Corporation Occupancy sensor and method of operating same
JP3521691B2 (ja) * 1997-07-07 2004-04-19 日産自動車株式会社 車両走行制御装置
US6807537B1 (en) * 1997-12-04 2004-10-19 Microsoft Corporation Mixtures of Bayesian networks
US6415276B1 (en) * 1998-08-14 2002-07-02 University Of New Mexico Bayesian belief networks for industrial processes
US6219640B1 (en) * 1999-08-06 2001-04-17 International Business Machines Corporation Methods and apparatus for audio-visual speaker recognition and utterance verification
US6424960B1 (en) * 1999-10-14 2002-07-23 The Salk Institute For Biological Studies Unsupervised adaptation and classification of multiple classes and sources in blind signal separation
GB0006893D0 (en) * 2000-03-23 2000-12-20 Secr Defence Localisation of a signal emitting source
ATE359602T1 (de) * 2000-06-02 2007-05-15 Microgan Gmbh Heterostruktur mit rückseitiger donatordotierung
JP2002099906A (ja) 2000-09-22 2002-04-05 Mazda Motor Corp 物体認識装置
US6502042B1 (en) * 2000-10-26 2002-12-31 Bfgoodrich Aerospace Fuel And Utility Systems Fault tolerant liquid measurement system using multiple-model state estimators
DE10297009B4 (de) * 2001-06-25 2020-07-23 Schneider Electric Systems Usa, Inc. Sensorfusion unter Verwendung von selbstvaluierenden Prozesssensoren
US6859420B1 (en) * 2001-06-26 2005-02-22 Bbnt Solutions Llc Systems and methods for adaptive wind noise rejection
JP2003084064A (ja) 2001-09-12 2003-03-19 Daihatsu Motor Co Ltd 前方車両の認識装置及び認識方法
US7099796B2 (en) * 2001-10-22 2006-08-29 Honeywell International Inc. Multi-sensor information fusion technique
JP3880841B2 (ja) * 2001-11-15 2007-02-14 富士重工業株式会社 車外監視装置
JP3766909B2 (ja) 2001-11-30 2006-04-19 株式会社日立製作所 走行環境認識方法および装置
JP2003172780A (ja) 2001-12-06 2003-06-20 Daihatsu Motor Co Ltd 前方車両の認識装置及び認識方法
US6882959B2 (en) * 2003-05-02 2005-04-19 Microsoft Corporation System and process for tracking an object state using a particle filter sensor fusion technique

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006036999B4 (de) 2006-08-02 2023-11-16 Volkswagen Ag Fahrzeugpositions-Ermittlungsvorrichtung und Verfahren zum Ermitteln einer Positionsinformation für ein Fahrzeug
WO2014183949A1 (de) 2013-05-16 2014-11-20 Siemens Aktiengesellschaft Vorrichtung und verfahren für ein fahrerassistenzsystem eines fahrzeuges
DE102013215032A1 (de) 2013-05-16 2014-11-20 Siemens Aktiengesellschaft Vorrichtung und Verfahren für ein Fahrerassistenzsystem eines Fahrzeuges
DE102013212710A1 (de) 2013-05-16 2014-11-20 Siemens Aktiengesellschaft Sensorprodukt, Simulator und Verfahren zur Simulation von Sensormessungen, zur Fusion von Sensormessungen, zur Validierung eines Sensormodells und zum Entwurf eines Fahrerassistenzsystems
WO2021089787A1 (de) * 2019-11-08 2021-05-14 Zf Friedrichshafen Ag Verfahren, vorrichtung und computerprogramm zur freigabe eines sensorsystems zur erfassung von objekten in einem umfeld eines fahrzeuges

Also Published As

Publication number Publication date
US20050125154A1 (en) 2005-06-09
US7542825B2 (en) 2009-06-02
JP3931879B2 (ja) 2007-06-20
JP2005165421A (ja) 2005-06-23

Similar Documents

Publication Publication Date Title
DE102004052242A1 (de) Sensorfusionssystem und Fahrzeugsteuersystem mit diesem
DE102004035842B4 (de) Duales ungleichartiges erfassendes Objektdetektions- und Zielerfassungssystem
EP2097770B1 (de) Vertikale ausrichtung eines lidar-sensors
DE102007055799B4 (de) Fahrzeugumgebungsüberwachungsgerät
DE102015226715B4 (de) Kollisionsverhinderungsunterstützungseinrichtung
DE10254806B4 (de) Verfahren zur Informationsverarbeitung
DE10352596B4 (de) Warnvorrichtung und Warnverfahren für ein Fahrzeug
DE102007027126B4 (de) Hinderniserfassungssystem für Fahrzeuge
DE102007023037A1 (de) Objekterkennungsvorrichtung
DE10352595B4 (de) Warneinrichtung für Fahrzeuge
DE60106899T2 (de) Verfahren zur Vermeidung und Verringerung von Kollisionen
EP1475765A2 (de) Vorrichtung zur Bestimmung einer Durchfahrtsmöglichkeit für ein Fahrzeug
DE102018111626A1 (de) Sechsdimensionales punktwolkensystem für ein fahrzeug
WO2016016161A1 (de) Verfahren zum klassifizieren eines objektes in einem umgebungsbereich eines kraftfahrzeugs, fahrerassistenzsystem und kraftfahrzeug
DE102017221643A1 (de) System und Verfahren zur Fahrzeugsteuerung unter Verwendung von Fahrzeugkommunikation
WO2017008801A1 (de) Bremslichterkennung bei vorausfahrenden fahrzeugen zur anpassung einer auslösung aktiver sicherheitsmechanismen
DE102019106169A1 (de) Verfahren und vorrichtung zum erkennen eines nahegelegenen einsatzfahrzeugs
DE10347687A1 (de) Algorithmus zur Bedrohungsabschätzung für eine Frontalkollisionswarnung
DE102016212035A1 (de) Abstandsberechungsvorrichtung, Abstandsberechungsverfahren, Fahrunterstützungsvorrichtung und Fahrunterstützungssystem
DE102018109404A1 (de) System und Verfahren zur Bestimmung der Position von Seitenaufprallvermeidungssensoren an einem Fahrzeug
DE102019215399A1 (de) Verfahren und vorrichtung zum analysieren einer fahrtendenz und system zum steuern eines fahrzeugs
DE102018104243B3 (de) Verfahren und System zur Erkennung von für ein Fahrzeug geeigneten Parklücken
DE102019108610A1 (de) Verbesserung des fahrzeugverhaltens unter verwendung von informationen aus anderen fahrzeugleuchten
DE102007002197A1 (de) Gemeinsamer Kontroller für verschiedene Fahrerassistenzsysteme
DE112020006362T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungssystem, informationsverarbeitungsprogramm und informationsverarbeitungsverfahren

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final