DE112022001397T5 - Objekterkennungsvorrichtung - Google Patents

Objekterkennungsvorrichtung Download PDF

Info

Publication number
DE112022001397T5
DE112022001397T5 DE112022001397.4T DE112022001397T DE112022001397T5 DE 112022001397 T5 DE112022001397 T5 DE 112022001397T5 DE 112022001397 T DE112022001397 T DE 112022001397T DE 112022001397 T5 DE112022001397 T5 DE 112022001397T5
Authority
DE
Germany
Prior art keywords
tracking processing
unit
tracking
processing unit
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112022001397.4T
Other languages
English (en)
Inventor
Tetsuya KUSUMOTO
Shingo Shimizu
Takashi Ogawa
Masaki Yoneda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Soken Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Soken Inc filed Critical Denso Corp
Publication of DE112022001397T5 publication Critical patent/DE112022001397T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/487Extracting wanted echo signals, e.g. pulse detection
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Abstract

Eine Positionsinformationserlangungseinheit, die Positionsinformationen gemäß einem Objekterfassungssignal des Objektsensors (2) erlangt, ist mit einer ersten Erlangungseinheit (111), die erste Beobachtungsinformationen als Positionsinformationen unter Verwendung eines ersten Schwellenwerts erlangt, und einer zweiten Erlangungseinheit (112) versehen, die zweite Beobachtungsinformationen als Positionsinformationen unter Verwendung eines zweiten Schwellenwerts erlangt, der sich von dem ersten Schwellenwert unterscheidet. Die Objektnachverfolgungseinheit (13) ist mit einer ersten Nachverfolgungsverarbeitungseinheit (131), die eine Nachverfolgungsverarbeitung gemäß den ersten Beobachtungsinformationen ausführt, und einer zweiten Nachverfolgungsverarbeitungseinheit (132) versehen, die die Nachverfolgungsverarbeitung gemäß den zweiten Beobachtungsinformationen ausführt. Entweder die erste Nachverfolgungsverarbeitungseinheit oder die zweite Nachverfolgungsverarbeitungseinheit hat Anti-Clutter-Eigenschaften, die höher als die der anderen sind. Eine Zustandsidentifizierungseinheit (15) identifiziert einen Zustand des Objekts basierend auf einem Ergebnis der Nachverfolgungsverarbeitung, die durch die Nachverfolgungsverarbeitungseinheit ausgeführt wird.

Description

  • [Querverweis auf zugehörige Anmeldungen]
  • Diese Anmeldung basiert auf der japanischen Patentanmeldung mit der Nummer 2021-37570 , eingereicht am 9. März 2021, deren Offenbarung hier durch Bezugnahme aufgenommen ist.
  • HINTERGRUND
  • [Technisches Gebiet]
  • Die vorliegende Offenbarung betrifft eine Objekterkennungsvorrichtung, die an einem Fahrzeug montiert ist und konfiguriert ist, um ein Objekt zu erkennen, das in der Nähe des Fahrzeugs existiert.
  • [Beschreibung des Standes der Technik]
  • Eine Vorrichtung zum Erkennen eines Objekts unter Verwendung eines Umgebungsüberwachungssensors, wie eine Radarvorrichtung, ist bekannt (vgl. beispielsweise Patentdokument 1).
  • [Literaturliste]
  • [Patentliteratur]
  • [Patentdokument 1] JP-A-1999-271431
  • [Überblick über die Erfindung]
  • [Zu lösendes Problem]
  • Ein Erfassungssignal, das durch einen Umgebungsüberwachungssensor, wie eine Radarvorrichtung, erfasst wird, kann Rauschen enthalten, das als Clutter bezeichnet wird. Das Clutter-Rauschen wird durch eine externe Störung oder ein thermisches Rauschen in dem Sensor verursacht. In dieser Hinsicht wird gemäß der Vorrichtung, die durch Patentdokument 1 offenbart ist, ein Schwellenwert zur Spitzenerfassung festgelegt, um verlässlich die Spitze eines Zielobjekts in dem Clutter zu erfassen. Hinsichtlich einer Verbesserung von Anti-Clutter-Eigenschaften kann der Schwellenwert zum Eliminieren des Clutter-Rauschens festgelegt werden, um ausreichend hoch zu sein. Jedoch kann eine Empfangsintensität von Reflexionswellen, die durch ein Objekt reflektiert werden, das entfernt von dem Sensor existiert, zu schwach sein, um die Reflexionswellen von dem Clutter zu unterscheiden. Somit, wenn der Schwellenwert höher festgelegt wird, können Objektinformationen in einer weit entfernten Region bzw. einer Region mit großem Abstand verloren gehen. Insbesondere kann es für eine Objekterkennungsvorrichtung eines fahrzeuggebundenen Typs, um eine Fahrunterstützungsstufe oder eine Stufe des automatischen Fahrens zu verbessern, dringend erforderlich sein, um die Größe einer erkennbaren Region zu erweitern. Andererseits, wenn der Schwellenwert niedriger festgelegt wird, ist es möglich, dass eine Wirkung einer Eliminierung von Clutter nicht ausreichend ist.
  • Die vorliegende Offenbarung wurde im Lichte der vorstehend beschriebenen Umstände erreicht. Die vorliegende Offenbarung stellt eine fahrzeuggebundene Objekterkennungsvorrichtung bereit, die sowohl eine große Erkennungsregion als auch hohe Anti-Clutter-Eigenschaften erreichen kann.
  • [Mittel zur Lösung des Problems]
  • Eine Objekterkennungsvorrichtung ist an einem Fahrzeug montiert und konfiguriert, um ein Objekt zu erkennen, das in der Nähe des Fahrzeugs existiert.
  • Gemäß einem Aspekt der vorliegenden Offenbarung beinhaltet die Objekterkennungsvorrichtung: eine Positionsinformationserlangungseinheit, die konfiguriert ist, um, wenn eine Empfangsintensitätsspitze von Reflexionswellen, die in einem Objekterfassungssignal enthalten sind, einen Schwellenwert überschreitet, Positionsinformationen entsprechend der Empfangsintensitätsspitze zu erlangen, wobei das Objekterfassungssignal durch einen Objektsensor erzeugt wird, der an dem Fahrzeug montiert ist, wobei der Objektsensor Sondierungswellen als elektromagnetische Wellen emittiert und Reflexionswellen der Sondierungswellen empfängt, die an dem Objekt reflektiert werden; eine Objektnachverfolgungseinheit, die basierend auf den Positionsinformationen, die durch die Positionsinformationserlangungseinheit erlangt werden, eine Nachverfolgungsverarbeitung für das Objekt ausführt; und eine Zustandsidentifizierungseinheit, die einen Zustand des Objekts basierend auf einem Ergebnis der Nachverfolgungsverarbeitung identifiziert, die durch die Objektnachverfolgungseinheit ausgeführt wird.
  • Die Positionsinformationserlangungseinheit beinhaltet: eine erste Erlangungseinheit, die, wenn die Empfangsintensitätsspitze einen ersten Schwellenwert als den Schwellenwert überschreitet, erste Beobachtungsinformationen als die Positionsinformationen entsprechend der Empfangsintensitätsspitze erlangt; eine zweite Erlangungseinheit, die, wenn die Empfangsintensitätsspitze einen zweiten Schwellenwert als den Schwellenwert, der unterschiedlich zu dem ersten Schwellenwert ist, überschreitet, zweite Beobachtungsinformationen als die Positionsinformationen entsprechend der Empfangsintensitätsspitze erlangt.
  • Die Objektnachverfolgungseinheit beinhaltet: eine erste Nachverfolgungsverarbeitungseinheit (131), die die Nachverfolgungsverarbeitung basierend auf den ersten Beobachtungsinformationen ausführt; und eine zweite Nachverfolgungsverarbeitungseinheit (132), die die Nachverfolgungsverarbeitung basierend auf den zweiten Beobachtungsinformationen ausführt. Entweder die erste Nachverfolgungsverarbeitungseinheit oder die zweite Nachverfolgungsverarbeitungseinheit hat Anti-Clutter-Eigenschaften, die höher als die der anderen sind; und die Zustandsidentifizierungseinheit identifiziert den Zustand des Objekts basierend auf einem Ergebnis der Nachverfolgungsverarbeitung, die durch die erste Nachverfolgungsverarbeitungseinheit und die zweite Nachverfolgungsverarbeitungseinheit ausgeführt wird.
  • In der Spezifikation werden Bezugszeichen in Klammern manchmal auf die jeweiligen Elemente angewendet. Aber auch in diesem Fall geben die Bezugszeichen lediglich ein Beispiel für die Beziehung zwischen den jeweiligen Elementen und den spezifischen Mitteln an, die in den später beschriebenen Ausführungsformen beschrieben werden. Daher ist die vorliegende Offenbarung nicht durch die vorstehend erwähnten Bezugszeichen beschränkt.
  • [Kurzbeschreibung der Zeichnungen]
    • 1 ist ein Blockschaltbild, das eine Gesamtkonfiguration eines fahrzeuggebundenen Systems zeigt;
    • 2 ist ein Blockschaltbild, das eine funktionale Gesamtkonfiguration einer Objekterkennungsvorrichtung zeigt, die durch eine in 1 gezeigte Steuereinheit verwirklicht wird;
    • 3 ist ein Blockschaltbild, das eine funktionale Gesamtkonfiguration der Objekterkennungsvorrichtung, die in 2 gezeigt ist, gemäß einer ersten Ausführungsform zeigt;
    • 4 ist ein Blockschaltbild, das eine funktionale Gesamtkonfiguration der Objekterkennungsvorrichtung, die in 2 gezeigt ist, gemäß einer zweiten bis fünften Ausführungsform zeigt;
    • 5 ist ein Blockschaltbild, das eine funktionale Gesamtkonfiguration der Objekterkennungsvorrichtung, die in 2 gezeigt ist, gemäß einer der dritten bis fünften Ausführungsform zeigt;
    • 6 ist ein Ablaufdiagramm, das ein Operationsbeispiel der Objekterkennungsvorrichtung, die in 4 oder 5 gezeigt ist, gemäß der fünften Ausführungsform zeigt;
    • 7 ist ein Blockschaltbild, das eine funktionale Gesamtkonfiguration der Objekterkennungsvorrichtung, die in 2 gezeigt ist, gemäß einer sechsten Ausführungsform zeigt;
    • 8 ist ein Graph, der eine Gesamtoperation der Objekterkennungsvorrichtung zeigt, die in 7 gezeigt ist;
    • 9 ist ein Blockschaltbild, das eine funktionale Gesamtkonfiguration der Objekterkennungsvorrichtung, die in 2 gezeigt ist, gemäß einer siebten Ausführungsform zeigt;
    • 10 ist ein Graph, der eine Gesamtoperation der Objekterkennungsvorrichtung zeigt, die in 9 gezeigt ist; und
    • 11 ist ein Blockschaltbild, das eine funktionale Gesamtkonfiguration der Objekterkennungsvorrichtung, die in 2 gezeigt ist, gemäß einer achten Ausführungsform zeigt.
  • [Beschreibung von Ausführungsformen]
  • (Ausführungsformen)
  • Ausführungsformen der vorliegenden Offenbarung werden nachstehend gemäß den Zeichnungen beschrieben. Bei unterschiedlichen Modifikationsbeispielen, die sich auf eine Ausführungsform beziehen, kann das Verständnis der Ausführungsformen beeinträchtigt werden, wenn sie in der Mitte einer Reihe von Erläuterungen eingefügt werden. Somit befinden sich die Modifikationsbeispiele nach der Erläuterung der Ausführungsformen.
  • (Konfiguration)
  • Gemäß 1 ist ein fahrzeuggebundenes System 1 konfiguriert, um Objekte in der Nähe eines Eigenfahrzeugs zu erfassen und unterschiedliche Operationen (beispielsweise Fahrunterstützungsoperationen) abhängig vom Erfassungsergebnis auszuführen. Das Eigenfahrzeug bezieht sich auf ein Fahrzeug, an dem das fahrzeuggebundene System 1 montiert ist.
  • Insbesondere ist das fahrzeuggebundene System 1 mit einem Objektsensor 2, einer Steuereinheit 3 und einer Operationseinheit 4 versehen. Nachfolgend werden jeweilige Teile, die das fahrzeuggebundene System 1 konfigurieren, beschrieben.
  • Der Objektsensor 2 dient als ein sogenannter Umgebungsüberwachungssensor und ist konfiguriert, um Sondierungswellen als elektromagnetische Wellen zu emittieren, die eine vorbestimmte Wellenlänge haben, und empfängt Reflexionswellen, die an einem Objekt reflektiert werden, wodurch das Objekt innerhalb einer vorbestimmten Erfassungsregion erfasst werden. Die vorbestimmte Erfassungsregion betrifft eine Region innerhalb eines vorbestimmten Abstands und eine Region mit einem vorbestimmten Azimutwinkel hinsichtlich des Objektsensors 2. Gemäß der vorliegenden Ausführungsform ist der Objektsensor 2 als ein sogenannter LIDAR-Sensor unter Verwendung von Laserlicht als die Sondierungswellen konfiguriert.
  • Der Objektsensor 2 ist konfiguriert, um ein Objekterfassungssignal entsprechend dem Erfassungsergebnis eines Objekts zu erzeugen. Ebenso ist der Objektsensor 2 kommunizierbar mit der Steuereinheit 3 mittels einer fahrzeuggebundenen Kommunikationsleitung verbunden, so dass das erzeugte Objekterfassungssignal an die Steuereinheit ausgegeben wird.
  • Die Steuereinheit 3 ist eine elektronische Schaltungseinheit, die als eine Objekterkennungs-ECU oder eine Objekterfassung-ECU bezeichnet wird. Die Steuereinheit 3 ist konfiguriert, um Objekte in der Nähe des Eigenfahrzeugs basierend auf dem Objekterfassungssignal zu erkennen, die durch den Objektsensor 2 erlangt werden. ECU ist eine Abkürzung für Electronic Control Unit (elektronische Steuereinheit). Die Steuereinheit 3 ist konfiguriert, um unterschiedliche Operationsbefehlssignale basierend auf dem Erkennungsergebnis des Objekts an die Operationseinheit 4 auszugeben. Die Operationseinheit 4 ist kommunizierbar mit der Steuereinheit 3 mittels einer fahrzeuggebundenen Kommunikationsleitung verbunden. Die Operationseinheit 4 ist konfiguriert, um unterschiedliche Operationen (beispielsweise Fahrunterstützungsoperation) in dem Fahrzeug basierend auf dem Operationsbefehlssignal auszuführen, das von der Steuereinheit 3 gesendet wird.
  • Die Steuereinheit 3 ist als ein sogenannter fahrzeuggebundener Mikrocomputer konfiguriert, der mit einer CPU 5, einem ROM 6, einem RAM 7 und einem nichtflüchtigen Speicher 8 versehen ist. Der nichtflüchtige Speicher 8 ist ein nichtflüchtiger, umschreibbarer Speicher, wie eine Festplatte, ein EEPROM, ein Flash-ROM und dergleichen. EEPROM ist eine Abkürzung für elektronisch löschbares und programmierbares ROM. Das ROM 6 und der nichtflüchtige Speicher 8 entsprechen einem computerlesbaren nichtflüchtigen greifbaren Aufzeichnungsmedium, das Programme speichert.
  • Die Steuereinheit 3 ist derart konfiguriert, dass die CPU 5 ein Programm von dem ROM 6 oder dem nichtflüchtigen Speicher 8 liest, und führt das gelesene Programm aus, wobei unterschiedliche Steueroperationen ausgeführt werden. Das Programm beinhaltet später beschriebene Operationen und Verarbeitungsbefehle entsprechend dem Ablaufdiagramm. Ebenso ist das RAM 7 und/oder der nichtflüchtige Speicher 8 konfiguriert, um temporär die Verarbeitungsdaten speichern zu können, wenn die CPU 5 das Programm ausführt. Ferner speichert das ROM 6 und/oder der nichtflüchtige Speicher 8 vorab unterschiedliche Daten, die zum Ausführen des Programms verwendet werden. Die unterschiedlichen Daten beinhalten beispielsweise Anfangswerte, Nachschlagtabellen, Aufzeichnungen bzw. Karten und dergleichen.
  • 2 Gesamtfunktionsblockschaltbild einer Objekterkennungsvorrichtung 10 gemäß einer Ausführungsform der vorliegenden Offenbarung, die durch Ausführung des Programms durch die Steuereinheit 3 verwirklicht wird, die in 1 gezeigt ist. Das heißt, die Objekterkennungsvorrichtung 10, die an dem Eigenfahrzeug montiert ist, ist konfiguriert, um das Objekt zu erkennen, das um das Eigenfahrzeug herum existiert. Insbesondere ist die Objekterkennungsvorrichtung 10 als eine Funktionskonfiguration, die durch den fahrzeuggebundenen Mikrocomputer verwirklicht wird, mit einer Positionsinformationserlangungseinheit 11, einer Schwellenwertfestlegungseinheit 12, einer Objektnachverfolgungseinheit 13, einer Regionsfestlegungseinheit 14 und einer Zustandsidentifizierungseinheit 15 versehen.
  • Die Positionsinformationserlangungseinheit 11 ist konfiguriert, um, wenn eine Empfangsintensitätsspitze von Reflexionswellen, die in dem Objekterfassungssignal enthalten sind, einen Schwellenwert überschreitet, die Positionsinformationen entsprechend der Empfangsintensitätsspitze zu erlangen. Die Schwellenwertfestlegungseinheit 12 ist konfiguriert, um den vorstehend beschriebenen Schwellenwert festzulegen, der in der Positionsinformationserlangungseinheit 11 verwendet wird.
  • Die Objektnachverfolgungseinheit 13 ist konfiguriert, um eine Nachverfolgungsverarbeitung eines Objekts basierend auf den Positionsinformationen auszuführen, die durch die Positionsinformationserlangungseinheit 11 erlangt werden. Insbesondere beinhaltet die Objektnachverfolgungseinheit 13 als einen Algorithmus der Nachverfolgungsverarbeitung der Objektnachverfolgungseinheit 13 ein Zustandsschätzfilter, das eine Dichteverteilung eines Objekts schätzt, wie ein Kalman-Filter und ein Partikelfilter. Es ist zu beachten, dass als das Zustandsschätzfilter hinsichtlich Erlangens von hohen Anti-Clutter-Eigenschaften Filter gemäß der Theorie der endlichen Zufallsmenge (das heißt, RFS-Theorie) bevorzugt verwendet werden können.
  • Als das Zustandsschätzfilter gemäß der Theorie der endlichen Zufallsmenge sind PHD-Filter, CPHD-Filter; CBMeMBer-Filter, GLMB-Filter, LMB-Filter, PMB-Filter, PMBM-Filter und dergleichen bekannt. PHD ist eine Abkürzung für Probability Hypothesis Density (Wahrscheinlichkeitshypothesedichte). CPHD ist eine Abkürzung für Cardinalized Probability Hypothesis Density (kardinalisierte Wahrscheinlichkeitshypothesedichte). CBMeMBer ist eine Abkürzung für Cardinality Balanced Multi-Bernoulli (kardinalitätsausgeglichenes Multi-Bernoulli). GLMB ist eine Abkürzung für Generalized Labeled Multi-Bernoulli (verallgemeinerndes gekennzeichnetes Multi-Bernoulli). LMB ist eine Abkürzung für Labeled Multi-Bernoulli (gekennzeichnetes Multi-Bernoulli). PMB ist eine Abkürzung für Poisson Multi-Bernoulli. PMB ist eine Abkürzung für Poisson Multi-Bernoulli Mixture (Poisson Multi-Bernoulli Mischung). Nachfolgend ist die Objektnachverfolgungsverarbeitung unter Verwendung des Zustandsschätzfilters gemäß der Theorie der endlichen Zufallsmenge als RFS-Nachverfolgung abgekürzt.
  • Die Regionsfestlegungseinheit 14 ist konfiguriert, um eine Nachverfolgungsregion, die eine Objektregion der Nachverfolgungsverarbeitung ist, die durch die Objektnachverfolgungseinheit 13 ausgeführt wird, festzulegen. Die Nachverfolgungsregion ist eine einer räumlichen Region, einer zeitlichen Region und eines Signals.
  • Die Zustandsidentifizierungseinheit 15 ist konfiguriert, um den Zustand des Objekts basierend auf einem Ergebnis der Nachverfolgungsverarbeitung zu identifizieren, die durch die Objektnachverfolgungseinheit 13 ausgeführt wird. Eine Identifizierung eines Zustands des Objekts beinhaltet Identifizierung einer relativen Position und einer Relativgeschwindigkeit des Objekts als ein Nachverfolgungsobjekt hinsichtlich des Eigenfahrzeugs. Die Objekterkennungsvorrichtung 10 gemäß der vorliegenden Offenbarung ist konfiguriert, um den Schwellenwert und/oder die Nachverfolgungsregion durch die Schwellenwertfestlegungseinheit 12 und/oder die Regionsfestlegungseinheit 14 ändern zu können. Die Objekterkennungsvorrichtung 10 ist konfiguriert, um ein Objekt basierend auf einem Ergebnis mehrerer Nachverfolgungsverarbeitungen mit mehreren gegenseitig unterschiedlichen Schwellenwerten und/oder Nachverfolgungsregionen zu erkennen.
  • (Erste Ausführungsform: Konfiguration)
  • Nachfolgend wird gemäß 3 eine Konfiguration der Objekterkennungsvorrichtung 10 gemäß der ersten Ausführungsform beschrieben. Gemäß der vorliegenden Ausführungsform beinhaltet die Positionsinformationserlangungseinheit 11 eine erste Erlangungseinheit 111 und eine zweite Erlangungseinheit 112. Ebenso beinhaltet die Objektnachverfolgungseinheit 13 eine erste Nachverfolgungsverarbeitungseinheit 131 und eine zweite Nachverfolgungsverarbeitungseinheit 132.
  • Die erste Erlangungseinheit 111 ist konfiguriert, um wenn eine Empfangsintensitätsspitze einen ersten Schwellenwert als den Schwellenwert THA überschreitet, erste Beobachtungsinformationen zu erlangen, die Positionsinformationen entsprechend der Empfangsintensitätsspitze sind. Das heißt, die erste Erlangungseinheit 111 wandelt das Empfangssignal, das ein sich zeitlich ändernder Signalverlauf der Empfangsintensität ist, um die ersten Beobachtungsinformationen als Punktgruppeninformationen zu sein, unter Verwendung des ersten Schwellenwerts THA, der durch die Schwellenwertfestlegungseinheit 12 festgelegt ist.
  • Die zweite Erlangungseinheit 112 ist konfiguriert, um, wenn eine Empfangsintensitätsspitze einen zweiten Schwellenwert THA überschreitet, der sich von dem ersten Schwellenwert unterscheidet, zweite Beobachtungsinformationen zu erlangen, die Positionsinformationen entsprechend der Empfangsintensitätsspitze sind. Das heißt, die zweite Erlangungseinheit 112 wandelt das Empfangssignal, um zweite Beobachtungsinformationen zu sein, als Punktgruppeninformationen unter Verwendung des zweiten Schwellenwerts THB, der durch die Schwellenwertfestlegungseinheit 12 festgelegt wird. Ebenso legt gemäß der vorliegenden Ausführungsform die Schwellenwertfestlegungseinheit 12 den zweiten Schwellenwert THB höher als den ersten Schwellenwert THA fest. Das heißt, es gilt: erster Schwellenwert THA < zweiter Schwellenwert THB.
  • Die erste Nachverfolgungsverarbeitungseinheit 131 ist konfiguriert, um eine Nachverfolgungsverarbeitung basierend auf den ersten Beobachtungsinformationen auszuführen, die die Punktgruppeninformationen sind, die durch die erste Erlangungseinheit 111 erlangt werden. Ähnlich ist die zweite Nachverfolgungsverarbeitungseinheit 132 konfiguriert, um eine Nachverfolgungsverarbeitung basierend auf den zweiten Beobachtungsinformationen auszuführen, die die Punktgruppeninformationen sind, die durch die zweite Erlangungseinheit 112 erlangt werden. Die Zustandsidentifizierungseinheit 15 ist konfiguriert, um den Zustand des Objekts basierend auf einem Ergebnis der Nachverfolgungsverarbeitung, die durch die erste Nachverfolgungsverarbeitungseinheit 131 und die zweite Nachverfolgungsverarbeitungseinheit 132 ausgeführt wird, zu identifizieren.
  • Gemäß der vorliegenden Ausführungsform sind die erste Nachverfolgungsverarbeitungseinheit 131 und die zweite Nachverfolgungsverarbeitungseinheit 132 derart konfiguriert, dass eine Einheit zwischen der ersten Nachverfolgungsverarbeitungseinheit 131 und der zweiten Nachverfolgungsverarbeitungseinheit 132 höhere Anti-Clutter-Eigenschaften als die der anderen Einheit hat. Insbesondere hat die erste Nachverfolgungsverarbeitungseinheit 131, die die Nachverfolgungsverarbeitung basierend auf den ersten Beobachtungsinformationen ausführt, die unter Verwendung des ersten Schwellenwerts THA erlangt werden, der einen relativ niedrigeren Schwellenwert hat, höhere Anti-Clutter-Eigenschaften als die der zweiten Nachverfolgungsverarbeitungseinheit 132. Als ein geeignetes Beispiel ist mindestens die erste Nachverfolgungsverarbeitungseinheit 131 konfiguriert, um eine RFS-Nachverfolgung auszuführen.
  • Gemäß der vorliegenden Ausführungsform legt die Regionsfestlegungseinheit 14 eine räumliche Region als gegenseitig unterschiedliche Nachverfolgungsregion in der ersten Nachverfolgungsverarbeitungseinheit 131 und der zweiten Nachverfolgungsverarbeitungseinheit 132 fest. Das heißt, die erste Nachverfolgungsverarbeitungseinheit 131 führt eine Nachverfolgungsverarbeitung basierend auf ersten Beobachtungsinformationen aus, die eine Bedingung erfüllen, in der die Positionsinformationen angeben, dass sie in einer ersten Region sind. Die zweite Nachverfolgungsverarbeitungseinheit 132 führt eine Nachverfolgungsverarbeitung basierend auf zweiten Beobachtungsinformationen aus, die eine Bedingung erfüllen, in der die Positionsinformationen angeben, dass sie in der zweiten Region sind.
  • Hierbei bezieht sich die zweite Region auf eine räumliche Region einschließlich einer näher gelegenen Region bzw. einer Region mit kleinerem Abstand als die erste Region. Insbesondere, wenn beispielsweise angenommen wird, dass ein Abstand zu dem Objektsensor 2 X ist [Einheit: Meter], wird die erste Region als eine Region mit großem Abstand festgelegt, das heißt, X = 100 bis 120, und die zweite Region wird festgelegt, um eine Region mit kleinem Abstand zu sein, das heißt, X = 0 bis 100.
  • (Erste Ausführungsform: Operation)
  • Nachfolgend werden gemäß 1 bis 3 eine Gesamtoperation der Objekterkennungsvorrichtung 10 gemäß der vorliegenden Ausführungsform und ein Objekterkennungsverfahren und ein Objekterkennungsprogramm, die durch die Objekterkennungsvorrichtung 10 ausgeführt werden, zusammen mit Wirkungen und Vorteilen, die daraus erlangt werden, beschrieben. In der folgenden Beschreibung können eine Konfiguration der Objekterkennungsvorrichtung 10 gemäß der vorliegenden Ausführungsform, eine Verarbeitung des Objekterkennungsverfahrens und des Objekterkennungsprogramms, die durch die Objekterkennungsvorrichtung 10 ausgeführt werden, als vorliegende Ausführungsform bezeichnet werden.
  • Die Objekterkennungsvorrichtung 10 führt wiederholt eine Objekterkennungsverarbeitung bei jedem vorbestimmten Verarbeitungszyklus aus. Bei einem Zyklus der Objekterkennungsverarbeitung erlangt als erstes die Objekterkennungsvorrichtung 10 (das heißt, empfängt) von dem Objektsensor ein Objekterfassungssignal entsprechend dem Erfassungsergebnis des Objekts, das durch den Objektsensor 2 erfasst wird. Als nächstes erkennt die Objekterkennungsvorrichtung 10 Objekte, die in der Nähe des Eigenfahrzeugs existieren, basierend auf dem erlangten Objekterfassungssignal.
  • Insbesondere erlangt in der Positionsinformationserlangungseinheit 11 die erste Erlangungseinheit 111 basierend auf dem ersten Schwellenwert THA, der durch die Schwellenwertfestlegungseinheit 12 festgelegt wird, erste Beobachtungsinformationen als die Positionsinformationen. Ferner führt in der Objektnachverfolgungseinheit 13 die erste Nachverfolgungsverarbeitungseinheit 131 die Nachverfolgungsverarbeitung basierend auf den ersten Beobachtungsinformationen, die durch die erste Erlangungseinheit 111 erlangt werden, und der ersten Region aus, die durch die Regionsfestlegungseinheit 14 festgelegt wird.
  • Andererseits erlangt in der Positionsinformationserlangungseinheit 11 die zweite Erlangungseinheit 112 die zweiten Beobachtungsinformationen basierend auf dem Objekterfassungssignal und dem zweiten Schwellenwert THB, der durch die Schwellenwertfestlegungseinheit 12 festgelegt wird. Ferner führt in der Objektnachverfolgungseinheit 13 die zweite Nachverfolgungsverarbeitungseinheit 132 die Nachverfolgungsverarbeitung basierend auf den zweiten Beobachtungsinformationen, die durch die zweite Erlangungseinheit 112 erlangt werden, und der zweiten Region aus, die durch die Regionsfestlegungseinheit 14 festgelegt wird.
  • Die Zustandsidentifizierungseinheit 15 integriert das Ergebnis der Nachverfolgungsverarbeitung, die durch die erste Nachverfolgungsverarbeitungseinheit 131 ausgeführt wird, und das Ergebnis der Nachverfolgungsverarbeitung, die durch die zweite Nachverfolgungsverarbeitungseinheit 132 ausgeführt wird, wodurch der Zustand von Objekten in der Nähe des Eigenfahrzeugs identifiziert wird. Somit erkennt die Zustandsidentifizierungseinheit 15 Objekte, die in der Nähe des Eigenfahrzeugs existieren. Dann gibt die Objekterkennungsvorrichtung 10 basierend auf dem Erkennungsergebnis des Objekts ein Operationsbefehlssignal aus, um die Operationseinheit 4 zu veranlassen, unterschiedliche Operationen (beispielsweise Fahrunterstützungsoperation) bezüglich eines Fahrens des Eigenfahrzeugs auszuführen.
  • Das Objekterfassungssignal, das durch den Objektsensor 2 erfasst wird, der der LIDAR-Sensor ist, enthält möglicherweise Clutter, das durch externe Störung oder thermisches Rauschen verursacht wird. In dieser Hinsicht, wenn die Beobachtungsinformationen als Positionsinformationen erzeugt werden, die für die Nachverfolgungsverarbeitung der Objektnachverfolgungseinheit 13 verwendet werden, wird ein Schwellenwert zum Eliminieren des Clutters verwendet.
  • In dieser Hinsicht ist die Empfangsintensität tatsächlicher Reflexionswellen, die an einem Objekt reflektiert werden, in einer Region mit kleinem Abstand relativ hoch. Somit ist in der Region mit kleinem Abstand der Schwellenwert zum Eliminieren des Clutters festgelegt, um ausreichend hoch zu sein, wobei das Clutter vollständig eliminiert wird. Im Gegensatz dazu ist die Empfangsintensität tatsächlicher Reflexionswellen, die an einem Objekt reflektiert werden, in einer Region mit großem Abstand schwach, was Schwierigkeiten bei der Unterscheidung des Signals von dem Clutter verursacht. Somit, wenn der Schwellenwert hoch festgelegt wird, können die Objektinformationen verloren gehen. Andererseits, wenn der Schwellenwert niedriger festgelegt wird, ist Clutter-Entfernung unzureichend und viel Clutter kann beim Berechnen der Objektnachverfolgungsverarbeitung verwendet werden.
  • Hierbei wird davon ausgegangen, dass die Nachverfolgungsverarbeitung der Objektnachverfolgungseinheit 13 mit RFS-Nachverfolgung ausgeführt werden kann. Jedoch sind gemäß der RFS-Nachverfolgung die Anti-Clutter-Eigenschaften hoch, aber die Verarbeitungslast ist hoch. Somit kann in dem Fall, in dem der Schwellenwert festgelegt ist, um ausreichend niedrig zu sein, oder alle der Empfangssignale verarbeitet werden, ohne den Schwellenwert zu verwenden, um zu verhindern, dass die Objektinformationen verloren gehen, eine übermäßige Rechenlast auftreten.
  • Insbesondere ist für eine fahrzeuggebundene Objekterkennungsvorrichtung 10 hinsichtlich Verbesserung der Fahrunterstützungsstufe oder der Stufe des automatischen Fahrens stark erforderlich, dass eine erkennbare Region, das heißt, eine Erfassungsregion des Objektsensors 2 größer ist (Region mit größerem Abstand). Ferner unterscheidet sich der Typ der Objekterkennungsvorrichtung 10 von einer Vorrichtung eines stationären Typs (Festpunktbeobachtungstyp), die an einer vorbestimmten Position fixiert ist. Somit bewegen sich in einem weiten Bereich von einer Region mit kleinem Abstand zu einer Region mit großem Abstand viele Objekte relativ zu dem Objektsensor und die Objekte treten oft in eine erkennbare Region ein und verlassen diese. Demzufolge ist hinsichtlich der Verarbeitungslast Anwenden des RFS-Nachverfolgungsverfahrens auf diesen Typ von fahrzeuggebundener Vorrichtung nicht realistisch.
  • Aus diesem Grund verwendet gemäß der vorliegenden Ausführungsform die erste Erlangungseinheit 111 den ersten Schwellenwert THA, der einen relativ niedrigen Wert hat, zum Erlangen der ersten Beobachtungsinformationen als die Positionsinformationen. Ebenso führt die erste Nachverfolgungsverarbeitungseinheit 131 die Nachverfolgungsverarbeitung eines Objekts in einer Region mit großem Abstand basierend auf den ersten Beobachtungsinformationen als Niedrigschwellenwertinformationen, die durch die erste Erlangungseinheit 111 erlangt werden, unter Verwendung eines Nachverfolgungsverfahrens, das hohe Anti-Clutter-Eigenschaften hat (beispielsweise RFS-Nachverfolgung), aus.
  • Andererseits verwendet die zweite Erlangungseinheit 112 den zweiten Schwellenwert THB, der einen relativ hohen Wert hat, zum Erlangen der zweiten Beobachtungsinformationen als die Positionsinformationen. Ferner führt die zweite Nachverfolgungsverarbeitungseinheit 132 die Nachverfolgungsverarbeitung eines Objekts in einer Region mit kleinem Abstand basierend auf den zweiten Beobachtungsinformationen als die Positionsinformationen unter Verwendung einer herkömmlichen Nachverfolgungsverarbeitung mit einer niedrigen Verarbeitungslast aus (beispielsweise erweitertes Kalman-Filter). Dann integriert die Zustandsidentifizierungseinheit 15 das Ergebnis der Nachverfolgungsverarbeitung in einer Region mit großem Abstand, die durch die erste Nachverfolgungsverarbeitungseinheit 131 ausgeführt wird, und das Ergebnis der Nachverfolgungsverarbeitung in einer Region mit kleinem Abstand, die durch die zweite Nachverfolgungsverarbeitungseinheit 132 ausgeführt wird, wodurch der Zustand von Objekten identifiziert wird.
  • Somit ist die vorliegende Ausführungsform mit Fokus auf die folgenden drei Fakten ausgebildet.
  • Objekte, für die es erforderlich ist, dass sie in einem Umfeld mit schwachem Signal erkannt werden, sind darauf beschränkt, in einer Region mit großem Abstand zu sein, wo der Signalpegel niedrig ist.
  • Ein Betrag an Verarbeitung (das heißt, Verarbeitungslast) in der Nachverfolgungsverarbeitung hängt von der Anzahl an Punktgruppen die zu verarbeiten sind, derart ab, dass, je höher der Schwellenwert ist, umso niedriger die Anzahl von Punktgruppen ist.
  • Wenn ein Nachverfolgungsverfahren einschließlich des RFS-Nachverfolgungsverfahrens mit hohen Anti-Clutter-Eigenschaften verwendet wird, wird die Verarbeitungslast hoch, während fehlerhafte Erkennung so weit wie möglich reduziert werden kann.
  • Gemäß der vorliegenden Ausführungsform wird für eine Region mit kleinem Abstand, in der die Signalintensität relativ hoch ist, der Schwellenwert festgelegt, um ausreichend hoch zu sein, und ein Objekt wird schnell unter Verwendung eines herkömmlichen Nachverfolgungsverfahrens nachverfolgt, das eine relativ niedrige Verarbeitungslast erfordert. Andererseits wird gemäß der vorliegenden Ausführungsform für eine Region mit großem Abstand, in der die Signalintensität relativ niedrig ist, der Schwellenwert festgelegt, um niedrig zu sein, und ein Objekt wird unter Verwendung einer Nachverfolgungsverfahrens nachverfolgt, das relative hohe Anti-Nachverfolgungseigenschaften hat.
  • Somit kann die Objekterkennung für eine weite Region von einer Region mit kleinem Abstand zu einer Region mit großem Abstand bevorzugt verwirklicht werden, wobei fehlerhafte Erkennungen aufgrund Clutters vermieden werden, und ohne übermäßiges Erhöhen der Verarbeitungslast. Das heißt, gemäß der vorliegenden Ausführungsform kann eine fahrzeuggebundene Objekterkennungsvorrichtung 10, die eine Erkennungsregion mit großem Abstand und hohe Anti-Clutter-Eigenschaften erreichen kann, erlangt werden.
  • In den vorstehend beschriebenen bevorzugten Beispielen führt die erste Nachverfolgungsverarbeitungseinheit 131 eine Nachverfolgungsverarbeitung für die erste Region basierend auf der Theorie der endlichen Zufallsmenge aus, in der Anti-Clutter-Eigenschaften hoch sind und die Verarbeitungslast hoch ist. Andererseits führt die zweite Nachverfolgungsverarbeitungseinheit 132 die Nachverfolgungsverarbeitung für die zweite Region unter Verwendung eines Nachverfolgungsverfahrens aus, das Hochgeschwindigkeitsverarbeitung mit einer niedrigen Verarbeitungslast ausführen kann. Somit können sowohl die Hochgeschwindigkeitsverarbeitung als auch Erkennung in großer Distanz bzw. Erkennung in einem großen Abstand verwirklicht werden.
  • Wie vorstehend beschrieben ist, wird RFS-Nachverfolgung mit hohen Anti-Clutter-Eigenschaften und hoher Verarbeitungslast exklusiv verwendet, wobei bevorzugt fehlerhafte Erkennungen unterdrückt werden, die durch Clutter verursacht werden, während eine Zunahme der Verarbeitungslast unterdrückt wird. Ferner kann gemäß der RFS-Nachverfolgung Erzeugung von neuen Objekten und Berechnung des Verschwindens existierender Objekte probabilistisch ausgeführt werden. Die Erzeugung eines neuen Objekts und Verschwinden existierender Objekte, tritt hauptsächlich in der Region mit großem Abstand auf. Somit kann RFS-Nachverfolgung angewendet werden, während der Schwellenwert in der Region mit großem Abstand verringert wird, wodurch Objektnachverfolgung in der Region mit großem Abstand mit bevorzugter Genauigkeit ausgeführt werden kann, wobei eine Wahrscheinlichkeit neuer Objekte, die in die erkennbare Region eintreten, und der existierenden Objekte berücksichtigt wird, die die die erkennbare Region verlassen. Andererseits haben Objekte, die in der Region mit kleinem Abstand existieren, eine hohe Wahrscheinlichkeit einer Kollision mit dem Eigenfahrzeug verglichen mit Objekten, die in der Region mit großem Abstand existieren. Demnach wird ein herkömmliches Verfahren angewendet, während der Schwellenwert höher in der Region mit kleinem Abstand festgelegt wird, wodurch fehlerhafte Erkennung, die durch Clutter verursacht wird, unterdrückt werden kann und die Verarbeitungsgeschwindigkeit der Nachverfolgungsverarbeitung der Objekte, die in der Region mit kleinem Abstand existieren, höher sein kann.
  • Nachfolgend werden Wirkungen der Reduzierung der Verarbeitungslast gemäß der vorliegenden Ausführungsform ferner unter Verwendung hypothetischer Fälle beschrieben. In den hypothetischen Fällen wird angenommen, dass die Anzahl von Punktgruppen unter Verwendung des ersten Schwellenwerts THA 200 Mal größer als die Anzahl von Punktgruppen unter Verwendung des zweiten Schwellenwerts THB ist. Ferner verwendet die erste Nachverfolgungsverarbeitungseinheit 131 RFS-Nachverfolgung als das Nachverfolgungsverfahren und die zweite Nachverfolgungsverarbeitungseinheit 132 verwendet ein herkömmliches Verfahren wie ein erweitertes Kalman-Filter (das heißt, Nicht-RFS-Nachverfolgung) als das Nachverfolgungsverfahren. Hierbei wird für die erste Nachverfolgungsverarbeitungseinheit 131 und die zweite Nachverfolgungsverarbeitungseinheit 132 angenommen, dass die Anzahl von Punktgruppen und die Verarbeitungslast eine proportionale Beziehung haben. Ferner wird in dem Fall, in dem die selbe Punktgruppe verwendet wird, angenommen, dass die Verarbeitungszeit der ersten Nachverfolgungsverarbeitungseinheit 131 zweimal die der zweiten Nachverfolgungsverarbeitungseinheit 132 ist.
  • Gemäß einem Beispiel verfolgt die erste Nachverfolgungsverarbeitungseinheit 131 eine Region mit großem Abstand nach, das heißt, die erste Region (X = 100 bis 120 m), und die zweite Nachverfolgungsverarbeitungseinheit 132 verfolgt eine Region mit kleinem Abstand nach, das heißt, die zweite Region (X = 0 bis 100 m). Im Gegensatz dazu verfolgt gemäß dem Vergleichsbeispiel die erste Nachverfolgungsverarbeitungseinheit 131 die gesamte erkennbare Region nach, das heißt, die gesamte spezielle Region (X = 0 m bis 120 m).
  • Es wird angenommen, dass eine erforderliche Periode der Nachverfolgungsverarbeitung gemäß dem Vergleichsbeispiel 144 Millisekunden ist. In diesem Moment, da die erste Region 44/144 der gesamten räumlichen Region ist (das heißt, der gesamten erkennbaren Region), ist die erforderliche Periode der Nachverfolgungsverarbeitung, die durch die erste Nachverfolgungsverarbeitungseinheit 131 für die erste Region ausgeführt wird: 144 x 44 / 144 = 44 Millisekunden. Die zweite Region ist 100/144 der gesamten räumlichen Region. Die Anzahl von Verarbeitungspunktgruppen durch die zweite Nachverfolgungsverarbeitungseinheit 132 ist 1/100 der Anzahl von Verarbeitungspunktgruppen der ersten Nachverfolgungsverarbeitungseinheit 131. Ferner ist in dem Fall der gleichen Anzahl von Verarbeitungspunktgruppen die Verarbeitungszeit der zweiten Nachverfolgungsverarbeitungseinheit 132 1/2 der Verarbeitungszeit der ersten Nachverfolgungsverarbeitungseinheit 131. Somit ist die erforderliche Periode der Nachverfolgungsverarbeitung, die durch die zweite Nachverfolgungsverarbeitungseinheit 132 für die zweite Region ausgeführt wird: 144 x (100/144) x (1/100) x (1/2) = 0.5 Millisekunden. Demnach ist die gesamte Verarbeitungsperiode 44,5 Millisekunden und die Verarbeitungsperiode wird auf 70% reduziert.
  • (Erste Ausführungsform: Modifikationsbeispiele)
  • Nachfolgend werden Modifikationsbeispiele, die auf die erste Ausführungsform angewendet werden können, beispielhaft dargestellt. Die Modifikationsbeispiele können auf andere Ausführungsformen angewendet werden, die auf die später beschriebene zweite Ausführungsform folgen, solange keine technischen Unstimmigkeiten anwesend sind.
  • Die Funktion zum Festlegen des Schwellenwerts kann in der Positionsinformationserlangungseinheit 11 beinhaltet sein. Insbesondere kann die Positionsinformationserlangungseinheit 11 (das heißt, erste Erlangungseinheit 111 und zweite Erlangungseinheit 112) einen vorab festgelegten Schwellenwert haben. Somit kann in 2 und 3 die Schwellenwertfestlegungseinheit 12 weggelassen werden.
  • Ähnlich kann eine Funktion zum Festlegen der Nachverfolgungsregion in der Objektnachverfolgungseinheit 13 beinhaltet sein. Insbesondere kann in der Objektnachverfolgungseinheit 13 (das heißt, erste Nachverfolgungsverarbeitungseinheit 131 und zweite Nachverfolgungsverarbeitungseinheit 132) die Nachverfolgungsregion vorab festgelegt werden. Somit kann die Regionsfestlegungseinheit 14 weggelassen werden.
  • In 3 sind hinsichtlich der Verwendung gegenseitig unterschiedlicher Schwellenwerte, das heißt, des ersten Schwellenwerts THA und des zweiten Schwellenwerts THB, die erste Erlangungseinheit 111 und die zweite Erlangungseinheit 112 in einem Zustand illustriert, in dem sie parallel angeordnet sind. Jedoch ist die vorliegende Offenbarung nicht auf diese Konfiguration beschränkt. Das heißt, wie in 2 gezeigt ist, kann der Schwellenwert in einer einzelnen Positionsinformationserlangungseinheit 11 geändert werden, wodurch eine Funktionskonfiguration entsprechend der in 3 gezeigten erreicht wird.
  • Es ist zu beachten, dass drei oder mehr Nachverfolgungsregionen festgelegt werden können. In diesem Fall können drei oder mehr Schwellenwerte festgelegt werden. Ferner können sich zwei oder mehr Nachverfolgungsregionen (beispielsweise erste Region und zweite Region gemäß dem vorstehend beschriebenen spezifischen Beispiel) gegenseitig und teilweise überlappen.
  • Die Nachverfolgungsregion kann eine zeitliche Region sein. Insbesondere kann beispielsweise, wenn eine Objekterfassung für eine gesamte räumliche Region (das heißt, gesamte erkennbare Region) zwei Mal hintereinander ausgeführt wird, die erstmalige Erfassung als die erste Region definiert werden und die zweitmalige als die zweite Region definiert werden. In diesem Fall führt die erste Nachverfolgungsverarbeitungseinheit 131 die Nachverfolgungsverarbeitung basierend auf den Positionsinformationen aus, die durch die Positionsinformationserlangungseinheit 11 in der ersten Objekterfassung erlangt werden. Andererseits führt die zweite Nachverfolgungsverarbeitungseinheit 132 die Nachverfolgungsverarbeitung basierend auf der Positionsinformationserlangungseinheit 11 bei der zweiten Objekterfassung aus.
  • Die Nachverfolgungsregion kann eine Signalpegelregion sein, das heißt, die Empfangsintensitätsregion. Insbesondere ist beispielsweise das Objekterfassungssignal mehreren Signalpegelregionen zugewiesen und die Objektnachverfolgungsverarbeitung kann für jeweilige Signalpegelregionen ausgeführt werden.
  • Die Nachverfolgungsregion kann eine Kombination beliebiger zwei Elemente aus der räumlichen Region, der zeitlichen Region und der Signalpegelregion sein. Insbesondere können beispielsweise insgesamt vier Nachverfolgungsregionen einschließlich eines niedrigen Signalpegels in der Region mit großem Abstand, eines hohen Signalpegels in der Region mit großem Abstand, eines niedrigen Signalpegels in der Region mit kleinem Abstand und eines hohen Signalpegels in der Region mit kleinem Abstand festgelegt werden.
  • Wie vorstehend beschrieben ist, wird das RFS-Nachverfolgungsverfahren verwendet, wodurch die Anti-Clutter-Eigenschaften verbessert werden. In dieser Hinsicht wird die Anzahl von Verarbeitungspunktgruppen in der zweiten Nachverfolgungsverarbeitungseinheit 132 um einen vorbestimmten Grad aufgrund des Festlegens des hohen Schwellenwerts reduziert. Somit, sogar, wenn die RFS-Nachverfolgung auf die zweite Nachverfolgungsverarbeitungseinheit 132 angewendet wird, wird die Verarbeitungslast unwahrscheinlich übermäßig hoch. Aus diesem Grund kann die RFS-Nachverfolgung zusätzlich zur ersten Nachverfolgungsverarbeitungseinheit 131 auch auf die zweite Nachverfolgungsverarbeitungseinheit 132 angewendet werden. Das heißt, die erste Nachverfolgungsverarbeitungseinheit 131 und die zweite Nachverfolgungsverarbeitungseinheit 132 führen Nachverfolgungsverarbeitung basierend auf der Theorie der endlichen Zufallsmenge aus. Somit können fehlerhafte Erkennungen aufgrund Clutter-Rauschens weiter bevorzugt unterdrückt werden.
  • (Zweite Ausführungsform)
  • Nachfolgend wird gemäß 4 eine Konfiguration und Operation einer Objekterkennungsvorrichtung 10 gemäß der zweiten Ausführungsform beschrieben. In der folgenden Beschreibung der zweiten Ausführungsform werden hauptsächlich Konfigurationen beschrieben, die sich von denen der ersten Ausführungsform unterscheiden. Die gleichen Bezugszeichen werden für Abschnitte verwendet, die bei der ersten Ausführungsform und der zweiten Ausführungsform die gleiche oder eine gleichwertige Konfiguration aufweisen. Dementsprechend werden in der folgenden Beschreibung der zweiten Ausführungsform für die Bestandteile, die dieselben Bezugszeichen wie in der ersten Ausführungsform haben, die Erläuterungen der ersten Ausführungsform in angemessener Weise angewandt, sofern keine technischen Unstimmigkeiten vorliegen oder keine spezifischen zusätzlichen Erläuterungen erforderlich sind. Das Gleiche gilt für andere Ausführungsformen der später beschriebenen dritten Ausführungsform und der späteren Ausführungsformen.
  • Auch in dieser Ausführungsform, ähnlich wie bei der vorstehend beschriebenen ersten Ausführungsform, ist die Beziehung zwischen dem ersten Schwellenwert und dem zweiten Schwellenwert erster Schwellenwert THA < zweiter Schwellenwert THB, die erste Region ist eine Region mit großem Abstand (das heißt, X=100-120) und die zweite Region ist eine Region mit kleinem Abstand (d.h. X=0 bis 100). Ferner hat die erste Nachverfolgungsverarbeitungseinheit 131 Anti-Clutter-Eigenschaften, die höher als die der zweiten Nachverfolgungsverarbeitungseinheit 132 sind. Ähnlich zur vorstehend beschriebenen ersten Ausführungsform können die erste Nachverfolgungsverarbeitungseinheit 131 und die zweite Nachverfolgungsverarbeitungseinheit 132 Nicht-RFS-Nachverfolgung verwenden. Jedoch kann RFS-Nachverfolgung bevorzugt auf mindestens die erste Nachverfolgungsverarbeitungseinheit 131 angewendet werden. Ferner kann RFS-Nachverfolgung auf die zweite Nachverfolgungsverarbeitungseinheit 132 angewendet werden.
  • Gemäß der vorliegenden Ausführungsform ist die zweite Nachverfolgungsverarbeitungseinheit 132 konfiguriert, um die Nachverfolgungsverarbeitung basierend auf einem Ergebnis der Nachverfolgungsverarbeitung ausführen, die durch die erste Nachverfolgungsverarbeitungseinheit 131 ausgeführt wird. Die Objektnachverfolgungseinheit 13 wendet das Ergebnis der Nachverfolgungsverarbeitung, die durch die erste Nachverfolgungsverarbeitungseinheit 131 ausgeführt wird, auf die zweite Nachverfolgungsverarbeitungseinheit 132 an, wodurch das Nachverfolgungsverarbeitungsergebnis geglättet wird.
  • Die erste Nachverfolgungsverarbeitungseinheit 131 und die zweite Nachverfolgungsverarbeitungseinheit 132 sind konfiguriert, um sukzessive eine Vorhersageverarbeitung und eine Aktualisierungsverarbeitung mit einem bekannten Zustandsschätzfilter zu wiederholen, wodurch jedes Mal ein Zustand des Objekts geschätzt wird. Insbesondere ist die erste Nachverfolgungsverarbeitungseinheit 131 mit einer ersten Vorhersageeinheit 131 A, einer ersten Aktualisierungseinheit 131B und einer ersten Schätzeinheit 131C versehen. Ähnlich ist die zweite Nachverfolgungsverarbeitungseinheit 132 mit einer zweiten Vorhersageeinheit 132A und einer zweiten Aktualisierungseinheit 132B und einer zweiten Schätzeinheit 132C versehen.
  • Die erste Vorhersageeinheit 131A dient als ein Funktionsblock entsprechend einer Vorhersageverarbeitung oder einem Vorhersageschritt in einem Nachverfolgungsverarbeitungsalgorithmus unter Verwendung des Zustandsschätzfilters. Die erste Aktualisierungseinheit 131B dient als ein Funktionsblock entsprechend einer Aktualisierungsverarbeitung oder einem Aktualisierungsschritt in dem vorstehend beschriebenen Algorithmus.
  • Insbesondere ist die erste Vorhersageeinheit 131A konfiguriert, um basierend auf einem Aktualisierungswert der Zustandsgröße zu einer vorherigen Verarbeitungszeit k-1, das heißt, dem Ausgabewert der ersten Aktualisierungseinheit 131B, einen Vorhersagewert einer Zustandsgröße zu einer gegenwärtigen Verarbeitungszeit k zu berechnen. Die erste Aktualisierungseinheit 131B aktualisiert (das heißt, korrigiert) den Vorhersagewert, der durch die erste Vorhersageeinheit 131A berechnet wird, basierend auf den ersten Beobachtungsinformationen, die von dem Objekterfassungssignal zur gegenwärtigen Verarbeitungszeit k erlangt werden, wodurch der Aktualisierungswert der Zustandsgröße zur gegenwärtigen Verarbeitungszeit k berechnet wird. Die erste Schätzeinheit 131C ist konfiguriert, um einem Objektzustand zur gegenwärtigen Verarbeitungszeit k basierend auf dem Aktualisierungswert der Zustandsgröße zur gegenwärtigen Verarbeitungszeit k zu schätzen, das heißt, dem Ausgabewert der ersten Aktualisierungseinheit 131B.
  • Die zweite Vorhersageeinheit 132A dient als ein Funktionsblock entsprechend einer Vorhersageverarbeitung oder einem Vorhersageschritt in einem Nachverfolgungsverarbeitungsalgorithmus unter Verwendung des Zustandsschätzfilters. Die zweite Aktualisierungseinheit 132B dient als ein Funktionsblock entsprechend einer Aktualisierungsverarbeitung oder einem Aktualisierungsschritt in dem vorstehend beschriebenen Algorithmus.
  • Die zweite Vorhersageeinheit 132A ist konfiguriert, um basierend auf einem Aktualisierungswert der Zustandsgröße zu einer vorherigen Verarbeitungszeit k-1, das heißt, dem Ausgabewert der zweiten Aktualisierungseinheit 132B und dem Ausgabewert der ersten Aktualisierungseinheit 131B zur gleichen Zeit k-1, einen Vorhersagewert einer Zustandsgröße zu einer gegenwärtigen Verarbeitungszeit k zu berechnen. In anderen Worten ist die zweite Vorhersageeinheit 132A konfiguriert, um den Ausgabewert der ersten Aktualisierungseinheit 131B und der zweiten Aktualisierungseinheit 132B zur vorherigen Verarbeitungszeit k-1 zu erlangen und einen Vorhersagewert der Zustandsgröße zur gegenwärtigen Verarbeitungszeit k auszugeben.
  • Die zweite Aktualisierungseinheit 132B aktualisiert (das heißt, korrigiert) den Vorhersagewert, der durch die zweite Vorhersageeinheit 132A berechnet wird, basierend auf den zweiten Beobachtungsinformationen, die von dem Objekterfassungssignal zur gegenwärtigen Verarbeitungszeit k erlangt werden, wodurch der Aktualisierungswert der Zustandsgröße zur gegenwärtigen Verarbeitungszeit k berechnet wird. Die zweite Schätzeinheit 132C ist konfiguriert, um den Objektzustand zur gegenwärtigen Verarbeitungszeit k basierend auf dem Aktualisierungswert der Zustandsgröße zur gegenwärtigen Verarbeitungszeit k zu schätzen, das heißt, den Ausgabewert der zweiten Aktualisierungseinheit 132B.
  • Nachfolgend werden eine Gesamtoperation einer Objekterkennungsvorrichtung gemäß der vorliegenden Ausführungsform, ein Überblick über ein Objekterkennungsverfahren, das durch die Objekterkennungsvorrichtung ausgeführt wird, und ein Objekterkennungsprogramm zusammen mit Wirkungen und Vorteilen, die daraus erlangt werden, gemäß der Zeichnung beschrieben.
  • Es wird angenommen, dass ein Zielobjekt, das durch die erste Nachverfolgungsverarbeitungseinheit 131 nachverfolgt wurde, zur gegenwärtigen Verarbeitungszeit k als in der zweiten Region befindlich geschätzt wird, deren Abstand kleiner als 100 Meter ist, nach Abschluss des Aktualisierungsschritts zur vorherigen Verarbeitungszeit k-1. Das bedeutet, dass sich ein Zielobjekt von der ersten Region, deren Abstand größer oder gleich 100 Meter ist, zur zweiten Region bewegt hat, deren Abstand kleiner als 100 Meter ist. In diesem Fall werden die Objektinformationen von den Objektinformationen entfernt, die durch die erste Nachverfolgungsverarbeitungseinheit 131 nachverfolgt wurden, und zu den Objektinformationen hinzugefügt, die durch die zweite Nachverfolgungsverarbeitungseinheit 132 nachverfolgt wurden.
  • Somit setzt die zweite Nachverfolgungsverarbeitungseinheit 132 unmittelbar Nachverfolgen des fokussierten Objekts fort und übernimmt die ID-Informationen. Das heißt, gemäß der vorliegenden Ausführungsform ist es möglich, eine Diskontinuität an einem Grenzabschnitt zwischen der Nachverfolgungsregion der ersten Nachverfolgungsverarbeitungseinheit 131 und der Nachverfolgungsregion der zweiten Nachverfolgungsverarbeitungsregion zu vermeiden.
  • Die Konfiguration, die in 4 gezeigt ist, ermöglicht, dass die Objektinformationen, nachdem sie in der ersten Nachverfolgungsverarbeitungseinheit 131 aktualisiert werden (das heißt, Ausgabe der ersten Aktualisierungseinheit 131B), an die zweite Nachverfolgungsverarbeitungseinheit 132 gesendet werden. Im Gegensatz dazu kann die vorstehende Konfiguration in eine Konfiguration geändert werden, in der die Objektinformationen, nachdem sie in der ersten Nachverfolgungsverarbeitungseinheit 131 geschätzt werden, an die zweite Nachverfolgungsverarbeitungseinheit 132 gesendet werden.
  • (Dritte Ausführungsform)
  • Nachfolgend wird gemäß 5 eine Konfiguration und Operation einer Objekterkennungsvorrichtung 10 gemäß der dritten Ausführungsform beschrieben. Die dritte Ausführungsform ist eine Ausführungsform, in der ein Teil der zweiten Ausführungsform modifiziert ist. In anderen Worten ist ähnlich zur zweiten Ausführungsform die zweite Nachverfolgungsverarbeitungseinheit 132 konfiguriert, um die Nachverfolgungsverarbeitung basierend auf dem Ergebnis der Nachverfolgungsverarbeitung ausführen, die durch die erste Nachverfolgungsverarbeitungseinheit 131 ausgeführt wird.
  • Gemäß der vorliegenden Ausführungsform überlappen sich die erste Region, die eine Nachverfolgungsregion der ersten Nachverfolgungsverarbeitungseinheit 131 ist, und die zweite Region, die eine Nachverfolgungsregion der zweiten Nachverfolgungsverarbeitungseinheit 132 ist, teilweise einander. Insbesondere ist beispielsweise die erste Region eine Region mit großem Abstand (das heißt, X = 100 bis 120) und die zweite Region ist die gesamte räumliche Region (das heißt, X = 0 bis 120).
  • In diesem Fall ist es möglich, dass die erste Nachverfolgungsverarbeitungseinheit 131 und die zweite Nachverfolgungsverarbeitungseinheit 132 das gleiche Objekt nachverfolgen. Somit ist es erforderlich das Aktualisierungsergebnis oder das Schätzergebnis der ersten Nachverfolgungsverarbeitungseinheit 131 und das Aktualisierungsergebnis der zweiten Nachverfolgungsverarbeitungseinheit 132 zu vergleichen, und es ist erforderlich, die Objektinformationen, die nicht dem selben Objekt entsprechen, an die zweite Nachverfolgungsverarbeitungseinheit 132 zu senden.
  • In dieser Hinsicht ist gemäß der vorliegenden Ausführungsform die zweite Nachverfolgungsverarbeitungseinheit 132 mit einer Differenzextrahierungseinheit 132D versehen. Die Differenzextrahierungseinheit 132D ist konfiguriert, um eine Differenz zwischen dem Ergebnis der Nachverfolgungsverarbeitung der ersten Nachverfolgungsverarbeitungseinheit 131 und dem Ergebnis der Nachverfolgungsverarbeitung der zweiten Nachverfolgungsverarbeitungseinheit 132 zu extrahieren. Ferner ist die zweite Nachverfolgungsverarbeitungseinheit 132 konfiguriert, um die Nachverfolgungsverarbeitung basierend auf der Differenz auszuführen, die durch die Differenzextrahierungseinheit 132D extrahiert wird. Gemäß dieser Konfiguration kann sogar in einem Fall, in dem die erste Region, die die Nachverfolgungsregion der ersten Nachverfolgungsverarbeitungseinheit 131 ist, und die zweite Region, die die Nachverfolgungsregion der zweiten Nachverfolgungsverarbeitungseinheit 132 ist, sich teilweise einander überlappen, bevorzugte Objektnachverfolgungsverarbeitung verwirklicht werden.
  • (Vierte Ausführungsform)
  • Nachfolgend wird gemäß 4 oder 5 eine Konfiguration und Operation einer Objekterkennungsvorrichtung 10 gemäß der vierten Ausführungsform beschrieben. Die vierte Ausführungsform ist eine Ausführungsform, in der die vorstehend beschriebene zweite Ausführungsform oder dritte Ausführungsform teilweise modifiziert ist. Insbesondere ist ähnlich zur vorstehend beschriebenen zweiten Ausführungsform und dritten Ausführungsform die zweite Nachverfolgungsverarbeitungseinheit 132 konfiguriert, um die Nachverfolgungsverarbeitung basierend auf dem Ergebnis der ersten Nachverfolgungsverarbeitungseinheit 131 auszuführen.
  • Gemäß der vorliegenden Ausführungsform nutzt mindestens die zweite Nachverfolgungsverarbeitungseinheit 132 das RFS-Nachverfolgungsverfahren. Ebenso gilt eine Beziehung erster Schwellenwert THA < zweiter Schwellenwert und die räumliche Region der ersten Region und die räumliche Region der zweiten Region sind gleich.
  • In diesem Fall entspricht die Nachverfolgungsregion der ersten Nachverfolgungsverarbeitungseinheit 131 einer Punktgruppe, die erlangt wird, wenn der erste Schwellenwert THA auf die gesamte räumliche Region angewendet wird. In diesem Fall entspricht die Nachverfolgung der zweiten Nachverfolgungsverarbeitungsregion 132 einer Punktgruppe, die erlangt wird, wenn der zweite Schwellenwert THB auf die gesamte räumliche Region angewendet wird. Das heißt, das vorliegende Beispiel entspricht einem Beispiel, in dem die Signalpegelregion sich zwischen der ersten Region und der zweiten Region unterscheidet.
  • Bei der RFS-Nachverfolgung ist es erforderlich, dass eine räumliche Verteilung, wo ein neues Objekt anwesend ist, vorhergesagt wird. In dieser Hinsicht ist wie bei der vorliegenden Offenbarung gemäß einer Konfiguration zum Überwachen eines externen Umfelds des Eigenfahrzeugs mit dem Objektsensor 2, da sich das externe Umfeld momentan ändert, Vorhersagen der räumlichen Verteilung des neuen Objekts gewöhnlicher Weise schwierig.
  • Aus diesem Grund führt gemäß der vorliegenden Ausführungsform die erste Nachverfolgungsverarbeitungseinheit 131 vorab eine Nachverfolgung basierend auf der Punktgruppe unter Verwendung des ersten Schwellenwerts THA aus, der ein relativ niedriger Schwellenwert ist, und dieses Nachverfolgungsergebnis wird als räumliche Verteilung des neuen Objekts in der zweiten Nachverfolgungsverarbeitungseinheit verwendet. Somit kann die Erkennung frühzeitig gestartet werden. Ferner, da die Verarbeitungslast der zweiten Nachverfolgungsverarbeitungseinheit 132 nicht übermäßig hoch ist, ist die vorstehend beschriebene Konfiguration hinsichtlich der Verarbeitungslast verglichen mit einem Fall wirksam, in dem jeder Schwellenwert festgelegt wird, um verringert zu werden.
  • In dem Fall, in dem die Nachverfolgungsregion der ersten Nachverfolgungsverarbeitungseinheit 131 eine Punktgruppe ist, die größer oder gleich dem ersten Schwellenwert THA und kleiner als der zweite Schwellenwert THB ist, und die Nachverfolgungsregion der zweiten Nachverfolgungsverarbeitungseinheit 132 eine Punktgruppe größer oder gleich dem zweiten Schwellenwert THB ist, haben beide Nachverfolgungsregionen keine Duplikation. Somit, wie in 4 gezeigt ist, kann das Ergebnis der Nachverfolgungsverarbeitungseinheit 131 direkt an die zweite Nachverfolgungsverarbeitungseinheit 132 gesendet werden. In anderen Worten kann die Differenzextrahierungseinheit 132D, die in 5 gezeigt ist, weggelassen werden.
  • Im Gegensatz dazu ist die Nachverfolgungsregion der ersten Nachverfolgungsverarbeitungseinheit 131 eine Punktgruppe größer oder gleich dem ersten Schwellenwert THA und die Nachverfolgungsregion der zweiten Nachverfolgungsverarbeitungseinheit 132 eine Punktgruppe größer oder gleich dem zweiten Schwellenwert und somit tritt teilweise Duplikation in beiden Nachverfolgungsregionen auf. Somit muss in diesem Fall, wie in 5 gezeigt ist, die Differenzextrahierungseinheit 132D bereitgestellt werden, um eine Differenz zwischen der Nachverfolgungsverarbeitungseinheit, der ersten Nachverfolgungsverarbeitungseinheit 131 und dem Aktualisierungsergebnis der zweiten Nachverfolgungsverarbeitungseinheit 132 zu erlangen, was eine vorhergesagte Verteilung des neuen Objekts sein sollte.
  • Gemäß der vorliegenden Ausführungsform führt die erste Nachverfolgungsverarbeitungseinheit 131 die Nachverfolgungsverarbeitung basierend auf den ersten Beobachtungsinformationen als die Niedrigschwellenwertinformationen aus. Außerdem ist der räumliche Bereich bzw. Umfang zwischen dem ersten Bereich als Objektregion der Nachverfolgungsverarbeitung der ersten Nachverfolgungsverarbeitungseinheit 131 und dem zweiten Bereich als Objektregion der Nachverfolgungsverarbeitung der zweiten Nachverfolgungsverarbeitungseinheit 132 derselbe. Somit kann für die erste Nachverfolgungsverarbeitungseinheit 131 ein Objektnachverfolgungsverarbeitungsalgorithmus mit niedriger Verarbeitungslast als die der zweiten Nachverfolgungsverarbeitungseinheit 132 bevorzugt verwendet werden. Die erste Nachverfolgungsverarbeitungseinheit 131 führt eine Nachverfolgungsverarbeitung aus, die in der Lage ist, Hochgeschwindigkeitsverarbeitung auszuführen, während die zweite Nachverfolgungsverarbeitungseinheit 132 eine robustere Nachverfolgungsverarbeitung ausführt, wodurch sowohl eine Hochgeschwindigkeitsverarbeitung als auch eine Eigenschaft einer Erkennung in einem großen Abstand verwirklicht werden kann.
  • Wie vorstehend beschrieben ist, entspricht gemäß der vorliegenden Ausführungsform Festlegen des ersten Schwellenwerts THA in der ersten Erlangungseinheit 111 Festlegen der Nachverfolgungsregion der ersten Nachverfolgungsverarbeitungseinheit 131. Ähnlich entspricht Festlegen des zweiten Schwellenwerts THB der zweiten Erlangungseinheit 112 der Nachverfolgungsregion der zweiten Nachverfolgungsverarbeitungseinheit 132. Somit kann die Regionsfestlegungseinheit 14 weggelassen werden.
  • (Fünfte Ausführungsform)
  • Nachfolgend wird gemäß 4 und 5 eine Konfiguration und Operation der Objekterkennungsvorrichtung 10 gemäß der fünften Ausführungsform beschrieben. Gemäß der vorliegenden Ausführungsform ist die vorstehend beschriebene vierte Ausführungsform teilweise modifiziert. In anderen Worten ist die zweite Nachverfolgungsverarbeitungseinheit 132 konfiguriert, um die Nachverfolgungsverarbeitung basierend auf einem Ergebnis der Nachverfolgungsverarbeitung der ersten Nachverfolgungsverarbeitungseinheit 131 auszuführen. Ferner ist die Beziehung zwischen dem ersten und zweiten Schwellenwert erster Schwellenwert THA < zweiter Schwellenwert THB und die räumliche Region ist zwischen der ersten Region und der zweiten Region gleich.
  • Gemäß der vorliegenden Ausführungsform verwenden sowohl die erste Nachverfolgungsverarbeitungseinheit 131 als auch die zweite Nachverfolgungsverarbeitungseinheit 132 das RFS-Nachverfolgungsverfahren als ein Nachverfolgungsverfahren. Insbesondere sind die erste Nachverfolgungsverarbeitungseinheit 131 und die zweite Nachverfolgungsverarbeitungseinheit 132 unter Verwendung eines Zustandsschätzfilters basierend auf der Theorie der endlichen Zufallsmenge konfiguriert.
  • Das Zustandsschätzfilter basierend auf der Theorie der endlichen Zufallsmenge kann ein Filter eines ersten Typs, der Poisson-Intensitätsverteilung fortpflanzt, und einen Filter eines zweiten Typs, der die Verteilung mit Bernoulli-Komponenten ausdrückt, unterteilt werden. Das PHD-Filter und das CPHD-Filter sind dem ersten Typ zugeordnet. Das CBMeMBer-Filter, das GLMB-Filter, das LMB-Filter, das PMB-Filter und das PMBM-Filter sind dem zweiten Typ zugeordnet. Unter diesen Filtern unterscheiden sich das PMB-Filter und das PMBM-Filter von anderen Filtern darin, dass die Zustandsverteilung existierender Objekte durch eine Bernoulli-Komponente ausgedrückt wird, und die Zustandsverteilung neuer Objekte durch die Poisson-Intensitätsverteilung ausgedrückt wird.
  • In dieser Hinsicht wird gemäß der Konfiguration, die in 4 und 5 gezeigt ist, in der das Ergebnis der Nachverfolgungsverarbeitung in der ersten Nachverfolgungsverarbeitungseinheit 131 an die zweite Nachverfolgungsverarbeitungseinheit 132 übertragen wird, die Leistung abhängig davon beeinflusst, welches Zustandsschätzfilter für die jeweilige erste Nachverfolgungsverarbeitungseinheit 131 und zweite Nachverfolgungsverarbeitungseinheit 132 verwendet wird. Das heißt, in dem Fall, in dem die Zustandsverteilung, die an die zweite Nachverfolgungsverarbeitungseinheit 132 von der ersten Nachverfolgungsverarbeitungseinheit 131 übertragen wird, und die Zustandsverteilung des neuen Objekts in der zweiten Nachverfolgungsverarbeitungseinheit 132 vom gleichen Typ sind, ist eine Umwandlungsverarbeitung zwischen Poisson-Intensitätsverteilung und Bernoulli-Komponente unnötig.
  • Aus diesem Grund ist gemäß der vorliegenden Ausführungsform die Objektnachverfolgungseinheit 13 derart konfiguriert, dass ein Typ der Zustandsverteilung, die in dem Ergebnis der Nachverfolgungsverarbeitung beinhaltet ist, das an die zweite Nachverfolgungsverarbeitungseinheit 132 von der ersten Nachverfolgungsverarbeitungseinheit 131 ausgegeben wird, und der Typ der Zustandsverteilung eines nicht erfassten Objekts, das durch die zweite Nachverfolgungsverarbeitungseinheit 132 vorhergesagt wird, gleich sind. Somit wird die Verarbeitungslast reduziert und der Informationsverlust aufgrund einer Annäherung während der Umwandlungsverarbeitung kann vermieden werden. Wie vorstehend beschrieben ist, kann für die erste Nachverfolgungsverarbeitungseinheit 131 ein Objektnachverfolgungsverarbeitungsalgorithmus mit niedriger Verarbeitungslast als die der zweiten Nachverfolgungsverarbeitungseinheit 132 bevorzugt verwendet werden. Somit können sowohl die Hochgeschwindigkeitsverarbeitung als auch die Erkennung in einem großen Abstand verwirklicht werden.
  • Hinsichtlich der vorstehenden Aspekte sind bevorzugte Kombination zwischen der ersten Nachverfolgungsverarbeitungseinheit 131 und der zweiten Nachverfolgungsverarbeitungseinheit 132 folgendermaßen beispielhaft dargestellt. Es ist zu beachten, dass Kombinationen nicht auf die nachfolgenden Beispiele beschränkt sind.
    Erste Nachverfolgungsverarbeitungseinheit 131 Zweite Nachverfolgungsverarbeitungseinheit 132
    PHD CPHD
    PHD PMBM
    CPHD PMBM
    CBM GLMB
    CBM LMB
    LMB GLMB
  • Nachfolgend werden detaillierte Operationsbeispiele einer Konfiguration gemäß der vorliegenden Ausführungsform beschrieben. In den Beispielen ist die erste Nachverfolgungsverarbeitungseinheit 131 unter Verwendung eines PHD-Filters oder eines CPHD-Filters als Zustandsschätzfilter konfiguriert, das die Ausbreitung der Poisson-Intensitätsverteilung erlaubt. Das Zustandsschätzfilter, das für die erste Nachverfolgungsverarbeitungseinheit 131 verwendet wird, entspricht dem ersten Filter gemäß der vorliegenden Offenbarung. Die zweite Nachverfolgungsverarbeitungseinheit 132 ist unter Verwendung eines PMBM-Filters als Zustandsschätzfilter konfiguriert, das Poisson-Intensitätsverteilung als eine Zustandsverteilung eines nicht erfassten Objekts behandelt. Das Zustandsschätzfilter, das für die zweite Nachverfolgungsverarbeitungseinheit 132 verwendet wird, entspricht dem zweiten Filter in der vorliegenden Offenbarung.
  • Ferner ist die erste Region größer oder gleich dem ersten Schwellenwert THA und kleiner als der zweite Schwellenwert THB und die zweite Region ist größer oder gleich dem zweiten Schwellenwert THB. In diesem Fall entspricht die Funktionsblockkonfiguration der einen, die in 4 gezeigt ist.
  • Die zweite Nachverfolgungsverarbeitungseinheit 132 als das PMBM-Filter kann die Zustandsverteilung eines nicht erfassten Objekts zusätzlich zur Zustandsverteilung des erfassten Objekts schätzen. Die Zustandsverteilung des erfassten Objekts wird durch die Bernoulli-Komponente ausgedrückt. Andererseits wird die Zustandsverteilung des nicht erfassten Objekts durch die Poisson-Intensitätsverteilung ausgedrückt. Das nicht erfasste Objekt, das durch die Poisson-Intensitätsverteilung ausgedrückt wird, wird zur nächsten Verarbeitungszeit für eine Zustandsverteilung eines existierenden und nicht erfassten Objekts verwendet (das heißt, bereits in der Nachverfolgungsregion versteckt, aber noch nicht erfasst).
  • Andererseits wird gemäß der ersten Nachverfolgungsverarbeitungseinheit 131 als das PHD-Filter oder das CPHD-Filter eine Zustandsverteilung eines neuen und nicht erfassten Objekts (das heißt, neu in der Nachverfolgungsregion zur gegenwärtigen Verarbeitungszeit k aufgetaucht, aber noch nicht erfasst) erlangt. Somit wird durch Hinzufügen der Zustandsverteilung des neuen und nicht erfassten Objekts, das durch die erste Nachverfolgungsverarbeitungseinheit 131 erlangt wird, zu einem existierenden und nicht erfassten Objekt, das durch die zweite Nachverfolgungsverarbeitungseinheit 132 erlangt wird, eine Zustandsverteilung eines nicht erfassten Objekts zu der gegenwärtigen Verarbeitungszeit k erfasst.
  • Das Ablaufdiagramm, das in 6 gezeigt ist, zeigt einen Umriss einer Objektnachverfolgung und einer spezifischen Verarbeitung zur gegenwärtigen Verarbeitungszeit k. Die Verarbeitungen bei jeweiligen Schritten, die in dem Ablaufdiagramm gezeigt sind, werden durch die CPU 5 der Steuereinheit 3 ausgeführt. In 6 ist S eine Abkürzung für Schritt und R gibt eine Signalintensität des Empfangssignals an.
  • Bei Schritt S601 erlangt die CPU 5 Sensorinformationen, das heißt, ein Objekterfassungssignal von dem Objektsensor 2.
  • Bei Schritt S602 erlangt die CPU 5 basierend auf dem Objekterfassungssignal, das bei Schritt S601 erfasst wird, die ersten Positionsinformationen unter Verwendung des ersten Schwellenwerts THA und des zweiten Schwellenwerts THB. In anderen Worten wandelt die CPU 5 die Empfangsintensitätsspitze, die größer oder gleich dem ersten Schwellenwert THA und kleiner als der zweite Schwellenwert THB ist, um eine Punktgruppe zu sein. Die Verarbeitung bei Schritt S602 entspricht einer Operation der ersten Erlangungseinheit 111 in der Positionsinformationserlangungseinheit 11.
  • Bei Schritt S603 sagt die CPU 5 eine Zustandsverteilung eines Objekts zur gegenwärtigen Verarbeitungszeit k aus der Zustandsverteilung vorher, die durch die erste Nachverfolgungsverarbeitungseinheit 131 zur vorherigen Verarbeitungszeit k-1 geschätzt wird. Die Zustandsverteilung des Objekts, die bei Schritt S603 vorhergesagt werden soll, ist eine Poisson-Intensitätsverteilung. Die Verarbeitung bei Schritt S603 entspricht einer Operation der ersten Nachverfolgungsverarbeitungseinheit 131 der Objektnachverfolgungseinheit 13 (das heißt, ersten Vorhersageeinheit 131A).
  • Bei Schritt S604 aktualisiert die CPU 5 die Zustandsverteilung eines Objekts zur gegenwärtigen Verarbeitungszeit k unter Verwendung von Punktgruppeninformationen entsprechend der Empfangsintensitätsspitze, die größer oder gleich dem ersten Schwellenwert THA und kleiner als der zweite Schwellenwert THB ist. Die aktualisierte Zustandsverteilung, die bei Schritt S604 erlangt wird, ist eine Poisson-Intensitätsverteilung. Somit wird eine Zustandsverteilung eines neuen und nicht erfassten Objekts erlangt. Die Verarbeitung bei Schritt S604 entspricht einer Operation der ersten Nachverfolgungsverarbeitungseinheit 131 (das heißt, ersten Aktualisierungseinheit 131B) der Objektnachverfolgungseinheit 13.
  • Bei Schritt S605 erlangt die CPU 5 basierend auf dem Objekterfassungssignal, das bei Schritt S601 erlangt wird, die zweiten Positionsinformationen unter Verwendung des zweiten Schwellenwerts THB. Das heißt, die CPU 5 wandelt die Empfangsintensitätsspitze, die größer oder gleich dem zweiten Schwellenwert THA ist, um eine Punktgruppe zu sein. Die Verarbeitung bei Schritt S605 entspricht einer Operation der zweiten Erlangungseinheit 112 der Positionsinformationserlangungseinheit 11.
  • Bei Schritt S606 sagt die CPU 5 basierend auf der Zustandsverteilung nicht erfasster und erfasster Objekte, die zur vorherigen Verarbeitungszeit k-1 durch die zweite Nachverfolgungsverarbeitungseinheit 132 geschätzt werden, eine Zustandsverteilung eines erfassten Objekts und eines existierenden und nicht erfassten Objekts zur gegenwärtigen Verarbeitungszeit k vorher. Die Verarbeitung bei Schritt S606 entspricht einer Operation der zweiten Nachverfolgungsverarbeitungseinheit 132 (das heißt, zweiten Vorhersageeinheit 132A) der Objektnachverfolgungseinheit 13.
  • Bei Schritt S607 fügt die CPU 5 die Zustandsverteilung eines neuen und nicht erfassten Objekts, die bei Schritt S604 erlangt wird, zu einem Vorhersageergebnis von Schritt S606 für die Zustandsverteilung eines existierenden und nicht erfassten Objekts hinzu, wodurch die Zustandsverteilung des nicht erfassten Objekts erzeugt wird. Die Verarbeitung bei Schritt S607 entspricht einer Operation der zweiten Nachverfolgungsverarbeitungseinheit 132 (das heißt, zweite Vorhersageeinheit 132A) der Objektnachverfolgungseinheit 13.
  • Bei Schritt S608 aktualisiert die CPU 5 die Zustandsverteilung nicht erfasster und erfasster Objekte unter Verwendung von Punktgruppeninformationen entsprechend der Empfangsintensitätsspitze, die größer oder gleich dem zweiten Schwellenwert THB ist. Die Zustandsverteilung der ersten ist die Poisson-Intensitätsverteilung und die Zustandsverteilung der zweiten die Bernoulli-Verteilung. Die Verarbeitung bei Schritt S608 entspricht einer Operation der zweiten Nachverfolgungsverarbeitungseinheit 132 (das heißt, zweiten Aktualisierungseinheit 132B) der Objektnachverfolgungseinheit 13.
  • Die CPU 5 wiederholt die Ausführung der Verarbeitung bei Schritt S601 bis S608 und identifiziert bei Schritt S609 einen Zustand des Objekts zur gegenwärtigen Verarbeitungszeit k basierend auf der Zustandsverteilung (das heißt, Bernoulli-Verteilung) eines Objekts, das bei Schritt S608 erfasst wird. Die Verarbeitung bei Schritt S609 entspricht einer Operation der Zustandsidentifizierungseinheit 15.
  • In dem Fall, in dem die erste Region größer oder gleich dem ersten Schwellenwert THA und die zweite Region größer oder gleich dem zweiten Schwellenwert THB ist, entspricht die Funktionsblockkonfiguration 5. In diesem Fall wird eine Verarbeitung zur Differenzextrahierung dem Ablaufdiagramm hinzugefügt, das in 6 gezeigt ist.
  • (Ausführungsform bezüglich Wahrscheinlichkeit einer fehlerhaften Erfassung)
  • Nachfolgend wird eine zusätzliche Konfiguration, um die Nachverfolgungsleistung in dem Fall zu verbessern, in dem die Objektnachverfolgungseinheit 13, das heißt, mindestens eine der ersten Nachverfolgungsverarbeitungseinheit 131 und der zweiten Nachverfolgungsverarbeitungseinheit 132, RFS-Nachverfolgung als das Nachverfolgungsverfahren verwendet, beschrieben. Die zusätzliche Konfiguration kann auf die vorstehend beschriebene erste bis fünfte Ausführungsform angewendet werden.
  • Als einer von Festlegungsparametern in der Theorie der endlichen Zufallsmenge ist eine Wahrscheinlichkeit einer fehlerhaften Erfassung anwesend. Die Wahrscheinlichkeit einer fehlerhaften Erfassung wird ebenso als Clutter-Rate bezeichnet. In dem Fall, in dem eine festgelegte Wahrscheinlichkeit einer fehlerhaften Erfassung und eine tatsächliche Wahrscheinlichkeit einer fehlerhaften Erfassung gleich sind, kann fehlerhafte Nachverfolgung oder Nichtnachverfolgung des Objekts am wirksamsten unterdrückt werden. In dieser Hinsicht, wie in 7 und dergleichen gezeigt ist, beinhaltet die Objekterkennungsvorrichtung 10 ferner eine Wahrscheinlichkeitsfestlegungseinheit 901. Die Wahrscheinlichkeitsfestlegungseinheit 901 ist konfiguriert, um die Wahrscheinlichkeit einer fehlerhaften Erfassung als einen Festlegungsparameter der Objektnachverfolgungseinheit 13 festzulegen.
  • (Sechste Ausführungsform)
  • Gemäß 7 und 8 wird eine Konfiguration und eine Operation einer Objekterkennungsvorrichtung 10 gemäß der sechsten Ausführungsform, die eine Konfiguration zum angemessenen Festlegen der Wahrscheinlichkeit einer fehlerhaften Erfassung hat, beschrieben.
  • Einer von Gründen, die eine Wahrscheinlichkeit einer fehlerhaften Erfassung beeinflussen ist ein Schwellenwert des Empfangssignalpegels. Beispielsweise wird angenommen, dass ein Hauptgrund der Erzeugung von Clutter thermisches Rauschen innerhalb des Sensors ist, und das thermische Rauschen zeigt eine Gaußsche Verteilung. In der Gaußschen Verteilung, die in 8 gezeigt ist, gibt die vertikale Achse R eine Signalintensität an, die horizontale Achse P gibt die Wahrscheinlichkeit an, u gibt einen Durchschnittswert an, das heißt, Grundrauschen, und σ zeigt eine Standardabweichung.
  • Wird der Schwellenwert festgelegt, um ein Wert zu sein, der von dem Grundrauschen um σ abweicht (das heißt, u + σ), tritt fehlerhafte Erfassung aufgrund Clutter mit einer Wahrscheinlichkeit von 40% auf. Ferner, wenn der Schwellenwert festgelegt wird, um ein Wert zu sein, der von dem Grundrauschen um 3 σ abweicht (das heißt, u + 3σ), tritt fehlerhafte Erfassung aufgrund Clutter mit einer Wahrscheinlichkeit von 0,1 % auf. Somit kann die Wahrscheinlichkeit einer fehlerhaften Erfassung abhängig vom Schwellenwert festgelegt werden.
  • Aus diesem Grund ist gemäß der vorliegenden Ausführungsform, wie in 7 gezeigt ist, die Wahrscheinlichkeitsfestlegungseinheit 901 konfiguriert, um die Wahrscheinlichkeit einer fehlerhaften Erfassung abhängig vom Schwellenwert festzulegen. In anderen Worten legt beispielsweise die Wahrscheinlichkeitsfestlegungseinheit 901 die Wahrscheinlichkeit einer fehlerhaften Erfassung derart fest, dass die Wahrscheinlichkeit einer fehlerhaften Erfassung kleiner festgelegt wird, wenn der Schwellenwert weiter weg vom Grundrauschen ist. 7 zeigt ein Konfigurationsbeispiel, wenn die zweite Nachverfolgungsverarbeitungseinheit 132 das RFS-Nachverfolgungsverfahren verwendet. In diesem Fall legt die Wahrscheinlichkeitsfestlegungseinheit 901 die Wahrscheinlichkeit einer fehlerhaften Erfassung abhängig vom zweiten Schwellenwert THB fest. Eine Beziehung zwischen dem zweiten Schwellenwert THB und der Wahrscheinlichkeit einer fehlerhaften Erfassung wird mit Computersimulation, anwendbaren Tests und dergleichen optimiert und vorab in dem ROM 6 und dem nichtflüchtigen Speicher 8 gespeichert.
  • (Siebte Ausführungsform)
  • Gemäß 9 und 10 werden eine Konfiguration und eine Operation einer Objekterkennungsvorrichtung 10 gemäß der siebten Ausführungsform beschrieben. Gemäß der vorliegenden Ausführungsform ist die vorstehend beschriebene sechste Ausführungsform teilweise modifiziert. Insbesondere, wie in 9 gezeigt ist, ist die Wahrscheinlichkeitsfestlegungseinheit 901 konfiguriert, um die Wahrscheinlichkeit einer fehlerhaften Erfassung abhängig vom Schwellenwert festzulegen.
  • Es ist zu beachten, dass Grundrauschen abhängig vom Umfeld variiert oder mit der Zeit variiert. Somit, wenn die Wahrscheinlichkeit einer fehlerhaften Erfassung aus dem Schwellenwert geschätzt wird, tritt ein Fehler wahrscheinlich auf. Andererseits ist es für einen Objektsensor 2, der an einem Fahrzeug montiert ist, das auf dem Markt verkauft wird, da es keine Chance gibt, das bereits bekannte Umfeld zu messen, schwierig die Wahrscheinlichkeit einer fehlerhaften Erfassung aus Beobachtungsinformationen zu schätzen.
  • Gemäß der vorstehend beschriebenen ersten Ausführungsform und dergleichen werden die durch den Objektsensor 2 erlangten Sensorinformationen, das heißt, das Objekterfassungssignal, in die Punktgruppeninformationen unter Verwendung von mehreren Schwellenwerten (erster Schwellenwert THA und zweiter Schwellenwert THB gemäß den vorstehend beschriebenen spezifischen Beispielen) gewandelt. Jeder Schwellenwert ist bereits bekannt. Demnach wird unter der Annahme, dass der Rauschpegel gemäß der Gaußschen Verteilung ist, wie in 10 gezeigt ist, Grundrauschen angemessen aus einer Differenz zwischen erlangten Beobachtungsinformationen geschätzt (das heißt, der Anzahl von Punktgruppen). Demzufolge kann die Wahrscheinlichkeit einer fehlerhaften Erfassung erlangt werden.
  • Insbesondere wird beispielsweise angenommen, dass die ersten Beobachtungsinformationen eine Punktgruppe sind, die aus 1100 Punkten besteht, und die zweiten Beobachtungsinformationen eine Punktgruppe sind, die aus 100 Punkten besteht, und die Standardabweichung von Rauschen nicht geändert wird. In diesem Fall kann das Grundrauschen als ein Durchschnittswert der Rauschpegelverteilung basierend auf einer Differenz zwischen den ersten Beobachtungsinformationen und den zweiten Beobachtungsinformationen (das heißt, 1000 Punkte) und einer Differenz zwischen Schwellenwerten (das heißt, Differenz zwischen dem ersten Schwellenwert THA und dem zweiten Schwellenwert THB in 10) geschätzt werden.
  • In dieser Hinsicht, wie in 9 und 10 gezeigt ist, legt die Wahrscheinlichkeitsfestlegungseinheit 901 eine Wahrscheinlichkeit einer fehlerhaften Erfassung basierend auf dem ersten Schwellenwert THA, dem zweiten Schwellenwert THB, der Anzahl von Beobachtungsinformationsstücken und der Anzahl von zweiten Beobachtungsinformationsstücken fest. Insbesondere, wie vorstehend beschrieben ist, wenn der Schwellenwert festgelegt wird, um von dem Grundrauschen um σ (das heißt, u + σ) abzuweichen, tritt fehlerhafte Erfassung aufgrund Clutter mit annähernd einer Wahrscheinlichkeit von 40% auf. Im Gegensatz dazu, wenn der Schwellenwert festgelegt wird, um von dem Grundrauschen um 3σ (das heißt, u + 3σ) abzuweichen, tritt fehlerhafte Erfassung aufgrund Clutter mit annähernd einer Wahrscheinlichkeit von 0,1% auf. Somit legt die Wahrscheinlichkeitsfestlegungseinheit 901 die Wahrscheinlichkeit einer fehlerhaften Erfassung derart fest, dass die Wahrscheinlichkeit einer fehlerhaften Erfassung kleiner festgelegt wird, wenn der Schwellenwert, weiter weg von dem Grundrauschen ist. Solange wie der Durchschnittswert und die Standardabweichung σ des Rauschpegels genau basierend auf den Punktgruppeninformationen, das heißt, den Beobachtungsinformationen, geschätzt werden, kann eine Wahrscheinlichkeit fehlerhafter Erfassung entsprechend jeweiligen Schwellenwerten genau geschätzt werden. In anderen Worten kann eine optimale Wahrscheinlichkeit einer fehlerhaften Erfassung gemäß einer Beziehung zwischen dem Schwellenwert und der Anzahl von Beobachtungspunkten geschätzt werden.
  • Es ist zu beachten, dass die vorliegende Ausführungsform auf einen Fall anwendbar ist, in dem drei oder mehr Schwellenwerte vorliegen. Das heißt, der Durchschnittswert und die Standardabweichung σ des Rauschpegels können genau basierend auf den drei oder mehr Schwellenwerten und den Punktgruppeninformationen, die durch deren Umwandlung erlangt werden, geschätzt werden.
  • (Achte Ausführungsform)
  • Gemäß 11 wird eine Konfiguration und Operation einer Objekterkennungsvorrichtung 10 gemäß der achten Ausführungsform beschrieben. Die achte Ausführungsform ist eine Ausführungsform, in der ein Teil der zweiten Ausführungsform modifiziert ist. In anderen Worten, wie in 11 gezeigt ist, ist die Wahrscheinlichkeitsfestlegungseinheit 901 konfiguriert, um die Wahrscheinlichkeit einer fehlerhaften Erfassung basierend auf dem ersten Schwellenwert THA, dem zweiten Schwellenwert THB, der Anzahl von ersten Beobachtungsinformationsstücken und der Anzahl von zweiten Beobachtungsinformationsstücken festzulegen.
  • Wie vorstehend beschrieben ist, kann Clutter nicht nur aufgrund thermischen Rauschens in dem Sensor, sondern ebenso aufgrund externer Störungen auftreten, die durch externe Faktoren, wie Regen, Sonnenschein und Dreck verursacht werden. Somit können die Erfassungsinformationen des fahrzeuggebundenen Sensors 902, der Regen, Sonnenschein, Dreck und dergleichen erfasst, wirksam verwendet werden, um so eine externe Störung zu korrigieren. Aus diesem Grund legt die Wahrscheinlichkeitsfestlegungseinheit 901 die Wahrscheinlichkeit einer fehlerhaften Erfassung basierend auf einem Fahrtumfeld des Eigenfahrzeugs fest, das durch den fahrzeuggebundenen Sensor 902 erlangt wird. Beispielsweise legt die Wahrscheinlichkeitsfestlegungseinheit 901 die Wahrscheinlichkeit einer fehlerhaften Erfassung derart fest, dass, je größer eine Menge von Regentropen ist, die durch einen Regensensor erfasst werden, der den fahrzeuggebundenen Sensor 902 darstellt, umso höher die Wahrscheinlichkeit einer fehlerhaften Erfassung ist. Beispielsweise legt die Wahrscheinlichkeitsfestlegungseinheit 901 die Wahrscheinlichkeit einer fehlerhaften Erfassung derart fest, dass, je niedriger die Lichtintensität außerhalb der Fahrzeugkabine des Eigenfahrzeugs ist, umso höher die Wahrscheinlichkeit einer fehlerhaften Erfassung festgelegt wird. Alternativ legt die Wahrscheinlichkeitsfestlegungseinheit 901 die Wahrscheinlichkeit einer fehlerhaften Erfassung derart fest, dass, je größer ein Betrag von externem Rauschen ist, das aufgrund des Fahrtumfelds auftritt, umso höher die Wahrscheinlichkeit einer fehlerhaften Erfassung festgelegt wird. Somit kann eine angemessene Wahrscheinlichkeit einer fehlerhaften Erfassung festgelegt werden.
  • (Weitere Ausführungsformen)
  • Die vorliegende Offenbarung ist nicht auf die vorstehend beschriebene Ausführungsform beschränkt. Daher können die vorstehend beschriebenen Ausführungsformen angemessen modifiziert werden. Nachfolgend werden typische Modifikationsbeispiele beschrieben. In der Beschreibung der Modifikationsbeispiele werden hauptsächlich Konfigurationen beschrieben, die sich von denen in den vorstehend beschriebenen Ausführungsformen unterscheiden. Ebenso werden die gleichen Bezugszeichen für Abschnitte verwendet, die bei den vorstehend beschriebenen Ausführungsformen und den Modifikationsbeispielen die gleiche oder eine gleichwertige Konfiguration aufweisen. Daher wird in der folgenden Beschreibung des Modifikationsbeispiels die gleiche Erklärung wie die der vorstehend beschriebenen Ausführungsformen auf die Bestandteile angewendet, die die gleichen Bezugszeichen wie die in den vorstehend beschriebenen Ausführungsformen haben.
  • Die vorliegende Offenbarung ist nicht auf die spezifischen Konfigurationen beschränkt, die in den vorstehend beschriebenen Ausführungsformen gezeigt sind. Beispielsweise muss das Eigenfahrzeug, auf das die vorliegende Offenbarung angewendet wird, kein vierrädriges Fahrzeug sein. Insbesondere kann das Eigenfahrzeug dreirädrige Fahrzeuge oder sechrädrige oder achträdrige Fahrzeuge, wie beispielsweise ein Lastkraftwagen, sein. Der Typ des Eigenfahrzeugs kann ein Fahrzeug mit einer Brennkraftmaschine oder ein Elektrofahrzeug oder Brennstoffzellenfahrzeug mit keiner Brennkraftmaschine oder ein sogenanntes Hybridfahrzeug sein. Die Form oder Struktur des Fahrzeugs ist nicht auf eine Kastenform beschränkt, das heißt, eine im Wesentlichen rechteckige Form in der Draufsicht.
  • Der Objektsensor 2 ist nicht auf einen LIDAR-Sensor beschränkt. Das heißt beispielsweise, dass der Objektsensor 2 eine Millimeterwellenradarvorrichtung sein kann, die Millimeterwellen oder Submillimeterwellen sendet/empfängt. Ferner kann der Objektsensor 2 eine Kamera sein, die ein Objekt aufnimmt, das um das Fahrzeug herum existiert. Insbesondere können die vorstehend beschriebenen jeweiligen Ausführungsformen, das heißt, die vorliegende Offenbarung, bevorzugt auf die Punktgruppeninformationen angewendet werden, die basierend auf dem Bild erlangt werden, das durch die Kamera aufgenommen wird. In diesem Fall ist die Intensität eines Objekterfassungssignals ein Pixelwert oder ein Änderungsbetrag davon. Der Pixelwert ist ein Lichtintensitätswert oder ein Eigenschaftswert, in dem der Lichtintensitätswert in irgendein Format gewandelt wird (beispielsweise eine achtstellige Binärzahl oder zweistellige Hexadezimalzahl). Dann ist der Schwellenwert als ein Schwellenwert eines Änderungsbetrags eines Pixelwerts zum Erfassen von Merkmalspunkten, das heißt, Kantenpunkten, definiert.
  • Gemäß den vorstehend beschriebenen Ausführungsformen ist die Steuereinheit 3 als ein Fahrzeugbordmikrocomputer konfiguriert, in dem die CPU 5 Programme aus dem ROM 6 und dergleichen liest, die dadurch aktiviert werden. Jedoch ist die vorliegende Offenbarung nicht auf die vorstehende Konfiguration beschränkt. Insbesondere kann die gesamte Steuereinheit 3 oder ein Teil der Steuereinheit 3 mit einer Digitalschaltung versehen sein, die konfiguriert ist, um die vorstehend beschriebenen Operationen auszuführen, beispielsweise einem ASIC oder FPGA. ASIC ist eine Abkürzung für APPLICATION SPECIFIC INTEGRATED CIRCUIT (anwendungsspezifische integrierte Schaltung). FPGA ist eine Abkürzung für Field Programmable Gate Array (im Feld programmierbare (Logik-)Gatter-Anordnung). Somit können sowohl der Fahrzeugbordcomputerteil als auch der Digitalschaltungsteil in der Steuereinheit 3 bereitgestellt werden.
  • Das Programm gemäß der vorliegenden Offenbarung, das die Ausführung unterschiedlicher Operationen, Prozeduren oder Verarbeitungen ermöglicht, kann über eine V2X-Kommunikation heruntergeladen oder hochgeladen werden. V2X ist eine Abkürzung für Fahrzeug zu X. Das Programm kann mittels Anschlussausstattung, die in einer Herstellungsfabrik, einer Wartungsfabrik, bei einem Automobilhändler und dergleichen bereitgestellt wird, heruntergeladen oder hochgeladen werden. Das Programm kann auf einer Speicherkarte, einer optischen Platte, einer Magnetplatte und dergleichen gespeichert werden.
  • Somit können die vorstehend beschriebenen jeweiligen funktionalen Konfigurationen und Verfahren durch einen dedizierten Computer verwirklicht werden, der mit einem Prozessor und einem Speicher versehen ist, die programmiert sind, um eine oder mehrere Funktionen auszuführen, die durch das Computerprogramm verkörpert sind. Alternativ können die vorstehend beschriebenen jeweiligen funktionalen Konfigurationen und Verfahren durch eine dedizierte Hardware verwirklicht werden, die aus einer oder mehreren dedizierten Logikschaltungen konfiguriert ist.
  • Darüber hinaus können die vorstehend beschriebenen jeweiligen funktionalen Konfigurationen und Verfahren durch eine oder mehrere dedizierte Verarbeitungsvorrichtung verwirklicht werden, die aus einer Kombination eines Prozessors und Speichers, die zur Ausführung einer oder mehrerer Funktionen programmiert sind, und einer Hardwareschaltung konfiguriert sind, die aus einer oder mehreren Logikschaltungen besteht.
  • Das Computerprogramm kann als Anweisungscodes, die durch einen Computer ausgeführt werden, in einem computerlesbaren, nichtflüchtigen, greifbaren Aufzeichnungsmedium gespeichert werden. Das heißt, die vorstehend beschriebenen jeweiligen funktionalen Konfigurationen und Verfahren können durch ein Computerprogramm, das Prozeduren oder Verarbeitungen zum Erreichen der Konfigurationen und Verfahren beinhaltet, oder ein nichtflüchtiges greifbares Aufzeichnungsmedium ausgedrückt werden, das das Computerprogramm speichert.
  • Die vorliegende Offenbarung ist nicht auf die spezifischen Operationsmodi oder Verarbeitungsmodi beschränkt, die in den vorstehend beschriebenen Ausführungsformen beschrieben sind. Beispielsweise können „größer oder gleich einem Schwellenwert“ und „Überschreiten des Schwellenwerts“ angemessen ausgetauscht werden, solange keine technische Unstimmigkeit anwesend ist. Ähnlich können „kleiner oder gleich einem Schwellenwert“ und „kleiner als der Schwellenwert“ angemessen ausgetauscht werden, solange keine technische Unstimmigkeit anwesend ist.
  • Es ist zu beachten, dass ähnliche Ausdrücke, wie „Erlangen“, „Schätzen“, „Erfassen“, „Berechnen“, „Extrahieren“, „Erzeugen“ und dergleichen angemessen ersetzt werden, solange keine technische Unstimmigkeit anwesend ist.
  • Ferner sind Elemente, die die vorstehenden Ausführungsformen bilden, nicht notwendigerweise erforderlich, außer die Elemente sind klar als erforderlich oder theoretisch erforderlich spezifiziert. Sogar in dem Fall, in dem Zahlenwerte in den vorstehend beschriebenen Ausführungsformen erwähnt werden, wie beispielsweise die Anzahl der Bestandteile, Zahlenwerte, Menge, Bereich oder dergleichen, ist dies nicht auf die spezifischen Werte beschränkt, es sei denn, es ist als erforderlich spezifiziert oder theoretisch auf spezifische Zahlen beschränkt. Ähnlich sind in dem Fall, in dem Formen, Richtung, Positionsbeziehungen und dergleichen der Bestandteile für die Bestandteile in den vorstehend beschriebenen Ausführungsformen erwähnt werden, sind sie nicht auf die Formen, Richtungen und Positionsbeziehungen beschränkt, außer dass sie klar spezifiziert sind oder theoretisch auf spezifische Formen, Richtungen, Positionsbeziehungen und dergleichen beschränkt sind.
  • Die Modifikationsbeispiele sind nicht auf die vorstehend beschriebenen Beispiele beschränkt. Ferner können mehrere Modifikationsbeispiele miteinander kombiniert werden. Ferner können alle oder ein Teil der vorstehend beschriebenen Ausführungsformen und alle oder ein Teil der Modifikationsbeispiele miteinander kombiniert werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 202137570 [0001]
    • JP 11271431 A [0004]

Claims (14)

  1. Objekterkennungsvorrichtung (10), die an einem Fahrzeug montiert ist und konfiguriert ist, um ein Objekt zu erkennen, das in der Nähe des Eigenfahrzeugs existiert, wobei die Objekterkennungsvorrichtung aufweist: eine Positionsinformationserlangungseinheit (11), die konfiguriert ist, um, wenn eine Empfangsintensitätsspitze von Reflexionswellen, die in einem Objekterfassungssignal enthalten sind, einen Schwellenwert überschreitet, Positionsinformationen entsprechend der Empfangsintensitätsspitze zu erlangen, wobei das Objekterfassungssignal durch einen Objektsensor (2) erzeugt wird, der an dem Fahrzeug montiert ist, wobei der Objektsensor Sondierungswellen als elektromagnetische Wellen emittiert und Reflexionswellen der Sondierungswellen empfängt, die an dem Objekt reflektiert werden; eine Objektnachverfolgungseinheit (13), die basierend auf den Positionsinformationen, die durch die Positionsinformationserlangungseinheit erlangt werden, eine Nachverfolgungsverarbeitung für das Objekt ausführt; und eine Zustandsidentifizierungseinheit (15), die einen Zustand des Objekts basierend auf einem Ergebnis der Nachverfolgungsverarbeitung identifiziert, die durch die Objektnachverfolgungseinheit ausgeführt wird, wobei die Positionsinformationserlangungseinheit, aufweist: eine erste Erlangungseinheit (111), die, wenn die Empfangsintensitätsspitze einen ersten Schwellenwert als den Schwellenwert überschreitet, erste Beobachtungsinformationen als die Positionsinformationen entsprechend der Empfangsintensitätsspitze erlangt; eine zweite Erlangungseinheit (112), die, wenn die Empfangsintensitätsspitze einen zweiten Schwellenwert als den Schwellenwert, der unterschiedlich zu dem ersten Schwellenwert ist, überschreitet, zweite Beobachtungsinformationen als die Positionsinformationen entsprechend der Empfangsintensitätsspitze erlangt; die Objektnachverfolgungseinheit aufweist: eine erste Nachverfolgungsverarbeitungseinheit (131), die die Nachverfolgungsverarbeitung basierend auf den ersten Beobachtungsinformationen ausführt; und eine zweite Nachverfolgungsverarbeitungseinheit (132), die die Nachverfolgungsverarbeitung basierend auf den zweiten Beobachtungsinformationen ausführt, entweder die erste Nachverfolgungsverarbeitungseinheit oder die zweite Nachverfolgungsverarbeitungseinheit Anti-Clutter-Eigenschaften hat, die höher als die der anderen sind; und die Zustandsidentifizierungseinheit den Zustand des Objekts basierend auf einem Ergebnis der Nachverfolgungsverarbeitung, die durch die erste Nachverfolgungsverarbeitungseinheit und die zweite Nachverfolgungsverarbeitungseinheit ausgeführt wird, identifiziert.
  2. Objekterkennungsvorrichtung gemäß Anspruch 1, wobei der erste Schwellenwert niedriger als der zweite Schwellenwert ist; die erste Nachverfolgungsverarbeitungseinheit Anti-Clutter-Eigenschaften hat, die höher als die der zweiten Nachverfolgungsverarbeitungseinheit sind.
  3. Objekterkennungsvorrichtung gemäß Anspruch 2, wobei die erste Nachverfolgungsverarbeitungseinheit die Nachverfolgungsverarbeitung basierend auf den ersten Beobachtungsinformationen ausführt, die eine Bedingung erfüllen, in der die Positionsinformationen angeben, dass sie in einer ersten Region sind; die zweite Nachverfolgungsverarbeitungseinheit die Nachverfolgungsverarbeitung basierend auf den zweiten Beobachtungsinformationen ausführt, die eine Bedingung erfüllen, in der die Positionsinformationen angeben, dass sie in einer zweiten Region sind; und die zweite Region eine Region mit kleinerem Abstand als die erste Region beinhaltet.
  4. Objekterkennungsvorrichtung gemäß einem der Ansprüche 1 bis 3, wobei die erste Nachverfolgungsverarbeitungseinheit und/oder die zweite Nachverfolgungsverarbeitungseinheit die Nachverfolgungsverarbeitung basierend der Theorie der endlichen Zufallsmenge ausführt.
  5. Objekterkennungsvorrichtung gemäß Anspruch 4, ferner eine Wahrscheinlichkeitsfestlegungseinheit (901) aufweisend, die eine Wahrscheinlichkeit einer fehlerhaften Erfassung als einen Festlegungsparameter in der Theorie der endlichen Zufallsmenge abhängig vom Schwellenwert festlegt.
  6. Objekterkennungsvorrichtung gemäß Anspruch 5, wobei die Wahrscheinlichkeitsfestlegungseinheit die Wahrscheinlichkeit einer fehlerhaften Erfassung basierend auf dem ersten Schwellenwert, dem zweiten Schwellenwert, der Anzahl von ersten Beobachtungsinformationsstücken und der Anzahl von zweiten Beobachtungsinformationsstücken festlegt.
  7. Objekterkennungsvorrichtung gemäß Anspruch 6, wobei die Wahrscheinlichkeitsfestlegungseinheit die Wahrscheinlichkeit einer fehlerhaften Erfassung derart festlegt, dass die Wahrscheinlichkeit einer fehlerhaften Erfassung kleiner festgelegt wird, wenn der Schwellenwert weiter weg vom Grundrauschen ist.
  8. Objekterkennungsvorrichtung gemäß einem der Ansprüche 5 bis 7, wobei die Wahrscheinlichkeitsfestlegungseinheit die Wahrscheinlichkeit einer fehlerhaften Erfassung basierend auf einem Fahrtumfeld des Fahrzeugs festlegt, das durch einen fahrzeuggebundenen Sensor (902) erlangt wird.
  9. Objekterkennungsvorrichtung gemäß Anspruch 8, wobei die Wahrscheinlichkeitsfestlegungseinheit die Wahrscheinlichkeit einer fehlerhaften Erfassung derart festlegt, dass, je größer das externe Rauschen ist, das aufgrund des Fahrtumfelds auftritt, umso höher die Wahrscheinlichkeit einer fehlerhaften Erfassung festgelegt wird.
  10. Objekterkennungsvorrichtung gemäß einem der Ansprüche 1 bis 9, wobei die zweite Nachverfolgungsverarbeitung die Nachverfolgungsverarbeitung basierend auf einem Ergebnis der Nachverfolgungsverarbeitung ausführt, die durch die erste Nachverfolgungsverarbeitungseinheit ausgeführt wird.
  11. Objekterkennungsvorrichtung gemäß Anspruch 10, wobei die zweite Nachverfolgungsverarbeitungseinheit eine Differenzextrahierungseinheit (132D) beinhaltet, die eine Differenz zwischen einem Ergebnis der Nachverfolgungsverarbeitung, die durch die erste Nachverfolgungsverarbeitungseinheit ausgeführt wird, und einem Ergebnis der Nachverfolgungsverarbeitung, die durch die zweite Nachverfolgungsverarbeitungseinheit ausgeführt wird, extrahiert; und die zweite Nachverfolgungsverarbeitungseinheit die Nachverfolgungsverarbeitung basierend auf der Differenz ausführt, die durch die Differenzextrahierungseinheit extrahiert wird.
  12. Objekterkennungsvorrichtung gemäß Anspruch 10 oder 11, die erste Nachverfolgungsverarbeitungseinheit und die zweite Nachverfolgungsverarbeitungseinheit unter Verwendung eines Zustandsschätzfilters gemäß der Theorie der endlichen Zufallsmenge konfiguriert sind; und eine Zustandsverteilung, die in einem Ergebnis der Nachverfolgungsverarbeitung beinhaltet ist, das an die zweite Nachverfolgungsverarbeitungseinheit von der ersten Nachverfolgungsverarbeitungseinheit ausgegeben wird, der gleiche Typ wie eine Zustandsverteilung eines nicht erfassten Objekts ist, das durch die zweite Nachverfolgungsverarbeitung vorhergesagt wird.
  13. Objekterkennungsvorrichtung gemäß Anspruch 12, wobei die erste Nachverfolgungsverarbeitungseinheit unter Verwendung eines ersten Filters konfiguriert ist, der das Zustandsschätzfilter ist, das Poisson-Intensitätsverteilung fortpflanzt; und die zweite Nachverfolgungsverarbeitungseinheit unter Verwendung eines zweiten Filters konfiguriert ist, das das Zustandsschätzfilter ist, das Poisson-Intensitätsverteilung als eine Zustandsverteilung eines nicht erfassten Objekts behandelt.
  14. Objekterkennungsvorrichtung (10), die an einem Fahrzeug montiert ist und konfiguriert ist, um ein Objekt zu erkennen, das in der Nähe des Eigenfahrzeugs existiert, wobei die Objekterkennungsvorrichtung aufweist: eine Positionsinformationserlangungseinheit (11), die konfiguriert ist, um Positionsinformationen zu erlangen, wenn eine Intensität eines Objekterfassungssignals, das von einem Objektsensor erlangt wird, einen vorbestimmten Schwellenwert überschreitet; eine Objektnachverfolgungseinheit (13), die basierend auf den Positionsinformationen, die durch die Positionsinformationserlangungseinheit erlangt werden, eine Nachverfolgungsverarbeitung für das Objekt ausführt; und eine Zustandsidentifizierungseinheit (15), die einen Zustand des Objekts basierend auf einem Ergebnis der Nachverfolgungsverarbeitung identifiziert, die durch die Objektnachverfolgungseinheit ausgeführt wird, wobei die Positionsinformationserlangungseinheit, aufweist: eine erste Erlangungseinheit (111), die, wenn das Objekterfassungssignal einen ersten Schwellenwert als den Schwellenwert überschreitet, erste Beobachtungsinformationen als die Positionsinformationen entsprechend dem Objekterfassungssignal erlangt; eine zweite Erlangungseinheit (112), die, wenn das Objekterfassungssignal einen zweiten Schwellenwert als den Schwellenwert überschreitet, der sich von dem ersten Schwellenwert unterscheidet, zweite Beobachtungsinformationen als die Positionsinformationen entsprechend dem Objekterfassungssignal erlangt; die Objektnachverfolgungseinheit aufweist: eine erste Nachverfolgungsverarbeitungseinheit (131), die die Nachverfolgungsverarbeitung basierend auf den ersten Beobachtungsinformationen ausführt; und eine zweite Nachverfolgungsverarbeitungseinheit (132), die die Nachverfolgungsverarbeitung basierend auf den zweiten Beobachtungsinformationen ausführt, entweder die erste Nachverfolgungsverarbeitungseinheit oder die zweite Nachverfolgungsverarbeitungseinheit Anti-Clutter-Eigenschaften hat, die höher als die der anderen sind; und die Zustandsidentifizierungseinheit den Zustand des Objekts basierend auf einem Ergebnis der Nachverfolgungsverarbeitung, die durch die erste Nachverfolgungsverarbeitungseinheit und die zweite Nachverfolgungsverarbeitungseinheit ausgeführt wird, identifiziert.
DE112022001397.4T 2021-03-09 2022-02-02 Objekterkennungsvorrichtung Pending DE112022001397T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2021-037570 2021-03-09
JP2021037570 2021-03-09
PCT/JP2022/004054 WO2022190719A1 (ja) 2021-03-09 2022-02-02 物標認識装置

Publications (1)

Publication Number Publication Date
DE112022001397T5 true DE112022001397T5 (de) 2024-01-18

Family

ID=83226722

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112022001397.4T Pending DE112022001397T5 (de) 2021-03-09 2022-02-02 Objekterkennungsvorrichtung

Country Status (4)

Country Link
US (1) US20230417873A1 (de)
JP (1) JP7448089B2 (de)
DE (1) DE112022001397T5 (de)
WO (1) WO2022190719A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022152402A (ja) * 2021-03-29 2022-10-12 本田技研工業株式会社 認識装置、車両システム、認識方法、およびプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11271431A (ja) 1998-03-25 1999-10-08 Toyota Central Res & Dev Lab Inc Fmcwレーダ装置
JP2021037570A (ja) 2019-09-02 2021-03-11 川崎重工業株式会社 ロボットの関節構造体

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007232653A (ja) 2006-03-02 2007-09-13 Alpine Electronics Inc 車載レーダ装置
JP5376854B2 (ja) 2008-07-28 2013-12-25 株式会社東芝 多目標追尾装置
JP2014169865A (ja) 2013-03-01 2014-09-18 Hitachi Ltd 目標トラッキング装置、目標トラッキングプログラム及び目標トラッキング方法
JP6993136B2 (ja) 2017-08-09 2022-01-13 株式会社デンソーテン レーダ装置および物標検知方法
DE102020206659A1 (de) 2019-05-30 2020-12-03 Robert Bosch Gesellschaft mit beschränkter Haftung Multi-hypothesen-objektverfologung für automatisierte fahrsysteme
WO2021019667A1 (ja) 2019-07-30 2021-02-04 三菱電機株式会社 目標推定装置および目標推定方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11271431A (ja) 1998-03-25 1999-10-08 Toyota Central Res & Dev Lab Inc Fmcwレーダ装置
JP2021037570A (ja) 2019-09-02 2021-03-11 川崎重工業株式会社 ロボットの関節構造体

Also Published As

Publication number Publication date
JP7448089B2 (ja) 2024-03-12
WO2022190719A1 (ja) 2022-09-15
JPWO2022190719A1 (de) 2022-09-15
US20230417873A1 (en) 2023-12-28

Similar Documents

Publication Publication Date Title
DE102018124117A1 (de) Verfahren zur Verfolgung eines Objekts
WO2005048195A2 (de) Verfahren zur korrespondenzanalyse in bilddatensätzen
DE102017218366A1 (de) Verfahren und system zur fussgängererfassung in einem fahrzeug
DE102016212326A1 (de) Verfahren zur Verarbeitung von Sensordaten für eine Position und/oder Orientierung eines Fahrzeugs
DE102011017540A1 (de) Verfahren und Vorrichtung zum Erkennen einer Anwesenheit von Objekten
DE102014114602A9 (de) Messungszuordnung bei Fahrzeugen
DE102017117593A1 (de) Fahrzeugfahrassistenzvorrichtung
DE102018107677A1 (de) Verfahren und Vorrichtung zur Erkennung von Fahrzeugen unter Verwendung einer Laserstrahlabtastung
EP2206075B1 (de) Detektor und verfahren zum erkennen einer fahrspurbegrenzung
DE112022001397T5 (de) Objekterkennungsvorrichtung
DE102019112503A1 (de) Gemeinsame optimierung des antennenabstands und der zielwinkelschätzung in einem radarsystem
EP2736017A2 (de) Verfahren zur Ermittlung der Bewegung eines Kraftfahrzeugs
DE102020200133A1 (de) Verfahren und Vorrichtung zum Betreiben eines automatisierten Fahrzeugs
DE112018001708T5 (de) Hinderniserfassungsvorrichtung
DE102019211459B4 (de) Verfahren und Vorrichtung zum Überprüfen einer Kalibrierung von Umfeldsensoren
DE102020210080A1 (de) Verfahren zum Ermitteln mindestens eines Systemzustands mittels eines Kalman-Filters
DE102020110358A1 (de) Ausbilden eines neuronalen Transformationsnetzwerks zur Datentransformation eines Trainingsdatensatzes
EP3663800B1 (de) Verfahren zur objekterfassung mit einer 3d-kamera
DE102020001309A1 (de) Verfahren zum Betreiben einer elektronischen Recheneinrichtung für ein Kraftfahrzeug, sowie elektronische Recheneinrichtung
DE102019127322A1 (de) Verfahren zur Erfassung von Objekten in einer Fahrzeugumgebung, Vorrichtung zur Datenverarbeitung, Computerprogrammprodukt und computerlesbarer Datenträger
DE102007038137A1 (de) Verfahren zur Verarbeitung eines erfassten Bildes und zugehörige Bilderfassungsvorrichtung für ein Fahrerassistenzsystem
DE102015014199B4 (de) Verfahren und System zur Verbesserung der Objekterkennungsleistung einer 3D-Erkennungseinheit
DE102019115352A1 (de) Objekterkennungsvorrichtung
DE112021006776T5 (de) Datenverarbeitungsvorrichtung, datenverarbeitungsverfahren und datenverarbeitungsprogramm
DE102021119906A1 (de) Verfahren zum Erzeugen von Trainingsdaten zum selbstüberwachten Trainieren eines neuronalen Netzes, Verfahren zum selbstüberwachten Trainieren eines neuronalen Netzes, Computerprogramm sowie Recheneinrichtung für ein Fahrzeug

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R081 Change of applicant/patentee

Owner name: DENSO CORPORATION, KARIYA-CITY, JP

Free format text: FORMER OWNERS: DENSO CORPORATION, KARIYA-CITY, AICHI-PREF., JP; SOKEN, INC., NISSHIN-CITY, AICHI-PREF., JP