DE102015220544B4 - Objekterfassungsvorrichtung - Google Patents

Objekterfassungsvorrichtung Download PDF

Info

Publication number
DE102015220544B4
DE102015220544B4 DE102015220544.4A DE102015220544A DE102015220544B4 DE 102015220544 B4 DE102015220544 B4 DE 102015220544B4 DE 102015220544 A DE102015220544 A DE 102015220544A DE 102015220544 B4 DE102015220544 B4 DE 102015220544B4
Authority
DE
Germany
Prior art keywords
wave
received
indirect
direct
location
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102015220544.4A
Other languages
English (en)
Other versions
DE102015220544A1 (de
Inventor
Masumi Fukuman
Motonari Ohbayashi
Akihiro Kida
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Toyota Motor Corp
Original Assignee
Denso Corp
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Toyota Motor Corp filed Critical Denso Corp
Publication of DE102015220544A1 publication Critical patent/DE102015220544A1/de
Application granted granted Critical
Publication of DE102015220544B4 publication Critical patent/DE102015220544B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/06Systems determining the position data of a target
    • G01S15/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/87Combinations of sonar systems
    • G01S15/876Combination of several spaced transmitters or receivers of known location for determining the position of a transponder or a reflector
    • G01S15/878Combination of several spaced transmitters or receivers of known location for determining the position of a transponder or a reflector wherein transceivers are operated, either sequentially or simultaneously, both in bi-static and in mono-static mode, e.g. cross-echo mode
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/523Details of pulse systems
    • G01S7/526Receivers
    • G01S7/527Extracting wanted echo signals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/06Systems determining the position data of a target
    • G01S15/46Indirect determination of position data
    • G01S2015/465Indirect determination of position data by Trilateration, i.e. two transducers determine separately the distance to a target, whereby with the knowledge of the baseline length, i.e. the distance between the transducers, the position data of the target is determined
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2015/937Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles sensor installation details
    • G01S2015/938Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles sensor installation details in the bumper area

Abstract

Objekterfassungsvorrichtung (10) zum Erfassen eines Objekts (50) in der Umgebung eines sich bewegenden Objekts (30) mit einer Vielzahl von Ortungssensoren (20), die an dem sich bewegenden Objekt angebracht sind, durch Aussenden einer Prüfwelle (25) und Empfangen von Reflexionen (26, 27) der Prüfwelle von dem Objekt über die Vielzahl von Ortungssensoren (20), wobei die Vorrichtung beinhaltet:einen ersten Detektor (101, 201, 301), der dazu konfiguriert ist, das Objekt (50) auf der Grundlage einer Direktwelle (26), die eine Reflexion der Prüfwelle (25) von dem Objekt (50) ist, zu erfassen, wobei die Prüfwelle (25) und die Reflexion (26) jeweils durch einen ersten Ortungssensor (21), der einer der Vielzahl von Ortungssensoren (20) ist, ausgesendet und empfangen werden;einen zweiten Detektor (102, 202, 302), der dazu konfiguriert ist, das Objekt (50) auf der Grundlage einer Indirektwelle (27), die eine Reflexion der Prüfwelle (25) von dem Objekt (50) ist, zu erfassen, wobei die Reflexion (27) durch einen zweiten Ortungssensor (22), der ein anderer der Vielzahl von Ortungssensoren (20) ist, empfangen wird;einen Positionsberechner (103, 203, 303), der dazu konfiguriert ist, eine Objektposition als eine Position des Objekts (50) auf der Grundlage der Erfassungen des ersten und des zweiten Detektors (101, 102) in Übereinstimmung mit dem Triangulationsprinzip zu berechnen;einen Positionsermittler (104, 204, 304), der dazu konfiguriert ist, zu ermitteln, ob die durch den Positionsberechner (103) berechnete Objektposition außerhalb eines Überlappungsbereichs (S1) eines Bereichs direkter Objekterfassung (41) und eines Bereichs indirekter Objekterfassung (43) ist oder nicht, wobei der Bereich direkter Objekterfassung (41) ein Gebiet ist, in dem der erste Ortungssensor (21) das Objekt unter Verwendung der Direktwelle (26) erfassen kann, und der Bereich indirekter Objekterfassung (43) ein Gebiet ist, in dem der zweite Ortungssensor (22) das Objekt über die Indirektwelle (27) erfassen kann;einen Positionsinvalidator (105, 205, 305), der dazu konfiguriert ist, dann, wenn durch den Positionsermittler (104, 204, 304) ermittelt wird, dass die durch den Positionsberechner (102, 203, 303) berechnete Objektposition außerhalb des Überlappungsbereichs (S1) der Bereiche direkter und indirekter Objekterfassung (41, 43) ist, zu bestimmen, dass die durch den Positionsberechner (103, 203, 303) berechnete Objektposition ungültig ist;einen Empfangsermittler (306), der dazu konfiguriert ist, zu ermitteln, ob nach dem Aussenden der Prüfwelle von dem ersten Ortungssensor (21) zumindest einer des ersten und des zweiten Ortungssensors (21, 22) die Reflexionen der Prüfwelle (25) mehrfach empfangen hat oder nicht,wobei dann, wenn durch den Positionsermittler (304) ermittelt wird, dass die durch den Positionsberechner (303) unter Verwendung der ersten empfangenen Direktwelle und der ersten empfangenen Indirektwelle berechnete Objektposition außerhalb des Überlappungsbereichs (S1) der Bereiche direkter und indirekter Objekterfassung (41, 43) ist und dann durch den Positionsinvalidator (305) ermittelt wird, dass die durch den Positionsberechner (303) unter Verwendung der ersten empfangenen Direktwelle und der ersten empfangenen Indirektwelle berechnete Objektposition ungültig ist, und dann, wenn durch den Empfangsermittler (306) ermittelt wird, dass zumindest einer des ersten und des zweiten Ortungssensors (21, 22) die Reflexionen der Prüfwelle (25) nach dem Aussenden der Prüfwelle von dem ersten Ortungssensor (21) mehrfach empfangen hat, der Positionsberechner (303) die Objektposition auf der Grundlage einer Kombination der durch den ersten Ortungssensor (21) empfangenen ersten Direktwelle und der durch den zweiten Ortungssensor (22) empfangenen zweiten oder nachfolgenden Indirektwelle oder einer Kombination der durch den zweiten Ortungssensor (22) empfangenen ersten Indirektwelle und der durch den ersten Ortungssensor (21) empfangenen zweiten oder nachfolgenden Direktwelle berechnet, undeinen Positionsvalidator (307), der dazu konfiguriert ist, dann, wenn durch den Positionsermittler (304) ermittelt wird, dass die durch den Positionsberechner (303) auf der Grundlage der Kombination der von dem ersten Ortungssensor (21) empfangenen ersten Direktwelle und der durch den zweiten Ortungssensor (22) empfangenen zweiten oder nachfolgenden Indirektwelle oder der Kombination der durch den zweiten Ortungssensor (22) empfangenen ersten Indirektwelle und der durch den ersten Ortungssensor (21) empfangenen zweiten oder nachfolgenden Direktwelle berechnete Objektposition innerhalb des Überlappungsbereichs (S1) der Bereiche direkter und indirekter Objekterfassung (41, 43) liegt, zu ermitteln, dass die durch den Positionsberechner (303) berechnete Objektposition gültig ist.

Description

  • Die Erfindung betrifft eine Objekterfassungsvorrichtung zum Erfassen eines Objekts in der Umgebung eines Fahrzeugs, das die Vorrichtung trägt.
  • Konventionell beinhaltet eine bekannte Objekterfassungsvorrichtung, wie in der Druckschrift JP 2014 - 89 077 A offenbart, zumindest einen Ortungssensor, wie beispielsweise einen Ultraschallsensor oder dergleichen, der in einem Fahrzeug verbaut ist, um ein Objekt, wie beispielsweise einen Fußgänger, ein Hindernis oder dergleichen, in der Umgebung des Fahrzeugs zu erfassen und auf der Grundlage von Erfassungsergebnissen verschiedene Arten von Steuerungen zum Verbessern der Fahrzeugsicherheit, wie beispielsweise die Betätigung einer Bremseinrichtung und eine Mitteilung an einen Fahrer, durchzuführen.
  • Die in der Druckschrift JP 2014 - 89 077 A offenbarte Objekterfassungsvorrichtung beinhaltet eine Vielzahl (zum Beispiel zwei) von Ortungssensoren, die in dem Fahrzeug verbaut sind, um die breitenweise Position des Objekts auf der Grundlage des Triangulationsprinzips zu berechnen, wobei sich die breitenweise Position des Objekts auf eine Position des Objekts in einer Fahrzeugbreitenrichtung oder Fahrzeugquerrichtung senkrecht zu der Fortbewegungsrichtung des Fahrzeugs bezieht. Falls sich die breitenweise Position des Objekts innerhalb der Fahrzeugbreite befindet, wird ermittelt, dass das Objekt erfasst wurde. Falls sich die breitenweise Position des Objekts nicht innerhalb der Fahrzeugbreite befindet, wird ermittelt, dass das Objekt nicht erfasst wurde. Das Durchführen eines solchen Ermittlungsprozesses kann ein fehlerhaftes bzw. irrtümliches Erfassen eines Objekts an einer Position verhindern, an der das Objekt tatsächlich weniger wahrscheinlich als ein Objekt, das wahrscheinlich mit dem Fahrzeug interagiert, mit dem Fahrzeug interagiert oder das Fahrzeug kontaktiert.
  • Bei der in der Druckschrift JP 2014 - 89 077 A offenbarten Objekterfassungsvorrichtung wird eine Prüfwelle von einem der zwei Ortungssensoren ausgesendet, und werden dann reflektierte Wellen an den zwei Ortungssensoren empfangen. Die breitenweise Position des Objekts wird auf der Grundlage von Reflexionswelleninformation einschließlich eines Abstands zwischen jedem Ortungssensor und dem Objekt und eines Abstands zwischen den beiden Ortungssensoren berechnet. Jedoch kann die Reflexion der Ultraschallwelle mit verschiedenartigen Faktoren, wie beispielsweise Objektformen, der Anzahl von in einer Umgebung um das Fahrzeug vorhandenen Objekten, und Umgebungen um das Fahrzeug variieren. Daher kann ein Objekt fälschlicherweise an einem Ort, an dem in Wirklichkeit kein Objekt existiert, erfasst werden.
  • Außerdem offenbart die Druckschrift JP 2008 - 39 497 A einen Hindernisdetektor für ein autonom fahrendes Fahrzeug, der einen einfachen Aufbau hat, die Anzahl von Ultraschallsensoren reduziert und ein Hindernis in einem weiten Bereich unter Verwendung der geringen Anzahl von Ultraschallsensoren erkennt, und bezieht sich die Druckschrift JP S63- 127 179 A auf eine Ultraschalldetektionsvorrichtung, die intermittierend Ultraschallwellen aussendet, um ein Objekt zu erkennen.
  • Der Erfindung liegt als eine Aufgabe zugrunde, eine Objekterfassungsvorrichtung bereitzustellen, die in der Lage ist, eine fehlerhafte Erfassung eines Objekts unter Verwendung von Ortungssensoren zu verhindern.
  • Diese Aufgabe wird durch eine Objekterfassungsvorrichtung mit den Merkmalen des Patenanspruchs 1 gelöst. Vorteilhafte Weiterbildungen der Erfindung sind Gegenstand der beigefügten Unteransprüche.
  • In Übereinstimmung mit einem Ausführungsbeispiel der Erfindung wird genauer eine Objekterfassungsvorrichtung zum Erfassen eines Objekts in der Umgebung eines sich bewegenden Objekts mit einer Vielzahl von Ortungssensoren, die an dem sich bewegenden Objekt angebracht sind, durch Aussenden einer Prüfwelle und Empfangen von Reflexionen der Prüfwelle von dem Objekt über die Vielzahl von Ortungssensoren bereitgestellt. In der Vorrichtung ist ein erster Detektor dazu konfiguriert, das Objekt auf der Grundlage einer Direktwelle, die eine Reflexion der Prüfwelle von dem Objekt ist, zu erfassen, wobei die Prüfwelle und die Reflexion jeweils durch einen ersten Ortungssensor, der einer der Vielzahl von Ortungssensoren ist, ausgesendet und empfangen werden. Ein zweiter Detektor ist dazu konfiguriert, das Objekt auf der Grundlage einer Indirektwelle, die eine Reflexion der Prüfwelle von dem Objekt ist, zu erfassen, wobei die Reflexion durch einen zweiten Ortungssensor), der ein anderer der Vielzahl von Ortungssensoren ist, empfangen wird. Ein Positionsberechner ist dazu konfiguriert, eine Objektposition als eine Position des Objekts auf der Grundlage der Erfassungen des ersten und des zweiten Detektors in Übereinstimmung mit dem Triangulationsprinzip zu berechnen. Ein Positionsermittler ist dazu konfiguriert, zu ermitteln, ob die durch den Positionsberechner berechnete Objektposition außerhalb eines Überlappungsbereichs eines Bereichs direkter Objekterfassung und eines Bereichs indirekter Objekterfassung ist oder nicht, wobei der Bereich direkter Objekterfassung ein Gebiet ist, in dem der erste Ortungssensor das Objekt unter Verwendung der Direktwelle erfassen kann, und der Bereich indirekter Objekterfassung ein Gebiet ist, in dem der zweite Ortungssensor das Objekt über die Indirektwelle erfassen kann. Ein Positionsinvalidator ist dazu konfiguriert, dann, wenn durch den Positionsermittler ermittelt wird, dass die durch den Positionsberechner berechnete Objektposition außerhalb des Überlappungsbereichs der Bereiche direkter und indirekter Objekterfassung ist, zu bestimmen, dass die durch den Positionsberechner berechnete Objektposition ungültig ist. Ein Empfangsermittler ist dazu konfiguriert, zu ermitteln, ob nach dem Aussenden der Prüfwelle von dem ersten Ortungssensor zumindest einer des ersten und des zweiten Ortungssensors die Reflexionen der Prüfwelle mehrfach empfangen hat oder nicht. Dann, wenn durch den Positionsermittler ermittelt wird, dass die durch den Positionsberechner unter Verwendung der ersten empfangenen Direktwelle und der ersten empfangenen Indirektwelle berechnete Objektposition außerhalb des Überlappungsbereichs der Bereiche direkter und indirekter Objekterfassung ist und dann durch den Positionsinvalidator ermittelt wird, dass die durch den Positionsberechner unter Verwendung der ersten empfangenen Direktwelle und der ersten empfangenen Indirektwelle berechnete Objektposition ungültig ist, und dann, wenn durch den Empfangsermittler ermittelt wird, dass zumindest einer des ersten und des zweiten Ortungssensors die Reflexionen der Prüfwelle nach dem Aussenden der Prüfwelle von dem ersten Ortungssensor mehrfach empfangen hat, berechnet der Positionsberechner die Objektposition auf der Grundlage einer Kombination der durch den ersten Ortungssensor empfangenen ersten Direktwelle und der durch den zweiten Ortungssensor empfangenen zweiten oder nachfolgenden Indirektwelle oder einer Kombination der durch den zweiten Ortungssensor empfangenen ersten Indirektwelle und der durch den ersten Ortungssensor empfangenen zweiten oder nachfolgenden Direktwelle. Ferner ist ein Positionsvalidator dazu konfiguriert, dann, wenn durch den Positionsermittler ermittelt wird, dass die durch den Positionsberechner auf der Grundlage der Kombination der von dem ersten Ortungssensor empfangenen ersten Direktwelle und der durch den zweiten Ortungssensor empfangenen zweiten oder nachfolgenden Indirektwelle oder der Kombination der durch den zweiten Ortungssensor empfangenen ersten Indirektwelle und der durch den ersten Ortungssensor empfangenen zweiten oder nachfolgenden Direktwelle berechnete Objektposition innerhalb des Überlappungsbereichs der Bereiche direkter und indirekter Objekterfassung liegt, zu ermitteln, dass die durch den Positionsberechner berechnete Objektposition gültig ist
  • Eine Position des Objekts, das bzw. die durch zwei triangulationsgeeignete Ortungssensoren erfasst werden kann, liegt innerhalb eines Überlappungsgebiets eines ersten Bereichs der Objekterfassung für einen der zwei Ortungssensoren und eines zweiten Bereichs der Objekterfassung für den anderen der zwei Ortungssensoren. Daher sollte eine korrekte, auf der Grundlage des Prinzips der Triangulation berechnete Objektposition in das Überlappungsgebiet fallen. Demgegenüber ist es dann, wenn die auf der Grundlage des Prinzips der Triangulation berechnete Objektposition außerhalb des Überlappungsgebiets liegt, wahrscheinlich, dass die berechnete Objektposition (die auch als eine erfasste Position bezeichnet wird), inkorrekt ist.
  • Diesen Belang adressierend wird in dem vorstehenden Ausführungsbeispiel auf der Grundlage einer positionellen Beziehung zwischen der basierend auf dem Prinzip der Triangulation berechneten Objektposition und dem Überlappungsgebiet des ersten und des zweiten Bereichs der Objekterfassung ermittelt, dass die basierend auf dem Prinzip der Triangulation berechnete Objektposition ungültig ist. Mit dieser Konfiguration kann ein Verwerfen des Berechnungsergebnisses, welches die erfasste Objektposition mit fragwürdiger Gültigkeit liefert, fehlerhafte Objekterfassungen verhindern.
    • 1 ist ein Schema eines Objekterfassungssystems in Übereinstimmung mit einem ersten hinführenden und die Erfindung nicht betreffenden Beispiel;
    • 2 ist ein Schema des Berechnens einer Position eines Objekts durch Triangulation;
    • 3 ist ein Schema einer positionellen Beziehung zwischen einem Bereich direkter Objekterfassung und einem Bereich indirekter Objekterfassung;
    • 4A ist ein Ablaufdiagramm eines Invalidierungsprozesses in Übereinstimmung mit dem ersten Beispiel;
    • 4B ist ein funktionelles Blockdiagramm einer elektronischen Steuereinheit des Objekterfassungssystems in Übereinstimmung mit dem ersten Beispiel;
    • 5A ist ein Ablaufdiagramm eines Invalidierungsprozesses in Übereinstimmung mit einem zweiten hinführenden und die Erfindung nicht betreffenden Beispiel;
    • 5B ist ein funktionelles Blockdiagramm einer elektronischen Steuereinheit des Objekterfassungssystems in Übereinstimmung mit dem zweiten Beispiel;
    • 6A ist ein Ablaufdiagramm eines Invalidierungsprozesses in Übereinstimmung mit einem Ausführungsbeispiel der Erfindung; und
    • 6B ist ein funktionelles Blockdiagramm einer elektronischen Steuereinheit des Objekterfassungssystems in Übereinstimmung mit dem Ausführungsbeispiel der Erfindung.
  • Nachstehend werden hinführende und die Erfindung nicht betreffende erste und zweite Beispiele sowie ein Ausführungsbeispiel der Erfindung unter Bezugnahme auf die beigefügten Zeichnungen näher beschrieben. Die Beispiele und das Ausführungsbeispiel sind so bereitgestellt, dass diese Offenbarung vollständig ist und dem Fachmann den zugrunde liegenden Rahmen vollumfänglich vermittelt. Zahlreiche bestimmte Details werden dargelegt, wie beispielsweise Beispiele bestimmter Komponenten, um ein vollständiges Verständnis der Beispiele und des Ausführungsbeispiels der vorliegenden Offenbarung bereitzustellen. Es versteht sich für den Fachmann, dass Beispiele und Ausführungsbeispiele in vielen unterschiedlichen Formen verkörpert sein können, und dass keines derselben als die Erfindung beschränkend auszulegen ist. Identische oder äquivalente Komponenten, oder Komponenten gleicher oder äquivalenter Wirkung, werden hierbei durch dieselben oder ähnliche Bezugszeichen identifiziert.
  • (Erstes Beispiel)
  • Eine in einem sich bewegenden Objekt angebrachte Objekterfassungsvorrichtung in Übereinstimmung mit einem ersten, die Erfindung nicht betreffenden Beispiel wird nachstehend unter Bezugnahme auf die beigefügten Zeichnungen erklärt. Die Objekterfassungsvorrichtung des vorliegenden Beispiels ist in einem Fahrzeug als dem sich bewegenden Objekt verbaut und ist dazu konfiguriert, Objekterfassungsinformationen von in dem Fahrzeug verbauten Entfernungs- bzw.
  • Ortungssensoren zu empfangen, um ein Objekt in der Umgebung des Fahrzeugs, wie beispielsweise ein anderes Fahrzeug, eine straßenbauliche Gegebenheit oder dergleichen zu erfassen. Ein Objekterfassungssystem in Übereinstimmung mit dem vorliegenden Beispiel wird nachstehend unter Bezugnahme auf 1 erklärt.
  • Jeder von Ortungssensoren 20 kann ein Ultraschallsensor sein mit einer Funktion des Aussendens einer Ultraschallwelle bei einer Frequenz in einem Bereich von 20-100 kHz als eine Sondenwelle oder Prüfwelle und einer Funktion des Empfangens einer Reflexion der Prüfwelle von einem Objekt. In dem vorliegenden Beispiel sind vier Ortungssensoren 20 an einem vorderen Abschnitt des Fahrzeugs 30 (beispielsweise einer vorderen Stoßstange) angebracht und durch einen vorbestimmten Abstand in einer breitenweisen Richtung bzw. Breitenrichtung des Fahrzeugs senkrecht zu der Fortbewegungsrichtung des Fahrzeugs 30 zueinander beanstandet. Genauer beinhalten die Ortungssensoren 20 zwei mittlere Sensoren (erste und zweite Sensoren 21, 22) in der Nähe der Mittenlinie 31 des Fahrzeugs 30 und an symmetrischen Positionen um die Mittenlinie 31, und Ecksensoren 23, 24 an vorderen linken und rechten Ecken des Fahrzeugs 30. Vier weitere Ortungssensoren 20 sind an einem hinteren Abschnitt des Fahrzeugs 30 (beispielsweise einer hinteren Stoßstange) an ähnlichen Positionen angebracht, und beinhalten daher zwei mittlere Sensoren und zwei Ecksensoren. Diese hinteren Ortungssensoren, die an dem hinteren Abschnitt des Fahrzeugs 30 angebracht sind, haben dieselben Funktionen wie die Ortungssensoren, die an dem vorderen Abschnitt des Fahrzeugs 30 angebracht sind. Daher werden Beschreibungen für die hinteren Ortungssensoren 20 im Folgenden nicht wiederholt.
  • Für jeden der Ortungssensoren 20 hat der Ortungssensor einen Bereich direkter Objekterfassung 40 derart, dass eine Reflexion der Prüfwelle, die von dem Ortungssensor ausgesendet wurde, von einem Objekt innerhalb des Bereichs der Objekterfassung durch den bzw. von dem Ortungssensor empfangen werden kann. Ein beliebiges Paar von benachbarten Ortungssensoren 20 sind an dem vorderen Abschnitt des Fahrzeugs 30 so angebracht, dass sich die Bereiche direkter Objekterfassung 40 der benachbarten Ortungssensoren 20 zumindest teilweise überlappen. Obwohl in 1 nur die Bereiche direkter Objekterfassung 40 des ersten und des zweiten Ortungssensors (der mittleren Sensoren bzw. Mittensensoren) 21, 22 gezeigt sind, können die Ecksensoren 23, 24 ebenfalls ähnliche Bereiche direkter Objekterfassung 40 aufweisen. Jeder der Ortungssensoren 20 hat einen Schwellenwert für eine Amplitude von Reflexionen. Bei Empfang der Reflexion mit einer Amplitude gleich oder größer als der Schwellenwert übermittelt der Ortungssensor 20 Objekterfassungsinformation einschließlich einer Empfangszeit der Reflexion an eine elektronische Steuereinheit (ECU) 10 als der Objekterfassungsvorrichtung des vorliegenden Beispiels.
  • Die ECU 10 beinhaltet einen Mikrocomputer, der durch eine CPU und verschiedene Speicher, wie beispielsweise ein RAM und ein ROM, gebildet wird, und ist dazu konfiguriert, das bzw. die Objekt(e) 50 in der Umgebung des Fahrzeugs 30 auf der Grundlage der Objekterfassungsinformationen des bzw. der Objekt(e), die von den Ortungssensoren 20 empfangen wurden, zu erfassen. Genauer übermittelt die ECU 10 Steuersignale an zumindest einen der Ortungssensoren 20 nach jeweils einem vorbestimmten Zeitintervall (beispielsweise alle 100 ms), um die Ortungssensoren 20 anzuweisen, die Prüfwelle auszusenden. Bei Empfang der Objekterfassungsinformationen des Objekts 50 von den Ortungssensoren 20 ermittelt die ECU 10 das Vorhandensein oder Fehlen des Objekts 50 in der Umgebung des Fahrzeugs auf der Grundlage der empfangenen Erfassungsinformation. Wenn ermittelt wird, dass das Objekt 50 in der Umgebung des Fahrzeugs 30 vorhanden ist, dann führt die ECU 10 eine Fahrzeug-Objekt-Interaktionsvermeidungssteuerung durch, wie beispielsweise eine Lenkwinkelsteuerung oder eine Verzögerungssteuerung, oder gibt eine Meldung an einen Fahrer des Fahrzeugs 30 unter Verwendung eines hörbaren Alarms aus, sodass das Fahrzeug 30 nicht mit dem Objekt 50 interagiert.
  • Die ECU 10 sendet Aussendungsanweisungen an die Ortungssensoren 20, um jeden der Ortungssensoren 20 zu veranlassen, eine Ultraschallwelle als eine Prüfwelle in einer vordefinierten Sequenz in vorbestimmten Zeitintervallen auszusenden. In dem vorliegenden Beispiel sendet in Antwort auf die Aussendeanweisungen von der ECU 10 der erste Mittensensor 21 eine Ultraschallwelle aus, und sendet dann der zweite Mittensensor 22 eine Ultraschallwelle aus. Darauffolgend sendet der Ecksensor 23 eine Ultraschallwelle aus, und dann sendet der Ecksensor 24 eine Ultraschallwelle aus. Die Prüfwellen werden sequenziell bzw. nacheinander in vorbestimmten Zeitintervallen bzw. Zeitabständen derart ausgesendet, dass die sequenziell ausgesendeten Prüfwellen nicht miteinander interferieren. Darüber hinaus ist nur die erste empfangene Reflexion an dem Ortungssensor 20 nach den sequenziellen Aussendungen der Ultraschallwellen von den Ortungssensoren 21, 22, 23, 24 gültig, und werden die zweiten bis vierten Reflexionen, die nach dem Empfang der ersten empfangenen Reflexion empfangen werden, invalidiert.
  • Die ECU 10 verwendet die Objekterfassungsinformationen des Objekts 50, die von den Ortungssensoren 20 empfangen wurden, um eine Position (d.h. Koordinaten) des Objekts 50 relativ zu dem Fahrzeug 30 (als eine relative Position des Objekts 30 bezeichnet) unter Verwendung des Triangulationsprinzips zu berechnen. In Übereinstimmung mit dem gut bekannten Triangulationsprinzip werden die Koordinaten einer Messung unter Verwendung einer bekannten Entfernung zwischen zwei Punkten und Entfernungen von den zwei Punkten zu dem Messpunkt berechnet. In Übereinstimmung mit einem solchen Triangulationsprinzips berechnet die ECU 10 die relative Position des Objekts 50 auf der Grundlage eines bekannten Abstands zwischen zwei benachbarten Ortungssensoren 20, deren Bereiche direkter Objekterfassung 40 sich zumindest teilweise überlappen, und gemessenen Entfernungen von den zwei benachbarten Ortungssensoren 20 zu dem Objekt 50.
  • 2 ist ein Schema des Berechnens der relativen Position des Objekts 50, welches den ersten und den zweiten Sensor 21, 22 und das Objekt 50 vor dem ersten und dem zweiten Sensor 21, 22 in einer Aufsicht zeigt. In 2 dient der erste Sensor 21 als ein aktiver Sensor, der dazu konfiguriert ist, eine Prüfwelle 25 auszusenden und eine direkte Welle bzw. Direktwelle 26, die eine Reflexion der Prüfwelle 25 an einem ersten Ort ist, zu empfangen, und dient der zweite Sensor 22 als ein passiver Sensor, der dazu konfiguriert ist, um eine indirekte Welle bzw. Indirektwelle 27, die eine Reflexion der von dem ersten Sensor 21 ausgesendeten Prüfwelle 25 an einem zweiten, von dem ersten Ort entfernten Ort ist, zu empfangen.
  • Die ECU 10 berechnet eine geschätzte (relative) Position des Objekts 50, die durch X- und Y-Koordinaten des Objekts 50 in einem Koordinatensystem bestimmt wird, das durch eine X-Achse, die eine durch den ersten und den zweiten Sensor 21, 22 verlaufende gerade Linie ist, und eine Y-Achse, die eine durch einen Median zwischen dem ersten und dem zweiten Sensor 21, 22 verlaufende gerade Linie und senkrecht zu der X-Achse ist, definiert wird. Genauer weist in dem vorliegenden Beispiel die ECU 10 den ersten Mittensensor 21 an, die Prüfwelle 25 auszusenden. Wenn der erste Mittensensor 21 die Direktwelle 26, die eine Reflexion der Prüfwelle 25 von dem Objekt 50 ist, empfängt, berechnet die ECU 10 eine Entfernung L1 zwischen dem ersten Mittensensor 21 und dem Objekt 50 auf der Grundlage der Direktwelle 26. Wenn der zweite Mittensensor 22 die Indirektwelle 27, die eine Reflexion der Prüfwelle 25 von dem Objekt 50 ist, empfängt, berechnet die ECU 10 eine Entfernung L2 zwischen dem zweiten Mittensensor 22 und dem Objekt 50 auf der Grundlage der Indirektwelle 27.
  • Ein Abstand bzw. eine Entfernung zwischen einem Ursprung O des Koordinatensystems, an welchem sich die X-Achse und die Y-Achse schneiden, und dem ersten Sensor 21 ist gleich einem Abstand bzw. einer Entfernung zwischen dem Ursprung O und dem zweiten Sensor 22, welche Abstände bzw. Entfernungen durch d bezeichnet und vorab in der ECU 10 gespeichert sind. Die ECU 10 berechnet eine erste Zeit t1 und eine zweite Zeit t2, wobei die erste Zeit t1 die Zeit ist, zu der die Direktwelle 26 von dem ersten Sensor 21 empfangen wird, subtrahiert von der bzw. verringert um die Zeit, zu der die Prüfwelle 25 von dem ersten Sensor 21 ausgesendet wird, und die zweite Zeit t2 die Zeit ist, zu der die Indirektwelle 27 von dem zweiten Sensor 22 empfangen wird, subtrahiert von der bzw. verringert um die Zeit, zu der die Prüfwelle 25 von dem ersten Sensor 21 ausgesendet wird. Die erste Zeit t1 multipliziert mit der Schallgeschwindigkeit ist das Zweifache der Entfernung L1 zwischen dem ersten Sensor 21 und dem Objekt 50. Die zweite Zeit t2 multipliziert mit der Schallgeschwindigkeit ist eine Summe der Entfernung L1 zwischen dem ersten Sensor 21 und dem Objekt 50 und einer Entfernung L2 zwischen dem zweiten Sensor 22 und dem Objekt 50. Die ECU 10 führt eine Triangulationsberechnung unter Verwendung der Entfernung 2d zwischen dem ersten Mittensensor 21 und dem zweiten Mittensensor 22 und der ersten Zeit t1 und der zweiten Zeit t2 durch, um die Koordinaten (x, y) des Objekts 50 zu berechnen.
  • In dem vorliegenden Beispiel zeigt 2 ein Beispiel, in dem der erste Mittensensor 21 als ein aktiver Sensor dient und der zweite Mittensensor 22 als ein passiver Sensor dient. In der Praxis können Koordinaten eines Objekts 50 unter Verwendung einer beliebigen Kombination von benachbarten Sensoren 21-24 in einer ähnlichen Weise auf der Grundlage des Triangulationsprinzips berechnet werden. Was die Ortungssensoren, die an dem hinteren Abschnitt des Fahrzeugs 30 angebracht sind, anbelangt, können Koordinaten eines sich rückseitig des Fahrzeugs 30 befindenden Objekts 50 unter Verwendung einer beliebigen Kombination von benachbarten Sensoren, die an dem hinteren Abschnitt des Fahrzeugs 30 angebracht sind, in einer ähnlichen Weise berechnet werden.
  • In dem vorliegenden Beispiel setzt die ECU 10 als eine Indikation der Wahrscheinlichkeit, dass das Objekt tatsächlich vorhanden ist, einen Vertrauensniveau-Ermittlungszähler N für jeden der Ortungssensoren 20 auf der Grundlage der Häufigkeit, mit welcher dasselbe Objekt erfasst worden ist. Für jeden der Ortungssensoren 20 wird der Vertrauensniveau-Ermittlungszähler N derart inkrementiert oder inkrementiert, dass mit steigender Häufigkeit, mit der dasselbe Objekt durch den Ortungssensor erfasst worden ist, der Vertrauensniveau-Ermittlungszähler N erhöht wird. Wenn der Vertrauensniveau-Ermittlungszähler N einen Schwellenwert überschreitet, wird ermittelt, dass das durch den Ortungssensoren erfasste Objekt tatsächlich in der Umgebung des Fahrzeugs 30 vorhanden ist, so dass eine Intervention der Fahrzeug-Objekt-Interaktionsvermeidungssteuerung zugelassen wird.
  • 3 zeigt eine positionelle Beziehung zwischen einem Bereich direkter Objekterfassung 41 und einem Bereich indirekter Objekterfassung 43, wobei der erste Mittensensor 21 als ein aktiver Sensor dient und der zweite Mittensensor 22 als ein passiver Sensor dient. Wie vorstehend ist der Bereich direkter Objekterfassung 41 ein Gebiet, in dem der erste Mittensensor 21 das Objekt 50 über die Direktwelle 26 erfassen kann. Der Bereich indirekter Objekterfassung 43 ist ein Gebiet, das sich derart von dem Mittelpunkt (als der Ursprung O) zwischen dem ersten und dem zweiten Mittensensor 21, 22 und vor das Fahrzeug 30 erstreckt, dass eine Reflexion der Prüfwelle 25, die von dem ersten Mittensensor 21, der zu dem Sensor 22 benachbart ist, ausgesendet wurde, von dem Objekt 50, d.h. die Indirektwelle 27, empfangen werden kann. Der Bereich direkter Objekterfassung 41 und der Bereich indirekter Objekterfassung 43 überlappen sich zumindest teilweise. Der Bereich indirekter Objekterfassung 43 hat eine im Wesentlichen gleiche Ausdehnung wie der Bereich direkter Objekterfassung 41 oder ist aufgrund einer reduzierten Amplitude der Indirektwelle 27 kleiner als der Bereich direkter Objekterfassung 41.
  • Wenn Koordinaten (x, y) des Objekts 50 unter Verwendung der ersten Zeit t1 und der zweiten Zeit t2 in Übereinstimmung mit dem Triangulationsprinzip berechnet werden, muss die erfasste Position des Objekts, die durch die berechneten Koordinaten (x, y) spezifiziert wird, innerhalb eines Gebiets liegen, in dem das Objekt nicht nur durch die Direktwelle 26, sondern auch durch die Indirektwelle 27 erfasst werden kann. D.h., der Überlappungsbereich S1 des Bereichs direkter Objekterfassung 41 und des Bereichs indirekter Objekterfassung 43 kann ein Gebiet bereitstellen, in dem die Triangulationsberechnung machbar bzw. durchführbar ist (nachstehend als ein triangulierbares Gebiet bezeichnet). Korrekt berechnete Koordinaten des Objekts 50 sollten in den Überlappungsbereich S1 fallen. Falls die erfasste Position des Objekts 50 außerhalb des Überlappungsbereichs S1 liegt, ist es wahrscheinlich, dass das Objekt 50 in Wirklichkeit nicht an der erfassten Position vorhanden ist, d.h. das Objekt 50 an einer fehlerhaften Position vorhanden ist.
  • Reflexionen der Prüfwelle können sich aufgrund verschiedener Faktoren, wie beispielsweise einer Form des Objekts, der Anzahl von Objekten in der Umgebung des Fahrzeugs, einer umgebenden Umgebung und dergleichen, ändern, so dass die erfasste Position des Objekts außerhalb des triangulierbaren Gebiets liegen kann, obwohl sich das Objekt in Wirklichkeit innerhalb des triangulierbaren Gebiets befindet. Folglich kann eine Position, an welcher das Objekt in Wirklichkeit nicht vorhanden ist, erfasst werden. Genauer beinhalten Beispiele von Gegebenheiten, bei welchen eine Position, an welcher in Wirklichkeit kein Objekt vorhanden ist, inkorrekt erfasst werden kann, Ereignisse, bei welchen die von dem aktiven Sensor 20 ausgesendete Prüfwelle mehrfach von konkav-konvexen Objekten reflektiert wird, oder bei welchen die ersten empfangenen Reflexionen, die von einem Paar von benachbarten Sensoren empfangen werden, Reflexionen von verschiedenen Objekten sind und dann eine Objektposition in Übereinstimmung mit dem Triangulationsprinzip auf der Grundlage solcher erster empfangener Reflexionen berechnet wird.
  • Daher wird in dem vorliegenden Beispiel eine positionelle Beziehung zwischen dem triangulierbaren Gebiet, das ein Überlappungsbereich S1 des Bereichs direkter Objekterfassung 41 und des Bereichs indirekter Objekterfassung 43 ist, und der erfassten Position des Objekts 50 ermittelt, und wird auf der Grundlage der positionellen Beziehung bestimmt, ob die erfasste Position des Objekts 50 ungültig ist oder nicht. Genauer wird auf der Grundlage der Direktwelle 26 und der Indirektwelle 27 ermittelt, ob die erfasste Position des Objekts 50 außerhalb des triangulierbaren Gebiets liegt oder nicht. Falls ermittelt wird, dass die erfasste Position des Objekts 50 innerhalb des triangulierbaren Gebiets liegt, wird das Berechnungsergebnis als gültig bestimmt. Falls ermittelt wird, dass die erfasste Position des Objekts 50 außerhalb des triangulierbaren Gebiets liegt, wird das Berechnungsergebnis als ungültig bestimmt. In 3 ist zum Beispiel in dem Fall der erfassten Position 50A das Berechnungsergebnis gültig, da die Position 50A innerhalb des triangulierbaren Gebiets liegt. In dem Fall der erfassten Position 51 b oder 51 a ist das Berechnungsergebnis ungültig, da die Position 51b und die Position 51 a außerhalb des triangulierbaren Gebiets liegen.
  • 4A zeigt ein Ablaufdiagramm eines Prozesses des Invalidierens der berechneten Objektposition in Übereinstimmung mit dem vorliegenden Beispiel. Dieser Prozess wird in der ECU 10 wiederholt für jedes vorbestimmte Zeitintervall durchgeführt.
  • Bezugnehmend auf 4A wird in Schritt S11 ermittelt, ob die Direktwelle 26 und die Indirektwelle 27 während einer vorbestimmten Warteperiode nach dem Aussenden der Prüfwelle 25 von dem Ortungssensoren 21 empfangen worden sind oder nicht. Die vorbestimmte Warteperiode kann auf zum Beispiel einige 10 ms festgelegt sein. Falls in Schritt S11 ermittelt wird, dass die Direktwelle 26 und die Indirektwelle 27 während der vorbestimmten Warteperiode empfangen worden sind, schreitet der Prozess zu Schritt S12 fort, in dem auf der Grundlage der direkten und indirekten Wellen 26, 27 eine durch Koordinaten (x, y) spezifizierte Objektposition in Übereinstimmung mit dem Triangulationsprinzip wie unter Bezugnahme auf 2 beschrieben berechnet wird.
  • Darauf folgend wird in Schritt S13 ermittelt, ob die erfasste Position des Objekts 50, die wie vorstehend berechnet wurde, außerhalb des triangulierbaren Gebiets liegt oder nicht.
  • Falls in Schritt S13 ermittelt wird, dass die erfasste Position des Objekts 50 innerhalb des triangulierbaren Gebiets liegt, schreitet der Prozess zu Schritt S14 fort, in dem das Berechnungsergebnis in dem gegenwärtigen Zyklus als gültig ermittelt wird. Falls in Schritt S13 ermittelt wird, dass die erfasste Position des Objekts 50 außerhalb des triangulierbaren Gebiets liegt, schreitet der Prozess zu Schritt S15 fort, indem das Berechnungsergebnis in den gegenwärtigen Zyklus als ungültig ermittelt wird. Danach endet der Prozess. Dieser Prozess wurde für die paarweise Kombination von benachbarten Sensoren 21, 22 als ein Beispiel erklärt. In der Praxis wird der vorstehende Prozess für jede Kombination von benachbarten Sensoren (aktiven und passiven Sensoren) unter den Ortungssensoren 21-24 derart durchgeführt, dass der Bereich direkter Objekterfassung für einen der benachbarten Sensoren und der Bereich indirekter Objekterfassung für den anderen der benachbarten Sensoren sich zumindest teilweise überlappen. Für jede Kombination von benachbarten Sensoren unter den Ortungssensoren 21-24 sind der Bereich direkter Erfassung und der Bereich indirekter Erfassung vordefiniert und im Voraus in einem Speicher, wie beispielsweise dem ROM der ECU 10, abgelegt. Der Bereich direkter Erfassung und der Bereich indirekter Erfassung für jede Kombination von benachbarten Sensoren werden aus dem Speicher gelesen, und der überlappende Bereich bzw. Überlappungsbereich S1 des Bereichs direkter Erfassung und des Bereichs indirekter Erfassung wird als das triangulierbare Gebiet festgelegt. In dem vorliegenden Beispiel sind die Größe und die Position des triangulierbaren Gebiets für jede Kombination von benachbarten Sensoren vorbestimmt. 4B zeigt ein funktionelles Blockdiagramm der ECU 10, die der Objekterfassungsvorrichtung des vorliegenden Beispiels entspricht. Die ECU 10 beinhaltet einen ersten und einen zweiten Detektor 101,102, die für die Ausführung von Schritt S11 verantwortlich sind, einen Positionsberechner 103, der für die Ausführung von Schritt S12 verantwortlich ist, einen Positionsermittler 104, der für die Ausführung von Schritt S13 verantwortlich ist, und einen Positionsinvalidator 105, der für die Ausführung von Schritt S15 verantwortlich ist. Funktionen dieser funktionellen Blöcke können durch die CPU implementiert sein, die verschiedene in dem ROM oder dergleichen gespeicherte Programme ausführt.
  • Die Objekterfassungsvorrichtung des vorliegenden Beispiels, die wie vorstehend konfiguriert ist, kann die folgenden Vorteile bereitstellen.
  • Auf der Grundlage der positionellen Beziehung zwischen der Objektposition, die auf der Grundlage der Objekterfassungsinformationen in Übereinstimmung mit dem Triangulationsprinzip und des Überlappungsbereichs (der das triangulierbare Gebiet ist) des Bereichs direkter Objekterfassung 41 und des Bereichs indirekter Objekterfassung 43 berechnet wurde. Genauer wird ermittelt, ob die erfasste Position des Objekts 50 außerhalb des triangulierbaren Gebiets liegt oder nicht. Falls ermittelt wird, dass die erfasste Position des Objekts 50 innerhalb des triangulierbaren Gebiets liegt, wird das Berechnungsergebnis als gültig ermittelt. Falls ermittelt wird, dass die erfasste Position des Objekts 50 außerhalb des triangulierbaren Gebiets liegt, wird das Berechnungsergebnis als ungültig ermittelt, d.h., das Berechnungsergebnis wird invalidiert. Mit einer solchen Konfiguration wird das Berechnungsergebnis, welches die erfasste Position des Objekts bereitstellt, deren Gültigkeit fraglich ist, verworfen, welches verhindern kann, dass verschiedene Arten von Steuerungen zum Verbessern der Fahrzeugfahrsicherheit unnötigerweise ausgeführt werden.
  • (Zweites Beispiel)
  • Nachstehend wird eine Objekterfassungsvorrichtung, die in einem sich bewegenden Objekt angebracht ist, in Übereinstimmung mit einem zweiten Beispiel unter Bezugnahme auf die beigefügten Zeichnungen erklärt. In dem ersten Beispiel ist für jede Kombination von benachbarten Sensoren unter den Ortungssensoren 21-24 das triangulierbare Gebiet, das ein Überlappungsbereich des Bereichs direkter Erfassung und des Bereichs indirekter Erfassung ist, vordefiniert und bleibt unverändert. In dem zweiten Beispiel wird das triangulierbaren Gebiet für jede Kombination von benachbarten Sensoren unter den Ortungssensoren 21-24 als eine Funktion von Parametern einer umgebenden Umgebung um das Fahrzeug, das die Vorrichtung trägt, variabel bzw. veränderlich festgelegt. Im Folgenden werden nur Unterschiede des zweiten Beispiels gegenüber dem ersten Beispiel beschrieben.
  • Reflexionen der von einem der Ortungssensoren (als einem aktiven Sensor) 20 ausgesendeten Ultraschallwelle können in Abhängigkeit von Parametern der umgebenden Umgebung um das Fahrzeug 30, wie beispielsweise einer Außenlufttemperatur, einer Feuchtigkeit und einer Windstärke und dergleichen, variieren. Genauer wird eine höhere Außenlufttemperatur, eine höhere Feuchtigkeit oder eine höhere Windstärke die Reflexionen abschwächen. Folglich werden die abgeschwächten Reflexionen der Ultraschallwelle bewirken, dass der Bereich direkter Objekterfassung und der Bereich indirekter Objekterfassung des Ortungssensors 20 in sowohl der Fortbewegungsrichtung als auch der Breitenrichtung des Fahrzeugs schrumpft. Demgemäß wird das triangulierbare Gebiet verengt. Diesen Belangen adressierend wird in dem vorliegenden Beispiel das triangulierbare Gebiet als eine Funktion von Parametern der umgebenden Umgebung um das Fahrzeug 30 variabel festgelegt.
  • 5A zeigt ein Ablaufdiagramm eines Prozesses des Invalidierens der erfassten Position des Objekts in Übereinstimmung mit dem vorliegenden Beispiel. Dieser Prozess wird in der ECU 10 für jedes vorbestimmte Zeitintervall wiederholt durchgeführt. Schritte des Ablaufdiagramms von 5A, die zu denjenigen des Ablaufdiagramms von 4A ähnlich sind, haben dieselben Bezugszeichen zugewiesen und werden nicht wiederholt erklärt.
  • In 5A werden in Schritten S21, S22 dieselben Betriebsabläufe durchgeführt wie die Betriebsabläufe in den Schritten S11, S 12 in 4A. Darauf folgend wird in Schritt S2 drei das triangulierbare Gebiet auf der Grundlage der Parameter der umgebenden Umgebung variabel festgelegt. In dem vorliegenden Beispiel beinhalten die Parameter der umgebenden Umgebung, ohne darauf beschränkt zu sein, die Außenlufttemperatur, die Außenluftfeuchtigkeit und die Windgeschwindigkeit. Erfassungssignale werden von verschiedenen Sensoren zum Erfassen der Parameter der umgebenden Umgebung empfangen. Das triangulierbare Gebiet wird in Abhängigkeit von empfangenen Werten der Parameter der umgebenden Umgebung festgelegt. Ein schmaleres triangulierbares Gebiet wird bei einer höheren Außenlufttemperatur, einer höheren Außenluftfeuchtigkeit oder einer höheren Windgeschwindigkeit festgelegt.
  • Darauf folgend wird in Schritt S24 auf der Grundlage einer positionellen Beziehung zwischen dem triangulierbaren Gebiet und der erfassten Position des Objekts 50 ermittelt, ob die erfasste Position des Objekts 50 außerhalb des triangulierbaren Gebiets liegt oder nicht. Falls in Schritt S 24 ermittelt wird, dass die erfasste Position des Objekts 50 innerhalb des triangulierbaren Gebiets liegt, schreitet der Prozess zu Schritt S25 fort, in dem das Berechnungsergebnis als gültig ermittelt wird. Falls Ihnen Schritt S24 ermittelt wird, dass die erfasste Position des Objekts 50 außerhalb des triangulierbaren Gebiets liegt, schreitet der Prozess zu Schritt S26 fort, in dem das Berechnungsergebnis als ungültig ermittelt wird oder das Berechnungsergebnis invalidiert wird. Wie in dem ersten Beispiel wird der vorstehende Prozess für jede Kombination von benachbarten Sensoren (aktive und passive Sensoren) unter den Ortungssensoren 21-24 durchgeführt. 5B zeigt ein funktionelles Blockdiagramm der ECU 10, die der Objekterfassungsvorrichtung des vorliegenden Beispiels entspricht. Die ECU 10 beinhaltet einen ersten und einen zweiten Detektor 201, 202, die für die Ausführung von Schritt S21 verantwortlich sind, einen Positionsberechner 203, der für die Ausführung von Schritt S22 verantwortlich ist, einen Positionsermittler 204, der für die Ausführung von Schritt S24 verantwortlich ist, einen Positionsinvalidator 205, der für die Ausführung von Schritt S26 verantwortlich ist, und einen Bereichsfestleger 206, der für die Ausführung von Schritt S23 verantwortlich ist. Der erste und der zweite Detektor 201, 202, der Positionsberechner 203, der Positionsermittler 204, der Positionsinvalidator 205 haben jeweils ähnliche Funktionen wie diejenigen des ersten und des zweiten Detektors 101, 102, des Positionsberechners 103, des Positionsermittler S 104, und des Positionsinvalidators 105. Funktionen dieser funktionellen Blöcke können durch die CPU implementiert sein, die verschiedene in dem Raum oder dergleichen gespeicherte Programme ausführt.
  • In dem zweiten Beispiel wie vorstehend beschrieben wird das triangulierbare Gebiet als eine Funktion von Parametern der umgebenden Umgebung um das Fahrzeug 30 variabel festgelegt, und wird auf der Grundlage einer positionellen Beziehung zwischen dem variabel festgelegten triangulierbaren Gebiet und der in Übereinstimmung mit dem Triangulationsprinzip berechneten Position des Objekts ermittelt, ob das Berechnungsergebnis gültig oder ungültig ist. Die Reflexionen der von einem der Ortungssensoren (als einem aktiven Sensor) 20 ausgesendeten Ultraschallwelle können in Abhängigkeit von Parametern der umgebenden Umgebung um das Fahrzeug 30, wie beispielsweise einer Außenlufttemperatur, einer Feuchtigkeit und einer Windstärke und dergleichen, variieren, welches bewirken kann, dass das triangulierbare Gebiet variiert. Mit dem wie vorstehend konfigurierten und diesen Belangen adressierenden vorliegenden Beispiel kann das Berechnungsergebnis der Objektposition genauer überprüft werden. Dies kann verhindern, dass die Fahrzeug-Objekt-Interaktionsvermeidungssteuerung in Situationen aktiviert wird, in denen eine Aktivierung unerwünscht wäre, oder in Situationen unaktiviert bleibt, in welchen eine Aktivierung erwünscht wäre.
  • (Ausführungsbeispiel der Erfindung)
  • Nachstehend wird eine in einem sich bewegenden Objekt angebrachte Objekterfassungsvorrichtung in Übereinstimmung mit einem Ausführungsbeispiel unter Bezugnahme auf die beigefügten Zeichnungen erklärt. In dem ersten Beispiel wird für jede Kombination von benachbarten Sensoren unter den Ortungssensoren 21-24 ermittelt, ob die auf der Grundlage der ersten empfangenen Reflexionen (d.h. der ersten empfangenen direkten und indirekten Wellen) berechnete Objektposition gültig oder ungültig ist. In dem Ausführungsbeispiel wird dann, wenn ermittelt wird, dass die auf der Grundlage der ersten empfangenen Reflexionen berechnete Objektposition außerhalb des triangulierbaren Gebiets liegt, die Objektposition auf der Grundlage der ersten empfangenen Reflexion und der nachfolgend empfangenen Reflexionen in Übereinstimmung mit dem Triangulationsprinzip berechnet. Auf der Grundlage einer positionellen Beziehung zwischen dem triangulierbaren Gebiet und der berechneten Objektposition wird ermittelt, ob das Berechnungsergebnis gültig ist oder nicht.
  • 6A zeigt ein Ablaufdiagramm eines Prozesses des Invalidierens der erfassten Position des Objekts in Übereinstimmung mit dem vorliegenden Ausführungsbeispiel. Dieser Prozess wird in der ECU 10 wiederholt für jedes vorbestimmte Zeitintervall durchgeführt. Schritte des Ablaufdiagramms von 6A, die zu denjenigen des Ablaufdiagramms von 4A ähnlich sind, haben dieselben Bezugszeichen zugewiesen und werden nicht erneut erklärt.
  • Bezugnehmend auf 6A wird in Schritt S31 nach dem Aussenden der Prüfwelle von dem Ortungssensoren 21 (20) ermittelt, ob die erste Direktwelle und die erste Indirektwelle der Prüfwelle empfangen worden sind oder nicht. Falls in Schritt S31 ermittelt wird, dass die erste Direktwelle und die erste Indirektwelle der Prüfwelle empfangen worden sind, schreitet der Prozess zu Schritt S32 fort. In nachfolgenden Schritten S32 -S35 werden dieselben Betriebsabläufe durchgeführt wie die Betriebsabläufe in den Schritten S12-S15, die in 4A gezeigt sind. In Schritt S34 wird die in dem gegenwärtigen Zyklus berechnete Objektposition als gültig ermittelt, und der Prozess endet. Falls in Schritt S35 die in dem gegenwärtigen Zyklus berechnete Objektposition als ungültig ermittelt wird, schreitet der Prozess zu Schritt S36. fort.
  • In Schritt S36 wird ermittelt, ob die zweite Direktwelle oder die zweite Indirektwelle empfangen worden sind oder nicht. Falls die erste Direktwelle und die erste Indirektwelle Reflexionen von unterschiedlichen Objekten sind, können die zweite Direktwelle oder nachfolgende Direktwellen und die erste Indirektwelle Reflexionen von demselben Objekt sein, oder können die erste Direktwelle und die zweite Indirektwelle oder nachfolgende Indirektwellen Reflexionen von demselben Objekt sein. Die Reflexionen von demselben Objekt können es erlauben, die Objektposition in Übereinstimmung mit dem Triangulationsprinzips zu berechnen. D.h., die Reflexionen von demselben Objekt können es erlauben, Koordinaten des Objekts in einer Weise wie unter Bezugnahme auf 2 beschrieben zu berechnen. In einem solchen Fall wird die Objektposition, die auf der Grundlage einer Kombination der ersten Direktwelle und der zweiten Indirektwelle oder einer Kombination der zweiten Direktwelle und der ersten Indirektwelle berechnet wurde, als gültig ermittelt.
  • Falls im Schritt S36 ermittelt wird, dass die zweite Direktwelle oder die zweite Indirektwelle empfangen worden ist, schreitet der Prozess zu Schritt S37 fort, in dem die Objektposition auf der Grundlage einer Kombination der ersten Direktwelle und der zweiten Indirektwelle oder einer Kombination der zweiten Direktwelle und der ersten Direktwelle bzw. Indirektwelle in einer Weise wie unter Bezugnahme auf 2 beschrieben berechnet wird. Darauf folgend wird in Schritt S38 ermittelt, ob die berechnete Objektposition innerhalb des triangulierbaren Gebiets liegt oder nicht. Falls in Schritt S38 ermittelt wird, dass die berechnete Objektposition außerhalb des triangulierbaren Gebiets liegt, schreitet der Prozess zu Schritt S39 fort, in dem das Berechnungsergebnis als ungültig ermittelt wird. Falls in Schritt S38 ermittelt wird, dass die berechnete Objektposition innerhalb des triangulierbaren Gebiets liegt, schreitet der Prozess zu Schritt S40 fort, in dem das Berechnungsergebnis als gültig ermittelt wird. In Schritt S36 wird ermittelt, ob die zweite Direktwelle oder die zweite Indirektwelle empfangen worden ist oder nicht. Alternativ kann in Schritt S38 ermittelt werden, ob die zweite oder eine nachfolgende (beispielsweise dritte oder vierte) Direktwelle oder die zweite nachfolgende Indirektwelle empfangen worden ist. Wie in dem ersten Beispiel wird der vorstehende Prozess für jede Kombination von benachbarten Sensoren (aktive und passive Sensoren) unter den Ortungssensoren 21-24 durchgeführt. 6B zeigt ein funktionelles Blockdiagramm der ECU 10, die der Objekterfassungsvorrichtung des vorliegenden Ausführungsbeispiels entspricht. Die ECU 10 beinhaltet einen ersten und einen zweiten Detektor 301, 302, die für die Ausführung von Schritt S31 verantwortlich sind, einen Positionsberechner 303, der für die Ausführung der Schritte S32, S37 verantwortlich ist, einen Positionsermittler 304, der für die Ausführung der Schritte S33, S38 verantwortlich ist, einen Positionsinvalidator 305, der für die Ausführung von Schritt S35 verantwortlich ist, einen Empfangsermittler 306, der für die Ausführung von Schritt S36 verantwortlich ist, und einen Positionsvalidator 307, der für die Ausführung von Schritt S40 verantwortlich ist. Funktionen dieser funktionellen Blöcke können durch die CPU implementiert sein, die verschiedene dem ROM oder dergleichen gespeicherte Programme ausführt.
  • In dem Ausführungsbeispiel wird dann, wenn ermittelt wird, dass die auf der Grundlage der ersten empfangenen direkten und indirekten Wellen berechnete Objektposition außerhalb des triangulierbaren Gebiets liegt und folglich das Berechnungsergebnis als ungültig ermittelt wird, die Objektposition auf der Grundlage der ersten empfangenen Reflexion und der zweiten oder nachfolgenden empfangenen Reflexion in Übereinstimmung mit dem Triangulationsprinzip berechnet. Falls die berechnete Objektposition innerhalb des triangulierbaren Gebiets liegt, wird das Berechnungsergebnis als gültig ermittelt. Mit einer solchen Konfiguration kann so viele genaue Informationen wie möglich über das Objekt in der Umgebung des Fahrzeugs 30 beschafft werden.
  • (Andere Ausführungsbeispiele)
  • Nachstehend werden einige andere Ausführungsbeispiele erklärt, die ins Auge gefasst werden können, ohne von dem Rahmen der Erfindung abzuweichen.
    • (i) In dem ersten und dem zweiten hinführenden Beispiel und dem Ausführungsbeispiel der Erfindung wird ermittelt, ob die auf der Grundlage der direkten und indirekten Wellen berechnete Objektposition außerhalb des triangulierbaren Gebiets liegt oder nicht. Falls ermittelt wird, dass die berechnete Objektposition außerhalb des triangulierbaren Gebiets liegt, wird das Berechnungsergebnis als ungültig ermittelt, oder wird das Berechnungsergebnis invalidiert. Alternativ kann ermittelt werden, ob die berechnete Objektposition außerhalb eines Invalidierungsgebiets, das groß genug ist, um das gesamte triangulierbare Gebiet zu beinhalten, liegt oder nicht. Falls ermittelt wird, dass die berechnete Objektposition außerhalb eines solchen Invalidierungsgebiets liegt, kann ermittelt werden, dass das Berechnungsergebnis ungültig ist.
    • (ii) In dem zweiten Beispiel wird das triangulierbaren Gebiet unter Verwendung der Werte der Außenlufttemperatur, der Außenluftfeuchtigkeit und der Windgeschwindigkeit als Parameter der umgebenden Umgebung variabel festgelegt. Alternativ kann das triangulierbare Gebiet unter Verwendung des Werts bzw. der Werte von nur einem oder zweien der Außenlufttemperatur, der Außenluftfeuchtigkeit und der Windgeschwindigkeit als Parameter der umgebenden Umgebung variabel festgelegt werden.
    • (iii) In dem ersten und dem zweiten hinführenden Beispiel und dem Ausführungsbeispiel der Erfindung sind die Ortungssensoren 20 an den vorderen und hinteren Abschnitten des Fahrzeugs 30 befestigt bzw. angeordnet, um ein Objekt in der Umgebung des Fahrzeugs 30 zu erfassen. Alternativ oder zusätzlich können die Ortungssensoren 20 an den rechtsseitigen und linksseitigen Oberflächenabschnitten des Fahrzeugs 30 befestigt bzw. angeordnet sein, um ein Objekt in der Umgebung des Fahrzeugs 30 zu erfassen.
    • (iv) In dem ersten und dem zweiten hinführenden Beispiel und dem Ausführungsbeispiel der Erfindung sind die Ortungssensoren 20 Ultraschallsensoren, die dazu ausgelegt sind, eine Ultraschallwelle als eine Prüfwelle zu verwenden, um ein Objekt zu erfassen. Alternativ können die Ortungssensoren 20 beliebige andere Sensoren sein, die in der Lage sind, eine Prüfwelle auszusenden und eine Reflexion der Prüfwelle zu empfangen, um dadurch ein Objekt zu erfassen. Die Ortungssensoren 20 können ein Millimeterwellenradar oder ein Laserradar oder dergleichen beinhalten, das dazu ausgelegt ist, eine elektromagnetische Welle zum Erfassen eines Objekts zu verwenden.
    • (v) In dem ersten und dem zweiten hinführenden Beispiel und dem Ausführungsbeispiel der Erfindung ist die Objekterfassungsvorrichtung in dem Fahrzeug verbaut. Alternativ kann die Objekterfassungsvorrichtung in einem anderen sich bewegenden Objekt als das Fahrzeug verbaut sein, wie beispielsweise einem Flugzeug, einem Schiff, einem Roboter oder dergleichen. Weiter alternativ kann die Objekterfassungsvorrichtung in einem feststehenden Objekt verbaut sein und dazu verwendet werden, eine Entfernung zwischen dem feststehenden Objekt und einem Objekt in der Umgebung des feststehenden Objekts zu messen. Dies ist vorteilhaft, weil auch dann, wenn die Vorrichtung in dem feststehenden Objekt verbaut ist, mehrfache Reflexionen zwischen dem feststehenden Objekt und Objekten in der Umgebung des feststehenden Objekts auftreten können. Weiter alternativ kann die Objekterfassungsvorrichtung tragbar sein und sich an einer Person befinden, um die Person vor einem sich der Person nähernden Objekt zu warnen.

Claims (5)

  1. Objekterfassungsvorrichtung (10) zum Erfassen eines Objekts (50) in der Umgebung eines sich bewegenden Objekts (30) mit einer Vielzahl von Ortungssensoren (20), die an dem sich bewegenden Objekt angebracht sind, durch Aussenden einer Prüfwelle (25) und Empfangen von Reflexionen (26, 27) der Prüfwelle von dem Objekt über die Vielzahl von Ortungssensoren (20), wobei die Vorrichtung beinhaltet: einen ersten Detektor (101, 201, 301), der dazu konfiguriert ist, das Objekt (50) auf der Grundlage einer Direktwelle (26), die eine Reflexion der Prüfwelle (25) von dem Objekt (50) ist, zu erfassen, wobei die Prüfwelle (25) und die Reflexion (26) jeweils durch einen ersten Ortungssensor (21), der einer der Vielzahl von Ortungssensoren (20) ist, ausgesendet und empfangen werden; einen zweiten Detektor (102, 202, 302), der dazu konfiguriert ist, das Objekt (50) auf der Grundlage einer Indirektwelle (27), die eine Reflexion der Prüfwelle (25) von dem Objekt (50) ist, zu erfassen, wobei die Reflexion (27) durch einen zweiten Ortungssensor (22), der ein anderer der Vielzahl von Ortungssensoren (20) ist, empfangen wird; einen Positionsberechner (103, 203, 303), der dazu konfiguriert ist, eine Objektposition als eine Position des Objekts (50) auf der Grundlage der Erfassungen des ersten und des zweiten Detektors (101, 102) in Übereinstimmung mit dem Triangulationsprinzip zu berechnen; einen Positionsermittler (104, 204, 304), der dazu konfiguriert ist, zu ermitteln, ob die durch den Positionsberechner (103) berechnete Objektposition außerhalb eines Überlappungsbereichs (S1) eines Bereichs direkter Objekterfassung (41) und eines Bereichs indirekter Objekterfassung (43) ist oder nicht, wobei der Bereich direkter Objekterfassung (41) ein Gebiet ist, in dem der erste Ortungssensor (21) das Objekt unter Verwendung der Direktwelle (26) erfassen kann, und der Bereich indirekter Objekterfassung (43) ein Gebiet ist, in dem der zweite Ortungssensor (22) das Objekt über die Indirektwelle (27) erfassen kann; einen Positionsinvalidator (105, 205, 305), der dazu konfiguriert ist, dann, wenn durch den Positionsermittler (104, 204, 304) ermittelt wird, dass die durch den Positionsberechner (102, 203, 303) berechnete Objektposition außerhalb des Überlappungsbereichs (S1) der Bereiche direkter und indirekter Objekterfassung (41, 43) ist, zu bestimmen, dass die durch den Positionsberechner (103, 203, 303) berechnete Objektposition ungültig ist; einen Empfangsermittler (306), der dazu konfiguriert ist, zu ermitteln, ob nach dem Aussenden der Prüfwelle von dem ersten Ortungssensor (21) zumindest einer des ersten und des zweiten Ortungssensors (21, 22) die Reflexionen der Prüfwelle (25) mehrfach empfangen hat oder nicht, wobei dann, wenn durch den Positionsermittler (304) ermittelt wird, dass die durch den Positionsberechner (303) unter Verwendung der ersten empfangenen Direktwelle und der ersten empfangenen Indirektwelle berechnete Objektposition außerhalb des Überlappungsbereichs (S1) der Bereiche direkter und indirekter Objekterfassung (41, 43) ist und dann durch den Positionsinvalidator (305) ermittelt wird, dass die durch den Positionsberechner (303) unter Verwendung der ersten empfangenen Direktwelle und der ersten empfangenen Indirektwelle berechnete Objektposition ungültig ist, und dann, wenn durch den Empfangsermittler (306) ermittelt wird, dass zumindest einer des ersten und des zweiten Ortungssensors (21, 22) die Reflexionen der Prüfwelle (25) nach dem Aussenden der Prüfwelle von dem ersten Ortungssensor (21) mehrfach empfangen hat, der Positionsberechner (303) die Objektposition auf der Grundlage einer Kombination der durch den ersten Ortungssensor (21) empfangenen ersten Direktwelle und der durch den zweiten Ortungssensor (22) empfangenen zweiten oder nachfolgenden Indirektwelle oder einer Kombination der durch den zweiten Ortungssensor (22) empfangenen ersten Indirektwelle und der durch den ersten Ortungssensor (21) empfangenen zweiten oder nachfolgenden Direktwelle berechnet, und einen Positionsvalidator (307), der dazu konfiguriert ist, dann, wenn durch den Positionsermittler (304) ermittelt wird, dass die durch den Positionsberechner (303) auf der Grundlage der Kombination der von dem ersten Ortungssensor (21) empfangenen ersten Direktwelle und der durch den zweiten Ortungssensor (22) empfangenen zweiten oder nachfolgenden Indirektwelle oder der Kombination der durch den zweiten Ortungssensor (22) empfangenen ersten Indirektwelle und der durch den ersten Ortungssensor (21) empfangenen zweiten oder nachfolgenden Direktwelle berechnete Objektposition innerhalb des Überlappungsbereichs (S1) der Bereiche direkter und indirekter Objekterfassung (41, 43) liegt, zu ermitteln, dass die durch den Positionsberechner (303) berechnete Objektposition gültig ist.
  2. Vorrichtung (10) nach Anspruch 1, wobei jeder der Vielzahl von Ortungssensoren (20) ein Ultraschallsensor ist, der in der Lage ist, eine Ultraschallwelle als die Prüfwelle auszusenden.
  3. Vorrichtung (10) nach einem der Ansprüche 1 oder 2, wobei der erste und der zweite Ortungssensor (21, 22) ein Paar von benachbarten Ortungssensoren sind.
  4. Vorrichtung (10) nach einem der Ansprüche 1 bis 3, wobei die Vorrichtung in dem sich bewegenden Objekt angebracht ist.
  5. Vorrichtung (10) nach einem der Ansprüche 1 bis 4, wobei das sich bewegende Objekt ein Fahrzeug (30) ist, und die Vorrichtung in dem Fahrzeug (30) verbaut ist.
DE102015220544.4A 2014-10-22 2015-10-21 Objekterfassungsvorrichtung Active DE102015220544B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-215090 2014-10-22
JP2014215090A JP2016080641A (ja) 2014-10-22 2014-10-22 物体検知装置

Publications (2)

Publication Number Publication Date
DE102015220544A1 DE102015220544A1 (de) 2016-04-28
DE102015220544B4 true DE102015220544B4 (de) 2023-05-04

Family

ID=55698718

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015220544.4A Active DE102015220544B4 (de) 2014-10-22 2015-10-21 Objekterfassungsvorrichtung

Country Status (4)

Country Link
US (1) US10175355B2 (de)
JP (1) JP2016080641A (de)
CN (1) CN105549019B (de)
DE (1) DE102015220544B4 (de)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6528382B2 (ja) * 2014-10-22 2019-06-12 株式会社Soken 車両用障害物検出装置
JP6638554B2 (ja) * 2016-05-19 2020-01-29 株式会社デンソー 物体検知装置及び物体検知方法
JP6722066B2 (ja) * 2016-08-29 2020-07-15 株式会社Soken 周辺監視装置及び周辺監視方法
KR20180039942A (ko) * 2016-10-11 2018-04-19 현대오트론 주식회사 초음파 센서 장치 및 초음파 센서 장치의 센싱 방법
EP3407082B1 (de) * 2017-05-24 2021-06-23 Apple Inc. System und verfahren zur bestimmung einer distanz zu einem objekt
JP7160695B2 (ja) * 2019-01-09 2022-10-25 株式会社東芝 検出システム、検出方法、および情報処理装置
JP2021196254A (ja) * 2020-06-12 2021-12-27 株式会社アイシン 物体検出装置
JP2022029287A (ja) * 2020-08-04 2022-02-17 パナソニックIpマネジメント株式会社 障害物判定装置および車両
EP3961255A1 (de) * 2020-08-28 2022-03-02 Aptiv Technologies Limited Fahrerassistenzsystem für ein fahrzeug, fahrzeug und ein vom system implementierbares fahrerassistenzverfahren
US11634127B2 (en) * 2020-09-15 2023-04-25 Aptiv Technologies Limited Near-object detection using ultrasonic sensors
DE102021109425B3 (de) * 2021-04-15 2022-07-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Steuern eines Fahrzeugs und Steuervorrichtung für ein Fahrzeug

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63127179A (ja) 1986-11-15 1988-05-31 Matsushita Electric Works Ltd 超音波検知装置
JP2008039497A (ja) 2006-08-03 2008-02-21 Matsushita Electric Works Ltd 障害物検出装置
JP2014064077A (ja) 2012-09-20 2014-04-10 Konica Minolta Inc 放射線画像撮影システムおよび放射線画像撮影装置

Family Cites Families (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3418325A (en) 1965-12-23 1968-12-24 Bofors Ab Method of producing a product between meso-inositol and nicotinic acid
US5122990A (en) 1991-02-01 1992-06-16 Rowe-Deines Instruments Incorporated Bottom tracking system
US5315562A (en) 1992-10-23 1994-05-24 Rowe, Deines Instruments Inc. Correlation sonar system
JP3140863B2 (ja) 1992-10-27 2001-03-05 松下電工株式会社 車載用超音波検知器
JP3065821B2 (ja) 1992-11-02 2000-07-17 株式会社豊田中央研究所 物体検出装置
DE4406525C2 (de) * 1994-02-28 1996-10-24 Siemens Ag Verfahren zur Bestimmung der Lage eines Objekts relativ zum Hintergrund mittels Ultraschall
DE4433957A1 (de) 1994-09-23 1996-03-28 Mayser Gmbh & Co Verfahren zur Ultraschall-Hinderniserkennung
US5767793A (en) * 1995-04-21 1998-06-16 Trw Inc. Compact vehicle based rear and side obstacle detection system including multiple antennae
US7202776B2 (en) 1997-10-22 2007-04-10 Intelligent Technologies International, Inc. Method and system for detecting objects external to a vehicle
JPH1164497A (ja) 1997-08-15 1999-03-05 Mitsubishi Electric Corp レーダ装置
US6268803B1 (en) 1998-08-06 2001-07-31 Altra Technologies Incorporated System and method of avoiding collisions
DE19842250A1 (de) * 1998-09-15 2000-03-16 Mannesmann Vdo Ag Verfahren zur Bestimmung des Abstandes zwischen einem Objekt und einer sich örtlich verändernden Einrichtung, insbesondere einem Kraftfahrzeug
US6434486B1 (en) 2000-08-28 2002-08-13 Delphi Technologies Inc. Technique for limiting the range of an object sensing system in a vehicle
JP2002131428A (ja) * 2000-10-25 2002-05-09 Mitsubishi Electric Corp 超音波障害物検出装置
JP3860061B2 (ja) 2002-04-16 2006-12-20 富士重工業株式会社 車外監視装置、及び、この車外監視装置を備えた走行制御装置
US6898528B2 (en) 2002-07-23 2005-05-24 Ford Global Technologies, Llc Collision and injury mitigation system using fuzzy cluster tracking
KR100513523B1 (ko) * 2003-05-29 2005-09-07 현대자동차주식회사 차간 거리 제어장치
JP3975985B2 (ja) 2003-08-21 2007-09-12 松下電工株式会社 車両用周辺監視装置
JP4293865B2 (ja) * 2003-09-02 2009-07-08 富士通テン株式会社 物体検出装置
DE102004010752A1 (de) * 2004-03-05 2005-09-22 Robert Bosch Gmbh Verfahren zur Abstandswarnung und Abstandswarneinheit
WO2005091015A1 (ja) 2004-03-23 2005-09-29 Murata Manufacturing Co., Ltd. レーダ
US7068155B2 (en) * 2004-07-14 2006-06-27 General Motors Corporation Apparatus and methods for near object detection
US7409295B2 (en) 2004-08-09 2008-08-05 M/A-Com, Inc. Imminent-collision detection system and process
US7720652B2 (en) 2004-10-19 2010-05-18 Microsoft Corporation Modeling location histories
US7873181B1 (en) 2005-09-23 2011-01-18 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Visual image sensor organ replacement: implementation
JP4353162B2 (ja) 2005-09-26 2009-10-28 トヨタ自動車株式会社 車輌周囲情報表示装置
DE102005059907A1 (de) * 2005-12-15 2007-06-21 Robert Bosch Gmbh Ultraschallsensor
US20070176822A1 (en) 2006-01-30 2007-08-02 Fujitsu Limited Target detection apparatus and system
JP4371115B2 (ja) * 2006-03-01 2009-11-25 トヨタ自動車株式会社 物体検出装置
US20080068146A1 (en) 2006-09-16 2008-03-20 Cauldwell Jack D Red light accident warning
US7797108B2 (en) * 2006-10-19 2010-09-14 Gm Global Technology Operations, Inc. Collision avoidance system and method of aiding rearward vehicular motion
JP2008122137A (ja) 2006-11-09 2008-05-29 Mitsubishi Electric Corp レーダ装置
EP2242674B1 (de) * 2008-02-20 2012-12-12 Continental Teves AG & Co. oHG Verfahren und assistenzsystem zum erfassen von objekten im umfeld eines fahrzeugs
US8605947B2 (en) 2008-04-24 2013-12-10 GM Global Technology Operations LLC Method for detecting a clear path of travel for a vehicle enhanced by object detection
DE102008001648A1 (de) * 2008-05-08 2009-11-12 Robert Bosch Gmbh Fahrerassistenzverfahren zum Bewegen eines Kraftfahrzeugs und Fahrerassistenzvorrichtung
EP2128576B1 (de) 2008-05-27 2016-12-28 VEGA Grieshaber KG Auswertung der Echoform bei Füllstandsensoren
FR2941537B1 (fr) 2009-01-29 2016-02-05 Valeo Vision Sas Procede de surveillance de l'environnement d'un vehicule automobile
US8108147B1 (en) 2009-02-06 2012-01-31 The United States Of America As Represented By The Secretary Of The Navy Apparatus and method for automatic omni-directional visual motion-based collision avoidance
US8232872B2 (en) 2009-12-03 2012-07-31 GM Global Technology Operations LLC Cross traffic collision alert system
DE102009054634A1 (de) * 2009-12-15 2011-06-16 Robert Bosch Gmbh Vorrichtung zur Überwachung eines Abstandes eines Fahrzeuges zu einem Objekt
DE112010005571B4 (de) 2010-05-19 2015-10-01 Mitsubishi Electric Corporation Hinderniserfassungsvorrichtung
WO2013088951A1 (ja) * 2011-12-12 2013-06-20 株式会社村田製作所 位置測定装置
JP2013124982A (ja) 2011-12-15 2013-06-24 Panasonic Corp 車両用障害物検出装置
KR20130119674A (ko) 2012-04-24 2013-11-01 대구가톨릭대학교산학협력단 섬유아세포 성장인자를 포함하는 알긴산을 유효성분으로 하는 창상 치료용 조성물
US9221396B1 (en) * 2012-09-27 2015-12-29 Google Inc. Cross-validating sensors of an autonomous vehicle
JP6089585B2 (ja) 2012-10-29 2017-03-08 株式会社デンソー 障害物検知装置
JP5900293B2 (ja) 2012-11-06 2016-04-06 トヨタ自動車株式会社 衝突回避支援装置及び衝突回避支援方法
JP6123133B2 (ja) 2013-03-04 2017-05-10 パナソニックIpマネジメント株式会社 車両用障害物検知装置および、車両用障害物検知システム
JP2015004562A (ja) 2013-06-20 2015-01-08 株式会社デンソー 障害物検知装置
JP6151150B2 (ja) 2013-10-07 2017-06-21 日立オートモティブシステムズ株式会社 物体検出装置及びそれを用いた車両
KR101892763B1 (ko) * 2013-10-08 2018-08-28 주식회사 만도 장애물 위치를 판단하는 방법과 장애물 위치 판단장치 및 주차 보조 방법과 주차 보조 시스템
US8989944B1 (en) 2013-11-26 2015-03-24 Google Inc. Methods and devices for determining movements of an object in an environment
CN103605125B (zh) 2013-11-29 2016-02-24 深圳市航盛电子股份有限公司 倒车雷达抗干扰的方法及系统
US9098753B1 (en) 2014-04-25 2015-08-04 Google Inc. Methods and systems for object detection using multiple sensors
CN107004360B (zh) * 2014-07-03 2020-08-07 通用汽车环球科技运作有限责任公司 车辆雷达方法和系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63127179A (ja) 1986-11-15 1988-05-31 Matsushita Electric Works Ltd 超音波検知装置
JP2008039497A (ja) 2006-08-03 2008-02-21 Matsushita Electric Works Ltd 障害物検出装置
JP2014064077A (ja) 2012-09-20 2014-04-10 Konica Minolta Inc 放射線画像撮影システムおよび放射線画像撮影装置

Also Published As

Publication number Publication date
JP2016080641A (ja) 2016-05-16
CN105549019A (zh) 2016-05-04
US10175355B2 (en) 2019-01-08
US20160116583A1 (en) 2016-04-28
DE102015220544A1 (de) 2016-04-28
CN105549019B (zh) 2018-03-27

Similar Documents

Publication Publication Date Title
DE102015220544B4 (de) Objekterfassungsvorrichtung
DE102015220502B4 (de) Objekterfassungsvorrichtung
DE102015219551B4 (de) Objekterfassungsvorrichtung
DE102015220329B4 (de) Objekterfassungsvorrichtung
DE19711467C2 (de) Verfahren zur Bestimmung des senkrechten Abstandes zwischen einem Objekt und einer sich örtlich verändernden Einrichtung
DE102015220576A1 (de) Objekterfassungsvorrichtung
EP0987563B1 (de) Verfahren zur Bestimmung des Abstandes zwischen einem Objekt und einer sich örtlich verändernden Einrichtung, insbesondere einem Kraftfahrzeug
DE102014103695B4 (de) Fahrzeuggestützte Kreuzungsbeurteilungsvorrichtung und -programm
DE112015004824T5 (de) Objekterfassungsvorrichtung
DE112017004333B4 (de) Umgebungsüberwachvorrichtung und Umgebungsüberwachverfahren
EP3485290B1 (de) Verfahren und system zur abtastung eines objekts
DE102015006931B4 (de) Parkzonen-Erkennungsvorrichtung und Steuerungsverfahren davon
DE102013215117A1 (de) Objektbestimmung mittels Radarsensor
DE4023538A1 (de) Kollisionswarneinrichtung
DE112014002206T5 (de) Hinderniserfassungsvorrichtung
DE102011087751B4 (de) Verfahren und Vorrichtung zum Erkennen des Vorhandenseins von Objekten
DE102013008953B4 (de) Verfahren zum Betreiben einer Radareinrichtung eines Fahrzeugs, insbesondere eines Kraftwagens, sowie Radareinrichtung für ein Fahrzeug, insbesondere einen Kraftwagen
DE112017004618B4 (de) Objekterfassungsvorrichtung
DE102015219802A1 (de) Objekterfassungsvorrichtung
DE102014202752B4 (de) Erkennung dynamischer Objekte mittels Ultraschall
WO2019038174A1 (de) Vermeidung von totwinkelwarnungen durch gischt
EP3740784A1 (de) Verfahren und vorrichtung zum detektieren kritischer querbewegungen
DE112017004990T5 (de) Erfassungsvorrichtung, Erfassungsverfahren und Speichermedium
DE112017004938T5 (de) Erfassungsvorrichtung, Erfassungsverfahren und Aufzeichnungsmedium
EP1433002B1 (de) Verfahren zum bestimmen der position eines zielobjektes und nach diesem verfahren betriebenes radarsystem

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final