DE112009005424B4 - Objektdetektionsvorrichtung und Objektdetektionsverfahren - Google Patents

Objektdetektionsvorrichtung und Objektdetektionsverfahren Download PDF

Info

Publication number
DE112009005424B4
DE112009005424B4 DE112009005424.2T DE112009005424T DE112009005424B4 DE 112009005424 B4 DE112009005424 B4 DE 112009005424B4 DE 112009005424 T DE112009005424 T DE 112009005424T DE 112009005424 B4 DE112009005424 B4 DE 112009005424B4
Authority
DE
Germany
Prior art keywords
edge
target
detection
lateral
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE112009005424.2T
Other languages
English (en)
Other versions
DE112009005424T8 (de
DE112009005424T5 (de
Inventor
Masayuki Katoh
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to PCT/JP2009/070562 priority Critical patent/WO2011070650A1/ja
Publication of DE112009005424T5 publication Critical patent/DE112009005424T5/de
Application granted granted Critical
Publication of DE112009005424T8 publication Critical patent/DE112009005424T8/de
Publication of DE112009005424B4 publication Critical patent/DE112009005424B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/932Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using own vehicle data, e.g. ground speed, steering wheel direction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles

Abstract

Objektdetektionsvorrichtung zum Detektieren eines Objekts auf Basis von Zielinformationen, die durch ein Radar erfasst werden, und Zielinformationen, die anhand eines Bildes erfasst wurden, die durch einen monokularen Bildsensor aufgenommen wurde, wobei die Objektdetektionsvorrichtung aufweist:
eine Randerfassungsseinrichtung, die ein Ziel, das einem Ziel entspricht, das durch ein Radar erkannt wird, anhand des Bildes, das durch den monokularen Bildsensor aufgenommen wird, extrahiert und einen rechten Rand und einen linken Rand des extrahierten Zieles erfasst;
eine Einrichtung zum Herleiten einer Näherungslinie eines geometrischen Ortes, die, für die beiden Ränder, Näherungslinien für einen geometrischen Ort als Geraden oder vorbestimmte gekrümmte Linien zum Nähern der geometrischen Örter des rechten Randes und des linken Randes, die durch die Randerfassungseinrichtung erfasst werden, herleitet;
eine Auswähleinrichtung, die, als einen echten Rand des Ziels, den Rand mit einer gröberen Anzahl von Rändern, die. auf der Näherungslinie des geometrischen Ortes existieren, von dem rechten und dem linken Rand, die von der Randerfassungseinrichtung erfasst werden, auswählt;
und eine Einrichtung zum Herleiten einer lateralen Position, die eine laterale Position des Ziels auf Basis einer Position des Randes, der als der echte Rand durch die Auswähleinrichtung ausgewählt wird, herleitet.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft eine Objektdetektionsvorrichtung und ein Objektdetektionsverfahren, in dem ein Objekt auf Basis von Informationen detektiert wird, die durch ein Radar und einen Bildsensor erfasst werden.
  • Technischer Hintergrund
  • In den letzten Jahren sind Sicherheitssysteme, wie z. B. PCS (Pre-Crash Safety Systems bzw. Radargestützte Systeme mit automatischer Notbremsung), und dergleichen zum Verhindern einer Kollision oder zur Begrenzung der durch die Kollision hervorgerufenen Schäden entwickelt worden. Um ein derartiges Sicherheitssystem vorzugsweise zu realisieren, muss z. B. die Position und die Größe eines Hindernisses, z. B. eines Fußgängers und eines anderen Fahrzeugs als dem Subjektfahrzeug, sowie der Abstand zwischen dem Hindernis und dem Subjektfahrzeug korrekt erfasst werden. Wie vorstehend beschrieben ist eine Objektdetektionsvorrichtung, die auf der Verwendung eines Radars und eines Stereobildsensors basiert, als technische Einrichtung zum Erfassen z. B. der Position, der Größe und des Abstands bekannt.
  • Bei Verwendung eines Radars kann ein Ziel bzw. Target (Objekt, das als eine Detektionszielvorgabe vorgesehen ist) als Reflexionspunkt der elektromagnetischen Welle erkannt werden. Auf diese Art und Weise kann die Position des Ziels bzw. Target erfasst bzw. erhalten werden. Schwierig dabei ist jedoch, mit Hilfe der Radartechnik den Rand des Ziels korrekt zu erfassen. Andererseits kann der Rand des Ziels anhand eines durch den Stereobildsensor aufgenommenen oder fotografierten Bildes exakt erfasst werden. So bewirkt die vorstehend beschriebene Objektdetektionsvorrichtung einen Zusammenschluss der Zielinformationen, die durch das Radar erfasst werden, mit den Zielinformationen, die anhand des durch den Stereobildsensor aufgenommenen Bildes erfasst wurden. Demnach ist eine Verbesserung der Objektdetektionsfähigkeit der Objektdetektionsvorrichtung möglich.
  • Wird jedoch der Stereobildsensor als der Bildsensor verwendet, ist sicherzustellen, dass für die Installation des Stereobildsensors relativ viel Platz vorhanden ist. Zudem ist auch der Kostenaufwand zur Realisierung der Objektdetektionsvorrichtung relativ hoch. Daher besteht die Notwendigkeit, durch Verwendung eines monokularen Bildsensors anstatt des Stereobildsensors eine in Funktion und Leistung dem Stereobildsensor entsprechende Objektdetektionsvorrichtung zu schaffen.
  • Patentschrift 1 offenbart eine Fahrzeughindernis-Erkennungsvorrichtung, die ein Millimeterradar und eine monokulare Kamera verwendet. Die Fahrzeughindernis-Erkennungsvorrichtung weist eine Objektinformations-Berechnungseinrichtung, eine Bildverarbeitungseinrichtung und eine Fahrzeuginformations-Erfassungseinrichtung auf. Die Objektinformations-Berechnungseinrichtung berechnet anhand der Ausgabe des Millimeterwellenradars die Objektinformationen, die z. B. die relative seitliche bzw. laterale Position und den relativen Abstand bezogen auf das Detektionsobjekt beinhalten. Die Bildverarbeitungseinrichtung verarbeitet ein durch die monokulare Kamera aufgenommenes oder fotografiertes Bild auf Basis des Berechnungsergebnisses, das durch die Objektinformations-Berechnungseinrichtung erhalten wurde. Die Fahrzeughindernis-Erkennungsvorrrichtung beurteilt auf Basis der Ausgaben von zumindest der Objektinformations-Berechnungseinrichtung und der Fahrzeuginformations-Erfassungseinrichtung die Möglichkeit bzw. Fähigkeit des Detektionsobjekts, sich wie ein Hindernis zu verhalten. Zudem wird auf Basis des Berechnungsergebnisses, das durch die Objektinformations-Berechnungseinrichtung erhalten wird, beurteilt, ob die Ausgabe der Bildverarbeitungseinrichtung zur Beurteilung des Hindernisses effektiv bzw. von Nutzen ist. Nur wenn die Ausgabe der Bildverarbeitungseinrichtung effektiv bzw. von Nutzen ist, wird die Ausgabe der Bildverarbeitungseinrichtung ebenfalls zur Beurteilung des Hindernisses verwendet.
  • Patentschrift 2 offenbart eine Objektdetektionsvorrichtung zum Erfassen von Bildinformationen und Abstandsinformationen von einer Kamera und einem Radar. In der Objektdetektionsvorrichtung werden der Richtungsvektor des Randes, die Richtungsvektorvarianz bzw. -abweichung des Randes, die Randintensität und die Randintensitätsvarianz bzw. -abweichung anhand der Bildinformationen berechnet. Um welche Art einer Zielvorgabe es sich handelt, wird auf Basis von zumindest einer der genannten Größen und des Abstands bezogen auf die Detektionszielvorgabe beurteilt.
  • Patentschriften des Stands der Technik
    • Patentschrift 1: Japanische Patenanmeldungs-Offenlegungsschrift: 2008-276689
    • Patentschrift 2: Japanische Patentanmeldungs-Offenlegungsschrift: 2007-288460
  • Offenbarung der Erfindung
  • Aufgabenstellung der Erfindung
  • Wenn in der Objektdetektionsvorrichtung der monokulare Bildsensor als der Bildsensor verwendet wird, sind sowohl Platz- als auch Kostenersparnis möglich. Dennoch ist es schwierig, anhand des durch den monokularen Bildsensor aufgenommenen Bildes korrekte Informationen in der distalen Richtung oder Tiefenrichtung zu erhalten. Wenn daher der linke und der rechte Rand eines Ziels anhand eines Bildes detektiert werden, das durch den monokularen Bildsensor aufgenommen worden ist, wird ein Rand eines Objekts oder Musters, das im Vergleich zum Ziel aus Sicht des Subjektfahrzeugs tatsächlich existiert, in einigen Fällen fälschlicherweise als der Rand des Ziels detektiert. Wenn die Position in der seitlichen bzw. lateralen Richtung des Ziels (seitlichen bzw. lateralen Position) auf Basis des wie vorstehend beschrieben fälschlicherweise bzw. falsch detektierten Rands hergeleitet wird, steht zu befürchten, dass die laterale Position des Ziels ebenfalls fehlerhaft detektiert werden könnte.
  • Die vorstehende Erfindung ist im Hinblick auf das vorstehend angeführte Problem entwickelt worden, und es ist deren Aufgabe, eine Technik zu schaffen, die eine weitere Verbesserung der Detektionsgenauigkeit der lateralen Position eines Ziels in einer Objektdetektionsvorrichtung zum Detektieren eines Objekts auf Basis von Zielinformationen, die durch ein Radar erfasst werden, und Zielinformationen, die von einem Bild erfasst werden, das durch einen monokularen Bildsensor aufgenommen wurde, ermöglicht.
  • Mittel zur Lösung der Aufgabe
  • In der vorliegenden Erfindung werden ein rechter Rand und ein linker Rand eines Ziels anhand eines Bildes erfasst oder erhalten, das durch einen monokularen Bildsensor aufgenommen oder fotografiert worden ist. Zudem werden für die beiden Ränder Näherungslinien eines geometrischen Ortes hergeleitet, bei denen es sich um Geraden oder vorbestimmte gekrümmte Linien handelt, die zum Nähern der geometrischen Örter des rechten Rands und des linken Rands dienen. Der Rand, der in dem rechten Rand und dem linken Rand beinhaltet ist und der die größere Anzahl von Rändern aufweist, die auf der Näherungslinie des geometrischen Ortes existieren, wird als der echte Rand des Ziels ausgewählt. Die laterale Position des Ziels wird auf Basis der Position des ausgewählten Rands hergeleitet.
  • Insbesondere befindet sich die Objektdetektionsvorrichtung gemäß einer ersten Ausführungsform in einer Objektdetektionsvorrichtung zum Detektieren eines Objekts auf Basis von Zielinformationen, die durch ein Radar erfasst werden, und Zielinformationen, die anhand eines Bildes erfasst werden, das durch einen monokularen Bildsensor aufgenommen worden ist, wobei die Objektdetektionsvorrichtung aufweist:
    eine Randerfassungseinrichtung, die ein Ziel, das einem Ziel entspricht, das durch das Radar erfasst wird, aus dem Bild extrahiert, das durch den monokularen Bildsensor aufgenommen wurde, und die einen rechten Rand und einen linken Rand des extrahierten Ziels erfasst;
    eine Einrichtung zum Herleiten einer Näherungslinie eines geometrischen Ortes, die für die beiden Ränder Näherungslinien des geometrischen Ortes als Geraden oder vorbestimmte gekrümmte Linien zum Nähern von geometrischen Örtern des rechten Randes und des linken Randes, die durch die Randerfassungseinrichtung erfasst wurden, herleitet;
    eine Auswähleinrichtung, die als einen echten Rand des Ziels, den Rand mit einer größeren Anzahl von Rändern, die auf der Näherungslinie des geometrischen Ortes existieren, von dem rechten Rand und dem linken Rand, die durch die Randerfassungseinrichtung erfasst werden, auswählt; und
    eine Einrichtung zum Herleiten einer lateralen Position, die eine laterale Position des Ziels auf Basis einer Position des Randes herleitet, der durch die Auswähleinrichtung als der echte Rand ausgewählt wird.
  • Gemäß der vorliegenden Erfindung wird der Rand, der die größere Wichtigkeit bzw. Zuverlässigkeit aufweist und von dem rechten Rand und dem linken Rand des Ziels, das anhand des durch den monokularen Bildsensor aufgenommenen Bildes erfasst wurde, als der echte Rand des Ziels ausgewählt. Die laterale Position des Ziels wird auf Basis der Position des Randes mit der größeren Wichtigkeit bzw. höheren Zuverlässigkeit hergeleitet. Auf diese Art und Weise kann die Detektionsgenauigkeit der lateralen Position des Ziels weiter verbessert werden.
  • Die Objektdetektionsvorrichtung gemäß der vorliegenden Erfindung kann zudem eine Gewichtungsbeimessungseinrichtung aufweisen, die dem rechten Rand und dem linken Rad, die durch die Randerfassungseinrichtung erfasst werden, Wichtigkeits- bzw. Zuverlässigkeitsgewichtungen beimisst. In diesem Fall misst die Gewichtungsbeimessungseinrichtung dem rechten Rand und dem linken Rand die Gewichtungen so bei, dass der Rand, der näher an einer Position des Ziels angeordnet ist, das durch das Radar erkannt wurde, eine größere Wichtigkeit bzw. höhere Zuverlässigkeit aufweist. Zudem kann die Objektdetektionsvorrichtung gemäß der vorliegenden Erfindung eine Zuverlässigkeitsgesamtwert-Berechnungseinrichtung aufweisen, die eine Mehrzahl von Wichtigkeiten bzw. Zuverlässigkeiten zusammenrechnet, wobei die Gewichtungen jeweils dem rechten und dem linken Rand durch die Gewichtungsbeimessungseinrichtung beigemessen werden, um dadurch den Gesamtwert der Zuverlässigkeiten für die beiden Ränder zu berechnen.
  • In der vorliegenden Erfindung ist in einigen Fällen die Anzahl der auf der Näherungslinie des geometrischen Ortes existierenden Ränder zwischen dem rechten und dem linken Rand identisch, In so einem Fall kann die Auswähleinrichtung von dem linken und dem rechten Rand den Rand als den echten Rand des Zieles auswählen, der den größeren Gesamtwert von Zuverlässigkeiten aufweist, die durch die Zuverlässigkeitsgesamtwert-Berechnungseinrichtung berechnet wurden.
  • Dementsprechend kann auch der Rand, der die höhere Zuverlässigkeit aufweist und der von dem rechten Rand und dem linken Rand des Ziels ausgewählt wird, als der echte Rand des Ziels ausgewählt werden.
  • In der vorliegenden Erfindung kann die Einrichtung zum Herleiten einer lateralen Position eine Einrichtung zum Prognostizieren eines geometrischen Ortes und eine Einrichtung zum Prognostizieren einer Kollisionsposition beinhalten. Die Einrichtung zum Prognostizieren des geometrischen Ortes prognostiziert einen zukünftigen geometrischen Ort des durch die Auswähleinrichtung als echter Rand ausgewählten Rands. Die Einrichtung zum Prognostizieren der Kollisionsposition prognostiziert auf Basis des zukünftigen geometrischen Ortes des Randes, der durch die Einrichtung zum Prognostizieren des geometrischen Ortes prognostiziert wird, eine Kollisionsposition zwischen dem Ziel und einem Fahrzeug als eine Position, wo ein Abstand zwischen dem Rand und dem Fahrzeug in der von vorne nach hinten verlaufenden Richtung null beträgt. In diesem Fall kann eine laterale Position eines Mittelpunkts in einer lateralen Richtung des Ziels (der nachstehend als „Zielmittelpunkt” bezeichnet wird), die an der Kollisionsposition bereitgestellt werden soll, durch die Einrichtung zum Herleiten der lateralen Position auf Basis einer Position des durch die Auswähleinrichtung als echter Rand ausgewählten Rands an der Kollisionsposition hergeleitet werden, die durch die Einrichtung zum Prognostizieren der Kollisionsposition prognostiziert wird.
  • Dementsprechend kann die laterale Position des Zielmittelpunkts an der Kollisionsposition zwischen dem Ziel und dem Fahrzeug erfasst werden.
  • In der Objekterfassungsvorrichtung gemäß der vorliegenden Erfindung kann die Einrichtung zum Herleiten der lateralen Position eine Einrichtung zum Schätzen einer lateralen Breite beinhalten, die eine laterale Breite des Ziels schätzt. In diesem Fall kann eine Position, die zu dem jeweils anderen Rand um die Hälfte der lateralen Breite des Ziels, die durch die Einrichtung zum Schätzen der lateralen Breite anhand der Position des Randes geschätzt wird, der durch die Auswähleinrichtung als der echte Rand ausgewählt wurde, abweicht, durch die Einrichtung zum Herleiten der lateralen Position als eine laterale Position des Zielmittelpunkts hergeleitet werden.
  • Demzufolge ist eine hochgenaue Erfassung der lateralen Position des Zielmittelpunkts möglich.
  • Das Objekterfassungsverfahren gemäß einer zweiten Ausführungsform ist Teil eines Objekterfassungsverfahrens zum Erfassen eines Objekts auf Basis von Zielinformationen, die durch ein Radar erfasst werden, und Zielinformationen, die anhand eines Bildes erfasst werden, das durch einen monokularen Bildsensor aufgenommen wurde, wobei das Objekterfassungsverfahren beinhaltet:
    einen Randerfassurgsschritt, in dem ein Ziel, das einem durch das Radar erkannten Ziel entspricht, aus dem Bild, das durch den monokularen Bildsensor aufgenommen wurde, extrahiert wird und ein rechter Rand und ein linker Rand des extrahierten Ziels erfasst wird;
    einen Schritt zum Herleiten einer Näherungslinie für einen geometrischen Ort, in dem, für die beiden Ränder, Näherungslinien des geometrischen Ortes als Geraden oder vorbestimmte gekrümmte Linien zum Nähern des geometrischen Ortes des rechten Randes und des linken Randes, die in dem Randerfassungsschritt erfasst wurden, hergeleitet werden;
    einen Auswählschritt, in dem als einer echter Rand des Ziels der Rand, der die größere Anzahl von auf der Näherungslinie des geometrischen Ortes existierenden Ränder aufweist, von dem rechten Rand und dem linken Rand ausgewählt wird, die in dem Randerfassungsschritt erfasst wurden; und
    einen Schritt zum Herleiten einer lateralen Position, in dem eine laterale Position des Ziels auf Basis einer Position des Randes hergeleitet wird, der in dem Auswählschritt als echter Rand ausgewählt wurde.
  • In der vorliegenden Erfindung wird die laterale Position des Ziels ebenfalls auf Basis der Position des die größer Wichtigkeit bzw. Nähere Zuverlässigkeit aufweisenden Randes hergeleitet. Dementsprechend kann die Detektionsgenauigkeit der lateralen Position des Ziels weiter verbessert werden.
  • Das Objektdetektionsverfahren gemäß der vorliegenden Erfindung kann ferner einen Gewichtungsbeimessungsschritt aufweisen, in dem dem rechten Rand und dem linken Rand, die in dem Randerfassungsschritt erfasst wurden, Zuverlässigkeitsgewichtungen beigemessen werden. In diesem Fall werden dem rechten Rand und dem linken Rad die Gewichtungen in dem Gewichtungsbeimessungsschritt so beigemessen, dass der Rand, der näher an einer Position des durch das Radar erkannten Ziels angeordnet ist, eine höhere Zuverlässigkeit aufweist. Zudem kann das Objektdetektionsverfahren gemäß der vorliegenden Erfindung einen Schritt zum Berechnen eines Zuverlässigkeitsgesamtwerts beinhalten, in dem eine Mehrzahl von Zuverlässigkeiten zusammengerechnet wird, wobei jeweils dem rechten und dem linken Schritt in dem Gewichtungsbeimessungsschritt Gewichtungen beigemessen werden, um dadurch die Gesamtwerte der Zuverlässigkeiten für die beiden Ränder zu berechnen.
  • In der vorliegenden Erfindung kann der Rand, der den größeren Gesamtwert an Zuverlässigkeiten aufweist, die in dem Schritt zum Berechnen des Zuverlässigkeitsgesamtwerts berechnet wurden, in dem Auswählschritt als der echte Rand des Ziels ausgewählt werden, wenn die Anzahl der auf der Näherungslinie des geometrischen Orts existierenden Ränder zwischen dem rechten Rand und dem linken Rand identisch ist.
  • Dementsprechend kann der Rand, der die höhere Zuverlässigkeit aufweist und der von dem rechten und dem linken Rand des Ziels ausgewählt wird, als der echte Rand des Ziels ausgewählt werden.
  • Gemäß der ersten und der zweiten Ausführungsform ist unter dem Begriff „auf der Näherungslinie des geometrischen Ortes existierender Rand” nicht nur der Rand zu verstehen, der an der Position existiert, die völlig mit der Näherungslinie des geometrischen Ortes übereinstimmt, sondern auch der Rand, der innerhalb eines vorbestimmten zulässigen Bereichs von der Näherungslinie des geometrischen Ortes positioniert ist.
  • Vorteilhafter Effekt der Erfindung
  • Gemäß der vorliegenden Erfindung ist eine weitere Verbesserung der Detektionsgenauigkeit der lateralen Position des Ziels in der Objektdetektionsvorrichtung zum Detektieren des Objekts auf Basis der Zielinformationen, die durch das Radar erfasst wurden, und der Zielinformationen, die von dem durch den monokularen Bildsensor aufgenommenen Bild erfasst wurden, möglich.
  • Kurzbeschreibung der Zeichnung
  • 1 zeigt ein Blockdiagramm, das eine schematische Anordnung einer Kollisionsprognosevorrichtung gemäß einer ersten Ausführungsform darstellt.
  • 2 zeigt Blockdiagramme, die eine schematische Anordnung eines Objektdetektierungsabschnitts gemäß der ersten Ausführungsform darstellen.
  • 3 zeigt eine Millimeterwellen-Detektionsposition und monokulare Bilddetektionsränder in Beziehung zu einem Bild, das durch einen monokularen Bildsensor aufgenommen wurde.
  • 4 zeigt ein Detektionsergebnis, das erhalten wird, wenn ein Hindernis durch Verwendung eines Millimeterwellenradars und eines Stereobildsensor detektiert wird.
  • 5 zeigt ein Detektionsergebnis, das erhalten wird, wenn ein Hindernis durch Verwendung eines Millimeterwellenradars und des monokularen Bildsensors detektiert wird.
  • 6 zeigt Näherungslinien für den geometrischen Ort von einem rechten und einem linken Rand, die für die Ränder der monokularen Bilddetektion gemäß der ersten Ausführungsform hergeleitet werden.
  • 7 zeigt die Beziehung zwischen den Näherungslinien des geometrischen Orts des ausgewählten Randes, des prognostizieren zukünftigen geometrischen Ortes, der Kollisionsposition und der lateralen Position des Zielmittelpunkts gemäß der ersten Ausführungsform.
  • 8 zeigt ein Flussdiagramm, das einen Teil eines Kollisionsbeurteilungsflusses gemäß der ersten Ausführungsform darstellt.
  • 9 zeigt ein Flussdiagramm, das einen Teil des Kollisionsbeurteilungsflusses gemäß der ersten Ausführungsform darstellt.
  • 10 zeigt ein Blockdiagramm, das eine schematische Anordnung eines Objektdetektionsbereichs gemäß einer zweiten Ausführungsform darstellt.
  • 11 zeigt ein Detektionsergebnis, das erhalten wird, wenn ein Hindernis durch Verwendung eines Millimeterwellenradars und eines monokularen Bildsensors erfasst wird.
  • 12 zeigt Näherungslinien des geometrischen Ortes des rechten und des linken Randes, die für die Ränder der monokularen Bilddetektion hergeleitet werden, gemäß der zweiten Ausführungsform.
  • 13 zeigt die Beziehung zwischen der Näherungslinie des geometrischen Ortes des ausgewählten Randes, des prognostizierten zukünftigen geometrischen Ortes, der Kollisionsposition und der lateralen Position des Zielmittelpunktes gemäß der zweiten Ausführungsform.
  • 14 zeigt ein Flussdiagramm, das einen Teil einer Kollisionsbeurteilungsflusses gemäß der zweiten Ausführungsform darstellt.
  • Art und Weise des Ausführens der Erfindung
  • Nachstehend erfolgt unter Bezugnahme auf die Zeichnung eine Erläuterung bestimmter Ausführungsformen der vorliegenden Erfindung. Es sollen aber beispielsweise Größe, Material, Form und relative Anordnung eines beliebigen Bestandteils, der für die Ausführungsform der vorliegenden Erfindung beschrieben wird, den technischen Schutzbereich der Erfindung nicht ausschließlich darauf beschränken, sofern nicht ausdrücklich anderes angegeben ist.
  • <Erste Ausführungsform>
  • Eine Erläuterung der ersten Ausführungsform der vorliegenden Erfindung geschieht unter Bezugnahme auf 1 bis 9.
  • (Schematische Anordnung)
  • In diesem Abschnitt erfolgt eine Erläuterung eines Falles, in dem die vorliegende Erfindung auf einen Kollisionsprognosevorrichtung angewendet wird. 1 und 2 zeigen Blockdiagramme, die eine schematische Anordnung der Kollisionsprognosevorrichtung gemäß dieser Ausführungsform darstellen. Die Kollisionsprognosevorrichtung 200 wird auf einem Fahrzeug 100 mitgeführt, wobei es sich dabei um eine Vorrichtung zum Prognostizieren der Kollision zwischen einem Subjektfahrzeug 100 und einem Hindernis handelt, das z. B. ein weiteres Fahrzeug (Objektfahrzeug), ein Fußgänger oder Spaziergänger sein kann. Eine Warnvorrichtung 8 und ein Kollisionsschutz-/Kollisionsschadensbegrenzungssystem 9, die betätigt werden, wenn die Kollision mit dem Hindernis prognostiziert wird, werden neben der Kollisionsprognosevorrichtung 200 in dem Fahrzeug 100 mitgeführt.
  • Die Kollisionsprognosevorrichtung 200 weist einen Millimeterwellenradar 1, einen monokularen Bildsensor 2, einen Lenkwinkelsensor 3, einen Gierratensensor 4, einen Radpulssensor 5 und eine ECU 10 auf. Der Millimeterwellenradar 1 ist an einem vorderen mittleren Bereich des Fahrzeugs 100 angebracht. Das Millimeterwellenradar 1 führt den Abtastvorgang bzw. den Scanvorgang in der horizontalen Richtung mit einer elektromagnetischen Welle in einem Millimeterwellenband für alles aus, was sich in der Vorwärtsrichtung und der Schrägorwärtsrichtung des Fahrzeugs 100 befindet. Zudem empfängt das Millimeterwellenradar 1 die elektromagnetische Welle, die durch eine Oberfläche eines außerhalb des Fahrzeugs befindlichen Objekts reflektiert wird. Dementsprechend erkennt das Millimeterwellenradar 1 ein Ziel als einen Reflexionspunkt der elektromagnetischen Welle. Die Zielinformationen (z. B. die relative Position des Ziels in Bezug auf das Subjektfahrzeug 100), die von den Sende-/Empfangsdaten der Millimeterwelle erfasst oder erhalten werden, werden in die ECU 10 eingegeben.
  • Der monokulare Bildsensor 2 ist an einem vorderen mittleren Bereich des Fahrzeugs 100 angebracht. Der monokulare Bildsensor 2 fotografiert oder nimmt das Bild in der Vorwärtsrichtung und der Schrägvorwärtsrichtung des Fahrzeugs 100 auf. Das aufgenommene Bild wird als ein Bildsignal in die ECU 10 eingegeben.
  • Der Lenkwinkelsensor 3 ist z. B. an einer Lenkstange des Fahrzeugs 100 angebracht. Der Lenkwinkelsensor 3 erfasst den Lenkwinkel des durch einen Fahrer gesteuerten Lenkrads. Der Gierratensensor 4 ist an einer mittleren Position der Karosserie des Fahrzeugs 100 vorgesehen. Der Gierratensensor 4 erfasst die auf die Karosserie einwirkende Gierrate. Der Radpulssensor 5 ist an einem Bereich des Rads des Fahrzeugs 100 angebracht. Der Radpulssensor 5 erfasst die Radgeschwindigkeit des Fahrzeugs. Die Ausgangssignale der Sensoren werden in die ECU 10 eingegeben.
  • Die ECU 10 weist einen Objektdetektierungsabschnitt 6 und einen Kollisionsbeurteilungsabschnitt 7 auf. Der Objektdetektierungsabschnitt 6 detektiert das Hindernis auf Basis der Zielinformationen, die durch das Millimeterwellenradar 1 erfasst wurden, und der Zielinformationen, die von dem Bild erfasst wurden, das durch den monokularen Bildsensor 2 aufgenommen wurde. Der Kollisionsbeurteilungsabschnitt 7 beurteilt, ob das durch den Objektdetektierungsabschnitt 6 detektierte Hindernis und das Subjektfahrzeug 100 miteinander kollidieren. Einzelheiten über das Objektdetektierungsverfahren, das in dem Objektdetektierungsabschnitt 6 ausgeführt wird, sowie das Kollisionsbeurteilungsverfahren, das in dem Kollisionsbeurteilungsabschnitt 7 ausgeführt wird, werden an späterer Stelle angeführt.
  • 2 zeigt Blockdiagramme, die eine schematische Anordnung des Objektdetektierungsabschnitts 6 gemäß dieser Ausführungsform darstellen. Wie in 2(a) gezeigt ist, weist der Objektdetektierungsabschnitt 6 einen Randdetektierungsabschnitt 61, einen Abschnitt 62 zum Herleiten einer Näherungslinie des geometrischen Ortes, einen Auswählabschnitt 63 und einen Abschnitt 64 zum Herleiten einer lateralen Position auf. Wie in 2(b) gezeigt ist, weist der Abschnitt 64 zum Herleiten der lateralen Position einen Abschnitt 641 zum Prognostizieren des geometrischen Ortes, einen Abschnitt 642 zum Prognostizieren einer Kollisionsposition, einen Abschnitt 643 zum Schätzen einer lateralen Breite und einen Abschnitt 644 zum Herleiten einer lateralen Position des Zielmittelpunkts auf. Einzelheiten über die jeweiligen Abschnitte 61 bis 64 und 641 bis 644 sind der Beschreibung an späterer Stelle zu entnehmen.
  • Die ECU 10 weist ferner Berechnungsabschnitte zum Berechnen verschiedener Parameter auf, die erforderlich sind, um die Kollision in dem Kollisionsbeurteilungsabschnitt zu beurteilen, wobei diese Abschnitte beispielsweise einen Abschnitt zum Berechnen eines geschätzten Kurvenradius, einen Abschnitt zum Berechnen einer Geschwindigkeit des Subjektfahrzeugs, einen Abschnitt zum Berechnen des Fahrbahnverlaufs bzw. des Orbits des Subjektfahrzeugs, einen Abschnitt zum Berechnen der Geschwindigkeit des Hindernisses und einen Abschnitt zum Berechnen einer durch das Hindernis zurückgelegten Entfernung (nicht gezeigt) beinhaltet. Der Abschnitt zum Berechnen des geschätzten Kurvenradius berechnet z. B. den geschätzten Kurvenradius des Subjektfahrzeugs 100 auf Basis des Lenkwinkelsignals, das von dem Lenkwinkelsensor 3 eingegeben wird, des Gierratensignals, das von dem Gierratensensor 4 eingegeben wird. Der Subjektfahrzeugs-Geschwindigkeitsberechnungsabschnitt berechnet die Fahrzeuggeschwindigkeit des Subjektfahrzeugs 100 auf Basis des Radgeschwindigkeitssignals, das von dem Radpulssensor 5 eingegeben wird. Der Abschnitt zum Berechnen des Fahrbahnverlaufs des Subjektfahrzeugs berechnet den Fahrbahnverlauf des Subjektfahrzeugs 100 auf Basis des geschätzten Kurvenradiussignals, das von dem Abschnitt zum Berechnen des geschätzten Kurvenradius eingegeben wird. Der Abschnitt zum Berechnen der Hindernisgeschwindigkeit berechnet die Bewegungsgeschwindigkeit des Hindernisses, das durch den Objektdetektierungsabschnitt 6 auf Basis der Zielinformationen detektiert wird. Der Abschnitt zum Berechnen der durch das Hindernis zurückgelegten Entfernung berechnet die zurückgelegte Strecke nach der Detektierung des durch den Objektdetektierungsabschnitt 6 auf Basis der Zielinformationen detektierten Hindernisses.
  • Wenn durch den Kollisionsbeurteilungsabschnitt 7 beurteilt wird, dass das Subjektfahrzeug mit dem Hindernis kollidieren wird, wird das EIN-Signal von der ECU 10 an die Warnvorrichtung 8 und das Kollisionsschutz-/Kollisionsschadensbegrenzungssystem 9 übertragen. Wenn die Warnvorrichtung 8 das EIN-Signal empfängt, wird der Fahrer durch die Warnvorrichtung 8 mittels Sprache und/oder Hinweis auf einer Monitoranzeige gewarnt. Wenn das Kollisionsschutz-/Kollisionsschadensbegrenzungssystem das EIN-Signal empfängt, führt das Kollisionsschutz-/Kollisionsschadensbegrenzungssystem 8 die Kollisionsschutzsteuerung und/oder die Kollisionsschadensbegrenzungssteuerung aus. Als Beispiele für das Kollisionsschutz-/Kollisionsschadensbegrenzungssystem sind ein automatisches Lenksystem, ein Sicherheitsgurt-Regelungssystem, ein Sitzpositions-Regelungssystem, ein Brernsregelungssystem und ein Airbag-Steuerungssystem zu nennen.
  • (Verfahren zum Herleiten einer lateralen Position)
  • Der Objektdetektierungsabschnitt 6 der ECU 10 der Kollisionsprognosevorrichtung 200 leitet die laterale Position des Hindernisses her, um die laterale Position zur Beurteilung der Kollision in dem Kollisionsbeurteilungsabschnitt 7 heranzuziehen. Nachstehend erfolgt unter Bezugnahme auf 3 und 7 eine Erläuterung eines Verfahrens zum Herleiten der lateralen Position des Hindernisses gemäß dieser Ausführungsform.
  • Wie vorstehend beschrieben detektiert der Objektdetektierungsabschnitt 6 das Hindernis auf Basis der Zielinformationen, die durch das Millimeterwellenradar 1 erfasst werden, und der Zielinformationen, die von dem durch den monokularen Bildsensor 2 aufgenommenen Bild erfasst werden. Wenn das Millimeterwellenradar 1 verwendet wird, kann die relative Position des Ziels in Bezug auf das Subjektfahrzeug 100 detektiert werden. Für das Millimeterwellenradar 1 ist es jedoch schwierig, den Rand des Ziels hoch genau zu detektieren. Im Hinblick darauf wird in dieser Ausführungsform der Rand des Ziels durch Verwendung des Bildes detektiert, das durch den monokularen Bildsensor 2 aufgenommen wurde.
  • Insbesondere dient der Randdetektierungsabschnitt 61 des Objektdetektierungsabschnitts 6 dazu, das Ziel entsprechend dem Ziel zu extrahieren, das durch das Millimeterwellenradar 1 erkannt wurde, d. h. dem Ziel, das an der Position des Ziels existiert, das durch den Millimeterwellenradar 1 anhand des Bildes, das durch den monokularen Bildsensor 2 aufgenommen wurde, detektiert wird (wobei diese Position nachstehend gelegentlich als „Millimeterwellendetektions-Position” bezeichnet wird). Zudem werden der rechte Rand und der linke Rand des Ziels anhand des Bildes des extrahierten Ziels detektiert (wobei der Rand nachstehend gelegentlich als ein „Monokularbilddetektionsrand” bezeichnet wird).
  • Dennoch ist es jedoch schwierig, von dem Bild, das durch den monokularen Bildsensor 2 aufgenommen wurde, korrekte Informationen (Abstand) in der distalen Richtung zu erfassen. Wenn daher der linke und der rechte Rand des Ziels von dem Bild detektiert werden, das durch den monokularen Bildsensor 2 aufgenommen wurde, wird ein beliebiger Rand eines Objekts oder einer Struktur, das bzw. die aus Sicht des Subjektfahrzeugs 100 tatsächlich entfernt bzw. distal von dem Ziel existiert, in manchen Fällen fälschlicherweise als der Rand des Ziels detektiert.
  • 3 zeigt eine Millimeterwellen-Detektionsposition und Monokularbilddetektionsränder in Bezug auf ein Bild, das durch den Monokularbildsensor aufgenommen oder fotografiert wurde. 3(a) zeigt einen Fall, in dem die Ränder des Ziels normal detektiert werden, und 3(b) zeigt einen Fall, in dem der Rand des Ziel falsch detektiert wird. In 3(a) und 3(b) handelt es sich bei dem Ziel um den „proximalen Strommasten”. Wie in 3(b) gezeigt ist, wird der Rand des „distalen Strommastens” gelegentlich fälschlicherweise als der Rand des „proximalen Strommasten” detektiert, wenn die Ränder anhand des Bildes detektiert werden, das durch den monokularen Bildsensor aufgenommen wurde.
  • Unter Bezugnahme auf 4 wird nun ein Detektionsergebnis erläutert, das erhalten wird, wenn im Gegensatz zu der Ausführungsform der vorliegenden Erfindung das Hindernis durch Verwendung des Millimeterwellenradars und eines Stereobildsensors detektiert wird. Auch in diesem Fall wird das Ziel, das an der Millimeterwellen-Detektionsposition existiert, aus einem Bild extrahiert, das durch den Stereobildsensor aufgenommen oder fotografiert wurde. Der rechte Rand und der linke Rand des Ziels werden anhand des Bildes des extrahierten Ziels detektiert (wobei die Ränder gelegentlich als „Stereobilddetektionsränder” bezeichnet werden). 4 zeigt die zeitabhängige Positionsveränderung der Millimeterwellendetektions-Position und des Stereobilddetektions-Randes in Bezug auf das Subjektfahrzeug, wenn der „proximale Strommast” das Ziel ist. In 4 zeigt die Zeichnung, in der t = n + 1 gegeben ist, die Situation, die 50 ms nach der Situation erhalten wird, die in der Zeichnung gezeigt ist, in der t = n gegeben ist, In der Zeichnung, in der t = 4 gegeben ist, zeigt der weiße Pfeil den geometrischen Ort des Ziels an, das auf Basis der Millimeterwellendetektions-Position und des Stereobilddetektions-Randes hergeleitet wird.
  • Die Erfassung korrekter Informationen in der distalen Richtung ist aber anhand des Bildes, das durch den Stereobildsensor aufgenommen wurde, möglich. Wenn somit der Rand von dem Bild detektiert wird, das durch den monokularen Bildsensor aufgenommen wurde, dann wird, selbst wenn der „distale Strommast” im Vergleich zu dem „proximalen Strommast” in der Ferne bzw. distal existiert, der Rand des „distalen Strommastens” nicht fälschlicherweise als der Rand des „proximalen Strommastens” detektiert, wie in 4 gezeigt ist.
  • Daher kann die laterale Position des Zielmittelpunkts auf Basis des Stereobilddetektions-Randes hoch genau hergeleitet werden. Wie in der Zeichnung gezeigt ist, in der t = 4 gegeben ist, kann daher der geometrische Ort des Ziels auf Basis der Millimeterwellendetektions-Position und der Stereobilddetektions-Ränder hoch genau hergeleitet werden. Dabei ist eine hoch genaue Prognose des zukünftigen geometrischen Ortes des Ziels ebenfalls möglich.
  • Unter Bezugnahme auf 5 wird demgegenüber das Detektionsergebnis erläutert, das erhalten wird, wenn das Hindernis durch Verwendung des Millimeterwellenradars und des monokularen Bildsensors detektiert wird, wie es in dieser Ausführungsform der Fall ist. 5 zeigt die zeitabhängige Positionsveränderung der Millimeterwellendetektions-Position und des Monokularbilddetektions-Randes in Bezug auf das Subjektfahrzeug, wenn es sich bei dem Ziel um den „proximalen Strommasten” handelt. Genauso wie in 4 zeigt die Zeichnung nach 5, in der t = n + 1 gegeben ist, die Situation, die 50 ms nach der Situation vorliegt, die in der Zeichnung dargestellt ist, in der t = n gegeben ist. In der Zeichnung, in der t = 5 gegeben ist, zeigt der weiße Pfeil den geometrischen Ort des Ziels an, das auf Basis der Millimeterwellendetektions-Position und des Monokularbilddetektions-Randes hergeleitet wurde.
  • Wenn der Rand wie vorstehend beschrieben anhand des Bildes detektiert wird, das durch den monokularen Bildsensor aufgenommen wurde, wird der Rand des „distalen Strommasten” in manchen Fällen fälschlicherweise als der Rand des „proximalen Strommastens” detektiert. Dementsprechend ist eine hochgenaue Herleitung der lateralen Position des Zielmittelpunkts Basis des Monokularbilddetektions-Randes schwierig. Wenn daher der geometrische Ort des Ziels auf Basis der Millimeterwellendetektions-Positionen und der Monokularbilddetektions-Ränder hergeleitet wird, wird der geometrische Ort in manchen Fällen wie in der Zeichnung dargestellt, in der t = 5 gegeben ist, fehlerhaft hergeleitet. In so einer Situation ist zudem auch eine hochgenaue Prognose des zukünftigen geometrischen Ortes des Zieles schwierig.
  • Wenn die Kollision zwischen dem Subjektfahrzeug 100 und dem Ziel in dem Kollisionsbeurteilungsabschnitt 7 auf Basis des falsch prognostizierten geometrischen Ortes des Ziels beurteilt wird, steht zu befürchten, dass es zu einer fehlerhaften Beurteilung kommt. Dementsprechend erfolgt in dieser Ausführungsform der anschließende Vorgang zum Herleiten der lateralen Position für das Bild, das durch den monokularen Bildsensor 2 aufgenommen wurde, um die laterale Position des Ziels herzuleiten, die für die Kollisionsbeurteilung in dem Kollisionsbeurteilungsabschnitt 7 verwendet werden soll. 6 und 7 zeigen Bilder des Vorgangs zum Herleiten der lateralen Position gemäß dieser Ausführungsform.
  • Wie in 6 gezeigt ist, werden in dem Vorgang zum Herleiten der lateralen Position gemäß dieser Ausführungsform die Näherungslinien des geometrischen Ortes, bei denen es sich um Geraden oder vorbestimmte gekrümmte Linien zum Nähern der geometrischen Örter des rechten Randes bzw. des linken Randes handelt, für die Mehrzahl der monokularen Bilddetektionsränder, die durch den Randdetektierungsabschnitt 61 jedes Mal detektiert werden, wenn eine vorbestimmte Zeitspanne verstrichen ist (jedes Mal, wenn in dieser Ausführungsform 50 ms verstrichen sind) in dem Abschnitt 62 zu Herleiten der Näherungslinien des geometrischen Ortes hergeleitet. 6(a) und 6(b) zeigen jeweils die in 5 detektierten Monokularbilddetektions-Ränder. Eine abwechselnd kurz und lang gezogene Linie in 6(a) zeigt die Näherungslinie des geometrischen Ortes an, die für die linken Ränder hergeleitet wurde. Eine abwechselnd lang und kurz gezogene Link, die in 6(b) gezeigt ist, zeigt die Näherungslinie des geometrischen Ortes, die für die rechten Ränder hergeleitet wurde. Im Vorfeld wurde dazu ein Verfahren zum Herleiten der Näherungslinie des geometrischen Ortes festgelegt bzw. bestimmt. In diesem Fall ist die Verwendung eines bekannten Verfahrens zulässig, wie beispielsweise die Methode der kleinsten Quadrate und die Spline-Interpolation. Unter der „vorbestimmten Kurve” ist die Kurve zu verstehen, die gemäß dem zuvor festgelegten Näherungsverfahren hergeleitet wurde.
  • Wie in 6(a) gezeigt ist, ist zu beachten, dass alle linken Ränder normal detektiert werden. Daher existieren alle fünf Ränder auf der Näherungslinie des geometrischen Ortes. Wie hingegen in 6(b) zu sehen ist, gehören die Ränder, die falsch detektiert wurden, zu den rechten Rändern. Somit existieren nur die drei der fünf Ränder auf der Näherungslinie des geometrischen Ortes. Bei dieser Vorgehensweise wird der Rand, der innerhalb eines vorbestimmten zulässigen Bereichs von der Näherungslinie des geometrischen Ortes existiert, unter der Annahme mitgezählt, dass der Rand auf der Näherungslinie des geometrischen Ortes existiert, auch wenn der Rand sich nicht an der Position befindet, die mit der Näherungslinie des geometrischen Ortes vollständig übereinstimmt. In 6(a) und 6(b) markieren die eingekreisten Ränder die „Ränder, die auf der Näherungslinie des geometrischen Ortes existieren”.
  • In anderen Worten kann bestimmt werden, dass der Rand, der die größere Anzahl von Rändern aufweist, die auf der Näherungslinie des geometrischen Ortes existieren, im Vergleich zu dem Rand, der die kleinere Anzahl von Rändern aufweist, die auf der Näherungslinie des geometrischen Ortes existieren, die höhere Zuverlässigkeit bzw. größere Wichtigkeit aufweist. Demzufolge werden die Wichtigkeiten bzw. Zuverlässigkeiten des rechten Randes und des linken Randes auf Basis der Anzahl der Ränder, die auf den Näherungslinien des geometrischen Ortes existieren, in dem Auswählabschnitt 63 berechnet. Der Rand, der von dem rechten Rand und dem linken Rand ausgewählt wird und die höhere Zuverlässigkeit aufweist (d. h. der Rand, der die größere Anzahl von Rändern aufweist, die auf der Näherungslinie des geometrischen Ortes existieren (linker Rand in 6)), wird als der echte Rand des Ziels ausgewählt.
  • In dem Abschnitt 64 zum Herleiten der lateralen Position wird die laterale Position des Ziels anhand der Position des Randes hergeleitet (der nachstehend gelegentlich als „ausgewählter Rand” bezeichnet wird), der als der echte Rand des Ziels in dem Auswählabschnitt 63 ausgewählt wird. Wie in 7 gezeigt ist, wird insbesondere der zukünftige geometrische Ort des ausgewählten Randes (linker Rand in 7) zunächst auf Basis der bisherigen Näherungslinie des geometrischen Ortes in dem Abschnitt 641 zum Prognostizieren des geometrischen Ortes prognostiziert. In 7 stellt den Pfeil, der durch die abwechselnd lang und kurz gezogenen Linie angezeigt wird, die bisherige Näherungslinie des geometrischen Ortes und den prognostizierten zukünftigen geometrischen Ort des ausgewählten Randes dar.
  • Anschließend wird in dem Kollisionspositions-Prognoseabschnitt 642 die Kollisionsposition zwischen dem Ziel und dem Subjektfahrzeug 100 als die Position, an der der Abstand in der von vorne nach hinten verlaufenden Richtung zwischen dem ausgewählten Rand und dem Subjektfahrzeug 100 null beträgt, auf Basis des zukünftigen geometrischen Ortes des ausgewählten Randes, der in dem Abschnitt 641 zum Prognostizieren des geometrischen Ortes prognostiziert wurde, und des Fahrbahnverlaufs des Subjektfahrzeugs 100, der in dem Abschnitt der ECU 10 zum Berechnen des Fahrbahnverlaufs des Subjektfahrzeugs berechnet wurde, prognostiziert. In 7 wird die Kollisionsposition durch eine gestrichelte Linie angezeigt.
  • Zudem wird in dem Abschnitt 64 zum Herleiten der lateralen Position die laterale Breite Wt des Ziels in dem Abschnitt 643 zum Schätzen der lateralen Breite geschätzt. In diesem Fall kann jedes bekannte Verfahren als Verfahren zum Schätzen der lateralen Breite verwendet werden. Als Beispiel dafür ist ein Verfahren zu nennen, in dem der durchschnittliche Wert der lateralen Breiten des Ziels, das von den Monokularbilddetektions-Rändern hergeleitet wird, als die laterale Breite Wt des Ziels berechnet wird, sowie ein Verfahren, in dem die laterale Breite Wt des Ziels auf Basis der Art des Zieles hergeleitet wird, das anhand der Intensität bzw. Stärke der empfangenen Welle in dem Millimeterwellenradar 1 geschätzt wird.
  • In dem Abschnitt 644 zum Herleiten der lateralen Position des Zielmittelpunkts wird die laterale Position des Zielmittelpunkts hergeleitet, die sich an der Kollisionsposition befindet, die in dem Abschnitt 642 zum Prognostizieren der Kollisionsposition prognostiziert wird. Insbesondere wird die Position, die zu dem anderen Rand (rechten Rand in 7) um ½ der lateralen Breite Wt des Ziels abweicht, die in dem Abschnitt 643 zum Schätzen der lateralen Breite anhand der Position des ausgewählten Randes an der Kollisionsposition geschätzt wird, als die laterale Position des Zielmittelpunkts an der Kollisionsposition hergeleitet. In 7 stellt die Position, die durch das weiße Dreieck angezeigt wird, die laterale Position des Zielmittelpunkts an der Kollisionsposition dar.
  • Gemäß des vorstehend beschriebenen Verfahrens zum Herleiten der lateralen Position wird der Rand, der in dem rechten Rand und dem linken Rand der Monokularbilddetektions-Ränder beinhaltet ist und die höhere Zuverlässigkeit aufweist, als der echte Rand des Ziels ausgewählt. Zudem wird die laterale Position des Zielmittelpunkts an der Kollisionsposition auf Basis der Position des Randes mit der höheren Zuverlässigkeit hergeleitet. Auch wenn somit als Bildsensor der monokulare Bildsensor verwendet wird, kann die laterale Position des Zielmittelpunkts an der Kollisionsposition hochgenau hergeleitet werden.
  • Im Abschnitt 7 zum Beurteilen der Kollision wird die Kollisionsbeurteilung auf Basis der lateralen Position des Zielmittelpunkts an der Kollisionsposition ausgeführt, die in dem Objektdetektionsabschnitt 6 hergeleitet wurde. Dementsprechend kann mit noch höherer Genauigkeit genauer beurteilt werden, ob das Subjektfahrzeug 100 und das Hindernis mit einander kollidieren.
  • (Kollisionsbeurteilungsfluss)
  • Unter Bezugnahme auf das in 8 und 9 gezeigte Flussdiagramm erfolgt eine Erläuterung eines Flusses der Kollisionsbeurteilung für das Subjektfahrzeug und das Hindernis gemäß dieser Ausführungsform. Dieser Fluss wird durch die ECU 10 in vorbestimmten Intervallen immer wieder ausgeführt.
  • In diesem Fluss wird zunächst in Schritt S101 das Ziel, das an der Millimeterwellendetektions-Position existiert, aus dem Bild extrahiert, das durch den monokularen Bildsensor 2 aufgenommen wurde.
  • Anschließend werden in Schritt S102 der rechte Rand und der linke Rand von dem Bild des Ziels detektiert, das in Schritt S101 extrahiert wurde. Die Vorgänge in Schritt S101 und S102 werden durch den Randdetektierungsabschnitt 61 ausgeführt.
  • Anschließend werden in Schritt S103 die Näherungslinien des geometrischen Ortes für jeweils den rechten Rand und den linken Rand in Beziehung zu der Mehrzahl der Monokularbilddetektions-Ränder hergeleitet, die in Schritt S102 detektiert werden. Der Vorgang in Schritt S103 wird durch den Abschnitt 62 zum Herleiten der Näherungslinie des geometrischen Ortes ausgeführt.
  • Anschließend werden in Schritt S104 die Zuverlässigkeiten des rechten Randes und des linken Randes anhand der Anzahl der Ränder berechnet, die auf den Näherungslinien des geometrischen Ortes existieren, die in Schritt S103 hergeleitet wurden.
  • Anschließend wird in Schritt S105 der Rand, bei dem es sich entweder um den rechten Rand oder den linken Rand handelt und der die höhere Zuverlässigkeit aufweist, die in Schritt S104 berechnet wrude, als der echte Rand des Ziels ausgewählt. Die Vorgänge in den Schritten S104 und S105 werden durch den Auswählabschnitt 63 ausgeführt.
  • Anschließend wird in Schritt S106 der zukünftige geometrische Ort des ausgewählten Randes prognostiziert, der in Schritt S105 ausgewählt wurde. Der Vorgang in Schritt S106 wird durch den Abschnitt 641 zum Prognostizieren des geometrischen Ortes ausgeführt.
  • Anschließend wird in Schritt S107 die Kollisionsposition zwischen dem Ziel und dem Subjektfahrzeug 100 auf Basis des zukünftigen geometrischen Ortes des ausgewählten Randes, der in Schritt S106 prognostiziert wurde, und des Fahrbahnverlaufs des Subjektfahrzeuges 100, der in dem Abschnitt zum Berechnen des Fahrbahnverlaufs des Subjektfahrzeugs berechnet wurde, prognostiziert. Der Vorgang in Schritt S107 wird durch den Abschnitt 642 zum Prognostizieren der Kollisionsposition ausgeführt.
  • Anschließend wird in Schritt S108 die laterale Breite Wt des Ziels geschätzt. Der Vorgang in Schritt S108 wird durch den Abschnitt 643 zum Schätzen der lateralen Breite ausgeführt.
  • Anschließend wird in Schritt S109 die Position, die zu dem anderen Rand um der lateralen Breite Wt des Ziels abweicht, die in Schritt S108 geschätzt wurde, als die laterale Position des Zielmittelpunkts an der Kollisionsposition anhand der Position des ausgewählten Randes an der Kollisionsposition, die in Schritt S107 prognostiziert wurde, hergeleitet. Der Vorgang in Schritt S109 wird durch den Abschnitt 644 zum Herleiten der lateralen Position des Zielmittelpunkts ausgeführt.
  • Anschließend wird in Schritt S110 die Kollisionswahrscheinlichkeit Pc zwischen dem Ziel und dem Subjektfahrzeug 100 auf Basis der lateralen Position des Zielmittelpunkts an der Kollisionsposition berechnet, die in Schritt S109 hergeleitet wurde.
  • Anschließend wird in Schritt S111 beurteilt, ob die Kollisionswahrscheinlichkeit Pc, die in Schritt S110 berechnet wird, geringer als die Referenzwahrscheinlichkeit Pcbase ist oder nicht. In diesem Fall handelt es sich bei der Referenzwahrscheinlichkeit Pcbase um den Wert, der als der Schwellwert voreingestellt wird, bei dem beurteilt werden soll, ob das Ziel und das Subjektfahrzeug 100 miteinander kollidieren.
  • Wenn in Schritt S111 eine positive Beurteilung erfolgt, wird anschließend in Schritt S112 beurteilt, dass das Ziel und das Subjektfahrzeug 100 miteinander kollidieren. Wenn hingegen in Schritt S111 eine negative Beurteilung erfolgt, wird anschließend in Schritt S113 beurteilt, dass das Ziel und das Subjektfahrzeug 100 nicht miteinander kollidieren. Die Vorgänge in Schritt S110 und S113 werden durch den Kollisionsbeurteilungsabschnitt 7 ausgeführt. Wenn in Schritt S112 beurteilt wird, dass das Ziel und das Subjektfahrzeug 100 miteinander kollidieren, sendet der Kollisionsbeurteilungsabschnitt 7 das EIN-Signal an die Warnvorrichtung 8 und das Kollisionsschutz-/Kollisionsschadensbegrenzungssystem 9.
  • (Zusammenhang zwischen den wesentlichen Elementen dieser Ausführungsform und den grundlegenden Anforderungen der vorliegenden Erfindung)
  • In dieser Ausführungsform entspricht der Objektdetektionsabschnitt 6 der Objektdetektionsvorrichtung gemäß der vorliegenden Erfindung. Die Beziehung bzw. der Zusammenhang zwischen den wesentlichen Elementen des Objektdetektionsabschnitts 6 gemäß dieser Ausführungsform und den grundlegenden Anforderungen der vorliegenden Erfindung gestaltet sich folgendermaßen. Gemäß der vorliegenden Erfindung entspricht der Randdetektierungsabschnitt 61 der Randerfassungseinrichtung. Der Abschnitt 62 zum Herleiten der Näherungslinie des geometrischen Ortes entspricht der Einrichtung zum Herleiten der Näherungslinie des geometrischen Ortes gemäß der vorliegenden Erfindung. Der Auswählabschnitt 63 entspricht der Auswähleinrichtung gemäß der vorliegenden Erfindung. Der Abschnitt 64 zum Herleiten der lateralen Position entspricht der Einrichtung zum Herleiten der lateralen Position gemäß der vorliegenden Erfindung. Der Abschnitt 641 zum Prognostizieren des geometrischen Ortes entspricht der Einrichtung zum Prognostizieren des geometrischen Ortes gemäß der vorliegenden Erfindung. Der Abschnitt 642 zum Prognostizieren der Kollisionsposition entspricht der Einrichtung zum Prognostizieren der Kollisionsposition gemäß der vorliegenden Erfindung. Der Abschnitt 643 zum Schätzen der lateralen Breite entspricht der Einrichtung zum Schätzen der lateralen Breite gemäß der vorliegenden Erfindung.
  • In dieser Ausführungsform entsprechen die Schritte S101 und S102 in dem in 8 gezeigten Flussdiagramm dem Randerfassungsschritt gemäß der vorliegenden Erfindung. Schritt S103 in dem in 8 gezeigten Flussdiagramm entspricht dem Schritt zum Herleiten der Näherungslinie des geometrischen Ortes gemäß der vorliegenden Erfindung. Die Schritte S104 und S105 in dem in 8 gezeigten Flussdiagramm entsprechen dem Auswählschritt gemäß der vorliegenden Erfindung. Die Schritte S106 bis S109 in dem in 8 gezeigten Flussdiagramm entsprechen dem Schritt zum Herleiten der lateralen Position gemäß der vorliegenden Erfindung.
  • <Zweite Ausführungsform>
  • Eine erste Ausführungsform der vorliegenden Erfindung wird auf Basis von 10 bis 14 erläutert. In diesem Abschnitt werden nur jene Funkte oder Merkmale erläutert, die sich von denen der ersten Ausführungsform unterscheiden.
  • (Schematische Anordnung)
  • 10 zeigt ein Blockdiagramm, das eine schematische Anordnung eines Objektdetektierungsabschnitts 6 gemäß dieser Ausführungsform darstellt. Wie in 10 dargestellt ist, beinhaltet der Objektdetektierungsabschnitt 6 gemäß dieser Ausführungsform, neben dem Randdetektierungsabschnitt 61, dem Abschnitt 62 zum Herleiten der Näherungslinie des geometrischen Ortes, dem Auswählabschnitt 63 und dem Abschnitt 64 zum Herleiten der lateralen Position, einen Gewichtungsbeimessungsabschnitt 65 und einen Zuverlässigkeitsgesamtwert-Berechnungsabschnitt 66. Einzelheiten zu dem Gewichtungsbeimessungsabschnitt 65 und dem Zuverlässigkeitsgesamtwert-Berechnungsabschnitt 66 sind der Beschreibung an späterer Stelle zu entnehmen.
  • (Verfahren zum Herleiten der lateralen Position)
  • Unter Bezugnahme auf 11 bis 13 wird ein Verfahren zum Herleiten der lateralen Position eines Hindernisses gemäß dieser Ausführungsform wird erläutert. 11 zeigt ein Detektionsergebnis, das erhalten wird, wenn das Hindernis durch Verwendung eines Millimeterwellenradars und eines monokularen Bildsensors gemäß dieser Ausführungsform detektiert wird. 11 zeigt die zeitabhängige Positionsveränderung der Millimeterwellendetektions-Position und des monokularen Bilddetektionsrandes in Bezug auf das Subjektfahrzeug, wenn das Ziel genauso wie in 5 durch einen „proximalen Strommasten” dargestellt wird. In 11 stellt die Zeichnung, in der t = n + 1 gegeben ist, die Situation dar, die nach 50 ms nach der Situation eintritt, die in der Zeichnung dargestellt ist, in der t = n gegeben ist.
  • In dem Fall von 11 existiert im Vergleich zu dem „proximalen Strommasten”. distal bzw. in einiger Entfernung ein „sich fortbewegendes Fahrzeug”. Wenn in dieser Situation der Rand von einem Bild detektiert wird, das durch den monokularen Bildsensor aufgenommen oder fotografiert wurde, wird der Rand des ”sich fortbewegenden Fahrzeugs” in einigen Fällen fälschlicherweise als der Rand des „proximalen Strommasten” detektiert. In 11 wird der rechte Rand durchgehend falsch detektiert. Zu der vorstehend beschriebenen fehlerhaften Detektion kann es auch dann kommen, wenn ein feststehendes Objekt, wie z. B. der „distale Strommasten”, gegenüber dem als Ziel dienenden „proximalen Strommasten” distal existiert, wie dies in dem in 5 gezeigten Fall bewirkt wurde. Die fehlerhafte Detektion wird jedoch tendenziell häufiger verursacht, wenn es sich bei dem Objekt, das im Gegensatz zum Ziel distal existiert, um ein sich bewegendes Objekt, wie z. B. das „sich fortbewegende Fahrzeug”, handelt, das sich in Querrichtung oder lateraler Richtung bewegt.
  • In dieser Ausführungsform wird der nachstehend beschriebene Vorgang zum Herleiten der lateralen Position für das Bild, das durch den monokularen Bildsensor 2 in dem Abschnitt 6 zum Detektieren des Objekts aufgenommen wurde, ausgeführt, um die laterale Position des Ziels herzuleiten, die für die Kollisionsbeurteilung in dem Kollisionsbeurteilungsabschnitt 7 verwendet werden soll. 12 und 13 zeigen Bilder des Vorgangs zum Herleiten der lateralen Position gemäß dieser Ausführungsform.
  • Wie in 12 gezeigt, werden zudem in dem Vorgang zum Herleiten der lateralen Position gemäß dieser Ausführungsform die Näherungslinien für den geometrischen Ort, bei denen es sich um Geraden oder vorbestimmte gekrümmte Linien zum Nähern der geometrischen Örter von jeweils dem rechten Rand und dem linken Rand handelt, für die Mehrzahl der Monokularbilddetektions-Ränder, die durch den Randdetektierungsabschnitt 61 detektiert werden, jedes Mal, wenn eine vorbestimmte Zeitspanne verstrichen ist (jedes Mal, wenn in dieser Ausführungsform 50 ms verstrichen sind), in dem Abschnitt 62 zum Herleiten der Näherungslinie des geometrischen Ortes des Objektdetektionsabschnitts 6 hergeleitet. In 12(a) und 12(b) sind jeweils die Millimeterwellendetektions-Positionen und die Monokularbilddetektions-Ränder gezeigt, die in 11 detektiert wurden. Eine abwechselnd lang und kurz gezogene Linie, die in 12(a) gezeigt ist, zeigt die Näherungslinie des geometrischen Ortes an, die für die linken Ränder hergeleitet wurde. Eine abwechselnd lang und kurz gezogene Linie, die in 12(b) gezeigt ist, zeigt die Näherungslinie des geometrischen Ortes an, die für die rechten Ränder hergeleitet wurde, Ein Verfahren zum Herleiten der Näherungslinie des geometrischen Ortes ist mit jenem gemäß der ersten Ausführungsform identisch oder entspricht demselben.
  • Wenn der rechte Rand jedes Mal bzw. durchgehend, wie in 12(b) gezeigt ist, falsch detektiert wird, existieren selbst im Fall der fehlerhaften Detektion alle fünf Ränder auf der Näherungslinie des geometrischen Ortes genauso wie der normal detektierte linke Rand, der in 12(a) gezeigt ist. Auch in dieser Ausführungsform wird der Rand, der innerhalb eines vorbestimmten zulässigen Bereichs von der Näherungslinie des geometrischen Ortes liegt, selbst wenn der Rand sich nicht an der Position befindet, die mit der Näherungslinie des geometrischen Ortes völlig übereinstimmt, unter der Annahme mitgezählt, dass der Rand auf der Näherungslinie des geometrischen Ortes genauso existiert wie im Fall der ersten Ausführungsform. In 12(a) und 12(b) zeigen die eingekreisten Ränder die „Ränder, die auf der Näherungslinie des geometrischen Ortes existieren” an.
  • Wenn daher die Zuverlässigkeit des Rands auf Basis der Anzahl der Ränder berechnet wird, die auf der Näherungslinie des geometrischen Ortes existieren, entspricht die Zuverlässigkeit des Randes, der jedes Mal bzw. durchgehend normal detektiert wird, der Zuverlässigkeit des Randes, der jedes Mal falsch bzw. fehlerhaft detektiert wird. In einer solchen Situation gestaltet es sich schwierig, den echten Rand des Zieles mit Hilfe des Vorgangs zum Herleiten der lateralen Position gemäß der ersten Ausführungsform auszuwählen.
  • Im Hinblick auf die vorstehenden Angaben wird in dem Vorgang zum Herleiten der lateralen Position gemäß dieser Ausführungsform die Gewichtung der Zuverlässigkeit in dem Gewichtungsbeimessungsabschnitt 65 auf Basis des Abstands von der Millimeterwellendetektions-Position für jeweils den rechten und den linke Rand, die durch den Randdetektierungsabschnitt 61 detektiert wurden, beigemessen. Bei dieser Vorgehensweise ist die Wahrscheinlichkeit für den von der Millimeterwellendetektions-Position weit entfernten Rand so hoch, dass er im Vergleich zu dem Rand, der nahe der Millimeterwellendetektions-Position angeordnet ist, falsch detektiert wird. Der Gewichtungsbeimessungsabschnitt 65 misst daher dem rechten Rand und dem linken Rand die Gewichtung so bei, dass der Rand, der näher an der Millimeterwellendetektions-Position angeordnet ist, die höhere Zuverlässigkeit aufweist.
  • Zudem berechnet der Abschnitt 66 zum Berechnen des Zuverlässigkeitsgesamtwertes die Gesamtwerte der Zuverlässigkeiten in Beziehung zu den beiden Rändern, so dass die Mehrzahl der Zuverlässigkeiten, denen durch den Gewichtungsbeimessungsabschnitt 65 die Gewichtungen beigemessen werden, für jeweils den rechten und den linken Rand zusammengerechnet werden.
  • Liegt dann die Situation vor, die in 12 gezeigt ist, sind die linken Ränder im Vergleich zu den rechten Rändern in Bezug auf alle fünf Ränder näher an der Millimeterwellendetektions-Position angeordnet. Bei dieser Vorgehensweise wird angenommen, dass die Gewichtung, die jenen beigemessen wird, die näher an der Millimeterwellendetektions-Position angeordnet ist, 1,1 Punkte beträgt, und dass die Gewichtung, die jenen beigemessen wird, die von der Millimeterwellendetektions-Position weiter entfernt sind, 0,9 Punkte in Bezug auf die rechten und die linken Ränder beträgt, Unter dieser Annahme beträgt der Gesamtwert der Zuverlässigkeiten der linken Ränder 5, 5 Punkte und der Gesamtwert der Zuverlässigkeiten der rechten Ränder 4, 5 Punkte.
  • In dem Auswählabschnitt 63 wird der Rand (linke Rand in 12), der in dem rechten Rand und dem linken Rand beinhaltet ist und den größeren Gesamtwert der in dem Abschnitt 66 zum Berechnen des Zuverlässigkeitsgesamtwerts berechneten Zuverlässigkeiten aufweist, als der echte Rand des Ziels ausgewählt. Selbst wenn dementsprechend ein Rand durchgehend fehlerhaft bzw. falsch detektiert wird, wie in 11 gezeigt ist, kann der Rand, der die höhere Zuverlässigkeit aufweist, als von dem rechten und dem linken Rand in Bezug auf die Monokularbilddetektions-Ränder der echte Rand des Ziels ausgewählt werden.
  • In dieser Ausführungsform wird die laterale Position des Ziels gemäß dem gleichen oder einem ihm entsprechenden Verfahren wie jenem der ersten Ausführungsform auf Basis der Position des ausgewählten Randes, der wie oben beschrieben in dem Abschnitt 64 zum Herleiten der lateralen Position hergeleitet wurde. Das heißt, dass der zukünftige geometrische Ort des ausgewählten Randes, wie in 13 gezeigt ist, in dem Abschnitt 641 zum Prognostizieren des geometrischen Ortes prognostiziert wird. Anschließend wird die Kollisionsposition zwischen dem Ziel und dem Subjektfahrzeug 100 in dem Abschnitt 642 zum Prognostizieren der Kollisionsposition prognostiziert. Zudem wird die laterale Breite Wt des Ziels in dem Abschnitt 643 zum Schätzen der lateralen Breite geschätzt. Die laterale Position des Zielmittelpunkts an der Kollisionsposition wird in dem Abschnitt 644 zum Herleiten der lateralen Position des Zielmittelpunkts hergeleitet. In 13 stellt der Pfeil, der durch eine abwechselnd lang und kurz gezogene Linie angezeigt wird, die bisherige Näherungslinie des geometrischen Ortes und den prognostizierten zukünftigen geometrischen Ort des ausgewählten Randes dar, eine gestrichelte Linie stellt die Kollisionsposition dar, und die durch ein weißes Dreieck angezeigte Position stellt genauso wie in 7 die laterale Position des Zielmittelpunkts an der Kollisionsposition dar.
  • Die laterale Position des Zielmittelpunkts an der Kollisionsposition wird ebenfalls auf Basis der Position des Randes hergeleitet, der die höhere Zuverlässigkeit aufweist und von dem rechten Rand und dem linken Rand der Monokularbilddetektions-Ränder genauso wie in der ersten Ausführungsform mittels des vorstehend beschriebenen Verfahrens zum Herleiten der lateralen Position ausgewählt wurde. Selbst wenn somit als der Bildsensor der monokulare Bildsensor verwendet wird, kann die laterale Position des Zielmittelpunkts an der Kollisionsposition mit hoher Genauigkeit hergeleitet werden.
  • (Kollisionsbeurteilungsfluss)
  • Unter Bezugnahme auf das in 14 gezeigte Flussdiagramm wird ein Fluss der Kollisionsbeurteilung für das Subjektfahrzeug und das Hindernis gemäß dieser Ausführungsform erläutert. Dieser Fluss wird durch die ECU 10 wiederholt in vorbestimmten Intervallen ausgeführt. In diesem Fluss ist das in 8 gezeigte Flussdiagramm um die Schritte S201 bis S203 ergänzt worden, Dementsprechend werden nur die Schritt S201 bis S203 erläutert und auf eine Erläuterung der anderen Schritte dementsprechend verzichtet.
  • In diesem Fluss wird der Vorgang des Schrittes S201 im Anschluss an Schritt S104 ausgeführt. In Schritt S201 wird beurteilt, ob die Zuverlässigkeit des rechten Randes und die Zuverlässigkeit des linken Randes, die in Schritt S104 berechnet wurden, einander entsprechen bzw. gleich groß sind. Wenn bei dieser Vorgehensweise zwischen dem rechten Rand und dem linken Rand die Anzahl der Ränder, die auf der Näherungslinie des geometrischen Ortes existieren, identisch ist, wird beurteilt, dass die Zuverlässigkeiten der beiden Ränder einander entsprechen bzw. gleich groß sind. Wenn in Schritt S201 eine negative Beurteilung erfolgt, wird anschließend der Vorgang von Schritt S105 ausgeführt. Bei dieser Vorgehensweise sind die sich daran anschließenden Vorgänge bzw. Verfahrensschritte mit jenen aus der ersten Ausführungsform identisch. Wenn hingegen in Schritt S201 eine positive Beurteilung erfolgt, wird daran anschließend der Vorgang von Schritt S202 ausgeführt.
  • In Schritt S202 wird die Zuverlässigkeitsgewichtungsbeimessung in Bezug auf den rechten Rand und den linken Rand in Bezug auf die Mehrzahl der Monokularbilddetektions-Ränder ausgeführt, die in Schritt S102 detektiert wurden. Gemäß dieser Vorgehensweise erfolgt die Beimessung der Gewichtung wie oben beschrieben derart, dass der Rand, der näher an der Millimeterwellendetektions-Position angeordnet ist, die höher Zuverlässigkeit aufweist. Der Vorgang von Schritt S201 wird durch den Gewichtungsbeimessungsabschnitt 65 ausgeführt.
  • Anschließend wird in Schritt S203 die Mehrzahl der Zuverlässigkeiten der rechten Ränder und der linken Ränder, die der Gewichtungsbeimessung in Schritt S202 unterzogen worden sind, jeweils zusammengerechnet, um in Bezug auf beide Ränder die Gesamtwerte der Zuverlässigkeiten zu berechnen. Der Vorgang gemäß Schritt S203 wird durch den Abschnitt 66 zum Berechnen des Zuverlässigkeitsgesamtwerts ausgeführt.
  • Anschließend wird in Schritt S105 der echte Rand des Ziels ausgewählt. Gemäß dieser Vorgehensweise wird in Schritt S105 der Rand, der in dem rechten Rand und dem linken Rand beinhaltet ist und den größeren Gesamtwert an Zuverlässigkeiten aufweist, die in Schritt S203 berechnet wurden, als der echte Rand des Ziels ausgewählt. Die Vorgänge, die im Anschluss daran ausgeführt werden, sind mit jenen identisch, die in der ersten Ausführungsform ausgeführt wurden.
  • (Zusammenhang zwischen den wesentlichen Elementen dieser Ausführungsform und den grundlegenden Anforderungen der vorliegenden Erfindung)
  • Gemäß dieser Ausführungsform entspricht der Gewichtungsbeimessungsabschnitt 65 der Gewichtungsbeimessungseinrichtung gemäß der vorliegenden Erfindung, und der Abschnitt 66 zum Berechnen des Zuverlässigkeitsgesamtwerts entspricht der Zuverlässigkeitsgesamtwert-Berechnungseinrichtung gemäß der vorliegenden Erfindung.
  • In dieser Ausführungsform entspricht Schritt S202 in dem in 14 gezeigten Flussdiagramm dem Gewichtungsbeimessungsschritt gemäß der vorliegenden Erfindung, und Schritt S203 in dem Flussdiagramm entspricht dem Zuverlässigkeitsgesamtwert-Berechnungsschritt gemäß der vorliegenden Erfindung.
  • Bezugszeichenliste
  • 1
    Millimeterwellenradar
    2
    monokularer Bildsensor
    3
    Lenkwinkelsensor
    4
    Gierratensensor
    5
    Radpulssensor
    6
    Objektdetektierungsabschnitt
    7
    Kollisionsbeurteilungsabschnitt
    8
    Warnvorrichtung
    9
    Kollisionsschutz-/Kollisionsschadensbegrenzungssystem
    10
    ECU
    61
    Randdetektierungsabschnitt
    62
    Abschnitt zum Herleiten der Näherungslinie des geometrischen Ortes
    63
    Auswählabschnitt
    64
    Abschnitt zum Herleiten der lateralen Position
    65
    Gewichtungsbeimessungsabschnitt
    66
    Zuverlässigkeitsgesamtwert-Berechnungsabschnitt
    100
    Fahrzeug
    200
    Kollisionsprognosevorrichtung
    641
    Abschnitt zum Prognostizieren des geometrischen Ortes
    642
    Abschnitt zum Prognostizieren der Kollisionsposition
    643
    Abschnitt zum Schätzen der lateralen Breite
    644
    Abschnitt zum Herleiten der lateralen Position des Zielmittelpunkts

Claims (6)

  1. Objektdetektionsvorrichtung zum Detektieren eines Objekts auf Basis von Zielinformationen, die durch ein Radar erfasst werden, und Zielinformationen, die anhand eines Bildes erfasst wurden, die durch einen monokularen Bildsensor aufgenommen wurde, wobei die Objektdetektionsvorrichtung aufweist: eine Randerfassungsseinrichtung, die ein Ziel, das einem Ziel entspricht, das durch ein Radar erkannt wird, anhand des Bildes, das durch den monokularen Bildsensor aufgenommen wird, extrahiert und einen rechten Rand und einen linken Rand des extrahierten Zieles erfasst; eine Einrichtung zum Herleiten einer Näherungslinie eines geometrischen Ortes, die, für die beiden Ränder, Näherungslinien für einen geometrischen Ort als Geraden oder vorbestimmte gekrümmte Linien zum Nähern der geometrischen Örter des rechten Randes und des linken Randes, die durch die Randerfassungseinrichtung erfasst werden, herleitet; eine Auswähleinrichtung, die, als einen echten Rand des Ziels, den Rand mit einer gröberen Anzahl von Rändern, die. auf der Näherungslinie des geometrischen Ortes existieren, von dem rechten und dem linken Rand, die von der Randerfassungseinrichtung erfasst werden, auswählt; und eine Einrichtung zum Herleiten einer lateralen Position, die eine laterale Position des Ziels auf Basis einer Position des Randes, der als der echte Rand durch die Auswähleinrichtung ausgewählt wird, herleitet.
  2. Objektdetektionsvorrichtung nach Anspruch 1, ferner aufweisend: eine Gewichtungsbeimessungseinrichtung, die dem rechten Rand und dem linken Rand, die durch die Randerfassungseinrichtung erfasst werden, Zuverlässigkeitsgewichtungen beimisst, so dass der Rand, der näher an einer Position des Ziels, das durch das Radar erkannt wird, angeordnet ist, eine höhere Zuverlässigkeit aufweist; und eine Zuverlässigkeits-Gesamtwert-Berechnungseinrichtung, die eine Mehrzahl von Zuverlässigkeiten zusammenrechnet, wobei die Gewichtungen durch die Gewichtungsbeimessungseinrichtung jeweils dem rechten Rand oder dem linken Rand beigemessen werden, um dadurch Gesamtwerte der Zuverlässigkeiten für die beiden Ränder zu berechnen, wobei: die Auswähleinrichtung, die, als den echten Rand des Ziels, den Rand, der den größeren Gesamtwert der Zuverlässigkeiten, der durch die Zuverlässigkeitsgesamtwert-Berechnungseinrichtung berechnet wird, aufweist, von dem rechten Rand und dem linken Rand auswählt, wenn die Anzahl der Ränder, die auf der Näherungslinie des geometrischen Ortes existieren, zwischen dem rechten Rand und dem linken Rand, die durch die Randerfassungseinrichtung erfasst werden, identisch ist.
  3. Objektdetektionsvorrichtung nach Anspruch 1 oder 2, wobei die Einrichtung zum Herleiten der lateralen Position aufweist: eine Einrichtung zum Prognostizieren des geometrischen Ortes, die einen zukünftigen. geometrischen Ort des Randes, der durch die Auswähleinrichtung als der echte Rand ausgewählt wird, prognostiziert; und eine Einrichtung zum Prognostizieren einer Kollisionsposition, die eine Kollisionsposition zwischen dem Ziel und einem Fahrzeug als eine Position, an der ein Abstand zwischen dem Rand und dem Fahrzeug in der von vorne nach hinten verlaufenden Richtung null beträgt, auf Basis des zukünftigen geometrischen Ortes des Randes prognostiziert, der durch die Einrichtung zum Prognostizieren des geometrischen Ortes prognostiziert wird, wobei: eine laterale Position eines Mittelpunkts in einer lateralen Richtung des Ziels, die an der Kollisionsposition angeordnet sein soll, auf Basis einer Position an der Kollisionsposition des Randes hergeleitet wird, der als der echte Rand durch die Auswähleinrichtung ausgewählt wird,
  4. Objektdetektionsvorrichtung nach Anspruch 1 oder 2, wobei: die Einrichtung zum Herleiten der lateralen Position eine Einrichtung zum Schätzen der lateralen Breite beinhaltet, die eine laterale Breite des Ziels schätzt; und eine Position, die zu dem anderen Rand um ½ der lateralen Breite des Ziels, die durch die Einrichtung zum Schätzen der lateralen Breite anhand der Position des Randes geschätzt wird, der durch die Auswähleinrichtung als der echte Rand ausgewählt wird, als eine laterale Position eines Mittelpunktes in einer lateralen Richtung des Ziels hergeleitet wird.
  5. Objektdetektionsverfahren zum Detektieren eines Objektes auf Basis von Zielinformationen, die durch ein Radar erfasst werden, und Zielinformationen, die anhand eines Bildes erfasst wurden, das durch einen monokularen Bildsensor aufgenommen wurde, wobei das Objektdetektionsverfahren beinhaltet: einen Randerfassungsschritt zum Extrahieren eines Zieles, das einem Ziel entspricht, das durch das Radar erkannt wurde, aus dem Bild, das durch den monokularen Bildsensor aufgenommen wurde, und zum Erfassen eines rechten Randes und eines linken Randes des extrahierten Ziels erfasst; einen Schritt zum Herleiten einer Näherungslinie eines geometrischen Ortes, bei dem, für die beiden Ränder, Näherungslinien für einen geometrischen Ort als Geraden oder vorbestimmte gekrümmte Linien zum Nähern der geometrischen Örter des rechten Randes und des linken Randes, die durch die Randerfassungseinrichtung erfasst werden, hergeleitet werden; einen Auswählschritt, in dem, als ein echter Rand des Ziels, der Rand, der eine größere Anzahl von Rändern aufweist, die auf der Näherungslinie des geometrischen Ortes existieren, von dem rechten Rand und dem linken Rand, die von der Randerfassungseinrichtung erfasst werden, ausgewählt wird; und einen Schritt zum Herleiten einer lateralen Position, in dem eine laterale Position des Ziels auf Basis einer Position des Randes, der als der echte Rand in dem Auswählschritt ausgewählt wird, hergeleitet wird.
  6. Objektdetektionsverfahren nach Anspruch 5, ferner beinhaltend: einen Gewichtungsbeimessungsschritt, in dem dem rechten Rand und dem linken Rand, die durch den Randerfassungsschritt erfasst werden, Zuverlässigkeitsgewichtungen beigemessen werden, so dass der Rand, der näher an einer Position des Ziels angeordnet ist, die durch den Radar erkannt wird, eine höhere Zuverlässigkeit aufweist; und einen Zuverlässigkeits-Gesamtwert-Berechnungsschritt, in dem eine Mehrzahl von Zuverlässigkeiten zusammengerechnet wird, wobei in dem Gewichtungsbeimessungsschritt die Gewichtungen jeweils dem rechten Rand oder dem linken Rand beigemessen werden, tun dadurch die Gesamtwerte der Zuverlässigkeiten für die beiden Ränder zu berechnen, wobei der Rand, der den größeren Gesamtwert der Zuverlässigkeiten aufweist, der durch den Schritt zum Berechnen des Zuverlässigkeitsgesamtwertes berechnet wird, von dem rechten Rand und dem linken Rand in dem Auswählschritt als der echte Rand ausgewählt wird, wenn die Anzahl der Ränder, die auf der Näherungslinie des geometrischen Ortes existieren, zwischen dem rechten Rand und dem linken Rand, die durch den Randerfassungsschritt erfasst werden, identisch ist.
DE112009005424.2T 2009-12-08 2009-12-08 Objektdetektionsvorrichtung und Objektdetektionsverfahren Active DE112009005424B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/070562 WO2011070650A1 (ja) 2009-12-08 2009-12-08 物体検出装置及び物体検出方法

Publications (3)

Publication Number Publication Date
DE112009005424T5 DE112009005424T5 (de) 2012-12-06
DE112009005424T8 DE112009005424T8 (de) 2013-02-07
DE112009005424B4 true DE112009005424B4 (de) 2015-12-24

Family

ID=44145222

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112009005424.2T Active DE112009005424B4 (de) 2009-12-08 2009-12-08 Objektdetektionsvorrichtung und Objektdetektionsverfahren

Country Status (5)

Country Link
US (1) US8610620B2 (de)
JP (1) JP4883246B2 (de)
CN (1) CN102696060B (de)
DE (1) DE112009005424B4 (de)
WO (1) WO2011070650A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016211730A1 (de) * 2016-06-29 2018-01-04 Continental Teves Ag & Co. Ohg Method for predicting a lane course of a roadway

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2639781A1 (de) * 2012-03-14 2013-09-18 Honda Motor Co., Ltd. Fahrzeug mit verbesserter Verkehrsobjektpositionserkennung
US10609335B2 (en) * 2012-03-23 2020-03-31 Magna Electronics Inc. Vehicle vision system with accelerated object confirmation
WO2014024284A1 (ja) * 2012-08-08 2014-02-13 トヨタ自動車株式会社 衝突予測装置
CN104584098B (zh) * 2012-09-03 2017-09-15 丰田自动车株式会社 碰撞判定装置和碰撞判定方法
JP6011625B2 (ja) * 2012-09-03 2016-10-19 トヨタ自動車株式会社 速度算出装置及び速度算出方法並びに衝突判定装置
CN102945602B (zh) * 2012-10-19 2015-04-15 上海交通大学无锡研究院 一种用于交通事件检测的车辆轨迹分类方法
JP5812064B2 (ja) * 2012-11-22 2015-11-11 株式会社デンソー Target detection device
DE112013007129T5 (de) * 2013-05-31 2016-03-03 Toyota Jidosha Kabushiki Kaisha Bewegungstrajektorienvorhersagevorrichtung und Bewegungstrajektorienvorhersageverfahren
JP5812061B2 (ja) * 2013-08-22 2015-11-11 株式会社デンソー Target detection apparatus and program
JP5929870B2 (ja) * 2013-10-17 2016-06-08 株式会社デンソー 物標検出装置
EP2865576B1 (de) * 2013-10-22 2018-07-04 Honda Research Institute Europe GmbH Zusammengesetzte Vertrauensschätzung für prädiktive Fahrerunterstützungssysteme
JP5991332B2 (ja) * 2014-02-05 2016-09-14 トヨタ自動車株式会社 衝突回避制御装置
CN103927437B (zh) * 2014-04-04 2016-10-26 东南大学 在非直线路段测量车头间距的方法
JP6209797B2 (ja) * 2014-05-20 2017-10-11 本田技研工業株式会社 走行制御装置
US10495732B2 (en) * 2014-07-03 2019-12-03 GM Global Technology Operations LLC Vehicle radar methods and systems
CN104269070B (zh) * 2014-08-20 2017-05-17 东风汽车公司 一种车辆主动安全预警方法和运用该方法的安全预警系统
JP6380232B2 (ja) * 2015-05-19 2018-08-29 株式会社デンソー 物体検出装置、及び物体検出方法
RU2667338C1 (ru) * 2015-07-27 2018-09-18 Ниссан Мотор Ко., Лтд. Способ обнаружения объектов и устройство обнаружения объектов
JP6027659B1 (ja) * 2015-08-27 2016-11-16 富士重工業株式会社 Vehicle travel control device
WO2017078183A1 (en) 2015-11-05 2017-05-11 Nidec Elesys Corporation Slot array antenna
CN206610893U (zh) 2015-11-05 2017-11-03 日本电产艾莱希斯株式会社 缝隙天线
US10381741B2 (en) 2015-12-24 2019-08-13 Nidec Corporation Slot array antenna, and radar, radar system, and wireless communication system including the slot array antenna
DE102016125419A1 (de) 2015-12-24 2017-06-29 Nidec Elesys Corporation Wellenleitervorrichtung, Schlitzantenne und Radar, Radarsystem sowie Drahtlos-Kommunikationssystem mit der Schlitzantenne
CN208093708U (zh) 2016-01-15 2018-11-13 日本电产株式会社 雷达系统以及波导装置
JP6549331B2 (ja) 2016-01-29 2019-07-24 日本電産株式会社 Waveguide device and antenna device provided with the waveguide device
DE102017102284A1 (de) 2016-02-08 2017-08-10 Nidec Elesys Corporation Wellenleitervorrichtung und Antennenvorrichtung mit der Wellenleitervorrichtung
DE102017102559A1 (de) 2016-02-12 2017-08-17 Nidec Elesys Corporation Wellenleitervorrichtung und Antennenvorrichtung mit der Wellenleitervorrichtung
JP2019047141A (ja) 2016-03-29 2019-03-22 日本電産エレシス株式会社 マイクロ波ic導波路装置モジュール、レーダ装置およびレーダシステム
CN208093767U (zh) 2016-04-05 2018-11-13 日本电产株式会社 无线通信系统
JP2019054315A (ja) 2016-04-28 2019-04-04 日本電産エレシス株式会社 実装基板、導波路モジュール、集積回路実装基板、マイクロ波モジュール、レーダ装置およびレーダシステム
JP6787102B2 (ja) * 2016-12-14 2020-11-18 株式会社デンソー Object detection device, object detection method
CN106740465A (zh) * 2016-12-30 2017-05-31 西安交通大学青岛研究院 一种基于宽度探测的汽车避撞方法
EP3364211A1 (de) * 2017-02-21 2018-08-22 Continental Automotive GmbH Verfahren und vorrichtung zur erfassen einer möglichen kollision und fahrzeug
JP2018164252A (ja) 2017-03-24 2018-10-18 日本電産株式会社 スロットアレーアンテナ、および当該スロットアレーアンテナを備えるレーダ
US10608345B2 (en) 2017-04-13 2020-03-31 Nidec Corporation Slot array antenna
JP2018182731A (ja) 2017-04-13 2018-11-15 日本電産株式会社 スロットアンテナ装置
JP2019009779A (ja) 2017-06-26 2019-01-17 株式会社Wgr 伝送線路装置
US10547122B2 (en) 2017-06-26 2020-01-28 Nidec Corporation Method of producing a horn antenna array and antenna array
JP2019087989A (ja) 2017-06-26 2019-06-06 日本電産株式会社 ホーンアンテナアレイ
DE102018115610A1 (de) 2017-06-30 2019-01-03 Nidec Corporation Wellenleitervorrichtungsmodul, Mikrowellenmodul, Radarvorrichtung und Radarsystem
JP2019134400A (ja) 2017-08-18 2019-08-08 日本電産株式会社 アンテナアレイ
JP2019050568A (ja) 2017-09-07 2019-03-28 日本電産株式会社 方向性結合器
US20190109361A1 (en) 2017-10-10 2019-04-11 Nidec Corporation Waveguiding device
CN110636266B (zh) * 2019-10-10 2020-10-16 珠海格力电器股份有限公司 基于电器的安防监控方法及装置、存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08122432A (ja) * 1994-10-20 1996-05-17 Honda Motor Co Ltd 移動体の検出装置
JP2007288460A (ja) * 2006-04-17 2007-11-01 Nissan Motor Co Ltd Object detection method and object detection apparatus
JP2008276689A (ja) * 2007-05-07 2008-11-13 Mitsubishi Electric Corp 車両用障害物認識装置
JP2009186260A (ja) * 2008-02-05 2009-08-20 Nissan Motor Co Ltd 物体検出装置及び測距方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5027422A (en) * 1988-08-29 1991-06-25 Raytheon Company Confirmed boundary pattern matching
US5173949A (en) * 1988-08-29 1992-12-22 Raytheon Company Confirmed boundary pattern matching
US5052045A (en) * 1988-08-29 1991-09-24 Raytheon Company Confirmed boundary pattern matching
US5168529A (en) * 1988-08-29 1992-12-01 Rayethon Company Confirmed boundary pattern matching
US5168530A (en) * 1988-08-29 1992-12-01 Raytheon Company Confirmed boundary pattern matching
US5018218A (en) * 1988-08-29 1991-05-21 Raytheon Company Confirmed boundary pattern matching
JP2001134772A (ja) * 1999-11-04 2001-05-18 Honda Motor Co Ltd Object recognition device
JP4205825B2 (ja) * 1999-11-04 2009-01-07 本田技研工業株式会社 対象物認識装置
CN1914060B (zh) * 2004-01-28 2013-05-29 丰田自动车株式会社 车辆行驶支持系统
JP5088669B2 (ja) * 2007-03-23 2012-12-05 株式会社デンソー 車両周辺監視装置
JP5098563B2 (ja) * 2007-10-17 2012-12-12 トヨタ自動車株式会社 Object detection device
US8320615B2 (en) * 2008-02-27 2012-11-27 Honeywell International Inc. Systems and methods for recognizing a target from a moving platform
CN102301405B (zh) * 2009-01-29 2014-01-15 丰田自动车株式会社 物体识别装置以及物体识别方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08122432A (ja) * 1994-10-20 1996-05-17 Honda Motor Co Ltd 移動体の検出装置
JP2007288460A (ja) * 2006-04-17 2007-11-01 Nissan Motor Co Ltd Object detection method and object detection apparatus
JP2008276689A (ja) * 2007-05-07 2008-11-13 Mitsubishi Electric Corp 車両用障害物認識装置
JP2009186260A (ja) * 2008-02-05 2009-08-20 Nissan Motor Co Ltd 物体検出装置及び測距方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016211730A1 (de) * 2016-06-29 2018-01-04 Continental Teves Ag & Co. Ohg Method for predicting a lane course of a roadway

Also Published As

Publication number Publication date
US8610620B2 (en) 2013-12-17
DE112009005424T5 (de) 2012-12-06
JPWO2011070650A1 (ja) 2013-04-22
WO2011070650A1 (ja) 2011-06-16
CN102696060B (zh) 2015-01-07
CN102696060A (zh) 2012-09-26
DE112009005424T8 (de) 2013-02-07
US20120313806A1 (en) 2012-12-13
JP4883246B2 (ja) 2012-02-22

Similar Documents

Publication Publication Date Title
US10407060B2 (en) Driver assistance apparatus and method for operating the same
US9390624B2 (en) Vehicle-installation intersection judgment apparatus and program
JP5939357B2 (ja) 移動軌跡予測装置及び移動軌跡予測方法
US9753130B2 (en) Target detection apparatus
US8615109B2 (en) Moving object trajectory estimating device
US9465105B2 (en) V2V communication-based vehicle identification apparatus and identification method thereof
JP5729416B2 (ja) 衝突判定装置、および衝突緩和装置
US7782179B2 (en) Obstacle detection apparatus
US20170032675A1 (en) Vehicular environment estimation device
JP4211809B2 (ja) 物体検出装置
EP1338477B1 (de) Vorrichtung und Verfahren zur Hinderniserkennung für Fahrzeuge
US6744380B2 (en) Apparatus for monitoring area adjacent to vehicle
EP1806595B1 (de) Schätzung der Distanz eines Objekts unter Verwendung einer mittels monokularer Kamera aufgezeichneten Bildsequenz
US7042389B2 (en) Device for detecting object in front of vehicle
JP6246465B2 (ja) Road shoulder recognition method and system
EP1396732B1 (de) Fahrzeugkontrollsystem mit einem Apparat zur Fahrzeugumgebungsbeobachtung
DE102014112601A1 (de) Fahrzeugumgebungerkennungsvorrichtung
JP4933962B2 (ja) 分岐路進入判定装置
US9778356B2 (en) Autonomous emergency braking system and method for recognizing pedestrian therein
EP2865575A1 (de) Vertrauensschätzung für prädiktive Fahrerunterstützungssysteme auf Basis von Plausibilitätsregeln
US8897497B2 (en) Object detecting device
EP1395851B1 (de) Überwachungsvorrichtung für fahrzeuge
JP4909030B2 (ja) 衝突回避支援システム及びそれを搭載した車両
EP2242674B1 (de) Verfahren und assistenzsystem zum erfassen von objekten im umfeld eines fahrzeugs
EP1982906B1 (de) Fahrzeug und lenksteuervorrichtung für fahrzeug

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R084 Declaration of willingness to licence