DE102013112852A1 - Objekterfassungsvorrichtung - Google Patents

Objekterfassungsvorrichtung Download PDF

Info

Publication number
DE102013112852A1
DE102013112852A1 DE102013112852.1A DE102013112852A DE102013112852A1 DE 102013112852 A1 DE102013112852 A1 DE 102013112852A1 DE 102013112852 A DE102013112852 A DE 102013112852A DE 102013112852 A1 DE102013112852 A1 DE 102013112852A1
Authority
DE
Germany
Prior art keywords
area
detection point
vehicle
contraption
azimuth angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102013112852.1A
Other languages
English (en)
Inventor
Takahiro Baba
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Publication of DE102013112852A1 publication Critical patent/DE102013112852A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mechanical Engineering (AREA)
  • Geophysics (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Geophysics And Detection Of Objects (AREA)

Abstract

Eine in einem Fahrzeug montierte Objekterfassungsvorrichtung (7) enthält eine erste Bereichsdefinitionseinheit (71, S11–S12), eine zweite Bereichsdefinitionseinheit (72, S13–S14) und eine Bestimmungseinheit (73, S15–S16). Die erste Bereichsdefinitionseinheit (71) definiert einen ersten Objektbereich einschließlich eines ersten Erfassungspunkts, welcher eine Position eines ersten Objekts anzeigt, das unter Verwendung einer fahrzeugseitigen Funkmessvorrichtung (2) erfasst wird. Die zweite Bereichsdefinitionseinheit (72) definiert einen zweiten Objektbereich einschließlich eines zweiten Erfassungspunkts, welcher eine Position eines zweiten Objekts anzeigt, das auf Basis eines Bildes erfasst wird, das durch eine fahrzeugseitige Monokular-Kamera (3) aufgenommen wird. Die Bestimmungseinheit (73, S15–S16) bestimmt, ob ein Überlagerungsbereich der ersten und zweiten Objektbereiche vorliegt oder nicht und bestimmt ferner, wenn bestimmt wurde, dass ein Überlagerungsbereich der ersten und zweiten Objektbereiche vorliegt, dass die ersten und zweiten Objekte dieselben sind.

Description

  • HINTERGRUND DER ERFINDUNG
  • (Technisches Gebiet)
  • Die vorliegende Erfindung betrifft die Erfassung eines Objekts unter Verwendung einer Funkmessvorrichtung einer Kamera.
  • (Stand der Technik)
  • Ein Fahrzeugkollisionsvermeidungssystem ist erforderlich, um ein Objekt wie ein Fahrzeug, das nicht ein gesteuertes Fahrzeug (d. h. ein Fahrzeug, in welchem das System montiert ist), oder ein Fußgänger ist, genau zu erfassen. Ein Fahrzeugkollisionsvermeidungssystem, wie es in der japanischen Patentanmeldung mit der Veröffentlichungsnummer JP 2006-292475 A offenbart ist, ist konfiguriert, ein Objekt unter Verwendung eines Radars bzw. einer Funkmessvorrichtung und einer Kamera zu erfassen. Genauer gesagt verwendet das offenbarte Fahrzeugkollisionsvermeidungssystem eine Millimeterwellen-Funkmessvorrichtung und eine Stereoskop-Kamera separat und bestimmt, dass ein Objekt, dass durch die Millimeterwellen-Funkmessvorrichtung erfasst wird, und ein Objekt, das durch die Stereoskop-Kamera erfasst wird, dieselben sind, wenn eine Positionsbeziehung dazwischen ein vorbestimmtes Kriterium erfüllt.
  • Es ist auch möglich, dass in einem Fahrzeugkollisionsvermeidungssystem alternativ zu dem offenbarten Fahrzeugkollisionsvermeidungssystem anstelle der Stereoskop-Kamera eine Monokular-Kamera verwendet wird. Die Monokular-Kamera und die Stereoskop-Kamera unterscheiden sich jedoch hinsichtlich des Prinzips der Erfassung einer Position, insbesondere eines Vorwärtsabstands eines Objekts relativ zum gesteuerten Fahrzeug, stark voneinander, und eine Genauigkeit bei der Erfassung des Vorwärtsabstands des Objekts ist durch die Monokular-Kamera deutlich geringer als die Genauigkeit bei der Erfassung des Vorwärtsabstands des Objekts durch die Stereoskop-Kamera. Dadurch kann der Ersatz der Stereoskop-Kamera durch die Monokular-Kamera nicht zu einem zufriedenstellenden Erfassungsergebnis bezüglich des Objekts führen.
  • In Anbetracht des vorstehenden ist es deshalb wünschenswert, eine Objekterfassungsvorrichtung zu schaffen, welche geeignet ist, ein Objekt unter Verwendung einer Funkmessvorrichtung und einer Monokular-Kamera zufriedenstellender zu erfassen.
  • KURZFASSUNG DER ERFINDUNG
  • Gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung ist eine Objekterfassungsvorrichtung vorgesehen, die in einem Fahrzeug montiert ist, einschließlich einer ersten Bereichsdefinitionseinheit, einer zweiten Bereichsdefinitionseinheit und einer Bestimmungseinheit.
  • Die erste Bereichsdefinitionseinheit ist konfiguriert, einen ersten Objektbereich zu definieren, der einen ersten Erfassungspunkt enthält, welcher eine Position eines ersten Objekts anzeigt, das unter Verwendung einer fahrzeugseitigen Funkmessvorrichtung erfasst wird, und zwar relativ zu einem Referenzpunkt auf einer XY-Ebene. Eine X-Achsenrichtung der XY-Ebene ist eine Fahrzeugbreiterichtung und eine Y-Achsenrichtung der XY-Ebene ist eine Fahrzeuglängsrichtung.
  • Die zweite Bereichsdefinitionseinheit ist konfiguriert, einen zweiten Objektbereich zu definieren, der einen zweiten Erfassungspunkt enthält, welcher eine Position eines zweiten Objekts anzeigt, das auf Basis eines Bildes erfasst wird, das durch die fahrzeugseitige Monokular-Kamera aufgenommen wird, und zwar bezüglich des Referenzpunktes auf der XY-Ebene.
  • Die Bestimmungseinheit ist konfiguriert, zu bestimmen, ob ein Überlagerungsbereich der ersten und zweiten Objektbereiche auf der XY-Ebene vorliegt oder nicht, und wenn bestimmt wurde, dass ein Überlagerungsbereich der ersten und zweiten Objektbereiche auf der XY-Ebene vorliegt, zu bestimmen, dass die ersten und zweiten Objekte dieselben sind.
  • Mit dieser Konfiguration kann bestimmt werden, dass die ersten und zweiten Objekte dieselben sind, selbst wenn die ersten und zweiten Erfassungspunkte nicht vollständig miteinander übereinstimmen. Dies verhindert eine falsche Bestimmung, bei welcher die ersten und zweiten Objekte verschiedene Objekte sind. Ferner ist es wahrscheinlich, dass inkorrekterweise bestimmt wird, dass die ersten und zweiten Objekte dieselben sind, obwohl die ersten und zweiten Objekte eigentlich unterschiedliche Objekte sind.
  • Bei der Vorrichtung gemäß der vorliegenden Ausführungsform wird der zweite Objektbereich durch einen zweiten Azimutbereich eines Azimutwinkels des zweiten Objekts von der Vorwärtsrichtung des Fahrzeugs definiert. Dies kann falsche Bestimmungen verhindern. Das heißt, eine Genauigkeit bei der Erfassung des Azimutwinkels des zweiten Objekts auf Basis des aufgenommenen Bildes von der Monokular-Kamera ist relativ hoch. Eine Definition des zweiten Objektbereichs unter Verwendung eines derartigen zweiten Azimutbereichs des Azimutwinkels führt dazu, dass der zweite Objektbereich für die Eigenschaften der Monokular-Kamera geeignet ist, im Vergleich zu Fällen, in welchen der zweite Objektbereich durch einen X-Koordinatenbereich definiert wird, der in einer Breite über X-Koordinaten konstant ist. Dies kann falsche Bestimmungen verhindern.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • In den zugehörigen Zeichnungen zeigen:
  • 1A ein schematisches Blockdiagramm einer Kollisionsabschwächungsvorrichtung gemäß einer ersten Ausführungsform der vorliegenden Erfindung;
  • 1B ein schematisches Blockdiagramm einer Kollisionsabschwächungs-ECU der ersten Ausführungsform;
  • 2 ein Flussdiagramm eines Prozessablaufs, der gemäß der Kollisionsabschwächungs-ECU der ersten Ausführungsform durchgeführt wird;
  • 3 Fehlerbereiche, die gemäß der ersten Ausführungsform definiert werden;
  • 4 ein Flussdiagramm eines Prozessablaufs zum Definieren eines Funkmessvorrichtungsfehlerbereichs gemäß der ersten Ausführungsform;
  • 5 ein Flussdiagramm eines Prozessablaufs zum Definieren eines Bildfehlerbereichs gemäß der ersten Ausführungsform;
  • 6 Fehlerbereiche, die gemäß einer zweiten Ausführungsform definiert werden;
  • 7 Fehlerbereiche, die gemäß einer dritten Ausführungsform definiert werden;
  • 8 einen Funkmessvorrichtungsfehlerbereich, der gemäß der dritten Ausführungsform definiert wird;
  • 9A eine Beziehung zwischen θr und Eθ1;
  • 9B eine Beziehung zwischen r1 und Eθ2;
  • 10 einen Bildfehlerbereich, der gemäß der dritten Ausführungsform definiert wird;
  • 11 eine Beziehung zwischen r2 und Eθi;
  • 12 Fehlerbereiche, die gemäß einer vierten Ausführungsform definiert werden;
  • 13 einen Bildfehlerbereich, der gemäß einer fünften Ausführungsform definiert wird;
  • 14 ein Flussdiagramm eines Prozessablaufs zum Definieren eines Bildfehlerbereichs der fünften Ausführungsform;
  • 15A15C einen stehenden und einen sich bewegenden Fußgänger; und
  • 16 einen Bildfehlerbereich, der gemäß einer Modifikation der fünften Ausführungsform definiert wird.
  • BESCHREIBUNG SPEZIFISCHER AUSFÜHRUNGSFORMEN
  • Die vorliegenden Erfindungen werden hiernach mit Bezug auf die zugehörigen Zeichnungen deutlicher beschrieben. Gleiche Elemente werden durchgehend mit gleichen Bezugszeichen gekennzeichnet.
  • (Erste Ausführungsform)
  • 1A stellt ein schematisches Diagramm einer Kollisionsabschwächungsvorrichtung 1 gemäß einer ersten Ausführungsform der vorliegenden Erfindung dar. Die Kollisionsabschwächungsvorrichtung 1 ist in einem Fahrzeug (hiernach als Bezugsfahrzeug bezeichnet) montiert und enthält eine Millimeterwellen-Funkmessvorrichtung 2, eine Monokular-Kamera 3, eine Brems- Steuereinheit (ECU) 4, eine Maschinen-ECU 5, eine Alarmeinheit 6 und eine Kollisionsabschwächungs-ECU 7. In der Kollisionsabschwächungsvorrichtung 1 ist die Kollisionsabschwächungs-ECU z. B. kommunizierend mit der Millimeterwellen-Funkmessvorrichtung 2, der Monokular-Kamera 3, der Brems-ECU 4, der Maschinen-ECU 5 und der Alarmeinheit 6 verbunden.
  • Die Millimeterwellen-Funkmessvorrichtung 2 ist im vorderen mittleren Abschnitt des Bezugsfahrzeugs montiert, um Objekte wie andere Fahrzeuge und Fußgänger unter Verwendung von Millimeterwellen zu erfassen. Die Millimeterwellen-Funkmessvorrichtung 2 überträgt Millimeterwellen von dem Bezugsfahrzeug nach vorne, während sie die Umgebung in horizontaler Ebene scannt und reflektierende Millimeterwellen empfängt, um dadurch übertragene und empfangene Daten in Form von Funksignalen an die Kollisionsabschwächungs-ECU 7 zu übertragen.
  • Die Monokular-Kamera 3 enthält eine Ladungsgekoppelte (CCD) Kamera und ist auf einem vorderen mittleren Abschnitt des Bezugsfahrzeugs montiert. Die Monokular-Kamera 3 überträgt Daten von aufgenommenen Bildern in Form von Bildsignalen an die Kollisionsabschwächungs-ECU 7.
  • Die Brems-ECU 4 enthält CPU, ROM, RAM und weitere Bremssteuerungen für das Bezugsfahrzeug. Genauer gesagt, steuert die Brems-ECU 4 einen Bremsaktor (Brems-ACT) in Reaktion auf einen Erfassungswert, der von einem Sensor ausgegeben wurde, um einen Bremspedalniederdrückbetrag zu erfassen, wobei der Bremsaktor als Aktor dient, der ein Druckerhöhungssteuerventil und ein Druckreduzierungssteuerventil, die in einer Bremshydraulikschaltung vorgesehen sind, öffnet und schließt. Die Brems-ECU 4 steuert den Bremsaktor entsprechend Anweisungen von der Kollisionsabschwächungs-ECU 7, um eine Bremskraft auf das Bezugsfahrzeug zu erhöhen.
  • Die Maschinen-ECU 5 enthält CPU, ROM, RAM und weitere Vorrichtungen, um den Start und das Abschalten einer Maschine, einen Kraftstoffeinspritzungsbetrag, den Zündzeitpunkt und weitere Vorgänge zu steuern. Genauer gesagt steuert die Maschinen-ECU 5 einen Drosselklappenaktor (Drossel-ACT) in Reaktion auf einen Erfassungswert, der von einem Sensor ausgegeben wird, um einen Gaspedalniederdrückbetrag zu erfassen, wobei der Drosselaktor als Aktor dient, der ein Drosselventil öffnet und schließt, das in einer Lufteinlassleitung vorgesehen ist. Die Maschinen-ECU 5 steuert den Drosselaktor gemäß Anweisungen von der Kollisionsabschwächungs-ECU 7, um eine Antriebskraft der Brennkraftmaschine zu verringern.
  • Die Alarmeinheit 6 alarmiert nach dem Empfangen eines Warnsignals von der Kollisionsabschwächungs-ECU 7 einen Fahrer des Bezugsfahrzeugs akustisch und optisch.
  • Die Kollisionsabschwächungs-ECU 7 enthält CPU, ROM, RAM und weitere Vorrichtungen, um die Kollisionsabschwächungsvorrichtung 1 integral zu steuern. Die Kollisionsabschwächungs-ECU 7 empfängt Funksignale von der Millimeterwellen-Funkmessvorrichtung 2 und Bildsignale von der Monokular-Kamera 3 bei jedem vorbestimmten Zeitintervall basierend auf einem entsprechenden Taktgeber.
  • Anschließend wird ein Objekterfassungsprozess erläutert, der in der Kollisionsabschwächungsvorrichtung 1 durchgeführt wird. Ein Objekterfassungsprogramm, d. h., ein Programm zum Ausführen des Objekterfassungsprozesses, ist in dem ROM oder dergleichen der Kollisionsabschwächungsvorrichtung 1 gespeichert. 2 stellt ein Flussdiagramm des Objekterfassungsprozesses dar, der in der Kollisionsabschwächungsvorrichtung 1 bei jedem vorbestimmten Zeitintervall durchgeführt wird.
  • Zuerst erfasst die Kollisionsabschwächungs-ECU 7 in Schritt S11 ein Objekt auf Basis eines Funksignals, das von der Millimeterwellen-Funkmessvorrichtung 2 übertragen bzw. gesendet wurde (d. h., eine Erfassungsinformation von der Millimeterwellen-Funkmessvorrichtung 2). Genauer gesagt berechnet oder bestimmt die Kollisionsabschwächungs-ECU 7 auf Basis des Funksignals einen Linearabstand von dem Bezugsfahrzeug zu dem Objekt und einen horizontalen Azimutwinkel des Objekts (d. h., eine Winkelposition des Objekts von der Vorwärtsrichtung des Bezugsfahrzeugs). Auf Basis dieser berechneten Werte berechnet oder bestimmt die Kollisionsabschwächungs-ECU 7, wie in 3 dargestellt, Positionskoordinaten (X- und Y-Koordinaten) des Objekts auf der XY-Ebene als einen Erfassungspunkt Pr des Objekts auf der XY-Ebene. Die X-Achse der XY-Ebene wird durch eine Fahrzeugbreitenrichtung (Querrichtung) des Bezugsfahrzeugs definiert, und die Y-Achse der XY-Ebene wird durch eine Fahrzeuglängsrichtung (Vorwärtsrichtung) des Bezugsfahrzeugs definiert. Ein Referenzpunkt Po der XY-Ebene wird an einer Nase (oder am vorderen Ende) des Bezugsfahrzeugs eingestellt, auf welcher die Millimeterwellen-Funkmessvorrichtung 2 montiert ist. Der Erfassungspunkt Pr ist eine Position des Objekts relativ zum Referenzpunkt Po. Es ist zu berücksichtigen, dass 3 ein Beispiel eines Objekts darstellt, das vor dem Fahrzeug und auf der rechten Seite desselben angeordnet ist. Zudem kann die Kollisionsabschwächungs-ECU 7 in Schritt S11 zusätzlich zu dem Erfassungspunkt Pr des Objekts eine Geschwindigkeit des Objekts relativ zum Bezugsfahrzeug berechnen. Anschließend wird das Objekt, das in Schritt S11 erfasst wird, als ”Funkobjekt” bezeichnet.
  • Anschließend definiert die Kollisionsabschwächungs-ECU 7 in Schritt S12 einen Fehlerbereich Rr, der bei einem Erfassungspunkt Pr, der in Schritt S11 erfasst wird, zentral vorliegt, wie in 3 dargestellt. Genauer gesagt wird angenommen, dass ein X-Koordinatenbereich des Fehlerbereichs Rr, der zentral bei einer X-Koordinate des Erfassungspunkts Pr vorliegt, und ein Y-Koordinatenbereich des Fehlerbereichs Rr, der bei der X-Koordinate des Erfassungspunkts Pr zentral vorliegt, jeweils angenommene Fehler in den X- und Y-Koordinaten sind, welche auf Basis der Kennwerte der Millimeterwellen-Funkmessvorrichtung 2 bestimmt werden.
  • Der Fehlerbereich Rr kann durch Xr – EXr ≤ X ≤ Xr + EXr und Yr – EYr ≤ Y ≤ Yr + EYr ausgedrückt werden, wobei Xr, Yr jeweils die X- und Y-Koordinaten des Erfassungspunkts Pr sind und ±EXr, ±EYr jeweils angenommene Fehler in den X- und Y-Koordinaten sind.
  • Die Kollisionsabschwächungs-ECU 7 verändert den angenommenen Fehler EXr abhängig von einem Funkobjekttyp, wie beispielsweise einem Fahrzeug, einem Fußgänger, oder dergleichen. Genauer gesagt stellt 4 einen Prozessablauf dar, der in Schritt S12 durchgeführt wird. Die Kollisionsabschwächungs-ECU 7 bestimmt in Schritt S121, ob das Funkobjekt ein Fahrzeug ist oder nicht. Wenn in Schritt S121 bestimmt wird, dass das Funkobjekt kein Fahrzeug ist (jedoch ein Fußgänger oder dergleichen), stellt die Kollisionsabschwächungs-ECU 7 den angenommenen Fehler EXr in Schritt S122 auf einen Standardwert IXr ein. Falls in Schritt S121 bestimmt wird, dass das Funkobjekt ein Fahrzeug ist, stellt die Kollisionsabschwächungs-ECU 7 den angenommenen Fehler EXr in Schritt S123 auf den Standardwert IXr ein, der mit einer Konstanten C1 (größer als 1) multipliziert wird.
  • Wenn durch die Kollisionsabschwächungs-ECU 7 bestimmt wird, dass das Funkobjekt ein Fahrzeug ist, wird der angenommene Fehler EXr erhöht (d. h., der Fehlerbereich Rr wird in X-Richtung erweitert, wobei die Höhe konstant gehalten wird), im Vergleich zu einem Fall, in welchem durch die Kollisionsabschwächungs-ECU 7 bestimmt wird, dass das Funkobjekt ein Fußgänger ist. Dies kommt daher, dass ein lateraler Bereich von Punkten eines Fahrzeugs, von welchen die Millimeterwellen reflektiert werden können, größer als ein lateraler Bereich von Punkten eines Fußgängers sind, von welchem die Millimeterwellen reflektiert werden können.
  • Es ist zu berücksichtigen, dass in Schritt S121 angenommen wird, dass das Funkobjekt vom Funkobjekttyp ist, der im vorhergehenden Zyklus bestimmt wurde, da zu dieser Stufe noch nicht bestimmt werden kann, ob das Funkobjekt, das in Schritt S11 erfasst wird, tatsächlich ein Fahrzeug ist oder nicht. Im Folgenden wird der Fehlerbereich Rr, der in Schritt S12 definiert wird (d. h. der Fehlerbereich Rr, der für den Erfassungspunkt Pr des Funkobjekts auf Basis der Kennwerte der Millimeterwellen-Funkmessvorrichtung 2 definiert wird) als ”Funkfehlerbereich Rr” bezeichnet.
  • Anschließend erfasst die Kollisionsabschwächungs-ECU 7 in Schritt S13 ein Objekt auf Basis eines Bildsignals, das von der Monokular-Kamera 3 gesendet wurde (d. h., ein aufgenommenes Bild von der Monokular-Kamera 3). Genauer gesagt wendet die Kollisionsabschwächungs-ECU 7 eine Bildanalyse bei dem aufgenommenen Bild, das durch das Bildsignal dargestellt wird, an, um ein Objekt zu identifizieren. Diese Identifizierung kann durch einen Übereinstimmungsprozessablauf mit vorgespeicherten Objektmodellen ausgeführt bzw. implementiert werden. Ein Objektmodel wird für jeden Objekttyp vorbereitet, wie beispielsweise ein Fahrzeug, einen Fußgänger oder dergleichen, wodurch nicht nur eine Bestimmung über des Vorhandenseins eines Objekts ermöglicht wird, sondern auch eine Identifizierung des Objekttyps. Die Kollisionsabschwächungs-ECU 7 bestimmt eine Y-Koordinate des Objekts auf der XY-Ebene auf Basis einer vertikalen Position des Objekts im aufgenommenen Bild, und einen horizontalen Azimutwinkel des Objekts (einer Winkelposition von der Vorwärtsrichtung des Bezugsfahrzeugs) auf Basis einer horizontalen Position des Objekts im aufgenommenen Bild.
  • Wenn das Objekt als von dem Bezugsfahrzeug in Vorwärtsrichtung des Bezugsfahrzeugs weiter beabstandet geortet wird, d. h., wenn die Y-Koordinate des Objekts erhöht wird, tendiert ein unteres Ende des Objekts dazu, im aufgenommenen Bild auf einer höheren Position angeordnet zu sein. Dies ermöglicht es, dass die Y-Koordinate des Objekts auf Basis der Höhe der unteren Endposition des Objekts im aufgenommenen Bild bestimmt werden kann. Hierbei führt eine ungenaue Erfassung der unteren Endposition des Objekts jedoch zu einer verringerten Genauigkeit bei der Erfassung der Y-Koordinate des Objekts.
  • Zudem tendiert eine horizontale Verschiebung des Objekts vom Erstreckungsfokus (FOE) der Monokular-Kamera 3 dazu, mit einer größer werdenden Winkelverschiebung des Objekts von der Vorwärtsrichtung des Bezugsfahrzeugs größer zu werden (genauer gesagt, eine Linie von X = 0). Dies ermöglicht es, dass ein horizontaler Azimutwinkel des Objekts auf Basis eines Abstands von dem FOE zu einer vertikalen Linie, die durch die Mitte des Objekts verläuft, bestimmt werden kann.
  • So bestimmt die Kollisionsabschwächungs-ECU 7 in Schritt S13 die Y-Koordinate und den horizontalen Azimutwinkel (Winkelposition) des Objekts auf der XY-Ebene als den Erfassungspunkt Pi des Objekts auf der XY-Ebene, wie in 3 dargestellt. Der Erfassungspunkt Pi des Objekts stellt eine Position des Objekts relativ zum Referenzpunkt Po dar. Im Folgenden wird das Objekt, das in Schritt S13 erfasst wird (das Objekt, das auf Basis des aufgenommenen Bildes von der Monokular-Kamera 3 erfasst wird) als ”Bildobjekt” bezeichnet.
  • Anschließend definiert die Kollisionsabschwächungs-ECU 7 in Schritt S14 einen Fehlerbereich Ri, der bei dem Erfassungspunkt Pi des Bildobjekts, das in Schritt S13 berechnet wird, zentral vorliegt, wie in 3 dargestellt. Genauer gesagt sind ein Y-Koordinaten-(Vertikal)-Bereich des Fehlerbereichs Ri, der bei der Y-Koordinate des Erfassungspunkts Pi zentral vorliegt, und ein horizontaler Azimutwinkelbereich des Fehlerbereichs Ri (hiernach als ”Bildazimutwinkelbereich” bezeichnet), der bei dem horizontalen Azimutwinkel des Erfassungspunkts Pi zentral vorliegt, jeweils angenommene Fehler in der Y-Koordinate und dem horizontalen Azimutwinkel, welche auf Basis der Kennwerte der Millimeterwellen-Funkmessvorrichtung 3 vorbestimmt werden.
  • Der Fehlerbereich Ri kann durch Yi – EYi ≤ Y ≤ Yi + EYi und θi – Eθi ≤ θ ≤ θi + Eθi ausgedrückt werden, wobei Yi, θi die Y-Koordinate und den horizontalen Azimutwinkel des Erfassungspunkts Pr darstellen und ±EYi, ±Eθi jeweils angenommene Fehler in der Y-Koordinate und dem horizontalen Azimutwinkel sind. Das heißt, der Bildazimutwinkelbereich des Fehlerbereichs Ri ist 2Eθi breit und der Y-Koordinatenbereich des Fehlerbereichs Ri ist 2EYi breit.
  • Die Kollisionsabschwächungs-ECU 7 verändert den angenommenen Fehler EYi in der Y-Koordinate und den angenommenen Fehler Eθi im horizontalen Azimutwinkel gemäß einem Typ und einer Position des Bildobjekts. 5 stellt hierbei einen Prozess dar, der in Schritt S14 durchgeführt wird. Die Kollisionsabschwächungs-ECU 7 stellt in Schritt S141 den angenommenen Fehler EYi in der Y-Koordinate auf einen Standardwert IYi ein, der mit der Y-Koordinate Yi des Bildobjekts multipliziert wird. Das heißt, der angenommene Fehler EYi in der Y-Koordinate wird mit einem Anstieg der Y-Koordinate des Erfassungspunkts Pi des Bildobjekts erhöht. In der vorliegenden Ausführungsform ist der angenommene Fehler EYi in der Y-Koordinate proportional zur Y-Koordinate des Erfassungspunkts Pi des Bildobjekts. Dies kommt daher, dass ein Fehler in der unteren Endposition des Bildobjekts im aufgenommenen Bild größer wird, wenn das Objekt mit einem größeren Abstand von dem Bezugsfahrzeug in Vorwärtsrichtung des Bezugsfahrzeugs lokalisiert wird, d. h., wenn die Y-Koordinate des Objekts vergrößert wird.
  • Anschließend bestimmt die Kollisionsabschwächungs-ECU 7 in Schritt S142, ob das Bildobjekt ein Fahrzeug ist oder nicht. Falls in Schritt S142 bestimmt wurde, dass das Bildobjekt kein Fahrzeug ist (jedoch beispielsweise ein Fußgänger, oder dergleichen), lässt die Kollisionsabschwächungs-ECU 7 den angenommenen Fehler EYi in Schritt S143 unverändert. Falls in Schritt S142 bestimmt wird, dass das Bildobjekt ein Fahrzeug ist, multipliziert die Kollisionsabschwächungs-ECU 7 den angenommenen Fehler EYi in Schritt S144 mit einer konstanten C2 (größer als eins). Das heißt, falls bestimmt wurde, dass das Bildobjekt ein Fahrzeug ist, wird der angenommene Fehler EYi im Vergleich dazu, wenn bestimmt wurde, dass das Bildobjekt kein Fahrzeug ist, erhöht bzw. vergrößert. Dies kommt daher, dass, wenn das Objekt ein Fahrzeug ist, Räder und dergleichen durch einen Fahrzeugkörper wahrscheinlich verdunkelt sind, und die untere Endposition des Objekts daher weniger genau bestimmt werden kann, d. h., die Y-Koordinate des Objekts weniger genau bestimmt werden kann, als in einem Fall, wenn das Objekt kein Fahrzeug ist.
  • Anschließend bestimmt die Kollisionsabschwächungs-ECU 7 in Schritt S145, ob das Bildobjekt ein Fußgänger ist oder nicht. Falls in Schritt S145 bestimmt wird, dass das Bildobjekt kein Fußgänger ist (jedoch ein Fahrzeug, oder dergleichen), stellt die Kollisionsabschwächungs-ECU 7 den angenommenen Fehler Eθi in Schritt S146 auf einen Standardwert Iθi ein. Falls in Schritt S145 bestimmt wird, dass das Bildobjekt ein Fußgänger ist, multipliziert die Kollisionsabschwächungs-ECU 7 den Standardwert Eθi in Schritt S147 mit einer konstanten C3 (größer als eins). Das heißt, falls bestimmt wird, dass das Bildobjekt ein Fußgänger ist, wird der angenommene Fehler Eθi im Vergleich zu einem Fall, bei welchem bestimmt wird, dass das Bildobjekt ein Fahrzeug ist, erhöht. Dies resultiert aus der Tatsache, dass, da der Fußgänger, der vor dem Bezugsfahrzeug erfasst wird, wahrscheinlich ein Fußgänger ist, der über die Straße geht, die horizontale Position des Fußgängers weniger genau bestimmt werden kann, als wenn bestimmt wurde, dass das Bildobjekt ein Fahrzeug ist.
  • Im Folgenden wird der Fehlerbereich Ri, der in Schritt S14 definiert wird (d. h., der Fehlerbereich Ri, der für den Erfassungspunkt Pi des Bildobjekts auf Basis der Kennwerte der Monokular-Kamera 3 definiert wird) als ”Bildfehlerbereich Ri” bezeichnet.
  • Anschließend bestimmt die Kollisionsabschwächungs-ECU 7 in Schritt S15, ob ein Überlagerungsbereich des Funkfehlerbereichs Rr und des Bildfehlerbereichs Ri vorliegt oder nicht.
  • Falls in Schritt S15 bestimmt wird, dass ein Überlagerungsbereich des Funkfehlerbereichs Rr und des Bildfehlerbereichs Ri (ein schattierter Bereich in 3) vorliegt, bestimmt die Kollisionsabschwächungs-ECU 7, dass das Funkobjekt und das Bildobjekt dieselben sind, und zwar in Schritt S16. Eine Position des Objekts, das auf der XY-Ebene als dasselbe bestimmt wurde, ist eine Position Pf, die durch die Y-Koordinate Yr des Erfassungspunkts Pr des Funkobjekts und den horizontalen Azimutwinkel θi des Bildobjekts spezifiziert wird.
  • Ferner berechnet die Kollisionsabschwächungs-ECU 7 in Schritt S17 einen Zuverlässigkeitsgrad bei der Bestimmung, dass das Funkobjekt und das Bildobjekt dieselben sind. In der vorliegenden Ausführungsform wird der Zuverlässigkeitsgrad durch eine Winkeldifferenz zwischen dem horizontalen Azimutwinkel des Erfassungspunkts Pr des Funkobjekts und dem horizontalen Azimutwinkel des Erfassungspunkts Pi des Bildobjekts definiert. Ein derartiger Zuverlässigkeitsgrad steigt mit einem Anstieg der Winkeldifferenz an.
  • Falls in Schritt S15 bestimmt wird, dass kein Überlappungsbereich des Funkfehlerbereichs Rr und des Bildfehlerbereichs Ri vorliegt, bestimmt die Kollisionsabschwächungs-ECU 7, dass das Funkobjekt und das Bildobjekt nicht dieselben sind, d. h., dass sie verschiedene Objekte sind.
  • Anschließend führt die Kollisionsabschwächungs-ECU 7 eine Kollisionsabschwächungssteuerung gemäß der Position Pf des Objekts und des Zuverlässigkeitsgrads, berechnet in Schritt S17, durch. Wenn, zum Beispiel, das Bezugsfahrzeug wahrscheinlich mit dem Objekt kollidiert, sendet die Kollisionsabschwächungs-ECU 7 ein Warnsignal zu einer Alarmeinheit 6, um den Fahrer zu alarmieren. Wenn eine noch höhere Wahrscheinlichkeit vorliegt, dass das Bezugsfahrzeug mit dem Objekt kollidiert, weißt die Kollisionsabschwächungs-ECU 7 die Maschinen-ECU 5 an, eine Antriebskraft der Brennkraftmaschine zu reduzieren und/oder weißt die Brems-ECU 4 an, eine Bremskraft des Bezugsfahrzeugs zu erhöhen. Zudem verändert die Kollisionsabschwächungs-ECU 7 Steueraspekte gemäß einem Zuverlässigkeitsgrad. Für einen hohen Zuverlässigkeitsgrad wird beispielsweise ein Steuerungsinitiierungstiming weiter vorgesetzt als ein Steuerungsinitiierungstiming für einen niedrigen Zuverlässigkeitsgrad.
  • Die erste Ausführungsform kann die folgenden Vorteile bieten.
    • (1) In der vorliegenden Ausführungsform ist der X-Koordinatenbereich des Bildfehlerbereichs Ri ein Bildazimutwinkelbereich, der bei dem horizontalen Azimutwinkel θi des Objekts, das auf Basis des aufgenommenen Bildes (Bildobjekt) erfasst wird, zentral vorgesehen ist, wodurch falsche Bestimmungen verhindert werden können. Dies kommt daher, dass die Genauigkeit bei der Erfassung des horizontalen Azimutwinkels des Bildobjekts auf Basis des aufgenommenen Bildes von der Monokular-Kamera 3 relativ hoch ist, im Vergleich zu der Genauigkeit bei der Erfassung der Y-Koordinate einer Position des Bildobjekts. Daher wird nicht der X-Koordinatenbereich, sondern der Bildazimutwinkelbereich des Bildfehlerbereichs Ri eingestellt, eine konstante Breite aufzuweisen. Dies führt dazu, dass der Bildfehlerbereich Ri für die Kennwerte der Monokular-Kamera 3 geeignet ist, wodurch falsche Bestimmungen weiter verhindert werden können.
    • (2) In der vorliegenden Ausführungsform wird der X-Koordinatenbereich des Radarfehlerbereichs Rr, wenn bestimmt wird, dass das Funkobjekt ein Fahrzeug ist, erhöht, im Gegensatz zu dem Fall, wenn bestimmt wird, dass das Funkobjekt ein Fußgänger ist (siehe Schritte S121–S123 in 4). Dies führt dazu, dass der Funkfehlerbereich Rr für die Kennwerte eines Fahrzeugs mit einem lateralen größeren Punktebereich, von welchem Millimeterwellen reflektiert werden können, als bei einem Fußgänger, geeignet ist, wodurch falsche Bestimmungen verhindert werden können.
    • (3) In der vorliegenden Ausführungsform wird der Y-Koordinatenbereich des Bildfehlerbereichs Ri mit einer Erhöhung bzw. Vergrößerung der Y-Koordinate des Erfassungspunkts Pi des Bildobjekts vergrößert (siehe Schritt S141 in 5). Dies führt dazu, dass der Bildfehlerbereich Ri für die Kennwerte derart geeignet ist, dass ein Fehler in der unteren Endposition des Bildobjekts im aufgenommenen Bild mit einer Vergrößerung der Y-Koordinate des Objekts größer wird, wodurch falsche Bestimmungen verhindert werden können.
    • (4) In der vorliegenden Ausführungsform wird, wenn bestimmt wird, dass das Bildobjekt ein Fahrzeug ist, der Y-Koordinatenbereich des Bildfehlerbereichs Ri vergrößert, im Vergleich zu dem Fall, wenn bestimmt wird, dass das Bildobjekt ein Fußgänger ist (siehe Schritte S142–S144 in 5). Dies führt dazu, dass der Bildfehlerbereich Ri für Kennwerte geeignet ist, bei welchen eine untere Endposition eines Fahrzeugs nicht genau erfasst werden kann, wodurch falsche Bestimmungen verhindert werden können.
    • (5) In der vorliegenden Ausführungsform wird, wenn bestimmt wird, dass das Bildobjekt ein Fußgänger ist, der Bildazimutwinkelbereich des Bildfehlerbereichs Ri vergrößert, im Vergleich zu dem Fall, in dem bestimmt wird, dass das Bildobjekt ein Fahrzeug ist (siehe Schritte S142–S144 in 5). Dies führt dazu, dass der Bildfehlerbereich Ri für die Kennwerte eines sich lateral bewegenden Fußgängers (d. h. einer Bewegung in X-Richtung) geeignet sein kann, wodurch falsche Bestimmungen verhindert werden können.
    • (6) In der vorliegenden Ausführungsform wird, wenn bestimmt wird, dass das Funkobjekt und das Bildobjekt dieselben sind, eine Position des Objekts auf der XY-Ebene durch die Y-Koordinate des Erfassungspunkts Pr des Funkobjekts und den horizontalen Azimutwinkel θi des Bildobjekts definiert. Dies ermöglicht es, dass eine Position des Objekts unter Verwendung von Kennwerten von der Millimeterwellen-Funkmessvorrichtung 2 und der Monokular-Kamera 3 bestimmt werden kann.
    • (7) In der vorliegenden Ausführungsform wird, wenn bestimmt wird, dass das Funkobjekt und das Bildobjekt dieselben sind, ein Zuverlässigkeitsgrad bei einer Bestimmung, dass das Funkobjekt und das Bildobjekt dieselben sind, berechnet. Dies ermöglicht es, dass Fahrzeugsteueraspekte gemäß dem berechneten Zuverlässigkeitsgrad selbst dann verändert werden, wenn bestimmt wird, dass das Funkobjekt und das Bildobjekt dieselben sind. Genauer gesagt wird der Zuverlässigkeitsgrad durch eine Winkeldifferenz zwischen dem horizontalen Azimutwinkel des Erfassungspunkts Pr des Funkobjekts und dem horizontalen Azimutwinkel des Erfassungspunkts Pi des Bildobjekts definiert. Ein derartiger Zuverlässigkeitsgrad wird mit einer Erhöhung der Winkeldifferenz größer. Diese Definition kann die Berechnung des Zuverlässigkeitsgrades vereinfachen.
  • Mit Bezug auf 1B enthält die Kollisionsabschwächungs-ECU 7, welche als Objekterfassungsvorrichtung dient, eine erste Bereichdefinitionseinheit 71, die für das Ausführen der Schritte S11–S12 verantwortlich ist, eine zweite Bereichsdefinitionseinheit 72, die für das Ausführen der Schritte S13–S14 verantwortlich ist, und eine Bestimmungseinheit 73, die für das Ausführen der Schritte S15–S16 verantwortlich ist. Die Kollisionsabschwächungs-ECU 7 enthält ferner eine Zuverlässigkeitsgradberechnungseinheit 74, die für das Ausführen des Schrittes S17 verantwortlich ist. Diese Einheiten 7174 können durch die Kollisionsabschwächungs-ECU 7 implementiert sein, welche geeignete Computerprogramme ausführt, die im ROM oder dergleichen gespeichert sind, um gemäß den Prozessabläufen zu funktionieren, die in Zusammenhang mit den Ausführungsformen der Erfindung erläutert werden.
  • Das Funkobjekt entspricht einem ersten Objekt. Das Bildobjekt entspricht einem zweiten Objekt. Der Erfassungspunkt Pr entspricht einem ersten Erfassungspunkt. Der Erfassungspunkt Pi entspricht einem zweiten Erfassungspunkt. Der Funkfehlerbereich Rr entspricht einem ersten Objektbereich. Der Bildfehlerbereich Ri entspricht einem zweiten Objektbereich. Der Bildazimutwinkelbereich entspricht einem zweiten Azimutbereich.
  • (Zweite Ausführungsform)
  • Anschließend wird eine zweite Ausführungsform der vorliegenden Erfindung erläutert. In der zweiten Ausführungsform werden nur die Unterschiede zur ersten Ausführungsform erläutert.
  • In der vorstehend beschriebenen ersten Ausführungsform wird der Funkfehlerbereich Rr durch einen X-Koordinatenbereich eines angenommenen Fehlers in der X-Koordinate, der bei der X-Koordinate des Erfassungspunkts Pr zentral vorliegt, und einen Y-Koordinatenbereich eines angenommenen Fehlers in der Y-Koordinate, der bei der Y-Koordinate des Erfassungspunkts Pr zentral vorliegt, definiert, wobei die angenommenen Fehler in den X- und Y-Koordinaten auf Basis der Kennwerte der Millimeterwellen-Funkmessvorrichtung 2 vorbestimmt werden.
  • Alternativ wird in der vorliegenden Ausführungsform ein Funkfehlerbereich Rr durch einen horizontalen Azimutwinkelbereich eines angenommenen Fehlers im horizontalen Azimutwinkel, der bei dem horizontalen Azimutwinkel des Erfassungspunkts Pr zentral vorliegt, und einen Y-Koordinatenbereich des angenommenen Fehlers in der Y-Koordinate, der bei der Y-Koordinate des Erfassungspunkts Pr zentral vorliegt, definiert, wobei die angenommenen Fehler im horizontalen Azimutwinkel und der Y-Koordinate auf Basis der Kennwerte der Millimeterwellen-Funkmessvorrichtung 2 vorbestimmt werden.
  • Der Funkfehlerbereich Rr kann durch Yr – EYr ≤ Y ≤ Yr + EYr und θr – Eθr ≤ θ ≤ θr + Eθr ausgedrückt werden, wobei Yr, θr die Y-Koordinate und den horizontalen Azimutwinkel des Erfassungspunkts Pr darstellen und ±EYr, ±θr die angenommenen Fehler in der Y-Koordinate und dem horizontalen Azimutwinkel sind. Das heißt, der horizontale Azimutwinkelbereich des Fehlerbereichs Rr, der bei dem horizontalen Azimutwinkel des Erfassungspunkts Pr zentral vorliegt, ist 2Eθr breit (hiernach als ”Funkazimutwinkelbereich” bezeichnet) und der Y-Koordinatenbereich des Funkfehlerbereichs Rr, der bei der Y-Koordinate des Erfassungspunkts Pr zentral vorliegt, ist 2EYr breit.
  • Mit dieser Konfiguration können in der vorliegenden Ausführungsform ähnliche Vorteile wie in der ersten Ausführungsform erzielt werden. Zudem wird in der vorliegenden Ausführungsform der Funkfehlerbereich Rr basierend auf mehr Kennwerten der Millimeterwellen-Funkmessvorrichtung 2 definiert, wodurch falsche Bestimmungen verhindert werden können. Der Funkazimutwinkelbereich entspricht einem ersten Azimutbereich.
  • (Dritte Ausführungsform)
  • Anschließend wird eine dritte Ausführungsform der vorliegenden Erfindung erläutert. Mit Bezug auf die dritte Ausführungsform werden nur Unterschiede zur zweiten Ausführungsform erläutert.
  • In der zweiten Ausführungsform werden, wie vorstehend beschrieben, der Funkfehlerbereich Rr und der Bildfehlerbereich Ri auf ähnliche Weise definiert. Wie in 6 dargestellt, wird der Funkfehlerbereich Rr durch einen horizontalen Azimutwinkelbereich eines angenommenen Fehlers im horizontalen Azimutwinkel, der bei dem horizontalen Azimutwinkel des Erfassungspunkts Pr zentral vorliegt, und einen Y-Koordinatenbereich eines angenommenen Fehlers in der Y-Koordinate, der bei der Y-Koordinate des Erfassungspunkts Pr zentral vorliegt, definiert. Ähnlich wird der Bildfehlerbereich Ri durch einen horizontalen Azimutwinkelbereich eines angenommenen Fehlers im horizontalen Azimutwinkel, der bei dem horizontalen Azimutwinkel des Erfassungspunkts Pi zentral vorliegt, und einen Y-Koordinatenbereich eines angenommenen Fehlers in der Y-Koordinate, der bei der Y-Koordinate des Erfassungspunkts Pi zentral vorliegt, definiert.
  • Alternativ werden in der dritten Ausführungsform der Funkfehlerbereich Rr und der Bildfehlerbereich Ri auf ähnliche Weise wie folgt definiert. Die Position des Erfassungspunkts Pr wird durch einen linearen Abstand r1 von dem Referenzpunkt Po zu dem Erfassungspunkt Pr (auch als radiale Koordinate bezeichnet) und dem horizontalen Azimutwinkel des Erfassungspunkts Pr, wie in den ersten und zweiten Ausführungsformen definiert, spezifiziert.
  • In der vorliegenden Ausführungsform wird, wie in 8 dargestellt, der Funkfehlerbereich Rr durch einen horizontalen Azimutwinkelbereich des angenommenen Fehlers im horizontalen Azimutwinkel, der bei dem horizontalen Azimutwinkel des Erfassungspunkts Pr zentral vorliegt, und einen linearen Abstandsbereich eines angenommenen Fehlers im linearen Abstand, der bei dem linearen Abstand des Erfassungspunkts Pr zentral vorliegt, definiert, wobei die angenommenen Fehler im horizontalen Azimutwinkel und dem linearen Abstand auf Basis der Kennwerte der Millimeterwellen-Funkmessvorrichtung 2 vorbestimmt werden. Der Funkfehlerbereich Rr kann durch r1 – Er1 ≤ r ≤ r1 + Er1 und θr – Eθr ≤ θ ≤ θr + Eθr ausgedrückt werden, wobei r1, θr den linearen Abstand und den horizontalen Azimutwinkel des Erfassungspunkts Pr darstellen und ±Er1, ±θr angenommene Fehler im linearen Abstand und dem horizontalen Azimutwinkel sind. Das heißt, der Funkfehlerbereich Rr wird durch den horizontalen Azimutwinkelbereich von θr-Eθr bis θr + Eθr, welcher bei dem horizontalen Azimutwinkel des Erfassungspunkts Pr (Funkazimutwinkelbereich) zentral vorliegt, und den linearen Abstandsbereich von r1 – Er1 bis r1 + Er1, welcher bei dem linearen Abstand des Erfassungspunkts Pr (hiernach als ”Funkabstandsbereich” bezeichnet) zentral vorliegt, definiert.
  • Der angenommene Fehler Eθr im horizontalen Azimutwinkel θr des Erfassungspunkts Pr des Funkobjekts wird als Produkt von Eθ1 und Eθ2 (d. h., Eθr = Eθl × Eθ2) berechnet. Wie in 9A dargestellt, wird Eθ1 auf eine untere Grenze θc1 [Grad] für den horizontalen Azimutwinkel θr kleiner oder gleich θr1 [Grad] eingestellt, erhöht mit einem größer werdenden horizontalen Azimutwinkel θr von θr1 [Grad] auf θr2 [Grad] (θr2 > θr1), wobei Eθ1 – θc1 proportional zu θr – θr1 ist, und auf eine obere Grenze θc2 [Grad] für den horizontalen Azimutwinkel θr größer oder gleich θr2 [Grad] eingestellt.
  • Mit dem angenommenen Fehler Eθr und der Verwendung von Eθ1 wird, wenn der horizontale Azimutwinkel θr größer als θr1 [Grad] ist, der angenommene Fehler Eθr im Vergleich dazu, wenn der horizontale Azimutwinkel θr gleich oder kleiner als θr1 [Grad] ist, erhöht bzw. vergrößert. Dies führt dazu, dass der angenommene Fehler Eθr die Kennwerte der Millimeterwellen-Funkmessvorrichtung 2 derart reflektiert, dass ein Erfassungsfehler mit einem vergrößerten horizontalen Azimutwinkel θr vergrößert wird, d. h., der Antennengewinn bzw. die Antennenverstärkung nimmt ab.
  • Zudem wird, wie in 9B dargestellt, Eθ2 eingestellt, um indirekt proportional zum linearen Abstand r1 vom Referenzpunkt Po zum Funkobjekt zu sein, d. h., Eθ2 = rc/r1, wobei rc eine Konstante ist. Für den linearen Abstand r1 größer oder kleiner rc [m], wird Eθ2 auf den unteren Grenzwert θc1 [Grad] eingestellt.
  • Mit dieser Definition des angenommenen Fehlers Eθr, berechnet durch eine Multiplikation von Eθ2 mit Eθ1, wird, wenn der lineare Abstand r1 kleiner als der vorbestimmte Wert rc [m] ist, der angenommene Fehler Eθr im horizontalen Azimutwinkel erhöht, im Vergleich zu dem Fall, wenn der lineare Abstand r1 größer oder gleich dem vorbestimmten Wert rc [m] ist. Falls Eθr über den linearen Abstand von dem Referenzpunkt Po zu dem Erfassungspunkt Pr konstant wäre, würde der Funkfehlerbereich Rr für kurze lineare Abstände derart eng sein (insbesondere in X-Achsenrichtung), dass ein Überlagerungsbereich zwischen dem Funkfehlerbereich Rr und dem Bildfehlerbereich Ri unwahrscheinlich ist, was zu falschen Bestimmungen (ihren würde, dass das Funkobjekt und das Bildobjekt unterschiedliche Objekte sind, obwohl sie eigentlich dieselben sind. Daher wird in der vorliegenden Ausführungsform der angenommene Fehler Eθr mit einem kleiner werdenden linearen Abstand von dem Referenzpunkt Po zum Erfassungspunkt Pr erhöht, wodurch verhindert werden kann, dass der angenommene Fehler Eθr zu klein wird. In der vorliegenden Ausführungsform wird die obere Grenze des angenommenen Fehlers Eθr auf θc3 [Grad] (θc3 > θc2) eingestellt, und die untere Grenze des angenommenen Fehlers Eθr wird auf θc1 [Grad] eingestellt.
  • Der angenommene Fehler Er1 im linearen Abstand wird z. B. als Er1 = r1 × A1 + B berechnet, wobei A1, B Konstanten sind. Das heißt, der angenommene Fehler Er1 vergrößert sich mit einer Vergrößerung des linearen Abstands r1 von dem Referenzpunkt Po zum Erfassungspunkt Pr des Funkobjekts. Dies führt dazu, dass der angenommene Fehler Er! die Kennwerte der Millimeterwellen-Funkmessvorrichtung 2 derart reflektiert, dass der Erfassungsfehler im linearen Abstand mit einer Vergrößerung des linearen Abstands r1 größer wird.
  • Zudem wird, wie in 10 dargestellt, der Bildfehlerbereich Ri durch einen horizontalen Azimutwinkelbereich eines angenommenen Fehlers im horizontalen Azimutwinkel, der bei dem horizontalen Azimutwinkel θi des Erfassungspunkts Pi des Bildobjekts zentral vorliegt, und einen linearen Abstandsbereich eines angenommenen Fehlers im linearen Abstand, der bei dem linearen Abstand r2 des Erfassungspunkts Pi zentral vorliegt, definiert, wobei die angenommenen Fehler im horizontalen Azimutwinkel und dem linearen Abstand auf Basis der Kennwerte der Monokular-Kamera 3 vorbestimmt werden. Der Bildfehlerbereich Ri kann durch r2 – Er2 ≤ r ≤ r2 + Er2 und θi – Eθi ≤ θ ≤ θi + Eθi ausgedrückt werden, wobei r2, θi den linearen Abstand und den horizontalen Azimutwinkel des Erfassungspunkts Pi darstellen und ±Er2, ±θi die angenommenen Fehler im linearen Abstand und der horizontale Azimutwinkel sind. Das heißt, der Bildfehlerbereich Ri wird durch den horizontalen Azimutwinkelbereich von θi – Eθi bis θi + Eθi, welcher bei dem horizontalen Azimutwinkel θi des Erfassungspunkts Pi (Bildazimutwinkelbereich) zentral vorliegt, und den linearen Abstandsbereich von r2 – Er2 bis r2 + Er2, welcher bei dem linearen Abstand r2 des Erfassungspunkts Pi (hiernach als ”Bildabstandsbereich” bezeichnet) zentral vorliegt, definiert.
  • Der angenommene Fehler Eθi im horizontalen Azimutwinkel θi des Erfassungspunkts Pi des Bildobjekts wird auf ähnliche Weise wie der angenommene Fehler Eθ2 definiert. Wie in 11 dargestellt wird Eθi eingestellt, um indirekt proportional zum linearen Abstand r2 von dem Referenzpunkt Po zum Erfassungspunkt Pi des Bildobjekts zu sein, das heißt, Eθi = rc/r2. Für den linearen Abstand r2 gleich oder größer als rc [n], wird Eθi auf die untere Grenze θc1 [Grad] eingestellt.
  • Mit dieser Definition wird, wenn der lineare Abstand r2 von Referenzpunkt Po zum Erfassungspunkt Pi des Bildobjekts kleiner als der vorbestimmte Wert c [n] ist, der angenommene Fehler Eθi im horizontalen Azimutwinkel vergrößert, im Vergleich zu dem Fall, wenn der lineare Abstand r2 gleich oder größer als der vorbestimmte Wert rC [m] ist. In der vorliegenden Ausführungsform wird die obere Grenze Eθi auf θc3 [Grad] eingestellt. Bei einer Definition ohne Multiplikation mit Wθ1 wird der Bildazimutalbereich bezüglich der Breite im Vergleich zum Funkazimutalbereich reduziert. Bezüglich einer Erfassungsgenauigkeit horizontalen Azimutwinkels θi auf Basis des aufgenommenen Bildes ist unwahrscheinlich, dass er durch den horizontalen Azimutwinkel θi selbst im Vergleich zum horizontalen Azimutwinkel θr beeinflusst wird.
  • Der angenommene Fehler Er2 im linearen Abstand r2 bzw. des linearen Abstands r2 wird zum Beispiel durch Er2 = r3 × A2 + B berechnet, wobei A2 (größer A1), B Konstanten sind. Das heißt, der angenommene Fehler Er2 wird mit einem größer werdenden linearen Abstand r2 vom Referenzpunkt Po zum Erfassungspunk Pi des Bildfunkobjekts erhöht, bzw. vergrößert. Die Vergrößerungsrate A2 des angenommenen Fehlers Gr2 ist größer als die Vergrößerungsrate A1 des angenommenen Fehlers Er1. Dies führt dazu, dass der angenommene Fehler Er2 die Kennwerte der Monokular-Kamera 3 derart darstellt, dass der Erfassungsfehler im linearen Abstand r2, der unter Verwendung der Monokular-Kamera 3 bestimmt wird, größer als der Erfassungsfehler im linearen Abstand r1 ist, der durch die Millimeterwellen-Funkmessvorrichtung 2 bestimmt wird, und das der Erfassungsfehler im linearen Abstand R2 mit einer Vergrößerung des linearen Abstands r2 größer wird.
  • Mit dieser Konfiguration kann die vorliegende Ausführungsform ähnliche Vorteile wie die zweite Ausführungsform erzielen. Die vorliegende Ausführungsform kann zudem noch die folgenden Vorteile erzielen.
    • (1) In der vorliegenden Ausführungsform wird der Bildfehlerbereich Ri durch den Bildazimutbereich eines angenommenen Fehlers und den Bildabstandsbereich eines angenommenen Fehlers definiert. Dies führt dazu, dass der Bildfehlerbereich Ri Erfassungsfehler geeigneter als bei einem Bildfehlerbereich reflektiert, der unter Verwendung des Y-Koordinatenbereichs eines angenommenen Fehlers an Stelle des Bildabstandsbereichs eines angenommenen Fehlers definiert wird.
    • (2) In der vorliegenden Ausführungsform wird der Bildabstandsbereich eines angenommenen Fehlers mit einer Vergrößerung des linearen Abstands r2 vom Referenzpunkt Po zum Erfassungspunkt des Bildobjekts vergrößert. Dies führt dazu, dass der Bildfehlerbereich Ri für die Kennwerte der Monokular-Kamera 3 besser geeignet ist.
    • (3) In der vorliegenden Ausführungsform wird, wenn der lineare Abstand r2 von Referenzpunkt Po zum Erfassungspunkt des Bildobjekts kleiner als der vorbestimmte Wert Rc ist, der Bildazimutbereich des angenommenen Fehlers vergrößert, im Vergleich zu dem Fall, wenn der lineare Abstand r2 größer oder gleich dem vorbestimmten Wert rc ist. Dies kann falsche Bestimmungen bezüglich des Vorhandenseins von Objekten nahe dem Bezugsfahrzeug verhindern.
    • (4) In der vorliegenden Ausführungsform wird der Funkfehlerbereich Rr durch den Funkazimutbereich eines angenommenen Fehlers und den Funkabstandsbereich eines angenommenen Fehlers definiert. Dies führt dazu, dass der Funkfehlerbereich Rr Erfassungsfehler geeigneter als bei einem Funkfehlerbereich reflektiert, welcher unter Verwendung des X-Koordinatenbereichs eines angenommenen Fehlers an Stelle des Funkabstandsbereichs eines angenommenen Fehlers definiert wird.
    • (5) in der vorliegenden Ausführungsform wird der Funkabstandsbereich des angenommenen Fehlers mit einem größer werdenden linearen Abstand r1 vom Referenzpunkt Po zum Erfassungspunkt des Funkobjekts vergrößert. Dies führt dazu, dass der Funkfehlerbereich Rr für die Kennwerte der Millimeterwellen-Funkmessvorrichtung besser geeignet ist.
    • (6) In der vorliegenden Ausführungsform wird, wenn der lineare Abstand r1 vom Referenzpunkt Po zum Erfassungspunkt des Funkobjekts kleiner als der vorbestimmte Wert Rc ist, der Funkazimutbereich des angenommenen Fehlers vergrößert, im Vergleich zu dem Fall, wenn der lineare Abstand r1 größer oder gleich derm vorbestimmten Wert ist. Dies führt dazu, dass der Funkfehlerbereich Rr für die Kennwerte der Millimeterwellen-Funkmessvorrichtung 2 besser geeignet ist.
    • (7) In der vorliegenden Ausführungsform wird, wenn der horizontale Azimutwinkel θr größer als der vorbestimmte Wert θr1 ist, der Funkazimutbereich eines angenommenen Fehlers vergrößert, im Vergleich zu dem Fall, wenn der horizontale Azimutwinkel θr kleiner oder gleich dem vorbestimmten Wert θr1 ist. Dies führt dazu, dass der Funkfehlerbereich Rr für die Kennwerte der Millimeterwellen-Funkmessvorrichtung 2 besser geeignet ist.
    • (8) In der vorliegenden Ausführungsform wird der Funkabstandsbereich des angenommenen Fehlers im Vergleich zu dem Bildabstandsbereich eines angenommenen Fehlers verkleinert. Dies führt dazu, dass der Funkfehlerbereich Rr und der Bildfehlerbereich Ri unterschiede in den Kennwerten zwischen der Millimeterwellen-Funkmessvorrichtung 2 und der Monokular-Kamera 3 geeigneter reflektieren.
    • (9) In der vorliegenden Ausführungsform wird der Bildazimutbereich eines angenommenen Fehlers im Vergleich zu einem Funkazimutbereich eines angenommenen Fehlers beschränkt. Dies führt dazu, dass der Funkfehlerbereich Rr und der Bildfehlerbereich Re unterschiede bezüglich der Kennwerte zwischen der Millimeterwellen-Funkmessvorrichtung 2 und der Monokular-Kamera 3 geeigneter reflektieren.
  • In der vorliegenden Ausführungsform kann, wie in der ersten oder der zweiten Ausführungsform, eine Position des Objekts, welche auf der XY-Ebene als dieselbe bestimmt wird, eine Position Pf sein, die durch die X-Koordinate Xr des Erfassungspunkts Pr des Funkobjekts und den horizontalen Azimutwinkel θi des Bildobjekts festgelegt wird. Alternativ kann an Stelle der Y-Koordinate Yr der lineare Abstand r1 verwendet werden. Das heißt, eine Position des Objekts, welches auf der XY-Ebene als dasselbe bestimmt wird, kann auf eine Position eingestellt werden, die durch die radiale Koordinate des Erfassungspunkts Pr des Funkobjekts und den horizontalen Azimutwinkel θi des Bildobjekts festgelegt wird.
  • Der Funkabstandsbereich entspricht einem ersten linearen Abstandsbereich. Der Bildabstandsbereich entspricht einem weiten linearen Abstandsbereich.
  • (Vierte Ausführungsform)
  • Anschließend wird eine vierte Ausführungsform der vorliegenden Erfindung erläutert. Mit Bezug auf die vierte Ausführungsform werden nur unterschiede zur ersten Ausführungsform erläutert.
  • In der vorstehend beschriebenen ersten Ausführungsform wird der Funkfehlerbereich Rr mit Bezug auf den Erfassungspunkt Pr des Funkobjekts definiert. Falls bestimmt wird, dass ein Überlagerungsbereich des Funkfehlerbereichs Rr und des Bildfehlerbereichs Ri vorliegt, wird bestimmt, dass das Funkobjekt und das Bildobjekt dieselben sind.
  • Alternativ wird in der vorliegenden Ausführungsform, wie in 12 dargestellt, falls bestimmt wird, dass der Erfassungspunkt Pr des Funkobjekts mit dem Bildfehlerbereich Ri überlagert, das heißt, falls bestimmt wird, dass der Erfassungspunkt Pr des Funkobjekts im Bildfehlerbereich Ri vorliegt, bestimmt, dass das Funkobjekt und das Bildobjekt dieselben sind. Die vorliegende Ausführungsform kann als beschränkendes Beispiel der ersten Ausführungsform verstanden werden, bei welchem der Funkfehlerbereich Rr auf den Erfassungspunkt Pr geschrumpft ist.
  • Die vorliegende Ausführungsform kann ähnliche Vorteile wie die erste Ausführungsform erzielen. Die vorliegende Ausführungsform erzielt den zusätzlichen Vorteil, dass auf den Prozess in Schritt S12 verzichtet werden kann.
  • Der Erfassungspunkt Pr entspricht nicht nur dem ersten Erfassungspunkt sondern auch dem ersten Objektbereich. Die vorliegende Ausführungsform wird bei der ersten Ausführungsform angewandt. Alternativ kann die vorliegende Ausführungsform auch bei der zweiten oder dritten Ausführungsform angewandt werden.
  • (Fünfte Ausführungsform)
  • Anschließend wird eine fünfte Ausführungsform der vorliegenden Erfindung erläutert. Mit Bezug auf die fünfte Ausführungsform werden nur unterschiede zur ersten Ausführungsform erläutert.
  • In der vorstehend beschriebenen ersten Ausführungsform wird in Schritt S147, wenn in Schritt S145 bestimmt wird, dass das Bildobjekt ein Fußgänger ist, der angenommene Fehler Eθi im horizontalen Azimutwinkel auf einen Standardwert Iθi eingestellt, der mit einer Konstanten C3 multipliziert wird. Genauer gesagt geht der horizontale Azimutwinkelbereich in der ersten Ausführungsform von θi – Eθi bis θi + Eθi und liegt bei dem horizontalen Azimutwinkel θi des Erfassungspunkts Pi (das heißt, symmetrisch um den horizontalen Azimutwinkel θi) zentral vor.
  • Alternativ kann in der vorliegenden Ausführungsform, wie in 13 dargestellt, wenn bestimmt wird, dass das Bildobjekt ein Fußgänger ist, der horizontale Azimutwinkelbereich asymmetrisch um den horizontalen Azimutwinkel θi verlaufen, das heißt, linke und rechte angenommene Fehler EθiL, EθiR im horizontalen Azimutwinkel mit Bezug auf den horizontalen Azimutwinkel θi gemäß einer Bewegungsrichtung des Fußgängers enthalten, das heißt, abhängig von einer Bewegungsrichtung nach links oder nach rechts. Die linken und rechten angenommenen Fehler EθiL, EθiR können sich unterscheiden.
  • Genauer gesagt wird in der fünften Ausführungsform ein Prozessablauf, der in 14 dargestellt ist, alternativ zum Prozessablauf, der in 5 dargestellt ist, durchgeführt. Da die Betriebe in den Schritten S241–S246 und S248 ähnlich den Betrieben in den Schritten S141–S147 sind, werden entsprechende Erläuterungen für die Betriebe in den Schritten S241–S246 und S248 nicht wiederholt.
  • Falls in Schritt S245 bestimmt wird, dass das Bildobjekt ein Fußgänger ist, bestimmt die Kollisionsabschwächungs-ECU 7 in Schritt S247, ob sich der Fußgänger bewegt oder nicht. Falls in Schritt S247 bestimmt wird, dass sich der Fußgänger nicht bewegt, das heißt, der Fußgänger steht, stellt die Kollisionsabschwächungs-ECU 7 in Schritt S248 sowie im Schritt S147 den angenommenen Fehler Eθi im horizontalen Azimutwinkel auf einen Standardwert Iθi ein, der mit einer Konstanten C3 (größer als 1) multipliziert wird. Falls in Schritt S247 bestimmt wird, dass sich der Fußgänger bewegt, bestimmt die Kollisionsabschwächungs-ECU 7 in Schritt S249, ob sich der Fußgänger nach links bewegt oder nicht (eine erste Richtung). Falls in Schritt S249 bestimmt wird, dass sich der Fußgänger nach links bewegt, stellt die Kollisionsabschwächungs-ECU 7 in Schritt S250 einen linken angenommenen Fehler EθiL im horizontalen Azimutwinkel auf den Standardwert Iθi ein, der mit einer Konstanten C4 multipliziert wird, und stellt ferner in Schritt S250 einen rechten angenommenen Fehler EθiR im horizontalen Azimutwinkel auf den Standardwert Iθi ein, der mit einer Konstanten C5 multipliziert. Der linke angenommene Fehler EθiL ist ein angenommener Fehler im horizontalen Azimutwinkel auf der linken Seite des horizontalen Azimutwinkels θi des Erfassungspunkts Pi des Bildobjekts, und der rechte angenommene Fehler EθiR ist ein angenommener Fehler im horizontalen Azimutwinkel auf der rechten Seite des horizontalen Azimutwinkels θi des Erfassungspunkts Pi des Bildobjekts. Wie in 13 dargestellt, wird der Bildfehlerbereich Ri nicht durch θi – Eθi ≤ θ ≤ θi + Eθi definiert, sondern durch θi – EθiL ≤ θ ≤ θi + EθiR. Die Konstante C5 wird größer als die Konstante C4 eingestellt, das heißt, C5 > C4.
  • Falls in Schritt S249 bestimmt wird, dass sich der Fußgänger nicht nach links bewegt sondern nach rechts (eine zweite Richtung), stellt die Kollisionsabschwächungs-ECU 7 in Schritt S251 den linken angenommenen Fehler EθiL im horizontalen Azimutwinkel auf den Standardwert Iθi ein, der mit einer Konstanten C5 multipliziert wird, und stellt ferner in Schritt S251 den rechten angenommenen Fehler EθiR im horizontalen Azimutwinkel auf den Standardwert Iθi ein, der mit einer Konstanten C4 multipliziert wird.
  • Das heißt, wenn bestimmt wird, dass das Bildobjekt ein Fußgänger ist, der sich nach links bewegt, wird der rechte angenommene Fehler größer als der linke angenommene Fehler eingestellt. Wenn bestimmt wird, dass das Bildobjekt ein Fußgänger ist, der sich nach rechts bewegt (d. h., in die X-Achsenrichtung), wird der linke angenommene Fehler größer als der rechte angenommene Fehler eingestellt.
  • Die vorliegende Ausführungsform, die wie vorstehend konfiguriert ist, kann ähnliche Vorteile wie die erste Ausführungsform erzielen. Die vorliegende Ausführungsform kann die folgenden zusätzlichen Vorteile erzielen. Die vorliegende Ausführungsform führt dazu, dass der Bildfehlerbereich Ri für die Kennwerte einer lateralen Bewegung eines Fußgängers geeignet ist (d. h., einer Bewegung in X-Richtung), wodurch falsche Bestimmungen verhindert werden können. Wie vorstehend beschrieben, wird der horizontale Azimutwinkel θi des Bildobjekts auf Basis eines Abstands von der FOE zu einer vertikalen Linie, die durch die Mitte des Bildobjekts verläuft, bestimmt. Für die laterale Bewegung des Fußgängers ist jedoch, wie in den 15B, 15C dargestellt, wahrscheinlicher, dass die vertikale Linie von dem tatsächlichen Zentrum bzw. der Mitte des Objekts abweicht, wie im Vergleich zu der vertikalen Linie, die durch die Mitte des stationären Objekts verläuft, wie in 15A dargestellt. Da das Abweichen der vertikalen Linie von der tatsächlichen Mitte des Objekts nach links oder rechts von der Mitte des Bildobjekts von der Bewegungsrichtung des Fußgängers abhängt, sind die linken und rechten angenommenen Fehler abhängig von der Bewegungsrichtung des Fußgängers unterschiedlich.
  • In der vorliegenden Ausführungsform wird der angenommene Fehler in der Richtung entgegengesetzt zur Bewegungsrichtung des Fußgängers größer als der angenommene Fehler in Bewegungsrichtung eingestellt. In manchen alternativen Ausführungsformen, die sich von der vorliegenden Ausführungsform unterscheiden, kann der angenommene Fehler in Bewegungsrichtung des Fußgängers größer als der angenommene Fehler in Richtung entgegengesetzt zur Bewegungsrichtung des Fußgängers eingestellt werden, wie in 16 dargestellt. Zudem unterscheiden sich in der vorliegenden Ausführungsform die linken und rechten angenommenen Fehler abhängig von der Bewegungsrichtung des Fußgängers voneinander. Alternativ können die linken und rechten angenommenen Fehler nicht nur abhängig von der Bewegungsrichtung des Fußgängers unterschieden werden, sondern auch von der Bewegungsgeschwindigkeit des Fußgängers. Wenn sich der Fußgänger z. B. in die linke Richtung bewegt, wird der rechte angenommene Fehler mit einem Anstieg der Bewegungsgeschwindigkeit des Fußgängers im Vergleich zum linken angenommenen Fehler stärker erhöht.
  • (Weitere Ausführungsformen)
  • Anschließend werden weitere Ausführungsformen der ersten bis fünften Ausführungsformen erläutert, welche ausführbar sind, ohne dabei vom Geiste und Umfang der vorliegenden Erfindung abzuweichen.
    • (1) In jeder der ersten bis fünften Ausführungsform wird, wenn bestimmt wird, dass ein Überlagerungsbereich des Funkfehlerbereichs Rr und des Bildfehlerbereichs Ri vorliegt, bestimmt, dass das Funkobjekt und das Bildobjekt dieselben sind. Alternativ kann, wenn bestimmt wird, dass der Funkfehlerbereich Rr im Bildfehlerbereich Ri enthalten ist, oder wenn bestimmt wird, dass der Bildfehlerbereich Ri im Funkfehlerbereich Rr enthalten ist, bestimmt werden, dass das Funkobjekt und das Bildobjekt dieselben sind.
    • (2) In jeder der ersten bis fünften Ausführungsform wird der Zuverlässigkeitsgrad bei der Bestimmung, dass das Funkobjekt und das Bildobjekt dieselben sind, durch eine Winkeldifferenz zwischen dem horizontalen Azimutwinkel des Erfassungspunkts Pr des Funkobjekts und dem horizontalen Azimutwinkel des Erfassungspunkts Pi des Bildobjekts definiert. Alternativ kann z. B. der Zuverlässigkeitsgrad bei der Bestimmung, dass das Funkobjekt und das Bildobjekt dieselben sind, derart definiert werden, dass er bei einer Vergrößerung eines Bereichs eines Überlagerungsbereichs des Funkfehlerbereichs Rr und des Bildfehlerbereichs Ri (z. B. ein Bereich des schattierten Bereichs in 3) vergrößert wird. Ein derartiger Zuverlässigkeitsgrad kann falsche Bestimmungen, dass das Funkobjekt und das Bildobjekt dieselben sind, obwohl horizontale Azimutwinkel des Funkobjekts und des Bildobjekts nahe beieinander liegen, aber lineare Abstände derselben signifikant unterschiedlich sind, verhindern.
    • (3) In jeder der ersten bis fünften Ausführungsform wird die Millimeterwellen-Funkmessvorrichtung 2 als Funkmessvorrichtung verwendet. Alternativ kann ein anderer Typ einer Funkmessvorrichtung bzw. eines Radars als Funkmessvorrichtung verwendet werden.
    • (4) In jeder der ersten bis fünften Ausführungsform wird die vorliegende Erfindung bei einer Kollisionsabschwächungsvorrichtung 1 angewandt. Alternativ kann die vorliegende Erfindung auch bei einem anderen Typ einer Fahrzeugsteuerung angewandt werden.
    • (5) In jeder der ersten bis fünften Ausführungsform ist die Kollisionsabschwächungs-ECU 7 als Controller ein separates Element von der Millimeterwellen-Funkmessvorrichtung 2 und der Monokular-Kamera 3. Alternativ kann die Kollisionsabschwächungs-ECU 7 in der Millimeterwellen-Funkmessvorrichtung 2 und/oder der Monokular-Kamera 3 enthalten sein.
    • (6) In jeder der ersten bis fünften Ausführungsform werden der Fußgänger und das Fahrzeug als beispielhafte Objekte erfasst. Alternativ können auch andere Objekte erfasst werden.
    • (7) Jede Komponente der vorliegenden Erfindung stellt ein gewisses Konzept dar. Daher können beispielsweise Funktionen von einer der Komponenten in jeder der ersten bis fünften Ausführungsform über eine Mehrzahl von Komponenten verteilt werden, oder Funktionen von manchen Komponenten in jeder der ersten bis fünften Ausführungsform können mit einer anderen Komponente integriert oder verbunden werden. Außerdem können manche der Eigenschaften von einer der ersten bis fünften Ausführungsform mit Eigenschaften von einer anderen der ersten bis fünften Ausführungsform zusammengeführt oder durch diese ersetzt werden.
  • Hierbei versteht ein Fachmann, dass die vorstehend beschriebenen Ausführungsformen durch Hardware, Software oder eine Kombination aus Software und Hardware implementiert werden können. Die Module und Funktionen, die zusammen mit den Ausführungsformen der Erfindung beschrieben wurden, können in ihrer Gesamtheit oder teilweise durch Mikroprozessoren oder Computer, welche geeignet programmiert sind, implementiert werden, um gemäß den in Verbindung mit den Ausführungsformen der Erfindung erläuterten Verfahren zu funktionieren. Eine Vorrichtung, die eine Ausführungsform der Erfindung implementiert, kann beispielsweise ein Computer sein, welcher derart geeignet programmiert ist, dass er die vorstehend beschriebenen Mechanismen der Ausführungsformen der Erfindung auszuführen kann.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2006-292475 A [0002]

Claims (20)

  1. Objekterfassungsvorrichtung (7), die in einem Fahrzeug montiert ist, aufweisend: eine erste Bereichsdefinitionseinheit (71, S11–S12), die konfiguriert ist, einen ersten Objektbereich zu definieren, der einen ersten Erfassungspunkt enthält, wobei der erste Erfassungspunkt eine Position eines ersten Objekts anzeigt, das unter Verwendung einer fahrzeugseitigen Funkmessvorrichtung (2) erfasst wird, und zwar relativ zu einem Referenzpunkt auf einer XY-Ebene, wobei eine X-Achsenrichtung der XY-Ebene eine Fahrzeugbreiterichtung ist und eine Y-Achsenrichtung der XY-Ebene eine Fahrzeuglängsrichtung ist; eine zweite Bereichsdefinitionseinheit (72, S13–S14), die konfiguriert ist, einen zweiten Objektbereich zu definieren, der einen zweiten Erfassungspunkt enthält, wobei der zweite Erfassungspunkt eine Position eines zweiten Objekts anzeigt, das auf Basis eines Bildes erfasst wird, das durch eine fahrzeugseitige Monokular-Kamera (3) aufgenommen wird, und zwar relativ zu dem Referenzpunkt auf der XY-Ebene, wobei der zweite Objektbereich durch einen zweiten Azimutbereich eines Azimutwinkels des zweiten Objekts von der Vorwärtsrichtung des Fahrzeugs definiert wird; und eine Bestimmungseinheit (73, S15–S16), die konfiguriert ist, zu bestimmen, ob ein Überlagerungsbereich der ersten und zweiten Objektbereiche auf der XY-Ebene vorliegt oder nicht, und wenn bestimmt wurde, dass ein Überlagerungsbereich der ersten und zweiten Objektbereiche auf der XY-Ebene vorliegt, zu bestimmen, dass die ersten und zweiten Objekte dieselben sind.
  2. Vorrichtung (7) nach Anspruch 1, wobei die zweite Bereichsdefinitionseinheit (72, S145–S147) konfiguriert sind, zu bestimmen, ob das zweite Objekt ein Fußgänger oder ein Fahrzeug ist, und wenn bestimmt wurde, dass das zweite Objekt ein Fußgänger ist, den zweiten Azimutbereich im Vergleich dazu, wenn bestimmt wurde, dass das zweite Objekt ein Fahrzeug ist, zu vergrößern.
  3. Vorrichtung (7) nach Anspruch 1 oder 2, wobei die zweite Bereichsdefinitionseinheit (72, S249–S251) konfiguriert ist, zu bestimmen, ob sich der Fußgänger in eine erste Richtung entlang der X-Achse oder in eine zweite Richtung entgegengesetzt der ersten Richtung bewegt, und wenn bestimmt wurde, dass sich der Fußgänger in die erste Richtung bewegt, einen ersten Unterbereich des zweiten Azimutbereichs auf der Seite der ersten Richtung des zweiten Erfassungspunkts und einen zweiten Unterbereich des zweiten Azimutbereichs auf der Seite der zweiten Richtung des zweiten Erfassungspunkts zu unterscheiden.
  4. Vorrichtung (7) nach einem der Ansprüche 1 bis 3, wobei der zweite Objektbereich durch den zweiten Azimutbereich und einen spezifischen Y-Koordinatenbereich einschließlich einer Y-Koordinate des zweiten Erfassungspunkts auf der XY-Ebene definiert wird.
  5. Vorrichtung (7) nach Anspruch 4, wobei die zweite Bereichsdefinitionseinheit (72, S141) konfiguriert ist, den Y-Koordinatenbereich mit einer Vergrößerung der Y-Koordinate des zweiten Erfassungspunkts auf der XY-Ebene zu vergrößern.
  6. Vorrichtung (7) nach Anspruch 4 oder 5, wobei die zweite Bereichsdefinitionseinheit (72, S142–S144) konfiguriert ist, zu bestimmen, ob das zweite Objekt ein Fußgänger oder ein Fahrzeug ist, und wenn bestimmt wurde, dass das zweite Objekt ein Fahrzeug ist, den Y-Koordinatenbereich im Vergleich dazu, wenn bestimmt wurde, dass das zweite Objekt ein Fußgänger ist, zu vergrößern.
  7. Vorrichtung (7) nach einem der Ansprüche 1 bis 3, wobei der zweite Objektbereich durch den zweiten Azimutbereich und einen zweiten linearen Abstandsbereich definiert wird, wobei der zweite lineare Abstandsbereich von ersten bis zweiten linearen Abständen von dem Referenzpunkt auf der XY-Ebene verläuft und einen linearen Abstand von dem Referenzpunkt zum zweiten Erfassungspunkt enthält.
  8. Vorrichtung (7) nach Anspruch 7, wobei die zweite Bereichsdefinitionseinheit (72) konfiguriert ist, den zweiten linearen Abstandsbereich mit einer Vergrößerung eines linearen Abstands von dem Referenzpunkt zum zweiten Erfassungspunkt zu vergrößern.
  9. Vorrichtung (7) nach Anspruch 7 oder 8, wobei die zweite Bereichsdefinitionseinheit (72) konfiguriert ist, wenn der lineare Abstand von dem Referenzpunkt zum zweiten Erfassungspunkt weniger als ein vorbestimmter Wert ist, den zweiten Azimutbereich im Vergleich dazu, wenn der lineare Abstand von dem Referenzpunkt zum zweiten Erfassungspunkt größer oder gleich dem vorbestimmten Wert ist, zu vergrößern.
  10. Vorrichtung (7) nach einem der Ansprüche 1 bis 9, wobei der erste Objektbereich durch einen ersten Azimutbereich eines Azimutwinkels einschließlich eines Azimutwinkels des ersten Objekts von der Vorwärtsrichtung des Fahrzeugs definiert wird.
  11. Vorrichtung (7) nach Anspruch 10, wobei der erste Objektbereich durch den ersten Azimutbereich und einen ersten linearen Abstandsbereich definiert wird, wobei der erste lineare Abstandsbereich von dritten bis vierten linearen Abständen von dem Referenzpunkt auf der XY-Ebene verläuft und einen linearen Abstand von dem Referenzpunkt zum ersten Erfassungspunkt enthält.
  12. Vorrichtung (7) nach Anspruch 11, wobei die erste Bereichsdefinitionseinheit (71) konfiguriert ist, den ersten linearen Abstandsbereich mit einer Vergrößerung eines linearen Abstands von dem Referenzpunkt zum ersten Erfassungspunkt zu vergrößern.
  13. Vorrichtung (7) nach Anspruch 11 oder 12, wobei die erste Bereichsdefinitionseinheit (71) konfiguriert ist, wenn der lineare Abstand von dem Referenzpunkt zum ersten Erfassungspunkt kleiner als ein vorbestimmter Wert ist, den ersten Azimutbereich im Vergleich dazu, wenn der lineare Abstand von dem Referenzpunkt zum ersten Erfassungspunkt größer oder gleich dem vorbestimmten Wert ist, zu vergrößern.
  14. Vorrichtung (7) nach einem der Ansprüche 10 bis 13, wobei die erste Bereichsdefinitionseinheit (71) konfiguriert ist, wenn der Azimutwinkel des ersten Objekts relativ zum Referenzpunkt größer oder gleich einem vorbestimmten Wert ist, den ersten Azimutbereich im Vergleich dazu, wenn der Azimutwinkel des ersten Objekts relativ zum Referenzpunkt kleiner als der vorbestimmte Wert ist, zu vergrößern.
  15. Vorrichtung (7) nach einem der Ansprüche 10 bis 14, wobei die erste Bereichsdefinitionseinheit (71, S121–S123) konfiguriert ist, zu bestimmen, ob das erste Objekt ein Fußgänger oder ein Fahrzeug ist, und wenn bestimmt wurde, dass das erste Objekt ein Fahrzeug ist, einen X-Koordinatenbereich des ersten Objektbereichs im Vergleich dazu, wenn bestimmt wurde, dass das erste Objekt ein Fußgänger ist, zu vergrößern.
  16. Vorrichtung (7) nach einem der Ansprüche 1 bis 15, ferner aufweisend eine Zuverlässigkeitsgradberechnungseinheit (74, S17), die konfiguriert ist, wenn durch die Bestimmungseinheit (73) bestimmt wird, dass die ersten und zweiten Objekten dieselben sind, einen Zuverlässigkeitsgrad bei der Bestimmung, dass die ersten und zweiten Objekte dieselben sind, zu berechnen.
  17. Vorrichtung (7) nach Anspruch 16, wobei der Zuverlässigkeitsgrad mit einer Verringerung einer Winkeldifferenz zwischen einem Azimutwinkel des ersten Erfassungspunkts von der Vorwärtsrichtung des Fahrzeugs und einem Azimutwinkel des zweiten Erfassungspunkts von der Vorwärtsrichtung des Fahrzeugs vergrößert wird.
  18. Vorrichtung (7) nach Anspruch 16 oder 17, wobei der Zuverlässigkeitsgrad mit einer Vergrößerung eines Bereichs des Überlagerungsbereichs der ersten und zweiten Objektbereiche vergrößert wird.
  19. Vorrichtung (7) nach einem der Ansprüche 1 bis 18, wobei die Bestimmungseinheit (73) konfiguriert ist, wenn bestimmt wurde, dass die ersten und zweiten Objekte dieselben sind, eine Position des Objekts, das auf der XY-Ebene als dasselbe bestimmt wurde, durch eine Y-Koordinate des ersten Erfassungspunkts und einen Azimutwinkel des zweiten Erfassungspunkts von der Vorwärtsrichtung des Fahrzeugs zu definieren.
  20. Vorrichtung (7) nach Anspruch 1, wobei der erste Objektbereich als der erste Erfassungspunkt definiert wird.
DE102013112852.1A 2012-11-22 2013-11-21 Objekterfassungsvorrichtung Pending DE102013112852A1 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2012-256331 2012-11-22
JP2012256331 2012-11-22
JP2013-177014 2013-08-28
JP2013177014A JP5812064B2 (ja) 2012-11-22 2013-08-28 物標検出装置

Publications (1)

Publication Number Publication Date
DE102013112852A1 true DE102013112852A1 (de) 2014-07-03

Family

ID=50727424

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013112852.1A Pending DE102013112852A1 (de) 2012-11-22 2013-11-21 Objekterfassungsvorrichtung

Country Status (5)

Country Link
US (1) US9798002B2 (de)
JP (1) JP5812064B2 (de)
KR (1) KR101527831B1 (de)
CN (1) CN103837872B (de)
DE (1) DE102013112852A1 (de)

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8509982B2 (en) 2010-10-05 2013-08-13 Google Inc. Zone driving
JP5812061B2 (ja) 2013-08-22 2015-11-11 株式会社デンソー 物標検出装置およびプログラム
JP5991332B2 (ja) * 2014-02-05 2016-09-14 トヨタ自動車株式会社 衝突回避制御装置
JP6036724B2 (ja) * 2014-02-17 2016-11-30 トヨタ自動車株式会社 車両周辺状況認識装置および車両制御装置
EP3108264A2 (de) * 2014-02-20 2016-12-28 Mobileye Vision Technologies Ltd. Verbessertes fahrerassistenzsystem basierend auf radargestützter visueller abbildung
CN106537180B (zh) * 2014-07-25 2020-01-21 罗伯特·博世有限公司 用于用针对行人的主动制动的摄影机输入缓解雷达传感器限制的方法
JP6394228B2 (ja) * 2014-09-24 2018-09-26 株式会社デンソー 物体検出装置
JP6265095B2 (ja) * 2014-09-24 2018-01-24 株式会社デンソー 物体検出装置
JP6281459B2 (ja) 2014-09-24 2018-02-21 株式会社デンソー 物体検出装置
JP6394227B2 (ja) 2014-09-24 2018-09-26 株式会社デンソー 物体検出装置
JP6303956B2 (ja) * 2014-09-24 2018-04-04 株式会社デンソー 軸ずれ量推定装置
JP6281460B2 (ja) 2014-09-24 2018-02-21 株式会社デンソー 物体検出装置
US9248834B1 (en) * 2014-10-02 2016-02-02 Google Inc. Predicting trajectories of objects based on contextual information
JP6593588B2 (ja) * 2015-02-16 2019-10-23 パナソニックIpマネジメント株式会社 物体検出装置および物体検出方法
JP6380232B2 (ja) * 2015-05-19 2018-08-29 株式会社デンソー 物体検出装置、及び物体検出方法
CN104960522B (zh) * 2015-06-18 2018-09-21 奇瑞汽车股份有限公司 自动跟车系统及其控制方法
US10137904B2 (en) 2015-10-14 2018-11-27 Magna Electronics Inc. Driver assistance system with sensor offset correction
JP6443318B2 (ja) * 2015-12-17 2018-12-26 株式会社デンソー 物体検出装置
EP3407326B1 (de) * 2016-01-22 2024-05-01 Nissan Motor Co., Ltd. Fussgängerbestimmungsverfahren und fussgängerbestimmungsvorrichtung
US10145951B2 (en) * 2016-03-30 2018-12-04 Aptiv Technologies Limited Object detection using radar and vision defined image detection zone
JP6512164B2 (ja) * 2016-04-22 2019-05-15 株式会社デンソー 物体検出装置、物体検出方法
JP6462630B2 (ja) * 2016-05-24 2019-01-30 株式会社デンソー 物標検出装置
JP6547785B2 (ja) 2016-07-29 2019-07-24 株式会社デンソー 物標検出装置
US10081360B2 (en) * 2016-08-25 2018-09-25 GM Global Technology Operations LLC Vehicle propulsion systems and methods
JP6617677B2 (ja) 2016-10-19 2019-12-11 株式会社デンソー 車両制御装置、車両制御方法
CN106569206B (zh) * 2016-11-15 2019-03-08 上海无线电设备研究所 一种基于微波光学复合的目标探测方法
JP6885721B2 (ja) * 2016-12-27 2021-06-16 株式会社デンソー 物体検出装置、物体検出方法
JP6666289B2 (ja) * 2017-03-15 2020-03-13 株式会社東芝 移動体用空間情報算出装置及び衝突回避システム
JP7062878B2 (ja) * 2017-03-27 2022-05-09 沖電気工業株式会社 情報処理方法および情報処理装置
JP6687296B2 (ja) * 2017-05-31 2020-04-22 三菱電機株式会社 監視装置
JP6988200B2 (ja) 2017-06-29 2022-01-05 株式会社デンソー 車両制御装置
DE102017118156A1 (de) * 2017-08-09 2019-02-14 Valeo Schalter Und Sensoren Gmbh Verfahren zum Überwachen eines Umgebungsbereiches eines Kraftfahrzeugs, Sensorsteuergerät, Fahrerassistenzsystem sowie Kraftfahrzeug
JP7045155B2 (ja) * 2017-09-14 2022-03-31 株式会社デンソー 物標認識装置、物標認識方法及び車両制御システム
JP6930394B2 (ja) 2017-11-24 2021-09-01 トヨタ自動車株式会社 物体認識装置
CN108287342B (zh) * 2017-12-18 2021-01-12 深圳市人工智能与机器人研究院 障碍物识别方法和装置、终端及计算机可读存储介质
CN108710828B (zh) * 2018-04-18 2021-01-01 北京汽车集团有限公司 识别目标物的方法、装置和存储介质以及车辆
CN108830331A (zh) * 2018-06-22 2018-11-16 西安交通大学 一种基于全卷积网络的探地雷达目标检测方法
CN109050391B (zh) * 2018-07-26 2020-06-05 北京经纬恒润科技有限公司 一种远光灯控制方法及装置
US11587366B1 (en) 2018-11-20 2023-02-21 State Farm Mutual Automobile Insurance Company Systems and methods for selecting locations to validate automated vehicle data transmission
JP7176415B2 (ja) * 2019-01-15 2022-11-22 トヨタ自動車株式会社 衝突前制御装置
JP7069061B2 (ja) * 2019-01-31 2022-05-17 株式会社デンソー 物体判定装置
JP7135908B2 (ja) * 2019-02-04 2022-09-13 トヨタ自動車株式会社 衝突前制御装置
JP7185547B2 (ja) * 2019-02-07 2022-12-07 株式会社デンソー 車両検出装置
JP7244325B2 (ja) * 2019-03-27 2023-03-22 株式会社Soken 物体検出装置
CN110109090B (zh) * 2019-03-28 2021-03-12 北京邮电大学 基于微波雷达的未知环境多目标检测方法和装置
US11375179B1 (en) * 2019-11-08 2022-06-28 Tanzle, Inc. Integrated display rendering
CN112689842B (zh) * 2020-03-26 2022-04-29 华为技术有限公司 一种目标检测方法以及装置
KR102656811B1 (ko) * 2021-12-14 2024-04-12 주식회사 유니트론텍 복수의 센서 데이터에 기반한 자율주행 제어 시스템 및 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006292475A (ja) 2005-04-07 2006-10-26 Toyota Motor Corp 物体検出装置

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3619628B2 (ja) * 1996-12-19 2005-02-09 株式会社日立製作所 走行環境認識装置
JP4340000B2 (ja) * 2000-12-18 2009-10-07 本田技研工業株式会社 対象物認識装置
JP2002189075A (ja) 2000-12-20 2002-07-05 Fujitsu Ten Ltd 道路上方静止物検知方法
US6771208B2 (en) * 2002-04-24 2004-08-03 Medius, Inc. Multi-sensor system
JP2004037239A (ja) * 2002-07-03 2004-02-05 Fuji Heavy Ind Ltd 同一対象物判断方法および装置、並びに、位置ずれ補正方法および装置
JP3985615B2 (ja) 2002-07-16 2007-10-03 日産自動車株式会社 前方車両追跡システムおよび前方車両追跡方法
JP2005049281A (ja) * 2003-07-30 2005-02-24 Denso Corp 物体認識装置、及び物体認識方法
JP4193703B2 (ja) 2004-01-19 2008-12-10 トヨタ自動車株式会社 物体検出装置
JP2005284410A (ja) * 2004-03-26 2005-10-13 Omron Corp 車両認識装置及び車両認識方法
EP1887382A1 (de) 2005-05-19 2008-02-13 Olympus Corporation Distanzmessvorrichtung, distanzmessverfahren und distanzmessprogramm
JP2006322853A (ja) * 2005-05-19 2006-11-30 Olympus Corp 距離計測装置、距離計測方法および距離計測プログラム
JP2007104171A (ja) * 2005-10-03 2007-04-19 Omron Corp 前方監視装置
US20070182623A1 (en) * 2006-02-03 2007-08-09 Shuqing Zeng Method and apparatus for on-vehicle calibration and orientation of object-tracking systems
JP4595833B2 (ja) * 2006-02-24 2010-12-08 トヨタ自動車株式会社 物体検出装置
JP4558758B2 (ja) * 2007-05-07 2010-10-06 三菱電機株式会社 車両用障害物認識装置
KR101188584B1 (ko) * 2007-08-28 2012-10-05 주식회사 만도 카메라와 레이저 스캐너를 이용한 차량 전방 물체 판별장치
JP5369921B2 (ja) * 2008-07-08 2013-12-18 日産自動車株式会社 物体検出装置及び物体検出方法
JP4434296B1 (ja) 2008-09-05 2010-03-17 トヨタ自動車株式会社 物体検出装置
JP4876118B2 (ja) * 2008-12-08 2012-02-15 日立オートモティブシステムズ株式会社 立体物出現検知装置
JP4858574B2 (ja) * 2009-05-19 2012-01-18 トヨタ自動車株式会社 物体検出装置
JP5471195B2 (ja) 2009-09-03 2014-04-16 トヨタ自動車株式会社 物体検出装置
WO2011036807A1 (ja) 2009-09-28 2011-03-31 トヨタ自動車株式会社 物体検出装置及び物体検出方法
CN102696060B (zh) * 2009-12-08 2015-01-07 丰田自动车株式会社 物体检测装置以及物体检测方法
JP5556317B2 (ja) * 2010-04-07 2014-07-23 株式会社デンソー 物体認識装置
JP5158386B2 (ja) 2010-06-22 2013-03-06 株式会社アイティーティー 単一カメラによる画像計測処理装置,画像計測処理方法および画像計測処理プログラム
JP2012159469A (ja) 2011-02-02 2012-08-23 Toyota Motor Corp 車両用画像認識装置
CN102303605A (zh) * 2011-06-30 2012-01-04 中国汽车技术研究中心 基于多传感器信息融合的碰撞及偏离预警装置及预警方法
CN102778223A (zh) * 2012-06-07 2012-11-14 沈阳理工大学 基于车牌合作目标和单目摄像机的汽车防撞预警方法
US9429650B2 (en) * 2012-08-01 2016-08-30 Gm Global Technology Operations Fusion of obstacle detection using radar and camera
CN104603856B (zh) * 2012-09-03 2016-07-06 丰田自动车株式会社 碰撞判定装置和碰撞判定方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006292475A (ja) 2005-04-07 2006-10-26 Toyota Motor Corp 物体検出装置

Also Published As

Publication number Publication date
CN103837872B (zh) 2017-05-24
CN103837872A (zh) 2014-06-04
KR101527831B1 (ko) 2015-06-11
US9798002B2 (en) 2017-10-24
KR20140066111A (ko) 2014-05-30
JP5812064B2 (ja) 2015-11-11
US20140139369A1 (en) 2014-05-22
JP2014122873A (ja) 2014-07-03

Similar Documents

Publication Publication Date Title
DE102013112852A1 (de) Objekterfassungsvorrichtung
DE102014220537B4 (de) Vorausfahrzeug-auswahlvorrichtung
EP2068173B1 (de) Verfahren zur Messung von Querbewegungen in einem Fahrerassistenzsystem
DE112008004072B4 (de) Pre-crash-sicherheitssystem
EP1577682B1 (de) Objektortungssystem für Kraftfahrzeuge zur Erkennung eines Spurwechsels
DE102017131118A1 (de) Fahrassistenzvorrichtung
DE112016000422B4 (de) Geschwindigkeitsregelvorrichtung und geschwindigkeitsregelverfahren für fahrzeuge
DE102013113163A1 (de) Fahrzeugfahrtunterstützungssteuerungsvorrichtung
DE102014216667A1 (de) Zielerfassungsvorrichtung und programm
EP1549973B1 (de) Sensoranordnung und verfahren zur abstandsregelung bei kraftfahrzeugen
DE102014103579A1 (de) Fahrunterstützungssystem
DE102014217233A1 (de) Kollisionswahrscheinlichkeitsbestimmungsvorrichtung und Programm
DE102009009211A1 (de) Verfahren und Assistenzsystem zum Erfassen von Objekten im Umfeld eines Fahrzeugs
DE102015202970A1 (de) Fahrzeug-Hinderniserfassungsvorrichtung mit Funktion zur Beurteilung eines Bewegungszustands eines erfassten Objekts
DE102015206651A1 (de) Fahrzeugfahrunterstützungsvorrichtung zum ausführen von kollisionsvermeidungsbetrieben auf der grundlage einer position und einer bewegungsbedingung eines zielobjekts
DE102013206707A1 (de) Verfahren zur Überprüfung eines Umfelderfassungssystems eines Fahrzeugs
EP2065727B1 (de) Verfahren zur Schätzung der Breite von Radarobjekten
DE112017005245T5 (de) Fahrzeugerkennungseinrichtung und Fahrzeugerkennungsverfahren
DE112015004478B4 (de) Fahrunterstützungsvorrichtung
DE112016002348T5 (de) Fahrzeugsteuervorrichtung und fahrzeugsteuerverfahren
DE112019000801T5 (de) Fahrunterstützungsvorrichtung und Fahrunterstützungsverfahren
DE112013006615T5 (de) Fahrassistenzvorrichtung
DE112016004739T5 (de) Fahrzeugsteuervorrichtung und Fahrzeugsteuerverfahren
EP2244104A2 (de) Verfahren und Vorrichtung zum Betrieb eines radargestützten Umfelderkennungssystems
DE102014226957A1 (de) Kursschätzer

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R012 Request for examination validly filed

Effective date: 20140905

R016 Response to examination communication