DE102015100378A1 - Kollisionsverhinderungssteuerungsvorrichtung - Google Patents

Kollisionsverhinderungssteuerungsvorrichtung Download PDF

Info

Publication number
DE102015100378A1
DE102015100378A1 DE102015100378.3A DE102015100378A DE102015100378A1 DE 102015100378 A1 DE102015100378 A1 DE 102015100378A1 DE 102015100378 A DE102015100378 A DE 102015100378A DE 102015100378 A1 DE102015100378 A1 DE 102015100378A1
Authority
DE
Germany
Prior art keywords
collision
sensor
obstacle
image sensor
radar sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102015100378.3A
Other languages
English (en)
Inventor
Setsuo Tokoro
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Publication of DE102015100378A1 publication Critical patent/DE102015100378A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • B60W2050/0083Setting, resetting, calibration
    • B60W2050/0088Adaptive recalibration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • B60W2050/0215Sensor drifts or sensor failures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/04Monitoring the functioning of the control system
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/93185Controlling the brakes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/932Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using own vehicle data, e.g. ground speed, steering wheel direction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9324Alternative operation using ultrasonic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Electromagnetism (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Gemäß einem Aspekt der Offenbarung ist eine Kollisionsverhinderungssteuerungsvorrichtung bereitgestellt, die einen Bildsensor, der ein Objekt in der Nähe des Fahrzeugs erfasst; einen Radarsensor, der das Objekt in der Nähe des Fahrzeugs erfasst; und eine Steuerung umfasst, die, wenn nur einer der Sensoren des Bildsensors und des Radarsensors das Objekt erfasst, eine Zuverlässigkeit des anderen Sensors bestimmt, und basierend auf der bestimmten Zuverlässigkeit eine Weise des Durchführens einer Kollisionsverhinderungssteuerung zum Verhindern einer Kollision mit dem Objekt, das durch den einen der Sensoren erfasst wird, ändert.

Description

  • GEBIET
  • Die Offenbarung betrifft eine Kollisionsverhinderungssteuerungsvorrichtung.
  • HINTERGRUND
  • Die japanische Patentoffenlegung Nr. 2005-239114 (Patentdokument 1) offenbart eine Fahrunterstützungseinrichtung, bei der ein Hinderniserfassungsergebnis durch ein Radar (Millimeterwelle) und das Hinderniserfassungsergebnis durch die Bilderkennung gemischt werden, um einen Fall, der durch beide der Ergebnisse erfasst wird, und Fälle, die durch entsprechende der Ergebnisse erfasst werden, zu umfassen, und eine Startbedingung der Fahrunterstützungssteuerung gemäß den umfassten Ergebnissen geändert wird.
  • Gemäß der Konfiguration, die in dem vorstehend beschriebenen Patentdokument 1 offenbart ist, wird jedoch eine Steuerungsbedingung der Fahrunterstützungssteuerung nicht bestimmt, wenn nur einer des Bildsensors und des Radarsensors das Hindernis erfasst, basierend auf der Zuverlässigkeit des anderen Sensors.
  • Deshalb ist es gemäß der Offenbarung eine Aufgabe, eine Kollisionsverhinderungssteuerungsvorrichtung bereitzustellen, die, wenn nur einer eines Bildsensors und eines Radarsensors ein Objekt erfasst, eine Zuverlässigkeit des anderen Sensors berücksichtigen kann, um eine Kollisionsverhinderungssteuerung bezüglich des Objekts durchzuführen.
  • KURZFASSUNG
  • Gemäß einem Aspekt der Offenbarung ist eine Kollisionsverhinderungssteuerungsvorrichtung bereitgestellt, mit:
    einem Bildsensor, der ein Objekt in der Nähe eines Fahrzeugs erfasst;
    einem Radarsensor, der das Objekt in der Nähe des Fahrzeugs erfasst; und
    einer Steuerung, die, wenn nur einer der Sensoren des Bildsensors und des Radarsensors das Objekt erfasst, eine Zuverlässigkeit des anderen Sensors bestimmt, und basierend auf der bestimmten Zuverlässigkeit eine Weise des Durchführens einer Kollisionsverhinderungssteuerung zum Verhindern einer Kollision mit dem Objekt, das durch den einen der Sensoren erfasst wird, ändert.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist ein Diagramm, das eine Konfiguration einer Kollisionsverhinderungssteuerungsvorrichtung 1 gemäß einem Ausführungsbeispiel darstellt.
  • 2 ist ein Beispiel eines Ablaufdiagramms eines Prozesses, der durch eine Fahrzeugsteuerungs-ECU 10 ausgeführt wird.
  • 3 ist ein anderes Beispiel eines Ablaufdiagramms des Prozesses, der durch die Fahrzeugsteuerungs-ECU 10 ausgeführt wird.
  • 4 ist ein anderes Beispiel eines Ablaufdiagramms des Prozesses, der durch die Fahrzeugsteuerungs-ECU 10 ausgeführt wird.
  • BESCHREIBUNG VON AUSFÜHRUNGSBEISPIELEN
  • Im Folgenden werden Ausführungsbeispiele mit Bezug auf die anhängigen Zeichnungen beschrieben.
  • 1 ist ein Diagramm, das eine Konfiguration einer Kollisionsverhinderungssteuerungsvorrichtung 1 gemäß einem Ausführungsbeispiel darstellt. Es sei angemerkt, dass Verbindungswege zwischen Elementen in 1 beliebig sind. Zum Beispiel können die Verbindungswege eine Verbindung über einen Bus, wie etwa ein CAN (Steuerungsbereichsnetzwerk) usw., eine indirekte Verbindung über eine andere ECU, usw., eine direkte Verbindung und eine Verbindung, die eine drahtlose Kommunikation ermöglicht, umfassen.
  • Die Kollisionsverhinderungssteuerungsvorrichtung 1 umfasst eine Fahrzeugsteuerungs-ECU (elektronische Steuerungseinheit) 10. Die Fahrzeugsteuerungs-ECU 10 kann durch einen Prozessor gebildet werden, der eine CPU umfasst. Funktionen der Fahrzeugsteuerungs-ECU 10 (inklusive nachstehend beschriebener Funktionen) können durch irgendeine Hardware, irgendeine Software, irgendeine Firmware oder irgendeine Kombination von diesen implementiert werden. Zum Beispiel kann irgendein Teil oder können alle der Funktionen der Fahrzeugsteuerungs-ECU 10 durch eine ASIC (anwendungsspezifische integrierte Schaltung), einen FPGA (feldprogrammierbares Gate-Array) oder einen DSP (digitaler Signalprozessor) implementiert werden. Des Weiteren kann die Fahrzeugsteuerungs-ECU 10 durch eine Vielzahl von Prozessoren implementiert werden.
  • Die Fahrzeugsteuerungs-ECU 10 ist mit einem Vorwärtsradarsensor 10 und einem Bildsensor 18 verbunden.
  • Der Vorwärtsradarsensor 16 erfasst einen Zustand (Objektinformationen) eines Objekts (zum Beispiel eines vorausfahrenden Fahrzeugs usw.) vor einem Bezugsfahrzeug unter Verwendung einer elektrischen Welle (zum Beispiel eine Millimeterwelle), einer Lichtwelle (zum Beispiel Laser) oder einer Ultraschallwelle als eine Erfassungswelle. Der Vorwärtsradarsensor 16 erfasst Informationen, die eine Beziehung zwischen dem Objekt und dem Bezugsfahrzeug angeben, wie etwa zum Beispiel eine relative Geschwindigkeit, eine relative Entfernung und eine Richtung (eine seitliche Position) mit Bezug auf das Bezugsfahrzeug in einem vorbestimmten Zyklus. Es sei angemerkt, dass wenn der Vorwärtsradarsensor 16 ein Millimeterwellenradarsensor ist, der Millimeterwellenradarsensor zum Beispiel von der Art einer elektronisch gesteuerten Abtastung sein kann. In diesem Fall wird die relative Geschwindigkeit des Objekts unter Verwendung einer Doppler-Frequenz (Frequenzverschiebung) der elektrischen Welle erfasst, wird die relative Entfernung des Objekts unter Verwendung einer Verzögerungszeit der Reflexionswelle erfasst und wird die Richtung des Objekts basierend auf einer Verschiebungsdifferenz der empfangenen Wellen zwischen einer Vielzahl von Empfangsantennen erfasst. Die Objektinformationen, die somit erhalten werden, werden in einem vorbestimmten Zyklus an die Fahrzeugsteuerungs-ECU 10 übertragen. Es sei angemerkt, dass irgendwelche Funktionen des Vorwärtsradarsensors 16 (zum Beispiel eine Funktion des Berechnens einer Position des Objekts) durch die Fahrzeugsteuerungs-ECU 10 implementiert werden können.
  • Der Bildsensor umfasst eine Kamera, die Abbildungselemente, wie etwa CCDs („charge-coupled device“, ladungsgekoppelte Einrichtung), CMOSs („complementary metal oxid semiconductor“, komplementärer Metalloxidhalbleiter) usw., und einen Bildprozessor zum Erkennen des Zustands des Objekts umfasst. Ein Erfassungsbereich des Bildsensors 18 (das heißt ein Abbildungsbereich oder ein Bildverarbeitungsbereich der Kamera) liegt vor dem Bezugsfahrzeug, wie in dem Fall des Erfassungsbereichs des Vorwärtsradarsensors 16. Der Erfassungsbereich des Bildsensors 18 überlappt teilweise oder vollständig mit dem Erfassungsbereich des Vorwärtsradarsensors 16. Mit anderen Worten umfassen der Bildsensor 18 und der Vorwärtsradarsensor 16 einen gemeinsamen Erfassungsbereich.
  • Die Kamera des Bildsensors 18 kann eine monokulare Kamera oder eine Stereokamera sein. Der Bildsensor 18 erfasst basierend auf einem Bilderkennungsergebnis die Informationen, die eine Beziehung zwischen dem Objekt und dem Bezugsfahrzeug darstellen, wie etwa zum Beispiel eine relative Geschwindigkeit und Positionsinformationen des Objekts mit Bezug auf das Bezugsfahrzeug, in einem vorbestimmten Zyklus. Die Positionsinformationen des Objekts umfassen Informationen bezüglich der Position (Entfernung) des Objekts in eine Vorwärts-Rückwärts-Richtung des Bezugsfahrzeugs und Informationen bezüglich der seitlichen Position des Objekts in die seitliche Richtung (Breitenrichtung). Die seitliche Position des Objekts kann basierend auf einer Mittelposition einer Pixelgruppe bezüglich des Objekts in der seitlichen Richtung berechnet werden. Alternativ kann die seitliche Position des Objekts als ein Bereich zwischen einer linken seitlichen Endposition und einer rechten seitlichen Endposition berechnet werden. Die Objektinformationen, die somit mit dem Bildsensor 18 erhalten werden, können in einem vorbestimmten Zyklus an die Fahrzeugsteuerungs-ECU 10 übertragen werden. Es sei angemerkt, dass die Bildverarbeitungsfunktion des Bildprozessors (zum Beispiel eine Funktion des Berechnens einer Position des Objekts) durch die Fahrzeugsteuerungs-ECU 10 implementiert werden kann.
  • Die Fahrzeugsteuerungs-ECU 10 ist mit einer Alarmausgabeeinrichtung 30 und einer Bremseinrichtung 40 verbunden. Die Fahrzeugsteuerungs-ECU 10 führt eine Kollisionsverhinderungssteuerung über die Alarmausgabeeinrichtung 30 und/oder die Bremseinrichtung 40 durch. Die Kollisionsverhinderungssteuerung umfasst eine Alarmausgabesteuerung, die unter Verwendung der Alarmausgabeeinrichtung 30 implementiert wird, und eine automatische Bremssteuerung, die unter Verwendung der Bremseinrichtung 30 implementiert wird.
  • Die Alarmausgabeeinrichtung 30 umfasst zum Beispiel eine Anzeigeeinrichtung, wie etwa ein Messgerät usw., oder eine Tonerzeugungseinrichtung, wie etwa einen Lautsprecher, einen Summer usw.
  • Die Bremseinrichtung 40 erzeugt eine Bremskraft an den entsprechenden Rädern des Fahrzeugs. Die Bremseinrichtung 40 kann Stellglieder und Ventile zum Steuern von Radzylinderdrücken umfassen. Der Ölhydraulikkreis der Bremseinrichtung 40 kann solch eine Konfiguration aufweisen, dass er die Radzylinderdrücke unabhängig von einem Bremspedalbetätigungsbetrag durch einen Fahrer erhöht (das heißt eine Konfiguration, die eine automatische Bremssteuerung implementieren kann). Üblicherweise kann der Ölhydraulikkreis der Bremsvorrichtung eine Hochdruckquelle (zum Beispiel eine Pumpe zum Erzeugen des Hochdrucköls und einen Sammler) neben einem Masterzylinder umfassen. Weiterhin kann solch ein Ölhydraulikkreis verwendet werden, der üblicherweise in einem Brake-by-Wire-System, wie etwa einem ECB (Bremssystem mit elektrischer Steuerung) verwendet wird.
  • 2 ist ein Beispiel eines Ablaufdiagramms eines Prozesses, der durch eine Fahrzeugsteuerungs-ECU 10 ausgeführt wird. Die in 2 dargestellte Prozessroutine kann während der Fahrt des Fahrzeugs initiiert werden, wenn ein Objekt in dem gemeinsamen Erfassungsbereich des Vorwärtsradarsensors 16 und des Bildsensors 18 und durch den Vorwärtsradarsensor 16 und/oder den Bildsensor 18 erfasst wird.
  • In Schritt S200 berechnet die Fahrzeugsteuerungs-ECU 10 eine Zuverlässigkeit des Vorwärtsradarsensors 16 und eine Zuverlässigkeit des Bildsensors 18. Die Fahrzeugsteuerungs-ECU 10 berechnet hier als Beispiele der Zuverlässigkeit des Vorwärtsradarsensors 16 und der Zuverlässigkeit des Bildsensors 18 eine Anzahl von Elementen von effektiven Daten nrd (nachstehend als "Anzahl von effektiven Daten nrd" bezeichnet) des Vorwärtsradarsensors 16 und eine Anzahl von Elementen von effektiven Daten ncd (nachstehend als "Anzahl von effektiven Daten ncd" bezeichnet) des Bildsensors 18.
  • Die effektiven Daten des Vorwärtsradarsensors 16 sind zum Beispiel Daten, deren Empfangslevel einer Empfangswelle bezüglich einer Radarübertragungswelle größer oder gleich einem vorbestimmten Wert ist. Mit anderen Worten sind die effektiven Daten des Vorwärtsradarsensors 16 die Daten von Reflexionspunkten, unter den Daten der Reflexionspunkte, die durch den Vorwärtsradarsensor 16 erfasst werden, deren Empfangslevel der Empfangswelle bezüglich einer Radarübertragungswelle größer oder gleich einem vorbestimmten Wert ist und für die die Entfernungsinformationen berechnet werden können. In diesem Fall entspricht die Anzahl von effektiven Daten nrd des Vorwärtsradarsensors 16 insgesamt einer Anzahl der Reflexionspunkte (das heißt einer Anzahl von Spitzen der Empfangswelle) in dem Erfassungsbereich des Vorwärtsradarsensors 16.
  • Die effektiven Daten des Bildsensors 18 sind zum Beispiel Daten (das heißt Kantendaten), deren Differenzwert in einem Differenzbild bzw. differentiellen Bild (Differenz in einer Konzentration zwischen benachbarten Pixeln) der Bilddaten größer oder gleich einem vorbestimmten Wert ist. Wenn die Kamera des Bildsensors 18 eine Stereokamera ist, können die effektiven Daten Daten von Punkten (Pixeln) sein, für die Parallaxen (das heißt Entfernungen), die größer oder gleich einem vorbestimmten Wert sind, erfasst werden. Weiterhin, wenn die Kamera des Bildsensors 18 eine monokulare Kamera ist, können die effektiven Daten Daten von Punkten sein, für die optische Flüsse bestimmt werden können, durch Bestimmen von entsprechenden Punkten zwischen den Bildern, die zu unterschiedlichen Zeitpunkten erhalten werden. In diesen Fällen entspricht die Anzahl von effektiven Daten ncd des Bildsensors 16 insgesamt der Anzahl dieser Punkte in dem Bild.
  • In Schritt S202 kategorisiert die Fahrzeugsteuerungs-ECU 10 die erfassten Objekte in drei Arten, "ein Fusionsobjekt", "ein Nur-Radar-Objekt" und "ein Nur-Bild-Objekt", basierend auf den Objektinformationen, die von dem Vorwärtsradarsensor 16 und/oder dem Bildsensor 18 erhalten werden. Das Fusionsobjekt ist ein Objekt (das identische Objekt), das durch den Vorwärtsradarsensor 16 und den Bildsensor 18 erfasst werden kann. Das Nur-Radar-Objekt ist ein Objekt, das nur durch den Vorwärtsradarsensor 16 unter dem Vorwärtsradarsensor 16 und dem Bildsensor 18 erfasst werden kann. Das Nur-Bild-Objekt ist ein Objekt, das nur durch den Bildsensor 18 unter dem Vorwärtsradarsensor 16 und dem Bildsensor 18 erfasst werden kann.
  • In Schritt S204 bestimmt die Fahrzeugsteuerungs-ECU 10, ob das erfasste Objekt ein Ziel ist, für das die Kollisionsverhinderungssteuerung durchzuführen ist, das heißt ein Hindernis, dessen Wahrscheinlichkeit einer Kollision mit dem Bezugsfahrzeug hoch ist, basierend auf den Objektinformationen, die von dem Vorwärtsradarsensor 16 und/oder dem Bildsensor 18 erhalten werden. Verschiedene Weisen des Bestimmens, ob das erfasste Objekt ein Hindernis ist, sind auf dem Gebiet der Pre-Crash-Sicherheit bekannt und eine beliebiger Weise kann verwendet werden. Zum Beispiel kann die Fahrzeugsteuerungs-ECU 10 eine TTC ("Time to Collision", Zeit bis zur Kollision) vor der Kollision mit dem erfassten Objekt berechnen und bestimmen, dass das erfasste Objekt ein Hindernis ist, wenn die Kandidaten-TTC weniger als ein vorbestimmter Wert ist (zum Beispiel 1 Sekunde). Dann kann die seitliche Position des Objekts berücksichtigt werden. Wenn das Objekt zum Beispiel innerhalb einer vorbestimmten Breite mit Bezug auf die Fahrtrichtung des Bezugsfahrzeugs liegt, kann bestimmt werden, dass das erfasste Objekt ein Hindernis ist. Es sei angemerkt, dass die TTC durch Teilen der relativen Entfernung zu dem Objekt durch die relative Geschwindigkeit mit Bezug auf das Objekt hergeleitet werden kann.
  • Wenn in Schritt S204 die Fahrzeugsteuerungs-ECU 10 bestimmt, dass das erfasste Objekt ein Hindernis ist, kategorisiert die Fahrzeugsteuerungs-ECU 10 das Hindernis in "ein Fusionshindernis", "ein Nur-Radar-Hindernis" oder "ein Nur-Bild-Hindernis", um zu Schritt S206 überzugehen. Es sei angemerkt, dass diese Kategorisierung auf dem Kategorisierungsergebnis von Schritt S204 basiert. Wenn zum Beispiel das erfasste Objekt das Fusionsobjekt ist und als ein Hindernis bestimmt wird, wird das erfasste Objekt als ein Fusionshindernis kategorisiert. Andererseits, wenn bestimmt ist, dass das erfasste Objekt kein Hindernis ist, kann der Prozess zu Schritt S200 zurückkehren, um den Prozess von Schritt S200 im nächsten Verarbeitungszyklus zu wiederholen.
  • In Schritt 206 bestimmt die Fahrzeugsteuerungs-ECU 10 das Kategorisierungsergebnis von Schritt S204, um gemäß dem Kategorisierungsergebnis zu Schritt S208, S210 oder S214 überzugehen. Speziell geht der Prozess in dem Fall des Fusionshindernisses über zu Schritt S214; in dem Fall des Nur-Radar-Hindernisses geht der Prozess über zu Schritt S208; und in dem Fall des Nur-Bild-Hindernisses geht der Prozess über zu Schritt S210.
  • In Schritt S208 bestimmt die Fahrzeugsteuerungs-ECU 10, ob die Anzahl von effektiven Daten ncd des Bildsensors 18 größer oder gleich einem vorbestimmten Schwellenwert NCD ist. Der vorbestimmte Schwellenwert NCD entspricht einer unteren Grenze der Anzahl von effektiven Daten ncd, bei der bestimmt werden kann, dass die Zuverlässigkeit des Bildsensors 18 hoch ist. Der vorbestimmte Schwellenwert NCD kann basierend auf experimentellen Daten usw. angepasst werden. Wenn die Anzahl von effektiven Daten ncd des Bildsensors 18 größer oder gleich dem vorbestimmten Wert NCD ist, geht der Prozess über zu Schritt S212, ansonsten geht der Prozess über zu Schritt S214.
  • In Schritt S210 bestimmt die Fahrzeugsteuerungs-ECU 10, ob die Anzahl von effektiven Daten nrd des Vorwärtsradarsensors 16 größer oder gleich einem vorbestimmten Schwellenwert NRD ist. Der vorbestimmte Schwellenwert NRD entspricht einer unteren Grenze der Anzahl von effektiven Daten nrd, bei der bestimmt werden kann, dass die Zuverlässigkeit des Vorwärtsradarsensors 16 hoch ist. Der vorbestimmte Schwellenwert NRD kann basierend auf experimentellen Daten usw. angepasst werden. Wenn die Anzahl von effektiven Daten nrd des Vorwärtsradarsensors 16 größer oder gleich einem vorbestimmten Schwellenwert NRD ist, geht der Prozess über zu Schritt S216, ansonsten geht der Prozess über zu Schritt S214.
  • In Schritt S212 führt die Fahrzeugsteuerungs-ECU 10 die Kollisionsverhinderungssteuerung für das Nur-Radar-Hindernis basierend auf den Hindernisinformationen von dem Vorwärtsradarsensor 16 durch, so dass eine Kollisionsverhinderungsfähigkeit durch die Kollisionsverhinderungssteuerung reduziert wird. Mit anderen Worten wird die Kollisionsverhinderungsfähigkeit mit Bezug auf die Kollisionsverhinderungsfähigkeit in dem Fall einer gewöhnlichen Kollisionsverhinderungssteuerung für das Nur-Radar-Hindernis reduziert (siehe Schritt S214). Die Weise des Reduzierens der Kollisionsverhinderungsfähigkeit kann beliebig sein. Zum Beispiel kann die Reduzierung der Kollisionsverhinderungsfähigkeit durch eine Verzögerung eines Startzeitpunkts der Kollisionsverhinderungssteuerung, durch Verkleinern eines Steuerungsbetrags (die Bremskraft zur Zeit der automatischen Bremssteuerung) zur Zeit der Ausführung der Kollisionsverhinderungssteuerung, oder durch Ändern eines Inhalts der Kollisionsverhinderungssteuerung implementiert werden. Weiterhin zum Beispiel, gemäß der gewöhnlichen Kollisionsverhinderungssteuerung, sobald die automatische Bremssteuerung durchgeführt wird, wird der Zustand, in dem die automatische Bremssteuerung betätigt wird, fortgesetzt, bis das Fahrzeug stoppt (aber der Fahrer kann diese aufheben), während gemäß der Reduzierung der Kollisionsverhinderungsfähigkeit, auch wenn die automatische Bremssteuerung durchgeführt wird, der Zustand, in dem die automatische Bremssteuerung betätigt wird, aufgehoben werden kann, wenn das Objekt nicht nachfolgend basierend auf den Objektinformationen von dem Vorwärtsradarsensor 16 erfasst werden kann. Weiterhin werden gemäß der gewöhnlichen Kollisionsverhinderungssteuerung zum Beispiel die Alarmausgabe und die automatische Bremssteuerung durchgeführt, während gemäß der Reduzierung der Kollisionsverhinderungsfähigkeit nur die Alarmausgabe oder nur die Alarmausgabe und eine PBA (Pre-Crash-Bremsunterstützung) durchgeführt werden könnten. Die PBA ist eine Steuerung zum Unterstützen einer Bremsoperation des Fahrers. Zum Beispiel ist die PBA eine Steuerung, die automatisch den gedrückten Betrag des Bremspedals des Fahrers erhöht.
  • In Schritt S214 führt die Fahrzeugsteuerungs-ECU 10 die gewöhnliche Kollisionsverhinderungssteuerung basierend auf den Objektinformationen aus, die von dem Vorwärtsradarsensor 16 und/oder dem Bildsensor 18 erhalten werden. Speziell führt die Fahrzeugsteuerungs-ECU 10 die gewöhnliche Kollisionsverhinderungssteuerung für das Nur-Radar-Hindernis durch, wenn das Hindernis das Nur-Radar-Hindernis ist (siehe "NEIN" in Schritt S208), führt die gewöhnliche Kollisionsverhinderungssteuerung für das Nur-Bild-Hindernis durch, wenn das Hindernis das Nur-Bild-Hindernis ist (siehe "NEIN" in Schritt S210), und führt die gewöhnliche Kollisionsverhinderungssteuerung für das Fusionshindernis durch, wenn das Hindernis das Fusionshindernis ist. Die gewöhnliche Kollisionsverhinderungssteuerung für das Nur-Radar-Hindernis wird basierend auf den Hindernisinformationen von dem Vorwärtsradarsensor 16 durchgeführt, die gewöhnliche Kollisionsverhinderungssteuerung für das Nur-Bild-Hindernis wird basierend auf den Hindernisinformationen von dem Bildsensor 18 durchgeführt und die gewöhnliche Kollisionsverhinderungssteuerung für das Fusionshindernis wird basierend auf den Hindernisinformationen von dem Vorwärtsradarsensor 16 und dem Bildsensor 18 durchgeführt. Die gewöhnliche Kollisionsverhinderungssteuerung für das Nur-Radar-Hindernis und die gewöhnliche Kollisionsverhinderungssteuerung für das Nur-Bild-Hindernis können die gleiche sein wie die gewöhnliche Kollisionsverhinderungssteuerung für das Fusionshindernis, oder können mit Bezug auf die gewöhnliche Kollisionsverhinderungssteuerung für das Fusionshindernis eine reduzierte Kollisionsverhinderungsfähigkeit aufweisen. Die Weise des Reduzierens der Kollisionsverhinderungsfähigkeit ist so, wie mit Bezug auf den Prozess von Schritt S212 beschrieben, aber unterscheidet sich in dem Grad der Reduzierung. Es sei angemerkt, dass sich die gewöhnliche Kollisionsverhinderungssteuerung für das Nur-Radar-Hindernis, die gewöhnliche Kollisionsverhinderungssteuerung für das Nur-Bild-Hindernis und die gewöhnliche Kollisionsverhinderungssteuerung für das Fusionshindernis bezüglich Operationsbedingungen, Inhalten usw. aufgrund der Tatsache, dass die verfügbaren Objektinformationen entsprechend verschieden sind, unterscheiden können. Mit Bezug auf die gewöhnliche Kollisionsverhinderungssteuerung für das Nur-Radar-Hindernis zum Beispiel wird die seitliche Breite des Objekts durch den Vorwärtsradarsensor 16 nicht erfasst, und somit kann die seitliche Breite des Objekts nicht berücksichtigt werden, um die Steuerung durchzuführen. Im Gegensatz dazu kann mit Bezug auf die gewöhnliche Kollisionsverhinderungssteuerung für das Nur-Bild-Hindernis und die gewöhnliche Kollisionsverhinderungssteuerung für das Fusionshindernis solch eine seitliche Breite des Objekts berücksichtigt werden, um die Steuerung durchzuführen. Andererseits kann es einen Fall geben, in dem die Genauigkeit der Objektinformationen des Bildsensors 18 schlechter ist als die des Vorwärtsradarsensors 16. Somit kann sich die gewöhnliche Kollisionsverhinderungssteuerung für das Nur-Bild-Hindernis von der gewöhnlichen Kollisionsverhinderungssteuerung für das Nur-Radar-Hindernis und der gewöhnlichen Kollisionsverhinderungssteuerung für das Fusionshindernis dadurch unterscheiden, dass ein Startzeitpunkt der Steuerung verzögert ist oder das automatische Bremsen nicht betätigt wird.
  • In Schritt S216 führt die Fahrzeugsteuerungs-ECU 10 die Kollisionsverhinderungssteuerung für das Nur-Bild-Hindernis basierend auf den Hindernisinformationen von dem Bildsensor 18 durch, so dass die Verhinderungsfähigkeit durch die Kollisionsverhinderungssteuerung reduziert wird. Die Weise des Reduzierens der Kollisionsverhinderungsfähigkeit ist wie mit Bezug auf den Prozess von Schritt S212 beschrieben.
  • Es kann einen Fall geben, in dem der Vorwärtsradarsensor 16 Eisenplatten für Konstruktionen, Stufen auf der Straße usw. als ein Objekt erfasst. Im Gegensatz dazu ist die Wahrscheinlichkeit, dass der Bildsensor 18 solche Stufen auf der Straße als ein Objekt erfasst, niedrig, weil der Bildsensor 18 eine Höhe und ein Muster des Objekts erkennen kann. Andererseits kann es einen Fall geben, in dem der Bildsensor 18 fälschlicherweise komplizierte Muster auf der Straße (Gittermuster zum Beispiel) als ein 3D-Objekt erfasst, und fälschlicherweise ein Muster, das einem Fußgänger ähnlich ist, als einen Fußgänger erfasst. Im Gegensatz dazu trifft dieser Fehler nicht auf den Vorwärtsradarsensor 16 zu. Somit kann gemäß dem in 2 dargestellten Prozess die gewöhnliche Kollisionsverhinderungssteuerung durchgeführt werden, wenn das gleiche Objekt durch den Vorwärtsradarsensor 16 und den Bildsensor 18 erfasst wird, so dass die Kollisionsverhinderungssteuerung mit hoher Zuverlässigkeit durchgeführt werden kann.
  • Die Kollisionsverhinderungssteuerung wird jedoch gleichmäßig unterdrückt, wenn das Objekt durch nur einen des Vorwärtsradarsensors 16 und den Bildsensor 18 erfasst wird, und die Kollisionsverhinderungssteuerung kann in unnötigen Situationen unterdrückt werden. Zum Beispiel könnte ein Objekt durch den Bildsensor 18 nicht erfasst werden, obwohl das Objekt tatsächlich existiert, wenn Sonnenlicht direkt durch den Bildsensor 18 empfangen wird, oder das Licht in einer dunklen Umgebung nicht ausreichend ist. Des Weiteren könnte das Objekt durch den Vorwärtsradarsensor 16 nicht erfasst werden, auch wenn das Objekt tatsächlich existiert, wenn ein Übertragungskoeffizient der elektrischen Strahlung aufgrund von Spritzern (Graupel, Schneeregen, usw.) auf einer Frontoberfläche des Sensors reduziert ist. In diesen Fällen, wenn die Kollisionsverhinderungssteuerung gleichmäßig unterdrückt wird, könnte die Kollisionsverhinderungssteuerung unterdrückt werden, obwohl das Objekt tatsächlich existiert.
  • Gemäß dem in 2 dargestellten Prozess, wenn das Objekt durch nur einen des Vorwärtsradarsensors 16 und des Bildsensors 18 erfasst wird, wird die Zuverlässigkeit des anderen Sensors in Schritt S208 und Schritt S210 bestimmt, und eine Weise des Durchführens der Kollisionsverhinderungssteuerung (Kollisionsverhinderungsfähigkeit) wird basierend auf der bestimmten Zuverlässigkeit geändert. Mit dieser Anordnung, wenn das Objekt durch nur einen des Vorwärtsradarsensors 16 und des Bildsensors 18 erfasst wird, kann die Kollisionsverhinderungssteuerung mit einer angemessenen Kollisionsverhinderungsfähigkeit durchgeführt werden.
  • Speziell kann zum Beispiel bestimmt werden, dass die Zuverlässigkeit des Bildsensors 18 hoch ist, wenn die Anzahl von effektiven Daten ncd des Bildsensors 18 größer als der vorbestimmte Schwellenwert NCD ist, auch wenn das Hindernis das Nur-Radar-Hindernis ist. Die Wahrscheinlichkeit, dass das Nur-Radar-Hindernis in der Realität kein 3D-Objekt ist, ist hoch, weil das Nur-Radar-Hindernis nicht durch den zuverlässigen Bildsensor 18 erfasst wird. Somit wird in diesem Fall die Kollisionsverhinderungssteuerung für das Nur-Radar-Hindernis unterdrückt (siehe Schritt S212). Andererseits, wenn die Anzahl von effektiven Daten ncd des Bildsensors 18 kleiner oder gleich dem vorbestimmten Schwellenwert NCD ist, ist die Wahrscheinlichkeit, dass das Objekt vorübergehend durch den Bildsensor 18 aufgrund von Hintergrundlicht, einer dunklen Umgebung usw. nicht erfasst wird, hoch. Mit anderen Worten liegt nicht immer der Fall vor, dass "die Wahrscheinlichkeit, dass das Objekt vorhanden ist, aufgrund der Tatsache, dass der Bildsensor 18 das Objekt nicht erfasst, niedrig ist". Somit wird in diesem Fall die gewöhnliche Kollisionsverhinderungssteuerung für das Nur-Radar-Hindernis durchgeführt (siehe Schritt S214).
  • Ähnlich ist die Zuverlässigkeit des Vorwärtsradarsensors 16 hoch, wenn die Anzahl von effektiven Daten nrd des Vorwärtsradarsensors 16 größer als der vorbestimmte Schwellenwert NRD ist, auch wenn das Hindernis das Nur-Bild-Hindernis ist. Die Wahrscheinlichkeit, dass das Nur-Bild-Hindernis in der Realität kein 3D-Objekt ist, ist hoch, weil das Nur-Bild-Hindernis nicht durch den zuverlässigen Vorwärtsradarsensor 16 erfasst wird. Somit wird in diesem Fall die Kollisionsverhinderungssteuerung für das Nur-Bild-Hindernis unterdrückt (siehe Schritt S216). Wenn andererseits die Anzahl von effektiven Daten nrd des Vorwärtsradarsensors 16 kleiner oder gleich dem vorbestimmten Schwellenwert NRD ist, ist die Wahrscheinlichkeit, dass das Objekt vorübergehend durch den Vorwärtsradarsensor 16 aufgrund von Spritzern (Graupel usw.) usw. nicht erfasst wird, hoch. Mit anderen Worten liegt nicht immer ein Fall vor, dass "die Wahrscheinlichkeit, dass das Objekt existiert, aufgrund der Tatsache, dass der Vorwärtsradarsensor 16 das Objekt nicht erfasst, niedrig ist". Somit wird in diesem Fall die gewöhnliche Kollisionsverhinderungssteuerung für das Nur-Bild-Hindernis durchgeführt (siehe Schritt S214).
  • 3 ist ein anderes Beispiel eines Ablaufdiagramms des Prozesses, der durch die Fahrzeugsteuerungs-ECU 10 ausgeführt wird. Der in 3 dargestellte Prozess unterscheidet sich von dem in 2 dargestellten Prozess dadurch, dass Prozesse von Schritten S3071, S3072, S3091 und S3092 hinzugefügt sind. Die Prozesse von Schritten S300 bis S306 und S308 bis S316 können die gleichen sein wie die Prozesse von Schritten S200 bis S206 und S208 bis S216, die entsprechend in 2 dargestellt sind.
  • In Schritt S3071 wird bestimmt, ob der Bildsensor 18 einen Fehler aufweist. Es gibt verschiedene Weisen des Bestimmens des Fehlers des Bildsensors 18 und eine beliebige Weise kann verwendet werden. Wenn der Bildsensor 18 einen Fehler aufweist, geht der Prozess über zu Schritt S314, ansonsten geht der Prozess über zu Schritt S3072. Es sei angemerkt, dass wenn der Bildsensor 18 einen Fehler aufweist, eine Nur-Radar-Betriebsart als eine Notlaufbetriebsart gebildet werden kann, in der die Kollisionsverhinderungssteuerung nur unter Verwendung der Objektinformationen von dem Vorwärtsradarsensor 16 durchgeführt wird.
  • In Schritt S3072 wird bestimmt, ob der Bildsensor 18 in einem vorübergehend ungenutzten Zustand ist. Der vorübergehend ungenutzte Zustand des Bildsensors 18 kann gebildet werden, wenn Gegenlicht aufgrund von Sonne, Fernlicht eines entgegenkommenden Fahrzeugs, Regentropfen auf einer Frontscheibe (durch einen Regensensor erfasst), ein regnerischer Zustand, oder ein Fremdkörper auf dem Frontglas usw. erfasst werden. Wenn der Bildsensor 18 in dem vorübergehend ungenutzten Zustand ist, geht der Prozess über zu Schritt S314, ansonsten geht der Prozess über zu Schritt S308. Es sei angemerkt, dass auf ähnliche Weise, wenn der Bildsensor 18 in dem vorübergehend ungenutzten Zustand ist, die Nur-Radar-Betriebsart als eine Notlaufbetriebsart gebildet werden kann, in der die Kollisionsverhinderungssteuerung nur unter Verwendung der Objektinformationen von dem Vorwärtsradarsensor 16 durchgeführt wird.
  • In Schritt S3091 wird bestimmt, ob der Vorwärtsradarsensor 16 einen Fehler aufweist. Es gibt verschiedene Weisen des Bestimmens des Fehlers des Vorwärtsradarsensors 16 und ein beliebige Weise kann verwendet werden. Wenn der Vorwärtsradarsensor 16 einen Fehler aufweist, geht der Prozess über zu Schritt S314, ansonsten geht der Prozess über zu Schritt S3092. Es sei angemerkt, dass wenn der Vorwärtsradarsensor 16 einen Fehler aufweist, eine Nur-Bild-Betriebsart als eine Notlaufbetriebsart gebildet werden kann, in der die Kollisionsverhinderungssteuerung nur unter Verwendung der Objektinformationen von dem Bildsensor 18 durchgeführt wird.
  • In Schritt S3092 wird bestimmt, ob der Vorwärtsradarsensor 16 in einem vorübergehend ungenutzten Zustand ist. Der vorübergehend ungenutzte Zustand des Vorwärtsradarsensors 16 kann gebildet werden, wenn Spritzer oder ein Fremdkörper auf einer Frontabdeckung des Vorwärtsradarsensors 16 usw. erfasst werden. Wenn der Vorwärtsradarsensor 16 in dem vorübergehend ungenutzten Zustand ist, geht der Prozess über zu Schritt S314, ansonsten geht der Prozess über zu Schritt S310. Es sei angemerkt, dass auf eine ähnliche Weise, wenn der Vorwärtsradarsensor 16 in dem vorübergehend ungenutzten Zustand ist, die Nur-Bild-Betriebsart als eine Notlaufbetriebsart gebildet werden kann, in der die Kollisionsverhinderungssteuerung nur unter Verwendung der Objektinformationen von dem Bildsensor 18 durchgeführt wird.
  • Gemäß dem in 3 dargestellten Prozess können die gleichen Effekte wie in dem in 2 dargestellten Prozess erhalten werden.
  • 4 ist ein anderes Beispiel eines Ablaufdiagramms des Prozesses, der durch die Fahrzeugsteuerungs-ECU 10 durchgeführt wird. Der in 4 dargestellte Prozess unterscheidet sich von dem in 2 dargestellten Prozess dadurch, dass die Prozesse von Schritten S4051 und S4052 hinzugefügt sind. Die Prozesse von Schritten S400 bis S404, S406 bis S412 und S416 können die gleichen sein wie die Prozesse von Schritten S200 bis S204, S206 bis S212 und S216, die entsprechend in 2 dargestellt sind.
  • In Schritt S4051 wird bestimmt, ob das Hindernis ein stationäres Hindernis ist. Ob das Hindernis ein stationäres Hindernis ist, kann basierend auf einer Fahrzeuggeschwindigkeit des Bezugsfahrzeugs oder den Objektinformationen (relative Geschwindigkeit des Hindernisses) bestimmt werden. Wenn das Hindernis ein stationäres Objekt ist, geht der Prozess über zu Schritt S406, ansonsten (das heißt in dem Fall eines beweglichen Hindernisses) geht der Prozess über zu Schritt S4052.
  • In Schritt S4052 führt die Fahrzeugsteuerungs-ECU 10 die gewöhnliche Kollisionsverhinderungssteuerung für das bewegliche Hindernis basierend auf den Objektinformationen, die von dem Vorwärtsradarsensor 16 und/oder dem Bildsensor 18 erhalten werden, durch. Die gewöhnliche Kollisionsverhinderungssteuerung kann sich zwischen dem Fall, in dem das Hindernis das Nur-Radar-Hindernis ist, dem Fall, in dem das Hindernis das Nur-Bild-Hindernis ist, und dem Fall, in dem das Hindernis das Fusionshindernis ist, unterscheiden. Es sei angemerkt, dass die gewöhnliche Kollisionsverhinderungssteuerung für das bewegliche Hindernis sich zwischen dem Fall, in dem das bewegliche Hindernis ein entgegenkommendes Fahrzeug ist, und dem Fall, in dem das bewegliche Hindernis das vorausfahrende Fahrzeug ist, unterscheiden kann.
  • In Schritt S414 führt die Fahrzeugsteuerungs-ECU 10 die gewöhnliche Kollisionsverhinderungssteuerung für das stationäre Hindernis basierend auf den Objektinformationen, die von dem Vorwärtsradarsensor 16 und/oder dem Bildsensor 18 erhalten werden, durch.
  • Gemäß dem in 4 dargestellten Prozess können die gleichen Effekte wie in dem in 2 dargestellten Prozess erhalten werden. Gemäß dem in 4 dargestellten Prozess wird der gleiche Prozess, wie er in 2 dargestellt ist, nur durchgeführt, wenn das Hindernis das stationäre Hindernis ist. Somit wird gemäß dem in 4 dargestellten Prozess der Reduzierungsgrad der Kollisionsverhinderungssteuerung für das Nur-Bild-Hindernis und das Nur-Radar-Hindernis nur für das stationäre Objekt, das einfach fehlerhafte Erfassungen durch den Vorwärtsradarsensor 16 und den Bildsensor 18 verursacht, geändert. Dies liegt daran, dass die fehlerhaften Erfassungen durch den Vorwärtsradarsensor 16 für das stationäre Objekt, wie etwa Stufen auf der Straße usw., einfach auftreten und die fehlerhaften Erfassungen durch den Bildsensor 18 für das stationäre Objekt, wie etwa Muster auf der Straße, einfach auftreten, wie vorstehend beschrieben.
  • Weiterhin kann gemäß dem in 4 dargestellten Prozess, weil bestimmt wird, ob das Hindernis ein stationäres Hindernis ist, die gewöhnliche Kollisionsverhinderungssteuerung auf eine angemessene Weise (zum Beispiel ein Startzeitpunkt) gemäß damit durchgeführt werden, ob das Hindernis ein stationäres Hindernis ist oder nicht.
  • Alle Beispiele und hierin wiedergegebenen bedingten Formulierungen dienen dem pädagogischen Zweck, um den Leser beim Verstehen der Erfindung und der Konzepte, die durch den Erfinder zum Weiterbilden der Technik beigetragen werden, zu unterstützen, und sind derart zu verstehen, dass sie nicht auf die speziell wiedergegebenen Bespiele und Bedingungen beschränkt sind, und auch die Organisation solcher Beispiele in der Beschreibung betrifft kein Darlegen der Überlegenheit oder Unterlegenheit der Erfindung. Obwohl das Ausführungsbeispiel oder die Ausführungsbeispiele der Erfindung detailliert beschrieben wurden, ist zu verstehen, dass verschiedene Änderungen, Ersetzungen und Umänderungen vorgenommen werden können, ohne sich vom Geist und Umfang der Erfindung zu entfernen. Weiterhin können alle oder ein Teil der Komponenten der Ausführungsbeispiele, die vorstehend beschrieben wurden, kombiniert werden.
  • Die vorliegende Anmeldung basiert auf der japanischen Prioritätsanmeldung Nr. 2014-020672 , eingereicht am 5. Februar 2014, deren gesamte Inhalte hierbei durch Bezugnahme mit umfasst sind.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2005-239114 [0002]
    • JP 2014-020672 [0051]

Claims (5)

  1. Kollisionsverhinderungssteuerungsvorrichtung, mit: einem Bildsensor, der ein Objekt in der Nähe eines Fahrzeugs erfasst; einem Radarsensor, der das Objekt in der Nähe des Fahrzeugs erfasst; und einer Steuerung, die, wenn nur einer der Sensoren des Bildsensors und des Radarsensors das Objekt erfasst, eine Zuverlässigkeit des anderen Sensors bestimmt und basierend auf der bestimmten Zuverlässigkeit eine Weise des Durchführens einer Kollisionsverhinderungssteuerung zum Verhindern einer Kollision mit dem Objekt, das durch den einen der Sensoren erfasst wird, ändert.
  2. Kollisionsverhinderungssteuerungsvorrichtung gemäß Anspruch 1, wobei die Steuerung die Weise des Durchführens der Kollisionsverhinderungssteuerung derart ändert, dass eine Verhinderungsfähigkeit durch die Kollisionsverhinderungssteuerung niedriger wird, wenn die bestimmte Zuverlässigkeit höher wird.
  3. Kollisionsverhinderungssteuerungsvorrichtung gemäß Anspruch 1 oder 2, wobei die Steuerung die Zuverlässigkeit basierend auf einer Anzahl von Elementen von effektiven Daten, die durch den anderen Sensor erhalten werden, bestimmt, und die Anzahl von Elementen von effektiven Daten einer Anzahl von Reflexionspunkten entspricht, deren Empfangslevel höher sind als eine vorbestimmte Stärke, wenn der andere Sensor der Radarsensor ist, und einer Anzahl von Pixeln entspricht, für die Kanten oder Parallaxen erfasst werden oder optische Flüsse bestimmt werden können, wenn der andere Sensor der Bildsensor ist.
  4. Kollisionsverhinderungssteuerungsvorrichtung gemäß einem der Ansprüche 1 bis 3, wobei, wenn nur einer des Bildsensors und des Radarsensors das Objekt erfasst, die Steuerung die Weise des Durchführens der Kollisionsverhinderungssteuerung derart bestimmt, dass eine Verhinderungsfähigkeit durch die Kollisionsverhinderungssteuerung niedriger wird als in dem Fall, in dem der Bildsensor und der Radarsensor das Objekt erfassen.
  5. Kollisionsverhinderungssteuerungsvorrichtung gemäß einem der Ansprüche 1 bis 4, wobei, wenn nur einer des Bildsensors und des Radarsensor das Objekt erfasst, das stationär ist, die Steuerung basierend auf der Zuverlässigkeit die Weise des Durchführens der Kollisionsverhinderungssteuerung zum Verhindern der Kollision mit dem Objekt, das stationär ist, ändert.
DE102015100378.3A 2014-02-05 2015-01-13 Kollisionsverhinderungssteuerungsvorrichtung Ceased DE102015100378A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-020672 2014-02-05
JP2014020672A JP5991332B2 (ja) 2014-02-05 2014-02-05 衝突回避制御装置

Publications (1)

Publication Number Publication Date
DE102015100378A1 true DE102015100378A1 (de) 2015-08-06

Family

ID=53547184

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015100378.3A Ceased DE102015100378A1 (de) 2014-02-05 2015-01-13 Kollisionsverhinderungssteuerungsvorrichtung

Country Status (4)

Country Link
US (1) US9481365B2 (de)
JP (1) JP5991332B2 (de)
CN (1) CN104816697B (de)
DE (1) DE102015100378A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015214748B4 (de) 2015-08-03 2023-07-20 Bayerische Motoren Werke Aktiengesellschaft Bremsassistent zur Steuerung einer automatischen Verzögerung eines Kraftfahrzeugs

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160075134A (ko) * 2014-12-19 2016-06-29 현대모비스 주식회사 차량용 레이더 시스템
JP6396838B2 (ja) * 2015-03-31 2018-09-26 株式会社デンソー 車両制御装置、及び車両制御方法
WO2017029847A1 (ja) 2015-08-19 2017-02-23 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP6300181B2 (ja) * 2015-08-25 2018-03-28 マツダ株式会社 車両の制御装置
JP2017054311A (ja) * 2015-09-09 2017-03-16 株式会社デンソー 物体検出装置
WO2017057061A1 (ja) * 2015-09-30 2017-04-06 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
EP3159853B1 (de) * 2015-10-23 2019-03-27 Harman International Industries, Incorporated Systeme und verfahren zur fortschrittlichen fahrerassistenzanalytik
EP3196089B1 (de) * 2016-01-21 2021-10-13 Volvo Car Corporation Fahrzeugsicherheitsunterstützungssystem, fahrzeug mit einem fahrzeugsicherheitsunterstützungssystem und verfahren zur bereitstellung einer fahrerwarnung oder zur durchführung einer autonomen bremsung
MY188558A (en) * 2016-01-22 2021-12-22 Nissan Motor Vehicle driving assist control method and control device
JP2017159801A (ja) * 2016-03-09 2017-09-14 パナソニックIpマネジメント株式会社 自動運転制御装置および自動運転システム
JP6643166B2 (ja) * 2016-03-31 2020-02-12 株式会社デンソー 物体認識装置及び物体認識方法
CN105866779A (zh) * 2016-04-06 2016-08-17 浙江大学 基于双目相机与毫米波雷达的可穿戴避障装置及避障方法
KR102535618B1 (ko) * 2016-05-02 2023-05-23 한국전자통신연구원 융합형 물체 감지 정보를 이용한 운전자 보조 시스템 및 방법
WO2017199971A1 (ja) * 2016-05-19 2017-11-23 株式会社デンソー 車両制御装置、車両制御方法
JP6493365B2 (ja) * 2016-05-19 2019-04-03 株式会社デンソー 車両制御装置、車両制御方法
CN105946708A (zh) * 2016-05-27 2016-09-21 奇瑞汽车股份有限公司 车辆底盘防撞提示方法及装置
CN106289363A (zh) * 2016-08-01 2017-01-04 长沙理工大学 一种干扰环境传感器故障判断标记方法
CN106569213A (zh) * 2016-10-21 2017-04-19 奇瑞汽车股份有限公司 一种汽车静态防碰撞系统及其控制方法
US10160448B2 (en) * 2016-11-08 2018-12-25 Ford Global Technologies, Llc Object tracking using sensor fusion within a probabilistic framework
CN107202983B (zh) * 2017-05-19 2020-11-13 深圳佑驾创新科技有限公司 基于图像识别和毫米波雷达融合的自动刹车方法和系统
CN113466822B (zh) * 2017-07-04 2024-06-25 百度在线网络技术(北京)有限公司 用于检测障碍物的方法和装置
DE102017216065A1 (de) * 2017-09-12 2019-03-14 Robert Bosch Gmbh Verfahren und Vorrichtung zum Bewerten von Bildern, Betriebsassistenzverfahren und Betriebsvorrichtung
US10641888B2 (en) * 2017-11-06 2020-05-05 Veoneer Us Inc. Cued automobile sensor fusion
JP6981224B2 (ja) * 2017-12-18 2021-12-15 トヨタ自動車株式会社 車両制御装置、方法およびプログラム
US20190244136A1 (en) * 2018-02-05 2019-08-08 GM Global Technology Operations LLC Inter-sensor learning
DE102018202296A1 (de) * 2018-02-15 2019-08-22 Robert Bosch Gmbh Radarsensor-System und Verfahren zum Betreiben eines Radarsensor-Systems
JP7164309B2 (ja) * 2018-02-27 2022-11-01 株式会社デンソー 周辺監視装置および周辺監視システム
JP7075244B2 (ja) * 2018-02-28 2022-05-25 株式会社デンソー 周辺監視装置、周辺監視システム、および周辺監視方法
JP6996353B2 (ja) * 2018-03-06 2022-01-17 トヨタ自動車株式会社 物体認識装置及び車両走行制御システム
JP6959179B2 (ja) * 2018-04-26 2021-11-02 株式会社クボタ 作業車
CN108549880B (zh) * 2018-04-28 2021-06-25 深圳市商汤科技有限公司 碰撞控制方法及装置、电子设备和存储介质
CN109409282B (zh) * 2018-10-24 2022-07-08 珠海瑞天安科技发展有限公司 一种机场跑道外来物检测方法及系统
US10553117B1 (en) * 2018-11-06 2020-02-04 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for determining lane occupancy of surrounding vehicles
JP7176415B2 (ja) * 2019-01-15 2022-11-22 トヨタ自動車株式会社 衝突前制御装置
US10627823B1 (en) * 2019-01-30 2020-04-21 StradVision, Inc. Method and device for performing multiple agent sensor fusion in cooperative driving based on reinforcement learning
CN109977793B (zh) * 2019-03-04 2022-03-04 东南大学 基于变尺度多特征融合卷积网络的路侧图像行人分割方法
JP7113958B2 (ja) * 2019-03-11 2022-08-05 三菱電機株式会社 運転支援装置及び運転支援方法
CN110095998B (zh) * 2019-04-28 2020-09-15 苏州极目机器人科技有限公司 一种自动控制设备的控制方法及装置
US11180148B2 (en) * 2019-09-03 2021-11-23 Ford Global Technologies, Llc Detection and response to confined trailer in system-assisted hitch operation
JP7328863B2 (ja) * 2019-10-11 2023-08-17 株式会社デンソー 制御装置
WO2021109033A1 (en) 2019-12-04 2021-06-10 Huawei Technologies Co., Ltd. Apparatus and method for collecting and auto-labelling measurement data in traffic scenario
CN111240328B (zh) * 2020-01-16 2020-12-25 中智行科技有限公司 一种车辆行驶安全监控方法、装置和无人驾驶车辆
CN115210599A (zh) * 2020-02-27 2022-10-18 株式会社小糸制作所 传感器系统、控制装置、非瞬时性计算机可读介质以及计算机程序
JP7213279B2 (ja) * 2021-02-03 2023-01-26 本田技研工業株式会社 運転支援装置
CN114460585A (zh) * 2021-12-31 2022-05-10 惠州华阳通用智慧车载系统开发有限公司 一种超声波雷达测距方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005239114A (ja) 2004-01-28 2005-09-08 Toyota Motor Corp 車両用走行支援装置
JP2014020672A (ja) 2012-07-18 2014-02-03 Waki Seisakusho:Kk 熱交換器

Family Cites Families (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19546506A1 (de) * 1995-12-13 1997-06-19 Daimler Benz Ag Fahrzeug-Navigationssystem und Signalverarbeitungsverfahren für ein solches Navigationssystem
JP3843502B2 (ja) * 1996-09-30 2006-11-08 マツダ株式会社 車両用動体認識装置
DE19741631B4 (de) * 1997-09-20 2013-08-14 Volkswagen Ag Verfahren und Vorrichtung zur Vermeidung und/oder Minimierung von Konfliktsituationen im Straßenverkehr
US6259992B1 (en) * 1998-06-03 2001-07-10 Honda Giken Kogyo Kabushiki Kaisha Vehicle safety running control system
DE19858297A1 (de) * 1998-12-17 2000-06-29 Daimler Chrysler Ag Verfahren zur Korrektur eines Signals wenigstens eines Sensors, aufgrund dessen eine Bahnkurve ermittelbar ist, auf der sich das Fahrzeug bewegt
JP4308381B2 (ja) * 1999-09-29 2009-08-05 富士通テン株式会社 周辺監視センサ
US20010031068A1 (en) * 2000-04-14 2001-10-18 Akihiro Ohta Target detection system using radar and image processing
JP3829627B2 (ja) 2001-02-02 2006-10-04 日産自動車株式会社 車輌用外界認識装置
JP3766909B2 (ja) * 2001-11-30 2006-04-19 株式会社日立製作所 走行環境認識方法および装置
JP2004117071A (ja) * 2002-09-24 2004-04-15 Fuji Heavy Ind Ltd 車外監視装置、及び、この車外監視装置を備えた走行制御装置
JP3779280B2 (ja) * 2003-03-28 2006-05-24 富士通株式会社 衝突予測装置
JP3918791B2 (ja) 2003-09-11 2007-05-23 トヨタ自動車株式会社 物体検出装置
JP4738778B2 (ja) * 2003-10-15 2011-08-03 富士通テン株式会社 画像処理装置、運転支援装置および運転支援システム
JP4193703B2 (ja) * 2004-01-19 2008-12-10 トヨタ自動車株式会社 物体検出装置
US7197396B2 (en) * 2004-03-31 2007-03-27 Ford Global Technologies, Llc Collision mitigation system
JP4396400B2 (ja) * 2004-06-02 2010-01-13 トヨタ自動車株式会社 障害物認識装置
US20060058931A1 (en) * 2004-09-15 2006-03-16 Honeywell International Inc. Collision avoidance involving radar feedback
JP4598653B2 (ja) * 2005-05-13 2010-12-15 本田技研工業株式会社 衝突予知装置
JP4304517B2 (ja) * 2005-11-09 2009-07-29 トヨタ自動車株式会社 物体検出装置
DE102006011481A1 (de) * 2006-03-13 2007-09-20 Robert Bosch Gmbh Verfahren und Vorrichtung zum Unterstützen eines Führens eines Fahrzeugs
JP2007310741A (ja) 2006-05-19 2007-11-29 Fuji Heavy Ind Ltd 立体物認識装置
JP4967840B2 (ja) * 2007-06-14 2012-07-04 トヨタ自動車株式会社 衝突軽減装置
DE102007041121B4 (de) 2007-08-30 2022-05-19 Volkswagen Ag Verfahren und Vorrichtung zum Verarbeiten von Sensordaten für ein Fahrerassistenzsystem eines Fahrzeugs
JP2009157472A (ja) * 2007-12-25 2009-07-16 Mitsubishi Fuso Truck & Bus Corp 車両の衝突被害軽減装置
DE102009006113B4 (de) 2008-03-03 2019-03-28 Volkswagen Ag Vorrichtung und Verfahren zur Sensorfusion mit dynamischen Objekten
JP5649568B2 (ja) * 2008-05-21 2015-01-07 アー・デー・ツェー・オートモーティブ・ディスタンス・コントロール・システムズ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング 車両と歩行者との衝突を回避するための運転者援助システム
US8812226B2 (en) * 2009-01-26 2014-08-19 GM Global Technology Operations LLC Multiobject fusion module for collision preparation system
US20100225522A1 (en) * 2009-03-06 2010-09-09 Demersseman Bernard Guy Sensor system for detecting an impending collision of a vehicle
US8244408B2 (en) * 2009-03-09 2012-08-14 GM Global Technology Operations LLC Method to assess risk associated with operating an autonomic vehicle control system
JP5210233B2 (ja) * 2009-04-14 2013-06-12 日立オートモティブシステムズ株式会社 車両用外界認識装置及びそれを用いた車両システム
JP5195672B2 (ja) * 2009-05-29 2013-05-08 トヨタ自動車株式会社 車両制御装置、車両および車両制御方法
WO2011070650A1 (ja) * 2009-12-08 2011-06-16 トヨタ自動車株式会社 物体検出装置及び物体検出方法
JP2012043364A (ja) * 2010-08-23 2012-03-01 Toyota Motor Corp 物体認識装置
WO2012068064A1 (en) * 2010-11-15 2012-05-24 Image Sensing Systems, Inc. Hybrid traffic sensor system and associated method
JP5712900B2 (ja) * 2011-11-08 2015-05-07 トヨタ自動車株式会社 周辺物体検出装置
CN104040606B (zh) * 2012-07-10 2015-08-26 本田技研工业株式会社 故障判定装置
US9187091B2 (en) * 2012-07-30 2015-11-17 Ford Global Technologies, Llc Collision detection system with a plausibiity module
WO2014024284A1 (ja) * 2012-08-08 2014-02-13 トヨタ自動車株式会社 衝突予測装置
WO2014033954A1 (ja) * 2012-09-03 2014-03-06 トヨタ自動車株式会社 衝突判定装置及び衝突判定方法
CN104603855B (zh) * 2012-09-03 2016-06-22 丰田自动车株式会社 碰撞判定装置和碰撞判定方法
US9470790B2 (en) * 2012-09-03 2016-10-18 Toyota Jidosha Kabushiki Kaisha Collision determination device and collision determination method
US8994581B1 (en) * 2012-09-25 2015-03-31 Adam Brown Direction of arrival (DOA) estimation using multiple offset receive channels
JP2014102165A (ja) * 2012-11-20 2014-06-05 Denso Corp 物標判定装置
JP5812064B2 (ja) * 2012-11-22 2015-11-11 株式会社デンソー 物標検出装置
JP5842862B2 (ja) * 2013-05-14 2016-01-13 株式会社デンソー 衝突緩和装置
JP5929870B2 (ja) * 2013-10-17 2016-06-08 株式会社デンソー 物標検出装置
EP2865575B1 (de) * 2013-10-22 2022-08-24 Honda Research Institute Europe GmbH Vertrauensschätzung für prädiktive Fahrerunterstützungssysteme auf Basis von Plausibilitätsregeln
DE102014205170A1 (de) * 2014-03-20 2015-11-26 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Ermitteln einer Trajektorie für ein Fahrzeug

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005239114A (ja) 2004-01-28 2005-09-08 Toyota Motor Corp 車両用走行支援装置
JP2014020672A (ja) 2012-07-18 2014-02-03 Waki Seisakusho:Kk 熱交換器

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015214748B4 (de) 2015-08-03 2023-07-20 Bayerische Motoren Werke Aktiengesellschaft Bremsassistent zur Steuerung einer automatischen Verzögerung eines Kraftfahrzeugs

Also Published As

Publication number Publication date
JP5991332B2 (ja) 2016-09-14
JP2015148899A (ja) 2015-08-20
US9481365B2 (en) 2016-11-01
CN104816697B (zh) 2017-08-08
US20150217765A1 (en) 2015-08-06
CN104816697A (zh) 2015-08-05

Similar Documents

Publication Publication Date Title
DE102015100378A1 (de) Kollisionsverhinderungssteuerungsvorrichtung
DE112017001351B4 (de) Fahrassistenzvorrichtung
DE102013112916A1 (de) Fahrzeugfahrtunterstützungssteuerungsvorrichtung
DE102014103695B4 (de) Fahrzeuggestützte Kreuzungsbeurteilungsvorrichtung und -programm
DE102007027126B4 (de) Hinderniserfassungssystem für Fahrzeuge
DE102011088130B4 (de) Verfahren und Vorrichtung zur Erkennung einer Bremssituation
DE102020204390A1 (de) Fahrerassistenzsystem, Fahrzeug mit demselben und Verfahren zum Steuern des Fahrzeugs
DE112017003974B4 (de) Geschwindigkeitsregelungsvorrichtung
DE102013113163A1 (de) Fahrzeugfahrtunterstützungssteuerungsvorrichtung
DE102017000641A1 (de) Fahrzeugsteuervorrichtung
DE102012224499A1 (de) Verfahren und System zum Erkennen eines Raums eines Seitenstreifens
DE112017002651T5 (de) Zielerfassungsvorrichtung
DE102015206651A1 (de) Fahrzeugfahrunterstützungsvorrichtung zum ausführen von kollisionsvermeidungsbetrieben auf der grundlage einer position und einer bewegungsbedingung eines zielobjekts
DE112018006009T5 (de) Bremsunterstützungsvorrichtung, steuerungsvorrichtung und bremsunterstützungsverfahren für ein fahrzeug
DE102016003438A1 (de) Fahrassistenzsystem eines Fahrzeugs und Verfahren zur Steuerung desselben
EP2040220B1 (de) Verfahren zur Hinderniserkennung
DE112019000801T5 (de) Fahrunterstützungsvorrichtung und Fahrunterstützungsverfahren
DE102015100539A1 (de) Fahrunterstützungsvorrichtung
DE102013100327A1 (de) Fahrzeugfahrtumgebungserkennungsvorrichtung
DE102014105696A1 (de) Kollisionsabschwächungsvorrichtung für Fahrzeuge
DE102012200975A1 (de) Objektdetektionsvorrichtung
DE102015207026A1 (de) Verfahren und Vorrichtung zum Steuern eines Erfassungssystems zum Erfassen eines Umfelds eines Fahrzeugs
DE102015208599A1 (de) Objekterkennungsvorrichtung
DE102013103952B4 (de) Spurerkennung bei voller Fahrt mit einem Rundumsichtsystem
DE102013103953B4 (de) Spurerkennung bei voller Fahrt unter Verwendung mehrerer Kameras

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final