DE102017131183B4 - Fahrzeugseitige Warnvorrichtung und Verfahren einer Steuerung einer fahrzeugseitigen Warnvorrichtung - Google Patents

Fahrzeugseitige Warnvorrichtung und Verfahren einer Steuerung einer fahrzeugseitigen Warnvorrichtung Download PDF

Info

Publication number
DE102017131183B4
DE102017131183B4 DE102017131183.1A DE102017131183A DE102017131183B4 DE 102017131183 B4 DE102017131183 B4 DE 102017131183B4 DE 102017131183 A DE102017131183 A DE 102017131183A DE 102017131183 B4 DE102017131183 B4 DE 102017131183B4
Authority
DE
Germany
Prior art keywords
host vehicle
camera
specifying
distance
relative speed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102017131183.1A
Other languages
English (en)
Other versions
DE102017131183A1 (de
Inventor
Teppei Ohta
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Publication of DE102017131183A1 publication Critical patent/DE102017131183A1/de
Application granted granted Critical
Publication of DE102017131183B4 publication Critical patent/DE102017131183B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8073Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for vehicle security, e.g. parked vehicle surveillance, burglar detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • B60W2050/009Priority selection
    • B60W2050/0091Priority selection of control inputs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Transportation (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Databases & Information Systems (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)

Abstract

Fahrzeugseitige Warnvorrichtung, miteinem Kamerasensor (11), der dazu eingerichtet ist, um ein Bild eines Bereichs um ein Wirtsfahrzeug herum aufzunehmen und um einen Azimut eines Objekts bezüglich des Wirtsfahrzeugs und eine Distanz zwischen dem Objekt und dem Wirtsfahrzeug basierend auf dem aufgenommenen Bild zu erfassen,einem Radarsensor (12C, 12L, 12R), der dazu eingerichtet ist, um eine elektrische Welle zu dem Bereich um das Wirtsfahrzeug herum auszustrahlen, eine reflektierte Welle der elektrischen Welle zu empfangen, und um den Azimut des Objekts bezüglich des Wirtsfahrzeugs und die Distanz zwischen dem Objekt und dem Wirtsfahrzeug basierend auf der reflektierten Welle zu erfassen,einer Anzeigeeinheit (20), auf der ein Warnbildschirm (70), der eines Fahrers Sichtlinie leitet, angezeigt wird, undeiner elektronischen Steuereinheit (10), die dazu eingerichtet ist, umeine Position und eine Relativgeschwindigkeit des Objekts durch selektives Verwenden eines aus einem Fusionsverfahren und einem Nur-Kamera-Verfahren zu spezifizieren, wobei das Fusionsverfahren die Position des Objekts durch Spezifizieren des Azimuts des Objekts bezüglich des Wirtsfahrzeugs basierend auf erster Objektinformation und durch Spezifizieren der Distanz zwischen dem Objekt und dem Wirtsfahrzeug basierend auf zweiter Objektinformation spezifiziert und die Relativgeschwindigkeit, die eine Geschwindigkeit des Objekts bezüglich des Wirtsfahrzeugs ist, basierend auf der zweiten Objektinformation spezifiziert, wobei das Nur-Kamera-Verfahren die Position des Objekts durch Spezifizieren des Azimuts des Objekts bezüglich des Wirtsfahrzeugs und durch Spezifizieren der Distanz zwischen dem Objekt und dem Wirtsfahrzeug basierend auf der ersten Objektinformation spezifiziert und die Relativgeschwindigkeit basierend auf der spezifizierten Distanz berechnet, wobei die erste Objektinformation Information bezüglich des Azimuts des Objekts bezüglich des Wirtsfahrzeugs und der Distanz zwischen dem Objekt und dem Wirtsfahrzeug, die durch den Kamerasensor (11) erfasst sind, umfasst, und die zweite Objektinformation Information bezüglich des Azimuts des Objekts bezüglich des Wirtsfahrzeugs und der Distanz zwischen dem Objekt und dem Wirtsfahrzeug, die durch den Radarsensor (12C, 12L, 12R) erfasst sind, umfasst,Fahrzeugstatusinformation bezüglich eines Fortbewegungsstatusses des Wirtsfahrzeugs zu erlangen, ein Hindernis mit einer relativ hohen Wahrscheinlichkeit eines Kollidierens mit dem Wirtsfahrzeug basierend auf zumindest einer aus der spezifizierten Position des Objekts und einer Bewegungsrichtung des Objekts abhängig von einer Änderung der Position des Objekts zu extrahieren,eine Abstandszeitperiode, in der das extrahierte Hindernis einen Spitzenendbereich einschließlich eines Frontendenabschnitts des Wirtsfahrzeugs erreicht, basierend auf der spezifizierten Distanz zwischen dem Objekt und dem Wirtsfahrzeug und der spezifizierten Relativgeschwindigkeit zu berechnen, undeinen Bildschirm, der eines Fahrers Sichtlinie in eine Richtung des Hindernisses mit der Abstandszeitperiode geringer als oder gleich wie eine Schwelle leitet, als den Warnbildschirm (70) auf der Anzeigeeinheit (20) anzuzeigen, wobeidie elektronische Steuereinheit (10) dazu eingerichtet ist, um ein Verfahren eines Spezifizierens der Position und der Relativgeschwindigkeit des Objekts von dem Nur-Kamera-Verfahren zu dem Fusionsverfahren zu schalten, wenn die erste Objektinformation und die zweite Objektinformation eine erste Bedingung erfüllen bei einem Spezifizieren der Position und der Relativgeschwindigkeit des Objekts unter Verwendung des Nur-Kamera-Verfahrens, und um das Verfahren eines Spezifizierens der Position und der Relativgeschwindigkeit des Objekts von dem Fusionsverfahren zu dem Nur-Kamera-Verfahren zu schalten, wenn die erste Objektinformation und die zweite Objektinformation eine zweite Bedingung erfüllen bei einem Spezifizieren der Position und der Relativgeschwindigkeit des Objekts unter Verwendung des Fusionsverfahrens, unddie elektronische Steuereinheit (10) dazu eingerichtet ist, umeine Anzeige des Warnbildschirms (70) für das Objekt, dessen Position und Relativgeschwindigkeit unter Verwendung des Nur-Kamera-Verfahrens spezifiziert sind, zu verbieten während eine erste vorbestimmte Zeitperiode verstreicht von einem Zeitpunkt eines Schaltens des Verfahrens eines Spezifizierens der Position und der Relativgeschwindigkeit des Objekts von dem Fusionsverfahren zu dem Nur-Kamera-Verfahren, und umeine Anzeige des Warnbildschirms (70) für das Objekt, dessen Position und Relativgeschwindigkeit unter Verwendung des Fusionsverfahrens spezifiziert sind, zu verbieten während eine zweite vorbestimmte Zeitperiode verstreicht von einem Zeitpunkt eines Schaltens des Verfahrens eines Spezifizierens der Position und der Relativgeschwindigkeit des Objekts von dem Nur-Kamera-Verfahren zu dem Fusionsverfahren.

Description

  • Hintergrund der Erfindung
  • 1. Gebiet der Erfindung
  • Die Erfindung bezieht sich auf eine fahrzeugseitige Warnvorrichtung, die ein Hindernis, das eine Möglichkeit hat, mit einem Wirtsfahrzeug zu kollidieren, basierend auf erster Objektinformation, die mittels eines Kamerasensors erlangt ist, und zweiter Objektinformation, die mittels eines Radarsensors erlangt ist, extrahiert und einen Fahrer bezüglich des Hindernisses unter Verwendung einer Anzeigeeinheit warnt, und auf ein Verfahren einer Steuerung einer fahrzeugseitigen Warnvorrichtung.
  • 2. Beschreibung des verwandten Stands der Technik
  • Eine von fahrzeugseitigen Warnvorrichtungen des verwandten Stands der Technik (nachstehend als „Vorrichtung des verwandten Stands der Technik“ bezeichnet) umfasst zwei Erfassungselemente eines Millimeterwellenradars und einer Stereokamera. Die Vorrichtung des verwandten Stands der Technik spezifiziert die Position eines Objekts durch Spezifizieren des Azimuts des Objekts bezüglich eines Wirtsfahrzeugs und der Distanz zwischen dem Objekt und dem Wirtsfahrzeug unter Verwendung der Erfassungsergebnisse der zwei Erfassungselemente. Die Vorrichtung des verwandten Stands der Technik spezifiziert ein Objekt, auf das der Fahrer aufmerksam gemacht werden sollte bzw. vor dem der Fahrer gewarnt werden sollte, unter Verwendung des spezifizierten Azimuts und der spezifizierten Position des Objekts (siehe beispielsweise japanische ungeprüfte Patentanmeldungsveröffentlichung Nummer JP 2005-84 034 A .
  • Zusammenfassung der Erfindung
  • Grundsätzlich kann ein Radarsensor einschließlich eines Millimeterwellenradars die Distanz bzw. den Abstand zwischen einem Wirtsfahrzeug und einem Objekt (nachstehend als eine „Relativdistanz“ bezeichnet) genauer als eine Stereokamera erfassen. Entsprechend wird die durch den Radarsensor gemessene Relativdistanz bevorzugt als die Relativdistanz verwendet, die zu der Zeit einer Bestimmung, ob ein Alarm bzw. eine Warnung bereitzustellen ist, verwendet wird. Die Stereokamera kann den Azimut des Objekts bezüglich des Wirtsfahrzeugs genauer als der Radarsensor erfassen. Entsprechend wird der durch die Stereokamera gemessene Azimut bevorzugt als der Azimut des Objekts verwendet, der zu der Zeit einer Bestimmung, ob ein Alarm bzw. eine Warnung bereitzustellen ist, verwendet wird. D.h., die Position (die Relativdistanz und der Relativazimut) des Objekts wird bevorzugt basierend auf sowohl dem Erfassungsergebnis des Radarsensors als auch dem Erfassungsergebnis der Stereokamera spezifiziert. Ein solches „Verfahren eines Spezifizierens der Position des Objekts unter Verwendung von sowohl dem Erfassungsergebnis des Radarsensors als auch dem Erfassungsergebnis der Stereokamera“ kann als ein „Fusionsverfahren“ bezeichnet werden.
  • Beispielsweise ist, wenn ein Fußgänger in einer Position relativ weit von dem Wirtsfahrzeug entfernt ist, die Stärke der Welle des Radars, die durch den Fußgänger reflektiert wird, relativ schwach. Daher könnte der Radarsensor den Fußgänger nicht erfassen. In einem solchen Fall wird, da das Erfassungsergebnis des Radarsensors nicht erlangt wird, ein „Nur-Kamera-Verfahren“, das die Position (die relative Distanz und der relative Azimut bzw. die Relativdistanz und der Relativazimut) des Objekts basierend auf dem Erfassungsergebnis der Stereokamera spezifiziert, verwendet.
  • Wenn das Verfahren eines Spezifizierens (Erlangens) der Position des Objekts von dem Fusionsverfahren zu dem Nur-Kamera-Verfahren (oder von dem Nur-Kamera-Verfahren zu dem Fusionsverfahren) geschaltet wird, kann es eine signifikante Änderung zwischen der Position des Objekts unmittelbar vor dem Schalten und der Position des Objekts unmittelbar nach dem Schalten aufgrund der Differenz zwischen der Genauigkeit eines Erfassens der Position des Objekts durch den Radarsensor und der Genauigkeit einer Erfassung der Position des Objekts durch die Stereokamera geben. In einem solchen Fall gibt es eine weitere Verringerung der Genauigkeit einer Schätzung der Relativgeschwindigkeit oder dergleichen, die basierend auf der Bewegungsrichtung des Objekts bezüglich des Wirtsfahrzeugs und/oder dem Ausmaß einer Änderung der Position des Objekts berechnet wird, wodurch eine Situation verursacht wird, in der ein Objekt mit einer relativ geringen Möglichkeit eines Kollidierens mit dem Wirtsfahrzeug fehlerhafterweise als ein Hindernis erfasst wird, für das eine Alarmierung bzw. Warnung bereitgestellt werden sollte. Folglich kann eine Alarmierung bzw. Warnung fehlerhafterweise bereitgestellt werden.
  • Die vorliegende Erfindung stellt eine fahrzeugseitige Warnvorrichtung bereit, die die Möglichkeit bzw. Wahrscheinlichkeit eines fehlerhafterweisen Vorsehens einer Warnung, wenn ein Verfahren eines Spezifizierens der Position eines Objekts geschaltet wird, weiter reduzieren kann, und stellt ein Verfahren eines Steuerns einer fahrzeugseitigen Warnvorrichtung bereit.
  • Ein erster Aspekt der vorliegenden Erfindung bezieht sich auf eine fahrzeugseitige Warnvorrichtung einschließlich eines Kamerasensors, der dazu eingerichtet ist, um ein Bild eines Bereichs um ein Wirtsfahrzeug herum aufzunehmen und um einen Azimut eines Objekts bezüglich des Wirtsfahrzeugs und eine Distanz zwischen dem Objekt und dem Wirtsfahrzeug basierend auf dem aufgenommenen Bild zu erfassen, eines Radarsensors, der dazu eingerichtet ist, um eine elektrische Welle in den Bereich um das Wirtsfahrzeug herum auszustrahlen, eine reflektierte Welle der elektrischen Welle zu empfangen, und den Azimut des Objekts bezüglich des Wirtsfahrzeugs und die Distanz zwischen dem Objekt und dem Wirtsfahrzeug basierend auf der reflektierten Welle zu erfassen, einer Anzeigeeinheit, auf der ein Warnbildschirm angezeigt wird, der eines Fahrers Sichtlinie führt, und einer elektronischen Steuereinheit. Die elektronische Steuereinheit ist dazu eingerichtet, um eine Position und eine Relativgeschwindigkeit des Objekts durch selektives Verwenden eines aus einem Fusionsverfahren und einem Nur-Kamera-Verfahren zu spezifizieren. Das Fusionsverfahren spezifiziert die Position des Objekts durch Spezifizieren des Azimuts des Objekts bezüglich des Wirtsfahrzeugs basierend auf erster Objektinformation und durch Spezifizieren der Distanz zwischen dem Objekt und dem Wirtsfahrzeug basierend auf zweiter Objektinformation und spezifiziert die Relativgeschwindigkeit, die eine Geschwindigkeit des Objekts bezüglich des Wirtsfahrzeugs ist, basierend auf der zweiten Objektinformation. Das Nur-Kamera-Verfahren spezifiziert die Position des Objekts durch Spezifizieren des Azimuts des Objekts bezüglich des Wirtsfahrzeugs und Spezifizieren der Distanz zwischen dem Objekt und dem Wirtsfahrzeug basierend auf der ersten Objektinformation und berechnet die Relativgeschwindigkeit basierend auf der spezifizierten Distanz. Die erste Objektinformation umfasst Information bezüglich dem Azimut des Objekts bezüglich dem Wirtsfahrzeug und der Distanz zwischen dem Objekt und dem Wirtsfahrzeug wie durch den Kamerasensor erfasst. Die zweite Objektinformation umfasst Information bezüglich des Azimuts des Objekts bezüglich des Wirtsfahrzeugs und der Distanz zwischen dem Objekt und dem Wirtsfahrzeug wie durch den Radarsensor erfasst. Die elektronische Steuereinheit ist dazu eingerichtet, um Fahrzeugstatusinformation bezüglich einem Fortbewegungsstatus bzw. Fortbewegungszustand des Wirtsfahrzeugs zu erlangen, um ein Hindernis mit einer relativ hohen Wahrscheinlichkeit eines Kollidierens mit dem Wirtsfahrzeug basierend auf zumindest einem aus der spezifizierten Position des Objekts und einer Bewegungsrichtung des Objekts abhängig von einer Änderung der Position des Objekts zu extrahieren, um eine Abstandszeitperiode, in der das extrahierte Hindernis einen Spitzenendbereich einschließlich eines Frontendenabschnitts des Wirtsfahrzeugs erreicht, basierend auf der spezifizierten Distanz zwischen dem Objekt und dem Wirtsfahrzeug und der spezifizierten Relativgeschwindigkeit zu berechnen, und um einen Bildschirm, der eines Fahrers Sichtlinie in einer Richtung des Hindernisses leitet, das die Abstandszeitperiode geringer als oder gleich wie eine Schwelle hat, als den Warnbildschirm auf der Anzeigeeinheit anzuzeigen.
  • Die elektronische Steuereinheit ist dazu eingerichtet, um ein Verfahren eines Spezifizierens der Position und der Relativgeschwindigkeit des Objekts von dem Nur-Kamera-Verfahren zu dem Fusionsverfahren zu schalten, wenn die erste Objektinformation und die zweite Objektinformation eine erste Bedingung bei einem Spezifizieren der Position und der Relativgeschwindigkeit des Objekts unter Verwendung des Nur-Kamera-Verfahrens erfüllen, und um das Verfahren eines Spezifizierens der Position und der Relativgeschwindigkeit des Objekts von dem Fusionsverfahren zu dem Nur-Kamera-Verfahren zu schalten, wenn die erste Objektinformation und die zweite Objektinformation eine zweite Bedingung bei einem Spezifizieren der Position und der Relativgeschwindigkeit des Objekts unter Verwendung des Fusionsverfahrens erfüllen.
  • Die elektronische Steuereinheit ist dazu eingerichtet, um eine Anzeige des Warnbildschirms für das Objekt, dessen Position und Relativgeschwindigkeit unter Verwendung des Nur-Kamera-Verfahrens spezifiziert sind, zu verbieten, während eine erste vorbestimmte Zeitperiode verstreicht von einem Zeitpunkt eines Schaltens des Verfahrens eines Spezifizierens der Position und der Relativgeschwindigkeit des Objekts von dem Fusionsverfahren zu dem Nur-Kamera-Verfahren, und um eine Anzeige des Warnbildschirms für das Objekt, dessen Position und Relativgeschwindigkeit unter Verwendung des Fusionsverfahrens spezifiziert sind, zu verbieten, während eine zweite vorbestimmte Zeitperiode von einem Zeitpunkt eines Schaltens des Verfahrens eines Spezifizierens der Position und der Relativgeschwindigkeit des Objekts von dem Nur-Kamera-Verfahren zu dem Fusionsverfahren verstreicht.
  • Gemäß dem ersten Aspekt der vorliegenden Erfindung wird eine Anzeige des Warnbildschirms für das Objekt, dessen Position und Relativgeschwindigkeit unter Verwendung des Nur-Kamera-Verfahrens spezifiziert sind, verboten, während die erste vorbestimmte Zeitperiode von dem Zeitpunkt eines Schaltens von dem Fusionsverfahren zu dem Nur-Kamera-Verfahren verstreicht. Vergleichbar wird eine Anzeige des Warnbildschirms für das Objekt, dessen Position und Relativgeschwindigkeit unter Verwendung des Fusionsverfahrens spezifiziert sind, verboten, während die zweite vorbestimmte Zeitperiode von dem Zeitpunkt eines Schaltens von dem Nur-Kamera-Verfahren zu dem Fusionsverfahren verstreicht.
  • Entsprechend kann, selbst wenn es eine signifikante Änderung zwischen der Position des Objekts unmittelbar vor einem Schalten und der Position des Objekts unmittelbar nach einem Schalten aufgrund der Differenz zwischen der Genauigkeit einer Erfassung der Position des Objekts durch einen Radarsensor und der Genauigkeit einer Erfassung der Position des Objekts durch eine Stereokamera gibt, die Möglichkeit bzw. Wahrscheinlichkeit eines fehlerhafterweisen Vorsehens eines Alarms bzw. einer Warnung für das Objekt mit einer relativ geringen Wahrscheinlichkeit eines Kollidierens mit dem Wirtsfahrzeug weiter reduziert werden.
  • Bei der fahrzeugseitigen Warnvorrichtung gemäß dem ersten Aspekt der vorliegenden Erfindung kann die elektronische Steuereinheit dazu eingerichtet sein, um die zweite vorbestimmte Zeitperiode auf eine kürzere Zeitperiode als die erste vorbestimmte Zeitperiode einzustellen.
  • Gemäß dem ersten Aspekt der vorliegenden Erfindung wird die zweite vorbestimmte Zeitperiode, in der eine Anzeige eines neuen Warnbildschirms zu der Zeit eines Schaltens von dem Nur-Kamera-Verfahren zu dem Fusionsverfahren verboten ist, kürzer eingestellt als die erste vorbestimmte Zeitperiode, in der eine Anzeige eines neuen Warnbildschirms zu der Zeit eines Schaltens von dem Fusionsverfahren zu den Nur-Kamera-Verfahren verboten ist. Daher kann der Fahrer unmittelbar den Warnbildschirm für das Objekt, dessen Position durch Verwenden des Fusionsverfahrens mit einer höheren Genauigkeit einer Erfassung der Position des Objekts als das Nur-Kamera-Verfahren genau spezifiziert ist, erkennen.
  • Bei der fahrzeugseitigen Warnvorrichtung gemäß dem ersten Aspekt der vorliegenden Erfindung kann die erste Bedingung jene sein, dass eine Differenz größer als eine erlaubbare Differenz zwischen einem Erfassungsergebnis der ersten Objektinformation und einem Erfassungsergebnis der zweiten Objektinformation aufgelöst bzw. beseitigt (bzw. abwesend) ist, und die zweite Bedingung kann jene sein, dass eine Differenz größer als die erlaubbare Differenz zwischen dem Erfassungsergebnis der ersten Objektinformation und dem Erfassungsergebnis der zweiten Objektinformation erzeugt ist.
  • Bei der fahrzeugseitigen Warnvorrichtung gemäß dem ersten Aspekt der vorliegenden Erfindung kann, wenn ein neues Objekt bei den zweiten Objektinformationen erfasst ist und die Position des Objekts, das durch die zweite Objektinformation indiziert ist, innerhalb einer vorbestimmten Spanne von der Position des Objekts ist, das in der ersten Objektinformation erfasst ist, die erste Bedingung erfüllt sein, und wenn die Differenz größer als die erlaubbare Differenz zwischen dem Erfassungsergebnis der ersten Objektinformation und dem Erfassungsergebnis der zweiten Objektinformation erzeugt ist, kann die zweite Bedingung erfüllt sein.
  • Bei der fahrzeugseitigen Warnvorrichtung gemäß dem ersten Aspekt der vorliegenden Erfindung kann die erste Bedingung jene sein, dass eine Differenz zwischen einer Relativdistanz des durch den Kamerasensor erfassten Objekts und der Relativdistanz des selben Objekts, das durch den Radarsensor erfasst ist, geringer als eine Schwellendistanz ist, und dass eine Differenz zwischen dem Azimut des durch den Kamerasensor erfassten Objekts und dem Azimut des selben Objekts, das durch den Radarsensor erfasst ist, geringer als ein Schwellenwinkel ist.
  • Bei der fahrzeugseitigen Warnvorrichtung gemäß dem ersten Aspekt der vorliegenden Erfindung kann die zweite Bedingung eine Bedingung sein, die festgestellt ist, wenn zumindest eines aus i) das bei der ersten Objektinformation erfasste Objekt ist nicht bei der zweiten Objektinformation erfasst, und ii) die Position des bei der ersten Objektinformation erfassten Objekts und die Position des bei der zweiten Objektinformation erfassten Objekts sind nicht innerhalb der vorbestimmten Spanne, festgestellt ist.
  • Ein zweiter Aspekt der vorliegenden Erfindung bezieht sich auf ein Verfahren eines Steuerns einer fahrzeugseitigen Warnvorrichtung einschließlich eines Kamerasensors, der dazu eingerichtet ist, um ein Bild eines Bereichs um ein Wirtsfahrzeug herum aufzunehmen und um einen Azimut eines Objekts bezüglich des Wirtsfahrzeugs und eine Distanz zwischen dem Objekt und dem Wirtsfahrzeug basierend auf dem aufgenommenen Bild zu erfassen, eines Radarsensors, der dazu eingerichtet ist, um eine elektrische Welle zu dem Bereich um das Wirtsfahrzeug herum auszustrahlen, eine reflektierte Welle der elektrischen Welle zu empfangen, und den Azimut des Objekts bezüglich des Wirtsfahrzeugs und die Distanz zwischen dem Objekt und dem Wirtsfahrzeug basierend auf der reflektierten Welle zu erfassen, einer Anzeigeeinheit, auf der ein Warnbildschirm, der eines Fahrers Sichtlinie leitet bzw. führt, angezeigt wird, und einer elektronischen Steuereinheit. Das Verfahren eines Steuerns einer fahrzeugseitigen Warnvorrichtung umfasst ein Spezifizieren einer Position und einer Relativgeschwindigkeit des Objekts durch selektives Verwenden eines aus einem Fusionsverfahren und einem Nur-Kamera-Verfahren. Das Fusionsverfahren spezifiziert die Position des Objekts durch Spezifizieren des Azimuts des Objekts bezüglich des Wirtsfahrzeugs basierend auf erster Objektinformation und Spezifizieren der Distanz zwischen dem Objekt und dem Wirtsfahrzeug basierend auf zweiter Objektinformation und spezifiziert die Relativgeschwindigkeit, die eine Geschwindigkeit des Objekts bezüglich des Wirtsfahrzeugs ist, basierend auf der zweiten Objektinformation. Das Nur-Kamera-Verfahren spezifiziert die Position des Objekts durch Spezifizieren des Azimuts des Objekts bezüglich des Wirtsfahrzeugs und Spezifizieren der Distanz zwischen dem Objekt und dem Wirtsfahrzeug basierend auf der ersten Objektinformation und berechnet die Relativgeschwindigkeit basierend auf der spezifizierten Distanz. Die erste Objektinformation umfasst Information bezüglich des Azimuts des Objekts bezüglich des Wirtsfahrzeugs und die Distanz zwischen dem Objekt und dem Wirtsfahrzeug wie durch den Kamerasensor erfasst. Die zweite Objektinformation umfasst Information bezüglich des Azimuts des Objekts bezüglich des Wirtsfahrzeugs und die Distanz zwischen dem Objekt und dem Wirtsfahrzeug wie durch den Radarsensor erfasst. Das Verfahren eines Steuerns einer fahrzeugseitigen Warnvorrichtung umfasst ein Erlangen von Fahrzeugstatusinformation bezüglich eines Fortbewegungsstatusses des Wirtsfahrzeuges, ein Extrahieren eines Hindernisses mit einer relativ hohen Möglichkeit bzw. Wahrscheinlichkeit eines Kollidierens mit dem Wirtsfahrzeug basierend auf zumindest einem aus der spezifizierten Position des Objekts und einer Bewegungsrichtung des Objekts abhängig von einer Änderung der Position des Objekts, und ein Berechnen einer Abstandszeitperiode, in der das extrahierte Hindernis einen Spitzenendenbereich einschließlich eines Vorderendenabschnitts des Wirtsfahrzeugs erreicht basierend auf der spezifizierten Distanz zwischen dem Objekt und dem Wirtsfahrzeug und der spezifizierten Relativgeschwindigkeit. Das Verfahren eines Steuerns einer fahrzeugseitigen Warnvorrichtung umfasst ein Anzeigen eines Bildschirms, der eines Fahrers Sichtlinie in eine Richtung des Hindernisses leitet, das die Abstandszeitperiode geringer als oder gleich wie eine Schwelle hat, als den Warnbildschirm auf der Anzeigeeinheit, ein Schalten eines Verfahrens eines Spezifizierens der Position und der Relativgeschwindigkeit des Objekts von dem Nur-Kamera-Verfahren zu dem Fusionsverfahren, wenn die erste Objektinformation und die zweite Objektinformation eine erste Bedingung bei einem Spezifizieren der Position und der Relativgeschwindigkeit des Objekts unter Verwendung des Nur-Kamera-Verfahrens erfüllen, und ein Schalten des Verfahrens eines Spezifizierens der Position und der Relativgeschwindigkeit des Objekts von dem Fusionsverfahren zu dem Nur-Kamera-Verfahren, wenn die erste Objektinformation und die zweite Objektinformation eine zweite Bedingung bei einem Spezifizieren der Position und der Relativgeschwindigkeit des Objekts unter Verwendung des Fusionsverfahrens erfüllen. Das Verfahren eines Steuerns einer fahrzeugseitigen Warnvorrichtung umfasst ein Verbieten einer Anzeige des Warnbildschirms für das Objekt, dessen Position und Relativgeschwindigkeit unter Verwendung des Nur-Kamera-Verfahrens spezifiziert sind, während eine erste vorbestimmte Zeitperiode von einem Zeitpunkt eines Schaltens des Verfahrens eines Spezifizierens der Position und der Relativgeschwindigkeit des Objekts von dem Fusionsverfahren zu dem Nur-Kamera-Verfahren verstreicht, und ein Verbieten einer Anzeige des Warnbildschirms für das Objekt, dessen Position und Relativgeschwindigkeit unter Verwendung des Fusionsverfahrens spezifiziert sind, während eine zweite vorbestimmte Zeitperiode von einem Zeitpunkt eines Schaltens des Verfahrens eines Spezifizierens der Position und der Relativgeschwindigkeit des Objekts von dem Nur-Kamera-Verfahren zu dem Fusionsverfahren verstreicht.
  • Figurenliste
  • Merkmale, Vorteile, und technische und industrielle Signifikanz beispielhafter Ausführungsbeispiele der Erfindung werden nachstehend unter Bezugnahme auf die anhängenden Zeichnungen beschrieben, in denen gleiche Bezugszeichen gleiche Elemente bezeichnen, und wobei:
    • 1 ein schematisches Systemkonfigurationsdiagramm einer Ansteuerassistenzvorrichtung gemäß einem Ausführungsbeispiel der vorliegenden Erfindung ist,
    • 2 ein Diagramm ist, das Positionen beschreibt, bei denen Radarsensoren und ein Kamerasensor wie in 1 veranschaulicht angebracht sind,
    • 3 ein Diagramm ist, das Erfassungsbereiche der in 1 veranschaulichten Radarsensoren beschreibt,
    • 4 ein Zeitdiagramm ist, wenn ein Verfahren eines Spezifizierens der Position eines Objekts geschaltet wird,
    • 5 ein Flussdiagramm ist, das eine durch eine CPU einer Warn-ECU wie in 1 veranschaulicht ausgeführte Routine veranschaulicht,
    • 6 ein Flussdiagramm ist, das eine durch die CPU der Warn-ECU in einem in 5 veranschaulichten Objektpositionsspezifizierungsprozess ausgeführte Routine veranschaulicht, und
    • 7 ein Diagramm ist, das einen Warnbildschirm beschreibt.
  • Detaillierte Beschreibung von Ausführungsbeispielen
  • Nachstehend werden eine fahrzeugseitige Warnvorrichtung und ein Verfahren eines Steuerns einer fahrzeugseitigen Warnvorrichtung gemäß einem Ausführungsbeispiel der vorliegenden Erfindung unter Verwendung der Zeichnungen beschrieben. Ein Fahrzeug, bei dem die fahrzeugseitige Warnvorrichtung gemäß dem Ausführungsbeispiel der vorliegenden Erfindung montiert ist, wird als „Wirtsfahrzeug“ bezeichnet, wenn das Fahrzeug von anderen Fahrzeugen unterschieden werden sollte.
  • 1 ist ein schematisches Systemkonfigurationsdiagramm der fahrzeugseitigen Warnvorrichtung gemäß dem Ausführungsbeispiel der vorliegenden Erfindung (nachstehend als „die vorliegende ausgeführte Vorrichtung“ bezeichnet). Die vorliegende ausgeführte Vorrichtung (bzw. Vorrichtung gemäß dem vorliegenden Ausführungsbeispiel) ist eine Vorrichtung, die bei dem Wirtsfahrzeug montiert ist und einen Fahrer (Bediener) des Wirtsfahrzeugs bezüglich eines Hindernisses mit einer relativ hohen Wahrscheinlichkeit eines Kollidierens mit dem Wirtsfahrzeug warnt (das heißt, ist eine Vorrichtung, die eine Warnung bezüglich eines Hindernisses bereitstellt). Die Vorrichtung gemäß dem vorliegenden Ausführungsbeispiel umfasst eine Warn-ECU 10 (ein Beispiel einer elektronischen Steuereinheit). ECU ist die Abkürzung für „elektronische Steuereinheit“ und umfasst einen Mikrocomputer als einen Hauptteil. Der Mikrocomputer umfasst eine CPU und einen Speicher wie ein ROM und einen RAM. Die CPU realisiert verschiedene Funktionen durch Ausführung von Anweisungen (Programme und Routinen), die in dem ROM gespeichert sind.
  • Die Vorrichtung gemäß dem vorliegenden Ausführungsbeispiel umfasst ferner einen Kamerasensor 11, einen Frontradarsensor 12C, Front-Seite-Radarsensoren 12L, 12R, einen Fahrzeugstatussensor 13, und eine Anzeige 20. Die Warn-ECU 10 ist mit dem Kamerasensor 11, dem Frontradarsensor 12C, den Front-Seite-Radarsensoren 12L, 12R, dem Fahrzeugstatussensor 13, und der Anzeige 20 verbunden.
  • Der Kamerasensor 11 umfasst eine fahrzeugmontierte Stereokamera und ein Bildverarbeitungsgerät (beide sind nicht veranschaulicht). Die fahrzeugmontierte Stereokamera nimmt einem Bereich vor dem (in Front des) Wirtsfahrzeug(s) auf. Das Bildverarbeitungsgerät verarbeitet das durch die fahrzeugmontierte Stereokamera aufgenommene Bild.
  • Die fahrzeugmontierte Stereokamera überträgt ein Bildsignal, das das aufgenommene Bild repräsentiert, an das Bildverarbeitungsgerät zu jedem Verstreichen einer vorbestimmten Zeitperiode.
  • Das Bildverarbeitungsgerät bestimmt, ob sich ein Objekt in dem Aufnahmebereich befindet oder nicht basierend auf dem empfangenen Bildsignal. Wenn das Bildverarbeitungsgerät bestimmt, dass ein Objekt präsent ist, berechnet das Bildverarbeitungsgerät den Azimut (Richtung) des Objekts bezüglich des Wirtsfahrzeugs und die Distanz (d.h., die Relativdistanz) zwischen dem Objekt und dem Wirtsfahrzeug und identifiziert die Art des Objekts (ein Fußgänger, ein Zweirad, ein Automobil, und dergleichen) mittels Musterabgleich. Die Distanz zwischen dem Objekt und dem Wirtsfahrzeug wird basierend auf der Disparität bzw. dem Unterschied zwischen einem linken Bild und einem rechten Bild, die durch die fahrzeugmontierte Stereokamera aufgenommen sind, berechnet. Die Messung der Position (die Relativdistanz und der Azimut) des Objekts durch die fahrzeugmontierte Stereokamera hat eine relativ hohe Genauigkeit einer Erfassung des Azimuts des Objekts bezüglich des Wirtsfahrzeugs und eine relativ geringe Genauigkeit eines Erfassens der Distanz zwischen dem Objekt und dem Wirtsfahrzeug.
  • Der Kamerasensor 11 gibt Information, die auf die Position (das heißt die Relativdistanz und der Azimut) des Objekts hinweist, und Information, die auf die Art des Objekts hinweist, an die Warn-ECU 10 zu jedem Verstreichen einer vorbestimmten Zeitperiode aus. Die Warn-ECU 10 kann eine Änderung der Position des Objekts basierend auf der Information in der eingegebenen Objektinformation spezifizieren, die auf die Position des Objekts hinweist. Die Warn-ECU 10 kann die Geschwindigkeit (das heißt, die Relativgeschwindigkeit) und die Relativbewegungstrajektorie des Objekts bezüglich des Wirtsfahrzeugs basierend auf der spezifizierten Änderung der Position des Objekts finden.
  • Wie in 2 veranschaulicht, ist der Frontradarsensor 12C an der Position der Mitte der Fahrzeugbreitenrichtung eines Frontstoßfänger FB des Wirtsfahrzeugs angeordnet. Der Front-Seite-Radarsensor 12R ist an einem rechten Eckabschnitt des Frontstoßfängers FB angeordnet. Der Front-Seite-Radarsensor 12L ist an einem linken Eckabschnitt des Frontstoßfängers FB angeordnet. Nachstehend werden der Frontradarsensor 12C und die Front-Seite-Radarsensoren 12L, 12R gemeinsam als ein „Radarsensor 12“ bezeichnet.
  • Der Radarsensor 12 strahlt eine elektrische Welle in einem Millimeterwellenband (nachstehend als „Millimeterwelle“ bezeichnet) aus. Wenn sich ein Objekt innerhalb des Ausstrahlbereichs der Millimeterwelle befindet, reflektiert das Objekt die Millimeterwelle, die von dem Radarsensor 12 ausgestrahlt ist. Der Radarsensor 12 empfängt die reflektierte Welle und erfasst die Distanz (d.h., die Relativdistanz) zwischen dem Wirtsfahrzeug und dem Objekt, den Azimut des Objekts bezüglich des Wirtsfahrzeugs, die Geschwindigkeit (das heißt, die Relativgeschwindigkeit) des Objekts bezüglich des Wirtsfahrzeugs, und dergleichen basierend auf der reflektierten Welle.
  • Wie in 3 veranschaulicht hat der Erfassungsbereich des Frontradarsensors 12C einen Bereich von ± θ1 ° (0° < θ1 < 90°) von einer Fahrzeug-Vorn-Hinten-Achse (Fahrzeugmittellinie CL) in der Rechts-Links-Richtung. In 3 ist die Vorderseite der Fahrzeug-Vorn-Hinten-Achse als 0° definiert, und der Bereich des Frontradarsensors 12C in der Linksrichtung ist nicht veranschaulicht. Entsprechend erfasst der Frontradarsensor 12C hauptsächlich ein Objekt vor dem Wirtsfahrzeug. Der Erfassungsbereich des Front-Seite-Radarsensors 12R ist θ2 ° (90° < θ2 < 180°) in der Rechtsrichtung und -θ3 ° (0° < θ3 < 90°) in der Linksrichtung von der Fahrzeug-Vorn-Hinten-Achse. Entsprechend erfasst der Front-Seite-Radarsensor 12R hauptsächlich ein Objekt an der rechten Seite des Wirtsfahrzeugs. Der Erfassungsbereich des Front-Seite-Radarsensors 12L ist, obwohl nicht veranschaulicht, ein Bereich, der zweiseitig bzw. bilateral symmetrisch mit dem Erfassungsbereich des Front-Seite-Radarsensors 12R bezüglich der Fahrzeug-Vorn-Hinten-Achse ist. Entsprechend erfasst der Front-Seite-Radarsensor 12L hauptsächlich ein Objekt an der linken Seite des Wirtsfahrzeugs. Die Erfassungsdistanz jedes der Radarsensoren 12C, 12L, 12R ist beispielsweise einige 10 m. Jeder aus den Radarsensoren 12C, 12L, 12R erfasst die Positionsinformation des Objekts (die Distanz zwischen dem Wirtsfahrzeug und dem Objekt und den Azimut des Objekts bezüglich des Wirtsfahrzeugs) und die Relativgeschwindigkeit des Objekts für jedes Verstreichen einer vorbestimmten Zeitperiode und überträgt die erfasste Positionsinformation und Relativgeschwindigkeit zu der Warn-ECU 10 zu jedem Verstreichen einer vorbestimmten Zeitperiode. Entsprechend kann die Warn-ECU 10 die Relativgeschwindigkeit und die Relativbewegungstrajektorie des Objekts bezüglich des Wirtsfahrzeugs basierend auf der von dem Radarsensor 12 übertragenen Information finden.
  • Information, die sich auf die „Distanz (Relativdistanz) zwischen dem Objekt und dem Wirtsfahrzeug und den Azimut des Objekts bezüglich des Wirtsfahrzeugs“, die durch den Kamerasensor 11 erfasst sind, bezieht, wird als „erste Objektinformation“ bezeichnet. „Information, die sich auf die Distanz (Relativdistanz) zwischen dem Objekt und dem Wirtsfahrzeug und den Azimut und die Relativgeschwindigkeit des Objekts bezüglich des Wirtsfahrzeugs bezieht“, die durch den Radarsensor 12 erfasst sind, wird als „zweite Objektinformation“ bezeichnet.
  • Der Fahrzeugstatussensor 13 ist ein Sensor, der Fahrzeugstatusinformation erlangt, die sich auf den Fortbewegungsstatus bzw. Fortbewegungszustand des Wirtsfahrzeugs bezieht, der für eine Schätzung des Fortbewegungskurses des Wirtsfahrzeuges verwendet wird. Der Fahrzeugstatussensor 13 umfasst einen Fahrzeuggeschwindigkeitssensor, einen Beschleunigungssensor, einen Gierratensensor, einen Lenkwinkelsensor, und dergleichen. Der Fahrzeuggeschwindigkeitssensor erfasst die Geschwindigkeit des Fahrzeugkörpers bzw. der Fahrzeugkarosserie (d.h., die Fahrzeuggeschwindigkeit) des Wirtsfahrzeugs. Der Beschleunigungssensor erfasst die Beschleunigung des Wirtsfahrzeugs in der Vorn-Hinten-Richtung und in der Rechts-Links-(Lateral)-Richtung in der horizontalen Richtung. Der Gierratensensor erfasst die Gierrate des Wirtsfahrzeugs. Der Lenkwinkelsensor erfasst den Lenkwinkel eines Lenkrads. Der Fahrzeugstatussensor 13 gibt die Fahrzeugstatusinformation an die Warn-ECU 10 zu jedem Verstreichen einer vorbestimmten Zeitperiode aus.
  • Die Warn-ECU 10 berechnet den Wenderadius des Wirtsfahrzeugs basierend auf der durch den Fahrzeuggeschwindigkeitssensor erfassten Fahrzeuggeschwindigkeit und der durch den Gierratensensor erfassten Gierrate. Die Warn-ECU 10 schätzt einen Fortbewegungskurs, entlang dem sich die Mitte in der Fahrzeugbreitenrichtung des Wirtsfahrzeugs (tatsächlich die Mitte auf einer Achse von rechten und linken Vorderrädern des Wirtsfahrzeugs) bewegt wird, als einen vorhergesehenen Fortbewegungskurs basierend auf dem Wenderadius. Wenn die Gierrate erzeugt wird, hat der vorhergesehene Fortbewegungskurs bzw. der vorhergesehene Fortbewegungsverlauf eine Bogenform. Wenn die Gierrate Null ist, schätzt die Warn-ECU 10 einen linearen Kurs bzw. einen linearen Verlauf, der sich in der Richtung der durch den Beschleunigungssensor erfassten Beschleunigung erstreckt, als den Fortbewegungskurs, entlang dem das Wirtsfahrzeug bewegt wird (d.h., den vorhergesehenen Fortbewegungskurs). Die Warn-ECU 10 erkennt (bestimmt) den vorhergesehenen Fortbewegungskurs als einen Pfad (d.h., eine Linie mit einer endlichen Länge) von dem Wirtsfahrzeug zu einem Ort mit einer vorbestimmten Distanz entlang dem vorhergesehenen Fortbewegungskurs unabhängig davon, ob das Fahrzeug wendet bzw. lenkt oder sich geradeaus fortbewegt.
  • Die Anzeige 20 ist ein Head-Up-Display bzw. eine Blickfeldanzeige (nachstehend als ein „HUD“ bezeichnet). Die HUD empfängt Anzeigeinformation von verschiedenen ECUs und einem Navigationsgerät in dem Wirtsfahrzeug und projiziert die Anzeigeinformation auf einen Teilbereich (Anzeigebereich) einer Windschutzscheibe des Wirtsfahrzeugs. Wenn ein nachstehend beschriebenes Warnziel erfasst ist, überträgt die Warn-ECU 10 eine Anzeigeanweisung für einen Warnbildschirm 70 (siehe 7) an die HUD. Entsprechend zeigt unter Verwendung eines Teils des Anzeigebereichs die HUD den Warnbildschirm 70, der eines Fahrers Sichtlinie in die Richtung des Warnziels leitet bzw. führt, an. Der Warnbildschirm wird nachstehend detailliert beschrieben.
  • Die Anzeige 20 ist nicht besonders auf die HUD beschränkt. D.h., die Anzeige 20 kann eine Mehrfachinformationsanzeige (Multi-Information Display, MID), ein Berührungsfeld bzw. Touch Panel des Navigationsgeräts, und dergleichen sein. Die MID ist ein Anzeigefeld, auf dem Messgeräte wie ein Geschwindigkeitsmesser, ein Tachometer, ein Brennstoffmessgerät, ein Wassertemperaturmessgerät, ein Odometer bzw. Wegmesser, oder ein Tageszähler, und eine Warnlampe gemeinsam auf einer Instrumententafel angeordnet sind.
  • Zusammenfassung des Betriebs
  • Die Vorrichtung gemäß dem vorliegenden Ausführungsbeispiel spezifiziert die Position eines Objekts durch auswählendes Verwenden eines Verfahrens eines Spezifizierens der Position oder dergleichen des Objekts basierend auf sowohl der ersten Objektinformation von dem Kamerasensor 11 und der zweiten Objektinformation von dem Radarsensor 12 (Fusionsverfahren), und eines Verfahrens eines Spezifizierens der Position oder dergleichen des Objekts basierend auf der ersten Objektinformation (Nur-Kamera-Verfahren).
  • Gemäß dem Fusionsverfahren wird der Azimut des Objekts bezüglich des Wirtsfahrzeugs basierend auf der ersten Objektinformation (d.h., der Objektinformation von dem Kamerasensor 11) spezifiziert, und die Distanz zwischen dem Objekt und dem Wirtsfahrzeug wird basierend auf der zweiten Objektinformation (d.h., der Objektinformation von dem Radarsensor 12) spezifiziert. Gemäß dem Nur-Kamera-Verfahren wird der Azimut des Objekts bezüglich des Wirtsfahrzeugs und die Distanz zwischen dem Objekt und dem Wirtsfahrzeug basierend auf der ersten Objektinformation (d.h., der Objektinformation von den Kamerasensor 11) spezifiziert. Bei dem Fusionsverfahren kann der Azimut des Objekts bezüglich des Wirtsfahrzeugs basierend auf sowohl der ersten Objektinformation (d.h., der Objektinformation von den Kamerasensor 11) als auch der zweiten Objektinformation (d.h., der Objektinformation von dem Radarsensor 12) spezifiziert werden.
  • Der Azimut des Objekts bezüglich des Wirtsfahrzeugs basierend auf der ersten Objektinformation wird basierend auf dem durch den Kamerasensor 11 aufgenommenen Bild spezifiziert. Daher ist die Genauigkeit einer Erfassung des Azimuts bezüglich des Wirtsfahrzeugs basierend auf der ersten Objektinformation relativ hoch.
  • Die Distanz (Relativdistanz) zwischen dem Objekt und dem Wirtsfahrzeug basierend auf der ersten Objektinformation wird basierend auf der Disparität bzw. Ungleichheit zwischen dem linken Bild und dem rechten Bild, die durch den Kamerasensor 11 aufgenommen sind, der die fahrzeugmontierte Stereokamera ist, spezifiziert. Die Distanz zwischen dem Objekt und dem Wirtsfahrzeug basierend auf der zweiten Objektinformation wird basierend auf einer Verzögerung der reflektierten Welle der elektrischen Welle, die durch den Radarsensor 12 ausgestrahlt ist (eine Zeitperiode von der Ausstrahlung zu dem Empfang der reflektierten Welle), spezifiziert. Daher ist die Genauigkeit einer Erfassung der Distanz zwischen dem Objekt und dem Wirtsfahrzeug basierend auf der ersten Objektinformation geringer als die Genauigkeit einer Erfassung der Distanz zwischen dem Objekt und dem Wirtsfahrzeug basierend auf der zweiten Objektinformation.
  • D.h., die Genauigkeit einer Erfassung des Azimuts des Objekts bezüglich des Wirtsfahrzeugs, der in der ersten Objektinformation enthalten ist, ist relativ hoch, und die Genauigkeit einer Erfassung der Distanz zwischen dem Objekt und dem Wirtsfahrzeug, die in der ersten Objektinformation enthalten ist, ist relativ gering. Die Genauigkeit einer Erfassung der „Distanz zwischen dem Objekt und dem Wirtsfahrzeug und der Relativgeschwindigkeit des Objekts“, die in der zweiten Objektinformation enthalten sind, ist relativ hoch, und die Genauigkeit einer Erfassung des Azimuts des Objekts bezüglich des Wirtsfahrzeugs, die in der zweiten Objektinformation enthalten ist, ist relativ gering.
  • Entsprechend spezifiziert das Fusionsverfahren genau die Relativdistanz und den Azimut des Objekts. Das Nur-Kamera-Verfahren spezifiziert genau den Azimut des Objekts und spezifiziert die Relativdistanz des Objekts mit etwas geringer Genauigkeit.
  • Wie in 4 veranschaulicht wird angenommen, dass die Vorrichtung gemäß dem vorliegenden Ausführungsbeispiel die Position des Objekts unter Verwendung des Fusionsverfahrens zu einer Zeit ta spezifiziert. In einem solchen Fall bestimmt die Vorrichtung gemäß dem vorliegenden Ausführungsbeispiel, ob die erste Objektinformation und die zweite Objektinformation eine Nur-Kamera-Startbedingung (als eine „zweite Bedingung“ bezeichnet) erfüllen oder nicht zu jeder Zeit, zu der die Vorrichtung gemäß dem vorliegenden Ausführungsbeispiel neue erste Objektinformation und zweite Objektinformation erlangt. Wenn die „Nur-Kamera-Startbedingung“ zu einer Zeit t1 wie in 4 veranschaulicht festgestellt ist, schaltet die Vorrichtung gemäß dem vorliegenden Ausführungsbeispiel das Verfahren eines Spezifizierens der Position des Objekts von dem Fusionsverfahren zu dem Nur-Kamera-Verfahren. Details der Nur-Kamera-Startbedingung werden nachstehend beschrieben.
  • Wenn das Verfahren eines Spezifizierens der Position des Objekts von dem Fusionsverfahren zu dem Nur-Kamera-Verfahren geschaltet wird, wird der Azimut des Objekts basierend auf der ersten Objektinformation auf die gleiche Weise wie bei dem Fusionsverfahren spezifiziert. Jedoch wird die Distanz zwischen dem Wirtsfahrzeug und dem Objekt basierend auf der ersten Objektinformation ungleich dem Fusionsverfahren spezifiziert.
  • Entsprechend ist, wenn das Verfahren eines Spezifizierens der Position des Objekts von dem Fusionsverfahren zu dem Nur-Kamera-Verfahren (oder von dem Nur-Kamera-Verfahren zu dem Fusionsverfahren) geschaltet wird, das Verfahren eines Spezifizierens der Distanz zwischen dem Objekt und dem Wirtsfahrzeug verschieden von dem vorhergehenden (unmittelbar vor dem Schalten) Spezifizierungsverfahren. Daher kann die „Distanz zwischen dem Objekt und dem Wirtsfahrzeug, die unmittelbar nach dem Schalten des Verfahrens eines Spezifizierens der Position des Objekts spezifiziert ist“ signifikant von der „Distanz zwischen dem Objekt und dem Wirtsfahrzeug, die unmittelbar vor dem Schalten des Verfahrens eines Spezifizierens der Position des Objekts spezifiziert ist“, geändert sein. Mit anderen Worten kann die Position des Objekts unmittelbar nach dem Schalten des Verfahrens eines Spezifizierens der Position des Objekts signifikant von der Position des Objekts unmittelbar vor dem Schalten geändert sein.
  • Die Vorrichtung gemäß dem vorliegenden Ausführungsbeispiel extrahiert ein Objekt (umfassend ein Objekt, das sich dem Wirtsfahrzeug anormal annähert) mit einer relativ hohen Möglichkeit bzw. Wahrscheinlichkeit eines Kollidierens mit dem Wirtsfahrzeug als ein Hindernis aus Objekten, die basierend auf der ersten Objektinformation und/oder der zweiten Objektinformation erfasst sind. Wenn das Hindernis eine vorbestimmte Bedingung (Warnbedingung) erfüllt, zeigt die Vorrichtung gemäß dem vorliegenden Ausführungsbeispiel den Warnbildschirm 70 (siehe 7) an, der des Fahrers Sichtlinie in die Richtung leitet, in der sich das Hindernis befindet (das heißt, sieht einen Alarm bzw. eine Warnung vor bzw. stellt diese bereit).
  • Bei dem Prozess eines Extrahierens des Hindernisses wird die Bewegungsrichtung des Objekts unter Verwendung von Zeitseriendaten der Position des Objekts berechnet und das Hindernis wird basierend auf der berechneten Bewegungsrichtung des Objekts extrahiert. Daher wird, wie vorstehend beschrieben, wenn die Position des Objekts unmittelbar nach dem Schalten des Verfahrens eines Spezifizierens der Position des Objekts signifikant geändert ist, die berechnete Bewegungsrichtung des Objekts inkorrekt. Daher kann ein Objekt, das kein Ziel einer Warnung ist, als das Hindernis mit einer Wahrscheinlichkeit, Ziel eines Alarms bzw. einer Warnung zu sein, extrahiert werden.
  • Wie vorstehend beschrieben sieht die Vorrichtung gemäß dem vorliegenden Ausführungsbeispiel eine Warnung durch Anzeige des Warnbildschirms 70 vor, wenn das als das Objekt mit einer Wahrscheinlichkeit, das Ziel einer Warnung zu sein, extrahierte Hindernis die vorbestimmte Bedingung erfüllt. Die vorbestimmte Bedingung ist eine Bedingung, die festgestellt wird, wenn eine Abstandszeitperiode (Zeit-bis-Kollision (TTC)) geringer als oder gleich wie eine Schwelle (Schwellenzeitperiode) Tith bei der Vorrichtung gemäß dem vorliegenden Ausführungsbeispiel ist.
  • Die Abstandszeitperiode (Zeit-bis-Kollision) TTC ist eine aus einer Zeitperiode TTC1 und einer Zeitperiode TTC2 wie nachstehend gezeigt.
  • Eine Zeitperiode TTC1 zu einem Zeitpunkt, zu dem für ein Hindernis vorhergesehen ist, dass es mit dem Wirtsfahrzeug kollidiert (eine Zeitperiode von dem gegenwärtigen Zeitpunkt zu einem vorhergesehenen Kollisionszeitpunkt).
  • Eine Zeitperiode TTC 2 zu einem Zeitpunkt, zu dem für ein Hindernis mit einer Wahrscheinlichkeit, an einer Seite des Wirtsfahrzeugs zu passieren, den nächsten Punkt zu dem Wirtsfahrzeug erreicht (eine Zeitperiode von dem gegenwärtigen Zeitpunkt zu einem ein der vorhergesehenen Zeitpunkt eines Erreichens eines nächsten Punkts.).
  • Die Abstandszeitperiode TTC wird durch Dividieren der Distanz (Relativdistanz) zwischen dem Wirtsfahrzeug und dem Hindernis durch die Geschwindigkeit (Relativgeschwindigkeit) des Hindernisses bezüglich des Wirtsfahrzeugs berechnet. D.h., die Abstandszeitperiode TTC ist eine Zeitperiode, in der das Hindernis den „Spitzenendenbereich des Wirtsfahrzeugs“ erreicht, wenn angenommen wird, dass sich das Hindernis und das Wirtsfahrzeug bewegen, während die gegenwärtige Relativgeschwindigkeit und die Relativbewegungsrichtung davon beibehalten wird. Der Spitzenendenbereich des Wirtsfahrzeugs ist ein Bereich, der durch eine Linie repräsentiert wird, die einen Punkt, der mit einer vorbestimmten Distanz α an der linken Seite von dem linken Ende des Vorderendabschnitts des Fahrzeugkörpers des Wirtsfahrzeugs positioniert ist, und einen Punkt, der mit der bestimmten Distanz α an der rechten Seite von dem rechten Ende des Vorderendabschnitts des Fahrzeugkörpers des Wirtsfahrzeugs positioniert ist, verbindet. Wenn für ein Hindernis bestimmt ist, dass es den Spitzenendenbereich des Wirtsfahrzeugs nicht erreicht basierend auf der Bewegungsrichtung des Hindernisses, wird die Abstandszeitperiode TTC auf unendlich eingestellt (tatsächlich auf einen Wert, der wesentlich größer als die Schwellenzeitperiode Tith ist).
  • Wenn das Nur-Kamera-Verfahren verwendet wird, wird die Relativgeschwindigkeit basierend auf dem Ausmaß einer Änderung zwischen der Relativdistanz des Objekts vor einer vorbestimmten Zeitperiode wie in der ersten Objektinformation enthalten, und der jüngsten Relativdistanz des Objekts wie in der ersten Objektinformation enthalten, seit die erste Objektinformation (d.h., die Objektinformation von dem Kamerasensor 11) die Relativgeschwindigkeit nicht enthält, berechnet. Vergleichbar sollte, wenn das Verfahren eines Spezifizierens der Position des Objekts von dem Fusionsverfahren zu dem Nur-Kamera-Verfahren geschaltet wird, die Relativgeschwindigkeit des Objekts berechnet werden basierend auf dem Ausmaß einer Änderung zwischen der Relativdistanz des Objekts vor der vorbestimmten Zeitperiode wie in der zweiten Objektinformation enthalten, und der jüngsten Relativdistanz des Objekts wie in der ersten Objektinformation enthalten. Daher kann, wenn die Position des Objekts zu der Zeit eines Schaltens des Verfahrens eines Spezifizierens der Position des Objekts von dem Fusionsverfahren zu dem Nur-Kamera-Verfahren wesentlich geändert ist, die Relativgeschwindigkeit des Objekts berechnet werden als einen Wert aufweisend, der plötzlich erhöht ist. In einem solchen Fall kann die Abstandszeitperiode TTC geringer als oder gleich wie die Schwelle Tith werden, und eine Warnung kann fehlerhafterweise bereitgestellt werden.
  • Daher verbietet, wie in 4 veranschaulicht, wenn das Verfahren eines Spezifizierens der Position des Objekts von dem Fusionsverfahren zu dem Nur-Kamera-Verfahren zu der Zeit t1 geschaltet wird, die Vorrichtung gemäß dem vorliegenden Ausführungsbeispiel eine Anzeige des Warnbildschirms 70 (d.h., eines neuen Warnbildschirms 70) für das Objekt, dessen Position unter Verwendung des Nur-Kamera-Verfahrens spezifiziert ist von dem Zeitpunkt des Schaltens (d.h., Zeit t1) zu dem Zeitpunkt nach einem Verstreichen der vorbestimmten Zeitperiode T1 (d.h., Zeit tb). Entsprechend kann ein Auftreten einer solchen Situation eines fehlerhaften Alarms bzw. einer fehlerhaften Warnung weiter verhindert werden.
  • Nach einem Verstreichen der vorbestimmten Zeitperiode T1 von dem Schalten zu dem Nur-Kamera-Verfahren extrahiert die Vorrichtung gemäß dem vorliegenden Ausführungsbeispiel ein Objekt mit einer relativ hohen Wahrscheinlichkeit eines Kollidierens mit dem Wirtsfahrzeug als ein Hindernis basierend auf der Position des Objekts, die durch Verwendung des Nur-Kamera-Verfahrens spezifiziert ist. Wenn das extrahierte Hindernis eine vorbestimmte Bedingung erfüllt, zeigt die Vorrichtung gemäß dem vorliegenden Ausführungsbeispiel den Warnbildschirm 70 (siehe 7) an, der eines Fahrers Sichtlinie in die Richtung des Hindernisses führt bzw. leitet.
  • In 4 schaltet, wenn die Vorrichtung gemäß dem vorliegenden Ausführungsbeispiel bestimmt, dass die erste Objektinformation und die zweite Objektinformation, die zu der Zeit t2 erlangt sind, eine Fusionsstartbedingung (als „erste Bedingung“ bezeichnet) erfüllen, die Vorrichtung gemäß dem vorliegenden Ausführungsbeispiel das Verfahren eines Spezifizierens der Position des Objekts von dem Nur-Kamera-Verfahren zu dem Fusionsverfahren. Details der Fusionsstartbedingung werden nachstehend beschrieben.
  • Selbst unmittelbar nachdem das Verfahren eines Spezifizierens der Position des Objekts von dem Nur-Kamera-Verfahren zu dem Fusionsverfahren geschaltet ist, kann zwischen der „Distanz zwischen dem Objekt und dem Wirtsfahrzeug, die unmittelbar vor dem Schalten spezifiziert sind“ und der „Distanz zwischen dem Objekt und dem Wirtsfahrzeug, die unmittelbar nach dem Schalten spezifiziert sind“, wie vorstehend beschrieben eine signifikante Änderung bestehen. In einem solchen Fall wird die Bewegungsrichtung des Objekts nicht korrekt berechnet, und ein Objekt, das nicht das Ziel der Warnung sein kann, kann als das Ziel einer Warnung ausgewählt werden. Daher verbietet, wenn das Verfahren eines Spezifizierens der Position des Objekts von dem Fusionsverfahren zu dem Nur-Kamera-Verfahren zu einer Zeit t2 geschaltet wird, die Vorrichtung gemäß dem vorliegenden Ausführungsbeispiel eine Anzeige des Warnbildschirms 70 (d.h., eines neuen Warnbildschirms 70) für das Objekt, dessen Position unter Verwendung des Fusionsverfahrens spezifiziert ist, von dem Zeitpunkt des Schaltens (d.h., Zeit t2) zu dem Zeitpunkt nach einem Verstreichen einer vorbestimmten Zeitperiode T2 (d.h., Zeit tc).
  • Spezifischer Betrieb
  • Die CPU der Warn-ECU 10 (nachstehend wird sich die „CPU“ auf die CPU der Warn-ECU 10 beziehen, es sei denn, es ist anders spezifiziert) führt eine Routine, die durch ein Flussdiagramm in 5 veranschaulicht ist, zu jedem Verstreichen einer vorbestimmten Zeitperiode aus. Die in 5 veranschaulichte Routine ist eine Routine für eine Anzeige des Warnbildschirms 70 (siehe 7).
  • Entsprechend startet, wenn eine vorbestimmte Zeitvorgabe erreicht wird, die CPU eine Verarbeitung von Schritt 500 in 5 und geht zu Schritt 505 über, um die erste Objektinformation von dem Kamerasensor 11 zu lesen. Als nächstes schreitet die CPU zu Schritt 510 fort, um die zweite Objektinformation von dem Radarsensor 12 zu lesen.
  • Als nächstes schreitet die CPU zu Schritt 515 fort, um einen Objektpositionsspezifizierungsprozess auszuführen, der die Position des Objekts spezifiziert. Tatsächlich führt, wenn die CPU zu Schritt 515 fortschreitet, die CPU eine durch ein Flussdiagramm in 6 veranschaulichte Subroutine bzw. Unterroutine aus.
  • D.h., wenn die CPU zu Schritt 515 fortschreitet, startet die CPU eine Verarbeitung von Schritt 600 in 6 und schreitet zu Schritt S605 fort, um zu bestimmen, ob Information, die das Verfahren eines Spezifizierens der Position des Objekts andeutet, gegenwärtig das Fusionsverfahren andeutet bzw. darauf hinweist oder nicht. Die Information, die auf das Verfahren eines Spezifizierens der Position des Objekts hinweist, weist auf eines aus dem Nur-Kamera-Verfahren und das Fusionsverfahren hin. Die Information, die auf das Verfahren eines Spezifizierens der Position des Objekts hinweist, ist zweckmäßigerweise eingestellt, um, wenn ein Zündschalter, der nicht veranschaulicht ist, des Wirtsfahrzeugs von einem AUS-Zustand zu einem EIN-Zustand geändert wird, auf das Fusionsverfahren hinzuweisen.
  • Wenn die Information, die auf das Verfahren eines Spezifizierens der Position des Objekts hinweist, auf das Fusionsverfahren hinweist, macht die CPU eine „JA“-Bestimmung in Schritt 605 und schreitet zu Schritt 610 fort. Die CPU in Schritt 610 bestimmt, ob die „erste Objektinformation, die in Schritt 505 gelesen ist, und die zweite Objektinformation, die in Schritt 510 gelesen ist“, die Nur-Kamera-Startbedingung erfüllen oder nicht.
  • Details der Nur-Kamera-Startbedingung werden beschrieben. Die Nur-Kamera-Startbedingung ist eine Bedingung, die festgestellt wird, wenn das Verfahren eines Spezifizierens der Position des Objekts von dem Fusionsverfahren zu dem Nur-Kamera-Verfahren geschaltet werden sollte aufgrund einer Differenz größer als eine erlaubbare Differenz zwischen dem Erfassungsergebnis der ersten Objektinformation und dem Erfassungsergebnis der zweiten Objektinformation. D.h., die Nur-Kamera-Startbedingung ist eine Bedingung, die festgestellt ist, wenn eine Differenz, die zwischen dem Erfassungsergebnis der ersten Objektinformation und dem Erfassungsergebnis der zweiten Objektinformation erzeugt ist, größer als eine erlaubbare Differenz erfasst wird.
  • Insbesondere ist die Nur-Kamera-Bedingung eine Bedingung, die festgestellt wird, wenn zumindest eines aus (1) und (2) festgestellt ist. Wenn zumindest eines aus (1) und (2) festgestellt ist, macht die CPU eine JA-Bestimmung in Schritt 610.
    • (1) Ein Objekt, das in der ersten Objektinformation erfasst ist, ist nicht in der zweiten Objektinformation erfasst (mit anderen Worten, ein Objekt, das durch den Kamerasensor 11 erfasst ist, ist nicht durch den Radarsensor 12 erfasst).
    • (2) Die Position eines Objekts, das in der ersten Objektinformation erfasst ist, und die Position eines Objekts, das in der zweiten Objektinformation erfasst ist, sind nicht innerhalb einer vorbestimmten Spanne (in anderen Worten, die Differenz zwischen der Relativdistanz eines durch den Kamerasensor 11 erfassten Objekts und der Relativdistanz des selben Objekts, das durch den Radarsensor 12 erfasst ist, ist größer als oder gleich wie eine Schwellendistanz, und/oder die Differenz zwischen dem Azimut des durch den Kamerasensor 11 erfassten Objekts und dem Azimut des gleichen Objekts, das durch den Radarsensor 12 erfasst ist, ist größer als oder gleich wie ein Schwellenwinkel).
  • Drei Beispiele, in denen die Nur-Kamera-Startbedingung festgestellt ist, werden beschrieben. Das erste Beispiel ist jenes, wenn der Radarsensor 12 eine reflektierte Welle von einem Objekt mit einer relativ schwachen Reflexionsintensität für die elektrische Welle in dem Millimeterwellenband (beispielsweise ein Fußgänger) nicht empfangen kann. In einem solchen Fall wird das in der ersten Objektinformation erfasste Objekts nicht in der zweiten Objektinformation erfasst. Daher ist (1) festgestellt, und die Nur-Kamera-Startbedingung ist festgestellt. Eine solche Situation tritt insbesondere wahrscheinlich dann auf, wenn das Objekt mit einer relativ schwachen Reflexionsintensität für das Millimeterwellenband mit einer weiten Distanz präsent bzw. existent ist.
  • Das zweite Beispiel ist jenes, wenn ein als ein Objekt in der ersten Objektinformation erfasstes Objekts als eine Vielzahl von Objekten in der zweiten Objektinformation erfasst ist. Beispielsweise wird ein Fahrzeug mit einer langen Gesamtlänge oder Fahrzeugbreite als eine Vielzahl von Objekten in der zweiten Objektinformation erfasst. In einem solchen Fall wird ein Objekt, das einem in der ersten Objektinformation erfassten Objekt entspricht, bestimmt, als nicht in der zweiten Objektinformation erfasst zu sein, und (1) wird festgestellt. In einem solchen Fall können die Position eines in der ersten Objektinformation erfassten Objekts und die Position eines der in der zweiten Objektinformation erfassten Objekte als nicht innerhalb der vorbestimmten Spanne bestimmt werden, und (2) kann festgestellt werden.
  • Das dritte Beispiel ist jenes, wenn ein als eine Vielzahl von Objekten in der ersten Objektinformation erfasstes Objekt als ein Objekt in der zweiten Objektinformation erfasst wird. Beispielsweise wird eine Vielzahl von Objekten, die bei einer nahen Distanz vorhanden sind, als ein Objekt in der zweiten Objektinformation erfasst. In einem solchen Fall wird ein in der ersten Objektinformation erfasstes Objekt als nicht in der zweiten Objektinformation zu erfassend bestimmt, und (1) wird festgestellt. In einem solchen Fall können die Position eines der in der ersten Objektinformation erfassten Objekte und die Position eines in der zweiten Objektinformation erfassten Objekts als nicht innerhalb der vorbestimmten Spanne bestimmt werden, und (2) kann festgestellt werden.
  • Wenn die in Schritt 505 gelesene erste Objektinformation und die in Schritt 510 gelesene zweite Objektinformation die Nur-Kamera-Startbedingung nicht erfüllen, macht die CPU eine NEIN-Bestimmung in Schritt 610 und schreitet zu Schritt 615 fort.
  • In Schritt 615 spezifiziert die CPU die Position (die Relativdistanz und den Azimut) des Objekts durch Verwendung des Fusionsverfahrens. Die CPU schreitet zu Schritt 695 fort, um zeitweise die vorliegende Routine zu beenden, und schreitet zu Schritt 520 in 5 fort. Insbesondere spezifiziert die CPU den Azimut des Objekts bezüglich des Wirtsfahrzeugs basierend auf der ersten Objektinformation und spezifiziert die Distanz (Relativdistanz) zwischen dem Objekt und dem Wirtsfahrzeug basierend auf der zweiten Objektinformation.
  • Als nächstes liest in Schritt 520 die CPU die durch den Fahrzeugstatussensor 13 erlangte Fahrzeugstatusinformation und schreitet zu Schritt 525 fort.
  • In Schritt 525 schätzt die CPU den vorhergesehenen Fortbewegungskurs wie vorstehend beschrieben basierend auf der in Schritt 520 gelesenen Fahrzeugstatusinformation und schreitet zu Schritt 530 fort.
  • In Schritt 530 bestimmt die CPU, ob ein Nur-Kamera-Schalt-Kennzeichner bzw.-Flag auf „1“ eingestellt ist. Das Nur-Kamera-Schalt-Flag wird auf „1“ zu einem Zeitpunkt eingestellt, zu dem das Verfahren eines Spezifizierens der Position des Objekts zu dem Nur-Kamera-Verfahren geschaltet wird (ein Zeitpunkt, zu dem die Nur-Kamera-Startbedingung festgestellt ist, wenn das Verfahren eines Spezifizierens der Position des Objekts das Fusionsverfahren ist) (siehe Schritt 630 in 6 wie nachstehend beschrieben). Das Nur-Kamera-Schalt-Flag ist ein Flag bzw. ein Kennzeichner, der auf „0“ eingestellt wird zu dem Zeitpunkt nach einem Verstreichen der vorbestimmten Zeitperiode T1 von dem Zeitpunkt eines Eingestelltseins auf „1“ (siehe Schritt 545 in 5 wie nachstehend beschrieben), oder zu dem Zeitpunkt eines Schaltens des Verfahrens eines Spezifizierens der Position des Objekts zu dem Fusionsverfahren vor einem Verstreichen der vorbestimmten Zeitperiode T1 von dem Zeitpunkt eines Eingestelltseins auf „1“ (ein Zeitpunkt, zu dem die Fusionsstartbedingung festgestellt ist, wenn das Verfahren eines Spezifizierens der Position des Objekts das Nur-Kamera-Verfahren ist, siehe Schritt 655 in 6 wie nachstehend beschrieben).
  • Wenn das Nur-Kamera-Schalt-Flag nicht auf „1“ eingestellt ist, macht die CPU eine NEIN-Bestimmung in Schritt 530 und schreitet zu Schritt 550 fort. In Schritt 550 bestimmt die CPU, ob ein Fusionsschalt-Flag bzw. ein Fusionsschalt-Kennzeichner auf „1“ eingestellt ist oder nicht.
  • Das Fusionsschalt-Flag wird auf „1“ geschaltet zu dem Zeitpunkt eines Schaltens des Verfahrens eines Spezifizierens der Position des Objekts zu dem Fusionsverfahren (ein Zeitpunkt, zu dem die Fusionsstartbedingung festgestellt ist, wenn das Verfahren eines Spezifizierens der Position des Objekts das Nur-Kamera-Verfahren ist) (siehe Schritt 660 in 6 wie nachstehend beschrieben). Das Fusionsschalt-Flag ist ein Flag bzw. ein Kennzeichner, der auf „0“ eingestellt wird zu dem Zeitpunkt nach einem Verstreichen der vorbestimmten Zeitperiode T2 von dem Zeitpunkt eines Eingestelltseins auf „1“ (siehe Schritt 565 in 5 wie nachstehend beschrieben), oder zu dem Zeitpunkt eines Schaltens des Verfahrens eines Spezifizierens der Position des Objekts zu dem Nur-Kamera-Verfahren vor einem Verstreichen der vorbestimmten Zeitperiode T2 von dem Zeitpunkt eines Eingestelltseins auf „1“ (ein Zeitpunkt, zu dem die Nur-Kamera-Startbedingung festgestellt ist, wenn das Verfahren eines Spezifizierens der Position des Objekts das Fusionsverfahren ist, siehe Schritt 625 in 6 wie nachstehend beschrieben).
  • Wenn das Fusionsschalt-Flag nicht auf „1“ eingestellt ist, macht die CPU eine NEIN-Bestimmung in Schritt 550 und schreitet zu Schritt 570 fort. In Schritt 570 extrahiert die CPU ein Objekt mit einer Wahrscheinlichkeit eines Kollidierens mit dem Wirtsfahrzeug (schließt ein Objekt ein, das sich dem nächsten Punkt zu dem Wirtsfahrzeug annähert bzw. diesen erreicht) als ein Hindernis basierend auf der Position des in Schritt 515 spezifizierten Objekts und des in Schritt 525 geschätzten bzw. vorhergesehenen Fortbewegungskurses. Insbesondere schätzt die CPU als einen vorhergesehenen Mittelfortbewegungskurs einen Fortbewegungskurs, entlang dem die Mitte der Achse der rechten und linken Vorderräder des Wirtsfahrzeugs bewegt wird. Die CPU schätzt einen Links-Seite-Vorhersagefortbewegungskurs und einen Rechts-Seite-Vorhersagefortbewegungskurs als den vorhergesagten Fortbewegungskurs basierend auf dem vorhergesehenen Mittelfortbewegungskurs. Ein Punkt, der an der linken Seite mit der bestimmten Distanz α von dem linken Ende des Vorderendenabschnitts des Fahrzeugkörpers des Wirtsfahrzeugs positioniert ist, geht durch den Links-Seite-Vorhersagefortbewegungskurs hindurch. Ein Punkt, der an der rechten Seite mit der bestimmten Distanz α von dem rechten Ende des Vorderendenabschnitts des Fahrzeugkörpers des Wirtsfahrzeugs positioniert ist, geht durch den Rechts-Seite-Vorhersagefortbewegungskurs hindurch. Die CPU spezifiziert einen Bereich bzw. eine Region zwischen dem Links-Seite-Vorhersagefortbewegungskurs und dem Rechts-Seite-Vorhersagefortbewegungskurs als einen Vorhersagefortbewegungskursbereich.
  • Die CPU berechnet (schätzt) die Bewegungstrajektorie des Objekts basierend auf der in Schritt 515 der vorliegenden Routine, die gegenwärtig ausgeführt wird, spezifizierten Position des Objekts, und den in Schritt 515 der vorliegenden Routine, die ein paar Male vorher ausgeführt wurde, spezifizierten Positionen des Objekts. Die CPU berechnet die Bewegungsrichtung des Objekts bezüglich des Wirtsfahrzeugs basierend auf der berechneten Bewegungstrajektorie des Objekts. Als nächstes extrahiert, basierend auf dem Vorhersagefortbewegungskursbereich, der Relativbeziehung (die Relativposition und die Relativgeschwindigkeit) zwischen dem Wirtsfahrzeug und dem Objekt, und der Bewegungsrichtung des Objekts bezüglich des Wirtsfahrzeugs, die CPU ein Objekt, das bereits innerhalb des Vorhersagefortbewegungskursbereichs präsent ist, und ein Objekt, für das vorhergesehen ist, dass es in den Vorhersagefortbewegungskursbereich eintritt und sich mit dem Spitzenendenbereich des Wirtsfahrzeugs überschneidet, als ein Objekt mit einer Wahrscheinlichkeit eines Kollidierens mit dem Wirtsfahrzeug (d.h., ein Hindernis).
  • Nachstehend wird der Prozess des Schritts 570 spezifischer beschrieben. Wenn die CPU ein Objekt vor dem Wirtsfahrzeug basierend auf der „ersten Objektinformation und/oder der zweiten Objektinformation“ erfasst, bestimmt die CPU, ob sich das Objekt innerhalb des Vorhersagefortbewegungskursbereichs bzw. vorhergesagten Fortbewegungskursbereichs befindet oder nicht und ob das Objekt in den Vorhersagefortbewegungskursbereich eintreten kann und sich mit dem Spitzenendbereich des Wirtsfahrzeugs überschneiden kann. In einem solchen Fall bezieht sich die Front (bzw. vorn) des Wirtsfahrzeugs auf den Erfassungsbereich des Frontradarsensors 12C. Insbesondere bestimmt, wenn die in Schritt 515 spezifizierte Position des Objekts sich innerhalb des Vorhersagefortbewegungskursbereichs befindet, die CPU, dass sich das Objekt innerhalb des Vorhersagefortbewegungskursbereichs befindet. Wenn eine Linie, die sich in der Bewegungsrichtung des Objekts von der in Schritt 515 spezifizierten Position des Objekts erstreckt, mit dem Vorhersagefortbewegungskursbereich und dem Spitzenendbereich des Wirtsfahrzeugs überschneidet, bestimmt die CPU, dass das Objekt „in den Vorhersagefortbewegungskursbereich eintreten kann und sich mit dem Spitzenendbereich des Wirtsfahrzeugs überschneiden kann“.
  • Wenn die CPU bestimmt, dass sich das Objekt „innerhalb des Vorhersagefortbewegungskursbereichs befindet oder in den Vorhersagefortbewegungskursbereich eintreten kann und sich mit dem Spitzenendbereich des Wirtsfahrzeugs überschneiden kann“, und der Kamerasensor 11 bestimmt, dass das Objekt ein Fußgänger ist, extrahiert die CPU den Fußgänger als ein Hindernis mit einer Wahrscheinlichkeit eines Kollidierens mit dem Wirtsfahrzeug.
  • Wenn die CPU ein Objekt an einer Seite vor dem Wirtsfahrzeug erfasst, bestimmt die CPU, ob das Objekt in den Vorhersagefortbewegungskursbereich eintreten kann und sich mit dem Spitzenendbereich des Wirtsfahrzeugs überschneiden kann oder nicht. In einem solchen Fall bezieht sich die Seite vor dem Wirtsfahrzeug auf die Erfassungsbereiche der Front-Seite-Radarsensoren 12L, 12R. Insbesondere bestimmt, wenn sich eine Linie, die sich in der Bewegungsrichtung des Objekts, das seitlich vor dem Wirtsfahrzeug erfasst ist, von der in Schritt 515 spezifizierten Position des Objekts erstreckt, mit dem Vorhersagefortbewegungskursbereich und dem Spitzenendbereich des Wirtsfahrzeugs überschneidet, die CPU, dass das Objekt in den Vorhersagefortbewegungskursbereich eintreten kann und sich mit dem Spitzenendbereich des Wirtsfahrzeugs überschneiden kann. Wenn die CPU bestimmt, dass das Objekt in den Vorhersagefortbewegungskursbereich eintreten kann und sich mit dem Spitzenendbereich des Wirtsfahrzeugs überschneiden kann, extrahiert die CPU das Objekt als ein Hindernis mit einer Wahrscheinlichkeit eines Kollidierens mit dem Wirtsfahrzeug unabhängig davon, ob das Objekt ein Fußgänger, ein Zweirad, ein Automobil oder dergleichen ist.
  • Wie vorstehend beschrieben schätzt die CPU den Links-Seite-Vorhersagefortbewegungskurs als einen „Kurs, durch den der Punkt, der an der linken Seite mit der bestimmten Distanz α von dem linken Ende des Vorderendabschnitts des Wirtsfahrzeugs positioniert ist, passiert“, und schätzt den Rechts-Seite-Vorhersagefortbewegungskurs als einen „Kurs, durch den der Punkt, der an der rechten Seite mit der bestimmten Distanz α von dem rechten Ende des Vorderendabschnitts des Wirtsfahrzeugs positioniert ist, passiert“. Daher bestimmt die CPU, dass selbst ein Objekt (ein Fußgänger, ein Zweirad, oder dergleichen) mit einer Wahrscheinlichkeit eines Passierens durch die linksseitige Nähe oder die rechtsseitige Nähe des Wirtsfahrzeugs „innerhalb des Vorhersagefortbewegungskursbereichs ist oder in den Vorhersagefortbewegungskursbereich eintreten kann und sich mit dem Spitzenendbereich des Wirtsfahrzeugs überschneiden kann“. Entsprechend kann die CPU selbst ein Objekt mit einer Wahrscheinlichkeit eines durch die linke Seite oder rechte Seite des Wirtsfahrzeugs Passierens bzw. „Hindurchgehens“ als ein Hindernis extrahieren.
  • Wie von Vorstehendem verstanden wird, umfassen durch den Prozess des Schritts 570 extrahierte Hindernisse einen Fußgänger, der vor dem Fahrzeug präsent ist, einen Bewegtkörper, der sich mit dem rechten oder linken Vorhersagefortbewegungskurs des Wirtsfahrzeugs von einer Seite des Wirtsfahrzeugs überschneidet und sich dann annähert, um sich mit dem Spitzenendbereich des Wirtsfahrzeugs zu überschneiden, einen Bewegtkörper, der eine Wahrscheinlichkeit eines Hindurchpassierens durch eine Seite des Wirtsfahrzeugs hat, und dergleichen.
  • Als nächstes schreitet die CPU zu Schritt 575 fort, um zu bestimmen, ob zumindest ein Hindernis in Schritt 570 extrahiert ist oder nicht.
  • Wenn kein Hindernis in Schritt 570 extrahiert ist, ist ein Hindernis, für das beziehungsweise bezüglich dem der Fahrer gewarnt werden sollte, nicht präsent. In einem solchen Fall macht die CPU eine NEIN-Bestimmung in Schritt 575 und schreitet zu Schritt 595 fort, um zeitweise die vorliegende Routine zu beenden. Folglich wird der Warnbildschirm 70 (siehe 7) nicht angezeigt.
  • Wenn zumindest ein Hindernis in Schritt 570 extrahiert wird, macht die CPU eine JA-Bestimmung in Schritt 575 und schreitet zu Schritt 580 fort.
  • In Schritt 580 berechnet die CPU die Abstandszeitperiode TTC jedes in dem Prozess von Schritt 570 extrahierten Hindernisses. Die Abstandszeitperiode TTC ist eine Zeitperiode wie vorstehend beschrieben.
  • Wie vorstehend beschrieben wird die Abstandszeitperiode TTC durch die Annahme berechnet, dass das Hindernis bewegt wird, während die gegenwärtige Relativgeschwindigkeit und Relativbewegungsrichtung davon beibehalten werden. Entsprechend sollten die Relativgeschwindigkeit des Hindernisses für die Berechnung der Abstandszeitperiode TTC erlangt werden.
  • Wenn die Information, die auf das gegenwärtige Verfahren eines Spezifizierens der Position des Objekts hinweist, auf das Fusionsverfahren hinweist (d.h., wenn die Position des Objekts gegenwärtig mittels des Fusionsverfahrens spezifiziert wird), kann die CPU die in der zweiten Objektinformation von dem Radarsensor 12 enthaltene Relativgeschwindigkeit als die Relativgeschwindigkeit des Hindernisses für eine Berechnung der Abstandszeitperiode TTC verwenden. Wenn die Information, die auf das gegenwärtige Verfahren eines Spezifizierens der Position des Objekts hinweist, auf das Nur-Kamera-Verfahren hinweist (d.h., wenn die Position des Objekts gegenwärtig durch das Nur-Kamera-Verfahren spezifiziert ist), berechnet die CPU die Relativgeschwindigkeit des Hindernisses basierend auf der ersten Objektinformation von dem Kamerasensor 11 und verwendet die berechnete Relativgeschwindigkeit für eine Berechnung der Abstandszeitperiode TTC.
  • Insbesondere liest, wenn die Information, die auf das gegenwärtige Verfahren eines Spezifizierens der Position des Objekts hinweist, auf das Nur-Kamera-Verfahren hinweist, die CPU von dem RAM die Distanz zwischen dem Hindernis und dem Wirtsfahrzeug in der ersten Objektinformation, die zu der Zeit einer vorhergehenden Ausführung der gegenwärtigen Routine gelesen ist (hiernach als vorhergehende Distanz bezeichnet). Wenn die CPU die erste Objektinformation und die zweite Objektinformation erlangt, speichert die CPU die erste Objektinformation und die zweite Objektinformation in dem RAM. Die CPU spezifiziert die Distanz zwischen dem Hindernis und dem Wirtsfahrzeug in der ersten Objektinformation, die gegenwärtig in Schritt 505 gelesen ist (nachstehend als die gegenwärtige Distanz bezeichnet). Die CPU berechnet die Relativgeschwindigkeit des Hindernisses bezüglich des Wirtsfahrzeugs durch Dividieren eines Wertes, der durch Subtrahieren der gegenwärtigen Distanz von der vorhergehenden Distanz erlangt ist, durch eine Zeitperiode von der Erlangung der vorhergehenden Distanz zu der Erlangung der gegenwärtigen Distanz.
  • Die Abstandszeitperiode TTC repräsentiert eine Zeitperiode, in der der Fahrer das Wirtsfahrzeug bedienen kann, um eine Kollision (einschließlich einer abnormalen Annäherung) zwischen dem Wirtsfahrzeug und dem Hindernis zu vermeiden bzw. verhindern. D.h., die Abstandszeitperiode TTC ist ein Parameter, der den Grad einer Dringlichkeit repräsentiert und dem Grad einer Notwendigkeit einer Warnung entspricht. D.h., wenn die Abstandszeitperiode TTC kleiner ist, ist der Grad einer Notwendigkeit einer Warnung erhöht. Wenn die Abstandszeitperiode TTC größer ist, ist der Grad einer Notwendigkeit einer Alarmierung bzw. Warnung verringert.
  • Als nächstes schreitet die CPU zu Schritt 585 fort, um zu bestimmen, ob die Abstandszeitperiode TTC jedes Hindernisses, die in Schritt 580 berechnet ist, geringer als oder gleich wie die vorbestimmte Schwelle Tith ist. Die CPU bestimmt in Schritt 585 auch, ob zumindest ein Hindernis mit der Abstandszeitperiode TTC kleiner als oder gleich wie die vorbestimmte Schwelle Tith präsent ist oder nicht.
  • Wenn ein Hindernis mit der Abstandszeitperiode TTC kleiner als oder gleich wie die Schwelle Tith nicht präsent ist (d.h., wenn ein Hindernis, das die vorbestimmte Bedingung erfüllt, nicht präsent ist), muss eine Warnung nicht durch Anzeige des Warnbildschirms 70 (siehe 7) vorgesehen werden. In einem solchen Fall macht die CPU eine NEIN-Bestimmung in Schritt 585 und schreitet zu Schritt 595 fort, um die vorliegende Routine zeitweise abzuschließen. Folglich wird der Warnbildschirm 70 (siehe 7) nicht angezeigt. D.h., eine Warnung wird nicht vorgesehen bzw. bereitgestellt.
  • Wenn zumindest ein Hindernis mit der Abstandszeitperiode TTC kleiner als oder gleich wie die Schwelle Tith präsent ist (d.h., wenn ein Hindernis, das die vorbestimmte Bedingung erfüllt, präsent ist), macht die CPU eine JA-Bestimmung in Schritt 585 und schreitet zu Schritt 590 fort. In Schritt 590 stellt die CPU eine Warnung durch eine Anzeige des Warnbildschirms 70 (siehe 7) auf der Anzeige 20 bereit, der eines Fahrers Sichtlinie in die Richtung leitet, in der das Hindernis mit der Abstandszeitperiode TTC geringer als oder gleich wie die Schwelle Tith (Warnziel) präsent ist, und schreitet zu Schritt 595 fort, um die vorliegende Routine zeitweise abzuschließen.
  • Details des Warnbildschirms 70 werden unter Verwendung der 7 beschrieben. Der Anzeigebereich der Anzeige 20 ist in einem Bereich an der Windschutzscheibe des Wirtsfahrzeugs in Front eines Fahrersitzes vorgesehen. Die Mittellinie des Anzeigebereichs wird durch eine Strichpunktlinie in 7 veranschaulicht. Während die Mittellinie zum Zwecke der Beschreibung veranschaulicht ist, wird die Mittellinie nicht in dem tatsächlichen Anzeigebereich angezeigt. Die Mittellinie des Anzeigebereichs entspricht der Fahrzeugmittellinie CL (siehe 3). Ein Bereich an der linken Seite der Mittellinie des Anzeigebereichs entspricht einem linken Bereich um die Front des Wirtsfahrzeugs herum. Ein Bereich an der rechten Seite der Mittellinie des Anzeigebereichs entspricht einem rechten Bereich um die Front des Wirtsfahrzeugs herum.
  • Ein Sichtlinienleitbildzeichen 71, das eines Fahrers Sichtlinie in die Richtung des Hindernisses leitet, das die Abstandszeitperiode TTC geringer als oder gleich wie die Schwelle Tith hat, wird in dem Warnbildschirm 70 angezeigt. Bei der vorliegenden Spezifikation kann das Sichtlinienleitbildzeichen 71 als ein Anzeigeelement oder eine Sichtlinienleitmarkierung bezeichnet werden.
  • Das Sichtlinienleitbildzeichen 71 hat eine Form, in der drei Bögen linear angeordnet sind. Das Sichtlinienleitbildzeichen 71 ist in einer radialen Form in einem Bereich von ± 90° in der Rechts-Links-Richtung von einer vorbestimmten Position P0 auf der Mittellinie des Anzeigebereichs als die Mitte des Bereichs angezeigt. Ein Bogen, der weiter von der vorbestimmten Position P0 unter den drei Bögen entfernt ist, hat eine kürzere Länge. Die drei Bögen werden in einer Reihenfolge von dem nächsten Bogen zu der Position P0 beleuchtet. Das Sichtlinienleitbildzeichen 71 kann in Einheiten von Winkeln (12°) angezeigt werden, die erlangt sind durch gleiches Teilen in 15 Teile eines Winkelbereichs (180°) von einer Linie, die ein Teil einer horizontalen Linie orthogonal bezüglich der Mittellinie ist und sich zu der rechten Seite von der Position P0 erstreckt, zu einer Linie, die ein Teil der horizontalen Linie ist und sich zu der linken Seite von der Position P0 erstreckt. Während eine Position (Achsenlinie), bei der das Sichtlinienleitbildzeichen 71 angezeigt werden kann, durch eine gestrichelte Linie in 7 veranschaulicht ist, wird die gestrichelte Linie nicht in dem tatsächlichen Anzeigebereich angezeigt.
  • Bei dem in 7 veranschaulichten Beispiel weist das Sichtlinienleitbildzeichen 71 auf die Richtung bei 18° zu der rechten Seite von der Mittellinie des Anzeigebereichs hin und weist darauf hin, dass ein „Hindernis mit der Abstandszeitperiode TTC geringer als oder gleich wie die Schwelle Tith (Warnziel)“ in der Richtung präsent ist. Durch Leiten des Fahrers Sichtlinie in die Richtung, auf die durch das Sichtlinienleitbildzeichen 71 hingewiesen wird, wird der Fahrer bezüglich des Warnziels gewarnt. Wenn die CPU zu Schritt 590 in 5 fortschreitet, bestimmt die CPU die Richtung, auf die durch das Sichtlinienleitbildzeichen 71 hingewiesen wird, basierend auf der Richtung (Azimut) des Hindernisses mit der Abstandszeitperiode TTC geringer als oder gleich wie die Schwelle Tith (Warnziel), und überträgt eine Anzeigeanweisung an die Anzeige (HUD) 20, um das Sichtlinienleitbildzeichen 71 in der Richtung anzuzeigen.
  • Wenn eine Vielzahl von Hindernissen mit der Abstandszeitperiode TTC geringer als oder gleich wie die Schwelle Tith präsent ist, wählt die CPU ein Hindernis mit der minimalen Abstandszeitperiode TTC aus. Die CPU zeigt den Warnbildschirm 70 einschließlich des Sichtlinienleitbildzeichens 71 an, das auf die Richtung hinweist, in der das Hindernis mit der minimalen Abstandszeitperiode TTC präsent ist.
  • Es wird angenommen, dass die in Schritt 505 gelesene erste Objektinformation und die in Schritt 510 gelesene zweite Objektinformation die Nur-Kamera-Startbedingung erfüllen, wenn die Information, die auf das gegenwärtige Verfahren eines Spezifizierens der Position des Objekts hinweist, auf das Fusionsverfahren hinweist. In einem solchen Fall schreitet, wenn die CPU zu Schritt 515 fortschreitet, die CPU zu Schritt 610 in 6 fort. Die CPU macht eine JA-Bestimmung in Schritt 610 und schreitet zu Schritt 620 fort. Die Nur-Kamera-Startbedingung wird festgestellt, wenn die erste Objektinformation und die zweite Objektinformation zumindest eines aus (1) und (2) erfüllen. In einem solchen Fall kann das Fusionsverfahren nicht für die Spezifizierung der Position des Objekts verwendet werden, und die Position des Objekts sollte unter Verwendung des Nur-Kamera-Verfahrens spezifiziert werden. Entsprechend stellt (schaltet) die CPU in Schritt 620 die Information, die auf das Verfahren eines Spezifizierens der Position des Objekts hinweist, auf das Nur-Kamera-Verfahren ein und schreitet zu Schritt 625 fort.
  • In Schritt 625 stellt die CPU das Fusionsschalt-Flag auf „0“ ein und schreitet zu Schritt 630 fort. Wie vorstehend beschrieben wird das Fusionsschalt-Flag auf „1“ geschaltet zu dem Zeitpunkt nach einem Verstreichen der vorbestimmten Zeitperiode T2 von dem Zeitpunkt eines Schaltens des Verfahrens eines Spezifizierens der Position des Objekts von dem Nur-Kamera-Verfahren zu dem Fusionsverfahren oder von dem Zeitpunkt eines Schaltens des Verfahrens eines Spezifizierens der Position des Objekts von dem Nur-Kamera-Verfahren zu dem Fusionsverfahren zu dem Zeitpunkt eines Schaltens des Verfahrens eines Spezifizierens der Position des Objekts zu dem Nur-Kamera-Verfahren vor einem Verstreichen der vorbestimmten Zeitperiode T2. Entsprechend verbleibt, wenn das Verfahren eines Spezifizierens der Position des Objekts zu dem Nur-Kamera-Verfahren geschaltet wird vor einem Verstreichen der vorbestimmten Zeitperiode T2 von dem Schalten des Verfahrens eines Spezifizierens der Position des Objekts zu dem Fusionsverfahren, das Fusionsschalt-Flag auf „1“ eingestellt. Daher stellt die CPU in Schritt 625 das Fusionsschalt-Flag auf „0“ ein.
  • In Schritt 630 stellt die CPU das Nur-Kamera-Schalt-Flag auf „1“ ein und schreitet zu Schritt 635 fort. In Schritt 635 initialisiert die CPU einen ersten Schalttimer (d.h., stellt ein (leert) den ersten Schalttimer auf „0“) und schreitet zu Schritt 645 fort. Der erste Schalttimer ist ein Timer, der eine verstrichene Zeitperiode von dem Schalten des Verfahrens eines Spezifizierens der Position des Objekts zu dem Nur-Kamera-Verfahren (siehe Schritt 535 wie nachstehend beschrieben) misst.
  • In Schritt 645 spezifiziert die CPU die Position des Objekts unter Verwendung des Nur-Kamera-Verfahrens. Die CPU schreitet zu Schritt 695 fort, um die vorliegende Routine zeitweise abzuschließen, und schreitet zu Schritt 520 in 5 fort. Insbesondere spezifiziert die CPU den Azimut des Objekts bezüglich des Wirtsfahrzeugs basierend auf der ersten Objektinformation und spezifiziert die Distanz zwischen dem Objekt und dem Wirtsfahrzeug basierend auf der ersten Objektinformation.
  • Wenn das Nur-Kamera-Schalt-Flag auf „1“ in Schritt 630 eingestellt ist, macht die CPU bei einem Fortschreiten zu Schritt 530 in 5 eine „JA“-Bestimmung in Schritt 530 und schreitet zu Schritt 535 fort. In Schritt 535 ersetzt die CPU den Wert des ersten Schalttimers mit einem Wert, der durch Inkrementieren des gegenwärtigen Werts des ersten Schalttimers um „1“ erlangt ist, und schreitet zu Schritt 540 fort.
  • In Schritt 540 bestimmt die CPU, ob der Wert des ersten Schalttimers größer als oder gleich wie eine Schwelle TM1th ist oder nicht. Der Wert des ersten Schalttimers ist größer als oder gleich wie die Schwelle TM1th, wenn die vorbestimmte Zeitperiode T1 verstreicht von dem Schalten des Verfahrens eines Spezifizierens der Position des Objekts zu dem Nur-Kamera-Verfahren.
  • Wenn der Wert des ersten Schalttimers geringer als die Schwelle TM1th ist, macht die CPU eine NEIN-Bestimmung in Schritt 540 und schreitet zu Schritt 543 fort, um einen Bildschirm anzuzeigen, der zu der Zeit einer vorhergehenden Ausführung der vorliegenden Routine auf der Anzeige 20 angezeigt wird. Dann schreitet die CPU zu Schritt 595 fort, um die vorliegende Routine zeitweise abzuschließen. D.h., während die vorbestimmte Zeitperiode T1 (eine Zeitperiode entsprechend der Schwelle TM1th) verstreicht von dem Schalten des Verfahrens eines Spezifizierens der Position des Objekts zu dem Nur-Kamera-Verfahren, führt die CPU den Prozess des Schritts 570 und danach/darunter nicht aus und eine Anzeige des Warnbildschirms 70 für das Objekt, dessen Position durch das Nur-Kamera-Verfahren spezifiziert ist, wird verboten bzw. verhindert.
  • Der Grund, weshalb eine Anzeige des Warnbildschirms 70 für das Objekt, dessen Position durch das Nur-Kamera-Verfahren spezifiziert ist, verboten bzw. verhindert ist unmittelbar nach dem Schalten des Verfahrens eines Spezifizierens der Position des Objekts zu dem Nur-Kamera-Verfahren wird beschrieben. Der Abstand bzw. die Distanz zwischen dem Objekt und dem Wirtsfahrzeug wird basierend auf der ersten Objektinformation unmittelbar nach dem Schalten zu dem Nur-Kamera-Verfahren spezifiziert. Bei dem Fusionsverfahren wird die Distanz zwischen dem Objekt und dem Wirtsfahrzeug basierend auf der zweiten Objektinformation spezifiziert. Daher wird die Distanz zwischen dem Objekt und dem Wirtsfahrzeug unmittelbar nach dem Schalten zu dem Nur-Kamera-Verfahren von der vorhergehenden Distanz signifikant geändert, die basierend auf der zweiten Objektinformation spezifiziert ist.
  • Entsprechend wird die Bewegungsrichtung des Objekts nicht korrekt berechnet, und die Genauigkeit eines Extrahierens des Hindernisses in Schritt 570 wird weiter verringert. Wenn das Verfahren eines Spezifizierens der Position des Objekts das Nur-Kamera-Verfahren ist, wird die Relativgeschwindigkeit des Objekts bezüglich des Wirtsfahrzeugs basierend auf dem Ausmaß einer Änderung der Distanz zwischen dem Objekt und dem Wirtsfahrzeug berechnet. Daher wird die Relativgeschwindigkeit des Objekts bezüglich des Wirtsfahrzeugs auch unmittelbar nach dem Schalten des Verfahrens eines Spezifizierens der Position des Objekts zu dem Nur-Kamera-Verfahren nicht korrekt berechnet. Entsprechend wird die Abstandszeitperiode TTC des Hindernisses auch nicht korrekt berechnet.
  • Bei dem Status bzw. Zustand, in dem die Genauigkeit eines Extrahierens des Hindernisses weiter verringert wird und die Abstandszeitperiode TTC des Hindernisses nicht korrekt berechnet wird, wenn das Alarmziel bzw. Warnziel spezifiziert wird und der Warnbildschirm 70 angezeigt wird, ist die Wahrscheinlichkeit eines Leitens eines Fahrers Sichtlinie auf ein Objekt mit einer relativ geringen Wahrscheinlichkeit eines Kollidierens mit dem Wirtsfahrzeug relativ hoch bei dem Warnbildschirm 70. Folglich kann der Fahrer verwirrt werden.
  • Daher stellt die Vorrichtung gemäß dem vorliegenden Ausführungsbeispiel das Nur-Kamera-Schalt-Flag auf „1“ ein während die vorbestimmten Zeitperiode T1 verstreicht von dem Zeitpunkt, zu dem das Verfahren eines Spezifizierens der Position des Objekts zu dem Nur-Kamera-Verfahren geschaltet wird. Entsprechend wird der Warnbildschirm 70 nicht durch die Prozesse von Schritt 570 bis Schritt 590 in 5 angezeigt, und der vorhergehende Bildschirm wird in Schritt 543 angezeigt. Folglich kann das Auftreten des Problems weiter vermieden werden und die Wahrscheinlichkeit einer Verwirrung des Fahrers kann weiter verringert werden.
  • Wenn der Wert des ersten Schalttimers größer als oder gleich wie die Schwelle TM1th wird (d.h., wenn die vorbestimmte Zeitperiode T1 verstreicht von dem Zeitpunkt, zu dem das Verfahren eines Spezifizierens der Position des Objekts zu dem Nur-Kamera-Verfahren geschaltet wird), macht die CPU eine JA-Bestimmung in Schritt 540 und schreitet zu Schritt 545 fort. In Schritt 545 stellt die CPU das Nur-Kamera-Schalt-Flag auf „0“ ein und schreitet zu Schritt 550 fort.
  • In Schritt 550 bestimmt die CPU, ob das Fusionsschalt-Flag auf „1“ eingestellt ist oder nicht. Es wird angenommen, dass das Fusionsschalt-Flag nicht auf „1“ eingestellt ist. D.h., es wird angenommen, dass das gegenwärtige Verfahren eines Spezifizierens der Position des Objekts das Nur-Kamera-Verfahren ist. In einem solchen Fall macht die CPU eine NEIN-Bestimmung in Schritt 550 und schreitet zu Schritt 570 und danach/darunter fort. Entsprechend extrahiert die CPU ein Hindernis basierend auf der ersten Objektinformation und berechnet die Abstandszeitperiode TTC. Die CPU bestimmt, ob es ein Warnziel gibt oder nicht durch Verwendung der Abstandszeitperiode TTC. Wenn die CPU bestimmt, dass es ein Warnziel gibt, stellt die CPU eine Warnung bereit. Wie vorstehend beschrieben wird die Relativgeschwindigkeit des Hindernisses, die für eine Berechnung der Abstandszeitperiode TTC in einem solchen Fall berechnet wird, basierend auf der Distanz zwischen dem Hindernis und dem Wirtsfahrzeug in der vorhergehenden ersten Objektinformation und der Distanz zwischen dem Hindernis und dem Wirtsfahrzeug in der gegenwärtigen ersten Objektinformation berechnet.
  • Wenn die CPU zu Schritt 515 in einem Status bzw. Zustand fortschreitet, in dem die Information, die auf das Verfahren eines Spezifizierens der Position des Objekts hinweist, auf das Nur-Kamera-Verfahren eingestellt ist, macht die CPU eine NEIN-Bestimmung in Schritt 605 in 6 und schreitet zu Schritt 640 fort.
  • In Schritt 640 bestimmt die CPU, ob die in Schritt 505 gelesene erste Objektinformation und die in Schritt 510 gelesene zweite Objektinformation die Fusionsstartbedingung erfüllen oder nicht.
  • Details der Fusionsstartbedingung werden beschrieben. Die Fusionsstartbedingung ist eine Bedingung, die festgestellt wird, wenn das Verfahren eines Spezifizierens der Position des Objekts von dem Nur-Kamera-Verfahren zu dem Fusionsverfahren geschaltet werden kann durch Auflösen bzw. Beseitigen (Nichtauftreten) der Differenz größer als eine erlaubbare Differenz zwischen dem Erfassungsergebnis der ersten Objektinformation und dem Erfassungsergebnis der zweiten Objektinformation.
  • Insbesondere ist die Fusionsstartbedingung eine Bedingung, die festgestellt wird, wenn die folgende Bedingung festgestellt wird. Wenn die folgende Bedingung festgestellt wird, macht die CPU eine JA-Bestimmung in Schritt 640:
    • Ein neues Objekt wird in der zweiten Objektinformation erfasst, und die Position des durch die zweite Objektinformation angedeuteten Objekts ist innerhalb der vorbestimmten Spanne von der Position des Objekts, das in der ersten Objektinformation erfasst ist (mit anderen Worten, die Differenz zwischen der Relativdistanz eines durch den Kamerasensor 11 erfassten Objekts und der Relativdistanz des selben Objekts, das durch den Radarsensor 12 erfasst ist, ist geringer als die Schwellendistanz, und die Differenz zwischen dem Azimut des durch den Kamerasensor 11 erfassten Objekts und dem Azimut des selben Objekts, das durch den Radarsensor 12 erfasst ist, ist geringer als der Schwellenwinkel).
  • Ein Beispiel, in dem die Fusionsstartbedingung erfüllt ist, wird beschrieben. Es wird angenommen, dass der Radarsensor 12 die reflektierte Welle von dem „Objekt mit einer relativ schwachen Reflexionsintensität für die elektrische Welle in dem Millimeterwellenband“ nicht empfangen kann, dass (1) der Nur-Kamera-Startbedingung festgestellt ist, und dass das Verfahren eines Spezifizierens der Position des Objekts zu dem Nur-Kamera-Verfahren geschaltet ist. In einem solchen Fall kann, wenn die Distanz zwischen dem Wirtsfahrzeug und dem „Objekt mit einer relativ schwachen Reflexionsintensität für die elektrische Welle in dem Millimeterwellenband“ verringert ist, der Radarsensor 12 die reflektierte Welle von dem Objekt empfangen. Die Fusionsstartbedingung wird festgestellt.
  • Es wird angenommen, dass ein in der ersten Objektinformation erfasstes Objekt als eine Vielzahl von Objekten in der zweiten Objektinformation erfasst wird, dass (1) oder (2) der Nur-Kamera-Startbedingung festgestellt wird, und dass das Verfahren eines Spezifizierens der Position des Objekts zu dem Nur-Kamera-Verfahren geschaltet ist. In einem solchen Fall wird, wenn ein in der ersten Objektinformation erfasstes Objekt als ein Objekt in der zweiten Objektinformation erfasst ist, die Fusionsstartbedingung festgestellt.
  • Vergleichbar wird angenommen, dass ein als eine Vielzahl von Objekten in der ersten Objektinformation erfasstes Objekt als ein Objekt in der zweiten Objektinformation erfasst wird, dass (1) oder (2) der Nur-Kamera-Startbedingung festgestellt wird, und dass das Verfahren eines Spezifizierens der Position des Objekts zu dem Nur-Kamera-Verfahren geschaltet ist. In einem solchen Fall wird, wenn ein als ein Objekt in der zweiten Objektinformation erfasstes Objekt als eine Vielzahl von Objekten erfasst ist, die Fusionsstartbedingung festgestellt.
  • Wenn die „in Schritt 505 gelesene erste Objektinformation und die in Schritt 510 gelesene zweite Objektinformation in 5“ die Fusionsstartbedingung in einem Status bzw. Zustand nicht erfüllen, in dem die auf das Verfahren eines Spezifizierens der Position des Objekts hinweisende Information auf das Nur-Kamera-Verfahren eingestellt ist, macht die CPU eine NEIN-Bestimmung in Schritt 640 und schreitet zu Schritt 645 fort.
  • In Schritt 645 spezifiziert die CPU die Position des Objekts unter Verwendung des Nur-Kamera-Verfahrens. Die CPU schreitet zu Schritt 695 fort, um zeitweise die vorliegende Routine abzuschließen, und schreitet zu Schritt 520 in 5 fort. Die CPU liest die Fahrzeugstatusinformation in Schritt 520, schätzt den vorhergesagten Fortbewegungskurs in Schritt 525, und schreitet zu Schritt 530 fort.
  • Hierbei sind sowohl das Nur-Kamera-Schalt-Flag als auch das Fusionsschalt-Flag nicht eingestellt. Daher macht die CPU eine NEIN-Bestimmung in Schritt 530, macht eine NEIN-Bestimmung in Schritt 550, und schreitet zu Schritt 570 und danach fort. Folglich wird ein Hindernis basierend auf der durch den Kamerasensor 11 erfassten ersten Objektinformation extrahiert und die Abstandszeitperiode TTC des Hindernisses wird berechnet. Wenn ein Hindernis mit der berechneten Abstandszeitperiode TTC geringer als oder gleich wie die Schwelle Tith präsent (anwesend) ist, wird der Warnbildschirm 70 angezeigt.
  • In einem solchen Zustand macht, wenn die „in Schritt 505 gelesene erste Objektinformation und die in Schritt 510 gelesene zweite Objektinformation“ die Fusionsstartbedingung erfüllen, die CPU eine JA-Bestimmung in Schritt 640 in 6 und schreitet zu Schritt 650 fort. In Schritt 650 stellt die CPU die Information, die auf das Verfahren eines Spezifizierens der Position des Objekts hinweist, auf das Fusionsverfahren ein und schreitet zu Schritt 655 fort. In Schritt 655 stellt die CPU das Nur-Kamera-Schalt-Flag auf „0“ ein und schreitet zu Schritt 660.
  • Wie vorstehend beschrieben wird das Nur-Kamera-Schalt-Flag auf „1“ zu dem Zeitpunkt nach einem Verstreichen der vorbestimmten Zeitperiode T1 von dem Zeitpunkt eines Schaltens des Verfahrens eines Spezifizierens der Position des Objekts von dem Fusionsverfahren zu dem Nur-Kamera-Verfahren oder von dem Zeitpunkt eines Schaltens des Verfahrens eines Spezifizierens der Position des Objekts von dem Fusionsverfahren zu dem Nur-Kamera-Verfahren zu dem Zeitpunkt eines Schaltens des Verfahrens eines Spezifizierens der Position des Objekts zu dem Fusionsverfahren vor einem Verstreichen der vorbestimmten Zeitperiode T1 eingestellt. Entsprechend verbleibt, wenn das Verfahren eines Spezifizierens der Position des Objekts zu dem Fusionsverfahren geschaltet wird vor einem Verstreichen der vorbestimmten Zeitperiode T1 von dem Zeitpunkt eines Geschaltetwerdens zu dem Nur-Kamera-Verfahren das Nur-Kamera-Schalt-Flag auf „1“ eingestellt. Daher wird das Nur-Kamera-Schalt-Flag in Schritt 655 auf „0“ eingestellt.
  • Als nächstes stellt die CPU in Schritt 660 das Fusionsschalt-Flag auf „1“ ein und schreitet zu Schritt 665 fort, um einen zweiten Schalttimer zu initialisieren (das heißt, stellt ein (löscht) den zweiten Schalttimer auf „0“). Die CPU schreitet zu Schritt 615 fort. In Schritt 615 spezifiziert die CPU die Position des Objekts unter Verwendung des Fusionsverfahrens. Die CPU schreitet zu Schritt 695 fort, um zeitweise die vorliegende Routine abzuschließen, und schreitet zu Schritt 520 in 5 fort.
  • In Schritt 520 liest die CPU die Fahrzeugstatusinformation und schreitet zu Schritt 525 fort, um den vorhergesehenen bzw. verhergesagten Fortbewegungskurs bzw. Vorhersagefortbewegungskurs zu schätzen. Die CPU schreitet zu Schritt 530 fort. In einem solchen Fall macht, da das Nur-Kamera-Schalt-Flag auf „0“ eingestellt ist, die CPU eine NEIN-Bestimmung in Schritt 530 und schreitet zu Schritt 550 fort. Da das Fusionsschalt-Flag in Schritt 660 in 6 auf „1“ eingestellt ist, macht die CPU eine JA-Bestimmung in Schritt 550 und schreitet zu Schritt 555.
  • In Schritt 555 ersetzt die CPU den Wert des zweiten Schalttimers mit einem Wert, der durch Inkrementieren des gegenwärtigen Werts des zweiten Schalttimers um „1“ erlangt ist, und schreitet zu Schritt 560 fort.
  • In Schritt 560 bestimmt die CPU, ob der Wert des zweiten Schalttimers größer als oder gleich wie eine Schwelle TM2th ist oder nicht. Der Wert des zweiten Schalttimers ist größer als oder gleich wie die Schwelle TM2th, wenn die vorbestimmte Zeitperiode T2 verstreicht von dem Schalten des Verfahrens eines Spezifizierens der Position des Objekts zu dem Fusionsverfahren.
  • Wenn der Wert des zweiten Schalttimers geringer als die Schwelle TM2th ist, macht die CPU eine NEIN-Bestimmung in Schritt 560 und schreitet zu Schritt 543 fort, um den Bildschirm anzuzeigen, der zu der Zeit einer vorhergehenden Ausführung der vorliegenden Routine auf der Anzeige 20 angezeigt wird. Die CPU schreitet zu Schritt 595 fort, um zeitweise die vorliegende Routine abzuschließen. Das heißt, während die vorbestimmte Zeitperiode T2 (eine Zeitperiode entsprechend der Schwelle TM2th) verstreicht von dem Schalten des Verfahrens eines Spezifizierens der Position des Objekts zu dem Fusionsverfahren, führt die CPU die Prozesse von Schritt 570 und danach/darunter nicht aus, und eine Anzeige des Warnbildschirms 70 für das Objekt, dessen Position durch das Fusionsverfahren spezifiziert ist, wird verboten bzw. verhindert.
  • Der Grund, weshalb eine Anzeige des Warnbildschirms 70 für das Objekt, dessen Position durch das Fusionsverfahren spezifiziert ist, verboten bzw. verhindert wird unmittelbar nach dem Schalten des Verfahrens eines Spezifizierens der Position des Objekts zu dem Fusionsverfahren wird beschrieben. Die Distanz zwischen dem Objekt und dem Wirtsfahrzeug wird unmittelbar nach dem Schalten zu dem Fusionsverfahren spezifiziert basierend auf der zweiten Objektinformation. Bei dem Nur-Kamera-Verfahren wird die Distanz zwischen dem Objekt und dem Wirtsfahrzeug basierend auf der ersten Objektinformation spezifiziert. Daher wird die Distanz zwischen dem Objekt und dem Wirtsfahrzeug unmittelbar nach dem Schalten zu dem Fusionsverfahren von der vorhergehenden Distanz signifikant geändert, die basierend auf der ersten Objektinformation spezifiziert ist.
  • Entsprechend wird die Bewegungsrichtung des Objekts nicht korrekt berechnet, und die Genauigkeit eines Extrahierens des Hindernisses in Schritt 570 wird weiter verringert. Wenn das Verfahren eines Spezifizierens der Position des Objekts das Fusionsverfahren ist, kann die Relativgeschwindigkeit, die in der zweiten Objektinformation enthalten ist und die mit einer höheren Genauigkeit erfasst ist, als die Relativgeschwindigkeit des Objekts bezüglich des Wirtsfahrzeugs verwendet werden. Daher kann die Abstandszeitperiode TTC des Hindernisses korrekt berechnet werden. Entsprechend kann die Abstandszeitperiode TTC korrekt berechnet werden unmittelbar nach dem Schalten des Verfahrens eines Spezifizierens der Position des Objekts zu dem Fusionsverfahren. Jedoch gibt es, wie vorstehend beschrieben, da die Genauigkeit eines Extrahierens des Hindernisses weiter verringert wird, eine relativ hohe Wahrscheinlichkeit eines fehlerhafterweisen Bereitstellens einer Warnung unmittelbar nach dem Schalten des Verfahrens eines Spezifizierens der Position des Objekts zu dem Fusionsverfahren.
  • Daher wird, während die vorbestimmte Zeitperiode T2 verstreicht von dem Schalten des Verfahrens eines Spezifizierens der Position des Objekts zu dem Fusionsverfahren ein Hindernis in Schritt 570 in 5 nicht extrahiert, und der vorhergehende Bildschirm wird in Schritt 543 angezeigt.
  • Wenn der Wert des zweiten Schalttimers größer als oder gleich wie die Schwelle TM2th wird (d.h., wenn die vorbestimmte Zeitperiode T2 verstreicht von dem Zeitpunkt eines Schaltens des Verfahrens eines Spezifizierens der Position des Objekts zu dem Fusionsverfahren), macht die CPU eine JA-Bestimmung in Schritt 560 und schreitet zu Schritt 565 fort. In Schritt 565 stellt die CPU das Fusionsschalt-Flag auf „0“ ein und schreitet zu Schritt 570 und weiter/darunter fort. Folglich wird ein Hindernis basierend auf sowohl der ersten Objektinformation als auch der zweiten Objektinformation extrahiert, und die Abstandszeitperiode TTC des Hindernisses wird berechnet. Wenn ein Hindernis mit der berechneten Abstandszeitperiode TTC kleiner als oder gleich wie die Schwelle Tith präsent ist, wird der Warnbildschirm 70 angezeigt.
  • Wie vorstehend beschrieben verbietet bzw. verhindert die Vorrichtung gemäß dem vorliegenden Ausführungsbeispiel eine Anzeige eines neuen Warnbildschirms 70 und setzt eine Anzeige des vorhergehenden Bildschirms fort, während die vorbestimmte Zeitperiode T1 verstreicht von dem Schalten des Verfahrens eines Spezifizierens der Position des Objekts von dem Fusionsverfahren zu dem Nur-Kamera-Verfahren. Die Vorrichtung gemäß dem vorliegenden Ausführungsbeispiel verbietet bzw. verhindert eine Anzeige eines neuen Warnbildschirms 70 und setzt eine Anzeige des vorhergehenden Bildschirms fort, während die vorbestimmte Zeitperiode T2 verstreicht von dem Schalten des Verfahrens eines Spezifizierens der Position des Objekts von dem Nur-Kamera-Verfahren zu dem Fusionsverfahren. Entsprechend kann eine Anzeige eines inkorrekten Warnbildschirms 70 weiter verhindert werden, und es kann weiter verhindert werden, dass der Fahrer verwirrt wird.
  • Die vorbestimmte Zeitperiode T2 ist auf eine Zeitperiode eingestellt, in der eine „Änderung der Position des Objekts vor und nach einem Schalten des Verfahrens eines Spezifizierens der Position des Objekts“ die Berechnung der Bewegungsrichtung des Objekts nicht beeinflusst. In der Periode der vorbestimmten Zeitperiode T2, in der das Verfahren eines Spezifizierens der Position des Objekts das Fusionsverfahren ist, kann die Relativgeschwindigkeit des Objekts bezüglich des Wirtsfahrzeugs unmittelbar spezifiziert werden basierend auf der zweiten Objektinformation, die von dem Radarsensor 12 übertragen ist, ohne auf die Zeitseriendaten der Position des Objekts zurückzugreifen. Wenn das Verfahren eines Spezifizierens der Position des Objekts das Nur-Kamera-Verfahren ist, wird die Relativgeschwindigkeit des Objekts bezüglich des Wirtsfahrzeugs basierend auf den Zeitseriendaten der Position des Objekts berechnet. Daher sollte die vorbestimmte Zeitperiode T1 unter Berücksichtigung einer Zeitperiode eingestellt werden, in der die „Änderung der Position des Objekts vor und nach einem Schalten des Verfahrens eines Spezifizierens der Position des Objekts“ sowohl die Berechnung der „Bewegungsrichtung des Objekts“ als auch die Berechnung der „Relativgeschwindigkeit des Objekts bezüglich des Wirtsfahrzeugs“ nicht beeinflusst. Entsprechend wird die vorbestimmte Zeitperiode T1 als länger als die vorbestimmte Zeitperiode T2 eingestellt. Das heißt, die vorbestimmte Zeitperiode T2 wird als kürzer als die vorbestimmte Zeitperiode T1 eingestellt. Entsprechend wird, wenn das Verfahren eines Spezifizierens der Position des Objekts zu dem Fusionsverfahren geschaltet wird, der Warnbildschirm 70 unmittelbar angezeigt für das Objekt, dessen Position und Relativgeschwindigkeit durch ein Verfahren mit einer höheren Genauigkeit einer Erfassung spezifiziert sind.
  • Als nächstes werden Prozesse, die zu einer Zeit ta, einer Zeit t1, einer Zeit tb, einer Zeit t2, und einer Zeit tc wie in 4 veranschaulicht ausgeführt werden kurz beschrieben.
  • Zu einer Zeit ta ist das Verfahren eines Spezifizierens der Position des Objekts das Fusionsverfahren. Die erste Objektinformation und die zweite Objektinformation, die zu einer Zeit ta gelesen sind, erfüllen die Nur-Kamera-Startbedingung nicht, und weder das Nur-Kamera-Schalt-Flag noch das Fusionsschalt-Flag sind eingestellt.
  • In einem solchen Fall schreitet, wenn die CPU zu Schritt 515 in 5 fortschreitet, die CPU zu Schritt 605 in 6. Die CPU macht eine JA-Bestimmung in Schritt 605 und macht eine NEIN-Bestimmung in Schritt 610. Die CPU schreitet zu Schritt 615 fort, um die Position des Objekts unter Verwendung des Fusionsverfahrens zu spezifizieren. Dann führt die CPU den Schritt 520 und den Schritt 525 in 5 in dieser Reihenfolge aus und schreitet zu Schritt 530 fort.
  • In einem solchen Fall macht, da das Nur-Kamera-Schalt-Flag nicht eingestellt ist, die CPU eine NEIN-Bestimmung in Schritt 530 und schreitet zu Schritt 550 fort. Da das Fusionsschalt-Flag nicht eingestellt ist, macht die CPU eine NEIN-Bestimmung in Schritt 550 und schreitet zu Schritt 570 und danach fort. Folglich bestimmt basierend auf der durch das Fusionsverfahren erlangten Objektinformation die CPU, ob eine Warnung bereitgestellt werden sollte oder nicht (der Warnbildschirm 70 angezeigt werden sollte oder nicht), und stellt eine Warnung gemäß dem Bestimmungsergebnis bereit.
  • Bei dem in 4 veranschaulichten Beispiel ist die Nur-Kamera-Startbedingung erfüllt, wenn die Zeit t1 erreicht wird. In einem solchen Stadium ist das Verfahren eines Spezifizierens der Position des Objekts das Fusionsverfahren. Entsprechend schreitet, wenn die CPU zu Schritt 515 in 5 fortschreitet, die CPU zu Schritt 605 in 6 fort. Die CPU macht eine JA-Bestimmung in Schritt 605 und schreitet zu Schritt 610 fort. Die CPU macht eine JA-Bestimmung in Schritt 610, führt die Prozesse des Schritts 620 bis Schritt 635 durch, und schreitet zu Schritt 645 fort. Folglich wird die Information, die auf das Verfahren eines Spezifizierens der Position des Objekts hinweist, auf das Nur-Kamera-Verfahren eingestellt, und das Fusionsschalt-Flag wird auf „0“ eingestellt. Da das Fusionsschalt-Flag unmittelbar vor der Zeit t1 „0“ ist, wird der Prozess des Schritts 625 für Verifizierungszwecke durchgeführt. Das Nur-Kamera-Schalt-Flag ist auf „1“ eingestellt, und der erste Schalttimer wird initialisiert. Die Position des Objekts wird durch das Nur-Kamera-Verfahren spezifiziert. Folglich macht, wenn die CPU zu Schritt 520 und danach fortschreitet und zu Schritt 530 in 5 fortschreitet, die CPU eine JA-Bestimmung in Schritt 530 und schreitet zu Schritt 535 fort. In Schritt 535 erhöht die CPU den Wert des ersten Schalttimers um „1“ und schreitet zu Schritt 540 fort. Da die Nur-Kamera-Startbedingung gerade festgestellt ist zu der Zeit t1, verstreicht die vorbestimmte Zeitperiode T1 nicht von dem Schalten des Verfahrens eines Spezifizierens der Position des Objekts zu dem Nur-Kamera-Verfahren. Daher macht die CPU eine NEIN-Bestimmung in Schritt 540 und schreitet zu Schritt 543 fort, um den Warnbildschirm 70 anzuzeigen, der unmittelbar vor der Zeit t1 angezeigt wird.
  • Wenn die in 4 veranschaulichte Zeit tb erreicht wird, verstreicht die vorbestimmte Zeitperiode T1 von dem Schalten zu dem Nur-Kamera-Verfahren zu einer Zeit t1. Entsprechend inkrementiert die CPU den Wert des ersten Schalttimers um „1“ in Schritt 535 und schreitet zu Schritt 540 fort. Die CPU macht eine JA-Bestimmung in Schritt 540 und schreitet zu Schritt 550 über den Schritt 545 fort. Da das Fusionsschalt-Flag nicht auf „1“ eingestellt ist, macht die CPU eine NEIN Bestimmung in Schritt 550 und schreitet zu Schritt 570 und danach fort. Folglich bestimmt basierend auf der Objektinformation, die durch das Nur-Kamera-Verfahren erlangt ist, die CPU, ob eine Warnung bereitgestellt werden sollte oder nicht (der Warnbildschirm 70 angezeigt werden sollte oder nicht), und stellt eine Warnung gemäß dem Bestimmungsergebnis bereit.
  • Die Fusionsstartbedingung wird erfüllt, wenn eine in 4 veranschaulichte Zeit t2 erreicht wird. In einem solchen Zustand ist das Verfahren eines Spezifizierens der Position des Objekts das Nur-Kamera-Verfahren. Entsprechend schreitet, wenn die CPU zu Schritt 515 in 5 fortschreitet, die CPU zu Schritt 605 in 6 fort. Die CPU macht eine NEIN-Bestimmung in Schritt 605 und schreitet zu Schritt 640 fort. Die CPU macht eine JA-Bestimmung in Schritt 640, führt die Prozesse von Schritt 650 bis Schritt 665 durch, und schreitet zu Schritt 615 fort. Folglich wird die Information, die auf das Verfahren eines Spezifizierens der Position des Objekts hinweist, auf das Fusionsverfahren eingestellt, und das Nur-Kamera-Schalt-Flag wird auf „0“ eingestellt. Da das Nur-Kamera-Schalt-Flag unmittelbar vor der Zeit t2 „0“ ist, wird der Prozess des Schritts 655 für Verifizierungszwecke durchgeführt. Das Fusionsschalt-Flag ist auf „1“ eingestellt, und der zweite Schalttimer wird initialisiert. Die Position des Objekts wird mittels des Fusionsverfahrens spezifiziert. Folglich macht, wenn die CPU zu Schritt 520 und danach fortschreitet und zu Schritt 550 in 5 fortschreitet, die CPU eine JA-Bestimmung in Schritt 550 und schreitet zu Schritt 555 fort. In Schritt 555 inkrementiert die CPU den Wert des zweiten Schalttimers um „1“ und schreitet zu Schritt 560 fort. Da die Fusionsstartbedingung gerade festgestellt ist zu der Zeit t2 verstreicht die vorbestimmte Zeitperiode T2 nicht von dem Schalten des Verfahrens eines Spezifizierens der Position des Objekts zu dem Fusionsverfahren. Daher macht die CPU eine NEIN-Bestimmung in Schritt 560 und schreitet zu Schritt 543 fort, um den Warnbildschirm 70 anzuzeigen, der unmittelbar vor der Zeit t2 angezeigt ist.
  • Wenn eine Zeit tc, die in 4 veranschaulicht ist, erreicht wird, verstreicht die vorbestimmte Zeitperiode T2 von dem Schalten zu dem Fusionsverfahren zu einer Zeit t2. Entsprechend inkrementiert die CPU den Wert des zweiten Schalttimers um „1“ in Schritt 555 und schreitet zu Schritt 560 fort. Die CPU macht eine JA-Bestimmung in Schritt 560 und schreitet zu Schritt 570 und danach über Schritt 565 fort. Folglich bestimmt basierend auf der mittels des Fusionsverfahrens erlangten Objektinformation die CPU, ob eine Warnung vorgesehen werden sollte oder nicht (der Warnbildschirm 70 angezeigt werden sollte oder nicht), und sieht eine Warnung gemäß dem Bestimmungsergebnis vor.
  • Die vorliegende Erfindung ist nicht auf das Ausführungsbeispiel beschränkt und kann verschiedene Modifizierungsbeispiele innerhalb des Bereichs der vorliegenden Erfindung einsetzen. Beispielsweise kann die vorbestimmte Zeitperiode T1, wenn das Verfahren eines Spezifizierens der Position des Objekts von dem Fusionsverfahren zu dem Nur-Kamera-Verfahren geschaltet wird, die selbe Zeitperiode wie die vorbestimmte Zeitperiode T2 sein, wenn das Verfahren eines Spezifizierens der Position des Objekts von dem Nur-Kamera-Verfahren zu dem Fusionsverfahren geschaltet wird.
  • Das Sichtlinienleitbildzeichen 71 kann jegliches Design bzw. jegliche Gestaltung aufweisen, solange es jede Funktion eines Leitens eines Fahrers Sichtlinie wie vorstehend beschrieben aufweist.
  • In Schritt 570 kann, wenn die CPU ein Hindernis aus Objekten, die durch den Frontradarsensor 12C erfasst sind, extrahiert, die CPU ein Objekt extrahieren, das „innerhalb des Vorhersagefortbewegungskursbereichs ist oder für das vorhergesehen ist, dass es in den Vorhersagefortbewegungskursbereich eintritt und sich mit dem Spitzenendbereich des Wirtsfahrzeugs überschneidet“ als ein Hindernis extrahieren, unabhängig davon, ob das Objekt ein Fußgänger ist oder nicht.

Claims (7)

  1. Fahrzeugseitige Warnvorrichtung, mit einem Kamerasensor (11), der dazu eingerichtet ist, um ein Bild eines Bereichs um ein Wirtsfahrzeug herum aufzunehmen und um einen Azimut eines Objekts bezüglich des Wirtsfahrzeugs und eine Distanz zwischen dem Objekt und dem Wirtsfahrzeug basierend auf dem aufgenommenen Bild zu erfassen, einem Radarsensor (12C, 12L, 12R), der dazu eingerichtet ist, um eine elektrische Welle zu dem Bereich um das Wirtsfahrzeug herum auszustrahlen, eine reflektierte Welle der elektrischen Welle zu empfangen, und um den Azimut des Objekts bezüglich des Wirtsfahrzeugs und die Distanz zwischen dem Objekt und dem Wirtsfahrzeug basierend auf der reflektierten Welle zu erfassen, einer Anzeigeeinheit (20), auf der ein Warnbildschirm (70), der eines Fahrers Sichtlinie leitet, angezeigt wird, und einer elektronischen Steuereinheit (10), die dazu eingerichtet ist, um eine Position und eine Relativgeschwindigkeit des Objekts durch selektives Verwenden eines aus einem Fusionsverfahren und einem Nur-Kamera-Verfahren zu spezifizieren, wobei das Fusionsverfahren die Position des Objekts durch Spezifizieren des Azimuts des Objekts bezüglich des Wirtsfahrzeugs basierend auf erster Objektinformation und durch Spezifizieren der Distanz zwischen dem Objekt und dem Wirtsfahrzeug basierend auf zweiter Objektinformation spezifiziert und die Relativgeschwindigkeit, die eine Geschwindigkeit des Objekts bezüglich des Wirtsfahrzeugs ist, basierend auf der zweiten Objektinformation spezifiziert, wobei das Nur-Kamera-Verfahren die Position des Objekts durch Spezifizieren des Azimuts des Objekts bezüglich des Wirtsfahrzeugs und durch Spezifizieren der Distanz zwischen dem Objekt und dem Wirtsfahrzeug basierend auf der ersten Objektinformation spezifiziert und die Relativgeschwindigkeit basierend auf der spezifizierten Distanz berechnet, wobei die erste Objektinformation Information bezüglich des Azimuts des Objekts bezüglich des Wirtsfahrzeugs und der Distanz zwischen dem Objekt und dem Wirtsfahrzeug, die durch den Kamerasensor (11) erfasst sind, umfasst, und die zweite Objektinformation Information bezüglich des Azimuts des Objekts bezüglich des Wirtsfahrzeugs und der Distanz zwischen dem Objekt und dem Wirtsfahrzeug, die durch den Radarsensor (12C, 12L, 12R) erfasst sind, umfasst, Fahrzeugstatusinformation bezüglich eines Fortbewegungsstatusses des Wirtsfahrzeugs zu erlangen, ein Hindernis mit einer relativ hohen Wahrscheinlichkeit eines Kollidierens mit dem Wirtsfahrzeug basierend auf zumindest einer aus der spezifizierten Position des Objekts und einer Bewegungsrichtung des Objekts abhängig von einer Änderung der Position des Objekts zu extrahieren, eine Abstandszeitperiode, in der das extrahierte Hindernis einen Spitzenendbereich einschließlich eines Frontendenabschnitts des Wirtsfahrzeugs erreicht, basierend auf der spezifizierten Distanz zwischen dem Objekt und dem Wirtsfahrzeug und der spezifizierten Relativgeschwindigkeit zu berechnen, und einen Bildschirm, der eines Fahrers Sichtlinie in eine Richtung des Hindernisses mit der Abstandszeitperiode geringer als oder gleich wie eine Schwelle leitet, als den Warnbildschirm (70) auf der Anzeigeeinheit (20) anzuzeigen, wobei die elektronische Steuereinheit (10) dazu eingerichtet ist, um ein Verfahren eines Spezifizierens der Position und der Relativgeschwindigkeit des Objekts von dem Nur-Kamera-Verfahren zu dem Fusionsverfahren zu schalten, wenn die erste Objektinformation und die zweite Objektinformation eine erste Bedingung erfüllen bei einem Spezifizieren der Position und der Relativgeschwindigkeit des Objekts unter Verwendung des Nur-Kamera-Verfahrens, und um das Verfahren eines Spezifizierens der Position und der Relativgeschwindigkeit des Objekts von dem Fusionsverfahren zu dem Nur-Kamera-Verfahren zu schalten, wenn die erste Objektinformation und die zweite Objektinformation eine zweite Bedingung erfüllen bei einem Spezifizieren der Position und der Relativgeschwindigkeit des Objekts unter Verwendung des Fusionsverfahrens, und die elektronische Steuereinheit (10) dazu eingerichtet ist, um eine Anzeige des Warnbildschirms (70) für das Objekt, dessen Position und Relativgeschwindigkeit unter Verwendung des Nur-Kamera-Verfahrens spezifiziert sind, zu verbieten während eine erste vorbestimmte Zeitperiode verstreicht von einem Zeitpunkt eines Schaltens des Verfahrens eines Spezifizierens der Position und der Relativgeschwindigkeit des Objekts von dem Fusionsverfahren zu dem Nur-Kamera-Verfahren, und um eine Anzeige des Warnbildschirms (70) für das Objekt, dessen Position und Relativgeschwindigkeit unter Verwendung des Fusionsverfahrens spezifiziert sind, zu verbieten während eine zweite vorbestimmte Zeitperiode verstreicht von einem Zeitpunkt eines Schaltens des Verfahrens eines Spezifizierens der Position und der Relativgeschwindigkeit des Objekts von dem Nur-Kamera-Verfahren zu dem Fusionsverfahren.
  2. Fahrzeugseitige Warnvorrichtung nach Anspruch 1, wobei die elektronische Steuereinheit (10) dazu eingerichtet ist, um die zweite vorbestimmte Zeitperiode auf eine kürzere Zeitperiode als die erste vorbestimmte Zeitperiode einzustellen.
  3. Fahrzeugseitige Warnvorrichtung nach Anspruch 1 oder 2, wobei die erste Bedingung jene ist, dass eine Differenz größer als eine erlaubbare Differenz zwischen einem Erfassungsergebnis der ersten Objektinformation und einem Erfassungsergebnis der zweiten Objektinformation beseitigt ist, und die zweite Bedingung jene ist, dass eine Differenz größer als die erlaubbare Differenz zwischen dem Erfassungsergebnis der ersten Objektinformation und dem Erfassungsergebnis der zweiten Objektinformation erzeugt ist.
  4. Fahrzeugseitige Warnvorrichtung nach Anspruch 3, wobei wenn ein neues Objekt in der zweiten Objektinformation erfasst ist, und die Position des Objekts, die durch die zweite Objektinformation angedeutet ist, innerhalb einer vorbestimmten Spanne von der Position des Objekts, das in der ersten Objektinformation erfasst ist, liegt, die erste Bedingung erfüllt ist, und wenn die Differenz größer als die erlaubbare Differenz zwischen dem Erfassungsergebnis der ersten Objektinformation und dem Erfassungsergebnis der zweiten Objektinformation erzeugt ist, die zweite Bedingung erfüllt ist.
  5. Fahrzeugseitige Warnvorrichtung nach Anspruch 4, wobei die erste Bedingung jene ist, dass eine Differenz zwischen einer Relativdistanz des Objekts, das durch den Kamerasensor (11) erfasst ist, und der Relativdistanz des selben Objekts, das durch den Radarsensor (12C, 12L, 12R) erfasst ist, geringer als eine Schwellendistanz ist, und dass eine Differenz zwischen dem Azimut des Objekts, das durch den Kamerasensor (11) erfasst ist, und dem Azimut des selben Objekts, das durch den Radarsensor (12C, 12L, 12R) erfasst ist, geringer als ein Schwellenwinkel ist.
  6. Fahrzeugseitige Warnvorrichtung nach Anspruch 4, wobei die zweite Bedingung eine Bedingung ist, die festgestellt ist, wenn zumindest eines aus i) das in der ersten Objektinformation erfasste Objekt ist nicht in der zweiten Objektinformation erfasst, und ii) die Position des in der ersten Objektinformation erfassten Objekts und die Position des in der zweiten Objektinformation erfassten Objekts sind nicht innerhalb der vorbestimmten Spanne, festgestellt ist.
  7. Verfahren eines Steuerns einer fahrzeugseitigen Warnvorrichtung einschließlich eines Kamerasensors (11), der dazu eingerichtet ist, um ein Bild eines Bereichs um ein Wirtsfahrzeug herum aufzunehmen und einen Azimut eines Objekts bezüglich des Wirtsfahrzeugs und eine Distanz zwischen dem Objekt und dem Wirtsfahrzeug basierend auf dem aufgenommenen Bild zu erfassen, eines Radarsensors (12C, 12L, 12R), der dazu eingerichtet ist, um eine elektrische Welle zu dem Bereich um das Wirtsfahrzeug herum auszustrahlen, eine reflektierte Welle der elektrischen Welle zu empfangen, und den Azimut des Objekts bezüglich des Wirtsfahrzeugs und die Distanz zwischen dem Objekt und dem Wirtsfahrzeug basierend auf der reflektierten Welle zu erfassen, einer Anzeigeeinheit (20), auf der ein Warnbildschirm (70), der eines Fahrers Sichtlinie leitet, angezeigt wird, und einer elektronischen Steuereinheit (10), wobei das Verfahren umfasst ein Spezifizieren einer Position und einer Relativgeschwindigkeit des Objekts durch selektives Verwenden eines aus einem Fusionsverfahren und einem Nur-Kamera-Verfahren, wobei das Fusionsverfahren die Position des Objekts durch Spezifizieren des Azimuts des Objekts bezüglich des Wirtsfahrzeugs basierend auf erster Objektinformation und Spezifizieren der Distanz zwischen dem Objekt und dem Wirtsfahrzeug basierend auf zweiter Objektinformation spezifiziert und die Relativgeschwindigkeit, die eine Geschwindigkeit des Objekts bezüglich des Wirtsfahrzeugs ist, basierend auf der zweiten Objektinformation spezifiziert, wobei das Nur-Kamera-Verfahren die Position des Objekts durch Spezifizieren des Azimuts des Objekts bezüglich des Wirtsfahrzeugs und Spezifizieren der Distanz zwischen dem Objekt und dem Wirtsfahrzeug basierend auf der ersten Objektinformation spezifiziert und die Relativgeschwindigkeit basierend auf der spezifizierten Distanz berechnet, wobei die erste Objektinformation Information bezüglich des Azimuts des Objekts bezüglich des Wirtsfahrzeugs und der Distanz zwischen dem Objekt und dem Wirtsfahrzeug, die durch den Kamerasensor (11) erfasst sind, umfasst, und wobei die zweite Objektinformation Information bezüglich des Azimuts des Objekts bezüglich des Wirtsfahrzeugs und der Distanz zwischen dem Objekt und dem Wirtsfahrzeug, die durch den Radarsensor (12C, 12L, 12R) erfasst sind, umfasst, ein Erlangen von Fahrzeugstatusinformation bezüglich eines Fortbewegungsstatusses des Wirtsfahrzeugs, ein Extrahieren eines Hindernisses mit einer relativ hohen Wahrscheinlichkeit eines Kollidierens mit dem Wirtsfahrzeug basierend auf zumindest einem aus der spezifizierten Position des Objekts und einer Bewegungsrichtung des Objekts abhängig von einer Änderung der Position des Objekts, ein Berechnen einer Abstandszeitperiode, in der das extrahierte Hindernis einen Spitzenendbereich einschließlich eines Vorderendabschnitts des Wirtsfahrzeugs erreicht, basierend auf der spezifizierten Distanz zwischen dem Objekt und dem Wirtsfahrzeug und der spezifizierten Relativgeschwindigkeit, ein Anzeigen eines Bildschirms, der eines Fahrers Sichtlinie in eine Richtung des Hindernisses mit der Abstandszeitperiode geringer als oder gleich wie eine Schwelle leitet, als den Warnbildschirm (70) auf der Anzeigeeinheit (20), ein Schalten eines Verfahrens eines Spezifizierens der Position und der Relativgeschwindigkeit des Objekts von dem Nur-Kamera-Verfahren zu dem Fusionsverfahren, wenn die erste Objektinformation und die zweite Objektinformation eine erste Bedingung bei einem Spezifizieren der Position und der Relativgeschwindigkeit des Objekts unter Verwendung des Nur-Kamera-Verfahrens erfüllen, und ein Schalten des Verfahrens eines Spezifizierens der Position und der Relativgeschwindigkeit des Objekts von dem Fusionsverfahren zu dem Nur-Kamera-Verfahren, wenn die erste Objektinformation und die zweite Objektinformation eine zweite Bedingung bei einem Spezifizieren der Position und der Relativgeschwindigkeit des Objekts unter Verwendung des Fusionsverfahrens erfüllen, ein Verbieten einer Anzeige des Warnbildschirms (70) für das Objekt, dessen Position und Relativgeschwindigkeit unter Verwendung des Nur-Kamera-Verfahrens spezifiziert sind, während eine erste vorbestimmte Zeitperiode verstreicht von einem Zeitpunkt eines Schaltens des Verfahrens eines Spezifizierens der Position und der Relativgeschwindigkeit des Objekts von dem Fusionsverfahren zu dem Nur-Kamera-Verfahren, und ein Verbieten einer Anzeige des Warnbildschirms (70) für das Objekt, dessen Position und Relativgeschwindigkeit unter Verwendung des Fusionsverfahrens spezifiziert sind, während eine zweite vorbestimmte Zeitperiode verstreicht von einem Zeitpunkt eines Schaltens des Verfahrens eines Spezifizierens der Position und der Relativgeschwindigkeit des Objekts von dem Nur-Kamera-Verfahren zu dem Fusionsverfahren.
DE102017131183.1A 2016-12-26 2017-12-22 Fahrzeugseitige Warnvorrichtung und Verfahren einer Steuerung einer fahrzeugseitigen Warnvorrichtung Active DE102017131183B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016250556A JP6500887B2 (ja) 2016-12-26 2016-12-26 車両用注意喚起装置
JP2016-250556 2016-12-26

Publications (2)

Publication Number Publication Date
DE102017131183A1 DE102017131183A1 (de) 2018-06-28
DE102017131183B4 true DE102017131183B4 (de) 2023-06-22

Family

ID=62510415

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017131183.1A Active DE102017131183B4 (de) 2016-12-26 2017-12-22 Fahrzeugseitige Warnvorrichtung und Verfahren einer Steuerung einer fahrzeugseitigen Warnvorrichtung

Country Status (4)

Country Link
US (1) US10124812B2 (de)
JP (1) JP6500887B2 (de)
CN (1) CN108237998B (de)
DE (1) DE102017131183B4 (de)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7190820B2 (ja) * 2018-04-02 2022-12-16 パナソニックホールディングス株式会社 侵入検知システムおよび侵入検知方法
US10532697B2 (en) 2018-06-14 2020-01-14 International Business Machines Corporation Augmented reality-based roadside content viewing within primary field of view
CN109255857A (zh) * 2018-08-23 2019-01-22 江苏罗思韦尔电气有限公司 一种带安全预警功能的记录仪
CN109087485B (zh) * 2018-08-30 2021-06-08 Oppo广东移动通信有限公司 驾驶提醒方法、装置、智能眼镜及存储介质
DE112018007659T5 (de) * 2018-09-05 2021-03-18 Intel Corporation Objekterkennung und -verfolgung für autonomes fahren unter nutzung von schatten und reflexionen
JP6930512B2 (ja) * 2018-10-19 2021-09-01 株式会社デンソー 物体検知装置、物体検知方法およびプログラム
CN109490825B (zh) * 2018-11-20 2021-02-09 武汉万集信息技术有限公司 定位导航方法、装置、设备、系统及存储介质
US11143599B2 (en) 2018-12-03 2021-10-12 Mistras Group, Inc. Systems and methods for inspecting pipelines using a pipeline inspection robot
US10783623B2 (en) * 2018-12-03 2020-09-22 Mistras Group, Inc. Systems and methods for inspecting pipelines using a robotic imaging system
US10890505B2 (en) 2018-12-03 2021-01-12 Mistras Group, Inc. Systems and methods for inspecting pipelines using a robotic imaging system
US10930155B2 (en) * 2018-12-03 2021-02-23 Continental Automotive Systems, Inc. Infrastructure sensor detection and optimization method
JP7185547B2 (ja) * 2019-02-07 2022-12-07 株式会社デンソー 車両検出装置
JP6933677B2 (ja) * 2019-03-07 2021-09-08 本田技研工業株式会社 車両制御装置、車両制御方法、車両およびプログラム
US12056922B2 (en) * 2019-04-26 2024-08-06 Samsara Inc. Event notification system
US11080568B2 (en) 2019-04-26 2021-08-03 Samsara Inc. Object-model based event detection system
US11787413B2 (en) 2019-04-26 2023-10-17 Samsara Inc. Baseline event detection system
CN111923898B (zh) * 2019-05-13 2022-05-06 广州汽车集团股份有限公司 障碍物检测方法及装置
JP2021018262A (ja) * 2019-07-17 2021-02-15 豊田合成株式会社 ディスプレイパネル
CN113220137A (zh) * 2020-02-04 2021-08-06 奥迪股份公司 移动电子设备辅助使用系统、车辆及相应的方法和介质
US20230159046A1 (en) * 2020-04-06 2023-05-25 Adam Cogtech Ltd Generation and Presentation of Stimuli
CN112109730A (zh) * 2020-06-10 2020-12-22 上汽通用五菱汽车股份有限公司 基于交互数据的提醒方法、车辆及可读存储介质
EP3932719B1 (de) * 2020-07-03 2024-04-24 Honda Research Institute Europe GmbH Verfahren zur unterstützung eines benutzers eines assistenzsystems, assistenzsystem und fahrzeug mit einem solchen system
CN113723282B (zh) * 2021-08-30 2024-03-22 上海商汤临港智能科技有限公司 车辆行驶提示方法、装置、电子设备以及存储介质
CN114460585A (zh) * 2021-12-31 2022-05-10 惠州华阳通用智慧车载系统开发有限公司 一种超声波雷达测距方法及装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005084034A (ja) 2003-09-11 2005-03-31 Toyota Motor Corp 物体検出装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4595833B2 (ja) * 2006-02-24 2010-12-08 トヨタ自動車株式会社 物体検出装置
JP4561674B2 (ja) * 2006-03-30 2010-10-13 株式会社デンソー 物体検出装置
US9723274B2 (en) * 2011-04-19 2017-08-01 Ford Global Technologies, Llc System and method for adjusting an image capture setting
US9365162B2 (en) * 2012-08-20 2016-06-14 Magna Electronics Inc. Method of obtaining data relating to a driver assistance system of a vehicle
US9511634B2 (en) * 2014-10-30 2016-12-06 Elwha Llc Systems and methods for anticipatory tire pressure control
JP6248950B2 (ja) * 2015-01-13 2017-12-20 トヨタ自動車株式会社 車両用表示装置および車両用表示方法
US9452732B1 (en) * 2015-03-30 2016-09-27 Ford Global Technologies, Llc Vehicle key off load reduction via off-board sensor
WO2016204213A1 (ja) * 2015-06-16 2016-12-22 株式会社デンソー 車両制御装置、及び車両制御方法
US10059261B2 (en) * 2015-11-24 2018-08-28 Thunder Power New Energy Vehicle Development Company Limited Collision warning system
US9840254B2 (en) * 2015-12-31 2017-12-12 Sony Corporation Method and system for adaptive detection and application of horn for an autonomous vehicle

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005084034A (ja) 2003-09-11 2005-03-31 Toyota Motor Corp 物体検出装置

Also Published As

Publication number Publication date
JP2018106334A (ja) 2018-07-05
DE102017131183A1 (de) 2018-06-28
CN108237998B (zh) 2020-03-24
US20180178811A1 (en) 2018-06-28
CN108237998A (zh) 2018-07-03
JP6500887B2 (ja) 2019-04-17
US10124812B2 (en) 2018-11-13

Similar Documents

Publication Publication Date Title
DE102017131183B4 (de) Fahrzeugseitige Warnvorrichtung und Verfahren einer Steuerung einer fahrzeugseitigen Warnvorrichtung
DE102017131125B4 (de) Fahrzeuginterne Alarmvorrichtung
US10710502B2 (en) In-vehicle alert apparatus and alert method
DE102017131118B4 (de) Fahrassistenzvorrichtung
CN108694860B (zh) 注意提醒装置
DE102015210066B4 (de) Fahrunterstützungsvorrichtung
DE102016200018B4 (de) Fahrzeugfortbewegungssteuereinrichtung
DE102016209619B4 (de) Umgebungsüberwachungsvorrichtung und fahrassistenzvorrichtung
DE102015226715B4 (de) Kollisionsverhinderungsunterstützungseinrichtung
DE112008004159B4 (de) Objekterfassungsvorrichtung und Objekterfassungsverfahren
DE102015210069A1 (de) Fahrunterstützungsvorrichtung
DE112010005977B4 (de) Strassenformschätzvorrichtung
DE102015219551B4 (de) Objekterfassungsvorrichtung
US20160350606A1 (en) Driving assistance apparatus and driving assistance method
DE112017001417B4 (de) Fahrzeugvorrichtung
DE112017004333B4 (de) Umgebungsüberwachvorrichtung und Umgebungsüberwachverfahren
DE112015005377T5 (de) Fahrzeugfahrtregelungsvorrichtung und fahrzeugfahrtregelungsverfahren
JP6696939B2 (ja) 周辺画像表示制御装置
DE112015004817T5 (de) Hinderniswarnvorrichtung
DE112010005903B4 (de) Objekterfassungsvorrichtung und Objekterfassungsprogramm
DE102014103577B4 (de) Fahrzeugvorrichtung
DE102016122478A1 (de) Fahrunterstützungsvorrichtung
DE112017005802T5 (de) Kollisionsbestimmungsapparat und Kollisionsbestimmungsverfahren
DE102016223989A1 (de) Fahrassistenzvorrichtung und programm
DE102006060456B4 (de) Verfahren und System zum Lenken eines Fahrzeugs in eine Parklücke

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R084 Declaration of willingness to licence