DE102015209112A1 - Objekterkennungsvorrichtung und Fahrzeug - Google Patents

Objekterkennungsvorrichtung und Fahrzeug Download PDF

Info

Publication number
DE102015209112A1
DE102015209112A1 DE102015209112.0A DE102015209112A DE102015209112A1 DE 102015209112 A1 DE102015209112 A1 DE 102015209112A1 DE 102015209112 A DE102015209112 A DE 102015209112A DE 102015209112 A1 DE102015209112 A1 DE 102015209112A1
Authority
DE
Germany
Prior art keywords
target
100tar
vehicle
target object
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102015209112.0A
Other languages
English (en)
Inventor
Yoji Sasabuchi
Takuya KASHIKI
Yoshitaka KIJIMA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of DE102015209112A1 publication Critical patent/DE102015209112A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/34Protecting non-occupants of a vehicle, e.g. pedestrians
    • B60R21/38Protecting non-occupants of a vehicle, e.g. pedestrians using means for lifting bonnets
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/02Control of vehicle driving stability
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/801Lateral distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/18Braking system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/20Steering systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)

Abstract

In einer Objekterkennungsvorrichtung (12) oder einem damit ausgestatteten Fahrzeug (10) wird ein erster Zielbereich (116) zur Bewertung, ob ein Zielobjekt (100tar) als Ziel einer Verhaltensunterstützungsaktion behandelt werden soll, als ein Abschnitt einer ersten Erfassungsregion (106r) gesetzt und wird ein zweiter Zielbereich (118) zur Bewertung, ob das Zielobjekt (100tar) als das Ziel der Verhaltensunterstützungsaktion behandelt werden soll, als ein Abschnitt einer zweiten Erfassungsregion (106r) gesetzt. Wenn die Position eines ersten Umgebungsobjekts, wie etwa eines Radarziels, innerhalb des ersten Zielbereichs (116) liegt und die Position eines zweiten Umgebungsobjekts, wie etwa eines Kameraziels, innerhalb eines zweiten Zielbereichs (118) liegt, wird das Zielobjekt (100tar) als das Ziel der Verhaltensunterstützungsaktion behandelt.

Description

  • HINTERGRUND DER ERFINDUNG
  • Gebiet der Erfindung:
  • Die vorliegende Erfindung betrifft eine Objekterkennungsvorrichtung zum Erkennen eines Umgebungsobjekts, das sich in der Umgebung eines mobilen Objekts befindet, sowie ein Fahrzeug, das mit einer solchen Objekterkennungsvorrichtung ausgestattet ist.
  • Beschreibung der verwandten Technik:
  • Mit dem Fahrzeugfahrunterstützungssystem, das in der US-Patentanmeldungsschrift Nr. 2007/0168128 (nachfolgend als „US 2007/0168128 A1” bezeichnet) offenbart ist, wird auf ein von einem Millimeterwellenradar 21 erhaltenes Hinderniserfassungsergebnis ein von einem Bilderkennungsmittel 22 erhaltenes Hinderniserfassungsergebnis Bezug genommen, und es wird eine Verzweigungsoperation durchgeführt zwischen einem Fall, in dem sowohl das Millimeterwellenradar 21 als auch das Bilderkennungsmittel 22 ein Hindernis erfassen, und einem Fall, in dem nur entweder das Millimeterwellenradar 21 oder das Bilderkennungsmittel 22 das Hindernis erfasst. Indem darüber hinaus die Anfangsbedingungen der Fahrunterstützungssteuerung entsprechend dem Verzweigungsergebnis modifiziert werden, wird eine Unterstützungssteuerung implementiert, die auf die Aufmerksamkeit oder Unaufmerksamkeit des Fahrers anspricht (Zusammenfassung, 5). Im Hinblick auf den Fall, in dem sowohl das Millimeterwellenradar 21 als auch das Bilderkennungsmittel 22 das Hindernis erfassen, wird in der US 2007/0168128 A1 erläutert, dass, falls das Hindernis von sowohl dem Millimeterwellenradar als auch dem Bilderkennungsmittel erfasst wird, eine hohe Wahrscheinlichkeit besteht, dass das Objekt korrekt erfasst worden ist, und daher wird die Unterstützungssteuerung mit normaler Zeitgebung implementiert (Absatz [0083]).
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Wie oben beschrieben besteht, gemäß der US 2007/0168128 A1 in dem Fall, dass ein Hinderniserfassungsergebnis jeweils von sowohl dem Millimeterwellenradar als auch dem Bilderkennungsmittel erhalten werden kann, eine hohe Wahrscheinlichkeit, dass das Objekt korrekt erfasst worden ist, und die Unterstützungssteuerung mit normaler Zeitgebung implementiert (Absatz [0083]). Jedoch können auch in Fällen, wo sowohl durch das Millimeterwellenradar als auch das Bilderkennungsmittel jeweils ein Hindernis erfasst wird, gemäß den Erfassungsbedinungen davon, der Genauigkeitsgrad bei der Auswahl oder der Bestimmung Vorhandenseins des Zielobjekts Veränderungen unterliegen. Bei der US 2007/0168128 A1 sind in Bezug auf diesen Punkt keine Untersuchungen vorgenommen worden und daher bleibt Raum für Verbesserungen.
  • Die vorliegende Erfindung ist auf die zuvor genannten Probleme abgezielt worden, und hat zur Aufgabe, eine Objekterkennungsvorrichtung und ein diese enthaltendes Fahrzeug anzugeben, die in der Lage ist, die Genauigkeit bei der Auswahl eines Zielobjekts oder die Genauigkeit bei der Bestimmung des Vorhandenseins eines Zielobjekts zu verbessern, oder die in der Lage ist, in geeigneter Weise einen Pegel für eine Verhaltensunterstützungsaktion geeignet zu setzen.
  • Eine Objekterkennungsvorrichtung gemäß der vorliegenden Erfindung ist gekennzeichnet durch eine erste Erfassungsvorrichtung, die konfiguriert ist, um erste Positionsinformation zu erfassen, die eine Position eines ersten Umgebungsobjekts angibt, das innerhalb einer ersten Erfassungsregion existiert, die in der Umgebung eines mobilen Objekts erstellt ist; eine zweite Erfassungsvorrichtung, die konfiguriert ist, um zweite Positionsinformation zu erfassen, die eine Position eines zweiten Umgebungsobjekts angibt, das innerhalb einer zweiten Erfassungsregion existiert, wobei die zweite Erfassungsregion mit der Gesamtheit oder einem Abschnitt der ersten Erfassungsregion überlappt; eine Zielobjektsetzvorrichtung, die konfiguriert ist, um ein Zielobjekt durch Vergleich des ersten Umgebungsobjekts mit dem zweiten Umgebungsobjekt unter Verwendung der ersten Positionsinformation und der zweite Positionsinformation zu setzen; und eine Verhaltensunterstützungs-Steuervorrichtung, die konfiguriert ist, um eine Verhaltensunterstützungsaktion des mobilen Objekts in Bezug auf das Zielobjekt zu steuern/regeln. Die Verhaltensunterstützungs-Steuervorrichtung ist konfiguriert zum Setzen eines ersten Zielbereichs, der zur Bewertung verwendet wird, ob das Zielobjekt als Ziel der Verhaltensunterstützungsaktion behandelt werden soll oder nicht, als Abschnitt der ersten Erfassungsregion; und Setzen eines zweiten Zielbereichs, der zur Bewertung verwendet wird, ob das Zielobjekt als das Ziel der Verhaltensunterstützungsaktion behandelt werden soll oder nicht, als Abschnitt der zweiten Erfassungsregion. Wenn die Position des ersten Umgebungsobjekts innerhalb des ersten Zielbereichs existiert und die Position des zweiten Umgebungsobjekts innerhalb des zweiten Zielbereichs liegt, wird das Zielobjekt als Ziel der Verhaltensunterstützungsaktion behandelt. Wenn die Position des ersten Umgebungsobjekts nicht innerhalb des ersten Zielbereichs liegt oder die Position des zweiten Umgebungsobjekts nicht innerhalb des zweiten Zielbereichs liegt, wird das Zielobjekt als Ziel der Verhaltensunterstützungsaktion beseitigt, oder wird die Verhaltensunterstützungsaktion in Bezug auf das Zielobjekt unterdrückt.
  • Wenn gemäß der vorliegenden Erfindung die Position des ersten Umgebungsobjekts innerhalb des erste Zielbereichs liegt, und die Position des zweiten Umgebungsobjekts innerhalb des zweiten Zielbereichs liegt, wird das Zielobjekt als Ziel der Verhaltensunterstützungsaktion behandelt. Falls ferner die Position des ersten Umgebungsobjekts nicht innerhalb des ersten Zielbereichs liegt oder die Position des zweiten Umgebungsobjekts nicht innerhalb des zweiten Zielbereichs liegt, wird das Zielobjekt als das Ziel der Verhaltensunterstützungsaktion entfernt, oder wird die Verhaltensunterstützungsaktion in Bezug auf das Zielobjekt unterdrückt. Der erste Zielbereich wird als Abschnitt der ersten Erfassungsregion (in anderen Worten, als den Bereich, der schmaler ist als die erste Erfassungsregion) der ersten Erfassungsvorrichtung gesetzt. Der zweite Zielbereich wird als Abschnitt der zweiten Erfassungsregion (oder in anderen Worten, als Bereich, der schmaler ist als die zweite Erfassungsregion) der zweiten Erfassungsvorrichtung gesetzt.
  • Demzufolge kann durch Verwendung der Zielbereiche, die beide jeweils für die erste Erfassungsvorrichtung und die zweite Erfassungsvorrichtung geeignet sind, bestimmt werden, ob das Zielobjekt als Ziel der Verhaltensunterstützungsaktion behandelt werden soll oder nicht, oder ob die Verhaltensunterstützungsaktion unterdrückt werden soll oder nicht. Dementsprechend kann eine Auswahl des Zielobjekts oder eine Bestimmung des Vorhandenseins eines Zielobjekts als Ziel der Verhaltensunterstützungsaktion mit hoher Genauigkeit durchgeführt werden, oder kann das Setzen eines Pegels für eine Verhaltensunterstützungsaktion geeignet durchgeführt werden.
  • Wenn z. B. die erste Erfassungsvorrichtung ein Radar ist und die zweite Erfassungsvorrichtung eine Kamera ist, könnte die Verhaltensunterstützungsvorrichtung den ersten Zielbereich schmaler einstellen als den zweiten Zielbereich.
  • Gemäß diesem Merkmal wird der auf dem Radar beruhende erste Zielbereich als ein Bereich gesetzt, der schmaler ist als die erste Erfassungsregion des Radars, und wird der auf der Kamera beruhende zweite Zielbereich als ein Bereich gesetzt, der schmaler ist als die zweite Erfassungsregion der Kamera. Allgemein ist das Radar bei der Rändererfassung eines Objekts leistungsschwach. Falls ferner das mobile Objekt ein seitlich orientiertes Fahrzeug ist, besteht, basierend auf Straßenhindernissen, wie etwa Bordsteinen oder dgl., reflektierten Wellen, eine Möglichkeit, dass solche Hindernisse irrtümlich als Zielobjekte erkannt werden. Gemäß der vorliegenden Erfindung wird der auf dem Radar beruhende erste Zielbereich relativ schmal eingestellt, wohingegen der auf der Kamera beruhende zweite Zielbereich relativ breit eingestellt wird. Demzufolge kann unter Verwendung des Erfassungsergebnisses der Kamera in Bezug auf Bereiche, wo das Radar leistungsschwach ist, die Auswahl eines Zielobjekts oder die Bestimmung des Vorhandenseins eines Zielobjekts als Objekt der Verhaltensunterstützungsaktion mit hoher Genauigkeit durchgeführt werden, oder kann das Setzen eines Pegels einer Verhaltensunterstützungsaktion geeignet durchgeführt werden.
  • Die Verhaltensunterstützungs-Steuervorrichtung kann das Zielobjekt als das Ziel der Verhaltensunterstützungsaktion behandeln, wenn die Position des ersten Umgebungsobjekts innerhalb des ersten Zielbereichs liegt, und ein Bildmerkmal des zweiten Umgebungsobjekts vollständig innerhalb des zweiten Zielbereichs existiert. Gemäß diesem Merkmal kann, durch Behandeln eines Zielobjekts, dessen Gesamtheit von der Kamera aufgenommen wird, als das Ziel der Verhaltensunterstützungsaktion, die Auswahl eines Zielobjekts oder die Bestimmung des Vorhandenseins eines Zielobjekts als das Ziel der Verhaltensunterstützungsaktion mit hoher Genauigkeit durchgeführt werden, oder kann das Setzen eines Pegels für eine Verhaltensunterstützungsaktion geeignet durchgeführt werden.
  • Wenn man annimmt, dass das Zielobjekt ein seitlich orientiertes Fahrzeug ist, könnte das Bildmerkmal einen vertikalen Rand, der ein linkes Ende eines seitlich orientierten Fahrzeugs darstellt, und/oder einen kreisförmigen Rand, der ein Rad an der linken Seite des seitlich orientierten Fahrzeugs darstellt, sowie einen vertikalen Rand, der ein rechtes Ende des seitlich orientierten Fahrzeugs darstellt, und/oder einen kreisförmigen Rand, der ein Rad an der rechten Seite des seitlich orientierten Fahrzeugs darstellt, enthalten. Aufgrund dieses Merkmals kann das Vorhandensein eines seitlich orientierten Fahrzeugs mit hoher Genauigkeit bestimmt werden.
  • Falls eine Mitte oder ein Schwerpunkt des ersten Umgebungsobjekts zwischen dem linken Ende und dem rechten Ende positioniert ist, oder zwischen dem Rad an der linken Seite und dem Rad an der rechten Seite des seitlich orientierten Fahrzeugs positioniert ist, könnte die Verhaltensunterstützungssteuervorrichtung das Zielobjekt als das Ziel der Verhaltensunterstützungsaktion behandeln. Falls ferner eine Mitte oder ein Schwerpunkt des ersten Umgebungsobjekts nicht zwischen dem linken Ende und dem rechten Ende positioniert ist, oder nicht zwischen dem Rad an der linken Seite und dem Rad an der rechten Seite des seitlich orientierten Fahrzeugs positioniert ist, könnte die Verhaltensunterstützungssteuervorrichtung das Zielobjekt als das Ziel der Verhaltensunterstützungsaktion beseitigen.
  • Aufgrund dieses Merkmals kann, basierend auf dem Erfassungsergebnis des Radars, falls die Mitte oder der Schwerpunkt des ersten Umgebungsobjekts an einer Position liegt, die sich von der Mitte oder dem Schwerpunkt des seitlich orientierten Fahrzeugs unterscheidet, bestimmt werden, dass das Zielobjekt ein seitlich orientiertes Fahrzeug ist. Daher kann die Auswahl eines Zielobjekts oder die Bestimmung des Vorhandenseins eines Zielobjekts als Ziel der Verhaltensunterstützungsaktion mit hoher Genauigkeit durchgeführt werden, oder kann das Setzen eines Pegels für eine Verhaltensunterstützungsaktion noch geeigneter durchgeführt werden.
  • Die Zielobjektsetzvorrichtung kann das Zielobjekt als seitlich orientiertes Fahrzeug erkennen, das auf einem Fahrweg des mobilen Objekts existiert; und die Verhaltensunterstützungs-Steuervorrichtung kann den ersten Zielbereich und den zweiten Zielbereich so setzen, dass sie auf dem Fahrweg liegen. Im Ergebnis kann, auch in dem Fall, dass die Zielobjektsetzvorrichtung irrtümlich erkennt, dass ein seitlich orientiertes Fahrzeug als Zielobjekt auf dem Fahrweg des mobilen Objekts existiert, das Zielobjekt als das Ziel der Verhaltensunterstützungsaktion entfernt werden oder kann die Verhaltensunterstützungsaktion in Bezug auf das Zielobjekt unterdrückt werden.
  • Das Fahrzeug gemäß der vorliegenden Erfindung ist als mobiles Objekt gekennzeichnet, das die zuvor genannte Objekterkennungsvorrichtung enthält.
  • Die Objekterkennungsvorrichtung gemäß der vorliegenden Erfindung weist ein Radar auf, das konfiguriert ist, um erste Positionsinformation zu erfassen, die eine Position eines ersten Umgebungsobjekts angibt, das innerhalb einer ersten Erfassungsregion existiert, die in der Umgebung eines mobilen Objekts erstellt ist; eine Kamera, die konfiguriert ist, um zweite Positionsinformationen zu erfassen, die eine Position eines zweiten Umgebungsobjekts angibt, das innerhalb einer zweiten Erfassungsregion existiert, wobei die zweite Erfassungsregion mit der Gesamtheit oder einem Abschnitt der ersten Erfassungsregion überlappt; und eine Zielobjektsetzvorrichtung, die konfiguriert ist, um ein Zielobjekt, das ein seitlich orientiertes Fahrzeug ist, durch Vergleich des ersten Umgebungsobjekts mit dem zweiten Umgebungsobjekt unter Verwendung der ersten Positionsinformation und der zweiten Positionsinformation zu setzen. Die Zielobjektsetzvorrichtung ist konfiguriert zum Setzen eines Charakteristischer-Abschnitt-Zielbereichs, der verwendet wird, um einen charakteristischen Abschnitt des seitlich orientierten Fahrzeugs auf der Basis einer Position des ersten Umgebungsobjekts zu extrahieren, und als Abschnitt der zweiten Erfassungsregion. Darüber hinaus bewertet die Zielobjektsetzvorrichtung das erste Umgebungsobjekt und das zweite Umgebungsobjekt als das selbe Zielobjekt, das das seitlich orientierte Fahrzeug ist, wenn der charakteristische Abschnitt des seitlich orientierten Fahrzeugs innerhalb des Charakteristischer-Abschnitt-Zielbereichs liegt.
  • Gemäß der vorliegenden Erfindung wird der zweite Zielbereich zum Extrahieren eines charakteristischen Abschnitts des seitlich orientierten Fahrzeugs auf der Basis einer Position des vom Radar erfassten ersten Umgebungsobjekts gesetzt, und als Abschnitt der zweiten Erfassungsregion (der Erfassungsregion der Kamera). Wenn darüber hinaus der charakteristische Abschnitt des seitlich orientierten Fahrzeugs innerhalb des zweiten Zielbereichs liegt, werden das erste Umgebungsobjekt und das zweite Umgebungsobjekt so gewertet, dass sie das selbe Zielobjekt sind, das das seitlich orientierte Fahrzeug ist. Aufgrund dieses Merkmals kann, auf der Basis der Position des ersten Umgebungsobjekts, das von dem Radar erfasst wird, der zweite Zielbereich (d. h. ein Abschnitt der Erfassungsregion der Kamera) zum Extrahieren eines charakteristischen Abschnitts des seitlich orientierten Fahrzeugs als vergleichsweise schmaler Bereich gesetzt werden. Dementsprechend kann die Auswahl oder Bestimmung des Vorhandenseins des Zielobjekts, das ein seitlich orientiertes Fahrzeug ist, mit hoher Genauigkeit und geringem Rechenaufwand durchgeführt werden.
  • Die obigen und andere Ziele, Merkmale und Vorteile der vorliegenden Erfindung werden aus der folgenden Beschreibung in Verbindung mit den beigefügten Zeichnungen näher ersichtlich, worin eine bevorzugte Ausführung der vorliegenden Erfindung als Ausführungsbeispiel gezeigt ist.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist ein Blockdiagramm, das die Konfiguration eines Fahrzeugs gemäß einer Ausführung der vorliegenden Erfindung zeigt;
  • 2 ist ein Flussdiagramm eines Fahrunterstützungssteuerprozesses, der von der vorgenannten Ausführung durchgeführt wird;
  • 3 ist eine deskriptive Zeichnung zum Erläutern des Fahrunterstützungssteuerprozesses der vorgenannten Ausführung;
  • 4 ist eine Zeichnung, die ein Beispiel zeigt, in dem eine Zielobjektsetzeinheit fehlerhaft ein Zielobjekt erkennt und irrtümlich das Vorhandensein eines seitlich orientierten Fahrzeugs feststellt;
  • 5 ist ein Flussdiagramm (Details von Schritt S5 von 2) eines Prozesses zum Berechnen eines Gewissheitsgrads beim Erfassen des Vorhandenseins eines seitlich orientierten Fahrzeugs;
  • 6 ist ein Diagramm zum Beschreiben einer Bewertungsnorm und -methode zur Verwendung (Inhalt einer Fahrunterstützungsprozesses) des Wahrscheinlichkeitsgrads beim Erfassen des Vorhandenseins eines seitlich orientierten Fahrzeugs in der vorgenannten Ausführung; und
  • 7 ist ein Flussdiagramm (Details von Schritt S6 von 2) des Fahrunterstützungsprozesses.
  • BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGEN
  • A. Ausführung
  • A1. Konfiguration
  • [A1-1. Gesamtkonfiguration]
  • 1 ist ein Blockdiagramm der Konfiguration eines Fahrzeugs 10 (nachfolgend als Fahrzeug des Benutzers oder „Hostfahrzeug 10” bezeichnet) gemäß einer Ausführung der vorliegenden Erfindung. Das Fahrzeug 10 enthält eine Objekterkennungsvorrichtung (Objekterkennungsapparat) 12, ein Fahrzeugstabilitätsunterstützungssystem 14 (nachfolgend als „VSA-System 14” bezeichnet), ein elektrisches Servolenksystem 16 (nachfolgend als EPS-System 16” bezeichnet), ein Haubenaufstellsystem 18 (nachfolgend als „PUH-System 18” bezeichnet), einen Fahrzeuggeschwindigkeitssensor 20 und eine Warnvorrichtung 22.
  • Die Objekterkennungsvorrichtung 12 umfasst verschiedene Objekttypen 100 (z. B. andere Fahrzeuge, Fußgänger (Menschen), und Wände etc.) in der Umgebung des Hostfahrzeugs 10. Darüber hinaus wählt und identifiziert die Objekterkennungsvorrichtung 12, unter diesen Objekten 100 (nachfolgend als „Erfassungsobjekte 100” bezeichnet) als Zielobjekt 100tar als ein solches Objekt aus, das zum Steuern/Regeln des Hostfahrzeugs 10 dient (d. h. als Basis dafür). Die Objekterkennungsvorrichtung 12 berechnet einen Abstand L von dem Hostfahrzeug 10 zum Zielobjekt 100tar, zusammen mit Bestimmungsattributen Prtar des Zielobjekts 100tar. In dieser Hinsicht können, als solche Attribute Prtar, z. B. der Typ Ca (z. B. Fahrzeug, Fußgänger oder Wand) des Zielobjekts 100tar enthalten sein.
  • Eine elektronische Steuereinheit 30 des VSA-Systems 14 (nachfolgend als „VSA ECU 30” bezeichnet) implementiert einen Fahrzeugstabilisierungssteuerprozess, der, durch Ansteuern eines nicht dargestellten Bremssystems oder dgl., das Verhalten des Fahrzeugs 10 stabilisiert, wenn ein anderes Fahrzeug 102 (siehe 3) während Kurvenfahrt entlang einer kurvigen Straße in die Nähe des Hostfahrzeugs 10 kommt oder sich diesem annähert.
  • Eine elektronische Steuereinheit 32 des EPS-Systems 16 (nachfolgend als EPS ECU 32” bezeichnet) dient zur Durchführung eines Lenkunterstützungssteuerprozesses. Die EPS ECU 32 steuert/regelt Baukomponenten (einen Elektromotor, einen Drehmomentsensor und einen Lenkwinkelsensor etc., die alle nicht gezeigt sind) einer elektrischen Servolenkvorrichtung, um den Fahrer beim Lenken des Fahrzeugs 10 zu unterstützen.
  • Eine elektronische Steuereinheit 34 des PUH-Systems 18 (nachfolgend als „PUH ECU 34” bezeichnet) dient dazu, eine Aufstellhaube (nicht gezeigt) des Fahrzeugs 10 hochschnellen zu lassen, in dem Fall, dass das Fahrzeug 10 in eine Kollision mit einem Fußgänger involviert wird, um hierdurch den Aufprall zu dämpfen, wenn der Kopf des Fußgängers mit dem Fahrzeug in Kontakt kommt oder auftrifft.
  • Der Fahrzeuggeschwindigkeitssensor 20 erfasst die Geschwindigkeit V (km/h) des Fahrzeugs 10 und gibt die erfasste Geschwindigkeit an die Objekterkennungsvorrichtung 12 etc. aus. Die Warnvorrichtung 22 führt, basierend auf einem Befehl von der Objekterkennungsvorrichtung 12 etc., in Bezug auf den Fahrer einen Warnprozess aus (d. h. er gibt einen Alarm oder dgl. aus). Die Warnvorrichtung 22 kann z. B. eine nicht dargestellte Anzeigevorrichtung und einen Lautsprecher enthalten.
  • Wie in 1 gezeigt, enthält die Objekterkennungsvorrichtung 12 ein Radar 40, eine Kamera 42 und eine elektronische Objekterkennungssteuereinheit 44 (nachfolgend als „Objekterkennungs-ECU 44” oder „ECU 44” bezeichnet).
  • (A1-2-1. Radar 40)
  • Das Radar 40 gibt zu der Außenseite des Fahrzeugs 10 Sendewellen Wt aus, welche elektromagnetische Wellen sind (im vorliegenden Fall Millimeterwellen), und empfängt reflektierte Wellen Wr, die, unter den gesendeten Wellen Wt, von dem Erfassungsobjekt 100 (z. B. einem anderen Fahrzeug 102 oder Fußgänger) reflektiert werden und zum Radar 40 zurückkehren. Darüber hinaus wird an die ECU 44 ein Erfassungssignal ausgegeben, das den reflektierten Wellen Wr entspricht (nachfolgend als „reflektiertes Wellensignal Swr” oder „Signal-Swr” bezeichnet). Nachfolgend kann das Erfassungsobjekt 100, das vom Radar 40 erfasst wird, auch als „erstes Umgebungsobjekt 100r” oder „Radarziel 100r” bezeichnet werden.
  • Das Radar 40 ist an einer Vorderseite (z. B. einem vorderen Stoßfänger und/oder dem vorderen Grill) des Fahrzeugs 10 angeordnet. Darüber hinaus oder anstelle der Vorderseite könnte das Radar 40 auch an einer Rückseite (z. B. dem hinteren Stoßfänger oder dem hinteren Grill) oder an einer Seite (z. B. einer Seite des vorderen Stoßfängers) des Fahrzeugs 10 angeordnet werden.
  • Ferner kann, wie später beschrieben wird, anstelle des Radars 40, das Millimeterwellen ausgibt, auch ein Laserradar, oder ein Sensor, wie etwa ein Ultraschallwellensensor oder dgl. verwendet werden.
  • (A1-2-2. Kamera 42)
  • Die Kamera 42 (Bildaufnahmeeinheit) erfasst ein Bild Imc (nachfolgend auch als „Umgebungsbild Imc” oder „aufgenommenes Bild Imc” bezeichnet) der Umgebung des Fahrzeugs 10 (einschließlich des Zielobjekts 100tar). Darüber hinaus wird an die ECU 44 ein Signal ausgegeben, das dem Bild Imc entspricht (nachfolgens als „Bildsignal Sic” oder „Signal Sic” bezeichnet). Nachfolgend kann das Erfassungsobjekt 100, das von der Kamera 42 erfasst wird, auch als „zweites Umgebungsobjekt 100c” oder „Kameraziel 110c” bezeichnet werden.
  • Obwohl in der vorliegenden Ausführung nur eine Kamera 42 verwendet wird, könnte auch ein Stereokamerasystem aus zwei Kameras 42 aufgebaut sein, die bilateral symmetrisch angeordnet sind. Die Kamera 42 nimmt Bilder Imc mit einer Rate von fünfzehn Einzelbildern oder mehr (z. B. 30 Einzelbildern) pro Sekunde auf. Obwohl die Kamera 42 eine monochrome (schwarz-weiß) Kamera ist, die Licht benutzt, dessen Wellenlängen hauptsächlich im Sichtbereich liegen, könnte auch eine Farbkamera oder eine Infrarotkamera verwendet werden. Die Kamera 42 ist z. B. in einem in Breitenrichtung mittleren Teil des Fahrzeugs angeordnet, an einem vorderen Abschnitt (in der Nähe des Rückspiegels) im Insassenraum des Fahrzeugs 10. Alternativ könnte die Kamera 42 auch in einem in Breitenrichtung mittleren Teil des vorderen Stoßfängers des Fahrzeugs 10 angeordnet werden.
  • (A1-2-3. Objekterkennungs-ECU 44)
  • Die Objekterkennungs-ECU 44 dient zum Steuern/Regeln der gesamten Objekterkennungsvorrichtung 12 und enthält, wie in 1 gezeigt, eine Eingabe-Ausgabe-Einheit 50, eine Arithmetikprozesseinheit 52 und eine Speichereinheit 54.
  • Reflektierte Wellensignale Swr von dem Radar 40 und Bildsignale Sic von der Kamera 42 werden durch die Eingabe-Ausgabe-Einheit 50 der Objekterkennungs-ECU 44 zugeführt. Ferner findet Kommunikation zwischen der Objekterkennungs-ECU 44 und der VSA-ECU 30, der EPS-ECU 32 und der PUH-ECU 34 durch die Eingabe-Ausgabe-Einheit 50 und eine Kommunikationsleitung 56 statt. Die Eingabe-Ausgabe-Einheit 50 ist mit einem nicht dargestellten AD-Wandler ausgestattet, um eingegebene analoge Signale in digitale Signale umzuwandeln.
  • Die Rechenprozessoreinheit 42 führt Berechnungen basierend auf den jeweiligen Signalen Swr, Sic von dem Radar 40 und der Kamera 42 aus, und erzeugt, basierend auf den Ergebnissen dieser Berechnungen, Signale, die jeweils der VSA-ECU 30, der EPS-ECU 32 und der PUH-ECU 34 zugeführt werden.
  • Wie in 1 gezeigt, enthält die Arithmetikprozesseinheit 52 einen Radarinformationsprozessor 60, einen Kamerainformationsprozessor 62, einen Zielobjektinformationsprozessor 64 und eine Fahrunterstützungssteuerheinheit 66. Jeder der Prozessoren 60, 62, 64 und der Steuereinheit 66 wird durch Ausführung von Programmen realisiert, die in der Speichereinheit 54 gespeichert sind. Diese Programme können extern durch eine nicht dargestellte drahtlose Kommunikationsvorrichtung zugeführt werden (z. B. ein Mobiltelefon, einem Smartphone und dgl.). Ferner können Abschnitte der Programme auch als Hardware aufgebaut sein (Schaltungselemente).
  • Der Radarinformationsprozessor 60 berechnet Information (nachfolgend als „Radarinformation Ir” oder „Information Ir” bezeichnet), die das Erfassungsobjekt 100 (das erste Umgebungsobjekt 100r) betrifft, basierend auf den vom Radar 40 erfassten reflektierten Wellen Wr (reflektierten Wellensignal Swr). Der Kamerainformationsprozessor 62 berechnet Information (nachfolgend als „Kamerainformation Ic” oder „Information Ic” bezeichnet), die das Erfassungsobjekt 100 (zweite Umgebungsobjekt 100c) betrifft, basierend auf dem von der Kamera 42 erfassten Umgebungsbild Imc.
  • Der Zielobjektinformationsprozessor 64 berechnet kombinierte Information (nachfolgend als „Zielobjektinformation It” oder „Information It” bezeichnet), aufgebaut aus einer Kombination der vom Radarinformationsprozessor 60 berechneten Radarinformation Ir und der vom Kamerainformationsprozessor 62 berechneten Kamerainformation Ic. Anders ausgedrückt, der Prozessor 64 führt einen sogenannten Fusionsprozess durch. Die Information It ist Information in Bezug auf das Zielobjekt 100tar, das basierend auf den vom Radar 40 erfassten Erfassungsobjekt 100 (Radarziel 100r) identifiziert wird, und dem von der Kamera 42 erfassten Erfassungsobjekt 100 (Kameraziel 100c).
  • Der Prozessor 64 ist ausgestattet mit einer Zielobjektsetzeinheit 70 (nachfolgend als „Setzeinheit 70” bezeichnet), einer TTC-Berechnungseinheit 72 (nachfolgend auch als „Berechnungseinheit 72” bezeichnet) und einer Wahrscheinlichkeitsberechnungseinheit 74 (nachfolgend als „Berechnungseinheit 74” bezeichnet).
  • Die Zielobjektsetzeinheit 70 setzt ein Zielobjekt 100tar durch Abgleich des ersten Umgebungsobjekts 100r und des zweiten Umgebungsobjekts 100c unter Verwendung der Radarinformation Ir (ersten Positionsinformation) und der Kamerainformation Ic (zweiten Positionsinformation). Die TTC-Berechnungseinheit 72 berechnet eine TTC (Zeit bis Kollision), die eine Zeitdauer angibt, bis das Hostfahrzeug 10 mit dem Zielobjekt 100tar in Kontakt kommen wird (oder damit kollidiert). Die Wahrscheinlichkeitsberechnungseinheit 74 berechnet einen Wahrscheinlichkeitsgrad Dc, dass das Zielobjekt 100tar ein seitlich orientiertes Fahrzeug ist. Der Wahrscheinlichkeitsgrad Dc impliziert einen Gewissheitsgrad oder eine Wahrscheinlichkeit, dass das Zielobjekt 100tar, das aus den Attributen Prc (Typ Ca) des Kameraziels 100c als seitlich orientiertes Fahrzeug gewertet worden ist, tatsächlich ein seitlich orientiertes Fahrzeug ist.
  • Die Speichereinheit 54 ist aufgebaut aus einem RAM (Direktzugriffsspeicher), das Bildsignale speichert, die in digitale Signale umgewandelt worden sind, sowie temporäre Daten oder dgl., die verschiedenen Operationstypen oder Arithmetik-Prozessen unterzogen werden, und einem ROM (Festwertspeicher), das ausführbare Programme, Tabellen oder etc. speichert.
  • A2. Fahrunterstützungssteuerung
  • [A2-1. Gesamtfluss des Fahrunterstützungssteuerprozesses]
  • 2 ist ein Flussdiagramm eines Fahrunterstützungssteuerprozesses, der in der vorliegenden Ausführung durchgeführt wird. Der Fahrunterstützungssteuerprozess wird von der Arithmetik-Prozesseinheit 52 (den Prozessoren 60, 62, 64 und der Steuereinheit 66) der Objekterkennungs-ECU 44 und Arithmetik-Prozesseinheit (nicht gezeigt) der anderen ECUs 30, 32 und 34 ausgeführt. Obwohl sich der in 2 gezeigte Inhalt auf einen Fall konzentriert, in dem das Zielobjekt 100tar ein seitlich orientiertes Fahrzeug ist, können für Fälle, in denen das Zielobjekt 100tar kein seitlich orientiertes Fahrzeug ist, zusätzliche Schritte in Kombination mit oder unabhängig von den jeweiligen Schritten bereitgestellt werden, die in 2 gezeigt sind.
  • In Schritt S1 berechnet, basierend auf den reflektierten Wellensignalen Swr vom Radar 40, die Objekterkennungs-ECU 44 (Radarinformationsprozessor 60) die Radarinformation Ir des Erfassungsobjekts 100 (Radarziel 100r). In der Radarinformation Ir sind enthalten die Position Por des ersten Umgebungsobjekts 100r, die Relativgeschwindigkeit Vr in Bezug auf das Fahrzeug 10, und die Beschleunigung ar etc. Falls eine Mehrzahl von ersten Umgebungsobjekten 100r innerhalb der Erfassungsregion (einem in 3 gezeigten Abtastbereich 106r) des Radars 40 existieren, berechnet die ECU 44 die Position Por, die Geschwindigkeit Vr und die Beschleunigung ar etc. in Bezug auf jedes der ersten Umgebungsobjekte 100r.
  • In Schritt S2 berechnet die ECU 44 (Kamerainformationsprozessor 62), basierend auf den Bildsignalen Sic (aufgenommenem Bild Imc) von der Kamera 42 und der Positon Por des Radarziels 100r, die Kamerainformation Ic des Erfassungsobjekts 100 (Kameraziel 100c). Insbesondere extrahiert die ECU 44 das Kameraziel 100c innerhalb eines vorbestimmten Abstands von der Position Por (Abgleichprozess) und berechnet dann die Kamerainformation Ic des Kameraziels 100c. Der vorbestimmte Abstand, auf den hierin Bezug genommen wird, enthält seitliche, vertikale und Längs-Richtungen.
  • In der Kamerainformation Ic sind auch enthalten die Position Poc in der seitlichen Richtung, die Geschwindigkeit Vlc in der seitlichen Richtung, die Beschleunigung alc in der seitlichen Richtung, und Attribute Prc etc. des Kameraziels 100c. Ferner sind, als Attribute Prc, der Typ Ca (Fußgänger, Fahrzeug (seitlich orientiertes Fahrzeug) etc.), Größe etc. des Kameraziels 100c enthalten. Falls der Typ Ca ein seitlich orientiertes Fahrzeug ist, ist auch ein charakteristischer Abschnitt Pcha des seitlich orientierten Fahrzeugs enthalten. Falls ferner mehrere Kameraziele 100c innerhalb des aufgenommenen Bilds Imc existieren, berechnet die ECU 44 die Position Poc in der seitlichen Richtung, die Geschwindigkeit Vlc in der seitlichen Richtung, die Beschleunigung alc in der seitlichen Richtung und die Attribute Prc etc. von jedem der Kameraziele 100c.
  • In Schritt S3 bewertet die ECU 44 (Zielobjektsetzeinheit 70), ob ein Zielobjekt 100tar, das ein seitlich orientiertes Fahrzeug ist, vorhanden ist oder nicht (anders ausgedrückt, ob eine Übereinstimmung erfüllt ist oder nicht).
  • Falls kein Zielobjekt 100tar, das ein seitlich orientiertes Fahrzeug ist, vorhanden ist (Schritt S3: NEIN), wird der Prozess des vorliegenden Berechnungszyklus beendet. Danach wird, nach Ablauf einer vorbestimmten Zeit, der Prozess ab Schritt S1 erneut gestartet. Falls ein Zielobjekt 100tar, das ein seitlich orientiertes Fahrzeug ist, vorhanden ist (Schritt S3: JA), berechnet in Schritt S4 die ECU 44 die TTC. Wie oben beschrieben, bezeichnet die TTC die Zeit, bis das Hostfahrzeug 10 mit dem Zielobjekt 100tar in Kontakt kommen (oder kollidieren) wird.
  • In Schritt S5 berechnet die ECU 44 den Wahrscheinlichkeitsgrad Dc, dass das Zielobjekt 100tar ein seitlich orientiertes Fahrzeug ist. Wie oben angemerkt, impliziert der Wahrscheinlichkeitsgrad Dc einen Gewissheitsgrad oder eine Wahrscheinlichkeit, dass das Zielobjekt 100tar, das aus den Attributen Prc (Typ Ca) des Kameraziels 100c als seitlich orientiertes Fahrzeug gewertet worden ist, tatsächlich ein seitlich orientiertes Fahrzeug ist. Insbesondere wird gemäß der vorliegenden Ausführung, falls in Schritt S3 eine Bewertung durchgeführt worden ist, dass ein Zielobjekt 100tar, das ein seitlich orientiertes Fahrzeug ist, existiert, die Tatsache berücksichtigt, dass es eine Möglichkeit gibt, dass das Zielobjekt 100tar ein seitlich orientiertes Fahrzeug sein könnte. Weitere Details von Schritt S5 werden nachfolgend in Bezug auf 5 beschrieben.
  • In Schritt S6 führt die ECU 44 einen Fahrunterstützungsprozess basierend auf der TTC (Schritt S4) und dem Wahrscheinlichkeitsgrad Dc (Schritt S5) durch. Weitere Details von Schritt S6 werden nachfolgend in Bezug auf 7 beschrieben.
  • [A2-2 Berechnung der Radarinformation Ir und Kamerainformation Ic (Schritte S1, S2 von Fig. 2)]
  • (A2-2-1. Konzeptumriss zur Berechnung der Radarinformation Ir und Kamerainformation Ic)
  • 3 ist eine deskriptive Zeichnung zum Erläutern des Fahrunterstützungssteuerprozesses der vorgenannten Ausführung. In der Figur ist eine Situation gezeigt, in der ein anderes Fahrzeug 102 quer zu einem Weg 104 fährt, auf dem auch das Hostfahrzeug 10 gerade fährt. Insbesondere sind in 3 gezeigt ein Abtastbereich 106r (erste Erfassungsregion) des Radars 40, ein Bildaufnahmebereich 106c (zweite Erfassungsregion) der Kamera 42, eine Markierung 108, die die Position Por des Radarziels 100r angibt, Merkierungen 110l, 110r, 112l, 112r, 114, die charakteristische Abschnitte Pcha des anderen Fahrzeugs 102 angeben, das ein seitlich orientiertes Fahrzeug ist, einen angenommenen Radarzielbereich 116 und einen angenommenen Kamerazielbereich 118.
  • Wenn in Schritt S1 von 2 die Radarinformation Ir erfasst wird, berechnet, basierend auf den reflektierten Wellensignalen Swr, die ECU 44 die Position Por (Markierung 108) des Radarziels 100r. Die Position Por ist definiert durch eine Mitte oder einen Schwerpunkt einer Region, die durch ein Aggregat der von dem Radarziel 100r reflektierten Wellen Wr angegeben ist. Alternativ könnte die Position Por auch als eine Position definiert werden, an der ein Empfangspegel unter dem Aggregat von reflektierten Wellen Wr am höchsten ist. Im Beispiel von 3 ist die Position Por an der Markierung 108 durch eine Schwerpunktposition des anderen Fahrzeugs 102 gezeigt.
  • Wenn in Schritt S2 von 2 die Kamerainformation Ic erfasst wird, extrahiert, auf der Basis der Position Por des Radarziels 100r, die ECU 44 das Kameraziel 100c innerhalb einer vorbestimmten Distanz. Diese Extraktion impliziert im Wesentlichen, dass die Radarinformation Ir und die Kamerainformation Ic miteinander übereinstimmen. Wie oben diskutiert, enthält der vorbestimmte Abstand seitliche, vertikale und Längs-Richtungen.
  • Beim Extrahieren des Kameraziels 110c werden, innerhalb der zuvor erwähnten vorbestimmten Distantz, charakteristische Abschnitte Pcha des Zielobjekts 100tar, das ein seitlich orientiertes Fahrzeug ist, extrahiert. Insbesondere werden, wie in 3 gezeigt, als charakteristische Abschnitte Pcha extrahiert: vertikale Ränder (Markierungen 110l, 110r) an einem vorderen Ende (linken Ende) und einem hinteren Ende (rechten Ende) des anderen Fahrzeugs 102, kreisförmige Ränder (Markierungen 112l, 112r) eines Vorderrads (Rad an der linken Seite) und eines Hinterrads (Rad an der rechten Seite) sowie ein horizontaler Rand (Markierung 114) an einem unteren Abschnitt des Fahrzeugkörpers. Die ECU 44 bewertet aus dem Vorhandensein der vorgenannten charakteristischen Abschnitte Pcha, dass ein Zielobjekt 100tar, das ein seitlich orientiertes Fahrzeug ist, existiert. Die charakteristischen Abschnitte Pcha sind nicht auf die vorgenannten fünf Abschnitte beschränkt, und innerhalb dieser Abschnitte kann eine beliebige Anzahl davon ausgewählt und verwendet werden. Ferner können auch andere charakteristische Abschnitte Pcha abgesehen von den oben erwähnten fünf Abschnitten verwendet werden.
  • (A2-2-2. Beispiel einer Fehlerkennung)
  • 4 ist eine Zeichnung, die ein Beispiel zeigt, in der die Zielobjektsetzeinheit 70 fehlerhaft ein Zielobjekt 100tar erkennt, und irrtümlich ein Vorhandensein eines seitlich orientierten Fahrzeugs feststellt. Obwohl im in 4 gezeigten Beispiel kein anderes Fahrzeug 102 (echtes Fahrzeug) in dem Weg 104 des Hostfahrzeugs 110 existiert, erkennt die ECU 44 fehlerhaft das Vorhandensein eines seitlich orientierten Fahrzeugs in Folge davon, dass sie die Position Por des Radarziels 100r und die charakteristischen Abschnitte Pcha eines (nicht existenten) seitlich orientierten Fahrzeugs extrahiert hat (und beim Abgleich einen Erfolg bestimmt hat).
  • Insbesondere existiert in dem linken Seitenabschnitt des Wegs 104 ein Fundament 132 eines Pfostens 130, der zu dem Weg 104 weist. In diesem Fall erkennt der Radarinformationsprozessor 60, der von dem Abschnitt des Fundaments 132 einen hohen Empfangspegel der reflektierten Wellen Wr empfangen hat, die Position Por (Markierung 108) des Radarziels 100r.
  • Ferner extrahiert, aus der Tatsache, dass sich der Pfosten 103 vertikal erstreckt, der Kamerainformationsprozessor 62 den Abschnitt des Pfostens 130 als vertikalen Rand (Markierung 110l) eines linken Endes (Vorderendes oder Hinterendes) eines seitlich orientierten Fahrzeugs. Ferner existiert eine Barriere 134, die einen Hauptkörper 136 und eine Sperrstange 138 aufweist an der rechten Seite des Wegs 104, und der Hauptkörper 136 enthält einen vertikalen Abschnitt. Daher extrahiert der Kamerainformationsprozessor 162 den Abschnitt des Barrierenhauptkörpers 136 als vertikaler Rand (Markierung 110r) vom rechten Ende (Vorderende oder Hinterende) eines seitlich orientierten Fahrzeugs.
  • An der linken Seite des Wegs 104 befindet sich ein Bordstein 140. Aus dem Kontrast zwischen dem Bordstein 140 und dem Fundament 132 des Pfostens 130 extrahiert der Kamerainformationsprozessor 62 einen Abschnitt des Bordsteins 140 als kreisförmigen Rand (Markierung 112l) eines Rads (Vorderrads oder Hinterrads) an der linken Seite eines seitlich orientierten Fahrzeugs. Ein anderer Bordstein 142 befindet sich an der rechten Seite des Wegs 104. Aus der Form etc. eines Eckabschnitts des Bordsteins 142 extrahiert der Kamerainformationsprozessor 62 den Abschnitt des Bordsteins 142 als kreisförmigen Rand (Markierung 112r) eines Rads (Vorderrads oder Hinterrads) an der rechten Seite eines seitlich orientierten Fahrzeugs.
  • Auf den Weg 104 des Hostfahrzeugs 10 wird vom Barrierenhauptkörper 136 und von der Sperrstange 138 ein Schatten 144 geworfen. Aus der Perspektive des Hostfahrzeugs 10 sieht man den Schatten 144 im Wesentlichen horizontal. Daher extrahiert der Kamerainformationsprozessor 62 den Schatten 144 als horizontalen Rand (Markierung 114) an einem unteren Abschnitt eines seitlich orientierten Fahrzeugs.
  • Als Ergebnis der Ausführung der oben beschriebenen Extraktionsschritte bestehen, gemäß den Schritten S1 bis S3 (siehe 2) der vorliegenden Ausführung, unabhängig von der Tatsache, dass das Zielobjekt 100tar, das ein seitlich orientiertes Fahrzeug ist, tatsächlich nicht vorhanden ist, noch immer eine Möglichkeit, dass die Zielobjektsetzeinheit 70 fehlerhaft erkennen könnte, dass ein Zielobjekt 100tar, das ein seitlich orientiertes Fahrzeug ist, existiert. Indem gemäß der vorliegenden Ausführung der Wahrscheinlichkeitsgrad Dc in Bezug auf das Vorhandensein eines seitlich orientierten Fahrzeugs verwendet wird, wird ein eine fehlerhafte Erkennung, wie etwa oben beschrieben ist, verhindert.
  • [A2-3. Berechnung des Wahrscheinlichkeitsgrads Dc in Bezug auf das Vorhandensein eines seitlich orientierten Fahrzeugs (Schritt S5 von Fig. 2)]
  • (A2-3-1. Konzeptumriss zur Berechnung des Wahrscheinlichkeitsgrads Dc)
  • 5 ist ein Flussdiagramm (Details von Schritt S5 von 2) eines Prozesses zum Berechnen eines Wahrscheinlichkeitsgrads Dc beim Erfassen des Vorhandenseins eines seitlich orientierten Fahrzeugs. Der Prozess von 5 wird von der Wahrscheinlichkeitsberechnungseinheit 74 der ECU 44 durchgeführt. 6 ist ein Diagramm zum Beschreiben einer Bewertungsnorm und -Methode der Verwendung (Inhalt eines Fahrunterstützungsprozesses) des Wahrscheinlichkeitsgrads Dc in der vorgenannten Ausführung. Die in 6 mit unterbrochenen Linien gezeigten Fahrzeuge 150 geben Fahrzeuge an, die von der Zielobjektsetzeinheit 70 erkannt worden sind, aber bei denen nicht klar ist, ob diese Fahrzeuge echte Fahrzeuge (andere Fahrzeuge 102) sind oder nicht. Anders ausgedrückt, in 6 sind Zielobjekte 100tar, die richtigerweise oder fehlerhaft von der Zielobjektsetzeinheit 70 erkannt werden können, als die Fahrzeuge 150 gezeigt. Wenn, wie oben diskutiert, der Wahrscheinlichkeitsgrad Dc berechnet wird, wird eine Bewertung vorgenommen, dass ein Zielobjekt 100tar, das ein seitlich orientiertes Fahrzeug ist, existiert (Schritt S3 von 2: JA).
  • In Schritt S11 von 5 bewertet die ECU 44, ob die Position Por des Radarziels 100r innerhalb des angenommenen Radarzielbereichs 116 liegt oder nicht (nachfolgend als „angenommener Bereich 116” oder „Bereich 116” bezeichnet). Der angenommene Bereich 116 ist ein Bereich, in dem vermutet werden kann, dass die Position Por des Radarziels 100r existiert, falls das Zielobjekt 100tar ein seitlich orientiertes Fahrzeug ist. Weitere Details des Bereichs 116 werden später beschrieben.
  • Wenn die Position Por des Radarziels 100r nicht innerhalb des angenommenen Bereichs 116 liegt (Schritt S11: NEIN), dass wählt in Schritt S12 die ECU 44 den Wahrscheinlichkeitsgrad Dc als „niedrig” (in Bezug auf die 6 gezeigten dritten und vierten Situationen). Wenn die Position Por des Radarziels 100r innerhalb des angenommenen Bereichs 116 liegt (Schritt S11: JA), dann geht der Prozess zu Schritt S13 weiter.
  • In Schritt S13 bewertet die ECU 44, ob die charakteristischen Abschnitte Pcha eines seitlich orientierten Fahrzeugs innerhalb des angenommenen Kamerazielbereichs 118 liegen oder nicht (nachfolgend als „angenommener Bereich 118” oder „Bereich 118” bezeichnet). Der angenommene Bereich 118 ist ein Bereich, in dem vermutet werden kann, dass die charakteristischen Abschnitte Pcha existieren werden, falls das Zielobjekt 100tar ein seitlich orientiertes Fahrzeug ist.
  • In der vorliegenden Ausführung wird bestimmt, ob alle charakteristischen Abschnitte Pcha innerhalb des angenommenen Bereichs 118 liegen oder nicht. Alternativ könnte bestimmt werden, ob eine minimal begrenzte Gruppe davon, die zum Identifizieren eines seitlich orientierten Fahrzeugs erforderlich ist, innerhalb des angenommenen Bereichs 118 enthalten ist oder nicht. Als eine solche minimal begrenzte Gruppe sind z. B. enthalten: ein vertikaler Rand (Markierung 110l) eines linken Endes und/oder ein kreisförmiger Rand (Markierung 112l) eines linken Rads, sowie ein vertikaler Rand (Markierung 110r) eines rechten Endes und/oder ein kreisförmiger Rand (Markierung 112r) eines rechten Rads des Fahrzeugs 102. Weitere Details des Bereichs 118 werden später beschrieben.
  • Wenn die charakteristischen Abschnitte Pcha nicht innerhalb des angenommenen Bereichs 118 vorhanden sind (Schritt S13: NEIN), dass wählt die ECU 44, in Schritt S14, den Wahrscheinlichkeitsgrad Dc als „MITTEL” (in Bezug auf die in 6 gezeigte zweite Situation). Wenn die charakteristischen Abschnitte Pcha innerhalb des angenommenen Bereichs 118 liegen (Schritt S13: JA), dann wählt die ECU 44, in Schritt S15, den Wahrscheinlichkeitsgrad Dc als „HOCH” (in Bezug auf die in 6 gezeigte erste Situation).
  • (A2-3-2. Angenommener Bereich 116, 118)
  • (A2-3-2-1. Überblick)
  • Wie oben in Bezug auf 4 beschrieben, besteht in dem Fall, dass die charakteristischen Abschnitte Pcha eines seitlich orientierten Fahrzeugs in der Kamerainformatio Ic verwendet werden, eine Möglichkeit, dass eine fehlerhafte Identifizierung stattfindet. Somit wird, gemäß der vorliegenden Ausführung, auch in dem Fall, dass der Abstand zwischen der Position Por des Radarziels 100r und der Position Poc des Kameraziels 100c einen vorbestimmten Wert hat, der Wahrscheinlichkeitsgrad Dc durch die Bewertungen der Schritte S11 und S13 bestimmt (siehe 5). Ferner werden mit den Schritten S11 und S13 auch die angenommenen Bereiche 116, 118 verwendet.
  • (A2-3-2-2. Angenommener Radarzielbereich 116)
  • Wie in 3 gezeigt, wird der angenommene Radarzielbereich 116 auf den Weg 104 des Hostfahrzeugs 10 gesetzt (insbesondere symmetrisch um eine virtuelle Mittellinie Lx herum). Der angenommene Bereich 116 wird nicht nur in seitlicher Richtung (Breitenrichtung des Fahrzeugs) gesetzt, sondern auch in vertikaler Richtung (Höhenrichtung) und in Längsrichtung.
  • Die Breite Lr des angenommenen Bereichs 116 kann z. B. etwas länger sein (z. B. 1,8 bis 2,5 m) als die Fahrzeugbreite des Hostfahrzeugs 10 (oder eines üblichen Personenwagens) oder einen Wert haben (z. B. 2,0 bis 3,0 m) des kürzer ist als der Abstand (Radstand) von den Vorderrädern zu den Hinterrädern, oder die Gesamtlänge des Hostfahrzeugs 10. Die Höhe Hr des Bereichs 116 kann einen Wert haben (z. B. 0,8 bis 1,8 m), der kürzer ist als die Fahrzeughöhe des Hostfahrzeugs 10 (oder eines üblichen Personenwagens).
  • Obwohl in 3 der angenommene Bereich 116 so dargestellt ist, dass er eine lineare Form hat, könnte der angenommene Bereich 116 auch eine gekrümmte Form haben, die zur Krümmung des Wegs 104 passt. Um den angenommenen Bereich 116 eine gekrümmte Form zu geben, kann z. B. der angenommene Bereich 116 unter Verwendung einer Gierrate etc. berechnet werden, die mit einem nicht dargestellten Gierratensensor erfasst wird. Ferner kann Information in Bezug auf die Form des Wegs 104 aus einer nicht dargestellten Navigationsvorrichtung erfasst werden, oder einem Gerät (straßenseitigen Gerät), das aus optischen Baken oder dgl. aufgebaut ist, die in der Umgebung des Wegs 104 angeordnet sind, und kann der angenommene Bereich 116 unter Verwendung dieser Information berechnet werden.
  • Ferner kann die Breite Lr des angenommenen Bereichs 116 entsprechend den Positionen der charakteristischen Abschnitte Pcha des Zielobjekts 100tar (seitlich orientierten Fahrzeugs) verändert werden. Falls z. B. der Abstand zwischen den vertikalen Rändern (Markierungen 110l, 110r) vom linken Ende und rechten Ende des Zielobjekts 100tar länger ist als der eingegebene Referenzwert, kann die Breite Lr breiter gemacht werden, wohingegen dann, wenn der Abstand kürzer als der Referenzwert ist, die Breite Lr länger gemacht werden kann.
  • (A2-3-2-3. Angenommener Kamerazielbereich 118)
  • Wie in 3 gezeigt, wird der angenommene Kamerazielbereich 118 auf den Weg 104 des Hostfahrzeugs 10 gesetzt (insbesondere symmetrisch um eine vertikale Mittellinie Lx herum). Ähnlich dem angenommenen Bereich 116 wird der angenommene Bereich 118 nicht nur in seitlicher Richtung (in der Breitenrichtung des Fahrzeugs) gesetzt, sondern auch in vertikaler Richtung (Höhenrichtung) und Längsrichtung. Jedoch kann in dem Bild, basierend auf der Position Por des Radarziels 100r, der angenommene Bereich 118 in Bezug auf die Koordinaten (Ausdehnung) der Längsrichtung spezifiziert werden. Wenn daher bestimmt wird, ob die charakteristischen Abschnitte Pcha innerhalb des angenommenen Bereichs 118 liegen oder nicht, kann der angenommene Bereich 116 in der Längsrichtung beschränkt werden.
  • Ferner enthält der angenommene Bereich 118 eine Ausdehnung, die mit dem angenommenen Bereich 116 überlappt. Die Breite Lc des angenommenen Bereichs 118 hat einen Wert, der länger ist als die Breite Lc des angenommenen Bereichs 116. Insbesondere kann die Breite Lc einen Wert haben, der der Größenordnung der Gesamtlänge eines üblichen Personenwagens (z. B. 3,5 bis 7,0 m) liegt oder länger ist als diese.
  • Die Höhe Hc des Bereichs 118 kann einen Wert haben (z. B. 1,2 bis 2,5 m), die etwas länger ist als die Fahrzeughöhe des Hostfahrzeugs 10 (oder eines üblichen Personenwagens). Solange jedoch die charakteristischen Abschnitte Pcha erfasst werden können, kann die Höhe Hc auch eine geringere Ausdehnung haben. Aus diesem Grund könnten Fälle auftreten, in denen die Höhe Hc des angenommenen Bereichs 118 kürzer ist als die Höche Hr des angeommenen Bereichs 116. Ferner könnte, ähnlich dem angenommenen Bereich 116, der angenommene Bereich 118 eine gekrümmte Form haben.
  • Ferner kann in dem Fall, dass die charakteristischen Abschnitte Pcha des Zielobjekts 100tar (seitlich orientiertes Fahrzeug) ein groß bemessenes Fahrzeug angeben, z. B. die Breite Lc des angenommenen Bereichs 118 entsprechend den Positionen der charakteristischen Abschnitte Pcha verändert werden. Falls z. B. der Abstand zwischen den vertikalen Rändern (Markierungen 110l, 110r) vom linken Ende und rechten Ende des Zielobjekts 100tar länger als ein gegebener Referenzwert ist, kann die Breite Lc breiter gemacht werden, wohingegen dann, wenn der Abstand kürzer als der Referenzwert ist, die Breite Lc schmaler gemacht werden kann.
  • In der vorliegenden Ausführung wird, durch das Setzen der angenommenen Bereiche 116, 118 wie oben beschrieben, der angenommene Bereich 116 zwischen das vordere Ende und das hintere Ende des anderen Fahrzeugs 102 positioniert (das linke Ende und das rechte Ende des seitlich orientierten Fahrzeugs). Der angenommene Bereich 116 kann auch zwischen dem Vorderrad und dem Hinterrad des anderen Fahrzeugs 102 positioniert werden (zwischen dem Rad an der linken Seite und dem Rad an der rechten Seite des seitlich orientierten Fahrzeugs).
  • [A2-4. Fahrunterstützungsprozess (Schritt S6 von Fig. 2]
  • 7 ist ein Flussdiagramm (Details von Schritt S6 von 2) des Fahrunterstützungsprozesses. In Schritt S21 bewertet die ECU 44, ob der Wahrscheinlichkeitsgrad Dc „HOCH” ist oder nicht. Wenn der Wahrscheinlichkeitsgrad Dc „HOCH” ist (Schritt S21: JA), dann bestimmt die ECU 44 in Schritt S22, ob die TTC kürzer als oder gleich einem Schwellenwert THttc1 ist. Der Schwellenwert THttc1 ist ein Schwellenwert zur Bestimmung, ob eine automatische Bremsung und eine Warnung ausgegeben werden sollen, sofern der Wahrscheinlichkeitsgrad Dc „HOCH” ist.
  • Wenn die TTC kürzer als oder gleich dem Schwellenwert THttc1 ist (Schritt S22: JA), dann implementiert die ECU 44 in Schritt S23 eine automatische Bremsung und gibt eine Warnung aus (in Bezug auf die in 6 gezeigte erste Situation). Insbesondere gibt die ECU 44 einen Befehl aus, um eine automatische Bremsung in Bezug auf die VSA-ECU 30 zu implementieren, und gibt durch die Warnvorrichtung 22 eine Warnung aus. Wenn andererseits die TTC nicht kürzer als oder gleich dem Schwellenwert THttc1 ist (Schritt S22: NEIN), wird der vorliegende Berechnungszyklus beendet und wird, nach Ablauf einer vorbestimmten Zeit, der Prozess ab Schritt S21 wieder gestartet.
  • Wenn in Schritt S21 der Wahrscheinlichkeitsgrad Dc nicht „HOCH” ist (Schritt S21: NEIN), dann bewertet die ECU 44 in Schritt S24, ob der Wahrscheinlichkeitsgrad Dc „MITTEL” ist oder nicht. Wenn der Wahrscheinlichkeitsgrad Dc „MITTEL” ist (Schritt S24: JA), dann bestimmt die ECU 44 in Schritt S25, ob die TTC kürzer als oder gleich einem Schwellenwert THttc2 ist. Der Schwellenwert THttc2 ist ein Schwellenwert zur Bestimmung, ob eine Warnung ausgegeben werden sollte, insofern der Wahrscheinlichkeitsgrad Dc „MITTEL” ist. Der Schwellenwert THttc2 kann einen Wert einnehmen, der kleiner als oder größer als der Schwellenwert THttc1 ist.
  • Wenn die TTC kürzer als oder gleich dem Schwellenwert THttc2 ist (Schritt S25: JA), dann gibt die ECU 44 in Schritt S26 eine Warnung aus (in Bezug auf die in 6 gezeigte zweite Situation). Insbesondere gibt die ECU 44 eine Warnung durch die Warnvorrichtung 22 aus. Wenn der Schwellenwert THttc2 kleiner als der Schwellenwert THttc1 ist, dann können in Schritt S26 auch sowohl eine automatische Bremsung als auch eine Warnung ausgeführt werden, ähnlich dem Fall von Schritt S23. Da in diesem Fall der Schwellenwert THttc2 kleiner als der Schwellenwert THttc1 ist, kann aufgrund der Tatsache, dass die Betriebszeitgebung verzögert ist, die Steuerung mittels eines Verfahrens ausgeführt werden, das sich von jenem von Schritt S23 unterscheidet. Ferner kann die automatische Bremsung durch ein Verfahren aktiviert werden, dass sich von jenem von Schritt S23 unterscheidet (d. h. ein Verfahren, worin die Bremskraft weiter unterdrückt wird), indem etwa die während automatischer Bremsung angelegte Bremskraft kleiner gemacht wird als in Schritt S23. Ferner können unterschiedliche Warnverfahren in den Schritten S23 und S26 verwendet werden (wenn z. B. in Schritt S26 eine leichte automatische Bremsaktion aktiviert wird, dann kann die in Schritt S26 ausgegebene Warnung weggelassen werden). Wenn die TTC nicht kürzer als oder gleich dem Schwellenwert THttc2 ist (Schritt S25: NEIN), wird der vorliegende Berechnungszyklus beendet, und wird nach Ablauf einer vorbestimmten Zeit der Prozess ab Schritt S21 erneut gestartet.
  • Zurück zu Schritt 24. Wenn der Wahrscheinlichkeitsgrad Dc nicht „MITTEL” ist (Schritt S24: NEIN), dann ist der Wahrscheinlichkeitsgrad Dc „NIEDRIG”. In diesem Fall beendet die ECU 44 den vorliegenden Berechnungszyklus, ohne irgendeine Aktion vorzunehmen (in Bezug auf die in 6 gezeigten dritten und vierten Situationen).
  • A3. Vorteile der vorliegenden Ausführung
  • Wenn wie oben beschrieben die Position Por des Radarziels 100r (des ersten Umgebungsobjekts) innerhalb des angenommenen Bereichs 116 (ersten Zielbereichs) liegt (Schritt S11 von 5: JA), und die charakteristischen Merkmale Pcha (Position Poc des Kameraziels 100c) des Kameraziels 100c) des zweiten Umgebungsobjekts innerhalb des angenommenen Bereichs 118 (zweiten Zielbereichs) liegt (Schritt S13: JA), wird das Zielobjekt 100tar als Ziel der automatischen Brems(Verhaltensunterstützungs)-Aktion behandelt (Schritt S15 von 5, Schritt S21 von 7: JA, Schritt S23). Falls ferner die Position Por des Radarziels 100r nicht innerhalb des angenommenen Bereichs 116 liegt (Schritt S11 von 5: NEIN) oder die charakteristischen Abschnitte Pcha nicht innerhalb des angenommenen Bereichs 118 liegen (Schritt S13: NEIN), wird das Zielobjekt 110tar als Ziel der automatischen Bremsaktion gelöscht, oder wird die automatische Bremsaktion in Bezug auf das Zielobjekt 100tar unterdrückt (in Bezug auf Schritt S21 und Schritte S24 bis S26 von 7). Der angenommene Bereich 116 wird als Abschnitt des Abtastbereichs 106r (erste Erfassungsregion) des Radars 40 (ersten Erfassungsvorrichtung) gesetzt, oder in anderen Worten, als ein Bereich, der schmaler ist als der Abtastbereich 106r (siehe 3). Der angenommene Bereich 118 wird als Abschnitt des Bildaufnahmebereichs 106r (der zweiten Erfassungsregion) der Kamera 42 (zweiten Erfassungsvorrichtung) gesetzt, oder in anderen Worten, als ein Bereich, der schmaler ist als der Bildaufnahmebereich 106c (siehe 3).
  • Demzufolge kann unter Verwendung der angenommenen Bereiche 116, 118 (der ersten und zweiten Zielbereiche), deren jeder jeweils für das Radar 40 und die Kamera 42 geeignet ist, bestimmt werden, ob das Zielobjekt 100tar als Ziel der automatischen Bremsaktion (Verhaltensunterstützung) behandelt werden soll oder nicht, oder ob die automatische Bremsaktion unterdrückt werden soll oder nicht. Dementsprechend kann die Auswahl eines Zielobjekt 100tar oder die Bestimmung des Vorhandenseins des Zielobjekts 100tar als Ziel der automatischen Bremsaktion mit hoher Genauigkeit durchgeführt werden, oder kann das Setzen eines Pegels für die automatische Bremsaktion geeignet durchgeführt werden.
  • Mit der vorliegenden Erfindung setzt, unter Verwendung des Radars 40 als der ersten Erfassungsvorrichtung und unter Verwendung der Kamera 42 als der zweiten Erfassungsvorrichtung, die Fahrunterstützungssteuereinheit 66 (Verhaltensunterstützungs-Steuerungsvorrichtung) einen angenommenen Radarzielbereich 116 (ersten Zielbereich) schmaler als den angenommenen Kamerazielbereich 118 (zweiten Zielbereich) (siehe 3).
  • Gemäß diesem Merkmal wird der auf dem Radar 40 beruhende angenommene Bereich 116 als ein Bereich gesetzt, der schmaler ist als der Abtastbereich 106r (erste Erfassungsregion) des Radars 40, und wird der auf der Kamera 42 beruhende angenommene Bereich 118 als ein Bereich gesetzt, der schmaler ist als der Bildaufnahmebereich 106 (zweite Erfassungsregion) der Kamera 42 (siehe 3). Allgemein ist das Radar 40 beim Erfassen von Rändern von Objekten 100 leistungsschwach. Ferner besteht in dem Fall, dass das Radar 40 in dem Fahrzeug 10 angeordnet ist, basierend auf reflektierten Wellen Wr von Straßenhindernissen, wie etwa Bordsteinen 140 oder dgl. auf dem Weg 104 (Straße), eine Möglichkeit, dass solche Hindernisse irrtümlich als Zielobjekte 100tar erkannt werden (siehe 4). Erfindungsgemäß wird der auf dem Radar 40 basierende angenommene Bereich 116 relativ schmal eingestellt, wohingegen der auf der Kamera 42 basierende angenommene Bereich 118 relativ breit eingestellt wird (siehe 3). Demzufolge kann durch Verwendung des Erfassungsergebnisses der Kamera 42 in Bezug auf Bereiche, wo das Radar 40 leistungsschwach ist, die Auswahl eines Zielobjekts 100tar oder die Bestimmung des Vorhandenseins des Zielobjekts 100tar als Ziel der Fahrunterstützungsaktion (Verhaltensunterstützung) mit hoher Genauigkeit durchgeführt werden oder kann das Setzen eines Ziels zur automatischen Bremsaktion geeignet durchgeführt werden.
  • Wenn die Position Por des Radarziels 100r (des ersten Umgebungsobjekts) innerhalb des angenommenen Bereichs 116 (ersten Zielbereichs) liegt (Schritt S11 von 5: JA), und alle charakteristischen Merkmale Pcha (Bildmerkmale) des Kameraziels 100c (zweiten Umgebungsobjekts) innerhalb des angenommenen Bereichs 118 (zweiten Zielbereichs) liegen (Schritt S13: JA), behandelt die Fahrunterstützungssteuereinheit 66 (Verhaltensunterstützungs-Steuervorrichtung) das Zielobjekt 100tar als das Ziel der automatischen Bremsaktion (Verhaltensunterstützung) (Schritt S15 von 5, Schritt S21 von 7: JA, Schritt S23).
  • Gemäß diesem Merkmal kann durch Behandeln eines Zielobjekts 100tar, dessen Gesamtheit von der Kamera 42 aufgenommen wird, als das Ziel der automatischen Bremsaktion, die Auswahl des Zielobjekts 100tar oder die Bestimmung des Vorhandenseins des Zielobjekts 100tar als das Ziel der automatischen Bremsaktion mit hoher Genauigkeit durchgeführt werden, oder kann das Setzen eines Pegels für die automatische Bremsaktion geeignet durchgeführt werden.
  • In der vorliegenden Ausführung ist das Zielobjekt 100tar ein seitlich orientiertes Fahrzeug (Schritt S3 von 2: JA), und die charakteristischen Abschnitte Pcha (Bildmerkmale) des seitlich orientierten Fahrzeugs enthalten vertikale Ränder (Markierungen 110l, 110r) am linken Ende und rechten Ende des seitlich orientierten Fahrzeugs (Vorderende und Hinterende des anderen Fahrzeugs 102), kreisförmige Ränder (Markierungen 112l, 112r) der linken und rechten Räder (Vorderrad und Hinterrad des anderen Fahrzeugs 102) und einen horizontalen Rand (Markierung 114) an einem unteren Abschnitt des Fahrzeugkörpers (siehe 3). Aufgrund dieses Merkmals kann das Vorhandensein eines seitlich orientierten Fahrzeugs mit hoher Genauigkeit bestimmt werden.
  • In der vorliegenden Erfindung erkennt die Zielobjektsetzeinheit 70 (Zielobjektsetzvorrichtung) das Zielobjekt 100tar als seitlich orientiertes Fahrzeug, das sich auf einem Weg 104 (Fahrweg) des Hostfahrzeugs 10 befindet (Schritt S3 von 2, 3). Ferner setzt die Fahrunterstützungssteuereinheit 66 (Verhaltensunterstützungs-Steuervorrichtung) den angenommenen Radarzielbereich 116 (ersten Zielbereich) und den angenommenen Kamerazielbereich 118 (zweiten Zielbereich) so, dass sie auf dem Weg 104 (Fahrweg) des Fahrzeugs 10 (mobilen Objekts) liegen (siehe 3).
  • Im Ergebnis kann auch in dem Fall, dass die Zielobjektsetzeinheit 70 (Zielobjektsetzvorrichtung) fehlerhaft erkennt, dass ein seitlich orientiertes Fahrzeug als Zielobjekt 100tar auf dem Weg 104 des Fahrzeugs 10 (mobilen Objekts) existiert, das Zielobjekt 100tar als Ziel der automatischen Bremsaktion (Verhaltensunterstützung) gelöscht werden und kann die automatische Bremsaktion in Bezug auf das Zielobjekt 100tar unterdrückt werden.
  • B. Modifikationen
  • Die vorliegende Erfindung ist nicht auf die obige Ausführung beschränkt, sondern kann verschiedene Alternativen oder zusätzliche Anordnungen verwenden, basierend auf dem in der vorliegenden Beschreibung offenbarten Inhalt. Zum Beispiel können die folgenden Anordnungen verwendet werden.
  • B1. Objekte, auf die die vorliegende Erfindung anwendbar ist
  • In der obigen Anordnung wird die Objekterkennungsvorrichtung 12 auf ein Fahrzeug 10 angewendet. Jedoch ist die vorliegende Erfindung nicht auf diese Anwendung beschränkt und kann auch auf andere Objekte angewendet werden. Zum Beispiel könnte die Objekterkennungsvorrichtung 12 in andere mobile Objekte eingebaut werden, wie etwa Schiffe, Flugzeuge etc. Alternativ könnte die Objekterkennungsvorrichtung 12 in Roboter eingebaut werden, sicherheitsbezogene Überwachungsvorrichtungen oder elektrische Haushaltsgeräte. Ferner braucht die Objekterkennungsvorrichtung 12 nicht notwendigerweise in dem Fahrzeug 10 (mobilen Objekt) selbst angeordnet sein, sondern könnte auch extern des Fahrzeugs 10 angeordnet werden (z. B. einer externen Vorrichtung wie etwa einer optischen Bake oder dgl.). In diesem Fall kann Kommunikation zwischen dem Fahrzeug 10 und der Objekterkennungsvorrichtung 12 ausgeführt werden und können die Erkennungsergebnisse der Objekterkennungsvorrichtung 12 (d. h. die TTC, der Wahrscheinlichkeitsgrad Dc oder die Zielobjektinformation It) zu dem Fahrzeug 10 gesendet werden.
  • B2. Konfiguration der Objekterkennungsvorrichtung 12
  • In der obigen Ausführung werden die Bewertungsergebnisse der Objekterkennungsvorrichtung 12 (d. h. die TTC, der Wahrscheinlichkeitsgrad Dc oder die Zielobjektinformation It) primär von der Objekterkennungsvorrichtung 12 selbst verwendet (Schritt S6 von 2, 7). Jedoch können die vorgenannten Bewertungsergebnisse auch an die VSA-ECU 30, die EPS-ECU 32 und die PUH-ECU 34 ausgegeben werden und von der VSA-ECU 30, der EPS-ECU 32 und der PUH-ECU 34 unabhängig verwendet werden.
  • In der obigen Ausführung wird das Radar 40 verwendet, welches Sendewellen Wt und reflektierte Wellen Wr in der Form von Millimeterwellen verwendet. Jedoch ist die vorliegende Erfindung nicht auf dieses Merkmal beschränkt. Zum Beispiel kann von dem Standpunkt, Information Ir des ersten Umgebungsobjekts 100r unter Verwendung von gesendeten Wellen Wt und reflektierten Wellen Wr als elektromagnetische Wellen zu erhalten, auch ein Laserradar oder ein Sensor, wie etwa ein Ultraschallwellensensor oder dgl. verwendet werden.
  • Gemäß der vorliegenden Ausführung werden das Radar 40 und die Kamera 42 in Kombination verwendet (siehe 1). Jedoch ist vom Standpunkt zur Bestimmung, ob das Zielobjekt 100tar das Ziel der Fahrunterstützungsaktion (Verhaltensunterstützung) zu behandeln ist oder nicht, unter Verwendung der angenommenen Bereiche (angenommene Bereiche 116, 118 etc.), die jeweils für mehrere oder mehrere Typen von Erfassungsvorrichtungen geeignet sind, die zum Erfassen der Objekte 100 dienen, die vorliegende Erfindung nicht auf dieses Merkmal beschränkt. Zum Beispiel kann auch eine Kombination verwendet werden, die aus einem Laserradar und einem Radar 40 aufgebaut ist, welches Millimeterwellen ausgibt.
  • B3. Steuerung der Objekterkennungs-ECU 44
  • [B3-1. Attribute des Zielobjekts 100tar (Schritt S3 von Fig. 2, Fig. 3)]
  • In der obigen Ausführung sind die Attribute Prtar des Zielobjekts 100tar im Hinblick auf ein seitlich orientiertes Fahrzeug beschrieben worden (Schritt S3 von 2, 3). Jedoch ist vom Standpunkt der Verwendung des angenommenen Radarzielbereichs 116 allein oder in Kombination der angenommenen Bereiche 116 und 118, die Erfindung nicht auf dieses Merkmal beschränkt. Zum Beispiel kann auch in dem Fall, dass das Zielobjekt 100tar ein vorausfahrendes Fahrzeug ist, das auf dem gleichen Weg 104 wie das Hostfahrzeug 110 fährt, der Wahrscheinlichkeitsgrad Dc des Zielobjekts 100tar unter Verwendung des angenommenen Radarzielbereichs 116 allein oder in Kombination der angenommenen Bereiche 116 und 118 bestimmt werden.
  • [B3-2. Berechnung des Wahrscheinlichkeitsgrads Dc (Schritt S5 von Fig. 2, Fig. 5)]
  • Gemäß der vorliegenden Ausführung werden die angenommenen Bereiche 116, 118 auf der Basis des Wegs 104 des Hostfahrzeugs 10 gesetzt (3). Insofern jedoch die Aufmerksamkeit auf die Beziehung zwischen der Position Por des Radarziels 100r und den Positionen der charakteristischen Abschnitte Pcha des ersten Kameraziels 100c gerichtet sind, ist die Erfindung nicht auf dieses Merkmal beschränkt. Zum Beispiel können die angenommenen Bereiche 116, 118 auch unter Verwendung der Position Por (oder der Positionen der charakteristischen Abschnitte Pcha) als Basis gesetzt werden.
  • Wenn man z. B. die angenommenen Bereiche 116, 118 auf der Basis der Position Por setzt, werden die angenommenen Bereiche 116, 118 von ihren Positionen, die gemäß 3 gesetzt sind (auf dem Weg 104 des Hostfahrzeugs 10), um den gleichen Betrag bewegt.
  • Falls die angenommenen Bereiche 116, 118 auf der Basis der Position Por (oder in davon abweichenden Fällen) gesetzt werden, kann die Breite Lr des angenommenen Bereichs 116 auch schmaler gemacht werden als der Wert in der oben beschriebenen Ausführung (siehe 3). Zum Beispiel kann die Breite Lr in Übereinstimmung mit dem Intervall zwischen dem linken Ende und dem rechten Ende (Markierungen 110l, 110r) gesetzt werden, oder mit dem Intervall zwischen den kreisförmigen Rändern (Markierungen 112l, 112r), die die linken und rechten Räder des seitlich orientierten Fahrzeugs darstellen. Alternativ könnte die Breite Lr auch in Übereinstimmung mit dem Intervall zwischen dem vertikalen Rand (Markierung 110l), der das linke Ende darstellt, und dem kreisförmigen Rand (Markierung 112r), der das rechte Rad eines seitlich orientierten Fahrzeugs darstellt, gesetzt werden, oder mit dem Intervall zwischen dem vertikalen Rand (Markierung 110r), der das rechte Ende darstellt, und dem kreisförmigen Rand (Markierung 112l), der das linke Rad des seitlich orientierten Fahrzeugs darstellt.
  • Um in der obigen Ausführung den Wahrscheinlichkeitsgrad Dc des Vorhandenseins eines seitlich orientierten Fahrzeugs zu berechnen, wird bestimmt, ob die Position Por des Radarziels 100r innerhalb des angenommenen Bereichs 116 liegt oder nicht (Schritt S11 von 5), und ob die charakteristischen Abschnitte Pcha des seitlich orientierten Fahrzeugs innerhalb des angenommenen Bereichs 118 liegen oder nicht (Schritt S13). Jedoch ist das Verfahren zum Berechnen des Wahrscheinlichkeitsgrads Dc nicht auf diese Technik beschränkt.
  • Zum Beispiel könnte, zusätzlich zu den Schritten S11 und S13 von 5, der Wahrscheinlichkeitsgrad Dc auch durch eine Bestimmung berechnet werden, ob eine Mitte oder ein Schwerpunkt (Markierung 108) des Radarziels 100r zwischen dem linken Ende und dem rechten Ende (Markierungen 110l, 110r) eines seitlich orientierten Fahrzeugs positioniert ist oder nicht.
  • Gemäß dieser Technik kann, basierend auf dem Erfassungsergebnis des Radars 40, falls die Mitte oder der Schwerpunkt (Markierung 108) des Radarziels 100r (ersten Umgebungsobjekts) an einer Position existiert, die sich von der Mitte oder dem Schwerpunkt eines seitlich orientierten Fahrzeugs unterscheidet, bestimmt werden, dass das Zielobjekt 100tar kein seitlich orientiertes Fahrzeug ist. Daher kann die Auswahl eines Zielobjekts 100tar oder die Bestimmung des Vorhandenseins des Zielobjekts 100tar als Ziel der automatischen Bremsaktion mit hoher Genauigkeit durchgeführt werden, und kann das Setzen eines Pegels zur automatischen Bremsaktion geeignet durchgeführt werden.
  • Ferner kann, anstelle der Bestimmung, ob die Mitte oder der Schwerpunkt (Markierung 108) des Radarziels 100r zwischen dem linken Ende und dem rechten Ende (Markierungen 110l, 110r) eines seitlich orientierten Fahrzeugs positioniert ist oder nicht, bestimmt werden, ob die Mitte oder der Schwerpunkt (Markierung 108) des Radarziels 100r zwischen den kreisförmigen Rändern (Markierungen 112l, 112r), welche die linken und rechten Räder darstellen, angeordnet ist oder nicht. Alternativ kann bestimmt werden, ob die Mitte oder der Schwerpunkt (Markierung 108) des Radarziels 100r zwischen dem vertikalen Rand (Markierung 110l), der das linke Ende darstellt, und dem kreisförmigen Rand (Markierung 112r), der das rechte Rad eines seitlich orientierten Fahrzeugs darstellt, positioniert ist oder nicht, oder zwischen dem vertikalen Rand (Markierung 110r), der das rechte Ende darstellt, und der kreisförmige Rand (Markierung 112l), der das linke Rad eines seitlich orientierten Fahrzeugs darstellt.
  • [B3-3. Fahrunterstützungsprozess (Schritt S6 von Fig. 2, Fig. 7)]
  • Gemäß der obigen Ausführung wird, zusätzlich zum Wahrscheinlichkeitsgrad Dc, die TTC (Zeit bis Kollision) in dem Fahrunterstützungsprozess verwendet (Schritte S22 und S25 von 7). Insofern jedoch z. B. die Aufmerksamkeit auf die Funktion des Wahrscheinlichkeitsgrads Dc gerichtet ist, ist es möglich, die Verwendung der TTC wegzulassen. In diesem Fall kann vom Standpunkt der Bestimmung einer Zeitgrenze, die ähnlich der TTC ist, eine Reichweite von Abständen in der Längsrichtung (Fahrtrichtung des Hostfahrzeugs 10) in die angenommenen Bereiche 116, 118 gesetzt oder darauf beschränkt werden.
  • Obwohl in der obigen Ausführung die automatische Bremsung ein Beispiel der Fahrunterstützungsaktion genannt worden ist (der in 6 gezeigten ersten Situation und Schritt S23 von 7), kann auch eine andere Fahrunterstützungsaktion vorgesehen werden, wie etwa eine Lenkunterstützung oder dergleichen. Falls ferner die vorliegende Erfindung auf ein anderes mobiles Objekt als das Fahrzeug 10 angewendet wird, kann anstelle der Fahrunterstützungsaktion auch ein anderer Typ von Verhaltensunterstützungsaktion implementiert werden.
  • [B3-4. Andere Merkmale]
  • Gemäß der obigen Ausführung stehen, nach Erstellung einer Beziehung zwischen der Position Por des Radarziels 100r und den charakteristischen Abschnitten Pcha des Kameraziels 100c (anders ausgedrückt, nach dem Abgleich) die Position Por und die Positionen der charakteristischen Abschnitte Pcha im Kontrast zu den angenommenen Bereichen 116 118 (2 und 5). Jedoch ist die Erfindung nicht auf dieses Merkmal beschränkt, insofern zumindest einer der angenommenen Bereiche 116, 118 verwendet werden kann.
  • Zum Beispiel ist es möglich, die Verwendung der angenommenen Bereiche 116, 118 in den Abgleichprozess einzubauen. Insbesondere kann die Extraktion der charakteristischen Abschnitte Pcha in Bezug nur auf eine Reichweite (seitliche Richtung, vertikale Richtung und Längsrichtung) durchgeführt werden, in denen jeder der charakteristischen Abschnitte Pcha existiert, auf der Basis der Position Por und des Radarziels 100r, zum Abgleich mit der Position Por. Der Extraktionsbereich ist in diesem Fall eine Reichweite, die dem angenommenen Kamerazielbereich 118 entspricht.
  • Aufgrund dieses Merkmals kann der angenommene Bereich 118 (Zielbereich des charakteristischen Abschnitts) (d. h. ein Abschnitt des Bildaufnahmebereichs 106c der Kamera 42) zum Extrahieren der charakteristischen Abschnitte Pcha des seitlich orientierten Fahrzeugs als einen vergleichsweise schmalen Bereich auf der Basisposition Por des Radarziels 100r (ersten Umgebungsobjekts) gesetzt werden, das von dem Radar 40 erfasst wird. Dementsprechend kann die Auswahl oder Bestimmung des Vorhandenseins des Zielobjekts 100tar, das ein seitlich orientiertes Fahrzeug ist, mit hoher Genauigkeit und geringem Rechenaufwand ausgeführt werden.
  • In einer Objekterkennungsvorrichtung (12) oder einem damit ausgestatteten Fahrzeug (10) wird ein erster Zielbereich (116) zur Bewertung, ob ein Zielobjekt (100tar) als Ziel einer Verhaltensunterstützungsaktion behandelt werden soll, als ein Abschnitt einer ersten Erfassungsregion (106r) gesetzt und wird ein zweiter Zielbereich (118) zur Bewertung, ob das Zielobjekt (100tar) als das Ziel der Verhaltensunterstützungsaktion behandelt werden soll, als ein Abschnitt einer zweiten Erfassungsregion (106r) gesetzt. Wenn die Position eines ersten Umgebungsobjekts, wie etwa eines Radarziels, innerhalb des ersten Zielbereichs (116) liegt und die Position eines zweiten Umgebungsobjekts, wie etwa eines Kameraziels, innerhalb eines zweiten Zielbereichs (118) liegt, wird das Zielobjekt (100tar) als das Ziel der Verhaltensunterstützungsaktion behandelt.

Claims (8)

  1. Objekterkennungsvorrichtung (12), welche aufweist: eine erste Erfassungsvorrichtung, die konfiguriert ist, um erste Positionsinformation zu erfassen, die eine Position eines ersten Umgebungsobjekts angibt, das innerhalb einer ersten Erfassungsregion (106r) existiert, die in der Umgebung eines mobilen Objekts erstellt ist; eine zweite Erfassungsvorrichtung, die konfiguriert ist, um zweite Positionsinformation zu erfassen, die eine Position eines zweiten Umgebungsobjekts angibt, das innerhalb einer zweiten Erfassungsregion (106c) existiert, wobei die zweite Erfassungsregion (106c) mit der Gesamtheit oder einem Abschnitt der ersten Erfassungsregion (106r) überlappt; eine Zielobjektsetzvorrichtung (70), die konfiguriert ist, um ein Zielobjekt (100tar) durch Abgleich des ersten Umgebungsobjekts und des zweiten Umgebungsobjekts unter Verwendung der ersten Positionsinformation und der zweite Positionsinformation zu setzen; und eine Verhaltensunterstützungs-Steuervorrichtung (66), die konfiguriert ist, um eine Verhaltensunterstützungsaktion des mobilen Objekts in Bezug auf das Zielobjekt (100tar) zu steuern/regeln; wobei die Verhaltensunterstützungs-Steuervorrichtung (66) konfiguriert ist zum: Setzen eines ersten Zielbereichs (116), der zur Bewertung verwendet wird, ob das Zielobjekt (100tar) als Ziel der Verhaltensunterstützungsaktion behandelt werden soll oder nicht, als Abschnitt der ersten Erfassungsregion (106r); und Setzen eines zweiten Zielbereichs (118), der zur Bewertung verwendet wird, ob das Zielobjekt (100tar) als das Ziel der Verhaltensunterstützungsaktion behandelt werden soll oder nicht, als Abschnitt der zweiten Erfassungsregion (106c); wobei, wenn die Position des ersten Umgebungsobjekts innerhalb des ersten Zielbereichs (116) existiert und die Position des zweiten Umgebungsobjekts innerhalb des zweiten Zielbereichs (118) existiert, das Zielobjekt (100tar) als Ziel der Verhaltensunterstützungsaktion behandelt wird; und wobei, wenn die Position des ersten Umgebungsobjekts nicht innerhalb des ersten Zielbereichs (116) existiert oder die Position des zweiten Umgebungsobjekts nicht innerhalb des zweiten Zielbereichs (118) existiert, das Zielobjekt (100tar) als das Ziel der Verhaltensunterstützungsaktion beseitigt wird, oder die Verhaltensunterstützungsaktion in Bezug auf das Zielobjekt (100tar) unterdrückt wird.
  2. Die Objekterkennungsvorrichtung (12) nach Anspruch 1, wobei: die erste Erfassungsvorrichtung ein Radar (40) ist; die zweite Erfassungsvorrichtung eine Kamera (42) ist; und die Verhaltensunterstützungs-Steuervorrichtung (66) den ersten Zielbereich (116) schmaler einstellt als den zweiten Zielbereich (118).
  3. Die Objekterkennungsvorrichtung (12) nach Anspruch 2, wobei die Verhaltensunterstützungs-Steuervorrichtung (66) das Zielobjekt (100tar) als das Ziel der Verhaltensunterstützungsaktion behandelt, wenn die Position des ersten Umgebungsobjekts innerhalb des ersten Zielbereichs (116) existiert, und ein Bildmerkmal des zweiten Umgebungsobjekts vollständig innerhalb des zweiten Zielbereichs (118) existiert.
  4. Die Objekterkennungsvorrichtung (12) nach Anspruch 3, wobei: das Zielobjekt (100tar) ein seitlich orientiertes Fahrzeug ist; und das Bildmerkmal einen vertikalen Rand (110l), der ein linkes Ende eines seitlich orientierten Fahrzeugs darstellt, und/oder einen kreisförmigen Rand (112l), der ein Rad an der linken Seite des seitlich orientierten Fahrzeugs darstellt, sowie einen vertikalen Rand (110r), der ein rechtes Ende des seitlich orientierten Fahrzeugs darstellt, und/oder einen kreisförmigen Rand (112r), der ein Rad an der rechten des seitlich orientierten Fahrzeugs darstellt, enthält.
  5. Die Objekterkennungsvorrichtung (12) nach Anspruch 4, wobei: in einem Fall, in dem eine Mitte oder ein Schwerpunkt des ersten Umgebungsobjekts zwischen dem linken Ende und dem rechten Ende positioniert ist, oder zwischen dem Rad an der linken Seite und dem Rad an der rechten Seite des seitlich orientierten Fahrzeugs positioniert ist, die Verhaltensunterstützungssteuervorrichtung (66) das Zielobjekt (100tar) als das Ziel der Verhaltensunterstützungsaktion behandelt; und in einem Fall, in dem eine Mitte oder ein Schwerpunkt des ersten Umgebungsobjekts nicht zwischen dem linken Ende und dem rechten Ende positioniert ist, oder nicht zwischen dem Rad an der linken Seite und dem Rad an der rechten Seite des seitlich orientierten Fahrzeugs positioniert ist, die Verhaltensunterstützungssteuervorrichtung (66) das Zielobjekt (100tar) als das Ziel der Verhaltensunterstützungsaktion beseitigt.
  6. Die Objekterkennungsvorrichtung (12) nach einem der Ansprüche 1 bis 5, wobei: die Zielobjektsetzvorrichtung (70) das Zielobjekt (100tar) als seitlich orientiertes Fahrzeug erkennt, das auf einem Fahrweg des mobilen Objekts existiert; und die Verhaltensunterstützungssteuervorrichtung (66) den ersten Zielbereich (116) und den zweiten Zielbereich (118) so setzt, dass sie auf dem Fahrweg liegen.
  7. Fahrzeug (10), das das mobile Objekt aufweist, in dem die Objekterkennungsvorrichtung (12) nach einem der Ansprüche 1 bis 6 enthalten ist.
  8. Objekterkennungsvorrichtung (12), welche aufweist: ein Radar (40), das konfiguriert ist, um erste Positionsinformation zu erfassen, die eine Position eines ersten Umgebungsobjekts angibt, das innerhalb einer ersten Erfassungsregion (106r) existiert, die in der Umgebung eines mobilen Objekts erstellt ist; eine Kamera (42), die konfiguriert ist, um zweite Positionsinformationen zu erfassen, die eine Position eines zweiten Umgebungsobjekts angibt, das innerhalb einer zweiten Erfassungsregion (106c) existiert, wobei die zweite Erfassungsregion (106c) mit der Gesamtheit oder einem Abschnitt der ersten Erfassungsregion (106r) überlappt; und eine Zielobjektsetzvorrichtung (70), die konfiguriert ist, um ein Zielobjekt (100tar), das ein seitlich orientiertes Fahrzeug ist, durch Abgleich des ersten Umgebungsobjekts und des zweiten Umgebungsobjekts unter Verwendung der ersten Positionsinformation und der zweiten Positionsinformation zu setzen, wobei die Zielobjektsetzvorrichtung (70) konfiguriert ist zum: Setzen eines Charakteristischer-Abschnitt-Zielbereichs, der verwendet wird, um einen charakteristischen Abschnitt des seitlich orientierten Fahrzeugs auf der Basis einer Position des ersten Umgebungsobjekts zu extrahieren, als Abschnitt der zweiten Erfassungsregion (106c); und Bewerten des ersten Umgebungsobjekts und des zweiten Umgebungsobjekts als das selbe Zielobjekt (100tar), das das seitlich orientierte Fahrzeug ist, wenn der charakteristische Abschnitt des seitlich orientierten Fahrzeugs innerhalb des Charakteristischer-Abschnitt-Zielbereichs liegt.
DE102015209112.0A 2014-05-21 2015-05-19 Objekterkennungsvorrichtung und Fahrzeug Ceased DE102015209112A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-105037 2014-05-21
JP2014105037A JP6190758B2 (ja) 2014-05-21 2014-05-21 物体認識装置及び車両

Publications (1)

Publication Number Publication Date
DE102015209112A1 true DE102015209112A1 (de) 2015-11-26

Family

ID=54432006

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015209112.0A Ceased DE102015209112A1 (de) 2014-05-21 2015-05-19 Objekterkennungsvorrichtung und Fahrzeug

Country Status (4)

Country Link
US (1) US9476976B2 (de)
JP (1) JP6190758B2 (de)
CN (1) CN105083265B (de)
DE (1) DE102015209112A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
LU100761B1 (en) * 2018-04-03 2019-10-07 Iee Sa Method for obstacle identification
WO2023131457A1 (de) * 2022-01-10 2023-07-13 Robert Bosch Gmbh Sensor mit gütebewertung und digitalem ausgang

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013216994A1 (de) * 2013-08-27 2015-03-05 Robert Bosch Gmbh Geschwindigkeitsassistent für ein Kraftfahrzeug
JP6174516B2 (ja) * 2014-04-24 2017-08-02 本田技研工業株式会社 衝突回避支援装置、衝突回避支援方法、及びプログラム
JP2017019421A (ja) * 2015-07-13 2017-01-26 日立オートモティブシステムズ株式会社 周辺環境認識装置、及び周辺環境認識プログラム
JP6516012B2 (ja) * 2015-09-15 2019-05-22 株式会社リコー 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
JP6659367B2 (ja) * 2016-01-15 2020-03-04 パナソニック株式会社 物体検出装置および物体検出方法
WO2017158958A1 (ja) * 2016-03-15 2017-09-21 株式会社リコー 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
JP6600271B2 (ja) * 2016-03-31 2019-10-30 株式会社デンソー 物体認識装置及び物体認識方法
EP3614105B1 (de) * 2016-06-27 2023-10-18 Mobileye Vision Technologies Ltd. Steuerung eines hostfahrzeugs basierend auf erfassten geparkten fahrzeugeigenschaften
US10852418B2 (en) * 2016-08-24 2020-12-01 Magna Electronics Inc. Vehicle sensor with integrated radar and image sensors
US10528850B2 (en) * 2016-11-02 2020-01-07 Ford Global Technologies, Llc Object classification adjustment based on vehicle communication
JP2020518500A (ja) * 2017-03-31 2020-06-25 エイ・キューブド・バイ・エアバス・エル・エル・シー 乗り物監視システムおよび外部の物体を検知するための方法
WO2019003533A1 (ja) * 2017-06-26 2019-01-03 日立オートモティブシステムズ株式会社 駐車支援装置
JP7045155B2 (ja) * 2017-09-14 2022-03-31 株式会社デンソー 物標認識装置、物標認識方法及び車両制御システム
JP6805105B2 (ja) * 2017-09-28 2020-12-23 株式会社デンソー 制御対象車両設定装置、制御対象車両設定システムおよび制御対象車両設定方法
US11458963B2 (en) * 2017-10-10 2022-10-04 Nissan Motor Co., Ltd. Driving control method and driving control apparatus
EP3514648B1 (de) * 2018-01-22 2023-09-06 Continental Autonomous Mobility Germany GmbH Verfahren und vorrichtung zur erkennung einer grenze in einer umgebung eines objektes
JP7027279B2 (ja) * 2018-08-07 2022-03-01 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
CN110857088B (zh) * 2018-08-15 2021-01-19 比亚迪股份有限公司 目标识别方法、装置、计算机可读存储介质及车辆
CN110969055B (zh) * 2018-09-29 2023-12-19 阿波罗智能技术(北京)有限公司 用于车辆定位的方法、装置、设备和计算机可读存储介质
CN109987089B (zh) * 2018-11-29 2020-12-01 惠州华阳通用电子有限公司 一种静态障碍物判断方法及装置
CN110481485B (zh) * 2019-08-21 2020-11-03 宁波吉利汽车研究开发有限公司 防止发动机盖误弹起的方法、装置、设备及存储介质
CN113093176B (zh) * 2019-12-23 2022-05-17 北京三快在线科技有限公司 线状障碍物检测方法、装置、电子设备和存储介质
WO2021152821A1 (ja) * 2020-01-31 2021-08-05 三菱電機株式会社 先行車判定装置及び先行車判定プログラム
JP7211397B2 (ja) * 2020-05-15 2023-01-24 トヨタ自動車株式会社 他車両表示システム
JP7474689B2 (ja) 2020-12-04 2024-04-25 日産自動車株式会社 物体検出方法及び物体検出装置
CN112562412B (zh) * 2020-12-07 2022-03-11 广州小鹏自动驾驶科技有限公司 一种数据处理的方法和装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4193765B2 (ja) * 2004-01-28 2008-12-10 トヨタ自動車株式会社 車両用走行支援装置
JP2006151125A (ja) * 2004-11-26 2006-06-15 Omron Corp 車載用画像処理装置
JP4377439B1 (ja) * 2008-06-12 2009-12-02 本田技研工業株式会社 車両周辺監視装置
JP5004887B2 (ja) * 2008-07-16 2012-08-22 日立オートモティブシステムズ株式会社 車両運転支援装置
JP5379543B2 (ja) * 2009-04-09 2013-12-25 日立オートモティブシステムズ株式会社 自動車の外界認識装置
KR20140020361A (ko) * 2011-04-20 2014-02-18 도요타 지도샤(주) 차량용 주변 경계 장치
JP6022983B2 (ja) * 2013-03-29 2016-11-09 株式会社日本自動車部品総合研究所 運転支援装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
LU100761B1 (en) * 2018-04-03 2019-10-07 Iee Sa Method for obstacle identification
WO2019193009A1 (en) * 2018-04-03 2019-10-10 Iee International Electronics & Engineering S.A. Method for obstacle identification
CN111936376A (zh) * 2018-04-03 2020-11-13 Iee国际电子工程股份公司 障碍物识别方法
CN111936376B (zh) * 2018-04-03 2023-08-18 Iee国际电子工程股份公司 障碍物识别方法
US11836986B2 (en) 2018-04-03 2023-12-05 Iee International Electronics & Engineering S.A. Method for obstacle identification
WO2023131457A1 (de) * 2022-01-10 2023-07-13 Robert Bosch Gmbh Sensor mit gütebewertung und digitalem ausgang

Also Published As

Publication number Publication date
JP2015219858A (ja) 2015-12-07
US9476976B2 (en) 2016-10-25
JP6190758B2 (ja) 2017-08-30
US20150338516A1 (en) 2015-11-26
CN105083265A (zh) 2015-11-25
CN105083265B (zh) 2017-12-12

Similar Documents

Publication Publication Date Title
DE102015209112A1 (de) Objekterkennungsvorrichtung und Fahrzeug
DE102015219780A1 (de) Objekterkennungsvorrichtung
DE102018218220A1 (de) Steuergerät für ein Fahrzeug
DE112010003874B4 (de) Fahrzeugsteuerung
EP2915152B1 (de) Verfahren zum identifizieren eines von einer sensoreinrichtung erfassten fahrzeugs
DE112019001832T5 (de) Strassenmarkierungsdetektionsverfahren
DE102019106375B4 (de) Fahrzeugsteuervorrichtung
DE102011014699B4 (de) Verfahren zum Betrieb eines Fahrerassistenzsystems zum Schutz eines Kraftfahrzeuges vor Beschädigungen und Kraftfahrzeug
EP3281830A1 (de) Steuerungssystem und steuerungsverfahren zum bestimmen einer trajektorie und zum erzeugen von zugehörigen signalen oder steuerbefehlen
EP3281831A1 (de) Steuerungssystem und steuerungsverfahren zum ermitteln einer wahrscheinlichkeit für einen fahrspurwechsel eines vorausfahrenden kraftfahrzeugs
DE112017003974B4 (de) Geschwindigkeitsregelungsvorrichtung
DE112016001512T5 (de) Fahrzeugsteuerungsvorrichtung in einem fahrzeugsteuerungsverfahren
DE102014212962A1 (de) Fahrzeug und Verfahren zum Steuern eines Fahrzeuges
DE112014002823T5 (de) Fahrzeugsteuersystem
EP2904599B1 (de) Verfahren und vorrichtung zum unterstützen des zurückführens eines fahrzeugs nach dem verlassen einer fahrbahn
EP3018031B1 (de) Einrichtung zur adaptiven geschwindigkeits- und abstandsregelung für ein kraftfahrzeug, zugehöriges kraftfahrzeug und zugehöriges verfahren
DE112018007484T5 (de) Hindernis-Detektionsvorrichtung, automatische Bremsvorrichtung unter Verwendung einer Hindernis-Detektionsvorrichtung, Hindernis-Detektionsverfahren und automatisches Bremsverfahren unter Verwendung eines Hindernis-Detektionsverfahrens
WO2013083384A1 (de) Verfahren und fahrzeugassistenzsystem zur aktiven warnung und/oder zur navigationshilfe zur vermeidung einer kollision eines fahrzeugkarosserieteils und/oder eines fahrzeugrades mit einem objekt
DE102015117903A1 (de) Verfahren zum Betreiben eines Fahrerassistenzsystems, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102020207928A1 (de) Vorrichtung zur unterstützung des fahrens eines fahrzeugs und verfahren dafür
DE102011077333A1 (de) Fahrerassistenzsystem mit Objektdetektion
DE112016001570T5 (de) Fahrzeugsteuerungsvorrichtung in einem fahrzeugsteuerungsverfahren
DE102015206746A1 (de) Mobiles-objekt-steuervorrichtung und zielobjekt-erfassungsvorrichtung
DE102017126452B4 (de) Fahrzeugsteuersystem
WO2020052840A1 (de) Verfahren und vorrichtung zum betrieb eines zumindest teilweise automatisiert betriebenen ersten fahrzeugs

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R083 Amendment of/additions to inventor(s)
R082 Change of representative

Representative=s name: WEICKMANN & WEICKMANN PATENTANWAELTE - RECHTSA, DE

Representative=s name: WEICKMANN & WEICKMANN PATENT- UND RECHTSANWAEL, DE

R163 Identified publications notified
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final