DE112020002784T5 - Objekterfassungsgerät, Fahrsteuerungssystem und Fahrsteuerungsverfahren - Google Patents

Objekterfassungsgerät, Fahrsteuerungssystem und Fahrsteuerungsverfahren Download PDF

Info

Publication number
DE112020002784T5
DE112020002784T5 DE112020002784.8T DE112020002784T DE112020002784T5 DE 112020002784 T5 DE112020002784 T5 DE 112020002784T5 DE 112020002784 T DE112020002784 T DE 112020002784T DE 112020002784 T5 DE112020002784 T5 DE 112020002784T5
Authority
DE
Germany
Prior art keywords
section
vehicle
pose
distance
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112020002784.8T
Other languages
English (en)
Inventor
Manabu Sasamoto
Shigeru Matsuo
Kentarou Ueno
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Astemo Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Astemo Ltd filed Critical Hitachi Astemo Ltd
Publication of DE112020002784T5 publication Critical patent/DE112020002784T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0287Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
    • G05D1/0291Fleet control
    • G05D1/0295Fleet control by at least one leading vehicle of the fleet
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/60Intended control result
    • G05D1/69Coordinated control of the position or course of two or more vehicles
    • G05D1/698Control allocation
    • G05D1/6985Control allocation using a lead vehicle, e.g. primary-secondary arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/802Longitudinal distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/806Relative heading
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Quality & Reliability (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

Ein Problem der vorliegenden Erfindung ist es, ein Objekterfassungsgerät usw. bereitzustellen, das ein Objekt unabhängig von der Position des Blickwinkels und dem Abstand zum Objekt genau erfassen kann. Ein Objekterfassungsgerät der vorliegenden Erfindung hat: einen Stereo-Abstandserfassungsbereich 105, der einen Abstand zu einem Objekt detektiert; einen Positionserfassungsbereich 106, der eine Position des Objekts detektiert; einen Posenerfassungsbereich 111, der eine Pose des Objekts detektiert; einen Fahrzeuginformationeingabebereich, der Zustandsinformationen über ein Basisfahrzeug und ein anderes Fahrzeug eingibt; einen Positionsvorhersagebereich 109, der eine Position des anderen Fahrzeugs basierend auf den Zustandsinformationen über das Basisfahrzeug und das andere Fahrzeug vorhersagt; einen Posenvorhersagebereich 110, der eine Pose des anderen Fahrzeugs auf der Grundlage der Zustandsinformationen über das Basisfahrzeug und das andere Fahrzeug vorhersagt; und einen Bestimmungsbereich 112, der einen Abstand zu, eine Position von und eine Pose des anderen Fahrzeugs in Reaktion auf die von dem Abstandserfassungsbereich, dem Positionserfassungsbereich, dem Posenerfassungsbereich, dem Positionsvorhersagebereich und dem Posenvorhersagebereich erfassten oder vorhergesagten Informationen bestimmt.

Description

  • Technischer Bereich
  • Die vorliegende Erfindung betrifft ein Objekterfassungsgerät, das ein Objekt, wie z. B. ein vorausfahrendes Fahrzeug, von einem Basisfahrzeug aus erfasst.
  • Stand der Technik
  • In der Patentliteratur 1 wird beispielsweise ein Verfahren zur Vorhersage der Fahrtrajektorie eines einem Basisfahrzeug vorausfahrenden Fahrzeugs als Hintergrundwissen zu diesem technischen Gebiet vorgeschlagen. Konkret wird in der Patentschrift 1 beschrieben, dass ein von einer Bilderfassungsvorrichtung aufgenommenes Bild analysiert wird, um die Ausrichtung und Geschwindigkeit eines vorausfahrenden Fahrzeugs zu erfassen und so die Fahrtrajektorie vorauszusagen.
  • Liste von Druckschriften
  • Patentliteratur
  • Patentliteratur 1: Japanische ungeprüfte Patentanmeldung Veröffentlichung Nr. 2018-97644
  • Zusammenfassung der Erfindung
  • Technisches Problem
  • Die in Patentliteratur 1 beschriebene Technologie analysiert ein von einem Bildaufnahmegerät aufgenommenes Bild, erfasst die Ausrichtung und die Geschwindigkeit eines vorausfahrenden Fahrzeugs und prognostiziert die Fahrtrajektorie. Wenn sich das Objekt aus dem Erfassungswinkel herausbewegt, kann sich die Verfolgungsgenauigkeit daher verringern.
  • Die vorliegende Erfindung dient der Lösung eines solchen Problems und hat das Hauptziel, z.B. ein Objekterfassungsgerät bereitzustellen, das in der Lage ist, ein Objekt unabhängig von der Position des Blickwinkels und des Abstands zum Objekt genau zu erfassen.
  • Lösung des Problems
  • Ein Objekterfassungsgerät der vorliegenden Erfindung, das das obige Problem löst, umfasst: einen Abstandserfassungsbereich, der einen Abstand zu einem Objekt detektiert; einen Positionserfassungsbereich, der eine Position des Objekts basierend auf dem durch den Abstandserfassungsbereich detektierten Abstand detektiert; einen Posenerfassungsbereich, der eine Pose des Objekts basierend auf dem durch den Abstandserfassungsbereich detektierten Abstand detektiert; einen ersten Fahrzeuginformationeingabebereich, der Zustandsinformationen über ein Basisfahrzeug eingibt; einen zweiten Fahrzeuginformationeingabebereich, der Zustandsinformationen über ein anderes Fahrzeug eingibt; einen Positionsvorhersagebereich, der eine Position des anderen Fahrzeugs basierend auf den Zustandsinformationen über das Basisfahrzeug und den Zustandsinformationen über das andere Fahrzeug, die jeweils durch den ersten Fahrzeuginformationeingabebereich und den zweiten Fahrzeuginformationeingabebereich eingegeben werden, vorhersagt, einen Posenvorhersagebebereich, der eine Pose des anderen Fahrzeugs auf der Grundlage der Zustandsinformationen über das Basisfahrzeug und der Zustandsinformationen über das andere Fahrzeug vorhersagt, die jeweils von dem ersten Fahrzeuginformationeingabebereich und dem zweiten Fahrzeuginformationeingabebereich eingegeben werden; und einen Bestimmungsbereich, der einen Abstand zu dem anderen Fahrzeug, eine Position und eine Pose des anderen Fahrzeugs als Reaktion auf die Informationen bestimmt, die jeweils von dem Abstandserfassungsbereich, dem Positionserfassungsbereich, dem Posenerfassungsbereich, dem Positionsvorhersagebereich und dem Posenvorhersagebereich erfasst oder vorhergesagt werden.
  • Vorteilhafte Wirkung der Erfindung
  • Gemäß der vorliegenden Erfindung kann das Objekt unabhängig von der Position des Betrachtungswinkels und dem Abstand zu einem Objekt genau erkannt werden. Weitere Merkmale der vorliegenden Erfindung werden aus der vorliegenden Beschreibung und den beigefügten Zeichnungen deutlich. Darüber hinaus werden ein Problem, eine Konfiguration und eine vorteilhafte Wirkung, die von der obigen Beschreibung abweichen, durch die Erläuterung der folgenden Ausführungsformen deutlich.
  • Figurenliste
    • zeigt eine Konfiguration eines Objekterfassungsgeräts der ersten Ausführungsform.
    • zeigt ein Beispiel für ein Paar von Bildern, die gleichzeitig von einem linken und einem rechten Bildaufnahmebereich aufgenommen wurden.
    • zeigt ein Beispiel für ein Ergebnis, das anhand des in dargestellten Bildpaares erfasst wurde.
    • zeigt ein Beispiel für eine Fahrtrajektorie eines Fahrzeugs.
    • veranschaulicht den zeitlichen Ablauf der Verarbeitung des Objekterfassungsgerätes der ersten Ausführungsform.
    • zeigt einen Verarbeitungsablauf des Objekterfassungsgerätes der ersten Ausführungsform.
    • zeigt Beispiele für während der Fahrt aufgenommene Bilder.
    • zeigt Beispiele von Erfassungsergebnissen und Vorhersageergebnissen durch das Objekterfassungsgerät der ersten Ausführungsform.
    • zeigt ein Beispiel für eine Positionsbeziehung zwischen einem Basisfahrzeug und einem vorausfahrenden Fahrzeug.
    • zeigt eine Konfiguration eines Objekterfassungsgeräts der zweiten Ausführungsform.
    • zeigt eine Konfiguration eines Objekterfassungsgeräts der dritten Ausführungsform.
    • zeigt eine Konfiguration eines Objekterfassungsgeräts der vierten Ausführungsform.
  • Beschreibung der Ausführungsformen
  • Nachfolgend werden Ausführungsformen der vorliegenden Erfindung unter Bezugnahme auf die Zeichnungen erläutert. In den folgenden Ausführungsformen wird ein vorausfahrendes Fahrzeug als Beispiel für ein Objekt genannt, dessen Position erfasst wird, und eine Position des vorausfahrenden Fahrzeugs wird erfasst. Dies stellt keine Einschränkung der vorliegenden Erfindung dar. Die Position eines beliebigen Objekts kann erfasst werden.
  • <Erste Ausführungsform>
  • 1 veranschaulicht eine Konfiguration eines Objekterfassungsgerät der ersten Ausführungsform der vorliegenden Erfindung. Ein Bezugszeichen 1 kennzeichnet das Objekterfassungsgerät der vorliegenden Ausführungsform. Das Objekterfassungsgerät 1 ist beispielsweise an der Vorderseite eines Basisfahrzeugs angebracht, erkennt ein Objekt wie ein vorausfahrendes Fahrzeug, das ein anderes Fahrzeug ist, und bildet einen Teil eines Fahrsteuerungssystems, das beispielsweise die Fahrsteuerung für die Fahrt unterstützt, um dem vorausfahrenden Fahrzeug zu folgen.
  • Das Objekterfassungsgerät 1 ist beispielsweise in einem Gehäuse einer fahrzeuginternen Stereokamera untergebracht. Das Objekterfassungsgerät 1 umfasst ein linkes und ein rechtes Paar von Bildaufnahmebereichen 101 und 102 (erster Bildaufnahmebereich, zweiter Bildaufnahmebereich), einen Bildkorrekturbereich 104, einen Stereo-Abstandserfassungsbereich 105, einen Positionserfassungsbereich 106, Trajektorievorhersagebereiche 107 und 108, einen Positionsvorhersagebereich 109, einen Posenvorhersagebereich 110, einen Posenerfassungsbereich 111 und einen Bestimmungsbereich 112.
  • Die Bildaufnahmebereiche 101 und 102 haben einen Bildsensor, der mit einer optischen Linse ausgestattet ist. Diese Bildaufnahmebereiche 101 und 102 nehmen wiederholt ein Bild zu einem bestimmten Zeitpunkt auf, um das aufgenommene Bild auszugeben. Der Bildaufnahmebereich 101 und der Bildaufnahmebereich 102 sind in einem vorbestimmten Abstand in der linken und rechten Richtung voneinander entfernt montiert. Das Objekterfassungsgerät 1 ist in der Lage, aus einer Verschiebung, der so genannten Parallaxe, zwischen den von den Bildaufnahmebereichen 101 und 102 aufgenommenen Bildern den Abstand zu einem Subjekt zu berechnen.
  • Es wird darauf hingewiesen, dass 1 ein Beispiel zeigt, bei dem die Komponenten des Objekterfassungsgeräts 1 in demselben Gehäuse untergebracht sind. Die Hebevorrichtungen 101 und 102 können beispielsweise zusammen in einer anderen Karosserie untergebracht sein als die anderen Komponenten (in 1 durch eine gestrichelte Linie 11 umrandet) bzw. in verschiedenen Karosserien, die am Fahrzeug montiert werden. In diesem Fall können die Bildsignale übertragen werden, indem die Komponenten über nicht dargestellte Verbindungskabel miteinander verbunden werden. Das Bildübertragungsverfahren mit Verbindungskabeln umfasst ein Übertragungsverfahren mit differentiellen Übertragungsleitungen nach dem LVDS-Verfahren (Low Voltage Differential Signaling).
  • Durch die Verwendung von Farbbildsensoren als Bildsensoren der Bildaufnahmebereiche 101 und 102 wird das Objekterfassungsgerät 1 außerdem in die Lage versetzt, Farbinformationen über aufgenommene Bilder zu erfassen und aus den Farbinformationen zusätzlich zu den Helligkeitsinformationen den Zustand eines Verkehrssignals und den Zustand eines Rücklichts eines vorausfahrenden Fahrzeugs zu bestimmen.
  • Der Bildkorrekturbereich 104 nimmt jeweils Bilder von den Bildaufnahmebereichen 101 und 102 auf, korrigiert jedes Bild um einen zuvor gemessenen Korrekturwert, um die Helligkeit der Bilder anzupassen, korrigiert die Verzerrung der Bilder aufgrund der Linsen und führt eine Korrektur durch, um die horizontalen Positionen der Bilder des Bildaufnahmebereichs 101 und des Bildaufnahmebereichs 102 um einen zuvor gemessenen Korrekturwert aneinander anzupassen.
  • Die Messung jedes Korrekturwerts wird zuvor durch einen Herstellungsprozess des Objekterfassungsgeräts 1 vorgenommen. Jedes Objekterfassungsgerät 1 nimmt vor der Anwendung eines Korrekturwerts ein Bild eines bestimmten Subjekts auf. Ein Helligkeits-Korrekturwert für jedes Pixel wird bestimmt, um die Helligkeit der aufgenommenen Bilder auszugleichen. Ein geometrischer Korrekturwert für jedes Pixel wird bestimmt, um der Linsenverzerrung entgegenzuwirken und die Bilder zu parallelisieren. Jedes Objekterfassungsgerät 1 speichert die Werte als Korrekturtabelle in einem nicht illustrierten nichtflüchtigen Speicher.
  • Der Stereo-Abstandserfassungsbereich 105 gibt Bilder aus dem Bildkorrekturbereich 104 ein und erfasst einen Abstand zu einem Subjekt und einen Typ eines Objekts. Das Verfahren zum Erfassen der Abstände umfasst zum Beispiel das folgende Verfahren. Der Stereo-Abstandserfassungsbereich 105 nimmt Bilder aus dem Bildkorrekturbereich 104 auf, um die Parallaxe zu berechnen. Da, wie oben beschrieben, der Bildaufnahmebereich 101 und der Bildaufnahmebereich 102 in einem vorbestimmten Abstand in der linken und rechten Richtung voneinander entfernt installiert sind, weisen die aufgenommenen Bilder eine Parallaxe auf. Zur Berechnung dieser Parallaxe wird die sogenannte Stereoverarbeitung durchgeführt.
  • Eine Technik zur Berechnung der Parallaxe umfasst ein Blockvergleichsverfahren. Konkret sucht der Stereo-Abstandserfassungsbereich 105 zunächst einen Bereich auf einem vom Bildaufnahmebereich 102 aufgenommenen Bild. Dieser Bereich entspricht einem kleinen Blockbereich mit einer vorgegebenen Größe, der aus einem bestimmten Bildbereich des vom Bildaufnahmebereich 101 aufgenommenen Bildes ausgeschnitten wird. Diese vorgegebene Größe hat beispielsweise acht Pixel in der Höhe und acht Pixel in der Breite. Der Stereo-Abstandserfassungsbereich 105 verschiebt die gleich großen Blockbereiche auf dem Bild des Bildaufnahmebereichs 102 horizontal um die als Suchdichte festgelegte Anzahl von Pixeln, wobei Korrelationswerte ausgewertet werden. In diesem Fall setzt der Stereo-Abstandserfassungsbereich 105 den Suchbereich auf 128 Pixel und die Suchdichte auf zwei Pixel als Kombination oder den Suchbereich auf 32 Pixel und die Suchdichte auf ein Pixel als Kombination. Dies ermöglicht die Steuerung des Verarbeitungsaufwands und der Genauigkeit der Berechnung zusammen mit der Festlegung der Verarbeitungsfläche. Wenn die Suchdichte erhöht wird, wird die Genauigkeit des Abstands zu einem zu erfassenden Objekt grob, aber der Verarbeitungsaufwand im Suchbereich wird verringert. Wenn die Suchdichte verringert wird, erhöht sich die Genauigkeit des zu erfassenden Abstands.
  • Der Positionsunterschied zwischen den übereinstimmenden Blockbereichen in dem aufgenommenen Bild des Bildaufnahmebereichs 101 und dem aufgenommenen Bild des Bildaufnahmebereichs 102 ist eine Parallaxe, die als Anzahl von Pixeln angegeben wird. Der Stereo-Abstandserfassungsbereich 105 ist in der Lage, anhand dieser Parallaxe den Abstand zu einem Objekt zu bestimmen, das im Blockbereich in einer realen Umgebung erscheint. Es sei darauf hingewiesen, dass in diesem Beispiel ein Blockbereich als Bildelement verwendet wird, in dem ein Abstand bestimmt werden soll. Ein Vergleichsverfahren zur Auswertung von Korrelationswerten beinhaltet die Verwendung einer Position mit einer geringeren Gesamtsumme der Helligkeitsunterschiede zwischen den zu vergleichenden Pixeln in einem Blockbereich als Parallaxe.
  • Es ist bekannt, dass einen zu erfassende Abstand aus den Linsenfokusabständen des Bildaufnahmebereichs 101 und des Bildaufnahmebereichs 102, einer Basislinienlänge, die ein Abstand zwischen dem Bildaufnahmebereich 101 und dem Bildaufnahmebereich 102 ist, der oben bestimmten Parallaxe und einem Pixelabstand eines Bildaufnahmesensors bestimmt wird. Dies schränkt jedoch das Abstandsberechnungsverfahren in der vorliegenden Erfindung nicht ein. Darüber hinaus ist das Bildelement, das das Ziel der Abstandsbestimmung ist, nicht auf den oben genannten Blockbereich beschränkt, sondern kann jedes Pixel verwenden, das einen Bildaufnahmesensor bildet.
  • Bei der Objekterfassungsmethode fasst der Stereo-Abstandserfassungsbereich 105 die Abstandsinformationen als eine Gruppe zusammen, wenn beispielsweise Teile von Abstandsinformationen, die im Allgemeinen die gleichen Abstände angeben, nahe beieinander liegen. Dann betrachtet der Stereo-Abstandserfassungsbereich 105 die Gruppe als ein Objekt, wenn die Größe der Gruppe eine vorbestimmte Größe oder mehr beträgt. Anschließend erfasst der Stereo-Abstandserfassungsbereich 105 das Objekt anhand der Größe und Form der erkannten Gruppe als z.B. ein Fahrzeug. Es gibt ein Verfahren zur Erfassung von Größe und Form eines Objekts im Vergleich zu Musterdaten, die zuvor als Referenzdaten gespeichert wurden. Diese Verarbeitungsmethode ist in der Lage, den Abstand zwischen einem Basisfahrzeug und einem vorausfahrenden Objekt genau zu bestimmen. Dies wird daher als Information zur Vermeidung von Kollisionen verwendet, z. B. Abbremsen oder Anhalten des Basisfahrzeugs. Die erfasste Art des Objekts und der erfasste Abstand zum Objekt werden an den Positionserfassungsbereich 106, den Positionsvorhersagebereich 109, den Posenvorhersagebereich 110, den Posenerfassungsbereich 111 und den Bestimmungsbereich 112 ausgegeben, die später erwähnt werden.
  • Der Positionserfassungsbereich 106 erfasst die Position des Objekts relativ zum Basisfahrzeug auf der Grundlage eines Ergebnisses des Stereo-Abstandserfassungsbereichs 105. Der Positionserfassungsbereich 106 erfasst z.B. eine linke und eine rechte Position, die durch eine Differenz zwischen der Mitte zwischen den Einbaupositionen des Bildaufnahmebereichs 101 und des Bildaufnahmebereichs 102 und der seitlichen Mitte des Objekts angegeben wird. Der Positionserfassungsbereich 106 ist in der Lage, nur ein als Fahrzeug erkanntes Objekt auszuwählen und zu erfassen.
  • Wenn beispielsweise die Bildaufnahmebereiche 101 und 102 in Richtung der Fahrzeugbreite (links-rechts) des Basisfahrzeugs voneinander entfernt angeordnet sind, um eine Vorwärtsbildaufnahme durch die Windschutzscheibe des Basisfahrzeugs durchzuführen, ist der in der vorliegenden Ausführungsform erfasste Abstand ein Abstand in Richtung der Mittelachse des Fahrzeugs (Z-Richtung), der in Längsrichtung des Fahrzeugs festgelegt ist. Die linke Position und die rechte Position, die in der vorliegenden Ausführungsform erfasst werden, geben einen Abstand des Basisfahrzeugs in Richtung der Fahrzeugbreite (X-Richtung) an (siehe z. B. 9).
  • Zustandsinformationen über das Basisfahrzeug werden in den Trajektorienvorhersagebereich 107 (erster Fahrzeuginformationeingabebereich) eingegeben. Der Trajektorienvorhersagebereich 107 sagt eine Trajektorie des Basisfahrzeugs auf der Grundlage der eingegebenen Zustandsinformationen über das Basisfahrzeug voraus. Die einzugebenden Zustandsinformationen über das Basisfahrzeug umfassen einen Lenkwinkel, eine Gierrate, eine Geschwindigkeit, eine Beschleunigung, eine Radgeschwindigkeit, Positionsinformationen von einem Satelliten und einen Reiseplan eines Fahrzeugs.
  • Zustandsinformationen über ein anderes Fahrzeug werden in den Trajektorienvorhersagebereich 108 eingegeben, bei dem es sich um einen weiteren Trajektorienvorhersagebereich (zweiter Fahrzeuginformationeingabebereich) handelt. Der Trajektorienvorhersagebereich 108 sagt eine Trajektorie eines vorausfahrenden Fahrzeugs auf der Grundlage der eingegebenen Zustandsinformationen über das vorausfahrende Fahrzeug voraus. In ähnlicher Weise umfassen die einzugebenden Zustandsinformationen über das vorausfahrende Fahrzeug einen Lenkwinkel, eine Gierrate, eine Geschwindigkeit, eine Beschleunigung, eine Radgeschwindigkeit und Positionsinformationen von einem Satelliten. Das Mittel zur Eingabe der Zustandsinformationen über das vorausfahrende Fahrzeug umfasst die drahtlose Übertragung von Informationen zwischen Fahrzeugen. Dieses Mittel ist nicht illustriert. Das heißt, das Basisfahrzeug führt eine fahrzeugübergreifende Kommunikation mit dem vorausfahrenden Fahrzeug durch, um die Zustandsinformationen über das vorausfahrende Fahrzeug zu erhalten.
  • Der Positionsvorhersagebereich 109 prognostiziert den Abstand und die Position des vorausfahrenden Fahrzeugs in Bezug auf das Basisfahrzeug auf der Grundlage der Trajektorievorhersagen für das Basisfahrzeug und das vorausfahrende Fahrzeug, die von dem Trajektorievorhersagebereich 107 und dem Trajektorievorhersagebereich 108 erfasst werden. Ferner identifiziert der Positionsvorhersagebereich 109 die Position der hinteren Endfläche, die ein vorbestimmter Teil des Objekts ist, und gibt die Position an den unten erwähnten Posenerfassungsbereich 111 aus. Bei der hinteren Endfläche des Objekts handelt es sich z. B. um die hintere Oberfläche eines Fahrzeugs. Wenn das Fahrzeug abbiegt und sowohl die hintere Oberfläche als auch die Seitenfläche des Fahrzeugs im erfassten Bild enthalten sind, ist der Positionsvorhersagebereich 109 in der Lage, die Pose der hinteren Oberfläche zu erfassen, die nicht die Seitenfläche des Fahrzeugs ist, um die Genauigkeit der Posenerfassung zu verbessern. Das Verfahren zur Bestimmung der Position der Heckfläche umfasst z. B. die Erfassung anhand einer Ausrichtung (Gierwinkel) eines vorausfahrenden Fahrzeugs relativ zu einem Basisfahrzeug. Die Position der Heckfläche kann beispielsweise ermittelt werden, indem die Zustandsinformationen einschließlich der Informationen über die Ausrichtung des vorausfahrenden Fahrzeugs vom vorausfahrenden Fahrzeug durch Kommunikation zwischen den Fahrzeugen erfasst werden.
  • Der Posenvorhersagebereich 110 sagt die Pose des vorausfahrenden Fahrzeugs relativ zum Basisfahrzeug auf der Grundlage der Trajektorievorhersagen für das Basisfahrzeug und das vorausfahrende Fahrzeug voraus, die von dem Trajektorievorhersagebereich 107 und dem Trajektorievorhersagebereich 108 erfasst werden. Die Pose ist ein relativer Gierwinkel zwischen einem vorausfahrenden Fahrzeug und einem Basisfahrzeug, um eine Winkeldifferenz theta zu erfassen (siehe 9).
  • Der Posenerfassungsbereich 111 erfasst den Gierwinkel theta, der eine Orientierung eines Objekts darstellt, wie z. B. eine relative Winkeldifferenz zwischen dem vorausfahrenden Fahrzeug und dem Basisfahrzeug. Diese Winkeldifferenz ändert sich als Reaktion auf die Änderung der Gierwinkel des vorausfahrenden Fahrzeugs und des Basisfahrzeugs. Der Posenerfassungsbereich 111 detektiert eine Orientierung des Objekts, indem er ein Erfassungsergebnis des Stereo-Abstandserfassungsbereichs 105 verwendet. Der Posenerfassungsbereich 111 verwendet eine lineare Anpassung des horizontalen Abstands der gegenüberliegenden Oberfläche des Objekts, um die Neigung zu bestimmen.
  • Wenn beispielsweise ein Abstand Z (Tiefe) relativ zu einer Koordinate X in horizontaler Richtung (Querrichtung) einer hinteren Oberfläche eines Objekts (vorausfahrendes Fahrzeug) als (X, Z) angegeben wird, wird angenommen, dass (X1, Z1) , (X2, Z2), ..., (X5, Z5) als Messergebnisse erfasst werden. Der Posenerfassungsbereich 111 ermittelt z.B. eine Regressionsgerade (Z = al x X + a2; a1, a2: Konstante), indem er z.B. nach der Methode der kleinsten Quadrate aus der Neigung a1 theta (= arctan (a1)) berechnet.
  • Bei der Erfassung gibt der Posenerfassungsbereich 111 Informationen vom Positionsvorhersagebereich 109 ein, um die hintere Oberfläche des vorausfahrenden Fahrzeugs zu identifizieren, und erfasst nur die hintere Oberfläche, indem er die Seitenfläche des Fahrzeugs ausschließt. Die Genauigkeit der Posenerfassung kann so verbessert werden. Außerdem ist der Posenerfassungsbereich 111 in der Lage, nur das als Fahrzeug erkannte Objekt auszuwählen und zu erfassen.
  • Der Bestimmungsbereich 112 erhält ein Abstandserfassungsergebnis vom Stereo-Abstandserfassungsbereich 105, ein Positionserfassungsergebnis vom Positionserfassungsbereich 106, ein Posenerfassungsergebnis vom Posenerfassungsbereich 111, ein Positionsvorhersageergebnis vom Positionsvorhersagebereich 109 und ein Posenvorhersageergebnis vom Posenvorhersagebereich 110. Der Bestimmungsbereich 112 bestimmt die Ergebnisse, um ein Erfassungsergebnis des Objekts außerhalb des Objekterfassungsgeräts 1 auszugeben.
  • Der Bestimmungsbereich 112 ändert die Verwendungsrate der tatsächlichen Erfassungsergebnisse des Positionserfassungsbereichs 106 und des Posenerfassungsbereichs 111 und der Vorhersageergebnisse des Positionsvorhersagebereiches 109 und des Posenvorhersagebereichs 110 in Abhängigkeit von der Bildaufnahmebedingung des Objekts. Die Verwendungsrate der tatsächlichen Erfassungsergebnisse und der Vorhersageergebnisse wird in Abhängigkeit von dem Maß des Objekts im aufgenommenen Bild bestimmt.
  • Der Bestimmungsbereich 112 führt einen Prozess zur Berechnung des Masses des Objekts durch, das in den aufgenommenen Bildern der Bildaufnahmebereiche 101 und 102 erscheint. In Abhängigkeit von dem Mass des Objekts wird die Gewichtung der tatsächlichen Erfassungsergebnisse und der Vorhersageergebnisse geändert. Insbesondere werden die vom Stereo-Abstandserfassungsbereich 105, dem Positionserfassungsbereich 106 und dem Posenerfassungsbereich 111 erfassten Erfassungswerte niedriger gewichtet und die vom Positionsvorhersagebereich 109 und dem Posenvorhersagebereich 110 vorhergesagten Vorhersagewerte höher gewichtet, wenn sich das Mass des Objekts in den aufgenommenen Bildern verringert.
  • So werden beispielsweise, wenn das vorausfahrende Fahrzeug vollständig in den aufgenommenen Bildern erscheint, nur die tatsächlichen Erfassungsergebnisse vom Bestimmungsbereich 112 ausgegeben. Wenn dann das Mass des vorausfahrenden Fahrzeugs in den aufgenommenen Bildern reduziert wird, z. B. durch ein Abbiegen des vorausfahrenden Fahrzeugs an einer Kreuzung, wird die Verwendungsrate der tatsächlichen Erfassungsergebnisse reduziert und die Verwendungsrate der Vorhersageergebnisse entsprechend erhöht. Wenn sich das vorausfahrende Fahrzeug um einen vorgegebenen Wert außerhalb des Sichtwinkelbereichs befindet, können alle vom Bestimmungsbereich 112 ausgegebenen Ergebnisse von den tatsächlichen Erfassungsergebnissen auf die Vorhersageergebnisse umgeschaltet werden. Da das Mas des vorausfahrenden Fahrzeugs, der in den aufgenommenen Bildern erscheint, allmählich zunimmt, um zum ursprünglichen Wert zurückzukehren, wenn das Basisfahrzeug auch an der Kreuzung abbiegt, um dem vorausfahrenden Fahrzeug zu folgen, steigt die Rate der tatsächlichen Erfassungsergebnisse und dementsprechend sinkt die Rate der Verwendung der Vorhersageergebnisse.
  • Es wird darauf hingewiesen, dass zum Beispiel der Bildaufnahmebereich 101, der Bildaufnahmebereich 102, der Bildkorrekturbereich 104 und der Stereo-Abstandserfassungsbereich 105 im Objekterfassungsgerät 1 eine elektronische Schaltung enthalten. Die anderen Komponenten des Objekterfassungsgeräts 1 werden durch Software-Verarbeitung mit einem nicht illustrierten Mikrocomputer usw. realisiert. Es ist auch möglich, den Stereo-Abstandserfassungsbereich 105 durch Softwareverarbeitung zu realisieren.
  • 2 ist ein Diagramm zur Veranschaulichung eines Beispiels von aufgenommenen Bildern, die durch das Objekterfassungsgerät 1 der ersten Ausführungsform der vorliegenden Erfindung aufgenommen wurden. In dieser Figur zeigt ein Bezugszeichen 1001 ein aufgenommenes Bild an, das von dem Bildaufnahmebereich 101 aufgenommen und durch den Bildkorrekturbereich 104 korrigiert wurde, und ein Bezugszeichen 1002 zeigt ein aufgenommenes Bild an, das von dem Bildaufnahmebereich 102 aufgenommen und durch den Bildkorrekturbereich 104 korrigiert wurde. Ein Referenzzeichen 202 ist ein vorausfahrendes Fahrzeug, das ein Subjekt ist. Ein Referenzzeichen 203 ist ein Fußgänger, der ein Subjekt ist. Ein Referenzzeichen 204 ist ein Baum am Straßenrand, der ein Subjekt ist. Ein Bezugszeichen 205 ist ein Verkehrssignal, das ein Subjekt ist. Ein Bezugszeichen 206 ist eine Straßenoberfläche, die ein Subjekt ist.
  • Darüber hinaus sind in dieser Abbildung die Bezugszeichen 201 und 209 Bereiche (gemeinsame Bildaufnahmefläche), die in dem aufgenommenen Bild 1001 und dem aufgenommenen Bild 1002 gemeinsam aufgenommen wurden. Wie oben beschrieben, sind die gemeinsam aufgenommenen Bereiche zwischen dem aufgenommenen Bild 1001 und dem aufgenommenen Bild 1002 gegeneinander versetzt. Der Stereo-Abstandserfassungsbereich 105 berechnet den Abstand zum Subjekt anhand dieses Versatzes, d. h. der Parallaxe.
  • 3 zeigt ein vom Objekterfassungsgerät 1 der ersten Ausführungsform aufgenommenes Bild und ein Beispiel für den Betrieb von Stereo-Abstandserfassungsbereich 105, Positionserfassungsbereich 106 und Posenerfassungsbereich 111. 3 zeigt ein Beispiel des Ergebnisses, das anhand des in 2 dargestellten aufgenommenen Bildpaares erfasst wurde. In dieser Abbildung wird der Bereich 201 von dem Bildaufnahmebereich 101 aufgenommen und ist mit dem Bereich in dem durch den Bildkorrekturbereich 104 korrigierten und von dem Bildaufnahmebereich 102 aufgenommenen Bild wie oben beschrieben identisch.
  • Ein Bezugszeichen 301 zeigt eine Verarbeitungsfläche an, in dem der Stereo-Abstandserfassungsbereich 105 einen Abstand zu einem Subjekt und eine Art eines Objekts erfasst. In der vorliegenden Ausführungsform ist die Verarbeitungsfläche 301 der gesamte Bereich 201. Der Stereo-Abstandserfassungsbereich 105 bestimmt die Parallaxen im Bereich der Verarbeitungsfläche 301 mit Hilfe des oben beschriebenen Blockvergleichsverfahrens und erfasst ein Objekt aus der Gruppe der Parallaxen.
  • Die Bezugszeichen 302, 303, 304 und 305 bezeichnen Verarbeitungsflächen, die die Erfassungsergebnisse der Objekte mit den gestrichelten Rahmen umgeben. Die Rahmen und Zahlen im Bild sind nicht im aufgenommenen Bild vorhanden, sondern werden auf dem Bild eingeblendet und explizit beschrieben. In der vorliegenden Ausführungsform wird ein vorausfahrendes Fahrzeug 202, das in der Verarbeitungsfläche 302 erkannt wird, mit einem Abstand z von 10,6 m zum Basisfahrzeug, einer Position x von 2,3 m und einer Pose theta von 0,5 Grad erkannt. Dann wird ein Fußgänger 203 in der Verarbeitungsfläche 303 in einem Abstand z von 5,2 m erkannt. Ein Straßenrand-Baum 204 in der Verarbeitungsfläche 304 wird in einem Abstand z von 35,3 m erkannt. Ein Verkehrssignal 205 in der Verarbeitungsfläche 305 wird in einem Abstand z von 19,7 m erkannt. So können gemäß Objekterfassungsgerät 1 der Abstand, die Position und die Pose eines Objekts in einem aufgenommenen Bild erkannt werden. Die Erfassungswerte für den Abstand, die Position und die Pose des Objekts, die von den Erfassungsbereichen 105, 106 und 111 erkannt wurden, werden an den Bestimmungsbereich 112 ausgegeben.
  • 4 ist ein Diagramm, das eine Fahrtrajektorie des Fahrzeugs zeigt. Die Prozesse der obigen Trajektorienvorhersagebereiche 107 und 108, des Positionsvorhersagebereiches 109 und des Posenvorhersagebereichs 110 verwenden beispielsweise die Dead-Reckoning-Methode, um die Position und die Pose des Fahrzeugs vorherzusagen. Zunächst wird ein Punkt A als Startpunkt festgelegt, und die Position und Pose des Fahrzeugs am nächsten Punkt B werden in einem bestimmten Zyklus aus dem zurückgelegten Abstand des Fahrzeugs vom Punkt A und der Fahrtrichtung des Fahrzeugs vorhergesagt. Aus den oben genannten Informationen über den Lenkwinkel, die Gierrate, die Geschwindigkeit, die Beschleunigung, die Raddrehzahl und die Position eines Satelliten als Zustandsinformationen über das Fahrzeug für die Vorhersage wird der Fahrbetrag in einem bestimmten Zyklus berechnet und zu der Koordinate des Punktes A addiert, um den Punkt B vorherzusagen. Die Trajektorie des Fahrzeugs kann so vorhergesagt werden, und außerdem wird die Differenz zwischen den Trajektorien des Basisfahrzeugs und des vorausfahrenden Fahrzeugs erfasst, um die Vorhersage der Position und Pose des vorausfahrenden Fahrzeugs relativ zum Basisfahrzeug zu ermöglichen. Bei dieser Methode werden Fehler in der Fahrstrecke berücksichtigt. Durch die Überlagerung von Ergänzungen kumulieren sich also die Fehler.
  • Darüber hinaus gibt es auch ein Verfahren zur Ermittlung der Differenz zwischen den Fahrbeträgen des Basisfahrzeugs und des vorausfahrenden Fahrzeugs. Die Differenzen werden dann addiert, um die Position und Pose des vorausfahrenden Fahrzeugs relativ zum Basisfahrzeug vorherzusagen. Als weiteres Verfahren wird ein im Fahrzeug bestimmter Fahrplan eingegeben, um eine Vorhersage der Position und Pose ohne Vorhersage der Trajektorie zu ermöglichen.
  • 5 sind Diagramme, die den zeitlichen Ablauf der Verarbeitung des Objekterfassungsgeräts 1 der vorliegenden Ausführungsform veranschaulichen. 5(A) veranschaulicht den zeitlichen Ablauf der Verarbeitung des Bildkorrekturbereichs 104, des Stereo-Abstandserfassungsbereichs 105, des Positionserfassungsbereichs 106 und des Posenerfassungsbereichs 111. 5(B) veranschaulicht den Verarbeitungszeitpunkt der Bereiche 107 und 108 der Trajektorievorhersage, des Positionsvorhersagebereiches 109 und des Posenvorhersagebereichs 110. 5(C) illustriert den Verarbeitungszeitpunkt des Bestimmungsbereichs 112.
  • In 5(A) wird die obige Abstandserfassung durch den Bildkorrekturbereich 104 und den Stereo-Abstandserfassungsbereich 105 ausgeführt, um ein Objekt zu erfassen, die Position des Objekts im Positionserfassungsbereich 106 zu erfassen und die Pose des Objekts im Posenerfassungsbereich 111 zu erfassen.
  • Zusätzlich werden in 5(B) die Trajektorien des Basisfahrzeugs und des vorausfahrenden Fahrzeugs durch die Trajektorienvorhersagebereiche 107 und 108 vorhergesagt, die Position des vorausfahrenden Fahrzeugs relativ zum Basisfahrzeug wird im Positionsvorhersagebereich 109 vorhergesagt, und die Pose des vorausfahrenden Fahrzeugs relativ zum Basisfahrzeug wird im Posenvorhersagebereich 110 vorhergesagt.
  • In 5(C) wird das Erfassungsergebnis des im Bestimmungsbereich 112 ermittelten Objekts auf der Grundlage der in 5(A) und 5(B) erhaltenen Erfassungsergebnisse ausgegeben.
  • In der vorliegenden Ausführungsform wurde der Fall erläutert, dass die Positionserfassung, die Posenerfassung, die Positionsvorhersage und die Posenvorhersage im selben Zyklus verarbeitet werden und alle diese Vorgänge einmal in einem Rahmen durchgeführt werden. Der Zyklus kann unterschiedlich sein. Bei jedem Bestimmungszyklus kann das jeweils neueste Ergebnis verwendet werden.
  • 6 ist ein Diagramm, das den Verarbeitungsablauf des Objekterfassungsgeräts der ersten Ausführungsform zeigt. Zunächst werden Bilder von den Bildaufnahmebereichen 101 und 102 aufgenommen (Schritt S601). Helligkeitskorrektur, Linsenverzerrungskorrektur und horizontale Positionsausrichtung werden durch den Bildkorrekturbereich 104 in jedem von den Bildaufnahmebereichen 101 und 102 wie oben beschrieben aufgenommenen Bild durchgeführt (Schritt S602). Als nächstes erfasst der Stereo-Abstandserfassungsbereich 105 das Objekt und den Abstand zum Objekt in der Verarbeitungsfläche 301 (Schritt S603). Ferner erfasst der Positionserfassungsbereich 106 die Position des Objekts (Schritt S604) und der Posenerfassungsbereich 111 die Pose (Schritt S605).
  • Im Gegensatz dazu werden Zustandsinformationen über das Basisfahrzeug eingegeben (Schritt 606) und Zustandsinformationen über das vorausfahrende Fahrzeug (Schritt 607). Basierend auf jedem Teil der eingegebenen Informationen werden die Trajektorievorhersage des Basisfahrzeugs (Schritt 608) und die Trajektorievorhersage des vorausfahrenden Fahrzeugs (Schritt 609) durchgeführt. Ferner werden die Positionsvorhersage (Schritt 610) und die Posenvorhersage (Schritt 611) auf der Grundlage der Trajektorienvorhersagen des Basisfahrzeugs und des vorausfahrenden Fahrzeugs durchgeführt.
  • Schließlich führt der Bestimmungsbereich 112 bei jedem Schritt eine Bestimmung auf der Grundlage des Erfassungsergebnisses des Objekts durch und gibt das Bestimmungsergebnis aus (Schritt S612). Das Objekterfassungsgerät 1 wiederholt diese Vorgänge z. B. bei jeden einzelnen Rahmen. Der Bestimmungsbereich 112 ändert die Verwendungsrate zwischen den tatsächlichen Erfassungsergebnissen und den Vorhersageergebnissen als Reaktion auf die Bildaufnahmebedingung des vorhergehenden Fahrzeugs, das in dem aufgenommenen Bild erscheint. Der Bestimmungsbereich 112 berechnet das Mass des vorausfahrenden Fahrzeugs, das in dem aufgenommenen Bild aufgenommen wurde, und bestimmt die Nutzungsrate zwischen den tatsächlichen Erfassungswerten und den Vorhersagewerten des Abstands zu dem vorausfahrenden Fahrzeug und der Position und Pose des vorausfahrenden Fahrzeugs in Abhängigkeit von dem Mass des vorausfahrenden Fahrzeugs. Dann werden die auf der Rate basierenden Werte für den Abstand, die Position und die Pose ausgegeben.
  • 7 sind Diagramme zur Veranschaulichung von Beispielen aufgenommener Bilder während der Fahrt, die von dem Fahrzeug, das das Objekterfassungsgerät 1 der vorliegenden Ausführungsform trägt, aufgenommen wurden. 7(A) zeigt ein Bild, das vom Bildaufnahmebereich 101 zu einem bestimmten Zeitpunkt t1 aufgenommen wurde. Dieses Bild wird aufgenommen, wenn sich das vorausfahrende Fahrzeug 202 vollständig innerhalb des Aufnahmeblickwinkels befindet. 7(B) zeigt ein Bild, das vom Bildaufnahmebereich 101 zu einem Zeitpunkt t2 nach dem Zeitpunkt t1 aufgenommen wurde. Dieses Bild wird aufgenommen, wenn sich das vorausfahrende Fahrzeug 202 nähert, nach links abbiegt und sich nicht vollständig innerhalb des Aufnahmeblickwinkels befindet. 7(C) zeigt ein Bild, das zu einem Zeitpunkt t3 nach dem Zeitpunkt t2 aufgenommen wurde, als das vorausfahrende Fahrzeug 202 weiter nach links abbiegt und sich fast außerhalb des Sichtwinkels befindet.
  • 8 sind Diagramme, die die Rate zwischen den Erfassungsergebnissen, die in Zeitserien aus den während der Fahrt aufgenommenen Bildern in 7(A), 7(B) und 7(C) erfasst wurden, und den Erfassungsergebnissen, die letztendlich verwendet werden sollen, darstellen. Die Zeitpunkte t1, t2 und t3 bezeichnen die Zeitpunkte, zu denen das aufgenommene Bild aus 7(A), das aufgenommene Bild aus 7(B) bzw. das aufgenommene Bild aus 7(C) aufgenommen wird.
  • zeigt ein Ergebnis der Positionsbestimmung. Die durchgezogene Linie zeigt die Ergebnisse der Positionsbestimmung durch den Positionserfassungsbereich 106. Die gestrichelte Linie zeigt die Ergebnisse der Positionsvorhersage durch den Positionsvorhersagebereich 109 an. In 8(A) zeigt die horizontale Achse die Zeit und die vertikale Achse die Position an. Da der Positionserfassungsbereich 106 die linke und rechte Position des Objekts aus den Abstandserfassungsergebnissen des Stereo-Abstandserfassungsbereichs 105 erfasst, können stabile Erfassungsergebnisse um die Zeit t1 herum erzielt werden, zu der sich das vorausfahrende Fahrzeug 202 vollständig innerhalb des Aufnahmeblickwinkels befindet. Im Gegensatz dazu enthalten die Vorhersageergebnisse des Positionsvorhersagebereiches 109 wie oben beschrieben Fehler. Um den Zeitpunkt t2 nähert sich das vorausfahrende Fahrzeug 202 und wendet und befindet sich nicht vollständig innerhalb des Sichtwinkels. Die Erfassungsfehler des Positionserfassungsbereichs 106 nehmen daher zu. Da sich das vorausfahrende Fahrzeug 202 um den Zeitpunkt t3 in der Regel vollständig aus dem Sichtwinkel entfernt, wird die Positionserfassung schwierig. Im Gegensatz dazu wird die Positionsvorhersage durch den Positionsvorhersagebereich 109 unter Einbeziehung von Fehlern fortgesetzt.
  • zeigt die Ergebnisse der Posenerfassung. Die durchgezogene Linie zeigt die Ergebnisse der Posenerfassung durch den Posenerfassungsbereich 111 und die gestrichelte Linie zeigt die Ergebnisse der Vorhersage durch den Posenvorhersagebereich 110. In 8(B) zeigt die horizontale Achse die Zeit und die vertikale Achse die Pose an. In der vorliegenden Ausführungsform ist die Pose, in der das vorausfahrende Fahrzeug 202 nach links abbiegt, als Plusrichtung angegeben. Der Stereo-Abstandserfassungsbereich 105 ist in der Lage, stabile Erfassungsergebnisse um den Zeitpunkt t1 herum zu erzielen, zu dem sich das vorausfahrende Fahrzeug 202 vollständig innerhalb des Aufnahmeblickwinkels befindet. Im Gegensatz dazu enthalten die Vorhersageergebnisse des Posenvorhersagebereichs 110 die oben erwähnten Fehler. Um den Zeitpunkt t2 nähert sich das vorausfahrende Fahrzeug 202 und wendet und befindet sich nicht vollständig innerhalb des Sichtwinkels. Dadurch erhöhen sich die Erfassungsfehler im Posenerfassungsbereich 111. Da sich das vorausfahrende Fahrzeug 202 in der Regel um den Zeitpunkt t3 vollständig aus dem Sichtwinkel entfernt, wird die Erfassung der Pose schwierig. Im Gegensatz dazu setzt der Posenvorhersagebereich 110 die Vorhersage unter Berücksichtigung der Fehler fort.
  • zeigt die Ergebnisse der Abstandserfassung. Die durchgezogene Linie zeigt die Ergebnisse der Abstandserfassung durch den Stereo-Abstandserfassungsbereich 105. Die gestrichelte Linie zeigt die Ergebnisse der Vorhersage durch den Positionsvorhersagebereich 109. In zeigt die horizontale Achse die Zeit und die vertikale Achse den Abstand an. Um die Zeit t1 herum ist der Stereo-Abstandserfassungsbereich 105 in der Lage, stabile Erfassungsergebnisse zu erzielen, wenn sich das vorausfahrende Fahrzeug 202 vollständig innerhalb des Aufnahmeblickwinkels befindet. Im Gegensatz dazu enthalten die Vorhersageergebnisse des Positionsvorhersagebereiches 109 die oben erwähnten Fehler. Um den Zeitpunkt t2 herum nähert sich das vorausfahrende Fahrzeug 202 und wendet und befindet sich nicht vollständig innerhalb des Sichtwinkels. Dadurch erhöhen sich die Erfassungsfehler beim Stereo-Abstandserfassungsbereich 105. Da das vorausfahrende Fahrzeug 202 in der Regel um den Zeitpunkt t3 vollständig aus dem Sichtwinkel herausfährt. Die Erfassung des Abstands wird dadurch erschwert. Im Gegensatz dazu setzt der Positionsvorhersagebereich 109 die Vorhersage unter Einbeziehung der Fehler fort.
  • 8(D) und 8(E) veranschaulichen die Rate der Erfassungsergebnisse, die schließlich vom Bestimmungsbereich 112 in den erfassten Erfassungsergebnissen verwendet werden. In und zeigt die horizontale Achse die Zeit und die vertikale Achse die Rate an.
  • Die unter der Kurve von 8(D) dargestellte Rate a gibt die Rate an, mit der der Bestimmungsbereich 112 die Erfassungsergebnisse des Positionserfassungsbereichs 106 verwendet. Die oberhalb der Kurve von 8(D) dargestellte Rate b gibt die Rate an, mit der der Bestimmungsbereich 112 die Vorhersageergebnisse des Positionsvorhersagebereiches 109 verwendet. Der Gesamtwert der Raten a und b ist 1. Der Bestimmungsbereich 112 verwendet (gewichtet) die Erfassungsergebnisse oder Vorhersageergebnisse, die zu einem aktuellen Zeitpunkt genau erfasst wurden, mit einer hohen Nutzungsrate.
  • Um die Zeit t1 gewichtet und verwendet der Bestimmungsbereich 112 die Erfassungsergebnisse des Positionserfassungsbereichs 106. Um den Zeitpunkt t2 erhöht der Bestimmungsbereich 112 die Rate der Ergebnisse des Positionsvorhersagebereiches 109. Um den Zeitpunkt t3 verwendet der Bestimmungsbereich 112 nur noch die Vorhersageergebnisse des Positionsvorhersagebereiches 109. Wenn sich die Position des Objekts vollständig aus dem Aufnahmeblickwinkel herausbewegt, verwendet der Bestimmungsbereich 112 die Vorhersageergebnisse des Positionsvorhersagebereiches 109.
  • Zum Beispiel ist um die Zeit t2 die Rate a gleich 0,8 und die Rate b gleich 0,2. Wenn die Position des tatsächlichen Erfassungsergebnisses durch den Positionserfassungsbereich 106 auf x1, den Abstand des Vorhersageergebnisses durch den Positionsvorhersagebereich 109 auf x2 und der vom Bestimmungsbereich 112 ausgegebene Abstand auf x gesetzt wird, ist x = 0,8 x x1 + 0,2 x x2 um den Zeitpunkt t2.
  • Zusätzlich ist die Rate c, die unter der Kurve von 8(E) dargestellt ist, die Rate, mit der der Bestimmungsbereich 112 die Erfassungsergebnisse des Posenerfassungsbereichs 111 verwendet. Die oberhalb der Kurve von 8 (E) dargestellte Rate d ist die Rate, mit der der Bestimmungsbereich 112 die Vorhersageergebnisse des Posenvorhersagebereichs 110 verwendet. Der Gesamtwert der Rate d und der Rate c ist 1. Die vom Bestimmungsbereich 112 verwendete Rate verwendet (gewichtet) die Erfassungsergebnisse oder Vorhersageergebnisse, die zu einem aktuellen Zeitpunkt mit einer hohen Nutzungsrate genau erfasst wurden.
  • Um den Zeitpunkt t1 gewichtet und verwendet der Bestimmungsbereich 112 die Erfassungsergebnisse des Posenerfassungsbereichs 111. Um den Zeitpunkt t2 erhöht der Bestimmungsbereich 112 die Rate der Vorhersageergebnisse des Posenvorhersagebereichs 110. Zum Zeitpunkt t3 verwendet der Bestimmungsbereich 112 nur noch die Vorhersageergebnisse des Posenvorhersagebereichs 110. Wenn die Position des Objekts vollständig außerhalb des Aufnahmeblickwinkels liegt, verwendet der Bestimmungsbereich 112 die Vorhersageergebnisse des Posenvorhersagebereichs 110.
  • Wenn die vom Positionserfassungsbereich 106 erfasste Position innerhalb eines vorgegebenen Bereichs liegt, kann der Bestimmungsbereich 112 die Erfassungsergebnisse des Stereo-Abstandserfassungsbereichs 105, des Positionserfassungsbereichs 106 und des Posenerfassungsbereichs 111 als die Position und Pose des vorausfahrenden Fahrzeugs verwenden. Wenn die vom Positionserfassungsbereich 106 erfasste Position außerhalb des vorgegebenen Bereichs liegt, kann der Bestimmungsbereich 112 die Vorhersageergebnisse des Positionsvorhersagebereiches 109 und des Posenvorhersagebereichs 110 als Position und Pose des vorausfahrenden Fahrzeugs verwenden.
  • Selbst wenn die vom Positionserfassungsbereich 106 erfasste Position innerhalb des vorgegebenen Bereichs liegt, kann der Bestimmungsbereich 112 die Ergebnisse des Positionsvorhersagebereiches 109 und des Posenvorhersagebereichs 110 verwenden, wenn der vom Stereo-Abstandserfassungsbereich 105 erfasste Abstand größer als ein vorgegebener Abstand ist und es dementsprechend schwierig ist, die Erfassungsgenauigkeit sicherzustellen.
  • Wenn der vom Stereo-Abstandserfassungsbereich 105 erfasste Abstand kürzer als ein vorgegebener Abstand ist, die vom Positionserfassungsbereich 106 erfasste Position jedoch außerhalb des vorgegebenen Bereichs liegt und es daher schwierig ist, die Erfassungsgenauigkeit zu gewährleisten, kann der Bestimmungsbereich 112 die Ergebnisse des Positionsvorhersagebereiches 109 und des Posenvorhersagebereichs 110 verwenden.
  • Nachdem sich das vorausfahrende Fahrzeug 202 einmal aus dem Aufnahmeblickwinkel herausbewegt hat und der Abstand zum vorausfahrenden Fahrzeug 202 dementsprechend vom Stereo-Abstandserfassungsbereich 105 nicht mehr erfasst werden kann, wenn das vorausfahrende Fahrzeug 202 in den Aufnahmeblickwinkel zurückkehrt und der Abstand zum vorausfahrenden Fahrzeug 202 vom Stereo-Abstandserfassungsbereich 105 erfasst werden kann, setzt der Trajektorievorhersagebereich 108 den Ausgangspunkt für die Trajektoriebahnvorhersage unter Verwendung der Ergebnisse des Positionserfassungsbereichs 106 und des Posenerfassungsbereichs 111 zurück. Daher können die Fehler, die sich beim Positionsvorhersagebereich 109 und beim Posenvorhersagebereich 110 angesammelt haben, eliminiert werden.
  • ist ein Diagramm zur Erläuterung der Positionsbeziehung zwischen dem Basisfahrzeug und dem vorausfahrenden Fahrzeug.
  • Das Objekterfassungsgerät 1 ist an einem Basisfahrzeug 200 angebracht, um die Position des vorausfahrenden Fahrzeugs 202 zu erfassen. Das Basisfahrzeug 200 wird autonom gesteuert, um dem vorausfahrenden Fahrzeug 202 folgend zu fahren, indem es Positionsinformationen über das vorausfahrende Fahrzeug 202 verwendet, die vom Objekterfassungsgerät 1 erfasst werden. Das Objekterfassungsgerät 1 erfasst einen Abstand Za, eine Position Xa und eine Pose Theta zwischen dem Basisfahrzeug 200 und dem vorausfahrenden Fahrzeug 202.
  • Wie in 9 dargestellt, zeigt z.B., wenn das vorausfahrende Fahrzeug 202 an einer Kreuzung nach links abbiegt, das im Basisfahrzeug 200 aufgenommene Bild an, dass sich im Allgemeinen ein ganzer Teil des vorausfahrenden Fahrzeugs 202 aus dem Sichtwinkelbereich des aufgenommenen Bildes bewegt (siehe 7(C)). In diesem Fall führt der Bestimmungsbereich 112 eine Anpassung durch, um die Rate der Verwendung der durch den Positionsvorhersagebereich 109 und den Posenvorhersagebereich 110 vorhergesagten Vorhersageergebnisse zu erhöhen und die Rate der Verwendung der durch den Stereo-Abstandserfassungsbereich 105, den Positionserfassungsbereich 106 und den Posenerfassungsbereich 111 erfassten Erfassungsergebnisse zu verringern. Dann werden Informationen über die Position, den Abstand und die Pose des vorausfahrenden Fahrzeugs 202, die im Bestimmungsbereich 112 angepasst wurden, nach außen ausgegeben und für die Steuerung verwendet, damit das Basisfahrzeug dem vorausfahrenden Fahrzeug folgt.
  • Gemäß dem Objekterfassungsgerät 1 der vorliegenden Ausführungsform können der Abstand, die Position und die Pose des vorausfahrenden Fahrzeugs 202 kontinuierlich erfasst werden, selbst wenn sich das vorausfahrende Fahrzeug 202 aus dem Aufnahmeblickwinkel herausbewegt. Das heißt, dass unabhängig von der Position oder dem Abstand zu einem Objekt das Objekt kontinuierlich verfolgt wird und Positions-, Abstands- und Poseninformationen über das Objekt erfasst werden können. Selbst wenn sich das vorausfahrende Fahrzeug 202 aus dem Aufnahmeblickwinkel herausbewegt, kann das vorausfahrende Fahrzeug 202 daher genau erkannt werden, und eine Verringerung der Verfolgungsgenauigkeit des Basisfahrzeugs 200 kann verhindert werden.
  • <Zweite Ausführungsform>
  • 10 ist ein Diagramm, das eine Konfiguration eines Objekterfassungsgerätes der zweiten Ausführungsform zeigt. Eine Besonderheit der vorliegenden Ausführungsform besteht darin, dass das Objekterfassungsgerät 1 der ersten Ausführungsform zusätzlich mit einem Fahrzeugsteuerungsbereich ausgestattet ist. Der Fahrzeugsteuerungsbereich führt eine autonome Fahrsteuerung für eine Fahrt aus, die automatisch ein vorausfahrendes Fahrzeug verfolgt. Die Komponenten, die die gleichen Funktionen wie die Komponenten von 1 erfüllen, verwenden die gleichen Bezugszeichen wie 1 und werden nicht näher erläutert. Das Objekterfassungsgerät 1 ist an einem Fahrzeug, z. B. einem Automobil, angebracht, und ein Bezugszeichen 901 zeigt den Fahrzeugsteuerungsbereich in der Abbildung an. Die Ausgabe des Bestimmungsbereichs 112 wird in den Fahrzeugsteuerungsbereich 901 eingegeben.
  • Ein Fahrzeug (Folgefahrzeug, das einem vorausfahrenden Fahrzeug folgend fährt), an dem das Objekterfassungsgerät 1 angebracht ist, befindet sich hinter dem vorausfahrenden Fahrzeug und folgt diesem. In diesem Fall erfasst das Objekterfassungsgerät 1 den Abstand, die Position und die Pose des vorausfahrenden Fahrzeugs wie oben beschrieben.
  • Der Fahrzeugsteuerungsbereich 901 empfängt die Erkennungsergebnisse des Bestimmungsbereichs 112 und steuert auf der Grundlage der Erfassungsergebnisse andere, nicht dargestellte Fahrzeuggeräte. Die Steuerziele des Fahrzeugs umfassen einen Lenkwinkel, eine Bremse und eine Lenkvorrichtung und werden so gesteuert, dass sie dem vorausfahrenden Fahrzeug folgen und auf der Grundlage der Erfassungsergebnisse fahren. Die Informationen zur Fahrzeugsteuerung werden vom Objekterfassungsgerät 1 über ein fahrzeuginternes Netzwerk wie CAN (Controller Area Network) an die anderen nicht abgebildeten Geräte ausgegeben.
  • Im Falle einer Spursteuerung, bei der ein geringer Abstand zum vorausfahrenden Fahrzeug eingestellt ist, kann das vorausfahrende Fahrzeug über den Aufnahmeblickwinkel hinausragen oder sich aus dem Aufnahmeblickwinkel herausbewegen. Gemäß dem Objekterfassungsgerät 1 der vorliegenden Ausführungsform können der Abstand zum vorausfahrenden Fahrzeug sowie die Position und Pose des vorausfahrenden Fahrzeugs wie oben erwähnt kontinuierlich erfasst werden, um dem vorausfahrenden Fahrzeug sicher zu folgen.
  • Es wird darauf hingewiesen, dass 10 das Beispiel zeigt, dass der Fahrzeugsteuerungsbereich 901 und das Objekterfassungsgerät 1 in derselben Karosserie untergebracht sind, was jedoch keine Einschränkung darstellt. Der Fahrzeugsteuerungsbereich 901 und das Objekterfassungsgerät 1 können in verschiedenen Gehäusen untergebracht sein und die Erfassungsergebnisse über ein fahrzeuginternes Netzwerk übertragen. Wie oben beschrieben, können der Bildaufnahmebereich 101 und der Bildaufnahmebereich 102 unterschiedliche Gehäuse haben.
  • <Dritte Ausführungsform>
  • 11 ist ein Diagramm, das eine Konfiguration eines Objekterfassungsgeräts der dritten Ausführungsform der vorliegenden Erfindung zeigt. Die Komponenten, die die gleichen Funktionen wie die Komponenten von 1 erreichen, verwenden die gleichen Bezugszeichen wie 1 und werden nicht im Detail erläutert. Die vorliegende Ausführungsform zeichnet sich dadurch aus, dass die Objekterfassung unter Verwendung eines Sensors erfolgt, der so konfiguriert ist, dass er andere als der Bildaufnahmebereich 101 und der Bildaufnahmebereich 102 verwendet, um Abstandsinformationen und Positionsinformationen zu erfassen.
  • Zu den Eingangsinformationen gehören beispielsweise die von einem nicht abgebildeten Radar oder einem Sensor wie einem Infrarotsensor erfassten Informationen. Der Abstand und Position eines Objekts in einem Zielbereich kann bestimmt werden. Der Bestimmungsbereich 112 ändert eine Nutzungsrate zwischen den Erfassungsergebnissen des Positionserfassungsbereichs 106 und des Posenerfassungsbereichs 111 und den Vorhersageergebnissen des Positionsvorhersagebereiches 109 und des Posenvorhersagebereichs 110 in Abhängigkeit vom Mass des vorausfahrenden Fahrzeugs innerhalb des Erfassungsbereichs des Sensors. Die weitere Funktionsweise ist wie oben beschrieben.
  • <Vierte Ausführungsform>
  • 12 ist ein Diagramm, das eine Konfiguration eines Objekterfassungsgeräts der vierten Ausführungsform zeigt. Die Komponenten, die die gleichen Funktionen wie die Komponenten von 1 erreichen, verwenden die gleichen Bezugszeichen wie 1 und werden nicht im Detail erläutert. Eine Besonderheit der vorliegenden Ausführungsform besteht darin, dass ein Bildaufnahmebereich 1201 und ein Steuerbereich 1204 an verschiedenen Stellen vorgesehen und über ein Netzwerk miteinander verbunden sind.
  • Ein Bezugszeichen 1201 weist auf einen Netzwerk-Bildaufnahmebereich hin. Ein Bezugszeichen 1203 weist auf ein LAN (Local Area Network) hin. Ein Bezugszeichen 1204 weist auf ein Steuerbereich hin. Der Netzwerk-Bildaufnahmebereich 1201 ist z. B. an der Windschutzscheibe eines Fahrzeugs angebracht. Der Steuerbereich 1204 ist in einem Gehäuse untergebracht, das sich von dem für den Netzwerk-Bildaufnahmebereich 1201 unterscheidet und an einem Ort angeordnet ist, an dem Platz im Fahrzeug gewährleistet werden kann. Ein LAN 1203 kann ein fahrzeuginternes Netzwerk wie z. B. CAN verwenden.
  • Der Netzwerk-Bildaufnahmebereich 1201 ist über das LAN 1203 mit dem Steuerbereich 1204 verbunden. Zusätzlich zeigt ein Bezugszeichen 1202 einen Bildkompressionsschnittstellenbereich an. Ein Bezugszeichen 1205 zeigt einen Netzwerkschnittstellenbereich an. Ein Bezugszeichen 1206 zeigt einen Bilddekompressionsbereich an.
  • Der Bildkorrekturbereich 104 führt eine Helligkeitskorrektur, eine Linsenverzerrungskorrektur und eine horizontale Ausrichtung für die von dem Bildaufnahmebereich 101 und dem Bildaufnahmebereich 102 aufgenommenen Bilder durch. Als nächstes komprimiert der Bildkompressionsschnittstellenbereich 1202 ein Bild aus dem Bildkorrekturbereich 104 und überträgt das Bild über das LAN 1203 an den Steuerbereich 1204. Das Bildkompressionsverfahren umfasst ein Intra-Screen-Kompressionsverfahren zur Durchführung der Kompression in einem Bild, um die Verarbeitungszeit zu reduzieren, ohne eine zeitliche Korrelation mehrerer Bilder zu verwenden. Zusätzlich kann eine Videokompressionskodierung ausgewählt und auf diese umgeschaltet werden.
  • Der Bildkompressionsschnittstellenbereich 1202 erzeugt komprimierte kodierte Daten und überträgt die Daten gemäß einem vorgegebenen Netzwerkprotokoll. Es wird darauf hingewiesen, dass der Bildkorrekturbereich 104 nach dem Bilderweiterungsbereich 1206 des Steuerbereichs 1204 vorgesehen sein kann. Der Bildkorrekturbereich 104 führt die Verarbeitung vor dem Bildkompressions-Schnittstellenbereich 1202 des Netzwerk-Bildaufnahmebereichs 1201 aus, um die Bildkompression nach der Korrektur der Linsenverzerrung usw. durchzuführen. Es wird daher eine hocheffiziente Bildkompression und Bildverbesserung erwartet.
  • Im Steuerbereich 1204 empfängt der Netzwerkschnittstellenbereich 1205 komprimierte Bilddaten über das LAN 1203. Die vom Netzwerkschnittstellenbereich 1205 des Steuerbereichs 1204 empfangenen komprimierten Bilddaten werden im Bilderweiterungsbereich 1206 zum Originalbild dekomprimiert, und den Abstand wird vom Stereo-Abstandserfassungsbereich 105 erfasst. Die weitere Verarbeitung erfolgt wie oben beschrieben.
  • In der vorliegenden Ausführungsform werden die komprimierten Bilder über das LAN 1203 übertragen. Die Verarbeitungsmenge in den Bildaufnahmebereichen kann reduziert werden. Aufgrund der Gewichtsreduzierung, der Verringerung des Stromverbrauchs und der Verringerung der Größe des Bildaufnahmebereichskörpers können die Größenbeschränkungen bei der Installation der Bildaufnahmebereiche in einem Fahrzeug verringert werden. Wenn die Übertragungsbandbreite eines Netzwerks effizient gewährleistet ist, ist die Übertragung ohne Bildkompression und -dekompression möglich.
  • Es wird darauf hingewiesen, dass die vorliegende Erfindung nicht auf die oben genannten Ausführungsformen beschränkt ist und verschiedene Modifikationen umfasst. Zum Beispiel wurden die oben genannten Ausführungsformen im Detail für verständliche Erklärung der vorliegenden Erfindung erläutert. Die obigen Ausführungsformen sind nicht auf diejenigen beschränkt, die mit allen erläuterten Konfigurationen versehen sind. Zusätzlich ist es möglich, einen Teil einer Konfiguration einer bestimmten Ausführungsform durch eine Konfiguration einer anderen Ausführungsform zu ersetzen. Es ist auch möglich, einen Teil einer Konfiguration einer bestimmten Ausführungsform zu einer Konfiguration einer anderen Ausführungsform hinzuzufügen. Darüber hinaus ist es möglich, das Hinzufügen, Löschen und Ersetzen eines Teils einer Konfiguration jeder Ausführungsform mit Hilfe einer anderen Konfiguration durchzuführen.
  • Darüber hinaus kann ein Teil oder die Gesamtheit der oben genannten Konfigurationen Hardware enthalten oder durch Ausführung eines Programms mit Hilfe eines Prozessors realisiert werden. Außerdem sind die Steuer- und Informationsleitungen abgebildet, die zur Erläuterung als notwendig erachtet werden. Es sind nicht unbedingt alle Steuer- und Informationsleitungen für ein Produkt abgebildet. In der Praxis können im Allgemeinen alle Konfigurationen als miteinander verbunden angesehen werden.
  • Bezugszeichenliste
  • 1
    Objekterfassungsgerät
    101 bis 102
    Bildaufnahmebereich
    104
    Bildkorrekturbereich
    105
    Stereo-Abstandserfassungsbereich
    106
    Positionserfassungsbereich
    107 bis 108
    der Trajektorievorhersagebereich (erster Fahrzeuginformationeingabebereich, zweiter Fahrzeuginformationeingabebereich)
    109
    Positionsvorhersagebereich
    110
    Posenvorhersagebereich
    111
    Posenerfassungsbereich
    112
    Bestimmungsbereich
    201, 209
    Gemeinsame Bildaufnahmefläche
    202 bis 205
    Subjekt
    301 bis 305
    Verarbeitungsfläche
    901
    Fahrzeugsteuerungsbereich
    1201
    Netzwerk-Bildaufnahmebereich
    1202
    Bildkompressionsschnittstellenbereich
    1203
    LAN
    1204
    Steuerungsbereich
    1205
    Netzwerk-Schnittstellen-Bereich
    1206
    Bilddekomprimierungsbereich
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 201897644 [0003]

Claims (10)

  1. Objekterfassungsgerät, das aufweist: einen Abstandserfassungsbereich, der den Abstand zu einem Objekt erfasst; einen Positionserfassungsbereich, der die Position des Objekts auf der Grundlage des vom Abstandserfassungsbereich erfassten Abstands erfasst; einen Posenerfassungsbereich, der die Pose des Objekts auf der Grundlage des vom Abstandserfassungsbereich erfassten Abstands erfasst; einen ersten Fahrzeuginformationeingabebereich, der Zustandsinformationen über ein Basisfahrzeug eingibt; einen zweiten Fahrzeuginformationeingabebereich, der Zustandsinformationen über das andere Fahrzeug eingibt; einen Positionsvorhersagebereich, der eine Position des anderen Fahrzeugs auf der Grundlage der Zustandsinformationen über das Basisfahrzeug und der Zustandsinformationen über das andere Fahrzeug vorhersagt, die jeweils von dem ersten Fahrzeuginformationeingabebereich und dem zweiten Fahrzeuginformationeingabebereich eingegeben werden; einen Posenvorhersagebereich, der eine Pose des anderen Fahrzeugs auf der Grundlage der Zustandsinformationen über das Basisfahrzeug und der Zustandsinformationen über das andere Fahrzeug vorhersagt, die von dem ersten Fahrzeuginformationeingabebereich bzw. dem zweiten Fahrzeuginformationeingabebereich eingegeben werden; und einen Bestimmungsbereich, der auf der Grundlage der vom Abstandserfassungsbereich, dem Positionserfassungsbereich, dem Posenerfassungsbereich, dem Positionsvorhersagebereich und dem Posenvorhersagebereich detektierten bzw. vorhergesagten Informationen den Abstand zum anderen Fahrzeug und die Position und die Pose des anderen Fahrzeugs bestimmt.
  2. Ein Objekterfassungsgerät nach Anspruch 1, umfassend: einen Bildaufnahmebereich, der ein Bild des Objekts aufnimmt, wobei der Bestimmungsbereich eine Rate der Verwendung von Erfassungsergebnissen, die von dem Abstandserfassungsbereich, dem Positionserfassungsbereich und dem Posenerfassungsbereich erfasst wurden, und von Vorhersageergebnissen, die von dem Positionsvorhersagebereich und dem Posenvorhersagebereich vorhergesagt wurden, auf der Grundlage eines Maßes des Objekts, das in dem von dem Bildaufnahmebereich aufgenommenen Bild erscheint, bestimmt.
  3. Ein Objekterfassungsgerät nach Anspruch 2, wobei der Bestimmungsbereich die Erfassungswerte, die vom Abstandserfassungsbereich, vom Positionserfassungsbereich und vom Posenerfassungsbereich als Reaktion auf die Verringerung des Maßes des in dem aufgenommenen Bild erscheinenden Objekts erkannt werden, niedriger gewichtet und die Vorhersagewerte, die vom Positionsvorhersagebereich und vom Posenvorhersagebereich vorhergesagt werden, höher gewichtet.
  4. Ein Objekterfassungsgerät nach Anspruch 1, wobei der Bestimmungsbereich Erfassungsergebnisse des Abstandserfassungsbereichs, des Positionserfassungsbereichs und des Posenerfassungsbereichs verwendet, wenn eine vom Positionserfassungsbereich detektierte Position innerhalb eines vorbestimmten Bereichs liegt.
  5. sgerät nach Anspruch 1, wobei der Bestimmungsbereich die Vorhersageergebnisse des Positionsvorhersagebereiches und des Posenvorhersagebereichs verwendet, wenn eine vom Positionserfassungsbereich erfasste Position außerhalb eines vorgegebenen Bereichs liegt.
  6. Ein Objekterfassungsgerät nach Anspruch 2, wobei der Bildaufnahmebereich einen ersten Bildaufnahmebereich und einen zweiten Bildaufnahmebereich hat, die miteinander gekoppelt sind, um ein Bild einer gemeinsamen Bildaufnahmefläche aufzunehmen, und der Abstandserfassungsbereich einen Abstand zum Objekt auf der Grundlage einer Parallaxe erfasst, die aus den vom ersten Bildaufnahmebereich und vom zweiten Bildaufnahmebereich aufgenommenen Bildern gewonnen wird.
  7. Ein Objekterfassungsgerät nach Anspruch 1, wobei der zweite Fahrzeuginformationeingabebereich die Zustandsinformationen über das andere Fahrzeug durch Kommunikation zwischen den Fahrzeugen erhält.
  8. Ein Objekterfassungsgerät nach Anspruch 1, wobei der Positionsvorhersagebereich auf der Grundlage eines vom Abstandserfassungsbereich erfassten Abstands ein bestimmtes Teil des Objekts erfasst, und der Positionserfassungsbereich und der Posenerfassungsbereich die Position und die Pose einer hinteren Oberfläche des Objekts anhand des bestimmten Teils des Objekts erfassen, wobei der vorbestimmte Teil vom Positionsvorhersagebereich vorhergesagt wird.
  9. Ein Fahrsteuerungssystem, das die Fahrt eines Basisfahrzeugs steuert, das einem anderen Fahrzeug folgt, wobei das Basisfahrzeug umfasst: einen Abstandserfassungsbereich, der den Abstand zwischen dem Basisfahrzeug und dem anderen Fahrzeug erfasst; einen Positionserfassungsbereich, der die Position des anderen Fahrzeugs auf der Grundlage des vom Abstandserfassungsbereich erfassten Abstands erfasst; ein Posenerfassungsbereich, der die Pose des anderen Fahrzeugs auf der Grundlage des vom Abstandserfassungsbereich erfassten Abstands erfasst; ein erster Fahrzeuginformationeingabebereich, der Zustandsinformationen über das Basisfahrzeug eingibt; ein zweiter Fahrzeuginformationeingabebereich, der Zustandsinformationen über das andere Fahrzeug eingibt; einen Positionsvorhersagebereich, der eine Position des anderen Fahrzeugs auf der Grundlage der Zustandsinformationen über das Basisfahrzeug vorhersagt, wobei die Zustandsinformationen von dem ersten Fahrzeuginformationeingabebereich eingegeben werden, und auf der Grundlage der Zustandsinformationen über das andere Fahrzeug, wobei die Zustandsinformationen von dem zweiten Fahrzeuginformationeingabebereich eingegeben werden; einen Posenvorhersagebereich, der eine Pose des anderen Fahrzeugs auf der Grundlage der Zustandsinformationen über das Basisfahrzeug vorhersagt, wobei die Zustandsinformationen von dem ersten Fahrzeuginformationeingabebereich eingegeben werden, und auf der Grundlage der Zustandsinformationen über das andere Fahrzeug, wobei die Zustandsinformationen von dem zweiten Fahrzeuginformationeingabebereich eingegeben werden; einen Bestimmungsbereich, der einen Abstand, eine Position und eine Pose des anderen Fahrzeugs als Reaktion auf Informationen bestimmt, die von dem Abstandserfassungsbereich, dem Positionserfassungsbereich, dem Posenerfassungsbereich, dem Positionsvorhersagebereich bzw. dem Posenvorhersagebereich erfasst oder vorhergesagt werden; und einen Steuerbereich, der eine Fahrsteuerung durchführt, damit das Basisfahrzeug dem anderen Fahrzeug folgt.
  10. Verfahren zur Steuerung der Fahrt eines Basisfahrzeugs, das einem anderen Fahrzeug folgt, umfassend: einen Schritt zur Erfassung eines Abstands zwischen dem Basisfahrzeug und dem anderen Fahrzeug; einen Schritt zur Erfassung einer Position des anderen Fahrzeugs auf der Grundlage des erfassten Abstands; einen Schritt zur Erfassung der Pose des anderen Fahrzeugs auf der Grundlage des erkannten Abstands; einen Schritt der Eingabe von Zustandsinformationen über das Basisfahrzeug; einen Schritt der Eingabe von Zustandsinformationen über das andere Fahrzeug; einen Schritt der Vorhersage einer Position des anderen Fahrzeugs auf der Grundlage der Zustandsinformationen über das Basisfahrzeug und der Zustandsinformationen über das andere Fahrzeug; einen Schritt der Vorhersage einer Pose des anderen Fahrzeugs auf der Grundlage der Zustandsinformationen über das Basisfahrzeug und der Zustandsinformationen über das andere Fahrzeug; einen Schritt des Bestimmens eines Abstands zu, einer Position von und einer Pose des anderen Fahrzeugs in Reaktion auf den erfassten Abstand, die erfasste Position und die erfasste Pose und in Reaktion auf die vorhergesagte Position und die vorhergesagte Pose; und einen Schritt zur Ausführung der Fahrsteuerung, um das Basisfahrzeug auf der Grundlage des ermittelten Ergebnisses dazu zu bringen, dem anderen Fahrzeug zu folgen.
DE112020002784.8T 2019-09-27 2020-05-25 Objekterfassungsgerät, Fahrsteuerungssystem und Fahrsteuerungsverfahren Pending DE112020002784T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019177661A JP7227112B2 (ja) 2019-09-27 2019-09-27 物体検出装置、走行制御システム、および走行制御方法
JP2019-177661 2019-09-27
PCT/JP2020/020489 WO2021059589A1 (ja) 2019-09-27 2020-05-25 物体検出装置、走行制御システム、および走行制御方法

Publications (1)

Publication Number Publication Date
DE112020002784T5 true DE112020002784T5 (de) 2022-05-05

Family

ID=75164958

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112020002784.8T Pending DE112020002784T5 (de) 2019-09-27 2020-05-25 Objekterfassungsgerät, Fahrsteuerungssystem und Fahrsteuerungsverfahren

Country Status (5)

Country Link
US (1) US12033395B2 (de)
JP (1) JP7227112B2 (de)
CN (1) CN114521180B (de)
DE (1) DE112020002784T5 (de)
WO (1) WO2021059589A1 (de)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018097644A (ja) 2016-12-14 2018-06-21 日立オートモティブシステムズ株式会社 先行車両の走行軌跡予測装置及びその搭載車両

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09272414A (ja) * 1996-04-08 1997-10-21 Mitsubishi Electric Corp 車両制御装置
JP4914787B2 (ja) * 2007-08-30 2012-04-11 本田技研工業株式会社 車両用物体検知装置
JP4337929B2 (ja) * 2007-12-25 2009-09-30 トヨタ自動車株式会社 移動状態推定装置
US20170242443A1 (en) * 2015-11-02 2017-08-24 Peloton Technology, Inc. Gap measurement for vehicle convoying
JP5533810B2 (ja) * 2011-07-23 2014-06-25 株式会社デンソー 追従走行制御装置
JP5673597B2 (ja) * 2011-11-18 2015-02-18 株式会社デンソー 車両用挙動制御装置
JP5835459B2 (ja) * 2012-03-01 2015-12-24 日産自動車株式会社 立体物検出装置
JP5916512B2 (ja) 2012-05-22 2016-05-11 古河電気工業株式会社 車載装置および車載装置の判断方法
KR101519215B1 (ko) * 2013-09-05 2015-05-11 현대오트론 주식회사 운전보조시스템 및 그 제어방법
US9767372B2 (en) * 2014-05-20 2017-09-19 Nissan Motor Co., Ltd. Target detection apparatus and target detection method
JP5949861B2 (ja) * 2014-09-05 2016-07-13 トヨタ自動車株式会社 車両の接近物体検出装置及び車両の接近物体検出方法
US9528838B2 (en) * 2014-12-09 2016-12-27 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle detection of and response to intersection priority
JP6497546B2 (ja) * 2015-02-06 2019-04-10 国立研究開発法人農業・食品産業技術総合研究機構 走行制御装置
JP5947938B1 (ja) * 2015-03-06 2016-07-06 ヤマハ発動機株式会社 障害物検出装置およびそれを備えた移動体
JP6425622B2 (ja) * 2015-06-12 2018-11-21 日立建機株式会社 車載装置、車両衝突防止方法
CN108885828B (zh) * 2016-04-15 2021-08-17 本田技研工业株式会社 车辆控制系统、车辆控制方法及存储介质
US9927816B2 (en) * 2016-05-13 2018-03-27 Macau University Of Science And Technology System and method for operating a follower vehicle in a vehicle platoon
JP6898629B2 (ja) * 2016-09-05 2021-07-07 株式会社Subaru 車両の走行制御装置
US10967864B2 (en) * 2016-10-03 2021-04-06 Honda Motor Co., Ltd. Vehicle control device
JP6774297B2 (ja) * 2016-10-17 2020-10-21 株式会社デンソー 車両認識装置及び車両認識方法
JP2018169888A (ja) * 2017-03-30 2018-11-01 株式会社デンソー 道路パラメータ推定装置
JP2019049812A (ja) * 2017-09-08 2019-03-28 スズキ株式会社 走行位置評価システム
JP6891082B2 (ja) * 2017-09-25 2021-06-18 日立Astemo株式会社 物体距離検出装置
WO2020251082A1 (ko) * 2019-06-13 2020-12-17 엘지전자 주식회사 자율 주행 차량 제어 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018097644A (ja) 2016-12-14 2018-06-21 日立オートモティブシステムズ株式会社 先行車両の走行軌跡予測装置及びその搭載車両

Also Published As

Publication number Publication date
WO2021059589A1 (ja) 2021-04-01
US20220319186A1 (en) 2022-10-06
US12033395B2 (en) 2024-07-09
JP7227112B2 (ja) 2023-02-21
JP2021056651A (ja) 2021-04-08
CN114521180A (zh) 2022-05-20
CN114521180B (zh) 2024-07-09

Similar Documents

Publication Publication Date Title
DE102018111778B4 (de) Verfahren, Vorrichtung und System zur Steuerung eines Fahrzeugs, das eine Kreuzung passiert.
DE102009005860B4 (de) Umgebungs-Erkennungssystem
DE102009005861B4 (de) Fahrzeugumgebungs-Erkennungssystem
EP3213260B1 (de) Verfahren und vorrichtung zur lokalisierung eines fahrzeugs in seinem umfeld
DE102015104453B4 (de) Stereobildverarbeitungsvorrichtung für ein Fahrzeug
DE102011053002B4 (de) Fahrspurliniebeurteilungsvorrichtung
DE69932021T2 (de) Dreidimensionales Darstellungssystem mit einer einzelnen Kamera für Fahrzeuge
DE112013007129B4 (de) Bewegungstrajektorienvorhersagevorrichtung und Bewegungstrajektorienvorhersageverfahren
DE102008030555B4 (de) Vorrichtung zur Verarbeitung von Stereobildern
DE102009015142B4 (de) Fahrzeugumgebungs-Erkennungs-Vorrichtung und Steuerungssystem zum Verfolgen eines vorausfahrenden Fahrzeugs
DE102019106375B4 (de) Fahrzeugsteuervorrichtung
DE102012219834B4 (de) Spurverfolgungssystem
DE112017002743B4 (de) Parkunterstützungsvorrichtung und Parkunterstützungsverfahren
DE102009004626B4 (de) Vorrichtung zur Überwachung der Umgebung eines Fahrzeugs
DE102007014012A1 (de) Fahrzeugumgebung-Überwachungsgerät, Fahrzeugumgebung-Überwachungsverfahren und Fahrzeugumgebung-Überwachungsprogramm
DE10246228A1 (de) Vorrichtung zum Überwachen eines an ein Fahrzeug angrenzenden Bereichs
DE102019007001B4 (de) FAHRZEUGBILDVERARBEITUNGSVORRICHTUNG, FAHRZEUGBILDVERARBEITUNGSVERFAHREN, PROGRAMM und SPEICHERMEDIUM
DE102016218934A1 (de) Verfahren zum Datenaustausch und Datenfusionierung von Umfelddaten
EP2707862B1 (de) Abstandsbestimmung mittels eines kamerasensors
DE102019120796A1 (de) Fahrzeugfahrumgebungs-Detektionsvorrichtung und Fahrzeugfahr-Steuersystem
DE112020000909T5 (de) Objektpositionsdetektionsvorrichtung, fahrsteuersystem und fahrsteuerverfahren
DE102008027588A1 (de) Vorrichtung zur Erfassung von Fußgängern
WO2020020654A1 (de) Verfahren zum betreiben eines fahrerassistenzsystems mit zwei erfassungseinrichtungen
DE102012023060A1 (de) Verfahren zum Detektieren eines beweglichen Objekts mithilfe eines Histogramms anhand von Bildern einer Kamera und Kamerasystem für ein Kraftfahrzeug
DE102011076795A1 (de) Verfahren zum Bestimmen einer Nickbewegung einer in einem Fahrzeug verbauten Kamera und Verfahren zur Steuerung einer Lichtaussendung zumindest eines Frontscheinwerfers eines Fahrzeugs

Legal Events

Date Code Title Description
R012 Request for examination validly filed