DE112016005947T5 - Fahrzeugbestimmungsvorrichtung, Fahrzeugbestimmungsverfahren und Fahrzeugbestimmungsprogramm - Google Patents

Fahrzeugbestimmungsvorrichtung, Fahrzeugbestimmungsverfahren und Fahrzeugbestimmungsprogramm Download PDF

Info

Publication number
DE112016005947T5
DE112016005947T5 DE112016005947.7T DE112016005947T DE112016005947T5 DE 112016005947 T5 DE112016005947 T5 DE 112016005947T5 DE 112016005947 T DE112016005947 T DE 112016005947T DE 112016005947 T5 DE112016005947 T5 DE 112016005947T5
Authority
DE
Germany
Prior art keywords
vehicle
feature amount
lane
area
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE112016005947.7T
Other languages
English (en)
Other versions
DE112016005947B4 (de
Inventor
Takefumi Hasegawa
Masahiro Abukawa
Akira Hirata
Michinori Yoshida
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE112016005947T5 publication Critical patent/DE112016005947T5/de
Application granted granted Critical
Publication of DE112016005947B4 publication Critical patent/DE112016005947B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/056Detecting movement of traffic to be counted or controlled with provision for distinguishing direction of travel
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24143Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • G08G1/0175Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Eine Richtungsermittlungseinheit (21) identifiziert eine Fahrtrichtung, in der ein umgebendes Fahrzeug fährt, in einem Teilbereich eines Bereichs, der durch eine durch Fotografieren unter Verwendung einer Kamera (31) erzielte Bildinformation (42) angezeigt wird. Eine Merkmalmengenerfassungseinheit (22) erfasst eine Referenzmerkmalmenge (41), die eine Merkmalmenge darstellt, welche aus einem Referenzbild berechnet wird, das der identifizierten Fahrtrichtung entspricht. Eine Fahrzeugbestimmungseinheit (23) berechnet eine Bildmerkmalmenge, die eine Merkmalmenge der Bildinformation des Teilbereichs ist, und vergleicht die berechnete Bildmerkmalmenge mit der erfassten Referenzmerkmalmenge (41), wodurch bestimmt wird, ob das umgebende Fahrzeug in dem Teilbereich anwesend ist oder nicht.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft eine Technologie zum Identifizieren eines Fahrzeugs auf einer Fahrbahn unter Verwendung einer Information eines durch eine Kamera fotografierten Bildes.
  • Stand der Technik
  • Fortschrittliche Fahrerassistenzsysteme (ADAS), wie z.B. automatisches Bremsen und ACC (Adaptive Cruise Control, Abstandsregeltempomat) werden auf einem allgemeinen Markt vermarktet. Erforschung und Entwicklung eines autonomen Fahrsystems sind ebenfalls im Gange und ein Test eines autonomen Fahrzeugs auf öffentlichen Straßen wurde vorgenommen.
  • Unter Fahrzeugen und autonomen Fahrzeugen mit den darin montierten fortschrittlichen Fahrassistenzsystemen ist ein Fahrzeug vorhanden, für welches unter Verwendung eines fotografierten Bildes, das durch Fotografieren um das Fahrzeug herum durch eine am Fahrzeug montierte Kamera erzielt wird, eine Bilderkennung eines umgebenden Fahrzeugs, das in der Nähe des Fahrzeugs anwesend ist, vorgenommen wird und das umgebende Fahrzeug detektiert wird.
  • Als ein Verfahren zum Detektieren des umgebenden Fahrzeugs unter Verwendung eines Bilderkennungsprozesses ist ein Verfahren zum Speichern, im Voraus, einer großen Menge von Bildinformationen verschiedener Fahrzeuge als Referenzbilder in einer Datenbank und Durchführen eines Strukturabgleichprozesses zwischen dem fotografierten Bild und den Referenzbildern vorhanden.
  • Als der Strukturabgleichprozess ist ein Verfahren zum Berechnen, durch eine SVM (Support Vector Machine), von HoG-Merkmalmengen (Histograms of Oriented Gradients, Histogramme von orientierten Gradienten) unter Verwendung der Referenzbilder und des fotografierten Bildes und Bestimmen, ob das Fahrzeug in dem fotografierten Bild fotografiert ist oder nicht, vorhanden. Als der Strukturabgleichprozess ist außerdem ein Verfahren zum Detektieren, durch ein CNN (Convolutional Neural Network), eines Bereichs des fotografierten Bildes vorhanden, der einer Merkmalmengenabbildung ähnlich ist, welche ein Merkmal des Fahrzeugs anzeigt.
  • Als die Referenzbilder in der Datenbank werden ein richtiges Antwortbild, das eine durch Fotografieren des Fahrzeugs erzielte Bildinformation darstellt, und ein inkorrektes Antwortbild, das eine Bildinformation darstellt, in der das Fahrzeug nicht fotografiert ist, verwendet.
  • Durch Detektieren, durch den Bilderkennungsprozess, des Bildbereichs des in der durch Fotografieren erzielten Bildinformation aufgenommenen Fahrzeugs wird auch die Position des umgebenden Fahrzeugs, das in der Nähe des Fahrzeugs anwesend ist, detektiert. Durch Verwenden eines Ergebnisses dieser Detektion können die fortschrittlichen Fahrerassistenzsysteme, wie z.B. das automatische Bremsen und der ACC, und ein Prozess zum Bestimmen der Fahrtroute eines autonomen Fahrzeugs implementiert werden.
  • Eine Berechnungsmenge für den Bilderkennungsprozess ist groß. Falls eine kostengünstige Bildverarbeitungsvorrichtung verwendet wird, wird daher eine Bildverarbeitungsgeschwindigkeit reduziert, so dass eine Anwendung an Systemen, wie z.B. den fortschrittlichen Fahrerassistenzsystemen und dem autonomen Fahrsystem, die ein Echtzeitleistungsvermögen verlangen, schwierig wird.
  • Je nach einer Fahrumgebung ist ferner ein Fall vorhanden, in dem das umgebende Fahrzeug nicht detektiert wird, auch wenn das umgebende Fahrzeug in dem fotografierten Bild fotografiert wird, und es gibt im Gegenteil einen Fall, in dem das umgebende Fahrzeug fälschlicherweise detektiert wird, auch wenn das umgebende Fahrzeug nicht fotografiert wird. Insbesondere ist eine Richtung, in der das umgebende Fahrzeug fotografiert wird, gemäß einer relativen Position zwischen der am Fahrzeug montierten Kamera des Fahrzeugs und dem umgebenden Fahrzeug unterschiedlich. Daher unterscheidet sich eine Bildinformation des in dem fotografierten Bild fotografierten umgebenden Fahrzeugs stark, so dass eine Detektionsrate des umgebenden Fahrzeugs in dem Bilderkennungsprozess reduziert wird.
  • Wie vorstehend erwähnt, ist die Detektionsgenauigkeit des umgebenden Fahrzeugs aufgrund der Fahrumgebung und der Umgebung des Fotografierens reduziert. Daher werden der ACC zum Reduzieren einer Belastung des Fahrers zu einer Stauzeit und das automatische Bremsen als eine Unterstützung, wenn ein Fahrer einen Fehler beim Fahren begangen hat, kommerzialisiert. Jedoch wurde das autonome Fahrzeug noch nicht kommerzialisiert. Eine Bilderkennungstechnologie mit einer höheren Detektionsgenauigkeit eines umgebenden Fahrzeugs und eine geringere Berechnungsmenge als je zuvor sind erwünscht, um die Sicherheit eines Fahrzeugs zu erhöhen sowie das autonome Fahrzeug zu vermarkten.
  • Patentliteratur 1 beschreibt, dass ein Grad einer Schrägstellung, die einen relativen Winkel zwischen einem Fahrzeug und einem umgebenden Fahrzeug darstellt, bestimmt wird, ein Bilderkennungsalgorithmus für das umgebende Fahrzeug gemäß der Größe des Schrägstellungsgrades umgestellt wird, und das umgebende Fahrzeug unter Verwendung eines fotografierten Bildes detektiert wird. Insbesondere wird gemäß der Patentliteratur 1, wenn der Grad der Schrägstellung niedrig ist, das umgebende Fahrzeug durch den Strukturabgleichprozess detektiert, und wenn der Grad der Schrägstellung hoch ist, wird das umgebende Fahrzeug durch einen optischen Flussprozess detektiert. Das heißt, dass gemäß Patentliteratur 1, wenn der Grad der Schrägstellung zwischen dem Fahrzeug und dem umgebenden Fahrzeug hoch ist, so dass sich ein von einer Frontseite fotografiertes Referenzbild und das fotografierte Bild stark unterscheiden, das umgebende Fahrzeug durch den optischen Flussprozess ohne Verwendung des Referenzbildes detektiert wird.
  • Literaturverzeichnis
  • Patentliteratur
  • Patentliteratur 1: JP 2013-161202 A
  • Kurzdarstellung der Erfindung
  • Technisches Problem
  • In dem optischen Flussprozess werden eine Identifizierung der Art des umgebenden Fahrzeugs und eine Identifizierung zwischen dem Fahrzeug und einem von dem Fahrzeug verschiedenen beweglichen Objekt schwierig. Daher kann gemäß der in der Patentliteratur 1 beschriebenen Technologie die Art und so weiter des umgebenden Fahrzeugs nicht erkannt werden, wenn der Grad der Schrägstellung hoch ist.
  • Eine Aufgabe der vorliegenden Erfindung ist es, eine Detektion eines umgebenden Fahrzeugs mit einer hohen Geschwindigkeit und mit einer hohen Genauigkeit unter Verwendung einer Information eines durch eine Kamera fotografierten Bildes zu ermöglichen.
  • Lösung der Aufgabe
  • Eine Fahrzeugbestimmungsvorrichtung gemäß der vorliegenden Erfindung kann Folgendes umfassen:
    • eine Richtungsidentifizierungseinheit zum Identifizieren einer Fahrtrichtung, in der ein umgebendes Fahrzeug fährt, in einem Teilbereich eines Bereichs, der durch eine durch Fotografieren durch eine Kamera erzielte Bildinformation angezeigt wird;
    • eine Merkmalmengenerfassungseinheit zum Erfassen einer Bildmerkmalmenge, die aus einem Referenzbild berechnet wird, das der durch die Richtungsidentifizierungseinheit identifizierten Fahrtrichtung entspricht; und
    • eine Fahrzeugbestimmungseinheit zum Berechnen einer Bildmerkmalmenge der Bildinformation des Teilbereichs und Vergleichen der berechneten Bildmerkmalmenge mit der Bildmerkmalmenge, die durch die Merkmalmengenerfassungseinheit erfasst wurde, wodurch bestimmt wird, ob das umgebende Fahrzeug in dem Teilbereich anwesend ist oder nicht.
  • Vorteilhafte Wirkungen der Erfindung
  • In der vorliegenden Erfindung wird es unter Verwendung des Referenzbilds, das der Fahrtrichtung des umgebenden Fahrzeugs in dem zu verarbeitenden Teilbereich entspricht, bestimmt, ob das umgebende Fahrzeug in dem Teilbereich anwesend ist oder nicht. Bei dieser Anordnung kann der Prozess mit einer hohen Geschwindigkeit durchgeführt werden, indem die Anzahl von zu verwendeten Referenzbildern reduziert wird. Da ein geeignetes Referenzbild verwendet wird, kann außerdem das umgebende Fahrzeug mit einer hohen Genauigkeit detektiert werden.
  • Figurenliste
    • 1 zeigt ein Konfigurationsdiagramm einer Fahrzeugbestimmungsvorrichtung 10 gemäß einer ersten Ausführungsform.
    • 2 ist ein Diagramm, das Fahrzustände eines umgebenden Fahrzeugs 200 gemäß der ersten Ausführungsform darstellt.
    • 3 ist ein Diagramm, das eine Bildinformation 42 zeigt, die in einer in 2 dargestellten Situation erzielt wird, gemäß der ersten Ausführungsform.
    • 4 umfasst Erläuterungsdiagramme von Referenzmerkmalmengen 41 gemäß der ersten Ausführungsform.
    • 5 ist eine Erläuterungstabelle der Referenzmerkmalmengen 41, die in einem Speicher 122 gespeichert sind, gemäß der ersten Ausführungsform.
    • 6 ist ein Ablaufdiagramm, das Operationen der Fahrzeugbestimmungsvorrichtung 10 gemäß einer ersten Ausführungsform zeigt.
    • 7 ist ein Erläuterungsdiagramm eines Verfahrens zum Auswählen eines Teilbereichs 61 gemäß der ersten Ausführungsform.
    • 8 ist ein Erläuterungsdiagramm eines Bereichsbestimmungsverfahrens in Bezug auf den Teilbereich 61 gemäß der ersten Ausführungsform.
    • 9 ist ein Erläuterungsdiagramm eines Verfahrens zum Einengen eines überlappten Bereichs gemäß der ersten Ausführungsform.
    • 10 ist ein Erläuterungsdiagramm in Bezug auf eine Ähnlichkeitsbestimmung einer Merkmalmenge gemäß der ersten Ausführungsform.
    • 11 zeigt ein Konfigurationsdiagramm einer Fahrzeugbestimmungsvorrichtung 10 gemäß einem ersten Abwandlungsbeispiel.
    • 12 zeigt ein Konfigurationsdiagramm einer Fahrzeugbestimmungsvorrichtung 10 gemäß einer zweiten Ausführungsform.
    • 13 ist ein Diagramm, das Fahrzustände eines umgebenden Fahrzeugs 200 gemäß der zweiten Ausführungsform darstellt.
    • 14 ist ein Diagramm, das Fahrzustände des umgebenden Fahrzeugs 200 gemäß der zweiten Ausführungsform darstellt.
    • 15 ist ein Diagramm, das eine Bildinformation 42 zeigt, die in einer in 13 dargestellten Situation erzielt wird, gemäß der zweiten Ausführungsform.
    • 16 ist ein Diagramm, das eine Bildinformation 42 zeigt, die in einer in 14 dargestellten Situation erzielt wird, gemäß der zweiten Ausführungsform.
    • 17 ist ein Ablaufdiagramm, das Operationen der Fahrzeugbestimmungsvorrichtung 10 gemäß einer zweiten Ausführungsform zeigt.
    • 18 ist ein Erläuterungsdiagramm eines Verfahrens zum Identifizieren einer Fahrspur eines Fahrzeugs 100 gemäß der zweiten Ausführungsform.
    • 19 ist ein Erläuterungsdiagramm eines Verfahrens zum Auswählen eines Teilbereichs 61 gemäß der zweiten Ausführungsform.
    • 20 ist ein Erläuterungsdiagramm des Verfahrens zum Auswählen des Teilbereichs 61 gemäß der zweiten Ausführungsform.
    • 21 ist ein Erläuterungsdiagramm in Bezug auf eine Ähnlichkeitsbestimmung einer Merkmalmenge gemäß der zweiten Ausführungsform.
    • 22 ist ein Konfigurationsdiagramm einer Fahrzeugbestimmungsvorrichtung 10 gemäß einem dritten Abwandlungsbeispiel.
    • 23 ist ein Ablaufdiagramm, das Operationen der Fahrzeugbestimmungsvorrichtung 10 gemäß einem dritten Abwandlungsbeispiel zeigt.
    • 24 ist ein Erläuterungsdiagramm eines Verfahrens zum Identifizieren einer Fahrspur eines Fahrzeugs 100 gemäß dem dritten Abwandlungsbeispiel.
    • 25 ist ein Erläuterungsdiagramm des Verfahrens zum Identifizieren der Fahrspur des Fahrzeugs 100 gemäß dem dritten Abwandlungsbeispiel.
    • 26 zeigt ein Konfigurationsdiagramm einer Fahrzeugbestimmungsvorrichtung 10 gemäß einer dritten Ausführungsform.
    • 27 ist ein Diagramm, das Fahrzustände eines umgebenden Fahrzeugs 200 gemäß der dritten Ausführungsform darstellt.
    • 28 ist eine Erläuterungstabelle der Referenzmerkmalmengen 41, die im Speicher 122 gespeichert sind, gemäß der dritten Ausführungsform.
    • 29 ist ein Ablaufdiagramm, das Operationen der Fahrzeugbestimmungsvorrichtung 10 gemäß einer dritten Ausführungsform zeigt.
    • 30 ist ein Diagramm, das Fahrzustände eines umgebenden Fahrzeugs 200 gemäß einem fünften Abwandlungsbeispiel darstellt.
    • 31 zeigt ein Konfigurationsdiagramm einer Fahrzeugbestimmungsvorrichtung 10 gemäß einer vierten Ausführungsform.
    • 32 ist ein Diagramm, das Fahrzustände eines umgebenden Fahrzeugs 200 gemäß der vierten Ausführungsform darstellt.
    • 33 ist ein Diagramm, das eine Bildinformation 42 zeigt, die in einer in 32 dargestellten Situation erzielt wird, gemäß der vierten Ausführungsform.
    • 34 umfasst Erläuterungsdiagramme von Referenzmerkmalmengen 41 gemäß der vierten Ausführungsform.
    • 35 ist eine Erläuterungstabelle der Referenzmerkmalmengen 41, die im Speicher 122 gespeichert sind, gemäß der vierten Ausführungsform.
    • 36 ist ein Ablaufdiagramm, das Operationen der Fahrzeugbestimmungsvorrichtung 10 gemäß einer vierten Ausführungsform zeigt.
    • 37 ist ein Erläuterungsdiagramm eines Verfahrens zum Bestimmen einer Anwesenheit oder Abwesenheit eines abgeschirmten Bereichs 47 gemäß der vierten Ausführungsform.
  • Beschreibung von Ausführungsformen
  • Erste Ausführungsform
  • *** Beschreibung der Konfiguration ***
  • Eine Konfiguration einer Fahrzeugbestimmungsvorrichtung 10 gemäß einer ersten Ausführungsform wird unter Bezugnahme auf 1 beschrieben.
  • Die Fahrzeugbestimmungsvorrichtung 10 ist ein Rechner, der auf einem Fahrzeug 100 montiert ist. Die Fahrzeugbestimmungsvorrichtung 10 ist über eine Fahrzeugsteuerschnittstelle 321 mit einer auf dem Fahrzeug 100 montierten Fahrzeugsteuereinheit 32 verbunden.
  • Die Fahrzeugbestimmungsvorrichtung 10 umfasst einen Prozessor 11, eine Speichervorrichtung 12 und eine Kameraschnittstelle 13. Der Prozessor 11 ist mit der anderen Hardware über Signalleitungen verbunden und steuert diese andere Hardware.
  • Der Prozessor 11 ist eine IC (integrierte Schaltung) zum Durchführen einer Verarbeitung. Als ein konkretes Beispiel ist der Prozessor 11 eine CPU (zentrale Verarbeitungseinheit), ein DSP (Digitalsignalprozessor) oder eine GPU (Grafikverarbeitungseinheit).
  • Die Speichervorrichtung 12 umfasst einen Speicher 121 und einen Speicher 122. Als ein konkretes Beispiel ist der Speicher 121 ein RAM (Direktzugriffspeicher). Als ein konkretes Beispiel ist der Speicher 122 ein ROM (Festwertspeicher). Der Speicher 122 kann ein HDD (ein Festplattenlaufwerk) sein. Alternativ kann der Speicher 122 ein tragbares Speichermedium, wie z.B. eine SD-Speicherkarte (Secure Digital), ein CF (Compact Flash), ein NAND-Flash, eine flexible Platte, eine optische Platte, eine Compact-Disk, eine Blue-ray-Disk (eingetragene Marke) oder eine DVD sein.
  • Die Kameraschnittstelle 13 ist eine Vorrichtung zum Verbinden einer Kamera 31, die auf dem Fahrzeug 100 zum Fotografieren um das Fahrzeug 100 herum montiert ist. Als ein konkretes Beispiel ist die Kameraschnittstelle 13 ein Schnittstellensubstrat zum Verbinden der Kamera 31. Durch Wechseln der Kameraschnittstelle 13 gemäß einem Ausgangsverbinder können verschiedene Typen der Kamera 31 mit der Fahrzeugbestimmungsvorrichtung 10 verbunden werden.
  • Die Fahrzeugbestimmungsvorrichtung 10 umfasst eine Richtungsidentifizierungseinheit 21, eine Merkmalerfassungseinheit 22 und eine Fahrzeugbestimmungseinheit 23 als Funktionskomponenten. Eine Funktion jeder Einheit von der Richtungsidentifizierungseinheit 21, der Merkmalerfassungseinheit 22 und der Fahrzeugbestimmungseinheit 23 wird durch eine Software implementiert.
  • Ein Programm zum Implementieren der Funktion jeder Einheit von der Fahrzeugbestimmungsvorrichtung 10 ist im Speicher 122 der Speichervorrichtung 12 gespeichert. Dieses Programm wird in den Speicher 121 durch den Prozessor 11 geladen und wird durch den Prozessor 11 ausgeführt. Dies implementiert die Funktion jeder Einheit der Fahrzeugbestimmungsvorrichtung 10. Referenzmerkmalmengen 41 zum Verwenden durch die Merkmalerfassungseinheit 22 werden im Speicher 122 der Speichervorrichtung 12 gespeichert. Die Referenzmerkmalmengen 41 können diejenigen sein, die in einem externen Server gespeichert werden.
  • Informationen, Daten, Signalwerte und Variablenwerte, die Ergebnisse von Prozessen der Funktionen der jeweiligen Einheiten anzeigen, die durch den Prozessor 11 implementiert werden, werden im Speicher 121 oder einem Register oder einem Cache-Speicher im Prozessor 11 gespeichert. In der nachstehenden Beschreibung wird angenommen, das die Informationen, die Daten, die Signalwerte und die Variablenwerte, die die Ergebnisse der Prozesse der Funktionen der jeweiligen Einheiten anzeigen, die durch den Prozessor 11 implementiert werden, im Speicher 121 gespeichert werden.
  • Es wird angenommen, dass das Programm zum Implementieren jeder Funktion, die durch den Prozessor 11 implementiert werden soll, in der Speichervorrichtung 12 gespeichert wird. Dieses Programm kann jedoch in einem tragbaren Speichermedium, wie z.B. einer magnetischen Platte, einer flexiblen Platte, einer optischen Platte, einer Compact-Disk, einer Blue-ray-Disk (eingetragene Marke) oder einer DVD, gespeichert werden.
  • Lediglich ein Prozessor 11 ist in 1 dargestellt. Der Prozessor 11 kann jedoch eine Mehrzahl sein, und eine Vielzahl von den Prozessoren 11 kann zusammenarbeiten und das Programm ausführen, um jede Funktion auszuführen.
  • Die Fahrzeugsteuereinheit 32 ist ein Rechner, der auf dem Fahrzeug 100 montiert ist.
  • Die Fahrzeugsteuereinheit 32 umfasst die Fahrzeugsteuerschnittstelle 321, eine Sensor-ECU (elektrische Steuereinheit) 322 und eine Fahrzeug-ECU 323.
  • Die Fahrzeugsteuerschnittstelle 321 ist eine Schnittstelle, die mit einer anderen Vorrichtung, wie z.B. der Fahrzeugbestimmungsvorrichtung 10, verbunden wird.
  • Die Sensor-ECU 322 ist eine Vorrichtung, mit der verschiedene Sensoren, wie z.B. ein Geschwindigkeitssensor, ein Beschleunigungssensor, ein Gyrosensor, ein Lasersensor und ein Millimeterwellensensor, verbunden werden und die Informationen von den verschiedenen Sensoren erlangt.
  • Die Fahrzeug-ECU 323 wird mit verschiedenen Steuervorrichtungen zum Steuern des Fahrzeugs 100 verbunden, wie z.B. einer Bremse, einem Gaspedal und einem Lenkrad des Fahrzeugs 100. Die Fahrzeug-ECU 323 steuert die verschiedenen Steuervorrichtungen auf der Grundlage der Information, die von den verschiedenen Sensoren durch die Sensor-ECU 322 erfasst werden, und einer Information von einer externen Vorrichtung, die über die Fahrzeugsteuerschnittstelle 321 verbunden ist, wodurch Operationen des Fahrzeugs 100 gesteuert werden.
  • *** Beschreibung der Operationen ***
  • Die Operationen der Fahrzeugbestimmungsvorrichtung 10 gemäß der ersten Ausführungsform werden unter Bezugnahme auf 2 bis 10 beschrieben.
  • Die Operationen der Fahrzeugbestimmungsvorrichtung 10 gemäß der ersten Ausführungsform entsprechen einem Fahrzeugbestimmungsverfahren gemäß der ersten Ausführungsform. Die Operationen der Fahrzeugbestimmungsvorrichtung 10 gemäß der ersten Ausführungsform entsprechen einem Fahrzeugbestimmungsprogrammablauf gemäß der ersten Ausführungsform.
  • In der nachstehenden Beschreibung wird die Beschreibung unter Verwendung eines Falls des Fahrens auf der linken Fahrbahnseite als ein Beispiel gegeben. Ein Fall des Fahrens auf der rechten Fahrbahnseite kann als derjenige betrachtet werden, in dem die rechte Seite und die linke Seite umgekehrt sind.
  • Die Operationen der Fahrzeugbestimmungsvorrichtung 10 gemäß der ersten Ausführungsform werden unter Bezugnahme auf 2 und 3 dargelegt.
  • Unter Bezugnahme auf 2 sind als umgebende Fahrzeuge 200, die in der Nähe des Fahrzeugs 100 auf einer Fahrbahn 50 fahren, ein umgebendes Fahrzeug 200A und ein umgebendes Fahrzeug 200B anwesend. Das umgebende Fahrzeug 200A fährt in einer parallelen Spur 51 einer Fahrtrichtung, die gleich ist wie jene einer Spur, in der das Fahrzeug 100 fährt. Das umgebende Fahrzeug 200B fährt auf einer Gegenspur 52 einer Fahrtrichtung, die jener der Spur, in der das Fahrzeug 100 fährt, entgegengesetzt ist. Wenn die Frontseite des Fahrzeugs 100 durch die Kamera 31, die auf dem Fahrzeug 100 montiert ist, in einer in 2 dargestellten Situation fotografiert wird, wird eine Bildinformation 42, wie in 3 dargestellt, erzielt. Das heißt, dass die Bildinformation 42 erzielt wird, in der das umgebende Fahrzeug 200A, das in der parallelen Spur 51 fährt, von hinten fotografiert wurde, und das umgebende Fahrzeug 200B, das in der Gegenspur 52 fährt, von vorne fotografiert wurde.
  • Ein Bild unterscheidet sich stark zwischen Situationen, wenn jedes umgebende Fahrzeug 200 von vorne fotografiert wurde, und wenn das umgebende Fahrzeug 200 von hinten fotografiert wurde. Das heißt, dass das Bild des umgebenden Fahrzeugs 200, das beim Fotografieren durch die Kamera 31 erzielt wird, unterscheidet sich gemäß der Fahrtrichtung des umgebenden Fahrzeugs 200. Wenn sich das Bild unterscheidet, ist auch eine Merkmalmenge, die aus jenem Bild zu berechnen ist, unterschiedlich.
  • Dann speichert die Fahrzeugbestimmungsvorrichtung 10 die Referenzmerkmalmenge 41 für jede Fotografierichtung, in der jedes umgebende Fahrzeug 200 fotografiert ist. Dann identifiziert in Bezug auf jeden Teilbereich 61 eines Bereichs, der durch die Bildinformation 42 angezeigt wird, die Fahrzeugbestimmungsvorrichtung 10 die Fahrtrichtung des umgebenden Fahrzeugs 200 in dem zu verarbeitenden Teilbereich 61 und bestimmt unter Verwendung der Referenzmerkmalmenge 41, die der identifizierten Fahrtrichtung entspricht, ob das umgebende Fahrzeug 200 in dem zu verarbeitenden Teilbereich 61 anwesend ist oder nicht.
  • Die Referenzmerkmalmenge 41 gemäß der ersten Ausführungsform wird unter Bezugnahme auf 4 und 5 beschrieben.
  • Die Referenzmerkmalmenge 41 wird unter Verwendung von Referenzbildern berechnet, die einer Zielfotografierichtung entsprechen. Unter Bezugnahme auf 4 wird eine Referenzmerkmalmenge 41A für das Heck eines Fahrzeugs unter Verwendung der Referenzbilder berechnet, die durch Fotografieren von hinten der Fahrzeuge erzielt wurden, und eine Referenzmerkmalmenge 41B für die Frontseite eines Fahrzeugs wird unter Verwendung der Referenzbilder berechnet, die durch Fotografieren von Frontseiten der Fahrzeuge erzielt wurde. Selbstverständlich bilden die Referenzbilder, die durch Fotografieren von den Heckseiten der Fahrzeuge erzielt wurden, eine Bildinformation von Heckabschnitten der Fahrzeuge, während die Referenzbilder, die durch Fotografieren von den Frontseiten der Fahrzeuge erzielt wurden, eine Bildinformation von Frontabschnitten der Fahrzeuge bilden. Durch Berechnen der Merkmalmenge unter Verwendung der Referenzbilder, die gemäß der Fotografierichtung klassifiziert sind, werden die Referenzmerkmalmenge 41A, die auf das Bild eines Fahrzeugheckabschnitts spezialisiert ist, und die Referenzmerkmalmenge 41B, die auf das Bild eines Fahrzeugfrontabschnitts spezialisiert ist, berechnet.
  • Die Referenzmerkmalmenge 41, die jeder Fotografierichtung entspricht, wird im Speicher 122 gespeichert, indem sie mit jeder Fotografierichtung assoziiert wird, wie in 5 dargestellt.
  • Hierbei wurden die Referenzmerkmalmenge 41A, die auf das Bild des Fahrzeugheckabschnitts spezialisiert ist, und die Referenzmerkmalmenge 41B, die auf das Bild des Fahrzeugfrontabschnitts spezialisiert wird, berechnet.
  • Wenn die Referenzmerkmalmenge 41A berechnet wird, können ein Bild auf einem linken schrägen Heckabschnitt jedes der Fahrzeuge, ein Bild auf einem rechten schrägen Heckabschnitt des Fahrzeugs, ein Bild auf einem linken Seitenabschnitt des Fahrzeugs oder ein Bild auf einem rechten Seitenabschnitt des Fahrzeugs sowie ein Bild direkt hinter dem Fahrzeug aufgenommen werden. Wenn die Referenzmerkmalmenge 41B berechnet wird, können ein Bild auf einem rechten schrägen Frontabschnitt des Fahrzeugs oder ein Bild auf dem rechten Seitenabschnitt des Fahrzeugs sowie ein Bild vor dem Fahrzeug aufgenommen werden. Herbei wird das Fahren auf der linken Seite der Fahrbahn angenommen. Daher ist die Gegenspur auf der rechten Seite des Fahrzeugs 100 angeordnet. Wenn die Referenzmerkmalmenge 41B berechnet wird, werden daher keine Bilder auf den linken Seiten der Fahrzeuge verwendet.
  • Die Operationen der Fahrzeugbestimmungsvorrichtung 10 gemäß der ersten Ausführungsform werden unter Bezugnahme auf 6 ausführlich beschrieben.
  • In der ersten Ausführungsform werden Prozesse, die in 6 dargestellt sind, jeweils für jeden bestimmten Zeitraum ausgeführt. Die in 6 dargestellten Prozesse können gemäß einem Auftreten eines Ereignisses ausgeführt werden.
  • In einem Erfassungsprozess eines fotografierten Bildes in Schritt S101 erfasst die Richtungsidentifizierungseinheit 21 über die Kameraschnittstelle 13 eine Bildinformation 42, in der die Frontseite eines Fahrzeugs 100 durch eine Kamera 31 fotografiert wurde. Die Richtungsidentifizierungseinheit 21 schreibt die Bildinformation 42, die erfasst wurde, in den Speicher 121.
  • In einem Bereichsauswahlprozess in Schritt S102 wählt die Richtungsidentifizierungseinheit 21 einen Teilbereich 61 eines Bereichs aus, der durch die in Schritt S101 erfasste Bildinformation 42 angezeigt wird.
  • Eine konkrete Beschreibung wird unter Bezugnahme auf 7 gegeben. Die Richtungsidentifizierungseinheit 21 liest die Bildinformation 42 aus dem Speicher 121 und wählt sequenziell jeden Teilbereich 61 einer willkürlichen Größe von oben links bis unten rechts der gelesenen Bildinformation 42 aus. In der ersten Ausführungsform stellt die Richtungsidentifizierungseinheit 21 einen quadratischen Bereich, der aus horizontal 30 Pixel x vertikal 30 Pixel gebildet wird, als jeden Teilbereich 61 ein, und stellt horizontal 5 Pixel x vertikal 5 Pixel als eine Zelle 62 ein. Dann wählt die Richtungsidentifizierungseinheit 21 sequenziell jeden der Teilbereiche 61, jeweils um eine Zelle verschoben, von oben links bis unten rechts der Bildinformation 42 aus. Wenn die Bildauflösung der Referenzmerkmalmenge 41 zum Beispiel horizontal 1980x vertikal 1200 ist, werden, da jeder der um jeweils fünf Pixel verschobenen Teilbereiche 61 extrahiert wird, 391 (= (1980 - 30) / 5 + 1) × 235 (= (1200 - 30)/ 5 + 1) Teilbereiche 61 jeweils sequenziell ausgewählt. Die Richtungsidentifizierungseinheit 21 schreibt die ausgewählten Teilbereiche 61 in den Speicher 121.
  • In einem Richtungsidentifizierungsprozess in Schritt S103 identifiziert die Richtungsidentifizierungseinheit 21 eine Fahrtrichtung, in der ein umgebendes Fahrzeug 200 fährt, in dem in Schritt S102 ausgewählten Teilbereich 61.
  • Insbesondere liest die Richtungsidentifizierungseinheit 21 einen der Teilbereiche 61 aus dem Speicher 121 und bestimmt, ob der Teilbereich 61, der gelesen wurde, ein Bereich einer parallelen Spur 51 oder ein Bereich einer Gegenspur 52 ist. Wenn der Teilbereich 61 der Bereich der parallelen Spur 51 ist, dann identifiziert die Richtungsidentifizierungseinheit 21, dass die Fahrtrichtung des umgebenden Fahrzeugs 200 dieselbe Richtung wie jene des Fahrzeugs 100 ist. Wenn der Teilbereich 61 der Bereich der Gegenspur 52 ist, dann identifiziert die Richtungsidentifizierungseinheit 21, dass die Fahrtrichtung des umgebenden Fahrzeugs 200 die zu jener des Fahrzeugs 100 entgegengesetzte Richtung ist. Die Richtungsidentifizierungseinheit 21 schreibt eine Richtungsinformation 43, die die identifizierte Fahrtrichtung anzeigt, in den Speicher 121.
  • Ein Verfahren zum Identifizieren, ob der Teilbereich 61 der Bereich der parallelen Spur 51 oder der Bereich der Gegenspur 52 ist, wird unter Bezugnahme auf 8 beschrieben.
  • Im Fall des Fahrens auf der linken Seite der Fahrbahn befindet sich die parallele Spur 51 auf der linken Seite der Bildinformation 42, und die Gegenspur 52 befindet sich auf der rechten Seite der Bildinformation 42 in der Kamera 31 für ein Fotografieren der Frontseite des Fahrzeugs 100. Dann stellt die Richtungsidentifizierungseinheit 21, als die parallele Spur 51, einen Bereich von dem linken Ende zu der Mittelposition oder einer Position leicht auf der rechten Seite der Mittelposition der Bildinformation 42 ein, und stellt als die Gegenspur 52 einen Bereich von dem rechten Ende zu der Mittelposition oder einer Position leicht auf einer linken Seite der Mittelposition der Bildinformation 42 ein.
  • Unter Bezugnahme auf 8 stellt die Richtungsidentifizierungseinheit 21 als die parallele Spur 51 einen Bereich von dem linken Ende zu der Mittelposition oder der Position leicht auf der rechten Seite der Mittelposition der Bildinformation 42 ein, und stellt als die Gegenspur 52 einen Bereich von dem rechten Ende zu der Position leicht auf einer linken Seite der Mittelposition der Bildinformation 42 ein. Daher ist ein Überlappungsbereich, der sowohl in der parallelen Spur 51 als auch der Gegenspur 52 aufgenommen ist, in einer Mittelposition der Bildinformation 42 in 8 vorhanden. Der Überlappungsbereich wird, wie vorstehend erwähnt, daher bereitgestellt, weil sich Positionen der Bereiche der parallelen Spur 51 und der Gegenspur 52 in der Bildinformation 42 gemäß der Fahrposition des Fahrzeugs 100 ändern können.
  • Auf der Grundalge dessen, welchen von dem Bereich der parallelen Spur 51 und dem Bereich der Gegenspur 52 der Teilbereich 61 umfasst, bestimmt die Richtungsidentifizierungseinheit 21, ob der Teilbereich 61 der Bereich der parallelen Spur 51 oder der Bereich der Gegenspur 52 ist. Wenn der Teilbereich 61 sowohl den Bereich der parallelen Spur 51 als auch den Bereich der Gegenspur 52 umfasst, bestimmt die Richtungsidentifizierungseinheit 21, dass der Teilbereich 61 beide der Bereiche der parallelen Spur 51 und der Gegenspur 52 ist.
  • Das heißt, dass in dem unter Bezugnahme auf 8 beschriebenen Verfahren die Richtungsidentifizierungseinheit 21 die Fahrtrichtung gemäß der Position jedes Teilbereichs 61 in dem durch die Bildinformation 42 angezeigten Bereich identifiziert.
  • Ein Verfahren zum Einengen des Überlappungsbereichs wird unter Bezugnahme auf 9 beschrieben.
  • Es wird angenommen, dass ein umgebendes Fahrzeug 200, das in der parallelen Spur 51 fährt, durch die Fahrzeugbestimmungseinheit 23 in dem Prozess, der später beschrieben wird, detektiert wurde. In diesem Fall wird angenommen, dass sich ein Bereich, in dem das umgebende Fahrzeug 200 detektiert wurde, in der parallelen Spur 51 und nicht in der Gegenspur 52 befindet. Wenn das umgebende Fahrzeug 200, das in der parallelen Spur 51 fährt, detektiert wurde, stellt dann die Richtungsidentifizierungseinheit 21 als die Gegenspur 52 einen Bereich von dem rechten Ende einer Bildinformation 42 zu dem rechten Ende des Bereichs ein, in dem das umgebende Fahrzeug 200 detektiert wurde. Dies reduziert den Bereich der Gegenspur 52 und engt den Überlappungsbereich ein.
  • Wenn das umgebende Fahrzeug 200, das in der Gegenspur 52 fährt, detektiert wurde, stellt gleichermaßen die Richtungsidentifizierungseinheit 21 als die parallele Spur 51 einen Bereich von dem linken Ende einer Bildinformation 42 zu dem linken Ende eines Bereichs ein, in dem das umgebende Fahrzeug 200 detektiert wurde. Dies reduziert den Bereich der parallelen Spur 51 und engt den Überlappungsbereich ein.
  • Das heißt, dass in dem unter Bezugnahme auf 9 beschriebenen Verfahren die Richtungsidentifizierungseinheit 21 die Fahrtrichtung gemäß der Position des Teilbereichs 61 des Bereichs, der durch die Bildinformation 42 angezeigt wird, und der Position eines Teilbereichs 61, in dem die Anwesenheit des umgebenden Fahrzeugs 200 durch die Fahrzeugbestimmungseinheit 23 in der Vergangenheit bestimmt wurde, identifiziert.
  • In einem Merkmalmengenerfassungsprozess in Schritt S104 erfasst die Merkmalerfassungseinheit 22 eine Referenzmerkmalmenge 41, die der in Schritt S103 identifizierten Fahrtrichtung des umgebenden Fahrzeugs 200 entspricht.
  • Wenn die Fahrtrichtung des umgebenden Fahrzeugs 200 derart identifiziert wurde, dass sie dieselbe Richtung wie jene des Fahrzeugs 100 ist, erfasst insbesondere die Merkmalerfassungseinheit 22 die Referenzmerkmalmenge 41, die derselben Richtung wie jene des Fahrzeugs 100 entspricht. Das heißt, dass die Merkmalerfassungseinheit 22 die Referenzmerkmalmenge 41A für den Fahrzeugheckabschnitt aus dem Speicher 122 liest. Wenn die Fahrtrichtung des umgebenden Fahrzeugs 200 derart identifiziert wurde, dass sie die entgegengesetzte Richtung zu jener des Fahrzeugs 100 ist, erfasst andererseits die Merkmalerfassungseinheit 22 die Referenzmerkmalmenge 41, die der entgegengesetzten Richtung zu jener des Fahrzeugs 100 entspricht. Das heißt, dass die Merkmalerfassungseinheit 22 die Referenzmerkmalmenge 41B für den Fahrzeugfrontabschnitt aus dem Speicher 122 liest. Dann schreibt die Merkmalerfassungseinheit 22 die Referenzmerkmalmenge 41, die gelesen wurde, in den Speicher 121.
  • In einem Merkmalmengenberechnungsprozess in Schritt S105 berechnet die Fahrzeugbestimmungseinheit 23 eine Bildmerkmalmenge, die eine Merkmalmenge des in Schritt S102 ausgewählten Teilbereichs 61 ist.
  • Insbesondere berechnet in der ersten Ausführungsform die Fahrzeugbestimmungseinheit 23 eine HOG-Merkmalmenge des Teilbereichs 61 als die Bildmerkmalmenge. Zuerst berechnet die Fahrzeugbestimmungseinheit 23 die Luminanzgradientenintensität und die Luminanzgradientenrichtung jeder Zelle 62, die den Teilbereich 61 bildet. Dann teilt die Fahrzeugbestimmungseinheit 23 die berechnete Luminanzgradientenrichtung in neun Richtungen und erzeugt ein Histogramm der Luminanzgradientenintensität für jede Richtung. Schließlich stellt die Fahrzeugbestimmungseinheit 23 alle Histogramme der jeweiligen Zellen 62 als die Bildmerkmalmenge des Teilbereichs 61 ein. Die Fahrzeugbestimmungseinheit 23 schreibt die berechnete Bildmerkmalmenge in den Speicher 121.
  • Hierbei wird die Bildmerkmalmenge des Teilbereichs 61 zu der Bildmerkmalmenge von insgesamt 324 (= 9 × 36) Abmessungen, da jede Zelle 62 die Luminanzgradientenintensitäten von neun Richtungen aufweist und die Anzahl der Zellen 62, die jeden Teilbereich 61 bilden, 36 beträgt.
  • Die im Speicher 122 gespeicherte Referenzmerkmalmenge 41 wurde ähnlich der Bildmerkmalmenge unter Verwendung der Referenzbilder, die gemäß der Fahrzeugrichtung klassifiziert sind, berechnet. Die im Voraus berechnete Referenzmerkmalmenge 41 kann gespeichert werden oder sie kann ausgelegt sein, so dass sie auf der Grundlage der Bildinformation 42 aktualisiert wird.
  • Hierbei wurde die HOG-Merkmalmenge als jeweils die Bildmerkmalmenge und die Referenzmerkmalmenge 41 berechnet. Jedoch kann eine andere Merkmalmenge als jeweils die Bildmerkmalmenge und die Referenzmerkmalmenge 41 berechnet werden.
  • In einem Fahrzeugbestimmungsprozess in Schritt S106 vergleicht die Fahrzeugbestimmungseinheit 23 die in Schritt S104 erfasste Referenzmerkmalmenge 41 mit der in Schritt S105 berechneten Bildmerkmalmenge und bestimmt, ob die Bildmerkmalmenge und die Referenzmerkmalmenge 41 ähnlich sind.
  • Insbesondere liest die Fahrzeugbestimmungseinheit 23 die Referenzmerkmalmenge 41 aus dem Speicher 122 in Schritt S104 und liest die in Schritt S105 berechnete Bildmerkmalmenge aus dem Speicher 121. In der ersten Ausführungsform vergleicht die Fahrzeugbestimmungseinheit 23 die Bildmerkmalmenge, die gelesen wurde, mit der Referenzmerkmalmenge 41, die gelesen wurde, unter Verwendung eines SVM und es wird ein Ähnlichkeitsgrad berechnet. Dann bestimmt die Fahrzeugbestimmungseinheit 23, ob der Ähnlichkeitsgrad höher als ein Schwellenwert ist oder nicht.
  • Wenn bestimmt wurde, dass die Bildmerkmalmenge und die Referenzmerkmalmenge ähnlich sind, veranlasst die Fahrzeugbestimmungseinheit 23, dass der Ablauf mit Schritt S107 fortfährt. Wenn bestimmt wurde, dass die Bildmerkmalmenge und die Referenzmerkmalmenge nicht ähnlich sind, veranlasst die Fahrzeugbestimmungseinheit 23 andererseits, dass der Ablauf mit Schritt S108 fortfährt.
  • Hierbei wurde das SVM eingesetzt, um die Ähnlichkeit der Merkmalmengen zu bestimmen. Es kann jedoch ein anderes Verfahren eingesetzt werden, um die Ähnlichkeit der Merkmalmengen zu bestimmen.
  • Das heißt, dass wenn, wie in 10 dargestellt, der Teilbereich 61 der Bildbereich der parallelen Spur 51 ist, die Bestimmung unter Verwendung der Referenzmerkmalmenge 41A für den Fahrzeugheckabschnitt vorgenommen wird. Wenn der Teilbereich 61 der Bildbereich der Gegenspur 52 ist, wird die Bestimmung unter Verwendung der Referenzmerkmalmenge 41B für den Fahrzeugfrontabschnitt vorgenommen. Wenn der Teilbereich 61 der Überlappungsbereich ist, wird die Bestimmung unter Verwendung von sowohl der Referenzmerkmalmenge 41A für den Fahrzeugheckabschnitt als auch der Referenzmerkmalmenge 41B für den Fahrzeugfrontabschnitt vorgenommen.
  • In einem Fahrzeugbestimmungsprozess in Schritt S107 bestimmt die Fahrzeugbestimmungseinheit 23, dass das umgebende Fahrzeug 200 in dem in Schritt S102 ausgewählten Teilbereich 61 fotografiert ist. Das heißt, dass die Fahrzeugbestimmungseinheit 23 bestimmt, dass das umgebende Fahrzeug 200 im Teilbereich 61 anwesend ist. Dann identifiziert die Fahrzeugbestimmungseinheit 23 die Position des umgebenden Fahrzeugs 200 auf der Grundlage der Position des Teilbereichs 61 in der Bildinformation 42.
  • Die Fahrzeugbestimmungseinheit 23 sendet eine Identifizierungsinformation 44, die die identifizierte Position des umgebenden Fahrzeugs 200 anzeigt, an die Fahrzeugsteuereinheit 32. Dann führt die Fahrzeugbestimmungseinheit 23 den Ablauf zu Schritt S102 zurück.
  • Die Fahrzeugsteuereinheit 32 steuert ein Fahren des Fahrzeugs 100 unter Verwendung der Identifizierungsinformation 44, die gesendet wurde. Wenn zum Beispiel das umgebende Fahrzeug 200 in der Nähe der Fahrtrichtung des Fahrzeugs 100 detektiert wurde, führt die Fahrzeugsteuereinheit 32 eine Bremsensteuerung des Fahrzeugs 100 durch, wodurch eine Kollision mit dem umgebenden Fahrzeug 200 vermieden wird.
  • In einem Nicht-Fahrzeugbestimmungsprozess in Schritt S108 bestimmt die Fahrzeugbestimmungseinheit 23, dass kein Fahrzeug in dem in Schritt S102 ausgewählten Teilbereich 61 fotografiert ist. Das heißt, dass die Fahrzeugbestimmungseinheit 23 bestimmt, dass kein umgebendes Fahrzeug 200 im Teilbereich 61 anwesend ist. Dann führt die Fahrzeugbestimmungseinheit 23 den Ablauf zu Schritt S102 zurück.
  • Wenn die Richtungsidentifizierungseinheit 21 all die durch die Bildinformation 42 angezeigten Bereiche als die Teilbereiche 61 in Schritt S102 ausgewählt hat, ist der Ablauf abgeschlossen.
  • *** Wirkung der ersten Ausführungsform ***
  • Wie vorstehend erwähnt, bestimmt die Fahrzeugbestimmungsvorrichtung 10 gemäß der ersten Ausführungsform unter Verwendung der Referenzmerkmalmenge 41, die der Fahrtrichtung des umgebenden Fahrzeugs 200 im Teilbereich 61 entspricht, ob das umgebende Fahrzeug 200 in dem Teilbereich 61 fotografiert wurde oder nicht. Dies kann das umgebende Fahrzeug 200 aus der Bildinformation 42 mit einer hohen Geschwindigkeit und mit einer hohen Genauigkeit detektieren.
  • *** Alternative Konfigurationen ***
  • <Erstes Abwandlungsbeispiel>
  • In der ersten Ausführungsform wurde die Funktion jeder Einheit der Fahrzeugbestimmungsvorrichtung 10 durch die Software implementiert. Als ein erstes Abwandlungsbeispiel kann jedoch die Funktion jeder Einheit der Fahrzeugbestimmungsvorrichtung 10 durch eine Hardware implementiert werden. Ein Unterschied dieses ersten Abwandlungsbeispiels von der ersten Ausführungsform wird beschrieben.
  • Eine Konfiguration einer Fahrzeugbestimmungsvorrichtung 10 gemäß dem ersten Abwandlungsbeispiel wird unter Bezugnahme auf 11 beschrieben.
  • Wenn die Funktion jeder Einheit durch die Hardware implementiert wird, umfasst die Fahrzeugbestimmungsvorrichtung 10 eine Verarbeitungsschaltung 14 anstelle des Prozessors 11 und der Speichervorrichtung 12. Die Verarbeitungsschaltung 14 ist eine elektronische Schaltung, die dem Implementieren der Funktion jeder Einheit in der Fahrzeugbestimmungsvorrichtung 10 und einer Funktion der Speichervorrichtung 12 dediziert ist.
  • Es wird angenommen, dass die Verarbeitungsschaltung 14 eine einzelne Schaltung, eine zusammengesetzte Schaltung, ein programmierter Prozessor, ein parallel programmierter Prozessor eine logische IC, ein GA (Gate-Array), eine ASIC (eine anwendungsspezifische integrierte Schaltung) oder ein FPGA(im Feld programmierbare Gatter-Anordnung) ist.
  • Die Funktion jeder Einheit kann durch eine Verarbeitungsschaltung 14 implementiert werden, oder die Funktion jeder Einheit kann in eine Vielzahl von Verarbeitungsschaltungen 14 zum Implementieren verteilt sein.
  • <Zweites Abwandlungsbeispiel>
  • Ein Teil der Funktionen kann als ein zweites Abwandlungsbeispiel durch eine Hardware implementiert werden, und die anderen Funktionen können durch eine Software implementiert werden. Das heißt, dass der Teil der Funktionen der jeweiligen Einheiten in der Fahrzeugbestimmungsvorrichtung 10 durch die Hardware implementiert werden kann und die anderen Funktionen durch die Software implementiert werden können.
  • Der Prozessor 11, die Speichervorrichtung 12 und die Verarbeitungsschaltung 14 werden gemeinsam als „Verarbeitungsschaltung“ bezeichnet. Das heißt, dass die Funktionen der jeweiligen Einheiten durch die Verarbeitungsschaltung implementiert werden.
  • Zweite Ausführungsform
  • Eine zweite Ausführungsform unterscheidet sich von der ersten Ausführungsform darin, dass ein Bereich einer parallelen Spur 51 und ein Bereich einer Gegenspur 52 identifiziert werden, wenn eine Vielzahl von Spuren auf jeder Seite der Fahrbahn vorhanden ist. In der zweiten Ausführungsform wird dieser Unterschied beschrieben.
  • In der zweiten Ausführungsform wird eine Beschreibung eines Falls gegeben, in dem zwei Spuren auf jeder Seite der Fahrbahn vorhanden sind. Auch ein Fall, in dem drei oder mehr Spuren auf jeder Seite der Fahrbahn vorhanden sind, kann jedoch auf der Grundlage eines ähnlichen Konzepts gehandhabt werden.
  • ***Beschreibung der Konfiguration***
  • Eine Konfiguration einer Fahrzeugbestimmungsvorrichtung 10 gemäß der zweiten Ausführungsform wird unter Bezugnahme auf 12 beschrieben.
  • Die Fahrzeugbestimmungsvorrichtung 10 umfasst, zusätzlich zu der in 1 dargestellten Hardwarekonfiguration der Fahrzeugbestimmungsvorrichtung 10, eine Kommunikationsschnittstelle 15 und einen Positionssensor 16.
  • Die Kommunikationsschnittstelle 15 ist eine Vorrichtung, die einen Empfänger zum Empfangen von Daten und einen Sender zum Senden von Daten umfasst. Als ein konkretes Beispiel ist die Kommunikationsschnittstelle 15 ein Kommunikationschip oder eine NIC (Netzwerkkarte).
  • Der Positionssensor 16 ist eine Vorrichtung zum Empfangen eines Positionierungssignals, das durch einen Positionierungssatelliten, wie z.B. GPS, gesendet wurde, und kann die Position eines Fahrzeugs 100 identifizieren. Ein Quasi-Zenit-Satellit, der eine Umlaufbahn einnimmt, wo der Quasi-Zenit-Satellit über einem konkreten Gebiet für eine lange Zeitdauer am Himmel bleibt, kann als der Positionierungssatellit verwendet werden. Ein Verwenden des Quasi-Zenit-Satelliten ermöglicht es, dass eine sehr präzise Positionsinformation berechnet wird.
  • Die Fahrzeugbestimmungsvorrichtung 10 umfasst, zusätzlich zu den in 1 dargestellten Funktionskomponenten der Fahrzeugbestimmungsvorrichtung 10, eine Spuridentifizierungseinheit 24. Eine Funktion der Spuridentifizierungseinheit 24 wird, wie die anderen Funktionen, durch eine Software implementiert.
  • ***Beschreibung der Operationen ***
  • Operationen der Fahrzeugbestimmungsvorrichtung 10 gemäß der zweiten Ausführungsform werden unter Bezugnahme auf 13 bis 20 beschrieben.
  • Die Operationen der Fahrzeugbestimmungsvorrichtung 10 gemäß der zweiten Ausführungsform entsprechen einem Fahrzeugbestimmungsverfahren gemäß der zweiten Ausführungsform. Die Operationen der Fahrzeugbestimmungsvorrichtung 10 gemäß der zweiten Ausführungsform entsprechen einem Fahrzeugbestimmungsprogrammablauf gemäß der zweiten Ausführungsform.
  • Die Operationen der Fahrzeugbestimmungsvorrichtung 10 gemäß der zweiten Ausführungsform werden unter Bezugnahme auf 13 und 16 dargelegt.
  • In jeder von 13 und 14 ist eine Fahrbahn mit zwei Spuren auf jeder Seite dargestellt und ein umgebendes Fahrzeug 200 fährt in jeder Spur. Die Spur, in der ein Fahrzeug 100 fährt, ist zwischen 13 und 14 anders. Während insbesondere das Fahrzeug 100 in 13 in der Spur benachbart zu einer Gegenspur 52 fährt, fährt das Fahrzeug 100 in 14 in der Spur benachbart zu einer Fahrbahnschulter 53. Wenn die Frontseite des Fahrzeugs 100 durch eine Kamera 31, die auf dem Fahrzeug 100 montiert ist, in der in 13 dargestellten Situation fotografiert wird, wird eine Bildinformation 42, wie in 15 dargestellt, erzielt. Wenn die Frontseite des Fahrzeugs 100 durch die Kamera 31, die auf dem Fahrzeug 100 montiert ist, in einer in 14 dargestellten Situation fotografiert wird, wird eine Bildinformation 42, wie in 16 dargestellt, erzielt.
  • Wie in 15 und 16 dargestellt, unterscheidet sich ein zu fotografierender Bereich gemäß der Spur, in der das Fahrzeug 100 fährt. Dann identifiziert die Fahrzeugbestimmungsvorrichtung 10 die Fahrtrichtung jedes umgebenden Fahrzeugs 200 unter Berücksichtigung der Fahrspur, in der das Fahrzeug 100 fährt. Insbesondere wird eine ungefähr linke Hälfte der Bildinformation 42 nicht einfach so eingestellt, dass sie Bereiche paralleler Spuren 51 darstellt, und eine ungefähr rechte Hälfte der Bildinformation 42 wird nicht einfach so eingestellt, dass sie Bereiche von Gegenspuren 52 darstellt. Eine Identifizierung wird zwischen den Bereichen der parallelen Spuren 51 und den Bereichen der Gegenspuren 52 im Bereich der Bildinformation 42 gemäß der Fahrspur vorgenommen.
  • Die Operationen der Fahrzeugbestimmungsvorrichtung 10 gemäß der zweiten Ausführungsform werden unter Bezugnahme auf 17 ausführlich beschrieben.
  • In der zweiten Ausführungsform werden Prozesse, die in 17 dargestellt sind, wiederholt für jeden bestimmten Zeitraum ausgeführt. Die in 17 dargestellten Prozesse können gemäß einem Auftreten eines Ereignisses ausgeführt werden.
  • In einem Erfassungsprozess eines fotografierten Bildes in Schritt S201 erfasst die Richtungsidentifizierungseinheit 21 eine Bildinformation 42, wie in Schritt S101 in 7.
  • In einem Positionsdetektionsprozess in Schritt S202 erfasst die Spuridentifizierungseinheit 24 ein Positionierungssignal über den Positionssensor 16, wodurch die Position eines Fahrzeugs 100 identifiziert wird. Eine Identifizierung des Fahrzeugs 100 entspricht einer Identifizierung der Position einer Kamera 31.
  • Insbesondere empfängt die Spuridentifizierungseinheit 24 das Positionierungssignal von einem Positionierungssatelliten, wie z.B. einem GPS, über den Positionssensor 16 und empfängt über den Positionssensor 16 eine Positionskorrekturinformation für den Positionierungssatelliten von einem Quasi-Zenit-Satelliten, der eine Umlaufbahn einnimmt, in der der Quasi-Zenit-Satellit über einem konkreten Gebiet am Himmel bleibt. Die Spuridentifizierungseinheit 24 korrigiert eine Position, die durch das empfangene Positionierungssignal berechnet wird, unter Verwendung der Positionskorrekturinformation und identifiziert die Position. Die Spuridentifizierungseinheit 24 schreibt die identifizierte Position in den Speicher 121.
  • Die Positionskorrekturinformation wird aus Beobachtungsdaten an einem elektronischen, auf der Erde eingestellten Referenzpunkt, einer Satellitenumlaufbahninformation, einem troposphärischen Verzögerungsmodell und einem ionosphärischen Verzögerungsmodell gebildet. Das troposphärische Verzögerungsmodell zeigt einen Effekt an, dass aufgrund des Durchgangs des Positionierungssignals durch die Atmosphäre die Geschwindigkeit der Funkwelle des Positionierungssignals mehr in einer Troposphäre in der Nähe der Erde verzögert wird als im Vakuum, und einen Effekt, dass aufgrund einer leichten Krümmung des Ausbreitungswegs der Abstand eines Ausbreitungswegs mehr steigt als jener einer direkten Linie. Das ionosphärische Verzögerungsmodell zeigt einen Effekt an, dass sich aufgrund der Sonnenstrahlung die Elektronendichte einer Ionosphäre in der Nähe der Höhe von 250 bis 400 km von der Erde ändert, und dass sich die Geschwindigkeit der Funkwelle des GPS-Positionierungssignals je nach der Elektronendichte ändert. Ein Verwenden der Positionskorrekturinformation kann die Position des Fahrzeugs 100 mit einer Genauigkeit von Einheiten von einigen Zentimetern identifizieren, wenn die Fahrbahn kein oberes Hindernis wie einen Tunnel aufweist.
  • Hierbei wurde die Position des Fotografierens unter Verwendung des Positionierungssignals identifiziert. Jedoch kann dies so eingerichtet sein, dass eine Position einer weißen Linie auf der Fahrbahn unter Verwendung eines Sensors, wie z.B. eines LIDAR-Sensors (Lichtdetektion und -entfernung, Laser Imaging Detection and Ranging) detektiert wird und die Position des Fahrzeugs 100 auf der Grundlage der Position der weißen Linie identifiziert wird.
  • In einem Abbildungserfassungsprozess in Schritt S203 erfasst die Spuridentifizierungseinheit 24 eine Abbildungsinformation um die in Schritt S202 identifizierte Position des Fahrzeugs 100 herum.
  • Insbesondere liest die Spuridentifizierungseinheit 24 die in Schritt S202 identifizierte Position aus dem Speicher 121. Dann empfängt die Spuridentifizierungseinheit 24, von einem externen Server, über die Kommunikationsschnittstelle 15 die Abbildungsinformation um die in Schritt S202 identifizierte Position herum. Die Abbildungsinformation ist eine Information, die eine Genauigkeit aufweist, mit der die Position jeder Spur in der Fahrbahn identifiziert werden kann. Eine dreidimensionale Forminformation der Fahrbahn kann in der Abbildungsinformation aufgenommen sein. Die Spuridentifizierungseinheit 24 schreibt die empfangene Abbildungsinformation in den Speicher 121.
  • Hierbei hat die Spuridentifizierungseinheit 24 die Abbildungsinformation von dem externen Server empfangen. Jedoch kann die Abbildungsinformation im Speicher 122 gespeichert werden, und die Spuridentifizierungseinheit 24 kann die Abbildungsinformation aus dem Speicher 122 lesen.
  • In einem Fahrspuridentifizierungsprozess in Schritt S204 identifiziert die Spuridentifizierungseinheit 24 eine Fahrspur, in der das Fahrzeug 100 fährt.
  • Eine konkrete Beschreibung wird unter Bezugnahme auf 18 gegeben. Die Spuridentifizierungseinheit 24 liest aus dem Speicher 121 die in Schritt S202 identifizierte Position des Fahrzeugs 100 und die in Schritt S203 erfasste Abbildungsinformation. Die Spuridentifizierungseinheit 24 vergleicht die Position des Fahrzeugs 100 mit der Position jeder durch die Abbildungsinformation angezeigten Spur, wodurch die Fahrspur identifiziert wird.
  • Angenommen, dass zum Beispiel die Abbildungsinformation ein nummerischer Ausdruck ist, der jede Linie anzeigt, die die Spuren begrenzt, wie in 18 dargestellt. Unter Bezugnahme auf 18 wird angenommen, dass jede Linie eine direkte Linie ist, und jede Linie durch X = aZ + b ausgedrückt wird. Hierbei ist jedes von a und b eine Konstante und ein unterschiedlicher Wert wird für jede Linie eingestellt. Die Spuridentifizierungseinheit 24 identifiziert die Fahrspur des Fahrzeugs 100 unter Verwendung des nummerischen Ausdrucks, der durch die Abbildungsinformation angezeigt wird, und der Position des Fahrzeugs 100 (Xc, Zc). Die Spuridentifizierungseinheit 24 schreibt die Fahrspurinformation 45, die die identifizierte Fahrspur anzeigt, in den Speicher 121.
  • In einem Bereichsauswahlprozess in Schritt S205 wählt die Richtungsidentifizierungseinheit 21 einen Teilbereich 61 eines Bereichs aus, der durch die in Schritt S201 erfasste Bildinformation 42 angezeigt wird, wie in Schritt S102 in 6.
  • In einem Richtungsidentifizierungsprozess in Schritt S206 identifiziert die Richtungsidentifizierungseinheit 21 eine Fahrtrichtung, in der ein umgebendes Fahrzeug 200 fährt, in dem in Schritt S205 ausgewählten Teilbereich 61.
  • Insbesondere liest die Richtungsidentifizierungseinheit 21 aus dem Speicher 121 den in Schritt S205 ausgewählten Teilbereich 61 und die Fahrspurinformation 45, die die in Schritt S204 identifizierte Fahrspur anzeigt. Die Richtungsidentifizierungseinheit 21 bestimmt unter Berücksichtigung der durch die gelesene Fahrspurinformation 45 angezeigten Fahrspur, ob der Teilbereich 61 ein Bereich einer parallelen Spur 51, ein Bereich einer Gegenspur 52, oder ein Bereich weder von der parallelen Spur 51 noch der Gegenspur 52 ist.
  • Wenn bestimmt wurde, dass der Teilbereich 61 der Bereich der parallelen Spur 51 oder der Gegenspur 52 ist, veranlasst die Richtungsidentifizierungseinheit 21, dass der Ablauf mit Schritt S207 fortfährt. Wenn bestimmt wurde, dass der Teilbereich 61 weder ein Bereich der parallelen Spur 51 noch der Gegenspur 52 ist, führt die Richtungsidentifizierungseinheit 21 den Ablauf zu Schritt S205 zurück und wählt einen anderen Teilbereich 61 aus.
  • Ein Verfahren zum Bestimmen, ob der Teilbereich 61 der Bereich der parallelen Spur 51, der Bereich der Gegenspur 52 oder der Bereich von weder der parallelen Spur 51 noch der Gegenspur 52 ist, unter Bezugnahme auf 19 und 20.
  • Wenn das Fahrzeug 100 in der Spur benachbart zu einer Fahrbahnschulter 53 fährt, wird, im Vergleich mit einem Fall, in dem das Fahrzeug 100 in der Spur benachbart zur Gegenspur 52 fährt, ein fotografierter Bereich einer Fahrbahn 50 nach rechts um einen Betrag verschoben, der einer Spur entspricht, wie in 19 und 20 dargestellt.
  • Dann stellt die Richtungsidentifizierungseinheit 21 den Bereich der parallelen Spur 51 und den Bereich der Gegenspur 52 für jede Fahrspur des Fahrzeugs 100 ein. Wenn das Fahrzeug 100 zum Beispiel in der Spur benachbart zur Gegenspur 52 fährt, stellt die Richtungsidentifizierungseinheit 21 als die parallele Spur 51 einen Bereich von dem linken Ende zu der Mittelposition oder einer Position leicht auf der rechten Seite der Mittelposition der Bildinformation 42 ein, und stellt als die Gegenspur 52 einen Bereich von dem rechten Ende zu der Mittelposition oder einer Position leicht auf einer linken Seite der Mittelposition der Bildinformation 42 ein. Wenn das Fahrzeug 100 in der Spur benachbart zur Fahrbahnschulter 53 fährt, stellt die Richtungsidentifizierungseinheit 21 als die parallele Spur 51 einen Bereich von einer Position ein, die nach rechts von dem linken Ende der Bildinformation 42 um eine Spur verschoben ist, bis zu einer Position, die nach rechts von der Mittelposition um eine Spur verschoben ist, oder einer Position, die nach rechts von der leicht rechten Seite der Mittelposition um eine Spur verschoben ist ein, und stellt als die Gegenspur 52 einen Bereich auf der rechten Seite der parallelen Spur 51 ein.
  • Auf der Grundlage dessen, ob der Teilbereich 61 einen Bereich der parallelen Spur 51 umfasst, einen Bereich der Gegenspur 52 umfasst oder weder den Bereich der parallelen Spur 51 noch den Bereich der Gegenspur 52 umfasst, bestimmt die Richtungsidentifizierungseinheit 21, ob der Teilbereich 61 der Bereich der parallelen Spur 51, der Bereich der Gegenspur 52 oder der Bereich, der weder in der parallelen Spur 51 noch der Gegenspur 52 aufgenommen ist, ist.
  • Die Prozesse vom Schritt S207 bis Schritt S211 sind gleich den in 6 dargestellten Prozessen vom Schritt S104 bis Schritt S108.
  • Das heißt, dass die Prozesse nach Schritt S207 ausgeführt werden, nur wenn der Teilbereich 61 den Bereich der parallelen Spur 51 oder den Bereich der Gegenspur 52 umfasst, wie in 21 dargestellt. Wenn der Teilbereich 61 weder im Bereich der parallelen Spur 51 noch im Bereich der Gegenspur 52 aufgenommen ist, wie in einem Fall, in dem der Teilbereich 61 eine Fahrbahnschulter darstellt, werden mit anderen Worten die Prozesse nach Schritt S207 ausgelassen, und eine Berechnung einer Merkmalmenge und so weiter wird nicht durchgeführt.
  • ***Wirkung der zweiten Ausführungsform ***
  • Wie vorstehend erwähnt, identifiziert die Fahrzeugbestimmungsvorrichtung 10 gemäß der zweiten Ausführungsform die Fahrspur des Fahrzeugs 100, wodurch die parallele Spur 51 und die Gegenspur 52 mit einer guten Genauigkeit identifiziert werden.
  • Bei dieser Anordnung werden die Prozesse nach Schritt S207 für einen Bereich, wie z.B. die Fahrbahnschulter 53, auf der kein umgebendes Fahrzeug 200 fährt, ausgelassen. Daher kann das umgebende Fahrzeug 200 aus der Bildinformation 42 mit einer hohen Geschwindigkeit detektiert werden. Außerdem wird eine Ähnlichkeitsbestimmung der Merkmalmenge unter Verwendung einer geeigneten Referenzmerkmalmenge 41 vorgenommen. Daher kann das umgebende Fahrzeug 200 aus der Bildinformation 42 mit einer guten Genauigkeit detektiert werden.
  • ***Alternative Konfiguration ***
  • <Drittes Abwandlungsbeispiel>
  • In der zweiten Ausführungsform wurde die Fahrspur des Fahrzeugs 100 in Schritt S204 identifiziert, und der Bereich der parallelen Spur 51 und der Bereich der Gegenspur 52 wurden in Schritt S206 unter Berücksichtigung der Fahrspur identifiziert. Als ein drittes Abwandlungsbeispiel können der Bereich einer parallelen Spur 51 und der Bereich einer Gegenspur 52 in einem durch die Bildinformation 42 angezeigten Bereich unter Verwendung der Position eines Fahrzeugs 100 und einer Abbildungsinformation identifiziert werden.
  • Eine Konfiguration einer Fahrzeugbestimmungsvorrichtung 10 gemäß dem dritten Abwandlungsbeispiel wird unter Bezugnahme auf 22 beschrieben.
  • Die Fahrzeugbestimmungsvorrichtung 10 unterscheidet sich von der in 12 dargestellten Fahrzeugbestimmungsvorrichtung 10 darin, dass die Fahrzeugbestimmungsvorrichtung 10 die Spuridentifizierungseinheit 24 als eine Funktionskomponente nicht umfasst.
  • Operationen der Fahrzeugbestimmungsvorrichtung 10 gemäß dem dritten Abwandlungsbeispiel werden unter Bezugnahme auf 23 beschrieben.
  • In dem dritten Abwandlungsbeispiel werden Prozesse, die in 23 dargestellt sind, wiederholt für jeden bestimmten Zeitraum ausgeführt. Die in 23 dargestellten Prozesse können gemäß einem Auftreten eines Ereignisses ausgeführt werden.
  • Die Prozesse vom Schritt S301 bis Schritt S303 sind gleich den Prozessen vom Schritt S201 bis Schritt S203 in 17. In Schritt S202 hat die Spuridentifizierungseinheit 24 die Position des Fahrzeugs 100 identifiziert, und in Schritt S203 hat die Spuridentifizierungseinheit 24 die Abbildungsinformation erfasst. In Schritt S302 identifiziert jedoch die Richtungsidentifizierungseinheit 21 die Position des Fahrzeugs 100, und in Schritt S303 erfasst die Richtungsidentifizierungseinheit 21 eine Abbildungsinformation.
  • Der Prozess in Schritt S304 ist dem Prozess in Schritt S205 in 17 gleich. Die Prozesse vom Schritt S306 bis Schritt S310 sind gleich den Prozessen vom Schritt S207 bis Schritt S211 in 17.
  • In einem Richtungsidentifizierungsprozess in Schritt S305 identifiziert die Richtungsidentifizierungseinheit 21 eine Fahrtrichtung, in der ein umgebendes Fahrzeug 200 fährt, in einem Teilbereich 61 aus der in Schritt S302 identifizierten Position des Fahrzeugs 100 und der in Schritt S303 erfassten Abbildungsinformation.
  • Eine konkrete Beschreibung wird unter Bezugnahme auf 24 und 25 gegeben.
  • Die Richtungsidentifizierungseinheit 21 identifiziert eine Fokusposition (X0, Y0, Z0) der Kamera 31, wenn das Fotografieren durchgeführt wird. Die Fokusposition (X0, Y0, Z0) der Kamera 31 wird von der Position des Fahrzeugs 100 und einem Einstellungsparameter der Kamera 31, wie z.B. einer Brennweite für jedes Pixel, identifiziert.
  • Die Richtungsidentifizierungseinheit 21 erfasst aus der Abbildungsinformation Positionen (X1, Y1, Z1) einiger Grenzabschnitte einer parallelen Spur 51 und Positionen (X2, Y2, Z2) einiger Grenzabschnitte einer Gegenspur 52, und berechnet dann relative Positionen in Bezug auf die Fokusposition (X0, Y0, Z0) der Kamera 31. Wenn sich die Fokusposition der Kamera 31 am Ursprung (0, 0, 0) befindet, wird eine relative Position der parallelen Spur 51 zu (X1, Y1, Z1) und eine relative Position der Gegenspur 52 wird zu (X2, Y2, Z2). Die Richtungsidentifizierungseinheit 21 berechnet eine Pixelposition (u1, v1), die durch Projizieren der relativen Position (X1, Y1, Z1) der parallelen Spur 51 auf die Abbildungsebene der Kamera 31 mithilfe eines perspektivischen projektiven Transformationsprozesses erzielt wird. Gleichermaßen berechnet die Richtungsidentifizierungseinheit 21 eine Pixelposition (u2, v2), die durch Projizieren der relativen Position (X2, Y2, Z2) der Gegenspur 52 auf die Abbildungsebene der Kamera 31 mithilfe des perspektivischen projektiven Transformationsprozesses erzielt wird.
  • Die Richtungsidentifizierungseinheit 21 berechnet jede Pixelposition (u1, v1) in Bezug auf die Positionen der Grenzabschnitte (X1, Y1, Z1) und berechnet jede Pixelposition (u2, v2) in Bezug auf die Positionen der Grenzabschnitte (X2, Y2, Z2). Dann stellt die Richtungsidentifizierungseinheit 21 einen Bereich, der von den jeweiligen Positionen (u1, v1) als der Bereich der parallelen Spure 51 identifiziert werden soll, ein und stellt einen Bereich, der von den jeweiligen Positionen (u2, v2) als der Bereich der Gegenspur 52 identifiziert werden soll, ein. Als ein konkretes Beispiel verbindet die Richtungsidentifizierungseinheit 21 die Positionen (u1, v1), die zueinander benachbart sind, und stellt einen durch die benachbarten Positionen (u1, v1) umgebenden Bereich auf den Bereich der parallelen Spur 51 ein, und verbindet die Positionen (u2, v2), die zueinander benachbart sind, und stellt einen durch die benachbarten Positionen (u2, v2) umgebenen Bereich auf den Bereich der Gegenspur 52 ein.
  • Hierbei wird eine Gleichung für eine perspektivische projektive Transformation durch Ausdruck 1 gegeben. fx und fy geben eine Brennweite für jedes Pixel an, die der Einstellungsparameter der Kamera 31 ist. Die Pixelposition (u1, v1) zeigt eine Pixelposition an, wenn die Mitte der Abbildungsebene der Kameravorrichtung (Mittelposition eines fotografierten Bildes) auf die Position eines Ursprungs (0, 0) eingestellt ist. [ u 1 v 1 ] = [ f x 0 0 f y ] [ X 1 Z 1 Y 1 Z 1 ]
    Figure DE112016005947T5_0001
  • Bei dieser Anordnung können der Bereich der parallelen Spur 51 und der Bereich der Gegenspur 52 genauer identifiziert werden. Folglich kann das umgebende Fahrzeug 200 aus der Bildinformation 42 mit einer hohen Geschwindigkeit und mit einer guten Genauigkeit detektiert werden.
  • Dritte Ausführungsform
  • Eine dritte Ausführungsform unterscheidet sich von der ersten und der zweiten Ausführungsform darin, dass eine Ähnlichkeitsbestimmung einer Merkmalmenge unter Verwendung einer Referenzmerkmalmenge 41, die der Position einer assoziierten Spur, die eine Spur eines Teilbereichs 61 ist, vorgenommen wird.
  • ***Beschreibung der Konfiguration***
  • Eine Konfiguration einer Fahrzeugbestimmungsvorrichtung 10 gemäß der dritten Ausführungsform wird unter Bezugnahme auf 26 beschrieben.
  • Die Fahrzeugbestimmungsvorrichtung 10 unterscheidet sich von der in 12 dargestellten Fahrzeugbestimmungsvorrichtung 10 darin, dass die Spuridentifizierungseinheit 24 eine assoziierte Spurinformation 46 an die Merkmalerfassungseinheit 22 liefert.
  • ***Beschreibung der Operationen ***
  • Operationen der Fahrzeugbestimmungsvorrichtung 10 gemäß der dritten Ausführungsform werden unter Bezugnahme auf 27 bis 29 beschrieben.
  • Die Operationen der Fahrzeugbestimmungsvorrichtung 10 gemäß der dritten Ausführungsform entsprechen einem Fahrzeugbestimmungsverfahren gemäß der dritten Ausführungsform. Die Operationen der Fahrzeugbestimmungsvorrichtung 10 gemäß der dritten Ausführungsform entsprechen einem Fahrzeugbestimmungsprogrammablauf gemäß der dritten Ausführungsform.
  • Die Operationen der Fahrzeugbestimmungsvorrichtung 10 gemäß der dritten Ausführungsform werden unter Bezugnahme auf 27 dargelegt.
  • Unter Bezugnahme auf 27 sind Spuren X1 und X2 parallele Spuren 51, während Spuren X3 und X4 Gegenspuren 52 sind. Es wird angenommen, dass die Fahrspur eines Fahrzeugs 100 die Spur X2 in 27 ist.
  • In diesem Fall wird ein rechter schräger Heckabschnitt eines umgebenden Fahrzeugs 200A, das in der Spur X1 fährt, fotografiert. Das Heck eines umgebenden Fahrzeugs 200B, das in der Spur X2 fährt, wird fotografiert. Ein rechter schräger Frontabschnitt eines umgebenden Fahrzeugs 200C, das in der Spur X3 fährt, wird fotografiert. Ein rechter schräger Frontabschnitt eines umgebenden Fahrzeugs 200D, das in der Spur X4 fährt, der sich näher an einem Seitenabschnitt des umgebenden Fahrzeugs 200D befindet als im Fall des umgebenden Fahrzeugs 200C, das in der Spur X3 fährt, wird fotografiert.
  • Das heißt, dass gemäß der relativen Fahrtposition jedes umgebende Fahrzeug 200 in Bezug auf das Fahrzeug 100, ein fotografierter Winkel unterschiedlich ist. Dann speichert die Fahrzeugbestimmungsvorrichtung 10 eine Referenzmerkmalmenge 41 für jede relative Position einer assoziierten Spur in Bezug auf die Fahrspur des Fahrzeugs 100 und mit jedem Teilbereich 61 assoziiert. Dann bestimmt unter Verwendung der Referenzmerkmalmenge 41, die der relativen Position der assoziierten Spur in Bezug auf die Fahrspur des Fahrzeugs 100 entspricht und mit dem Teilbereich 61 assoziiert ist, die Fahrzeugbestimmungsvorrichtung 10, ob das umgebende Fahrzeug 200 in dem zu verarbeitenden Teilbereich 61 anwesend ist oder nicht.
  • Die Referenzmerkmalmenge 41 gemäß der dritten Ausführungsform wird unter Bezugnahme auf 28 beschrieben.
  • Die Referenzmerkmalmenge 41 wird unter Verwendung von Referenzbildern, die einer Zielfotografierichtung entsprechen, und der relativen Position einer assoziierten Spur in Bezug auf die Fahrspur berechnet. In 28 werden die Referenzmerkmalmengen 41 von acht Klassen, die aus Kombinationen von zwei Fotografierichtungen des Hecks eines Fahrzeugs und der Frontseite eines Fahrzeugs und vier relativen Positionen einer gleichen Spur, einer linken benachbarten Spur, einer rechten benachbarten Spur und einer zweiten rechten benachbarten Spur gebildet werden, berechnet. Die zweite rechte benachbarte Spur ist eine Spur, die um zwei Spuren rechts von der Fahrspur angeordnet ist.
  • Die Referenzmerkmalmenge 41, die jeder Klasse entspricht, wird im Speicher 122 gespeichert, indem sie mit jeder Klasse assoziiert wird, wie in 28 dargestellt.
  • Im Fall eines Fahrens auf der linken Seite einer Fahrbahn kommt es im Prinzip nicht vor, dass das umgebende Fahrzeug 200, das in der Gegenspur 52 fährt, in derselben Spur und der linken benachbarten Spur fährt. Daher müssen die Referenzmerkmalmengen 41 für die Frontseite des Fahrzeugs, die derselben Spur und der linken benachbarten Spur entsprechen, nicht gespeichert werden. Im Fall von zwei Spuren auf jeder Seite einer Fahrbahn kommt es ferner im Prinzip nicht vor, dass das umgebende Fahrzeug 200, das in der parallelen Spur 51 fährt, in der zweiten rechten benachbarten Spur fährt. Daher muss die Referenzmerkmalmenge 41 für das Heck des Fahrzeugs, die der zweiten rechten benachbarten Spur entspricht, nicht gespeichert werden.
  • Die Operationen der Fahrzeugbestimmungsvorrichtung 10 gemäß der dritten Ausführungsform werden unter Bezugnahme auf 29 ausführlich beschrieben.
  • In der dritten Ausführungsform werden Prozesse, die in 29 dargestellt sind, wiederholt für jeden bestimmten Zeitraum ausgeführt. Die in 29 dargestellten Prozesse können gemäß einem Auftreten eines Ereignisses ausgeführt werden.
  • Die Prozesse vom Schritt S401 bis Schritt S406 sind gleich den in 17 dargestellten Prozessen vom Schritt S201 bis Schritt S206. Die Prozesse in Schritt S409 bis Schritt S412 sind gleich den in 17 dargestellten Prozessen vom Schritt S208 bis Schritt S211.
  • In einem Identifizierungsprozess einer assoziierten Spur in Schritt S407 identifiziert die Spuridentifizierungseinheit 24 eine assoziierte Spur, die mit einem in Schritt S405 ausgewählten Teilbereich 61 assoziiert ist.
  • Insbesondere identifiziert die Spuridentifizierungseinheit 24 einen Bereich jeder Spur auf dem Abbildungsort einer Kamera 31 unter Verwendung des unter Bezugnahme auf 24 und 25 in dem dritten Abwandlungsbeispiel beschriebenen Verfahrens. Das heißt, dass der Bereich jeder Spur auf der Abbildungsebene der Kamera 31 hierbei identifiziert wird, obwohl der Bereich der parallelen Spur 51 und der Bereich der Gegenspur 52 auf der Abbildungsebene der Kamera 31 in dem dritten Abwandlungsbeispiel identifiziert wurden. Als ein konkretes Beispiel wird, wenn zwei Spuren der parallelen Spuren 51 vorahnden sind, der Bereich jeder der zwei Spuren, die die parallelen Spuren 51 bilden, identifiziert. Dann identifiziert die Spuridentifizierungseinheit 24 die assoziierte Spur in Abhängigkeit davon, von welcher Spur einen Bereich der Teilbereich 61 umfasst. Die Spuridentifizierungseinheit 24 schreibt die identifizierte assoziierte Spur in den Speicher 121.
  • Wenn der Teilbereich 61 zwei Spuren umfasst, werden beide der zwei Spuren als assoziierte Spuren identifiziert.
  • In einem Merkmalmengenerfassungsprozess in Schritt S408 erfasst die Merkmalerfassungseinheit 22 eine Referenzmerkmalmenge 41, die der in Schritt S406 identifizierten Fahrtrichtung eines umgebenden Fahrzeugs 200 und der in Schritt S407 identifizierten assoziierten Spur entspricht. Das heißt, dass die Merkmalerfassungseinheit 22 die Referenzmerkmalmenge 41, die der Fahrtrichtung des umgebenden Fahrzeugs 200 und der relativen Position der assoziierten Spur in Bezug auf eine Fahrspur entspricht, erfasst. Die Merkmalerfassungseinheit 22 schreibt die Referenzmerkmalmenge 41, die gelesen wurde, in den Speicher 121.
  • Als ein konkretes Beispiel erfasst, wenn die Fahrtrichtung des umgebenden Fahrzeugs 200 jener eines Fahrzeugs 100 gleich ist und die assoziierte Spur die linke benachbarte Spur der Fahrspur ist, die Merkmalerfassungseinheit 22 die Referenzmerkmalmenge 41, die derselben Richtung wie jene des Fahrzeugs 100 und der linken benachbarten Spur entspricht. Das heißt, dass die Merkmalerfassungseinheit 22 eine Referenzmerkmalmenge 41C in 28 aus dem Speicher 122 liest.
  • Wenn der Teilbereich 61 Bereiche von zwei Spuren umfasst, erfasst die Merkmalerfassungseinheit 22 die Referenzmerkmalmengen 41, die beiden der zwei assoziierten Spuren entsprechen.
  • ***Wirkung der dritten Ausführungsform ***
  • Wie vorstehend erwähnt, bestimmt die Fahrzeugbestimmungsvorrichtung 10 gemäß der dritten Ausführungsform unter Verwendung der Referenzmerkmalmenge 41, die der Fahrtrichtung des umgebenden Fahrzeugs 200 in dem Teilbereich 61 und der relativen Position der assoziierten Spur in Bezug auf die Fahrspur entspricht, ob das umgebende Fahrzeug 200 in dem Teilbereich 61 fotografiert wurde oder nicht. Bei dieser Anordnung kann das umgebende Fahrzeug 200 aus der Bildinformation 42 mit einer hohen Geschwindigkeit und mit einer hohen Genauigkeit detektiert werden.
  • ***Alternative Konfigurationen ***
  • <Viertes Abwandlungsbeispiel>
  • In der dritten Ausführungsform wurde gemäß der relativen Position der assoziierten Spur in Bezug auf die Fahrspur eine Klassifizierung der Referenzmerkmalmenge 41 vorgenommen. Als ein viertes Abwandlungsbeispiel kann eine Klassifizierung einer Referenzmerkmalmenge 41 gemäß einem Abstand zwischen einem Fahrzeug 100 und jedem umgebenden Fahrzeug 200 in einer Fahrtrichtung sowie der relativen Position einer assoziierten Spur in Bezug auf eine Fahrspur durchgeführt werden.
  • Um ein Beispiel anzugeben, unterscheidet sich, auch wenn das umgebende Fahrzeug 200 dasjenige ist, das in einer linken benachbarten Spur fährt, ein Winkel, in dem das umgebende Fahrzeug 200 fotografiert wird, zwischen einer Situation, in der das Umgebungsfahrzeig 200 von dem Fahrzeug 100 beabstandet angeordnet ist, und einer Situation, in der das umgebende Fahrzeug 200 in der Nähe des Fahrzeugs 100 angeordnet ist.
  • Dann klassifiziert die Fahrzeugbestimmungsvorrichtung 10 jede Referenzmerkmalmenge 41 gemäß dem Abstand zwischen dem Fahrzeug 100 und dem umgebenden Fahrzeug 200 in der Fahrtrichtung sowie der relativen Position der assoziierten Spur in Bezug auf die Fahrspur und speichert die klassifizierte Referenzmerkmalmenge 41 im Speicher 122. Dann erfasst die Merkmalerfassungseinheit 22 die Referenzmerkmalmenge 41, die dem Abstand zwischen dem Fahrzeug 100 und dem umgebenden Fahrzeug 200 in der Fahrtrichtung entspricht.
  • Hierbei wird das umgebende Fahrzeug 200, das von dem Fahrzeug 100 beabstandet angeordnet ist, in einem oberen Bereich der Bildinformation 42 fotografiert, und das umgebende Fahrzeug 200, das in der Nähe des Fahrzeugs 100 angeordnet ist, wird in einem unteren Bereich der Bildinformation 42 fotografiert. Dementsprechend kann, indem die Referenzmerkmalmenge 41, die der Position eines Teilbereichs 61 in einer oberen oder einer unteren Richtung eines durch die Bildinformation 42 angezeigten Bereichs entspricht, durch die Merkmalerfassungseinheit 22 erfasst wird, die Referenzmerkmalmenge 41, die dem Abstand zwischen dem Fahrzeug 100 und dem umgebenden Fahrzeug 200 in der Fahrtrichtung entspricht, erfasst werden.
  • Bei dieser Anordnung wird eine Ähnlichkeitsbestimmung einer Merkmalmenge unter Verwendung einer geeigneteren Referenzmerkmalmenge 41 vorgenommen. Daher kann das umgebende Fahrzeug 200 aus der Bildinformation 42 daher mit einer guten Genauigkeit detektiert werden.
  • <Fünftes Abwandlungsbeispiel>
  • In der dritten Ausführungsform wurde in Betracht gezogen, ob das umgebende Fahrzeug 200 in derselben Richtung wie das Fahrzeug 100 fährt oder ob das umgebende Fahrzeug 200 in der dem Fahrzeug 100 entgegengesetzten Richtung fährt. Eine Beschreibung wird sich als fünftes Abwandlungsbeispiel auf einen Fall richten, in dem sich vor einem Fahrzeug 100 eine Kreuzung befindet.
  • Wie in 30 dargestellt, können an der Kreuzung umgebende Fahrzeuge 200 vorhanden sein, wie z.B. ein nach rechts abbiegendes umgebendes Fahrzeug 200M und ein nach links abbiegendes umgebendes Fahrzeug 200N. Jedes von dem nach rechts abbiegenden umgebendem Fahrzeug 200M und dem nach links abbiegenden umgebendem Fahrzeug 200N wird in einer abgeschrägten Richtung oder in einer seitlichen Richtung in Bezug auf das Fahrzeug 100 gelenkt.
  • Dann speichert das Fahrzeug 100 eine Referenzmerkmalmenge 41 für die Kreuzung im Speicher 122. Die Referenzmerkmalmenge 41 für die Kreuzung wird berechnet, indem Referenzbilder, die durch Fotografieren von dem rechten und dem linken Seitenabschnitt der Fahrzeuge erzielt werden, und Referenzbilder, die durch Fotografieren von dem rechten und linken schrägen Front- und Heckabschnitt der Fahrzeuge erzielt werden, verwendet werden. Dann identifiziert in Schritt S407 in 29 die Spuridentifizierungseinheit 24 den Bereich der Kreuzung auf der Abbildungsebene der Kamera 31, indem das unter Bezugnahme auf 24 und 25 in dem dritten Abwandlungsbeispiel beschriebene Verfahren verwendet wird, und identifiziert, welchen Spurbereich und welchen Kreuzungsbereich jeder Teilregion 61 umfasst. Wenn in Schritt S407 identifiziert wurde, dass der Teilberiech 61 die Kreuzung umfasst, erfasst die Merkmalerfassungseinheit 22 die Referenzmerkmalmenge 41, die der Kreuzung entspricht, unabhängig von der Fahrtrichtung eines umgebenden Fahrzeugs 200.
  • Bei dieser Anordnung kann das umgebende Fahrzeug 200 an der Kreuzung mit einer hohen Geschwindigkeit und mit einer hohen Genauigkeit detektiert werden.
  • Vierte Ausführungsform
  • Eine vierte Ausführungsform unterscheidet sich von der ersten bis dritten Ausführungsform darin, dass Ähnlichkeitsbestimmung einer Merkmalmenge unter Verwendung einer Referenzmerkmalmenge 41 für ein umgebendes Fahrzeug 200, das so fotografiert wurde, dass ein Teil davon verdeckt bleibt, vorgenommen wird.
  • In der vierten Ausführungsform wird eine Beschreibung eines Falls gegeben, in dem eine Funktion zu der dritten Ausführungsform hinzugefügt wird. Die Funktion kann jedoch zu der ersten Ausführungsform oder der zweiten Ausführungsform hinzugefügt werde.
  • ***Beschreibung der Konfiguration***
  • Eine Konfiguration einer Fahrzeugbestimmungsvorrichtung 10 gemäß der2vierten Ausführungsform wird unter Bezugnahme auf 31 beschrieben.
  • Die Fahrzeugbestimmungsvorrichtung 10 umfasst, zusätzlich zu den in 26 dargestellten Funktionskomponenten der Fahrzeugbestimmungsvorrichtung 10, eine Abschirmungsbestimmungseinheit 25. Eine Funktion der Abschirmungsbestimmungseinheit 25 wird, wie die anderen Funktionen der Fahrzeugbestimmungsvorrichtung 10, durch eine Software implementiert.
  • ***Beschreibung der Operationen ***
  • Operationen der Fahrzeugbestimmungsvorrichtung 10 gemäß der vierten Ausführungsform werden unter Bezugnahme auf 32 bis 36 beschrieben.
  • Die Operationen der Fahrzeugbestimmungsvorrichtung 10 gemäß der vierten Ausführungsform entsprechen einem Fahrzeugbestimmungsverfahren gemäß der vierten Ausführungsform. Die Operationen der Fahrzeugbestimmungsvorrichtung 10 gemäß der vierten Ausführungsform entsprechen einem Fahrzeugbestimmungsprogrammablauf gemäß der vierten Ausführungsform.
  • Die Operationen der Fahrzeugbestimmungsvorrichtung 10 gemäß der vierten Ausführungsform werden unter Bezugnahme auf 32 und 33 dargelegt.
  • Unter Bezugnahme auf Fig. 32 fährt ein umgebendes Fahrzeug 200D direkt hinter einem umgebendem Fahrzeug 200C, das in einer Gegenspur 52 fährt. Wenn die Frontseite eines Fahrzeugs 100 durch eine Kamera 31, die auf dem Fahrzeug 100 montiert ist, in einer in 32 dargestellten Situation fotografiert wird, wird eine Bildinformation 42, wie in 33 dargestellt, erzielt.
  • Wie in 33 dargestellt, ist das umgebende Fahrzeug 200D, das direkt hinter dem umgebenden Fahrzeug 200C fährt, durch das umgebende Fahrzeug 200C verdeckt, so dass lediglich ein Teil des umgebenden Fahrzeugs 200D fotografiert wird. Dann speichert die Fahrzeugbestimmungsvorrichtung 10 eine Referenzmerkmalmenge 41 für jedes von einer Anwesenheit oder Abwesenheit eines abgeschirmten Bereichs 47, der durch einen anderen umgebenden Fahrzeug 200 oder dergleichen verdeckt ist. Dann bestimmt die Fahrzeugbestimmungsvorrichtung 10 unter Verwendung der Referenzmerkmalmenge 41, die der Anwesenheit oder Abwesenheit des abgeschirmten Bereichs 47 entspricht, ob ein umgebendes Fahrzeug 200 in einem zu verarbeitenden Teilbereich 61 anwesend ist oder nicht.
  • Die Referenzmerkmalmenge 41 gemäß der vierten Ausführungsform wird unter Bezugnahme auf 34 und 35 beschrieben.
  • Die Referenzmerkmalmenge 41 wird unter Verwendung von Referenzbildern, die einer Zielfotografierichtung entsprechen, der relativen Position einer assoziierten Spur in Bezug auf die Fahrspur und einer Anwesenheit oder Abwesenheit des abgeschirmten Bereichs 47 berechnet. Unter Bezugnahme auf 35 werden die Referenzmerkmalmengen 41 von 16 Klassen, die aus Kombinationen von zwei Fotografierichtungen des Hecks eines Fahrzeugs und der Frontseite eines Fahrzeugs und vier relativen Positionen einer selben Spur, einer linken benachbarten Spur, einer rechten benachbarten Spur und einer zweiten rechten benachbarten Spur, und einer Anwesenheit oder Abwesenheit des abgeschirmten Bereichs 47 gebildet werden, berechnet. Wie in 34 dargestellt, wird die Referenzmerkmalmenge 41 im Fall einer Abwesenheit des abgeschirmten Bereichs 47 aus den Referenzbildern mit keinen abgeschirmten Bereichen 47 berechnet, während die Referenzmerkmalmenge 41 im Fall einer Anwesenheit des abgeschirmten Bereichs 47 aus den Referenzbildern mit den abgeschirmten Bereichen 47 berechnet wird.
  • Die Referenzmerkmalmenge 41, die jeder Klasse entspricht, wird im Speicher 122 gespeichert, indem sie mit jeder Klasse assoziiert wird, wie in 35 dargestellt.
  • Die Operationen der Fahrzeugbestimmungsvorrichtung 10 gemäß der vierten Ausführungsform werden unter Bezugnahme auf 36 ausführlich beschrieben.
  • In der vierten Ausführungsform werden Prozesse, die in 36 dargestellt sind, wiederholt für jeden bestimmten Zeitraum ausgeführt. Die in 36 dargestellten Prozesse können gemäß einem Auftreten eines Ereignisses ausgeführt werden.
  • Die Prozesse vom Schritt S501 bis Schritt S507 sind gleich den in 29 dargestellten Prozessen vom Schritt S401 bis Schritt S407. Die Prozesse vom Schritt S510 bis Schritt S513 sind gleich den in 29 dargestellten Prozessen vom Schritt S409 bis Schritt S412.
  • In einem Abschirmungsbestimmungsprozess in Schritt S508 bestimmt die Abschirmungsbestimmungseinheit 25, ob ein in Schritt S505 ausgewählter Teilbereich 61 einen abgeschirmten Bereich 47 umfasst oder nicht.
  • Eine konkrete Beschreibung wird unter Bezugnahme auf 37 gegeben. Wenn der Teilbereich 61 einen anderen Teilbereich 61 umfasst, von dem durch die Fahrzeugbestimmungseinheit 23 bestimmt wird, dass ein umgebendes Fahrzeug 200 darin fotografiert wurde, ist es sehr wahrscheinlich, dass der Teilbereich 61 den abgeschirmten Bereich 47 umfasst. Dann liest die Abschirmungsbestimmungseinheit 25 aus dem Speicher 121 eine Identifizierungsinformation 44, die die identifizierte Position des umgebenden Fahrzeugs 200 anzeigt. Wenn der Teilbereich 61 in der in Schritt S501 erfassten Bildinformation 42 den anderen Teilbereich 61 umfasst, von dem bestimmt wurde, dass das umgebende Fahrzeug 200 darin fotografiert wurde, bestimmt dann die Abschirmungsbestimmungseinheit 25, dass der Teilbereich 61 den abgeschirmten Bereich 47 umfasst. Wenn andererseits der Teilbereich 61 den anderen Teilbereich 61, von dem bestimmt wurde, dass das umgebende Fahrzeug 200 darin fotografiert wurde, nicht umfasst, bestimmt die Abschirmungsbestimmungseinheit 25, dass der Teilbereich 61 den abgeschirmten Bereich 47 nicht umfasst. Die Abschirmungsbestimmungseinheit 25 schreibt ein Ergebnis der Bestimmung in den Speicher 121.
  • In einem Merkmalmengenerfassungsprozess in Schritt S509 erfasst die Merkmalerfassungseinheit 22 eine Referenzmerkmalmenge 41, die der in Schritt S506 identifizierten Fahrtrichtung eines umgebenden Fahrzeugs 200, einer assoziierten Spur, die in Schritt S507 identifiziert wurde, und einer Anwesenheit oder Abwesenheit des abgeschirmten Bereichs 47, die in Schritt S508 bestimmt wurde, entspricht.
  • Als ein konkretes Beispiel erfasst, wenn die Fahrtrichtung des umgebenden Fahrzeugs 200 jener eines Fahrzeugs 100 gleich ist, die assoziierte Spur die linke benachbarte Spur einer Fahrspur ist, und der abgeschirmte Bereich 47 vorhanden ist, die Merkmalerfassungseinheit 22 die Referenzmerkmalmenge 41, die derselben Richtung wie jene des Fahrzeugs 100, der linken benachbarten Spur und der Anwesenheit des abgeschirmten Bereichs 47 entspricht. Das heißt, dass die Merkmalerfassungseinheit 22 eine Referenzmerkmalmenge 41C2 in 35 aus dem Speicher 122 liest. Dann schreibt die Merkmalerfassungseinheit 22 die Referenzmerkmalmenge 41, die gelesen wurde, in den Speicher 121.
  • ***Wirkung der vierten Ausführungsform ***
  • Unter Verwendung der Referenzmerkmalmenge 41, die dem entspricht, ob der Teilbereich 61 den abgeschirmten Bereich 47 umfasst oder nicht, bestimmt, wie vorstehend erwähnt, die Fahrzeugbestimmungsvorrichtung 10 gemäß der vierten Ausführungsform, ob das umgebende Fahrzeug 200 in dem Teilbereich 61 fotografiert wurde oder nicht. Bei dieser Anordnung kann das umgebende Fahrzeug 200 aus der Bildinformation 42 mit einer hohen Geschwindigkeit und mit einer hohen Genauigkeit detektiert werden.
  • ***Alternative Konfiguration ***
  • <Sechstes Abwandlungsbeispiel>
  • In jeder von der zweiten bis vierten Ausführungsform wurde die Funktion jeder Einheit der Fahrzeugbestimmungsvorrichtung 10 durch die Software implementiert, wie in der ersten Ausführungsform. Die Funktion jeder Einheit der Fahrzeugbestimmungsvorrichtung 10 kann jedoch durch die Hardware implementiert werden, wie in dem ersten Abwandlungsbeispiel. Außerdem kann, wie in dem zweiten Abwandlungsbeispiel, ein Teil der Funktionen der Fahrzeugbestimmungsvorrichtung 10 durch die Hardware implementiert werden und die anderen Funktionen können durch die Software implementiert werden.
  • Die vorstehende Beschreibung wurde hinsichtlich der Ausführungsformen der vorliegenden Erfindung gegeben. Einige dieser Ausführungsformen und der Abwandlungsbeispiele können in Kombination ausgeführt werden. Alternativ können eine beliebige oder einige der Ausführungsformen und der Abwandlungsbeispiele teilweise ausgeführt werden. Die vorliegende Erfindung ist nicht auf die vorstehend beschriebenen Ausführungsformen und die Abwandlungsbeispiele beschränkt und es sind, wenn erforderlich, verschiedene Modifikationen möglich.
  • Bezugszeichenliste
  • 10: Fahrzeugbestimmungsvorrichtung; 11: Prozessor; 12: Speichervorrichtung; 13: Kameraschnittstelle; 14: Verarbeitungsschaltung; 15: Kommunikationsschnittstelle; 16: Positionssensor; 21: Richtungsidentifizierungseinheit; 22: Merkmalerfassungseinheit; 23: Fahrzeugbestimmungseinheit; 24: Spuridentifizierungseinheit; 25: Abschirmungsbestimmungseinheit; 31: Kamera; 32: Fahrzeugbestimmungseinheit; 321: Fahrzeugsteuerschnittstelle; 322: Sensor-ECU; 323: Fahrzeug-ECU; 41: Referenzmerkmalmenge; 42: Bildinformation; 43: Richtungsinformation; 44: Identifizierungsinformation; 45: Fahrspurinformation; 46: Information zur assoziierten Spur; 47: abgeschirmter Bereich; 50: Fahrbahn; 51: parallele Spur; 52: Gegenspur; 53: Fahrbahnschulter; 61: Teilbereich; 62: Zelle; 100: Fahrzeug; 200: umgebendes Fahrzeug
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2013161202 A [0012]

Claims (10)

  1. Fahrzeugbestimmungsvorrichtung, umfassend: eine Richtungsidentifizierungseinheit zum Identifizieren einer Fahrtrichtung, in der ein umgebendes Fahrzeug fährt, in einem Teilbereich eines Bereichs, der durch eine durch Fotografieren durch eine Kamera erhaltene Bildinformation angezeigt wird, eine Merkmalmengenerfassungseinheit zum Erfassen einer Referenzmerkmalmenge, die eine Merkmalmenge ist, welche aus einem Referenzbild berechnet wird, das der durch die Richtungsidentifizierungseinheit identifizierten Fahrtrichtung entspricht, und eine Fahrzeugbestimmungseinheit zum Berechnen einer Bildmerkmalmenge, die eine Merkmalmenge der Bildinformation des Teilbereichs ist, und Vergleichen der berechneten Bildmerkmalmenge mit der Referenzmerkmalmenge, die durch die Merkmalmengenerfassungseinheit erfasst wurde, dadurch bestimmend, ob das umgebende Fahrzeug in dem Teilbereich anwesend ist oder nicht.
  2. Fahrzeugbestimmungsvorrichtung nach Anspruch 1, wobei die Richtungsidentifizierungseinheit die Fahrtrichtung auf der Grundlage einer Position des Teilbereichs in dem durch die Bildinformation angezeigten Bereich identifiziert.
  3. Fahrzeugbestimmungsvorrichtung nach Anspruch 2, wobei die Richtungsidentifizierungseinheit die Fahrtrichtung auf der Grundlage einer Position eines Teilbereichs identifiziert, in dem in der Vergangenheit durch die Fahrzeugbestimmungseinheit bestimmt wurde, dass ein umgebendes Fahrzeug anwesend ist.
  4. Fahrzeugbestimmungsvorrichtung nach Anspruch 2, ferner umfassend: eine Spuridentifizierungseinheit zum Identifizieren einer Fahrspur, in der ein Fahrzeug mit der darauf montierten Kamera fährt, wobei die Richtungsidentifizierungseinheit die Fahrtrichtung auf der Grundlage der durch die Spuridentifizierungseinheit identifizierten Fahrspur identifiziert.
  5. Fahrzeugidentifizierungsvorrichtung nach Anspruch 2, wobei die Richtungsidentifizierungseinheit einen Bereich einer parallelen Spur mit einer gleichen Fahrtrichtung wie eine Fahrtrichtung eines Fahrzeugs mit der darauf montierten Kamera und einen Bereich einer Gegenspur mit einer Fahrtrichtung, die der Fahrtrichtung des Fahrzeugs mit der darauf montierten Kamera entgegengesetzt ist, identifiziert, dadurch die Fahrtrichtung identifizierend.
  6. Fahrzeugbestimmungsvorrichtung nach Anspruch 1, ferner umfassend: eine Spuridentifizierungseinheit zum Identifizieren einer Fahrspur, in der ein Fahrzeug mit der darauf montierten Kamera fährt, und einer assoziierten Spur, die mit dem Teilbereich assoziiert ist, wobei die Merkmalmengenerfassungseinheit die Referenzmerkmalmenge erfasst, die aus einem Referenzbild berechnet wird, das einer relativen Position der assoziierten Spur in Bezug auf die durch die Spuridentifizierungseinheit identifizierte Fahrspur entspricht.
  7. Fahrzeugbestimmungsvorrichtung nach Anspruch 6, wobei die Merkmalmengenerfassungseinheit die Referenzmerkmalmenge erfasst, die aus einem Referenzbild berechnet wird, das einer Position des Teilbereichs in einer oberen oder einer unteren Richtung des durch die Bildinformation angezeigten Bereichs entspricht.
  8. Fahrzeugbestimmungsvorrichtung nach Anspruch 1, ferner umfassend: eine Abschirmungsbestimmungseinheit zum Bestimmten, ob der Teilbereich ein Bereich ist oder nicht, der einen abgeschirmten Bereich umfasst, welcher mit einem anderen Teilbereich überlappt, durch die Fahrzeugbestimmungseinheit bestimmt, dass ein umgebendes Fahrzeug anwesend war, wobei die Merkmalmengenerfassungseinheit die Referenzmerkmalmenge erfasst, die unter Verwendung eines Referenzbildes berechnet wird, entsprechendob von dem Teilbereich durch die Abschirmungsbestimmungseinheit bestimmt wurde, dass er der Bereich ist, der den abgeschirmten Bereich umfasst, oder nicht.
  9. Fahrzeugbestimmungsverfahren, umfassend: Identifizieren einer Fahrtrichtung, in der ein umgebendes Fahrzeug fährt, in einem Teilbereich eines Bereichs, der durch eine durch Fotografieren durch eine Kamera erhaltene Bildinformation angezeigt wird, Erfassen einer Referenzmerkmalmenge, die eine Merkmalmenge ist, welche aus einem Referenzbild berechnet wird, das der identifizierten Fahrtrichtung entspricht, und Berechnen einer Bildmerkmalmenge, die eine Merkmalmenge der Bildinformation des Teilbereichs ist, und Vergleichen der berechneten Bildmerkmalmenge mit der erfassten Referenzmerkmalmenge, dadurch bestimmend, ob das umgebende Fahrzeug in dem Teilbereich anwesend ist oder nicht.
  10. Fahrzeugbestimmungsprogramm zum Veranlassen eines Rechners dazu, Folgendes auszuführen: einen Richtungsidentifizierungsprozess zum Identifizieren einer Fahrtrichtung, in der ein umgebendes Fahrzeug fährt, in einem Teilbereich eines Bereichs, der durch eine durch Fotografieren durch eine Kamera erhaltene Bildinformation angezeigt wird, einen Merkmalmengenerfassungsprozess zum Erfassen einer Referenzmerkmalmenge, die eine Merkmalmenge ist, welche aus einem Referenzbild berechnet wird, das der durch den Richtungsidentifizierungsprozess identifizierten Fahrtrichtung entspricht, und einen Fahrzeugbestimmungsprozess zum Berechnen einer Bildmerkmalmenge, die eine Merkmalmenge der Bildinformation des Teilbereichs ist, und Vergleichen der berechneten Bildmerkmalmenge mit der Referenzmerkmalmenge, die durch den Merkmalmengenerfassungsprozess erfasst wurde, dadurch bestimmend, ob das umgebende Fahrzeug in dem Teilbereich anwesend ist oder nicht.
DE112016005947.7T 2016-01-26 2016-01-26 Fahrzeugbestimmungsvorrichtung, Fahrzeugbestimmungsverfahren und Fahrzeugbestimmungsprogramm Active DE112016005947B4 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/052109 WO2017130285A1 (ja) 2016-01-26 2016-01-26 車両判定装置、車両判定方法及び車両判定プログラム

Publications (2)

Publication Number Publication Date
DE112016005947T5 true DE112016005947T5 (de) 2018-09-27
DE112016005947B4 DE112016005947B4 (de) 2021-06-24

Family

ID=57483098

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112016005947.7T Active DE112016005947B4 (de) 2016-01-26 2016-01-26 Fahrzeugbestimmungsvorrichtung, Fahrzeugbestimmungsverfahren und Fahrzeugbestimmungsprogramm

Country Status (5)

Country Link
US (1) US10796569B2 (de)
JP (1) JP6038422B1 (de)
CN (1) CN108475471B (de)
DE (1) DE112016005947B4 (de)
WO (1) WO2017130285A1 (de)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3602489B1 (de) * 2017-03-28 2023-08-23 HRL Laboratories, LLC Maschinenvisionsverfahren zur klassifizierung von eingabedaten auf basis von objektkomponenten
JP7117922B2 (ja) * 2018-07-12 2022-08-15 フォルシアクラリオン・エレクトロニクス株式会社 周辺認識装置及び車載カメラシステム
JP7040428B2 (ja) 2018-12-03 2022-03-23 トヨタ自動車株式会社 ステータ
CN112461257A (zh) * 2019-09-09 2021-03-09 华为技术有限公司 一种车道线信息的确定方法及装置
KR20210111557A (ko) * 2020-03-03 2021-09-13 현대자동차주식회사 심층 학습 기반의 객체 분류 장치 및 그 방법
CN112669620B (zh) * 2020-12-10 2022-05-24 深圳市金溢科技股份有限公司 车辆行驶方向判定方法、etc通信方法、obu及rsu

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013161202A (ja) 2012-02-03 2013-08-19 Honda Motor Co Ltd 車両周辺監視装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4326992B2 (ja) * 2004-03-17 2009-09-09 アルパイン株式会社 周辺車両識別方法及びこれを用いた走行支援システム
JP2005301603A (ja) * 2004-04-09 2005-10-27 Denso Corp 走行車線検出装置
JP2005339176A (ja) 2004-05-26 2005-12-08 Alpine Electronics Inc 車両認識装置、ナビゲーション装置および車両認識方法
JP2007329762A (ja) 2006-06-08 2007-12-20 Fujitsu Ten Ltd 物体候補領域検出装置、物体候補領域検出方法、歩行者認識装置、および車両制御装置
JP4446201B2 (ja) 2007-03-30 2010-04-07 アイシン・エィ・ダブリュ株式会社 画像認識装置及び画像認識方法
TW201040893A (en) * 2009-05-12 2010-11-16 Ind Tech Res Inst Method and apparatus for recognitizing types of vehicles
JP5197679B2 (ja) 2010-06-09 2013-05-15 株式会社豊田中央研究所 対象物検出装置及びプログラム
JP4968369B2 (ja) 2010-06-25 2012-07-04 アイシン・エィ・ダブリュ株式会社 車載装置及び車両認識方法
JP5691588B2 (ja) * 2011-02-08 2015-04-01 富士通株式会社 車両認識装置、車両認識方法および車両認識プログラム
CN102646199B (zh) * 2012-02-29 2013-12-18 湖北莲花山计算机视觉和信息科学研究院 复杂场景中的车型识别方法
JP2013205410A (ja) * 2012-03-30 2013-10-07 Clarion Co Ltd 車両用外界認識装置およびそれを用いた車両システム
JP6051608B2 (ja) * 2012-06-19 2016-12-27 市光工業株式会社 車両周辺対象物検出装置
CN103295403B (zh) * 2013-06-17 2016-02-10 湘潭大学 一种交通流视觉检测方法
JP2015052548A (ja) * 2013-09-09 2015-03-19 富士重工業株式会社 車外環境認識装置
CN103680154B (zh) * 2013-12-02 2016-04-27 青岛海信网络科技股份有限公司 一种视频车辆检测方法
CN106537892B (zh) * 2014-05-29 2021-01-05 株式会社尼康 摄像装置及车辆
CN104616503B (zh) * 2015-03-08 2016-08-24 江苏巴吉装备科技有限公司 抢行左侧车道的车辆违章行为检测系统

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013161202A (ja) 2012-02-03 2013-08-19 Honda Motor Co Ltd 車両周辺監視装置

Also Published As

Publication number Publication date
US20190005814A1 (en) 2019-01-03
DE112016005947B4 (de) 2021-06-24
CN108475471B (zh) 2020-12-18
WO2017130285A1 (ja) 2017-08-03
CN108475471A (zh) 2018-08-31
JPWO2017130285A1 (ja) 2018-02-01
US10796569B2 (en) 2020-10-06
JP6038422B1 (ja) 2016-12-07

Similar Documents

Publication Publication Date Title
DE112016005947B4 (de) Fahrzeugbestimmungsvorrichtung, Fahrzeugbestimmungsverfahren und Fahrzeugbestimmungsprogramm
DE102015105248B4 (de) Verfahren und System zum Erzeugen eines Bildes der Umgebung eines Gelenkfahrzeugs
DE102011100927B4 (de) Objekt- und Fahrzeugdetektion und -verfolgung unter Verwendung von 3-D-Laserentfernungsmesser
DE102015107677B4 (de) Rundum-Sicht-Kamerasystem- (VPM-) Online-Kalibrierung
DE102016210254A1 (de) Fahrzeugortung an kreuzungen anhand von visuellen anhaltspunkte, stationären objekten und durch gps
DE102019121140A1 (de) Sensorfusion
DE102018103817A1 (de) Freiraumdetektion unter verwendung einer monokularen kamera und von deep learning
DE102012208974A1 (de) System und Verfahren zum sensorbasierten Aufbauen eines Umgebungsmodells
DE102015115012A1 (de) Verfahren zum Erzeugen einer Umgebungskarte einer Umgebung eines Kraftfahrzeugs anhand eines Bilds einer Kamera, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102013102153A1 (de) Verfahren zur Registrierung von Entfernungsbildern von mehreren LiDAR-Sensoren
DE112019000873T5 (de) System und Verfahren zum Erzeugen eines Zielpfades für ein Fahrzeug
DE102013113960A1 (de) Fahrbahnoberflächenform-Ermittlungsvorrichtung
DE102016202594A1 (de) Verfahren und Vorrichtung zum Interpretieren einer Fahrzeugumgebung eines Fahrzeugs sowie Fahrzeug
DE112015007054B4 (de) Fahrunterstützungsvorrichtung, fahrunterstützungssystem, fahrunterstützungsverfahren und fahrunterstützungsprogramm
DE112020000590T5 (de) Karte und verfahren zum erstellen einer karte
DE102018121008A1 (de) Kreuzverkehrserfassung unter verwendung von kameras
DE102020124331A1 (de) Fahrzeugspurkartierung
DE102017128531A1 (de) Displayeinrichtung für ein Fahrzeug
DE102015211871A1 (de) Objekterkennungsvorrichtung
DE102019112279A1 (de) Verfahren und vorrichtung zur diagonalen spurerkennung
DE102017221839A1 (de) Verfahren zur Positionsbestimmung für ein Fahrzeug, Steuergerät und Fahrzeug
DE112017002839T5 (de) Parkplatzsuchvorrichtung, Programm und Aufzeichnungsmedium
DE102019208507A1 (de) Verfahren zur Bestimmung eines Überlappungsgrades eines Objektes mit einem Fahrstreifen
DE112019007757T5 (de) Informationsverarbeitungseinrichtung, Informationsverarbeitungssystem, Informationsverarbeitungsverfahren und Informationsverarbeitungsprogramm
DE102023103171A1 (de) VERFAHREN UND VORRICHTUNG ZUM BESTIMMEN DER POSITION EINES FUßGÄNGERS

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R084 Declaration of willingness to licence
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final