DE102018108027B4 - Objekterfassungsvorrichtung - Google Patents

Objekterfassungsvorrichtung Download PDF

Info

Publication number
DE102018108027B4
DE102018108027B4 DE102018108027.1A DE102018108027A DE102018108027B4 DE 102018108027 B4 DE102018108027 B4 DE 102018108027B4 DE 102018108027 A DE102018108027 A DE 102018108027A DE 102018108027 B4 DE102018108027 B4 DE 102018108027B4
Authority
DE
Germany
Prior art keywords
interest
image
vehicle
coordinate points
detection device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102018108027.1A
Other languages
English (en)
Other versions
DE102018108027A1 (de
Inventor
Mineki Soga
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Publication of DE102018108027A1 publication Critical patent/DE102018108027A1/de
Application granted granted Critical
Publication of DE102018108027B4 publication Critical patent/DE102018108027B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box

Abstract

Objekterfassungsvorrichtung (100), aufweisend:eine Bildgebungsvorrichtung (11), welche derart konfiguriert ist, dass diese eine Umgebung eines betreffenden Fahrzeugs (1) abbildet und ein Umgebungsbild erhält;eine Erfassungsvorrichtung (15) für ein Objekt von Interesse, welche derart konfiguriert ist, dass diese ein Objekt von Interesse aus dem Umgebungsbild erfasst und erste Bildkoordinaten ausgibt, welche eine Position des erfassten Objekts von Interesse auf dem Umgebungsbild angeben;eine Positionserfassungsvorrichtung (12), welche derart konfiguriert ist, dass diese eine Position des betreffenden Fahrzeugs (1) erfasst;einen Kartenspeicher (14), welcher derart konfiguriert ist, dass dieser Karteninformationen einschließlich einer Mehrzahl von Koordinatenpunkten darin speichert, welche jeweils dreidimensionale Koordinaten von jeweils einem aus einer Mehrzahl von Punkten auf einer Straße angeben; undeine Berechnungsvorrichtung (161, 162), welche derart konfiguriert ist, dass diese dem Objekt von Interesse einen oder mehrere Koordinatenpunkte aus der Mehrzahl von Koordinatenpunkten basierend auf den ersten Bildkoordinaten und der Position des betreffenden Fahrzeugs (1) zuordnet, und derart konfiguriert ist, dass diese basierend auf der Position des betreffenden Fahrzeugs (1) und dem einen oder den mehreren zugeordneten Koordinatenpunkten eine Position des Objekts von Interesse in einem realen Raum und/oder einen Abstand ausgehend von dem betreffenden Fahrzeug (1) hin zu dem Objekt von Interesse berechnet,wobei die Berechnungsvorrichtung (161, 162) derart konfiguriert ist, dass diese den einen oder die mehreren zugeordneten Koordinatenpunkte in Bildkoordinaten des Umgebungsbilds umwandelt, und derart konfiguriert ist, dass diese aus dreidimensionalen Koordinaten, welche durch einen Koordinatenpunkt angegeben sind, der zu Bildkoordinaten umgewandelt ist, die am nächsten an den ersten Bildkoordinaten liegen, die Position des Objekts von Interesse in dem realen Raum und/oder den Abstand ausgehend von dem betreffenden Fahrzeug (1) hin zu dem Objekt von Interesse berechnet.

Description

  • Hintergrund
  • 1. Technisches Gebiet
  • Ausführungsformen der vorliegenden Offenbarung betreffen eine Objekterfassungsvorrichtung, und diese betreffen insbesondere eine Objekterfassungsvorrichtung, welche derart konfiguriert ist, dass diese eine Position eines erfassten Objekts spezifiziert.
  • 2. Beschreibung des zugehörigen Stands der Technik
  • Für diesen Typ an Vorrichtung ist beispielsweise eine Vorrichtung vorgeschlagen, welche derart konfiguriert ist, dass diese ein Objekt basierend auf Informationen über eine Position einschließlich eines Abstands zu dem Objekt durch Analysieren eines Paares von Bildern, welche durch eine Stereokamera fotografiert oder aufgenommen werden, erfasst. Die Vorrichtung ist derart konfiguriert, dass diese (i) ein Abstandsbild aus dem Bildpaar bildet und die Informationen über die Position einschließlich Informationen über einen Abstand in einem realen Raum eines Objekts in der Umgebung erfasst, (ii) ein Histogramm für jeden aus einer Mehrzahl von Teilräumen schafft, welche sich in einer vertikalen Richtung in dem realen Raum erstrecken, (iii) die Informationen über den Abstand des Objekts mit einem Histogramm gemäß einem Teilraum, zu welchem die Informationen über die Position des Objekts gehören, abstimmt, und (iv) repräsentative Abstände von Teilräumen basierend auf Abstimmungsergebnissen berechnet und das Objekt durch Gruppieren der berechneten repräsentativen Abständen erfasst (Bezug auf die japanische Patentveröffentlichung mit der Nummer JP 2009-176091 A ).
  • Es ist ebenso eine Vorrichtung vorgeschlagen, welche derart konfiguriert ist, dass diese (i) aus einem Bild virtuelle Koordinaten eines Wegpunkts auf dem Bild bestimmt, das durch Fotografieren oder Aufnehmen eines Fahrbereichs eines Fahrzeugs mit einer auf einem Flugfahrzeug bzw. fahrenden Fahrzeug montierten Kamera erhalten wird, und (ii) den Untergrund mit einem Laserlicht von einer auf dem fahrenden Fahrzeug montierten Laserstrahlvorrichtung bestrahlt und einen realen Bestrahlungspunkt des Laserlichts, wenn Bestrahlungspunktkoordinaten des Laserlichts auf dem Bild mit den virtuellen Koordinaten übereinstimmen, auf reale Positionskoordinaten des Wegpunkts einstellt (Bezug auf die japanische Patentveröffentlichung mit der Nummer JP 2017-016395 A ).
  • Wie im Falle der in der JP 2009-176091 A beschriebenen Technologie erfordert eine Technologie, bei welcher das Objekt beispielsweise unter Verwendung der Stereokamera erfasst wird, einen relativ großen Berechnungsbetrag in Zusammenhang mit einer Parallaxenberechnung. Zusätzlich ist beispielsweise die Kalibrierung der Stereokamera als ein vorheriger Schritt notwendig, um die Parallaxenberechnung exakt durchzuführen. Mit anderen Worten, die in der JP 2009-176091 A beschriebene Technologie bedingt eine relativ hohe Verarbeitungslast in Zusammenhang mit der Erfassung des Objekts.
  • Darüber hinaus offenbart die US 2013/0 030 697 A1 ein Verfahren zum Berechnen eines Orts eines ersten Fahrzeugs, wobei das Verfahren die Schritte umfasst: Erfassen, aus der Perspektive des ersten Fahrzeugs, einer Bewegung eines zweiten Fahrzeugs relativ zu dem ersten Fahrzeug; Bestimmen, für die Zeit der relativen Bewegung, eines Orts des zweiten Fahrzeugs auf der Grundlage der erfassten relativen Bewegung durch Abgleichen der erfassten Bewegung des zweiten Fahrzeugs gegen Kartendaten; Messen, für die Zeit der relativen Bewegung, einer Distanz zwischen dem ersten und zweiten Fahrzeug; und Berechnen des Orts des ersten Fahrzeugs auf der Grundlage der gemessenen Distanz und des bestimmten Orts des zweiten Fahrzeugs.
  • Die DE 10 2008 007 347 A1 offenbart zudem ein Verfahren zum Bestimmen der Position eines anderen Verkehrsteilnehmers mit den Schritten: Bestimmen der Position eines Verkehrsteilnehmers mittels einer Positionserfassungseinrichtung; Schätzen eines Abstands des Verkehrsteilnehmers zu dem anderen Verkehrsteilnehmer mittels eines Abstandssensors und Bestimmen der Position des anderen Verkehrsteilnehmers, basierend auf der bestimmten Position des Verkehrsteilnehmers, dem geschätzten Abstand und einer Straßenkarte, wobei der andere Verkehrsteilnehmer als auf einem durch die Straßenkarte vorgegebenen Straßenbereich befindlich angenommen wird.
  • Kurzfassung
  • Mit Blick auf das vorstehende Problem ist es daher eine Aufgabe von Ausführungsformen der vorliegenden Erfindung, eine Objekterfassungsvorrichtung bereitzustellen, welche derart konfiguriert ist, dass diese ein Objekt erfasst, während eine Verarbeitungslast reduziert wird.
  • Die vorstehende Aufgabe wird durch die Gegenstände der Ansprüche 1 und 3 gelöst. Vorteilhafte Weiterbildungen der Erfindung sind Gegenstand der sich daran anschließenden abhängigen Ansprüche.
  • Gemäß einem erläuternden Aspekt der vorliegenden Offenbarung ist eine Objekterfassungsvorrichtung bereitgestellt, welche mit Folgendem vorgesehen ist: einer Bildgebungsvorrichtung, welche derart konfiguriert ist, dass diese eine Umgebung eines betreffenden Fahrzeugs abbildet und ein Umgebungsbild erhält; einer Erfassungsvorrichtung für ein Objekt von Interesse, welche derart konfiguriert ist, dass diese ein Objekt von Interesse aus dem Umgebungsbild erfasst und erste Bildkoordinaten ausgibt, welche eine Position des erfassten Objekts von Interesse auf dem Umgebungsbild angeben; einer Positionserfassungsvorrichtung, welche derart konfiguriert ist, dass diese eine Position des betreffenden Fahrzeugs erfasst; einem Kartenspeicher, welcher derart konfiguriert ist, dass dieser Karteninformationen einschließlich einer Mehrzahl von Koordinatenpunkten darin speichert, welche jeweils dreidimensionale Koordinaten von jeweils einem aus einer Mehrzahl von Punkten auf einer Straße angeben; und einer Berechnungsvorrichtung, welche derart konfiguriert ist, dass diese dem Objekt von Interesse einen oder mehrere Koordinatenpunkte aus der Mehrzahl von Koordinatenpunkten basierend auf den ersten Bildkoordinaten und der Position des betreffenden Fahrzeugs zuordnet bzw. assoziiert bzw. diese in Verbindung bringt, und derart konfiguriert ist, dass diese basierend auf der Position des betreffenden Fahrzeugs und dem einen oder den mehreren zugeordneten Koordinatenpunkten eine Position des Objekts von Interesse in einem realen Raum und/oder einen Abstand ausgehend von dem betreffenden Fahrzeug hin zu dem Objekt von Interesse berechnet.
  • Gemäß der Objekterfassungsvorrichtung werden die Karteninformationen verwendet, wodurch ein Abstandsberechnungsvorgang lediglich unter Verwendung von Bildern, wie beispielsweise eine Parallaxenberechnung unter Verwendung eines Paares von linken und rechten Bildern, die durch eine Stereokamera fotografiert oder aufgenommen werden, nicht erforderlich ist und eine Verarbeitungslast in Zusammenhang mit der Berechnung der Position des Objekts von Interesse und des Abstands ausgehend von dem betreffenden Fahrzeug hin zu dem Objekt von Interesse reduziert werden kann. Bei der Objekterfassungsvorrichtung können die Position des Objekts von Interesse und der Abstand ausgehend von dem betreffenden Fahrzeug hin zu dem Objekt von Interesse ohne Verwendung der Stereokamera berechnet werden. Daher ist beispielsweise die Kalibrierung der Stereokamera nicht erforderlich.
  • Eine Mustererkennungstechnologie unter Verwendung eines Maschinenlernens, wie ein neutrales Netzwerk, kann auf ein Verfahren zum Erfassen des Objekts von Interesse aus dem Umgebungsbild angewendet werden. Die „Position des Objekts von Interesse in dem Umgebungsbild (das heißt, die ersten Bildkoordinaten)“ kann beispielsweise Bildkoordinaten entsprechen, welche einen in dem Umgebungsbild durch das Objekt von Interesse eingenommenen Bereich darstellen, oder dergleichen.
  • Gemäß einem weiteren erläuternden Aspekt der Objekterfassungsvorrichtung gemäß der vorliegenden Offenbarung ist die Objekterfassungsvorrichtung mit Folgendem vorgesehen: einer Schätzvorrichtung für eine optische Achse, welche derart konfiguriert ist, dass diese eine Richtung der optischen Achse der Bildgebungsvorrichtung abschätzt, wobei die Berechnungsvorrichtung derart konfiguriert ist, dass diese dem Objekt von Interesse den einen oder die mehrere Koordinatenpunkte aus der Mehrzahl von Koordinatenpunkten basierend auf der abgeschätzten Richtung der optischen Achse zuordnet bzw. diese in Verbindung bringt. Aufgrund einer solchen Konfiguration können dem Objekt von Interesse in geeigneter Art und Weise der bzw. die Koordinatenpunkte zugeordnet werden, beispielsweise auch wenn die optische Achse der Bildgebungsvorrichtung zu einer Fahrspurerstreckungsrichtung verschoben ist.
  • Gemäß einem weiteren erläuternden Aspekt der Objekterfassungsvorrichtung gemäß der vorliegenden Offenbarung ist die Berechnungsvorrichtung derart konfiguriert, dass diese den einen oder die mehreren zugeordneten Koordinatenpunkte in Bildkoordinaten des Umgebungsbilds umwandelt, und diese ist derart konfiguriert, dass diese aus dreidimensionalen Koordinaten, welche durch einen Koordinatenpunkt angegeben sind, der zu Bildkoordinaten umgewandelt ist, die am nächsten an den ersten Bildkoordinaten liegen, die Position des Objekts von Interesse in dem realen Raum und/oder den Abstand ausgehend von dem betreffenden Fahrzeug hin zu dem Objekt von Interesse berechnet. Alternativ ist die Berechnungsvorrichtung gemäß einem weiteren erläuternden Aspekt der Objekterfassungsvorrichtung gemäß der vorliegenden Offenbarung derart konfiguriert, dass diese dem Objekt von Interesse zwei oder mehr Koordinatenpunkte aus der Mehrzahl von Koordinatenpunkten basierend auf den ersten Bildkoordinaten und der Position des betreffenden Fahrzeugs zuordnet, und diese ist derart konfiguriert, dass diese die Position des Objekts von Interesse in dem realen Raum und/oder den Abstand ausgehend von dem betreffenden Fahrzeug hin zu dem Objekt von Interesse durch einen Mittelwert unter Verwendung von dreidimensionalen Koordinaten, welche entsprechend durch zumindest zwei Koordinatenpunkte aus den zugeordneten zwei oder mehr Koordinatenpunkten angegeben sind, berechnet.
  • Gemäß diesen Aspekten ist es möglich, die Position des Objekts von Interesse in dem realen Raum und den Abstand ausgehend von dem betreffenden Fahrzeug hin zu dem Objekt von Interesse relativ einfach zu berechnen. Der Koordinatenpunkt (das heißt, die Position in dem realen Raum) und die Bildkoordinaten auf dem Umgebungsbild können miteinander in Verbindung gebracht werden, falls ein externer Parameter (das heißt, Position und Stellung) und ein interner Parameter (das heißt, optischer Parameter) der Bildgebungsvorrichtung bekannt sind. Mit anderen Worten, der Koordinatenpunkt kann zu den Bildkoordinaten umgewandelt werden.
  • Die Eigenschaft, der Nutzwert und weitere Merkmale dieser Offenbarung werden aus der nachfolgenden, detaillierten Beschreibung unter Bezugnahme auf Ausführungsformen der Offenbarung deutlicher ersichtlich, wenn diese in Zusammenhang mit den nachstehend kurz beschriebenen beigefügten Abbildungen gelesen wird.
  • Kurze Beschreibung der Abbildungen
    • 1 ist ein Blockdiagramm, welches eine Konfiguration einer Objekterfassungsvorrichtung gemäß einer Ausführungsform darstellt;
    • 2 ist ein Flussdiagramm, welches einen Objekterfassungsvorgang gemäß der Ausführungsform darstellt; und
    • 3A ist eine Abbildung, welche ein Konzept des Objekterfassungsvorgangs gemäß der Ausführungsform darstellt;
    • 3B ist eine Abbildung, welche das Konzept des Objekterfassungsvorgangs gemäß der Ausführungsform darstellt; und
    • 3C ist eine Abbildung, welche das Konzept des Objekterfassungsvorgangs gemäß der Ausführungsform darstellt.
  • Detaillierte Beschreibung der Ausführungsformen
  • Eine Objekterfassungsvorrichtung gemäß Ausführungsformen der vorliegenden Offenbarung wird unter Bezugnahme auf die 1 bis 3C erläutert.
  • (Konfiguration der Vorrichtung)
  • Eine Konfiguration einer Objekterfassungsvorrichtung gemäß einer Ausführungsform wird unter Bezugnahme auf 1 erläutert. 1 ist ein Blockdiagramm, welches die Konfiguration der Objekterfassungsvorrichtung gemäß der Ausführungsform darstellt.
  • In 1 ist eine Objekterfassungsvorrichtung 100 auf einem Fahrzeug 1 montiert, das einem Beispiel des „betreffenden Fahrzeugs“ gemäß Ausführungsformen der vorliegenden Offenbarung entspricht. Die Objekterfassungsvorrichtung 100 ist mit einer Bildgebungsvorrichtung 11, einer Erfassungsvorrichtung 12 für eine eigene Position, einer Erfassungsvorrichtung 13 für eine eigene Stellung, einer Kartenvorrichtung 14, einer Erfassungsvorrichtung 15 für ein Objekt von Interesse und einer Berechnungsvorrichtung 16 vorgesehen.
  • Die Bildgebungsvorrichtung 11 besitzt ein bildgebendes Element, wie beispielsweise einen Komplementär-Metalloxid-Halbleiter (CMOS) und eine ladungsträgergekoppelte Schaltung (CCD). Die Bildgebungsvorrichtung 11 ist derart konfiguriert, dass diese Umgebungen des Fahrzeugs 1 (was üblicherweise ein Bereich vor dem Fahrzeug 1 ist) abbildet oder fotografiert und anschließend ein Umgebungsbild erhält.
  • Die Erfassungsvorrichtung 12 für eine eigene Position ist derart konfiguriert, dass diese beispielsweise ein (GPS)-Signal bzw. ein Signal von einem globalen Positionierungssystem empfängt und eine Position der Objekterfassungsvorrichtung 100 erfasst (das heißt, eine Position des Fahrzeugs 1, auf welchem die Objekterfassungsvorrichtung 100 montiert ist). Die Erfassungsvorrichtung 12 für eine eigene Position kann beispielsweise die Genauigkeit der aus dem GPS-Signal erfassten Position basierend auf einer Ausgabe eines internen Sensors, wie beispielsweise eines Gyro-Sensors, verbessern. Alternativ kann die Erfassungsvorrichtung 12 für eine eigene Position beispielsweise die Genauigkeit der aus dem GPS-Signal erfassten Position beispielsweise durch Umwandeln des durch die Bildgebungsvorrichtung 11 erhaltenen Umgebungsbild zu einem Overhead-Bild und durch Erhalten einer Position mit der höchsten Korrelation zu einer als Karteninformationen gespeicherten Straßenoberflächentextur verbessern.
  • Die Erfassungsvorrichtung 13 für eine eigene Stellung ist derart konfiguriert, dass diese eine Stellung der Objekterfassungsvorrichtung 100, die insbesondere einer Richtung einer optischen Achse der Bildgebungsvorrichtung 11 entspricht, beispielsweise basierend auf dem Ausgang des Gyro-Sensors abschätzt.
  • Die Kartenvorrichtung 14 entspricht beispielsweise einer Kartendatenbank und diese ist derart konfiguriert, dass diese darin Straßenkarteninformationen speichert. Die Straßenkarteninformationen können Informationen umfassen, welche eine Straßengestalt und eine Straßenneigung angeben. Die Straßenkarteninformationen können insbesondere eine Mehrzahl von Datenpunkten umfassen, die jeweils dreidimensionale Koordinaten, wie beispielsweise den Breitengrad, den Längengrad und die Höhe, angeben, und diese können Verbindungsinformationen umfassen, die eine Straße angeben, welche die mehreren Datenpunkte verbindet. Die mehreren Datenpunkte können nicht nur einen Datenpunkt entsprechend einem Knotenpunkt, das heißt, einem Knoten, wie beispielsweise einer Kreuzung, umfassen, sondern ebenso Datenpunkte, die bei festgelegten Intervallen bzw. Abständen entlang einer Straße oder jeder Fahrspur angeordnet sind. Bei der Ausführungsform sind die mehreren Datenpunkte als „Wegpunkte“ bezeichnet.
  • Die Erfassungsvorrichtung 15 für ein Objekt von Interesse ist derart konfiguriert, dass diese ein Objekt von Interesse (beispielsweise ein anderes Fahrzeug, einen Fußgänger, ein Hindernis usw.) unter Verwendung einer Mustererkennung aus dem durch die Bildgebungsvorrichtung 11 erhaltenen Umgebungsbild erfasst, und diese ist derart konfiguriert, dass diese Bildkoordinaten davon (das heißt, Bildkoordinaten, welche eine Position des Objekts von Interesse auf dem Umgebungsbild angeben) ausgibt.
  • Die Berechnungsvorrichtung 16 ist mit einem Wegpunktprojektor 161 und einer Positions-/Abstandsschätzvorrichtung 162 als Verarbeitungsblöcke vorgesehen, die darin logisch realisiert sind, oder Verarbeitungsschaltungen, welche darin physikalisch realisiert sind, um die Position des Objekts von Interesse und/oder einen Abstand ausgehend von dem Fahrzeug 1 hin zu dem Objekt von Interesse zu berechnen.
  • (Objekterfassungsvorgang)
  • Ein Objekterfassungsvorgang, welcher durch die Objekterfassungsvorrichtung 100, wie vorstehend konfiguriert, durchgeführt wird, wird unter Bezugnahme auf ein Flussdiagramm in 2 erläutert. In der nachstehenden Erläuterung entspricht ein Beispiel des Objekts von Interesse einem anderen Fahrzeug, das vor dem Fahrzeug 1 fährt.
  • In 2 erhalten die Erfassungsvorrichtung 15 für ein Objekt von Interesse und die Berechnungsvorrichtung 16 das Umgebungsbild von der Bildgebungsvorrichtung 11 (Schritt S101). Die Berechnungsvorrichtung 16 erhält die Position der Objekterfassungsvorrichtung 100 (das heißt, eine eigene Position) von der Erfassungsvorrichtung 12 für eine eigene Position (Schritt S102). Die Berechnungsvorrichtung 16 erhält die Stellung der Objekterfassungsvorrichtung 100 (das heißt, eine eigene Stellung), welche die Richtung der optischen Achse der Bildgebungsvorrichtung 11 umfasst, von der Erfassungsvorrichtung 13 für eine eigene Stellung (Schritt S103). Die Schritte S101 bis S 103 können parallel oder in irgendeiner Reihenfolge durchgeführt werden.
  • Die Erfassungsvorrichtung 15 für ein Objekt von Interesse erfasst dann das Objekt von Interesse aus dem Umgebungsbild, und die Berechnungsvorrichtung 16 erhält die Bildkoordinaten von der Erfassungsvorrichtung 15 für ein Objekt von Interesse, welche die Position des Objekts angeben (Schritt S104). Nun wird unter Bezugnahme auf 3A bis 3C eine spezifische Erläuterung eines Verfahrens zum Erfassen eines anderen Fahrzeugs als das Objekt von Interesse angegeben, wenn ein Bild, das ein anderes Fahrzeug zeigt, das vor dem Fahrzeug 1 fährt, als das Umgebungsbild erhalten wird.
  • Die Erfassungsvorrichtung 15 für ein Objekt von Interesse ist derart konfiguriert, dass diese zunächst einen Suchbereich 21 auf dem Umgebungsbild einstellt, wie in 3A dargestellt ist. Der Suchbereich 21 ist gemäß dem Objekt von Interesse eingestellt. Falls das Objekt von Interesse beispielsweise einem Fahrzeug entspricht, befindet sich das Fahrzeug nicht außerhalb einer Straße, wie im Himmel. Daher kann der Suchbereich, welcher beispielsweise einen Bereich gemäß so wenig Himmel wie möglich enthält, basierend auf einem Blickwinkel und einem Installationswinkel oder dergleichen in Zusammenhang mit der Bildgebungsvorrichtung 11 eingestellt sein. Eine fehlerhafte Erfassung kann durch Beschränken des Suchbereichs auf diese Art und Weise verhindert werden.
  • Die Erfassungsvorrichtung 15 für ein Objekt von Interesse ist derart konfiguriert, dass diese anschließend das Objekt von Interesse unter Verwendung der Mustererkennung in dem Suchbereich 21 erfasst. Die Mustererkennung kann die existierende Technologie, wie beispielsweise ein Verfahren basierend auf einem Maschinenlernen, wie ein tiefes neutrales Netzwerk oder dergleichen, verwenden. Falls das Objekt von Interesse erfasst ist, kann die Erfassungsvorrichtung 15 für ein Objekt von Interesse einen Erfassungsrahmen 22 einstellen, der das erfasste Objekt von Interesse (welches hier einem anderen Fahrzeug entspricht) angibt (Bezug auf 3B). Die Erfassungsvorrichtung 15 für ein Objekt von Interesse ist ferner derart konfiguriert, dass diese Bildkoordinaten der Mitte einer unteren Seite des Erfassungsrahmens 22 (Bezug auf einen schwarzen Kreis 22a in 3C) als die Bildkoordinaten des Objekts von Interesse in dem Umgebungsbild ausgibt. Dies liegt daran, da dreidimensionale Koordinaten, welche durch einen Wegpunkt angegeben sind, einem Punkt auf der Straße entsprechen. Falls die Bildkoordinaten entsprechend einer Position, welche als am dichtesten an der Straße aus einem durch den Erfassungsrahmen 22 umgebenen Bereich betrachtet wird, als die Position des Objekts von Interesse eingestellt sind, ist es dann möglich, einen Fehler in Zusammenhang mit der Berechnung der Position oder dergleichen des Objekts von Interesse zu verhindern.
  • Nach dem Schritt S104 in 2 projiziert der Wegpunktprojektor 161 den Wegpunkt auf das Umgebungsbild (Schritt S105). Der Wegpunktprojektor 161 erhält (oder extrahiert) insbesondere einen oder eine Mehrzahl von Wegpunkten, die in den Straßenkarteninformationen enthalten sind, aus der Kartenvorrichtung 14, basierend auf der Position der Objekterfassungsvorrichtung 100. Hier kann der erhaltene Wegpunkt einem Wegpunkt gemäß einem Punkt entsprechen, der basierend auf der Position der Objekterfassungsvorrichtung 100 in dem Umgebungsbild abgeschätzt gezeigt werden soll. Der Wegpunktprojektor 161 ist derart konfiguriert, dass dieser den erhaltenen einen oder die Mehrzahl von Wegpunkten basierend auf einem externen Parameter der Bildgebungsvorrichtung 11 (beispielsweise der Position und der Richtung der optischen Achse) und einem internen Parameter der Bildgebungsvorrichtung 11 (beispielsweise einer Linsenbrennweite, einem Pixelintervall usw.) auf das Umgebungsbild projiziert; das heißt, der Wegpunktprojektor 161 ist derart konfiguriert, dass dieser den bzw. die Wegpunkte zu den Bildkoordinaten auf dem Umgebungsbild umwandelt. 3C stellt ein Beispiel des Umgebungsbilds dar, auf welchem die Wegpunkte projiziert sind. Weiße Kreise in 3C geben die Wegpunkte an.
  • Nach dem Schritt S105 in 2 berechnet die Positions-/Abstandsschätzvorrichtung 162 die Position des Objekts von Interesse und/oder den Abstand ausgehend von dem Fahrzeug 1 hin zu dem Objekt von Interesse basierend auf den Bildkoordinaten, welche die Position des Objekts von Interesse in dem Umgebungsbild angeben, und basierend auf dem bzw. den Wegpunkten, welche auf das Umgebungsbild projiziert sind (oder schätzt diese ab) (Schritt S106). Hier wird ein Verfahren zum Berechnen der Position oder dergleichen des Objekts von Interesse unter Bezugnahme auf 3C spezifischer erläutert.
  • (Erstes Verfahren)
  • Bei einem ersten Verfahren kann die Positions-/Abstandsschätzvorrichtung 162 einen Wegpunkt gemäß Bildkoordinaten spezifizieren, die am nächsten an den Bildkoordinaten 22a, welche die Position des Objekts von Interesse in dem Umgebungsbild angeben, liegen. In 3C ist angenommen, dass ein Wegpunkt W1 als der relevante Wegpunkt spezifiziert ist. Die Positions-/Abstandsschätzvorrichtung 162 kann dreidimensionale Koordinaten, welche durch den Wegpunkt W1 angeben sind, als eine reale Position des Objekts von Interesse einstellen. Die Positions-/Abstandsschätzvorrichtung 162 kann eine Differenz zwischen den durch den Wegpunkt W1 angegebenen dreidimensionalen Koordinaten und der Position der Erfassungsvorrichtung 100 für ein Objekt von Interesse als den Abstand ausgehend von dem Fahrzeug 1 hin zu dem Objekt von Interesse berechnen.
  • (Zweites Verfahren)
  • Bei einem zweiten Verfahren kann die Positions-/Abstandsschätzvorrichtung 162 eine Mehrzahl von Wegpunkten spezifizieren, die in dem Umgebungsbild in der Umgebung des Objekts von Interesse angeordnet sind, und diese mit dem Objekt von Interesse in Verbindung bringen bzw. assoziieren. In 3C ist angenommen, dass der Wegpunkt W1 und ein Wegpunkt W2 als Wegpunkte mit den dichtesten Pixelabständen zu den Bildkoordinaten, welche die Position des Objekts von Interesse angeben, spezifiziert sind. Die Positions-/Abstandsschätzvorrichtung 162 kann die Position des Objekts von Interesse in einem realen Raum durch einen Mittelwert von dreidimensionalen Koordinaten, welche entsprechend durch die Wegpunkte W1 und W2 angegeben sind, berechnen. Hier kann der Mittelwert beispielsweise einem gewichteten Mittelwert unter Verwendung einer Gewichtung entsprechen, welcher durch Normalisieren des Kehrwerts eines Zwischen-Pixel-Abstands zwischen den Bildkoordinaten des Objekts von Interesse und den Wegpunkten W1 und W2 definiert ist. Auf den „Mittelwert“ kann nicht nur der gewichtete Mittelwert angewendet werden, sondern ebenso verschiedene existierende Mittelwerte (Verfahren), wie ein einfacher Mittelwert und ein geometrischer Mittelwert. Die Positions-/Abstandsschätzvorrichtung 162 kann eine Differenz zwischen der berechneten realen Position des Objekts von Interesse und der Position der Objekterfassungsvorrichtung 100 als den Abstand ausgehend von dem Fahrzeug 1 hin zu dem Objekt von Interesse berechnen.
  • Welches der ersten und zweiten Verfahren verwendet werden soll, kann beispielsweise gemäß der Zielgenauigkeit, einem Wegpunkt-Anordnungsintervall oder dergleichen bestimmt werden. Insbesondere falls die Wegpunkte relativ dicht angeordnet sind (beispielsweise falls die Wegpunkte bei Intervallen von einigen Metern angeordnet sind), wird das erste Verfahren in wünschenswerter Art und Weise verwendet. Falls die Wegpunkte andererseits relativ lose angeordnet sind (beispielsweise falls die Wegpunkte bei Intervallen von einigen zehn Metern oder mehr angeordnet sind), wird das zweite Verfahren in wünschenswerter Art und Weise verwendet. Das erste Verfahren erfordert den Mittelwert nicht und kann daher eine Verarbeitungslast im Vergleich zu dem zweiten Verfahren reduzieren.
  • Falls das Objekt einem Gegenstand entspricht, der selten auf einer Fahrspur vorkommt, wie beispielsweise einem Fußgänger, kann die Positions-/Abstandsschätzvorrichtung 162 die Position des Objekts von Interesse in der folgenden Art und Weise berechnen. In 3C ist beispielsweise angenommen, dass ein Fußgänger gemäß einem Erfassungsrahmen 23 dem Objekt von Interesse entspricht. Die Positions-/Abstandsschätzvorrichtung 162 kann eine Vertikalrichtungskoordinate von Bildkoordinaten 23a der Mitte einer unteren Seite des Erfassungsrahmens 23 mit einer Vertikalrichtungskoordinate von Bildkoordinaten, mit welchen der Wegpunkt in Zusammenhang steht, vergleichen.
  • Im Falle des ersten Verfahrens kann die Positions-/Abstandsschätzvorrichtung 162 den Wegpunkt, welcher in eine Vertikalrichtungskoordinate umgewandelt ist, die am dichtesten an der Vertikalrichtungskoordinate der Bildkoordinaten 23a liegt, mit dem Objekt von Interesse (das heißt, dem Fußgänger) in Verbindung bringen bzw. assoziieren. Die Positions-/Abstandsschätzvorrichtung 162 kann die Position des assoziierten bzw. zugeordneten Wegpunkts verwenden, um einen Abstand ausgehend von dem Fahrzeug 1 hin zu dem assoziierten Wegpunkt zu erhalten, und diesen auf einen Näherungsabstand des Abstands zu dem Objekt von Interesse (das heißt, dem Fußgänger) einstellen. Die Positions-/Abstandsschätzvorrichtung 162 kann ferner die Position des Objekts von Interesse (das heißt, des Fußgängers) und/oder den Abstand ausgehend von dem Fahrzeug 1 hin zu dem Objekt von Interesse aus einer Differenz zwischen einer Horizontalrichtungskoordinate der Bildkoordinaten des spezifizierten Wegpunkts und einer Horizontalrichtungskoordinate der Bildkoordinaten 23a und aus dem internen Parameter der Bildgebungsvorrichtung 11 berechnen.
  • Alternativ kann die Positions-/Abstandsschätzvorrichtung 162 im Falle des zweiten Verfahrens die Wegpunkte W1 und W3 spezifizieren, die in der Umgebung der vertikalen Richtung der Bildkoordinaten 23a angeordnet sind, und diese mit dem Objekt von Interesse (das heißt, dem Fußgänger) assoziieren bzw. in Verbindung bringen. Die Positions-/Abstandsschätzvorrichtung 162 kann die Position des Objekts von Interesse (das heißt, des Fußgängers) und/oder den Abstand ausgehend von dem Fahrzeug 1 hin zu dem Objekt von Interesse durch einen Mittelwert von dreidimensionalen Koordinaten berechnen, die entsprechend durch die Wegpunkte W1 und W3 angegeben sind.
  • Falls für die Erfassung des Fußgängers als das Objekt von Interesse ein Gesichtserkennungsverfahren verwendet wird (in diesem Fall ist der Erfassungsrahmen in der Umgebung eines Kopfes eingerichtet), unterscheidet sich eine untere Seite des Erfassungsrahmens in den meisten Fällen von einem Bodenberührungspunkt. In diesem Fall wird die Position oder dergleichen des Fußgängers als das Objekt von Interesse in gewünschter Art und Weise beispielsweise berechnet, nachdem Bildkoordinaten entsprechend dem Bodenkontaktpunkt aus der Position des Erfassungsrahmens abgeschätzt sind.
  • Bei der Ausführungsform ist ein vor dem Fahrzeug 1 fahrendes anderes Fahrzeug beispielhaft als das Objekt dargestellt, es kann jedoch ein anderes Fahrzeug, welches hinter oder neben dem Fahrzeug 1 fährt, oder dergleichen, als das Objekt von Interesse behandelt werden.
  • (Technischer Effekt)
  • Für das Verfahren zum Erfassen der Position des Objekts von Interesse, wie beispielsweise eines anderen Fahrzeugs und eines Fußgängers, der sich in der Umgebung des betreffenden Fahrzeugs befindet, ist ein Verfahren unter Verwendung eines Sensors vorgeschlagen, welcher derart konfiguriert ist, dass dieser einen Abstand misst, wie beispielsweise ein Radar and Light Detection and Ranging (LIDAR). Dieses Verfahren hat jedoch Schwierigkeiten beim Identifizieren und Erfassen eines Objekts von Interesse und ist mit relativ hohen Kosten verbunden.
  • Alternativ ist ein Verfahren unter Verwendung einer Stereokamera vorgeschlagen. Dieses Verfahren erfordert jedoch einen relativ großen Berechnungsbetrag in Zusammenhang mit der Parallaxenberechnung. Zusätzlich ist die Kalibrierung der Stereokamera erforderlich. Daher ist die Verarbeitungslast bei diesem Verfahren relativ hoch.
  • Alternativ ist für ein Verfahren unter Verwendung einer monokularen Kamera ein Verfahren vorgeschlagen, bei welchem angenommen ist, dass eine Straße eine flache Oberfläche aufweist. Beispielsweise kann ein Abstand ausgehend von einer unteren Endposition eines fotografierten Bilds hin zu einem Objekt von Interesse auf einem Parameter in Zusammenhang mit der Kamera, wie beispielsweise einer Kameraeinbauposition, einer Richtung der optischen Achse der Kamera, einem Blickwinkel und einer Brennweite, basieren. In diesem Fall ist ein Schätzfehler jedoch relativ groß, falls auf der Straßenoberfläche eine Neigung vorhanden ist. Darüber hinaus kann bei einem anderen Verfahren unter Verwendung der monokularen Kamera der Abstand aus einer Größe des Objekts von Interesse in dem fotografierten Bild und einer tatsächlichen Größe des Objekts von Interesse abgeschätzt werden. In diesem Fall ist ein Fehler des abgeschätzten Abstands aufgrund einer Variation der tatsächlichen Größe (beispielsweise falls ein Personenkraftwagen dem Objekt von Interesse besteht, variiert eine Breite davon relativ deutlich um etwa 1,4 bis 2 Meter) relativ groß.
  • Im Übrigen wird das Objekt von Interesse aus dem durch die Bildgebungsvorrichtung 11 fotografierten oder aufgenommenen Umgebungsbild auf der Objekterfassungsvorrichtung 100 erfasst. Das fotografierte Umgebungsbild besitzt eine höhere räumliche Auflösung als der Sensor, welcher konfiguriert ist, um den Abstand zu messen, und kann auch in dem Fall eine detaillierte Gestaltung erhalten, wenn das Objekt relativ weit entfernt ist. Daher ist es gemäß der Objekterfassungsvorrichtung 100 möglich, das Objekt von Interesse auf wesentlich einfachere Art und Weise zu identifizieren und zu erfassen als mit dem Sensor, welcher konfiguriert ist, um den Abstand zu messen.
  • Zusätzlich ist die Parallaxenberechnung bei Verwendung der Stereokamera nicht erforderlich, um die Position oder dergleichen des Objekts von Interesse bei der Objekterfassungsvorrichtung 100 zu berechnen. Daher ist es gemäß der Objekterfassungsvorrichtung 100 möglich, die Verarbeitungslast im Vergleich zu dem Verfahren unter Verwendung der Stereokamera zu reduzieren. Andererseits wird der in den Straßenkarteninformationen enthaltene Wegpunkt verwendet, um die Position oder dergleichen des Objekts von Interesse bei der Objekterfassungsvorrichtung 100 zu berechnen. Daher ist es im Gegensatz zu dem vorgenannten Verfahren unter Verwendung der monokularen Kamera möglich, die Position oder dergleichen des Objekts von Interesse zu berechnen, ohne durch die Straßenoberflächenneigung beeinflusst zu werden (und darüber hinaus, auch wenn die tatsächliche Größe des Objekts von Interesse nicht bekannt ist).
  • Folglich ist es gemäß der Objekterfassungsvorrichtung 100 möglich, das Objekt von Interesse mit hoher Genauigkeit zu erfassen, während die Verarbeitungslast reduziert wird, und die Position oder dergleichen des Objekts von Interesse mit relativ hoher Genauigkeit zu berechnen.
  • Die „Erfassungsvorrichtung 12 für eine eigene Position“, die „Erfassungsvorrichtung 13 für eine eigene Stellung“ und die „Kartenvorrichtung 14“ gemäß der Ausführungsform sind entsprechend ein Beispiel der „Positionserfassungsvorrichtung“, der „Schätzvorrichtung für eine optische Achse“ und dem „Kartenspeicher“ gemäß Ausführungsformen der vorliegenden Offenbarung. Der „Wegpunktprojektor 161“ und die „Positions-/Abstandsschätzvorrichtung 162“ gemäß der Ausführungsform entsprechen einem Beispiel der „Berechnungsvorrichtung“ gemäß Ausführungsformen der vorliegenden Offenbarung.
  • Die Offenbarung kann in anderen spezifischen Formen ausgeführt sein, ohne von dem Grundgedanken oder den notwendigen Eigenschaften davon abzuweichen. Die vorliegenden Ausführungsformen und Beispiele sind daher in jeglicher Hinsicht als darstellend und nicht beschränkend zu betrachten, wobei der Schutzumfang der Erfindung eher durch die beigefügten Ansprüche als durch die vorstehende Beschreibung angegeben ist, und daher sollen sämtliche Änderungen in der Bedeutung und dem Äquivalenzbereich der Ansprüche darin enthalten sein.

Claims (4)

  1. Objekterfassungsvorrichtung (100), aufweisend: eine Bildgebungsvorrichtung (11), welche derart konfiguriert ist, dass diese eine Umgebung eines betreffenden Fahrzeugs (1) abbildet und ein Umgebungsbild erhält; eine Erfassungsvorrichtung (15) für ein Objekt von Interesse, welche derart konfiguriert ist, dass diese ein Objekt von Interesse aus dem Umgebungsbild erfasst und erste Bildkoordinaten ausgibt, welche eine Position des erfassten Objekts von Interesse auf dem Umgebungsbild angeben; eine Positionserfassungsvorrichtung (12), welche derart konfiguriert ist, dass diese eine Position des betreffenden Fahrzeugs (1) erfasst; einen Kartenspeicher (14), welcher derart konfiguriert ist, dass dieser Karteninformationen einschließlich einer Mehrzahl von Koordinatenpunkten darin speichert, welche jeweils dreidimensionale Koordinaten von jeweils einem aus einer Mehrzahl von Punkten auf einer Straße angeben; und eine Berechnungsvorrichtung (161, 162), welche derart konfiguriert ist, dass diese dem Objekt von Interesse einen oder mehrere Koordinatenpunkte aus der Mehrzahl von Koordinatenpunkten basierend auf den ersten Bildkoordinaten und der Position des betreffenden Fahrzeugs (1) zuordnet, und derart konfiguriert ist, dass diese basierend auf der Position des betreffenden Fahrzeugs (1) und dem einen oder den mehreren zugeordneten Koordinatenpunkten eine Position des Objekts von Interesse in einem realen Raum und/oder einen Abstand ausgehend von dem betreffenden Fahrzeug (1) hin zu dem Objekt von Interesse berechnet, wobei die Berechnungsvorrichtung (161, 162) derart konfiguriert ist, dass diese den einen oder die mehreren zugeordneten Koordinatenpunkte in Bildkoordinaten des Umgebungsbilds umwandelt, und derart konfiguriert ist, dass diese aus dreidimensionalen Koordinaten, welche durch einen Koordinatenpunkt angegeben sind, der zu Bildkoordinaten umgewandelt ist, die am nächsten an den ersten Bildkoordinaten liegen, die Position des Objekts von Interesse in dem realen Raum und/oder den Abstand ausgehend von dem betreffenden Fahrzeug (1) hin zu dem Objekt von Interesse berechnet.
  2. Objekterfassungsvorrichtung (100) nach Anspruch 1, aufweisend: eine Schätzvorrichtung (13) für eine optische Achse, welche derart konfiguriert ist, dass diese eine Richtung der optischen Achse der Bildgebungsvorrichtung abschätzt, wobei die Berechnungsvorrichtung (161, 162) derart konfiguriert ist, dass diese dem Objekt von Interesse den einen oder die mehrere Koordinatenpunkte aus der Mehrzahl von Koordinatenpunkten basierend auf der abgeschätzten Richtung der optischen Achse zuordnet.
  3. Objekterfassungsvorrichtung (100), aufweisend: eine Bildgebungsvorrichtung (11), welche derart konfiguriert ist, dass diese eine Umgebung eines betreffenden Fahrzeugs (1) abbildet und ein Umgebungsbild erhält; eine Erfassungsvorrichtung (15) für ein Objekt von Interesse, welche derart konfiguriert ist, dass diese ein Objekt von Interesse aus dem Umgebungsbild erfasst und erste Bildkoordinaten ausgibt, welche eine Position des erfassten Objekts von Interesse auf dem Umgebungsbild angeben; eine Positionserfassungsvorrichtung (12), welche derart konfiguriert ist, dass diese eine Position des betreffenden Fahrzeugs (1) erfasst; einen Kartenspeicher (14), welcher derart konfiguriert ist, dass dieser Karteninformationen einschließlich einer Mehrzahl von Koordinatenpunkten darin speichert, welche jeweils dreidimensionale Koordinaten von jeweils einem aus einer Mehrzahl von Punkten auf einer Straße angeben; und eine Berechnungsvorrichtung (161, 162), welche derart konfiguriert ist, dass diese dem Objekt von Interesse einen oder mehrere Koordinatenpunkte aus der Mehrzahl von Koordinatenpunkten basierend auf den ersten Bildkoordinaten und der Position des betreffenden Fahrzeugs (1) zuordnet, und derart konfiguriert ist, dass diese basierend auf der Position des betreffenden Fahrzeugs (1) und dem einen oder den mehreren zugeordneten Koordinatenpunkten eine Position des Objekts von Interesse in einem realen Raum und/oder einen Abstand ausgehend von dem betreffenden Fahrzeug (1) hin zu dem Objekt von Interesse berechnet, wobei die Berechnungsvorrichtung (161, 162) derart konfiguriert ist, dass diese: dem Objekt von Interesse zwei oder mehr Koordinatenpunkte aus der Mehrzahl von Koordinatenpunkten basierend auf den ersten Bildkoordinaten und der Position des betreffenden Fahrzeugs (1) zuordnet, und die Position des Objekts von Interesse in dem realen Raum und/oder den Abstand ausgehend von dem betreffenden Fahrzeug (1) hin zu dem Objekt von Interesse durch einen Mittelwert unter Verwendung von dreidimensionalen Koordinaten, welche entsprechend durch zumindest zwei Koordinatenpunkte aus den zugeordneten zwei oder mehr Koordinatenpunkten angegeben sind, berechnet.
  4. Objekterfassungsvorrichtung (100) nach Anspruch 3, aufweisend: eine Schätzvorrichtung (13) für eine optische Achse, welche derart konfiguriert ist, dass diese eine Richtung der optischen Achse der Bildgebungsvorrichtung abschätzt, wobei die Berechnungsvorrichtung (161, 162) derart konfiguriert ist, dass diese dem Objekt von Interesse den einen oder die mehrere Koordinatenpunkte aus der Mehrzahl von Koordinatenpunkten basierend auf der abgeschätzten Richtung der optischen Achse zuordnet.
DE102018108027.1A 2017-04-07 2018-04-05 Objekterfassungsvorrichtung Active DE102018108027B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-076871 2017-04-07
JP2017076871A JP6589926B2 (ja) 2017-04-07 2017-04-07 物体検出装置

Publications (2)

Publication Number Publication Date
DE102018108027A1 DE102018108027A1 (de) 2018-10-11
DE102018108027B4 true DE102018108027B4 (de) 2024-04-18

Family

ID=63588189

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018108027.1A Active DE102018108027B4 (de) 2017-04-07 2018-04-05 Objekterfassungsvorrichtung

Country Status (4)

Country Link
US (1) US10909395B2 (de)
JP (1) JP6589926B2 (de)
CN (1) CN108692719B (de)
DE (1) DE102018108027B4 (de)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019202627A1 (ja) * 2018-04-16 2019-10-24 三菱電機株式会社 障害物検出装置、障害物検出装置を利用した自動ブレーキ装置、障害物検出方法、および障害物検出方法を利用した自動ブレーキ方法
JP2020013332A (ja) * 2018-07-18 2020-01-23 トヨタ自動車株式会社 画像認識装置
US10650548B1 (en) * 2019-01-30 2020-05-12 StradVision, Inc. Method and device for localization of autonomous vehicle for route planning by using attention-driven landmark detection
US11386671B2 (en) * 2019-06-25 2022-07-12 Zoox, Inc. Refining depth from an image
JP7267874B2 (ja) * 2019-08-27 2023-05-02 本田技研工業株式会社 交通流推定装置、交通流推定方法、およびプログラム
JP7321035B2 (ja) * 2019-08-30 2023-08-04 日産自動車株式会社 物体位置検出方法及び物体位置検出装置
CN111368794B (zh) * 2020-03-19 2023-09-19 北京百度网讯科技有限公司 障碍物检测方法、装置、设备和介质
CN112325780B (zh) * 2020-10-29 2022-01-25 青岛聚好联科技有限公司 一种基于社区监控的距离测算方法及装置
CN112356815B (zh) * 2020-12-01 2023-04-25 吉林大学 一种基于单目相机的行人主动避撞系统及方法
JP2023136923A (ja) * 2022-03-17 2023-09-29 Kyb株式会社 演算装置、演算方法及びプログラム
KR102498028B1 (ko) * 2022-08-30 2023-02-10 주식회사 에프에스네트웍스 감시 카메라 시스템 및 그 시스템 사용 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008007347A1 (de) 2008-02-04 2009-08-06 Robert Bosch Gmbh Vorrichtung und Verfahren zum Bestimmen der Position eines anderen Verkehrsteilnehmers
JP2009176091A (ja) 2008-01-25 2009-08-06 Fuji Heavy Ind Ltd 物体検出装置
US20130030697A1 (en) 2011-07-27 2013-01-31 Elektrobit Automotive Gmbh Technique for calculating a location of a vehicle
JP2017016395A (ja) 2015-07-01 2017-01-19 株式会社Ihiエアロスペース 経路生成方法とシステム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100520166B1 (ko) * 2003-03-14 2005-10-10 삼성전자주식회사 네비게이션시스템에서 이동체의 위치검출장치 및 그 방법
JP2006208223A (ja) * 2005-01-28 2006-08-10 Aisin Aw Co Ltd 車両位置認識装置及び車両位置認識方法
US8164628B2 (en) * 2006-01-04 2012-04-24 Mobileye Technologies Ltd. Estimating distance to an object using a sequence of images recorded by a monocular camera
JP4724043B2 (ja) * 2006-05-17 2011-07-13 トヨタ自動車株式会社 対象物認識装置
WO2010097916A1 (ja) * 2009-02-25 2010-09-02 トヨタ自動車株式会社 車載情報処理装置及び情報処理方法
KR101043450B1 (ko) * 2009-07-31 2011-06-21 삼성전기주식회사 카메라를 이용한 위치와 거리 측정장치 및 위치와 거리 측정방법
JP5834933B2 (ja) * 2012-01-17 2015-12-24 日産自動車株式会社 車両位置算出装置
JP5590064B2 (ja) * 2012-04-04 2014-09-17 株式会社デンソー 車両用無線通信装置
KR102021050B1 (ko) * 2012-06-06 2019-09-11 삼성전자주식회사 내비게이션 정보를 제공하는 방법, 기계로 읽을 수 있는 저장 매체, 이동 단말 및 서버
CN102788591B (zh) * 2012-08-07 2015-05-13 郭磊 基于视觉信息的机器人沿引导线巡线导航方法
CN103903246A (zh) * 2012-12-26 2014-07-02 株式会社理光 物体检测方法和装置
US10215583B2 (en) * 2013-03-15 2019-02-26 Honda Motor Co., Ltd. Multi-level navigation monitoring and control
EP3100206B1 (de) * 2014-01-30 2020-09-09 Mobileye Vision Technologies Ltd. Systeme und verfahren zur detektion des endes einer fahrspur
JP2015215299A (ja) * 2014-05-13 2015-12-03 株式会社デンソー 対象物位置推定装置
US10274958B2 (en) * 2015-01-22 2019-04-30 Bae Systems Information And Electronic Systems Integration Inc. Method for vision-aided navigation for unmanned vehicles
JP6457278B2 (ja) * 2015-01-23 2019-01-23 トヨタ自動車株式会社 物体検出装置及び物体検出方法
JP6464783B2 (ja) * 2015-02-04 2019-02-06 株式会社デンソー 物体検出装置
EP3410415B1 (de) * 2016-01-28 2020-11-18 Ricoh Company, Ltd. Bildverarbeitungsvorrichtung, bildgebungsvorrichtung, steuerungssystem für einen bewegten körper und bildverarbeitungsprogramm
JP2018092354A (ja) * 2016-12-02 2018-06-14 富士通株式会社 物体検出装置および物体検出方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009176091A (ja) 2008-01-25 2009-08-06 Fuji Heavy Ind Ltd 物体検出装置
DE102008007347A1 (de) 2008-02-04 2009-08-06 Robert Bosch Gmbh Vorrichtung und Verfahren zum Bestimmen der Position eines anderen Verkehrsteilnehmers
US20130030697A1 (en) 2011-07-27 2013-01-31 Elektrobit Automotive Gmbh Technique for calculating a location of a vehicle
JP2017016395A (ja) 2015-07-01 2017-01-19 株式会社Ihiエアロスペース 経路生成方法とシステム

Also Published As

Publication number Publication date
CN108692719B (zh) 2022-04-01
US10909395B2 (en) 2021-02-02
US20180293450A1 (en) 2018-10-11
CN108692719A (zh) 2018-10-23
JP2018180772A (ja) 2018-11-15
JP6589926B2 (ja) 2019-10-16
DE102018108027A1 (de) 2018-10-11

Similar Documents

Publication Publication Date Title
DE102018108027B4 (de) Objekterfassungsvorrichtung
EP2329222B1 (de) Verfahren und messanordnung zum bestimmen der rad- oder achsgeometrie eines fahrzeugs
DE102020112314A1 (de) Verifizierung von fahrzeugbildern
EP3005292B1 (de) 3d-aufnahmevorrichtung, verfahren zur erstellung eines 3d-bildes und verfahren zur einrichtung einer 3d-aufnahmevorrichtung
DE102013211930A1 (de) Binokulares Objektvergleichsverfahren mit breiter Basislinie unter Verwendung eines Flussnetzes mit minimalen Kosten
DE102010012811B4 (de) Verfahren zur Messung von Geschwindigkeiten und Zuordnung der gemessenen Geschwindigkeiten zu angemessenen Fahrzeugen durch Erfassen und Zusammenführen von Objekt-Trackingdaten und Bild-Trackingdaten
DE102016206493A1 (de) Verfahren und Kamerasystem zur Entfernungsbestimmung von Objekten zu einem Fahrzeug
DE10229336A1 (de) Verfahren und Vorrichtung zur Kalibrierung von Bildsensorsystemen
DE102016225595A1 (de) Verfahren und Anordnung zur Kalibrierung mindestens eines Sensors eines Schienenfahrzeugs
DE102010002258A1 (de) Verfahren und Vorrichtung zum Bestimmen von Abständen an einem Fahrzeug
DE112016001150T5 (de) Schätzung extrinsischer kameraparameter anhand von bildlinien
CN107796373B (zh) 一种基于车道平面几何模型驱动的前方车辆单目视觉的测距方法
DE112018004529T5 (de) Positionsschätzeinrichtung und positionsschätzverfahren einer mobileinheit
DE112019001542T5 (de) Positionsschätzvorrichtung
DE102015122172A1 (de) Scheinwerferbasierte Projetion von Mustern zur Vermessung räumlicher Eigenschaften einer Fahrzeugumgebung
EP3104330A1 (de) Verfahren zum nachverfolgen zumindest eines objektes und verfahren zum ersetzen zumindest eines objektes durch ein virtuelles objekt in einem von einer kamera aufgenommenen bewegtbildsignal
DE102012222361B4 (de) Umgebungserkennungsvorrichtung
DE102018204451A1 (de) Verfahren und Vorrichtung zur Autokalibrierung eines Fahrzeugkamerasystems
DE102006044615A1 (de) Verfahren zur Kalibrierung von Bilderfassungseinrichtungen in Fahrzeugen
DE4113992A1 (de) Verfahren zur automatischen dreidimensionalen ueberwachung von gefahrenraeumen
DE102020109598A1 (de) System und Verfahren zum Verfolgen eines angekoppelten Fahrzeugs
DE102011056948A1 (de) Verfahren zur Kalibrierung einer Kamera zu einem Lagesensor
DE102010042821B4 (de) Verfahren und Vorrichtung zur Bestimmung einer Basisbreite eines Stereo-Erfassungssystems
DE19517026B4 (de) Verfahren zur Bestimmung der Geschwindigkeit eines Fahrzeuges mit Hilfe einer das Fahrzeug aufnehmenden Videokamera und Vorrichtung zur Durchführung des Verfahrens
DE102010004233B3 (de) Verfahren zur Bestimmung der Lage eines Kamerasystems bezüglich eines Objekts

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: B60W0030080000

Ipc: G08G0001160000

R018 Grant decision by examination section/examining division