DE102018108027A1 - Objekterfassungsvorrichtung - Google Patents

Objekterfassungsvorrichtung Download PDF

Info

Publication number
DE102018108027A1
DE102018108027A1 DE102018108027.1A DE102018108027A DE102018108027A1 DE 102018108027 A1 DE102018108027 A1 DE 102018108027A1 DE 102018108027 A DE102018108027 A DE 102018108027A DE 102018108027 A1 DE102018108027 A1 DE 102018108027A1
Authority
DE
Germany
Prior art keywords
interest
image
coordinate points
subject vehicle
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102018108027.1A
Other languages
English (en)
Other versions
DE102018108027B4 (de
Inventor
Mineki Soga
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Publication of DE102018108027A1 publication Critical patent/DE102018108027A1/de
Application granted granted Critical
Publication of DE102018108027B4 publication Critical patent/DE102018108027B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box

Abstract

Eine Objekterfassungsvorrichtung ist vorgesehen mit: einer Bildgebungsvorrichtung, welche derart konfiguriert ist, dass diese eine Umgebung eines betreffenden Fahrzeugs abbildet und ein Umgebungsbild erhält; einer Objekterfassungsvorrichtung, welche derart konfiguriert ist, dass diese ein Objekt von Interesse aus dem Umgebungsbild erfasst und erste Bildkoordinaten ausgibt, welche eine Position des erfassten Objekts von Interesse auf dem Umgebungsbild angeben; einer Berechnungsvorrichtung, welche derart konfiguriert ist, dass diese dem Objekt von Interesse einen oder mehrere Koordinatenpunkte aus einer Mehrzahl von Koordinatenpunkten, welche jeweils dreidimensionale Koordinaten von jeweils einem aus einer Mehrzahl von Punkten auf einer Straße angeben, basierend auf den ersten Bildkoordinaten und einer Position des betreffenden Fahrzeugs zuordnet, und derart konfiguriert ist, dass diese basierend auf der Position des betreffenden Fahrzeugs und dem einen oder den mehreren zugeordneten Koordinatenpunkten eine Position des Objekts von Interesse in einem realen Raum und/oder einen Abstand ausgehend von dem betreffenden Fahrzeug hin zu dem Objekt von Interesse berechnet.

Description

  • Hintergrund
  • Technisches Gebiet
  • Ausführungsformen der vorliegenden Offenbarung betreffen eine Objekterfassungsvorrichtung, und diese betreffen insbesondere eine Objekterfassungsvorrichtung, welche derart konfiguriert ist, dass diese eine Position eines erfassten Objekts spezifiziert.
  • Beschreibung des zugehörigen Stands der Technik
  • Für diesen Typ an Vorrichtung ist beispielsweise eine Vorrichtung vorgeschlagen, welche derart konfiguriert ist, dass diese ein Objekt basierend auf Informationen über eine Position einschließlich eines Abstands zu dem Objekt durch Analysieren eines Paares von Bildern, welche durch eine Stereokamera fotografiert oder aufgenommen werden, erfasst. Die Vorrichtung ist derart konfiguriert, dass diese (i) ein Abstandsbild aus dem Bildpaar bildet und die Informationen über die Position einschließlich Informationen über einen Abstand in einem realen Raum eines Objekts in der Umgebung erfasst, (ii) ein Histogramm für jeden aus einer Mehrzahl von Teilräumen schafft, welche sich in einer vertikalen Richtung in dem realen Raum erstrecken, (iii) die Informationen über den Abstand des Objekts mit einem Histogramm gemäß einem Teilraum, zu welchem die Informationen über die Position des Objekts gehören, abstimmt, und (iv) repräsentative Abstände von Teilräumen basierend auf Abstimmungsergebnissen berechnet und das Objekt durch Gruppieren der berechneten repräsentativen Abständen erfasst (Bezug auf die japanische Patentveröffentlichung mit der Nummer 2009-176091 (Patentliteratur 1)).
  • Es ist ebenso eine Vorrichtung vorgeschlagen, welche derart konfiguriert ist, dass diese (i) aus einem Bild virtuelle Koordinaten eines Wegpunkts auf dem Bild bestimmt, das durch Fotografieren oder Aufnehmen eines Fahrbereichs eines Fahrzeugs mit einer auf einem Flugfahrzeug bzw. fahrenden Fahrzeug montierten Kamera erhalten wird, und (ii) den Untergrund mit einem Laserlicht von einer auf dem fahrenden Fahrzeug montierten Laserstrahlvorrichtung bestrahlt und einen realen Bestrahlungspunkt des Laserlichts, wenn Bestrahlungspunktkoordinaten des Laserlichts auf dem Bild mit den virtuellen Koordinaten übereinstimmen, auf reale Positionskoordinaten des Wegpunkts einstellt (Bezug auf die japanische Patentveröffentlichung mit der Nummer 2017-016395 (Patentliteratur 2)).
  • Wie im Falle der in Patentliteratur 1 beschriebenen Technologie erfordert eine Technologie, bei welcher das Objekt beispielsweise unter Verwendung der Stereokamera erfasst wird, einen relativ großen Berechnungsbetrag in Zusammenhang mit einer Parallaxenberechnung. Zusätzlich ist beispielsweise die Kalibrierung der Stereokamera als ein vorheriger Schritt notwendig, um die Parallaxenberechnung exakt durchzuführen. Mit anderen Worten, die in Patentliteratur 1 beschriebene Technologie bedingt eine relativ hohe Verarbeitungslast in Zusammenhang mit der Erfassung des Objekts.
  • Kurzfassung
  • Mit Blick auf das vorstehende Problem ist es daher eine Aufgabe von Ausführungsformen der vorliegenden Offenbarung, eine Objekterfassungsvorrichtung bereitzustellen, welche derart konfiguriert ist, dass diese ein Objekt erfasst, während eine Verarbeitungslast reduziert wird.
  • Die vorstehende Aufgabe der Ausführungsformen der vorliegenden Offenbarung kann durch eine Objekterfassungsvorrichtung gelöst werden, welche mit Folgendem vorgesehen ist: einer Bildgebungsvorrichtung, welche derart konfiguriert ist, dass diese eine Umgebung eines betreffenden Fahrzeugs abbildet und ein Umgebungsbild erhält; einer Erfassungsvorrichtung für ein Objekt von Interesse, welche derart konfiguriert ist, dass diese ein Objekt von Interesse aus dem Umgebungsbild erfasst und erste Bildkoordinaten ausgibt, welche eine Position des erfassten Objekts von Interesse auf dem Umgebungsbild angeben; einer Positionserfassungsvorrichtung, welche derart konfiguriert ist, dass diese eine Position des betreffenden Fahrzeugs erfasst; einem Kartenspeicher, welcher derart konfiguriert ist, dass dieser Karteninformationen einschließlich einer Mehrzahl von Koordinatenpunkten darin speichert, welche jeweils dreidimensionale Koordinaten von jeweils einem aus einer Mehrzahl von Punkten auf einer Straße angeben; und einer Berechnungsvorrichtung, welche derart konfiguriert ist, dass diese dem Objekt von Interesse einen oder mehrere Koordinatenpunkte aus der Mehrzahl von Koordinatenpunkten basierend auf den ersten Bildkoordinaten und der Position des betreffenden Fahrzeugs zuordnet bzw. assoziiert bzw. diese in Verbindung bringt, und derart konfiguriert ist, dass diese basierend auf der Position des betreffenden Fahrzeugs und dem einen oder den mehreren zugeordneten Koordinatenpunkten eine Position des Objekts von Interesse in einem realen Raum und/oder einen Abstand ausgehend von dem betreffenden Fahrzeug hin zu dem Objekt von Interesse berechnet.
  • Gemäß der Objekterfassungsvorrichtung werden die Karteninformationen verwendet, wodurch ein Abstandsberechnungsvorgang lediglich unter Verwendung von Bildern, wie beispielsweise eine Parallaxenberechnung unter Verwendung eines Paares von linken und rechten Bildern, die durch eine Stereokamera fotografiert oder aufgenommen werden, nicht erforderlich ist und eine Verarbeitungslast in Zusammenhang mit der Berechnung der Position des Objekts von Interesse und des Abstands ausgehend von dem betreffenden Fahrzeug hin zu dem Objekt von Interesse reduziert werden kann. Bei der Objekterfassungsvorrichtung können die Position des Objekts von Interesse und der Abstand ausgehend von dem betreffenden Fahrzeug hin zu dem Objekt von Interesse ohne Verwendung der Stereokamera berechnet werden. Daher ist beispielsweise die Kalibrierung der Stereokamera nicht erforderlich.
  • Eine Mustererkennungstechnologie unter Verwendung eines Maschinenlernens, wie ein neutrales Netzwerk, kann auf ein Verfahren zum Erfassen des Objekts von Interesse aus dem Umgebungsbild angewendet werden. Die „Position des Objekts von Interesse in dem Umgebungsbild (das heißt, die ersten Bildkoordinaten)“ kann beispielsweise Bildkoordinaten entsprechen, welche einen in dem Umgebungsbild durch das Objekt von Interesse eingenommenen Bereich darstellen, oder dergleichen.
  • Bei einem Aspekt der Objekterfassungsvorrichtung gemäß Ausführungsformen der vorliegenden Offenbarung ist die Objekterfassungsvorrichtung mit Folgendem vorgesehen: einer Schätzvorrichtung für eine optische Achse, welche derart konfiguriert ist, dass diese eine Richtung der optischen Achse der Bildgebungsvorrichtung abschätzt, wobei die Berechnungsvorrichtung derart konfiguriert ist, dass diese dem Objekt von Interesse den einen oder die mehrere Koordinatenpunkte aus der Mehrzahl von Koordinatenpunkten basierend auf der abgeschätzten Richtung der optischen Achse zuordnet bzw. diese in Verbindung bringt. Aufgrund einer solchen Konfiguration können dem Objekt von Interesse in geeigneter Art und Weise der bzw. die Koordinatenpunkte zugeordnet werden, beispielsweise auch wenn die optische Achse der Bildgebungsvorrichtung zu einer Fahrspurerstreckungsrichtung verschoben ist.
  • Bei einem anderen Aspekt der Objekterfassungsvorrichtung gemäß Ausführungsformen der vorliegenden Offenbarung ist die Berechnungsvorrichtung derart konfiguriert, dass diese den einen oder die mehreren zugeordneten Koordinatenpunkte in Bildkoordinaten des Umgebungsbilds umwandelt, und diese ist derart konfiguriert, dass diese aus dreidimensionalen Koordinaten, welche durch einen Koordinatenpunkt angegeben sind, der zu Bildkoordinaten umgewandelt ist, die am nächsten an den ersten Bildkoordinaten liegen, die Position des Objekts von Interesse in dem realen Raum und/oder den Abstand ausgehend von dem betreffenden Fahrzeug hin zu dem Objekt von Interesse berechnet. Alternativ ist die Berechnungsvorrichtung bei einem weiteren Aspekt der Objekterfassungsvorrichtung gemäß Ausführungsformen der vorliegenden Offenbarung derart konfiguriert, dass diese dem Objekt von Interesse zwei oder mehr Koordinatenpunkte aus der Mehrzahl von Koordinatenpunkten basierend auf den ersten Bildkoordinaten und der Position des betreffenden Fahrzeugs zuordnet, und diese ist derart konfiguriert, dass diese die Position des Objekts von Interesse in dem realen Raum und/oder den Abstand ausgehend von dem betreffenden Fahrzeug hin zu dem Objekt von Interesse durch einen Mittelwert unter Verwendung von dreidimensionalen Koordinaten, welche entsprechend durch zumindest zwei Koordinatenpunkte aus den zugeordneten zwei oder mehr Koordinatenpunkten angegeben sind, berechnet.
  • Gemäß diesen Aspekten ist es möglich, die Position des Objekts von Interesse in dem realen Raum und den Abstand ausgehend von dem betreffenden Fahrzeug hin zu dem Objekt von Interesse relativ einfach zu berechnen. Der Koordinatenpunkt (das heißt, die Position in dem realen Raum) und die Bildkoordinaten auf dem Umgebungsbild können miteinander in Verbindung gebracht werden, falls ein externer Parameter (das heißt, Position und Stellung) und ein interner Parameter (das heißt, optischer Parameter) der Bildgebungsvorrichtung bekannt sind. Mit anderen Worten, der Koordinatenpunkt kann zu den Bildkoordinaten umgewandelt werden.
  • Die Eigenschaft, der Nutzwert und weitere Merkmale dieser Offenbarung werden aus der nachfolgenden, detaillierten Beschreibung unter Bezugnahme auf Ausführungsformen der Offenbarung deutlicher ersichtlich, wenn diese in Zusammenhang mit den nachstehend kurz beschriebenen beigefügten Abbildungen gelesen wird.
  • Figurenliste
    • 1 ist ein Blockdiagramm, welches eine Konfiguration einer Objekterfassungsvorrichtung gemäß einer Ausführungsform darstellt;
    • 2 ist ein Flussdiagramm, welches einen Objekterfassungsvorgang gemäß der Ausführungsform darstellt; und
    • 3A ist eine Abbildung, welche ein Konzept des Objekterfassungsvorgangs gemäß der Ausführungsform darstellt;
    • 3B ist eine Abbildung, welche das Konzept des Objekterfassungsvorgangs gemäß der Ausführungsform darstellt; und
    • 3C ist eine Abbildung, welche das Konzept des Objekterfassungsvorgangs gemäß der Ausführungsform darstellt.
  • Detaillierte Beschreibung der Ausführungsformen
  • Eine Objekterfassungsvorrichtung gemäß Ausführungsformen der vorliegenden Offenbarung wird unter Bezugnahme auf die 1 bis 3C erläutert.
  • (Konfiguration der Vorrichtung)
  • Eine Konfiguration einer Objekterfassungsvorrichtung gemäß einer Ausführungsform wird unter Bezugnahme auf 1 erläutert. 1 ist ein Blockdiagramm, welches die Konfiguration der Objekterfassungsvorrichtung gemäß der Ausführungsform darstellt.
  • In 1 ist eine Objekterfassungsvorrichtung 100 auf einem Fahrzeug 1 montiert, das einem Beispiel des „betreffenden Fahrzeugs“ gemäß Ausführungsformen der vorliegenden Offenbarung entspricht. Die Objekterfassungsvorrichtung 100 ist mit einer Bildgebungsvorrichtung 11, einer Erfassungsvorrichtung 12 für eine eigene Position, einer Erfassungsvorrichtung 13 für eine eigene Stellung, einer Kartenvorrichtung 14, einer Erfassungsvorrichtung 15 für ein Objekt von Interesse und einer Berechnungsvorrichtung 16 vorgesehen.
  • Die Bildgebungsvorrichtung 11 besitzt ein bildgebendes Element, wie beispielsweise einen Komplementär-Metalloxid-Halbleiter (CMOS) und eine ladungsträgergekoppelte Schaltung (CCD). Die Bildgebungsvorrichtung 11 ist derart konfiguriert, dass diese Umgebungen des Fahrzeugs 1 (was üblicherweise ein Bereich vor dem Fahrzeug 1 ist) abbildet oder fotografiert und anschließend ein Umgebungsbild erhält.
  • Die Erfassungsvorrichtung 12 für eine eigene Position ist derart konfiguriert, dass diese beispielsweise ein (GPS)-Signal bzw. ein Signal von einem globalen Positionierungssystem empfängt und eine Position der Objekterfassungsvorrichtung 100 erfasst (das heißt, eine Position des Fahrzeugs 1, auf welchem die Objekterfassungsvorrichtung 100 montiert ist). Die Erfassungsvorrichtung 12 für eine eigene Position kann beispielsweise die Genauigkeit der aus dem GPS-Signal erfassten Position basierend auf einer Ausgabe eines internen Sensors, wie beispielsweise eines Gyro-Sensors, verbessern. Alternativ kann die Erfassungsvorrichtung 12 für eine eigene Position beispielsweise die Genauigkeit der aus dem GPS-Signal erfassten Position beispielsweise durch Umwandeln des durch die Bildgebungsvorrichtung 11 erhaltenen Umgebungsbild zu einem Overhead-Bild und durch Erhalten einer Position mit der höchsten Korrelation zu einer als Karteninformationen gespeicherten Straßenoberflächentextur verbessern.
  • Die Erfassungsvorrichtung 13 für eine eigene Stellung ist derart konfiguriert, dass diese eine Stellung der Objekterfassungsvorrichtung 100, die insbesondere einer Richtung einer optischen Achse der Bildgebungsvorrichtung 11 entspricht, beispielsweise basierend auf dem Ausgang des Gyro-Sensors abschätzt.
  • Die Kartenvorrichtung 14 entspricht beispielsweise einer Kartendatenbank und diese ist derart konfiguriert, dass diese darin Straßenkarteninformationen speichert. Die Straßenkarteninformationen können Informationen umfassen, welche eine Straßengestalt und eine Straßenneigung angeben. Die Straßenkarteninformationen können insbesondere eine Mehrzahl von Datenpunkten umfassen, die jeweils dreidimensionale Koordinaten, wie beispielsweise den Breitengrad, den Längengrad und die Höhe, angeben, und diese können Verbindungsinformationen umfassen, die eine Straße angeben, welche die mehreren Datenpunkte verbindet. Die mehreren Datenpunkte können nicht nur einen Datenpunkt entsprechend einem Knotenpunkt, das heißt, einem Knoten, wie beispielsweise einer Kreuzung, umfassen, sondern ebenso Datenpunkte, die bei festgelegten Intervallen bzw. Abständen entlang einer Straße oder jeder Fahrspur angeordnet sind. Bei der Ausführungsform sind die mehreren Datenpunkte als „Wegpunkte“ bezeichnet.
  • Die Erfassungsvorrichtung 15 für ein Objekt von Interesse ist derart konfiguriert, dass diese ein Objekt von Interesse (beispielsweise ein anderes Fahrzeug, einen Fußgänger, ein Hindernis usw.) unter Verwendung einer Mustererkennung aus dem durch die Bildgebungsvorrichtung 11 erhaltenen Umgebungsbild erfasst, und diese ist derart konfiguriert, dass diese Bildkoordinaten davon (das heißt, Bildkoordinaten, welche eine Position des Objekts von Interesse auf dem Umgebungsbild angeben) ausgibt.
  • Die Berechnungsvorrichtung 16 ist mit einem Wegpunktprojektor 161 und einer Positions-/Abstandsschätzvorrichtung 162 als Verarbeitungsblöcke vorgesehen, die darin logisch realisiert sind, oder Verarbeitungsschaltungen, welche darin physikalisch realisiert sind, um die Position des Objekts von Interesse und/oder einen Abstand ausgehend von dem Fahrzeug 1 hin zu dem Objekt von Interesse zu berechnen.
  • (Objekterfassungsvorgang)
  • Ein Objekterfassungsvorgang, welcher durch die Objekterfassungsvorrichtung 100, wie vorstehend konfiguriert, durchgeführt wird, wird unter Bezugnahme auf ein Flussdiagramm in 2 erläutert. In der nachstehenden Erläuterung entspricht ein Beispiel des Objekts von Interesse einem anderen Fahrzeug, das vor dem Fahrzeug 1 fährt.
  • In 2 erhalten die Erfassungsvorrichtung 15 für ein Objekt von Interesse und die Berechnungsvorrichtung 16 das Umgebungsbild von der Bildgebungsvorrichtung 11 (Schritt S101). Die Berechnungsvorrichtung 16 erhält die Position der Objekterfassungsvorrichtung 100 (das heißt, eine eigene Position) von der Erfassungsvorrichtung 12 für eine eigene Position (Schritt S102). Die Berechnungsvorrichtung 16 erhält die Stellung der Objekterfassungsvorrichtung 100 (das heißt, eine eigene Stellung), welche die Richtung der optischen Achse der Bildgebungsvorrichtung 11 umfasst, von der Erfassungsvorrichtung 13 für eine eigene Stellung (Schritt S103). Die Schritte S101 bis S103 können parallel oder in irgendeiner Reihenfolge durchgeführt werden.
  • Die Erfassungsvorrichtung 15 für ein Objekt von Interesse erfasst dann das Objekt von Interesse aus dem Umgebungsbild, und die Berechnungsvorrichtung 16 erhält die Bildkoordinaten von der Erfassungsvorrichtung 15 für ein Objekt von Interesse, welche die Position des Objekts angeben (Schritt S104). Nun wird unter Bezugnahme auf 3A bis 3C eine spezifische Erläuterung eines Verfahrens zum Erfassen eines anderen Fahrzeugs als das Objekt von Interesse angegeben, wenn ein Bild, das ein anderes Fahrzeug zeigt, das vor dem Fahrzeug 1 fährt, als das Umgebungsbild erhalten wird.
  • Die Erfassungsvorrichtung 15 für ein Objekt von Interesse ist derart konfiguriert, dass diese zunächst einen Suchbereich 21 auf dem Umgebungsbild einstellt, wie in 3A dargestellt ist. Der Suchbereich 21 ist gemäß dem Objekt von Interesse eingestellt. Falls das Objekt von Interesse beispielsweise einem Fahrzeug entspricht, befindet sich das Fahrzeug nicht außerhalb einer Straße, wie im Himmel. Daher kann der Suchbereich, welcher beispielsweise einen Bereich gemäß so wenig Himmel wie möglich enthält, basierend auf einem Blickwinkel und einem Installationswinkel oder dergleichen in Zusammenhang mit der Bildgebungsvorrichtung 11 eingestellt sein. Eine fehlerhafte Erfassung kann durch Beschränken des Suchbereichs auf diese Art und Weise verhindert werden.
  • Die Erfassungsvorrichtung 15 für ein Objekt von Interesse ist derart konfiguriert, dass diese anschließend das Objekt von Interesse unter Verwendung der Mustererkennung in dem Suchbereich 21 erfasst. Die Mustererkennung kann die existierende Technologie, wie beispielsweise ein Verfahren basierend auf einem Maschinenlernen, wie ein tiefes neutrales Netzwerk oder dergleichen, verwenden. Falls das Objekt von Interesse erfasst ist, kann die Erfassungsvorrichtung 15 für ein Objekt von Interesse einen Erfassungsrahmen 22 einstellen, der das erfasste Objekt von Interesse (welches hier einem anderen Fahrzeug entspricht) angibt (Bezug auf 3B). Die Erfassungsvorrichtung 15 für ein Objekt von Interesse ist ferner derart konfiguriert, dass diese Bildkoordinaten der Mitte einer unteren Seite des Erfassungsrahmens 22 (Bezug auf einen schwarzen Kreis 22a in 3C) als die Bildkoordinaten des Objekts von Interesse in dem Umgebungsbild ausgibt. Dies liegt daran, da dreidimensionale Koordinaten, welche durch einen Wegpunkt angegeben sind, einem Punkt auf der Straße entsprechen. Falls die Bildkoordinaten entsprechend einer Position, welche als am dichtesten an der Straße aus einem durch den Erfassungsrahmen 22 umgebenen Bereich betrachtet wird, als die Position des Objekts von Interesse eingestellt sind, ist es dann möglich, einen Fehler in Zusammenhang mit der Berechnung der Position oder dergleichen des Objekts von Interesse zu verhindern.
  • Nach dem Schritt S104 in 2 projiziert der Wegpunktprojektor 161 den Wegpunkt auf das Umgebungsbild (Schritt S105). Der Wegpunktprojektor 161 erhält (oder extrahiert) insbesondere einen oder eine Mehrzahl von Wegpunkten, die in den Straßenkarteninformationen enthalten sind, aus der Kartenvorrichtung 14, basierend auf der Position der Objekterfassungsvorrichtung 100. Hier kann der erhaltene Wegpunkt einem Wegpunkt gemäß einem Punkt entsprechen, der basierend auf der Position der Objekterfassungsvorrichtung 100 in dem Umgebungsbild abgeschätzt gezeigt werden soll. Der Wegpunktprojektor 161 ist derart konfiguriert, dass dieser den erhaltenen einen oder die Mehrzahl von Wegpunkten basierend auf einem externen Parameter der Bildgebungsvorrichtung 11 (beispielsweise der Position und der Richtung der optischen Achse) und einem internen Parameter der Bildgebungsvorrichtung 11 (beispielsweise einer Linsenbrennweite, einem Pixelintervall usw.) auf das Umgebungsbild projiziert; das heißt, der Wegpunktprojektor 161 ist derart konfiguriert, dass dieser den bzw. die Wegpunkte zu den Bildkoordinaten auf dem Umgebungsbild umwandelt. 3C stellt ein Beispiel des Umgebungsbilds dar, auf welchem die Wegpunkte projiziert sind. Weiße Kreise in 3C geben die Wegpunkte an.
  • Nach dem Schritt S105 in 2 berechnet die Positions-/Abstandsschätzvorrichtung 162 die Position des Objekts von Interesse und/oder den Abstand ausgehend von dem Fahrzeug 1 hin zu dem Objekt von Interesse basierend auf den Bildkoordinaten, welche die Position des Objekts von Interesse in dem Umgebungsbild angeben, und basierend auf dem bzw. den Wegpunkten, welche auf das Umgebungsbild projiziert sind (oder schätzt diese ab) (Schritt S106). Hier wird ein Verfahren zum Berechnen der Position oder dergleichen des Objekts von Interesse unter Bezugnahme auf 3C spezifischer erläutert.
  • (Erstes Verfahren)
  • Bei einem ersten Verfahren kann die Positions-/Abstandsschätzvorrichtung 162 einen Wegpunkt gemäß Bildkoordinaten spezifizieren, die am nächsten an den Bildkoordinaten 22a, welche die Position des Objekts von Interesse in dem Umgebungsbild angeben, liegen. In 3C ist angenommen, dass ein Wegpunkt W1 als der relevante Wegpunkt spezifiziert ist. Die Positions-/Abstandsschätzvorrichtung 162 kann dreidimensionale Koordinaten, welche durch den Wegpunkt W1 angeben sind, als eine reale Position des Objekts von Interesse einstellen. Die Positions-/Abstandsschätzvorrichtung 162 kann eine Differenz zwischen den durch den Wegpunkt W1 angegebenen dreidimensionalen Koordinaten und der Position der Erfassungsvorrichtung 100 für ein Objekt von Interesse als den Abstand ausgehend von dem Fahrzeug 1 hin zu dem Objekt von Interesse berechnen.
  • (Zweites Verfahren)
  • Bei einem zweiten Verfahren kann die Positions-/Abstandsschätzvorrichtung 162 eine Mehrzahl von Wegpunkten spezifizieren, die in dem Umgebungsbild in der Umgebung des Objekts von Interesse angeordnet sind, und diese mit dem Objekt von Interesse in Verbindung bringen bzw. assoziieren. In 3C ist angenommen, dass der Wegpunkt W1 und ein Wegpunkt W2 als Wegpunkte mit den dichtesten Pixelabständen zu den Bildkoordinaten, welche die Position des Objekts von Interesse angeben, spezifiziert sind. Die Positions-/Abstandsschätzvorrichtung 162 kann die Position des Objekts von Interesse in einem realen Raum durch einen Mittelwert von dreidimensionalen Koordinaten, welche entsprechend durch die Wegpunkte W1 und W2 angegeben sind, berechnen. Hier kann der Mittelwert beispielsweise einem gewichteten Mittelwert unter Verwendung einer Gewichtung entsprechen, welcher durch Normalisieren des Kehrwerts eines Zwischen-Pixel-Abstands zwischen den Bildkoordinaten des Objekts von Interesse und den Wegpunkten W1 und W2 definiert ist. Auf den „Mittelwert“ kann nicht nur der gewichtete Mittelwert angewendet werden, sondern ebenso verschiedene existierende Mittelwerte (Verfahren), wie ein einfacher Mittelwert und ein geometrischer Mittelwert. Die Positions-/Abstandsschätzvorrichtung 162 kann eine Differenz zwischen der berechneten realen Position des Objekts von Interesse und der Position der Objekterfassungsvorrichtung 100 als den Abstand ausgehend von dem Fahrzeug 1 hin zu dem Objekt von Interesse berechnen.
  • Welches der ersten und zweiten Verfahren verwendet werden soll, kann beispielsweise gemäß der Zielgenauigkeit, einem Wegpunkt-Anordnungsintervall oder dergleichen bestimmt werden. Insbesondere falls die Wegpunkte relativ dicht angeordnet sind (beispielsweise falls die Wegpunkte bei Intervallen von einigen Metern angeordnet sind), wird das erste Verfahren in wünschenswerter Art und Weise verwendet. Falls die Wegpunkte andererseits relativ lose angeordnet sind (beispielsweise falls die Wegpunkte bei Intervallen von einigen zehn Metern oder mehr angeordnet sind), wird das zweite Verfahren in wünschenswerter Art und Weise verwendet. Das erste Verfahren erfordert den Mittelwert nicht und kann daher eine Verarbeitungslast im Vergleich zu dem zweiten Verfahren reduzieren.
  • Falls das Objekt einem Gegenstand entspricht, der selten auf einer Fahrspur vorkommt, wie beispielsweise einem Fußgänger, kann die Positions-/Abstandsschätzvorrichtung 162 die Position des Objekts von Interesse in der folgenden Art und Weise berechnen. In 3C ist beispielsweise angenommen, dass ein Fußgänger gemäß einem Erfassungsrahmen 23 dem Objekt von Interesse entspricht. Die Positions-/Abstandsschätzvorrichtung 162 kann eine Vertikalrichtungskoordinate von Bildkoordinaten 23a der Mitte einer unteren Seite des Erfassungsrahmens 23 mit einer Vertikalrichtungskoordinate von Bildkoordinaten, mit welchen der Wegpunkt in Zusammenhang steht, vergleichen.
  • Im Falle des ersten Verfahrens kann die Positions-/Abstandsschätzvorrichtung 162 den Wegpunkt, welcher in eine Vertikalrichtungskoordinate umgewandelt ist, die am dichtesten an der Vertikalrichtungskoordinate der Bildkoordinaten 23a liegt, mit dem Objekt von Interesse (das heißt, dem Fußgänger) in Verbindung bringen bzw. assoziieren. Die Positions-/Abstandsschätzvorrichtung 162 kann die Position des assoziierten bzw. zugeordneten Wegpunkts verwenden, um einen Abstand ausgehend von dem Fahrzeug 1 hin zu dem assoziierten Wegpunkt zu erhalten, und diesen auf einen Näherungsabstand des Abstands zu dem Objekt von Interesse (das heißt, dem Fußgänger) einstellen. Die Positions-/Abstandsschätzvorrichtung 162 kann ferner die Position des Objekts von Interesse (das heißt, des Fußgängers) und/oder den Abstand ausgehend von dem Fahrzeug 1 hin zu dem Objekt von Interesse aus einer Differenz zwischen einer Horizontalrichtungskoordinate der Bildkoordinaten des spezifizierten Wegpunkts und einer Horizontalrichtungskoordinate der Bildkoordinaten 23a und aus dem internen Parameter der Bildgebungsvorrichtung 11 berechnen.
  • Alternativ kann die Positions-/Abstandsschätzvorrichtung 162 im Falle des zweiten Verfahrens die Wegpunkte W1 und W3 spezifizieren, die in der Umgebung der vertikalen Richtung der Bildkoordinaten 23a angeordnet sind, und diese mit dem Objekt von Interesse (das heißt, dem Fußgänger) assoziieren bzw. in Verbindung bringen. Die Positions-/Abstandsschätzvorrichtung 162 kann die Position des Objekts von Interesse (das heißt, des Fußgängers) und/oder den Abstand ausgehend von dem Fahrzeug 1 hin zu dem Objekt von Interesse durch einen Mittelwert von dreidimensionalen Koordinaten berechnen, die entsprechend durch die Wegpunkte W1 und W3 angegeben sind.
  • Falls für die Erfassung des Fußgängers als das Objekt von Interesse ein Gesichtserkennungsverfahren verwendet wird (in diesem Fall ist der Erfassungsrahmen in der Umgebung eines Kopfes eingerichtet), unterscheidet sich eine untere Seite des Erfassungsrahmens in den meisten Fällen von einem Bodenberührungspunkt. In diesem Fall wird die Position oder dergleichen des Fußgängers als das Objekt von Interesse in gewünschter Art und Weise beispielsweise berechnet, nachdem Bildkoordinaten entsprechend dem Bodenkontaktpunkt aus der Position des Erfassungsrahmens abgeschätzt sind.
  • Bei der Ausführungsform ist ein vor dem Fahrzeug 1 fahrendes anderes Fahrzeug beispielhaft als das Objekt dargestellt, es kann jedoch ein anderes Fahrzeug, welches hinter oder neben dem Fahrzeug 1 fährt, oder dergleichen, als das Objekt von Interesse behandelt werden.
  • (Technischer Effekt)
  • Für das Verfahren zum Erfassen der Position des Objekts von Interesse, wie beispielsweise eines anderen Fahrzeugs und eines Fußgängers, der sich in der Umgebung des betreffenden Fahrzeugs befindet, ist ein Verfahren unter Verwendung eines Sensors vorgeschlagen, welcher derart konfiguriert ist, dass dieser einen Abstand misst, wie beispielsweise ein Radar and Light Detection and Ranging (LIDAR). Dieses Verfahren hat jedoch Schwierigkeiten beim Identifizieren und Erfassen eines Objekts von Interesse und ist mit relativ hohen Kosten verbunden.
  • Alternativ ist ein Verfahren unter Verwendung einer Stereokamera vorgeschlagen. Dieses Verfahren erfordert jedoch einen relativ großen Berechnungsbetrag in Zusammenhang mit der Parallaxenberechnung. Zusätzlich ist die Kalibrierung der Stereokamera erforderlich. Daher ist die Verarbeitungslast bei diesem Verfahren relativ hoch.
  • Alternativ ist für ein Verfahren unter Verwendung einer monokularen Kamera ein Verfahren vorgeschlagen, bei welchem angenommen ist, dass eine Straße eine flache Oberfläche aufweist. Beispielsweise kann ein Abstand ausgehend von einer unteren Endposition eines fotografierten Bilds hin zu einem Objekt von Interesse auf einem Parameter in Zusammenhang mit der Kamera, wie beispielsweise einer Kameraeinbauposition, einer Richtung der optischen Achse der Kamera, einem Blickwinkel und einer Brennweite, basieren. In diesem Fall ist ein Schätzfehler jedoch relativ groß, falls auf der Straßenoberfläche eine Neigung vorhanden ist. Darüber hinaus kann bei einem anderen Verfahren unter Verwendung der monokularen Kamera der Abstand aus einer Größe des Objekts von Interesse in dem fotografierten Bild und einer tatsächlichen Größe des Objekts von Interesse abgeschätzt werden. In diesem Fall ist ein Fehler des abgeschätzten Abstands aufgrund einer Variation der tatsächlichen Größe (beispielsweise falls ein Personenkraftwagen dem Objekt von Interesse besteht, variiert eine Breite davon relativ deutlich um etwa 1,4 bis 2 Meter) relativ groß.
  • Im Übrigen wird das Objekt von Interesse aus dem durch die Bildgebungsvorrichtung 11 fotografierten oder aufgenommenen Umgebungsbild auf der Objekterfassungsvorrichtung 100 erfasst. Das fotografierte Umgebungsbild besitzt eine höhere räumliche Auflösung als der Sensor, welcher konfiguriert ist, um den Abstand zu messen, und kann auch in dem Fall eine detaillierte Gestaltung erhalten, wenn das Objekt relativ weit entfernt ist. Daher ist es gemäß der Objekterfassungsvorrichtung 100 möglich, das Objekt von Interesse auf wesentlich einfachere Art und Weise zu identifizieren und zu erfassen als mit dem Sensor, welcher konfiguriert ist, um den Abstand zu messen.
  • Zusätzlich ist die Parallaxenberechnung bei Verwendung der Stereokamera nicht erforderlich, um die Position oder dergleichen des Objekts von Interesse bei der Objekterfassungsvorrichtung 100 zu berechnen. Daher ist es gemäß der Objekterfassungsvorrichtung 100 möglich, die Verarbeitungslast im Vergleich zu dem Verfahren unter Verwendung der Stereokamera zu reduzieren. Andererseits wird der in den Straßenkarteninformationen enthaltene Wegpunkt verwendet, um die Position oder dergleichen des Objekts von Interesse bei der Objekterfassungsvorrichtung 100 zu berechnen. Daher ist es im Gegensatz zu dem vorgenannten Verfahren unter Verwendung der monokularen Kamera möglich, die Position oder dergleichen des Objekts von Interesse zu berechnen, ohne durch die Straßenoberflächenneigung beeinflusst zu werden (und darüber hinaus, auch wenn die tatsächliche Größe des Objekts von Interesse nicht bekannt ist).
  • Folglich ist es gemäß der Objekterfassungsvorrichtung 100 möglich, das Objekt von Interesse mit hoher Genauigkeit zu erfassen, während die Verarbeitungslast reduziert wird, und die Position oder dergleichen des Objekts von Interesse mit relativ hoher Genauigkeit zu berechnen.
  • Die „Erfassungsvorrichtung 12 für eine eigene Position“, die „Erfassungsvorrichtung 13 für eine eigene Stellung“ und die „Kartenvorrichtung 14“ gemäß der Ausführungsform sind entsprechend ein Beispiel der „Positionserfassungsvorrichtung“, der „Schätzvorrichtung für eine optische Achse“ und dem „Kartenspeicher“ gemäß Ausführungsformen der vorliegenden Offenbarung. Der „Wegpunktprojektor 161“ und die „Positions-/Abstandsschätzvorrichtung 162“ gemäß der Ausführungsform entsprechen einem Beispiel der „Berechnungsvorrichtung“ gemäß Ausführungsformen der vorliegenden Offenbarung.
  • Die Offenbarung kann in anderen spezifischen Formen ausgeführt sein, ohne von dem Grundgedanken oder den notwendigen Eigenschaften davon abzuweichen. Die vorliegenden Ausführungsformen und Beispiele sind daher in jeglicher Hinsicht als darstellend und nicht beschränkend zu betrachten, wobei der Schutzumfang der Erfindung eher durch die beigefügten Ansprüche als durch die vorstehende Beschreibung angegeben ist, und daher sollen sämtliche Änderungen in der Bedeutung und dem Äquivalenzbereich der Ansprüche darin enthalten sein.

Claims (4)

  1. Objekterfassungsvorrichtung (100), aufweisend: eine Bildgebungsvorrichtung (11), welche derart konfiguriert ist, dass diese eine Umgebung eines betreffenden Fahrzeugs (1) abbildet und ein Umgebungsbild erhält; eine Erfassungsvorrichtung (15) für ein Objekt von Interesse, welche derart konfiguriert ist, dass diese ein Objekt von Interesse aus dem Umgebungsbild erfasst und erste Bildkoordinaten ausgibt, welche eine Position des erfassten Objekts von Interesse auf dem Umgebungsbild angeben; eine Positionserfassungsvorrichtung (12), welche derart konfiguriert ist, dass diese eine Position des betreffenden Fahrzeugs (1) erfasst; einen Kartenspeicher (14), welcher derart konfiguriert ist, dass dieser Karteninformationen einschließlich einer Mehrzahl von Koordinatenpunkten darin speichert, welche jeweils dreidimensionale Koordinaten von jeweils einem aus einer Mehrzahl von Punkten auf einer Straße angeben; und eine Berechnungsvorrichtung (161, 162), welche derart konfiguriert ist, dass diese dem Objekt von Interesse einen oder mehrere Koordinatenpunkte aus der Mehrzahl von Koordinatenpunkten basierend auf den ersten Bildkoordinaten und der Position des betreffenden Fahrzeugs (1) zuordnet, und derart konfiguriert ist, dass diese basierend auf der Position des betreffenden Fahrzeugs (1) und dem einen oder den mehreren zugeordneten Koordinatenpunkten eine Position des Objekts von Interesse in einem realen Raum und/oder einen Abstand ausgehend von dem betreffenden Fahrzeug (1) hin zu dem Objekt von Interesse berechnet.
  2. Objekterfassungsvorrichtung (100) nach Anspruch 1, aufweisend: eine Schätzvorrichtung (13) für eine optische Achse, welche derart konfiguriert ist, dass diese eine Richtung der optischen Achse der Bildgebungsvorrichtung abschätzt, wobei die Berechnungsvorrichtung (161, 162) derart konfiguriert ist, dass diese dem Objekt von Interesse den einen oder die mehrere Koordinatenpunkte aus der Mehrzahl von Koordinatenpunkten basierend auf der abgeschätzten Richtung der optischen Achse zuordnet.
  3. Objekterfassungsvorrichtung (100) nach Anspruch 1 oder 2, wobei die Berechnungsvorrichtung (161, 162) derart konfiguriert ist, dass diese den einen oder die mehreren zugeordneten Koordinatenpunkte in Bildkoordinaten des Umgebungsbilds umwandelt, und derart konfiguriert ist, dass diese aus dreidimensionalen Koordinaten, welche durch einen Koordinatenpunkt angegeben sind, der zu Bildkoordinaten umgewandelt ist, die am nächsten an den ersten Bildkoordinaten liegen, die Position des Objekts von Interesse in dem realen Raum und/oder den Abstand ausgehend von dem betreffenden Fahrzeug (1) hin zu dem Objekt von Interesse berechnet.
  4. Objekterfassungsvorrichtung (100) nach Anspruch 1 oder 2, wobei die Berechnungsvorrichtung (161, 162) derart konfiguriert ist, dass diese: dem Objekt von Interesse zwei oder mehr Koordinatenpunkte aus der Mehrzahl von Koordinatenpunkten basierend auf den ersten Bildkoordinaten und der Position des betreffenden Fahrzeugs (1) zuordnet, und die Position des Objekts von Interesse in dem realen Raum und/oder den Abstand ausgehend von dem betreffenden Fahrzeug (1) hin zu dem Objekt von Interesse durch einen Mittelwert unter Verwendung von dreidimensionalen Koordinaten, welche entsprechend durch zumindest zwei Koordinatenpunkte aus den zugeordneten zwei oder mehr Koordinatenpunkten angegeben sind, berechnet.
DE102018108027.1A 2017-04-07 2018-04-05 Objekterfassungsvorrichtung Active DE102018108027B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017076871A JP6589926B2 (ja) 2017-04-07 2017-04-07 物体検出装置
JP2017-076871 2017-04-07

Publications (2)

Publication Number Publication Date
DE102018108027A1 true DE102018108027A1 (de) 2018-10-11
DE102018108027B4 DE102018108027B4 (de) 2024-04-18

Family

ID=63588189

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018108027.1A Active DE102018108027B4 (de) 2017-04-07 2018-04-05 Objekterfassungsvorrichtung

Country Status (4)

Country Link
US (1) US10909395B2 (de)
JP (1) JP6589926B2 (de)
CN (1) CN108692719B (de)
DE (1) DE102018108027B4 (de)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019202627A1 (ja) * 2018-04-16 2019-10-24 三菱電機株式会社 障害物検出装置、障害物検出装置を利用した自動ブレーキ装置、障害物検出方法、および障害物検出方法を利用した自動ブレーキ方法
JP2020013332A (ja) * 2018-07-18 2020-01-23 トヨタ自動車株式会社 画像認識装置
US10650548B1 (en) * 2019-01-30 2020-05-12 StradVision, Inc. Method and device for localization of autonomous vehicle for route planning by using attention-driven landmark detection
US11386671B2 (en) * 2019-06-25 2022-07-12 Zoox, Inc. Refining depth from an image
JP7267874B2 (ja) * 2019-08-27 2023-05-02 本田技研工業株式会社 交通流推定装置、交通流推定方法、およびプログラム
JP7321035B2 (ja) * 2019-08-30 2023-08-04 日産自動車株式会社 物体位置検出方法及び物体位置検出装置
CN111368794B (zh) * 2020-03-19 2023-09-19 北京百度网讯科技有限公司 障碍物检测方法、装置、设备和介质
CN112325780B (zh) * 2020-10-29 2022-01-25 青岛聚好联科技有限公司 一种基于社区监控的距离测算方法及装置
CN112356815B (zh) * 2020-12-01 2023-04-25 吉林大学 一种基于单目相机的行人主动避撞系统及方法
JP2023136923A (ja) * 2022-03-17 2023-09-29 Kyb株式会社 演算装置、演算方法及びプログラム
KR102498028B1 (ko) * 2022-08-30 2023-02-10 주식회사 에프에스네트웍스 감시 카메라 시스템 및 그 시스템 사용 방법

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100520166B1 (ko) * 2003-03-14 2005-10-10 삼성전자주식회사 네비게이션시스템에서 이동체의 위치검출장치 및 그 방법
JP2006208223A (ja) * 2005-01-28 2006-08-10 Aisin Aw Co Ltd 車両位置認識装置及び車両位置認識方法
US8164628B2 (en) * 2006-01-04 2012-04-24 Mobileye Technologies Ltd. Estimating distance to an object using a sequence of images recorded by a monocular camera
JP4724043B2 (ja) * 2006-05-17 2011-07-13 トヨタ自動車株式会社 対象物認識装置
JP4956453B2 (ja) 2008-01-25 2012-06-20 富士重工業株式会社 物体検出装置
DE102008007347A1 (de) 2008-02-04 2009-08-06 Robert Bosch Gmbh Vorrichtung und Verfahren zum Bestimmen der Position eines anderen Verkehrsteilnehmers
WO2010097916A1 (ja) * 2009-02-25 2010-09-02 トヨタ自動車株式会社 車載情報処理装置及び情報処理方法
KR101043450B1 (ko) * 2009-07-31 2011-06-21 삼성전기주식회사 카메라를 이용한 위치와 거리 측정장치 및 위치와 거리 측정방법
EP2551638B1 (de) 2011-07-27 2013-09-11 Elektrobit Automotive GmbH Technik zur Berechnung eines Orts eines Fahrzeugs
JP5834933B2 (ja) * 2012-01-17 2015-12-24 日産自動車株式会社 車両位置算出装置
JP5590064B2 (ja) * 2012-04-04 2014-09-17 株式会社デンソー 車両用無線通信装置
KR102021050B1 (ko) * 2012-06-06 2019-09-11 삼성전자주식회사 내비게이션 정보를 제공하는 방법, 기계로 읽을 수 있는 저장 매체, 이동 단말 및 서버
CN102788591B (zh) * 2012-08-07 2015-05-13 郭磊 基于视觉信息的机器人沿引导线巡线导航方法
CN103903246A (zh) * 2012-12-26 2014-07-02 株式会社理光 物体检测方法和装置
US10215583B2 (en) * 2013-03-15 2019-02-26 Honda Motor Co., Ltd. Multi-level navigation monitoring and control
EP3100206B1 (de) * 2014-01-30 2020-09-09 Mobileye Vision Technologies Ltd. Systeme und verfahren zur detektion des endes einer fahrspur
JP2015215299A (ja) * 2014-05-13 2015-12-03 株式会社デンソー 対象物位置推定装置
US10274958B2 (en) * 2015-01-22 2019-04-30 Bae Systems Information And Electronic Systems Integration Inc. Method for vision-aided navigation for unmanned vehicles
JP6457278B2 (ja) * 2015-01-23 2019-01-23 トヨタ自動車株式会社 物体検出装置及び物体検出方法
JP6464783B2 (ja) * 2015-02-04 2019-02-06 株式会社デンソー 物体検出装置
JP6570344B2 (ja) 2015-07-01 2019-09-04 株式会社Ihiエアロスペース 経路生成方法とシステム
EP3410415B1 (de) * 2016-01-28 2020-11-18 Ricoh Company, Ltd. Bildverarbeitungsvorrichtung, bildgebungsvorrichtung, steuerungssystem für einen bewegten körper und bildverarbeitungsprogramm
JP2018092354A (ja) * 2016-12-02 2018-06-14 富士通株式会社 物体検出装置および物体検出方法

Also Published As

Publication number Publication date
CN108692719A (zh) 2018-10-23
US20180293450A1 (en) 2018-10-11
DE102018108027B4 (de) 2024-04-18
US10909395B2 (en) 2021-02-02
CN108692719B (zh) 2022-04-01
JP6589926B2 (ja) 2019-10-16
JP2018180772A (ja) 2018-11-15

Similar Documents

Publication Publication Date Title
DE102018108027B4 (de) Objekterfassungsvorrichtung
DE102015005267B4 (de) Informationsverarbeitungsvorrichtung, Verfahren dafür und Messvorrichtung
EP2757346B1 (de) Verfahren zum Messen eines Höhenprofils eines auf einer Straße passierenden Fahrzeugs
DE102014012285A1 (de) Verfahren und Achsenzähl-Vorrichtung zur berührungslosen Achsenzählung eines Fahrzeugs sowie Achsenzählsystem für den Straßenverkehr
DE102013211930A1 (de) Binokulares Objektvergleichsverfahren mit breiter Basislinie unter Verwendung eines Flussnetzes mit minimalen Kosten
DE102008042145A1 (de) Verfahren und Messanordnung zum Bestimmen der Rad-oder Achsgeometrie eines Fahrzeugs
WO2002103385A1 (de) Verfahren zur bereitstellung von bildinformationen
DE112010004767T5 (de) Punktwolkedaten-Verarbeitungsvorrichtung, Punktwolkedaten-Verarbeitungsverfahren und Punktwolkedaten-Verarbeitungsprogramm
WO2017206999A1 (de) Verfahren zur auswertung von bilddaten einer fahrzeugkamera
EP2821750A1 (de) Positionsbestimmungsverfahren für ein Vermessungsgerät und ebensolches Vermessungsgerät
DE102010020867A1 (de) Strassenform-Erkennungsvorrichtung
DE102016225595A1 (de) Verfahren und Anordnung zur Kalibrierung mindestens eines Sensors eines Schienenfahrzeugs
DE102011111440A1 (de) Verfahren zur Umgebungsrepräsentation
DE112019001542T5 (de) Positionsschätzvorrichtung
DE112018004529T5 (de) Positionsschätzeinrichtung und positionsschätzverfahren einer mobileinheit
DE102007013664A1 (de) Multisensorieller Hypothesen-basierter Objektdetektor und Objektverfolger
DE10154861A1 (de) Verfahren zur Bereitstellung von Bildinformationen
EP3104330A1 (de) Verfahren zum nachverfolgen zumindest eines objektes und verfahren zum ersetzen zumindest eines objektes durch ein virtuelles objekt in einem von einer kamera aufgenommenen bewegtbildsignal
DE102016119626A1 (de) Automatische dreidimensionale Geolokation von SAR-Targets und gleichzeitige Schätzung troposphärischer Ausbreitungsverzögerungen mittels zweier SAR-Bilder mit langer Apertur
DE102015211874A1 (de) Objekterkennungsvorrichtung
DE102018204451A1 (de) Verfahren und Vorrichtung zur Autokalibrierung eines Fahrzeugkamerasystems
DE102018123393A1 (de) Erkennung von Parkflächen
DE112021004793T5 (de) Vorrichtung für dreidimensionale Messungen
EP3614299A1 (de) Verfahren und anordnung zum erkennen von objekten an anlagen
DE102009028742A1 (de) Verfahren und Steuergerät zur Bestimmung einer Bewegungsinformation eines Objekts

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: B60W0030080000

Ipc: G08G0001160000

R018 Grant decision by examination section/examining division