DE102020207490A1 - Objektabstandsmessvorrichtung und Verfahren - Google Patents

Objektabstandsmessvorrichtung und Verfahren Download PDF

Info

Publication number
DE102020207490A1
DE102020207490A1 DE102020207490.9A DE102020207490A DE102020207490A1 DE 102020207490 A1 DE102020207490 A1 DE 102020207490A1 DE 102020207490 A DE102020207490 A DE 102020207490A DE 102020207490 A1 DE102020207490 A1 DE 102020207490A1
Authority
DE
Germany
Prior art keywords
vehicle
distance
camera
distance measuring
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020207490.9A
Other languages
English (en)
Inventor
Kee Beom KIM
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hyundai Mobis Co Ltd
Original Assignee
Hyundai Autron Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hyundai Autron Co Ltd filed Critical Hyundai Autron Co Ltd
Publication of DE102020207490A1 publication Critical patent/DE102020207490A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/90Lidar systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/543Depth or shape recovery from line drawings
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0253Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Measurement Of Optical Distance (AREA)
  • Traffic Control Systems (AREA)

Abstract

Eine Objektabstandsmessvorrichtung kann folgendes umfassen: eine Kamera, die eingerichtet ist, ein Bild eines Bereiches um ein Fahrzeug herum zu erfassen; einen Abstandssensor, der eingerichtet ist, einen Abstand zu einem Objekt durch Abtasten um das Fahrzeug herum zu erfassen; und eine Abstandsmesseinheit, die eingerichtet ist, einen Fahrzeugbewegungsabstand unter Verwendung von Fahrzeuginformationen, die durch den Betrieb des Fahrzeugs erzeugt werden, zu erfassen und den Abstand zu dem Objekt als Reaktion auf jedes der Einzelbilder zwischen Abtastperioden des Abstandssensors unter den Einzelbildern des Bildes auf der Grundlage des Fahrzeugbewegungsabstands und der Ortspixelkoordinaten des Objekts innerhalb des Bildes vor und nach der Bewegung des Fahrzeugs zu messen.

Description

  • HINTERGRUND
  • Technisches Gebiet
  • Beispielhafte Ausführungsformen der vorliegenden Offenbarung betreffen eine Vorrichtung und ein Verfahren zur Messung eines Objektabstands, insbesondere eine Vorrichtung und ein Verfahren zur Messung eines Objektabstands, die unzureichende Abstandsinformationen aufgrund eines Unterschieds in der Bildwiederholrate zwischen durch eine Kamera erfasste Bildinformationen und durch einen Lidarsensor erfasste LidarInformationen interpolieren kann, indem Fahrzeugbetriebsinformationen auf die Epipolargeometrie angewendet werden.
  • Stand der Technik
  • Mit der Entwicklung der Elektroniktechnologie, der Verschärfung verkehrssicherheitsrelevanter Vorschriften und dem Verlangen der Verbraucher nimmt die Anwendung intelligenter Systeme in Fahrzeugen schnell zu. Verschiedene Arten von ADASs (erweiterte Fahrerassistenzsysteme, Advanced Driver Assistance Systems) werden für die Sicherheit/de Komfort von Fahrern eingesetzt. Beispiele für ADAS umfassen ein Front-/Rückfahrkamerasystem zur einfachen Sicherung der Fahrtsicht, ein System zur Warnung beim Verlassen der Fahrspur und ein System zur automatischen Sicherung des Sicherheitsabstands zu einem vorausfahrenden Fahrzeug. Darüber hinaus kommt ein aktives Sicherheitssystem zum Einsatz, das automatisch eine Bremseinrichtung betätigt, um eine Frontalkollision zu verhindern oder Kollisionsschäden zu reduzieren, wenn die Wahrscheinlichkeit einer Frontalkollision besteht. Das aktive Sicherheitssystem basiert auf der schnellen Entwicklung der Sensorerkennungstechnologie. Darüber hinaus wird der Erkennungstechnologie aufgrund der autonomen Fahrtechnologie, die im Automobilbereich Aufmerksamkeit erregt, in letzter Zeit viel Aufmerksamkeit gewidmet.
  • Im Allgemeinen ist ein konventioneller Objektsensor als Ultraschallsensor ausgestaltet und in den vorderen und hinteren Stoßfängern eines Fahrzeugs montiert. Der Objektsensor kann ein Objekt innerhalb eines vorgegebenen Abstands erfassen und einen Warnton ausgeben, um eine Kollision zwischen Objekt und Fahrzeug zu verhindern.
  • Üblicherweise sind verschiedene Verfahren zur Messung des Abstands zwischen einem Fahrzeug und einem Objekt bekannt. Beispiele für die verschiedenen Verfahren können ein Verfahren zur Messung eines Abstands von einem Fahrzeug zu einem Objekt durch Verarbeitung von Bildern, die durch eine Stereokamera aufgenommen wurden, oder ein Verfahren zur Messung eines Abstands von einem Fahrzeug zu einem Objekt als Reaktion auf die Größe des Objekts in einem durch eine einzige Kamera aufgenommenen Bildes sein. Benutzer möchten jedoch nicht die teure und schwer zu wartende Stereokamera anbringen, um lediglich eine Entfernung zu messen. Um eine Entfernung als Reaktion auf die Größe eines Objekts zu messen, muss außerdem eine Datenbank mit großer Kapazität aufgebaut werden, damit das Objekt genau erkannt werden kann.
  • Daher besteht ein Bedarf an einer Technik, die in der Lage ist, mit einer einzigen Rückfahrkamera, die in den meisten Fahrzeugen installiert ist, komfortabel und kostengünstig eine Entfernung zu einem Objekt zu messen.
  • Der damit verbundene Stand der Technik der vorliegenden Offenbarung ist in der koreanischen Patentanmeldung Nr. 10-2018-0126224 offenbart, die am 27. November 2018 veröffentlicht wurde und den Titel „ Fahrzeughandhabungsverfahren und Vorrichtungen beim Fahren von Fahrzeugen“ trägt.
  • ZUSAMMENFASSUNG
  • Verschiedene Ausführungsformen sind auf eine Objektabstandsmessvorrichtung und ein Verfahren gerichtet, die unzureichende Abstandsinformationen aufgrund eines Unterschieds in der Bildwiederholrate zwischen Bildinformationen, die durch eine Kamera erfasst werden, und Lidarinformationen, die durch einen Lidarsensor erfasst werden, interpolieren kann, indem Fahrzeugbetriebsinformationen auf die Epipolargeometrie angewendet werden.
  • In einer Ausgestaltung kann eine Objektabstandsmessvorrichtung folgendes umfassen: eine Kamera, die eingerichtet ist, ein Bild eines Bereichs um ein Fahrzeug herum zu erfassen; einen Abstandssensor, der eingerichtet ist, einen Abstand zu einem Objekt durch Abtasten um das Fahrzeug herum zu erfassen; und eine Abstandsmesseinheit, die eingerichtet ist, einen Fahrzeugbewegungsabstand unter Verwendung von Fahrzeuginformationen zu erfassen, die durch den Betrieb des Fahrzeugs erzeugt werden, und den Abstand zum Objekt in Reaktion auf jedes der Einzelbilder zwischen Abtastperioden des Abstandssensors unter den Einzelbildern des Bildes auf der Grundlage des Fahrzeugbewegungsabstands und der Ortspixelkoordinaten des Objekts innerhalb des Bildes vor und nach der Bewegung des Fahrzeugs zu messen.
  • Die Objektabstandsmessvorrichtung kann ferner eine Bestimmungseinheit umfassen, die eingerichtet ist, eine Kamerafrequenz der Kamera und eine Abtastfrequenz des Abstandssensors zu vergleichen und zu bestimmen, ob der Abstand zum Objekt für jedes der Einzelbilder des Bildes interpoliert werden soll.
  • Die Fahrzeuginformationen können wenigstens eine Fahrzeugbewegungsdistanz, einen Lenkwinkel, eine Fahrzeuggeschwindigkeit und eine Fahrzeit umfassen.
  • Die Objektabstandsmessvorrichtung kann ferner eine Abbildungseinheit umfassen, die eingerichtet ist, den Abstand zum Objekt, der jedem der Einzelbilder zwischen den Abtastperioden des Abstandssensors unter den Einzelbildern des Bildes entspricht, auf jedes der Einzelbilder zwischen den Abtastperioden des Abstandssensors abzubilden.
  • Zur Berechnung des Abstands zum Objekt kann die Abstandsmesseinheit den Fahrzeugbewegungsabstand auf der Grundlage eines Bewegungsabstands, eines Lenkwinkels und eines Bewegungswinkels zwischen den Teilen der Fahrzeuginformationen berechnen, die von einer ESE (Elektronische Steuereinheit) des Fahrzeugs empfangen werden. Der Fahrzeugbewegungsabstand kann die Länge einer geraden Linie sein, die den Standort des Fahrzeugs vor Beginn der Bewegung des Fahrzeugs mit dem Standort des Fahrzeugs nach der vollständigen Bewegung des Fahrzeugs verbindet.
  • Zur Berechnung des Abstands zum Objekt kann die Abstandsmesseinheit ein erstes virtuelles Dreieck erzeugen, von dem eine Seite auf den berechneten Fahrzeugbewegungsabstand und eine andere Seite auf den Radius eines virtuellen Kreises eingestellt ist, der einem Kreisbogen entspricht, entlang dem sich das Fahrzeug bewegt. Der Bewegungswinkel kann in Abhängigkeit von der Länge und dem Radius des Kreisbogens, auf dem sich das Fahrzeug bewegt, bestimmt werden und der Radius kann in Abhängigkeit vom Lenkwinkel bestimmt warden und zuvor in Form einer Tabelle in einem internen Speicher gespeichert werden.
  • Das erste virtuelle Dreieck kann ein virtuelles Dreieck sein, dessen Scheitelpunkte auf den Standort der Kamera vor der Bewegung des Fahrzeugs, den Standort der Kamera nach der Bewegung des Fahrzeugs und den Standort eines Kontaktpunkts zwischen parallelen Linien, die eine Stoßstange des Fahrzeugs vor der Bewegung und die Stoßstange des Fahrzeugs nach der Bewegung tangieren, wenn die parallelen Linien zur Innenseite des Lenkwinkels hin verlängert werden, gesetzt werden, wobei die Innenseite des Lenkwinkels der Innenseite des virtuellen Kreises entspricht, wenn sich das Fahrzeug in Form eines Kreisbogens bewegt.
  • Wenn das erste virtuelle Dreieck erzeugt wird, kann die Abstandsmesseinheit ein zweites virtuelles Dreieck erzeugen, das sich eine Seite des ersten virtuellen Dreiecks teilt, um den Abstand zum Objekt auf der Grundlage der Informationen des ersten virtuellen Dreiecks zu berechnen.
  • Das zweite virtuelle Dreieck kann eine Seite, die einer geraden Linie entspricht, welche die Standorte der Kamera des Fahrzeugs vor und nach der Bewegung des Fahrzeugs verbindet, unter den drei Seiten teilen, die das erste virtuelle Dreieck bilden, und ein virtuelles Dreieck sein, dessen Scheitelpunkte auf den Standort der Kamera vor der Bewegung des Fahrzeugs, den Standort der Kamera nach der Bewegung des Fahrzeugs und den Mittelpunkt des Objekts, der einem Ziel der Abstandsmessung entspricht, gesetzt werden.
  • Die Abstandsmesseinheit kann die Längen der beiden Seiten, die das zweite virtuelle Dreieck bilden, berechnen, indem diese den Standort des Objekts in den Bildern, die von der Kamera vor und nach der Bewegung des Fahrzeugs erfasst werden, auf eine Epipolargeometrie anwendet, und als Abstand zum Objekt die Länge einer Seite berechnen, die einer geraden Linie entspricht, die den Mittelpunkt des Objekts mit dem Standort der Kamera nach der Bewegung des Fahrzeugs unter den drei Seiten verbindet, die das zweite virtuelle Dreieck bilden.
  • Der Abstandssensor kann ein Lidarsensor sein.
  • In einer Ausgestaltung kann ein Verfahren zum Messen eines Objektabstands folgendes umfassen: Erfassen eines Bildes eines Bereiches um ein Fahrzeug herum mit einer Kamera; Erfassen eines Abstandes zu einem Objekt durch Abtasten um das Fahrzeug herum mit einem Abstandssensor; und Erfassen eines Fahrzeugbewegungsabstandes durch eine Abstandsmesseinheit unter Verwendung von Fahrzeuginformationen, die durch den Betrieb des Fahrzeugs erzeugt werden, und Messen des Abstandes zu dem Objekt als Reaktion auf jedes der Einzelbilder zwischen Abtastperioden des Abstandssensors unter Einzelbildern des Bildes auf der Grundlage des Fahrzeugbewegungsabstands und der Ortspixelkoordinaten des Objektes innerhalb des Bildes vor und nach der Bewegung des Fahrzeugs.
  • Die Vorrichtung und das Verfahren zur Messung des Objektabstands gemäß der Ausgestaltung der vorliegenden Offenbarung können Fahrzeugbetriebsinformationen auf die Epipolargeometrie anwenden, um unzureichende Abstandsinformationen aufgrund eines Unterschieds in der Bildwiederholrate zwischen den durch die Kamera erfassten Bildinformationen und den durch den Lidarsensor erfassten Lidarinformationen zu interpolieren. Dadurch können die Vorrichtung und das Verfahren zur Messung des Objektabstands komfortabel und kostengünstig eine Entfernung zu einem Objekt messen und den Effekt einer Stereokamera mit einer Kamera erreichen.
  • Figurenliste
    • 1 ist ein Blockdiagramm, das eine Objektabstandsmessvorrichtung gemäß einer Ausgestaltung der vorliegenden Offenbarung zeigt.
    • 2 ist ein Diagramm, das ein Abtastverfahren eines Lidarsensors in einem Aufnahmebereich einer Kamera gemäß der Ausgestaltung der vorliegenden Offenbarung zeigt.
    • 3 ist ein Diagramm, das eine unzureichende Abstandsinformation aufgrund eines Unterschieds in der Bildwiederholrate zwischen der Bildinformation und der durch den Lidarsensor erfassten Lidarinformation gemäß der Ausgestaltung der vorliegenden Offenbarung zeigt.
    • 4 ist ein Diagramm zur Beschreibung eines Verfahrens zur Erzeugung eines ersten virtuellen Dreiecks durch Berechnung eines Fahrzeugbewegungsabstands gemäß der Ausgestaltung der vorliegenden Offenbarung.
    • 5 ist ein Diagramm zur Beschreibung eines Verfahrens zur Erzeugung des ersten virtuellen Dreiecks unter Verwendung einer Lenkwinkel- und Radiusinformation gemäß der Ausgestaltung der vorliegenden Offenbarung.
    • 6 ist ein Diagramm zur Beschreibung eines Verfahrens zur Erzeugung eines zweiten virtuellen Dreiecks zur Berechnung eines Abstands zu einem Objekt gemäß der Ausgestaltung der vorliegenden Offenbarung.
    • 7 ist ein Diagramm zur Beschreibung eines Verfahrens zur Berechnung eines Abstands zu einem Objekt auf der Grundlage der Epipolargeometrie und des zweiten virtuellen Dreiecks gemäß der Ausgestaltung der vorliegenden Offenbarung.
    • 8 ist ein Flussdiagramm, das ein Verfahren zur Messung des Abstands zu einem Objekt gemäß einer Ausgestaltung der vorliegenden Offenbarung zeigt.
  • DETAILIERTE BESCHREIBUNG DER DARGESTELLTEN AUSFÜHRUNGSFORMEN
  • Nachfolgend werden eine Objektabstandsmessvorrichtung und ein Verfahren anhand der begleitenden Abbildungen durch verschiedene exemplarische Ausführungsformen beschrieben.
  • Es ist zu beachten, dass die Abbildungen nicht maßstabsgerecht sind und dass die Dicke der Linien oder die Größe der Komponenten nur aus Gründen der Anschaulichkeit und Klarheit übertrieben sein können. Darüber hinaus werden die hier verwendeten Begriffe unter Berücksichtigung der Funktionen der Erfindung definiert und können je nach Gewohnheit oder Absicht der Benutzer oder Betreiber geändert werden. Daher sollte die Definition der Begriffe anhand den hier dargelegten allgemeinen Offenbarungen erfolgen.
  • Wie allgemein im Stand der Technik bekannt, können einige beispielhafte Ausführungsformen in den beiliegenden Abbildungen unter dem Gesichtspunkt von Funktionsblöcken, Einheiten und/oder Modulen dargestellt sein. Der Fachmann wird verstehen, dass solche Blöcke, Einheiten und/oder Module physikalisch durch elektronische (oder optische) Schaltungen wie Logikschaltungen, diskrete Komponenten, Prozessoren, fest verdrahtete Schaltungen, Speicherbausteine und Kabelverbindungen implementiert sind. Wenn die Blöcke, Einheiten und/oder Module durch Prozessoren oder andere ähnliche Hardware implementiert sind, können die Blöcke, Einheiten und Module durch Software (z.B. Codes) programmiert und gesteuert werden, um verschiedene in dieser Beschreibung diskutierte Funktionen auszuführen. Darüber hinaus kann jeder der Blöcke, Einheiten und/oder Module durch zugehörige Hardware oder eine Kombination aus zugehöriger Hardware zum Ausführen einiger Funktionen und einem Prozessor zur Ausführung einer anderen Funktion (z.B. ein oder mehrere programmierte Prozessoren und zugehörige Schaltungen) implementiert sein. In einigen beispielhaften Ausführungsformen kann jeder der Blöcke, Einheiten und/oder Module physisch in zwei oder mehr Blöcke, Einheiten und/oder Module unterteilt sein, die interaktiv und getrennt sind, ohne vom Umfang der Offenbarung abzuweichen. Darüber hinaus können Blöcke, Einheiten und/oder Module in einigen beispielhaften Ausführungsformen physisch zu einem komplexeren Block, einer komplexeren Einheit und/oder einem komplexeren Modul gekoppelt sein, ohne vom Umfang der Offenbarung abzuweichen.
  • 1 ist ein Blockdiagramm, das eine Objektabstandsmessvorrichtung gemäß einer Ausgestaltung der vorliegenden Offenbarung zeigt, 2 ist ein Diagramm, das ein Abtastverfahren eines Lidarsensors in einem Aufnahmebereich einer Kamera gemäß der Ausgestaltung der vorliegenden Offenbarung zeigt, 3 ist ein Diagramm, das unzureichende Abstandsinformationen aufgrund eines Unterschieds in der Bildwiederholrate zwischen Bildinformationen und Lidarinformationen, die durch den Lidarsensor gemäß der Ausgestaltung der vorliegenden Offenbarung erfasst wurden, veranschaulicht, 4 ist ein Diagramm zur Beschreibung eines Verfahrens zur Erzeugung eines ersten virtuellen Dreiecks durch Berechnung eines Fahrzeugbewegungsabstands gemäß der Ausgestaltung der vorliegenden Offenbarung, 5 ist ein Diagramm zur Beschreibung eines Verfahrens zur Erzeugung des ersten virtuellen Dreiecks unter Verwendung einer Lenkwinkel- und Radiusinformation gemäß der Ausgestaltung der vorliegenden Offenbarung, 6 ist ein Diagramm zur Beschreibung eines Verfahrens zur Erzeugung eines zweiten virtuellen Dreiecks zur Berechnung eines Abstands zu einem Objekt gemäß der Ausgestaltung der vorliegenden Offenbarung und 7 ist ein Diagramm zur Beschreibung eines Verfahrens zur Berechnung eines Abstands zu einem Objekt auf der Grundlage der Epipolargeometrie und des zweiten virtuellen Dreiecks gemäß der Ausgestaltung der vorliegenden Offenbarung.
  • Unter Bezugnahme auf 1 umfasst die Objektabstandsmessvorrichtung gemäß der Ausgestaltung der vorliegenden Offenbarung eine Kamera 10, einen Lidarsensor 20, eine Bestimmungseinheit 30, eine Abstandsmesseinheit 40 und eine Abbildungseinheit 50.
  • Die Kamera 10 ist in einem Fahrzeug installiert, um ein Bild eines vorderen Bereichs des Fahrzeugs zu erfassen. Die Kamera 10 kann z.B. 60 Bilder pro Sekunde bei einer Kamerafrequenz von 60 Hz aufnehmen. Als Referenz wurde in der vorliegenden Ausgestaltung beschrieben, dass 60 Bilder bei einer Kamerafrequenz von 60 Hz erfasst werden, die vorliegende Offenbarung ist jedoch nicht darauf beschränkt. Beispielsweise kann eine Kamera mit einer Kamerafrequenz von 30 Hz als Kamera 10 verwendet werden.
  • Der Lidarsensor 20 misst einen Abstand zu einem Objekt, indem dieser einen Laser in den vorderen Bereich des Fahrzeugs emittiert und den vom Objekt reflektierten und zurückkehrenden Laser empfängt.
  • Der Lidarsensor 20 umfasst eine Sendeeinheit (nicht abgebildet) zum Emittieren von Laser in den vorderen Bereich des Fahrzeugs, eine Dreheinheit (nicht abgebildet) zum Drehen der Sendeeinheit um einen voreingestellten Winkel, eine Empfangseinheit (nicht abgebildet) zum Empfangen des vom Objekt reflektierten und zurückkehrenden Lasers, nachdem der Laser von der Sendeeinheit emittiert wurde, und einen Abstandsmesser (nicht abgebildet) zum Messen des Abstands zu dem Objekt vor dem Fahrzeug unter Verwendung einer Zeitdifferenz zwischen dem Zeitpunkt, zu dem der Laser von der Sendeeinheit emittiert wurde, und dem Zeitpunkt, zu dem der Laser von der Empfangseinheit empfangen wurde, wenn der Laser von der Empfangseinheit empfangen wird.
  • Der Lidarsensor 20 emittiert Laser in einen Aufnahmebereich, der von der Kamera 10 abgedeckt wird. Gemäß 2 kann der Lidarsensor 20 Laser in den Aufnahmebereich emittieren, in dem ein Bild von der Kamera 10 aufgenommen wird. In diesem Fall kann der Lidarsensor 20 um den voreingestellten Winkel in Bezug auf den Aufnahmebereich gedreht werden (①, ②, ③ und ④), um einen Abstand zu einem im Aufnahmebereich befindlichen Objekt zu messen. Der Lidarsensor 20 tastet das Objekt mit einer Abtastfrequenz von 10 Hz ab.
  • Wenn die Kamera 10 ein Bild mit einer Kamerafrequenz von 60 Hz aufnimmt und der Lidarsensor 20 ein Objekt mit einer Abtastfrequenz von 10 Hz abtastet, können ein erstes Einzelbild, siebtes Einzelbild, 13. Einzelbild, 19. Einzelbild, 25. Einzelbild, 31. Einzelbild, 37. Einzelbild, ein 43. Einzelbild und ein 55. Einzelbild unter den Bildern der Kamera 10 auf die Abtastdaten (Abstand zum Objekt) des Lidarsensors 20 abgebildet werden, jedoch können die anderen Einzelbilder nicht auf die Abtastdaten des Lidarsensors 20 abgebildet werden, wie in 3 dargestellt.
  • D.h. die Einzelbilder der Kamera 10 zwischen den Abtastperioden des Lidarsensors 20, d.h. das zweite bis sechste Einzelbild, achte bis zwölfte Einzelbild, 14te bis 18te Einzelbild, 20te bis 24te Einzelbild, 26te bis 30te Einzelbild, 32te bis 36te Einzelbild, 38te bis 42te Einzelbild, 44te bis 48te Einzelbild, 50te bis 54te Einzelbild und 56te bis 60te Einzelbild, können nicht auf die Abtastdaten abgebildet werden. Folglich haben die entsprechenden Einzelbilder keine Informationen über den Abstand zum Objekt.
  • Basierend auf einem Bewegungsabstand eines Fahrzeugs und den Ortspixelkoordinaten des Objekts in Bildern vor und nach der Bewegung des Fahrzeugs misst die Abstandsmesseinheit 40 daher den Abstand zum Objekt als Antwort auf jedes der Einzelbilder zwischen den Abtastperioden des Lidarsensors 20, das heißt das zweite bis sechste Einzelbild, das achte bis 12te Einzelbild, das 14te bis 18te Einzelbild, das 20te bis 24te Einzelbild, das 26te bis 30te Einzelbild, das 32te bis 36te Einzelbild, das 38te bis 42te Einzelbild, das 44te bis 48te Einzelbild, das 50te bis 54te Einzelbild und das 56te bis 60te Einzelbild unter den Einzelbildern des Bildes.
  • Vor der Abstandsmessung vergleicht die Bestimmungseinheit 30 die Kamerafrequenz der Kamera 10 und die Abtastfrequenz des Lidarsensors 20 und bestimmt, ob der Abstand zum Objekt für jedes Einzelbild des Bildes interpoliert werden soll.
  • Das heißt, wenn ein Bild von der Kamera 10 aufgenommen und das Objekt vom Lidarsensor 20 abgetastet wird, vergleicht die Bestimmungseinheit 30 die Kamerafrequenz der Kamera 10 und die Abtastfrequenz des Lidarsensors 20 und bestimmt, ob der Abstand zum Objekt je nachdem, ob die Kamerafrequenz der Kamera 10 und die Abtastfrequenz des Lidarsensors 20 übereinstimmen, interpoliert werden soll. Wenn sich beispielsweise die Kamerafrequenz der Kamera 10 und die Abtastfrequenz des Lidarsensors 20 voneinander unterscheiden, entscheidet die Bestimmungseinheit 30, den Abstand zum Objekt für jedes der Einzelbilder zwischen den Abtastperioden des Lidarsensors 20 unter den Einzelbildern des Bildes zu interpolieren.
  • Wenn die Bestimmungseinheit 30 entscheidet, den Abstand zum Objekt für jedes der Einzelbilder zwischen den Abtastperioden des Lidarsensors 20 unter den Einzelbildern des Bildes zu interpolieren, erfasst die Abstandsmesseinheit 40 einen Fahrzeugbewegungsabstand unter Verwendung von Fahrzeuginformationen, die durch den Betrieb des Fahrzeugs erzeugt werden, und misst den Abstand zum Objekt als Reaktion auf jedes der Einzelbilder zwischen den Abtastperioden des Lidarsensors 20 unter den Einzelbildern des Bildes, basierend auf dem Fahrzeugbewegungsabstand und den Ortspixelkoordinaten des Objekts im Bild vor und nach der Bewegung des Fahrzeugs.
  • Insbesondere wählt die Abstandsmesseinheit 40 die Ortspixelkoordinate des Objekts im Bild aus, um den Abstand zum Objekt im Bild zu messen, und das entsprechende Objekt kann ein vom Lidarsensor 20 abgemessener Bereich sein.
  • Wenn das Objekt ausgewählt wird, empfängt die Abstandsmesseinheit 40 Fahrzeuginformationen (z.B. Bewegungsabstand, Lenkwinkel, Fahrzeuggeschwindigkeit, Fahrzeit und dergleichen), die durch den Betrieb des Fahrzeugs erzeugt werden, durch Kommunikation mit einer ESE (Elektronische Steuereinheit) im Fahrzeug.
  • Die Abstandsmesseinheit 40 empfängt die Fahrzeuginformationen (z.B. Fahrweg- und Lenkwinkelinformationen) und erzeugt ein virtuelles Dreieck (erstes virtuelles Dreieck) zur Berechnung des Abstands zum Objekt, d.h. des Abstands von der Kamera 10 des Fahrzeugs zum Objekt, wie in 4 dargestellt.
  • Zu diesem Zeitpunkt kann die Länge r einer Seite zur Erzeugung des virtuellen Dreiecks (erstes virtuelles Dreieck) oder der Radius eines virtuellen Kreises, der einem Kreisbogen entspricht, auf dem sich das Fahrzeug entsprechend einem Lenkwinkel bewegt, entsprechend dem Lenkwinkel vorgegeben und in Form einer Tabelle in einem internen Speicher (nicht abgebildet) gespeichert werden. Wie in 5 dargestellt, wird ein Bewegungswinkel θ in Abhängigkeit von der Länge und dem Radius r des Kreisbogens, auf dem sich das Fahrzeug bewegt, bestimmt.
  • Wenn der Lenkwinkel erfasst wird, kann auch die Länge r einer Seite zur Erzeugung des virtuellen Dreiecks (erstes virtuelles Dreieck) oder der Radius des virtuellen Kreises, der dem Kreisbogen entspricht, auf dem sich das Fahrzeug entsprechend dem Lenkwinkel bewegt, durch eine voreingestellte spezifische Gleichung berechnet werden.
  • Daher werden die Scheitelpunkte des virtuellen Dreiecks (erstes virtuelles Dreieck) auf den Standort der Kamera 10 vor der Bewegung des Fahrzeugs, den Standort der Kamera 10 nach der Bewegung des Fahrzeugs und den Standort des Berührungspunkts zwischen parallelen Linien, die einen Stoßfänger des Fahrzeugs vor der Bewegung und den Stoßfänger des Fahrzeugs nach der Bewegung tangieren, wenn die parallelen Linien zur Innenseite des Lenkwinkels (d.h. zur Innenseite des Kreisbogens, auf dem sich das Fahrzeug bewegt) hin verlängert werden, gesetzt.
  • Die Abstandsmesseinheit 40 kann das virtuelle Dreieck (erstes virtuelles Dreieck) mit den drei Scheitelpunkten erzeugen und so die Längen der drei Seiten des virtuellen Dreiecks (erstes virtuelles Dreieck) berechnen. Insbesondere kann die Abstandsmesseinheit 40 die Länge einer Seite (② in 6) berechnen, die einer geraden Linie entspricht, die den Standort der Kamera 10 des Fahrzeugs vor der Bewegung mit dem Standort der Kamera 10 des Fahrzeugs nach der Bewegung verbindet, und ein weiteres virtuelles Dreieck (zweites virtuelles Dreieck) erzeugen, dessen eine Seite auf die Seite ((2) in 6) gesetzt wird, die der geraden Linie entspricht, die den Standort der Kamera 10 des Fahrzeugs vor der Bewegung mit dem Standort der Kamera 10 des Fahrzeugs nach der Bewegung verbindet.
  • Die Scheitelpunkte des anderen virtuellen Dreiecks (zweites virtuelles Dreieck) werden auf den Standort der Kamera 10 vor der Bewegung des Fahrzeugs, den Standort der Kamera 10 nach der Bewegung des Fahrzeugs und den Mittelpunkt des Objekts gesetzt (siehe 6B). Das heißt, das andere virtuelle Dreieck (zweites virtuelles Dreieck) wird von drei Seiten gebildet ((2), (3) und (6) von 6).
  • Von den drei Seiten (②, ③ und ⑥ in 6) des zweiten virtuellen Dreiecks wird die Länge einer Seite (③ in 6), die einer geraden Linie entspricht, die den Mittelpunkt des Objekts mit dem Standort der Kamera 10 verbindet, nachdem sich das Fahrzeug bewegt hat, der Abstand zum Objekt, d.h. der Abstand von der Kamera 10 des Fahrzeugs zum Objekt.
  • Zu diesem Zeitpunkt ist die Länge der Seite ((2) in 6) zwischen den drei Seiten ((2), (3) und (6) in 6) des zweiten virtuellen Dreiecks bereits bekannt, und die Längen der beiden anderen Seiten (③ und (6) in 6) können berechnet werden, indem die Positionen des Objekts in den Bildern, die von der Kamera 10 vor und nach der Bewegung des Fahrzeugs aufgenommen wurden, auf die Epipolargeometrie angewendet werden (siehe 7).
  • Da es sich bei der Epipolargeometrie um eine allgemein bekannte Technologie handelt, wird hier auf eine detaillierte Beschreibung verzichtet. Als Referenz steht in 7 OR für den Standort der Kamera 10 vor der Bewegung des Fahrzeugs, OL für den Standort der Kamera 10 nach der Bewegung des Fahrzeugs und X (oder X1 bis XL) für den Mittelpunkt des Objekts. Darüber hinaus stellt eine rechte Ansicht ein Bild dar, das von der Kamera 10 vor der Bewegung des Fahrzeugs aufgenommen wurde, und eine linke Ansicht ein Bild, das von der Kamera 10 nach der Bewegung des Fahrzeugs aufgenommen wurde.
  • In den 4 und 6 wird die Größe des Lenkwinkels, bei dem sich das Fahrzeug kreisbogenförmig bewegt, aus Gründen der Einfachheit der Beschreibung übertrieben dargestellt. Da ein Benutzer während der Rückwärtsfahrt kontinuierlich ein Lenkrad betätigt, wird der Lenkwinkel in Wirklichkeit während der Bewegung des Fahrzeugs kontinuierlich verändert. Daher sollte verstanden werden, dass die 4 und 6 auf der Annahme basieren, dass der Lenkwinkel nicht verändert, sondern beibehalten wird, während sich das Fahrzeug bewegt, um das Verständnis zu fördern.
  • Als solches wird der Prozess der Abstandsmessung zu einem Objekt für jedes Einzelbild durchgeführt. Wenn z.B. das zweite Einzelbild durch die Fahrzeuginformationen in einem Zustand erfasst wird, in dem das erste von der Kamera 10 erfasste Einzelbild und die ersten Abtastdaten erfasst werden, führt die Abstandsmesseinheit 40 den oben beschriebenen Prozess durch, um einen Abstand zum Objekt zu erfassen, der dem zweiten Einzelbild entspricht, basierend auf einem Fahrzeugbewegungsabstand. Durch wiederholtes Ausführen eines solchen Prozesses bis zur Erfassung der nächsten Abtastdaten erfasst die Abstandsmesseinheit 40 einen Abstand zum Objekt, der jedem der Einzelbilder zwischen den Abtastperioden entspricht, d.h. dem zweiten bis sechsten Einzelbild, dem achten bis 12ten Einzelbild, dem 14ten bis 18ten Einzelbild, dem 20ten bis 24ten Einzelbild, dem 26ten bis 30ten Einzelbild, dem 32ten bis 36ten Einzelbild, dem 38ten bis 42ten Einzelbild, dem 44ten bis 48ten Einzelbild, dem 50ten bis 54ten Einzelbild und dem 56ten bis 60ten Einzelbild.
  • Da die Abstandsmesseinheit 40 den Abstand zum Objekt als Reaktion auf jedes der Einzelbilder zwischen den Abtastperioden des Lidarsensors 20 unter den Einzelbildern des Bildes misst, bildet die Abbildungseinheit 50 den Abstand zum Objekt eins zu eins auf jedes der Einzelbilder zwischen den Abtastperioden des Lidarsensors 20 unter den Einzelbildern des Bildes ab.
  • Daher kann der Abstand zum Objekt für jedes der ersten bis 60. von der Kamera 10 erfassten Einzelbilder erfasst werden.
  • Im Folgenden wird eine Verfahren zur Messung des Objektabstandes in Übereinstimmung mit einer Ausgestaltung der vorliegenden Offenbarung unter Bezugnahme auf 8 ausführlich beschrieben.
  • 8 ist ein Flussdiagramm, das ein Verfahren zur Messung das Objektabstands gemäß einer Ausgestaltung der vorliegenden Offenbarung darstellt.
  • Unter Bezugnahme auf 8 nimmt die Kamera 10 in Schritt S10 ein Bild von einem vorderen Bereich des Fahrzeugs auf. Die Kamera 10 kann z.B. 60 Bilder pro Sekunde bei einer Kamerafrequenz von 60 Hz aufnehmen.
  • In Schritt S20 misst der Lidarsensor 20 einen Abstand zu einem Objekt, indem dieser einen Laser in den vorderen Bereich des Fahrzeugs emittiert und den vom Objekt reflektierten und zurückkehrenden Laser empfängt.
  • Während das Bild von der Kamera 10 erfasst und der Abstand zum Objekt durch den Lidarsensor 20 gemessen wird, vergleicht die Bestimmungseinheit 30 die Kamerafrequenz der Kamera 10 mit der Abtastfrequenz des Lidarsensors 20 und bestimmt in Schritt S30, ob der Abstand zum Objekt für jedes Einzelbild des Bildes interpoliert werden soll.
  • In diesem Fall, wenn das Vergleichsergebnis anzeigt, dass die Kamerafrequenz der Kamera 10 und die Abtastfrequenz des Lidarsensors 20 voneinander verschieden sind, entscheidet die Bestimmungseinheit 30, den Abstand zum Objekt für jedes der Einzelbilder zwischen den Abtastperioden des Lidarsensors 20 unter den Einzelbildern des Bildes zu interpolieren.
  • Wenn die Bestimmungseinheit 30 entscheidet, den Abstand zum Objekt für jedes der Einzelbilder zwischen den Abtastperioden des Lidarsensors 20 unter den Einzelbildern des Bildes zu interpolieren, wählt die Abstandsmesseinheit 40 die Ortspixelkoordinate des Objekts innerhalb des Bildes aus, um den Abstand im Bild zu messen, und empfängt in Schritt S40 Fahrzeuginformationen (z.B. Bewegungsabstand, Lenkwinkel, Fahrzeuggeschwindigkeit und Fahrzeit), die durch den Betrieb des Fahrzeugs durch Kommunikation mit der ESE innerhalb des Fahrzeugs erzeugt werden.
  • Dann erzeugt die Abstandsmesseinheit 40, wie in 4 dargestellt, ein virtuelles Dreieck (erstes virtuelles Dreieck) zur Berechnung des Abstands zwischen dem Fahrzeug und dem Objekt (d.h. des Abstands von der Kamera 10 des Fahrzeugs zum Objekt) auf der Grundlage der empfangenen Fahrzeuginformationen (z.B. Bewegungsabstand und Lenkwinkelinformationen).
  • Zu diesem Zeitpunkt kann die Länge r einer Seite zur Erzeugung des virtuellen Dreiecks (erstes virtuelles Dreieck) oder der Radius eines virtuellen Kreises, der einem Kreisbogen entspricht, entlang dem sich das Fahrzeug entsprechend dem Lenkwinkel bewegt, entsprechend dem Lenkwinkel vorgegeben werden und in Form einer Tabelle im internen Speicher gespeichert werden (nicht abgebildet). Wie in 5 dargestellt, wird der Bewegungswinkel θ in Abhängigkeit von der Länge und dem Radius r des Kreisbogens, auf dem sich das Fahrzeug bewegt, bestimmt.
  • Wenn der Lenkwinkel erfasst wird, kann die Länge r einer Seite zur Erzeugung des virtuellen Dreiecks (erstes virtuelles Dreieck) oder der Radius des virtuellen Kreises, der dem Kreisbogen entspricht, auf dem sich das Fahrzeug entsprechend dem Lenkwinkel bewegt, auch durch eine voreingestellte spezifische Gleichung berechnet werden.
  • Daher werden die Scheitelpunkte des virtuellen Dreiecks (erstes virtuelles Dreieck) auf den Standort der Kamera 10 vor der Bewegung des Fahrzeugs, den Standort der Kamera 10 nach der Bewegung des Fahrzeugs und den Standort des Berührungspunkts zwischen parallelen Linien, die einen Stoßfänger des Fahrzeugs vor der Bewegung und den Stoßfänger des Fahrzeugs nach der Bewegung tangieren, wenn die parallelen Linien in Richtung der Innenseite des Lenkwinkels (d.h. der Innenseite des Kreisbogens, auf dem sich das Fahrzeug bewegt) verlängert werden, gesetzt.
  • Die Abstandsmesseinheit 40 kann das virtuelle Dreieck (erstes virtuelles Dreieck) mit den drei Scheitelpunkten erzeugen und so die Längen der drei Seiten des virtuellen Dreiecks (erstes virtuelles Dreieck) berechnen. Insbesondere kann die Entfernungsmesseinheit 40 die Länge einer Seite ((2) in 6) berechnen, die einer geraden Linie entspricht, die den Standort der Kamera 10 des Fahrzeugs vor der Bewegung mit dem Standort der Kamera 10 des Fahrzeugs nach der Bewegung verbindet, und ein weiteres virtuelles Dreieck (zweites virtuelles Dreieck) erzeugen, dessen eine Seite auf die Seite ((2) in 6) gesetzt wird, die der geraden Linie entspricht, die den Standort der Kamera 10 des Fahrzeugs vor der Bewegung mit dem Standort der Kamera 10 des Fahrzeugs nach der Bewegung verbindet.
  • Die Scheitelpunkte des anderen virtuellen Dreiecks (zweites virtuelles Dreieck) werden auf den Standort der Kamera 10 vor der Bewegung des Fahrzeugs, den Standort der Kamera 10 nach der Bewegung des Fahrzeugs und den Mittelpunkt des Objekts gesetzt (siehe 6B). Das heißt, das andere virtuelle Dreieck (zweites virtuelles Dreieck) wird durch drei Seiten gebildet ((2), (3) und (6) in 6).
  • Von den drei Seiten ((2), (3) und (6) in 6) des zweiten virtuellen Dreiecks wird die Länge einer Seite (③ in 6), die einer geraden Linie entspricht, die den Mittelpunkt des Objekts mit dem Standort der Kamera 10 verbindet, nachdem sich das Fahrzeug bewegt hat, zum Abstand zum Objekt, d.h. dem Abstand von der Kamera 10 des Fahrzeugs zum Objekt.
  • Zu diesem Zeitpunkt ist die Länge der Seite ((2) in 6) unter den drei Seiten ((2), (3) und (6) in 6) des zweiten virtuellen Dreiecks eine bereits bekannte Information, und die Längen der beiden anderen Seiten (③ und (6) in 6) können berechnet werden, indem die Positionen des Objekts in den Bildern, die von der Kamera 10 vor und nach der Bewegung des Fahrzeugs aufgenommen wurden, auf die epipolare Geometrie (siehe 7) im Schritt S50 angewendet werden (siehe 7).
  • Da es sich bei der Epipolargeometrie um eine allgemein bekannte Technologie handelt, wird auf eine detaillierte Beschreibung dieser Technologie hier verzichtet. Als Referenz stellt in 7 OR den Standort der Kamera 10 vor der Bewegung des Fahrzeugs, OL den Standort der Kamera 10 nach der Bewegung des Fahrzeugs und X (oder X1 bis XL) den Mittelpunkt des Objekts dar. Darüber hinaus stellt die rechte Ansicht ein Bild dar, das von der Kamera 10 vor der Bewegung des Fahrzeugs aufgenommen wurde, und die linke Ansicht ein Bild, das von der Kamera 10 nach der Bewegung des Fahrzeugs aufgenommen wurde.
  • In den 4 und 6 wird die Größe des Lenkwinkels, bei dem sich das Fahrzeug kreisbogenförmig bewegt, aus Gründen der Einfachheit der Beschreibung übertrieben dargestellt. Da ein Benutzer während der Rückwärtsfahrt kontinuierlich ein Lenkrad betätigt, wird der Lenkwinkel in Wirklichkeit während der Bewegung des Fahrzeugs kontinuierlich verändert. Daher sollte verstanden werden, dass die 4 und 6 auf der Annahme basieren, dass der Lenkwinkel nicht verändert, sondern beibehalten wird, während sich das Fahrzeug bewegt, um das Verständnis zu fördern.
  • Als solcher wird der Prozess der Abstandsmessung zu einem Objekt für jedes Einzelbild durchgeführt. Wenn z.B. das zweite Einzelbild durch die Fahrzeuginformationen in einem Zustand erfasst wird, in dem das erste von der Kamera 10 erfasste Einzelbild und die ersten Abtastdaten erfasst werden, führt die Abstandsmesseinheit 40 den oben beschriebenen Prozess durch, um einen Abstand zum Objekt zu erfassen, der dem zweiten Einzelbild entspricht, basierend auf einem Fahrzeugbewegungsabstand. Durch wiederholtes Ausführen eines solchen Prozesses bis zur Erfassung der nächsten Abtastdaten erfasst die Abstandsmesseinheit 40 einen Abstand zum Objekt, der jedem der Einzelbilder zwischen den Abtastperioden entspricht, d.h. den zweiten bis sechsten Einzelbildern, den achten bis 12ten Einzelbildern, den 14ten bis 18ten Einzelbildern, den 20ten bis 24ten Einzelbildern, den 26ten bis 30ten Einzelbildern, den 32ten bis 36ten Einzelbildern, den 38ten bis 42ten Einzelbildern, den 44ten bis 48ten Einzelbildern, den 50ten bis 54ten Einzelbildern und den 56ten bis 60ten Einzelbildern.
  • Da die Abstandsmesseinheit 40 den Abstand zum Objekt als Reaktion auf jedes der Einzelbilder zwischen den Abtastperioden des Lidarsensors 20 unter den Einzelbildern des Bildes misst, bildet die Abbildungseinheit 50 in Schritt S60 den Abstand zum Objekt eins zu eins auf jedes der Einzelbilder zwischen den Abtastperioden des Lidarsensors 20 unter den Einzelbildern des Bildes ab.
  • Daher kann der Abstand zum Objekt für jedes der ersten bis 60. von der Kamera 10 erfassten Einzelbilder erfasst werden.
  • Als solche können die Objektabstandsmessvorrichtung und das Verfahren gemäß der Ausgestaltung der vorliegenden Offenbarung die Fahrzeugbetriebsinformationen auf die Epipolargeometrie anwenden, um unzureichende Abstandsinformationen aufgrund eines Unterschieds in der Bildwiederholrate zwischen den durch die Kamera erfassten Bildinformationen und den durch den Lidarsensor erfassten Lidarinformationen zu interpolieren. Auf diese Weise können die Objektabstandsmessvorrichtung und das Verfahren komfortabel und kostengünstig eine Entfernung zu einem Objekt messen und den Effekt einer Stereokamera mit einer Kamera erreichen.
  • Obwohl zur Veranschaulichung beispielhafte Ausführungsformen der Offenbarung offenbart wurden, ist vom Fachmann zu würdigen, dass verschiedene Modifikationen, Ergänzungen und Substitutionen möglich sind, ohne vom Umfang und Gedanken der Offenbarung, wie in den begleitenden Ansprüchen definiert, abzuweichen. Daher sollte der technische Umfang der Offenbarung durch die folgenden Ansprüche definiert werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • KR 1020180126224 [0006]

Claims (12)

  1. Objektabstandsmessvorrichtung, die eine Kamera (10) umfasst, die eingerichtet ist, ein Bild eines Bereiches um ein Fahrzeug herum zu erfassen, dadurch gekennzeichnet, dass die Vorrichtung umfasst: einen Abstandssensor (20), der eingerichtet ist, einen Abstand zu einem Objekt durch Abtasten um das Fahrzeug herum zu erfassen; und eine Abstandsmesseinheit (40), die eingerichtet ist, einen Fahrzeugbewegungsabstand unter Verwendung von Fahrzeuginformationen zu erfassen, die durch den Betrieb des Fahrzeugs erzeugt werden, und den Abstand zu dem Objekt als Reaktion auf jedes der Einzelbilder zwischen Abtastperioden des Abstandssensors (20) unter Einzelbildern des Bildes auf der Grundlage des Fahrzeugbewegungsabstands und der Ortspixelkoordinaten des Objekts innerhalb des Bildes vor und nach der Bewegung des Fahrzeugs zu messen.
  2. Objektabstandsmessvorrichtung nach Anspruch 1, die ferner eine Bestimmungseinheit (30) umfasst, die eingerichtet ist, eine Kamerafrequenz der Kamera (10) und eine Abtastfrequenz des Abstandssensors (20) zu vergleichen und zu bestimmen, ob der Abstand zum Objekt für jedes der Einzelbilder des Bildes interpoliert werden soll.
  3. Objektabstandsmessvorrichtung nach Anspruch 1 oder 2, wobei die Fahrzeuginformation wenigstens eine Fahrzeugbewegungsdistanz, einen Lenkwinkel, eine Fahrzeuggeschwindigkeit und eine Fahrzeit umfasst.
  4. Objektabstandsmessvorrichtung nach einem der vorhergehenden Ansprüche, die ferner eine Abbildungseinheit (50) umfasst, die eingerichtet ist, die Entfernung zu dem Objekt, die jedem der Einzelbilder zwischen den Abtastperioden des Entfernungssensors (20) unter den Einzelbildern des Bildes entspricht, auf jedes der Einzelbilder zwischen den Abtastperioden des Entfernungssensors (20) abzubilden.
  5. Objektabstandsmessvorrichtung nach einem der vorhergehenden Ansprüche, wobei zur Berechnung des Abstands zum Objekt die Abstandsmesseinheit (40) den Fahrzeugbewegungsabstand auf der Grundlage eines Bewegungsabstands, eines Lenkwinkels und eines Bewegungswinkels zwischen den Teilen der Fahrzeuginformation berechnet, die von einer ESE (Elektronische Steuereinheit) des Fahrzeugs empfangen werden, wobei der Fahrzeugbewegungsabstand die Länge einer geraden Linie ist, die den Standort des Fahrzeugs vor dem Beginn der Bewegung des Fahrzeugs mit dem Standort des Fahrzeugs nach der vollständigen Bewegung des Fahrzeugs verbindet.
  6. Objektabstandsmessvorrichtung nach Anspruch 5, wobei zur Berechnung des Abstands zum Objekt die Abstandsmesseinheit (40) ein erstes virtuelles Dreieck erzeugt, von dem eine Seite auf den berechneten Fahrzeugbewegungsabstand und eine andere Seite auf den Radius eines virtuellen Kreises eingestellt ist, der einem Kreisbogen entspricht, entlang dem sich das Fahrzeug bewegt, wobei der Bewegungswinkel in Abhängigkeit von der Länge und dem Radius des Kreisbogens, entlang dem sich das Fahrzeug bewegt, bestimmt wird, und der Radius in Abhängigkeit vom Lenkwinkel bestimmt wird und zuvor in Form einer Tabelle in einem internen Speicher gespeichert wird.
  7. Objektabstandsmessvorrichtung nach Anspruch 6, wobei das erste virtuelle Dreieck ein virtuelles Dreieck ist, dessen Scheitelpunkte auf den Standort der Kamera (10) vor der Bewegung des Fahrzeugs, den Standort der Kamera (10) nach der Bewegung des Fahrzeugs und den Standort eines Kontaktpunkts zwischen parallelen Linien, die eine Stoßstange des Fahrzeugs vor der Bewegung und die Stoßstange des Fahrzeugs nach der Bewegung tangieren, wenn die parallelen Linien in Richtung der Innenseite des Lenkwinkels hin verlängert werden, eingestellt sind, wobei die Innenseite des Lenkwinkels der Innenseite des virtuellen Kreises entspricht, wenn sich das Fahrzeug in einer Kreisbogenform bewegt.
  8. Objektabstandsmessvorrichtung nach Anspruch 6, wobei, wenn das erste virtuelle Dreieck erzeugt wird, die Abstandsmesseinheit (40) ein zweites virtuelles Dreieck erzeugt, das sich eine Seite des ersten virtuellen Dreiecks teilt, um den Abstand zu dem Objekt auf der Grundlage der Information des ersten virtuellen Dreiecks zu berechnen.
  9. Objektabstandsmessvorrichtung nach Anspruch 8, wobei das zweite virtuelle Dreieck eine Seite, die einer geraden Linie entspricht, welche die Standorte der Kamera (10) des Fahrzeugs vor und nach der Bewegung des Fahrzeugs verbindet, mit den drei Seiten teilt, die das erste virtuelle Dreieck bilden, und ein virtuelles Dreieck ist, dessen Scheitelpunkte auf den Standort der Kamera (10) vor der Bewegung des Fahrzeugs, den Standort der Kamera (10) nach der Bewegung des Fahrzeugs und den Mittelpunkt des Objekts, der einem Ziel der Abstandsmessung entspricht, eingestellt sind.
  10. Objektabstandsmessvorrichtung nach Anspruch 8, wobei die Entfernungsmesseinheit (40) die Längen von zwei Seiten, die das zweite virtuelle Dreieck bilden, berechnet, indem diese die Positionen des Objekts in den Bildern, die von der Kamera (10) vor und nach der Bewegung des Fahrzeugs erfasst werden, auf eine epipolare Geometrie anwendet, und als Entfernung zum Objekt die Länge einer Seite berechnet, die einer geraden Linie entspricht, die die Mittelpunkt des Objekts mit der Position der Kamera (10) nach der Bewegung des Fahrzeugs unter den drei Seiten verbindet, die das zweite virtuelle Dreieck bilden.
  11. Objektabstandsmessvorrichtung nach einem der vorhergehenden Ansprüche, wobei der Abstandssensor (20) ein Lidarsensor ist.
  12. Verfahren zum Messen eines Objektabstands umfassend einen Schritt des Erfassens eines Bildes von einem Bereich um ein Fahrzeug herum mit einer Kamera (10), dadurch gekennzeichnet, dass das Verfahren ferner folgende Schritte umfasst: Erfassen eines Abstands zu einem Objekt durch einen Abstandssensor (20) durch Abtasten um das Fahrzeug herum; und Erfassen eines Fahrzeugbewegungsabstands durch eine Abstandsmesseinheit (40) unter Verwendung von Fahrzeuginformationen, die durch den Betrieb des Fahrzeugs erzeugt werden, und Messen des Abstands zu dem Objekt als Reaktion auf jedes der Einzelbilder zwischen Abtastperioden des Abstandssensors (20) zwischen Einzelbildern des Bildes, basierend auf dem Fahrzeugbewegungsabstand und den Ortspixelkoordinaten des Objekts innerhalb des Bildes vor und nach der Bewegung des Fahrzeugs.
DE102020207490.9A 2019-06-24 2020-06-17 Objektabstandsmessvorrichtung und Verfahren Pending DE102020207490A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2019-0074848 2019-06-24
KR1020190074848A KR102176376B1 (ko) 2019-06-24 2019-06-24 물체 거리 측정 장치 및 방법

Publications (1)

Publication Number Publication Date
DE102020207490A1 true DE102020207490A1 (de) 2020-12-24

Family

ID=73548905

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020207490.9A Pending DE102020207490A1 (de) 2019-06-24 2020-06-17 Objektabstandsmessvorrichtung und Verfahren

Country Status (4)

Country Link
US (1) US11769267B2 (de)
KR (1) KR102176376B1 (de)
CN (1) CN112130158B (de)
DE (1) DE102020207490A1 (de)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11202150B1 (en) * 2020-09-11 2021-12-14 Honda Motor Co., Ltd. Audio control based on determination of physical space surrounding vehicle
KR20220074580A (ko) * 2020-11-27 2022-06-03 삼성전자주식회사 전자 장치 및 그 제어 방법
KR20220087693A (ko) 2020-12-18 2022-06-27 현대모비스 주식회사 카메라와 라이다 정보 통합 장치
CN112799055B (zh) * 2020-12-28 2024-07-09 深圳承泰科技有限公司 一种探测被测车辆的方法、装置以及电子设备
US11858420B2 (en) * 2021-11-29 2024-01-02 Texas Instruments Incorporated Below vehicle rendering for surround view systems

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9919723B2 (en) * 2002-06-04 2018-03-20 General Electric Company Aerial camera system and method for determining size parameters of vehicle systems
WO2016130719A2 (en) * 2015-02-10 2016-08-18 Amnon Shashua Sparse map for autonomous vehicle navigation
KR20190101491A (ko) * 2015-08-04 2019-08-30 닛산 지도우샤 가부시키가이샤 단차 검출 장치 및 단차 검출 방법
KR101714185B1 (ko) * 2015-08-05 2017-03-22 엘지전자 주식회사 차량 운전 보조장치 및 이를 포함하는 차량
KR20180126224A (ko) 2017-05-17 2018-11-27 주식회사 에스더블유엠 차량 주행 중 장애물 정보 제공 장치 및 방법
CN108132025B (zh) * 2017-12-24 2020-04-14 上海捷崇科技有限公司 一种车辆三维轮廓扫描构建方法

Also Published As

Publication number Publication date
KR102176376B1 (ko) 2020-11-10
US11769267B2 (en) 2023-09-26
US20200402249A1 (en) 2020-12-24
CN112130158B (zh) 2024-03-19
CN112130158A (zh) 2020-12-25

Similar Documents

Publication Publication Date Title
DE102020207490A1 (de) Objektabstandsmessvorrichtung und Verfahren
DE102016106299B4 (de) Raderfassung und ihre Applikation bei Objektverfolgung und Sensorregistrierung
DE102008001363B4 (de) Verfahren zum Erfassen einer Parkfläche unter Verwendung eines Entfernungssensors
DE102016106298A1 (de) Fusionsverfahren für eine Querverkehr-Applikation unter Verwenden von Radargeräten und einer Kamera
DE102019216071A1 (de) Fahrzeugsensor-feldkalibrierung unter nutzung anderer fahrzeuge
DE112016005735T5 (de) System und Verfahren für eine bildbasierte Fahrzeugort-Bestimmung
EP1634243A1 (de) Verfahren und vorrichtung zur objektortung für kraftfahrzeuge
DE102013206707A1 (de) Verfahren zur Überprüfung eines Umfelderfassungssystems eines Fahrzeugs
DE102009014104A1 (de) Erkennungssystem für ein Fahrzeug
DE102011103795A1 (de) Verfahren und System zur Kollisionsbewertung für Fahrzeuge
DE102018106804A1 (de) Routenerzeugungsvorrichtung, Routenerzeugungsverfahren und Routenerzeugungsprogramm
DE102018124033A1 (de) Bodenkontaktbestimmungsvorrichtung für ein dreidimensionales Objekt
WO2019101774A1 (de) Verfahren und vorrichtung zur ermittlung eines installationswinkels zwischen einer fahrbahn, auf der ein fahrzeug fährt, und einer erfassungsrichtung eines mess- bzw. radarsensors
DE112021000992T5 (de) Parkunterstützungsvorrichtung
DE102016203710A1 (de) Abstands- und Richtungsschätzung eines Zielpunkts von einem Fahrzeug unter Verwendung einer monokularen Videokamera
WO2021219353A1 (de) Autonomes und/oder assistiertes kuppeln eines anhängers unter berücksichtigung des höhenprofils des untergrunds
DE102020105192B4 (de) Verfahren zum Detektieren bewegter Objekte in einer Fahrzeugumgebung und Kraftfahrzeug
EP3637311A1 (de) Vorrichtung und verfahren zum ermitteln von höheninformationen eines objekts in einer umgebung eines fahrzeugs
DE102016105022A1 (de) Verfahren zum Erfassen zumindest eines Objekts in einer Umgebung eines Kraftfahrzeugs durch eine indirekte Messung mit Sensoren, Steuereinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
DE112020005077T5 (de) Einrichtung und verfahren zum steuern eines mobilen körpers
DE102018132676A1 (de) Verfahren zum Lokalisieren eines Fahrzeugs in einer Umgebung
DE102022117085A1 (de) Objekterkennungsvorrichtung und nicht-flüchtiges aufzeichnungsmedium
DE102022102443A1 (de) Verbesserter sensorbetrieb
DE102022201043A1 (de) Fahrerassistenzsystem und dessen steuerverfahren
DE102007016192A1 (de) Kalibrierung eines fahrzeuggestützten Bildsensors

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R083 Amendment of/additions to inventor(s)
R081 Change of applicant/patentee

Owner name: HYUNDAI MOBIS CO., LTD., KR

Free format text: FORMER OWNER: HYUNDAI AUTRON CO., LTD., SEOUL, KR

R082 Change of representative

Representative=s name: HOFFMANN - EITLE PATENT- UND RECHTSANWAELTE PA, DE