DE102021102818B3 - Verfahren zur dreidimensionalen Rekonstruktion einer Szene in einem Vorfeld eines Fahrzeugs - Google Patents

Verfahren zur dreidimensionalen Rekonstruktion einer Szene in einem Vorfeld eines Fahrzeugs Download PDF

Info

Publication number
DE102021102818B3
DE102021102818B3 DE102021102818.3A DE102021102818A DE102021102818B3 DE 102021102818 B3 DE102021102818 B3 DE 102021102818B3 DE 102021102818 A DE102021102818 A DE 102021102818A DE 102021102818 B3 DE102021102818 B3 DE 102021102818B3
Authority
DE
Germany
Prior art keywords
scene
image
vehicle
anchor points
dimensional reconstruction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102021102818.3A
Other languages
English (en)
Inventor
Stefan Roos
Simon Tobias Isele
Marcel Peter Schilling
Björn Bentz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dr Ing HCF Porsche AG
Original Assignee
Dr Ing HCF Porsche AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dr Ing HCF Porsche AG filed Critical Dr Ing HCF Porsche AG
Priority to DE102021102818.3A priority Critical patent/DE102021102818B3/de
Application granted granted Critical
Publication of DE102021102818B3 publication Critical patent/DE102021102818B3/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur dreidimensionalen Rekonstruktion einer Szene in einem Vorfeld (4) eines Fahrzeugs (1), umfassend die Schritte:- Erfassen eines ersten Rohbildes (8) der Szene mittels einer von mindestens zwei Monokameras (2, 3), Verarbeiten des ersten Rohbildes (8) mittels eines auf die Abschätzung von Tiefeninformationen trainierten konvolutionellen neuronalen Netzwerks (9) und Erzeugen eines Tiefenbildes (10) der Szene,- Erfassen eines zweiten Rohbildes (11) der Szene mittels der anderen der mindestens zwei Monokameras (2, 3) und Bestimmen eines Bildüberlappungsbereichs (12), innerhalb dessen das erste Rohbild (8) und das zweite Rohbild (11) miteinander überlappen,- Bestimmen einer Mehrzahl dreidimensionaler Ankerpunkte (13a-13g) innerhalb des Bildüberlappungsbereichs (12) und Berechnen metrischer Tiefeninformationen für jeden der Ankerpunkte (13a-13g),- Berechnen zumindest eines metrischen Skalierungsfaktors aus den metrischen Tiefeninformationen der Ankerpunkte (13a-13g) und- pixelweises Erzeugen einer dichten, dreidimensionalen Rekonstruktion der Szene auf Basis des mittels des konvolutionellen neuronalen Netzwerks (9) erhaltenen Tiefenbildes (10) und des zumindest einen metrischen Skalierungsfaktors.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zur dreidimensionalen Rekonstruktion einer Szene in einem Vorfeld eines Fahrzeugs.
  • Aus dem Stand der Technik sind Verfahren zur dreidimensionalen Rekonstruktion einer Szene in einem Vorfeld eines Fahrzeugs grundsätzlich bekannt. Gängige Verfahren zur Generierung entsprechender Tiefeninformationen sind derzeit StereoKameras, welche die Tiefeninformationen durch Triangulation ermitteln, oder LiDAR-Sensoren, die hierfür Time-of-Flight-Messungen verwenden. Es hat sich gezeigt, dass LiDAR-Sensoren aufgrund ihrer vergleichsweise hohen Sensorkosten und ebenfalls relativ kostspielige Stereokameras eine Hürde für den Serieneinsatz in Fahrzeugen darstellen. Ultraschallsensoren werden bereits in vielen Fahrzeugen verwendet und liefern Abstandsinformation von Objekten, jedoch nur in einem direkten Nahfeldbereich des Fahrzeugs. Über so genannte Structure-from-Motion-Verfahren (kurz: SfM-Verfahren) in Kombination mit einer Inertialsensorik kann für ein wiedergefundenes Bildmerkmal dessen dreidimensionale Position innerhalb der Szene rekonstruiert werden. Hierbei besteht allerdings das Problem, dass die dreidimensionale Rekonstruktion, insbesondere bei Szenen mit wenigen Strukturen, sehr ungenau ist.
  • Aus der DE 10 2018 100 909 A1 ist ein Verfahren zum Rekonstruieren von Bildern einer Szene, die durch ein multifokales Kamerasystem aufgenommen werden, bekannt. Bei diesem Verfahren kommen eine Structure-from-Motion-Tiefenschätzung sowie ein konvolutionelles neuronales Netzwerk zum Einsatz.
  • Die US 2019 / 0 235 079 A1 offenbart ein System zur Bestimmung der Position eines oder mehrerer Objekte, umfassend einen Sender, der einen Photonenstrahl aussendet, um nacheinander Bereiche eines oder mehrerer Objekte zu beleuchten, mehrere Kameras, die voneinander beabstandet sind, wobei jede Kamera eine Anordnung von Pixeln aufweist, um Photonen zu detektieren, und eine oder mehrere Prozessorvorrichtungen, um gespeicherte Anweisungen ausführen, mittels derer Aktionen eines zugehörigen Verfahrens ausgeführt werden können. Bei diesem Verfahren wird der Sender so ausgerichtet, um nacheinander Bereiche eines oder mehrerer Objekte mit dem Photonenstrahl zu beleuchten. Für jeden der Bereiche wird von den Kameras eine Array-Position jedes Pixels empfangen, das Photonen des Strahls detektiert hat, die von dem Bereich des Objekts oder der Objekte reflektiert oder gestreut wurden. Ferner wird für jeden der von den Kameras detektierten Bereiche dessen Position unter Verwendung der empfangenen Array-Positionen der Pixel, die die Photonen des von diesem Bereich reflektierten oder gestreuten Strahls erfasst haben, bestimmt.
  • Aus der WO 2016 / 130 719 A2 sind Systeme und Verfahren zur Erstellung, Verwendung und Aktualisierung von Übersichtskarten für die autonome Fahrzeugnavigation bekannt. Die Übersichtskarten enthalten eine polynomische Darstellung einer Zieltrajektorie für das autonome Fahrzeug entlang eines Straßensegments und eine Vielzahl vorbestimmter Landmarken, die dem Straßensegment zugeordnet sind, wobei die vorbestimmten Landmarken einen Abstand von mindestens 50 Meter voneinander haben. Die Übersichtskarte hat eine Datendichte von nicht mehr als 1 Megabyte pro Kilometer.
  • Die vorliegende Erfindung macht es sich zur Aufgabe, ein Verfahren zur dreidimensionalen Rekonstruktion einer Szene in einem Vorfeld eines Fahrzeugs zur Verfügung zu stellen, das mit einem einfachen und kostengünstigen Hardwareaufbau sehr genaue und damit zuverlässige Rekonstruktionsergebnisse liefern kann.
  • Die Lösung dieser Aufgabe liefert ein Verfahren zur dreidimensionalen Rekonstruktion einer Szene in einem Vorfeld eines Fahrzeugs mit den Merkmalen des Anspruchs 1. Die Unteransprüche betreffen vorteilhafte Weiterbildungen der Erfindung.
  • Ein erfindungsgemäßes Verfahren zur dreidimensionalen Rekonstruktion einer Szene in einem Vorfeld eines Fahrzeugs, umfasst die Schritte:
    • - Erfassen eines ersten Rohbildes der Szene mittels einer von mindestens zwei Monokameras, Verarbeiten des ersten Rohbildes mittels eines auf die Abschätzung von Tiefeninformationen trainierten konvolutionellen neuronalen Netzwerks und
  • Erzeugen eines Tiefenbildes der Szene,
    • - Erfassen eines zweiten Rohbildes der Szene mittels der anderen der mindestens zwei Monokameras und Bestimmen eines Bildüberlappungsbereichs, innerhalb dessen das erste Rohbild und das zweite Rohbild miteinander überlappen,
    • - Bestimmen einer Mehrzahl dreidimensionaler Ankerpunkte innerhalb des Bildüberlappungsbereichs und Berechnen metrischer Tiefeninformationen für jeden der Ankerpunkte,
    • - Berechnen zumindest eines metrischen Skalierungsfaktors aus den metrischen Tiefeninformationen der Ankerpunkte und
    • - pixelweises Erzeugen der dreidimensionalen Rekonstruktion der Szene auf Basis des mittels des konvolutionellen neuronalen Netzwerks erhaltenen Tiefenbildes und des zumindest einen metrischen Skalierungsfaktors.
  • Monokameras sind relativ preisgünstig und liefern zahlreiche Informationen zur Struktur und Textur einer Szene. Sie sind jedoch nicht dazu in der Lage, nativ Abstände zwischen Objekten beziehungsweise Tiefeninformationen der Szene im Vorfeld des Fahrzeugs zu bestimmen. Mittels des konvolutionellen neuronalen Netzwerks alleine ist es lediglich möglich, durch eine Tiefenabschätzung die relative Bildtiefe zu ermitteln. Außerdem können schlechte Belichtungsbedingungen oder unbekannte Daten zu schlechten Ergebnissen bei der Tiefenabschätzung mittels eines konvolutionellen neuronalen Netzwerks führen. Daher werden bei dem erfindungsgemäßen Verfahren entsprechende Ankerpunkte verwendet, um auf die metrischen Tiefeninformationen der Szene zu schließen. Das erfindungsgemäße Verfahren ermöglicht somit trotz der Verwendung von zumindest zwei Monokameras, mittels derer die Rohbilder erzeugt werden, auf einfache Weise eine zuverlässige dreidimensionale Rekonstruktion einer Szene im Vorfeld des Fahrzeugs.
  • In einer bevorzugten Ausführungsform wird vorgeschlagen, dass die Ankerpunkte durch eine Feature-Extraktion aus dem Bildüberlappungsbereich bestimmt werden. Die Bestimmung der Ankerpunkte ist somit durch die Verwendung von Methoden aus der Bildverarbeitung, mittels derer eine Feature-Extraktion erfolgen kann, sehr einfach und genau möglich.
  • In einer besonders bevorzugten Ausführungsform besteht die Möglichkeit, dass die Tiefeninformationen für jeden der Ankerpunkte aus dem Bildüberlappungsbereich durch Triangulation berechnet werden. Die Methode der Triangulation ermöglicht auf einfache Weise die Bestimmung von Tiefeninformationen der Ankerpunkte.
  • In einer vorteilhaften Ausführungsform kann vorgesehen sein, dass das pixelweise Erzeugen der dreidimensionalen Rekonstruktion der Szene auf Basis des mittels des konvolutionellen neuronalen Netzwerks erhaltenen Tiefenbildes, des zumindest einen metrischen Skalierungsfaktor und einer Kameramatrix, welche extrinsische und intrinsische Informationen über die Monokameras enthält, erfolgt. Dabei kann es sich zum Beispiel um Informationen über die Einbaupositionen sowie über optische Parameter der Monokameras handeln.
  • Vorzugsweise kann die Tiefenschätzung des konvolutionellen neuronalen Netzwerks mittels der berechneten Tiefeninformationen aller Ankerpunkte evaluiert werden. Als Maß für die Konsistenz der Tiefenschätzung des konvolutionellen neuronalen Netzwerks kann insbesondere eine Standardabweichung σ der metrischen Ankerpunktskalierungen dienen.
  • In einer vorteilhaften Weiterbildung besteht die Möglichkeit, dass zur dreidimensionalen Rekonstruktion der Szene zusätzliche Rohbilder weiterer Kameraeinrichtungen des Fahrzeugs verwendet werden. Alternativ oder zusätzlich zu den weiteren Kameraeinrichtungen kann auch vorgesehen sein, dass zur dreidimensionalen Rekonstruktion der Szene zusätzliche Sensordaten von Sensoreinrichtungen des Fahrzeugs verwendet werden. Durch diese Maßnahmen fließen zusätzliche Rohbilder und/oder Sensordaten in die dreidimensionale Rekonstruktion der Szene ein, was in vorteilhafter Weise zu einer weiteren Erhöhung der Genauigkeit beiträgt.
  • Gemäß einem weiteren Aspekt betrifft die vorliegende Erfindung ein Fahrassistenzsystem eines Fahrzeugs, umfassend eine erste Monokamera, zumindest eine zweite Monokamera und eine Recheneinrichtung. Erfindungsgemäß ist das Fahrassistenzsystem dazu eingerichtet, ein Verfahren nach einem der Ansprüche 1 bis 7 auszuführen.
  • Gemäß noch einem weiteren Aspekt betrifft die vorliegende Erfindung ein nichtflüchtiges, computerlesbares Speichermedium mit darin gespeicherten Programmcodemitteln, die bei einer Ausführung durch einen Prozessor ein Fahrassistenzsystem eines Fahrzeugs dazu veranlassen, ein Verfahren nach einem der Ansprüche 1 bis 7 auszuführen.
  • Weitere Merkmale und Vorteile der vorliegenden Erfindung werden deutlich anhand der nachfolgenden Beschreibung eines bevorzugten Ausführungsbeispiels unter Bezugnahme auf die beiliegenden Abbildungen. Dabei zeigen
    • 1 eine Seitenansicht eines Fahrzeugs, das mit zwei Monokameras ausgestattet ist,
    • 2 eine schematische Darstellung, die Einzelheiten eines Verfahrens zur dreidimensionalen Rekonstruktion einer Szene in einem Vorfeld eines Fahrzeugs veranschaulicht.
  • Unter Bezugnahme auf 1 und 2 sollen nachfolgend Einzelheiten eines Verfahrens zur dreidimensionalen Rekonstruktion einer Szene in einem Vorfeld 4 eines Fahrzeugs 1 näher erläutert werden.
  • Wie in 1 zu erkennen, weist das Fahrzeug 1 eine erste Monokamera 2 und eine zweite Monokamera 3 auf, die während des Betriebs Rohbilddaten in einem Vorfeld 4 des Fahrzeugs 1 erfassen können. Die beiden Monokameras 2, 3 liefern reichhaltige Informationen über die Struktur und Textur einer Szene im Vorfeld 4 des Fahrzeugs 1, sind jedoch nicht dazu in der Lage, nativ Abstände und Tiefeninformationen zu bestimmen.
  • Aus der Darstellung gemäß 1 wird deutlich, dass die erste Monokamera 2 in einem Frontbereich des Fahrzeugs 1 angeordnet ist. Die zweite Monokamera 3 ist demgegenüber sowohl in Fahrzeuglängsrichtung (x-Richtung) als auch in Fahrzeughochrichtung (z-Richtung) zu der ersten Monokamera 2 versetzt angeordnet. Die zweite Monokamera 3 kann zum Beispiel im Bereich eines Fahrzeuginnenspiegels hinter einer Frontscheibe des Fahrzeugs 1 angeordnet sein. Die entsprechenden, aus dieser Anordnung der beiden Monokameras 2, 3 resultierenden Sichtfelder 5, 6 in der x-z-Ebene wurden in 1 durch entsprechende Begrenzungslinien 50, 51, 60, 61 in stark vereinfachter Form veranschaulicht. Daraus ergibt sich, dass die Sichtfelder 5, 6 der beiden Monokameras 2, 3 in einem Überlappungsbereich 7 miteinander überlappen. Da die beiden Monokameras 2, 3 an unterschiedlichen Positionen des Fahrzeugs 1 angeordnet sind, „sehen“ sie aus unterschiedlichen Perspektiven auf das Vorfeld 4 des Fahrzeugs 1 und auf den Überlappungsbereich 7. Diese unterschiedlichen Perspektiven der beiden Monokameras 2, 3 ermöglichen es, in der nachfolgend beschriebenen Weise, Tiefeninformationen zu gewinnen, um eine dreidimensionale Rekonstruktion einer Szene im Vorfeld 4 des Fahrzeugs 1 zu ermöglichen.
  • Die von den beiden Monokameras 2, 3 aufgezeichneten Rohbilddaten werden zur dreidimensionalen Rekonstruktion einer Szene im Vorfeld 4 des Fahrzeugs 1 in der nachfolgend beschriebenen Weise verwendet. Das Fahrzeug 1 weist dazu eine hier nicht explizit dargestellte Recheneinrichtung auf, mittels derer eine Auswertung der von den beiden Monokameras 2, 3 aufgezeichneten Rohbilddaten vorgenommen werden kann.
  • Unter weiterer Bezugnahme auf 2 sollen nähere Einzelheiten eines Verfahrens zur dreidimensionalen Rekonstruktion einer Szene im Vorfeld 4 des Fahrzeugs 1 erläutert werden. Ein erstes Rohbild 8 der Szene im Vorfeld 4 des Fahrzeugs 1, welches von einer der beiden Monokameras 2, 3 (zum Beispiel von der ersten Monokamera 2) erfasst wird, wird in einem ersten Auswertepfad mittels eines auf die Abschätzung von Tiefeninformationen trainierten konvolutionellen neuronalen Netzwerks (englisch: Convolutional Neural Network, CNN) 9 verarbeitet. Dieses trainierte konvolutionelle neuronale Netzwerk 9 generiert dabei durch eine Tiefenabschätzung eine dichte relative Tiefeninformation des ersten Rohbildes 8 und erzeugt dadurch ein Tiefenbild 10 der Szene.
  • Parallel dazu wird in einem zweiten Auswertepfad ein zweites Rohbild 11 der Szene im Vorfeld 4 des Fahrzeugs 1, welches von der anderen der beiden Monokameras 2, 3 (beispielsweise von der zweiten Monokamera 3) erfasst wird, ebenfalls verarbeitet.
  • Dabei wird ein Bildüberlappungsbereich 12 bestimmt, innerhalb dessen das erste Rohbild 8 und das zweite Rohbild 11 miteinander überlappen.
  • Innerhalb dieses Bildüberlappungsbereichs 12 wird eine Mehrzahl dreidimensionaler, metrischer Ankerpunkte 13a-13g bestimmt. Die Bestimmung dieser Ankerpunkte 13a-13g erfolgt durch eine Feature-Extraktion, indem zum Beispiel auf Pixelbasis überprüft wird, welche Nachbarschaftsbeziehungen bestehen, welche Pixelbereiche miteinander korrespondierende Merkmale (so genannte Features) beschreiben und wo sich Kanten befinden. Ferner kann durch eine Triangulation eine metrische Tiefeninformation für jeden der Ankerpunkte 13a-13g berechnet werden. Über eine Mittelwertbildung der Tiefeninformationen aller Ankerpunkte 13a-13g wird zumindest ein metrischer Skalierungsfaktor berechnet, da das im ersten Auswertungspfad erhaltene Tiefenbild 10 seinerseits in einem Intervall [0, 1] skaliert und somit eine metrische Skalierung erforderlich macht. In einer alternativen Ausführungsform besteht auch die Möglichkeit, mehrere Skalierungsfaktoren, die jeweils einzelnen Bildbereichen zugeordnet sind, zu verwenden.
  • In einem nächsten Schritt 14 wird pixelweise eine dichte, dreidimensionale Rekonstruktion auf Basis des mittels des konvolutionellen neuronalen Netzwerks erhaltenen Tiefenbildes 9 und unter Berücksichtigung des mindestens einen, im zweiten Auswertungspfad ermittelten Skalierungsfaktors erzeugt. Ferner fließt in diese dreidimensionale Rekonstruktion auch eine Kameramatrix 15 ein, welche extrinsische und intrinsische Informationen über die beiden Monokameras 2, 3, wie zum Beispiel Informationen über deren Einbaupositionen sowie über deren optische Parameter, enthält. Das Ergebnis dieser dichten dreidimensionalen Rekonstruktion ist eine dreidimensionale Punktwolke 16.
  • Ferner wird vorzugsweise auch die Tiefenschätzung des konvolutionellen neuronalen Netzwerks 9 mittels der vorliegend durch Triangulation berechneten Tiefeninformationen aller Ankerpunkte 13a-13g evaluiert. Als Maß für die Konsistenz der Schätzung des konvolutionellen neuronalen Netzwerks 9 dient hierbei zum Beispiel die Standardabweichung σ der metrischen Ankerpunktskalierungen.

Claims (9)

  1. Verfahren zur dreidimensionalen Rekonstruktion einer Szene in einem Vorfeld (4) eines Fahrzeugs (1), umfassend die Schritte: - Erfassen eines ersten Rohbildes (8) der Szene mittels einer von mindestens zwei Monokameras (2, 3), Verarbeiten des ersten Rohbildes (8) mittels eines auf die Abschätzung von Tiefeninformationen trainierten konvolutionellen neuronalen Netzwerks (9) und Erzeugen eines Tiefenbildes (10) der Szene, - Erfassen eines zweiten Rohbildes (11) der Szene mittels der anderen der mindestens zwei Monokameras (2, 3) und Bestimmen eines Bildüberlappungsbereichs (12), innerhalb dessen das erste Rohbild (8) und das zweite Rohbild (11) miteinander überlappen, - Bestimmen einer Mehrzahl dreidimensionaler Ankerpunkte (13a-13g) innerhalb des Bildüberlappungsbereichs (12) und Berechnen metrischer Tiefeninformationen für jeden der Ankerpunkte (13a-13g), - Berechnen zumindest eines metrischen Skalierungsfaktors aus den metrischen Tiefeninformationen der Ankerpunkte (13a-13g) und - pixelweises Erzeugen einer dichten, dreidimensionalen Rekonstruktion der Szene auf Basis des mittels des konvolutionellen neuronalen Netzwerks (9) erhaltenen Tiefenbildes (10) und des zumindest einen metrischen Skalierungsfaktors.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Ankerpunkte (13a-13g) durch eine Feature-Extraktion aus dem Bildüberlappungsbereich (12) bestimmt werden.
  3. Verfahren nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass die Tiefeninformationen für jeden der Ankerpunkte (13a-13g) aus dem Bildüberlappungsbereich (12) durch Triangulation berechnet werden.
  4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass das pixelweise Erzeugen der dreidimensionalen Rekonstruktion der Szene auf Basis des mittels des konvolutionellen neuronalen Netzwerks (9) erhaltenen Tiefenbildes (10), des zumindest einen metrischen Skalierungsfaktor und einer Kameramatrix (12) erfolgt, welche extrinsische und intrinsische Informationen über die Monokameras (2, 3) enthält.
  5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass die Tiefenschätzung des konvolutionellen neuronalen Netzwerks (9) mittels der berechneten Tiefeninformationen aller Ankerpunkte (13a-13g) evaluiert wird.
  6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass zur dreidimensionalen Rekonstruktion der Szene zusätzliche Rohbilder weiterer Kameraeinrichtungen des Fahrzeugs (1) verwendet werden.
  7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass zur dreidimensionalen Rekonstruktion der Szene zusätzliche Sensordaten von Sensoreinrichtungen des Fahrzeugs (1) verwendet werden.
  8. Fahrassistenzsystem eines Fahrzeugs (1), umfassend eine erste Monokamera (2), zumindest eine zweite Monokamera (3) und eine Recheneinrichtung, dadurch gekennzeichnet, dass das Fahrassistenzsystem dazu eingerichtet ist, ein Verfahren nach einem der Ansprüche 1 bis 7 auszuführen.
  9. Nichtflüchtiges, computerlesbares Speichermedium mit darin gespeicherten Programmcodemitteln, die bei einer Ausführung durch einen Prozessor ein Fahrassistenzsystem eines Fahrzeugs (1) dazu veranlassen, ein Verfahren nach einem der Ansprüche 1 bis 7 auszuführen.
DE102021102818.3A 2021-02-08 2021-02-08 Verfahren zur dreidimensionalen Rekonstruktion einer Szene in einem Vorfeld eines Fahrzeugs Active DE102021102818B3 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102021102818.3A DE102021102818B3 (de) 2021-02-08 2021-02-08 Verfahren zur dreidimensionalen Rekonstruktion einer Szene in einem Vorfeld eines Fahrzeugs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021102818.3A DE102021102818B3 (de) 2021-02-08 2021-02-08 Verfahren zur dreidimensionalen Rekonstruktion einer Szene in einem Vorfeld eines Fahrzeugs

Publications (1)

Publication Number Publication Date
DE102021102818B3 true DE102021102818B3 (de) 2022-06-09

Family

ID=81654499

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021102818.3A Active DE102021102818B3 (de) 2021-02-08 2021-02-08 Verfahren zur dreidimensionalen Rekonstruktion einer Szene in einem Vorfeld eines Fahrzeugs

Country Status (1)

Country Link
DE (1) DE102021102818B3 (de)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016130719A2 (en) 2015-02-10 2016-08-18 Amnon Shashua Sparse map for autonomous vehicle navigation
DE102018100909A1 (de) 2018-01-17 2019-07-18 Connaught Electronics Ltd. Verfahren zum Rekonstruieren von Bildern einer Szene, die durch ein multifokales Kamerasystem aufgenommen werden
US20190235079A1 (en) 2016-12-27 2019-08-01 Gerard Dirk Smits Systems and methods for machine perception

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016130719A2 (en) 2015-02-10 2016-08-18 Amnon Shashua Sparse map for autonomous vehicle navigation
US20190235079A1 (en) 2016-12-27 2019-08-01 Gerard Dirk Smits Systems and methods for machine perception
DE102018100909A1 (de) 2018-01-17 2019-07-18 Connaught Electronics Ltd. Verfahren zum Rekonstruieren von Bildern einer Szene, die durch ein multifokales Kamerasystem aufgenommen werden

Similar Documents

Publication Publication Date Title
DE69625423T2 (de) Vorrichtung zur Erkennung eines Objektes, in welchem die Position eines ebenen Objektes mit Hilfe einer Houghtransformation geschätzt wird
DE102014209137B4 (de) Verfahren und Vorrichtung zur Kalibrierung eines Kamerasystems eines Kraftfahrzeugs
DE112010002047B4 (de) Objekterfassungsvorrichtung
EP3622247B1 (de) Verfahren zur referenzierung mehrerer sensoreinheiten und zugehörige messeinrichtung
DE102016225595A1 (de) Verfahren und Anordnung zur Kalibrierung mindestens eines Sensors eines Schienenfahrzeugs
DE102014201271A1 (de) Verfahren und Steuergerät zum Erkennen einer Veränderung eines relativen Gierwinkels innerhalb eines Stereo-Video-Systems für ein Fahrzeug
DE102008001363A1 (de) Verfahren zum Erfassen einer Parkfläche unter Verwendung eines Entfernungssensors
DE102016200828A1 (de) Objekterfassungsvorrichtung und Objekterfassungsverfahren
DE102013224502A1 (de) Verfahren zur Kalibrierung einer Stereokamera eines Fahrzeugs
DE102017109445A1 (de) Kalibration einer Fahrzeug-Kameraeinrichtung in Fahrzeuglängsrichtung oder Fahrzeugquerrichtung
DE102018123393A1 (de) Erkennung von Parkflächen
DE102015003666A1 (de) Verfahren zur Verarbeitung von erfassten Messdaten eines Sensors
DE112014005376T5 (de) Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Programm
DE102018204451A1 (de) Verfahren und Vorrichtung zur Autokalibrierung eines Fahrzeugkamerasystems
DE112021002598T5 (de) Bildverarbeitungsvorrichtung
DE102021102818B3 (de) Verfahren zur dreidimensionalen Rekonstruktion einer Szene in einem Vorfeld eines Fahrzeugs
DE102018212871A1 (de) Vorrichtung und Verfahren zur Kamera-Kalibrierung
DE102019219653A1 (de) Verfahren zur Schätzung von Korrekturwinkeln in einem Radarsensor für Kraftfahrzeuge
DE102010042821B4 (de) Verfahren und Vorrichtung zur Bestimmung einer Basisbreite eines Stereo-Erfassungssystems
DE19627938B4 (de) Verfahren zur dynamischen Spurverfolgung in Bewegtbildsequenzen
DE102022003362A1 (de) Verfahren und Vorrichtung zur Bestimmung des Abstands eines Fahrzeugs zu einem Objekt
DE102022103147A1 (de) Verfahren und vorrichtung zum verfolgen eines objekts unter verwendung eines lidar-sensors und aufzeichnungsmedium, welches ein programm speichert, um das verfahren auszuführen
DE102017223325A1 (de) Verfahren und Vorrichtung zur Fusion von Messungen aus unterschiedlichen Informationsquellen
DE102019132151A1 (de) Verfahren zum Kalibrieren eines Umfeldsensors eines Fahrzeugs anhand von Daten eines Referenz-Umfeldsensors unter Berücksichtigung von Belegungskarten, Recheneinrichtung sowie Sensorsystem
DE102018222526A1 (de) Verfahren und Steuergerät zur Detektion eines Objekts

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final