DE102022002766A1 - Verfahren zur dreidimensionalen Rekonstruktion einer Fahrzeugumgebung - Google Patents
Verfahren zur dreidimensionalen Rekonstruktion einer Fahrzeugumgebung Download PDFInfo
- Publication number
- DE102022002766A1 DE102022002766A1 DE102022002766.6A DE102022002766A DE102022002766A1 DE 102022002766 A1 DE102022002766 A1 DE 102022002766A1 DE 102022002766 A DE102022002766 A DE 102022002766A DE 102022002766 A1 DE102022002766 A1 DE 102022002766A1
- Authority
- DE
- Germany
- Prior art keywords
- vehicle
- camera
- area
- lighting elements
- surroundings
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 16
- 238000001514 detection method Methods 0.000 claims description 10
- 238000011156 evaluation Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011982 device technology Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/141—Control of illumination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/145—Illumination specially adapted for pattern recognition, e.g. using gratings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/56—Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q1/00—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
- B60Q1/02—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
- B60Q1/22—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments for reverse drive
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q1/00—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
- B60Q1/02—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
- B60Q1/24—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments for lighting other areas than only the way ahead
- B60Q1/249—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments for lighting other areas than only the way ahead for illuminating the field of view of a sensor or camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10141—Special mode during image acquisition
- G06T2207/10152—Varying illumination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Optics & Photonics (AREA)
- Artificial Intelligence (AREA)
- Signal Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Lighting Device Outwards From Vehicle And Optical Signal (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zur dreidimensionalen Rekonstruktion einer Umgebung eines Fahrzeugs (1). Erfindungsgemäß wird mittels mehrerer einzelner Leuchtelemente zumindest eines Rückscheinwerfers (3, 4) des Fahrzeugs ein Bereich (B1, B2) auf einem hinter dem Fahrzeug (1) befindlichen Fahruntergrund (U) mit Lichtmustern (M1 bis Mn) beleuchtet. Der beleuchtete Bereich (B1, B2) wird zumindest abschnittweise mittels zumindest einer Kamera (2) erfasst, wobei anhand mittels der Kamera (2) erfasster Kamerabilder die Umgebung dreidimensional rekonstruiert wird. Die einzelnen Leuchtelemente werden mittels einer Pulsweitenmodulation derart dynamisch gesteuert und/oder zusammengeschaltet, dass ein Kontrast zwischen einzelnen erzeugten Lichtmustern (M1 bis Mn) und den Lichtmustern (M1 bis Mn) und der Umgebung erhöht wird. Den erfassten Kamerabildern wird eine jeweilige Schaltsituation der Leuchtelemente zum Zeitpunkt der Erfassung zugeordnet und bei der dreidimensionalen Rekonstruktion berücksichtigt.
Description
- Die Erfindung betrifft ein Verfahren zur dreidimensionalen Rekonstruktion einer Fahrzeugumgebung.
- Aus der
DE 10 2015 008 774 B4 ist ein Verfahren zur automatisierten Erfassung eines Fahrtzielbereichs eines Fahrzeugs mit einer Kamera und mit einem hochauflösenden Pixelscheinwerfer bekannt, wobei mittels des Pixelscheinwerfers ein Muster im Fahrbetrieb des Fahrzeuges in den Fahrtzielbereich projiziert wird. Das Muster wird kurzzeitig ergänzend zu einer oder kurzzeitig anstelle einer Grundbeleuchtung projiziert, wobei eine Zeitspanne der kurzzeitigen Projektion so kurz gewählt wird, dass sie vom menschlichen Auge nicht wahrgenommen wird. Die Kamera erfasst den Fahrtzielbereich zumindest immer dann optisch, wenn das Muster in den Fahrtzielbereich projiziert wird. - Weiterhin ist aus der
DE 10 2020 007 613 A1 ein Verfahren zur Generierung einer dreidimensionalen Tiefeninformationskarte einer Umgebung bekannt, wobei ein von einer Vielzahl an Merkmalspunkten ausgebildetes Lichtmuster mittels eines Projektors in die Umgebung geworfen wird. Mittels einer Kamera wird ein einen Ausschnitt des Lichtmusters zeigendes Kamerabild der Umgebung erzeugt. Das Kamerabild wird ausgewertet, woraufhin eine jeweilige Position der Merkmalspunkte auf ihren entsprechenden Epipolarlinien erkannt wird. Durch Ermitteln einer Verschiebung der Merkmalspunkte auf ihren Epipolarlinien gegenüber einer jeweiligen Referenzposition werden Tiefeninformationen zur Ausbildung der dreidimensionalen Tiefeninformationskarte gewonnen. Der Projektor projiziert ein Lichtmuster in Form eines Rechteckfelds in die Umgebung, wobei zwei in eine Breitenrichtung verlaufende Rechteckzeilen eine zueinander abweichende Höhe aufweisen und zwei in eine Höhenrichtung verlaufende Rechteckspalten eine zueinander abweichende Breite aufweisen. Als Merkmalspunkte werden Eckpunkte sich einander berührender Rechtecke verwendet. - Der Erfindung liegt die Aufgabe zu Grunde, ein neuartiges Verfahren zur dreidimensionalen Rekonstruktion einer Fahrzeugumgebung anzugeben.
- Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren, welches die im Anspruch 1 angegebenen Merkmale aufweist.
- Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
- In einem Verfahren zur dreidimensionalen Rekonstruktion einer Umgebung eines Fahrzeugs wird erfindungsgemäß mittels mehrerer einzelner Leuchtelemente zumindest eines Rückscheinwerfers des Fahrzeugs ein Bereich auf einem hinter dem Fahrzeug befindlichen Fahruntergrund mit Lichtmustern beleuchtet. Der beleuchtete Bereich wird zumindest abschnittweise mittels zumindest einer Kamera erfasst, wobei anhand mittels der Kamera erfasster Kamerabilder die Umgebung dreidimensional rekonstruiert wird. Die einzelnen Leuchtelemente werden dabei mittels einer Pulsweitenmodulation derart dynamisch gesteuert und/oder zusammengeschaltet, dass ein Kontrast zwischen einzelnen erzeugten Lichtmustern und den Lichtmustern und der Umgebung erhöht wird. Den erfassten Kamerabildern wird eine jeweilige Schaltsituation der Leuchtelemente zum Zeitpunkt der Erfassung zugeordnet, welche bei der dreidimensionalen Rekonstruktion berücksichtigt wird.
- Für verschiedene Anwendungen im Fahrzeug sind Informationen über dessen rückwärtige Umgebung, auch als Rückfeld oder Fahrzeugrückfeld bezeichnet, erforderlich. Diese Anwendungen umfassen beispielsweise Bereiche wie eine Einparkhilfe oder ein automatisches Einparken sowie Funktionen automatisierten Fahrens. Hierfür müssen eine Struktur des Rückfelds und in diesem befindliche Objekte erfasst und entweder automatisiert interpretiert oder an einen Fahrzeugführer zur Interpretation weitergeleitet werden. Gegenüber einer Erfassung des Rückfelds allein mittels Rückfahrkameras und Ultraschallsensoren, welche sich durch einen beschränkten Erfassungsbereich, eine beschränkte Auflösung und Genauigkeit sowie eine fehlende Entfernungsmessung und eine eingeschränkte Nachtfunktionalität (Rückfahrkamera) auszeichnen, ermöglicht das vorliegende Verfahren eine zuverlässige und hochauflösende Erfassung und Rekonstruktion des Fahrzeugrückfelds unabhängig von einer Geometrie und Beschaffenheit einer jeweiligen Szene. Dies kann mit einer großen Anzahl an Messpunkten durch eine vollständige Verwertung des beleuchteten Bereichs sowie einem Zusammenfügen der einzelnen Kamerabilder erfolgen. Weiterhin ermöglicht das Verfahren, dass eine Ausgabe von Ergebnissen direkt im dreidimensionalen Fahrzeugkoordinatensystem weiter verwertbar ist. Insbesondere im Vergleich zu einer Erfassung des Fahrzeugrückfelds mit Ultraschallsensoren kann mittels des vorliegenden Verfahrens ein vergrößerter Erfassungsbereich mit deutlich erhöhter Auflösung erzielt werden.
- In besonders vorteilhafter Weise ist das Verfahren zumindest zum größten Teil mit bereits an einem Fahrzeug verbauten Komponenten realisierbar, so dass Zusatzkosten im Vergleich zu Alternativsystemen, beispielsweise Radar- oder Lidarsystemen, minimiert werden können.
- Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.
- Dabei zeigen:
-
1 schematisch eine Seitenansicht eines auf einem Fahruntergrund befindlichen Fahrzeugs, -
2 schematisch eine Heckansicht des Fahrzeugs gemäß1 ,. -
3 schematisch eine Draufsicht des Fahrzeugs gemäß1 und -
4 schematisch mittels Rückscheinwerfern des Fahrzeugs gemäß1 emittiertes strukturiertes Licht. - Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.
- In
1 ist eine Seitenansicht eines auf einem Fahruntergrund U befindlichen Fahrzeugs 1 dargestellt.2 zeigt eine Heckansicht und3 eine Draufsicht des Fahrzeugs 1 gemäß1 . In4 ist mittels Rückscheinwerfern 3, 4 des Fahrzeugs gemäß1 emittiertes strukturiertes Licht in Form von Lichtmustern M1 bis Mn dargestellt. - Das Fahrzeug 1 umfasst eine Kamera 2 zur Erfassung einer Fahrzeugumgebung in einem Erfassungsbereich E und zwei Rückscheinwerfer 3, 4, welche zu einer Projektion von in
4 näher dargestellten Lichtmustern M1 bis Mn ausgebildet sind. - Hierzu umfassen die Rückscheinwerfer 3, 4 jeweils mehrere nicht näher dargestellte einzelne Leuchtelemente, deren Kontrastgrenzen als Auswertepunkte zur Rekonstruktion einer hinter dem Fahrzeug 1 befindlichen Umgebung verwendet werden. Dabei können alle Lichtsysteme verwendet werden, welche eine ausreichende Auflösung bei fahrzeugtypischen Leuchtstärken erreichen. Dies können beispielsweise Systeme basierend auf einer so genannten Digital-Micromirror-Device-Technologie, einer so genannten µLED-Technologie, einer so genannten Mikrolinsen-Array-Technologie und/oder einer LCD-Technologie sein.
- Eine dreidimensionale Erfassung der Lichtmuster erfolgt unter Verwendung einer aktiven Triangulation per strukturiertem Licht.
- Die im Voraus an eine Fahrzeuggeometrie angepassten Lichtmuster M1 bis Mn werden dabei auf den Fahruntergrund U hinter das Fahrzeug 1, das heißt ein Fahrzeugrückfeld, projiziert.
- Mittels der Kamera 2, welche beispielsweise eine Rückfahrkamera oder alternativ eine zusätzlich verbaute Kamera 2 ist, werden die projizierten Lichtmuster M1 bis Mn erfasst, um die Umgebung des Fahrzeugs 1 hinter diesem, einschließlich des erfassten Fahruntergrunds U, dreidimensional zu rekonstruieren. Mittels der Kamera 2 erfasste Kamerabilder werden an eine nicht näher dargestellte Verarbeitungseinheit, welche die dreidimensionale Rekonstruktion ausführt, übersendet.
- Die Triangulation erfolgt in Überlappungsbereichen OB1, OB2 eines Erfassungsbereichs E der Kamera 2 und der von den Leuchtelementen der Rückscheinwerfer 3, 4 beleuchteten Bereiche B1, B2. Dabei setzt sich ein gesamtes Lichtbild der Rückscheinwerfer 3, 4 aus dem Licht der einzelnen Leuchtelemente, das heißt den einzelnen Lichtmustern M1 bis Mn, zusammen.
- Damit sich das gesamte Lichtbild der Rückscheinwerfer 3, 4 zu der dreidimensionalen Rekonstruktion eignet, werden die einzelnen Leuchtelemente mittels einer Pulsweitenmodulation derart dynamisch gesteuert und/oder zusammengeschaltet, dass ein Kontrast zwischen einzelnen erzeugten Lichtmustern M1 bis Mn und den Lichtmustern M1 bis Mn und der Umgebung erhöht wird. Das heißt, es können zu jedem Zeitpunkt klare Kontrastpunkte realisiert werden. Den erfassten Kamerabildern bzw. Kameraframes wird eine jeweilige Schaltsituation der Leuchtelemente zum Zeitpunkt der Erfassung zugeordnet und gemeinsam mit diesen zur Rekonstruktion an die Verarbeitungseinheit übermittelt und so bei der dreidimensionalen Rekonstruktion berücksichtigt.
- Die auf diese Weise projizierten Lichtmuster M1 bis Mn werden abhängig von einer Geometrie der Szene bzw. Topographie und Textur der in ihr befindlichen Objekte 5 verschoben und verzerrt. Das heißt, tritt auf dem Fahruntergrund U ein erhabenes oder abgesenktes Objekt O auf, weichen die Lichtmuster M1 bis Mn an der entsprechenden Position von einem hinterlegten Referenzverlauf ab.
- Beispielsweise werden die Lichtmuster M1 bis Mn mittels rotem Licht, beispielsweise mittels eines Schlusslichts und/oder Bremslichts des Fahrzeugs 1, ausgegeben. Über einen roten Farbkanal kann bei der Auswertung der Kamerabilder Fremdlicht aus den Kamerabildern extrahiert werden, um nur gewünschte, durch die Rückscheinwerfer 3, 4 beleuchtete Komponenten zu behalten. Somit können die projizierten Lichtmuster M1 bis Mn in einfacher Weise aus den Kamerabildern extrahiert werden. Zusätzlich ist durch den geometrischen Aufbau des Fahrzeugs und der festen Platzierung von Kamera 2 und Rückscheinwerfern 3, 4 der mögliche Erfassungsbereich E im Kamerabild klar begrenzbar und somit ein Auswertebereich auch in der räumlichen Dimension einschränkbar, was eine robuste Erfassung ermöglicht. Alternativ oder zusätzlich zur beschriebenen Filterung des roten Lichts können auch andere geeignete Methoden zur Auswertung verwendet werden, wie beispielsweise eine Auswertung mittels eines trainierten künstlichen neuronalen Netzes, zum Beispiel mittels eines angepassten so genannten YOLOv4.
- In von der Kamera 2 erfassten Kamerabildern der Lichtmuster M1 bis Mn werden beispielsweise Unterkanten, Oberkanten und/oder Seitenkanten in der Triangulation verwendet. Hierbei ist es ausreichend, einen horizontalen Hell-Dunkel-Gradienten zu erhalten, welcher mit einer beliebigen Lichttechnologie erzeugt werden kann.
- Hierbei kann beispielsweise die Tatsache ausgenutzt werden, dass die Lichtmuster M1 bis Mn bei ihrer Ausbreitung im Fahrzeugrückfeld eine Ebene aufspannen.
- Ist eine Kalibration der Kamera 2, das heißt eine intrinsische Matrix von Abbildungseigenschaften der Kamera 2 und eine extrinsische Matrix, welche eine Pose der Kamera 2 beschreibt, bekannt, kann mit der Ebenenbeschreibung und einer Position des jeweiligen Lichtmusters M1 bis Mn und/oder dessen Kanten im Kamerabild eindeutig eine Position eines Auftreffpunkts des Lichts im dreidimensionalen Raum bestimmt werden. Hierbei ist es unbedeutend, welcher Abschnitt des Lichtmusters M1 bis Mn und/oder dessen Kanten im Kamerabild erkannt wird. Jeder Bildpunkt, der als Abschnitt des Lichtmusters M1 bis Mn und/oder dessen Kanten detektiert wird, liefert einen dreidimensionalen Informationspunkt des Fahrzeugrückfeldes.
- In den so erfassten Kamerabildern des entsprechenden Lichtmusters M1 bis Mn sind durch zweidimensionale Positionen der Bildpunkte, welche das Lichtmuster M1 bis Mn und/oder dessen Kanten zeigen, nun exakte dreidimensionale Position der Objekte 5 und Fahrbahnen im Fahrzeugrückfeld codiert, die durch die Informationen der Kamerakalibrierung und bereits bekannte Informationen über die Lichtmuster M1 bis Mn, beispielsweise die Ebenenbeschreibung, herausgerechnet werden können.
- Diese Positionen der Bildpunkte können nun in dreidimensionale Punkte in das Fahrzeugkoordinatensystem überführt werden. Dies erfolgt beispielsweise anhand einer Berechnung mit einer Triangulation der zweidimensionalen Bildpunkte und der Kamerakalibrierung mit der Ebenenbeschreibung. Somit liegt eine Vielzahl an dreidimensionalen Informationen über das Fahrzeugrückfeld für jeden Kameraframe vor.
- Die so aus einem Kameraframe gewonnen dreidimensionalen Informationen können mit vorherigen und nachfolgenden Kameraframes verknüpft werden, um eine komplette Aufnahme des Fahrzeugrückfelds während der Szene zu erhalten. Hierzu wird eine Fahrzeugbewegung zwischen den Kameraframes gemessen, um die entsprechenden dreidimensionalen Punkte korrekt zueinander zu orientieren. Dies erfolgt beispielsweise anhand von mittels Lenkwinkel-, Raddrehzahl-, Beschleunigungs- und/oder Drehratensensoren erfassten Daten.
- ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Patentliteratur
-
- DE 102015008774 B4 [0002]
- DE 102020007613 A1 [0003]
Claims (4)
- Verfahren zur dreidimensionalen Rekonstruktion einer Umgebung eines Fahrzeugs (1), dadurch gekennzeichnet, dass - mittels mehrerer einzelner Leuchtelemente zumindest eines Rückscheinwerfers (3, 4) des Fahrzeugs ein Bereich (B1, B2) auf einem hinter dem Fahrzeug (1) befindlichen Fahruntergrund (U) mit Lichtmustern (M1 bis Mn) beleuchtet wird, - der beleuchtete Bereich (B1, B2) zumindest abschnittweise mittels zumindest einer Kamera (2) erfasst wird, - anhand mittels der Kamera (2) erfasster Kamerabilder die Umgebung dreidimensional rekonstruiert wird, - die einzelnen Leuchtelemente mittels einer Pulsweitenmodulation derart dynamisch gesteuert und/oder zusammengeschaltet werden, dass ein Kontrast zwischen einzelnen erzeugten Lichtmustern (M1 bis Mn) und den Lichtmustern (M1 bis Mn) und der Umgebung erhöht wird, und - den erfassten Kamerabildern eine jeweilige Schaltsituation der Leuchtelemente zum Zeitpunkt der Erfassung zugeordnet und bei der dreidimensionalen Rekonstruktion berücksichtigt wird.
- Verfahren nach
Anspruch 1 , dadurch gekennzeichnet, dass in einem Überlappungsbereich (OB1, OB2) eines Erfassungsbereichs (E) der Kamera (2) und des von den Leuchtelementen beleuchteten Bereichs (B1, B2) eine Triangulation durchgeführt wird. - Verfahren nach
Anspruch 1 oder2 , dadurch gekennzeichnet, dass in der dreidimensionalen Rekonstruktion - Positionen und/oder Kanten der das jeweilige Lichtmuster (M1 bis Mn) darstellenden Bildpunkte in einem Kameraframe mittels eines Gradienten und/oder Intensitätsverläufe auswertenden Algorithmus ermittelt werden, - die Bildpunkte in Abhängigkeit einer intrinsischen und extrinsischen Kalibrierung der Kamera (2) sowie einer Beschreibung des Lichtmusters (M1 bis Mn) in ein dreidimensionales Fahrzeugkoordinatensystem überführt werden und - anhand von aus den Bildpunkten resultierenden dreidimensionalen Informationen die Umgebung des Fahrzeugs (1) zumindest in dem hinter dem Fahrzeug (1) befindlichen Bereich (B1, B2) bestimmt und dreidimensional rekonstruiert wird. - Verfahren nach
Anspruch 3 , dadurch gekennzeichnet, dass - dreidimensionale Informationen mehrerer zeitlich nacheinander erfasster Kameraframes in Abhängigkeit von einer Fahrzeugbewegung miteinander verknüpft werden und - anhand der verknüpften dreidimensionalen Informationen die Fahrzeugumgebung zumindest in einem von dem Fahrzeug (1) überfahrenen Bereich bestimmt und dreidimensional rekonstruiert wird.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102022002766.6A DE102022002766B4 (de) | 2022-07-29 | 2022-07-29 | Verfahren zur dreidimensionalen Rekonstruktion einer Fahrzeugumgebung |
PCT/EP2023/068618 WO2024022774A1 (de) | 2022-07-29 | 2023-07-05 | Verfahren zur dreidimensionalen rekonstruktion einer fahrzeugumgebung |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102022002766.6A DE102022002766B4 (de) | 2022-07-29 | 2022-07-29 | Verfahren zur dreidimensionalen Rekonstruktion einer Fahrzeugumgebung |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102022002766A1 true DE102022002766A1 (de) | 2022-09-15 |
DE102022002766B4 DE102022002766B4 (de) | 2024-04-25 |
Family
ID=83005365
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102022002766.6A Active DE102022002766B4 (de) | 2022-07-29 | 2022-07-29 | Verfahren zur dreidimensionalen Rekonstruktion einer Fahrzeugumgebung |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE102022002766B4 (de) |
WO (1) | WO2024022774A1 (de) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102015008774B4 (de) | 2015-07-07 | 2018-01-04 | Daimler Ag | Verfahren und Vorrichtung zur Erfassung eines Fahrzeug-Umfelds |
DE102020007613A1 (de) | 2020-12-11 | 2021-03-18 | Daimler Ag | Verfahren zur Generierung einer dreidimensionalen Tiefeninformationskarte einer Umgebung |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102010043829B4 (de) | 2010-11-12 | 2023-04-20 | Robert Bosch Gmbh | Optisches Abtastsystem und optisches Abtastverfahren |
DE102017124956B4 (de) | 2017-10-25 | 2019-05-09 | Dr. Ing. H.C. F. Porsche Aktiengesellschaft | Verfahren zum Extrahieren eines Lichtmusters aus einem mittels einer Fahrzeugkamera erfassten Abbild davon |
DE102018116511B3 (de) | 2018-07-09 | 2019-07-11 | Dr. Ing. H.C. F. Porsche Aktiengesellschaft | Verfahren zur Tiefenwahrnehmung basierend auf beidseitig angeordneten Scheinwerfern eines Fahrzeugs |
DE102020007760A1 (de) | 2020-12-18 | 2022-06-23 | Mercedes-Benz Group AG | Verfahren zur Klassifizierung von Fahrbahnmarkierungen und Fahrzeug |
DE102021000724B3 (de) | 2021-02-12 | 2022-07-28 | Mercedes-Benz Group AG | Mikrolinsenarray-Projektionsvorrichtung, Beleuchtungsvorrichtung und Fahrzeug |
-
2022
- 2022-07-29 DE DE102022002766.6A patent/DE102022002766B4/de active Active
-
2023
- 2023-07-05 WO PCT/EP2023/068618 patent/WO2024022774A1/de unknown
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102015008774B4 (de) | 2015-07-07 | 2018-01-04 | Daimler Ag | Verfahren und Vorrichtung zur Erfassung eines Fahrzeug-Umfelds |
DE102020007613A1 (de) | 2020-12-11 | 2021-03-18 | Daimler Ag | Verfahren zur Generierung einer dreidimensionalen Tiefeninformationskarte einer Umgebung |
Also Published As
Publication number | Publication date |
---|---|
DE102022002766B4 (de) | 2024-04-25 |
WO2024022774A1 (de) | 2024-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102020002994B4 (de) | Verfahren zur Messung eines Abstandes zwischen einem Objekt und einem optischen Sensor, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Abstandsmessvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Abstandsmessvorrichtung | |
EP3183721A1 (de) | Verfahren und achsenzähl-vorrichtung zur berührungslosen achsenzählung eines fahrzeugs sowie achsenzählsystem für den strassenverkehr | |
DE102017124955B4 (de) | Verfahren zum Feststellen einer Lagebeziehung zwischen einer Kamera und einem Scheinwerfer eines Fahrzeugs | |
EP2989594B1 (de) | Vorrichtung und verfahren zum erkennen von beschriftungen auf fahrzeugreifen | |
DE102012221563B4 (de) | Funktionsdiagnose und validierung eines fahrzeugbasierten bildgebungssystems | |
DE10114932A1 (de) | Dreidimensionale Umfelderfassung | |
EP3552144A1 (de) | Kameravorrichtung sowie verfahren zur situationsangepassten erfassung eines umgebungsbereichs eines fahrzeugs | |
DE19860676A1 (de) | Visualisierungseinrichtung für die von wenigstens einem Scheinwerfer eines Fahrzeugs bewirkte Beleuchtung vor dem Fahrzeug | |
DE102010039092B4 (de) | Verfahren und Steuergerät zum Ermitteln eines Abstandes eines Objektes von einem Fahrzeug | |
DE102020007613A1 (de) | Verfahren zur Generierung einer dreidimensionalen Tiefeninformationskarte einer Umgebung | |
EP3520023A1 (de) | Detektion und validierung von objekten aus sequentiellen bildern einer kamera | |
DE102017106152A1 (de) | Ermitteln einer Winkelstellung eines Anhängers mit optimierter Vorlage | |
DE102011082477A1 (de) | Verfahren und System zur Erstellung einer digitalen Abbildung eines Fahrzeugumfeldes | |
DE102006037600B4 (de) | Verfahren zur auflösungsabhängigen Darstellung der Umgebung eines Kraftfahrzeugs | |
DE102011076795A1 (de) | Verfahren zum Bestimmen einer Nickbewegung einer in einem Fahrzeug verbauten Kamera und Verfahren zur Steuerung einer Lichtaussendung zumindest eines Frontscheinwerfers eines Fahrzeugs | |
EP3815044A1 (de) | Verfahren zu einer sensor- und speicherbasierten Darstellung einer Umgebung, Anzeigevorrichtung und Fahrzeug mit der Anzeigevorrichtung | |
DE102015223500A1 (de) | Verfahren und Vorrichtung zur Prüfung der Funktionalität einer außenseitigen Lichteinrichtung eines Fahrzeugs | |
WO2014146864A1 (de) | Verfahren und vorrichtung zum erstellen einer aufnahme eines gepulst aufleuchtenden objekts | |
DE102022002766A1 (de) | Verfahren zur dreidimensionalen Rekonstruktion einer Fahrzeugumgebung | |
DE102017117212A9 (de) | System und Verfahren zur Stereotriangulation | |
DE102012207716A1 (de) | Optisches Abtastsystem und optisches Abtastverfahren | |
DE102022001440A1 (de) | Verfahren zur Erfassung einer Fahrzeugumgebung | |
EP3049757A1 (de) | Fahrwerksvermessung bei umgebungslicht | |
DE102018219420A1 (de) | Verfahren und Vorrichtung zur Bestimmung einer Entfernung von zumindest einem Objekt in einem Umfeld eines Fahrzeugs unter Verwendung einer Lasereinheit und einer Kameraeinheit | |
DE102019001336A1 (de) | Vorrichtung zur Erfassung eines Fahrtzielbereichs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R230 | Request for early publication | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division |