DE102017222708A1 - 3D-Umfelderfassung mittels Projektor und Kameramodulen - Google Patents

3D-Umfelderfassung mittels Projektor und Kameramodulen Download PDF

Info

Publication number
DE102017222708A1
DE102017222708A1 DE102017222708.7A DE102017222708A DE102017222708A1 DE 102017222708 A1 DE102017222708 A1 DE 102017222708A1 DE 102017222708 A DE102017222708 A DE 102017222708A DE 102017222708 A1 DE102017222708 A1 DE 102017222708A1
Authority
DE
Germany
Prior art keywords
camera
vehicle
pattern
light
camera modules
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102017222708.7A
Other languages
English (en)
Inventor
Stefan Heinrich
Joachim Massen
Dieter Krökel
Thomas Fechner
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Conti Temic Microelectronic GmbH
Original Assignee
Conti Temic Microelectronic GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Conti Temic Microelectronic GmbH filed Critical Conti Temic Microelectronic GmbH
Priority to DE102017222708.7A priority Critical patent/DE102017222708A1/de
Priority to DE112018002835.6T priority patent/DE112018002835A5/de
Priority to JP2020527930A priority patent/JP2021507205A/ja
Priority to US16/766,070 priority patent/US11073379B2/en
Priority to PCT/DE2018/200094 priority patent/WO2019114889A1/de
Priority to CN201880080303.5A priority patent/CN111465819B/zh
Publication of DE102017222708A1 publication Critical patent/DE102017222708A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2545Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Abstract

Die Erfindung betrifft eine Kameravorrichtung für ein Fahrzeug (1), welche eine 3D-Umfelderfassung gewährleistet, sowie ein Verfahren zur 3D-Umfelderfassung mittels der Kameravorrichtung. Vorrichtung und Verfahren können insbesondere im Rahmen von Fahrerassistenzsystemen eingesetzt werden.Die Kameravorrichtung für ein Fahrzeug (1) umfasst mindestens zwei Kameramodule (21, 22) mit zumindest teilweise überlappenden Erfassungsbereichen, ein Kamerasteuergerät, eine Auswerteeinheit und einen Punktlichtprojektor (3). Der Punktlichtprojektor (3) ist derart angeordnet und konfiguriert, dass der Punktlichtprojektor (3) ein Lichtmuster aus Messpunkten (6, 16, 26) in das Fahrzeugumfeld (10, 11) projiziert. Die mindestens zwei Kameramodule (21, 22) sind derart angeordnet und konfiguriert, dass zumindest ein Teil des projizierten Lichtmusters im überlappenden Erfassungsbereich abgebildet wird. Die Auswerteeinheit ist dazu konfiguriert, die 3D-Position von Messpunkten (6, 16, 26) im Fahrzeugumfeld (10, 11) aus mit den mindestens zwei Kameramodulen (21, 22) aufgenommenen Bilddaten zu bestimmen. Der Punktlichtprojektor (3) ist dazu konfiguriert, als Lichtmuster eine Folge von „Pseudo-Noise-Pattern“ zu erzeugen, wobei die „Pseudo-Noise-Pattern“ zeitlich hintereinander (t0, t1, ... tn) in das Fahrzeugumfeld (10, 11) projiziert werden.

Description

  • Die Erfindung betrifft eine Kameravorrichtung für ein Fahrzeug, welche eine 3D-Umfelderfassung gewährleistet, sowie ein Verfahren zur 3D-Umfelderfassung mittels der Kameravorrichtung. Vorrichtung und Verfahren können insbesondere im Rahmen von Fahrerassistenzsystemen eingesetzt werden.
  • Für die Erkennung von Objekten im Fahrzeugumfeld werden Stereokameras zur 3D-Umfelderfassung eingesetzt. Zur Berechnung der Entfernungsinformationen werden die Bildinformationen zwischen den Kamerabildern korreliert.
    Ein häufig im Fahrzeugumfeld eingesetztes Verfahren zur Entfernungsbestimmung aus der Korrelation zwischen Stereobildern ist SemiGlobalMatching (SGM).
  • Hierbei können folgende Probleme auftreten:
    Unter günstigen Lichtverhältnissen (z.B. tagsüber) ist meist genügend Texturinformation zur Bestimmung dichter (bildfüllender) Tiefeninformation in den Videobildern vorhanden. Für die Stereobildverarbeitung genügt das Tageslicht daher meist für die Korrelationsanalyse aus.
    Unter schlechten Lichtverhältnissen (z.B. nachts) geraten die eingesetzten Stereo-Korrelationsverfahren (SGM), trotz Fahrzeugbeleuchtung jedoch schnell an ihre Grenzen. Aufgrund der begrenzten Dunkel-Empfindlichkeit der verwendeten Imager können Strukturen in den Bildern der Videosensorik nachts nicht ausreichend gut korreliert werden.
    Lange Belichtungszeiten haben nachts einen zusätzlich, negativen Einfluss da durch die Bewegungsunschärfe (Englisch: motion blur) in den Videodaten die für die Korrelation erforderlichen Strukturen nicht mehr erkennbar sind.
  • Aus der DE 19730414 A1 ist ein Verfahren zur vorausschauenden Beurteilung der Fahrbahn, auf der Räder eines Kraftfahrzeugs abrollen, bekannt, wobei ein von einer Laserstrahlquelle ausgesendetes Laser-Lichtmuster im Triangulationsverfahren ausgewertet wird.
  • In DE 202015105376 U1 wird eine 3D-Kamera zur Aufnahme von dreidimensionalen Bildern aus einem Überwachungsbereich mit einer Beleuchtungseinheit zum Erzeugen eines strukturierten Beleuchtungsmusters in dem Überwachungsbereich beschrieben. In der 3D-Kamera sind zwei Kameramodule in einem bekannten festen Abstand zueinander montiert und nehmen jeweils Bilder des Überwachungsbereichs auf. Eine Auswertungseinheit ist dafür ausgebildet, ein dreidimensionales Bild aus Bilddaten zu berechnen sowie zunächst eine Vorabaufnahme des Überwachungsbereichs ohne strukturiertes Beleuchtungsmuster zu erzeugen und ein zu projizierendes strukturiertes Beleuchtungsmuster aus der Vorabaufnahme und einem gewünschten strukturierten Beleuchtungsmuster in dem Überwachungsbereich zu berechnen. Die Beleuchtungseinheit ist für die Echtzeitprojektion eines pixelaufgelösten, quantisierten strukturierten Beleuchtungsmusters ausgebildet, und weist ein schaltbares LED- oder Laserdiodenarray auf.
  • DE 102015008551 A1 betrifft ein Verfahren zum Kalibrieren einer Kameraeinheit eines Kraftwagens. Ein vorgebbares Muster wird in eine Umgebung des Kraftwagens mittels eines Scheinwerfers des Kraftwagens projiziert. Das in die Umgebung des Kraftwagens projizierte vorgebbare Muster wird mittels der Kameraeinheit optisch erfasst. Unter Berücksichtigung des optisch erfassten Musters wird die Kameraeinheit automatisiert kalibriert.
  • Es wird im Folgenden eine Lösung vorgestellt, die eine verbesserte 3D-Umfelderfassung gewährleistet.
  • Eine erfindungsgemäße Kameravorrichtung für ein Fahrzeug umfasst mindestens zwei Kameramodule mit zumindest teilweise überlappenden Erfassungsbereichen, ein Kamerasteuergerät, eine Auswerteeinheit und einen Punktlichtprojektor. Der Punktlichtprojektor ist derart angeordnet und konfiguriert, dass der Punktlichtprojektor ein Lichtmuster aus Messpunkten in das Fahrzeugumfeld projiziert. Die mindestens zwei Kameramodule sind derart angeordnet und konfiguriert, dass zumindest ein Teil des projizierten Lichtmusters im überlappenden Erfassungsbereich abgebildet wird. Die Auswerteeinheit ist dazu konfiguriert, die 3D-Position von Messpunkten im Fahrzeugumfeld aus mit den mindestens zwei Kameramodulen aufgenommenen Bilddaten zu bestimmen. Der Punktlichtprojektor ist dazu konfiguriert, als Lichtmuster eine Folge von „Pseudo-Noise-Pattern“ zu erzeugen, wobei die „Pseudo-Noise-Pattern“ zeitlich hintereinander (t0, t1, ... tn) in das Fahrzeugumfeld projiziert werden.
  • Vorzugsweise ist das Kamerasteuergerät dazu konfiguriert, den zeitlichen Zusammenhang zwischen Projektionsfolge und Aufnahme der Bildfolge mittels der mindestens zwei Kameramodule herzustellen. Dazu kann das Kamerasteuergerät Daten an den Punktlichtprojektor übermitteln und/oder Daten vom Punktlichprojektor empfangen. Optional kann das Kamerasteuergerät synchrone Aufnahmestartzeitpunkte der mindestens zwei Kameramodule vorgeben.
    Die Begriffe Punktlichtprojektor und Messpunkt sind nicht dahingehend zu verstehen, dass nur kreisförmige Lichtpunkte als Bausteine des Lichtmusters vorgesehen sind. Gemeint ist vielmehr, dass flächige Bereiche mit zumindest unterschiedlicher Intensität durch den Projektor beleuchtet werden können. Ein Lichtmuster kann beispielsweise aus „Löchern“ (negative Marken/Messpunkte bei sonst gleichmäßiger Beleuchtung) bestehen. Es können auch Lichtmuster aus sich kreuzenden Linien, Ecken oder Schachbrettmuster verwendet werden.
  • Das Kamerasteuergerät bzw. die Auswertungseinheit können insbesondere einen Mikrocontroller oder -prozessor, einen Digital Signal Processor (DSP), einen ASIC (Application Specific Integrated Circuit), einen FPGA (Field Programmable Gate Array) und dergleichen mehr sowie Software zur Durchführung der entsprechenden Steuerungs- bzw. Auswertungsschritte umfassen. Die vorliegende Erfindung kann somit in digitalen elektronischen Schaltkreisen, Computer-Hardware, Firmware oder Software implementiert sein.
  • Gegenstand der Erfindung ist weiterhin ein Verfahren zur räumlichen Erfassung eines Umfeld eines Fahrzeugs mittels mindestens zwei Kameramodulen mit zumindest teilweise überlappenden Erfassungsbereichen und einen Punktlichtprojektor. Der Punktlichtprojektor projiziert ein Lichtmuster aus Messpunkten in das Fahrzeugumfeld. Zumindest ein Teil des projizierten Lichtmusters wird im überlappenden Erfassungsbereich der mindestens zwei Kameramodule abgebildet. Die 3D-Position von Messpunkten im Fahrzeugumfeld wird aus mit den mindestens zwei Kameramodulen aufgenommenen Bilddaten bestimmt. Als Lichtmuster wird eine Folge von „Pseudo-Noise-Pattern“ erzeugt, die zeitlich hintereinander (t0, t1, ... tn) in das Fahrzeugumfeld abgegeben werden. Das Verfahren kann insbesondere in Form von Software auf einem Steuergerät oder mehreren Steuergeräten oder der Auswertungseinheit der Kameravorrichtung implementiert sein.
  • Weitere vorteilhafte Aspekte sind Gegenstand der abhängigen Ansprüche. Der Inhalt der Ansprüche wird durch ausdrückliche Inbezugnahme zum Inhalt der Beschreibung gemacht. Weitere vorteilhafte Aspekte werden im Folgenden angegeben.
  • Lichtmuster bestehend aus Pseudo-Noise Folge
    • - Das Punklichtpattern ist zu keinem Zeitpunkt regelmäßig.
    • - Das projizierte Lichtmuster besteht aus einer Folge von „Pseudo-Noise-Pattern“, die zeitlich hintereinander in einer Folge (t0, t1, ... tn) abgestrahlt werden.
    • - Durch die zeitliche Abfolge der „Pseudo-Noise-Pattern“ wird innerhalb von n Zeitschritten jede Umfeldposition mindestens einmal von einem Messpunkt des Lichtmusters belegt.
    • - Das Kamerasystem kann damit 3D-Messwerte in jeder Raumrichtung gleichmäßig verteilt bestimmen.
    • - Der Wechsel der Punktlicht-Pattern erfolgt jeweils zwischen den Aufnahmen der Stereokamera bzw. Videosensorik.
  • Zeitdauer der wechselnden Punktlicht-Projektionen
    • - Die Zeitdauer während der die Punktlicht-Muster abgestrahlt werden, ist an die Belichtungszeit der Videosensorik so angepasst dass die Punklichtmuster innerhalb der Belichtungsphase der Videosensorik sichtbar sind.
  • Abstand und Größe der Lichtpunkte angepasst an Größe der Korrelationsmasken der Videosensorik
    • - Der räumliche Abstand zwischen den Messpunkten innerhalb des „Pseudo-Noise-Pattern“ ist angepasst an die Größe der Korrelationsmasken der Triangulations-Algorithmik des Stereo-Kamera-Sensors.
    • - Der Winkel zwischen den abgestrahlten Lichtpunkten entspricht im Videobild ca. der 2-fachen Größe der Patch-Korrelatoren.
    • - Die Messpunkte sind nicht größer als 1/3 der Patch-Korrelator-Größe.
  • Kalibrierung/Kopplung von Kamera und Punklichtprojektor
    • - Bei dem angegebenen Verfahren wird auf eine Kalibrierung zwischen dem Kamerasystem und der Punklicht-Quelle verzichtet.
    • - Die 3D-Messfähigkeit des Systems ist durch die Stereo-Kamera oder Multi-Kamera bereits vollständig gegeben.
    • - Eine Triangulation zwischen Lichtprojektor u. Kamera, wie bei „klassischen“ Structured Light Ansätzen, ist bei dem vorliegenden Verfahren nicht erforderlich.
    • - Eine mechanische Kopplung oder Kalibrierung zwischen Kamera und Projektor ist daher nicht notwendig.
  • Direkte Messung von 3D-Position u. Relativgeschwindigkeit
    • - Durch die „quasistatische“ Montage zwischen Projektor und Kamera werden die Lichtpunkte auch bei bewegter Kamera frei von Bewegungsunschärfe (motion blur) aufgenommen.
    • - Ändert sich während der Belichtungszeit jedoch der Abstand zu einem Messpunkt, so tritt im Videobild eine linienförmige Verzeichnung an dem jeweiligen Lichtpunkt in den Stereobildern auf.
    • - Bei linienförmig verzeichneten Lichtpunkten wird die Relativgeschwindigkeit der Messpunkte damit direkt aus der Länge der Linienelemente ermittelt.
    • - Gegenüber klassischen Stereo- u. Laser-Systemen ist damit eine „direkte“ Geschwindigkeitsmessung möglich, die ansonsten nur über aufeinanderfolgende Messungen und Tracking ermittelt werden kann.
  • Einbau unabhängig von Fahrtrichtung
    • - Das Lichtpattern und die Erfassung der Messpunkte kann in beliebiger Richtung am Fahrzeug erfolgen.
    • - Es besteht keine Abhängigkeit bzgl. Fahrrichtung. Das System kann am Fahrzeugheck oder seitlich verbaut werden.
    • - Der Einbau des Punktlichtprojektors hinter der Scheibe oder im Bereich der Frontscheinwerfer ist möglich.
  • Tag- / Nacht-Modus => Verbesserte Augensicherheit
    • - Das System kann je nach Umgebungslicht in zwei Betriebsmodi verwendet werden.
    • - Tagsüber arbeitet das Stereo-System ohne die projizierten Lichtpunkte. Bei genügend Umgebungslicht ermittelt das Stereo-System die 3D-Messungen anhand der sichtbaren Strukturen im Videobild.
    • - Eine „Überstrahlung des Sonnenlichts“ durch die Messpunkte ist bei dem vorgestellten Verfahren nicht erforderlich. Dadurch ergibt sich bzgl. Augensicherheit (es kann weniger Laser/Licht abgestrahlt werden) ein Vorteil gegenüber den „klassischen“ Laser-Systemen.
    • - Der Punklichtprojektor wird nachts oder unter schlechten Lichtbedingungen verwendet. Wegen des geringeren Restlichts (Sonnenlicht nicht vorhanden) wird hier aber weniger Laser-Leistung benötigt um auf vergleichbare Reichweiten zu kommen.
  • Pixel-Licht, Fahrzeugscheinwerfer
    • - Als Punktlichtquelle können die im Fahrzeug vorhandenen LED-Scheinwerfer (Pixel-Licht) verwendet werden.
    • - Dabei werden die Punktlichter in schneller Folge so gewechselt, dass für den Fahrer eine gleichmäßige Lichtverteilung eines üblichen Frontscheinwerfers entsteht.
    • - Die Lichtpunkte werden zeitlich so variiert, dass jeder Bereich des Auswertebereichs innerhalb einer 24'tel Sekunde mindestens einmal beleuchtet wird.
  • Verwendung von nichtsichtbarem IR-Licht
    • - Für die Projektion der Messpunkte kann Licht im sichtbaren- oder nichtsichtbaren Bereich verwendet werden.
    • - Bei Verwendung einer Punktlichtquelle im nichtsichtbaren Infrarot-Bereich wird die Unterdrückung des Umgebungslichtes durch einen IR-Bandpass-Filter in der Kamera realisiert.
  • Erstellung 3D-Tiefenkarte aus Lichtpunkten
    • - Eine „vollständige“ 3D-Umgebungs-Karte wird von dem System durch die Überlagerung der 3D-Messungen aus den zeitlich hintereinander aufgenommen 3D-Punktwolken des Stereo-Sensors oder Multi-Kamera-Sensors ermittelt.
    • - Die zeitliche Überlagerung der Messungen erfolgt z.B. mittels eines Iterative Closest Points (ICP) Algorithmus.
  • Beliebige Lichtmuster
    • - Anstelle des angegeben Lichtmusters (kreisförmige Lichtpunkte) kann auch ein Punkte-Pattern bestehend aus „Löchern“ (negative Marken/Messpunkte bei sonst gleichmäßiger Beleuchtung) verwendet werden.
    • - Es können auch Muster aus sich kreuzenden Linien, Ecken oder Schachbrettmuster verwendet werden.
  • Anwendung mit mehreren Sensoren
    • - Die Lichtpunkte des Punklichtprojektors können von mehreren Sensoren gleichzeitig ausgewertet werden
    • - Eine zeitliche Synchronisierung der Sensoren untereinander und zum Punktlichtprojektor ist nicht erforderlich.
    • - Anstelle der Stereokamera kann auch ein Kamerasystem bestehend aus mehreren Kameras zur Triangulation der 3D-Messpunkte verwendet werden.
  • Anwendung mit mehreren Punktlicht-Projektoren
    • - Das Lichtpunktmuster kann aus Lichtpunkten von mehreren Punktlicht-Projektoren zusammengesetzt werden.
    • - Die Projektoren können an verschieden Orten am Fahrzeug Verbaut werden.
  • Einbaulage-Kalibrierung
    • - Durch die Projektion der Lichtpunkte auf eine ebene Fläche kann das Kamerasystem eine Einbaulage-Kalibrierung durchführen.
    • - Die Kalibrierung der Kamera durch das Licht-Pattern ist im Stillstand und während der Fahrt möglich.
    • - Eine kontinuierliche Ermittlung der Einbaulage gegenüber einer ebenen Fläche (z.B. Fahrbahnoberfläche) ist möglich.
  • Erkennung von Störungen
    • - Durch eine kontinuierliche Überwachung des Punktemusters können Störungen im Fahrzeugumfeld oder im optischen Pfad (z.B. durch Verschmutzung) erkannt werden.
    • - Ein Defekt oder eine Störung liegt vor, wenn in einer Raumrichtung die Lichtpunkte des Patterns nicht mehr erkannt werden.
    • - Der Test auf Vorhandensein (Erkennung aller Lichtpunkte) wird als Selbsttest vor jedem Fahrzeugstart durchgeführt.
  • Vorteile der vorgestellten Lösung
    • - Gegenüber klassischen „Structured Light“ Ansätzen ist bei dem vorgeschlagenen Verfahren keine Kalibrierung zwischen der Punklichtquelle und dem Kamerasystem erforderlich.
    • - Es tritt kein „Motion Blur“-Effekt in den Videodaten da sich die Punktlichtprojektion relativ zur Kamera nicht bewegt.
    • - Die Methode ermöglicht die Entfernungs-Messung auf untexturierten Oberflächen. Gemessen/trianguliert wird der Abstand zu den Pattern-Punkten auch auf ansonsten „uniformen“ Oberflächen.
    • - Durch das „wechselnde“ Lichtmuster sind 3D-Messwerte in gleichmäßiger Verteilung in jeder Raumrichtung möglich.
    • - Gegenüber klassischen Stereo-, Multi-Camera- u. Laser-Systemen ist eine „direkte“ Geschwindigkeitsmessung möglich.
    • - Gegenüber den „klassischen“ Systemen ergibt sich bei der vorgestellten Methode eine erhöhte Reichweite da tagsüber die sichtbaren Strukturen zur Entfernungsmessung in den Videobildern verwendet werden.
    • - Bzgl. Augensicherheit ergibt sich ebenfalls ein Vorteil, da im Vergleich zu „klassischen“ Systemen weniger Laser/Licht abgestrahlt wird.
    • - Es sind keine „speziellen“ Punktlichtquellen erforderlich. Es können die im Fahrzeug bereits vorhandenen LED-Scheinwerfer (Pixel-Lichter) verwendet werden.
  • Weitere Einsatzmöglichkeiten
    • - Anwendung für Surround-View Kameras (Rundumsichtkamerasysteme), d.h. seitlich oder hinter dem Fahrzeug möglich, indem mehrere Surround-View Kameras die 3D-Position der Lichtpunkte mittels Triangulation ermitteln.
  • Weitere Merkmale, Vorteile und Wirkungen der Erfindung ergeben sich aus der nachfolgenden Beschreibung bevorzugter Ausführungsbeispiele der Erfindung. Dabei zeigen:
    • 1 schematisch eine Projektion von Messpunkten in das Umfeld eines Fahrzeugs mit einer Kameravorrichtung;
    • 2 schematisch eine 3D-Triangulation von Messpunkten im Raum;
    • 3 schematisch eine Anordnung von Punktlichtprojektor und Stereokamera, die unabhängig von der Fahrtrichtung ist;
    • 4 schematisch den Abstand von Messpunkten in der Bildebene der Kameravorrichtung; und
    • 5 schematisch eine zeitliche Folge von Pseudo-Noise Pattern.
  • Um die Stereo-Performance vor allem nachts zu verbessern, wird gemäß einem Ausführungsbeispiel ein Laser-Punklichtprojektor (3) zusammen mit einer Stereokamera (2) verwendet. In 1 ist ein Fahrzeug (1) dargestellt, welches eine ein Fahrtrichtung blickende Stereokamera (2) aufweist, z.B. im Bereich der Windschutzscheibe des Fahrzeugs (1). Ein Punklichtprojektor (3) wird an einem Fahrzeug (1) befestigt, sodass sein Lichtmuster in das Fahrzeugumfeld projiziert wird. Der Punktlichtprojektor (3) projiziert ein Muster von beleuchteten Messpunkten (6), dargestellt als schwarze gefüllte Kreise, auf das Umfeld vor dem Fahrzeug (1). Das dargestellte vorausliegende Umfeld des Fahrzeugs (1) entspricht einer Ebene, z.B. einer ebenen Fahrbahnoberfläche. Die Projektionsstrahlen (5) von einzelnen aktivierten Lichtelemente, z.B. LEDs oder Laserdioden des Punktlichtprojektors (3) sind schematisch als gestrichelte Linien dargestellt. Vom Punktlichtprojektor (3) momentan nicht beleuchtete Punkte (7) sind als weiße Kreise veranschaulicht. Die beiden Kameramodule der Stereokamera (2) weisen einen Überlappungsbereich auf, in dem die Erfassungsbereich beider Kameramodule überlappen. Messpunkte (6), die in diesem Überlappungsbereich liegen, werden von beiden Kameramodulen erfasst. Die Erfassungsrichtungen (4) der beiden Kameramodule sind in 1 für einen Messpunkt schematisch als durchgezogene Linien dargestellt.
  • In 2 wird veranschaulicht, wie die 3D-Positionen von Messpunkten (16; 26) durch Triangulation bestimmt werden kann. Die Stereokamera (2) umfasst ein erstes (21) und ein zweites (22) Kameramodul, die durch ein Gehäuse fest miteinander verbunden sind und eine definierte Basisbreite (einen seitlichen Abstand zueinander) aufweisen. Der Punktlichtprojektor (3) projiziert ein Muster von beleuchteten Messpunkten (16, 26) auf das Umfeld (10, 11). Das Umfeld umfasst eine ebene Fläche (10) und ein erhabenes quaderförmiges Objekt (11). Im Bereich der ebenen Fläche projiziert der Punktlichtprojektor (3) ein Muster aus beleuchteten ersten Messpunkten (16) und unbeleuchteten Flächen (weiße Kreise) vergleichbar der Situation in 1. Auf der dem Punktlichtprojektor (3) zugewandten Seite (12) des erhabenen Objekts (11) werden zweite Messpunkte (26) und unbeleuchtete Flächen projiziert. Erste und zweite Messpunkte (16, 26) werden von beiden Kameramodulen (21, 22) der Stereokamera (2) abgebildet. In an sich bekannter Weise kann aus der Verschiebung (Disparität) eines Messpunkts (16; 26) in zeitgleich aufgenommenen Bilder des ersten (21) und des zweiten (2) Kameramoduls die 3D-Position des Fahrzeugumfelds (10, 11) bestimmt bzw. berechnet, die dieser Messpunkt (16, 26) beleuchtet. Somit kann das 3D-Umfeld rekonstruiert werden.
  • In 3 ist eine alternative Anordnung einer Stereokamera (22) und eines Punktlichtprojektors (33) an einem Fahrzeug (1) schematisch dargestellt. In diesem Fall kann das linke seitliche und rückwärtige Umfeld des Fahrzeugs (1) erfasst bzw. ermittelt werden. Die Funktionsweise entspricht der zuvor bei 1 und 2 erläuterten.
  • 4 veranschaulicht schematisch wie Abstand und Größe der Lichtpunkte an die Größe einer Korrelationsmaske (40; 41) (Englisch: patch correlator) angepasst werden können. Gemeint ist hier der Abstand zwischen zwei benachbarten Punkten, die vom Projektor beleuchtet werden können. Der räumliche Abstand zwischen den Messpunkten innerhalb des „Pseudo-Noise Pattern“ ist angepasst an die Größe der Korrelationsmasken (40; 41) der Triangulations-Algorithmik des Stereo-Kamera-Sensors (2). Der Winkel zwischen den abgestrahlten Lichtpunkten entspricht im Videobild ca. der 2-fachen Größe der SGM-Patch-Korrelatoren. Die Messpunkte sind nicht größer als 1/3 der SGM-Patch-Korrelator-Größe.
  • 5 veranschaulicht schematisch eine Folge von n zeitlich variierenden Pseudo-Noise Punktlicht-Mustern. Das Punktlicht-Muster, also die Gesamtheit der vom Punktlichtprojektor (3) beleuchteten (6) und nichtbeleuchteten (7) Flächen, ist zu keinem Zeitpunkt regelmäßig, sondern pseudo-zufällig verrauscht. Das projizierte Lichtmuster (6, 7) besteht aus einer Folge von „Pseudo-Noise-Pattern“, die zu den aufeinander folgenden Zeitpunkten t0 , t1 , ... tn abgestrahlt bzw. in das Fahrzeugumfeld projiziert werden.
    Die in 5 exemplarisch dargestellten Pattern umfassen jeweils 10x10 Punkte, nummeriert von a1 (links oben) bis j10 (rechts unten) . Zum Zeitpunkt t0 sind die Punkte a2, a10, b7, c4, e2, e8, g6, g10, h3, i7, j1 und j5 beleuchtet. Zum nachfolgenden Zeitpunkt t1 sind die Punkte a5, b2, b8, c10, d6, e3, g1, g5, h8, i2, j6 und j10 beleuchtet. Zum Zeitpunkt tn sind die Punkte a1, a8, b4, c7, d3, d10, f5, g2, g8, h10, i6, j3 und j9 beleuchtet. Durch die zeitliche Abfolge der „Pseudo-Noise-Pattern“ wird innerhalb von n Zeitschritten jede Umfeldposition mindestens einmal von einem Messpunkt des Lichtmusters belegt. Die Kameravorrichtung kann damit 3D-Messwerte in jeder Raumrichtung gleichmäßig verteilt bestimmen, also eine 3D-Punktwolke. Der Wechsel der Punktlicht-Pattern erfolgt jeweils zwischen den Aufnahmen der Kameramodule. Die Zeitdauer, während der die Punktlicht-Muster abgestrahlt werden, ist an die Belichtungszeit der Kameramodule so angepasst, dass die Punklichtmuster innerhalb der Belichtungsphase der Kameramodule sichtbar sind. Eine „vollständige“ 3D-Umgebungs-Karte wird von dem System durch die Überlagerung der 3D-Messungen aus den zeitlich hintereinander aufgenommen 3D-Punktwolken der Stereokamera ermittelt. Die zeitliche Überlagerung der Messungen erfolgt z.B. mittels eines Iterative Closest Points (ICP) Algorithmus.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 19730414 A1 [0004]
    • DE 202015105376 U1 [0005]
    • DE 102015008551 A1 [0006]

Claims (10)

  1. Kameravorrichtung für ein Fahrzeug (1) umfassend mindestens zwei Kameramodule (21, 22) mit zumindest teilweise überlappenden Erfassungsbereichen, ein Kamerasteuergerät, eine Auswerteeinheit und einen Punktlichtprojektor (3), wobei - der Punktlichtprojektor (3) derart angeordnet und konfiguriert ist, dass der Punktlichtprojektor (3) ein Lichtmuster aus Messpunkten (6, 16, 26) in das Fahrzeugumfeld (10, 11) projiziert, - die mindestens zwei Kameramodule (21, 22) derart angeordnet und konfiguriert sind, dass zumindest ein Teil des projizierten Lichtmusters im überlappenden Erfassungsbereich abgebildet wird, - die Auswerteeinheit dazu konfiguriert ist, die 3D-Position von Messpunkten (86, 16, 26) im Fahrzeugumfeld (10, 11) aus mit den mindestens zwei Kameramodulen (21, 22) aufgenommenen Bilddaten zu bestimmen, und - der Punktlichtprojektor (3) dazu konfiguriert ist, als Lichtmuster eine Folge von „Pseudo-Noise-Pattern“ zu erzeugen, die zeitlich hintereinander (t0, t1, ... tn) in das Fahrzeugumfeld (10, 11) projiziert werden.
  2. Kameravorrichtung nach Anspruch 1, wobei der Punktlichtprojektor (3) derart konfiguriert ist, dass durch die zeitliche Abfolge der „Pseudo-Noise-Pattern“ innerhalb von n Zeitschritten jede Umfeldposition, die im überlappenden Erfassungsbereich der mindestens zwei Kameramodule (21, 22) liegt, mindestens einmal von einem Messpunkt (6, 16, 26) des Lichtmusters belegt wird.
  3. Kameravorrichtung nach Anspruch 1 oder 2, wobei der Punktlichtprojektor (3) derart konfiguriert ist, dass der Abstand zwischen benachbarten beleuchtbaren Messpunkten (6, 7, 16, 26) des Lichtmusters angepasst ist an die Größe einer Korrelationsmaske (40, 41), wobei die Korrelationsmaske (40, 41) von der Auswerteeinheit verwendet wird, um die 3D-Position aus den aufgenommenen Bilddaten zu bestimmen.
  4. Kameravorrichtung nach einem der vorhergehenden Ansprüche, wobei als Punktlichtprojektor (3) Scheinwerfer des Fahrzeugs (1) verwendet werden, deren Leuchtelemente maxtrixförmig angeordnet sind und ein einzeln angesteuert werden können.
  5. Kameravorrichtung nach Anspruch 4, wobei die Scheinwerfer derart konfiguriert sind, dass die Punktlichter in schneller Folge so gewechselt werden, dass für den Fahrer eine gleichmäßige Lichtverteilung eines üblichen Frontscheinwerfers entsteht.
  6. Kameravorrichtung nach einem der vorhergehenden Ansprüche, wobei die Auswerteeinheit dazu konfiguriert ist, eine 3D-Rekonstruktion des Fahrzeugumfelds durch eine Überlagerung der 3D-Messungen aus den zeitlich hintereinander mit den Kameramodulen aufgenommenen Messpunkten des Lichtmusters zu ermitteln.
  7. Kameravorrichtung nach einem der vorhergehenden Ansprüche, wobei die beiden Kameramodule (21, 22) starr miteinander verbunden und Elemente einer Stereokamera (2) mit parallelen optischen Achsen sind.
  8. Kameravorrichtung nach einem der Ansprüche 1 bis 6, wobei die Kameravorrichtung derart ausgebildet ist, dass mindestens zwei Kameramodule (21, 22) an unterschiedlichen Positionen im oder am Fahrzeug (1) befestigt sind, insbesondere als Elemente eines Rundumsichtkamerasystems (Surround-View Systems), welches eine optische 360 Grad Erfassung des Umfelds (10, 11) des Fahrzeugs (1) bietet.
  9. Kameravorrichtung nach einem der vorhergehenden Ansprüche, wobei die Kameravorrichtung dazu konfiguriert ist, durch eine Projektion der Lichtpunkte auf eine ebene Fläche eine Einbaulage-Kalibrierung der Kameramodule (21, 22) durchzuführen.
  10. Verfahren zur räumlichen Erfassung eines Umfelds (10, 11) eines Fahrzeugs (1) mittels mindestens zwei Kameramodulen (21, 22) mit zumindest teilweise überlappenden Erfassungsbereichen und eines Punktlichtprojektors (3), wobei - der Punktlichtprojektor (3) ein Lichtmuster aus Messpunkten (6, 16, 17) in das Fahrzeugumfeld (10, 11) projiziert, - zumindest ein Teil des projizierten Lichtmusters wird im überlappenden Erfassungsbereich der mindestens zwei Kameramodule (21, 22) abgebildet, - die 3D-Position von Messpunkten (6, 16, 26) im Fahrzeugumfeld wird aus mit den mindestens zwei Kameramodulen (21, 22) aufgenommenen Bilddaten bestimmt, und - als Lichtmuster wird eine Folge von „Pseudo-Noise-Pattern“ erzeugt, die zeitlich hintereinander (t0, t1, ... tn) in das Fahrzeugumfeld (6, 16, 26) abgegeben werden.
DE102017222708.7A 2017-12-14 2017-12-14 3D-Umfelderfassung mittels Projektor und Kameramodulen Withdrawn DE102017222708A1 (de)

Priority Applications (6)

Application Number Priority Date Filing Date Title
DE102017222708.7A DE102017222708A1 (de) 2017-12-14 2017-12-14 3D-Umfelderfassung mittels Projektor und Kameramodulen
DE112018002835.6T DE112018002835A5 (de) 2017-12-14 2018-10-19 3D-Umfelderfassung mittels Projektion einer Reihe Pseudo-zufälligen Mustern und Stereo-Kameramodulen
JP2020527930A JP2021507205A (ja) 2017-12-14 2018-10-19 プロジェクタとカメラモジュールを用いた3d−周辺把握
US16/766,070 US11073379B2 (en) 2017-12-14 2018-10-19 3-D environment sensing by means of projector and camera modules
PCT/DE2018/200094 WO2019114889A1 (de) 2017-12-14 2018-10-19 3d-umfelderfassung mittels projektion einer reihe pseudo-zufälligen mustern und stereo-kameramodulen
CN201880080303.5A CN111465819B (zh) 2017-12-14 2018-10-19 借助伪随机图案序列的投射以及立体摄像模块的三维环境感测

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102017222708.7A DE102017222708A1 (de) 2017-12-14 2017-12-14 3D-Umfelderfassung mittels Projektor und Kameramodulen

Publications (1)

Publication Number Publication Date
DE102017222708A1 true DE102017222708A1 (de) 2019-06-19

Family

ID=64267408

Family Applications (2)

Application Number Title Priority Date Filing Date
DE102017222708.7A Withdrawn DE102017222708A1 (de) 2017-12-14 2017-12-14 3D-Umfelderfassung mittels Projektor und Kameramodulen
DE112018002835.6T Pending DE112018002835A5 (de) 2017-12-14 2018-10-19 3D-Umfelderfassung mittels Projektion einer Reihe Pseudo-zufälligen Mustern und Stereo-Kameramodulen

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE112018002835.6T Pending DE112018002835A5 (de) 2017-12-14 2018-10-19 3D-Umfelderfassung mittels Projektion einer Reihe Pseudo-zufälligen Mustern und Stereo-Kameramodulen

Country Status (5)

Country Link
US (1) US11073379B2 (de)
JP (1) JP2021507205A (de)
CN (1) CN111465819B (de)
DE (2) DE102017222708A1 (de)
WO (1) WO2019114889A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022002719A1 (de) * 2020-06-29 2022-01-06 Volkswagen Ag Vorrichtung und verfahren zur umfelderfassung eines fahrzeugs
DE102021202779A1 (de) 2021-03-23 2022-09-29 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zur Kalibrierung einer Kamera in einem Fortbewegungsmittel
DE102021206336A1 (de) 2021-06-21 2022-12-22 Robert Bosch Gesellschaft mit beschränkter Haftung Vorrichtung und Verfahren zur optischen Analyse einer Oberfläche
WO2024051988A1 (de) 2022-09-09 2024-03-14 Mercedes-Benz Group AG Verfahren zur kalibrierung von fahrzeugscheinwerfern

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020068960A1 (en) * 2018-09-26 2020-04-02 Coherent Logix, Inc. Any world view generation
KR102310102B1 (ko) * 2020-05-13 2021-10-08 이동우 그린라이 상태정보를 바탕으로 사용자의 예상 퍼팅경로를 제공하는 그린라이 계측장치
DE102020130473B3 (de) * 2020-11-18 2022-01-27 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren und System zur abstandsabhängigen Projektion von Bildobjekten bei HD-Matrix-Scheinwerfern
US20240029443A1 (en) * 2022-07-25 2024-01-25 Lumileds Llc Vehicle camera vision and control system and method

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19730414A1 (de) 1997-07-16 1999-01-21 Opel Adam Ag Verfahren und Vorrichtung zur vorausschauenden Fahrbahnbeurteilung
US20030152290A1 (en) * 2002-02-13 2003-08-14 Ascension Technology Corporation Range adaptable system for determining the angular position and distance of a radiating point source and method of employing
DE102010007396A1 (de) * 2010-02-03 2011-08-04 Carl Zeiss OIM GmbH, 73117 Verfahren und Vorrichtung zum optischen Inspizieren eines Prüflings mit einer zumindest teilweise reflektierenden Oberfläche
US20130100282A1 (en) * 2010-06-21 2013-04-25 Leica Geosystems Ag Optical measurement method and measurement system for determining 3d coordinates on a measurement object surface
DE102011121696A1 (de) * 2011-12-16 2013-06-20 Friedrich-Schiller-Universität Jena Verfahren zur 3D-Messung von tiefenlimitierten Objekten
DE202015105376U1 (de) 2015-10-12 2015-10-19 Sick Ag 3D-Kamera zur Aufnahme von dreidimensionalen Bildern
DE102015008551A1 (de) 2015-07-07 2016-01-14 Daimler Ag Kalibrierung einer Kameraeinheit eines Kraftwagens
EP3070641A1 (de) * 2015-03-11 2016-09-21 Ricoh Company, Ltd. Abbildungssystem, bildverarbeitungssystem, lichtprojektionsvorrichtung und objekterkennungsverfahren

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0687377A (ja) * 1992-09-04 1994-03-29 Yazaki Corp 車両周辺監視装置
JP2001338280A (ja) * 2000-05-30 2001-12-07 Nippon Telegr & Teleph Corp <Ntt> 3次元空間情報入力装置
JP2006054504A (ja) * 2004-08-09 2006-02-23 Olympus Corp 画像生成方法および装置
US7804585B2 (en) * 2006-01-08 2010-09-28 Visiontools Bildanalyse Systeme Gmbh Creation of a range image
JP4837610B2 (ja) * 2007-03-29 2011-12-14 パナソニック株式会社 暗視撮像装置及びヘッドライトモジュール
JP2013114290A (ja) * 2011-11-25 2013-06-10 Seiko Epson Corp 安全支援装置、及び、安全支援方法
DE102012207716A1 (de) 2012-05-09 2013-11-14 Robert Bosch Gmbh Optisches Abtastsystem und optisches Abtastverfahren
DE102012015939A1 (de) * 2012-08-10 2014-02-13 Audi Ag Kraftfahrzeug mit Fahrerassistenzsystem und Verfahren zum Betrieb eines Fahrerassistenzsystems
DE102013102820A1 (de) * 2013-03-19 2014-09-25 Conti Temic Microelectronic Gmbh Stereokameramodul sowie Verfahren zur Herstellung
US20140307055A1 (en) * 2013-04-15 2014-10-16 Microsoft Corporation Intensity-modulated light pattern for active stereo
DE102014203335A1 (de) * 2014-02-25 2015-08-27 Automotive Lighting Reutlingen Gmbh Lichtmodul eines Kraftfahrzeugscheinwerfers und Scheinwerfer mit einem solchen Lichtmodul
EP3067826B1 (de) * 2015-03-11 2021-05-05 Ricoh Company, Ltd. Bildverarbeitungssystem und verfahren zur parallax-bilderzeugung
JP6687886B2 (ja) * 2015-03-11 2020-04-28 株式会社リコー 画像処理システム、移動体制御システム、移動体装置、物体検出方法、物体検出プログラム
CN105222752B (zh) * 2015-09-29 2017-12-26 中国民用航空总局第二研究所 一种使用结构光的移动式道面检测装置及方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19730414A1 (de) 1997-07-16 1999-01-21 Opel Adam Ag Verfahren und Vorrichtung zur vorausschauenden Fahrbahnbeurteilung
US20030152290A1 (en) * 2002-02-13 2003-08-14 Ascension Technology Corporation Range adaptable system for determining the angular position and distance of a radiating point source and method of employing
DE102010007396A1 (de) * 2010-02-03 2011-08-04 Carl Zeiss OIM GmbH, 73117 Verfahren und Vorrichtung zum optischen Inspizieren eines Prüflings mit einer zumindest teilweise reflektierenden Oberfläche
US20130100282A1 (en) * 2010-06-21 2013-04-25 Leica Geosystems Ag Optical measurement method and measurement system for determining 3d coordinates on a measurement object surface
DE102011121696A1 (de) * 2011-12-16 2013-06-20 Friedrich-Schiller-Universität Jena Verfahren zur 3D-Messung von tiefenlimitierten Objekten
EP3070641A1 (de) * 2015-03-11 2016-09-21 Ricoh Company, Ltd. Abbildungssystem, bildverarbeitungssystem, lichtprojektionsvorrichtung und objekterkennungsverfahren
DE102015008551A1 (de) 2015-07-07 2016-01-14 Daimler Ag Kalibrierung einer Kameraeinheit eines Kraftwagens
DE202015105376U1 (de) 2015-10-12 2015-10-19 Sick Ag 3D-Kamera zur Aufnahme von dreidimensionalen Bildern

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022002719A1 (de) * 2020-06-29 2022-01-06 Volkswagen Ag Vorrichtung und verfahren zur umfelderfassung eines fahrzeugs
DE102021202779A1 (de) 2021-03-23 2022-09-29 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zur Kalibrierung einer Kamera in einem Fortbewegungsmittel
DE102021206336A1 (de) 2021-06-21 2022-12-22 Robert Bosch Gesellschaft mit beschränkter Haftung Vorrichtung und Verfahren zur optischen Analyse einer Oberfläche
WO2024051988A1 (de) 2022-09-09 2024-03-14 Mercedes-Benz Group AG Verfahren zur kalibrierung von fahrzeugscheinwerfern
DE102022003313A1 (de) 2022-09-09 2024-03-14 Mercedes-Benz Group AG Verfahren zur Kalibrierung von Fahrzeugscheinwerfern

Also Published As

Publication number Publication date
CN111465819A (zh) 2020-07-28
US20200348127A1 (en) 2020-11-05
US11073379B2 (en) 2021-07-27
DE112018002835A5 (de) 2020-02-20
JP2021507205A (ja) 2021-02-22
CN111465819B (zh) 2023-07-25
WO2019114889A1 (de) 2019-06-20

Similar Documents

Publication Publication Date Title
DE102017222708A1 (de) 3D-Umfelderfassung mittels Projektor und Kameramodulen
DE10305010B4 (de) Vorrichtung und Verfahren zur Bilderzeugung
EP3465534B1 (de) Beleuchtungseinrichtung für ein kraftfahrzeug zur erhöhung der erkennbarkeit eines hindernisses
DE19727281C1 (de) Verfahren und Vorrichtung zur geometrischen Kalibrierung von CCD-Kameras
DE102012211791B4 (de) Verfahren und Anordnung zum Prüfen eines Fahrzeugunterbodens eines Kraftfahrzeuges
DE112015001741T5 (de) System und Verfahren für Nachtvisionsobjektdetektion und Fahrerassistenz
EP2416139A1 (de) Verfahren zur Kalibrierung eines wenigstens einen Scheinwerfer eines Kraftfahrzeuges ansteuernden Fahrzeugsystems
DE102010039092B4 (de) Verfahren und Steuergerät zum Ermitteln eines Abstandes eines Objektes von einem Fahrzeug
DE102011109440A1 (de) Verfahren zum Justieren und/oder Kalibrieren zumindest eines Scheinwerfers eines Fahrzeugs
DE102020007613A1 (de) Verfahren zur Generierung einer dreidimensionalen Tiefeninformationskarte einer Umgebung
DE102011081384B4 (de) Verfahren und Vorrichtung zur Abstandsbestimmung für ein Fahrzeug
DE102020131662B3 (de) Verfahren und Gonioradiometer zur richtungsabhängigen Messung mindestens einer lichttechnischen oder radiometrischen Kenngröße einer in ein Objekt eingebauten optischen Strahlungsquelle
DE202015105376U1 (de) 3D-Kamera zur Aufnahme von dreidimensionalen Bildern
DE102015223500A1 (de) Verfahren und Vorrichtung zur Prüfung der Funktionalität einer außenseitigen Lichteinrichtung eines Fahrzeugs
DE102011017707A1 (de) Verfahren und Vorrichtung zur Erkennung von einem Objekt in einer Umgebung einer Kamera
DE102020117060B4 (de) Vorrichtung und Verfahren zur Umfelderfassung eines Fahrzeugs
WO2018210986A1 (de) Anordnung und verfahren zur berührungslosen entfernungsbestimmung nach art des lichtschnittverfahrens
DE102017207729A1 (de) Verfahren und Vorrichtung zur Detektion eines sich nicht in einem Erfassungsbereich einer Kamera befindlichen Objekts
EP3049757B1 (de) Fahrwerksvermessung bei umgebungslicht
EP3465533A2 (de) Linear polarisierte lichtabstrahlung durch einen fahrzeugscheinwerfer zum einsatz in einem kamerabasierten fahrerassistenzsystem
DE3908785A1 (de) Verfahren und einrichtungen zur messung der geschwindigkeit von kraftfahrzeugen
DE102019214404A1 (de) Diagnostizierende beleuchtung
DE10301094B4 (de) Vorrichtung zur Messung des Abstandes von Entfernungspunkten zu einer Kamera
WO2008141924A1 (de) Verfahren und vorrichtung zur oberflächenerfassung eines räumlichen objektes
DE102022002766B4 (de) Verfahren zur dreidimensionalen Rekonstruktion einer Fahrzeugumgebung

Legal Events

Date Code Title Description
R163 Identified publications notified
R118 Application deemed withdrawn due to claim for domestic priority