DE102015016943A1 - Verfahren zur Selbstlokalisation eines Fahrzeugs - Google Patents

Verfahren zur Selbstlokalisation eines Fahrzeugs Download PDF

Info

Publication number
DE102015016943A1
DE102015016943A1 DE102015016943.2A DE102015016943A DE102015016943A1 DE 102015016943 A1 DE102015016943 A1 DE 102015016943A1 DE 102015016943 A DE102015016943 A DE 102015016943A DE 102015016943 A1 DE102015016943 A1 DE 102015016943A1
Authority
DE
Germany
Prior art keywords
vehicle
image acquisition
image
images
acquisition unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102015016943.2A
Other languages
English (en)
Inventor
Fridtjof Stein
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Daimler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler AG filed Critical Daimler AG
Priority to DE102015016943.2A priority Critical patent/DE102015016943A1/de
Publication of DE102015016943A1 publication Critical patent/DE102015016943A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30264Parking

Abstract

Die Erfindung betrifft ein Verfahren zur Selbstlokalisation eines Fahrzeugs (2), wobei mittels zumindest einer Bilderfassungseinheit (3, 5, 7, 8) eine Fahrzeugumgebung erfasst wird und zumindest Abschnitte einer in der Fahrzeugumgebung befindlichen und von der Bilderfassungseinheit (3, 5, 7, 8) erfassten Bodenoberfläche ausgewertet werden, wobei die Selbstlokalisierung des Fahrzeugs (2) anhand einer Anordnung von Strukturmerkmalen der Bodenoberfläche und einer relativen Anordnung und Ausrichtung von Fahrzeugabschnitten zu diesen Strukturmerkmalen durchgeführt wird.
Erfindungsgemäß wird in Abhängigkeit einer Fahrsituation automatisch eine Belichtung der Bilderfassungseinheit (3, 5, 7, 8) eingestellt, wobei die Einstellung der Belichtung in Abhängigkeit einer Fahrsituation für einen Teilbereich (TB1 bis TB4) eines mittels der Bilderfassungseinheit (3, 5, 7, 8) erfassten Bildes (B1 bis B4) oder für das gesamte Bild (B1 bis B4) erfolgt.

Description

  • Die Erfindung betrifft ein Verfahren zur Selbstlokalisation eines Fahrzeugs gemäß dem Oberbegriff des Anspruchs 1.
  • Aus der DE 10 2013 003 117 A1 ist ein Verfahren zur Selbstlokalisation eines Fahrzeugs und zur Detektion von Objekten in einer Umgebung des Fahrzeugs bekannt. Die Umgebung wird mittels im Bereich von Außenspiegeln angeordneten Bilderfassungseinheiten erfasst und mittels der Bilderfassungseinheiten erfasste Bilder werden analysiert. Dabei werden Bildmerkmale der Bilder mit in einer Datenbank hinterlegten Vergleichsmerkmalen und/oder ermittelte Anordnungen von Bildmerkmalen zueinander mit Anordnungen hinterlegter Vergleichsmerkmale verglichen. Bei einer Übereinstimmung von Bildmerkmalen mit den Vergleichsmerkmalen und/oder von Anordnungen von Bildmerkmalen mit Anordnungen von Vergleichsmerkmalen wird eine Position des Fahrzeugs aus zu den Vergleichsmerkmalen und/oder Anordnungen von Vergleichsmerkmalen hinterlegten Positionsdaten ermittelt.
  • Auch die unveröffentlichte DE 10 2015 006 637.4 beschreibt ein Verfahren zur Selbstlokalisation eines Fahrzeugs, wobei zur Entzerrung von mittels in Außenspiegeln des Fahrzeugs angeordneten Bilderfassungseinheiten erfassten Bildern die Bilder auf eine virtuelle Bodenebene projiziert werden. Hierbei werden anhand von relativen Bewegungen zwischen den Bilderfassungseinheiten und einer Umgebung der Bilderfassungseinheiten und einer zeilen- oder spaltenweisen Belichtungssteuerung der Bilderfassungseinheiten hervorgerufene Verzerrungen der projizierten Bilder in Abhängigkeit einer Fahrzeuggeschwindigkeit mittels Werten zumindest einer Lookup-Tabelle und/oder mittels einer Bildkorrektur derart korrigiert und entzerrt, dass in Abhängigkeit der zeilen- oder spaltenweisen Belichtungssteuerung eine Verzerrung von Bildzeilen oder Bildspalten der projizierten Bilder kompensiert wird.
  • Der Erfindung liegt die Aufgabe zu Grunde, ein gegenüber dem Stand der Technik verbessertes Verfahren zur Selbstlokalisation eines Fahrzeugs anzugeben.
  • Die Aufgabe wird erfindungsgemäß mit einem Verfahren gelöst, welches die im Anspruch 1 angegebenen Merkmale aufweist.
  • Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
  • In dem Verfahren zur Selbstlokalisation eines Fahrzeugs wird mittels zumindest einer, beispielsweise in einem Außenspiegel angeordneten, Bilderfassungseinheit eine Fahrzeugumgebung erfasst und zumindest Abschnitte einer in der Fahrzeugumgebung befindlichen und von der Bilderfassungseinheit erfassten Bodenoberfläche werden ausgewertet. Die Selbstlokalisierung des Fahrzeugs wird anhand einer Anordnung von Strukturmerkmalen der Bodenoberfläche und einer relativen Anordnung und Ausrichtung von Fahrzeugabschnitten zu diesen Strukturmerkmalen durchgeführt.
  • Erfindungsgemäß wird in Abhängigkeit einer Fahrsituation automatisch eine Belichtung der Bilderfassungseinheit eingestellt, wobei die Einstellung der Belichtung in Abhängigkeit einer Fahrsituation für einen Teilbereich eines mittels der Bilderfassungseinheit erfassten Bildes oder für das gesamte Bild erfolgt.
  • Mittels des Verfahrens wird eine erhöhte Verfügbarkeit mittels der Bilderfassungseinheit erfasster Bilder zu einer Verwendung bei einer bildabhängigen Ausführung einer Fahrzeugfunktion und/oder Fahrerassistenzfunktion auch bei einer geringen Umgebungshelligkeit erzielt. Weiterhin kann eine Genauigkeit bei einer Vermessung einer mittels der Bilderfassungseinheit erfassten Fahrzeugumgebung auch bei geringen Umgebungshelligkeiten erhöht werden.
  • Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.
  • Dabei zeigen:
  • 1 schematisch eine perspektivische Ansicht auf eine Unterseite eines Außenspiegels eines Fahrzeugs
  • 2 schematisch eine Draufsicht auf ein Fahrzeug, mittels in Außenspiegeln des Fahrzeugs angeordneter Kameras erfasste Bilder und in den Bildern markierte Teilbereiche,
  • 3 schematisch eine Draufsicht auf ein Fahrzeug, mittels in Außenspiegeln des Fahrzeugs angeordneter Kameras erfasste und entzerrte Bilder und in den entzerrten Bildern markierte Teilbereiche und
  • 4 schematisch eine Draufsicht auf ein Fahrzeug, mittels am Fahrzeug angeordneter Kameras erfasste und zylinderprojizierte Bilder und in den Bildern markierte Teilbereiche.
  • Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.
  • In 1 ist eine perspektivische Ansicht eines Außenspiegels 1 eines in 2 gezeigten Fahrzeugs 2 dargestellt, wobei an einer Unterseite des Außenspiegels 1 eine in Richtung einer Fahrbahn gerichtete und als Kamera ausgebildete Bilderfassungseinheit 3 angeordnet ist. Der Außenspiegel 1 ist dabei mit der Bilderfassungseinheit 3 an einer Längsseite des Fahrzeugs 2 angeordnet. Die folgende Beschreibung zur 1 und den weiteren 2 bis 4 ist dabei nicht auf die im Außenspiegel 1 des Fahrzeugs 2 angeordnete Bilderfassungseinheit 3 beschränkt, sondern trifft analog auch auf andere am Fahrzeug 2 angeordnete, beispielsweise in 4 näher dargestellte Bilderfassungseinheiten 7, 8, beispielsweise Rückfahrkameras und Frontkameras, zu.
  • Die Bilderfassungseinheit 3 ist zur Erfassung einer Fahrzeugumgebung vorgesehen und Bestandteil einer nicht gezeigten Fahrerassistenzvorrichtung zur Fahrspurerkennung, zur Erfassung einer Fahrdynamik des Fahrzeugs 2 und/oder zur Unterstützung eines Fahrers bei einem Einparkvorgang. Bei einer Verwendung der Bilderfassungseinheit 3 zur Unterstützung des Fahrers bei einem Einparkvorgang sind mittels dieser insbesondere Bilddaten erzeugbar, welche zur Darstellung einer Fahrzeugumgebung aus einer Vogelperspektive, auch als Surround-View-Funktionalität bezeichnet, verwendet werden. Hierzu umfasst die Bilderfassungseinheit 3 in nicht näher dargestellter Weise ein als so genanntes Fischaugenobjektiv ausgebildetes Objektiv.
  • 2 zeigt eine Draufsicht auf das Fahrzeug 2 und mittels in Außenspiegeln 1, 4 des Fahrzeugs 2 angeordneter Bilderfassungseinheiten 3, 5 erfasste Bilder B1, B2. Die im Außenspiegel 4 angeordnete Bilderfassungseinheit 5 und ein Objektiv derselben entsprechen hinsichtlich ihrer Eigenschaften dabei insbesondere der in 1 beschrieben Bilderfassungseinheit 3 und deren Objektiv.
  • Aufgrund der Ausbildung der Objektive der Bilderfassungseinheiten 3, 5 als Fischaugenobjektiv weisen die Bilderfassungseinheiten 3, 5 einen verhältnismäßig großen Erfassungsbereich E1, E2 auf. Die Darstellungen der Fahrzeugumgebung in den erfassten Bildern B1, B2 sind jedoch aufgrund der optischen Eigenschaften der Fischaugenobjektive verzerrt.
  • Die Bilder B1, B2 zeigen dabei in verzerrter Weise die Fahrzeugumgebung mit jeweils einem Fahrbahnrand F im jeweiligen Erfassungsbereich E1, E2 der Bilderfassungseinheiten 3, 5, Abschnitte des Fahrzeugs 2 sowie Vorderräder 2.1, 2.2 und Hinterräder 2.3, 2.4 des Fahrzeugs 2 sowie eine Bodenoberfläche. Zur Verwendung der Bilderfassungseinheiten 3, 5 und der erfassten Bilder B1, B2 in der Fahrerassistenzvorrichtung zur Fahrspurerkennung, zur Erfassung der Fahrdynamik des Fahrzeugs 2 und/oder zur Unterstützung eines Fahrers bei einem Einparkvorgang ist eine Entzerrung der Bilder B1, B2 erforderlich.
  • Zur Entzerrung der Bilder B1, B2 umfasst das Fahrzeug 2 eine Bildverarbeitungseinheit 6, wobei die Entzerrung der Bilder B1, B2 durch Projektion derselben auf eine virtuelle Bodenebene in allgemein bekannter Weise unter Berücksichtigung von extrinsischen und intrinsischen Parametern der Bilderfassungseinheiten 3, 5 erfolgt, so dass projizierte und in 3 näher dargestellte entzerrte Bilder EB1, EB2 im Bereich der Bodenebene, d. h. der Bodenoberfläche, entzerrt dargestellt sind. Dabei ist es besonders vorteilhaft, dass aufgrund der Anordnung der Bilderfassungseinheiten 3, 5 in den Außenspiegeln 1, 4 stets ein Abstand der Bilderfassungseinheiten 3, 5 zum relativ zu den Bilderfassungseinheiten 3, 5 statisch angeordneten Boden bekannt ist. Durch diese Entzerrung werden aus den optischen Eigenschaften resultierende Verzerrungen der Bilder B1, B2 im Bereich der Bodenebene entzerrt.
  • Unter intrinsischen Parametern werden dabei interne Parameter der Bilderfassungseinheiten 3, 5, insbesondere Parameter des Objektivs der jeweiligen Bilderfassungseinheit 3, 5 und Parameter eines Bildsensors der jeweiligen Bilderfassungseinheit 3, 5 verstanden, welche beispielsweise einen Hauptpunkt, eine Brennweite, Aberrationen des Objektivs, radiale Verzeichnungen erster und höherer Ordnung, eine Bildpunkt- oder Pixelgröße, d. h. eine Bildauflösung, tangentiale Verzerrungen und weitere interne Parameter umfassen.
  • Unter extrinsischen Parametern der Bilderfassungseinheiten 3, 5 werden dabei so genannte Einbauparameter verstanden, welche eine Relation der Bilderfassungseinheiten 3, 5 zu deren Umgebung darstellen und in Abhängigkeit einer Anordnung der Bilderfassungseinheiten 3, 5 am oder im Fahrzeug 2 durch drei nicht näher dargestellte Raumkoordinaten und drei ebenfalls nicht näher dargestellte Richtungswinkel gekennzeichnet sind.
  • Neben der Entzerrung der Bilder B1, B2 ist zur Verwendung der Bilderfassungseinheiten 3, 5 und der erfassten Bilder B1, B2 in der Fahrerassistenzvorrichtung zur Fahrspurerkennung, zur Erfassung der Fahrdynamik des Fahrzeugs 2 und/oder zur Unterstützung eines Fahrers bei einem Einparkvorgang eine ausreichende Helligkeit der Fahrzeugumgebung in den Bildern B1, B2 erforderlich, um innerhalb der Bilder B1, B2 Strukturmerkmale der Bodenoberfläche und eine relative Anordnung und Ausrichtung von Fahrzeugabschnitten zu diesen Strukturmerkmalen zu erfassen und zu erkennen.
  • Insbesondere zur Realisierung der Unterstützung des Fahrers bei einem Einparkvorgang ist eine ausreichende Helligkeit von Teilbereichen TB1, TB2 der Bilder B1, B2 erforderlich, welche sich unmittelbar neben dem Fahrzeug 2 befinden. Insbesondere in diesen Teilbereichen TB1, TB2 kommt jedoch aufgrund einer automatischen Belichtungssteuerung der Bilderfassungseinheiten 3, 5 bei einer Bilderfassung bei Dunkelheit, beispielsweise bei vorhandene hellen Lampen in der Fahrzeugumgebung, oder bei tiefstehender Sonne zu einer Unterbelichtung, da die Belichtungssteuerung für das gesamte Bild B1, B2 durchgeführt wird. Daraus folgend besteht die Gefahr, dass eine Textur der Bodenoberfläche aufgrund eines zu geringen Kontrastes nicht aus den Bildern B1, B2 bestimmbar ist.
  • Aus diesem Grund ist es vorgesehen, dass in Abhängigkeit einer Fahrsituation des Fahrzeugs 2, beispielsweise bei einem Einparkvorgang, automatisch eine Belichtung der Bilderfassungseinheiten 3, 5 eingestellt wird. Dabei erfolgt die Einstellung der Belichtung vorliegend in Abhängigkeit der Fahrsituation für die Teilbereiche TB1, TB2 der Bilder B1, B2.
  • Werden die mittels der Bilderfassungseinheiten 3, 5 erfassten Bilder B1, B2 beispielsweise zur Darstellung der Fahrzeugumgebung aus einer Vogelperspektive, auch als Surround-View bezeichnet, verwendet, kann die Belichtung jeweils für das gesamte Bild B1, B2 erfolgen, um eine für einen Nutzer ansprechende Darstellung zu erzielen.
  • In 4 eine Draufsicht auf ein Fahrzeug 2 dargestellt, wobei das Fahrzeug 2 zusätzlich zu den Bilderfassungseinheiten 3, 5 eine als Frontkamera ausgebildete Bilderfassungseinheit 7 mit einem Erfassungsbereich E3 und eine als Heckkamera ausgebildete Bilderfassungseinheit 8 mit einem Erfassungsbereich E4 umfasst.
  • Die mittels der Bilderfassungseinheiten 3, 5, 7, 8 erfassten Bilder B1 bis B4 werden auf virtuelle Zylinderprojektionsflächen P1 bis P4 in bekannter Weise mittels einer Zylinderprojektion projiziert. Somit können mittels der Bilderfassungseinheiten 3, 5, 7, 8 und der Fischaugenobjektive Bereiche der Bodenoberfläche nahe am Fahrzeug 2 erfasst werden. Nah am Fahrzeug 2 befindliche Bereiche sind in den Bildern B1 bis B4 stark verzerrt abgebildet, während weiter entfernte Bereiche geringere Verzerrungen aufweisen.
  • Insbesondere zur Realisierung der Unterstützung des Fahrers bei einem Einparkvorgang erfolgt in den Teilbereichen TB1 bis TB4 in Abhängigkeit einer Fahrsituation des Fahrzeugs 2 automatisch eine Steuerung oder Regelung der Belichtung der Bilderfassungseinheiten 3, 5, 7, 8.
  • Werden die mittels der Bilderfassungseinheiten 3, 5, 7, 8 erfassten Bilder B1 bis B4 beispielsweise zur Darstellung der Fahrzeugumgebung aus einer Vogelperspektive verwendet, kann die Belichtung jeweils für das gesamte Bild B1 bis B4 erfolgen, um eine für einen Nutzer ansprechende Darstellung zu erzielen.
  • Bezugszeichenliste
  • 1
    Außenspiegel
    2
    Fahrzeug
    2.1
    Vorderrad
    2.2
    Vorderrad
    2.3
    Hinterrad
    2.4
    Hinterrad
    3
    Bilderfassungseinheit
    4
    Außenspiegel
    5
    Bilderfassungseinheit
    6
    Bildverarbeitungseinheit
    7
    Bilderfassungseinheit
    8
    Bilderfassungseinheit
    B1 bis B4
    Bild
    EB1, EB2
    entzerrtes Bild
    E1 bis E4
    Erfassungsbereich
    F
    Fahrbahnrand
    P1 bis P4
    Zylinderprojektionsfläche
    TB1 bis TB4
    Teilbereich
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102013003117 A1 [0002]
    • DE 102015006637 [0003]

Claims (2)

  1. Verfahren zur Selbstlokalisation eines Fahrzeugs (2), – wobei mittels zumindest einer Bilderfassungseinheit (3, 5, 7, 8) eine Fahrzeugumgebung erfasst wird und – zumindest Abschnitte einer in der Fahrzeugumgebung befindlichen und von der Bilderfassungseinheit (3, 5, 7, 8) erfassten Bodenoberfläche ausgewertet werden, – wobei die Selbstlokalisierung des Fahrzeugs (2) anhand einer Anordnung von Strukturmerkmalen der Bodenoberfläche und einer relativen Anordnung und Ausrichtung von Fahrzeugabschnitten zu diesen Strukturmerkmalen durchgeführt wird, dadurch gekennzeichnet, dass – in Abhängigkeit einer Fahrsituation automatisch eine Belichtung der Bilderfassungseinheit (3, 5, 7, 8) eingestellt wird, – wobei die Einstellung der Belichtung in Abhängigkeit einer Fahrsituation für einen Teilbereich (TB1 bis TB4) eines mittels der Bilderfassungseinheit (3, 5, 7, 8) erfassten Bildes (B1 bis B4) oder für das gesamte Bild (B1 bis B4) erfolgt.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der Teilbereich (TB1 bis TB4) in Abhängigkeit einer anhand des erfassten Bildes (B1 bis B4) durchgeführten Fahrzeugfunktion und/oder Fahrerassistenzfunktion gewählt wird.
DE102015016943.2A 2015-12-24 2015-12-24 Verfahren zur Selbstlokalisation eines Fahrzeugs Withdrawn DE102015016943A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102015016943.2A DE102015016943A1 (de) 2015-12-24 2015-12-24 Verfahren zur Selbstlokalisation eines Fahrzeugs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102015016943.2A DE102015016943A1 (de) 2015-12-24 2015-12-24 Verfahren zur Selbstlokalisation eines Fahrzeugs

Publications (1)

Publication Number Publication Date
DE102015016943A1 true DE102015016943A1 (de) 2016-06-23

Family

ID=56099800

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015016943.2A Withdrawn DE102015016943A1 (de) 2015-12-24 2015-12-24 Verfahren zur Selbstlokalisation eines Fahrzeugs

Country Status (1)

Country Link
DE (1) DE102015016943A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017011834A1 (de) 2017-12-21 2018-05-30 Daimler Ag Verfahren zur Bewegungserfassung für ein Fahrzeug
DE102021119951A1 (de) 2021-08-02 2023-02-02 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren, System und Computerprogrammprodukt zur Erkennung der Umgebung eines Kraftfahrzeugs

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013003117A1 (de) 2013-02-25 2013-08-29 Daimler Ag Verfahren zur Selbstlokalisation eines Fahrzeugs und zur Detektion von Objekten in einer Umgebung des Fahrzeugs
DE102015006637A1 (de) 2015-05-22 2016-02-25 Daimler Ag Verfahren zur Entzerrung von Bildern

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013003117A1 (de) 2013-02-25 2013-08-29 Daimler Ag Verfahren zur Selbstlokalisation eines Fahrzeugs und zur Detektion von Objekten in einer Umgebung des Fahrzeugs
DE102015006637A1 (de) 2015-05-22 2016-02-25 Daimler Ag Verfahren zur Entzerrung von Bildern

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017011834A1 (de) 2017-12-21 2018-05-30 Daimler Ag Verfahren zur Bewegungserfassung für ein Fahrzeug
DE102021119951A1 (de) 2021-08-02 2023-02-02 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren, System und Computerprogrammprodukt zur Erkennung der Umgebung eines Kraftfahrzeugs

Similar Documents

Publication Publication Date Title
EP1797534B1 (de) Verfahren für die erfassung einer optischen struktur
EP3281178A1 (de) Verfahren zur darstellung einer fahrzeugumgebung eines fahrzeuges
DE102016206493A1 (de) Verfahren und Kamerasystem zur Entfernungsbestimmung von Objekten zu einem Fahrzeug
DE102012025322A1 (de) Kraftfahrzeug mit Kamera-Monitor-System
DE102013108070A1 (de) Bildkalibrierung und Entzerrung einer Weitwinkelkamera
DE102015216908A1 (de) Verfahren zum Erkennen von Objekten auf einer Abstellfläche
DE102010062496A1 (de) Verfahren und Vorrichtung zum Verarbeiten von Bildinformationen zweier zur Bilderfassung geeigneter Sensoren eines Stereo-Sensor-Systems
DE102016225066A1 (de) Rundumsichtsystem für ein Fahrzeug
DE102015209764A1 (de) Extrinsische Kalibrierung einer Bilderfassungseinrichtung eines Fahrzeugs
DE102015009657A1 (de) Verfahren zur Kalibrierung und Verfahren zur Justierung einer an einem Fahrzeug angeordneten Kamera
DE102018204451A1 (de) Verfahren und Vorrichtung zur Autokalibrierung eines Fahrzeugkamerasystems
DE102014012250A1 (de) Verfahren zur Bilderverarbeitung und -darstellung
DE102015016943A1 (de) Verfahren zur Selbstlokalisation eines Fahrzeugs
DE102015006571A1 (de) Vorrichtung und Verfahren zur Ermittlung einer Verwindung einer Karosserie und/oder eines Fahrgestells
DE102013103953A1 (de) Spurerkennung bei voller Fahrt unter Verwendung mehrerer Kameras
DE102013203404A1 (de) Verfahren und Vorrichtung zur dreidimensionalen Abbildung zumindest eines Teilbereichs eines Fahrzeugumfelds
DE102015006637A1 (de) Verfahren zur Entzerrung von Bildern
DE102015007678A1 (de) Fahrzeug sowie Verfahren und Vorrichtung zur Selbstlokalisation eines Fahrzeugs
DE102010021221A1 (de) Verfahren zur Bestimmung einer Ausrichtung einer an einem Fahrzeug angeordneten Kamera
DE102017011558A1 (de) Verfahren zur kamerabasierten Ermittlung einer Eigenbewegung und/oder einer Drehbewegung um eine Fahrzeughochachse eines Fahrzeugs
DE102017221381A1 (de) Verfahren, Vorrichtung und Computerprogramm zum Ermitteln eines Abstandes zu einem Objekt
DE102019108056A1 (de) Bilderfassungssystem
DE102019000486A1 (de) Verfahren zum Erkennen und Anzeigen von Verkehrsspiegeln
DE102014207897A1 (de) Verfahren zum Erzeugen eines Anzeigebildes
DE102017206175A1 (de) Surround-View-System für ein Fahrzeug

Legal Events

Date Code Title Description
R230 Request for early publication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee