DE102021205593B3 - Verfahren und System zur Korrektur einer Position zumindest eines Merkmals in einem Umfeld eines Ego-Fahrzeugs - Google Patents

Verfahren und System zur Korrektur einer Position zumindest eines Merkmals in einem Umfeld eines Ego-Fahrzeugs Download PDF

Info

Publication number
DE102021205593B3
DE102021205593B3 DE102021205593.1A DE102021205593A DE102021205593B3 DE 102021205593 B3 DE102021205593 B3 DE 102021205593B3 DE 102021205593 A DE102021205593 A DE 102021205593A DE 102021205593 B3 DE102021205593 B3 DE 102021205593B3
Authority
DE
Germany
Prior art keywords
environment
feature
ego vehicle
detection sensor
representation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102021205593.1A
Other languages
English (en)
Inventor
Peter Barth
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Autonomous Mobility Germany GmbH
Original Assignee
Continental Autonomous Mobility Germany GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Autonomous Mobility Germany GmbH filed Critical Continental Autonomous Mobility Germany GmbH
Priority to DE102021205593.1A priority Critical patent/DE102021205593B3/de
Priority to PCT/DE2022/200103 priority patent/WO2022253391A1/de
Priority to JP2023563196A priority patent/JP2024514006A/ja
Application granted granted Critical
Publication of DE102021205593B3 publication Critical patent/DE102021205593B3/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Traffic Control Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Korrektur einer Position (P) zumindest eines Merkmals in einem Umfeld eines Ego-Fahrzeugs mittels einer Fusion von Daten von zumindest einem ersten (1) und einem zweiten Umfelderfassungssensor (2) mit den folgenden Schritten:
- Aufzeichnen (S1) des Umfelds des Ego-Fahrzeugs mit dem ersten Umfelderfassungssensor (1) und Erzeugen einer ersten Umfeldrepräsentation,
- Aufzeichnen (S2) des Umfelds des Ego-Fahrzeugs mit dem zweiten Umfelderfassungssensor (2) und Erzeugen einer zweiten Umfeldrepräsentation,
- Detektieren (S3) zumindest eines Merkmals in der ersten Umfeldrepräsentation,
- Bestimmen (S4) der Position (P) des zumindest einen Merkmals basierend auf der ersten Umfeldrepräsentation,
- Ermitteln (S5) eines Höhenverlaufs (3, 5) in einem Bereich vor dem Ego-Fahrzeug basierend auf der zweiten Umfeldrepräsentation,
- Fusionieren (S6) der Position (P) des zumindest einen detektierten Merkmals und des ermittelten Höhenverlaufs (3, 5) und Ermitteln einer korrigierten Position,
- Korrigieren (S7) der Position (P) des zumindest einen Merkmals basierend auf der ermittelten korrigierten Position.

Description

  • Die Erfindung betrifft ein Verfahren und ein System zur Korrektur einer Position zumindest eines Merkmals in einem Umfeld eines Ego-Fahrzeugs.
  • Aus dem Stand der Technik ist beispielsweise eine Merkmalsextraktion für die Verwendung in ADAS-Systemen (z.B. andere Verkehrsteilnehmer, Spurgeometrie, fahrbarer Bereich etc.) bekannt, welche im Kamerabild stattfindet. Zusätzlich findet eine intrinsische sowie extrinsische Kalibrierung der Kamera statt, um die im Bild extrahierten Merkmale in das Fahrzeugkoordinatensystem umzuwandeln. Hierbei gibt es aktuell 3 wesentliche Ansätze.
  • Es gibt eine Flat-World-Annahme. Das heißt es wird angenommen, dass sich alles im Sichtfeld der Kamera auf einer Ebene (bspw. der Straße) befindet, die keine Höhenunterschiede aufweist. Weiterhin wird eine Stereokamera verwendet, um durch Assoziation in beiden Kamerabildern eine Tiefen-/Höhen-Information zu erhalten und damit eine 3D-Information zu erhalten. Als drittes ist bekannt, dass eine Schätzung von Tiefe und Höhe über Techniken wie optischer Fluss stattfindet.
  • Weiterhin ist aus der DE 10 2014 207 523 A1 ein Verfahren zum Kalibrieren eines Radarsensors bekannt, wobei hierbei mindestens ein Referenzobjekt an einer vorgegebenen Position in dem Radarsichtfeld angeordnet wird. Weiterhin wird eine geschätzte Position des Referenzobjekts erfasst und Korrekturwerte für die Position des mindestens einen Referenzobjekts basierend auf der vorgegebenen Position und der erfassten geschätzten Position berechnet.
  • Die DE 10 2020 205 468 A1 offenbart eine Steuereinheit, die dazu eingerichtet ist, ein Höhenprofil auf Basis von Sensordaten zu erfassen und eine Positionskorrektur für einen Kupplungskopf eines Fahrzeugs und/oder für ein Kupplungsauge eines Anhängers auf Grundlage des Höhenprofils und auf Grundlage eines Fahrzeugmodells des Fahrzeugs zu bestimmen.
  • Die JP 2019 - 089 476 A zeigt eine Parkunterstützungsvorrichtung und ein Computerprogramm, die jeweils eine genaue Erkennung eines freien Parkplatzes in einem Fahrzeugumfeld ermöglichen.
  • Es ist eine Aufgabe der vorliegenden Erfindung ein Verfahren und ein System bereitzustellen, mittels welchem eine erhöhte Genauigkeit bei der Positionsbestimmung von Merkmalen erreicht wird.
  • Diese Aufgabe wird erfindungsgemäß durch die unabhängigen Ansprüche 1 und 6 gelöst. Weitere vorteilhafte Ausgestaltungen und Ausführungsformen sind Gegenstand der Unteransprüche.
  • Erste Überlegungen waren dahingehend, dass die Kamera prinzipbedingt eine sehr hohe Auflösung für sich sehr nahe am Fahrzeug befindliche Merkmale hat, aber sehr schnell eine sehr geringe Auflösung für weiter entfernte Merkmale. Daher sind die Extraktionsergebnisse prinzipiell schnell ungenau. Die laterale Auflösung (also der Winkel des Merkmals in Bezug auf das Ego-Fahrzeug) ist zwar gut, die Höhe bzw. Entfernung des Merkmals vom Auto ist aber bereits nach wenigen Metern mit größeren Fehlern behaftet. Mit allen 3 zuvor genannten Techniken ist das Problem vorhanden und unterschiedlich stark ausgeprägt. Insbesondere sind die Fehler der Höhen- und Entfernungsberechnung gekoppelt.
  • Erfindungsgemäß wird daher ein Verfahren zur Korrektur einer Position zumindest eines Merkmals in einem Umfeld eines Ego-Fahrzeugs mittels einer Fusion von Daten von zumindest einem ersten und einem zweiten Umfelderfassungssensor mit den folgenden Schritten bereitgestellt:
    • - Aufzeichnen des Umfelds des Ego-Fahrzeugs mit dem ersten Umfelderfassungssensor und Erzeugen einer ersten Umfeldrepräsentation,
    • - Aufzeichnen des Umfelds des Ego-Fahrzeugs mit dem zweiten Umfelderfassungssensor und Erzeugen einer zweiten Umfeldrepräsentation,
    • - Detektieren zumindest eines Merkmals in der ersten Umfeldrepräsentation,
    • - Bestimmen der Position des zumindest einen Merkmals basierend auf der ersten Umfeldrepräsentation,
    • - Ermitteln eines Höhenverlaufs in einem Bereich vor dem Ego-Fahrzeug basierend auf der zweiten Umfeldrepräsentation,
    • - Fusionieren der Position des zumindest einen detektierten Merkmals und des ermittelten Höhenverlaufs und Ermitteln einer korrigierten Position,
    • - Korrigieren der Position des zumindest einen Merkmals basierend auf der ermittelten korrigierten Position.
  • Bevorzugt ist der erste Umfelderfassungssensor eine Kamera und der zweite Umfelderfassungssensor ein Radar- oder Lidar-Sensor. Entsprechend ist die erste Umfeldrepräsentation ein Kamerabild und die zweite Umfeldrepräsentation eine Objektliste oder eine Punktwolke. Das zumindest eine Merkmal kann beispielsweise ein Objekt, wie z.B. ein Verkehrszeichen, eine Fahrbahnbegrenzung o.ä. oder auch ein anderer Verkehrsteilnehmer wie beispielsweise ein weiteres Fahrzeug, ein Fußgänger oder ein Fahrradfahrer o.ä. sein. Zum Detektieren des Merkmals in der ersten Umfeldrepräsentation kann beispielsweise eine semantische Segmentierung durchgeführt werden. Der Bereich vor dem Fahrzeug beschreibt bevorzugt die vor dem Fahrzeug befindliche Fahrbahn bzw. Straßenoberfläche. Das Detektieren des Merkmals, die Positionsbestimmung, das Ermitteln des Höhenverlaufs, die Fusion sowie das Korrigieren der Position werden bevorzugt in einer entsprechenden Recheneinheit ausgeführt. Diese Recheneinheit ist bevorzugt eine ECU bzw. eine ADCU. Denkbar wäre auch, eine Sensorrecheneinheit, beispielsweise die Recheneinheit einer Kamera für die Verfahrensschritte zu verwenden. Die erzeugten Umfeldrepräsentationen werden hierbei an die Recheneinrichtung übertragen.
  • In einer bevorzugten Ausführungsform wird die Position des Merkmals in der ersten Umfeldrepräsentation in einer Flat-World Annahme in x- und y- Koordinaten ausgegeben. Die Bezugsebene dieser Flat-World-Annahme wäre die Fahrbahnoberfläche. Unter dieser Annahme kann auch die Entfernung des Ego-Fahrzeugs zu diesem Merkmal bestimmt werden. Die Koordinaten basieren dabei auf dem entsprechend kalibrierten Koordinatensystem des ersten Umfelderfassungssensors. Es wäre auch denkbar, dass der erste Umfelderfassungssensor bereits ein Höhenmodell besitzt und keine Flat-World-Annahme verwendet. In diesem Fall ist das Höhenmodell des ersten Umfelderfassungssensors in der Regel relativ ungenau. Das Höhenmodell basierend auf den Daten des zweiten Umfelderfassungssensors dagegen ist wesentlich präziser und detaillierter. Auch in einer derartigen Konfiguration ist das Verfahren wie beschrieben durchführbar.
  • In einer weiteren bevorzugten Ausgestaltung wird für die Fusion des Höhenverlaufs mit der Position des zumindest einen Merkmals ein geometrischer Schnitt angewandt. Das bedeutet, dass, vereinfacht dargestellt, der Sichtstrahl des ersten Umfelderfassungssensors, bevorzugt einer Kamera, mit dem ermittelten Höhenverlauf geschnitten wird. Der Sichtstrahl kann im Wesentlichen beschrieben werden, als die Lichtstrahlen, die von dem Objekt zu dem ersten Umfelderfassungssensor gelangen. Je nach Höhenverlauf muss der Sichtstrahl ggf. verlängert werden. So können die beiden Daten fusioniert werden und die korrigierte Position bestimmt werden, da der Höhenverlauf zu diesem Zeitpunkt bekannt ist und auch bekannt ist, wo sich der erste Umfelderfassungssensor befindet.
  • In einer bevorzugten Ausgestaltung wird für das Ermitteln des Höhenverlaufs ein Regressionsverfahren angewandt. Hierfür werden aus den Daten des zweiten Umfelderfassungssensors zumindest zwei Datenpunkte ermittelt, welche Höheninformationen aufweisen.
  • Besonders bevorzugt wird in einer Ausgestaltung des Verfahrens als Regressionsverfahren ein least-squares-Verfahren angewandt. Besonders bevorzugt handelt es sich um ein lineares least-squares-Verfahren. Hierbei kann ein lineares Modell oder ein polynomiales Modell verwendet werden. Das least-squares-Verfahren oder Methode der kleinsten Quadrate beschreibt allgemein ein mathematisches Verfahren zur Ausgleichungsrechnung. Hierbei wird zu einer Menge an Messpunkten eine Funktion bestimmt, die möglichst nahe an den Messpunkten verläuft und somit die Daten bestmöglich zusammenfasst. Beispielsweise können Messwerte des LIADR-Sensors verwendet werden und die z-Koordinaten der vom LIDAR gelieferten Punktwolke als Höhe und die x-Koordinaten als Position verwendet werden, um ein Höhenverlaufsmodell zu schätzen, das eine Höhe vor dem Fahrzeug angibt. Dabei werden nur Punkte verwendet, die eine nicht so hohe y-Abweichung von der x-Achse haben.
  • Erfindungsgemäß wird weiter ein System zur Korrektur einer Position zumindest eines Merkmals in einem Umfeld eines Ego-Fahrzeugs vorgeschlagen, umfassend zumindest einen ersten und einen zweiten Umfelderfassungssensor sowie eine Recheneinheit, wobei die Recheneinheit derart ausgestaltet ist, ein Verfahren gemäß den Ansprüchen 1 bis 4 durchzuführen.
  • Die Recheneinheit kann dabei beispielsweise als ECU oder ADCU ausgestaltet sein, welche als separates Element in dem Ego-Fahrzeug verbaut ist. Denkbar wäre auch, dass die Recheneinheit zur Durchführung des Verfahrens Bestandteil eines der Sensoren ist.
  • Weitere vorteilhafte Ausgestaltungen sind Gegenstand der Zeichnungen. Darin zeigen:
    • 1: ein schematisches Ablaufdiagramm eines Verfahrens gemäß einer Ausführungsform der Erfindung;
    • 2: eine schematische Darstellung einer Szene mit Positionsdetektion;
    • 3: eine schematische Ansicht eines Systems gemäß einer Ausführungsform der Erfindung.
  • In 1 ist ein Verfahren zur Korrektur einer Position P zumindest eines Merkmals in einem Umfeld eines Ego-Fahrzeugs mittels einer Fusion von Daten von zumindest einem ersten 1 und einem zweiten Umfelderfassungssensor 2 mit den folgenden Schritten gezeigt: In einem Schritt S1 wird das Umfeld des Ego-Fahrzeugs mit dem ersten Umfelderfassungssensor 1 aufgezeichnet und eine erste Umfeldrepräsentation erzeugt. In einem Schritt S2, welcher zeitgleich zu oder nach Schritt S1 ablaufen kann, wird das Umfeld des Ego-Fahrzeugs mit dem zweiten Umfelderfassungssensor 2 aufgezeichnet und eine zweite Umfeldrepräsentation erzeugt. In einem Schritt S3 wird zumindest ein Merkmal in der ersten Umfeldrepräsentation detektiert. In einem darauf folgenden Schritt S4 wird die Position P des zumindest einen Merkmals basierend auf der ersten Umfeldrepräsentation bestimmt. In einem Schritt S5 wird ein Höhenverlauf 3, 5 in einem Bereich vor dem Fahrzeug basierend auf der zweiten Umfeldrepräsentation bestimmt. Bei dem Höhenverlauf 3, 5 kann es sich z.B. um einen Anstieg 3 oder um eine Abfahrt 5 handeln. Es wäre auch denkbar, dass nicht nur eine stetige Abfahrt 5 bzw. ein Anstieg 3 vorliegt, sondern sich beide in gewissen Abständen abwechseln und somit kleinere Bodenwellen über eine bestimmte Strecke vorliegen. In einem Schritt S6 werden die Position P des zumindest einen detektierten Merkmals und des ermittelten Höhenverlaufs 3, 5 fusioniert und eine korrigierte Position ermittelt. Abschließend wird in Schritt S7 die Position P des zumindest einen Merkmals korrigiert, basierend auf der ermittelten korrigierten Position.
  • 2 zeigt eine schematische Darstellung einer Szene mit Positionsdetektion. Wie in 2 dargestellt wird mittels des ersten Umfelderfassungssensors 1, in diesem Fall eine Kamera, das Umfeld des Ego-Fahrzeugs aufgezeichnet. In diesem Umfeld wird in dem Kamerabild die Position P eines Merkmals, in der Darstellung eine Person, ermittelt. Das Bezugskoordinatensystem 6 der Kamera ist dabei auf eine Flat-World-Annahme 4 kalibriert. Dies bedeutet, dass die Bezugsebene der Flat-World-Annahme 4 die Straßenoberfläche ist. Die Kamera 1 erfasst nun unter dieser Annahme das Merkmal in dem Erfassungsbereich 7 der Kamera 1 und bestimmt dessen Position P. Allerdings kann der reale Straßenverlauf beispielsweise einen Anstieg 3 oder eine Abfahrt 5 aufweisen, weswegen eine Korrektur der ermittelten Position P notwendig wird, da die Position aufgrund der Flat-World-Annahme 4 nicht richtig bestimmt wird. Das Bezugszeichen P1 bezeichnet hierbei eine korrigierte Position P1 bei einem potenziellen Anstieg 3 und das Bezugszeichen P2 beschreibt eine korrigierte Position P2 bei einer potenziellen Abfahrt 5. Aufgrund der unterschiedlichen Fahrbahnverläufe 3, 5 unterscheidet sich die reale bzw. korrigierte Position P1, P2 zum Teil erheblich von der unter der Flat-World-Annahme 4 bestimmten Position P.
  • In 3 ist eine schematische Ansicht eines Systems 10 gemäß einer Ausführungsform der Erfindung gezeigt. Das System 10 umfasst dabei einen ersten 1 und einen zweiten Umfelderfassungssensor 2. Weiterhin ist eine Recheneinheit 8 vorgesehen, mittels welcher ein erfindungsgemäßes Verfahren durchführbar ist. Die Recheneinheit 8 ist in dieser Ausgestaltung als separates Element, bspw. als ECU/ADCU, in dem Ego-Fahrzeug vorgesehen. Hierbei sind der erste 1 und der zweite Umfelderfassungssensor 2 mittels einer Datenverbindung D mit der Recheneinheit 8 verbunden. Es wäre auch denkbar die Recheneinheit 8 zur Durchführung des Verfahrens in einen der Sensoren 1, 2 zu integrieren. Die Datenverbindung D kann beispielsweise kabelgebunden oder kabellos ausgestaltet sein.
  • Bezugszeichenliste
  • 1
    erster Umfelderfassungssensor
    2
    zweiter Umfelderfassungssensor
    3
    Anstieg Fahrbahnverlauf
    4
    Ebene der Flat-World-Annahme
    5
    Abfahrt Fahrbahnverlauf
    6
    Kamerakoordinatensystem
    7
    Erfassungsbereich
    8
    Recheneinheit
    10
    System
    D
    Datenverbindung
    P
    Position des zumindest einen Merkmals
    P1, P2
    korrigierte Position
    S1-S7
    Verfahrensschritte

Claims (6)

  1. Verfahren zur Korrektur einer Position (P) zumindest eines Merkmals in einem Umfeld eines Ego-Fahrzeugs mittels einer Fusion von Daten von zumindest einem ersten (1) und einem zweiten Umfelderfassungssensor (2) mit den folgenden Schritten: - Aufzeichnen (S1) des Umfelds des Ego-Fahrzeugs mit dem ersten Umfelderfassungssensor (1) und Erzeugen einer ersten Umfeldrepräsentation, - Aufzeichnen (S2) des Umfelds des Ego-Fahrzeugs mit dem zweiten Umfelderfassungssensor (2) und Erzeugen einer zweiten Umfeldrepräsentation, - Detektieren (S3) zumindest eines Merkmals in der ersten Umfeldrepräsentation, - Bestimmen (S4) der Position (P) des zumindest einen Merkmals basierend auf der ersten Umfeldrepräsentation, - Ermitteln (S5) eines Höhenverlaufs (3, 5) in einem Bereich vor dem Ego-Fahrzeug basierend auf der zweiten Umfeldrepräsentation, - Fusionieren (S6) der Position (P) des zumindest einen detektierten Merkmals und des ermittelten Höhenverlaufs (3, 5) und Ermitteln einer korrigierten Position, - Korrigieren (S7) der Position (P) des zumindest einen Merkmals basierend auf der ermittelten korrigierten Position.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Position (P) des Merkmals in der ersten Umfeldrepräsentation in einer Flat-World Annahme (4) in x- und y- Koordinaten ausgegeben wird.
  3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass für die Fusion des Höhenverlaufs (3, 5) mit der Position (P) des zumindest einen Merkmals ein geometrischer Schnitt angewandt wird.
  4. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass für das Ermitteln des Höhenverlaufs ein Regressionsverfahren angewandt wird.
  5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass als Regressionsverfahren ein least-squares-Verfahren angewandt wird.
  6. System (10) zur Korrektur einer Position (P) zumindest eines Merkmals in einem Umfeld eines Ego-Fahrzeugs umfassend zumindest einen ersten (1) und einen zweiten Umfelderfassungssensor (2) sowie eine Recheneinheit (8), wobei die Recheneinheit (8) derart ausgestaltet ist, ein Verfahren gemäß den Ansprüchen 1 bis 4 durchzuführen.
DE102021205593.1A 2021-06-01 2021-06-01 Verfahren und System zur Korrektur einer Position zumindest eines Merkmals in einem Umfeld eines Ego-Fahrzeugs Active DE102021205593B3 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102021205593.1A DE102021205593B3 (de) 2021-06-01 2021-06-01 Verfahren und System zur Korrektur einer Position zumindest eines Merkmals in einem Umfeld eines Ego-Fahrzeugs
PCT/DE2022/200103 WO2022253391A1 (de) 2021-06-01 2022-05-20 Verfahren und system zur korrektur einer position zumindest eines merkmals in einem umfeld eines ego-fahrzeugs
JP2023563196A JP2024514006A (ja) 2021-06-01 2022-05-20 自車両の周辺環境における少なくとも1つの特徴の位置を補正する方法およびシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021205593.1A DE102021205593B3 (de) 2021-06-01 2021-06-01 Verfahren und System zur Korrektur einer Position zumindest eines Merkmals in einem Umfeld eines Ego-Fahrzeugs

Publications (1)

Publication Number Publication Date
DE102021205593B3 true DE102021205593B3 (de) 2022-10-13

Family

ID=81854697

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021205593.1A Active DE102021205593B3 (de) 2021-06-01 2021-06-01 Verfahren und System zur Korrektur einer Position zumindest eines Merkmals in einem Umfeld eines Ego-Fahrzeugs

Country Status (3)

Country Link
JP (1) JP2024514006A (de)
DE (1) DE102021205593B3 (de)
WO (1) WO2022253391A1 (de)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130261921A1 (en) 2010-12-24 2013-10-03 Hitachi, Ltd. Driving support device
DE102014207523A1 (de) 2014-04-22 2015-10-22 Robert Bosch Gmbh Verfahren zum kalibrieren eines radarsensors und radarsystem
JP2019089476A (ja) 2017-11-15 2019-06-13 アイシン・エィ・ダブリュ株式会社 駐車支援装置及びコンピュータプログラム
DE102020205468A1 (de) 2020-04-30 2021-11-04 Zf Friedrichshafen Ag Autonomes und/oder assistiertes Kuppeln eines Anhängers unter Berücksichtigung des Höhenprofils des Untergrunds
EP3907108A1 (de) 2019-03-20 2021-11-10 Hitachi Astemo, Ltd. Vorrichtung zur verarbeitung von externen messinformationen

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130261921A1 (en) 2010-12-24 2013-10-03 Hitachi, Ltd. Driving support device
DE102014207523A1 (de) 2014-04-22 2015-10-22 Robert Bosch Gmbh Verfahren zum kalibrieren eines radarsensors und radarsystem
JP2019089476A (ja) 2017-11-15 2019-06-13 アイシン・エィ・ダブリュ株式会社 駐車支援装置及びコンピュータプログラム
EP3907108A1 (de) 2019-03-20 2021-11-10 Hitachi Astemo, Ltd. Vorrichtung zur verarbeitung von externen messinformationen
DE102020205468A1 (de) 2020-04-30 2021-11-04 Zf Friedrichshafen Ag Autonomes und/oder assistiertes Kuppeln eines Anhängers unter Berücksichtigung des Höhenprofils des Untergrunds

Also Published As

Publication number Publication date
WO2022253391A1 (de) 2022-12-08
JP2024514006A (ja) 2024-03-27

Similar Documents

Publication Publication Date Title
EP2788245B1 (de) Verfahren und vorrichtung zur lokalisation einer vordefinierten parkposition
DE102005056645B4 (de) Fahrzeugumgebungsüberwachungsvorrichtung
DE112014002019B4 (de) Kurvenformmodelliereinrichtung, Fahrzeuginformationsverarbeitungssystem, Kurvenformmodellierverfahren und Kurvenformmodellierprogramm
EP2504209B1 (de) Verfahren zur schätzung des rollwinkels in einem fahrenden fahrzeug
DE102014221144A1 (de) Zielerfassungsvorrichtung
WO2016188523A1 (de) Verfahren zur schätzung von fahrstreifen
EP1628141B1 (de) Triangulationsverfahren mit Laserdioden und einer Mono-Kamera zur Abstandsbestimmung für Stop-and-Go Anwendungen für Kraftfahrzeuge
WO2013083313A1 (de) Verfahren und vorrichtung zur erkennung einer bremssituation
DE102005056647B4 (de) Fahrzeugumgebungsüberwachungsvorrichtung
DE102012215322A1 (de) Verfahren und Vorrichtung zum Erkennen einer Position eines Fahrzeugs auf einer Fahrspur
DE102011004946A1 (de) Vorrichtung zum Erfassen einer Spurmarkierung auf einer Strasse
DE112017007347T5 (de) Objekterkennungsvorrichtung und fahrzeug
DE102018124979A1 (de) Fahrerassistenzsystem zur Bestimmung einer Entfernung zwischen zwei Fahrzeugen mit einer Kamera
DE102018204451A1 (de) Verfahren und Vorrichtung zur Autokalibrierung eines Fahrzeugkamerasystems
EP3815044B1 (de) Verfahren zu einer sensor- und speicherbasierten darstellung einer umgebung, anzeigevorrichtung und fahrzeug mit der anzeigevorrichtung
DE102008042631B4 (de) Verfahren und Vorrichtung zur Abstandsermittlung bei einem monokularen Videoassistenzsystem
DE102021205593B3 (de) Verfahren und System zur Korrektur einer Position zumindest eines Merkmals in einem Umfeld eines Ego-Fahrzeugs
DE102017221839A1 (de) Verfahren zur Positionsbestimmung für ein Fahrzeug, Steuergerät und Fahrzeug
DE102005035810A1 (de) Verfahren zur Sichtweitenbestimmung mit einer Kamera
WO2019057252A1 (de) Verfahren und vorrichtung zum erkennen von fahrspuren, fahrerassistenzsystem und fahrzeug
DE102018202753A1 (de) Verfahren zur Ermittlung einer Entfernung zwischen einem Kraftfahrzeug und einem Objekt
DE102006055145B4 (de) On-Board-Nebelbestimmungsvorrichtung
DE10333670A1 (de) Verfahren zum Ermitteln des Fahrbahnverlaufes aus Bilddaten
WO2018202259A1 (de) Aufbau und verfahren zur höhenkalibrierung einer monokularen fahrzeugkamera
DE102012008780A1 (de) Verfahren und Einrichtung zur Erfassung wenigstens eines Fahrbahnrandes und Kraftfahrzeug

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R081 Change of applicant/patentee

Owner name: CONTINENTAL AUTONOMOUS MOBILITY GERMANY GMBH, DE

Free format text: FORMER OWNER: CONTI TEMIC MICROELECTRONIC GMBH, 85057 INGOLSTADT, DE

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final