DE102019002269A1 - Verfahren zum Ermitteln einer Orientierung eines Fahrzeugs relativ zu einem Kraftfahrzeug - Google Patents

Verfahren zum Ermitteln einer Orientierung eines Fahrzeugs relativ zu einem Kraftfahrzeug Download PDF

Info

Publication number
DE102019002269A1
DE102019002269A1 DE102019002269.6A DE102019002269A DE102019002269A1 DE 102019002269 A1 DE102019002269 A1 DE 102019002269A1 DE 102019002269 A DE102019002269 A DE 102019002269A DE 102019002269 A1 DE102019002269 A1 DE 102019002269A1
Authority
DE
Germany
Prior art keywords
vehicle
orientation
image
determined
motor vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102019002269.6A
Other languages
English (en)
Inventor
Nils Christoph Gählert
Marina Mayer
Lukas Schneider
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Daimler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler AG filed Critical Daimler AG
Priority to DE102019002269.6A priority Critical patent/DE102019002269A1/de
Publication of DE102019002269A1 publication Critical patent/DE102019002269A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Ermitteln einer Orientierung eines sich in einer Umgebung (10) eines Kraftfahrzeugs befindenden Fahrzeugs (12) relativ zu dem Kraftahrzeug, mit den Schritten: Erfassen wenigstens eines Bilds (14) zumindest eines das Fahrzeug (12) umfassenden Teilbereiches (T) der Umgebung (10) mittels einer Kamera des Kraftfahrzeugs (Schritt S1); Analysieren des Bilds (14) mittels wenigstens eines künstlichen neuronalen Netzes, wodurch in dem Bild (14) eine eine erste Seite (16) des Fahrzeugs (12) umgebende, zweidimensionale erste Begrenzungsmarkierung (18) und eine eine zweite Seite (20) des Fahrzeugs (12) umgebende, zweidimensionale zweite Begrenzungsmarkierung (22) ermittelt werden (Schritt S2); und Kombinieren der Begrenzungsmarkierungen (18, 22), wodurch in Abhängigkeit von einem Verhältnis der kombinierten Begrenzungsmarkierungen (18, 22) zueinander die Orientierung des Fahrzeugs (12) relativ zu dem Kraftfahrzeug ermittelt wird (Schritt S3).

Description

  • Die Erfindung betrifft ein Verfahren zum Ermitteln einer Orientierung eines Fahrzeugs relativ zu einem Kraftfahrzeug.
  • Die DE 10 2012 223 121 A1 offenbart ein Verfahren zur Verfolgung wenigstens eines Objekts mittels wenigstens eines nachführbaren bildgebenden Sensors, mittels welchem das wenigstens eine Objekt erfasst wird.
  • Aufgabe der vorliegenden Erfindung ist es, ein Verfahren zu schaffen, mittels welchem auf besonders einfache und somit schnelle Weise eine Orientierung eines sich in einer Umgebung eines Kraftfahrzeugs befindenden Fahrzeugs relativ zu dem Kraftfahrzeug ermittelt werden kann.
  • Diese Aufgabe wird durch ein Verfahren mit den Merkmalen des Patentanspruchs 1 gelöst. Vorteilhafte Ausgestaltungen mit zweckmäßigen Weiterbildungen der Erfindung sind in den übrigen Ansprüchen angegeben.
  • Das erfindungsgemäße Verfahren zum Ermitteln einer Orientierung eines sich in einer Umgebung eines auch als Ego-Fahrzeug oder Ego-Kraftfahrzeug bezeichneten Kraftfahrzeugs befindenden Fahrzeugs relativ zu dem Ego-Fahrzeug umfasst einen ersten Schritt, bei welchem wenigstens ein Bild zumindest eines das Fahrzeug umfassenden Teilbereiches der Umgebung mittels einer Kamera des Ego-Fahrzeugs erfasst wird. Mit anderen Worten erfasst die Kamera des Ego-Fahrzeugs zumindest einen Teilbereich der Umgebung des Ego-Fahrzeugs, wobei sich das Fahrzeug in dem Teilbereich befindet. Durch das Erfassen des Teilbereichs wird mittels der Kamera des Ego-Fahrzeugs ein Bild des Teilbereichs erfasst beziehungsweise erzeugt. Die Kamera stellt beispielsweise das erfasste Bild beziehungsweise Bilddaten, welche das erfasste Bild charakterisieren, bereit.
  • Bei einem zweiten Schritt des Verfahrens wird das Bild mittels wenigstens eines künstlichen neuronalen Netzes, welches auch als künstliches neuronales Netzwerk (KNN) bezeichnet wird, analysiert. Hierdurch wird in dem Bild eine zweidimensionale erste Begrenzungsmarkierung geschätzt beziehungsweise ermittelt, wobei die zweidimensionale erste Begrenzungsmarkierung eine erste Seite des beispielsweise auf dem Bild abgebildeten Fahrzeugs umgibt beziehungsweise umhüllt oder umgrenzt. Außerdem wird durch das Analysieren des Bilds in dem Bild eine zweidimensionale zweite Begrenzungsmarkierung geschätzt beziehungsweise ermittelt, welche eine von der ersten Seite unterschiedliche zweite Seite des beispielsweise auf dem Bild abgebildeten Fahrzeugs umgibt, umhüllt beziehungsweise umgrenzt. Die jeweilige, zweidimensionale Begrenzungsmarkierung ist beispielsweise ein Rechteck und wird auch als 2D-Box oder 2D-Bounding-Box bezeichnet. Bei einem dritten Schritt des Verfahrens werden die zweidimensionalen Begrenzungsmarkierungen miteinander kombiniert, wodurch in Abhängigkeit von einem Verhältnis der miteinander kombinierten, zweidimensionalen Begrenzungsmarkierungen zueinander die Orientierung des Fahrzeugs relativ zu dem Ego-Fahrzeug ermittelt wird.
  • Mit anderen Worten werden durch das Analysieren des Bilds und somit mittels des künstlichen neuronalen Netzes in dem Bild beziehungsweise in dem das Bild charakterisierenden Bilddaten die 2D-Bounding-Boxen ermittelt, detektiert oder erzeugt, insbesondere durch Schätzen beziehungsweise Abschätzen. Die jeweilige 2D-Bounding-Box umgibt beziehungsweise umgrenzt die jeweilige Seite und beinhaltet somit zumindest einen Teil des sich in der Umgebung des Ego-Fahrzeugs befindenden Fahrzeugs. Die vorigen und folgenden Ausführungen zu dem Fahrzeug können ohne weiteres auch auf andere, sich in der Umgebung des Ego-Fahrzeugs befindende Objekte, insbesondere Verkehrsteilnehmer, übertragen werden und umgekehrt. Beispielsweise ist die erste Seite die Vorder- oder Rückseite des Fahrzeugs, wobei die zweite Seite beispielsweise die rechte oder linke Seite des Fahrzeugs ist. Diese 2D-Bounding-Boxen werden miteinander kombiniert, wodurch anschließend aus dem Verhältnis, insbesondere aus einem Seitenverhältnis, der kombinierten 2D-Bounding-Boxen die Orientierung des Fahrzeugs, insbesondere relativ zu dem Ego-Fahrzeug, ermittelt beziehungsweise bestimmt wird.
  • Ferner ist es denkbar, dass, insbesondere durch eine Transformation, anhand der, insbesondere miteinander kombinierte, 2D-Bounding-Boxen eine auch als 3D-Box oder 3D-Bounding-Box bezeichnete, dreidimensionale und quaderförmige Begrenzungsmarkierung bestimmt, ermittelt oder detektiert wird, insbesondere in dem Bild beziehungsweise in den Bilddaten. Insbesondere wird die 3D-Bounding-Box dadurch ermittelt oder erzeugt, dass die zweidimensionalen Begrenzungsmarkierungen, insbesondere zu der dreidimensionalen, quaderförmigen Begrenzungsmarkierung, miteinander kombiniert werden. Die 3D-Bounding-Box umgibt, umgrenzt oder umhüllt beispielsweise, insbesondere in dem Bild beziehungsweise in den Bilddaten, das, insbesondere auf dem Bild abgebildete, Fahrzeug.
  • Vorzugsweise ist ferner eine Kombination mit einem, insbesondere entfernungsauflösenden, Umgebungssensor des Kraftfahrzeugs vorgesehen. Der Umgebungssensor wird einfach auch als Sensor bezeichnet und ist ein zusätzlich zu der Kamera vorgesehener Umgebungssensor, mittels welchem beispielsweise im Rahmen des erfindungsgemäßen Verfahrens das sich in der Umgebung befindende Fahrzeug erfasst wird. Beispielsweise handelt es sich bei dem Umgebungssensor um eine weitere Kamera, insbesondere um eine Stereo-Kamera. Ferner kann der Umgebungssensor als ein Laser-Sensor oder als ein Lidar-Sensor ausgebildet sein. Der Umgebungssensor stellt beispielsweise das mittels des Umgebungssensors erfasste Fahrzeug charakterisierende und einfach auch als Daten bezeichnete Sensordaten bereit, welche beispielsweise der ermittelten Orientierung beziehungsweise wenigstens einer der 2D-Bounding-Boxen zugeordnet wird. Hierdurch kann beispielsweise auch in Abhängigkeit von den Sensordaten die Orientierung des Fahrzeugs besonders präzise ermittelt werden.
  • Als weiterhin vorteilhaft hat es sich gezeigt, wenn eine Position des Fahrzeugs, insbesondere relativ zu dem Ego-Fahrzeug, ermittelt und der Orientierung zugeordnet wird. Dadurch können mittels des erfindungsgemäßen Verfahrens auf einfache und schnelle Weise sowohl die Orientierung als auch die Position des Fahrzeugs, insbesondere relativ zu dem Ego-Fahrzeug, ermittelt werden, sodass mittels des erfindungsgemäßen Verfahrens auf besonders einfache und schnelle Weise wenigstens oder genau eine Pose des Fahrzeugs, insbesondere relativ zu dem Ego-Fahrzeug, ermittelt werden kann. Unter der Pose, welche auch als räumliche Lage bezeichnet wird, ist die Kombination von Position und Orientierung des Fahrzeugs, insbesondere relativ zu dem Ego-Fahrzeug, zu verstehen. Insbesondere ist es möglich, in Abhängigkeit von den Sensordaten die Position des Fahrzeugs, insbesondere relativ zu dem Ego-Fahrzeug, besonders präzise und schnell ermitteln zu können, sodass beispielsweise die Pose besonders vorteilhaft ermittelt werden kann.
  • Als weiterhin vorteilhaft hat es sich gezeigt, wenn in Abhängigkeit von dem Verhältnis der 2D-Bounding-Boxen auch wenigstens eine, insbesondere äußere, Abmessung des Fahrzeugs ermittelt wird. Ferner ist es denkbar, dass die Abmessung in Abhängigkeit von den Sensordaten ermittelt wird, wodurch die Abmessung präzise und schnell ermittelt werden kann.
  • Der Erfindung liegen insbesondere die folgenden Erkenntnisse zugrunde: Fahrzeuge, wie beispielsweise autonom fahrende Kraftfahrzeuge beziehungsweise deren elektronische Recheneinrichtungen sollten Kenntnis über andere, sich in der jeweiligen Umgebung befindende Fahrzeuge haben. Besonders vorteilhaft ist die Kenntnis über Abmessungen, Positionen und Orientierungen der anderen Fahrzeuge relativ zu den Ego-Fahrzeugen. Dabei ist es von Vorteil, wenn zum Einsatz kommende Algorithmen zum Bestimmen der Abmessungen, Positionen und Orientierungen echtzeitfähig sind, sodass Informationen über die jeweilige Abmessung, die jeweilige Position und die jeweilige Orientierung besonders schnell und zumindest nahezu in Echtzeit ermittelt werden können. Jeder in einem Fahrzeug verbaute Sensor sollte hierbei die maximale Information liefern können. Entsprechend sollten auch aus monokularen RGB-Bildern derartige Informationen extrahiert werden. Somit ist es vorzugsweise vorgesehen, dass das im Rahmen des erfindungsgemäßen Verfahrens erfasste Bild ein RGB-Bild, insbesondere ein monokulares beziehungsweise monokular erfasstes RGB-Bild, ist.
  • Bislang wurden Objekte wie beispielsweise Fahrzeuge in Echtzeit mittels 2D-Boxen detektiert. Hierbei fehlen jedoch oben genannte Parameter wie beispielsweise die Orientierung. Weiterhin versuchen andere Methoden, 3D-Boxen im dreidimensionalen Raum zu schätzen, was aufgrund der Komplexität von N3 sehr rechenintensiv und dadurch langsam und nicht echtzeitfähig ist. Das erfindungsgemäße Verfahren ermöglicht es nun, Informationen über Orientierung sowie vorzugsweise Position und/oder Abmessung des Fahrzeugs zumindest nahezu in Echtzeit ermitteln und bereitstellen zu können. Hierzu werden beispielsweise die wenigstens zwei 2D-Bounding-Boxen geschätzt, die eine Vorder- beziehungsweise Rückseite und eine rechte oder linke Seite des Fahrzeugs detektieren. Die zwei detektierten Seiten beziehungsweise die zwei geschätzten 2D-Bounding-Boxen werden miteinander zu einer sogenannten Verschmelzungsbox kombiniert, welche auch als Merge-Box bezeichnet wird. Aus dem Verhältnis der beiden miteinander kombinierten 2D-Boxen lassen sich Rückschlüsse auf Orientierung und Abmessung des Fahrzeugs ziehen, und wenigstens eine oder mehrere 3D-Bounding-Boxen können erzeugt werden.
  • Zudem ermöglicht es das erfindungsgemäße Verfahren, wenigstens oder genau eine 3D-Bounding-Box inklusive Orientierung, insbesondere Gier-Winkel, und grober Abmessung oder Abmessungen des Fahrzeugs anhand von Vorlagen, welche auch als Templates bezeichnet werden, zu gewinnen. Beispielsweise handelt es sich bei den Templates um die zuvor genannten 2D-Boxen. Abmessungen und Lokalisierungen sind hierbei durch die fehlende Tiefe skaliert. Unter in Bezugnahme des zusätzlich des zu der Kamera vorgesehenen Umgebungssensors oder von mehreren Umgebungssensoren wie beispielsweise Lidar-Sensor und/oder Stereo-Kamera lässt sich die absolute Tiefe messen und somit eine vollständige Beschreibung, insbesondere des Fahrzeugs, realisieren.
  • Weitere Vorteile, Merkmale und Einzelheiten der Erfindung ergeben sich aus der nachfolgenden Beschreibung eines bevorzugten Ausführungsbeispiels sowie anhand der Zeichnung Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in der einzigen Figur alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar, ohne den Rahmen der Erfindung zu verlassen.
  • Die Zeichnung zeigt in der einzigen Fig. ein Flussdiagramm zum Veranschaulichen eines erfindungsgemäßen Verfahrens.
  • Im Folgenden wird anhand der einzigen Fig. ein Verfahren zum Ermitteln einer Orientierung eines sich in einer Umgebung 10 eines auch als Ego-Fahrzeug oder Ego-Kraftfahrzeug bezeichneten Kraftfahrzeugs befindenden Fahrzeugs 12 relativ zu dem Ego-Fahrzeug beschrieben. Bei einem ersten Schritt S1 des Verfahrens wird mittels einer beispielsweise als Mono-Kamera ausgebildeten Kamera des Ego-Fahrzeugs wenigstens ein Bild 14 zumindest eines Teilbereichs T der Umgebung 10 erfasst beziehungsweise erzeugt, wobei sich das Fahrzeug 12 in dem Teilbereich T befindet. Somit ist das Fahrzeug 12 auf dem Bild 14 oder in dem Bild 14 abgebildet.
  • Bei einem zweiten Schritt S2 des Verfahrens wird das Bild 14 mittels wenigstens eines künstlichen neuronalen Netzes (KNN) analysiert, wodurch in dem Bild eine eine erste Seite 16 des Fahrzeugs 12 umgebende oder umgrenzende, zweidimensionale erste Begrenzungsmarkierung 18 und eine eine von der ersten Seite 16 unterschiedliche zweite Seite 20 des Fahrzeugs 12 umgebende beziehungsweise umgrenzende, zweidimensionale zweite Begrenzungsmarkierung 22, insbesondere durch Schätzen, ermittelt beziehungsweise detektiert oder erzeugt werden.
  • Bei einem dritten Schritt S3 des Verfahrens werden die auch als 2D-Boxen oder 2D-Bounding-Boxen bezeichneten, zweidimensionalen Begrenzungsmarkierungen 18 und 22 miteinander kombiniert, wodurch in Abhängigkeit von einem Verhältnis, insbesondere einem Seitenverhältnis, der miteinander kombinierten Begrenzungsmarkierungen 18 und 22 zueinander die Orientierung des Fahrzeugs 12 ermittelt wird. Durch das Kombinieren der 2D-Boxen wird, insbesondere in dem Bild 14, eine auch als Merge-Box bezeichnete Verschmelzungsbox 24, insbesondere in dem Bild 14, erzeugt, detektiert oder ermittelt. Dabei veranschaulicht in der Fig. ein Pfeil 26 das Kombinieren der 2D-Bounding-Boxen. Des Weiteren veranschaulicht in der Fig. ein Pfeil 28 eine Transformation, welche beispielsweise bei einem vierten Schritt S4 des Verfahrens durchgeführt wird. Bei dem vierten Schritt S4 wird die durch den Pfeil 28 veranschaulichte Transformation anhand der, insbesondere miteinander kombinierten, 2D-Bounding-Boxen eine auch als 3D-Box oder 3D-Bounding-Box bezeichnete, dreidimensionale und quaderförmige Begrenzungsmarkierung 30, insbesondere in dem Bild 14, ermittelt, detektiert oder erzeugt, insbesondere durch Schätzen oder Abschätzen, wobei die 3D-Bounding-Box das Fahrzeug 12, insbesondere in dem Bild 14, umgibt, umgrenzt oder umhüllt. Wie aus der Fig. erkennbar ist, ist bei dem in der Fig. gezeigten Ausführungsbeispiel die erste Seite 16 die Vorderseite des Fahrzeugs 12, wobei die zweite Seite 20 die in Vorwärtsfahrrichtung des Fahrzeugs 12 linke Seite des Fahrzeugs 12 ist. Die vorigen und folgenden Ausführungen können ohne Weiteres auch auf die Rückseite und die rechte Seite des Fahrzeugs 12 übertragen werden.
  • Bezugszeichenliste
  • 10
    Umgebung
    12
    Fahrzeug
    14
    Bild
    16
    erste Seite
    18
    zweidimensionale erste Begrenzungsmarkierung
    20
    zweite Seite
    22
    zweidimensionale zweite Begrenzungsmarkierung
    24
    Verschmelzungsbox
    26
    Pfeil
    28
    Pfeil
    30
    dreidimensionale Begrenzungsmarkierung
    T
    Teilbereich
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102012223121 A1 [0002]

Claims (6)

  1. Verfahren zum Ermitteln einer Orientierung eines sich in einer Umgebung (10) eines Kraftfahrzeugs befindenden Fahrzeugs (12) relativ zu dem Kraftahrzeug, mit den Schritten: - Erfassen wenigstens eines Bilds (14) zumindest eines das Fahrzeug (12) umfassenden Teilbereiches (T) der Umgebung (10) mittels einer Kamera des Kraftfahrzeugs (Schritt S1); - Analysieren des Bilds (14) mittels wenigstens eines künstlichen neuronalen Netzes, wodurch in dem Bild (14) eine eine erste Seite (16) des Fahrzeugs (12) umgebende, zweidimensionale erste Begrenzungsmarkierung (18) und eine eine zweite Seite (20) des Fahrzeugs (12) umgebende, zweidimensionale zweite Begrenzungsmarkierung (22) ermittelt werden (Schritt S2); und - Kombinieren der Begrenzungsmarkierungen (18, 22), wodurch in Abhängigkeit von einem Verhältnis der kombinierten Begrenzungsmarkierungen (18, 22) zueinander die Orientierung des Fahrzeugs (12) relativ zu dem Kraftfahrzeug ermittelt wird (Schritt S3).
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die erste Seite (16) die Vorderseite oder Rückseite des Fahrzeugs (12) ist, wobei die zweite Seite (20) die rechte Seite oder linke Seite des Fahrzeugs (12) ist.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die zweidimensionalen Begrenzungsmarkierungen (18, 22) zu einer dreidimensionalen, quaderförmigen Begrenzungsmarkierung (30) kombiniert werden.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in Abhängigkeit von dem Verhältnis auch wenigstens eine Abmessung des Fahrzeugs (12) ermittelt wird.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine Position des Fahrzeugs (12) relativ zu dem Kraftfahrzeug ermittelt und der Orientierung zugeordnet wird.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Fahrzeug (12) mittels wenigsten eines zusätzlich zu der Kamera vorgesehenen Umgebungssensors des Kraftfahrzeugs erfasst wird, wobei der Umgebungssensor das mittels des Umgebungssensor erfasste Fahrzeug (12) charakterisierende Daten bereitstellt.
DE102019002269.6A 2019-03-28 2019-03-28 Verfahren zum Ermitteln einer Orientierung eines Fahrzeugs relativ zu einem Kraftfahrzeug Withdrawn DE102019002269A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102019002269.6A DE102019002269A1 (de) 2019-03-28 2019-03-28 Verfahren zum Ermitteln einer Orientierung eines Fahrzeugs relativ zu einem Kraftfahrzeug

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019002269.6A DE102019002269A1 (de) 2019-03-28 2019-03-28 Verfahren zum Ermitteln einer Orientierung eines Fahrzeugs relativ zu einem Kraftfahrzeug

Publications (1)

Publication Number Publication Date
DE102019002269A1 true DE102019002269A1 (de) 2020-02-27

Family

ID=69413003

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019002269.6A Withdrawn DE102019002269A1 (de) 2019-03-28 2019-03-28 Verfahren zum Ermitteln einer Orientierung eines Fahrzeugs relativ zu einem Kraftfahrzeug

Country Status (1)

Country Link
DE (1) DE102019002269A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022117199A1 (en) * 2020-12-03 2022-06-09 Toyota Motor Europe A device and a method for representing the yaw orientation of a vehicle visible on an image
EP4105820A4 (de) * 2020-03-06 2023-07-26 Huawei Technologies Co., Ltd. Verfahren und vorrichtung zur erfassung von 3d-informationen eines fahrzeugs
DE102022112318B3 (de) 2022-05-17 2023-08-03 Audi Aktiengesellschaft Verfahren zur Ermittlung einer Ausdehnungsinformation eines Zielobjekts, Kraftfahrzeug, Computerprogramm und elektronisch lesbarer Datenträger
DE102023002473B3 (de) 2023-06-20 2024-10-02 Mercedes-Benz Group AG Verfahren zur Erstellung eines Datensatzes mit Ground-Truth-Labeln

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4105820A4 (de) * 2020-03-06 2023-07-26 Huawei Technologies Co., Ltd. Verfahren und vorrichtung zur erfassung von 3d-informationen eines fahrzeugs
WO2022117199A1 (en) * 2020-12-03 2022-06-09 Toyota Motor Europe A device and a method for representing the yaw orientation of a vehicle visible on an image
DE102022112318B3 (de) 2022-05-17 2023-08-03 Audi Aktiengesellschaft Verfahren zur Ermittlung einer Ausdehnungsinformation eines Zielobjekts, Kraftfahrzeug, Computerprogramm und elektronisch lesbarer Datenträger
DE102023002473B3 (de) 2023-06-20 2024-10-02 Mercedes-Benz Group AG Verfahren zur Erstellung eines Datensatzes mit Ground-Truth-Labeln

Similar Documents

Publication Publication Date Title
DE102019002269A1 (de) Verfahren zum Ermitteln einer Orientierung eines Fahrzeugs relativ zu einem Kraftfahrzeug
WO2015173092A1 (de) Verfahren und vorrichtung zur kalibrierung eines kamerasystems eines kraftfahrzeugs
DE102018122374B4 (de) Verfahren zum Bestimmen eines ein Kraftfahrzeug umgebenden Freiraums, Computerprogrammprodukt, Freiraumbestimmungseinrichtung und Kraftfahrzeug
DE102017208718A1 (de) Verfahren zur Erkennung von Objekten in einem Bild einer Kamera
DE102020127001A1 (de) Bildbasierte dreidimensionale fahrbahnerkennung
DE112015000763T5 (de) Fahrzeugumgebungsbildanzeigevorrichtung undFahrzeugumgebungsbildanzeigeverfahren
DE102014114221A1 (de) Verfahren zum Detektieren von einem Objekt in einem Umgebungsbereich eines Kraftfahrzeugs, Fahrerassistenzsystem und Kraftfahrzeug
DE102013021840A1 (de) Verfahren zum Erzeugen eines Umgebungsmodells eines Kraftfahrzeugs, Fahrerassistenzsystem und Kraftfahrzeug
DE102015104065A1 (de) Verfahren zum Bestimmen einer Position eines Objekts in einem dreidimensionalen Weltkoordinatensystem, Computerprogrammprodukt, Kamerasystem und Kraftfahrzeug
DE112020005735T5 (de) Positionsabschätzungsvorrichtung, Fahrzeug, Positionsabschätzungsverfahren und Positionsabschätzungsprogramm
DE102009052868A1 (de) Verfahren zum Betrieb eines Fahrassistenzsystems eines Fahrzeugs
DE102014007565A1 (de) Verfahren zum Ermitteln einer jeweiligen Grenze zumindest eines Objekts, Sensorvorrichtung, Fahrerassistenzeinrichtung und Kraftfahrzeug
DE102022107907A1 (de) Sensorfusion-basierte dreidimensionale Stixel-Darstellung in einer Ansicht von oben zur Detektion eines allgemeinen Hindernisses in einem Fahrzeug
DE102017217063A1 (de) Erkennungssystem, Arbeitsverfahren und Trainingsverfahren zum Erzeugen eines 3D-Modells mit Referenzdaten
DE102020003465A1 (de) Verfahren zur Detektion von Objekten in monokularen RGB-Bildern
DE102019129101A1 (de) Verfahren und System zum Schätzen eines Begrenzungsrahmens, der ein Zielfahrzeug einschließt
WO2021180470A1 (de) Verfahren zur qualitätssicherung eines beispielbasierten systems
DE112020003788T5 (de) Peripheres-Video-Erzeugungsvorrichtung, Verfahren zur Erzeugung peripherer Videos, und Programm
WO2020104263A1 (de) Verfahren, steuergerät, system und computerprogramm zur bestimmung von charakteristischen objektpunkten eines zielobjektes sowie verfahren zum kameragestützten positionieren eines motorbetriebenen fahrzeugs
DE102015101190A1 (de) Verfahren zum Bestimmen eines Bildtiefenwerts abhängig von einem Bildbereich, Kamerasystem und Kraftfahrzeug
DE102019212279B3 (de) Verfahren und Vorrichtung zum Überprüfen einer Kalibrierung von Umfeldsensoren
DE102012025463A1 (de) Verfahren zum Bestimmen eines Bewegungsparameters eines Kraftfahrzeugs durch Auffinden von invarianten Bildregionen in Bildern einer Kamera des Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug
DE102005002636A1 (de) Verfahren und System zur Verarbeitung von Videodaten eines Kamerasystems
DE102018208604A1 (de) Ermitteln eines Aufnahmeverhaltens einer Aufnahmeeinheit
DE102023203322B3 (de) Verfahren zum Erzeugen einer Umgebungsansicht eines Fahrzeugs, Fahrerassistenzeinrichtung, Fahrzeug und Computerprogramm

Legal Events

Date Code Title Description
R230 Request for early publication
R081 Change of applicant/patentee

Owner name: DAIMLER AG, DE

Free format text: FORMER OWNER: DAIMLER AG, 70327 STUTTGART, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee