WO2021191099A1 - Verfahren zum ermitteln einer pose eines objektes, verfahren zum steuern eines fahrzeuges, steuereinheit und fahrzeug - Google Patents

Verfahren zum ermitteln einer pose eines objektes, verfahren zum steuern eines fahrzeuges, steuereinheit und fahrzeug Download PDF

Info

Publication number
WO2021191099A1
WO2021191099A1 PCT/EP2021/057174 EP2021057174W WO2021191099A1 WO 2021191099 A1 WO2021191099 A1 WO 2021191099A1 EP 2021057174 W EP2021057174 W EP 2021057174W WO 2021191099 A1 WO2021191099 A1 WO 2021191099A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
markers
marker
trailer
camera
Prior art date
Application number
PCT/EP2021/057174
Other languages
English (en)
French (fr)
Inventor
Tobias KLINGER
Dennis Sabelhaus
Oliver WULF
Original Assignee
Zf Cv Systems Global Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zf Cv Systems Global Gmbh filed Critical Zf Cv Systems Global Gmbh
Priority to US17/913,439 priority Critical patent/US20230196609A1/en
Priority to EP21715163.8A priority patent/EP4128160A1/de
Publication of WO2021191099A1 publication Critical patent/WO2021191099A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60DVEHICLE CONNECTIONS
    • B60D1/00Traction couplings; Hitches; Draw-gear; Towing devices
    • B60D1/24Traction couplings; Hitches; Draw-gear; Towing devices characterised by arrangements for particular functions
    • B60D1/245Traction couplings; Hitches; Draw-gear; Towing devices characterised by arrangements for particular functions for facilitating push back or parking of trailers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60DVEHICLE CONNECTIONS
    • B60D1/00Traction couplings; Hitches; Draw-gear; Towing devices
    • B60D1/24Traction couplings; Hitches; Draw-gear; Towing devices characterised by arrangements for particular functions
    • B60D1/36Traction couplings; Hitches; Draw-gear; Towing devices characterised by arrangements for particular functions for facilitating connection, e.g. hitch catchers, visual guide means, signalling aids
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60DVEHICLE CONNECTIONS
    • B60D1/00Traction couplings; Hitches; Draw-gear; Towing devices
    • B60D1/58Auxiliary devices
    • B60D1/62Auxiliary devices involving supply lines, electric circuits, or the like
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D13/00Steering specially adapted for trailers
    • B62D13/06Steering specially adapted for trailers for backing a normally drawn trailer
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/027Parking aids, e.g. instruction means
    • B62D15/0285Parking performed automatically
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Abstract

Die Erfindung betrifft ein Verfahren zum Ermitteln einer Pose (PO) eines Objektes (O) relativ zu einem Fahrzeug (1), wobei das Objekt (O) mindestens drei Marker (M1, M2, M3, M4) aufweist und von mindestens einer Kamera (4) an dem Fahrzeug (1) erfasst wird, mit den folgenden Schritten: - Erfassen der Marker (M1, M2, M3, M4) mit der Kamera (4) und Erzeugen eines Bildes (B), wobei den Markern (M1, M2, M3, M4) in dem Bild eine Marker-Abbildung zugeordnet ist; - Ermitteln von Marker-Positionen und/oder Marker-Vektoren der Marker (M1, M2, M3, M4) auf dem erfassten Objekt (O); - Ermitteln einer Transformationsmatrix (T) in Abhängigkeit der Marker-Positionen und/oder der Marker-Vektoren sowie in Abhängigkeit der Marker-Abbildungen, wobei die Transformationsmatrix (T) die Marker (M1, M2, M3,M4) auf dem Objekt (O) auf die Marker-Abbildung in dem Bild (B) abbildet; - Ermitteln einer durch die Marker (M1, M2, M3, M4) auf dem Objekt (O) ausgebildeten Objektebene (OE) in einem zweiten Koordinatensystem (K2) in Abhängigkeit der ermittelten Transformationsmatrix (T), wobei das zweite Koordinatensystem (K2) fahrzeugfest ist zum Ermitteln der Pose (PO) des Objektes (O) relativ zu dem Fahrzeug (1). Erfindungsgemäß ist vorgesehen, dass die mindestens drei Marker (M1, M2, M3, M4) an dem Objekt (O) räumlich ausgedehnt sind und in dem Bild (B) flächigen Marker-Abbildungen zugeordnet werden.

Description

Verfahren zum Ermitteln einer Pose eines Objektes, Verfahren zum Steuern eines Fahrzeuges, Steuereinheit und Fahrzeug
Die Erfindung betrifft ein Verfahren zum Ermitteln einer Pose eines Ob jektes, ein Verfahren zum Steuern eines Fahrzeuges, sowie eine Steuerein heit und ein Fahrzeug zur Durchführung des Verfahrens.
Aus dem Stand der Technik ist bekannt, wie mithilfe von einer oder mehrerer Kameras ein Fahrzeug an ein Objekt angenähert werden kann, wobei das Objekt beispielsweise ein Anhänger sein kann. Die Erfassung der Umgebung zur Abschätzung einer Tiefeninformation bezüglich des Objektes kann dabei in 2D oder 3D erfolgen.
Dazu kann beispielsweise eine Stereokamera verwendet werden, die den Anhänger oder zweidimensionale bzw. flächige Marker an dem Anhä nger oder an Bestandteilen des Anhängers erkennt und daraus Tiefeninfor mationen herleitet. Beispielhaft ist dies in DE 102016011 324 A1 , DE 10 2018 114730 A1 , WO 2018/210990 A1 oder DE 102017 119968 A1 be schrieben. Daraus kann eine Position und eine Orientierung, d.h. eine Pose, des jeweiligen Objektes relativ zur Kamera bzw. dem Zugfahrzeug hergelei tet werden. In Abhängigkeit davon können beispielsweise ein Knickwinkel oder ein Abstand ermittelt werden. Auch mit einer Mono-Kamera kann die Pose ermittelt werden, indem mindestens drei Marker, die vorzugsweise flä chig auf dem Objekt aufgebracht sind, im Bild lokalisiert werden und in Kenntnis der Marker-Positionen auf dem Objekt eine Transformationsmatrix ermittelt wird, aus der die Pose des Objektes, auf dem sich diese befinden, hergeleitet werden kann.
Gemäß DE102018210340A1 ist weiterhin vorgesehen, einen Abstand zu einer Wechselbrücke zu ermitteln, indem eine Größe von drei flächig da- rauf aufgebrachten Markern mit abgespeicherten Größen für diese Marker verglichen wird. Die Marker sind entsprechend kodiert, so dass deren Größe vorab über eine Kamera ermittelt werden kann. Über eine relative Lage ein zelner Marker zueinander kann zudem ein Winkelversatz abgeschätzt wer den.
Eine Erkennung eines Knickwinkels über eine Kamera ist weiterhin in US 2014200759 A beschrieben, wobei ein flächiger Marker auf dem Anhä nger vom Zugfahrzeug aus über die Zeit beobachtet und daraus der Knick winkel abgeschätzt wird. Auch JP 2002012 172 A, US2014277942A1 , US 2008231 701 A und US 2017106796 A beschreiben eine Knickwinkelerken nung in Abhängigkeit von flächigen Markern. In US 2006293800 A können Ankuppelpunkte zu einer erleichterten automatischen Erkennung einen Mar ker tragen. Der Marker kann eine spezielle Farbe, Textur oder Wellenreflexi onseigenschaft besitzen. In DE 102004025252 B4 wird weiterhin beschrie ben, den Knickwinkel zu ermitteln, indem von einem Sender Strahlung auf einen halbkreis- oder halbkugelförmigen Reflektor gesendet und die davon reflektierte Strahlung anschließend detektiert wird. In DE 10302545 A1 ist zudem beschrieben über einen Objekterkennungsalgorithmus eine Kupplung zu erfassen. In EP 3 180769 B1 ist zudem beschrieben, über Kameras eine Rückseite eines Anhängers zu erfassen und aus dem Bild verfolgbare Fea tures, z.B. eine Kante oder Ecke, zu erkennen. Diese werden dann über die Zeit verfolgt, um insbesondere auf einen Knickwinkel zwischen dem Zugfahr zeug und dem Anhänger zu schließen. Damit werden darin keine extra auf gebrachten Marker verwendet.
In US 2018039266 A ist ergänzend beschrieben, auf Informationen ei nes zweidimensionalen Barcodes bzw. QR-Codes zurückzugreifen. In DE 10 2016209 418 A1 kann ebenfalls ein QR-Code mit einer Kamera ausgelesen werden, um den Anhänger zu identifizieren und Anhängerparameter an eine Rückfahrassistenz weiterzugeben. Alternativ oder ergänzend kann ein am Anhänger befindliches RFID-Lesegerät einen RFID-Transponder, der am Zugfahrzeug beispielsweise in Form eines Etiketts angebracht ist, auslesen. Dadurch kann eine Position des QR-Codes bzw. des RFID-Transponders berechnet werden. Eine Orientierung wird dabei nicht ermittelt. Auch in W01 8060192A1 ist eine Lösung mittels funkbasierter Transponder vorgese hen. In DE 10 2006 040 879 B4 werden ebenfalls RFID-Elemente am Anhä nger zur Triangulation beim Fieranfahren verwendet.
In WO 2008064892 A1 ist ein Beobachtungselement vorgesehen, das mindestens drei Hilfspunkte bzw. Messpunkte aufweist, die von einer Kame ra erkannt werden können. Aus geometrischen Betrachtungen werden die Koordinaten bzw. Vektoren der Schwerpunkte der Hilfspunkte ermittelt und daraus die Koordinaten der Messpunkte relativ zur Kamera bzw. zum Bildsensor. Daraus kann ein Knickwinkel ermittelt werden.
Nachteilig bei bekannten Verfahren ist, dass diese Verfahren bzw. Sys teme entweder sehr aufwendig sind oder aber eine Detektion der Marker bei unterschiedlichen Umgebungsbedingungen nicht zuverlässig möglich ist. Beispielsweise können flächige Marker bei Dunkelheit und/oder unter extre men bzw. flachen Blinkwinkeln nicht sicher erfasst werden, wodurch die Be stimmung der Pose des Objektes bzw. des Knickwinkels des Anhängers rela tiv zum Zugfahrzeug nicht zuverlässig erfolgen kann.
Aufgabe der Erfindung ist daher, ein Verfahren anzugeben, das eine einfache und zuverlässige Ermittlung der Pose eines Objektes sowie eine anschließende Verarbeitung bzw. Verwendung dieser Pose zum Steuern des Fahrzeuges ermöglicht. Aufgabe der Erfindung ist weiterhin, eine Steuerein heit und ein Fahrzeug zur Durchführung des Verfahrens anzugeben.
Diese Aufgabe wird durch ein Verfahren zum Ermitteln der Pose eines Objektes, ein Verfahren zum Steuern eines Fahrzeuges, eine Steuereinheit und ein Fahrzeug gemäß den unabhängigen Ansprüchen gelöst. Die Unter ansprüche geben bevorzugte Weiterbildungen an.
Erfindungsgemäß ist demnach ein Verfahren zum Ermitteln einer Pose, d.h. einer Kombination aus einer Position und einer Orientierung, eines Ob jektes mit einer Objekt-Breite und einer Objekt-Höhe relativ zu einem einteili gen oder mehrteiligen Fahrzeug, wobei das Objekt und das Fahrzeug ge geneinander beweglich sind, und das Objekt mindestens drei Marker, vor zugsweise mindestens vier Marker, nämlich räumlich ausgedehnte Marker bzw. Marker mit einer räumlichen Geometrie, beispielsweise mit einer sphä rischen oder zylinderförmigen oder quaderförmigen Geometrie, aufweist. Die mindestens drei, vorzugsweise mindestens vier Marker liegen dabei in der selben Objektebene am Objekt und durch die mindestens drei, vorzugsweise mindestens vier Marker lässt sich keine Linie legen. Dabei wird angenom men, dass die durch die Marker beschriebene Objektebene annäherungs weise auch auf dem jeweiligen Objekt liegt, so dass aus dieser die Pose ab geschätzt werden kann.
Das Objekt wird von mindestens einer Kamera an dem Fahrzeug er fasst und es werden mindestens die folgenden Schritte ausgeführt:
- Erfassen der mindestens drei räumlich ausgedehnten Marker mit der Kame ra und Erzeugen eines Bildes, wobei den mindestens drei räumlich ausge dehnten Markern in dem Bild jeweils eine Marker-Abbildung zugeordnet ist;
- Ermitteln von Marker-Positionen und/oder Marker-Vektoren der räumlich ausgedehnten Marker auf dem erfassten Objekt, wobei dies beispielsweise in einem ersten Koordinatensystem angegeben wird, das markerfest ist bzw. sich mit den räumlich ausgedehnten Markern mitbewegt;
- Ermitteln einer Transformationsmatrix (Homographie) in Abhängigkeit der Marker-Positionen und/oder der Marker-Vektoren sowie in Abhängigkeit der Marker-Abbildungen, wobei die Transformationsmatrix die räumlich ausge dehnten Marker auf dem Objekt bzw. das erste Koordinatensystem auf die Marker-Abbildung in dem Bild der Kamera am Fahrzeug bzw. einem Bildko ordinatensystem abbildet; und
- Ermitteln einer durch die räumlich ausgedehnten Marker auf dem Objekt ausgebildeten Objektebene in einem zweiten Koordinatensystem in Abhän gigkeit der ermittelten Transformationsmatrix, wobei das zweite Koordinaten system fahrzeugfest ist zum Ermitteln der Pose des Objektes relativ zu dem Fahrzeug aus der relativen Lage zwischen der Objektebene und der Bild ebene.
Zur Ermittlung der Transformationsmatrix sind mindestens drei Marker nötig, wobei in dem Fall - ggf. mit weiteren Zusatzinformationen - eine Trans formationsmatrix zumindest abgeschätzt werden kann, ggf. mit heuristischen Methoden. Genauer ist es jedoch, wenn vier oder mehr Marker an dem je weiligen Objekt vorhanden sind, da dann eine eindeutig bestimmte Trans formationsmatrix bzw. Flomographie-Matrix mit bekannten Methoden ermittelt werden kann.
Erfindungsgemäß wurde dabei erkannt, dass räumlich ausgedehnte Marker auch bei großen Knickwinkeln bzw. bei extremen Blickwinkeln noch sehr gut von der Kamera des Fahrzeuges erfasst werden können, dadurch dass diese aus der Objektebene hervorstehen und dadurch besser wahrge nommen werden können. Dadurch wird ein nahezu blickwinkelinvariantes Verfahren zum Ermitteln sowohl der Position als auch der Orientierung des Objektes angegeben. Dies wird auch durch eine monokulare Bildverarbei tung ermöglicht, so dass nicht zwangsläufig auf Stereokameras zurückzu greifen ist, um eine Tiefeninformation zum Objekt zu erhalten, aus denen die Pose geometrisch abgeleitet werden kann. Dadurch wird das Verfahren ver einfacht und die Kosten können geringgehalten werden. Dabei können die räumlichen Marker auch bei schlechten Sichtbedingungen bzw. Umgebungs bedingungen noch kontrastreich auf der Bildebene abgebildet werden, so dass sich aus den Marker-Abbildungen auch bei verschiedenen Umge- bungsbedingungen und Sichtbedingungen noch ausreichend Informationen über die Objektebene ermitteln lassen.
Damit kann durch Anwendung dieses Verfahrens auch erfindungsge mäß eine zuverlässige Steuerung eines Fahrzeuges erfolgen, wobei das Fahrzeug
- im Rahmen einer knickwinkelbasierten Assistenzfunktion in Abhängigkeit eines aus der ermittelten Pose des Objektes hergeleiteten Knickwinkels zwi schen einem Zugfahrzeug und einem Anhänger eines mehrteiligen Fahrzeu ges und/oder einer Knickwinkel-Änderung gesteuert wird, oder
- im Rahmen einer Ankuppelassistenzfunktion in Abhängigkeit eines aus der ermittelten Pose des Objektes hergeleiteten Normal-Abstandes und/oder Re ferenz-Abstandes zwischen dem Zugfahrzeug als Fahrzeug und einem an zukuppelnden Anhänger als Objekt, an dem die Marker angeordnet sind, wobei das Fahrzeug bzw. das Zugfahrzeug dann derartig manuell oder au tomatisiert gesteuert wird, dass sich ein zweiter Ankuppelpunkt am Zugfahr zeug, beispielsweise eine (Sattel)kupplung, an einen ersten Ankuppelpunkt an dem anzukuppelnden Anhänger, beispielsweise ein Königszapfen oder eine Deichsel, annähert und die beiden Ankuppelpunkte an einem gemein samen Drehpunkt aneinander gekuppelt werden können, oder
- im Rahmen einer Abstands-Assistenzfunktion in Abhängigkeit eines aus der ermittelten Pose hergeleiteten Normal-Abstandes und/oder Referenz- Abstandes zwischen dem Zugfahrzeug als Fahrzeug und einem Gebäude als Objekt, an dem die Marker angeordnet sind, beispielsweise einer Laderampe oder einem Garagentor, oder einem Fremd-Fahrzeug als Objekt, an dem die Marker angeordnet sind, gesteuert wird. Das Verfahren zum Ermitteln der Pose des Objektes und/oder auch der Steuerung des Fahrzeuges werden dabei auf einer erfindungsgemäßen Steuereinheit in einem Fahrzeug ausge führt. Vorzugsweise ist weiterhin vorgesehen, dass zumindest einer der min destens drei Marker
- von innen und/oder hinten beleuchtet wird, beispielsweise über in einem Marker-Innenraum der mindestens drei Marker angeordneten Leuchtquelle, wobei der jeweilige Marker dann zumindest teilweise transparent bzw. licht durchlässig ist, und/oder
- von außen angeleuchtet und/oder angestrahlt wird, beispielsweise über ei ne Umgebungsleuchte, vorzugsweise am Fahrzeug und/oder auch am Ob jekt, und/oder
- eine selbstleuchtende Beschichtung aufweist, beispielsweise eine fluores zierende Beschichtung, o.ä..
Dadurch können die räumlich ausgedehnten Marker vorteilhafterweise dazu verwendet werden, dass die Objektebene bzw. die Pose des Objektes auch in der Dunkelheit kontrastreich erfasst werden kann. Damit lassen sich die jeweiligen Assistenzfunktionen auch in der Dunkelheit zuverlässig durchfüh ren. Die selbstleuchtende Beschichtung bzw. die fluoreszierende Beschich tung haben dabei den Vorteil, dass keine Energiequellen am Objekt nötig sind.
Vorzugsweise ist weiterhin vorgesehen, dass die Leuchtquelle in zu mindest einem der mindestens drei Marker und/oder die Umgebungsleuchte in Abhängigkeit eines Bewegungszustandes des Fahrzeuges und/oder des Objektes angesteuert wird. Damit kann Energie gespart werden, da die Mar ker tatsächlich nur dann aktiv beleuchtet werden, wenn dies unbedingt nötig ist, beispielsweise bei einer Bewegung im Rahmen einer der Fahrassistenz funktionen.
Vorzugsweise kann weiterhin vorgesehen sein, dass - eine Farbe der Leuchtquelle und/oder der Umgebungsleuchte und/oder ei ne Pulsdauer der Leuchtquelle und/oder der Umgebungsleuchte in Abhän- gigkeit eines Abstandes zwischen dem Fahrzeug und dem Objekt, und/oder - eine Farbe der Leuchtquelle und/oder eine Pulsdauer der Leuchtquelle in Abhängigkeit der Marker-Position am Objekt eingestellt wird. Demnach kön nen die Marker gezielt beleuchtet werden, um dem Fahrer zusätzlich zu as sistieren, so dass dieser beispielsweise über eine Anzeigeeinrichtung erken nen kann, wie weit er noch rückwärtsfahren kann, bevor das jeweilige Objekt bzw. die durch die Marker definierte Objektebene erreicht ist. Auch bei ne beneinanderstehenden Objekten kann in der Dunkelheit durch die Farbcodie- rung oder Blinklichtkodierung eine Unterscheidung eines Objektes ermöglicht werden. Eine derartige Farbcodierung kann auch durch die selbstleuchtende Beschichtung erreicht werden, die in vorab festgelegten Farben in Abhängig keit der Marker-Position am Objekt auf den jeweiligen Marker aufgebracht werden kann.
Vorzugsweise ist weiterhin vorgesehen, dass die Leuchtquellen in zu mindest einem der mindestens drei Marker von einer Energiequelle, bei spielsweise einem Solarpaneel, am Objekt mit Energie versorgt werden. Dadurch ist die Beleuchtung der Marker am Objekt unabhängig vom Vorhan densein eines Fahrzeuges, beispielsweise im nicht-angekoppelten Zustand. Die Marker am Objekt, beispielsweise am Anhänger, können dadurch beim Abstellen auf einem Betriebshof noch individuell beleuchtet werden.
Vorzugsweise ist weiterhin vorgesehen, dass mindestens einer der mindestens drei Marker durch eine Umrissleuchte bzw. Umrissbeleuchtung an Rändern des Objektes gebildet wird. Damit können bereits vorhandene Elemente an einem Anhänger doppelt verwendet werden und eine Installati on von zusätzlichen Markern kann entfallen. Dazu ist lediglich eine Festle gung zu treffen, welche Umrissleuchten als Marker fungieren sollen, wobei dies über die jeweiligen Marker-Positionen bzw. Marker-Vektoren erfolgen kann. In Kenntnis dessen kann die Pose des Anhängers in Abhängigkeit der Abbildung der jeweiligen ausgewählten Umrissleuchten aus der Objektebene ermittelt werden. Da sich die Umrissleuchten normalerweise am Rand des Anhängers befinden, kann daraus in einfacher Weise eine Kontur des Anhä ngers generiert werden.
Vorzugsweise ist weiterhin vorgesehen, dass die Umgebungsleuchte sichtbare und/oder nicht-sichtbare Strahlung auf die Marker aussendet und die Marker eine Reflektions-Beschichtung aufweisen. Dadurch kann eine gu te Sichtbarkeit in variabler Weise erreicht werden.
Vorzugsweise ist weiterhin vorgesehen, dass auf zumindest einem der Marker oder benachbart zu zumindest einem der Marker ein QR-Code und/oder ein Barcode und/oder ein Aruco-Marker oberflächlich aufgebracht ist und der QR-Code und/oder der Barcode und/oder der Aruco-Marker von der Kamera erfasst wird. Dadurch lassen sich kodierte Informationen ausle- sen, ohne eine separate Datenübertragung zu verwenden. Dadurch können in einfacherWeise beispielsweise die Marker-Positionen und/oder die Mar ker-Vektoren im Fahrzeug ermittelt werden, die für die Ermittlung der Trans formationsmatrix nötig sind, um aus der Transformationsmatrix auf die Pose schließen zu können. Weiterhin können in einfacher Weise eine Objekt- Breite und/oder eine Objekt-Höhe auf dem jeweiligen Code bzw. Marker ko diert sein, dass auch auf diese Informationen vom Fahrzeug aus zugegriffen werden kann, ohne eine weitere Datenübertragung oder ein anderweites Ein lesen der Daten zu benötigen.
Die Objekt-Breite des Objekts und/oder die Objekt-Höhe des Objekts und/oder ein erster Bezugspunkt am Objekt, z.B. ein erster Ankuppelpunkt, Kingpin an einem Anhänger, kann aber vorzugsweise auch in Abhängigkeit der räumlichen Anordnung der erkannten Marker am Objekt ermittelt und/oder zumindest abgeschätzt werden. Demnach kann eine bestimmte Kodierung auch auf diese Weise erreicht werden, ohne dass eine zusätzliche Datenübertragung nötig ist.
Weiterhin kann vorgesehen sein, dass die Objekt-Breite des Objekts und/oder die Objekt-Höhe des Objekts und/oder ein erster Bezugspunkt am Objekt und/oder die Marker-Positionen und/oder die Marker-Vektoren über eine Kommunikationseinheit am Objekt, beispielsweise in den Markern, vor zugsweise per Bluetooth oder RFID an das Fahrzeug übermittelt werden. Damit kann auf eine drahtlose Datenübertragung zurückgegriffen werden, die das Erfassen der jeweiligen geometrischen Information erleichtern.
Vorzugsweise ist weiterhin vorgesehen, dass von der Kamera ergän zend Flächen-Markierungen erfasst werden, die benachbart zu zumindest einem der Marker auf dem Objekt angeordnet sind, wobei aus den erfassten Flächen-Markierungen eine redundante Ermittlung der Pose des Objektes erfolgt. Dabei können die Flächen-Markierungen beispielsweise auch für eine Grobjustierung bzw. Grobermittlung der Pose herangezogen werden, wenn beispielsweise die Ermittlung der Pose aus den räumlichen Markern noch zu ungenau ist, weil beispielsweise die Auflösung der Kamera zu gering ist. Die Flächen-Markierungen können entsprechend ohne großen Aufwand größer aufgelöst werden, wobei die Flächen-Markierungen vorteilhafterweise durch ihre Nähe zu den räumlichen Markern ebenfalls in der Dunkelheit beleuchtet werden, so dass durch die Beleuchtung eine Doppelfunktion erreicht werden kann. Dadurch kann die Ausdehnung der räumlichen Marker gering gehalten werden, da diese lediglich für die Feinjustierung nötig sind, beispielsweise bei einem Ankuppelvorgang oder bei einem anderen Annäherungsvorgang.
Vorzugsweise ist außerdem vorgesehen, dass die Flächen- Markierungen und/oder die Marker zumindest teilweise an Rändern des Ob jektes angeordnet sind und aus dem erfassten Bild der Kamera eine Objekt- Breite des Objektes und/oder eine Objekt-Höhe des Objektes abgeleitet wird. Dadurch, dass die Marker bzw. Flächen-Markierungen - jeweils für sich oder in Kombination miteinander - an den Rändern angeordnet sind, kann also eine Kontur ermittelt werden, aus der auch die jeweilige Objekt-Breite oder die Objekt-Höhe abgeschätzt werden kann.
Vorzugsweise ist weiterhin vorgesehen, dass das Fahrzeug einteilig ist und das Objekt nicht mit dem Fahrzeug verbunden ist, wobei sich das Fahr zeug relativ zu dem Objekt bewegt und das Objekt ein anzukuppelnder An hänger oder ein Gebäude, beispielsweise eine Laderampe oder ein Gara gentor, oder ein Fremd-Fahrzeug ist. Dadurch können mit diesem Verfahren unterschiedlichste Objekte erkannt werden, die zumindest bereichsweise einen flächigen Charakter aufweisen und deren Pose relativ zum Fahrzeug, d.h. Abstände (translatorischer Freiheitsgrad) und/oder Winkel (rotatorischer Freiheitsgrad), beispielsweise für eine Ankuppelassistenz, Einpark-Assistenz, Annäherungassistenz, oder dergleichen relevant ist.
Vorzugsweise ist weiterhin vorgesehen, dass das Fahrzeug mehrteilig ist, d.h. mindestens ein Zugfahrzeug und mindestens einen Anhänger auf weist, und die Kamera an einem Zugfahrzeug und/oder an einem daran an gekuppelten Anhänger angeordnet ist, wobei
- das Objekt in Form eines an das Zugfahrzeug angekuppelten Anhängers mit dem mehrteiligen Fahrzeug verbunden ist, wobei sich der Anhänger rela tiv zu dem Zugfahrzeug zumindest zeitweise bewegt bzw. demgegenüber verschwenkt, oder
- das Objekt nicht mit dem mehrteiligen Fahrzeug verbunden ist, wobei das Objekt ein Gebäude, beispielsweise eine Laderampe oder ein Garagentor, oder ein Fremd-Fahrzeug ist, an dem die Marker jeweils angeordnet sind. Dieses Objekt kann sich dann vor oder neben dem Zugfahrzeug oder hinter oder neben dem angekuppelten Anhänger befinden, wobei die Kamera ent sprechend auf den Teil der Umgebung ausgerichtet ist. Vorzugsweise ist weiterhin vorgesehen, dass das Bild der Kamera auf einer Anzeigeeinrichtung angezeigt wird, wobei dem Bild von der Anzeigeein richtung ein Normal-Abstand und/oder ein Referenz-Abstand (sowie deren laterale und vertikale Komponenten) und/oder eine Kontur des Objektes und/oder Steuerinformationen und/oder ein Knickwinkel zwischen dem Zug fahrzeug und dem Anhänger und/oder ein erster Ankuppelpunkt (z.B. Kö nigszapfen, Deichsel) und/oder ein zweiter Ankuppelpunkt (z.B. (Sat- tel)kupplung) und/oder eine Anhänger-Kennung und/oder ein Laderaum-Bild und/oder eine in Abhängigkeit der Marker ermittelten Anhänger-Mittenachse und/oder eine Zugfahrzeug-Mittenachse, oder parallel dazu liegenden Ach sen, überlagert werden. Damit können ergänzend insbesondere aus der Po se folgende Informationen dargestellt werden, so dass der Fahrer diese wahrnehmen kann und gezielter darauf reagieren kann im Rahmen der je weiligen Assistenzfunktionen. Der Fahrer kann beispielsweise manuell ge gensteuern, wenn der angezeigte Knickwinkel zu hoch ist oder den Ankup pelvorgang beobachten und manuell Einfluss darauf nehmen.
Die Erfindung wird im Folgenden anhand eines Ausführungsbeispiels näher erläutert. Es zeigen:
Fig. 1 ein zweiteiliges Fahrzeug mit Markern und Kameras;
Fig. 2 ein von der Kamera aufgenommenes Bild;
Fig.3 eine Detailansicht einer Vorderseite eines Anhängers als
Objekt mit Markern;
Fig. 4 eine schematische Ansicht eines zweiteiligen Fahrzeuges; und
Fig. 5a, 5b, 5c Detailansichten von Markern und Flächen-Markierungen. In Figur 1 ist schematisch ein mehrteiliges Fahrzeug 1 aus einem Zug fahrzeug 2 und einem Anhänger 3 dargestellt, wobei gemäß der gezeigten Ausführungsform an beiden Fahrzeugteilen 2, 3 jeweils eine Kamera 4 mit einem Erfassungsbereich E angeordnet ist. An dem Zugfahrzeug 2 ist eine Zugfahrzeug-Kamera 42 mit einem Zugfahrzeug-Erfassungsbereich E2, der auf den Anhänger 3 ausgerichtet ist, und an dem Anhänger 3 eine Anhänger- Kamera 43 mit einem nach hinten gerichteten Anhänger-Erfassungsbereich E3 angeordnet. Die Kameras 4; 42, 43 geben jeweils Kamera-Daten KD aus.
Das Fahrzeug 1 kann hierbei mehrteilig ausgeführt sein, beispielsweise als Lastzug mit Lastkraftwagen und Deichselanhänger bzw. Drehschemelan hänger oder als Sattelzug mit Sattelzugmaschine und Sattelauflieger (s. Fig. 1). Es können auch mehr als nur ein Anhänger 3 vorgesehen sein, bei spielsweise bei einem EuroCombi oder einem Road Train. Grundsätzlich kann das Fahrzeug 1 aber auch nur einteilig sein. Die Ausrichtung der Kame ra 4 wird in Abhängigkeit der jeweiligen Anwendung gewählt. Als Kamera 4 kann beispielsweise eine omnidirektionale Kamera, eine Fisheye-Kamera oder eine Teleobjektiv-Kamera oder auch weitere Kameraarten verwendet werden.
Die jeweiligen Kamera-Daten KD werden in Abhängigkeit einer Umge bung U um das Fahrzeug 1 erzeugt, die im jeweiligen Erfassungsbereich E liegt und die auf einem Bildsensor 4a der jeweiligen Kamera 4 abgebildet wird. Aus den Kamera-Daten KD lässt sich daher jeweils ein Bild B aus Bild punkten BPi mit Bildkoordinaten xB, yB (s. Fig. 2) erstellen, wobei jedem Bildpunkt BPi ein Objektpunkt PPi in der Umgebung U zugeordnet ist. Die Objektpunkte PPi gehören dabei zu Objekten O, die sich in der Umgebung U befinden. Das Bild B kann dem Fahrer des Fahrzeuges 1 über eine Anzeige einrichtung 8 auch angezeigt werden. Die Kamera-Daten KD der jeweiligen Kamera 4 werden an eine Steuer einheit 5 im jeweiligen Fahrzeugteil 2, 3 oder an eine übergeordnete Steuer einheit 5 des Fahrzeuges 1 übermittelt, die ausgebildet ist, in Abhängigkeit der Kamera-Daten KD aus einem oder mehreren aufgenommenen Bildern B beispielsweise durch eine Kantenerkennung Marker-Abbildungen M1a, M2a, M3a, M4a zu extrahieren. Jeder Marker-Abbildung M1a, M2a, M3a, M4a ist dabei ein Marker M1, M2, M3, M4 in der Umgebung U zugeordnet. Weiterhin ist die jeweilige Steuereinheit 5 ausgebildet, aus den Marker-Abbildungen M1a, M2a, M3a, M4a mit einer Transformationsmatrix T (Flomographie), d.h. durch eine Matrixoperation, eine Objektebene OE zu ermitteln, in der die je weiligen Marker M1 , M2, M3, M4 in der Umgebung U angeordnet sind.
Dabei wird davon ausgegangen, dass mindestens drei, vorzugsweise mindestens vier Marker M1 , M2, M3, M4 vorgesehen sind und sich diese mindestens vier Marker M1 , M2, M3, M4 wie in Fig. 3 dargestellt, in einer Ebene und dabei nicht auf einer Linie auf dem zu erkennenden Objekt O in der Umgebung U befinden, beispielsweise an einer vorzugsweise flächigen Vorderseite 3a des Anhängers 3. Dabei wird angenommen, dass die durch die Marker M1 , M2, M3, M4 definierte Objektebene OE auch tatsächlich das Objekt O im betreffenden Bereich, d.h. hier an der flächigen Vorderseite 3a, zumindest annähernd ggf. abstrahierend beschreibt.
Die vier Marker M1 , M2, M3, M4 können dann beispielsweise von der Zugfahrzeug-Kamera 42 aus erfasst werden. Es können aber auch mehr als vier Marker M1 , M2, M3, M4 an dem jeweiligen Objekt O vorgesehen sein, wobei zur Ermittlung der Transformationsmatrix T zumindest vier Marker M1 , M2, M3, M4 nötig sind, um eine eindeutig bestimmte Transformationsmatrix T zu erhalten. Grundsätzlich kann aber auch mit nur drei Markern M1 , M2, M3 und ggf. weiteren Zusatzinformationen eine Transformationsmatrix T ab geschätzt werden, ggf. mit heuristischen Methoden, wobei diese dann unter Umständen ungenauer ist. Über die ermittelte oder abgeschätzte Transfor- mationsmatrix T kann ausgehend vom Zugfahrzeug 2 sowohl eine Position (translatorischer Freiheitsgrad) als auch eine Orientierung (rotatorischer Freiheitsgrad) bzw. eine Kombination daraus, d.h. eine Pose PO, des Anhä ngers 3 im Raum relativ zur Zugfahrzeug-Kamera 42 und damit auch relativ zum Zugfahrzeug 2 abgeschätzt werden, wie im Folgenden näher erläutert wird:
Für die Marker-Abbildungen M1a, M2a, M3a, M4a werden in dem min destens einen aufgenommenen Bild B zunächst jeweils Bildkoordinaten xB, yB in einem Bild-Koordinatensystem KB ermittelt. Da die Marker M1 , M2, M3, M4 eine gewisse räumliche Ausdehnung aufweisen und daher flächig in dem Bild B abgebildet werden, d.h. einem Marker M1 , M2, M3, M4 mehrere Bild punkte BPi zugeordnet sind, kann beispielsweise der Mittelpunkt der jeweili gen Marker-Abbildung M1a, M2a, M3a, M4a bestimmt und dessen Bildkoor dinaten xB, yB weiterverarbeitet werden.
Gleichzeitig ist der Steuereinheit 5 bekannt, wie die vier Marker M1 , M2, M3, M4 tatsächlich auf dem Objekt O, z.B. der Vorderseite 3a des Anhängers 3, relativ zueinander in der Objektebene OE positioniert sind. Demnach kön nen für jeden Marker M1 , M2, M3, M4 eine Marker-Position P1 , P2, P3, P4 bzw. ein Marker-Vektor V1 , V2, V3, V4 angegeben werden (s. Fig. 3). Die Marker-Vektoren V1 , V2, V3, V4 beinhalten dabei jeweils erste Koordinaten x1 , y1 , z1 eines ersten Koordinatensystems K1 mit einem ersten Ursprung U1 , wobei die Marker-Vektoren V1 , V2, V3, V4 zum jeweiligen Marker M1 , M2, M3, M4 zeigen. Das erste Koordinatensystem K1 ist dabei anhängerfest bzw. markerfest, d.h. es bewegt sich mit den Markern M1 , M2, M3, M4 mit. Der erste Ursprung U1 kann in einem festgelegten ersten Bezugspunkt PB1 auf dem Objekt O liegen, beispielsweise in einem der Marker M1 , M2, M3,
M4 oder aber in einem ersten Ankuppelpunkt 6, bei einem Sattelzug als mehrteiliges Fahrzeug 1 beispielsweise in einem Königszapfen 6a (s. Fig. 1). Aus den Bildkoordinaten xB, yB der vier Marker-Abbildungen M1a, M2a, M3a, M4a im Bild-Koordinatensystem KB kann nun von der Steuereinheit 5 anhand der bekannten Marker-Vektoren V1, V2, V3, V4 bzw. Marker- Positionen P1 , P2, P3, P4 der Marker M1 , M2, M3, M4 im ersten Koordina tensystem K1 eine Transformationsmatrix T abgeleitet werden. Diese Trans formationsmatrix T gibt dabei an, wie die einzelnen Marker M1 , M2, M3, M4 sowie auch die Objektpunkte PPi der gesamten Objektebene OE, die gemäß Fig 1 parallel zu der flächigen Vorderseite 3a des Anhängers 3 liegt, auf dem Bildsensor 4a der Kamera 4 und damit in dem Bild B in der derzeitigen Fahr situation des Fahrzeuges 1 abgebildet werden. Die Transformationsmatrix T gibt also an, wie die Objektebene OE in der derzeitigen Fahrsituation auf die Bildebene BE des Bildsensors 4a abgebildet wird.
Demnach enthält die Transformationsmatrix T auch die Information, wie das anhängerfeste bzw. markerfeste erste Koordinatensystem K1 relativ zu dem Bild-Koordinatensystem KB ausgerichtet ist, wobei sowohl translatori sche als auch rotatorische Freiheitsgrade enthalten sind, so dass eine Pose PO (Kombination aus Position und Orientierung) der Objektebene OE relativ zur Bildebene BE ermittelt werden kann. In Kenntnis von Kameraparametern, beispielsweise einer Brennweite f, einem Seitenverhältnis SV des Bildsensors 4a, die beispielsweise auf der Steuereinheit 5 hinterlegt oder an diese übermittelt werden, können aus der Transformationsmatrix T eine Rei he von Informationen abgeleitet werden, die sich in unterschiedlichen Assis tenzfunktonen Fi verwenden lassen.
Da die Transformationsmatrix T aus der aktuellen Fahrsituation des Fahrzeuges 1 folgt, beinhaltet diese beispielsweise eine Abhängigkeit von einem Knickwinkel KW zwischen dem Zugfahrzeug 2 und dem Anhänger 3 sowie von einem Normal-Abstand AN zwischen der Kamera 4 bzw. dem Bildsensor 4a und der Objektebene OE. Diese können ermittelt werden, wenn die Lage des Bildsensors 4a bzw. der Bildebene BE des Bildsensors 4a in einem kamerafesten bzw. hier auch zugfahrzeugfesten zweiten Koordi natensystems K2 bekannt ist. Darüber lässt sich sowohl die Bildebene BE mit den einzelnen Bildpunkten BPi als auch die Objektebene OE in zweiten Koordinaten x2, y2, z2 des zugfahrzeugfesten Koordinatensystems K2 aus- drücken, woraus die Pose PO des Objektes O relativ zum Zugfahrzeug 2 ermittelt werden kann.
In entsprechender Weise gilt dies für den Normal-Abstand AN, der den lotrechten Abstand zwischen der Objektebene OE und dem Bildsensor 4a angibt. Ist die Lage der Koordinatensysteme K1 , K2 zueinander aus der Transformationsmatrix T bekannt bzw. kann die Objektebene OE im zweiten Koordinatensystem K2 angegeben werden, so kann der Normal-Abstand NA in einfacher Weise ermittelt werden. Statt dem Normal-Abstand NA kann aber auch ein Referenz-Abstand AR ermittelt werden, der zwischen einem ersten Referenzpunkt PR1 in der Objektebene OE, z.B. am Anhänger 3 oder an einer Laderampe 11a, und einem zweiten Referenzpunkt PR2 am Zug fahrzeug 2 gemessen wird (s. Fig. 4). Sind die Referenzpunkte PR1 , PR2 im jeweiligen Koordinatensystem K1 , K2 bekannt, so kann daraus mit einfachen geometrischen Betrachtungen mithilfe der Transformationsmatrix T der Refe renz-Abstand AR ermittelt werden.
Ein zweiter Ursprung U2 des zweiten Koordinatensystems K2 kann je nach Anwendung an einem festgelegten zweiten Bezugspunkt PB2 am Zug fahrzeug 2 liegen, beispielsweise im Bildsensor 4a selbst oder aber in einem zweiten Ankuppelpunkt 7 am Zugfahrzeug 2, beispielsweise in einer Sattel kupplung 7a eines Sattelzuges. Die beiden Ankuppelpunkte 6, 7 legen damit einen gemeinsamen Drehpunkt DP fest, um den sich das Zugfahrzeug 2 und der Anhänger 3 bei einer Kurvenfahrt gegeneinander verschwenken.
Der Fachmann wird hier einfach erkennen, dass die Ankuppelpunkte 6, 7 bei einem Deichselanhänger oder einem Drehschemelanhänger oder wei- teren Anhängerarten entsprechend anzupassen sind und auch für derartige Lastzüge aus geometrischen Betrachtungen ein Abstand AN, AR sowie ein Knickwinkel KW wie beschrieben aus der Transformationsmatrix T ermittelt werden kann.
Zusammenfassend kann also über die Marker M1 , M2, M3, M4 die Po se PO des Anhängers 3 bzw. auch die Pose PO jeglicher anderer Objekte O, die derartige Marker M1 , M2, M3, M4 mit bekannten Marker-Vektoren V1 ,
V2, V3, V4 bzw. Marker-Positionen P1 , P2, P3, P4 aufweisen, bestimmt wer den. Dazu wird das Bild-Koordinatensystem KB durch die Transformations matrix T in das erste Koordinatensystem K1 überführt, wodurch sich die Ob jektebene OE auch im zweiten Koordinatensystem K2 darstellen lässt. Dar aus können sowohl translatorische Messgrößen, z.B. die Abstände AN, AR, als auch rotatorische Messgrößen, z.B. Winkel, zwischen dem Zugfahrzeug 2 und der Objektebene OE des jeweiligen Objektes O, d.h. die Pose PO, ab geschätzt werden.
Um das Erkennen der Marker M1 , M2, M3, M4 zuverlässiger zu gestal ten, weisen diese jeweils eine räumliche Geometrie auf, vorzugsweise eine sphärische Geometrie, d.h. sie sind in Form einer Kugel ausgestaltet.
Dadurch wird vorteilhafterweise erreicht, dass die Marker M1 , M2, M3, M4 unabhängig von dem Blickwinkel der jeweiligen Kamera 4 immer als Kreis in dem aufgenommen Bild B abgebildet werden, d.h. eine zweidimensionale Projektion von Bildpunkten BPi auf dem Bildsensor 4a ausbilden. Als Kugeln sind die Marker M1 , M2, M3, M4 also blickwinkelinvariant. Grundsätzlich können aber auch Marker M1 , M2, M3, M4 mit anderen räumlichen Geomet rien verwendet werden, beispielsweise Halbkugeln, Würfel oder Zylinder, die ebenfalls von unterschiedlichen Blickwinkeln von der Kamera 4 mit definier ten zweidimensionalen Projektionen erfassbar sind. Als derartige Marker M1 , M2, M3, M4 können beispielsweise festgelegte Umrissleuchten 21a oder von diesen ausgestrahlte Umrissbeleuchtung selbst verwendet werden, die an Anhängern 3 bereits vorhanden sein können.
Weiterhin ergibt sich die Möglichkeit, die Marker M1 , M2, M3, M4 zu be leuchten, vorzugsweise von innen bzw. hinten aus einem Marker-Innenraum 20 mit einer entsprechenden Leuchtquelle 21 (s. Fig. 5a, 5b, 5c), beispiels weise einer LED, die über eine Leuchtsteuerung 22 mit einem Leuchtsignal SL angesteuert werden kann. Der jeweilige Marker M1 , M2, M3, M4 ist dann zumindest teilweise transparent bzw. lichtdurchlässig, um den Austritt der elektromagnetischen Strahlung von innen bzw. hinten zu ermöglichen. Dadurch sind die Marker M1 , M2, M3, M4 aus unterschiedlichen Blickwinkeln auch gut in der Dunkelheit von der Kamera 4 kontraststark zu erfassen. Die Marker M1 , M2, M3, M4 bzw. deren Leuchtquellen 21 werden dabei vor zugsweise über eine Energiequelle 23 im Anhänger 3 bzw. am jeweiligen Objekt O mit Energie versorgt, wobei die Energiequelle 23 durch Solarpanee le 23a geladen werden kann.
Dabei kann ergänzend vorgesehen sein, dass die Marker M1 , M2, M3, M4 in Abhängigkeit eines Bewegungszustandes Z des Fahrzeuges 1 , des Zugfahrzeuges 2 und/oder des Anhängers 3, bzw. allgemein des jeweiligen Objektes O von der Leuchtsteuerung 22 beleuchtet werden. Dazu kann bei spielsweise ein Bewegungssensor 24 am Anhänger 3 bzw. allgemein an dem Objekt O mit den Markern M1 , M2, M3, M4 vorgesehen sein, der den Bewe gungszustand Z des Fahrzeuges 1 , des Zugfahrzeuges 2 und/oder des An hängers 3, bzw. des Objektes O mit den Markern M1 , M2, M3, M4 erfassen kann. Bewegt sich das Fahrzeug 1 bzw. Zugfahrzeug 2 gegenüber dem je weiligen Objekt O bzw. den Markern M1 , M2, M3, M4 können die Leuchtquel len 21 von der Leuchtsteuerung 22 mit Energie versorgt und damit zum Leuchten gebracht werden. Vorzugsweise kann weiterhin vorgesehen sein, dass die Leuchtquellen
21 in Abhängigkeit unterschiedlicher Leuchtkriterien von der Leuchtsteuerung
22 angesteuert werden. Die Leuchtkriterien können hierbei der Normal- Abstand AN und/oder der Referenz-Abstand AR sein. In Abhängigkeit davon kann die Leuchtsteuerung 22 beispielsweise unterschiedliche Farben C für die Leuchtquellen 21 und/oder unterschiedliche Pulsdauern dt (Blinklicht) durch Frequenzmodulation des Leuchtsignals SL einstellen. Bei großem Ab stand AN, AR können beispielsweise lange Pulsdauern dt und bei geringem Abstand AN, AR geringere Pulsdauern dt vorgesehen sein. Als weiteres Leuchtkriterium kann eine Marker-Position P1, P2, P3, P4 des jeweiligen Markers M1 , M2, M3, M4 am jeweiligen Objekt O berücksichtigt werden. So kann die Leuchtsteuerung 22 beispielsweise einen oben links liegenden Mar ker in roter Farbe beleuchten und einen unten rechts liegenden Marker in blauer Farbe. Damit kann der Fahrer nebeneinander liegende Objekte O, die jeweils für sich Marker M1 , M2, M3, M4 aufweisen, beispielsweise parallel zueinander geparkte Anhänger 3, besser unterscheiden.
Grundsätzlich ist es auch möglich, die Marker M1 , M2, M3, M4 in ande rer Weise in der Dunkelheit sichtbar zu machen. Beispielsweise können die Marker M1 , M2, M3, M4 oberflächlich mit einer selbstleuchtenden Beschich tung 27, beispielsweise einer fluoreszierenden Beschichtung 27a, versehen sein oder die Marker M1 , M2, M3, M4 aus einem selbstleuchtenden Material gefertigt werden. Dadurch ist keine Energiequelle am jeweiligen Objekt O, das die Marker M1 , M2, M3, M4 aufweist, nötig.
Damit sind eine Reihe von Möglichkeiten vorgesehen, um die Marker M1 , M2, M3, M4 selbstleuchtfähig zu machen. Grundsätzlich können die Marker M1 , M2, M3, M4 aber auch von außen angeleuchtet bzw. angestrahlt werden, beispielsweise durch eine Umgebungsleuchte 25 am Zugfahrzeug 2 oder am jeweiligen Fahrzeug 1 , das sich an einen Anhänger 3, eine Lade rampe 11 a, oder allgemein an das Objekt O mit den Markern M1 , M2, M3, M4 annähert, so dass die Marker M1 , M2, M3, M4 auch dadurch in der Dun kelheit sichtbar gemacht werden können. Die Umgebungsleuchte 25 kann hierbei Strahlung im sichtbaren oder nicht-sichtbaren Spektrum, z.B. Ultravio lett, aussenden und die Marker M1 , M2, M3, M4 damit beleuchten. Die Mar ker M1 , M2, M3, M4 können auch mit einer entsprechenden Reflektions- Beschichtung 26 versehen sein, um die Strahlung im jeweiligen Spektrum mit hoher Intensität zurück zur Kamera 4 reflektieren zu können. Auch die Um gebungsleuchte 25 kann, wie die Leuchtquelle 21 , in Abhängigkeit des Be wegungszustandes Z und weiterer Leuchtkriterien angesteuert werden, um die Marker M1 , M2, M3, M4 in unterschiedliche Farben C und/oder mit unter schiedlichen Pulsdauern dt (Blinklicht) z.B. in Abhängigkeit vom Normal- Abstand AN und/oder vom Referenz-Abstand AR bzw. dem Bewegungszu stand Z anzuleuchten.
Dies unterscheidet die Erfindung von herkömmlichen Verfahren, bei de nen planare Flächen-Markierungen Mf allein oder in Kombination mit QR- Codes CQ und/oder Barcodes CB und/oder Aruco-Markern CA verwendet werden, um eine Pose PO der Objektebene OE des Objektes O zu erfassen, wobei die Sichtbarkeit der Flächen-Markierungen Mf unter großen Blickwin keln und in der Dunkelheit sehr stark eingeschränkt ist. Trotz dieser Nachtei le kann vorgesehen sein, die räumlich ausgedehnten Marker M1 , M2, M3,
M4 mit derartigen Flächen-Markierungen Mf zu kombinieren (s. Fig. 5). Die Flächen-Markierungen Mf können in der Dunkelheit durch die benachbart dazu liegenden Leuchtquellen 21 der Marker M1 , M2, M3, M4 bzw. durch deren Selbstleuchtfähigkeit oder durch die Umgebungsleuchte 25 ebenfalls beleuchtet werden, so dass diese auch in der Dunkelheit noch erkennbar sind. Die flächigen Marker Mf können dazu ebenso mit einer selbstleuchten den Beschichtung 27 oder einer Reflektions-Beschichtung 26 versehen sein, um selbst im Dunkeln besser erkennbar zu sein oder die Strahlung der Um gebungsleuchte 25 mit hoher Intensität zur jeweiligen Kamera 4 zurückreflek tieren zu können. Ergänzend können die Flächen-Markierungen Mf dazu verwendet wer den, das Objekt O mit den Markern M1 , M2, M3, M4, beispielsweise den An hänger 3, über eine größere Distanz von bis zu 10m zu erkennen, wenn die Marker M1 , M2, M3, M4 von der Kamera 4 unter Umständen noch nicht aus reichend aufgelöst werden können. Damit kann zu Beginn eine Groberken nung anhand der Flächen-Markierungen Mf und in Abhängigkeit davon eine gezielte Annäherung der Kamera 4 an das jeweilige Objekt O erfolgen bis die Kamera 4 auch die Marker M1 , M2, M3, M4 ausreichend auflösen kann. An schließend kann dann die Ermittlung der Objektebene OE anhand lediglich der Marker M1 , M2, M3, M4 oder anhand der Marker M1 , M2, M3, M4 und der Flächen-Markierungen Mf erfolgen, so dass bei der Bestimmung auf re dundante Informationen zurückgegriffen werden kann.
Die Flächen-Markierungen Mf können ergänzend Zusatz-Informationen liefern, die zur Ermittlung der Lage der Objektebene OE im Raum beitragen können. Beispielsweise können die Flächen-Markierungen Mf benachbart zu den Rändern 17 der Vorderseite 3a des Anhängers 3 bzw. des jeweiligen Objektes O positioniert sein. Dadurch kann nicht nur die Objektebene OE selbst ermittelt werden, sondern auch die Ausdehnung des jeweiligen Objek tes O bzw. die Objekt-Fläche OF, die das jeweilige Objekt O innerhalb der ermittelten Objektebene OE einnimmt. Es kann also eine Objekt-Breite OB und eine Objekt-Flöhe OFI der Vorderseite 3a bzw. des jeweiligen Objektes O innerhalb der ermittelten Objektebene OE abgeschätzt werden, wenn ange nommen wird, dass die Marker M1 , M2, M3, M4 oder zumindest einige der Marker M1 , M2, M3, M4 das Objekt O randseitig begrenzen.
Auch die Marker M1 , M2, M3, M4 selbst oder zumindest einige der Mar ker M1 , M2, M3, M4 können in dieser Weise an den Rändern 17 angeordnet sein, so dass auch aus deren Marker-Positionen P1 , P2, P3, P4 bzw. Mar ker-Vektoren V1 , V2, V3, V4 die Objekt-Breite OB und die Objekt-Flöhe OFI des Objektes O innerhalb der ermittelten Objektebene OE abgeschätzt wer den kann. Sind mehr als vier Marker M1 , M2, M3, M4 und/oder Flächen- Markierungen Mf vorgesehen, können diese auch eine mehreckige Objekt- Fläche OF in der Objektebene OE begrenzen, so dass dadurch eine Form bzw. eine Kontur K des Objektes O innerhalb der ermittelten Objektebene OE extrahiert werden kann. Darüber kann auf die Form des gesamten Objek tes O zurückgeschlossen werden, beispielsweise bei einem Anhänger 3.
Die Objekt-Breite OB und/oder die Objekt-Flöhe OFI können damit an hand unterschiedlicher Anhaltspunkte ermittelt oder zumindest abgeschätzt werden. Im Falle eines Anhängers 3 die entsprechende Ausdehnung der Vorderseite und im Falle einer Laderampe 11a oder eines Garagentores 11b deren flächige Ausdehnung. Ist unbekannt, ob sich die jeweiligen Anhalts punkte (Marker, Flächen-Markierungen etc.) randseitig befinden, kann dar aus zumindest eine ungefähre (minimale) Begrenzung des jeweiligen Objek tes O und damit eine ungefähre (minimale) Objekt-Breite OB und/oder unge fähre (minimale) Objekt-Flöhe OFI abgeschätzt werden.
Ergänzend können die Flächen-Markierungen Mf QR-Codes CQ oder Barcodes CB oder Aruco-Marker CA aufweisen (s. Fig. 5a). In diesen können die Objekt-Breite OB und/oder die Objekt-Flöhe OFI des Objektes O insbe sondere innerhalb der ermittelten Objektebene OE und/oder die Marker- Vektoren V1 , V2, V3, V4 und/oder die Marker-Positionen P1 , P2, P3, P4 rela tiv zu dem ersten Bezugspunkt BP1 (z.B. der erste Ankuppelpunkt 6 am An hänger 3) kodiert sein. So kann die Steuereinheit 5, die mit der Kamera 4 verbunden ist, auch ohne ein vorheriges Einlesen dieser Daten beispielswei se das erste Koordinatensystem K1 festlegen bzw. aus der Transformati onsmatrix T die entsprechenden Informationen extrahieren. Die QR-Codes CQ oder Barcodes CB oder Aruco-Marker CA können dabei beispielsweise nach einer Kalibrierung der Marker M1 , M2, M3, M4 erstellt und als Teil der Flächen-Markierungen Mf anschließend auf das jeweilige Objekt O marker nah flächig aufgebracht werden.
Es kann auch vorgesehen sein, dass geometrische Informationen des Objektes O, z.B. die Objekt-Breite OB und/oder die Objekt-Höhe OH des Ob jektes O, insbesondere innerhalb der ermittelten Objektebene OE, und/oder die Marker-Vektoren V1 , V2, V3, V4 und/oder die Marker-Positionen P1 , P2, P3, P4 relativ zu dem ersten Bezugspunkt BP1 (z.B. der erste Ankuppelpunkt 6 am Anhänger 3) über die Marker-Positionen P1 , P2, P3, P4 am jeweiligen Objekt O kodiert sind. So kann aus der räumlichen Anordnung der Marker M1 , M2, M3, M4 erkannt werden, wo beispielsweise der erste Bezugspunkt BP1 , z.B. der erste Ankuppelpunkt 6, liegt. So können bei vier Markern M1 , M2, M3, M4 z.B. jeweils ein Marker oben links, oben mittig und oben rechts angeordnet sein und ein weiterer Marker unten mittig. Diese räumliche An ordnung ist dann einer bestimmten festgelegten Position des ersten Ankup pelpunktes 6 zugeordnet, die der Steuereinheit 5 bekannt ist. Entsprechend kann bei einer anderen festgelegten Position des ersten Ankuppelpunktes 6 eine andere räumlich Anordnung der Marker M1 , M2, M3, M4 zugeordnet sein, wobei zur weiteren Untergliederung auch weitere Marker vorgesehen sein können.
Grundsätzlich können die QR-Codes CQ oder Barcodes CB oder Aru- co-Marker CA mit der entsprechenden Kodierung auch auf den Markern M1 , M2, M3, M4 entsprechend gekrümmt aufgebracht werden (nicht dargestellt), so dass die jeweiligen Daten zur Festlegung des ersten Koordinatensystems K1 bzw. zur Identifizierung der Marker-Positionen P1 , P2, P3, P4 der Marker M1 , M2, M3, M4 durch die Kamera 4 erkannt werden können. Weiterhin kön nen in einem oder mehreren Markern M1 , M2, M3, M4 auch Kommunikati onseinheiten 30 angeordnet sein (s. Fig. 5a), die ausgebildet sind, diese Da ten (die Objekt-Breite OB und/oder die Objekt-Höhe OH des Objektes O, ins besondere innerhalb der ermittelten Objektebene OE, und/oder die Marker- Vektoren V1 , V2, V3, V4 und/oder die Marker-Positionen P1 , P2, P3, P4 rela tiv zu dem ersten Bezugspunkt BP1) drahtlos, z.B. über Bluetooth 30a, RFID 30b, o.ä., an das Zugfahrzeug 2 bzw. die Steuereinheit 5 zu übermitteln, z.B. eine Anhänger-Kennung ID.
Mit den derartig ausgebildeten Markern M1, M2, M3, M4 können je nach Fahrzeugtyp eine Reihe von Assistenzfunktionen Fi durchgeführt werden:
Wie bereits beschrieben, kann mithilfe der Marker M1 , M2, M3, M4 bei einem mehrteiligen Fahrzeug 1 aus einem Zugfahrzeug 2 und einem Anhä nger 3 der Knickwinkel KW zwischen diesen vorzugsweise fortlaufend ermit telt werden. Dieser Knickwinkel KW kann dann beispielsweise dazu verwen det werden, das mehrteilige Fahrzeug 1 bei einer Rückwärtsfahrt und/oder während eines Einparkvorganges zu steuern oder während einer Kurvenfahrt über eine Knickwinkel-Änderung dKW die Stabilität abzuschätzen. Damit kann eine knickwinkelbasierte Assistenzfunktion F1 bereitgestellt werden.
Weiterhin kann mithilfe des Normal-Abstandes AN bzw. des Referenz- Abstandes AR eine Ankuppelassistenzfunktion F2 ermöglicht werden. Als Referenzpunkte PR1 , PR2 können dabei beispielsweise die Ankuppelpunkte 6, 7 gewählt werden, wobei unterstützend aus dem daraus folgenden Refe renz-Abstand AR ein lateraler Referenz-Abstand ARI und ein vertikaler Refe renz-Abstand ARv ermittelt werden. Diese folgen ebenfalls aus der über die Transformationsmatrix T ermittelten Pose PO der Objektebene OE relativ zum Bildsensor 4a bzw. der Objektebene OE im zweiten Koordinatensystem K2. Dies ermöglicht eine gezielte Annäherung des zweiten Ankuppelpunktes 7 am Zugfahrzeug 2 an den ersten Ankuppelpunkt 6 am Anhänger 3, wenn das Zugfahrzeug 2 in Abhängigkeit der Komponenten des Referenz- Abstandes ARI, ARv gezielt manuell oder automatisiert gesteuert wird. Alternativ oder ergänzend können in Abhängigkeit der ermittelten relati ven Lage der Objektebene OE bzw. der Vorderseite 3a des Anhängers 3 auch Anhänger-Informationen AI erstellt und von einer Anzeigeeinrichtung 8 zusammen mit dem aufgenommenen Bild B der Kamera 4 für den Fahrer sichtbar angezeigt werden. Beispielsweise können als Anhänger- Informationen AI eine Anhänger-Kennung ID, der Normal-Abstand AN und/oder der Referenz-Abstand AR, der Knickwinkel KW, etc. von der Anzei geeinrichtung 8 angezeigt werden. Die Anzeigeeinrichtung 8 kann die Anhä nger-Informationen AI dabei dem von der jeweiligen Kamera 4 aufgenomme nen Bild B überlagern, so dass sowohl die Abbildung der Umgebung U als auch die Anhänger-Informationen Ai angezeigt werden. Die Anhänger- Informationen AI können beispielsweise übersichtlich in Abhängigkeit des Abstandes AN, AR skaliert und in dem Bildbereich des Bildes B überlagert angezeigt werden, in dem die Vorderseite 3a des Anhängers 3 dargestellt ist.
Weiterhin kann vorgesehen sein, dass die Anzeigeeinrichtung 8 als An hänger-Information AI die Kontur K beispielsweise der Vorderseite 3a des Anhängers 3 oder des gesamten Anhängers 3 anzeigt. Die Kontur K wird dabei aus der über die Marker M1 , M2, M3, M4 ermittelten Objektebene OE in Abhängigkeit der hinterlegten oder ermittelten Objekt-Breite OB und Ob jekt-Höhe OH jeweils des Anhängers 3 modelliert. Auch die Marker- Positionen P1 , P2, P3, P4 der Marker M1 , M2, M3, M4 können dabei berück sichtigt werden, wenn diese beispielsweise an den Rändern 17 der Vorder seite 3a angeordnet sind. Die Anhänger-Kontur K kann einzeln oder dem Bild B überlagert angezeigt werden. Dies kann z.B. bei Dunkelheit ein Rangieren oder Ankuppeln vereinfachen.
Weiterhin kann von der Anzeigeeinrichtung 8 als Anhänger-Information AI der erste bzw. zweite Ankuppelpunkt 6, d.h. der Kingpin 6a bzw. die Sat telkupplung 7a, einzeln oder als Überlagerung über dem Bild B angezeigt werden. Da beispielsweise der Kingpin 6a im Bild B der Kamera 4 nicht direkt zu sehen ist, kann durch diese Überlagerung ggf. in Kombination mit dem angezeigten Referenz-Abstand AR ein Ankuppeln erleichtert werden bzw. kann ein Ankuppelvorgang beispielsweise auch bei Dunkelheit genau über wacht werden.
Ergänzend können dem Bild B von der Anzeigeeinrichtung 8 als Anhä nger-Informationen AI eine Anhänger-Mittenachse 40 des Anhängers 3 sowie eine Zugfahrzeug-Mittenachse 41 des Zugfahrzeuges 2 überlagert werden. Während die Zugfahrzeug-Mittenachse 41 bekannt ist, kann die Anhänger- Mittenachse 40 aus der über die Marker M1 , M2, M3, M4 ermittelten Objekt ebene OE in Abhängigkeit der hinterlegten oder ermittelten Objekt-Breite OB und/oder Objekt-Höhe OH jeweils des Anhängers 3 modelliert werden. Auch die Marker-Positionen P1 , P2, P3, P4 der Marker M1 , M2, M3, M4 können dabei berücksichtigt werden, wenn diese beispielsweise an den Rändern 17 der Vorderseite 3a angeordnet sind. Der Winkel zwischen der Anhänger- Mittenachse 40 des Anhängers 3 sowie eine Zugfahrzeug-Mittenachse 41 des Zugfahrzeuges 2 ist dann der Knickwinkel KW, der ergänzend angezeigt werden kann. Die Anzeige bzw. Überlagerung der Mittenachsen 40, 41 er möglicht es dem Fahrer beide Linien relativ zueinander zu positionieren, z.B. übereinanderzubringen, so dass er dadurch beispielsweise bei einem An kuppelvorgang unterstützt werden kann. Gleichwirkend damit kann auch je weils eine Achse eingezeichnet werden, die parallel zu der Anhänger- Mittenachse 40 des Anhängers 3 bzw. der Zugfahrzeug-Mittenachse 41 des Zugfahrzeuges 2 liegt.
Ergänzend können dem Bild B von der Anzeigeeinrichtung 8 auch Steuerinformationen Sl überlagert werden, die dem Fahrer beispielsweise durch Pfeile anzeigen, in welche Richtung er das Zugfahrzeug 2 zu steuern hat, um den zweiten Ankuppelpunkt 6 an den ersten Ankuppelpunkt 7 anzu nähern. Die Steuerinformationen Sl können beispielsweise durch eine ent- sprechend Steueralgorithmus auf der Steuereinheit 5 ermittelt werden, der eine geeignete Trajektorie ermittelt.
Weiterhin kann eine Laderaumkamera 10 im Laderaum 10a des Anhä ngers 3 vorgesehen sein, die eine geladene Fracht erfassen kann. Die von der Laderaumkamera 10 aufgenommenen Laderaum-Bilder LB können von der Anzeigeeinrichtung 8 angezeigt werden. Die Laderaum-Bilder LB können dabei derartig über die Bilder B der Kamera 4 gelegt werden, dass diese im Bereich des Anhängers 3, der durch die Marker M1 , M2, M3, M4 verifiziert wird, angezeigt werden. Dadurch kann der Fahrer auch während des Be triebs die Fracht kontrollieren bzw. erkennen, was der durch die Kamera 4 erfasste Anhänger 3 geladen hat. Dies kann bei einem Annäherungsvorgang oder auch bereits beim Vorbeifahren am Anhänger 3 z.B. auf einem Be triebshof 11a geschehen, um auch optisch zu verifizieren, ob ein Anhänger 3 dem Zugfahrzeug 2 zugeordnet ist.
Neben einer internen Anwendung in einem mehrteiligen Fahrzeug 1 wie beschrieben, kann im Rahmen einer Abstands-Assistenzfunktion F3 vorge sehen sein, dass die Marker M1 , M2, M3, M4 beispielsweise an einem Ge bäude 11 , z.B. einer Laderampe 11 a, einem Garagentor 11 b, etc., oder an einem sich bewegenden oder stehenden Fremd-Fahrzeug 12 oder an sonsti gen Hindernissen in der Umgebung U positioniert sind, die jeweils als poten tiell relevante Objekte O von der Kamera 4 erkannt werden können.
Die Marker M1 , M2, M3, M4 können auch damit in der beschriebenen Weise dazu dienen, eine relevante Objektebene OE dieser Objekte O zu er mitteln, wenn die Marker-Positionen P1 , P2, P3, P4 und/oder die Marker- Vektoren V1 , V2, V3, V4 bekannt sind. Auch diese können dann mit Flächen- Markierungen Mf und/oder Leuchtquellen 21 und/oder einer selbstleuchten den Beschichtung 27 und/oder Reflektions-Beschichtung 26 in der beschrie benen Weise kombiniert werden, um bei unterschiedlichen Umgebungsbe- dingungen eine möglichst zuverlässige und einfache Ermittlung der Objekt ebene OE zu ermöglichen.
Bezugszeichenliste (Teil der Beschreibung)
1 Fahrzeug
2 Zugfahrzeug
3 Anhänger
3a Vorderseite des Anhängers 3
4 Kamera
42 Zugfahrzeug-Kamera
43 Anhänger-Kamera 4a Bildsensor
5 Steuereinheit
6 erster Ankuppelpunkt
6a Kingpin/Königszapfen
7 zweiter Ankuppelpunkt
7a Sattelkupplung
8 Anzeigeeinrichtung
10 Laderaumkamera
11 Gebäude
11 a Laderampe
11 b Garagentor
12 Fremd-Fahrzeug
17 Ränder des Objektes O
20 Marker-Innenraum
21 Leuchtquelle
21 a Umrissleuchten
22 Leuchtsteuerung
23 Energiequelle
23a Solarpaneel 24 Bewegungssensor
25 Umgebungsleuchte
26 Reflektions-Beschichtung 27 selbstleuchtende Beschichtung 27a fluoreszierende Beschichtung 30 Kommunikationseinheit 30a Bluetooth 30b RFID
40 Anhänger-Mittenachse
41 Zugfahrzeug-Mittenachse AN Normal-Abstand AR Referenz-Abstand ARI lateraler Referenz-Abstand ARv vertikaler Referenz-Abstand B Bild
BE Bildebene
BPi Bildpunkten
C Farbe
CQ QR-Code
CB Barcode
CA Aruco-Marker
DP Drehpunkt dt Pulsdauer dKW Knickwinkel-Änderung
E Erfassungsbereich
E2 Zugfahrzeug-Erfassungsbereich
E3 Anhänger-Erfassungsbereich f Brennweite
F1 knickwinkelbasierte Assistenzfunktion
F2 Ankuppelassistenzfunktion
F3 Abstands-Assistenzfunktion ID Anhänger-Kennung
K Kontur des Objektes O
K1 erstes Koordinatensystem (markerfest)
K2 zweites Koordinatensystem (kamerafest)
KB Bild-Koordinatensystem
KD Kamera-Daten
KW Knickwinkel
LB Laderaum-Bild
M1 , M2, M3, M4 Marker
M1a, M2a M3a, M4a Marker-Abbildung
Mf Flächen-Markierung
O Objekt
OB Objekt-Breite
OE Objektebene
OF Objekt-Fläche
OFI Objekt-Flöhe
P1 , P2, P3, P4 Marker-Position
PB1 erster Bezugspunkt
PB2 zweiter Bezugspunkt
PO Pose
PPi Objektpunkt
PR1 erster Referenzpunkt
PR2 zweiter Referenzpunkt
Sl Steuerinformation
SL Leuchtsignal
SV Seitenverhältnis des Bildsensors 4a
T T ransformationsmatrix u Umgebung
U1 erster Ursprung
U2 zweiter Ursprung
V1 , V2, V3, V4 Marker-Vektor z Bewegungszustand xB, yB Bildkoordinaten x1 , y1 , z1 erster Koordinaten im ersten Koordinatensystem K1 x2, y2, z2 zweite Koordinaten im zweiten Koordinatensystem K2

Claims

Patentansprüche
1. Verfahren zum Ermitteln einer Pose (PO) eines Objektes (O) relativ zu einem Fahrzeug (1), wobei das Objekt (O) und das Fahrzeug (1) gegen einander beweglich sind und das Objekt (O) mindestens drei Marker (M1 , M2, M3, M4) aufweist, wobei das Objekt (O) von mindestens einer Kamera (4) an dem Fahrzeug (1) erfasst wird, mit mindestens den fol genden Schritten:
- Erfassen der mindestens drei Marker (M1 , M2, M3, M4) mit der Kamera (4) und Erzeugen eines Bildes (B), wobei den mindestens drei Markern (M1 , M2, M3, M4) in dem Bild (B) jeweils eine Marker-Abbildung (M1 a, M2a, M3a, M4a) zugeordnet ist;
- Ermitteln von Marker-Positionen (P1 , P2, P3, P4) und/oder Marker- Vektoren (V1 , V2, V3, V4) der Marker (M1 , M2, M3, M4) auf dem erfass ten Objekt (O);
- Ermitteln einer Transformationsmatrix (T) in Abhängigkeit der Marker- Positionen (P1 , P2, P3, P4) und/oder der Marker-Vektoren (V1 , V2, V3, V4) sowie in Abhängigkeit der Marker-Abbildungen (M1a, M2a, M3a, M4a), wobei die Transformationsmatrix (T) die Marker (M1 , M2, M3, M4) auf dem Objekt (O) auf die Marker-Abbildung (M1a, M2a, M3a, M4a) in dem Bild (B) der Kamera (4) am Fahrzeug (1) abbildet; und
- Ermitteln einer durch die Marker (M1 , M2, M3, M4) auf dem Objekt (O) ausgebildeten Objektebene (OE) in einem zweiten Koordinatensystem (K2) in Abhängigkeit der ermittelten Transformationsmatrix (T), wobei das zweite Koordinatensystem (K2) fahrzeugfest ist zum Ermitteln der Pose (PO) des Objektes (O) relativ zu dem Fahrzeug (1), dadurch gekennzeichnet, dass die mindestens drei Marker (M1 , M2, M3, M4) an dem Objekt (O) räum lich ausgedehnt sind und in dem Bild (B) flächigen Marker-Abbildungen (M1a, M2a, M3a, M4a) zugeordnet werden.
2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass von der Ka mera (4) mindestens drei Marker (M1 , M2, M3, M4), vorzugsweise min destens vier Marker (M1 , M2, M3, M4) erfasst werden, die sphärisch o- der zylinderförmig oder quaderförmig sind.
3. Verfahren nach einem der vorhergehenden Ansprüche, dadurch ge kennzeichnet, dass zumindest einer der mindestens drei Marker (M1 ,
M2, M3, M4)
- von innen und/oder hinten beleuchtet wird, beispielsweise über in ei nem Marker-Innenraum (20) der mindestens drei Marker (M1 , M2, M3, M4) angeordneten Leuchtquelle (21) und/oder
- von außen angeleuchtet und/oder angestrahlt wird, beispielsweise über eine Umgebungsleuchte (25), vorzugsweise am Fahrzeug (1), und/oder
- eine selbstleuchtende Beschichtung (27) aufweist, beispielsweise eine fluoreszierende Beschichtung (27a).
4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass die Leucht quelle (21) und/oder die Umgebungsleuchte (25) in Abhängigkeit eines Bewegungszustandes (Z) des Fahrzeuges (1) und/oder des Objektes (O) angesteuert wird.
5. Verfahren nach Anspruch 3 oder 4, dadurch gekennzeichnet, dass
- eine Farbe (C) der Leuchtquelle (21) und/oder der Umgebungsleuchte (25) und/oder eine Pulsdauer (dt) der Leuchtquelle (21) und/oder der Umgebungsleuchte (25) in Abhängigkeit eines Abstandes (AN, AR) zwi schen dem Fahrzeug (1) und dem Objekt (O), und/oder
- eine Farbe (C) der Leuchtquelle (21) und/oder eine Pulsdauer (dt) der Leuchtquelle (21) in Abhängigkeit der Marker-Position (P1 , P2, P3, P4) am Objekt (O) eingestellt wird, und/oder
- eine Farbe (C) der selbstleuchtenden Beschichtung (27) an zumindest einem der mindestens drei Marker (M1 , M2, M3, M4) in Abhängigkeit der Marker-Position (P1, P2, P3, P4) am Objekt (O) eingestellt wird.
6. Verfahren nach einem der Ansprüche 3 bis 5, dadurch gekennzeichnet, dass die Leuchtquellen (21) in zumindest einem der mindestens drei Marker (M1 , M2, M3, M4) von einer Energiequelle (23), beispielsweise einem Solarpaneel (23a), am Objekt (O) mit Energie versorgt werden.
7. Verfahren nach einem der Ansprüche 3 bis 6, dadurch gekennzeichnet, dass mindestens einer der mindestens drei Marker (M1 , M2, M3, M4) durch eine Umrissleuchte (21a) an Rändern (17) des Objektes (O) gebil det wird.
8. Verfahren nach einem der Ansprüche 3 bis 7, dadurch gekennzeichnet, dass die Umgebungsleuchte (25) sichtbare und/oder nicht-sichtbare Strahlung auf die Marker (M1 , M2, M3, M4) aussendet und die Marker (M1 , M2, M3, M4) eine Reflektions-Beschichtung (26) aufweisen.
9. Verfahren nach einem der vorhergehenden Ansprüche, dadurch ge kennzeichnet, dass das Objekt (O) eine Objekt-Breite (OB) und eine Ob jekt-Höhe (OH) aufweist.
10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass auf zumin dest einem der Marker (M1 , M2, M3, M4) oder benachbart zu zumindest einem der Marker (M1 , M2, M3, M4) ein QR-Code (CQ) und/oder ein Barcode (CB) und/oder ein Aruco-Marker (CA) oberflächlich aufgebracht ist und der QR-Code (CQ) und/oder der Barcode (CB) und/oder der Aru co-Marker (CA) von der Kamera (4) erfasst wird.
11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass aus dem von der Kamera (4) erfassten QR-Code (CQ) und/oder dem Barcode (CB) und/oder dem Aruco-Marker (CA) die Objekt-Breite (OB) des Ob- jekts (O) und/oder die Objekt-Höhe (OH) des Objekts (O) und/oder die Marker-Positionen (P1 , P2, P3, P4) und/oder die Objekt-Vektoren (V1 , V2, V3, V4) ermittelt werden.
12. Verfahren nach einem der Ansprüche 9 bis 11 , dadurch gekennzeichnet, dass die Objekt-Breite (OB) des Objekts (O) und/oder die Objekt-Höhe (OH) des Objekts (O) und/oder ein erster Bezugspunkt (BP1 ) am Objekt (O) in Abhängigkeit der räumlichen Anordnung der erkannten Marker (M1 , M2, M3, M4) am Objekt (O) zueinander ermittelt und/oder zumin dest abgeschätzt werden.
13. Verfahren nach einem der Ansprüche 9 bis 12, dadurch gekennzeichnet, dass die Objekt-Breite (OB) des Objekts (O) und/oder die Objekt-Höhe (OH) des Objekts (O) und/oder ein erster Bezugspunkt (BP1 ) am Objekt (O) und/oder die Marker-Positionen (P1 , P2, P3, P4) und/oder die Mar ker-Vektoren (V1 , V2, V3, V4) über eine Kommunikationseinheit (30) am Objekt (O), beispielsweise per Bluetooth (30a) oder RFID (30b) an das Fahrzeug (1 ) übermittelt werden.
14. Verfahren nach einem der Ansprüche 9 bis 13, dadurch gekennzeichnet, dass von der Kamera (4) ergänzend Flächen-Markierungen (Mf) erfasst werden, die benachbart zu zumindest einem der Marker (M1 , M2, M3, M4) auf dem Objekt (O) angeordnet sind, wobei aus den erfassten Flä chen-Markierungen (Mf) eine redundante Ermittlung der Pose (PO) des Objektes (O) relativ zu dem Fahrzeug (1 ) erfolgt.
15. Verfahren nach Anspruch 14, dadurch gekennzeichnet, dass die Flä chen-Markierungen (Mf) und/oder die Marker (M1 , M2, M3, M4) zumin dest teilweise an Rändern (17) des Objektes (O) angeordnet sind und aus dem erfassten Bild (B) der Kamera (4) die Objekt-Breite (OB) des Objekts (O) und/oder die Objekt-Höhe (OH) des Objekts (O) abgeleitet wird.
16. Verfahren nach einem der vorhergehenden Ansprüche, dadurch ge kennzeichnet, dass
- das Fahrzeug (1) einteilig ist und das Objekt (O) nicht mit dem Fahr zeug (1) verbunden ist, wobei sich das Fahrzeug (1) relativ zu dem Ob jekt (O) bewegt und das Objekt (O) ein anzukuppelnder Anhänger (3) oder ein Gebäude (11 ), beispielsweise eine Laderampe (11 a) oder ein Garagentor (11 b), oder ein Fremd-Fahrzeug (12) ist, oder dass
- das Fahrzeug (1) mehrteilig ist und die Kamera (4; 42; 43) an einem Zugfahrzeug (2) und/oder an einem daran angekuppelten Anhänger (3) angeordnet ist, wobei
- das Objekt (O) mit dem mehrteiligen Fahrzeug (1) verbunden ist, wobei das Objekt (O) ein angekuppelter Anhänger (3) ist, der sich relativ zu dem Zugfahrzeug (2) zumindest zeitweise bewegt, oder
- das Objekt (O) nicht mit dem mehrteiligen Fahrzeug (1) verbunden ist, wobei das Objekt (O) ein Gebäude (11), beispielsweise eine Laderampe (11 a) oder ein Garagentor (11 b), oder ein Fremd-Fahrzeug (12) ist.
17. Verfahren nach einem der vorhergehenden Ansprüche, dadurch ge kennzeichnet, dass das Bild (B) der Kamera (4) auf einer Anzeigeeinrich tung (8) angezeigt wird, wobei dem Bild (B) von der Anzeigeeinrichtung (8) ein Normal-Abstand (AN) und/oder ein Referenz-Abstand (AR) und/oder eine Kontur (K) des Objektes (O) und/oder Steuerinformationen (Sl) und/oder ein Knickwinkel (KW) zwischen dem Zugfahrzeug (2) und dem Anhänger (3) und/oder ein erster Ankuppelpunkt (6) und/oder ein zweiter Ankuppelpunkt (7) und/oder eine Anhänger-Kennung (ID) und/oder ein Laderaum-Bild (LB) und/oder eine in Abhängigkeit der Mar ker (M1 , M2, M3, M4) ermittelten Anhänger-Mittenachse (40) und/oder eine Zugfahrzeug-Mittenachse (41) überlagert werden.
18. Verfahren zum Steuern eines Fahrzeuges (1) in Abhängigkeit einer Pose (PO) eines Objektes (O) relativ zu dem Fahrzeug (1), wobei die Pose (PO) des Objektes (O) in einem Verfahren nach einem der vorherigen Ansprüche ermittelt wird, wobei das Fahrzeug (1)
- im Rahmen einer knickwinkelbasierte Assistenzfunktion (F1) in Abhän gigkeit eines aus der ermittelten Pose (PO) des Objektes (O) hergeleite ten Knickwinkels (KW) zwischen einem Zugfahrzeug (2) und einem An hänger (3) eines mehrteiligen Fahrzeuges (1) und/oder einer Knickwin kel-Änderung (dKW) gesteuert wird, oder
- im Rahmen einer Ankuppelassistenzfunktion (F2) in Abhängigkeit eines aus der ermittelten Pose (PO) des Objektes (O) hergeleiteten Normal- Abstandes (AN) und/oder Referenz-Abstandes (AR) zwischen dem Zug fahrzeug (2) als Fahrzeug (1) und einem anzukuppelnden Anhänger (3) als Objekt (O), an dem die mindestens drei Marker (M1 , M2, M3, M4) angeordnet sind, derartig gesteuert wird, dass sich ein erster Ankuppel punkt (6) an dem anzukuppelnden Anhänger (3) an einen zweiten An kuppelpunkt (7) am Zugfahrzeug (2) annähert und die beiden Ankuppel punkte (6, 7) an einem gemeinsamen Drehpunkt (DP) aneinander ge kuppelt werden, oder
- im Rahmen einer Abstands-Assistenzfunktion (F3) in Abhängigkeit ei nes aus der ermittelten Pose (PO) des Objektes (O) hergeleiteten Nor mal-Abstandes (AN) und/oder Referenz-Abstandes (AR) zwischen dem Zugfahrzeug (2) als Fahrzeug (1) und einem Gebäude (11) als Objekt (O), an dem die mindestens drei Marker (M1 , M2, M3, M4) angeordnet sind, beispielsweise einer Laderampe (11a) oder einem Garagentor
(11 b), oder einem Fremd-Fahrzeug (12) als Objekt (O), an dem die min destens drei Marker (M1 , M2, M3, M4) angeordnet sind, gesteuert wird.
19. Steuereinheit (5) zur Durchführung eines Verfahrens nach einem der vorhergehenden Ansprüche.
20. Fahrzeug (1 ) mit einer Steuereinheit (5) nach Anspruch 19, wobei das Fahrzeug (1 ) einteilig oder mehrteilig ist und die mindestens eine Kame ra (4) an dem Zugfahrzeug (2) und/oder dem Anhänger (3) des mehrtei ligen Fahrzeuges (1 ) angeordnet ist.
21. Fahrzeug (1 ) nach Anspruch 20, dadurch gekennzeichnet, dass die min destens drei Marker (M1 , M2, M3, M4) an einer Vorderseite (3a) des An hängers (3) angeordnet sind.
PCT/EP2021/057174 2020-03-26 2021-03-22 Verfahren zum ermitteln einer pose eines objektes, verfahren zum steuern eines fahrzeuges, steuereinheit und fahrzeug WO2021191099A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/913,439 US20230196609A1 (en) 2020-03-26 2021-03-22 Method for determining a pose of an object, method for controlling a vehicle, control unit and vehicle
EP21715163.8A EP4128160A1 (de) 2020-03-26 2021-03-22 Verfahren zum ermitteln einer pose eines objektes, verfahren zum steuern eines fahrzeuges, steuereinheit und fahrzeug

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102020108416.1A DE102020108416A1 (de) 2020-03-26 2020-03-26 Verfahren zum Ermitteln einer Pose eines Objektes, Verfahren zum Steuern eines Fahrzeuges, Steuereinheit und Fahrzeug
DE102020108416.1 2020-03-26

Publications (1)

Publication Number Publication Date
WO2021191099A1 true WO2021191099A1 (de) 2021-09-30

Family

ID=75277976

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2021/057174 WO2021191099A1 (de) 2020-03-26 2021-03-22 Verfahren zum ermitteln einer pose eines objektes, verfahren zum steuern eines fahrzeuges, steuereinheit und fahrzeug

Country Status (4)

Country Link
US (1) US20230196609A1 (de)
EP (1) EP4128160A1 (de)
DE (1) DE102020108416A1 (de)
WO (1) WO2021191099A1 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022111110A1 (de) 2022-05-05 2023-11-09 Bayerische Motoren Werke Aktiengesellschaft Markervorrichtung zur Positionsbestimmung sowie Verfahren zum Installieren einer Markervorrichtung
CN117622322B (zh) * 2024-01-26 2024-04-26 杭州海康威视数字技术股份有限公司 转角检测方法、装置、设备及存储介质

Citations (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002012172A (ja) 2000-06-30 2002-01-15 Isuzu Motors Ltd トレーラ連結角検出装置
DE10302545A1 (de) 2003-01-23 2004-07-29 Conti Temic Microelectronic Gmbh Automatisches Ankuppel bzw. Andocken mittels 2D- und 3D-Bildsensorik
US20060293800A1 (en) 2004-02-24 2006-12-28 Bayerische Motoren Werke Aktiengesellschaft Process for coupling a trailer with the use of a vehicle level regulation system
US20070065004A1 (en) * 2005-08-01 2007-03-22 Topcon Corporation Three-dimensional measurement system and method of the same, and color-coded mark
WO2008064892A1 (de) 2006-11-29 2008-06-05 Universität Koblenz-Landau Verfahren zum bestimmen einer position, vorrichtung und computerprogrammprodukt
US20080231701A1 (en) 2007-03-21 2008-09-25 Jeremy John Greenwood Vehicle maneuvering aids
DE102004025252B4 (de) 2004-05-22 2009-07-09 Daimler Ag Anordnung zur Bestimmung des Gespannwinkels eines Gliederzugs
US20110050903A1 (en) * 2009-04-08 2011-03-03 Topcon Positioning Systems, Inc. Method for determining position and orientation of vehicle trailers
US20110169949A1 (en) * 2010-01-12 2011-07-14 Topcon Positioning Systems, Inc. System and Method for Orienting an Implement on a Vehicle
EP2634070A1 (de) * 2012-02-28 2013-09-04 WABCO GmbH Zielführungssystem für Kraftfahrzeuge
US20140200759A1 (en) 2011-01-26 2014-07-17 Magna Electronics Inc. Rear vision system with trailer angle detection
US20140277942A1 (en) 2011-04-19 2014-09-18 Ford Global Technologies, Llc Trailer length estimation in hitch angle applications
GB2513392A (en) * 2013-04-26 2014-10-29 Jaguar Land Rover Ltd System for a towing vehicle
US20150345939A1 (en) * 2013-11-21 2015-12-03 Ford Global Technologies, Llc Illuminated hitch angle detection component
US20170106796A1 (en) 2015-10-19 2017-04-20 Ford Global Technologies, Llc Trailer backup assist system with hitch angle offset estimation
DE102016209418A1 (de) 2016-05-31 2017-11-30 Bayerische Motoren Werke Aktiengesellschaft Betreiben eines Gespanns mittels Vermessung der relativen Lage eines Informationsträgers über eine Ausleseeinrichtung
US20180039266A1 (en) 2016-08-02 2018-02-08 Denso International America, Inc. Safety verifying system and method for verifying tractor-trailer combination
DE102016011324A1 (de) 2016-09-21 2018-03-22 Wabco Gmbh Verfahren zur Steuerung eines Zugfahrzeugs bei dessen Heranfahren und Ankuppeln an ein Anhängerfahrzeug
WO2018060192A1 (de) 2016-09-27 2018-04-05 Jost-Werke Deutschland Gmbh Vorrichtung zur positionserkennung eines ersten oder zweiten miteinander zu kuppelnden fahrzeugs
DE102017208055A1 (de) * 2017-05-12 2018-11-15 Robert Bosch Gmbh Verfahren und Vorrichtung zur Bestimmung einer Neigung eines kippbaren Anbaugerätes eines Fahrzeugs
WO2018210990A1 (en) 2017-05-18 2018-11-22 Cnh Industrial Italia S.P.A. System and method for automatic connection between a tractor and an implement
DE102018114730A1 (de) 2017-06-20 2018-12-20 Gm Global Technology Operations, Llc Verfahren und Vorrichtung zum Schätzen eines Gelenkwinkels
DE102017119968A1 (de) 2017-08-31 2019-02-28 Saf-Holland Gmbh System zur Identifikation eines Anhängers und zur Unterstützung eines Ankupplungsprozesses an eine Zugmaschine
DE102017119969A1 (de) * 2017-08-31 2019-02-28 Saf-Holland Gmbh Anhänger-Steuervorrichtung zum Montieren an einem Anhänger
DE102006040879B4 (de) 2006-08-31 2019-04-11 Bayerische Motoren Werke Aktiengesellschaft Einpark- und Rückfahrhilfe
US20190217888A1 (en) * 2016-09-27 2019-07-18 Towteknik Pty Ltd Device, method, and system for assisting with trailer reversing
DE102018203152A1 (de) * 2018-03-02 2019-09-05 Continental Automotive Gmbh Anhängerwinkelbestimmungssystem für ein Fahrzeug
EP3180769B1 (de) 2014-08-13 2019-12-04 Bendix Commercial Vehicle Systems, LLC Kabine und anhängerkörperbewegungsbestimmung mit kamera hinten an der kabine
DE102018210340A1 (de) 2018-06-26 2020-01-02 Zf Friedrichshafen Ag Verfahren und System zum Ermitteln einer Relativpose zwischen einem Zielobjekt und einem Fahrzeug

Patent Citations (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002012172A (ja) 2000-06-30 2002-01-15 Isuzu Motors Ltd トレーラ連結角検出装置
DE10302545A1 (de) 2003-01-23 2004-07-29 Conti Temic Microelectronic Gmbh Automatisches Ankuppel bzw. Andocken mittels 2D- und 3D-Bildsensorik
US20060293800A1 (en) 2004-02-24 2006-12-28 Bayerische Motoren Werke Aktiengesellschaft Process for coupling a trailer with the use of a vehicle level regulation system
DE102004025252B4 (de) 2004-05-22 2009-07-09 Daimler Ag Anordnung zur Bestimmung des Gespannwinkels eines Gliederzugs
US20070065004A1 (en) * 2005-08-01 2007-03-22 Topcon Corporation Three-dimensional measurement system and method of the same, and color-coded mark
DE102006040879B4 (de) 2006-08-31 2019-04-11 Bayerische Motoren Werke Aktiengesellschaft Einpark- und Rückfahrhilfe
WO2008064892A1 (de) 2006-11-29 2008-06-05 Universität Koblenz-Landau Verfahren zum bestimmen einer position, vorrichtung und computerprogrammprodukt
US20080231701A1 (en) 2007-03-21 2008-09-25 Jeremy John Greenwood Vehicle maneuvering aids
US20110050903A1 (en) * 2009-04-08 2011-03-03 Topcon Positioning Systems, Inc. Method for determining position and orientation of vehicle trailers
US20110169949A1 (en) * 2010-01-12 2011-07-14 Topcon Positioning Systems, Inc. System and Method for Orienting an Implement on a Vehicle
US20140200759A1 (en) 2011-01-26 2014-07-17 Magna Electronics Inc. Rear vision system with trailer angle detection
US20140277942A1 (en) 2011-04-19 2014-09-18 Ford Global Technologies, Llc Trailer length estimation in hitch angle applications
EP2634070A1 (de) * 2012-02-28 2013-09-04 WABCO GmbH Zielführungssystem für Kraftfahrzeuge
GB2513392A (en) * 2013-04-26 2014-10-29 Jaguar Land Rover Ltd System for a towing vehicle
US20150345939A1 (en) * 2013-11-21 2015-12-03 Ford Global Technologies, Llc Illuminated hitch angle detection component
EP3180769B1 (de) 2014-08-13 2019-12-04 Bendix Commercial Vehicle Systems, LLC Kabine und anhängerkörperbewegungsbestimmung mit kamera hinten an der kabine
US20170106796A1 (en) 2015-10-19 2017-04-20 Ford Global Technologies, Llc Trailer backup assist system with hitch angle offset estimation
DE102016209418A1 (de) 2016-05-31 2017-11-30 Bayerische Motoren Werke Aktiengesellschaft Betreiben eines Gespanns mittels Vermessung der relativen Lage eines Informationsträgers über eine Ausleseeinrichtung
US20180039266A1 (en) 2016-08-02 2018-02-08 Denso International America, Inc. Safety verifying system and method for verifying tractor-trailer combination
DE102016011324A1 (de) 2016-09-21 2018-03-22 Wabco Gmbh Verfahren zur Steuerung eines Zugfahrzeugs bei dessen Heranfahren und Ankuppeln an ein Anhängerfahrzeug
WO2018060192A1 (de) 2016-09-27 2018-04-05 Jost-Werke Deutschland Gmbh Vorrichtung zur positionserkennung eines ersten oder zweiten miteinander zu kuppelnden fahrzeugs
US20190217888A1 (en) * 2016-09-27 2019-07-18 Towteknik Pty Ltd Device, method, and system for assisting with trailer reversing
DE102017208055A1 (de) * 2017-05-12 2018-11-15 Robert Bosch Gmbh Verfahren und Vorrichtung zur Bestimmung einer Neigung eines kippbaren Anbaugerätes eines Fahrzeugs
WO2018210990A1 (en) 2017-05-18 2018-11-22 Cnh Industrial Italia S.P.A. System and method for automatic connection between a tractor and an implement
DE102018114730A1 (de) 2017-06-20 2018-12-20 Gm Global Technology Operations, Llc Verfahren und Vorrichtung zum Schätzen eines Gelenkwinkels
DE102017119968A1 (de) 2017-08-31 2019-02-28 Saf-Holland Gmbh System zur Identifikation eines Anhängers und zur Unterstützung eines Ankupplungsprozesses an eine Zugmaschine
DE102017119969A1 (de) * 2017-08-31 2019-02-28 Saf-Holland Gmbh Anhänger-Steuervorrichtung zum Montieren an einem Anhänger
DE102018203152A1 (de) * 2018-03-02 2019-09-05 Continental Automotive Gmbh Anhängerwinkelbestimmungssystem für ein Fahrzeug
DE102018210340A1 (de) 2018-06-26 2020-01-02 Zf Friedrichshafen Ag Verfahren und System zum Ermitteln einer Relativpose zwischen einem Zielobjekt und einem Fahrzeug

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
FUCHS CHRISTIAN ET AL: "Advanced 3-D trailer pose estimation for articulated vehicles", 2015 IEEE INTELLIGENT VEHICLES SYMPOSIUM (IV), IEEE, 28 June 2015 (2015-06-28), pages 211 - 216, XP033209683, DOI: 10.1109/IVS.2015.7225688 *
WINKENS CHRISTIAN ET AL: "Optical Truck Tracking for Autonomous Platooning", 26 August 2015, ICIAP: INTERNATIONAL CONFERENCE ON IMAGE ANALYSIS AND PROCESSING, 17TH INTERNATIONAL CONFERENCE, NAPLES, ITALY, SEPTEMBER 9-13, 2013. PROCEEDINGS; [LECTURE NOTES IN COMPUTER SCIENCE; LECT.NOTES COMPUTER], SPRINGER, BERLIN, HEIDELBERG, PAGE(S) 38 - 48, ISBN: 978-3-642-17318-9, XP047318534 *

Also Published As

Publication number Publication date
US20230196609A1 (en) 2023-06-22
DE102020108416A1 (de) 2021-09-30
EP4128160A1 (de) 2023-02-08

Similar Documents

Publication Publication Date Title
DE102006056408B4 (de) Verfahren zum Bestimmen einer Position, Vorrichtung und Computerprogrammprodukt
DE102006035929B4 (de) Verfahren zum sensorgestützten Unterfahren eines Objekts oder zum Einfahren in ein Objekt mit einem Nutzfahrzeug
DE102019124152A1 (de) Kupplungsunterstützungssystem
WO2021191099A1 (de) Verfahren zum ermitteln einer pose eines objektes, verfahren zum steuern eines fahrzeuges, steuereinheit und fahrzeug
WO2015120981A1 (de) Verfahren zur ermittlung der absoluten position einer mobilen einheit und mobile einheit
EP2985182A2 (de) Verfahren zur warnung von verkehrsteilnehmern vor möglichen gefahrenbereichen, die durch ein fahrzeug entstehen, das ein fahrmanöver ausführt oder ausführen will
EP2830030B1 (de) Verfahren zur Ermittlung und Aktualisierung einer Belegungskarte in einem Parkareal
DE102004028763A1 (de) Andockassistent
DE102012003992A1 (de) Zielführungssystem für Kraftfahrzeuge
WO2010025792A1 (de) Verfahren und vorrichtung zur überwachung einer umgebung eines fahrzeuges
EP3774499B1 (de) Verfahren zur überwachung und steuerung eines fernbedienten park- oder manövriervorgangs eines fahrzeugs
DE102020109279A1 (de) System und verfahren zur anhängerausrichtung
DE102020124985A1 (de) Unterscheiden zwischen nahem anhänger und verbundenem anhänger
WO2016000894A1 (de) Ortspositionsabhängige darstellung von fahrzeugumfelddaten auf einer mobilen einheit
DE102017106152A1 (de) Ermitteln einer Winkelstellung eines Anhängers mit optimierter Vorlage
DE102017219119A1 (de) Verfahren zur Formerkennung eines Objekts in einem Außenbereich eines Kraftfahrzeugs sowie Kraftfahrzeug
DE102006037600B4 (de) Verfahren zur auflösungsabhängigen Darstellung der Umgebung eines Kraftfahrzeugs
DE102019116951A1 (de) System zur Erfassung von und Reaktion auf einen zurückweichenden Anhänger
DE102021204363A1 (de) Verfahren zur Kalibrierung eines Sensors mittels eines Fortbewegungsmittels
DE102014009608A1 (de) Betrieb einer AR-Brille im Kraftfahrzeug
WO2021180671A1 (de) Verfahren zum steuern eines fahrzeuges auf einem betriebshof, fahrt-steuereinheit und fahrzeug
DE102017223098A1 (de) Verfahren und Vorrichtung zur Ermittlung eines Relativwinkels zwischen zwei Fahrzeugen
DE102019132019A1 (de) Fahrzeug und steuerverfahren dafür
EP3267153B1 (de) Verfahren zur bestimmung einer position und/oder einer orientierung eines kraftfahrzeugs
DE102014211106A1 (de) Marker sowie Vorrichtung zur Positionsbestimmung, zur Positionierung, zum Bewegen eines Fahrzeugs und zur Bestimmung eines Knickwinkels

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21715163

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021715163

Country of ref document: EP

Effective date: 20221026