DE102021207180B3 - Method and device for locating a vehicle in an environment - Google Patents

Method and device for locating a vehicle in an environment Download PDF

Info

Publication number
DE102021207180B3
DE102021207180B3 DE102021207180.5A DE102021207180A DE102021207180B3 DE 102021207180 B3 DE102021207180 B3 DE 102021207180B3 DE 102021207180 A DE102021207180 A DE 102021207180A DE 102021207180 B3 DE102021207180 B3 DE 102021207180B3
Authority
DE
Germany
Prior art keywords
camera
vehicle
determined
marker
optical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102021207180.5A
Other languages
German (de)
Inventor
Timo Iken
Stefan Wappler
Roland KUBE
Niklas Koch
Carolin Last
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE102021207180.5A priority Critical patent/DE102021207180B3/en
Application granted granted Critical
Publication of DE102021207180B3 publication Critical patent/DE102021207180B3/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves

Landscapes

  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Lokalisieren eines Fahrzeugs (50) in einem Umfeld, wobei in dem Umfeld eindeutige optische Marker (40) mit bekannten Eigenschaften angeordnet sind oder angeordnet werden, wobei eine Umfeldabbildung (10) des Umfelds mittels mindestens einer Kamera (51) erfasst wird, wobei in der erfassten Umfeldabbildung (10) mindestens ein optischer Marker (40) erkannt wird, wobei eine Identifikationskennung (41) des mindestens einen optischen Markers (40) ausgelesen wird, wobei eine Markerposition (20) des erkannten mindestens einen optischen Markers (40) ausgehend von der jeweils ausgelesenen Identifikationskennung (41) in einer Karte (15) bestimmt wird, wobei eine relative Position (21) der mindestens einen Kamera (51) zum erkannten mindestens einen optischen Marker (40) bestimmt wird, und wobei eine Kameraposition (22) der mindestens einen Kamera (51) und/oder eine Fahrzeugposition (23) des Fahrzeugs (50) in der Karte (15) ausgehend von der bestimmten relativen Position (21) und der bestimmten Markerposition (20) bestimmt und bereitgestellt wird, wobei das Bestimmen der Kameraposition (22) und/oder der Fahrzeugposition (23) unter Berücksichtigung von Kameraeigenschaften (51-1) erfolgt. Ferner betrifft die Erfindung eine Vorrichtung (1) zum Lokalisieren eines Fahrzeugs (50) in einem Umfeld.The invention relates to a method for locating a vehicle (50) in an environment, in which clear optical markers (40) with known properties are or will be arranged in the environment, with an environment image (10) of the environment using at least one camera (51) is detected, with at least one optical marker (40) being detected in the captured environment image (10), with an identifier (41) of the at least one optical marker (40) being read out, with a marker position (20) of the detected at least one optical marker (40) is determined on the basis of the identifier (41) read in each case in a card (15), with a relative position (21) of the at least one camera (51) being determined for the detected at least one optical marker (40), and with a Camera position (22) of the at least one camera (51) and / or a vehicle position (23) of the vehicle (50) in the map (15) based on the specific relative ven position (21) and the determined marker position (20) is determined and provided, the determination of the camera position (22) and / or the vehicle position (23) taking into account camera properties (51-1). The invention also relates to a device (1) for locating a vehicle (50) in an area.

Description

Die Erfindung betrifft ein Verfahren und eine Vorrichtung zum Lokalisieren eines Fahrzeugs in einem Umfeld.The invention relates to a method and a device for locating a vehicle in an environment.

Ein Kernproblem beim teilautomatisierten oder automatisierten Fahren eines Fahrzeugs ist eine Lokalisierung des Fahrzeugs in einem Umfeld. Neben einer Lokalisierung über satellitengestützte Positionsbestimmungssysteme (z.B. Global Positioning System, GPS) sind auch landmarkenbasierte Systeme bekannt, bei denen Objekte im Umfeld erkannt werden und zur Lokalisierung in einer Karte verwendet werden.A core problem in partially automated or automated driving of a vehicle is localization of the vehicle in an environment. In addition to localization via satellite-based position determination systems (e.g. Global Positioning System, GPS), landmark-based systems are also known in which objects in the area are recognized and used for localization on a map.

Aus der CN 112304305 A sind ein Verfahren und ein System zur anfänglichen Positionierung eines Fahrzeugs bekannt. Das Verfahren umfasst die Schritte: Scannen und Erstellen einer Karte einer Tiefgarage, Fixieren eines Markierungsbildes und der Position des Markierungsbildes in der Karte, Berechnen von einer Drehung R und einer Translation T von einer Kamera zum Markierungsbild durch Verwenden eines Perspective-n-Point-(PnP)-Algorithmus, Berechnen der Koordinaten der Kamera relativ zur Karte und Vervollständigen der anfänglichen Positionierung. Gemäß dem Verfahren, bei dem die initiale Positionierungsaufgabe auf Basis der Markerbilder verwendet wird, müssen lediglich mehrere Markerbilder vorab an der Tiefgarageneinfahrt angeordnet werden, um die Berechnung der Anfangsposition abzuschließen.From the CN 112304305A a method and system for initial positioning of a vehicle is known. The method comprises the steps of: scanning and creating a map of an underground car park, fixing a marker image and the position of the marker image in the map, calculating a rotation R and a translation T from a camera to the marker image by using a perspective-n-point ( PnP) algorithm, calculating the coordinates of the camera relative to the map and completing the initial positioning. According to the method using the initial positioning task based on the marker images, only a plurality of marker images need to be arranged in advance at the entrance to the underground car park to complete the calculation of the initial position.

Aus D. Scaramuzza, Omnidirectional Vision: from Calibration to Robot Motion Estimation, ETH Zürich, PhD Thesis no. 17635, Zürich, 22. Februar 2008, ist ein omnidirektionales Kameramodell bekannt.An omnidirectional camera model is known from D. Scaramuzza, Omnidirectional Vision: from Calibration to Robot Motion Estimation, ETH Zurich, PhD Thesis no. 17635, Zurich, February 22, 2008.

Aus der DE 10 2014 002 150 B3 ist ein Verfahren zur Ermittlung der absoluten Position einer mobilen Einheit bekannt, die wenigstens einen optischen, einen Erfassungsbereich des Umfelds der mobilen Einheit aufnehmenden Umgebungssensor aufweist, in einer vorbestimmten Navigationsumgebung, wobei optische, von dem Umgebungssensor erfassbare, unterscheidbare Marker in der Navigationsumgebung verwendet werden, welchen jeweils eine aus einem Kartendatensatz abrufbare absolute Position zugeordnet ist, wobei zur Positionsbestimmung wenigstens ein Marker in von wenigstens einem des wenigstens einen Umgebungssensors aufgenommenen Sensordaten mittels eines Bildverarbeitungsalgorithmus detektiert und identifiziert wird und unter Berücksichtigung der Position des Markers in den Sensordaten eine relative Position zwischen der mobilen Einheit und dem Marker ermittelt wird, und eine absolute Position der mobilen Einheit in Abhängigkeit von der relativen Position und der absoluten Position des Markers ermittelt wird, wobei unter Berücksichtigung der zuletzt bestimmten Position der mobilen Einheit durch die Umgebungssensoren erfassbare Marker und deren Position bezüglich der mobilen Einheit betreffende Einstellungsdaten unter Verwendung des Kartendatensatzes ermittelt werden und zur Einschränkung der zur Detektion und Identifikation des wenigstens einen Markers auszuwertenden Sensordaten der Umgebungssensoren verwendet werden.From the DE 10 2014 002 150 B3 a method is known for determining the absolute position of a mobile unit, which has at least one optical environment sensor recording a detection range of the environment surrounding the mobile unit, in a predetermined navigation environment, wherein optical, distinguishable markers that can be detected by the environment sensor are used in the navigation environment, each of which is assigned an absolute position that can be called up from a map data set, with at least one marker being detected and identified in sensor data recorded by at least one of the at least one environmental sensors using an image processing algorithm to determine the position, and taking into account the position of the marker in the sensor data, a relative position between the mobile unit and the marker is determined, and an absolute position of the mobile unit is determined as a function of the relative position and the absolute position of the marker, with Ber Taking into account the last determined position of the mobile unit, markers that can be detected by the environmental sensors and the setting data relating to their position in relation to the mobile unit are determined using the map data set and are used to limit the sensor data from the environmental sensors to be evaluated for the detection and identification of the at least one marker.

Aus der DE 10 2018 210 765 A1 ist ein Verfahren zum Betreiben eines Lokalisierungssystems bekannt, bei dem Kartendaten bereitgestellt werden, die Positionsdaten für verzeichnete Landmarken umfassen, wobei jeder verzeichneten Landmarke ein Landmarkentyp zugeordnet ist. Es werden Umgebungsdaten erfasst und anhand der Umgebungsdaten werden reale Landmarken detektiert. Anhand der detektierten realen Landmarken und der Kartendaten wird eine Eigenposition bestimmt. Bei dem Verfahren erfolgt die Detektion der realen Landmarken mittels zumindest eines Detektormoduls, wobei jedes Detektormodul einem Landmarkentyp zugeordnet ist. Anhand der Kartendaten wird ein neuer Landmarkentyp bestimmt und es werden Deskriptorinformationen für den neuen Landmarkentyp bereitgestellt. Anhand der Deskriptorinformationen wird ein neues Detektormodul für den neuen Landmarkentyp erzeugt.From the DE 10 2018 210 765 A1 a method for operating a localization system is known, in which map data is provided that includes position data for recorded landmarks, each recorded landmark being assigned a landmark type. Surrounding data are recorded and real landmarks are detected using the surrounding data. A self-position is determined on the basis of the detected real landmarks and the map data. In the method, the real landmarks are detected by means of at least one detector module, each detector module being assigned to a landmark type. A new landmark type is determined on the basis of the map data and descriptor information for the new landmark type is provided. A new detector module for the new landmark type is generated on the basis of the descriptor information.

Aus der WO 2009/098319 A2 ist ein Navigationssystem bekannt mit einer Navigationsvorrichtung, die geeignet ist, an einem Fahrzeug angebracht oder von einem Fahrzeug getragen zu werden, und mindestens einer Positionsmarkierung, die sich in einer festen Position relativ zu einer Autobahn befindet, entlang der das Fahrzeug fahren kann. Das Navigationsgerät umfasst ein Verarbeitungsmittel, das angeordnet ist, um eine Einspeisung von einer Kamera zu empfangen, die ein Bild einer Szene vor dem Fahrzeug enthält, das Bild zu verarbeiten, um irgendwelche Positionsmarkierungen in der Szene zu identifizieren, die absolute Position der zu bestimmen Positionsmarkierung unter Verwendung von Informationen, die der Markierung zugeordnet sind, den Abstand zwischen dem Fahrzeug und der Positionsmarkierung durch Verarbeitung des von der Kamera zugeführten Bildes bestimmen; und aus der absoluten Position und Entfernung eine Schätzung der Position des Fahrzeugs zu bestimmen.From the WO 2009/098319 A2 a navigation system is known comprising a navigation device suitable for being mounted on or carried by a vehicle and at least one position marker which is in a fixed position relative to a highway along which the vehicle can travel. The navigation device comprises processing means arranged to receive a feed from a camera containing an image of a scene in front of the vehicle, to process the image to identify any position markers in the scene, to determine the absolute position of the position marker using information associated with the marker, determine the distance between the vehicle and the position marker by processing the image supplied by the camera; and determine an estimate of the position of the vehicle from the absolute position and distance.

Aus der WO 2018/044191 A1 ist ein Fahrzeugpositionierungssystem bekannt, das mehrere optische Kameras mit angrenzenden Sichtfeldern zum Lesen kodierter Markierungen mit vorbestimmten Positionen zum Bestimmen der Position eines Fahrzeugs innerhalb einer Struktur mit einem hohen Maß an Genauigkeit verwendet. Das Fahrzeugpositionierungssystem ermöglicht die direkte Installation und Verwendung einer Positionsbestimmungsvorrichtung an einem Fahrzeug mit einer begrenzten Anzahl von codierten Markierungen, um die Position des Fahrzeugs mit einer Genauigkeit im Millimeterbereich zu bestimmen.From the WO 2018/044191 A1 a vehicle positioning system is known that uses multiple optical cameras with adjacent fields of view to read coded markers with predetermined positions to determine the position of a vehicle within a structure with a high degree of accuracy. The vehicle position The positioning system allows for the direct installation and use of a positioning device on a vehicle with a limited number of coded markers to determine the position of the vehicle with millimeter accuracy.

Aus der US 2021 / 0 017 859 A1 ist ein System zum Steuern einer Bergbaumaschine innerhalb einer unterirdischen Mine bekannt. Eine drehbare Laserquelle sendet Laserlicht und ein Rücklichtsensor empfängt reflektiertes Laserlicht und liefert eine Anzeige der Entfernung und der Rücklichtintensität bei mehreren unterschiedlichen Drehwinkeln. Ein Koordinatenbezugspunkt umfasst ein Muster unterschiedlicher Reflektivität und stellt mindestens eine 2D-Koordinatenposition bereit. Ein Prozessor bestimmt eine absolute Koordinatenposition der Abbaumaschine im Raum, während sich die Abbaumaschine durch die unterirdische Mine bewegt. Der Prozessor sammelt Intensitätswerte von reflektiertem Laserlicht für mehrere jeweilige Rotationswinkel und erkennt das Muster des Referenzpunkts in den mehreren Intensitätswerten von reflektiertem Laserlicht und bestimmt die absolute Koordinatenposition im Raum der Bergbaumaschine basierend auf räumlichen Informationen des erkannten Musters.From the U.S. 2021/0 017 859 A1 a system for controlling a mining machine inside an underground mine is known. A rotatable laser source emits laser light and a taillight sensor receives reflected laser light and provides an indication of distance and taillight intensity at several different rotation angles. A coordinate reference point comprises a pattern of varying reflectivity and provides at least one 2D coordinate location. A processor determines an absolute coordinate position of the mining machine in space as the mining machine moves through the underground mine. The processor collects reflected laser light intensity values for a plurality of respective rotation angles, and recognizes the pattern of the reference point in the plurality of reflected laser light intensity values, and determines the absolute coordinate position in space of the mining machine based on spatial information of the recognized pattern.

Aus der DE 10 2017 123 515 B4 ist ein Verfahren zur seitlichen Fahrzeugpositionsbestimmung bekannt.From the DE 10 2017 123 515 B4 a method for lateral vehicle position determination is known.

Der Erfindung liegt die Aufgabe zu Grunde, ein Verfahren und Vorrichtung zum Lokalisieren eines Fahrzeugs in einem Umfeld zu schaffen, bei denen eine Lokalisierung verbessert ist.The invention is based on the object of creating a method and device for locating a vehicle in an environment in which localization is improved.

Die Aufgabe wird erfindungsgemäß durch ein Verfahren mit den Merkmalen des Patentanspruchs 1 und eine Vorrichtung mit den Merkmalen des Patentanspruchs 8 gelöst. Vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Unteransprüchen.The object is achieved according to the invention by a method having the features of patent claim 1 and a device having the features of patent claim 8 . Advantageous configurations of the invention result from the dependent claims.

Insbesondere wird ein Verfahren zum Lokalisieren eines Fahrzeugs in einem Umfeld zur Verfügung gestellt, wobei in dem Umfeld eindeutige optische Marker mit bekannten Eigenschaften angeordnet sind oder angeordnet werden, wobei eine Umfeldabbildung des Umfelds mittels mindestens einer Kamera erfasst wird, wobei in der erfassten Umfeldabbildung mindestens ein optischer Marker erkannt wird, wobei eine Identifikationskennung des mindestens einen optischen Markers ausgelesen wird, wobei eine Markerposition des erkannten mindestens einen optischen Markers ausgehend von der jeweils ausgelesenen Identifikationskennung in einer Karte bestimmt wird, wobei eine relative Position der mindestens einen Kamera zum erkannten mindestens einen optischen Marker bestimmt wird, und wobei eine Kameraposition der mindestens einen Kamera und/oder eine Fahrzeugposition des Fahrzeugs in der Karte ausgehend von der bestimmten relativen Position und der bestimmten Markerposition bestimmt und bereitgestellt wird, wobei das Bestimmen der Kameraposition und/oder der Fahrzeugposition unter Berücksichtigung von Kameraeigenschaften erfolgt.In particular, a method for locating a vehicle in an environment is provided, in which clear optical markers with known properties are or will be arranged in the environment, with an environment image of the environment being captured by at least one camera, with at least one in the captured environment image optical marker is detected, with an identifier of the at least one optical marker being read, with a marker position of the detected at least one optical marker being determined on a map based on the identifier read out in each case, with a relative position of the at least one camera to the detected at least one optical marker is determined, and wherein a camera position of the at least one camera and/or a vehicle position of the vehicle on the map is determined and provided on the basis of the determined relative position and the determined marker position, w wherein the camera position and/or the vehicle position is/are determined taking into account camera properties.

Ferner wird insbesondere eine Vorrichtung zum Lokalisieren eines Fahrzeugs in einem Umfeld geschaffen, umfassend mindestens eine Kamera und eine Positionsbestimmungseinrichtung, wobei die mindestens eine Kamera dazu eingerichtet ist, eine Umfeldabbildung des Umfelds zu erfassen, und wobei die Positionsbestimmungseinrichtung dazu eingerichtet ist, in der erfassten Umfeldabbildung mindestens einen im Umfeld angeordneten eindeutigen optischen Marker zu erkennen, eine Identifikationskennung des mindestens einen optischen Markers auszulesen, eine Markerposition des erkannten mindestens einen optischen Markers ausgehend von der jeweils ausgelesenen Identifikationskennung in einer Karte zu bestimmen, eine relative Position der mindestens einen Kamera zum erkannten mindestens einen optischen Marker zu bestimmen, und eine Kameraposition der mindestens einen Kamera und/oder eine Fahrzeugposition des Fahrzeugs in der Karte ausgehend von der bestimmten relativen Position und der bestimmten Markerposition zu bestimmen und bereitzustellen, wobei das Bestimmen der Kameraposition und/oder der Fahrzeugposition unter Berücksichtigung von Kameraeigenschaften erfolgt.Furthermore, in particular a device for locating a vehicle in an environment is created, comprising at least one camera and a position determination device, wherein the at least one camera is set up to capture an image of the environment, and wherein the position determination device is set up in the captured image of the environment to recognize at least one clear optical marker arranged in the environment, to read out an identifier of the at least one optical marker, to determine a marker position of the detected at least one optical marker on a map based on the respectively read out identifier, a relative position of the at least one camera to the detected at least to determine an optical marker, and a camera position of the at least one camera and/or a vehicle position of the vehicle in the map based on the determined relative position and the determined markerp to determine and provide position, the camera position and/or the vehicle position being determined taking into account camera properties.

Das Verfahren und die Vorrichtung ermöglichen es, ein Fahrzeug in einer Karte zu lokalisieren. Dies erfolgt, indem eindeutige optische Marker im Umfeld des Fahrzeugs erfasst und erkannt werden. Eine Identifikationskennung eines erfassten und erkannten optischen Markers wird aus der erfassten Umfeldabbildung ausgelesen und eine zu dem optischen Marker gehörende Markerposition wird ausgehend von der Identifikationskennung in einer Karte bestimmt. In der Karte sind die eindeutigen optischen Marker an zugehörigen Positionen hinterlegt, sodass die jeweilige Position eines optischen Markers ausgehend von der ausgelesenen Identifikationskennung aus der Karte abgerufen werden kann. Es wird eine relative Position der mindestens einen Kamera zum erkannten mindestens einen optischen Marker bestimmt. Dies erfolgt insbesondere unter Berücksichtigung von einem Strahlengang der Abbildung. Insbesondere wird eine Position des mindestens einen optischen Markers in einem Koordinatensystem der mindestens einen Kamera bestimmt. Anders ausgedrückt wird als relative Position eine Position des mindestens einen optischen Markers im Koordinatensystem der Kamera bestimmt. Ausgehend von der bestimmten relativen Position und der Markerposition in der Karte wird eine Kameraposition der mindestens einen Kamera und/oder eine Fahrzeugposition des Fahrzeugs in der Karte bestimmt. Hierzu kann bei bekannter Lage bzw. Pose der mindestens einen Kamera in einem Fahrzeugkoordinatensystem eine entsprechende Transformation durchgeführt werden. Anders ausgedrückt wird eine Position des optischen Markers insbesondere in dem Kamerakoordinatensystem bestimmt, zusammen mit der aus der Karte bekannten Markerposition können dann eine Kameraposition und/oder eine Fahrzeugposition, die insbesondere in einer festen Beziehung zur Kameraposition steht, bestimmt werden. Beim Bestimmen der Kameraposition der mindestens einen Kamera und/oder der Fahrzeugposition des Fahrzeugs werden Kameraeigenschaften, insbesondere intrinsische Kameraeigenschaften, berücksichtigt. Da die Kameraeigenschaften beim Bestimmen der Kameraposition der mindestens einen Kamera und/oder der Fahrzeugposition des Fahrzeugs berücksichtigt werden, kann die Kameraposition und/oder die Fahrzeugposition verbessert bestimmt werden.The method and the device make it possible to locate a vehicle on a map. This is done by capturing and recognizing unique optical markers around the vehicle. An identifier of a detected and recognized optical marker is read out from the captured environment image and a marker position belonging to the optical marker is determined on the basis of the identifier in a map. The unique optical markers are stored in the map at associated positions, so that the respective position of an optical marker can be retrieved from the map based on the identification code read out. A position of the at least one camera relative to the detected at least one optical marker is determined. This is done in particular taking into account a beam path of the image. In particular, a position of the at least one optical marker is determined in a coordinate system of the at least one camera. In other words, a position of the at least one optical marker in the coordinate system of the camera is determined as the relative position. Based on the determined relative position and the Marker position on the map, a camera position of the at least one camera and/or a vehicle position of the vehicle on the map is determined. For this purpose, if the position or pose of the at least one camera in a vehicle coordinate system is known, a corresponding transformation can be carried out. In other words, a position of the optical marker is determined in particular in the camera coordinate system. Together with the marker position known from the map, a camera position and/or a vehicle position, which in particular has a fixed relationship to the camera position, can then be determined. When determining the camera position of the at least one camera and/or the vehicle position of the vehicle, camera properties, in particular intrinsic camera properties, are taken into account. Since the camera properties are taken into account when determining the camera position of the at least one camera and/or the vehicle position of the vehicle, the camera position and/or the vehicle position can be determined in an improved manner.

Die mindestens eine Kamera ist beispielsweise eine Kamera mit einer Fischaugen- oder Weitwinkeloptik. Die (intrinsischen) Kameraeigenschaften ergeben sich dann insbesondere aus Abbildungseigenschaften der Fischaugen- oder Weitwinkeloptik. Beim Bestimmen der relativen Position der mindestens einen Kamera zum mindestens einen optischen Marker wird insbesondere ein Kameramodell berücksichtigt, wobei in dem Kameramodell beispielsweise Abbildungseigenschaften einer Kameraoptik berücksichtigt werden.The at least one camera is, for example, a camera with a fisheye or wide-angle lens. The (intrinsic) camera properties then result in particular from the imaging properties of the fisheye or wide-angle optics. When determining the position of the at least one camera relative to the at least one optical marker, a camera model is taken into account in particular, with imaging properties of a camera lens, for example, being taken into account in the camera model.

Teile der Vorrichtung, insbesondere die Positionsbestimmungseinrichtung, können einzeln oder zusammengefasst als eine Kombination von Hardware und Software ausgebildet sein, beispielsweise als Programmcode, der auf einem Mikrocontroller oder Mikroprozessor ausgeführt wird. Es kann jedoch auch vorgesehen sein, dass Teile einzeln oder zusammengefasst als anwendungsspezifische integrierte Schaltung (ASIC) und/oder feldprogrammierbares Gatterfeld (FPGA) ausgebildet sind.Parts of the device, in particular the position determination device, can be designed individually or combined as a combination of hardware and software, for example as program code that runs on a microcontroller or microprocessor. However, it can also be provided that parts are designed individually or combined as an application-specific integrated circuit (ASIC) and/or field-programmable gate array (FPGA).

Es ist vorgesehen, dass die Kameraeigenschaften eine Unterteilung eines Sichtbereichs der Kamera in Bereiche unterschiedlicher Güte umfassen, wobei die Güte beim Bestimmen der relativen Position der mindestens einen Kamera und/oder beim Bestimmen der Kameraposition und/oder der Fahrzeugposition berücksichtigt wird. Hierdurch können die Kameraposition und/oder die Fahrzeugposition derart bestimmt werden, dass eine bekannte oder bestimmbare Unsicherheit beim Bestimmen der relativen Position einen Einfluss auf den konkreten Wert hat, der für die Kameraposition und/oder die Fahrzeugposition bestimmt wird.It is provided that the camera properties include a subdivision of a viewing area of the camera into areas of different quality, the quality being taken into account when determining the relative position of the at least one camera and/or when determining the camera position and/or the vehicle position. As a result, the camera position and/or the vehicle position can be determined in such a way that a known or determinable uncertainty when determining the relative position has an influence on the specific value that is determined for the camera position and/or the vehicle position.

In einer Ausführungsform ist vorgesehen, dass die relative Position der mindestens einen Kamera ausgehend von einer Bildelementposition des mindestens einen optischen Markers in der erfassten Umfeldabbildung und bekannten geometrischen Eigenschaften des mindestens einen optischen Markers bestimmt wird. Hierbei ist insbesondere vorgesehen, dass Ecken eines quadratischen optischen Markers bestimmt werden. Anhand von Sichtstrahlen von der mindestens einen Kamera zu den jeweiligen Ecken, die aus der jeweiligen Bildelementposition in der erfassten Umfeldabbildung bestimmt werden, und den bekannten geometrischen Eigenschaften, insbesondere einer Ausdehnung des optischen Markers bzw. eines Abstands zwischen benachbarten Ecken des optischen Markers, kann eine Position des optischen Markers im Kamerakoordinatensystem bestimmt werden.One embodiment provides for the relative position of the at least one camera to be determined based on a picture element position of the at least one optical marker in the captured image of the surroundings and known geometric properties of the at least one optical marker. In this case, it is provided in particular that corners of a square optical marker are determined. On the basis of lines of sight from the at least one camera to the respective corners, which are determined from the respective image element position in the captured image of the surroundings, and the known geometric properties, in particular an extent of the optical marker or a distance between adjacent corners of the optical marker, a Position of the optical marker can be determined in the camera coordinate system.

In einer weiterbildenden Ausführungsform ist vorgesehen, dass die Güte eines jeweiligen Bereiches des Sichtbereichs der mindestens einen Kamera empirisch bestimmt wird oder bestimmt ist. Dies kann beispielsweise im Rahmen einer Kalibrierung der mindestens einen Kamera erfolgen. Beispielsweise kann bestimmt werden, dass eine Güte aufgrund einer kameraoptikbedingten Verzerrung in einem Randbereich in einer erfassten Umfeldabbildung mit einem Abstand zu einem Mittelpunkt der erfassten Umfeldabbildung abnimmt. Eine bestimmte relative Position, die ausgehend von einem in einem Randbereich erfassten optischen Marker erfolgt, hat dann eine geringere Güte als eine bestimmte relative Position, die ausgehend von einem in der Bildmitte erfassten optischen Marker erfolgt ist.In a further developing embodiment it is provided that the quality of a respective area of the field of view of the at least one camera is empirically determined or has been determined. This can be done, for example, as part of a calibration of the at least one camera. For example, it can be determined that a quality due to camera optics-caused distortion in an edge region in a captured environment image decreases with a distance from a center point of the captured environment image. A specific relative position, which is based on an optical marker detected in an edge area, then has a lower quality than a specific relative position, which was based on an optical marker detected in the center of the image.

In einer Ausführungsform ist vorgesehen, dass bestimmte relative Positionen der mindestens einen Kamera zu mehreren in der erfassten Umfeldabbildung erfassten optischen Markern ausgehend von einer jeweils hiermit korrespondierenden Güte beim Bestimmen der Kameraposition und/oder der Fahrzeugposition gewichtet berücksichtigt werden. Hierdurch kann bei mehreren bestimmten relativen Positionen eine Gewichtung der einzelnen relativen Positionen gemäß ihrer jeweiligen Unsicherheit vorgenommen werden, wodurch sich das Bestimmen der Kameraposition und/oder der Fahrzeugposition verbessert. Insbesondere können relative Positionen, die mit einer größeren Güte korrespondieren, stärker gewichtet werden als relative Positionen, die mit einer geringeren Güte korrespondieren.One embodiment provides that specific relative positions of the at least one camera to a plurality of optical markers detected in the captured image of the surroundings are taken into account in a weighted manner, starting from a corresponding quality when determining the camera position and/or the vehicle position. In this way, given a plurality of relative positions, the individual relative positions can be weighted according to their respective uncertainty, which improves the determination of the camera position and/or the vehicle position. In particular, relative positions that correspond to a higher quality can be weighted more heavily than relative positions that correspond to a lower quality.

In einer Ausführungsform ist vorgesehen, dass bestimmte relative Positionen der mindestens einen Kamera zu mehreren in der erfassten Umfeldabbildung erfassten optischen Markern ausgehend von einer jeweils hiermit korrespondierenden Güte beim Bestimmen der Kameraposition und/oder der Fahrzeugposition in Abhängigkeit von mindestens einem vorgegebenen Schwellenwert berücksichtigt oder verworfen werden. Hierdurch können bestimmte relative Positionen, die mit einer Güte unterhalb des mindestens einen vorgegebenen Schwellenwertes korrespondieren, beim Bestimmen der Kameraposition und/oder der Fahrzeugposition unberücksichtigt bleiben.In one embodiment, it is provided that specific relative positions of the at least one camera to a plurality of optical markers detected in the captured image of the surroundings, based on a respective corresponding quality when determining the camera position and/or the Vehicle position are taken into account or discarded depending on at least one predetermined threshold value. As a result, certain relative positions that correspond to a quality below the at least one predefined threshold value can be ignored when determining the camera position and/or the vehicle position.

Es kann auch vorgesehen sein, dass eine Kombination aus Gewichtung und schwellenwertabhängiger Berücksichtigung verwendet wird. Beispielsweise kann vorgesehen sein, dass relative Positionen, die mit einer Güte unterhalb des vorgegebenen Schwellenwertes korrespondieren, beim Bestimmen der Kameraposition und/oder der Fahrzeugposition nicht berücksichtigt werden, wohingegen alle relativen Positionen, die mit einer Güte gleich oder oberhalb des vorgegebenen Schwellenwertes korrespondieren, gewichtet nach ihrer jeweiligen Güte berücksichtigt werden.It can also be provided that a combination of weighting and threshold-dependent consideration is used. For example, it can be provided that relative positions that correspond to a quality below the specified threshold value are not taken into account when determining the camera position and/or the vehicle position, whereas all relative positions that correspond to a quality equal to or above the specified threshold value are weighted are taken into account according to their respective quality.

In einer Ausführungsform ist vorgesehen, dass die eindeutigen optischen Marker im Umfeld als Aruco-Marker ausgebildet sind. Die Aruco-Marker weisen insbesondere vorgegebene Eigenschaften auf, insbesondere eine vorgegebene und bekannte geometrische Größe. Insbesondere werden die Aruco-Marker an senkrecht verlaufenden Wänden von Gebäuden und anderen Objekten im Umfeld angeordnet. Hierbei ist insbesondere vorgesehen, dass eine obere und eine untere Kante des Aruco-Markers horizontal angeordnet sind oder angeordnet werden.In one embodiment it is provided that the clear optical markers in the area are designed as Aruco markers. In particular, the Aruco markers have predetermined properties, in particular a predetermined and known geometric size. In particular, the Aruco markers are placed on the vertical walls of buildings and other objects in the area. It is provided in particular that an upper and a lower edge of the Aruco marker are or will be arranged horizontally.

In einer Ausführungsform ist vorgesehen, dass mindestens ein weiteres Objekt mit bekannten Eigenschaften in der erfassten Umfeldabbildung erkannt wird, wobei eine weitere relative Position der mindestens einen Kamera zum erkannten mindestens einen weiteren Objekt bestimmt wird, und wobei die bestimmte weitere relative Position beim Bestimmen der Kameraposition der mindestens einen Kamera und/oder der Fahrzeugposition des Fahrzeugs in der Karte berücksichtigt wird. Hierdurch kann das Bestimmen der Kameraposition und/oder der Fahrzeugposition weiter verbessert werden. Ausgehend von den bekannten Eigenschaften, insbesondere von geometrischen Eigenschaften, wie beispielsweise Abmessungen etc., kann eine relative Position zum erkannten weiteren Objekt bestimmt werden. Dies erfolgt ebenfalls im Koordinatensystem der Kamera unter Berücksichtigung von Kameraeigenschaften. Insbesondere ist ferner vorgesehen, dass das erkannte Objekt in der Karte gesucht und eine Position des erkannten Objektes aus der Karte abgerufen wird. Über die Position des erkannten Objekts in der Karte und die bestimmte relative Position kann dann ebenfalls eine Kameraposition der mindestens einen Kamera und/oder eine Fahrzeugposition des Fahrzeugs in der Karte bestimmt werden, welche beim Bestimmen der Kameraposition und/oder der Fahrzeugposition über die optischen Marker berücksichtigt werden kann. Ein weiteres Objekt kann beispielsweise ein Verkehrsschild, eine Brücke, ein Haus, eine Tür etc. sein. Hierbei wird insbesondere davon ausgegangen, dass eine Größe des weiteren Objektes (aus der Karte) bekannt ist, ebenso wie eine Position bzw. Pose des weiteren Objektes in der Karte.In one embodiment, it is provided that at least one other object with known properties is detected in the captured environment image, with a further relative position of the at least one camera to the detected at least one other object being determined, and with the determined further relative position when determining the camera position the at least one camera and/or the vehicle position of the vehicle in the map is taken into account. This can further improve the determination of the camera position and/or the vehicle position. Based on the known properties, in particular geometric properties such as dimensions, etc., a position relative to the other object that has been detected can be determined. This is also done in the camera's coordinate system, taking camera properties into account. In particular, it is further provided that the detected object is searched for in the map and a position of the detected object is retrieved from the map. A camera position of the at least one camera and/or a vehicle position of the vehicle on the map can then also be determined via the position of the detected object on the map and the determined relative position, which when determining the camera position and/or the vehicle position via the optical marker can be taken into account. Another object can be a traffic sign, a bridge, a house, a door, etc., for example. In this context, it is assumed in particular that a size of the further object (from the map) is known, as is a position or pose of the further object in the map.

Weitere Merkmale zur Ausgestaltung der Vorrichtung ergeben sich aus der Beschreibung von Ausgestaltungen des Verfahrens. Die Vorteile der Vorrichtung sind hierbei jeweils die gleichen wie bei den Ausgestaltungen des Verfahrens.Further features for the configuration of the device result from the description of configurations of the method. The advantages of the device are in each case the same as in the embodiments of the method.

Ferner wird insbesondere auch ein Fahrzeug geschaffen, umfassend mindestens eine Vorrichtung nach einer der beschriebenen Ausführungsformen.Furthermore, in particular, a vehicle is also created, comprising at least one device according to one of the described embodiments.

Nachfolgend wird die Erfindung anhand bevorzugter Ausführungsbeispiele unter Bezugnahme auf die Figuren näher erläutert. Hierbei zeigen:

  • 1 eine schematische Darstellung einer Ausführungsform der Vorrichtung zum Lokalisieren eines Fahrzeugs in einem Umfeld;
  • 2 eine schematische Darstellung zur Verdeutlichung einer Ausführungsform der Vorrichtung;
  • 3 eine schematische Darstellung einer Ausführungsform eines eindeutigen optischen Markers (Aruco-Marker);
  • 4 eine schematische Darstellung zur Verdeutlichung des Bestimmens einer relativen Position in einem Koordinatensystem einer Kamera aus einer erfassten Umfeldabbildung;
  • 5 eine schematische Darstellung zur Verdeutlichung von Sichtstrahlen einer Kamera;
  • 6 ein schematisches Ablaufdiagramm einer Ausführungsform des Verfahrens zum Lokalisieren eines Fahrzeugs in einem Umfeld.
The invention is explained in more detail below on the basis of preferred exemplary embodiments with reference to the figures. Here show:
  • 1 a schematic representation of an embodiment of the device for locating a vehicle in an environment;
  • 2 a schematic representation to illustrate an embodiment of the device;
  • 3 a schematic representation of an embodiment of a unique optical marker (Aruco marker);
  • 4 a schematic representation to clarify the determination of a relative position in a coordinate system of a camera from a captured image of the surroundings;
  • 5 a schematic representation to clarify visual beams of a camera;
  • 6 a schematic flowchart of an embodiment of the method for locating a vehicle in an environment.

In der 1 ist eine schematische Darstellung einer Ausführungsform der Vorrichtung 1 zum Lokalisieren eines Fahrzeugs 50 in einem Umfeld gezeigt. Die Vorrichtung 1 ist in dem Fahrzeug 50 angeordnet und umfasst eine Kamera 51 und eine Positionsbestimmungseinrichtung 2. Die Positionsbestimmungseinrichtung 2 umfasst beispielsweise eine Recheneinrichtung 3, z.B. einen Mikroprozessor, und einen Speicher 4. Insbesondere führt die Vorrichtung 1 das in dieser Offenbarung beschriebene Verfahren aus. Die Recheneinrichtung 3 kann zum Ausführen von Maßnahmen des Verfahrens Rechenoperationen ausführen.In the 1 a schematic representation of an embodiment of the device 1 for locating a vehicle 50 in an environment is shown. The device 1 is arranged in the vehicle 50 and comprises a camera 51 and a position determination device 2. The position determination device 2 comprises, for example, a computing device 3, eg a microprocessor, and a memory 4. In particular, the device 1 executes the method described in this disclosure. The arithmetic unit 3 can carry out arithmetic operations to carry out measures of the method.

Die Kamera 51 ist beispielsweise eine Weitwinkelkamera oder eine Fischaugenkamera. Mittels der Kamera 51 wird eine Umfeldabbildung 10 des Umfelds erfasst. In dem Umfeld sind eindeutige optische Marker mit bekannten Eigenschaften angeordnet, beispielsweise an Gebäuden oder Einrichtungen einer Verkehrsinfrastruktur.The camera 51 is, for example, a wide-angle camera or a fisheye camera. The camera 51 captures an image 10 of the surroundings. Clear optical markers with known properties are arranged in the environment, for example on buildings or facilities of a traffic infrastructure.

Die Positionsbestimmungseinrichtung 2 ist dazu eingerichtet, in der erfassten Umfeldabbildung 10 mindestens einen im Umfeld angeordneten eindeutigen optischen Marker zu erkennen. Dies erfolgt beispielsweise mittels an sich bekannter Verfahren der Mustererkennung. Nach dem Erkennen können Bildelemente (Pixel) in der erfassten Umfeldabbildung dem optischen Marker zugeordnet werden. Insbesondere Werte und eine jeweilige Position dieser Bildelemente wird nachfolgend verarbeitet.The position determination device 2 is set up to recognize at least one clear optical marker arranged in the surroundings in the recorded surroundings image 10 . This is done, for example, by means of pattern recognition methods known per se. After recognition, image elements (pixels) in the recorded environment image can be assigned to the optical marker. In particular, values and a respective position of these picture elements are subsequently processed.

Die Positionsbestimmungseinrichtung 2 liest eine Identifikationskennung des mindestens einen optischen Markers aus. Hierzu wird beispielsweise eine in dem optischen Marker kodierte Bitsequenz aus den Werten der Bildelemente bestimmt. Ausgehend von der jeweils ausgelesenen Identifikationskennung bestimmt die Positionsbestimmungseinrichtung 2 durch Vergleich eine Markerposition 20 des erkannten mindestens einen optischen Markers in einer Karte 15. Die Karte 15 ist beispielsweise in dem Speicher 4 hinterlegt. Die Markerposition 20 ist insbesondere in absoluten Koordinaten der Karte 15 angegeben, insbesondere in Koordinaten eines globalen Koordinatensystems.The position determination device 2 reads an identifier of the at least one optical marker. For this purpose, for example, a bit sequence encoded in the optical marker is determined from the values of the picture elements. Based on the identifier read out in each case, the position determination device 2 determines a marker position 20 of the recognized at least one optical marker in a map 15 by comparison. The map 15 is stored in the memory 4, for example. The marker position 20 is given in particular in absolute coordinates of the map 15, in particular in coordinates of a global coordinate system.

Die Positionsbestimmungseinrichtung 2 bestimmt eine relative Position 21 der mindestens einen Kamera 51 zum erkannten mindestens einen optischen Marker. Ferner bestimmt die Positionsbestimmungseinrichtung 2 eine Kameraposition 22 der mindestens einen Kamera 51 und/oder eine Fahrzeugposition 23 des Fahrzeugs 50 in der Karte 15 ausgehend von der bestimmten relativen Position 21 und der bestimmten Markerposition 20 und stellt diese bereit, beispielsweise in Form eines analogen oder digitalen Signals, beispielsweise als digitales Datenpaket.The position determination device 2 determines a relative position 21 of the at least one camera 51 to the detected at least one optical marker. Furthermore, the position determination device 2 determines a camera position 22 of the at least one camera 51 and/or a vehicle position 23 of the vehicle 50 in the map 15 based on the determined relative position 21 and the determined marker position 20 and makes them available, for example in the form of an analog or digital Signal, for example as a digital data packet.

Die bestimmte Kameraposition 22 und/oder die bestimmte Fahrzeugposition 23 werden beispielsweise einer Navigationseinrichtung 52 des Fahrzeugs 50 als Eingangsdaten zugeführt.The specific camera position 22 and/or the specific vehicle position 23 are supplied as input data, for example, to a navigation device 52 of the vehicle 50 .

Das Bestimmen der Kameraposition 22 und/oder der Fahrzeugposition 23 wird unter Berücksichtigung von Kameraeigenschaften 51-1 durchgeführt. Diese Kameraeigenschaften 51-1 können beispielsweise eine Verzerrung einer Abbildungsoptik (z.B. eines Linsensystems) etc. umfassen.The determination of the camera position 22 and/or the vehicle position 23 is carried out taking into account camera properties 51-1. These camera properties 51-1 can include, for example, a distortion of imaging optics (e.g. a lens system) etc.

Es kann vorgesehen sein, dass die relative Position 20 der mindestens einen Kamera 51 ausgehend von einer Bildelementposition des mindestens einen optischen Markers in der erfassten Umfeldabbildung 10 und bekannten geometrischen Eigenschaften des mindestens einen optischen Markers bestimmt wird.Provision can be made for the relative position 20 of the at least one camera 51 to be determined based on a picture element position of the at least one optical marker in the captured image of the surroundings 10 and known geometric properties of the at least one optical marker.

Insbesondere ist vorgesehen, dass die eindeutigen optischen Marker im Umfeld als Aruco-Marker ausgebildet sind.In particular, it is provided that the clear optical markers in the area are designed as Aruco markers.

Es kann vorgesehen sein, dass die Kameraeigenschaften 51-1 eine Unterteilung eines Sichtbereichs der Kamera 51 in Bereiche 12-x unterschiedlicher Güte 13 umfassen, wobei die Güte 13 beim Bestimmen der relativen Position 21 der mindestens einen Kamera 51 und/oder beim Bestimmen der Kameraposition 22 und/oder der Fahrzeugposition 23 berücksichtigt wird. Diese Ausführungsform ist in 2 schematisch anhand einer erfassten Umfeldabbildung 10 veranschaulicht. Es wird angenommen, dass die erfasste Umfeldabbildung 10 mit dem Sichtbereich der Kamera zusammenfällt. Liegt beispielsweise mit Bezug auf einen Bildmittelpunkt 11 der Umfeldabbildung 10 eine Verzerrung in Richtung der außen liegenden Bildbereiche vor, so können die Bereiche 12-x, die außen liegen, mit einer geringeren Güte 13 korrespondieren bzw. diesen Bereichen 12-x wird eine geringere Güte 13 zugeordnet (vgl. Graph in 2 rechts). Es kann hierbei auch vorgesehen sein, dass ausgehend von einem Bildmittelpunkt 11 (oder einer sonstigen Referenzposition der Bildelemente der Umfeldabbildung 10) eine Funktion verwendet und/oder bestimmt wird (beispielsweise wird die Funktion empirisch im Rahmen einer Kalibrierung der Kamera 51 bestimmt), wobei die Funktion eine von einem Abstand r zum Bildmittelpunkt 11 abhängige Güte 13 beschreibt.It can be provided that the camera properties 51-1 include a subdivision of a field of view of the camera 51 into areas 12-x of different quality 13, the quality 13 when determining the relative position 21 of the at least one camera 51 and/or when determining the camera position 22 and/or the vehicle position 23 is taken into account. This embodiment is in 2 illustrated schematically using a captured environment image 10. It is assumed that the captured environment image 10 coincides with the field of view of the camera. If, for example, there is a distortion in the direction of the image areas on the outside with respect to an image center 11 of the environment image 10, the areas 12-x on the outside can correspond to a lower quality 13 or these areas 12-x have a lower quality 13 assigned (see graph in 2 to the right). It can also be provided that a function is used and/or determined (e.g. the function is determined empirically as part of a calibration of the camera 51) starting from an image center 11 (or another reference position of the image elements of the environment image 10), wherein the Function describes a quality 13 that is dependent on a distance r from the image center 11 .

Es kann vorgesehen sein, dass die Güte 13 eines jeweiligen Bereiches 12-x des Sichtbereichs der Kamera 51 empirisch bestimmt wird oder bestimmt ist. Dies kann insbesondere im Rahmen einer Kalibrierung der Kamera 51 erfolgen.It can be provided that the quality 13 of a respective area 12-x of the field of view of the camera 51 is empirically determined or is determined. In particular, this can be done as part of a calibration of the camera 51 .

Es kann vorgesehen sein, dass bestimmte relative Positionen 21 der Kamera 51 zu mehreren in der erfassten Umfeldabbildung 10 (1) erfassten optischen Markern ausgehend von einer jeweils hiermit korrespondierenden Güte 13 (2) beim Bestimmen der Kameraposition 22 und/oder der Fahrzeugposition 23 gewichtet berücksichtigt werden. Die Gewichtung wird dann hierbei insbesondere derart gewählt, dass Koeffizienten mit der jeweiligen Güte 13 korrespondieren, wobei eine relative Position 21 umso stärker gewichtet wird, je größer eine hiermit korrespondierende Güte 13 ist.It can be provided that specific positions 21 of the camera 51 relative to several in the recorded environment image 10 ( 1 ) detected optical markers based on a corresponding quality 13 ( 2 ) are weighted when determining the camera position 22 and/or the vehicle position 23 . The weighting is then selected in particular in such a way that coefficients correspond to the respective quality 13, with a relative position 21 being weighted all the more heavily the greater a quality 13 corresponding thereto is.

Es kann vorgesehen sein, dass bestimmte relative Positionen 21 der Kamera 51 zu mehreren in der erfassten Umfeldabbildung 10 erfassten optische Markern ausgehend von einer jeweils hiermit korrespondierenden Güte 13 beim Bestimmen der Kameraposition 22 und/oder der Fahrzeugposition 23 in Abhängigkeit von mindestens einem vorgegebenen Schwellenwert 16 berücksichtigt oder verworfen werden. Insbesondere wird die Güte 13, die mit einer bestimmten relativen Position 21 korrespondiert, mit dem Schwellenwert 16 verglichen. Erreicht oder überschreitet die Güte 13 den Schwellenwert 16, so wird die relative Position 21 (in einigen Ausführungsformen gewichtet) berücksichtigt, anderenfalls wird die relative Position 21 nicht berücksichtigt und verworfen.It can be provided that certain relative positions 21 of the camera 51 to a plurality of optical markers detected in the captured image of the surroundings 10, based on a respective quality 13 corresponding thereto, when determining the camera position 22 and/or the vehicle position 23 as a function of at least one predetermined threshold value 16 be taken into account or discarded. In particular, the quality 13, which corresponds to a certain relative position 21, is compared with the threshold value 16. If the quality 13 reaches or exceeds the threshold value 16, the relative position 21 (weighted in some embodiments) is taken into account, otherwise the relative position 21 is not taken into account and is discarded.

Es kann vorgesehen sein, dass mindestens ein weiteres Objekt mit bekannten Eigenschaften in der erfassten Umfeldabbildung 10 erkannt wird, wobei eine weitere relative Position 30 (1) der Kamera 51 zum erkannten mindestens einen weiteren Objekt bestimmt wird, und wobei die bestimmte weitere relative Position 30 beim Bestimmen der Kameraposition 22 der Kamera 51 und/oder der Fahrzeugposition 23 des Fahrzeugs 50 in der Karte 15 berücksichtigt wird. Auch in dieser Ausführungsform kann eine mit der weiteren relativen Position 30 korrespondierende Güte 13 wie beschrieben berücksichtigt werden.Provision can be made for at least one further object with known properties to be recognized in the captured environment image 10, with a further relative position 30 ( 1 ) of the camera 51 is determined for the detected at least one further object, and the determined further relative position 30 is taken into account when determining the camera position 22 of the camera 51 and/or the vehicle position 23 of the vehicle 50 in the map 15. In this embodiment too, a quality factor 13 corresponding to the further relative position 30 can be taken into account, as described.

In der 3 ist eine schematische Darstellung eines eindeutigen optischen Markers 40 gezeigt, wobei der eindeutige optische Marker 40 als Aruco-Marker ausgebildet ist. Die optischen Marker 40 weisen jeweils eine eindeutige Identifikationskennung 41 auf, welche als Bitmuster graphisch kodiert ist. Ferner werden die optischen Marker 40 derart dimensioniert und in einem Umfeld angeordnet, dass Abmessungen 42 (hier beispielhaft nur vertikale Abmessungen) bekannt sind, sodass die Abmessungen 42 beim Bestimmen der relativen Position als Größenreferenz dienen können. Über die Abmessungen 42 kann eine relative Position zwischen optischen Marker und der Kamera bestimmt werden, insbesondere kann eine Position des optischen Markers in einem Koordinatensystem der Kamera bestimmt werden. Insbesondere werden hierzu die vier Ecken des Aruco-Markers in einer erfassten Umfeldabbildung erkannt, beispielsweise mit Hilfe von an sich bekannten Verfahren der Computer Vision und/oder der Muster- bzw. Objekterkennung. Die in dem Bitmuster kodierte eindeutige Identifikationskennung 41 kann aus der erfassten Umfeldabbildung ausgelesen werden.In the 3 1 is a schematic representation of a unique optical marker 40, the unique optical marker 40 being embodied as an Aruco marker. The optical markers 40 each have a unique identifier 41 which is graphically encoded as a bit pattern. Furthermore, the optical markers 40 are dimensioned and arranged in such a way that dimensions 42 (here by way of example only vertical dimensions) are known, so that the dimensions 42 can serve as a size reference when determining the relative position. A relative position between the optical marker and the camera can be determined via the dimensions 42; in particular, a position of the optical marker in a coordinate system of the camera can be determined. For this purpose, in particular, the four corners of the Aruco marker are recognized in a captured image of the surroundings, for example with the aid of known methods of computer vision and/or pattern or object recognition. The unique identifier 41 encoded in the bit pattern can be read out from the captured image of the surroundings.

In der 4 ist eine schematische Darstellung zur Verdeutlichung des Bestimmens einer relativen Position in einem Koordinatensystem einer Kamera 51 aus einer erfassten Umfeldabbildung 10 gezeigt. Hierbei wird von einem omnidirektionalen Kameramodell ausgegangen, wie dies bei „Fischaugenoptiken“ Verwendung findet (vgl. auch D. Scaramuzza, Omnidirectional Vision: from Calibration to Robot Motion Estimation, ETH Zürich, PhD Thesis no. 17635, Zürich, 22. Februar 2008). Ziel ist es, ein Verhältnis zwischen einem gegebenen zweidimensionalen Bildelement (Punkt p mit den Koordinaten u und v) und einem dreidimensionalen Vektor P, der von einem effektiven Aussichtspunkt O ausgeht, zu finden. Allgemein bedeutet dies, dass intrinsische Kameraparameter und intrinsische Spiegeleigenschaften gefunden werden müssen (welche insbesondere den Kameraeigenschaften in dieser Offenbarung entsprechen). Das omnidirektionale Kameramodell behandelt das bildgebende System hierbei als einheitliches kompaktes System, das heißt, es unterscheidet nicht, ob ein Spiegel 61 oder eine Fischaugenoptik in Kombination mit der Kamera 51 verwendet werden.In the 4 a schematic representation is shown to clarify the determination of a relative position in a coordinate system of a camera 51 from a captured image 10 of the surroundings. This is based on an omnidirectional camera model, as is used in "fish-eye optics" (cf. also D. Scaramuzza, Omnidirectional Vision: from Calibration to Robot Motion Estimation, ETH Zurich, PhD Thesis no. 17635, Zurich, February 22, 2008) . The goal is to find a relationship between a given two-dimensional pixel (point p with coordinates u and v) and a three-dimensional vector P originating from an effective viewpoint O. In general, this means that intrinsic camera parameters and intrinsic mirror properties have to be found (which in particular correspond to the camera properties in this disclosure). In this case, the omnidirectional camera model treats the imaging system as a uniform, compact system, that is to say it does not differentiate whether a mirror 61 or a fisheye optic is used in combination with the camera 51 .

In dem Modell werden die folgenden Annahmen gemacht: Ein Spiegel-Kamera-System 60 ist ein zentrales System, das heißt, es existiert ein Punkt im Spiegel 61, durch den jeder reflektierte Strahl verläuft (Aussichtspunkt O). Dieser Punkt bildet den Ursprung des Kamerakoordinatensystems mit den Koordinaten x, y und z. Eine Kameraachse und eine Spiegelachse sind aufeinander ausgerichtet, das heißt, nur kleine Abweichungen der Rotation werden in dem Modell berücksichtigt. Der Spiegel 61 ist rotationssymmetrisch in Bezug auf seine Achse. Eine Linsenverzerrung der Kamera 51 ist im Modell nicht berücksichtigt. Bei Fischaugenlinsen kann eine Kameralinsenverzerrung in einer nachfolgend eingeführten Projektionsfunktion f integriert werden.In the model, the following assumptions are made: A mirror-camera system 60 is a central system, that is, there exists a point in the mirror 61 through which each reflected ray passes (viewpoint O). This point forms the origin of the camera coordinate system with the coordinates x, y and z. A camera axis and a mirror axis are aligned with each other, which means that only small deviations in rotation are taken into account in the model. The mirror 61 is rotationally symmetrical with respect to its axis. A lens distortion of the camera 51 is not taken into account in the model. For fisheye lenses, camera lens distortion can be integrated in a projection function f introduced below.

Unter der Annahme, dass eine Kameraachse und eine Spiegelachse aufeinander ausgerichtet sind, gilt: [ x y ] = a [ u v ]

Figure DE102021207180B3_0001
mit u, v den Koordinaten eines Bildelementes in einer erfassten Umfeldabbildung 10. Die Funktion, die eine Kalibrierung schätzt ist die Funktion, die einen Bildpunkt p in der erfassten Umfeldabbildung auf einen korrespondierenden dreidimensionalen Vektor P abbildet. Daher lässt sich schreiben: P = [ x y z ] = [ a u a v ƒ ( u , v ) ]
Figure DE102021207180B3_0002
Assuming that a camera axis and a mirror axis are aligned, then: [ x y ] = a [ and v ]
Figure DE102021207180B3_0001
with u, v the coordinates of a pixel in a captured environment image 10. The function that a calibration estimates is the function that maps a pixel p to a corresponding three-dimensional vector P in the captured environment image. Therefore one can write: P = [ x y e.g ] = [ a and a v ƒ ( and , v ) ]
Figure DE102021207180B3_0002

Der Vorfaktor α kann in die Funktion ƒ hineingezogen werden, sodass sich folgender Ausdruck ergibt: P = [ x y z ] = [ u v ƒ ( u , v ) ]

Figure DE102021207180B3_0003
The prefactor α can be included in the function ƒ, resulting in the following expression: P = [ x y e.g ] = [ and v ƒ ( and , v ) ]
Figure DE102021207180B3_0003

Hierbei gilt es zu berücksichtigen, dass P kein dreidimensionaler Punkt ist, sondern ein Vektor, daher ist eine solche Vereinfachung erlaubt. Da der Spiegel 61 rotationssymmetrisch ist, ist die Funktion ƒ(u, v) nur von einem Abstand ρ eines Punktes zum Bildmittelpunkt 11 abhängig: ρ ( u , v ) = u 2 + v 2

Figure DE102021207180B3_0004
It is important to remember that P is not a three-dimensional point but a vector, so such a simplification is allowed. Since the mirror 61 is rotationally symmetrical, the function ƒ(u, v) is only dependent on a distance ρ of a point from the image center 11: ρ ( and , v ) = and 2 + v 2
Figure DE102021207180B3_0004

Hiermit ergibt sich: P = [ x y z ] = [ u v ƒ ( ρ ) ]

Figure DE102021207180B3_0005
This results in: P = [ x y e.g ] = [ and v ƒ ( ρ ) ]
Figure DE102021207180B3_0005

Zum Kalibrieren wird die Funktion ƒ(ρ) benötigt. Hierzu kann beispielsweise ein Polynom verwendet werden, dessen Koeffizienten im Rahmen einer (empirischen) Kalibrierung bestimmt werden: ƒ ( ρ ) = a 0 + a 1 ρ + a 2 ρ 2 + a 3 ρ 3 +

Figure DE102021207180B3_0006
The function ƒ(ρ) is required for calibration. A polynomial can be used for this, for example, whose coefficients are determined as part of an (empirical) calibration: ƒ ( ρ ) = a 0 + a 1 ρ + a 2 ρ 2 + a 3 ρ 3 +
Figure DE102021207180B3_0006

Mit Hilfe des kalibrierten Modells kann eine relative Position eines optischen Markers bestimmt ausgehend von einer erfassten Umfeldabbildung 10 werden.A relative position of an optical marker can be determined with the aid of the calibrated model, starting from a captured image 10 of the surroundings.

Es kann sein, dass die Kameraachse und die Spiegelachse nicht perfekt aufeinander ausgerichtet sind. Ferner kann es sein, dass die Bildelemente beim Erfassen nicht quadratisch sind. Dies führt dazu, dass ein runder Rand des Spiegels 61 als Ellipse erscheint. Um dies zu berücksichtigen, können die fehlerhafte Ausrichtung und Digitalisierungsartefakte berücksichtigt werden durch eine affine Transformation, mit den Parametern c, d, e, l und c', welche ebenfalls im Rahmen einer Kalibrierung der Kamera 51 (bzw. des Spiegel-Kamera-Systems 60) bestimmt werden können: [ u ' v ' ] = [ c d e l ] [ u v ] + [ x c ' y c ' ]

Figure DE102021207180B3_0007
It may be that the camera axis and the mirror axis are not perfectly aligned. Also, the pixels may not be square when captured. This causes a round edge of the mirror 61 to appear as an ellipse. In order to take this into account, the incorrect alignment and digitization artifacts can be taken into account by an affine transformation with the parameters c, d, e, l and c', which are also carried out as part of a calibration of the camera 51 (or the mirror camera system 60) can be determined: [ and ' v ' ] = [ c i.e e l ] [ and v ] + [ x c ' y c ' ]
Figure DE102021207180B3_0007

Diese Gleichung verknüpft die verzerrten Koordinaten (u', v') mit den idealen unverzerrten Koordinaten (u, v).This equation relates the distorted coordinates (u',v') to the ideal undistorted coordinates (u,v).

In 5 ist eine schematische Darstellung zur Verdeutlichung von Sichtstrahlen 62 einer Kamera 51 gezeigt. In der vereinfachten Darstellung weist die Kamera 51 eine Einheitslinse (Radius = 1 bzw. Vektorlänge = 1) auf. Hierbei setzen sich die Sichtstrahlen 62 aus den Vektoren 63 (welche insbesondere dem voranstehend beschriebenen Vektor P entsprechen) zusammen, welche ausgehend von den Positionen der Bildelemente von Eckpunkten des optischen Markers 40 in der erfassten Umfeldabbildung, insbesondere unter Berücksichtigung der voranstehend beschriebenen Kalibrierung der Kamera 51, bestimmt werden. Diese Vektoren 63 werden verlängert, bis ein Abstand zwischen diesen einer bekannten Abmessung 42 des optischen Markers 40 entspricht. Ausgehend hiervon kann dann die relative Position bestimmt werden, das heißt, eine Position des optischen Markers 40 im Koordinatensystem der Kamera 51.In 5 A schematic representation is shown to clarify visual beams 62 of a camera 51 . In the simplified representation, the camera 51 has a standard lens (radius=1 or vector length=1). In this case, the visual beams 62 are composed of the vectors 63 (which correspond in particular to the vector P described above) which, starting from the positions of the image elements of corner points of the optical marker 40 in the captured environment image, in particular taking into account the calibration of the camera 51 described above , to be determined. These vectors 63 are lengthened until a distance between them corresponds to a known dimension 42 of the optical marker 40. Based on this, the relative position can then be determined, i.e. a position of the optical marker 40 in the coordinate system of the camera 51.

In 6 ist ein schematisches Ablaufdiagramm einer Ausführungsform des Verfahrens zum Lokalisieren eines Fahrzeugs in einem Umfeld gezeigt. In dem Umfeld sind eindeutige optische Marker mit bekannten Eigenschaften angeordnet. Insbesondere können die optischen Marker als Aruco-Marker ausgebildet sein.In 6 a schematic flowchart of an embodiment of the method for locating a vehicle in an environment is shown. Distinct optical markers with known properties are arranged in the environment. In particular, the optical markers can be designed as Aruco markers.

In einer Maßnahme 100 wird eine Umfeldabbildung des Umfelds mittels mindestens einer Kamera erfasst.In a measure 100, an image of the surroundings is recorded using at least one camera.

In einer Maßnahme 101 wird in der erfassten Umfeldabbildung mindestens ein optischer Marker erkannt. Sind mehrere optische Marker vorhanden, werden sämtliche optischen Marker erkannt.In a measure 101, at least one optical marker is detected in the recorded environment image. If there are several optical markers, all optical markers are recognized.

In einer Maßnahme 102 wird eine Identifikationskennung des mindestens einen optischen Markers ausgelesen. Wurden mehrere optische Marker erkannt, so erfolgt dies für sämtliche erkannten optischen Marker.In a measure 102, an identifier of the at least one optical marker is read out. If several optical markers were detected, this is done for all detected optical markers.

In einer Maßnahme 103 wird eine Markerposition des erkannten mindestens einen optischen Markers ausgehend von der jeweils ausgelesenen Identifikationskennung in einer Karte bestimmt. Bei mehreren erkannten optischen Markern erfolgt dies für alle erkannten optischen Marker.In a measure 103, a marker position of the detected at least one optical marker is determined on the basis of the respectively read identification on a map. If several optical markers are detected, this is done for all detected optical markers.

In einer Maßnahme 104 wird eine relative Position der mindestens einen Kamera zum erkannten mindestens einen optischen Marker bestimmt. Anders ausgedrückt wird eine Position des mindestens einen optischen Markers im Koordinatensystem der mindestens einen Kamera bestimmt. Wurden mehrere optische Marker erkannt, so erfolgt dies für alle erkannten optischen Marker. Bei mehreren Kameras erfolgt dies jeweils für jede der mehreren Kameras.In a measure 104, a position of the at least one camera relative to the detected at least one optical marker is determined. In other words, a position of the at least one optical marker is determined in the coordinate system of the at least one camera. If several optical markers were detected, this is done for all detected optical markers. In the case of multiple cameras, this is done for each of the multiple cameras.

In einer Maßnahme 105 wird eine Kameraposition der mindestens einen Kamera und/oder eine Fahrzeugposition des Fahrzeugs in der Karte ausgehend von der bestimmten relativen Position und der bestimmten Markerposition bestimmt und bereitgestellt, wobei das Bestimmen der Kameraposition und/oder der Fahrzeugposition unter Berücksichtigung von Kameraeigenschaften erfolgt. Wurden mehrere optische Marker erkannt, so können die mehreren optischen Marker in Abhängigkeit einer mit Bildbereichen in der erfassten Umfeldabbildung, in denen die Marker erkannt wurden, korrespondierende Güten berücksichtigt werden, beispielsweise durch eine güteabhängige Gewichtung und/oder eine güteabhängige Auswahl der mehreren optischen Marker.In a measure 105, a camera position of the at least one camera and/or a vehicle position of the vehicle on the map is determined and provided based on the determined relative position and the determined marker position provides, the determination of the camera position and / or the vehicle position taking into account camera properties. If a number of optical markers were detected, the number of optical markers can be taken into account as a function of a quality corresponding to image areas in the captured environment image in which the markers were detected, for example by a quality-dependent weighting and/or a quality-dependent selection of the number of optical markers.

In einer Maßnahme 106 kann die bestimmte Kameraposition und/oder die bestimmte Fahrzeugposition beispielsweise einer Navigationseinrichtung des Fahrzeugs zugeführt werden.In a measure 106, the specific camera position and/or the specific vehicle position can be supplied to a navigation device of the vehicle, for example.

Es kann vorgesehen sein, dass das Verfahren fortlaufend wiederholt wird, sodass eine Lokalisierung stets in Abhängigkeit eines aktuellen Umfelds erfolgen kann.Provision can be made for the method to be repeated continuously, so that localization can always take place depending on the current environment.

Bezugszeichenlistereference list

11
Vorrichtungcontraption
22
Positionsbestimmungseinrichtungpositioning device
33
Recheneinrichtungcomputing device
44
SpeicherStorage
1010
erfasste Umfeldabbildungcaptured environment mapping
1111
Bildmittelpunktcenter of the picture
12-x12-x
Bereich (Sichtbereich Kamera)Range (camera field of view)
1313
Gütequality
1515
KarteMap
1616
Schwellenwertthreshold
2020
Markerpositionmarker position
2121
relative Positionrelative position
2222
Kamerapositioncamera position
2323
Fahrzeugpositionvehicle position
3030
weitere relative Position (weiteres Objekt)further relative position (further object)
4040
optischer Markeroptical marker
4141
Identifikationskennungidentifier
4242
Abmessungdimension
5050
Fahrzeugvehicle
5151
Kameracamera
51-151-1
Kameraeigenschaftencamera properties
5252
Navigationseinrichtungnavigation device
6060
Spiegel-Kamera-Systemmirror camera system
6161
Spiegelmirror
6262
Sichtstrahlvisual beam
6363
Vektorvector
100-106100-106
Maßnahmen des VerfahrensMeasures of the procedure
OO
Aussichtspunktvantage point
pp
PunktPoint
PP
Vektorvector
u, vu, v
Koordinaten eines BildelementsCoordinates of an image element
x,y,zx,y,z
Koordinaten (Kamerakoordinatensystem)Coordinates (camera coordinate system)

Claims (9)

Verfahren zum Lokalisieren eines Fahrzeugs (50) in einem Umfeld, wobei in dem Umfeld eindeutige optische Marker (40) mit bekannten Eigenschaften angeordnet sind oder angeordnet werden, wobei eine Umfeldabbildung (10) des Umfelds mittels mindestens einer Kamera (51) erfasst wird, wobei in der erfassten Umfeldabbildung (10) mindestens ein optischer Marker (40) erkannt wird, wobei eine Identifikationskennung (41) des mindestens einen optischen Markers (40) ausgelesen wird, wobei eine Markerposition (20) des erkannten mindestens einen optischen Markers (40) ausgehend von der jeweils ausgelesenen Identifikationskennung (41) in einer Karte (15) bestimmt wird, wobei eine relative Position (21) der mindestens einen Kamera (51) zum erkannten mindestens einen optischen Marker (40) bestimmt wird, und wobei eine Kameraposition (22) der mindestens einen Kamera (51) und/oder eine Fahrzeugposition (23) des Fahrzeugs (50) in der Karte (15) ausgehend von der bestimmten relativen Position (21) und der bestimmten Markerposition (20) bestimmt und bereitgestellt wird, wobei das Bestimmen der Kameraposition (22) und/oder der Fahrzeugposition (23) unter Berücksichtigung von Kameraeigenschaften (51-1) erfolgt, wobei die Kameraeigenschaften (51-1) eine Unterteilung eines Sichtbereichs der Kamera (51) in Bereiche (12-x) unterschiedlicher Güte (13) umfassen, wobei die Güte (13) beim Bestimmen der relativen Position (21) der mindestens einen Kamera (51) und/oder beim Bestimmen der Kameraposition (22) und/oder der Fahrzeugposition (23) berücksichtigt wird.Method for locating a vehicle (50) in an environment, in which clear optical markers (40) with known properties are or will be arranged in the environment, wherein an image (10) of the surroundings is captured by means of at least one camera (51), wherein at least one optical marker (40) is recognized in the recorded environment image (10), wherein an identifier (41) of the at least one optical marker (40) is read out, wherein a marker position (20) of the detected at least one optical marker (40) is determined on the basis of the respectively read identification code (41) in a card (15), wherein a relative position (21) of the at least one camera (51) to the detected at least one optical marker (40) is determined, and wherein a camera position (22) of the at least one camera (51) and/or a vehicle position (23) of the vehicle (50) on the map (15) is determined based on the determined relative position (21) and the determined marker position (20) and provided, the camera position (22) and/or the vehicle position (23) being determined taking into account camera properties (51-1), wherein the camera properties (51-1) include a subdivision of a field of view of the camera (51) into areas (12-x) of different quality (13), the quality (13) when determining the relative position (21) of the at least one camera ( 51) and/or when determining the camera position (22) and/or the vehicle position (23). Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die relative Position (21) der mindestens einen Kamera (51) ausgehend von einer Bildelementposition des mindestens einen optischen Markers (40) in der erfassten Umfeldabbildung (40) und bekannten geometrischen Eigenschaften des mindestens einen optischen Markers (40) bestimmt wird.procedure after claim 1 , characterized in that the relative position (21) of the at least one camera (51) is determined based on a picture element position of the at least one optical marker (40) in the captured image of the surroundings (40) and known geometric properties of the at least one optical marker (40). becomes. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Güte (13) eines jeweiligen Bereiches (12-x) des Sichtbereichs der mindestens einen Kamera (51) empirisch bestimmt wird oder bestimmt ist.procedure after claim 1 or 2 , characterized in that the quality (13) of a respective area (12-x) of the field of view of the at least one camera (51) is or is determined empirically. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass bestimmte relative Positionen (21) der mindestens einen Kamera (51) zu mehreren in der erfassten Umfeldabbildung (10) erfassten optischen Markern (40) ausgehend von einer jeweils hiermit korrespondierenden Güte (13) beim Bestimmen der Kameraposition (22) und/oder der Fahrzeugposition (23) gewichtet berücksichtigt werden.Method according to one of the preceding claims, characterized in that certain relative positions (21) of the at least one camera (51) to a plurality of optical markers (40) detected in the captured environment image (10) based on a respective quality (13) corresponding thereto Determining the camera position (22) and/or the vehicle position (23) are weighted. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass bestimmte relative Positionen (21) der mindestens einen Kamera (51) zu mehreren in der erfassten Umfeldabbildung (10) erfassten optische Markern (40) ausgehend von einer jeweils hiermit korrespondierenden Güte (13) beim Bestimmen der Kameraposition (22) und/oder der Fahrzeugposition (23) in Abhängigkeit von mindestens einem vorgegebenen Schwellenwert (16) berücksichtigt oder verworfen werden.Method according to one of the preceding claims, characterized in that certain relative positions (21) of the at least one camera (51) to a plurality of optical markers (40) detected in the captured environment image (10) based on a respective quality (13) corresponding thereto Determining the camera position (22) and/or the vehicle position (23) as a function of at least one predetermined threshold value (16) are taken into account or discarded. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die eindeutigen optischen Marker (40) im Umfeld als Aruco-Marker ausgebildet sind.Method according to one of the preceding claims, characterized in that the clear optical markers (40) in the area are designed as Aruco markers. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass mindestens ein weiteres Objekt mit bekannten Eigenschaften in der erfassten Umfeldabbildung (10) erkannt wird, wobei eine weitere relative Position (30) der mindestens einen Kamera (51) zum erkannten mindestens einen weiteren Objekt bestimmt wird, und wobei die bestimmte weitere relative Position (30) beim Bestimmen der Kameraposition (22) der mindestens einen Kamera (51) und/oder der Fahrzeugposition (23) des Fahrzeugs (50) in der Karte (15) berücksichtigt wird.Method according to one of the preceding claims, characterized in that at least one further object with known properties is recognized in the recorded environment image (10), with a further relative position (30) of the at least one camera (51) being determined for the recognized at least one further object and wherein the determined further relative position (30) is taken into account when determining the camera position (22) of the at least one camera (51) and/or the vehicle position (23) of the vehicle (50) on the map (15). Vorrichtung (1) zum Lokalisieren eines Fahrzeugs (50) in einem Umfeld, umfassend: mindestens eine Kamera (51), und eine Positionsbestimmungseinrichtung (2), wobei die mindestens eine Kamera (51) dazu eingerichtet ist, eine Umfeldabbildung des Umfelds zu erfassen, und wobei die Positionsbestimmungseinrichtung dazu eingerichtet ist, in der erfassten Umfeldabbildung mindestens einen im Umfeld angeordneten eindeutigen optischen Marker zu erkennen, eine Identifikationskennung des mindestens einen optischen Markers auszulesen, eine Markerposition des erkannten mindestens einen optischen Markers ausgehend von der jeweils ausgelesenen Identifikationskennung in einer Karte zu bestimmen, eine relative Position der mindestens einen Kamera zum erkannten mindestens einen optischen Marker zu bestimmen, und eine Kameraposition der mindestens einen Kamera und/oder eine Fahrzeugposition des Fahrzeugs in der Karte ausgehend von der bestimmten relativen Position und der bestimmten Markerposition zu bestimmen und bereitzustellen, wobei das Bestimmen der Kameraposition und/oder der Fahrzeugposition unter Berücksichtigung von Kameraeigenschaften erfolgt, wobei die Kameraeigenschaften (51-1) eine Unterteilung eines Sichtbereichs der Kamera (51) in Bereiche (12-x) unterschiedlicher Güte (13) umfassen, wobei die Güte (13) beim Bestimmen der relativen Position (21) der mindestens einen Kamera (51) und/oder beim Bestimmen der Kameraposition (22) und/oder der Fahrzeugposition (23) berücksichtigt wird.Device (1) for locating a vehicle (50) in an environment, comprising: at least one camera (51), and a position determination device (2), wherein the at least one camera (51) is set up to capture an image of the surroundings, and wherein the position determination device is set up to detect at least one unique optical marker arranged in the environment in the captured image of the surroundings, to read out an identifier of the at least one optical marker, to determine a marker position of the detected at least one optical marker on a map based on the identifier read out in each case to determine a relative position of the at least one camera to the detected at least one optical marker, and to determine and provide a camera position of the at least one camera and/or a vehicle position of the vehicle on the map based on the determined relative position and the determined marker position, wherein the camera position and/or the vehicle position is determined taking into account camera properties, wherein the camera properties (51-1) include a subdivision of a field of view of the camera (51) into areas (12-x) of different quality (13), the quality (13) when determining the relative position (21) of the at least one camera ( 51) and/or when determining the camera position (22) and/or the vehicle position (23). Fahrzeug, umfassend mindestens eine Vorrichtung nach Anspruch 8.Vehicle comprising at least one device claim 8 .
DE102021207180.5A 2021-07-07 2021-07-07 Method and device for locating a vehicle in an environment Active DE102021207180B3 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102021207180.5A DE102021207180B3 (en) 2021-07-07 2021-07-07 Method and device for locating a vehicle in an environment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021207180.5A DE102021207180B3 (en) 2021-07-07 2021-07-07 Method and device for locating a vehicle in an environment

Publications (1)

Publication Number Publication Date
DE102021207180B3 true DE102021207180B3 (en) 2022-12-15

Family

ID=84192793

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021207180.5A Active DE102021207180B3 (en) 2021-07-07 2021-07-07 Method and device for locating a vehicle in an environment

Country Status (1)

Country Link
DE (1) DE102021207180B3 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009098319A2 (en) 2008-02-09 2009-08-13 Trw Limited Navigational device for a vehicle
DE102014002150B3 (en) 2014-02-15 2015-07-23 Audi Ag Method for determining the absolute position of a mobile unit and mobile unit
WO2018044191A1 (en) 2016-08-31 2018-03-08 Limited Liability Company "Topcon Positioning Systems" Apparatus and method for providing vehicular positioning
DE102017123515B4 (en) 2017-08-03 2019-08-14 Neusoft Corporation Method, device, storage medium and program product for lateral vehicle position determination
DE102018210765A1 (en) 2018-06-29 2020-01-02 Volkswagen Aktiengesellschaft Localization system and method for operating the same
US20210017859A1 (en) 2019-07-18 2021-01-21 Commonwealth Scientific And Industrial Research Organisation Machine guidance integration
CN112304305A (en) 2020-10-31 2021-02-02 中环曼普科技(南京)有限公司 Vehicle initial positioning method and system combined with marker image

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009098319A2 (en) 2008-02-09 2009-08-13 Trw Limited Navigational device for a vehicle
DE102014002150B3 (en) 2014-02-15 2015-07-23 Audi Ag Method for determining the absolute position of a mobile unit and mobile unit
WO2018044191A1 (en) 2016-08-31 2018-03-08 Limited Liability Company "Topcon Positioning Systems" Apparatus and method for providing vehicular positioning
DE102017123515B4 (en) 2017-08-03 2019-08-14 Neusoft Corporation Method, device, storage medium and program product for lateral vehicle position determination
DE102018210765A1 (en) 2018-06-29 2020-01-02 Volkswagen Aktiengesellschaft Localization system and method for operating the same
US20210017859A1 (en) 2019-07-18 2021-01-21 Commonwealth Scientific And Industrial Research Organisation Machine guidance integration
CN112304305A (en) 2020-10-31 2021-02-02 中环曼普科技(南京)有限公司 Vehicle initial positioning method and system combined with marker image

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SCARAMUZZA, Davide: Omnidirectional vision: from calibration to robot motion estimation. DISS. ETH NO. 17635. Zürich, CH : Eidgenössische Techn. Hochschule, 2007. DOI: 10.3929/ethz-a-005567197. URL: https://www.research-collection.ethz.ch/bitstream/handle/20.500.11850/14333/eth-30301-02.pdf?sequence=2&isAllowed=y [abgerufen am 2021-08-04].

Similar Documents

Publication Publication Date Title
EP3105547B1 (en) Method for determining the absolute position of a mobile unit, and mobile unit
DE102004010197B4 (en) Method for checking the function of a position-finding or environment detection device of a vehicle or for controlling a digital map
DE102015203016B4 (en) Method and device for optical self-localization of a motor vehicle in an environment
DE112008004291B4 (en) Motion state estimator
DE102014206704B4 (en) UPDATE THE CALIBRATION OF A TRAFFIC CAMERA USING A SCENE ANALYSIS
DE10228638A1 (en) Vehicle zone monitoring apparatus for detecting physical body present in vicinity of vehicle, has CPU that identifies whether object indicated in image obtained from cameras is artificial structure
DE102004018813A1 (en) Method for detecting and / or tracking objects
DE102009048699A1 (en) Travel's clear path detection method for motor vehicle i.e. car, involves monitoring images, each comprising set of pixels, utilizing texture-less processing scheme to analyze images, and determining clear path based on clear surface
DE102013209415A1 (en) Dynamic Note Overlay with Image Pruning
EP2396746A2 (en) Method for detecting objects
DE102011111440A1 (en) Method for representation of environment of vehicle, involves forming segments of same width from image points of equal distance in one of image planes, and modeling objects present outside free space in environment
DE102015115012A1 (en) Method for generating an environment map of an environment of a motor vehicle based on an image of a camera, driver assistance system and motor vehicle
DE102017218366A1 (en) METHOD AND PEDESTRIAN DETECTION APPROACH IN A VEHICLE
DE102018111935A1 (en) Image processing system, image processing method, information processing apparatus and recording medium
DE102014212866A1 (en) Method for determining a parking space from a number of measuring points
DE102015211874A1 (en) Object detection device
DE102006044615A1 (en) Image capturing device calibrating method for vehicle, involves locating objects in vehicle surrounding based on image information detected by image capturing device, and evaluating geometrical relations of objects
DE102015211871A1 (en) Object detection device
DE112014006493T5 (en) Determine a scale of three-dimensional information
DE102016106978A1 (en) Method for operating a driver assistance system of a motor vehicle, computing device, driver assistance system and motor vehicle
DE102021206075A1 (en) Vehicle localization as a ride-sharing option and occupant identification for autonomous vehicles
DE102007015552B3 (en) Self-propelled automotive robot for e.g. treatment of floor space, has lenses and mirrors spaced apart from each other in horizontal direction to guide environment image to image halves of camera module
DE102021207180B3 (en) Method and device for locating a vehicle in an environment
DE102008050456B4 (en) Method and apparatus for lane detection
DE102019209473A1 (en) Method and device for the rapid detection of repetitive structures in the image of a street scene

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final