DE102021207180B3 - Method and device for locating a vehicle in an environment - Google Patents
Method and device for locating a vehicle in an environment Download PDFInfo
- Publication number
- DE102021207180B3 DE102021207180B3 DE102021207180.5A DE102021207180A DE102021207180B3 DE 102021207180 B3 DE102021207180 B3 DE 102021207180B3 DE 102021207180 A DE102021207180 A DE 102021207180A DE 102021207180 B3 DE102021207180 B3 DE 102021207180B3
- Authority
- DE
- Germany
- Prior art keywords
- camera
- vehicle
- determined
- marker
- optical
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/16—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
Landscapes
- Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Image Analysis (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zum Lokalisieren eines Fahrzeugs (50) in einem Umfeld, wobei in dem Umfeld eindeutige optische Marker (40) mit bekannten Eigenschaften angeordnet sind oder angeordnet werden, wobei eine Umfeldabbildung (10) des Umfelds mittels mindestens einer Kamera (51) erfasst wird, wobei in der erfassten Umfeldabbildung (10) mindestens ein optischer Marker (40) erkannt wird, wobei eine Identifikationskennung (41) des mindestens einen optischen Markers (40) ausgelesen wird, wobei eine Markerposition (20) des erkannten mindestens einen optischen Markers (40) ausgehend von der jeweils ausgelesenen Identifikationskennung (41) in einer Karte (15) bestimmt wird, wobei eine relative Position (21) der mindestens einen Kamera (51) zum erkannten mindestens einen optischen Marker (40) bestimmt wird, und wobei eine Kameraposition (22) der mindestens einen Kamera (51) und/oder eine Fahrzeugposition (23) des Fahrzeugs (50) in der Karte (15) ausgehend von der bestimmten relativen Position (21) und der bestimmten Markerposition (20) bestimmt und bereitgestellt wird, wobei das Bestimmen der Kameraposition (22) und/oder der Fahrzeugposition (23) unter Berücksichtigung von Kameraeigenschaften (51-1) erfolgt. Ferner betrifft die Erfindung eine Vorrichtung (1) zum Lokalisieren eines Fahrzeugs (50) in einem Umfeld.The invention relates to a method for locating a vehicle (50) in an environment, in which clear optical markers (40) with known properties are or will be arranged in the environment, with an environment image (10) of the environment using at least one camera (51) is detected, with at least one optical marker (40) being detected in the captured environment image (10), with an identifier (41) of the at least one optical marker (40) being read out, with a marker position (20) of the detected at least one optical marker (40) is determined on the basis of the identifier (41) read in each case in a card (15), with a relative position (21) of the at least one camera (51) being determined for the detected at least one optical marker (40), and with a Camera position (22) of the at least one camera (51) and / or a vehicle position (23) of the vehicle (50) in the map (15) based on the specific relative ven position (21) and the determined marker position (20) is determined and provided, the determination of the camera position (22) and / or the vehicle position (23) taking into account camera properties (51-1). The invention also relates to a device (1) for locating a vehicle (50) in an area.
Description
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zum Lokalisieren eines Fahrzeugs in einem Umfeld.The invention relates to a method and a device for locating a vehicle in an environment.
Ein Kernproblem beim teilautomatisierten oder automatisierten Fahren eines Fahrzeugs ist eine Lokalisierung des Fahrzeugs in einem Umfeld. Neben einer Lokalisierung über satellitengestützte Positionsbestimmungssysteme (z.B. Global Positioning System, GPS) sind auch landmarkenbasierte Systeme bekannt, bei denen Objekte im Umfeld erkannt werden und zur Lokalisierung in einer Karte verwendet werden.A core problem in partially automated or automated driving of a vehicle is localization of the vehicle in an environment. In addition to localization via satellite-based position determination systems (e.g. Global Positioning System, GPS), landmark-based systems are also known in which objects in the area are recognized and used for localization on a map.
Aus der
Aus D. Scaramuzza, Omnidirectional Vision: from Calibration to Robot Motion Estimation, ETH Zürich, PhD Thesis no. 17635, Zürich, 22. Februar 2008, ist ein omnidirektionales Kameramodell bekannt.An omnidirectional camera model is known from D. Scaramuzza, Omnidirectional Vision: from Calibration to Robot Motion Estimation, ETH Zurich, PhD Thesis no. 17635, Zurich, February 22, 2008.
Aus der
Aus der
Aus der
Aus der
Aus der
Aus der
Der Erfindung liegt die Aufgabe zu Grunde, ein Verfahren und Vorrichtung zum Lokalisieren eines Fahrzeugs in einem Umfeld zu schaffen, bei denen eine Lokalisierung verbessert ist.The invention is based on the object of creating a method and device for locating a vehicle in an environment in which localization is improved.
Die Aufgabe wird erfindungsgemäß durch ein Verfahren mit den Merkmalen des Patentanspruchs 1 und eine Vorrichtung mit den Merkmalen des Patentanspruchs 8 gelöst. Vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Unteransprüchen.The object is achieved according to the invention by a method having the features of patent claim 1 and a device having the features of patent claim 8 . Advantageous configurations of the invention result from the dependent claims.
Insbesondere wird ein Verfahren zum Lokalisieren eines Fahrzeugs in einem Umfeld zur Verfügung gestellt, wobei in dem Umfeld eindeutige optische Marker mit bekannten Eigenschaften angeordnet sind oder angeordnet werden, wobei eine Umfeldabbildung des Umfelds mittels mindestens einer Kamera erfasst wird, wobei in der erfassten Umfeldabbildung mindestens ein optischer Marker erkannt wird, wobei eine Identifikationskennung des mindestens einen optischen Markers ausgelesen wird, wobei eine Markerposition des erkannten mindestens einen optischen Markers ausgehend von der jeweils ausgelesenen Identifikationskennung in einer Karte bestimmt wird, wobei eine relative Position der mindestens einen Kamera zum erkannten mindestens einen optischen Marker bestimmt wird, und wobei eine Kameraposition der mindestens einen Kamera und/oder eine Fahrzeugposition des Fahrzeugs in der Karte ausgehend von der bestimmten relativen Position und der bestimmten Markerposition bestimmt und bereitgestellt wird, wobei das Bestimmen der Kameraposition und/oder der Fahrzeugposition unter Berücksichtigung von Kameraeigenschaften erfolgt.In particular, a method for locating a vehicle in an environment is provided, in which clear optical markers with known properties are or will be arranged in the environment, with an environment image of the environment being captured by at least one camera, with at least one in the captured environment image optical marker is detected, with an identifier of the at least one optical marker being read, with a marker position of the detected at least one optical marker being determined on a map based on the identifier read out in each case, with a relative position of the at least one camera to the detected at least one optical marker is determined, and wherein a camera position of the at least one camera and/or a vehicle position of the vehicle on the map is determined and provided on the basis of the determined relative position and the determined marker position, w wherein the camera position and/or the vehicle position is/are determined taking into account camera properties.
Ferner wird insbesondere eine Vorrichtung zum Lokalisieren eines Fahrzeugs in einem Umfeld geschaffen, umfassend mindestens eine Kamera und eine Positionsbestimmungseinrichtung, wobei die mindestens eine Kamera dazu eingerichtet ist, eine Umfeldabbildung des Umfelds zu erfassen, und wobei die Positionsbestimmungseinrichtung dazu eingerichtet ist, in der erfassten Umfeldabbildung mindestens einen im Umfeld angeordneten eindeutigen optischen Marker zu erkennen, eine Identifikationskennung des mindestens einen optischen Markers auszulesen, eine Markerposition des erkannten mindestens einen optischen Markers ausgehend von der jeweils ausgelesenen Identifikationskennung in einer Karte zu bestimmen, eine relative Position der mindestens einen Kamera zum erkannten mindestens einen optischen Marker zu bestimmen, und eine Kameraposition der mindestens einen Kamera und/oder eine Fahrzeugposition des Fahrzeugs in der Karte ausgehend von der bestimmten relativen Position und der bestimmten Markerposition zu bestimmen und bereitzustellen, wobei das Bestimmen der Kameraposition und/oder der Fahrzeugposition unter Berücksichtigung von Kameraeigenschaften erfolgt.Furthermore, in particular a device for locating a vehicle in an environment is created, comprising at least one camera and a position determination device, wherein the at least one camera is set up to capture an image of the environment, and wherein the position determination device is set up in the captured image of the environment to recognize at least one clear optical marker arranged in the environment, to read out an identifier of the at least one optical marker, to determine a marker position of the detected at least one optical marker on a map based on the respectively read out identifier, a relative position of the at least one camera to the detected at least to determine an optical marker, and a camera position of the at least one camera and/or a vehicle position of the vehicle in the map based on the determined relative position and the determined markerp to determine and provide position, the camera position and/or the vehicle position being determined taking into account camera properties.
Das Verfahren und die Vorrichtung ermöglichen es, ein Fahrzeug in einer Karte zu lokalisieren. Dies erfolgt, indem eindeutige optische Marker im Umfeld des Fahrzeugs erfasst und erkannt werden. Eine Identifikationskennung eines erfassten und erkannten optischen Markers wird aus der erfassten Umfeldabbildung ausgelesen und eine zu dem optischen Marker gehörende Markerposition wird ausgehend von der Identifikationskennung in einer Karte bestimmt. In der Karte sind die eindeutigen optischen Marker an zugehörigen Positionen hinterlegt, sodass die jeweilige Position eines optischen Markers ausgehend von der ausgelesenen Identifikationskennung aus der Karte abgerufen werden kann. Es wird eine relative Position der mindestens einen Kamera zum erkannten mindestens einen optischen Marker bestimmt. Dies erfolgt insbesondere unter Berücksichtigung von einem Strahlengang der Abbildung. Insbesondere wird eine Position des mindestens einen optischen Markers in einem Koordinatensystem der mindestens einen Kamera bestimmt. Anders ausgedrückt wird als relative Position eine Position des mindestens einen optischen Markers im Koordinatensystem der Kamera bestimmt. Ausgehend von der bestimmten relativen Position und der Markerposition in der Karte wird eine Kameraposition der mindestens einen Kamera und/oder eine Fahrzeugposition des Fahrzeugs in der Karte bestimmt. Hierzu kann bei bekannter Lage bzw. Pose der mindestens einen Kamera in einem Fahrzeugkoordinatensystem eine entsprechende Transformation durchgeführt werden. Anders ausgedrückt wird eine Position des optischen Markers insbesondere in dem Kamerakoordinatensystem bestimmt, zusammen mit der aus der Karte bekannten Markerposition können dann eine Kameraposition und/oder eine Fahrzeugposition, die insbesondere in einer festen Beziehung zur Kameraposition steht, bestimmt werden. Beim Bestimmen der Kameraposition der mindestens einen Kamera und/oder der Fahrzeugposition des Fahrzeugs werden Kameraeigenschaften, insbesondere intrinsische Kameraeigenschaften, berücksichtigt. Da die Kameraeigenschaften beim Bestimmen der Kameraposition der mindestens einen Kamera und/oder der Fahrzeugposition des Fahrzeugs berücksichtigt werden, kann die Kameraposition und/oder die Fahrzeugposition verbessert bestimmt werden.The method and the device make it possible to locate a vehicle on a map. This is done by capturing and recognizing unique optical markers around the vehicle. An identifier of a detected and recognized optical marker is read out from the captured environment image and a marker position belonging to the optical marker is determined on the basis of the identifier in a map. The unique optical markers are stored in the map at associated positions, so that the respective position of an optical marker can be retrieved from the map based on the identification code read out. A position of the at least one camera relative to the detected at least one optical marker is determined. This is done in particular taking into account a beam path of the image. In particular, a position of the at least one optical marker is determined in a coordinate system of the at least one camera. In other words, a position of the at least one optical marker in the coordinate system of the camera is determined as the relative position. Based on the determined relative position and the Marker position on the map, a camera position of the at least one camera and/or a vehicle position of the vehicle on the map is determined. For this purpose, if the position or pose of the at least one camera in a vehicle coordinate system is known, a corresponding transformation can be carried out. In other words, a position of the optical marker is determined in particular in the camera coordinate system. Together with the marker position known from the map, a camera position and/or a vehicle position, which in particular has a fixed relationship to the camera position, can then be determined. When determining the camera position of the at least one camera and/or the vehicle position of the vehicle, camera properties, in particular intrinsic camera properties, are taken into account. Since the camera properties are taken into account when determining the camera position of the at least one camera and/or the vehicle position of the vehicle, the camera position and/or the vehicle position can be determined in an improved manner.
Die mindestens eine Kamera ist beispielsweise eine Kamera mit einer Fischaugen- oder Weitwinkeloptik. Die (intrinsischen) Kameraeigenschaften ergeben sich dann insbesondere aus Abbildungseigenschaften der Fischaugen- oder Weitwinkeloptik. Beim Bestimmen der relativen Position der mindestens einen Kamera zum mindestens einen optischen Marker wird insbesondere ein Kameramodell berücksichtigt, wobei in dem Kameramodell beispielsweise Abbildungseigenschaften einer Kameraoptik berücksichtigt werden.The at least one camera is, for example, a camera with a fisheye or wide-angle lens. The (intrinsic) camera properties then result in particular from the imaging properties of the fisheye or wide-angle optics. When determining the position of the at least one camera relative to the at least one optical marker, a camera model is taken into account in particular, with imaging properties of a camera lens, for example, being taken into account in the camera model.
Teile der Vorrichtung, insbesondere die Positionsbestimmungseinrichtung, können einzeln oder zusammengefasst als eine Kombination von Hardware und Software ausgebildet sein, beispielsweise als Programmcode, der auf einem Mikrocontroller oder Mikroprozessor ausgeführt wird. Es kann jedoch auch vorgesehen sein, dass Teile einzeln oder zusammengefasst als anwendungsspezifische integrierte Schaltung (ASIC) und/oder feldprogrammierbares Gatterfeld (FPGA) ausgebildet sind.Parts of the device, in particular the position determination device, can be designed individually or combined as a combination of hardware and software, for example as program code that runs on a microcontroller or microprocessor. However, it can also be provided that parts are designed individually or combined as an application-specific integrated circuit (ASIC) and/or field-programmable gate array (FPGA).
Es ist vorgesehen, dass die Kameraeigenschaften eine Unterteilung eines Sichtbereichs der Kamera in Bereiche unterschiedlicher Güte umfassen, wobei die Güte beim Bestimmen der relativen Position der mindestens einen Kamera und/oder beim Bestimmen der Kameraposition und/oder der Fahrzeugposition berücksichtigt wird. Hierdurch können die Kameraposition und/oder die Fahrzeugposition derart bestimmt werden, dass eine bekannte oder bestimmbare Unsicherheit beim Bestimmen der relativen Position einen Einfluss auf den konkreten Wert hat, der für die Kameraposition und/oder die Fahrzeugposition bestimmt wird.It is provided that the camera properties include a subdivision of a viewing area of the camera into areas of different quality, the quality being taken into account when determining the relative position of the at least one camera and/or when determining the camera position and/or the vehicle position. As a result, the camera position and/or the vehicle position can be determined in such a way that a known or determinable uncertainty when determining the relative position has an influence on the specific value that is determined for the camera position and/or the vehicle position.
In einer Ausführungsform ist vorgesehen, dass die relative Position der mindestens einen Kamera ausgehend von einer Bildelementposition des mindestens einen optischen Markers in der erfassten Umfeldabbildung und bekannten geometrischen Eigenschaften des mindestens einen optischen Markers bestimmt wird. Hierbei ist insbesondere vorgesehen, dass Ecken eines quadratischen optischen Markers bestimmt werden. Anhand von Sichtstrahlen von der mindestens einen Kamera zu den jeweiligen Ecken, die aus der jeweiligen Bildelementposition in der erfassten Umfeldabbildung bestimmt werden, und den bekannten geometrischen Eigenschaften, insbesondere einer Ausdehnung des optischen Markers bzw. eines Abstands zwischen benachbarten Ecken des optischen Markers, kann eine Position des optischen Markers im Kamerakoordinatensystem bestimmt werden.One embodiment provides for the relative position of the at least one camera to be determined based on a picture element position of the at least one optical marker in the captured image of the surroundings and known geometric properties of the at least one optical marker. In this case, it is provided in particular that corners of a square optical marker are determined. On the basis of lines of sight from the at least one camera to the respective corners, which are determined from the respective image element position in the captured image of the surroundings, and the known geometric properties, in particular an extent of the optical marker or a distance between adjacent corners of the optical marker, a Position of the optical marker can be determined in the camera coordinate system.
In einer weiterbildenden Ausführungsform ist vorgesehen, dass die Güte eines jeweiligen Bereiches des Sichtbereichs der mindestens einen Kamera empirisch bestimmt wird oder bestimmt ist. Dies kann beispielsweise im Rahmen einer Kalibrierung der mindestens einen Kamera erfolgen. Beispielsweise kann bestimmt werden, dass eine Güte aufgrund einer kameraoptikbedingten Verzerrung in einem Randbereich in einer erfassten Umfeldabbildung mit einem Abstand zu einem Mittelpunkt der erfassten Umfeldabbildung abnimmt. Eine bestimmte relative Position, die ausgehend von einem in einem Randbereich erfassten optischen Marker erfolgt, hat dann eine geringere Güte als eine bestimmte relative Position, die ausgehend von einem in der Bildmitte erfassten optischen Marker erfolgt ist.In a further developing embodiment it is provided that the quality of a respective area of the field of view of the at least one camera is empirically determined or has been determined. This can be done, for example, as part of a calibration of the at least one camera. For example, it can be determined that a quality due to camera optics-caused distortion in an edge region in a captured environment image decreases with a distance from a center point of the captured environment image. A specific relative position, which is based on an optical marker detected in an edge area, then has a lower quality than a specific relative position, which was based on an optical marker detected in the center of the image.
In einer Ausführungsform ist vorgesehen, dass bestimmte relative Positionen der mindestens einen Kamera zu mehreren in der erfassten Umfeldabbildung erfassten optischen Markern ausgehend von einer jeweils hiermit korrespondierenden Güte beim Bestimmen der Kameraposition und/oder der Fahrzeugposition gewichtet berücksichtigt werden. Hierdurch kann bei mehreren bestimmten relativen Positionen eine Gewichtung der einzelnen relativen Positionen gemäß ihrer jeweiligen Unsicherheit vorgenommen werden, wodurch sich das Bestimmen der Kameraposition und/oder der Fahrzeugposition verbessert. Insbesondere können relative Positionen, die mit einer größeren Güte korrespondieren, stärker gewichtet werden als relative Positionen, die mit einer geringeren Güte korrespondieren.One embodiment provides that specific relative positions of the at least one camera to a plurality of optical markers detected in the captured image of the surroundings are taken into account in a weighted manner, starting from a corresponding quality when determining the camera position and/or the vehicle position. In this way, given a plurality of relative positions, the individual relative positions can be weighted according to their respective uncertainty, which improves the determination of the camera position and/or the vehicle position. In particular, relative positions that correspond to a higher quality can be weighted more heavily than relative positions that correspond to a lower quality.
In einer Ausführungsform ist vorgesehen, dass bestimmte relative Positionen der mindestens einen Kamera zu mehreren in der erfassten Umfeldabbildung erfassten optischen Markern ausgehend von einer jeweils hiermit korrespondierenden Güte beim Bestimmen der Kameraposition und/oder der Fahrzeugposition in Abhängigkeit von mindestens einem vorgegebenen Schwellenwert berücksichtigt oder verworfen werden. Hierdurch können bestimmte relative Positionen, die mit einer Güte unterhalb des mindestens einen vorgegebenen Schwellenwertes korrespondieren, beim Bestimmen der Kameraposition und/oder der Fahrzeugposition unberücksichtigt bleiben.In one embodiment, it is provided that specific relative positions of the at least one camera to a plurality of optical markers detected in the captured image of the surroundings, based on a respective corresponding quality when determining the camera position and/or the Vehicle position are taken into account or discarded depending on at least one predetermined threshold value. As a result, certain relative positions that correspond to a quality below the at least one predefined threshold value can be ignored when determining the camera position and/or the vehicle position.
Es kann auch vorgesehen sein, dass eine Kombination aus Gewichtung und schwellenwertabhängiger Berücksichtigung verwendet wird. Beispielsweise kann vorgesehen sein, dass relative Positionen, die mit einer Güte unterhalb des vorgegebenen Schwellenwertes korrespondieren, beim Bestimmen der Kameraposition und/oder der Fahrzeugposition nicht berücksichtigt werden, wohingegen alle relativen Positionen, die mit einer Güte gleich oder oberhalb des vorgegebenen Schwellenwertes korrespondieren, gewichtet nach ihrer jeweiligen Güte berücksichtigt werden.It can also be provided that a combination of weighting and threshold-dependent consideration is used. For example, it can be provided that relative positions that correspond to a quality below the specified threshold value are not taken into account when determining the camera position and/or the vehicle position, whereas all relative positions that correspond to a quality equal to or above the specified threshold value are weighted are taken into account according to their respective quality.
In einer Ausführungsform ist vorgesehen, dass die eindeutigen optischen Marker im Umfeld als Aruco-Marker ausgebildet sind. Die Aruco-Marker weisen insbesondere vorgegebene Eigenschaften auf, insbesondere eine vorgegebene und bekannte geometrische Größe. Insbesondere werden die Aruco-Marker an senkrecht verlaufenden Wänden von Gebäuden und anderen Objekten im Umfeld angeordnet. Hierbei ist insbesondere vorgesehen, dass eine obere und eine untere Kante des Aruco-Markers horizontal angeordnet sind oder angeordnet werden.In one embodiment it is provided that the clear optical markers in the area are designed as Aruco markers. In particular, the Aruco markers have predetermined properties, in particular a predetermined and known geometric size. In particular, the Aruco markers are placed on the vertical walls of buildings and other objects in the area. It is provided in particular that an upper and a lower edge of the Aruco marker are or will be arranged horizontally.
In einer Ausführungsform ist vorgesehen, dass mindestens ein weiteres Objekt mit bekannten Eigenschaften in der erfassten Umfeldabbildung erkannt wird, wobei eine weitere relative Position der mindestens einen Kamera zum erkannten mindestens einen weiteren Objekt bestimmt wird, und wobei die bestimmte weitere relative Position beim Bestimmen der Kameraposition der mindestens einen Kamera und/oder der Fahrzeugposition des Fahrzeugs in der Karte berücksichtigt wird. Hierdurch kann das Bestimmen der Kameraposition und/oder der Fahrzeugposition weiter verbessert werden. Ausgehend von den bekannten Eigenschaften, insbesondere von geometrischen Eigenschaften, wie beispielsweise Abmessungen etc., kann eine relative Position zum erkannten weiteren Objekt bestimmt werden. Dies erfolgt ebenfalls im Koordinatensystem der Kamera unter Berücksichtigung von Kameraeigenschaften. Insbesondere ist ferner vorgesehen, dass das erkannte Objekt in der Karte gesucht und eine Position des erkannten Objektes aus der Karte abgerufen wird. Über die Position des erkannten Objekts in der Karte und die bestimmte relative Position kann dann ebenfalls eine Kameraposition der mindestens einen Kamera und/oder eine Fahrzeugposition des Fahrzeugs in der Karte bestimmt werden, welche beim Bestimmen der Kameraposition und/oder der Fahrzeugposition über die optischen Marker berücksichtigt werden kann. Ein weiteres Objekt kann beispielsweise ein Verkehrsschild, eine Brücke, ein Haus, eine Tür etc. sein. Hierbei wird insbesondere davon ausgegangen, dass eine Größe des weiteren Objektes (aus der Karte) bekannt ist, ebenso wie eine Position bzw. Pose des weiteren Objektes in der Karte.In one embodiment, it is provided that at least one other object with known properties is detected in the captured environment image, with a further relative position of the at least one camera to the detected at least one other object being determined, and with the determined further relative position when determining the camera position the at least one camera and/or the vehicle position of the vehicle in the map is taken into account. This can further improve the determination of the camera position and/or the vehicle position. Based on the known properties, in particular geometric properties such as dimensions, etc., a position relative to the other object that has been detected can be determined. This is also done in the camera's coordinate system, taking camera properties into account. In particular, it is further provided that the detected object is searched for in the map and a position of the detected object is retrieved from the map. A camera position of the at least one camera and/or a vehicle position of the vehicle on the map can then also be determined via the position of the detected object on the map and the determined relative position, which when determining the camera position and/or the vehicle position via the optical marker can be taken into account. Another object can be a traffic sign, a bridge, a house, a door, etc., for example. In this context, it is assumed in particular that a size of the further object (from the map) is known, as is a position or pose of the further object in the map.
Weitere Merkmale zur Ausgestaltung der Vorrichtung ergeben sich aus der Beschreibung von Ausgestaltungen des Verfahrens. Die Vorteile der Vorrichtung sind hierbei jeweils die gleichen wie bei den Ausgestaltungen des Verfahrens.Further features for the configuration of the device result from the description of configurations of the method. The advantages of the device are in each case the same as in the embodiments of the method.
Ferner wird insbesondere auch ein Fahrzeug geschaffen, umfassend mindestens eine Vorrichtung nach einer der beschriebenen Ausführungsformen.Furthermore, in particular, a vehicle is also created, comprising at least one device according to one of the described embodiments.
Nachfolgend wird die Erfindung anhand bevorzugter Ausführungsbeispiele unter Bezugnahme auf die Figuren näher erläutert. Hierbei zeigen:
-
1 eine schematische Darstellung einer Ausführungsform der Vorrichtung zum Lokalisieren eines Fahrzeugs in einem Umfeld; -
2 eine schematische Darstellung zur Verdeutlichung einer Ausführungsform der Vorrichtung; -
3 eine schematische Darstellung einer Ausführungsform eines eindeutigen optischen Markers (Aruco-Marker); -
4 eine schematische Darstellung zur Verdeutlichung des Bestimmens einer relativen Position in einem Koordinatensystem einer Kamera aus einer erfassten Umfeldabbildung; -
5 eine schematische Darstellung zur Verdeutlichung von Sichtstrahlen einer Kamera; -
6 ein schematisches Ablaufdiagramm einer Ausführungsform des Verfahrens zum Lokalisieren eines Fahrzeugs in einem Umfeld.
-
1 a schematic representation of an embodiment of the device for locating a vehicle in an environment; -
2 a schematic representation to illustrate an embodiment of the device; -
3 a schematic representation of an embodiment of a unique optical marker (Aruco marker); -
4 a schematic representation to clarify the determination of a relative position in a coordinate system of a camera from a captured image of the surroundings; -
5 a schematic representation to clarify visual beams of a camera; -
6 a schematic flowchart of an embodiment of the method for locating a vehicle in an environment.
In der
Die Kamera 51 ist beispielsweise eine Weitwinkelkamera oder eine Fischaugenkamera. Mittels der Kamera 51 wird eine Umfeldabbildung 10 des Umfelds erfasst. In dem Umfeld sind eindeutige optische Marker mit bekannten Eigenschaften angeordnet, beispielsweise an Gebäuden oder Einrichtungen einer Verkehrsinfrastruktur.The
Die Positionsbestimmungseinrichtung 2 ist dazu eingerichtet, in der erfassten Umfeldabbildung 10 mindestens einen im Umfeld angeordneten eindeutigen optischen Marker zu erkennen. Dies erfolgt beispielsweise mittels an sich bekannter Verfahren der Mustererkennung. Nach dem Erkennen können Bildelemente (Pixel) in der erfassten Umfeldabbildung dem optischen Marker zugeordnet werden. Insbesondere Werte und eine jeweilige Position dieser Bildelemente wird nachfolgend verarbeitet.The
Die Positionsbestimmungseinrichtung 2 liest eine Identifikationskennung des mindestens einen optischen Markers aus. Hierzu wird beispielsweise eine in dem optischen Marker kodierte Bitsequenz aus den Werten der Bildelemente bestimmt. Ausgehend von der jeweils ausgelesenen Identifikationskennung bestimmt die Positionsbestimmungseinrichtung 2 durch Vergleich eine Markerposition 20 des erkannten mindestens einen optischen Markers in einer Karte 15. Die Karte 15 ist beispielsweise in dem Speicher 4 hinterlegt. Die Markerposition 20 ist insbesondere in absoluten Koordinaten der Karte 15 angegeben, insbesondere in Koordinaten eines globalen Koordinatensystems.The
Die Positionsbestimmungseinrichtung 2 bestimmt eine relative Position 21 der mindestens einen Kamera 51 zum erkannten mindestens einen optischen Marker. Ferner bestimmt die Positionsbestimmungseinrichtung 2 eine Kameraposition 22 der mindestens einen Kamera 51 und/oder eine Fahrzeugposition 23 des Fahrzeugs 50 in der Karte 15 ausgehend von der bestimmten relativen Position 21 und der bestimmten Markerposition 20 und stellt diese bereit, beispielsweise in Form eines analogen oder digitalen Signals, beispielsweise als digitales Datenpaket.The
Die bestimmte Kameraposition 22 und/oder die bestimmte Fahrzeugposition 23 werden beispielsweise einer Navigationseinrichtung 52 des Fahrzeugs 50 als Eingangsdaten zugeführt.The specific camera position 22 and/or the specific vehicle position 23 are supplied as input data, for example, to a
Das Bestimmen der Kameraposition 22 und/oder der Fahrzeugposition 23 wird unter Berücksichtigung von Kameraeigenschaften 51-1 durchgeführt. Diese Kameraeigenschaften 51-1 können beispielsweise eine Verzerrung einer Abbildungsoptik (z.B. eines Linsensystems) etc. umfassen.The determination of the camera position 22 and/or the vehicle position 23 is carried out taking into account camera properties 51-1. These camera properties 51-1 can include, for example, a distortion of imaging optics (e.g. a lens system) etc.
Es kann vorgesehen sein, dass die relative Position 20 der mindestens einen Kamera 51 ausgehend von einer Bildelementposition des mindestens einen optischen Markers in der erfassten Umfeldabbildung 10 und bekannten geometrischen Eigenschaften des mindestens einen optischen Markers bestimmt wird.Provision can be made for the
Insbesondere ist vorgesehen, dass die eindeutigen optischen Marker im Umfeld als Aruco-Marker ausgebildet sind.In particular, it is provided that the clear optical markers in the area are designed as Aruco markers.
Es kann vorgesehen sein, dass die Kameraeigenschaften 51-1 eine Unterteilung eines Sichtbereichs der Kamera 51 in Bereiche 12-x unterschiedlicher Güte 13 umfassen, wobei die Güte 13 beim Bestimmen der relativen Position 21 der mindestens einen Kamera 51 und/oder beim Bestimmen der Kameraposition 22 und/oder der Fahrzeugposition 23 berücksichtigt wird. Diese Ausführungsform ist in
Es kann vorgesehen sein, dass die Güte 13 eines jeweiligen Bereiches 12-x des Sichtbereichs der Kamera 51 empirisch bestimmt wird oder bestimmt ist. Dies kann insbesondere im Rahmen einer Kalibrierung der Kamera 51 erfolgen.It can be provided that the
Es kann vorgesehen sein, dass bestimmte relative Positionen 21 der Kamera 51 zu mehreren in der erfassten Umfeldabbildung 10 (
Es kann vorgesehen sein, dass bestimmte relative Positionen 21 der Kamera 51 zu mehreren in der erfassten Umfeldabbildung 10 erfassten optische Markern ausgehend von einer jeweils hiermit korrespondierenden Güte 13 beim Bestimmen der Kameraposition 22 und/oder der Fahrzeugposition 23 in Abhängigkeit von mindestens einem vorgegebenen Schwellenwert 16 berücksichtigt oder verworfen werden. Insbesondere wird die Güte 13, die mit einer bestimmten relativen Position 21 korrespondiert, mit dem Schwellenwert 16 verglichen. Erreicht oder überschreitet die Güte 13 den Schwellenwert 16, so wird die relative Position 21 (in einigen Ausführungsformen gewichtet) berücksichtigt, anderenfalls wird die relative Position 21 nicht berücksichtigt und verworfen.It can be provided that certain
Es kann vorgesehen sein, dass mindestens ein weiteres Objekt mit bekannten Eigenschaften in der erfassten Umfeldabbildung 10 erkannt wird, wobei eine weitere relative Position 30 (
In der
In der
In dem Modell werden die folgenden Annahmen gemacht: Ein Spiegel-Kamera-System 60 ist ein zentrales System, das heißt, es existiert ein Punkt im Spiegel 61, durch den jeder reflektierte Strahl verläuft (Aussichtspunkt O). Dieser Punkt bildet den Ursprung des Kamerakoordinatensystems mit den Koordinaten x, y und z. Eine Kameraachse und eine Spiegelachse sind aufeinander ausgerichtet, das heißt, nur kleine Abweichungen der Rotation werden in dem Modell berücksichtigt. Der Spiegel 61 ist rotationssymmetrisch in Bezug auf seine Achse. Eine Linsenverzerrung der Kamera 51 ist im Modell nicht berücksichtigt. Bei Fischaugenlinsen kann eine Kameralinsenverzerrung in einer nachfolgend eingeführten Projektionsfunktion f integriert werden.In the model, the following assumptions are made: A mirror-
Unter der Annahme, dass eine Kameraachse und eine Spiegelachse aufeinander ausgerichtet sind, gilt:
Der Vorfaktor α kann in die Funktion ƒ hineingezogen werden, sodass sich folgender Ausdruck ergibt:
Hierbei gilt es zu berücksichtigen, dass P kein dreidimensionaler Punkt ist, sondern ein Vektor, daher ist eine solche Vereinfachung erlaubt. Da der Spiegel 61 rotationssymmetrisch ist, ist die Funktion ƒ(u, v) nur von einem Abstand ρ eines Punktes zum Bildmittelpunkt 11 abhängig:
Hiermit ergibt sich:
Zum Kalibrieren wird die Funktion ƒ(ρ) benötigt. Hierzu kann beispielsweise ein Polynom verwendet werden, dessen Koeffizienten im Rahmen einer (empirischen) Kalibrierung bestimmt werden:
Mit Hilfe des kalibrierten Modells kann eine relative Position eines optischen Markers bestimmt ausgehend von einer erfassten Umfeldabbildung 10 werden.A relative position of an optical marker can be determined with the aid of the calibrated model, starting from a captured
Es kann sein, dass die Kameraachse und die Spiegelachse nicht perfekt aufeinander ausgerichtet sind. Ferner kann es sein, dass die Bildelemente beim Erfassen nicht quadratisch sind. Dies führt dazu, dass ein runder Rand des Spiegels 61 als Ellipse erscheint. Um dies zu berücksichtigen, können die fehlerhafte Ausrichtung und Digitalisierungsartefakte berücksichtigt werden durch eine affine Transformation, mit den Parametern c, d, e, l und c', welche ebenfalls im Rahmen einer Kalibrierung der Kamera 51 (bzw. des Spiegel-Kamera-Systems 60) bestimmt werden können:
Diese Gleichung verknüpft die verzerrten Koordinaten (u', v') mit den idealen unverzerrten Koordinaten (u, v).This equation relates the distorted coordinates (u',v') to the ideal undistorted coordinates (u,v).
In
In
In einer Maßnahme 100 wird eine Umfeldabbildung des Umfelds mittels mindestens einer Kamera erfasst.In a
In einer Maßnahme 101 wird in der erfassten Umfeldabbildung mindestens ein optischer Marker erkannt. Sind mehrere optische Marker vorhanden, werden sämtliche optischen Marker erkannt.In a
In einer Maßnahme 102 wird eine Identifikationskennung des mindestens einen optischen Markers ausgelesen. Wurden mehrere optische Marker erkannt, so erfolgt dies für sämtliche erkannten optischen Marker.In a
In einer Maßnahme 103 wird eine Markerposition des erkannten mindestens einen optischen Markers ausgehend von der jeweils ausgelesenen Identifikationskennung in einer Karte bestimmt. Bei mehreren erkannten optischen Markern erfolgt dies für alle erkannten optischen Marker.In a
In einer Maßnahme 104 wird eine relative Position der mindestens einen Kamera zum erkannten mindestens einen optischen Marker bestimmt. Anders ausgedrückt wird eine Position des mindestens einen optischen Markers im Koordinatensystem der mindestens einen Kamera bestimmt. Wurden mehrere optische Marker erkannt, so erfolgt dies für alle erkannten optischen Marker. Bei mehreren Kameras erfolgt dies jeweils für jede der mehreren Kameras.In a
In einer Maßnahme 105 wird eine Kameraposition der mindestens einen Kamera und/oder eine Fahrzeugposition des Fahrzeugs in der Karte ausgehend von der bestimmten relativen Position und der bestimmten Markerposition bestimmt und bereitgestellt, wobei das Bestimmen der Kameraposition und/oder der Fahrzeugposition unter Berücksichtigung von Kameraeigenschaften erfolgt. Wurden mehrere optische Marker erkannt, so können die mehreren optischen Marker in Abhängigkeit einer mit Bildbereichen in der erfassten Umfeldabbildung, in denen die Marker erkannt wurden, korrespondierende Güten berücksichtigt werden, beispielsweise durch eine güteabhängige Gewichtung und/oder eine güteabhängige Auswahl der mehreren optischen Marker.In a
In einer Maßnahme 106 kann die bestimmte Kameraposition und/oder die bestimmte Fahrzeugposition beispielsweise einer Navigationseinrichtung des Fahrzeugs zugeführt werden.In a
Es kann vorgesehen sein, dass das Verfahren fortlaufend wiederholt wird, sodass eine Lokalisierung stets in Abhängigkeit eines aktuellen Umfelds erfolgen kann.Provision can be made for the method to be repeated continuously, so that localization can always take place depending on the current environment.
Bezugszeichenlistereference list
- 11
- Vorrichtungcontraption
- 22
- Positionsbestimmungseinrichtungpositioning device
- 33
- Recheneinrichtungcomputing device
- 44
- SpeicherStorage
- 1010
- erfasste Umfeldabbildungcaptured environment mapping
- 1111
- Bildmittelpunktcenter of the picture
- 12-x12-x
- Bereich (Sichtbereich Kamera)Range (camera field of view)
- 1313
- Gütequality
- 1515
- KarteMap
- 1616
- Schwellenwertthreshold
- 2020
- Markerpositionmarker position
- 2121
- relative Positionrelative position
- 2222
- Kamerapositioncamera position
- 2323
- Fahrzeugpositionvehicle position
- 3030
- weitere relative Position (weiteres Objekt)further relative position (further object)
- 4040
- optischer Markeroptical marker
- 4141
- Identifikationskennungidentifier
- 4242
- Abmessungdimension
- 5050
- Fahrzeugvehicle
- 5151
- Kameracamera
- 51-151-1
- Kameraeigenschaftencamera properties
- 5252
- Navigationseinrichtungnavigation device
- 6060
- Spiegel-Kamera-Systemmirror camera system
- 6161
- Spiegelmirror
- 6262
- Sichtstrahlvisual beam
- 6363
- Vektorvector
- 100-106100-106
- Maßnahmen des VerfahrensMeasures of the procedure
- OO
- Aussichtspunktvantage point
- pp
- PunktPoint
- PP
- Vektorvector
- u, vu, v
- Koordinaten eines BildelementsCoordinates of an image element
- x,y,zx,y,z
- Koordinaten (Kamerakoordinatensystem)Coordinates (camera coordinate system)
Claims (9)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021207180.5A DE102021207180B3 (en) | 2021-07-07 | 2021-07-07 | Method and device for locating a vehicle in an environment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021207180.5A DE102021207180B3 (en) | 2021-07-07 | 2021-07-07 | Method and device for locating a vehicle in an environment |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102021207180B3 true DE102021207180B3 (en) | 2022-12-15 |
Family
ID=84192793
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102021207180.5A Active DE102021207180B3 (en) | 2021-07-07 | 2021-07-07 | Method and device for locating a vehicle in an environment |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102021207180B3 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009098319A2 (en) | 2008-02-09 | 2009-08-13 | Trw Limited | Navigational device for a vehicle |
DE102014002150B3 (en) | 2014-02-15 | 2015-07-23 | Audi Ag | Method for determining the absolute position of a mobile unit and mobile unit |
WO2018044191A1 (en) | 2016-08-31 | 2018-03-08 | Limited Liability Company "Topcon Positioning Systems" | Apparatus and method for providing vehicular positioning |
DE102017123515B4 (en) | 2017-08-03 | 2019-08-14 | Neusoft Corporation | Method, device, storage medium and program product for lateral vehicle position determination |
DE102018210765A1 (en) | 2018-06-29 | 2020-01-02 | Volkswagen Aktiengesellschaft | Localization system and method for operating the same |
US20210017859A1 (en) | 2019-07-18 | 2021-01-21 | Commonwealth Scientific And Industrial Research Organisation | Machine guidance integration |
CN112304305A (en) | 2020-10-31 | 2021-02-02 | 中环曼普科技(南京)有限公司 | Vehicle initial positioning method and system combined with marker image |
-
2021
- 2021-07-07 DE DE102021207180.5A patent/DE102021207180B3/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009098319A2 (en) | 2008-02-09 | 2009-08-13 | Trw Limited | Navigational device for a vehicle |
DE102014002150B3 (en) | 2014-02-15 | 2015-07-23 | Audi Ag | Method for determining the absolute position of a mobile unit and mobile unit |
WO2018044191A1 (en) | 2016-08-31 | 2018-03-08 | Limited Liability Company "Topcon Positioning Systems" | Apparatus and method for providing vehicular positioning |
DE102017123515B4 (en) | 2017-08-03 | 2019-08-14 | Neusoft Corporation | Method, device, storage medium and program product for lateral vehicle position determination |
DE102018210765A1 (en) | 2018-06-29 | 2020-01-02 | Volkswagen Aktiengesellschaft | Localization system and method for operating the same |
US20210017859A1 (en) | 2019-07-18 | 2021-01-21 | Commonwealth Scientific And Industrial Research Organisation | Machine guidance integration |
CN112304305A (en) | 2020-10-31 | 2021-02-02 | 中环曼普科技(南京)有限公司 | Vehicle initial positioning method and system combined with marker image |
Non-Patent Citations (1)
Title |
---|
SCARAMUZZA, Davide: Omnidirectional vision: from calibration to robot motion estimation. DISS. ETH NO. 17635. Zürich, CH : Eidgenössische Techn. Hochschule, 2007. DOI: 10.3929/ethz-a-005567197. URL: https://www.research-collection.ethz.ch/bitstream/handle/20.500.11850/14333/eth-30301-02.pdf?sequence=2&isAllowed=y [abgerufen am 2021-08-04]. |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3105547B1 (en) | Method for determining the absolute position of a mobile unit, and mobile unit | |
DE102004010197B4 (en) | Method for checking the function of a position-finding or environment detection device of a vehicle or for controlling a digital map | |
DE102015203016B4 (en) | Method and device for optical self-localization of a motor vehicle in an environment | |
DE112008004291B4 (en) | Motion state estimator | |
DE102014206704B4 (en) | UPDATE THE CALIBRATION OF A TRAFFIC CAMERA USING A SCENE ANALYSIS | |
DE10228638A1 (en) | Vehicle zone monitoring apparatus for detecting physical body present in vicinity of vehicle, has CPU that identifies whether object indicated in image obtained from cameras is artificial structure | |
DE102004018813A1 (en) | Method for detecting and / or tracking objects | |
DE102009048699A1 (en) | Travel's clear path detection method for motor vehicle i.e. car, involves monitoring images, each comprising set of pixels, utilizing texture-less processing scheme to analyze images, and determining clear path based on clear surface | |
DE102013209415A1 (en) | Dynamic Note Overlay with Image Pruning | |
EP2396746A2 (en) | Method for detecting objects | |
DE102011111440A1 (en) | Method for representation of environment of vehicle, involves forming segments of same width from image points of equal distance in one of image planes, and modeling objects present outside free space in environment | |
DE102015115012A1 (en) | Method for generating an environment map of an environment of a motor vehicle based on an image of a camera, driver assistance system and motor vehicle | |
DE102017218366A1 (en) | METHOD AND PEDESTRIAN DETECTION APPROACH IN A VEHICLE | |
DE102018111935A1 (en) | Image processing system, image processing method, information processing apparatus and recording medium | |
DE102014212866A1 (en) | Method for determining a parking space from a number of measuring points | |
DE102015211874A1 (en) | Object detection device | |
DE102006044615A1 (en) | Image capturing device calibrating method for vehicle, involves locating objects in vehicle surrounding based on image information detected by image capturing device, and evaluating geometrical relations of objects | |
DE102015211871A1 (en) | Object detection device | |
DE112014006493T5 (en) | Determine a scale of three-dimensional information | |
DE102016106978A1 (en) | Method for operating a driver assistance system of a motor vehicle, computing device, driver assistance system and motor vehicle | |
DE102021206075A1 (en) | Vehicle localization as a ride-sharing option and occupant identification for autonomous vehicles | |
DE102007015552B3 (en) | Self-propelled automotive robot for e.g. treatment of floor space, has lenses and mirrors spaced apart from each other in horizontal direction to guide environment image to image halves of camera module | |
DE102021207180B3 (en) | Method and device for locating a vehicle in an environment | |
DE102008050456B4 (en) | Method and apparatus for lane detection | |
DE102019209473A1 (en) | Method and device for the rapid detection of repetitive structures in the image of a street scene |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final |