DE102018209366B4 - Method for determining a position and / or orientation of a device - Google Patents

Method for determining a position and / or orientation of a device Download PDF

Info

Publication number
DE102018209366B4
DE102018209366B4 DE102018209366.0A DE102018209366A DE102018209366B4 DE 102018209366 B4 DE102018209366 B4 DE 102018209366B4 DE 102018209366 A DE102018209366 A DE 102018209366A DE 102018209366 B4 DE102018209366 B4 DE 102018209366B4
Authority
DE
Germany
Prior art keywords
orientation
dimensional
dimensional structure
marking element
environmental data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102018209366.0A
Other languages
German (de)
Other versions
DE102018209366A1 (en
Inventor
Karsten Berger
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Original Assignee
Audi AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG filed Critical Audi AG
Priority to DE102018209366.0A priority Critical patent/DE102018209366B4/en
Publication of DE102018209366A1 publication Critical patent/DE102018209366A1/en
Application granted granted Critical
Publication of DE102018209366B4 publication Critical patent/DE102018209366B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Automation & Control Theory (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Verfahren zur Bestimmung einer Position (7) und/oder Orientierung (6) einer Einrichtung (1), insbesondere eines Kraftfahrzeugs, wobei durch ein Erfassungsmittel (4) der Einrichtung (1) Umgebungsdaten erfasst werden, die ein in dem Umfeld der Einrichtung (1) angeordnetes Markierungselement (3) abbilden, wobei die Umgebungsdaten durch einen Verarbeitungsalgorithmus verarbeitet werden, um die relative Position (7) und/oder Orientierung (6) der Einrichtung (1) bezüglich des Markierungselements (3) zu bestimmen, wobei die Umgebungsdaten eine zweidimensionale Oberfläche (24) des Markierungselements (3), die für wenigstens zwei unterschiedliche Orientierungen (18, 19) der Oberfläche (24) bezüglich des Erfassungsmittels (4) mit voneinander unterschiedlichen Texturen (25, 26) abgebildet wird, die jeweils eine Abbildung des gleichen dreidimensionalen Musters aus einer der jeweiligen Orientierung (18, 19) zugeordneten Perspektive sind, und/oder eine dreidimensionale Struktur des Markierungselements (3) abbilden und der Verarbeitungsalgorithmus die Position (7) und/oder Orientierung (6) der Einrichtung (6) in Abhängigkeit der Textur (25, 26) und/oder der Abbildung der dreidimensionalen Struktur ermittelt, wobei in den Umgebungsdaten wenigstens zwei Teilstrukturen (15, 16, 17) der dreidimensionalen Struktur oder des dreidimensionalen Musters und/oder die Verdeckung wenigstens eines Abschnitts (13) einer ersten Teilstruktur (12) der dreidimensionalen Struktur oder des dreidimensionalen Musters durch wenigstens eine zweite Teilstruktur (11) der dreidimensionalen Struktur oder des dreidimensionalen Musters erkannt werden, wobei die Position (7) und/oder Orientierung (6) der Einrichtung (1) in Abhängigkeit der relativen Position der Teilstrukturen (15, 16, 17) oder der Verdeckung ermittelt wird.Method for determining a position (7) and / or orientation (6) of a device (1), in particular a motor vehicle, environmental data which are recorded in the environment of the device (1 ) arranged marker element (3), the environmental data being processed by a processing algorithm in order to determine the relative position (7) and / or orientation (6) of the device (1) with respect to the marker element (3), the environmental data being a two-dimensional one Surface (24) of the marking element (3) which is mapped for at least two different orientations (18, 19) of the surface (24) with respect to the detection means (4) with different textures (25, 26), each of which is an image of the same three-dimensional pattern from a perspective assigned to the respective orientation (18, 19), and / or a three-dimensional structure of the marking element map ts (3) and the processing algorithm determines the position (7) and / or orientation (6) of the device (6) depending on the texture (25, 26) and / or the mapping of the three-dimensional structure, with at least two in the environmental data Substructures (15, 16, 17) of the three-dimensional structure or the three-dimensional pattern and / or the at least one section (13) of a first substructure (12) of the three-dimensional structure or the three-dimensional pattern is covered by at least a second substructure (11) of the three-dimensional structure or the three-dimensional pattern can be detected, the position (7) and / or orientation (6) of the device (1) being determined as a function of the relative position of the substructures (15, 16, 17) or of the masking.

Description

Die Erfindung betrifft ein Verfahren zur Bestimmung einer Position und/oder Orientierung einer Einrichtung, insbesondere eines Kraftfahrzeugs, wobei durch ein Erfassungsmittel der Einrichtung Umgebungsdaten erfasst werden, die ein in dem Umfeld der Einrichtung angeordnetes Markierungselement abbilden, wobei die Umgebungsdaten durch einen Verarbeitungsalgorithmus verarbeitet werden, um die relative Position und/oder Orientierung der Einrichtung bezüglich des Markierungselements zu bestimmen. Daneben betrifft die Erfindung ein Markierungselement und ein Kraftfahrzeug.The invention relates to a method for determining a position and / or orientation of a device, in particular a motor vehicle, wherein environmental data are captured by a detection means of the device, which represent a marking element arranged in the environment of the device, the environmental data being processed by a processing algorithm, to determine the relative position and / or orientation of the device with respect to the marking element. In addition, the invention relates to a marking element and a motor vehicle.

Eine automatisierte Führung von beweglichen Einrichtungen, insbesondere von Kraftfahrzeugen, gewinnt zunehmend an Relevanz. Hierbei kann die Robustheit der Führung deutlich erhöht werden, wenn Marker genutzt werden, die bestimmte Positionen und/oder Orientierungen kennzeichnen. Durch eine Erfassungseinrichtung können solche Marker erfasst werden, um mit hoher Genauigkeit die Position bzw. Orientierung der Einrichtung zu bestimmen und somit beispielsweise eine hochgenaue Führung zu einer bestimmten Sollposition, beispielsweise zu einer Parkposition, eine Ladeplatte oder Ähnlichem, zu realisieren. Problematisch ist hierbei, dass zur ausreichend genauen Bestimmung einer Position bzw. Orientierung typischerweise wenigstens zwei Marker zur gleichen Zeit erfasst werden müssen. Hierdurch ist der Aufwand zur Führung von Einrichtungen bzw. Kraftfahrzeugen durch entsprechende Marker deutlich erhöht.Automated management of moving devices, especially motor vehicles, is becoming increasingly relevant. Here, the robustness of the guidance can be increased significantly if markers are used which identify certain positions and / or orientations. Such markers can be detected by a detection device in order to determine the position or orientation of the device with high accuracy and thus, for example, to implement highly precise guidance to a specific desired position, for example to a parking position, a loading plate or the like. The problem here is that in order to determine a position or orientation with sufficient accuracy, at least two markers typically have to be recorded at the same time. As a result, the effort for guiding facilities or motor vehicles is significantly increased by appropriate markers.

Alternativ hierzu können natürliche Markierungen in der Umgebung genutzt werden. Ein derartiges Vorgehen ist beispielsweise aus den Druckschriften DE 10 2015 220 831 A1 und WO 2010/141209 A1 bekannt. Hierzu ist es jedoch erforderlich, die Positionen entsprechender Landmarken zunächst mit ausreichender Genauigkeit zu kartographieren, wodurch auch hierbei ein relativ großer Aufwand resultiert.Alternatively, natural markings in the area can be used. Such a procedure is, for example, from the publications DE 10 2015 220 831 A1 and WO 2010/141209 A1 known. To do this, however, it is first necessary to map the positions of corresponding landmarks with sufficient accuracy, which also results in a relatively large outlay.

Die Druckschrift DE 10 2013 110 785 A1 offenbart ein Positionierungsverfahren für die Positionierung eines Mobilgerätes relativ zu einem Sicherheitsmerkmal eines Dokuments. Hierbei wird die Ist-Position des Mobilgeräts bezüglich des Dokuments anhand einer perspektivischen Verzerrung eines Dokumentmerkmals ermittelt und die Position eines Sicherheitsmerkmals bestimmt. Das Sicherheitsmerkmal kann beispielsweise ein Hologramm sein. Zur Validierung des Hologramms kann das Mobilgerät mit Hilfe eines Führungsansatzes, der auf Kimme und Korn und einem virtuellen Horizont basiert, derart positioniert werden, dass eine Ansicht des Hologramms abgebildet wird, die mit einer voraufgenommenen Ansicht übereinstimmt.The publication DE 10 2013 110 785 A1 discloses a positioning method for positioning a mobile device relative to a security feature of a document. The actual position of the mobile device with respect to the document is determined on the basis of a perspective distortion of a document feature and the position of a security feature is determined. The security feature can be a hologram, for example. To validate the hologram, the mobile device can be positioned with the aid of a guiding approach, which is based on the rear sight and grain and a virtual horizon, in such a way that a view of the hologram is shown that corresponds to a pre-recorded view.

Ein Verfahren zur Ermittlung einer Eigenposition des Kraftfahrzeugs ist aus der Druckschrift US 2017/0016740 A1 bekannt. Hierbei werden in Bilddaten einer Kamera Landmarken erkannt, die in digitalen Kartendaten gespeichert sind. Da die Höhen, Größen, Formen und Ähnliches der Landmarken bekannt sind, können die in Bilddaten erkannten Landmarken zur Abstandsbestimmung genutzt werden.A method for determining an own position of the motor vehicle is from the document US 2017/0016740 A1 known. In this case, landmarks are recognized in image data from a camera and are stored in digital map data. Since the heights, sizes, shapes and the like of the landmarks are known, the landmarks recognized in image data can be used to determine the distance.

Aus der Dissertation von T. Kühnl, Road Terrain Detection for Advanced Driver Assistance Systems, Universität Bielefeld, 2013, ist es bekannt, eine durch Maschinenlernen trainierte Merkmalserkennung zu nutzen, um Bildpunkte einer Kamera einer bestimmten Fahrspur zuzuordnen. Dies kann dazu verwendet werden, eine durch das eigene Fahrzeug genutzte Spur zu ermitteln.From the dissertation by T. Kühnl, Road Terrain Detection for Advanced Driver Assistance Systems, Bielefeld University, 2013, it is known to use feature recognition trained by machine learning in order to assign pixels to a camera to a specific lane. This can be used to determine a lane used by your own vehicle.

Der Erfindung liegt somit die Aufgabe zugrunde, eine demgegenüber verbesserte Möglichkeit zur Positions- bzw. Orientierungsbestimmung anzugeben, die insbesondere auch mit wenigen oder einem einzigen Markierungselement eine gute Genauigkeit bei der Bestimmung der Position bzw. Orientierung der Einrichtung erreicht.The invention is therefore based on the object of specifying an improved way of determining position or orientation, which in particular achieves good accuracy in determining the position or orientation of the device even with a few or a single marking element.

Die Aufgabe wird erfindungsgemäß durch ein Verfahren der eingangs genannten Art gelöst, wobei einerseits die Umgebungsdaten eine zweidimensionale Oberfläche des Markierungselements, die für wenigstens zwei unterschiedliche Orientierungen der Oberfläche bezüglich des Erfassungsmittels mit voneinander unterschiedlichen Texturen abgebildet wird, die jeweils eine Abbildung des gleichen dreidimensionalen Musters aus einer der jeweiligen Orientierung zugeordneten Perspektive sind, und/oder eine dreidimensionale Struktur des Markierungselements abbilden und der Verarbeitungsalgorithmus die Position und/oder Orientierung der Einrichtung in Abhängigkeit der Textur und/oder der Abbildung der dreidimensionalen Struktur ermittelt, wobei in den Umgebungsdaten wenigstens zwei Teilstrukturen der dreidimensionalen Struktur oder des dreidimensionalen Musters und/oder die Verdeckung wenigstens eines Abschnitts einer ersten Teilstruktur der dreidimensionalen Struktur oder des dreidimensionalen Musters durch wenigstens eine zweite Teilstruktur der dreidimensionalen Struktur oder des dreidimensionalen Musters erkannt werden, wobei die Position und/oder Orientierung der Einrichtung in Abhängigkeit der relativen Position der Teilstrukturen oder der Verdeckung ermittelt wird. Der Verarbeitungsalgorithmus kann durch mehrere Verarbeitungsparameter parametrisiert werden, die im Rahmen eines Verfahrens des Maschinenlernens ermittelt werden oder sind.The object is achieved according to the invention by a method of the type mentioned at the outset, on the one hand the environmental data being a two-dimensional surface of the marking element, which is mapped with at least two different orientations of the surface with respect to the detection means with textures different from one another, each representing an image of the same three-dimensional pattern a perspective assigned to the respective orientation, and / or depict a three-dimensional structure of the marking element and the processing algorithm determines the position and / or orientation of the device as a function of the texture and / or the mapping of the three-dimensional structure, with at least two partial structures of the three-dimensional structure or the three-dimensional pattern and / or the masking of at least a portion of a first partial structure of the three-dimensional structure or the three-dimensional pattern du rch can be recognized by at least a second substructure of the three-dimensional structure or the three-dimensional pattern, the position and / or orientation of the device being determined as a function of the relative position of the substructures or the concealment. The processing algorithm can be parameterized by means of several processing parameters that are or are determined as part of a machine learning process.

Im Rahmen der Erfindung wurde erkannt, dass durch Nutzung von dreidimensionalen Strukturen an Markierungselementen, also beispielsweise von Vorsprüngen oder Ausnehmungen, bzw. von Oberflächen, die blickwinkelabhängig verschiedene Texturen zeigen, also beispielsweise von Hologrammen oder durch Linsenraster bzw. Parallaxbarrieren gebildeten „Kippbildern“, eine relative Position und Orientierung des Erfassungsmittels und somit der Einrichtung bezüglich des Markierungselements besonders einfach ermittelt werden kann. Bei einer Nutzung von rein zweidimensionalen Markierungen tritt das Problem auf, dass eine relative Orientierung von Erfassungsmittel und Markierung nur aufgrund einer Stauchung der abgebildeten Markierung erkannt werden kann. Somit kann es in einigen Anwendungsfällen schwierig sein eine reine Skalierung der Markierung aufgrund einer Abstandsänderung und eine Stauchung aufgrund einer Orientierungsänderung zu unterscheiden. Daher werden im Stand der Technik mehrere Markierungen genutzt, um eine Position und Orientierung einer Einrichtung bezüglich dieser Markierungen zu bestimmen. Durch die Nutzung von blickwinkelabhängigen Texturen bzw. die Nutzung dreidimensionaler Strukturen kann zwischen diesen Fällen unterschieden werden, womit die Nutzung eines einzelnen Markierungselements ausreichend sein kann, um die Position bzw. Orientierung der Einrichtung mit ausreichender Genauigkeit zu bestimmen.Within the scope of the invention it was recognized that by using three-dimensional structures on marking elements, ie For example, of projections or recesses, or of surfaces that show different textures depending on the viewing angle, for example of holograms or “tilting images” formed by lenticular screens or parallax barriers, a relative position and orientation of the detection means and thus the device with respect to the marking element can be determined particularly easily can. When using purely two-dimensional markings, the problem arises that a relative orientation of the detection means and the marking can only be recognized due to a compression of the depicted marking. Thus, in some applications it can be difficult to distinguish between a pure scaling of the marking due to a change in distance and a compression due to a change in orientation. Therefore, several markings are used in the prior art to determine a position and orientation of a device with respect to these markings. By using viewpoint-dependent textures or by using three-dimensional structures, a distinction can be made between these cases, whereby the use of a single marking element can be sufficient to determine the position or orientation of the device with sufficient accuracy.

Ergänzend kann die Positions- bzw. Orientierungsbestimmung auch dadurch verbessert werden, dass diese Größen mit einem Verfahren des Maschinenlernens ermittelt werden. Dies kann in Verbindung mit dem vorangehend erläuterten Markierungselement mit dreidimensionaler Struktur bzw. mit orientierungsabhängiger Textur genutzt werden, Verfahren des Maschinenlernens können bei ausreichendem Training jedoch auch eine gute Genauigkeit der Positions- bzw. Orientierungsbestimmung erreichen, wenn nur ein zweidimensionaler Marker mit fester Textur genutzt wird. In diesem Fall kann das Markierungselement bzw. die Textur vorzugsweise eine vorgegebene Abmessung, insbesondere eine vorgegebene Länge und Breite, aufweisen, um eine robuste Bestimmung der Position und/oder Orientierung zu ermöglichen. Beispielsweise kann das Markierungselement die gleichen Abmessungen aufweisen, wie das zum Training des Verarbeitungsalgorithmus genutzte Markierungselement. Hierbei können Markierungselemente mit voneinander verschiedenen Abmessungen genutzt werden, wenn jeder Abmessung, also z.B. jedem Paar aus Länge und Breite, eine eindeutige Textur zugeordnet ist, sodass durch Erkennung der Textur die vorgegebenen Abmessungen bekannt sind. Die Abmessungen müssen durch den Verarbeitungsalgorithmus nicht explizit ermittelt werden, sondern der Zusammenhang zwischen Textur und Abmessung der Textur bzw. des Markierungselements in den erfassten Umgebungsdaten einerseits und der Position und/oder Orientierung andererseits kann durch den Verarbeitungsalgorithmus direkt erlernt werden.In addition, the position or orientation determination can also be improved by determining these variables using a machine learning method. This can be used in conjunction with the above-described marking element with a three-dimensional structure or with an orientation-dependent texture, but methods of machine learning can also achieve good accuracy in determining the position or orientation with sufficient training if only a two-dimensional marker with a fixed texture is used . In this case, the marking element or the texture can preferably have a predetermined dimension, in particular a predetermined length and width, in order to enable a robust determination of the position and / or orientation. For example, the marking element can have the same dimensions as the marking element used to train the processing algorithm. Here, marking elements with different dimensions can be used if each dimension, e.g. a unique texture is assigned to each pair of length and width, so that the given dimensions are known by recognizing the texture. The dimensions do not have to be determined explicitly by the processing algorithm, but the relationship between texture and dimension of the texture or the marking element in the recorded environmental data on the one hand and the position and / or orientation on the other hand can be learned directly by the processing algorithm.

Die Umgebungsdaten können durch das Erfassungsmittel zweidimensional erfasst werden. Beispielsweise können die Umgebungsdaten durch eine Kamera erfasst werden. Die Position bzw. Orientierung wird insbesondere aus einem einzelnen Bild der Kamera ermittelt. Alternativ wäre es möglich, die Umgebungsdaten derart zu erfassen, dass sie eine Tiefeninformation zu einzelnen Bildpunkten umfassen. Beispielsweise kann eine Time-of-flight-Kamera, ein Laserscanner oder Ähnliches genutzt werden. Ist eine solche Tiefeninformation vorhanden und wird ein Markierungselement mit dreidimensionaler Struktur genutzt, kann die relative Position und Orientierung mit besonders hoher Genauigkeit und/oder besonders einfach bestimmt werden.The environmental data can be acquired two-dimensionally by the acquisition means. For example, the environmental data can be captured by a camera. The position or orientation is determined in particular from a single image of the camera. Alternatively, it would be possible to record the environmental data in such a way that they include depth information on individual pixels. For example, a time-of-flight camera, a laser scanner or the like can be used. If such depth information is available and a marking element with a three-dimensional structure is used, the relative position and orientation can be determined with particularly high accuracy and / or particularly easily.

Die unterschiedlichen Texturen können durch ein Hologramm oder ein Linsenraster oder eine Parallaxbarriere des Markierungselements erzeugt werden. Das Markierungselement kann beispielsweise ausschließlich aus einem Hologramm bestehen oder es kann eine Halterung umfassen, die ein Hologramm haltert. Durch Anordnung eines Linsenrasters oder einer Parallaxbarriere von einer entsprechenden Abbildung kann eine blickwinkelabhängige Bilddarstellung erreicht werden. Als Textur kann insbesondere ein blickwinkelabhängiges Bild auf der Oberfläche dargestellt werden. Prinzipiell kann es sich bei den verschiedenen Texturen um vollständig unterschiedliche Bilder handeln, so dass beispielsweise verschiedene Musterungen oder verschiedene geometrische Formen für verschiedene Blickwinkel dargestellt werden. Dies ermöglicht eine besonders einfache Unterscheidung zwischen den einzelnen Bildern und somit zwischen den einzelnen Blickrichtungen, wobei jedoch typischerweise eine relativ grobe Winkelabstufung erreicht wird.The different textures can be generated by a hologram or a lenticular screen or a parallax barrier of the marking element. The marking element can, for example, consist exclusively of a hologram, or it can comprise a holder which holds a hologram. By arranging a lenticular grid or a parallax barrier from a corresponding image, a viewing angle-dependent image display can be achieved. In particular, an image that is dependent on the viewing angle can be represented on the surface as the texture. In principle, the different textures can be completely different images, so that, for example, different patterns or different geometric shapes are shown for different angles. This enables a particularly simple distinction between the individual images and thus between the individual viewing directions, but typically a relatively coarse angle gradation is achieved.

Es ist auch möglich, dass die für die verschiedenen Orientierungen der Oberfläche bezüglich des Erfassungsmittels abgebildeten Texturen jeweils eine Abbildung des gleichen dreidimensionalen Musters aus einer der jeweiligen Orientierung zugeordneten Perspektive sind. Dies kann insbesondere erreicht werden, indem die Texturen durch Nutzung eines Hologramms erzeugt werden. In diesem Fall verhält sich die Oberfläche bezüglich einer Abbildung im Wesentlichen so, als wäre das dreidimensionale Muster eine tatsächlich im Bereich der Oberfläche angeordnete dreidimensionale Struktur. Somit können die im Folgenden noch genauer erläuterten Ansätze zur Auswertung von erfassten dreidimensionalen Strukturen zur Bestimmung der Position und Orientierung auch für derartige blickwinkelabhängige Texturen genutzt werden.It is also possible that the textures mapped for the different orientations of the surface with respect to the detection means are each an image of the same three-dimensional pattern from a perspective assigned to the respective orientation. This can be achieved in particular by generating the textures using a hologram. In this case, the surface essentially behaves as if the three-dimensional pattern was a three-dimensional structure that is actually arranged in the region of the surface. The approaches for evaluating detected three-dimensional structures for determining the position and orientation, which are explained in more detail below, can thus also be used for such viewing angle-dependent textures.

In den Umgebungsdaten werden wenigstens zwei Teilstrukturen der dreidimensionalen Struktur oder des dreidimensionalen Musters und/oder die Verdeckung wenigstens eines Abschnitts einer ersten Teilstruktur der dreidimensionalen Struktur oder des dreidimensionalen Musters durch wenigstens eine zweite Teilstruktur der dreidimensionalen Struktur oder des dreidimensionalen Musters erkannt, wobei die Position und/oder Orientierung der Einrichtung in Abhängigkeit der relativen Position der Teilstrukturen oder der Verdeckung ermittelt wird. Hierbei wird ausgenutzt, dass bei dreidimensionalen Oberflächen, insbesondere Oberflächen mit Vorsprüngen oder Vertiefungen, die insbesondere steile Wände aufweisen, vorspringende Teile der Struktur je nach Blickwinkel verschiedene Teile der weiter hintenliegenden Struktur verdecken bzw. das in verschiedenen Abständen liegende Teilstrukturen bei einer zweidimensionalen Abbildung blickwinkelabhängig und somit in Abhängigkeit der Position und Orientierung des Erfassungsmittels bezüglich des Markierungselements, relativ zueinander verschoben werden. Im Vergleich zu einem zweidimensionalen Muster können somit für eine dreidimensionale Struktur Orientierungsänderungen auch bei einer zweidimensionalen Abbildung deutlich leichter erkannt werden. Wie Vorangehend erläutert kann der gleiche Effekt auch genutzt werden, wenn durch ein Hologramm oder Ähnliches ein entsprechender Einfluss der Perspektive auf Verdeckungen bzw. relative Positionen von Teilstrukturen eines dreidimensionalen Muster blickwinkelabhängig abgebildet wird. At least two partial structures of the three-dimensional structure or of the three-dimensional pattern and / or the masking of at least a portion of a first partial structure of the three-dimensional structure or of the three-dimensional pattern by at least a second partial structure of the three-dimensional structure or of the three-dimensional pattern are recognized in the environmental data, the position and / or the orientation of the device is determined as a function of the relative position of the substructures or the concealment. This takes advantage of the fact that, in the case of three-dimensional surfaces, in particular surfaces with protrusions or depressions, which in particular have steep walls, projecting parts of the structure cover different parts of the structure further behind, depending on the viewing angle, or the substructures lying at different distances in a two-dimensional image are dependent on the viewing angle and thus, depending on the position and orientation of the detection means with respect to the marking element, are displaced relative to one another. In comparison to a two-dimensional pattern, changes in orientation for a three-dimensional structure can thus be detected much more easily even with a two-dimensional image. As explained above, the same effect can also be used if a corresponding influence of the perspective on concealments or relative positions of substructures of a three-dimensional pattern is imaged depending on the viewing angle by means of a hologram or the like.

Die Position und/oder Orientierung der Einrichtung kann ergänzend oder relativ in Abhängigkeit einer Ausdehnung der Abbildung der Oberfläche und/oder der Textur und/oder eines Abschnitts der Textur und/oder der dreidimensionalen Struktur und/oder eines Abschnitts der dreidimensionalen Struktur ermittelt werden. Hierbei kann ausgenutzt werden, dass die Abbildung der Oberfläche bzw. der Textur bzw. der dreidimensionalen Struktur mit dem Abstand zwischen Erfassungsmittel und Markierungselement skaliert. Insbesondere kann zunächst wie oben erläutert eine Blickrichtung des Erfassungsmittels auf das Markierungselement und anschließend der Abstand in Abhängigkeit der Ausdehnung ermittelt werden.The position and / or orientation of the device can be determined in addition or relatively depending on an expansion of the image of the surface and / or the texture and / or a section of the texture and / or the three-dimensional structure and / or a section of the three-dimensional structure. It can be used here that the mapping of the surface or the texture or the three-dimensional structure scales with the distance between the detection means and the marking element. In particular, as explained above, a viewing direction of the detection means onto the marking element and then the distance depending on the extent can be determined.

Wie eingangs erläutert, kann es vorteilhaft sein, ein Verfahren des Maschinenlernens zu nutzen, um die Position bzw. Orientierung aus den Umgebungsdaten zu ermitteln. Als Verarbeitungsalgorithmus kann in diesem Fall beispielsweise ein neuronales Netz, insbesondere ein convolutional neural network, genutzt werden. Ein Training kann mit Hilfe von Trainingsdatensätzen erfolgen, wobei insbesondere ein Verfahren der Fehlerrückführung bzw. des Gradientenabstiegs genutzt werden kann, um das neuronale Netz zu trainieren. Auch andere Verfahren des Maschinenlernens können durch Trainingsdatensätze trainiert werden.As explained at the beginning, it can be advantageous to use a machine learning method to determine the position or orientation from the environmental data. In this case, for example, a neural network, in particular a convolutional neural network, can be used as the processing algorithm. A training can be carried out with the aid of training data sets, in particular a method of error feedback or gradient descent can be used to train the neural network. Other methods of machine learning can also be trained using training data sets.

Ein Trainingsdatensatz für ein überwachtes Lernen kann hierbei jeweils Eingangsdaten für den Verarbeitungsalgorithmus und ein Sollergebnis umfassen. Anschließend kann für alle Trainingsdatensätze oder einen Teil der Trainingsdatensätze der Verarbeitungsalgorithmus auf die Eingangsdaten angewandt werden und durch Variation der Verarbeitungsparameter kann eine Abweichung von den Sollergebnissen minimiert werden.A training data record for monitored learning can each include input data for the processing algorithm and a target result. The processing algorithm can then be applied to the input data for all training data sets or a part of the training data sets, and a deviation from the target results can be minimized by varying the processing parameters.

Der Verarbeitungsalgorithmus kann insbesondere durch mehrere Trainingsdatensätze trainiert werden, die Abbildungen des Markierungselements aus verschiedenen Blickwinkeln und/oder Entfernungen umfassen. Die Abbildungen werden vorzugsweise durch das Erfassungsmittel oder ein weiteres, ähnlich aufgebautes oder zumindest im Ergebnis ähnliche Umgebungsdaten lieferndes Erfassungsmittel aufgenommen. Die Sollergebnisse können jeweils den Blickwinkel bzw. die Entfernung für die jeweilige Aufnahme angeben. In diesem Fall gibt der trainierte Verarbeitungsalgorithmus auch zunächst den Blickwinkel und die Entfernung aus, mit denen das Markierungselement erfasst wird. Die Position und/oder Orientierung der Einrichtung kann durch entsprechende Offsets, die aufgrund der bekannten Anordnung des Erfassungsmittels in der Einrichtung bekannt sind, berechnet werden. Alternativ können entsprechende Offsets bereits beim Training, das heißt in dem Sollergebnis, berücksichtigt werden.The processing algorithm can be trained in particular by means of a plurality of training data sets which comprise images of the marking element from different angles and / or distances. The images are preferably recorded by the detection means or a further detection means which is constructed in a similar manner or at least results in similar environmental data as a result. The target results can indicate the viewing angle or the distance for the respective image. In this case, the trained processing algorithm also initially outputs the viewing angle and the distance with which the marking element is detected. The position and / or orientation of the device can be calculated by corresponding offsets, which are known due to the known arrangement of the detection means in the device. Alternatively, corresponding offsets can already be taken into account during training, that is to say in the target result.

Neben dem erfindungsgemäßen Verfahren betrifft die Erfindung ein Markierungselement, das zu Teilnahme an dem erfindungsgemäßen Verfahren eingerichtet ist. Insbesondere kann das Markierungselement eine dreidimensionale Struktur, insbesondere Vorsprünge und/oder Vertiefungen auf einer dem Erfassungsmittel zugewandten Seite, aufweisen. Alternativ oder ergänzend kann zumindest eine Oberfläche des Markierungselements eine blickwinkelabhängige Textur aufweisen, was beispielsweise dadurch realisiert werden kann, dass diese Oberfläche ein Hologramm, ein Linsenraster, eine Parallaxbarriere oder Ähnliches aufweist.In addition to the method according to the invention, the invention relates to a marking element which is set up to participate in the method according to the invention. In particular, the marking element can have a three-dimensional structure, in particular projections and / or depressions on a side facing the detection means. As an alternative or in addition, at least one surface of the marking element can have a viewing angle-dependent texture, which can be realized, for example, by having a hologram, a lenticular screen, a parallax barrier or the like.

Zudem betrifft die Erfindung eine Einrichtung, insbesondere ein Kraftfahrzeug, mit einem Erfassungsmittel zur Erfassung von Umgebungsdaten und einer Verarbeitungseinrichtung zur Verarbeitung der Umgebungsdaten, wobei die Verarbeitungseinrichtung dazu eingerichtet ist, die Umgebungsdaten gemäß dem erfindungsgemäßen Verfahren zu verarbeiten, um die Position und/oder Orientierung der Einrichtung bezüglich des Markierungselements zu ermitteln. Insbesondere kann es sich bei der Einrichtung um ein Kraftfahrzeug handeln, das dazu eingerichtet ist, teil- oder vollautomatisiert in Abhängigkeit der ermittelten Position und/oder Orientierung zu fahren. Beispielsweise kann das Kraftfahrzeug mit Hilfe des erläuterten Verfahrens in eine bestimmte Parkposition oder auf eine Ladeplatte geführt werden.In addition, the invention relates to a device, in particular a motor vehicle, with a detection means for recording environmental data and a processing device for processing the environmental data, the processing device being set up to process the environmental data in accordance with the inventive method in order to determine the position and / or orientation of the Determine device with respect to the marking element. In particular, the device can be a motor vehicle that is set up to be partially or fully automated as a function to drive the determined position and / or orientation. For example, the motor vehicle can be guided into a specific parking position or onto a loading plate using the method explained.

Weitere Vorteile und Einzelheiten der Erfindung ergeben sich aus den folgenden Ausführungsbeispielen und den zugehörigen Zeichnungen. Hierbei zeigen schematisch.

  • 1 ein Ausführungsbeispiel einer erfindungsgemäßen Einrichtung,
  • 2 - 4 verschiedene Ausführungsbeispiele eines erfindungsgemäßen Markierungselements, und
  • 5 ein Ablaufdiagramm eines Ausführungsbeispiels eines erfindungsgemäßen Verfahrens.
Further advantages and details of the invention emerge from the following exemplary embodiments and the associated drawings. Here show schematically.
  • 1 an embodiment of a device according to the invention,
  • 2nd - 4th different embodiments of a marking element according to the invention, and
  • 5 a flow diagram of an embodiment of a method according to the invention.

1 zeigt eine Einrichtung 1, nämlich ein Kraftfahrzeug, das in eine Sollpose 2 geführt werden soll. Dies kann beispielsweise im Rahmen eines automatisierten Einparkvorgangs oder im Rahmen der Positionierung des Kraftfahrzeugs bezüglich einer Ladeeinrichtung, beispielsweise einer Ladeplatte, erfolgen. Um eine insbesondere vollautomatisierte Positionierung zu ermöglichen, soll die Position und Orientierung des Kraftfahrzeugs möglichst genau erfasst werden. Hierzu wird ein künstliches Markierungselement 3 genutzt, das beispielsweise an einer Wand 10 angeordnet ist. Alternativ könnte das Markierungselement 3 auch an einem Boden, einer Decke oder an anderen Flächen befestigt sein. 1 shows a facility 1 , namely a motor vehicle that is in a target pose 2nd should be performed. This can take place, for example, as part of an automated parking process or as part of the positioning of the motor vehicle with respect to a charging device, for example a charging plate. In order to enable, in particular, fully automated positioning, the position and orientation of the motor vehicle should be recorded as precisely as possible. For this purpose, an artificial marking element 3rd used, for example on a wall 10th is arranged. Alternatively, the marking element 3rd also be attached to a floor, ceiling or other surfaces.

Durch ein Erfassungsmittel 4 des Kraftfahrzeugs werden Umgebungsdaten erfasst, die das Markierungselement 3 zumindest teilweise abbilden. Diese werden durch die Verarbeitungseinrichtung 5 verarbeitet, um die Position 7 und Orientierung 6 des Kraftfahrzeugs bezüglich des Markierungselements 3 zu ermitteln. Sind eine Sollposition und Sollorientierung für die Sollpose 2 bezüglich des Markierungselements 3 bekannt, kann anhand dieser Daten eine Trajektorie geplant werden, um das Kraftfahrzeug in die Sollpose 2 zu führen.Through a means of registration 4th Ambient data of the motor vehicle are recorded, which is the marking element 3rd map at least partially. These are processed by the processing facility 5 processed to the position 7 and orientation 6 of the motor vehicle with respect to the marking element 3rd to investigate. Are a target position and target orientation for the target pose 2nd regarding the marking element 3rd Known, a trajectory can be planned based on this data to the motor vehicle in the target pose 2nd respectively.

Im Rahmen der Verarbeitung der Umgebungsdaten können eine Entfernung 9 zwischen dem Erfassungsmittel 4 und dem Markierungselement 3 sowie ein Blickwinkel 8, in dem das Markierungselement 3 erfasst wird, ermittelt werden. Diese Informationen korrelieren unmittelbar mit der Orientierung 6 und der Position 7.As part of the processing of the environmental data can be a distance 9 between the detection means 4th and the marker element 3rd as well as a perspective 8th in which the marking element 3rd is detected, determined. This information correlates directly with the orientation 6 and the position 7 .

In dem gezeigten Anwendungsfall werden bislang zweidimensionale Markierungselemente 3 bzw. bestimmte Muster an Wänden oder auf Böden, genutzt. Hierbei ist üblicherweise bei einer Verwendung eines einzelnen Markierungselements 3 keine ausreichend genaue Positions- und Orientierungsbestimmung möglich. Die Genauigkeit und Robustheit der Positions- und Orientierungsermittlung kann einerseits dadurch verbessert werden, dass, wie Folgenden mit Bezug auf 2 - 4 erläutert wird, spezielle Markierungselemente genutzt werden, und/oder dass, wie später mit Bezug auf 5 erläutert werden wird, ein Verfahren des Maschinenlernens genutzt wird, um die Position und Orientierung zu bestimmen.So far, two-dimensional marking elements have been used in the application shown 3rd or certain patterns on walls or floors. This is usually when using a single marking element 3rd not sufficiently precise position and orientation determination possible. The accuracy and robustness of the position and orientation determination can be improved on the one hand by using the following, with reference to 2nd - 4th is explained, special marking elements are used, and / or that, as later with reference to 5 will be explained, a method of machine learning is used to determine the position and orientation.

In dem in 2 gezeigten Ausführungsbeispiel weist das Markierungselement 3 eine dreidimensionale Struktur auf. Die Teilstruktur 11 bildet einen Vorsprung, der von der Teilstruktur 12, der Basis des Markierungselements 3, abragt. Das Markierungselement 3 kann beispielsweise rotationssymmetrisch bezüglich dieses Vorsprungs ausgebildet sein.In the in 2nd shown embodiment has the marking element 3rd a three-dimensional structure. The subtree 11 forms a projection that of the substructure 12th , the base of the marker 3rd , protrudes. The marker element 3rd can, for example, be rotationally symmetrical with respect to this projection.

Wird das Markierungselement 3 in der gezeigten Aufnahmegeometrie durch das Erfassungsmittel 4 abgebildet, so wird der Abschnitt 13 der Teilstruktur 12 durch die Teilstruktur 11 verdeckt. Dies kann durch Verarbeitung der Umgebungsdaten erkannt werden, insbesondere wenn die Oberfläche 14 der Teilstruktur 12 ein Muster aufweist, das den Grad der Verdeckung eindeutig erkennen lässt. Die Position und Ausdehnung des Abschnitts 13, die durch Verarbeitung der Umgebungsdaten ermittelt werden können, hängen von der Position und Orientierung des Erfassungsmittels 4 und somit der Einrichtung 1 bezüglich des Markierungselements 3 ab. Somit stehen verglichen mit einer zweidimensionalen Markierung zusätzlich Informationen bezüglich der Position und Orientierung der Einrichtung 1 bezüglich des Markierungselements 3 bereit. Somit wird aufgrund der dreidimensionalen Struktur des Markierungselements 3 die Genauigkeit und Robustheit der Positions- und Orientierungsbestimmung verbessert.Will the marker element 3rd in the recording geometry shown by the detection means 4th the section is shown 13 of the substructure 12th through the substructure 11 covered. This can be recognized by processing the environmental data, especially if the surface 14 of the substructure 12th has a pattern that clearly shows the degree of concealment. The position and extent of the section 13 , which can be determined by processing the environmental data, depend on the position and orientation of the detection means 4th and thus the facility 1 regarding the marking element 3rd from. Thus, compared to a two-dimensional marking, there is additional information regarding the position and orientation of the device 1 regarding the marking element 3rd ready. Thus, due to the three-dimensional structure of the marking element 3rd improves the accuracy and robustness of the position and orientation determination.

Wird eine dreidimensionalen Struktur des Markierungselements 3 abgebildet, können neben der mit Bezug zu 2 beschriebenen Verdeckung oder alternativ hierzu mehrere Teilstrukturen 15, 16, 17 des dreidimensionalen Markierungselements 3 erkannt werden, die beispielhaft in 3 abgebildet sind. Eine Änderung der Orientierung 18, 19 der Einrichtung 1 bzw. des Erfassungsmittels 4 bezüglich des Markierungselements 3 führt für Abbildungen von Teilstrukturen 15, 16, die sich auf verschieden hohen Vorsprüngen befinden, zu einer Änderung des Abstands 20, 21, die weit größer ist als die Änderung des Abstands 22, 23 der Abbildungen von Teilstrukturen 16, 17 die sich auf gleich hohen Vorsprüngen bzw. auf einer Ebene befinden. Die dreidimensionale Struktur des Markierungselements 3 kann somit ausgenutzt werden, um verschiedene Teilstrukturen zu erkennen und deren Abstand zu ermitteln, wobei entsprechende Abstände bei einer zweidimensionalen Abbildung des Markierungselements 3 deutlich stärker mit dem Blickwinkel variieren können, als dies bei einem rein zweidimensionalen Markierungselement der Fall wäre.Becomes a three-dimensional structure of the marking element 3rd pictured, can be related to the one related to 2nd described concealment or alternatively several substructures 15 , 16 , 17th of the three-dimensional marking element 3rd can be recognized, which are exemplary in 3rd are shown. A change in orientation 18th , 19th the facility 1 or the detection means 4th regarding the marking element 3rd leads to images of substructures 15 , 16 that are on different heights, change the distance 20 , 21 that is far larger than the change in distance 22 , 23 the images of substructures 16 , 17th that are on the same high projections or on one level. The three-dimensional structure of the marker 3rd can thus be used to identify different substructures and to determine their spacing, with corresponding spacing in a two-dimensional image of the marking element 3rd can vary significantly more with the point of view than at a purely two-dimensional marking element would be the case.

Eine besonders starke Abhängigkeit der Abbildung des Markierungselements 3 von der Orientierung 18, 19 kann, wie schematisch in 4 dargestellt ist, dadurch erreicht werden, dass eine zweidimensionale Oberfläche 24 des Markierungselements 3 genutzt wird, die für zwei verschiedene Orientierungen 18, 19 der Oberfläche 24 bezüglich des Erfassungsmittels 4 mit unterschiedlichen Texturen 25, 26 abgebildet wird. Die Bilder 27, 28 zeigen schematisch den Inhalt der Umgebungsdaten, wenn die Oberfläche 24 aus den Blickwinkeln 18, 19 abgebildet wird. Die Oberfläche 24 selbst wird in beiden Fällen ähnlich abgebildet, wobei eine auf der Oberfläche gezeigte Textur 25, 26 unterschiedlich ist. Im gezeigten Beispiel werden einfache geometrische Formen als Texturen 25, 26 für die Blickwinkel genutzt, die eine Unterscheidung zwischen zwei oder mehr Blickwinkel ermöglichen. Es können jedoch auch komplexere Muster oder holografische oder pseudo-holografische Abbildungen genutzt werden.A particularly strong dependence on the illustration of the marking element 3rd of orientation 18th , 19th can, as schematically in 4th is achieved by having a two-dimensional surface 24th of the marking element 3rd is used for two different orientations 18th , 19th the surface 24th regarding the detection means 4th with different textures 25th , 26 is mapped. The pictures 27 , 28 show schematically the content of the environmental data when the surface 24th from the perspective 18th , 19th is mapped. The surface 24th itself is mapped similarly in both cases, with a texture shown on the surface 25th , 26 is different. In the example shown, simple geometric shapes are used as textures 25th , 26 used for the viewing angles that allow a distinction between two or more viewing angles. However, more complex patterns or holographic or pseudo-holographic images can also be used.

Die gezeigte Abbildung verschiedener Texturen 25, 26 in Abhängigkeit des Blickwinkels 18, 19 kann technisch dadurch realisiert werden, dass auf die Fläche 29 ein bestimmtes Muster aufgebraucht wird, wobei durch Aufbringen einer Parallaxbarriere 30 oder eines Linsenrasters 31 auf die Fläche 29 in Abhängigkeit des Blickwinkels 18, 19 verschiedene Teile dieses Musters abgebildet werden. Derartige „Kippbilder“ sind im Stand der Technik wohl bekannt und sollen nicht detailliert erläutert werden.The shown illustration of different textures 25th , 26 depending on the point of view 18th , 19th can be technically realized by using the surface 29 a certain pattern is used up, by applying a parallax barrier 30th or a lenticular grid 31 on the surface 29 depending on the point of view 18th , 19th different parts of this pattern are shown. Such “tilt pictures” are well known in the prior art and should not be explained in detail.

In einem alternativen Ausführungsbeispiel könnte die Oberfläche 24 stattdessen durch ein Hologramm gebildet werden. Es ist hierbei möglich, dass das gesamte Markierungselement ein Hologramm ist oder dass ein Hologramm auf eine Oberfläche oder mehrere Oberflächen des Markierungselements 3 aufgebracht ist. Wird ein Hologramm genutzt, wird ein durch das Hologramm abgebildetes dreidimensionales Muster perspektivisch korrekt in Abhängigkeit des Blickwinkels 18, 19 wiedergegeben. Somit können die mit Bezug zu 2 und 3 erläuterten Ansätze zur Ausnutzung der Verdeckung bzw. Änderung der relativen Lage von Teilstrukturen einer dreidimensionalen Struktur auch für Teilstrukturen dieses dreidimensionalen Musters genutzt werden, wobei das Markierungselement insgesamt einfach aufgebaut werden kann, da statt einer dreidimensionalen Struktur eine flache Oberfläche mit einem darauf angebrachten Hologramm genutzt werden kann.In an alternative embodiment, the surface could 24th instead be formed by a hologram. It is possible here that the entire marking element is a hologram or that a hologram is applied to one or more surfaces of the marking element 3rd is applied. If a hologram is used, a three-dimensional pattern imaged by the hologram becomes perspective correct depending on the viewing angle 18th , 19th reproduced. Thus, those related to 2nd and 3rd Explained approaches to exploit the concealment or change in the relative position of partial structures of a three-dimensional structure can also be used for partial structures of this three-dimensional pattern, the marking element as a whole being simple to set up, since instead of a three-dimensional structure, a flat surface with a hologram attached to it is used can.

Die Abmessung 32 der Oberfläche 24 oder der Textur 25, 26 oder eines Teils dieser Textur 25, 26 oder einer der in den 2 und 3 abgebildeten Teilstrukturen 11, 12, 15, 16, 17 oder der gesamten dreidimensionalen Struktur kann bei der Bestimmung der Position und/oder Orientierung berücksichtigt werden. Insbesondere kann, wie Vorangehend erläutert, zwischen verschiedenen Blickwinkeln 18, 19 unterschieden werden, woraus auf eine relative Orientierung des Erfassungsmittels 4 und somit der Einrichtung 1 zu dem Markierungselement 3 geschlossen werden kann. Ein Abstand 9 zwischen dem Erfassungsmittel 4 und somit der Einrichtung 1 und dem Markierungselement 3 kann anschließend in Abhängigkeit der Abmessung 32 ermittelt werden.The dimension 32 the surface 24th or the texture 25th , 26 or part of this texture 25th , 26 or one of the in the 2nd and 3rd pictured substructures 11 , 12th , 15 , 16 , 17th or the entire three-dimensional structure can be taken into account when determining the position and / or orientation. In particular, as explained above, there can be between different angles 18th , 19th a distinction is made, based on a relative orientation of the detection means 4th and thus the facility 1 to the marker element 3rd can be closed. A distance 9 between the detection means 4th and thus the facility 1 and the marker element 3rd can then depend on the dimension 32 be determined.

Wie Vorangehend detailliert erläutert wurde, können dreidimensionalen Strukturen bzw. blickwinkelabhängige Texturen des Markierungselements durch einen manuell parametrisierten Algorithmus ausgewertet werden, um eine relative Position und Orientierung der Einrichtung 1 zu dem Markierungselement 3 zu bestimmen. Es kann jedoch auch vorteilhaft sein, stattdessen ein Verfahren des Maschinenlernens zu nutzen. Dies kann es insbesondere auch ermöglichen, bereits bei einer Nutzung eines einzigen zweidimensionalen Markierungselements eine relative Position und Orientierung der Einrichtung 1 zu diesem Markierungselement mit ausreichender Genauigkeit zu bestimmen. Ein Beispiel für ein derartiges Vorgehen wird im Folgenden mit Bezug auf das in 5 gezeigte Ablaufdiagramm erläutert.As explained in detail above, three-dimensional structures or viewpoint-dependent textures of the marking element can be evaluated by a manually parameterized algorithm in order to determine a relative position and orientation of the device 1 to the marker element 3rd to determine. However, it may also be advantageous to use a machine learning method instead. In particular, this can also enable a relative position and orientation of the device when a single two-dimensional marking element is used 1 to determine this marking element with sufficient accuracy. An example of such a procedure is given below with reference to the in 5 shown flowchart explained.

Die Schritte S1 - S3 dienen dazu, den Verarbeitungsalgorithmus, beispielsweise ein neuronales Netz, zu trainieren, also dessen Verarbeitungsparameter zu bestimmen. Diese Schritte können separat von den folgenden Schritten S4 - S6 durchgeführt werden, insbesondere außerhalb der Einrichtung deren Position und/oder Orientierung bestimmt werden soll.The steps S1 - S3 are used to train the processing algorithm, for example a neural network, that is to say to determine its processing parameters. These steps can be separate from the following steps S4 - S6 be carried out, especially outside the facility whose position and / or orientation is to be determined.

In Schritt S1 werden zunächst Abbildungen des Markierungselements aus verschiedenen Blickwinkeln und Entfernungen erfasst. Hierzu kann das Erfassungsmittel 4 oder ein, vorzugsweise gleich oder zumindest ähnlich ausgebildetes weiteres Erfassungsmittel verwendet werden. In Schritt S2 wird für jede dieser Aufnahmen eine zugeordnete Position und Orientierung für die Einrichtung 1 vorgegeben. Hierzu werden, beispielsweise durch eine hochgenaue Vermessung der relativen Position und Orientierung von Erfassungsmittel und Markierungselement zueinander über eine externe Einrichtung, der Blickwinkel und die Entfernung ermittelt und hieraus durch entsprechende Offsets die Position und Orientierung der Einrichtung 1 vorgegeben. Alternativ wäre es auch möglich, den Verarbeitungsalgorithmus derart zu trainieren, dass durch ihn zunächst Blickwinkel und Entfernung ermittelt werden und entsprechende Offsets erst anschließend addiert werden.In step S1 First, images of the marking element are recorded from different angles and distances. For this purpose, the registration means 4th or a further, preferably identical or at least similarly designed further detection means can be used. In step S2 will be an assigned position and orientation for the facility for each of these recordings 1 given. For this purpose, the viewing angle and the distance are determined, for example by a highly precise measurement of the relative position and orientation of the detection means and the marking element with respect to one another, and the position and orientation of the device are determined from this by means of appropriate offsets 1 given. Alternatively, it would also be possible to train the processing algorithm in such a way that it first determines the viewing angle and distance and only then adds the corresponding offsets.

In Schritt S3 werden die Trainingsdatensätze genutzt, um den Verarbeitungsalgorithmus zu trainieren. Hierzu kann der Verarbeitungsalgorithmus auf die einzelnen Abbildungen angewandt werden und eine Abweichung der ermittelten Größen zu den in Schritt S2 vorgegebenen Größen minimiert werden. Entsprechende Ansätze, insbesondere eine Fehlerrückführung bzw. ein Gradientenverfahren zum Trainieren von neuronalen Netzen und anderen Verfahren des Maschinenlernens, sind im Stand der Technik bekannt und sollen nicht detailliert erläutert werden.In step S3 the training data records are used to train the processing algorithm. For this purpose, the processing algorithm can be applied to the individual images and a deviation of the sizes determined from those in step S2 predetermined sizes can be minimized. Appropriate approaches, in particular error feedback or a gradient method for training neural networks and other methods of machine learning, are known in the prior art and are not to be explained in detail.

In Schritt S4 werden die Umgebungsdaten durch das Erfassungsmittel 4 der Einrichtung 1 erfasst. Diese werden in Schritt S5 durch den in Schritt S3 parametrisierten Verarbeitungsalgorithmus verarbeitet, um eine Position und Orientierung der Einrichtung 1 bezüglich des Markierungselements 3 zu ermitteln. In Schritt S6 können diese Größen beispielsweise genutzt werden, um eine Trajektorie für einen automatisierten Betrieb eines als Einrichtung 1 genutzten Kraftfahrzeugs zu ermitteln.In step S4 the environmental data through the detection means 4th the facility 1 detected. These are in step S5 through the in step S3 parameterized processing algorithm processed to a position and orientation of the device 1 regarding the marking element 3rd to investigate. In step S6 For example, these variables can be used to set up a trajectory for automated operation of a device 1 determine used motor vehicle.

Claims (7)

Verfahren zur Bestimmung einer Position (7) und/oder Orientierung (6) einer Einrichtung (1), insbesondere eines Kraftfahrzeugs, wobei durch ein Erfassungsmittel (4) der Einrichtung (1) Umgebungsdaten erfasst werden, die ein in dem Umfeld der Einrichtung (1) angeordnetes Markierungselement (3) abbilden, wobei die Umgebungsdaten durch einen Verarbeitungsalgorithmus verarbeitet werden, um die relative Position (7) und/oder Orientierung (6) der Einrichtung (1) bezüglich des Markierungselements (3) zu bestimmen, wobei die Umgebungsdaten eine zweidimensionale Oberfläche (24) des Markierungselements (3), die für wenigstens zwei unterschiedliche Orientierungen (18, 19) der Oberfläche (24) bezüglich des Erfassungsmittels (4) mit voneinander unterschiedlichen Texturen (25, 26) abgebildet wird, die jeweils eine Abbildung des gleichen dreidimensionalen Musters aus einer der jeweiligen Orientierung (18, 19) zugeordneten Perspektive sind, und/oder eine dreidimensionale Struktur des Markierungselements (3) abbilden und der Verarbeitungsalgorithmus die Position (7) und/oder Orientierung (6) der Einrichtung (6) in Abhängigkeit der Textur (25, 26) und/oder der Abbildung der dreidimensionalen Struktur ermittelt, wobei in den Umgebungsdaten wenigstens zwei Teilstrukturen (15, 16, 17) der dreidimensionalen Struktur oder des dreidimensionalen Musters und/oder die Verdeckung wenigstens eines Abschnitts (13) einer ersten Teilstruktur (12) der dreidimensionalen Struktur oder des dreidimensionalen Musters durch wenigstens eine zweite Teilstruktur (11) der dreidimensionalen Struktur oder des dreidimensionalen Musters erkannt werden, wobei die Position (7) und/oder Orientierung (6) der Einrichtung (1) in Abhängigkeit der relativen Position der Teilstrukturen (15, 16, 17) oder der Verdeckung ermittelt wird.Method for determining a position (7) and / or orientation (6) of a device (1), in particular a motor vehicle, environmental data which are recorded in the environment of the device (1 ) arranged marker element (3), the environmental data being processed by a processing algorithm in order to determine the relative position (7) and / or orientation (6) of the device (1) with respect to the marker element (3), the environmental data being a two-dimensional one Surface (24) of the marking element (3) which is mapped for at least two different orientations (18, 19) of the surface (24) with respect to the detection means (4) with different textures (25, 26), each of which is an image of the same three-dimensional pattern from a perspective assigned to the respective orientation (18, 19), and / or a three-dimensional structure of the marking element map ts (3) and the processing algorithm determines the position (7) and / or orientation (6) of the device (6) depending on the texture (25, 26) and / or the mapping of the three-dimensional structure, with at least two in the environmental data Substructures (15, 16, 17) of the three-dimensional structure or the three-dimensional pattern and / or the at least one section (13) of a first substructure (12) of the three-dimensional structure or the three-dimensional pattern is covered by at least a second substructure (11) of the three-dimensional structure or the three-dimensional pattern can be detected, the position (7) and / or orientation (6) of the device (1) being determined as a function of the relative position of the substructures (15, 16, 17) or of the masking. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Umgebungsdaten durch das Erfassungsmittel (4) zweidimensional erfasst werden. Procedure according to Claim 1 , characterized in that the environmental data are recorded in two dimensions by the detection means (4). Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die unterschiedlichen Texturen (25, 26) durch ein Hologramm oder ein Linsenraster (30) oder eine Parallaxbarriere (31) des Markierungselements (3) erzeugt werden.Procedure according to Claim 1 or 2nd , characterized in that the different textures (25, 26) are generated by a hologram or a lenticular screen (30) or a parallax barrier (31) of the marking element (3). Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Position (7) und/oder Orientierung (6) der Einrichtung (1) in Abhängigkeit einer Ausdehnung (32) der Abbildung der Oberfläche (24) und/oder der Textur (25, 26) und/oder eines Abschnitts der Textur (25, 26) und/oder der dreidimensionalen Struktur und/oder eines Abschnitts der dreidimensionalen Struktur ermittelt werden.Method according to one of the preceding claims, characterized in that the position (7) and / or orientation (6) of the device (1) as a function of an extent (32) of the image of the surface (24) and / or the texture (25, 26) and / or a section of the texture (25, 26) and / or the three-dimensional structure and / or a section of the three-dimensional structure. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass der Verarbeitungsalgorithmus durch mehrere Verarbeitungsparameter parametrisiert wird, die im Rahmen eines Verfahrens des Maschinenlernens ermittelt sind oder werden.Method according to one of the preceding claims, characterized in that the processing algorithm is parameterized by a plurality of processing parameters which are or are determined in the context of a method of machine learning. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass der Verarbeitungsalgorithmus durch mehrere Trainingsdatensätze trainiert wird, die Abbildungen des Markierungselements (3) aus verschiedenen Blickwinkeln und/oder Entfernungen umfassen.Procedure according to Claim 5 , characterized in that the processing algorithm is trained by a plurality of training data sets, which comprise images of the marking element (3) from different angles and / or distances. Einrichtung, insbesondere Kraftfahrzeug, mit einem Erfassungsmittel (4) zur Erfassung von Umgebungsdaten und einer Verarbeitungseinrichtung (5) zur Verarbeitung der Umgebungsdaten, dadurch gekennzeichnet, dass die Verarbeitungseinrichtung (5) dazu eingerichtet ist, die Umgebungsdaten gemäß dem Verfahren nach einem der Ansprüche 1 bis 6 zu verarbeiten, um die Position (7) und/oder Orientierung (6) der Einrichtung (1) bezüglich des Markierungselements (3) zu ermitteln.Device, in particular motor vehicle, with a detection means (4) for recording ambient data and a processing device (5) for processing the ambient data, characterized in that the processing device (5) is set up to process the environmental data according to the method according to one of the Claims 1 to 6 to process in order to determine the position (7) and / or orientation (6) of the device (1) with respect to the marking element (3).
DE102018209366.0A 2018-06-12 2018-06-12 Method for determining a position and / or orientation of a device Active DE102018209366B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102018209366.0A DE102018209366B4 (en) 2018-06-12 2018-06-12 Method for determining a position and / or orientation of a device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018209366.0A DE102018209366B4 (en) 2018-06-12 2018-06-12 Method for determining a position and / or orientation of a device

Publications (2)

Publication Number Publication Date
DE102018209366A1 DE102018209366A1 (en) 2019-12-12
DE102018209366B4 true DE102018209366B4 (en) 2020-07-02

Family

ID=68652166

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018209366.0A Active DE102018209366B4 (en) 2018-06-12 2018-06-12 Method for determining a position and / or orientation of a device

Country Status (1)

Country Link
DE (1) DE102018209366B4 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010141209A1 (en) 2009-06-01 2010-12-09 Robert Bosch Gmbh Method and apparatus for combining three-dimensional position and two-dimensional intensity mapping for localization
DE102013110785A1 (en) 2013-09-30 2015-04-02 Bundesdruckerei Gmbh POSITIONING METHOD FOR POSITIONING A MOBILE DEVICE RELATIVE TO A SECURITY FEATURE OF A DOCUMENT
US20170016740A1 (en) 2015-07-16 2017-01-19 Ford Global Technologies, Llc Method and apparatus for determining a vehicle ego-position
DE102015220831A1 (en) 2015-10-26 2017-04-27 Robert Bosch Gmbh A method and apparatus for determining landmarks for a location determination for a moving object and method and apparatus for locating a moving object

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010141209A1 (en) 2009-06-01 2010-12-09 Robert Bosch Gmbh Method and apparatus for combining three-dimensional position and two-dimensional intensity mapping for localization
DE102013110785A1 (en) 2013-09-30 2015-04-02 Bundesdruckerei Gmbh POSITIONING METHOD FOR POSITIONING A MOBILE DEVICE RELATIVE TO A SECURITY FEATURE OF A DOCUMENT
US20170016740A1 (en) 2015-07-16 2017-01-19 Ford Global Technologies, Llc Method and apparatus for determining a vehicle ego-position
DE102015220831A1 (en) 2015-10-26 2017-04-27 Robert Bosch Gmbh A method and apparatus for determining landmarks for a location determination for a moving object and method and apparatus for locating a moving object

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
T. Kühnl: Road Terrain Detection for Advanced Driver Assistance Systems. Dissertation, Universität Bielefeld, 2013. Auszüge: Abstract, Contents, Sn.7-9, 125-130 *

Also Published As

Publication number Publication date
DE102018209366A1 (en) 2019-12-12

Similar Documents

Publication Publication Date Title
EP3497476A1 (en) Motor vehicle and method for a 360° detection of the surroundings
DE102008058279A1 (en) Method and device for compensating a roll angle
WO2018233780A1 (en) Method and device for measuring damage to bodywork
DE112016001150T5 (en) ESTIMATION OF EXTRINSIC CAMERA PARAMETERS ON THE BASIS OF IMAGES
EP2198390A2 (en) Method for calibrating an assembly using at least one omnidirectional camera and an optical display unit
DE102016002186A1 (en) Method and image processing device for determining a geometric measured variable of an object
WO2004113831A1 (en) Method and measuring device for contactlessly measuring a contour of a surface, and method for automatically correcting coordinates of pixels
DE102011086548A1 (en) Device and method for chassis measurement of a motor vehicle
DE102014219423B4 (en) Dynamic model to compensate for windshield distortion
DE102015012344A1 (en) Method for calibrating a camera
DE102018209366B4 (en) Method for determining a position and / or orientation of a device
EP1724726A1 (en) Method and apparatus for measuring a parking space with a single camera
WO2019162327A2 (en) Method for determining a distance between a motor vehicle and an object
DE102010042821B4 (en) Method and apparatus for determining a basic width of a stereo detection system
EP3561772B1 (en) Method for calibrating an linescanning image recording unit
DE102020003465A1 (en) Method for the detection of objects in monocular RGB images
DE102019133719A1 (en) Correcting an Image
DE102018208604A1 (en) Determining a recording behavior of a recording unit
DE102019102561A1 (en) Process for recognizing a plaster marking
DE10042387A1 (en) Method for transforming 3-D object points to picture elements (pixels) for linear-fan beam sensor images, includes calculating difference between starting coordinates and preceding coordinates
DE102018120966A1 (en) Method for recognizing a part of a trailer and trailer detection system for a towing vehicle
DE102019100303A1 (en) Method and device for determining a curvature of a roadway
DE102012025463A1 (en) Method for determining e.g. pitch angle change of passenger car to determine proper motion of car in six different degrees of freedom, involves determining parameter based on pair of image features and associated image features of images
DE102016224131B3 (en) Determination of movement data of a vehicle-external object by a driver assistance system
DE102022001653B4 (en) Computer-implemented method for determining an environment reconstruction, computer program for carrying out such a method, computing device for carrying out such a method, analysis device with such a computing device and computer-implemented method for training a computer-implemented algorithm for determining depth information

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final