DE102018209366B4 - Method for determining a position and / or orientation of a device - Google Patents
Method for determining a position and / or orientation of a device Download PDFInfo
- Publication number
- DE102018209366B4 DE102018209366B4 DE102018209366.0A DE102018209366A DE102018209366B4 DE 102018209366 B4 DE102018209366 B4 DE 102018209366B4 DE 102018209366 A DE102018209366 A DE 102018209366A DE 102018209366 B4 DE102018209366 B4 DE 102018209366B4
- Authority
- DE
- Germany
- Prior art keywords
- orientation
- dimensional
- dimensional structure
- marking element
- environmental data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4808—Evaluating distance, position or velocity data
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Automation & Control Theory (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Verfahren zur Bestimmung einer Position (7) und/oder Orientierung (6) einer Einrichtung (1), insbesondere eines Kraftfahrzeugs, wobei durch ein Erfassungsmittel (4) der Einrichtung (1) Umgebungsdaten erfasst werden, die ein in dem Umfeld der Einrichtung (1) angeordnetes Markierungselement (3) abbilden, wobei die Umgebungsdaten durch einen Verarbeitungsalgorithmus verarbeitet werden, um die relative Position (7) und/oder Orientierung (6) der Einrichtung (1) bezüglich des Markierungselements (3) zu bestimmen, wobei die Umgebungsdaten eine zweidimensionale Oberfläche (24) des Markierungselements (3), die für wenigstens zwei unterschiedliche Orientierungen (18, 19) der Oberfläche (24) bezüglich des Erfassungsmittels (4) mit voneinander unterschiedlichen Texturen (25, 26) abgebildet wird, die jeweils eine Abbildung des gleichen dreidimensionalen Musters aus einer der jeweiligen Orientierung (18, 19) zugeordneten Perspektive sind, und/oder eine dreidimensionale Struktur des Markierungselements (3) abbilden und der Verarbeitungsalgorithmus die Position (7) und/oder Orientierung (6) der Einrichtung (6) in Abhängigkeit der Textur (25, 26) und/oder der Abbildung der dreidimensionalen Struktur ermittelt, wobei in den Umgebungsdaten wenigstens zwei Teilstrukturen (15, 16, 17) der dreidimensionalen Struktur oder des dreidimensionalen Musters und/oder die Verdeckung wenigstens eines Abschnitts (13) einer ersten Teilstruktur (12) der dreidimensionalen Struktur oder des dreidimensionalen Musters durch wenigstens eine zweite Teilstruktur (11) der dreidimensionalen Struktur oder des dreidimensionalen Musters erkannt werden, wobei die Position (7) und/oder Orientierung (6) der Einrichtung (1) in Abhängigkeit der relativen Position der Teilstrukturen (15, 16, 17) oder der Verdeckung ermittelt wird.Method for determining a position (7) and / or orientation (6) of a device (1), in particular a motor vehicle, environmental data which are recorded in the environment of the device (1 ) arranged marker element (3), the environmental data being processed by a processing algorithm in order to determine the relative position (7) and / or orientation (6) of the device (1) with respect to the marker element (3), the environmental data being a two-dimensional one Surface (24) of the marking element (3) which is mapped for at least two different orientations (18, 19) of the surface (24) with respect to the detection means (4) with different textures (25, 26), each of which is an image of the same three-dimensional pattern from a perspective assigned to the respective orientation (18, 19), and / or a three-dimensional structure of the marking element map ts (3) and the processing algorithm determines the position (7) and / or orientation (6) of the device (6) depending on the texture (25, 26) and / or the mapping of the three-dimensional structure, with at least two in the environmental data Substructures (15, 16, 17) of the three-dimensional structure or the three-dimensional pattern and / or the at least one section (13) of a first substructure (12) of the three-dimensional structure or the three-dimensional pattern is covered by at least a second substructure (11) of the three-dimensional structure or the three-dimensional pattern can be detected, the position (7) and / or orientation (6) of the device (1) being determined as a function of the relative position of the substructures (15, 16, 17) or of the masking.
Description
Die Erfindung betrifft ein Verfahren zur Bestimmung einer Position und/oder Orientierung einer Einrichtung, insbesondere eines Kraftfahrzeugs, wobei durch ein Erfassungsmittel der Einrichtung Umgebungsdaten erfasst werden, die ein in dem Umfeld der Einrichtung angeordnetes Markierungselement abbilden, wobei die Umgebungsdaten durch einen Verarbeitungsalgorithmus verarbeitet werden, um die relative Position und/oder Orientierung der Einrichtung bezüglich des Markierungselements zu bestimmen. Daneben betrifft die Erfindung ein Markierungselement und ein Kraftfahrzeug.The invention relates to a method for determining a position and / or orientation of a device, in particular a motor vehicle, wherein environmental data are captured by a detection means of the device, which represent a marking element arranged in the environment of the device, the environmental data being processed by a processing algorithm, to determine the relative position and / or orientation of the device with respect to the marking element. In addition, the invention relates to a marking element and a motor vehicle.
Eine automatisierte Führung von beweglichen Einrichtungen, insbesondere von Kraftfahrzeugen, gewinnt zunehmend an Relevanz. Hierbei kann die Robustheit der Führung deutlich erhöht werden, wenn Marker genutzt werden, die bestimmte Positionen und/oder Orientierungen kennzeichnen. Durch eine Erfassungseinrichtung können solche Marker erfasst werden, um mit hoher Genauigkeit die Position bzw. Orientierung der Einrichtung zu bestimmen und somit beispielsweise eine hochgenaue Führung zu einer bestimmten Sollposition, beispielsweise zu einer Parkposition, eine Ladeplatte oder Ähnlichem, zu realisieren. Problematisch ist hierbei, dass zur ausreichend genauen Bestimmung einer Position bzw. Orientierung typischerweise wenigstens zwei Marker zur gleichen Zeit erfasst werden müssen. Hierdurch ist der Aufwand zur Führung von Einrichtungen bzw. Kraftfahrzeugen durch entsprechende Marker deutlich erhöht.Automated management of moving devices, especially motor vehicles, is becoming increasingly relevant. Here, the robustness of the guidance can be increased significantly if markers are used which identify certain positions and / or orientations. Such markers can be detected by a detection device in order to determine the position or orientation of the device with high accuracy and thus, for example, to implement highly precise guidance to a specific desired position, for example to a parking position, a loading plate or the like. The problem here is that in order to determine a position or orientation with sufficient accuracy, at least two markers typically have to be recorded at the same time. As a result, the effort for guiding facilities or motor vehicles is significantly increased by appropriate markers.
Alternativ hierzu können natürliche Markierungen in der Umgebung genutzt werden. Ein derartiges Vorgehen ist beispielsweise aus den Druckschriften
Die Druckschrift
Ein Verfahren zur Ermittlung einer Eigenposition des Kraftfahrzeugs ist aus der Druckschrift
Aus der Dissertation von T. Kühnl, Road Terrain Detection for Advanced Driver Assistance Systems, Universität Bielefeld, 2013, ist es bekannt, eine durch Maschinenlernen trainierte Merkmalserkennung zu nutzen, um Bildpunkte einer Kamera einer bestimmten Fahrspur zuzuordnen. Dies kann dazu verwendet werden, eine durch das eigene Fahrzeug genutzte Spur zu ermitteln.From the dissertation by T. Kühnl, Road Terrain Detection for Advanced Driver Assistance Systems, Bielefeld University, 2013, it is known to use feature recognition trained by machine learning in order to assign pixels to a camera to a specific lane. This can be used to determine a lane used by your own vehicle.
Der Erfindung liegt somit die Aufgabe zugrunde, eine demgegenüber verbesserte Möglichkeit zur Positions- bzw. Orientierungsbestimmung anzugeben, die insbesondere auch mit wenigen oder einem einzigen Markierungselement eine gute Genauigkeit bei der Bestimmung der Position bzw. Orientierung der Einrichtung erreicht.The invention is therefore based on the object of specifying an improved way of determining position or orientation, which in particular achieves good accuracy in determining the position or orientation of the device even with a few or a single marking element.
Die Aufgabe wird erfindungsgemäß durch ein Verfahren der eingangs genannten Art gelöst, wobei einerseits die Umgebungsdaten eine zweidimensionale Oberfläche des Markierungselements, die für wenigstens zwei unterschiedliche Orientierungen der Oberfläche bezüglich des Erfassungsmittels mit voneinander unterschiedlichen Texturen abgebildet wird, die jeweils eine Abbildung des gleichen dreidimensionalen Musters aus einer der jeweiligen Orientierung zugeordneten Perspektive sind, und/oder eine dreidimensionale Struktur des Markierungselements abbilden und der Verarbeitungsalgorithmus die Position und/oder Orientierung der Einrichtung in Abhängigkeit der Textur und/oder der Abbildung der dreidimensionalen Struktur ermittelt, wobei in den Umgebungsdaten wenigstens zwei Teilstrukturen der dreidimensionalen Struktur oder des dreidimensionalen Musters und/oder die Verdeckung wenigstens eines Abschnitts einer ersten Teilstruktur der dreidimensionalen Struktur oder des dreidimensionalen Musters durch wenigstens eine zweite Teilstruktur der dreidimensionalen Struktur oder des dreidimensionalen Musters erkannt werden, wobei die Position und/oder Orientierung der Einrichtung in Abhängigkeit der relativen Position der Teilstrukturen oder der Verdeckung ermittelt wird. Der Verarbeitungsalgorithmus kann durch mehrere Verarbeitungsparameter parametrisiert werden, die im Rahmen eines Verfahrens des Maschinenlernens ermittelt werden oder sind.The object is achieved according to the invention by a method of the type mentioned at the outset, on the one hand the environmental data being a two-dimensional surface of the marking element, which is mapped with at least two different orientations of the surface with respect to the detection means with textures different from one another, each representing an image of the same three-dimensional pattern a perspective assigned to the respective orientation, and / or depict a three-dimensional structure of the marking element and the processing algorithm determines the position and / or orientation of the device as a function of the texture and / or the mapping of the three-dimensional structure, with at least two partial structures of the three-dimensional structure or the three-dimensional pattern and / or the masking of at least a portion of a first partial structure of the three-dimensional structure or the three-dimensional pattern du rch can be recognized by at least a second substructure of the three-dimensional structure or the three-dimensional pattern, the position and / or orientation of the device being determined as a function of the relative position of the substructures or the concealment. The processing algorithm can be parameterized by means of several processing parameters that are or are determined as part of a machine learning process.
Im Rahmen der Erfindung wurde erkannt, dass durch Nutzung von dreidimensionalen Strukturen an Markierungselementen, also beispielsweise von Vorsprüngen oder Ausnehmungen, bzw. von Oberflächen, die blickwinkelabhängig verschiedene Texturen zeigen, also beispielsweise von Hologrammen oder durch Linsenraster bzw. Parallaxbarrieren gebildeten „Kippbildern“, eine relative Position und Orientierung des Erfassungsmittels und somit der Einrichtung bezüglich des Markierungselements besonders einfach ermittelt werden kann. Bei einer Nutzung von rein zweidimensionalen Markierungen tritt das Problem auf, dass eine relative Orientierung von Erfassungsmittel und Markierung nur aufgrund einer Stauchung der abgebildeten Markierung erkannt werden kann. Somit kann es in einigen Anwendungsfällen schwierig sein eine reine Skalierung der Markierung aufgrund einer Abstandsänderung und eine Stauchung aufgrund einer Orientierungsänderung zu unterscheiden. Daher werden im Stand der Technik mehrere Markierungen genutzt, um eine Position und Orientierung einer Einrichtung bezüglich dieser Markierungen zu bestimmen. Durch die Nutzung von blickwinkelabhängigen Texturen bzw. die Nutzung dreidimensionaler Strukturen kann zwischen diesen Fällen unterschieden werden, womit die Nutzung eines einzelnen Markierungselements ausreichend sein kann, um die Position bzw. Orientierung der Einrichtung mit ausreichender Genauigkeit zu bestimmen.Within the scope of the invention it was recognized that by using three-dimensional structures on marking elements, ie For example, of projections or recesses, or of surfaces that show different textures depending on the viewing angle, for example of holograms or “tilting images” formed by lenticular screens or parallax barriers, a relative position and orientation of the detection means and thus the device with respect to the marking element can be determined particularly easily can. When using purely two-dimensional markings, the problem arises that a relative orientation of the detection means and the marking can only be recognized due to a compression of the depicted marking. Thus, in some applications it can be difficult to distinguish between a pure scaling of the marking due to a change in distance and a compression due to a change in orientation. Therefore, several markings are used in the prior art to determine a position and orientation of a device with respect to these markings. By using viewpoint-dependent textures or by using three-dimensional structures, a distinction can be made between these cases, whereby the use of a single marking element can be sufficient to determine the position or orientation of the device with sufficient accuracy.
Ergänzend kann die Positions- bzw. Orientierungsbestimmung auch dadurch verbessert werden, dass diese Größen mit einem Verfahren des Maschinenlernens ermittelt werden. Dies kann in Verbindung mit dem vorangehend erläuterten Markierungselement mit dreidimensionaler Struktur bzw. mit orientierungsabhängiger Textur genutzt werden, Verfahren des Maschinenlernens können bei ausreichendem Training jedoch auch eine gute Genauigkeit der Positions- bzw. Orientierungsbestimmung erreichen, wenn nur ein zweidimensionaler Marker mit fester Textur genutzt wird. In diesem Fall kann das Markierungselement bzw. die Textur vorzugsweise eine vorgegebene Abmessung, insbesondere eine vorgegebene Länge und Breite, aufweisen, um eine robuste Bestimmung der Position und/oder Orientierung zu ermöglichen. Beispielsweise kann das Markierungselement die gleichen Abmessungen aufweisen, wie das zum Training des Verarbeitungsalgorithmus genutzte Markierungselement. Hierbei können Markierungselemente mit voneinander verschiedenen Abmessungen genutzt werden, wenn jeder Abmessung, also z.B. jedem Paar aus Länge und Breite, eine eindeutige Textur zugeordnet ist, sodass durch Erkennung der Textur die vorgegebenen Abmessungen bekannt sind. Die Abmessungen müssen durch den Verarbeitungsalgorithmus nicht explizit ermittelt werden, sondern der Zusammenhang zwischen Textur und Abmessung der Textur bzw. des Markierungselements in den erfassten Umgebungsdaten einerseits und der Position und/oder Orientierung andererseits kann durch den Verarbeitungsalgorithmus direkt erlernt werden.In addition, the position or orientation determination can also be improved by determining these variables using a machine learning method. This can be used in conjunction with the above-described marking element with a three-dimensional structure or with an orientation-dependent texture, but methods of machine learning can also achieve good accuracy in determining the position or orientation with sufficient training if only a two-dimensional marker with a fixed texture is used . In this case, the marking element or the texture can preferably have a predetermined dimension, in particular a predetermined length and width, in order to enable a robust determination of the position and / or orientation. For example, the marking element can have the same dimensions as the marking element used to train the processing algorithm. Here, marking elements with different dimensions can be used if each dimension, e.g. a unique texture is assigned to each pair of length and width, so that the given dimensions are known by recognizing the texture. The dimensions do not have to be determined explicitly by the processing algorithm, but the relationship between texture and dimension of the texture or the marking element in the recorded environmental data on the one hand and the position and / or orientation on the other hand can be learned directly by the processing algorithm.
Die Umgebungsdaten können durch das Erfassungsmittel zweidimensional erfasst werden. Beispielsweise können die Umgebungsdaten durch eine Kamera erfasst werden. Die Position bzw. Orientierung wird insbesondere aus einem einzelnen Bild der Kamera ermittelt. Alternativ wäre es möglich, die Umgebungsdaten derart zu erfassen, dass sie eine Tiefeninformation zu einzelnen Bildpunkten umfassen. Beispielsweise kann eine Time-of-flight-Kamera, ein Laserscanner oder Ähnliches genutzt werden. Ist eine solche Tiefeninformation vorhanden und wird ein Markierungselement mit dreidimensionaler Struktur genutzt, kann die relative Position und Orientierung mit besonders hoher Genauigkeit und/oder besonders einfach bestimmt werden.The environmental data can be acquired two-dimensionally by the acquisition means. For example, the environmental data can be captured by a camera. The position or orientation is determined in particular from a single image of the camera. Alternatively, it would be possible to record the environmental data in such a way that they include depth information on individual pixels. For example, a time-of-flight camera, a laser scanner or the like can be used. If such depth information is available and a marking element with a three-dimensional structure is used, the relative position and orientation can be determined with particularly high accuracy and / or particularly easily.
Die unterschiedlichen Texturen können durch ein Hologramm oder ein Linsenraster oder eine Parallaxbarriere des Markierungselements erzeugt werden. Das Markierungselement kann beispielsweise ausschließlich aus einem Hologramm bestehen oder es kann eine Halterung umfassen, die ein Hologramm haltert. Durch Anordnung eines Linsenrasters oder einer Parallaxbarriere von einer entsprechenden Abbildung kann eine blickwinkelabhängige Bilddarstellung erreicht werden. Als Textur kann insbesondere ein blickwinkelabhängiges Bild auf der Oberfläche dargestellt werden. Prinzipiell kann es sich bei den verschiedenen Texturen um vollständig unterschiedliche Bilder handeln, so dass beispielsweise verschiedene Musterungen oder verschiedene geometrische Formen für verschiedene Blickwinkel dargestellt werden. Dies ermöglicht eine besonders einfache Unterscheidung zwischen den einzelnen Bildern und somit zwischen den einzelnen Blickrichtungen, wobei jedoch typischerweise eine relativ grobe Winkelabstufung erreicht wird.The different textures can be generated by a hologram or a lenticular screen or a parallax barrier of the marking element. The marking element can, for example, consist exclusively of a hologram, or it can comprise a holder which holds a hologram. By arranging a lenticular grid or a parallax barrier from a corresponding image, a viewing angle-dependent image display can be achieved. In particular, an image that is dependent on the viewing angle can be represented on the surface as the texture. In principle, the different textures can be completely different images, so that, for example, different patterns or different geometric shapes are shown for different angles. This enables a particularly simple distinction between the individual images and thus between the individual viewing directions, but typically a relatively coarse angle gradation is achieved.
Es ist auch möglich, dass die für die verschiedenen Orientierungen der Oberfläche bezüglich des Erfassungsmittels abgebildeten Texturen jeweils eine Abbildung des gleichen dreidimensionalen Musters aus einer der jeweiligen Orientierung zugeordneten Perspektive sind. Dies kann insbesondere erreicht werden, indem die Texturen durch Nutzung eines Hologramms erzeugt werden. In diesem Fall verhält sich die Oberfläche bezüglich einer Abbildung im Wesentlichen so, als wäre das dreidimensionale Muster eine tatsächlich im Bereich der Oberfläche angeordnete dreidimensionale Struktur. Somit können die im Folgenden noch genauer erläuterten Ansätze zur Auswertung von erfassten dreidimensionalen Strukturen zur Bestimmung der Position und Orientierung auch für derartige blickwinkelabhängige Texturen genutzt werden.It is also possible that the textures mapped for the different orientations of the surface with respect to the detection means are each an image of the same three-dimensional pattern from a perspective assigned to the respective orientation. This can be achieved in particular by generating the textures using a hologram. In this case, the surface essentially behaves as if the three-dimensional pattern was a three-dimensional structure that is actually arranged in the region of the surface. The approaches for evaluating detected three-dimensional structures for determining the position and orientation, which are explained in more detail below, can thus also be used for such viewing angle-dependent textures.
In den Umgebungsdaten werden wenigstens zwei Teilstrukturen der dreidimensionalen Struktur oder des dreidimensionalen Musters und/oder die Verdeckung wenigstens eines Abschnitts einer ersten Teilstruktur der dreidimensionalen Struktur oder des dreidimensionalen Musters durch wenigstens eine zweite Teilstruktur der dreidimensionalen Struktur oder des dreidimensionalen Musters erkannt, wobei die Position und/oder Orientierung der Einrichtung in Abhängigkeit der relativen Position der Teilstrukturen oder der Verdeckung ermittelt wird. Hierbei wird ausgenutzt, dass bei dreidimensionalen Oberflächen, insbesondere Oberflächen mit Vorsprüngen oder Vertiefungen, die insbesondere steile Wände aufweisen, vorspringende Teile der Struktur je nach Blickwinkel verschiedene Teile der weiter hintenliegenden Struktur verdecken bzw. das in verschiedenen Abständen liegende Teilstrukturen bei einer zweidimensionalen Abbildung blickwinkelabhängig und somit in Abhängigkeit der Position und Orientierung des Erfassungsmittels bezüglich des Markierungselements, relativ zueinander verschoben werden. Im Vergleich zu einem zweidimensionalen Muster können somit für eine dreidimensionale Struktur Orientierungsänderungen auch bei einer zweidimensionalen Abbildung deutlich leichter erkannt werden. Wie Vorangehend erläutert kann der gleiche Effekt auch genutzt werden, wenn durch ein Hologramm oder Ähnliches ein entsprechender Einfluss der Perspektive auf Verdeckungen bzw. relative Positionen von Teilstrukturen eines dreidimensionalen Muster blickwinkelabhängig abgebildet wird. At least two partial structures of the three-dimensional structure or of the three-dimensional pattern and / or the masking of at least a portion of a first partial structure of the three-dimensional structure or of the three-dimensional pattern by at least a second partial structure of the three-dimensional structure or of the three-dimensional pattern are recognized in the environmental data, the position and / or the orientation of the device is determined as a function of the relative position of the substructures or the concealment. This takes advantage of the fact that, in the case of three-dimensional surfaces, in particular surfaces with protrusions or depressions, which in particular have steep walls, projecting parts of the structure cover different parts of the structure further behind, depending on the viewing angle, or the substructures lying at different distances in a two-dimensional image are dependent on the viewing angle and thus, depending on the position and orientation of the detection means with respect to the marking element, are displaced relative to one another. In comparison to a two-dimensional pattern, changes in orientation for a three-dimensional structure can thus be detected much more easily even with a two-dimensional image. As explained above, the same effect can also be used if a corresponding influence of the perspective on concealments or relative positions of substructures of a three-dimensional pattern is imaged depending on the viewing angle by means of a hologram or the like.
Die Position und/oder Orientierung der Einrichtung kann ergänzend oder relativ in Abhängigkeit einer Ausdehnung der Abbildung der Oberfläche und/oder der Textur und/oder eines Abschnitts der Textur und/oder der dreidimensionalen Struktur und/oder eines Abschnitts der dreidimensionalen Struktur ermittelt werden. Hierbei kann ausgenutzt werden, dass die Abbildung der Oberfläche bzw. der Textur bzw. der dreidimensionalen Struktur mit dem Abstand zwischen Erfassungsmittel und Markierungselement skaliert. Insbesondere kann zunächst wie oben erläutert eine Blickrichtung des Erfassungsmittels auf das Markierungselement und anschließend der Abstand in Abhängigkeit der Ausdehnung ermittelt werden.The position and / or orientation of the device can be determined in addition or relatively depending on an expansion of the image of the surface and / or the texture and / or a section of the texture and / or the three-dimensional structure and / or a section of the three-dimensional structure. It can be used here that the mapping of the surface or the texture or the three-dimensional structure scales with the distance between the detection means and the marking element. In particular, as explained above, a viewing direction of the detection means onto the marking element and then the distance depending on the extent can be determined.
Wie eingangs erläutert, kann es vorteilhaft sein, ein Verfahren des Maschinenlernens zu nutzen, um die Position bzw. Orientierung aus den Umgebungsdaten zu ermitteln. Als Verarbeitungsalgorithmus kann in diesem Fall beispielsweise ein neuronales Netz, insbesondere ein convolutional neural network, genutzt werden. Ein Training kann mit Hilfe von Trainingsdatensätzen erfolgen, wobei insbesondere ein Verfahren der Fehlerrückführung bzw. des Gradientenabstiegs genutzt werden kann, um das neuronale Netz zu trainieren. Auch andere Verfahren des Maschinenlernens können durch Trainingsdatensätze trainiert werden.As explained at the beginning, it can be advantageous to use a machine learning method to determine the position or orientation from the environmental data. In this case, for example, a neural network, in particular a convolutional neural network, can be used as the processing algorithm. A training can be carried out with the aid of training data sets, in particular a method of error feedback or gradient descent can be used to train the neural network. Other methods of machine learning can also be trained using training data sets.
Ein Trainingsdatensatz für ein überwachtes Lernen kann hierbei jeweils Eingangsdaten für den Verarbeitungsalgorithmus und ein Sollergebnis umfassen. Anschließend kann für alle Trainingsdatensätze oder einen Teil der Trainingsdatensätze der Verarbeitungsalgorithmus auf die Eingangsdaten angewandt werden und durch Variation der Verarbeitungsparameter kann eine Abweichung von den Sollergebnissen minimiert werden.A training data record for monitored learning can each include input data for the processing algorithm and a target result. The processing algorithm can then be applied to the input data for all training data sets or a part of the training data sets, and a deviation from the target results can be minimized by varying the processing parameters.
Der Verarbeitungsalgorithmus kann insbesondere durch mehrere Trainingsdatensätze trainiert werden, die Abbildungen des Markierungselements aus verschiedenen Blickwinkeln und/oder Entfernungen umfassen. Die Abbildungen werden vorzugsweise durch das Erfassungsmittel oder ein weiteres, ähnlich aufgebautes oder zumindest im Ergebnis ähnliche Umgebungsdaten lieferndes Erfassungsmittel aufgenommen. Die Sollergebnisse können jeweils den Blickwinkel bzw. die Entfernung für die jeweilige Aufnahme angeben. In diesem Fall gibt der trainierte Verarbeitungsalgorithmus auch zunächst den Blickwinkel und die Entfernung aus, mit denen das Markierungselement erfasst wird. Die Position und/oder Orientierung der Einrichtung kann durch entsprechende Offsets, die aufgrund der bekannten Anordnung des Erfassungsmittels in der Einrichtung bekannt sind, berechnet werden. Alternativ können entsprechende Offsets bereits beim Training, das heißt in dem Sollergebnis, berücksichtigt werden.The processing algorithm can be trained in particular by means of a plurality of training data sets which comprise images of the marking element from different angles and / or distances. The images are preferably recorded by the detection means or a further detection means which is constructed in a similar manner or at least results in similar environmental data as a result. The target results can indicate the viewing angle or the distance for the respective image. In this case, the trained processing algorithm also initially outputs the viewing angle and the distance with which the marking element is detected. The position and / or orientation of the device can be calculated by corresponding offsets, which are known due to the known arrangement of the detection means in the device. Alternatively, corresponding offsets can already be taken into account during training, that is to say in the target result.
Neben dem erfindungsgemäßen Verfahren betrifft die Erfindung ein Markierungselement, das zu Teilnahme an dem erfindungsgemäßen Verfahren eingerichtet ist. Insbesondere kann das Markierungselement eine dreidimensionale Struktur, insbesondere Vorsprünge und/oder Vertiefungen auf einer dem Erfassungsmittel zugewandten Seite, aufweisen. Alternativ oder ergänzend kann zumindest eine Oberfläche des Markierungselements eine blickwinkelabhängige Textur aufweisen, was beispielsweise dadurch realisiert werden kann, dass diese Oberfläche ein Hologramm, ein Linsenraster, eine Parallaxbarriere oder Ähnliches aufweist.In addition to the method according to the invention, the invention relates to a marking element which is set up to participate in the method according to the invention. In particular, the marking element can have a three-dimensional structure, in particular projections and / or depressions on a side facing the detection means. As an alternative or in addition, at least one surface of the marking element can have a viewing angle-dependent texture, which can be realized, for example, by having a hologram, a lenticular screen, a parallax barrier or the like.
Zudem betrifft die Erfindung eine Einrichtung, insbesondere ein Kraftfahrzeug, mit einem Erfassungsmittel zur Erfassung von Umgebungsdaten und einer Verarbeitungseinrichtung zur Verarbeitung der Umgebungsdaten, wobei die Verarbeitungseinrichtung dazu eingerichtet ist, die Umgebungsdaten gemäß dem erfindungsgemäßen Verfahren zu verarbeiten, um die Position und/oder Orientierung der Einrichtung bezüglich des Markierungselements zu ermitteln. Insbesondere kann es sich bei der Einrichtung um ein Kraftfahrzeug handeln, das dazu eingerichtet ist, teil- oder vollautomatisiert in Abhängigkeit der ermittelten Position und/oder Orientierung zu fahren. Beispielsweise kann das Kraftfahrzeug mit Hilfe des erläuterten Verfahrens in eine bestimmte Parkposition oder auf eine Ladeplatte geführt werden.In addition, the invention relates to a device, in particular a motor vehicle, with a detection means for recording environmental data and a processing device for processing the environmental data, the processing device being set up to process the environmental data in accordance with the inventive method in order to determine the position and / or orientation of the Determine device with respect to the marking element. In particular, the device can be a motor vehicle that is set up to be partially or fully automated as a function to drive the determined position and / or orientation. For example, the motor vehicle can be guided into a specific parking position or onto a loading plate using the method explained.
Weitere Vorteile und Einzelheiten der Erfindung ergeben sich aus den folgenden Ausführungsbeispielen und den zugehörigen Zeichnungen. Hierbei zeigen schematisch.
-
1 ein Ausführungsbeispiel einer erfindungsgemäßen Einrichtung, -
2 -4 verschiedene Ausführungsbeispiele eines erfindungsgemäßen Markierungselements, und -
5 ein Ablaufdiagramm eines Ausführungsbeispiels eines erfindungsgemäßen Verfahrens.
-
1 an embodiment of a device according to the invention, -
2nd -4th different embodiments of a marking element according to the invention, and -
5 a flow diagram of an embodiment of a method according to the invention.
Durch ein Erfassungsmittel
Im Rahmen der Verarbeitung der Umgebungsdaten können eine Entfernung
In dem gezeigten Anwendungsfall werden bislang zweidimensionale Markierungselemente
In dem in
Wird das Markierungselement
Wird eine dreidimensionalen Struktur des Markierungselements
Eine besonders starke Abhängigkeit der Abbildung des Markierungselements
Die gezeigte Abbildung verschiedener Texturen
In einem alternativen Ausführungsbeispiel könnte die Oberfläche
Die Abmessung
Wie Vorangehend detailliert erläutert wurde, können dreidimensionalen Strukturen bzw. blickwinkelabhängige Texturen des Markierungselements durch einen manuell parametrisierten Algorithmus ausgewertet werden, um eine relative Position und Orientierung der Einrichtung
Die Schritte
In Schritt
In Schritt
In Schritt
Claims (7)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018209366.0A DE102018209366B4 (en) | 2018-06-12 | 2018-06-12 | Method for determining a position and / or orientation of a device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018209366.0A DE102018209366B4 (en) | 2018-06-12 | 2018-06-12 | Method for determining a position and / or orientation of a device |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102018209366A1 DE102018209366A1 (en) | 2019-12-12 |
DE102018209366B4 true DE102018209366B4 (en) | 2020-07-02 |
Family
ID=68652166
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102018209366.0A Active DE102018209366B4 (en) | 2018-06-12 | 2018-06-12 | Method for determining a position and / or orientation of a device |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102018209366B4 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010141209A1 (en) | 2009-06-01 | 2010-12-09 | Robert Bosch Gmbh | Method and apparatus for combining three-dimensional position and two-dimensional intensity mapping for localization |
DE102013110785A1 (en) | 2013-09-30 | 2015-04-02 | Bundesdruckerei Gmbh | POSITIONING METHOD FOR POSITIONING A MOBILE DEVICE RELATIVE TO A SECURITY FEATURE OF A DOCUMENT |
US20170016740A1 (en) | 2015-07-16 | 2017-01-19 | Ford Global Technologies, Llc | Method and apparatus for determining a vehicle ego-position |
DE102015220831A1 (en) | 2015-10-26 | 2017-04-27 | Robert Bosch Gmbh | A method and apparatus for determining landmarks for a location determination for a moving object and method and apparatus for locating a moving object |
-
2018
- 2018-06-12 DE DE102018209366.0A patent/DE102018209366B4/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010141209A1 (en) | 2009-06-01 | 2010-12-09 | Robert Bosch Gmbh | Method and apparatus for combining three-dimensional position and two-dimensional intensity mapping for localization |
DE102013110785A1 (en) | 2013-09-30 | 2015-04-02 | Bundesdruckerei Gmbh | POSITIONING METHOD FOR POSITIONING A MOBILE DEVICE RELATIVE TO A SECURITY FEATURE OF A DOCUMENT |
US20170016740A1 (en) | 2015-07-16 | 2017-01-19 | Ford Global Technologies, Llc | Method and apparatus for determining a vehicle ego-position |
DE102015220831A1 (en) | 2015-10-26 | 2017-04-27 | Robert Bosch Gmbh | A method and apparatus for determining landmarks for a location determination for a moving object and method and apparatus for locating a moving object |
Non-Patent Citations (1)
Title |
---|
T. Kühnl: Road Terrain Detection for Advanced Driver Assistance Systems. Dissertation, Universität Bielefeld, 2013. Auszüge: Abstract, Contents, Sn.7-9, 125-130 * |
Also Published As
Publication number | Publication date |
---|---|
DE102018209366A1 (en) | 2019-12-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3497476A1 (en) | Motor vehicle and method for a 360° detection of the surroundings | |
DE102008058279A1 (en) | Method and device for compensating a roll angle | |
WO2018233780A1 (en) | Method and device for measuring damage to bodywork | |
DE112016001150T5 (en) | ESTIMATION OF EXTRINSIC CAMERA PARAMETERS ON THE BASIS OF IMAGES | |
EP2198390A2 (en) | Method for calibrating an assembly using at least one omnidirectional camera and an optical display unit | |
DE102016002186A1 (en) | Method and image processing device for determining a geometric measured variable of an object | |
WO2004113831A1 (en) | Method and measuring device for contactlessly measuring a contour of a surface, and method for automatically correcting coordinates of pixels | |
DE102011086548A1 (en) | Device and method for chassis measurement of a motor vehicle | |
DE102014219423B4 (en) | Dynamic model to compensate for windshield distortion | |
DE102015012344A1 (en) | Method for calibrating a camera | |
DE102018209366B4 (en) | Method for determining a position and / or orientation of a device | |
EP1724726A1 (en) | Method and apparatus for measuring a parking space with a single camera | |
WO2019162327A2 (en) | Method for determining a distance between a motor vehicle and an object | |
DE102010042821B4 (en) | Method and apparatus for determining a basic width of a stereo detection system | |
EP3561772B1 (en) | Method for calibrating an linescanning image recording unit | |
DE102020003465A1 (en) | Method for the detection of objects in monocular RGB images | |
DE102019133719A1 (en) | Correcting an Image | |
DE102018208604A1 (en) | Determining a recording behavior of a recording unit | |
DE102019102561A1 (en) | Process for recognizing a plaster marking | |
DE10042387A1 (en) | Method for transforming 3-D object points to picture elements (pixels) for linear-fan beam sensor images, includes calculating difference between starting coordinates and preceding coordinates | |
DE102018120966A1 (en) | Method for recognizing a part of a trailer and trailer detection system for a towing vehicle | |
DE102019100303A1 (en) | Method and device for determining a curvature of a roadway | |
DE102012025463A1 (en) | Method for determining e.g. pitch angle change of passenger car to determine proper motion of car in six different degrees of freedom, involves determining parameter based on pair of image features and associated image features of images | |
DE102016224131B3 (en) | Determination of movement data of a vehicle-external object by a driver assistance system | |
DE102022001653B4 (en) | Computer-implemented method for determining an environment reconstruction, computer program for carrying out such a method, computing device for carrying out such a method, analysis device with such a computing device and computer-implemented method for training a computer-implemented algorithm for determining depth information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final |