DE102015104065A1 - A method for determining a position of an object in a three-dimensional world coordinate system, computer program product, camera system and motor vehicle - Google Patents
A method for determining a position of an object in a three-dimensional world coordinate system, computer program product, camera system and motor vehicle Download PDFInfo
- Publication number
- DE102015104065A1 DE102015104065A1 DE102015104065.4A DE102015104065A DE102015104065A1 DE 102015104065 A1 DE102015104065 A1 DE 102015104065A1 DE 102015104065 A DE102015104065 A DE 102015104065A DE 102015104065 A1 DE102015104065 A1 DE 102015104065A1
- Authority
- DE
- Germany
- Prior art keywords
- image
- coordinate system
- motor vehicle
- determined
- world coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/586—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zum Bestimmen einer Position eines in einem Umgebungsbereich (6) eines Kraftfahrzeugs (1) angeordneten Objekts (7) in einem dreidimensionalen Weltkoordinatensystem (8), bei welchem folgende Schritte durchgeführt werden: – Bereitstellen eines das Objekt (7) aufweisenden ersten Bilds (9) und eines das Objekt (7) aufweisenden zweiten Bilds (10) einer Bildsequenz mittels einer Kamera (3) des Kraftfahrzeugs (1), – Bestimmen eines ersten charakteristischen Bildpunkts (I1) von dem Objekt (7) in dem ersten Bild (9) und eines zweiten charakteristischen Bildpunkts (I2) von dem Objekt (7) in dem zweiten Bild (10), – Transformieren des in einem zweidimensionalen Bildkoordinatensystem vorliegenden ersten charakteristischen Bildpunkts (I1) in das dreidimensionale Weltkoordinatensystem (8) als erster Strahl (v1) und des in einem zweidimensionalen Bildkoordinatensystem vorliegenden zweiten charakteristischen Bildpunkts (I2) in das dreidimensionale Weltkoordinatensystem (8) als zweiter Strahl (v2), – Bestimmen einer senkrecht zu dem ersten Strahl (v1) und zu dem zweiten Strahl (v2) ausgerichteten Verbindungsgeraden (w), – Bestimmen eines Mittelpunktes (P) der Verbindungsgeraden (w) als die Position des Objekts (7) in dem Umgebungsbereich (6).The invention relates to a method for determining a position of an object (7) arranged in a surrounding area (6) of a motor vehicle (3) in a three-dimensional world coordinate system (8), in which the following steps are carried out: - providing the object (7) first image (9) and a second image (10) of an image sequence comprising the object (7) by means of a camera (3) of the motor vehicle (1), - determining a first characteristic image point (I1) of the object (7) in the first Image (9) and a second characteristic pixel (I2) of the object (7) in the second image (10), transforming the first characteristic pixel (I1) present in a two-dimensional image coordinate system into the three-dimensional world coordinate system (8) as a first beam (v1) and the second characteristic pixel (I2) present in a two-dimensional image coordinate system into the three-dimensional world coordinate natensystem (8) as a second beam (v2), - determining a perpendicular to the first beam (v1) and to the second beam (v2) aligned connecting line (w), - determining a center (P) of the connecting line (w) as the Position of the object (7) in the surrounding area (6).
Description
Die Erfindung betrifft ein Verfahren zum Bestimmen einer Position eines in einem Umgebungsbereich eines Kraftfahrzeugs angeordneten Objekts in einem dreidimensionalen Weltkoordinatensystem. Es werden ein das Objekt aufweisendes erstes Bild und ein das Objekt aufweisendes zweites Bild einer Bildsequenz mittels einer Kamera des Kraftfahrzeugs bereitgestellt. Weiterhin werden ein erster charakteristischer Bildpunkt von dem Objekt in dem ersten Bild und ein zweiter charakteristischer Bildpunkt von dem Objekt in dem zweiten Bild bestimmt. Die Erfindung betrifft auch ein Computerprogrammprodukt, ein Kamerasystem für ein Kraftfahrzeug sowie ein Kraftfahrzeug mit einem Kamerasystem. The invention relates to a method for determining a position of an object arranged in a surrounding area of a motor vehicle in a three-dimensional world coordinate system. A first image having the object and a second image of an image sequence having the object are provided by means of a camera of the motor vehicle. Furthermore, a first characteristic pixel of the object in the first image and a second characteristic pixel of the object in the second image are determined. The invention also relates to a computer program product, a camera system for a motor vehicle and a motor vehicle with a camera system.
Verfahren zum Bestimmen einer Position eines Objekts in einem dreidimensionalen Weltkoordinatensystem sind aus dem Stand der Technik bekannt. So können beispielsweise 3D-Kamerasysteme, wie beispielsweise TOF-Kameras (TOF – Time Of Flight) genutzt werden, um die Position des Objekts in dem dreidimensionalen Weltkoordinatensystem bereitzustellen. Anhand der Position des Objekts in dem dreidimensionalen Weltkoordinatensystem kann beispielsweise ein Abstand des Objekts zu einem Kraftfahrzeug, an welchem das Kamerasystem angeordnet ist, in dem dreidimensionalen Weltkoordinatensystem bestimmt werden. In dem dreidimensionalen Weltkoordinatensystem wird die Position des Objekts und/oder des Kraftfahrzeugs in der Lage und der Höhe bezüglich einer Bezugsfläche, wie beispielsweise der Erdoberfläche, beschrieben. Methods of determining a position of an object in a three-dimensional world coordinate system are known in the art. For example, 3D camera systems, such as TOF (Time Of Flight) cameras, can be used to provide the position of the object in the three-dimensional world coordinate system. On the basis of the position of the object in the three-dimensional world coordinate system, for example, a distance of the object to a motor vehicle on which the camera system is arranged can be determined in the three-dimensional world coordinate system. In the three-dimensional world coordinate system, the position of the object and / or the motor vehicle in the position and the height with respect to a reference surface, such as the earth's surface, will be described.
Vorliegend wird die Position des Objekts in dem dreidimensionalen Weltkoordinatensystem vorzugsweise abhängig von dem Prinzip der Stereoskopie bestimmt. Hierbei werden zumindest zwei Bilder von unterschiedlichen Standorten aus aufgenommen. Das Objekt wird also in jedem der Bilder mit zumindest leicht unterschiedlichen Ansichten dargestellt. Bekannte Verfahren zum Bestimmen der Position des Objekts in dem dreidimensionalen Weltkoordinatensystem nach diesem Prinzip sind üblicherweise rechenaufwendig und langsam. In the present case, the position of the object in the three-dimensional world coordinate system is preferably determined as a function of the principle of stereoscopy. At least two images are taken from different locations. The object is thus displayed in each of the images with at least slightly different views. Known methods for determining the position of the object in the three-dimensional world coordinate system according to this principle are usually computation-intensive and slow.
Es ist Aufgabe der Erfindung, ein Verfahren, ein Computerprogrammprodukt, ein Kamerasystem sowie ein Kraftfahrzeug bereitzustellen, mit welchem bzw. bei welchem das Bestimmen einer Position eines in einem Umgebungsbereich eines Kraftfahrzeugs angeordneten Objekts in einem dreidimensionalen Weltkoordinatensystem schnell und mit wenig Aufwand durchgeführt werden kann. The object of the invention is to provide a method, a computer program product, a camera system and a motor vehicle with which the determination of a position of an object arranged in an environmental region of a motor vehicle can be carried out quickly and with little effort in a three-dimensional world coordinate system.
Diese Aufgabe wird erfindungsgemäß durch ein Verfahren, durch ein Computerprogrammprodukt, durch ein Kamerasystem sowie durch ein Kraftfahrzeug mit den Merkmalen gemäß den jeweiligen unabhängigen Ansprüchen gelöst. This object is achieved by a method by a computer program product, by a camera system and by a motor vehicle with the features according to the respective independent claims.
Bei einem erfindungsgemäßen Verfahren wird eine Position eines in einem Umgebungsbereich des Kraftfahrzeugs angeordneten Objekts in einem dreidimensionalen Weltkoordinatensystem bestimmt. Es werden ein das Objekt aufweisendes erstes Bild und ein das Objekt aufweisendes zweites Bild einer Bildsequenz mittels einer Kamera des Kraftfahrzeugs bereitgestellt. Eine erste Position der Kamera während der Aufnahme des ersten Bilds ist insbesondere unterschiedlich von einer zweiten Position der Kamera während der Aufnahme des zweiten Bilds. Es werden ein erster charakteristischer Bildpunkt von dem Objekt in dem ersten Bild und ein zweiter charakteristischer Bildpunkt von dem Objekt in dem zweiten Bild bestimmt. Als ein wesentlicher Gedanke der Erfindung werden der in einem zweidimensionalen Bildkoordinatensystem vorliegende erste charakteristische Bildpunkt in das dreidimensionale Weltkoordinatensystem als erster Strahl und der in einem zweidimensionalen Bildkoordinatensystem vorliegende zweite charakteristische Bildpunkt in das dreidimensionale Weltkoordinatensystem als zweiter Strahl transformiert. Es wird eine senkrecht zu dem ersten Strahl und senkrecht zu dem zweiten Strahl ausgerichtete Verbindungsgerade bestimmt. Weiterhin wird ein Mittelpunkt der Verbindungsgeraden als die Position des Objekts in dem Umgebungsbereich bestimmt. In a method according to the invention, a position of an object arranged in an environmental region of the motor vehicle is determined in a three-dimensional world coordinate system. A first image having the object and a second image of an image sequence having the object are provided by means of a camera of the motor vehicle. A first position of the camera during the recording of the first image is in particular different from a second position of the camera during the recording of the second image. A first characteristic pixel of the object in the first image and a second characteristic pixel of the object in the second image are determined. As an essential idea of the invention, the first characteristic pixel present in a two-dimensional image coordinate system is transformed into the three-dimensional world coordinate system as a first beam and the second characteristic image point present in a two-dimensional image coordinate system is transformed into the three-dimensional world coordinate system as a second beam. A connecting line aligned perpendicular to the first beam and perpendicular to the second beam is determined. Further, a center of the connecting line is determined as the position of the object in the surrounding area.
Durch das erfindungsgemäße Verfahren kann das Bestimmen der Position des in dem Umgebungsbereich des Kraftfahrzeugs angeordneten Objekts in dem dreidimensionalen Weltkoordinatensystem schnell und rechenarm erfolgen. Die Position kann also mit wenig Aufwand bereitgestellt werden. The method according to the invention makes it possible to determine the position of the object arranged in the surrounding area of the motor vehicle in the three-dimensional world coordinate system quickly and with little computation. The position can therefore be provided with little effort.
Die Position des Objekts wird insbesondere nur anhand von zwei Bildern der Bildsequenz, welche an unterschiedlichen Standorten aufgenommen werden, bestimmt. Das Bestimmen des ersten charakteristischen Bildpunkts kann beispielsweise initial mit einem Interest-Punktoperator erfolgen. Der erste charakteristische Bildpunkt kann aber ebenso wie der zweite charakteristische Bildpunkt abhängig von einem beispielsweise zu einem früheren Zeitpunkt bestimmten charakteristischen Bildpunkt mittels eines Verfahrens zur Verfolgung der charakteristischen Bildpunkte bestimmt werden. So können der erste charakteristische Bildpunkt und der zweite charakteristische Bildpunkt beispielsweise mit einem Verfahren des optischen Flusses bestimmt werden. Der erste charakteristische Bildpunkt und der zweite charakteristische Bildpunkt liegen insbesondere jeweils in einem zweidimensionalen Bildkoordinatensystem vor. In dem zweidimensionalen Bildkoordinatensystem wird der charakteristische Bildpunkt beispielsweise mit zwei Koordinaten in der Bildebene beschrieben. The position of the object is determined in particular only on the basis of two images of the image sequence which are recorded at different locations. The determination of the first characteristic pixel may be carried out, for example, initially with an interest point operator. However, as with the second characteristic pixel, the first characteristic pixel can be determined by a method for tracking the characteristic pixels, depending on a characteristic pixel determined, for example, at an earlier point in time. For example, the first characteristic pixel and the second characteristic pixel may be determined by a method of optical flow. The first characteristic pixel and the second characteristic pixel are in each case in each case in a two-dimensional image coordinate system. In the two-dimensional image coordinate system, the characteristic pixel is described with, for example, two coordinates in the image plane.
Das Transformieren des ersten charakteristischen Bildpunkts und des zweiten charakteristischen Bildpunkts in das dreidimensionale Weltkoordinatensystem erfolgt insbesondere mit dem Wissen über Kalibrierungsparameter der Kamera und einer ermittelten Position und Orientierung der Kamera zum Zeitpunkt der Aufnahme des ersten Bilds und/oder des zweiten Bilds. Die Transformation kann dann mit einem Translationsvektor und einer Rotationsmatrix durchgeführt werden. Nach dem Transformieren liegt der erste charakteristische Bildpunkt in dem dreidimensionalen Weltkoordinatensystem als erster Strahl vor, während der zweite charakteristische Bildpunkt als zweiter Strahl vorliegt. Durch den ersten Strahl sowie durch den zweiten Strahl wird eine Positionsunschärfe beschrieben, welche darin begründet ist, dass eine zweidimensionale Koordinate in ein dreidimensionales Koordinatensystem transformiert wird. Die dritte Dimension, welche insbesondere durch einen Abstand von dem Kraftfahrzeug bzw. der Kamera zu dem Objekt charakterisiert wird, kann anhand eines einzigen Bilds nicht bestimmt werden. In einem selten auftretenden Idealfall schneiden sich der erste Strahl und der zweite Strahl an der Position des Objekts in dem dreidimensionalen Weltkoordinatensystem. In der Realität schneiden sich der erste Strahl und der zweite Strahl allerdings meistens nicht. Deshalb wird die Verbindungsgerade senkrecht zu dem ersten Strahl und senkrecht zu dem zweiten Strahl bestimmt. Die Verbindungsgerade ist insbesondere die kürzeste zu beiden Strahlen senkrecht ausgerichtete Verbindung zwischen dem ersten Strahl und dem zweiten Strahl. Die Verbindungsgerade wird also insbesondere dort angeordnet, wo sich der erste Strahl und der zweite Strahl mit der kürzest möglichen, auf beiden Strahlen vorzugsweise senkrechten Verbindungsgeraden verbinden lassen. Die Verbindungsgerade ist insbesondere als eine Strecke ausgebildet, welche einen Anfangspunkt an dem ersten Strahl oder dem zweiten Strahl und einen Endpunkt an dem zweiten Strahl oder dem ersten Strahl aufweist. Die Strecke ist insbesondere gerade und nicht kurvig ausgebildet. Auf der Verbindungsgeraden wird der Mittelpunkt bestimmt. Von dem Mittelpunkt aus ist der Schnittpunkt der Verbindungsgeraden mit dem ersten Strahl gleich weit entfernt wie der Schnittpunkt der Verbindungsgeraden mit dem zweiten Strahl. Durch den Mittelpunkt wird die Position des Objekts in dem Umgebungsbereich bestimmt. Die Position des Objekts wird also durch den Mittelpunkt in dem dreidimensionalen Weltkoordinatensystem beschrieben. The transformation of the first characteristic pixel and the second characteristic pixel into the three-dimensional world coordinate system takes place, in particular, with the knowledge of calibration parameters of the camera and a determined position and orientation of the camera at the time of recording the first image and / or the second image. The transformation can then be performed with a translation vector and a rotation matrix. After the transformation, the first characteristic pixel is present in the three-dimensional world coordinate system as the first beam, while the second characteristic pixel is present as a second beam. By the first beam and by the second beam, a position blurring is described, which is due to the fact that a two-dimensional coordinate is transformed into a three-dimensional coordinate system. The third dimension, which is characterized in particular by a distance from the motor vehicle or the camera to the object, can not be determined on the basis of a single image. In a rarely occurring ideal case, the first beam and the second beam intersect at the position of the object in the three-dimensional world coordinate system. In reality, however, most of the first ray and the second ray do not intersect. Therefore, the connecting line is determined perpendicular to the first beam and perpendicular to the second beam. The connecting straight line is, in particular, the shortest connection, perpendicular to both beams, between the first beam and the second beam. The connecting straight line is therefore arranged in particular where the first beam and the second beam can be connected to the shortest possible connecting straight line, which is preferably perpendicular on both beams. In particular, the connecting line is formed as a path having a starting point on the first beam or the second beam and an end point on the second beam or the first beam. The track is especially straight and not curvy trained. The midpoint is determined on the connecting straight line. From the center, the intersection of the connecting line with the first beam is the same distance as the intersection of the connecting line with the second beam. The center determines the position of the object in the surrounding area. The position of the object is thus described by the center point in the three-dimensional world coordinate system.
Durch die Position des Objekts in dem dreidimensionalen Weltkoordinatensystem kann beispielsweise ein Abstand von dem Objekt zu dem Kraftfahrzeug bzw. zu der Kamera bestimmt werden. Weiterhin kann von dem Objekt beispielsweise eine 3D-Rekonstruktion bestimmt werden. Somit kann das Kraftfahrzeug beispielsweise bei einem Parkvorgang unterstützt werden. By the position of the object in the three-dimensional world coordinate system, for example, a distance from the object to the motor vehicle or to the camera can be determined. Furthermore, for example, a 3D reconstruction of the object can be determined. Thus, the motor vehicle can be supported for example in a parking operation.
Insbesondere ist es vorgesehen, dass das Transformieren von dem zweidimensionalen Bildkoordinatensystem in das dreidimensionale Weltkoordinatensystem abhängig von Orientierungsparametern des Kraftfahrzeugs, welche durch Odometrie und/oder visuelle Odometrie bestimmt werden, durchgeführt wird. Die Odometrie bezeichnet eine Methode der Schätzung von Position und Orientierung eines mobilen Systems anhand der Daten seines Vortriebs. Die Daten der Odometrie können beispielsweise von einem CAN-Bus des Kraftfahrzeugs bereitgestellt werden. Die visuelle Odometrie kann beispielsweise anhand des ersten Bilds und/oder des zweiten Bilds und/oder weiteren Bildern von Kameras des Kraftfahrzeugs durchgeführt werden. Vorteilhaft ist auch, dass die Odometrie und die visuelle Odometrie kombiniert werden können. So kann es beispielsweise sein, dass die Odometrie durch die visuelle Odometrie ergänzt bzw. verbessert wird. Die Orientierungsparameter des Kraftfahrzeugs können also genau und zuverlässig bestimmt werden. Somit kann die Transformation ebenfalls genau und zuverlässig erfolgen. In particular, it is provided that the transformation from the two-dimensional image coordinate system into the three-dimensional world coordinate system is carried out as a function of orientation parameters of the motor vehicle, which are determined by odometry and / or visual odometry. Odometry is a method of estimating the position and orientation of a mobile system based on the data of its propulsion. The data of the odometry can be provided for example by a CAN bus of the motor vehicle. The visual odometry can be carried out, for example, on the basis of the first image and / or the second image and / or further images of cameras of the motor vehicle. It is also advantageous that odometry and visual odometry can be combined. For example, it may be that odometry is supplemented or improved by visual odometry. The orientation parameters of the motor vehicle can thus be determined accurately and reliably. Thus, the transformation can also be done accurately and reliably.
Weiterhin kann es vorgesehen sein, dass durch die Orientierungsparameter des Kraftfahrzeugs eine Gierinformation und/oder eine Nickinformation und/oder eine Rollinformation des Kraftfahrzeugs beschrieben wird. Durch die Gierinformation wird insbesondere eine Drehung um eine Hochachse des Kraftfahrzeugs beschrieben. Durch die Nickinformation wird insbesondere eine Drehung um die Querachse des Kraftfahrzeugs beschrieben. Durch die Rollinformation wird eine Drehung um die Längsachse des Kraftfahrzeugs beschrieben. Durch das eindeutige Definieren der Orientierungsparameter kann die Transformation eindeutig durchgeführt werden und somit kann die Position des Objekts zuverlässig bestimmt werden. Furthermore, provision may be made for yaw information and / or pitch information and / or roll information of the motor vehicle to be described by the orientation parameters of the motor vehicle. The yawing information particularly describes a rotation about a vertical axis of the motor vehicle. The pitch information in particular describes a rotation about the transverse axis of the motor vehicle. The roll information describes a rotation about the longitudinal axis of the motor vehicle. By uniquely defining the orientation parameters, the transformation can be performed unambiguously and thus the position of the object can be reliably determined.
Insbesondere ist es vorgesehen, dass mit dem ersten Strahl und dem zweiten Strahl ein Strahlenpaar bestimmt wird und der Mittelpunkt der Verbindungsgeraden nur abhängig von dem Strahlenpaar bestimmt wird. Das bedeutet, dass der Mittelpunkt und somit die Position des Objekts insbesondere ausschließlich mit dem ersten charakteristischen Bildpunkt und dem zweiten charakteristischen Bildpunkt bestimmt wird. Dies bedeutet weiterhin, dass der Mittelpunkt und somit die Position des Objekts insbesondere ausschließlich anhand von zwei Bildern der Bildsequenz bestimmt wird. Durch das Strahlenpaar kann die Position des Objekts schnell, effektiv und rechenarm bestimmt werden. Es ist also insbesondere nicht nötig mehr charakteristische Bildpunkte als den ersten charakteristischen Bildpunkt und den zweiten charakteristischen Bildpunkt in das dreidimensionale Weltkoordinatensystem zu transformieren. Somit reichen der erste Strahl und der zweite Strahl insbesondere aus, um die Position des Objekts in dem dreidimensionalen Weltkoordinatensystem zu bestimmen. In particular, it is provided that with the first beam and the second beam, a beam pair is determined and the center of the connecting line is determined only depending on the beam pair. This means that the center and thus the position of the object is determined in particular exclusively with the first characteristic pixel and the second characteristic pixel. This further means that the center and thus the position of the object in particular exclusively based on two pictures of the picture sequence is determined. The beam pair allows the position of the object to be determined quickly, effectively and with little computation. In particular, it is therefore not necessary to transform more characteristic pixels than the first characteristic pixel and the second characteristic pixel into the three-dimensional world coordinate system. In particular, the first beam and the second beam are sufficient to determine the position of the object in the three-dimensional world coordinate system.
In einer weiteren Ausführungsform kann es vorgesehen sein, dass das erste Bild und das zweite Bild als zeitlich unmittelbar aufeinanderfolgende Bilder der Bildsequenz bereitgestellt werden. Somit kann die Position des Objekts innerhalb eines kurzen Zeitraums bestimmt werden. In a further embodiment it can be provided that the first image and the second image are provided as images of the image sequence which follow one after the other in time. Thus, the position of the object can be determined within a short period of time.
Insbesondere ist vorgesehen, dass die durch den Mittelpunkt charakterisierte Position des Objekts in dem Umgebungsbereich durch ein Fehlerprüfverfahren überprüft wird. Durch das Fehlerprüfverfahren kann ermittelt werden, wie zuverlässig die bestimmte Position des Objekts ist. So kann durch das Fehlerprüfverfahren festgestellt werden, dass der Mittelpunkt fehlerhaft ist. Ein fehlerhafter Mittelpunkt, welcher die bestimmte Position des Objekts in dem Umgebungsbereich fehlerhaft beschreibt kann beispielsweise von dem weiteren Verfahren ausgeschlossen werden. So kann es beispielsweise sein, dass der fehlerhafte Mittelpunkt bei einer Weiterverarbeitung der Information nicht berücksichtigt wird. So kann der fehlerhafte Mittelpunkt beispielsweise bei einer 3D Rekonstruktion des Objekts nicht berücksichtigt werden. Das Fehlerprüfverfahren wird insbesondere stufenweise durchgeführt, wobei schon der Nachweis eines Fehlers des Mittelpunkts bei einer der Stufen ausreichen kann, um den Mittelpunkt als fehlerhaft einzuordnen. Weiterhin vorteilhaft an dem Fehlerprüfverfahren ist also, dass eine mehrfach mit verschiedenen Ansätzen auf Fehler überprüfte Position des Objekts durch den Mittelpunkt bereitgestellt werden kann. In particular, it is provided that the position of the object characterized by the center point in the surrounding area is checked by an error checking method. The error checking method can be used to determine how reliable the specific position of the object is. Thus, it can be determined by the error checking method that the center is faulty. A faulty center, which erroneously describes the specific position of the object in the surrounding area, can for example be excluded from the further procedure. For example, it may be that the faulty center is not taken into account in further processing of the information. For example, the faulty center can not be taken into account in a 3D reconstruction of the object. In particular, the error checking method is carried out in stages, wherein even the detection of a fault of the center in one of the stages can be sufficient to classify the center as faulty. A further advantage of the error checking method is therefore that a position of the object which has been checked repeatedly with different approaches for errors can be provided by the center.
Vorzugsweise ist vorgesehen, dass der Mittelpunkt in das erste Bild und/oder in das zweite Bild und/oder in ein drittes Bild der Bildsequenz rücktransformiert wird, und das Fehlerprüfverfahren abhängig von der Rücktransformation des Mittelpunkts durchgeführt wird, wobei durch das Rücktransformieren des Mittelpunkts in das erste Bild und/oder in das zweite Bild ein erster Fehlerwert bereitgestellt wird und durch das Rücktransformieren des Mittelpunkts in das dritte Bild ein zweiter Fehlerwert bereitgestellt wird, und die durch den Mittelpunkt charakterisierte Position des Objekts fehlerhaft ist, falls der erste Fehlerwert als ein vorbestimmter erster Fehlergrenzwert bestimmt wird und/oder der zweite Fehlerwert größer als ein vorbestimmter zweiter Fehlergrenzwert bestimmt wird. Die Rücktransformation kann beispielsweise durch ein Invertieren der Transformation von dem ersten charakteristischen Bildpunkt und/oder von dem zweiten charakteristischen Bildpunkt in das dreidimensionale Weltkoordinatensystem erfolgen. Für den Fall, dass nur das erste Bild und das zweite Bild vorliegen, wird der Mittelpunkt in das erste Bild und/oder das zweite Bild rücktransformiert und dessen Lage abhängig von dem ersten Fehlergrenzwert bewertet. So kann es sein, dass der Mittelpunkt als fehlerhaft bewertet wird, falls ein Abstand des Mittelpunkts von dem ersten charakteristischen Bildpunkt in dem ersten Bild und/oder von dem zweiten charakteristischen Bildpunkt in dem zweiten Bild größer als der erste Fehlergrenzwert bestimmt wird. Für den Fall, dass mehr Bilder als das erste Bild und das zweite Bild vorliegen, kann der Mittelpunkt in das dritte Bild rücktransformiert werden. In dem dritten Bild wird vorzugsweise ein dritter charakteristischer Bildpunkt von dem Objekt bestimmt. Der dritte charakteristische Bildpunkt kann beispielsweise auch mittels eines Verfahrens des optischen Flusses bestimmt werden und beispielsweise eine Fortsetzung der Verfolgung des ersten charakteristischen Bildpunkts und des zweiten charakteristischen Bildpunkts sein. Der Mittelpunkt kann also nun als fehlerhaft beurteilt werden, falls ein Abstand von dem Mittelpunkt zu dem dritten charakteristischen Bildpunkt größer ist als der vorbestimmte zweite Fehlergrenzwert. Das Bestimmen der Fehlerhaftigkeit des Mittelpunkts abhängig von dem dritten charakteristischen Bildpunkt bzw. dem dritten Bild ist zuverlässiger als dies anhand des ersten Bilds und/oder des zweiten Bilds durchgeführt werden kann. Dies ist darin begründet, dass der dritte charakteristische Bildpunkt nicht zur Berechnung des Mittelpunkts verwendet wurde. Vorteilhaft ist also, dass anhand des ersten Fehlergrenzwerts und/oder des zweiten Fehlergrenzwerts eine Zuverlässigkeitsbewertung des Mittelpunkts bereitgestellt wird. It is preferably provided that the center point is transformed back into the first image and / or into the second image and / or into a third image of the image sequence, and the error checking method is carried out as a function of the inverse transformation of the center, wherein the inverse transformation of the center point into the first image and / or providing a first error value to the second image, and by inversely transforming the center into the third image, providing a second error value and the position of the object characterized by the midpoint is erroneous if the first error value is a predetermined first Error limit is determined and / or the second error value is determined to be greater than a predetermined second error limit. The inverse transformation can be carried out, for example, by inverting the transformation from the first characteristic pixel and / or from the second characteristic pixel into the three-dimensional world coordinate system. In the event that only the first image and the second image are present, the center is transformed back into the first image and / or the second image and evaluated its position depending on the first error limit. Thus, the center may be judged erroneous if a distance of the center from the first characteristic pixel in the first image and / or from the second characteristic pixel in the second image is determined to be greater than the first error limit. In the event that there are more images than the first image and the second image, the center can be transformed back into the third image. In the third image, a third characteristic pixel is preferably determined by the object. The third characteristic pixel may, for example, also be determined by means of a method of optical flow and be, for example, a continuation of the tracking of the first characteristic pixel and the second characteristic pixel. Thus, the center point can now be assessed as erroneous if a distance from the center point to the third characteristic pixel is greater than the predetermined second error limit value. Determining the defectiveness of the center as a function of the third characteristic pixel or the third image is more reliable than can be carried out on the basis of the first image and / or the second image. This is because the third characteristic pixel was not used to calculate the center. It is therefore advantageous that a reliability assessment of the center is provided on the basis of the first error limit value and / or the second error limit value.
Weiterhin ist es vorzugsweise vorgesehen, dass eine Länge der Verbindungsgeraden bestimmt wird, und das Fehlerprüfverfahren abhängig von der Länge der Verbindungsgeraden durchgeführt wird, und die durch den Mittelpunkt charakterisierte Position des Objekts fehlerhaft beurteilt wird, falls die Länge größer als ein vorbestimmter Längengrenzwert ist. Mit der Länge wird also der Abstand von dem Schnittpunkt der Verbindungsgeraden mit dem ersten Strahl und dem Schnittpunkt mit dem zweiten Strahl bestimmt. Die Länge ist also der Betrag der Strecke der Verbindungsgeraden. Durch die Länge wird beschrieben, wie weit der erste Strahl und der zweite Strahl auseinander liegen. Ist dies größer als der vorbestimmte Längengrenzwert, so wird der Mittelpunkt als fehlerhaft beurteilt. Die Länge kann beispielsweise größer als der vorbestimmte Längengrenzwert sein, falls fehlerhafte Orientierungsparameter des Kraftfahrzeugs vorgelegen haben und für das Transformieren verwendet wurden. Vorteilhaft ist also, dass anhand der Länge der Verbindungsgeraden eine Aussage über die Zuverlässigkeit des Mittelpunkts bzw. der Position des Objekts in dem dreidimensionalen Weltkoordinatensystem getroffen werden kann. Furthermore, it is preferably provided that a length of the connecting straight line is determined, and the error checking method is carried out depending on the length of the connecting straight line, and the position of the object characterized by the center point is assessed erroneously if the length is greater than a predetermined length limit value. With the length so the distance from the intersection of the connecting line with the first beam and the intersection with the second beam is determined. The length is thus the amount of the route of the connecting line. The length describes how far apart the first beam and the second beam are. If this is greater than the predetermined length limit, the center is judged to be faulty. The length may be, for example, greater than the predetermined length limit, if erroneous orientation parameters of the motor vehicle have been present and were used for the transformation. It is therefore advantageous that on the basis of the length of the connecting line a Statement about the reliability of the center or the position of the object in the three-dimensional world coordinate system can be made.
Weiterhin ist es vorzugsweise vorgesehen, dass ein Winkel zwischen dem ersten Strahl und dem zweiten Strahl bestimmt wird, und das Fehlerprüfverfahren abhängig von dem Winkel durchgeführt wird, und die durch den Mittelpunkt charakterisierte Position des Objekts fehlerhaft beurteilt wird, falls der Winkel größer als ein Winkelgrenzwert ist. Der Winkelgrenzwert kann beispielsweise abhängig von einer Position der Kamera während der Aufnahme des ersten Bilds und einer Position der Kamera während der Aufnahme des zweiten Bilds bestimmt werden. Insbesondere ist der Unterschied zwischen den Positionen durch die Orientierungsparameter des Kraftfahrzeugs bekannt. Durch den Winkel wird vorzugsweise ermittelt, wie nahe der erste Strahl und der zweite Strahl an einem parallelen Zustand des ersten Strahls und des zweiten Strahls sind. Je näher der erste Strahl und der zweite Strahl an dem parallelen Zustand sind desto kleiner ist der Winkel zwischen dem ersten Strahl und dem zweiten Strahl. Falls der Winkel also größer als der Winkelgrenzwert ist, so wird der Mittelpunkt und somit die Position des Objekts als fehlerhaft beurteilt. Dies bedeutet auch, dass falls der Winkel kleiner oder gleich als der Winkelgrenzwert ist, so wird der Mittelpunkt als zuverlässig angesehen. Vorteilhaft ist also, dass die Zuverlässigkeit des Mittelpunkts bzw. der Position des Objekts abhängig von dem Winkel bestimmt werden kann. Die Zuverlässigkeit des Mittelpunkts kann somit weiter erhöht werden. Furthermore, it is preferably provided that an angle between the first beam and the second beam is determined, and the error checking method is performed depending on the angle, and the position of the object characterized by the center is erroneously judged if the angle is greater than an angle limit is. For example, the angle threshold may be determined depending on a position of the camera during the capture of the first image and a position of the camera during capture of the second image. In particular, the difference between the positions is known by the orientation parameters of the motor vehicle. The angle preferably determines how close the first beam and the second beam are to a parallel state of the first beam and the second beam. The closer the first beam and the second beam are to the parallel state, the smaller the angle between the first beam and the second beam. If the angle is therefore greater than the angle limit value, then the center point and thus the position of the object is assessed as erroneous. This also means that if the angle is less than or equal to the angle limit, the center is considered reliable. It is therefore advantageous that the reliability of the center or the position of the object can be determined depending on the angle. The reliability of the center can thus be further increased.
Weiterhin ist es vorzugsweise vorgesehen, dass eine Mehrzahl von charakteristischen Bildpunkten des Objekts in einer Mehrzahl von Bildern der Bildsequenz bestimmt wird, und jeweils anhand zwei der charakteristischen Bildpunkte eine Mehrzahl von Bildpunkten bestimmt wird und das Fehlerprüfverfahren abhängig von der Mehrzahl der Mittelpunkte durchgeführt wird, und die durch den Mittelpunkt charakterisierte Position des Objekts fehlerhaft beurteilt wird, falls eine vorbestimmte Anzahl von der Mehrzahl der Mittelpunkte weniger als ein vorbestimmter Abstand von dem Mittelpunkt entfernt ist. Somit kann die Zuverlässigkeit anhand einer örtlichen Verteilung der Mittelpunkte bestimmt werden. Falls also die vorbestimmte Anzahl von der Mehrzahl der Mittelpunkte in der durch den vorbestimmten Abstand festgelegten Entfernung vorhanden ist, so kann der Mittelpunkt als zuverlässig und somit nicht fehlerhaft beurteilt werden. Furthermore, it is preferably provided that a plurality of characteristic pixels of the object in a plurality of images of the image sequence is determined, and each of two of the characteristic pixels, a plurality of pixels is determined and the error checking method is performed depending on the plurality of centers, and the position of the object characterized by the center point is misjudged if a predetermined number of the plurality of centers are less than a predetermined distance away from the center point. Thus, the reliability can be determined by a local distribution of the centers. Thus, if the predetermined number of the plurality of centers is present in the distance set by the predetermined distance, the center may be judged to be reliable and thus not erroneous.
In einer weiteren Ausführungsform ist es vorzugsweise vorgesehen, dass das Fehlerprüfverfahren abhängig von einer Mehrzahl von Abständen der Mehrzahl der Mittelpunkte und/oder einem arithmetischen Mittelwert der Anzahl der Abstände und/oder einer Standardabweichung der Mehrzahl der Abstände durchgeführt wird. So kann die Zuverlässigkeit bzw. die nicht vorhandene Fehlerhaftigkeit des Mittelpunkts abhängig von den anderen Mittelpunkten bestimmt werden. Jedoch können die anderen Mittelpunkte insbesondere schnell bereitgestellt werden, da diese ebenfalls insbesondere nur anhand von zwei Bildern der Bildsequenz bestimmt werden. Durch die Verteilung der anderen Mittelpunkte der Mehrzahl der Mittelpunkte kann der Mittelpunkt anhand des arithmetischen Mittelwerts und/oder der Standardabweichung und/oder den Abständen der Mittelpunkte zu dem Mittelpunkt als zuverlässig beurteilt werden. Somit kann auch die Position des Objekts in dem dreidimensionalen Weltkoordinatensystem als zuverlässig beurteilt werden. In a further embodiment, it is preferably provided that the error checking method is carried out depending on a plurality of distances of the plurality of centers and / or an arithmetic mean of the number of distances and / or a standard deviation of the plurality of distances. Thus, the reliability or non-existent defectiveness of the center can be determined depending on the other centers. However, the other centers can in particular be provided quickly, since they too are determined in particular only on the basis of two images of the image sequence. By distributing the other midpoints of the plurality of midpoints, the midpoint may be judged to be reliable based on the arithmetic mean and / or the standard deviation and / or the distances of the midpoints to the midpoint. Thus, the position of the object in the three-dimensional world coordinate system can also be judged reliable.
Weiterhin kann es vorgesehen sein, dass ein letzter Strahl und/oder ein vorletzter Strahl, welche von zwei Bildern am Ende der Bildsequenz bereitgestellt werden also beispielsweise der vorletzte Strahl von dem vorletzten Bild der Bildsequenz und der letzte Strahl von dem letzten Bild der Bildsequenz ergänzend oder alternativ zur Beurteilung der Zuverlässigkeit des Mittelpunkts herangezogen werden. Das letzte Bild der Bildsequenz bedeutet, dass nach dem letzten Bild kein weiteres Bild der Bildsequenz bereitgestellt wird. So kann es beispielsweise sein, dass ein vorletzter Mittelpunkt des vorletzten Strahls und ein letzter Mittelpunkt des letzten Strahls durch das Fehlerprüfverfahren als fehlerhaft beurteilt werden. Diese Beurteilung kann beispielsweise durch eine Visualisierung des Mittelpunkts in vorzugsweise einem Kraftfahrzeugkoordinatensystem erfolgen. Vorteilhaft ist diese Fehlerüberprüfung für den Fall des plötzlichen Verzögerns des Kraftfahrzeugs. In diesem Fall fällt die Geschwindigkeit des Kraftfahrzeugs plötzlich gegen 0 ab. Dies kann dazu führen, dass die Odometrie und/oder die visuelle Odometrie nicht korrekt durchgeführt werden kann. Die Daten für die Transformation liegen somit ebenfalls nicht mehr korrekt vor. Der in diesem Fall so bestimmte Mittelpunkt kann nun als fehlerhaft beurteilt werden und bei beispielsweise einer folgenden 3D Rekonstruktion nicht berücksichtigt werden. Furthermore, it may be provided that a last beam and / or a penultimate beam, which are provided by two images at the end of the image sequence, for example, the penultimate ray of the penultimate image of the image sequence and the last ray of the last image of the image sequence complementary or alternatively to assess the reliability of the center. The last image of the image sequence means that after the last image no further image of the image sequence is provided. For example, it may be that a penultimate midpoint of the penultimate ray and a last midpoint of the last ray are judged to be defective by the error checking method. This assessment can be done for example by visualizing the center in preferably a motor vehicle coordinate system. This error check is advantageous for the case of the sudden deceleration of the motor vehicle. In this case, the speed of the motor vehicle suddenly drops to zero. This may result in odometry and / or visual odometry not being performed correctly. The data for the transformation are thus also no longer correct. The center determined in this case can now be judged as defective and not taken into account in, for example, a subsequent 3D reconstruction.
Die Erfindung betrifft auch ein Computerprogrammprodukt, welches zum Ausführen eines erfindungsgemäßen Verfahrens ausgebildet ist, wenn das Computerprogrammprodukt auf einer programmierbaren Computereinrichtung ausgeführt wird. The invention also relates to a computer program product which is designed to carry out a method according to the invention when the computer program product is executed on a programmable computer device.
Zudem betrifft die Erfindung ein Kamerasystem mit einer Kamera und einer Auswerteeinheit, wobei das Kamerasystem dazu ausgelegt ist, ein erfindungsgemäßes Verfahren durchzuführen. Die Auswerteeinheit kann beispielsweise in der Kamera integriert sein oder als separate Einheit vorliegen. Die Kamera ist vorzugsweise mit der Auswerteeinheit verbunden. In addition, the invention relates to a camera system with a camera and an evaluation unit, wherein the camera system is designed to perform a method according to the invention. The evaluation unit For example, it can be integrated in the camera or be present as a separate unit. The camera is preferably connected to the evaluation unit.
Ein erfindungsgemäßes Kraftfahrzeug, insbesondere ein Personenkraftwagen, umfasst ein erfindungsgemäßes Kamerasystem oder eine vorteilhafte Ausführung davon. A motor vehicle according to the invention, in particular a passenger car, comprises a camera system according to the invention or an advantageous embodiment thereof.
Die mit Bezug auf das erfindungsgemäße Verfahren vorgestellten bevorzugten Ausführungsformen und deren Vorteile gelten entsprechend für das erfindungsgemäße Computerprogrammprodukt, das erfindungsgemäße Kamerasystem sowie für das erfindungsgemäße Kraftfahrzeug. The preferred embodiments presented with reference to the method according to the invention and their advantages apply correspondingly to the computer program product according to the invention, the camera system according to the invention and to the motor vehicle according to the invention.
Mit den Angaben „oben“, „unten“, „horizontal“, „vertikal“, „Front“, „Heck“ etc. sind die bei bestimmungsgemäßem Gebrauch und bestimmungsgemäßem Anordnen des Kamerasystems, dessen Anordnung am Kraftfahrzeug, und des Kraftfahrzeugs und bei einem dann vor dem Kamerasystem oder dem Kraftfahrzeug stehenden und in Richtung des Kamerasystems oder des Kraftfahrzeugs blickenden Beobachter gegebenen Positionen und Orientierungen angegeben. With the information "top", "bottom", "horizontal", "vertical", "front", "rear" etc. are the intended use and proper arrangement of the camera system, its arrangement on the motor vehicle, and the motor vehicle and a then given in front of the camera system or the motor vehicle and given in the direction of the camera system or the motor vehicle observer given positions and orientations.
Weitere Merkmale der Erfindung ergeben sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung. Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar, ohne den Rahmen der Erfindung zu verlassen. Es sind somit auch Ausführungen von der Erfindung als umfasst und offenbart anzusehen, die in den Figuren nicht explizit gezeigt und erläutert sind, jedoch durch separierte Merkmalskombinationen aus den erläuterten Ausführungen hervorgehen und erzeugbar sind. Es sind auch Ausführungen und Merkmalskombinationen als offenbart anzusehen, die somit nicht alle Merkmale eines ursprünglich formulierten unabhängigen Anspruchs aufweisen. Further features of the invention will become apparent from the claims, the figures and the description of the figures. The features and feature combinations mentioned above in the description as well as the features and feature combinations mentioned below in the description of the figures and / or shown alone in the figures can be used not only in the respectively specified combination but also in other combinations or in isolation, without the scope of To leave invention. Thus, embodiments of the invention are to be regarded as encompassed and disclosed, which are not explicitly shown and explained in the figures, however, emerge and can be produced by separated combinations of features from the embodiments explained. Embodiments and combinations of features are also to be regarded as disclosed, which thus do not have all the features of an originally formulated independent claim.
Die Ausführungsbeispiele der Erfindung werden nachfolgend anhand schematischer Zeichnungen näher erläutert. The embodiments of the invention will be explained in more detail with reference to schematic drawings.
Dabei zeigen: Showing:
In den Figuren werden gleiche oder funktionsgleiche Elemente mit den gleichen Bezugszeichen versehen. In the figures, identical or functionally identical elements are provided with the same reference numerals.
In
Zwischen dem ersten Strahl v1 und dem zweiten Strahl v2 wird eine Verbindungsgerade w bestimmt. Die Verbindungsgerade w ist senkrecht zu dem ersten Strahl v1 und senkrecht zu dem zweiten Strahl v2 ausgerichtet. Die Verbindungsgerade w schneidet den ersten Strahl v1 in einem ersten Objektpunkt P1 und den zweiten Strahl v2 in einem zweiten Objektpunkt P2. Der erste Objektpunkt P1 und der zweite Objektpunkt P2 beschreiben grob die Position des Objekts
Mathematisch kann das Bestimmen des Mittelpunkts P wie folgt beschrieben werden:
Es werden Hilfsparameter t und k eingeführt. Die Hilfsparameter t und k werden später wieder aufgelöst.
Es werden die Hilfsvariablen a1, a2, a3, a4 und a5 eingeführt und durch bekannte Parameter definiert.
Folglich ist:
Nachdem a1 ≠ 0 und a2 ≠ 0 können die Hilfsvariablen wie folgt umgestellt werden:
Schließlich ergibt sich für die Hilfsparameter t und k: Finally, for the auxiliary parameters t and k:
Der Mittelpunkt P wird nun folgendermaßen bestimmt: The center point P is now determined as follows:
Nach dem Schritt S6 folgt also ein erstes Ergebnis Y des Fehlerprüfverfahrens oder ein zweites Ergebnis N des Fehlerprüfverfahrens. Gemäß dem ersten Ergebnis Y des Fehlerprüfverfahrens ist der jeweilige Mittelpunkt P als fehlerfrei beurteilt worden, während gemäß dem zweiten Ergebnis N der jeweilige Mittelpunkt P als fehlerhaft beurteilt wurde. After step S6, a first result Y of the error checking method or a second result N of the error checking method follows. According to the first result Y of the error checking method, the respective center point P has been judged to be correct, while according to the second result N, the respective center point P has been judged as being defective.
Falls der nahe an der Parallelität liegende Zustand PZ nun geringer ist als ein Grenzwert kann die Lage der Strahlen v1, v2 als im Wesentlichen parallel angenommen werden und der Mittelpunkt P kann als nicht fehlerhaft beurteilt werden. Dies gilt insbesondere dann, wenn das erste Bild
In einem Schritt S14d wird der Mittelpunkt P mit einer Mehrzahl von Mittelpunkten P verglichen. Der Mittelpunkt P wird als fehlerfrei und zuverlässig betrachtet, falls eine vorbestimmte Anzahl von der Mehrzahl der Mittelpunkte P weniger als ein vorbestimmter Abstand von dem Mittelpunkt P entfernt ist. In dem Schritt S14d wird also die gesamte Verteilung der Mittelpunkte P, welche über die Bildsequenz von dem Objekt
Wird die Fehlerüberprüfung des Mittelpunkts P nicht bestanden, so wird mit dem Schritt S11 weiter fortgefahren. Wird das Fehlerprüfverfahren jedoch erfolgreich durchlaufen, so folgt ein Schritt S16, mit welchem der Mittelpunkt P als Kandidat für die Position des Objekts
Eine weitere Möglichkeit ergänzend oder alternativ zu dem Selbstrückprojektionsüberprüfungsverfahren kann bereitgestellt werden, falls die Bildsequenz mehr als zwei Bilder umfasst. In diesem Fall liegt zumindest ein drittes Bild
Claims (14)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102015104065.4A DE102015104065A1 (en) | 2015-03-18 | 2015-03-18 | A method for determining a position of an object in a three-dimensional world coordinate system, computer program product, camera system and motor vehicle |
PCT/EP2016/055393 WO2016146559A1 (en) | 2015-03-18 | 2016-03-14 | Method for determining a position of an object in a three-dimensional world coordinate system, computer program product, camera system and motor vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102015104065.4A DE102015104065A1 (en) | 2015-03-18 | 2015-03-18 | A method for determining a position of an object in a three-dimensional world coordinate system, computer program product, camera system and motor vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102015104065A1 true DE102015104065A1 (en) | 2016-09-22 |
Family
ID=55642408
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102015104065.4A Pending DE102015104065A1 (en) | 2015-03-18 | 2015-03-18 | A method for determining a position of an object in a three-dimensional world coordinate system, computer program product, camera system and motor vehicle |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE102015104065A1 (en) |
WO (1) | WO2016146559A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10846541B2 (en) | 2017-01-04 | 2020-11-24 | Qualcomm Incorporated | Systems and methods for classifying road features |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106527487A (en) * | 2016-12-23 | 2017-03-22 | 北京理工大学 | Autonomous precision landing system of unmanned aerial vehicle on motion platform and landing method |
EP3388972B1 (en) * | 2017-04-13 | 2020-08-26 | Aptiv Technologies Limited | A method and a device for generating an occupancy map of an environment of a vehicle |
DE102019102561A1 (en) | 2019-02-01 | 2020-08-06 | Connaught Electronics Ltd. | Process for recognizing a plaster marking |
CN113538578B (en) * | 2021-06-22 | 2023-07-25 | 恒睿(重庆)人工智能技术研究院有限公司 | Target positioning method, device, computer equipment and storage medium |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102005010225A1 (en) * | 2005-03-05 | 2006-09-07 | Daimlerchrysler Ag | Method for comparing a real object with a digital model |
DE102009012435A1 (en) * | 2008-03-27 | 2010-01-07 | Mando Corp., Pyungtaek | Apparatus and method for monocular motion stereo-based detection of free parking spaces |
US20140316698A1 (en) * | 2013-02-21 | 2014-10-23 | Regents Of The University Of Minnesota | Observability-constrained vision-aided inertial navigation |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102012023060A1 (en) * | 2012-11-24 | 2014-06-12 | Connaught Electronics Ltd. | Method for detecting moving object in surrounding region of motor vehicle e.g.passenger car, involves determining vector values within the respective interval values, such movable object is detected based on histogram |
-
2015
- 2015-03-18 DE DE102015104065.4A patent/DE102015104065A1/en active Pending
-
2016
- 2016-03-14 WO PCT/EP2016/055393 patent/WO2016146559A1/en active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102005010225A1 (en) * | 2005-03-05 | 2006-09-07 | Daimlerchrysler Ag | Method for comparing a real object with a digital model |
DE102009012435A1 (en) * | 2008-03-27 | 2010-01-07 | Mando Corp., Pyungtaek | Apparatus and method for monocular motion stereo-based detection of free parking spaces |
US20140316698A1 (en) * | 2013-02-21 | 2014-10-23 | Regents Of The University Of Minnesota | Observability-constrained vision-aided inertial navigation |
Non-Patent Citations (2)
Title |
---|
Beardsley, P. A.; Zisserman, A.; Murray, D. W.: Navigation using affine structure from motion. In: Computer Vision — ECCV '94, Third European Conference on Computer Vision Stockholm, Sweden, May 2–6 1994 Proceedings, Volume II, pp 85-96. Springer [online]. DOI: 10.1007/BFb0028337 |
Beardsley, P. A.; Zisserman, A.; Murray, D. W.: Navigation using affine structure from motion. In: Computer Vision - ECCV '94, Third European Conference on Computer Vision Stockholm, Sweden, May 2-6 1994 Proceedings, Volume II, pp 85-96. Springer [online]. DOI: 10.1007/BFb0028337 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10846541B2 (en) | 2017-01-04 | 2020-11-24 | Qualcomm Incorporated | Systems and methods for classifying road features |
Also Published As
Publication number | Publication date |
---|---|
WO2016146559A1 (en) | 2016-09-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102014209137B4 (en) | Method and device for calibrating a camera system of a motor vehicle | |
DE102015104065A1 (en) | A method for determining a position of an object in a three-dimensional world coordinate system, computer program product, camera system and motor vehicle | |
DE102015107390B4 (en) | Method and device for automatically calibrating all-round vision systems | |
WO2015110207A1 (en) | Method and control unit for detecting a change of a relative heading angle within a stereo-video system for a vehicle | |
DE102017109445A1 (en) | Calibration of a vehicle camera device in the vehicle longitudinal direction or vehicle transverse direction | |
DE102012009577A1 (en) | Method for calibrating squint angle of frame camera of stereo camera arrangement in vehicle, involves calculating travel distance covered by vehicle, and determining deviation between distance and reference distance to calibrate angle | |
EP2166510A1 (en) | Method for calculating the position and orientation of a camera in a vehicle | |
DE102014114221A1 (en) | Method for detecting an object in a surrounding area of a motor vehicle, driver assistance system and motor vehicle | |
DE102018212049A1 (en) | Method for three-dimensional image reconstruction of a vehicle | |
EP3117399A1 (en) | Method for assembling single images that have been taken from different positions by a camera system to form a joint image | |
DE102012023060A1 (en) | Method for detecting moving object in surrounding region of motor vehicle e.g.passenger car, involves determining vector values within the respective interval values, such movable object is detected based on histogram | |
EP3569147B1 (en) | Method and device for determining a geometric calibration for an imaging device and method for determining allocation data for geometric calibration | |
DE102019002269A1 (en) | Method for determining an orientation of a vehicle relative to a motor vehicle | |
DE102017115587A1 (en) | Method for determining a spatial uncertainty in images of a surrounding area of a motor vehicle, driver assistance system and motor vehicle | |
EP3420533B1 (en) | Method for calibrating an optical measurement set-up | |
DE102017000307A1 (en) | Method for calibrating a camera for a motor vehicle taking into account a calibration error, camera and motor vehicle | |
DE102017106484A1 (en) | Determining a pitch angle of an environmental sensor of a vehicle | |
DE102014219428B4 (en) | Self-calibration of a stereo camera system in a car | |
DE102014117708A1 (en) | Method for classifying a flow vector, driver assistance system and motor vehicle | |
DE102014219418B4 (en) | Process for the stereo rectification of stereo camera images and driver assistance system | |
EP3561772B1 (en) | Method for calibrating an linescanning image recording unit | |
DE102015101190A1 (en) | Method for determining an image depth value depending on an image area, camera system and motor vehicle | |
DE102020003465A1 (en) | Method for the detection of objects in monocular RGB images | |
WO2015149970A1 (en) | Method and device for adapting a three-dimensional projection surface for projecting a plurality of adjacent camera images | |
DE102019100303A1 (en) | Method and device for determining a curvature of a roadway |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified | ||
R012 | Request for examination validly filed |