DE102021133091A1 - Method for determining an alignment of a camera unit of a detection device, detection device and vehicle - Google Patents
Method for determining an alignment of a camera unit of a detection device, detection device and vehicle Download PDFInfo
- Publication number
- DE102021133091A1 DE102021133091A1 DE102021133091.2A DE102021133091A DE102021133091A1 DE 102021133091 A1 DE102021133091 A1 DE 102021133091A1 DE 102021133091 A DE102021133091 A DE 102021133091A DE 102021133091 A1 DE102021133091 A1 DE 102021133091A1
- Authority
- DE
- Germany
- Prior art keywords
- vehicle
- predetermined
- detection device
- camera
- pixels
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/20—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/22—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
- B60R1/23—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C25/00—Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B17/00—Details of cameras or camera bodies; Accessories therefor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/40—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the details of the power supply or the coupling to vehicle components
- B60R2300/402—Image calibration
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3602—Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B43/00—Testing correct operation of photographic apparatus or parts thereof
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Manufacturing & Machinery (AREA)
- Mechanical Engineering (AREA)
- Image Analysis (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zur Ermittlung einer Ausrichtung einer Kameraeinheit (3) einer Erfassungseinrichtung (2) eines Fahrzeugs (1) bezüglich einer horizontalen Oberfläche (14) in einer Fahrzeugumgebung (5) des Fahrzeugs (1), wobei durch die Kameraeinheit (3) ein Umgebungsbild (4) der Fahrzeugumgebung (5) erfasst wird, wobei das Umgebungsbild (4) Bildpunkte (6) aufweist, die an jeweiligen Bildpunktkoordinaten (7) des Bildes angeordnet sind, und durch die Erfassungseinrichtung (2) in dem Umgebungsbild (4) ein Bezugsbereich (16) erfasst wird, der die horizontale Oberfläche (14) darstellt, durch die Erfassungseinrichtung (2) nach einem vorbestimmten Tiefenermittlungsverfahren Bildpunkttiefen (18) von zumindest einigen der Bildpunkte (6) in dem Bezugsbereich (16) ermittelt werden, die einen jeweiligen Abstand zur Kameraeinheit (3) beschreiben, durch die Erfassungseinrichtung (2) aus den Bildpunktkoordinaten und den Bildpunkttiefen (18) nach einem vorbestimmten Transformationsverfahren jeweilige räumliche Lagen der Bildpunkte (6) in Bezug auf die Kameraeinheit (3) ermittelt werden, und durch die Erfassungseinrichtung (2) aus den räumliche Lagen der Bildpunkte (6) nach einem vorbestimmten Topografieermittlungsverfahren eine räumliche Kameralage (15) der horizontalen Oberfläche (14) ermittelt wird.The invention relates to a method for determining an alignment of a camera unit (3) of a detection device (2) of a vehicle (1) with respect to a horizontal surface (14) in a vehicle environment (5) of the vehicle (1), with the camera unit (3) an environment image (4) of the vehicle environment (5) is captured, the environment image (4) having pixels (6) which are arranged at respective pixel coordinates (7) of the image, and by the capture device (2) in the environment image (4) a reference area (16) is detected, which represents the horizontal surface (14), by the detection device (2) using a predetermined depth determination method, pixel depths (18) of at least some of the pixels (6) in the reference area (16) are determined, the one describe the respective distance to the camera unit (3), the respective spatial positions of the pixels (6) in relation to the camera unit (3) are determined by the detection device (2) from the pixel coordinates and the pixel depths (18) according to a predetermined transformation method, and by the A spatial camera position (15) of the horizontal surface (14) is determined by a detection device (2) from the spatial positions of the pixels (6) according to a predetermined topography determination method.
Description
Die Erfindung betrifft ein Verfahren zur Ermittlung einer Ausrichtung einer Kameraeinheit einer Erfassungseinrichtung eines Fahrzeugs, eine Erfassungseinrichtung und ein Fahrzeug.The invention relates to a method for determining an alignment of a camera unit of a detection device of a vehicle, a detection device and a vehicle.
Erfassungseinrichtungen für Fahrzeuge werden beispielsweise für erweiterte Fahrerassistenzsysteme benötigt, welche einen Fahrer beim Führen des Fahrzeugs unterstützten können. Solche Fahrerassistenzsysteme umfassen adaptive Geschwindigkeitsregler, Kollisionsvermeidungssysteme, Spurwechsel- und Spurhalteassistenzsysteme sowie Parkunterstützungssysteme. Insbesondere für autonome Fahrsysteme der Stufen 2 bis 5 wird eine genaue Erfassung einer Fahrzeugumgebung durch Erfassungseinrichtungen vorausgesetzt.Detection devices for vehicles are required, for example, for advanced driver assistance systems, which can support a driver in driving the vehicle. Such driver assistance systems include adaptive cruise control, collision avoidance systems, lane change and lane keeping assistance systems, and parking assist systems. In particular for autonomous driving systems of
Die Erfassungseinrichtungen weisen verschiedene Arten von Sensoren auf, welche eine Fahrzeugumgebung des Fahrzeugs erfassen können. Die Sensoren können beispielsweise Lidar-, Radar-, Ultraschall- oder Kameraeinheiten aufweisen. Bei Kameraeinheiten handelt es sich um die am häufigsten verwendeten Sensoren in Erfassungseinrichtungen für erweiterte Fahrerassistenzsysteme. Dies ist darauf zurückzuführen, dass mittels Kameraeinheiten Daten für unterschiedliche Systeme bereitgestellt werden, welche relativ einfach verarbeitet werden können.The detection devices have different types of sensors, which can detect a vehicle environment of the vehicle. The sensors can have lidar, radar, ultrasonic or camera units, for example. Camera units are the most commonly used sensors in detection devices for advanced driver assistance systems. This is due to the fact that camera units are used to provide data for different systems, which can be processed relatively easily.
Für die Verwendung von Kameraeinheiten in Erfassungseinrichtungen ist es jedoch erforderlich, dass diese kalibriert sind. Unter der Kalibrierung wird eine Verknüpfung einer Lage einer Kameraeinheit mit dem Fahrzeug beschrieben. However, for the use of camera units in detection devices, it is necessary for them to be calibrated. A link between a position of a camera unit and the vehicle is described under calibration.
Dadurch ist es möglich, durch die Kameraeinheit erfasste Positionen von einem Koordinatensystem der Kameraeinheit in ein Koordinatensystem des Fahrzeugs zu übertragen. Das Koordinatensystem des Fahrzeugs wird auch als Weltkoordinatensystem bezeichnet. Um eine Transformation zwischen beiden Koordinatensystemen zu ermöglichen, ist es erforderlich, eine Rotation zwischen dem Kamerakoordinatensystem und dem Weltkoordinatensystem zu erfassen. Diese Rotation kann durch Drehmatrizen oder Eulerwinkel beschrieben werden. Bei der Verwendung von Eulerwinkeln ist dabei die Verwendung des Roll-Pitch-Yaw-Angle weit verbreitet. Diese beziehen sich auf die Längsachse, die Querachse und die Vertikalachse der Kamera beziehungsweise des Fahrzeugs. Eine sogenannte statische Kalibrierung erfolgt in der Regel im Werk am Ende eines Herstellungsprozesses des Fahrzeugs. Die Kalibrierung erfolgt beispielsweise mittels einer statischen Kalibrierung oder einer Kurzstreckenkalibration (Short-Track-Kalibrierung). Die statische Kalibrierung umfasst eine Kalibrierung mittels Markierungen in einer Umgebung des Fahrzeugs, wobei sich das Fahrzeug nicht bewegt. Durch eine bekannte Lage der Markierungen und des Fahrzeugs ist es möglich, die Transformation zu ermitteln, welche das Kamerakoordinatensystem in das Weltkoordinatensystem überführt.This makes it possible to transfer positions captured by the camera unit from a coordinate system of the camera unit to a coordinate system of the vehicle. The coordinate system of the vehicle is also referred to as the world coordinate system. In order to enable a transformation between both coordinate systems, it is necessary to detect a rotation between the camera coordinate system and the world coordinate system. This rotation can be described by rotation matrices or Euler angles. When using Euler angles, the use of the roll pitch yaw angle is widespread. These relate to the longitudinal axis, the transverse axis and the vertical axis of the camera or vehicle. A so-called static calibration is usually carried out in the factory at the end of a vehicle manufacturing process. The calibration is carried out, for example, by means of a static calibration or a short-distance calibration (short-track calibration). Static calibration includes calibration using markers in an environment of the vehicle where the vehicle is not moving. With a known position of the markings and the vehicle, it is possible to determine the transformation that converts the camera coordinate system into the world coordinate system.
Die Kurzstreckenkalibration ist eine Kalibration, bei der das Fahrzeug mit einer Geschwindigkeit von etwa 10 km/h entlang einer geraden, vorgegebenen Strecke mit Markierungen gefahren wird.The short-distance calibration is a calibration in which the vehicle is driven at a speed of approximately 10 km/h along a straight, predetermined route with markings.
Die Kalibrierung kann hierbei über eine Ermittlung und Verfolgung von Koordinaten der Markierungen in dem Weltkoordinatensystem und dem Kamerakoordinatensystem ermittelt werden.In this case, the calibration can be determined by determining and tracking coordinates of the markings in the world coordinate system and the camera coordinate system.
Während eines Betriebs des Fahrzeugs kann es erforderlich sein, eine erneute Kalibrierung durchzuführen. Dies bedeutet, dass eine Transformation, welche die Bildpunktkoordinaten in die Weltkoordinaten überführt, adaptiert werden muss. Dies kann beispielsweise aufgrund von Änderungen des Rotationsanteils und/oder der Position der Kamera aufgrund der Fahrzeugdynamik erforderlich sein. Dies kann beispielsweise aufgrund der Bewegung des Fahrgestells aufgrund von Straßenunebenheiten oder plötzlichen Bremsvorgängen oder aufgrund von Änderungen der Winkel und der Position der Kamera aufgrund unterschiedlicher Belastungen im Fahrzeug erforderlich sein. Im Fall von sogenannten hochdynamischen Kalibrierungen betrifft die größte Veränderung der Ausrichtung einer Frontkamera den Neigungswinkel. In einem zweiten Fall, welcher auch als dynamische Kalibrierung bezeichnet wird, betrifft die größte Änderung der Frontkamera sowohl den Neigungswinkel als auch den Rollwinkel. In beiden Fällen ist im Wesentlichen keine Änderung der Kameraposition zu erwarten. Somit ist lediglich eine Anpassung des Rotationsanteils erforderlich.During operation of the vehicle, it may be necessary to recalibrate. This means that a transformation that converts the pixel coordinates into the world coordinates must be adapted. This may be necessary, for example, due to changes in the rotation percentage and/or the position of the camera due to vehicle dynamics. This may be necessary, for example, due to the movement of the chassis due to bumps in the road or sudden braking, or changes in the angles and position of the camera due to different loads in the vehicle. In the case of so-called highly dynamic calibrations, the biggest change in the orientation of a front camera concerns the tilt angle. In a second case, also known as dynamic calibration, the biggest change in the front camera affects both the pitch angle and the roll angle. In both cases essentially no change in camera position is to be expected. Thus, only an adjustment of the rotation component is required.
Aus dem Stand der Technik sind mehrere Verfahren bekannt, welche eine hochdynamische oder eine dynamische Kalibrierung von Kameraeinheiten ermöglichen. Verbreitet ist beispielsweise eine Kalibrierung beruhend auf der Erkennung von Merkmalen auf einer Straße und deren Verfolgung über mehrere Bilder hinweg. Bei diesen Merkmalen kann es sich beispielsweise um Fahrbahnmarkierungen handeln.A number of methods are known from the prior art which enable highly dynamic or dynamic calibration of camera units. For example, calibration based on recognizing features on a road and tracking them across multiple images is common. These features can be road markings, for example.
In der
In der
Dabei ist es erforderlich, Objekte in mehreren Bildern zu erkennen, um die Unschärfe zu berechnen und die Kalibrierung durchzuführen.It is necessary to recognize objects in several images in order to calculate the blur and carry out the calibration.
Es ist eine Aufgabe der Erfindung, ein Verfahren und eine Vorrichtung zur Kalibrierung einer Kameraeinheit eines Fahrzeugs bereitzustellen, die eine schnellere und robustere Kalibrierung der Kameraeinheit ermöglichen.It is an object of the invention to provide a method and a device for calibrating a camera unit of a vehicle, which enables a faster and more robust calibration of the camera unit.
Die Aufgabe wird durch die Gegenstände der unabhängigen Patentansprüche gelöst. Vorteilhafte Weiterbildungen der Erfindung ergeben sich durch die Merkmale der abhängigen Patentansprüche, die folgende Beschreibung sowie die Figuren.The object is solved by the subject matter of the independent patent claims. Advantageous developments of the invention result from the features of the dependent patent claims, the following description and the figures.
Die Erfindung betrifft ein Verfahren zur Ermittlung einer Ausrichtung einer Kameraeinheit einer Erfassungseinrichtung eines Fahrzeugs bezüglich einer horizontalen Oberfläche in einer Fahrzeugumgebung des Fahrzeugs. Mit anderen Worten ist es in dem Verfahren vorgesehen, dass die Ausrichtung der Kameraeinheit der Erfassungseinrichtung des Fahrzeugs in Bezug auf die horizontale Oberfläche, die sich in der Fahrzeugumgebung des Fahrzeugs befindet, ermittelt wird. Bei der horizontalen Oberfläche kann es sich beispielsweise um eine Fläche handeln, auf der das Fahrzeug angeordnet ist, insbesondere eine Fahrbahnfläche. Die Kameraeinheit kann an einer vorbestimmten Position an dem Fahrzeug angeordnet sein.The invention relates to a method for determining an alignment of a camera unit of a detection device of a vehicle with respect to a horizontal surface in a vehicle environment of the vehicle. In other words, the method provides for the alignment of the camera unit of the vehicle's detection device to be determined in relation to the horizontal surface that is located in the area surrounding the vehicle. The horizontal surface can be, for example, a surface on which the vehicle is arranged, in particular a roadway surface. The camera unit may be arranged at a predetermined position on the vehicle.
In einem ersten Schritt ist es vorgesehen, dass durch die Kameraeinheit der Erfassungseinrichtung ein Umgebungsbild der Fahrzeugumgebung erfasst wird. Mit anderen Worten wird durch die Kameraeinheit der Erfassungseinrichtung das Umgebungsbild aufgenommen, welches einen Bereich der Fahrzeugumgebung des Fahrzeugs abbildet. Die Kameraeinheit kann beispielsweise eine Bug- oder Heckkamera sein, welche die vorbestimmte Position an dem Fahrzeug aufweisen kann. Das Umgebungsbild weist Bildpunkte auf, die an jeweiligen Bildpunktkoordinaten des Bildes angeordnet sind. Mit anderen Worten handelt es sich bei dem Umgebungsbild um ein Bild, das die Bildpunkte aufweist, welche sich an jeweiligen Koordinaten des Bildes befinden können. Die Bildpunktkoordinaten können beispielsweise eine Zeile und eine Spalte des Umgebungsbildes umfassen. Es ist vorgesehen, dass durch die Erfassungseinrichtung in dem Umgebungsbild nach einem vorbestimmten Erkennungsverfahren ein Bezugsbereich erfasst wird, der die horizontale Oberfläche darstellt. Mit anderen Worten ist es vorgesehen, dass der Bezugsbereich des Umgebungsbilds durch die Erfassungseinrichtung ermittelt wird, welcher die sich in der Fahrzeugumgebung des Fahrzeugs befindliche horizontale Oberfläche aufweist. Das Erkennungsverfahren kann ein sogenanntes semantisches Segmentierungsverfahren sein, dass Bezugsbereiche, die Beispielsweise eine Straße oder andere horizontale Oberflächen aufweisen, auf Basis von Deep Learning Algorithmen nach dem Stand der Technik erfassen kann.In a first step, it is provided that an image of the surroundings of the vehicle is captured by the camera unit of the capture device. In other words, the image of the surroundings, which depicts an area of the vehicle surroundings of the vehicle, is recorded by the camera unit of the detection device. The camera unit can be a front or rear camera, for example, which can have the predetermined position on the vehicle. The environmental image has pixels that are arranged at the respective pixel coordinates of the image. In other words, the environmental image is an image that has the pixels that can be located at the respective coordinates of the image. The pixel coordinates can include a row and a column of the environment image, for example. It is provided that a reference area, which represents the horizontal surface, is detected by the detection device in the image of the surroundings according to a predetermined detection method. In other words, it is provided that the reference area of the image of the surroundings is determined by the detection device, which has the horizontal surface located in the vehicle surroundings of the vehicle. The recognition method can be a so-called semantic segmentation method that can detect reference areas that have a street or other horizontal surfaces, for example, based on deep learning algorithms according to the prior art.
Durch die Erfassungseinrichtung werden nach einem vorbestimmten Tiefenermittlungsverfahren Bildpunkttiefen von zumindest einigen der Bildpunkte in dem Bezugsbereich ermittelt. Die Bildpunkttiefen beschreiben dabei einen jeweiligen Abstand des Bildpunktes zu der Kameraeinheit. Mit anderen Worten wird der Abstand, den ein Bildpunkt zu der Kameraeinheit aufweist, nach dem vorbestimmten Tiefenermittlungsverfahren ermittelt. Das vorbestimmte Tiefenermittlungsverfahren kann ein monokulares Tiefenschätzungsverfahren auf Basis von Deep Learning Algorithmen nach dem Stand der Technik sein.Pixel depths of at least some of the pixels in the reference area are determined by the detection device according to a predetermined depth determination method. The pixel depths describe a respective distance of the pixel from the camera unit. In other words, the distance that a pixel has from the camera unit is determined according to the predetermined depth determination method. The predetermined depth determination method can be a monocular depth estimation method based on prior art deep learning algorithms.
Durch die Erfassungseinrichtung werden aus den Bildpunktkoordinaten und den Bildpunkttiefen nach einem vorbestimmten Transformationsverfahren jeweilige räumliche Lagen der Bildpunkte in Bezug auf die Kameraeinheit ermittelt. Mit anderen Worten ist es vorgesehen, dass durch die Erfassungseinrichtung das vorbestimmte Transformationsverfahren durchgeführt wird, welches aus den Bildpunktkoordinaten und den Bildpunkttiefen der jeweiligen Bildpunkte die jeweiligen räumlichen Lagen der Bildpunkte in der Fahrzeugumgebung in Bezug auf die Kameraeinheit ermittelt. Die vorbestimmten Transformationsverfahren können Projektionsgleichungen umfassen, welche Strahlenverläufe und Linsenkrümmungen einbeziehen, um die Koordinaten des Bildpunktes in der Umgebung in Bezug auf die Kamera ermitteln zu können. Die jeweiligen räumlichen Lagen der Bildpunkte können beispielsweise in einem kartesischen System in Bezug auf die Kameraeinheit ausgegeben werden. In einem Schritt wird durch die Erfassungseinrichtung aus den räumlichen Lagen der Bildpunkte nach einem vorbestimmten Topografieermittlungsverfahren eine räumliche Kameralage der horizontalen Oberfläche ermittelt. Mit anderen Worten wird aus den Lagen der Bildpunkte, welche sich in dem Bezugsbereich befinden, der die horizontale Oberfläche abbildet, eine Lage der horizontalen Oberfläche nach dem Topografieermittlungsverfahren ermittelt. Das Topographieermittlungsverfahren kann beispielsweise dazu eingerichtet sein, die horizontale Oberfläche durch eine einfache Verbindung der jeweiligen Bildpunkte zu ermitteln. Es kann auch vorgesehen sein, die horizontale Oberfläche mittels Fittingverfahren oder bekannten Verfahren zur Verbindung von Punktwolken zu bestimmen. Durch die Erfindung ergibt sich der Vorteil, dass eine Lage der horizontalen Oberfläche aus einem einzigen Bild ermittelt werden kann. Dadurch ist es mittels eines einzigen Bildes möglich, eine Lage der Kameraeinheit in Bezug auf ihre horizontale Oberfläche abzuleiten und die räumliche Kameralage auszugeben.The respective spatial positions of the pixels in relation to the camera unit are determined by the detection device from the pixel coordinates and the pixel depths according to a predetermined transformation method. In other words, it is provided that the detection device carries out the predetermined transformation method, which determines the respective spatial positions of the pixels in the vehicle environment in relation to the camera unit from the pixel coordinates and the pixel depths of the respective pixels. The predetermined transformation methods can include projection equations which include beam paths and lens curvatures in order to be able to determine the coordinates of the image point in the environment in relation to the camera. The respective spatial positions of the pixels can be output in a Cartesian system in relation to the camera unit, for example. In one step, a spatial camera position of the horizontal surface is determined by the detection device from the spatial positions of the pixels according to a predetermined topography determination method. In other words, the positions of the pixels located in the reference area that maps the horizontal surface become a position of the horizontal surface determined according to the topography determination method. The topography determination method can be set up, for example, to determine the horizontal surface by simply connecting the respective pixels. Provision can also be made to determine the horizontal surface by means of fitting methods or known methods for connecting point clouds. The advantage of the invention is that a position of the horizontal surface can be determined from a single image. This makes it possible, using a single image, to derive a position of the camera unit in relation to its horizontal surface and to output the spatial camera position.
Die Erfindung umfasst auch Weiterbildungen, durch die sich weitere Vorteile ergeben.The invention also includes developments that result in further advantages.
Eine Weiterbildung der Erfindung sieht vor, dass der Bezugsbereich ein vorbestimmtes Referenzmuster umfasst, das in Bezug auf die Kameraeinheit oder das Fahrzeug vorbestimmt ist. Mit anderen Worten sind die zu verwendenden Bildpunkte durch das vorbestimmte Referenzmuster vorgegeben. Das vorbestimmte Referenzmuster kann Punkte, Linien und/oder Bereiche definieren, welche bezüglich der Kameraeinheit oder des Fahrzeugs definiert sein können. Es kann, also vorgesehen sein, dass das Referenzmuster einen vorbestimmten Bereich vor dem Fahrzeug definiert. Der vorbestimmte Bereich kann in die Bildpunktkoordinaten des Bildes transformiert sein, sodass der entsprechende Bereich in dem Bild als Bezugsbereich verwendet wird. Durch die Weiterbildung ergibt sich der Vorteil, dass zumindest einige der Bildpunkte durch das Referenzmuster vorgegeben sind. Dadurch kann zumindest für diese Bildpunkte ein rechenaufwändiges Erfassungsverfahren zur Auswahl der Bildpunkte eingespart werden.A development of the invention provides that the reference area includes a predetermined reference pattern that is predetermined in relation to the camera unit or the vehicle. In other words, the pixels to be used are specified by the predetermined reference pattern. The predetermined reference pattern can define points, lines and/or areas, which can be defined with respect to the camera unit or the vehicle. Provision can therefore be made for the reference pattern to define a predetermined area in front of the vehicle. The predetermined area can be transformed into the pixel coordinates of the image, so that the corresponding area in the image is used as the reference area. The development results in the advantage that at least some of the pixels are specified by the reference pattern. As a result, a computationally expensive detection method for selecting the pixels can be saved, at least for these pixels.
Eine Weiterbildung der Erfindung sieht vor, dass das vorbestimmte Referenzmuster zumindest eine parallel zu einer Querrichtung des Fahrzeugs verlaufende Bezugslinie umfasst. Mit anderen Worten weist das vorbestimmte Referenzmuster die Bezugslinie auf, welche in Weltkoordinaten parallel zu der Querrichtung des Fahrzeugs ausgerichtet ist. Die parallel zur Querrichtung des Fahrzeugs verlaufende Bezugslinie kann in die Bildpunktkoordinaten transformiert als horizontal verlaufende Linie in dem Bild dargestellt sein. Durch die Weiterbildung ergibt sich der Vorteil, dass es möglich ist, eine Wölbung einer Fahrspur quer zum Fahrzeug zu erfassen.A development of the invention provides that the predetermined reference pattern comprises at least one reference line running parallel to a transverse direction of the vehicle. In other words, the predetermined reference pattern has the reference line oriented parallel to the lateral direction of the vehicle in world coordinates. The reference line running parallel to the transverse direction of the vehicle can be shown in the image as a horizontally running line transformed into the pixel coordinates. The development results in the advantage that it is possible to detect a bulge in a lane perpendicular to the vehicle.
Eine Weiterbildung der Erfindung sieht vor, dass das vorbestimmte Referenzmuster zumindest eine parallel zu einer Längsrichtung des Fahrzeugs verlaufende Bezugslinie umfasst. Mit anderen Worten weist das vorbestimmte Referenzmuster die Bezugslinie auf, die in Weltkoordinaten bezüglich der Längsrichtung des Fahrzeugs definiert ist. In dem Bild kann die Bezugslinie als auf einen Fluchtpunkt des Bildes verlaufende Linie dargestellt sein. Dadurch ergibt sich der Vorteil, dass eine Steigung oder ein Gefälle in Fahrtrichtung des Fahrzeugs erfasst werden kann.A development of the invention provides that the predetermined reference pattern comprises at least one reference line running parallel to a longitudinal direction of the vehicle. In other words, the predetermined reference pattern includes the reference line defined in world coordinates with respect to the longitudinal direction of the vehicle. In the image, the reference line can be represented as a line running to a vanishing point of the image. This results in the advantage that an uphill or downhill gradient in the direction of travel of the vehicle can be detected.
Eine Weiterbildung der Erfindung sieht vor, dass die horizontale Oberfläche als Ebene ermittelt wird. Mit anderen Worten ist es vorgesehen, dass die horizontale Oberfläche als Ebene angenähert wird. Es kann beispielsweise vorgesehen sein, dass zumindest 3 Bildpunkte erfasst werden und basierend auf den Koordinaten der zumindest 3 Bildpunkte die horizontale Oberfläche vereinfacht als Ebene angenähert wird. Das Topografieermittlungsverfahren kann bekannte Verfahren der Linearen Algebra zur Ermittlung einer Lage der Ebene aus Lagen von Punkten in der Ebene umfassen. Es kann beispielsweise vorgesehen sein, dass durch die Lagen der Bildpunkte eine Ebene ermittelt wird, welche nach einem vorbestimmten Fitverfahren an die Lage der Bildpunkte angenähert wird. Die Ebene kann bezüglich ihrer Lage in Bezug auf die Kameraeinheit beschrieben sein, so dass eine räumliche Kameralage der horizontalen Oberfläche in Bezug auf die Kameraeinheit beschrieben werden kann. Dadurch ergibt sich der Vorteil, dass eine Durchführung von aufwendigen Fittingverfahren eingespart werden kann.A development of the invention provides that the horizontal surface is determined as a plane. In other words, the horizontal surface is intended to be approximated as a plane. Provision can be made, for example, for at least 3 pixels to be recorded and for the horizontal surface to be approximated in a simplified manner as a plane based on the coordinates of the at least 3 pixels. The topography determination method can include known linear algebra methods for determining a position of the plane from positions of points in the plane. Provision can be made, for example, for a plane to be determined from the positions of the pixels, which plane is approximated to the position of the pixels using a predetermined fitting method. The plane can be described with regard to its position in relation to the camera unit, so that a spatial camera position of the horizontal surface can be described in relation to the camera unit. This results in the advantage that it is possible to save on carrying out complex fitting processes.
Eine Weiterbildung der Erfindung sieht vor, dass die ermittelte räumliche Kameralage mit einer Referenzkameralage verglichen wird und ein vorbestimmtes Fehlersignal ausgegeben wird, wenn durch eine Relation zwischen der Kameralage und der Referenzkameralage ein vorbestimmtes Fehlerkriterium erfüllt wird. Mit anderen Worten ist es vorgesehen, die aus dem Umgebungsbild ermittelte räumliche Kameralage der Kameraeinheit in Bezug auf die horizontale Oberfläche mit der Referenzkameralage zu vergleichen. Die Referenzkameralage kann eine vorbestimmte räumliche Lage der Kameraeinheit in Bezug auf die horizontale Oberfläche beschreiben, welche in einem vorbestimmten Kalibrierungsverfahren ermittelt worden sein kann. Durch die Weiterbildung ergibt sich der Vorteil, dass durch das Verfahren eine Änderung der Kameralage in Bezug auf die horizontale Oberfläche festgestellt werden kann.A development of the invention provides that the determined spatial camera position is compared with a reference camera position and a predetermined error signal is output if a predetermined error criterion is met by a relationship between the camera position and the reference camera position. In other words, it is provided to compare the spatial camera position of the camera unit determined from the image of the surroundings with reference to the horizontal surface with the reference camera position. The reference camera position can describe a predetermined spatial position of the camera unit in relation to the horizontal surface, which can have been determined in a predetermined calibration method. The further development has the advantage that a change in the camera position in relation to the horizontal surface can be detected by the method.
Eine Weiterbildung der Erfindung sieht vor, dass das vorbestimmte Fehlerkriterium eine Abweichung eines Rotationsanteils der Kameralage von einem Rotationsanteil der Referenzkameralage umfasst. Mit anderen Worten ist es vorgesehen, dass das vorbestimmte Fehlerkriterium erfüllt ist, wenn der Rotationsanteil der Kameralage von dem Rotationsanteil der Referenzkameralage um einen bestimmten Wertebereich abweicht.A development of the invention provides that the predetermined error criterion includes a deviation of a rotation component of the camera position from a rotation component of the reference camera position. In other words, it is provided that the predetermined error criterion is met when the rotation component of the camera position deviates from the rotation component of the reference camera position by a specific value range.
Eine Weiterbildung der Erfindung sieht vor, dass das vorbestimmte Fehlerkriterium eine Abweichung eines Rollwinkels und/oder eines Nickwinkels der Kameralage von einer Rotation der Referenzkameralage umfasst. Mit anderen Worten ist das vorbestimmte Fehlerkriterium erfüllt, wenn sich der Rollwinkel der Kameraeinheit und/oder der Nickwinkel der Kameraeinheit in Bezug auf die Lage der horizontalen Oberfläche um einen bestimmten Wertebereich geändert hat.A development of the invention provides that the predetermined error criterion includes a deviation of a roll angle and/or a pitch angle of the camera position from a rotation of the reference camera position. In other words, the predetermined error criterion is met when the roll angle of the camera unit and/or the pitch angle of the camera unit has changed by a specific value range in relation to the position of the horizontal surface.
Eine Weiterbildung der Erfindung sieht vor, dass die Referenzkameralage bei einer Erfüllung des vorbestimmten Fehlerkriteriums durch die ermittelte Kameralage ersetzt wird. Mit anderen Worten ist es vorgesehen, dass die Referenzkameralage durch die ermittelte Kameralage überschrieben wird, falls das Fehlerkriterium erfüllt wird.A development of the invention provides that the reference camera position is replaced by the determined camera position when the predetermined error criterion is met. In other words, it is provided that the reference camera position is overwritten by the determined camera position if the error criterion is met.
Eine Weiterbildung der Erfindung sieht vor, dass die Bildpunkttiefen in dem vorbestimmten Tiefenermittlungsverfahren mittels eines Monotiefenverfahrens ermittelt werden. Mit anderen Worten umfasst das vorbestimmte Tiefenermittlungsverfahren ein Monotiefenverfahren. Ein Monotiefenverfahren ist ein maschinelles Lernverfahren, das die Schätzung der Tiefe in einem einzigen zweidimensionalen Bild ermöglicht. Der maschinelle Lernalgorithmus wird in der Regel anhand von Stereobildern trainiert. Es ist auch möglich, den Algorithmus anhand von Daten eines anderen 3D-Sensors, zum Beispiel eines LiDAR oder anhand von Daten aus Structure-from-Motion-Verfahren zu trainieren. Der maschinelle Lernalgorithmus kann ein überwachter oder unüberwachter Algorithmus sein. Vorzugsweise ist der maschinelle Lernalgorithmus ein neuronales Netz. Am Ende des Trainings ist der maschinelle Lernalgorithmus in der Lage, als Ausgabe Tiefenwerte für jeden Bildpunkt eines einzelnen zweidimensionalen Bildes zu liefern. Der Vorteil dieser Methode ist, dass die Tiefeninformation aus nur einem zweidimensionalen Bild berechnet wird. Ein weiterer Vorteil einer solchen maschinellen Lernmethode ist, dass keine Daten von einem dreidimensionalen Sensor verwendet werden müssen.A development of the invention provides that the pixel depths are determined in the predetermined depth determination method using a mono-depth method. In other words, the predetermined depth determination method includes a mono-depth method. A mono-depth method is a machine learning method that allows the estimation of depth in a single two-dimensional image. The machine learning algorithm is usually trained using stereo images. It is also possible to train the algorithm using data from another 3D sensor, for example a LiDAR, or using data from structure-from-motion processes. The machine learning algorithm can be a supervised or unsupervised algorithm. Preferably the machine learning algorithm is a neural network. At the end of the training, the machine learning algorithm is able to provide depth values for each pixel of a single two-dimensional image as output. The advantage of this method is that the depth information is calculated from just one two-dimensional image. Another advantage of such a machine learning method is that it does not have to use data from a three-dimensional sensor.
Eine Weiterbildung der Erfindung sieht vor, dass der Bezugsbereich des Umgebungsbilds in dem vorbestimmten Erkennungsverfahren mittels einer vorbestimmten semantischen Segmentierung des Umgebungsbildes erfasst wird. Mit anderen Worten ist es vorgesehen, dass das Umgebungsbild mittels des semantischen Segmentierungsverfahrens durch die Erfassungseinrichtung ausgewertet wird, wobei nach dem vorbestimmten semantischen Segmentierungsverfahren der Bezugsbereich des Umgebungsbildes ermittelt wird, welcher Bildpunkte umfasst, die der horizontalen Oberfläche zugeordnet sind.A development of the invention provides that the reference area of the image of the surroundings is detected in the predetermined recognition method by means of a predetermined semantic segmentation of the image of the surroundings. In other words, it is provided that the image of the surroundings is evaluated by the detection device using the semantic segmentation method, with the reference area of the image of the surroundings being determined according to the predetermined semantic segmentation method, which includes pixels that are assigned to the horizontal surface.
Eine Weiterbildung der Erfindung sieht vor, dass das Verfahren eine Erfassung von jeweiligen Umgebungsbildern von jeweiligen Kameraeinheiten der Erfassungseinrichtung umfasst. Mit anderen Worten ist es vorgesehen, dass die Erfassungseinrichtung mehrere Kameraeinheiten aufweist, wobei während des Verfahrens Umgebungsbilder der jeweiligen Kameraeinheiten erfasst werden. Es kann vorgesehen sein, dass die Ermittlung der Kameralagen der jeweiligen Kameraeinheiten basierend auf den jeweiligen Umgebungsbildern erfolgt.A further development of the invention provides that the method includes capturing respective images of the surroundings by respective camera units of the capturing device. In other words, it is provided that the detection device has a plurality of camera units, with environmental images of the respective camera units being detected during the method. Provision can be made for the camera positions of the respective camera units to be determined on the basis of the respective environmental images.
Die Erfindung umfasst eine Erfassungseinrichtung, die zur Ermittlung einer Ausrichtung einer Kameraeinheit der Erfassungseinrichtung bezüglich einer horizontalen Oberfläche in einer Fahrzeugumgebung eines Fahrzeugs eingerichtet ist. Die Kameraeinheit der Erfassungseinrichtung ist dazu eingerichtet, ein Umgebungsbild der Fahrzeugumgebung zu erfassen, wobei das Umgebungsbild Bildpunkte aufweist, die an jeweiligen Bildpunktkoordinaten des Bildes angeordnet sind. Die Erfassungseinrichtung ist dazu eingerichtet, in dem Umgebungsbild nach einem vorbestimmten Erkennungsverfahren einen Bezugsbereich zu erfassen, der die horizontale Oberfläche darstellt. Die Erfassungseinrichtung ist dazu eingerichtet, nach einem vorbestimmten Tiefenermittlungsverfahren Bildpunkttiefen von zumindest einigen der Bildpunkte in dem Bezugsbereich zu ermitteln, die einen jeweiligen Abstand zur Kameraeinheit beschreiben und aus den Bildpunktkoordinaten und den Bildpunkttiefen nach einem vorbestimmten Transformationsverfahren jeweilige räumliche Lagen der Bildpunkte in Bezug auf die Kameraeinheit zu ermitteln. Die Erfassungseinrichtung ist dazu eingerichtet, aus den räumlichen Lagen der Bildpunkte nach einem vorbestimmten Topografieermittlungsverfahren eine räumliche Kameralage der horizontalen Oberfläche zu ermitteln.The invention includes a detection device that is set up to determine an alignment of a camera unit of the detection device with respect to a horizontal surface in a vehicle environment of a vehicle. The camera unit of the detection device is set up to capture an image of the surroundings of the vehicle, the image of the surroundings having pixels which are arranged at the respective pixel coordinates of the image. The detection device is set up to detect a reference area, which represents the horizontal surface, in the environmental image according to a predetermined detection method. The detection device is set up to determine, according to a predetermined depth determination method, pixel depths of at least some of the pixels in the reference area, which describe a respective distance from the camera unit, and from the pixel coordinates and the pixel depths, according to a predetermined transformation method, to determine respective spatial positions of the pixels in relation to the camera unit to determine. The detection device is set up to determine a spatial camera position of the horizontal surface from the spatial positions of the pixels according to a predetermined topography determination method.
Die Erfassungseinrichtung kann eine Datenverarbeitungsvorrichtung oder eine Prozessoreinrichtung aufweisen, die dazu eingerichtet ist, eine Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen. Die Prozessoreinrichtung kann hierzu zumindest einen Mikroprozessor und/oder zumindest einen Mikrocontroller und/oder zumindest einen FPGA (Field Programmable Gate Array) und/oder zumindest einen DSP (Digital Signal Processor) aufweisen. Des Weiteren kann die Prozessoreinrichtung Programmcode aufweisen, der dazu eingerichtet ist, bei Ausführen durch die Prozessoreinrichtung die Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen. Der Programmcode kann in einem Datenspeicher der Prozessoreinrichtung gespeichert sein.The detection device can have a data processing device or a processor device that is set up to carry out an embodiment of the method according to the invention. For this purpose, the processor device can have at least one microprocessor and/or at least one microcontroller and/or at least one FPGA (Field Programmable Gate Array) and/or at least one DSP (Digital Signal Processor). Furthermore, the processor device can have program code which is set up to carry out the embodiment of the method according to the invention when executed by the processor device. The program code can be stored in a data memory of the processor device.
Die Erfindung umfasst auch ein Fahrzeug, das eine Erfassungseinrichtung aufweist. Das erfindungsgemäße Fahrzeug ist bevorzugt als Kraftwagen, insbesondere als Personenkraftwagen oder Lastkraftwagen, oder als Personenbus oder Motorrad ausgestaltet.The invention also includes a vehicle that has a detection device. that invent The vehicle according to the invention is preferably designed as a motor vehicle, in particular as a passenger car or truck, or as a passenger bus or motorcycle.
Zu der Erfindung gehören auch Weiterbildungen der erfindungsgemäßen Erfassungseinrichtung und des erfindungsgemäßen Fahrzeugs, die Merkmale aufweisen, wie sie bereits im Zusammenhang mit den Weiterbildungen des erfindungsgemäßen Verfahrens beschrieben worden sind. Aus diesem Grund sind die entsprechenden Weiterbildungen der erfindungsgemäßen Erfassungseinrichtung und des erfindungsgemäßen Fahrzeugs hier nicht noch einmal beschrieben.The invention also includes developments of the detection device according to the invention and of the vehicle according to the invention, which have features as have already been described in connection with the developments of the method according to the invention. For this reason, the corresponding developments of the detection device according to the invention and the vehicle according to the invention are not described again here.
Die Erfindung umfasst auch die Kombinationen der Merkmale der beschriebenen Ausführungsformen. Die Erfindung umfasst also auch Realisierungen, die jeweils eine Kombination der Merkmale mehrerer der beschriebenen Ausführungsformen aufweisen, sofern die Ausführungsformen nicht als sich gegenseitig ausschließend beschrieben wurden.The invention also includes the combinations of features of the described embodiments. The invention also includes implementations that each have a combination of the features of several of the described embodiments, provided that the embodiments were not described as mutually exclusive.
Im Folgenden sind Ausführungsbeispiele der Erfindung beschrieben. Hierzu zeigt:
-
1 eine schematische Darstellung eines Fahrzeugs, das eine Erfassungseinrichtung aufweist; -
2 eine schematische Darstellung eines Umgebungsbildes, das von einer Kameraeinheit eines Fahrzeugs aufgenommen wurde; und -
3 eine schematische Darstellung eines Ablaufs eines Verfahrens.
-
1 a schematic representation of a vehicle having a detection device; -
2 a schematic representation of an environment image that was recorded by a camera unit of a vehicle; and -
3 a schematic representation of a sequence of a method.
Bei den im Folgenden erläuterten Ausführungsbeispielen handelt es sich um bevorzugte Ausführungsformen der Erfindung. Bei den Ausführungsbeispielen stellen die beschriebenen Komponenten der Ausführungsformen jeweils einzelne, unabhängig voneinander zu betrachtende Merkmale der Erfindung dar, welche die Erfindung jeweils auch unabhängig voneinander weiterbilden. Daher soll die Offenbarung auch andere als die dargestellten Kombinationen der Merkmale der Ausführungsformen umfassen. Des Weiteren sind die beschriebenen Ausführungsformen auch durch weitere der bereits beschriebenen Merkmale der Erfindung ergänzbar.The exemplary embodiments explained below are preferred embodiments of the invention. In the exemplary embodiments, the described components of the embodiments each represent individual features of the invention that are to be considered independently of one another and that each also develop the invention independently of one another. Therefore, the disclosure is also intended to encompass combinations of the features of the embodiments other than those illustrated. Furthermore, the described embodiments can also be supplemented by further features of the invention that have already been described.
In den Figuren bezeichnen gleiche Bezugszeichen jeweils funktionsgleiche Elemente.In the figures, the same reference symbols designate elements with the same function.
Wird das vorbestimmte Fehlerkriterium erfüllt, kann durch die Erfassungseinrichtung 2 ein vorbestimmtes Fehlersignal ausgegeben werden. Es kann auch vorgesehen sein, dass eine neue Kalibration der Kameraeinheit 3 durchgeführt wird, wobei die Referenzkameralage 11 durch die ermittelte Kameralage 15 ersetzt werden kann. Das vorbestimmte Fehlerkriterium kann eine Abweichung der Referenzlage von der erfassten Kameralage 15 beschreiben. Dies kann beispielsweise eine Rotation und/oder eine Translation betreffen. Es kann beispielsweise vorgesehen sein, dass das vorbestimmte Fehlerkriterium erfüllt ist, wenn beispielsweise der Nick- oder Rollwinkel der ermittelten Kameralage 15 von dem der Referenzkameralage 11 abweicht.If the predetermined error criterion is met, a predetermined error signal can be output by the
In einer bevorzugten Ausführungsform kann der befahrbare Bereich durch eine semantische Segmentierungsmethode bestimmt werden. Der zweidimensionale Bezugsbereichs 16 kann als Eingabe für das vorbestimmte Tiefenermittlungsverfahren, welches ein Algorithmus für maschinelles Lernen sein kann, verwendet werden. Das Tiefenermittlungsverfahren ordnet mindestens einem Teil der Bildpunkte 6 des zweidimensionalen Bezugsbereichs 16 jeweilige Bildpunkttiefen 18 zu. Mit anderen Worten wird eine Tiefenkarte 20 geschätzt, indem zumindest einem Teil der Bildpunkte 6 in dem Bezugsbereich 16 der Abstand des Bildpunktes 6 zu der Kameraeinheit 3 als jeweilige Bildpunkttiefe 18 zugewiesen wird. In einer bevorzugten Ausführungsform ordnet der maschinelle Lernalgorithmus jedem Bildpunkt 6 des zweidimensionalen Bezugsbereichs 16 die jeweilige Bildpunkttiefe 18 zu.In a preferred embodiment, the drivable area can be determined by a semantic segmentation method. The two-
Aus den Bildpunkttiefen 18, der Bildpunkte 6 des ursprünglichen zweidimensionalen Bezugsbereichs 16 kann eine Tiefenkarte 20 gebildet sein, welche eine Fläche oder eine Verlaufslinie der Tiefe beschreiben kann. Es ist dann möglich, eine Ebene, welche die horizontale Oberfläche 14 beschreiben kann, an die Bildpunkte 6 des Bezugsbereichs 16 im Weltkoordinatensystem 12 anzupassen und den Neigungs- und Rollwinkel der Kameraeinheit 3 als die relative Ausrichtung des Weltkoordinatensystems 12 zum Kamerakoordinatensystem 13 zu bestimmen.A
Die Beziehung zwischen Bildpunkten 6 im Kamerakoordinatensystem 13 und Bildpunkten 6 im Weltkoordinatensystem 12 ist gegeben durch;
- Pc
- Bildpunkt in Kamerakoordinatensystem
- Pw
- zu transformierender Bildpunkt in Weltkoordinatensystem
- R
- Rotationsmatrix
- T
- Übersetzungsmatrix
- personal
- Pixel in camera coordinate system
- pw
- pixel to be transformed in the world coordinate system
- R
- rotation matrix
- T
- translation matrix
Die Werte der so ermittelten Nick- und Rollwinkel werden dann mit den statischen Werten für Nick- und Rollwinkel verglichen: Wenn die beiden Werte nicht übereinstimmen, wird eine Fehlkalibrierung festgestellt und gegebenenfalls eine Kalibrierung durchgeführt.The values of the pitch and roll angles determined in this way are then compared with the static values for pitch and roll angles: if the two values do not match, a faulty calibration is determined and, if necessary, a calibration is carried out.
Wenn eine Kameraeinheit 3 jedoch falsch kalibriert ist, sind die Kameradaten nicht zuverlässig und können nicht verwendet werden, um den ADAS-Systemen verwertbare Informationen zu liefern. Aus diesen Gründen ist die Kamerakalibrierung eine wesentliche Aufgabe in ADAS-Systemen. Normalerweise sind in einem Fahrzeug 1 mehrere der Kameraeinheiten 3 vorhanden: eine Frontkamera, eine oder mehrere Seitenkameras und eine Heckkamera. In vielen Erfassungseinrichtungen 2 ist die Frontkamera eine Monokamera. Obwohl wir uns im Folgenden auf eine Kalibrierung für eine Frontkamera, insbesondere für eine Monokamera, beziehen, kann die vorliegende Idee auch auf andere der Kameraeinheiten 3, insbesondere auf eine Rückfahrkamera, angewendet werden.However, if a
Die Kalibrierung besteht in der Auswertung einer Winkeldrehung die in Form einer Matrix ausgedrückt werden kann zwischen einem Kamerakoordinatensystem 13, das der Kameraeinheit 3 zugeordnet ist, und einem Weltkoordinatensystem 12, das sich auf die Welt/Fahrzeugumgebung 5 bezieht.The calibration consists in the evaluation of an angular rotation, which can be expressed in the form of a matrix, between a camera coordinate
Diese Drehung kann in drei elementare Drehungen unterteilt werden, die jeweils durch die Winkel Pitch, Roll und Yaw definiert sind. Eine erste Kalibrierung der Kameraeinheit 3 kann im Werk am Ende des Herstellungsprozesses mit Hilfe einer statischen oder Short-Track-Kalibrierung erfolgen. Unter „statischer Kalibrierung“ ist eine Kamerakalibrierung zu verstehen, die mit Hilfe von Markern erfolgt, während sich das Fahrzeug 1 nicht bewegt.This rotation can be broken down into three elementary rotations, each defined by the pitch, roll, and yaw angles. A first calibration of the
Unter „Kurzstrecke“ ist eine Kalibrierung zu verstehen, die stattfindet, während das Fahrzeug 1 langsam mit einer Geschwindigkeit von etwa 10 km/h eine gerade Straße mit Markierungen abfährt, ausgehend von einer Linienmontage bis zu einer Parklücke. Durch die Erfassung der Marker während der Kalibrierung kann die Referenzkameralage 11 ermittelt werden, welche eine Relation zwischen dem Kamerakoordinatensystem 13, das der Kameraeinheit 3 zugeordnet ist, und einem Weltkoordinatensystem 12, das sich auf die Welt/Fahrzeugumgebung 5 bezieht, ermöglicht.“Short distance” means a calibration that takes place while the vehicle 1 is slowly driving down a straight road with markings at a speed of about 10 km/h, starting from an assembly line to a parking space. By detecting the markers during the calibration, the
Auch während der Fahrt kann es notwendig sein, eine erneute Kalibrierung durchzuführen, zum Beispiel wegen Änderungen der Winkel und der Position der Kameraeinheit 3 aufgrund der Fahrzeugdynamik, zum Beispiel Bewegungen des Fahrgestells aufgrund von Straßenunebenheiten oder plötzlichen Bremsvorgängen, oder aufgrund von Änderungen der Winkel und der Position der Kameraeinheit 3 aufgrund unterschiedlicher Belastungen im Fahrzeug 1.It may also be necessary to recalibrate while driving, for example due to changes in the angles and position of the
Im ersten Fall hochdynamische Kalibrierung betrifft die größte Veränderung der Frontkamera den Neigungswinkel. Im zweiten Fall dynamische Kalibrierung betrifft die größte Änderung der Frontkamera sowohl den Neigungswinkel als auch den Rollwinkel. In beiden Fällen ist im Wesentlichen keine Änderung der Kameraposition am Fahrzeug 1 zu erwartenIn the first case, high-dynamic calibration, the biggest change in the front camera affects the tilt angle. In the second case, dynamic calibration, the biggest change in the front camera affects both the pitch angle and the roll angle. In both cases, essentially no change in the camera position on the vehicle 1 is to be expected
Eine ermittelte Horizontlinie 21 definiert den Horizont, wie er nach der zuvor erläuterten Methode berechnet wurde, während die Horizontlinie 23 den statisch kalibrierten Horizont darstellt. Die Bezugslinien 22 auf der Fahrbahn stellen Fluchtlinien dar: es ist klar, dass die ermittelte Horizontlinie 21 mit den Fluchtlinien kompatibel ist.A
Für die Durchführung des oben beschriebenen Verfahrens ist es nicht erforderlich, dass der Horizont sichtbar ist: der Horizont kann durch andere Objekte 9 verdeckt sein, ohne dass sich die Ergebnisse der vorliegenden Methode ändern. Das heißt es ist weiterhin möglich, den Roll- und Nickwinkel der Kameraeinheit 3 zu bestimmen. Das vorliegende Verfahren funktioniert besonders gut bei Fehlkalibrierungen, die durch plötzliche Bremsvorgänge verursacht werden.It is not necessary for the horizon to be visible in order to carry out the method described above: the horizon can be hidden by
Der Begriff Oberfläche 14 oder Bodenebene bezieht sich auf eine reale Ebene parallel zur Fahrbahn. Der Begriff Bildebene bezieht sich auf einen zweidimensionalen Raum, der als Ausgabe der Kameraeinheit 3 bereitgestellt wird, die einen realen dreidimensionalen Raum betrachtet. Der Begriff Ebene im Unendlichen bezeichnet alle Punkte im Unendlichen und bezieht sich auf eine Ebene, die senkrecht zur Grundebene liegt. Der Begriff Horizontlinie 21, 23 bezeichnet eine Gerade in der sich die Grundebene und eine zur Grundebene parallele Ebene im Unendlichen schneiden. Der Begriff Fluchtpunkt bezeichnet einen Punkt, an dem parallele Linien in der Grundebene in einer Bildebene zu konvergieren scheinen. Wenn die Kameraeinheit 3 zwischen zwei parallelen Linien in der Grundebene zentriert ist, die parallel zur optischen Achse der Kameraeinheit 3 verlaufen, wird der Schnittpunkt der beiden parallelen Linien als zentraler Fluchtpunkt bezeichnet. Der Begriff Fluchtlinie beschreibt einen Ort mit geschätzten Fluchtpunkten.The term surface 14 or ground plane refers to a real plane parallel to the roadway. The term image plane refers to a two-dimensional space provided as an output of the
In einem Schritt P1 kann durch die Kameraeinheit 3 der Erfassungseinrichtung 2 ein Umgebungsbild 4 der Fahrzeugumgebung 5 erfasst wird, wobei das Umgebungsbild 4 Bildpunkte 6 aufweist, die an jeweiligen Bildpunktkoordinaten 7 des Bildes angeordnet sind.In a step P1, the
In einem Schritt P2 kann durch die Erfassungseinrichtung 2 in dem Umgebungsbild 4 nach einem vorbestimmten Erkennungsverfahren ein Bezugsbereich 16 erfasst werden, der die horizontale Oberfläche 14 darstellt.In a step P2, a
In einem Schritt P3 kann durch die Erfassungseinrichtung 2 nach einem vorbestimmten Tiefenermittlungsverfahren Bildpunkttiefen 18 von zumindest einigen der Bildpunkte 6 in dem Bezugsbereich 16 ermittelt werden, die einen jeweiligen Abstand zur Kameraeinheit 3 beschreiben.In a step P3, the
In einem Schritt P4 kann durch die Erfassungseinrichtung 2 aus den Bildpunktkoordinaten 7 und den Bildpunkttiefen 18 nach einem vorbestimmten Transformationsverfahren jeweilige räumliche Lagen der Bildpunkte 6 in Bezug auf die Kameraeinheit 3 ermittelt werden.In a step P4, the respective spatial positions of the pixels 6 in relation to the
In einem Schritt P5 kann durch die Erfassungseinrichtung 2 aus den räumliche Lagen der Bildpunkte 6 nach einem vorbestimmten Topografieermittlungsverfahren eine räumliche Kameralage 15 der horizontalen Oberfläche 14 ermittelt wird.In a step P5, a
Insgesamt zeigen die Beispiele, wie die Kameralage relativ zur Straßenoberfläche aus einem einzigen zweidimensionalen Umgebungsbild ermittelt werden kann.Overall, the examples show how the camera position relative to the road surface can be determined from a single two-dimensional image of the surroundings.
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent Literature Cited
- US 2009/0290032 A1 [0010]US 2009/0290032 A1 [0010]
- DE 102019008081 A1 [0011]DE 102019008081 A1 [0011]
Claims (14)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021133091.2A DE102021133091A1 (en) | 2021-12-14 | 2021-12-14 | Method for determining an alignment of a camera unit of a detection device, detection device and vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021133091.2A DE102021133091A1 (en) | 2021-12-14 | 2021-12-14 | Method for determining an alignment of a camera unit of a detection device, detection device and vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102021133091A1 true DE102021133091A1 (en) | 2023-06-15 |
Family
ID=86498576
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102021133091.2A Pending DE102021133091A1 (en) | 2021-12-14 | 2021-12-14 | Method for determining an alignment of a camera unit of a detection device, detection device and vehicle |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102021133091A1 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090290032A1 (en) | 2008-05-22 | 2009-11-26 | Gm Global Technology Operations, Inc. | Self calibration of extrinsic camera parameters for a vehicle camera |
DE102014118989A1 (en) | 2014-12-18 | 2016-06-23 | Connaught Electronics Ltd. | Method for calibrating a camera system, camera system and motor vehicle |
DE102016104729A1 (en) | 2016-03-15 | 2017-09-21 | Connaught Electronics Ltd. | Method for extrinsic calibration of a camera, computing device, driver assistance system and motor vehicle |
DE112016006213T5 (en) | 2016-01-12 | 2018-10-18 | Mitsubishi Electric Corporation | System and method for fusing outputs from sensors having different resolutions |
DE102019008081A1 (en) | 2019-11-21 | 2020-08-13 | Daimler Ag | Method for a camera-based three-dimensional reconstruction |
DE102020131323A1 (en) | 2019-12-18 | 2021-06-24 | Motional Ad Llc | CAMERA-TO-LIDAR CALIBRATION AND VALIDATION |
DE102021113105A1 (en) | 2020-05-27 | 2021-12-02 | Nvidia Corporation | TECHNIQUES FOR MODIFYING AND TRAINING A NEURAL NETWORK |
-
2021
- 2021-12-14 DE DE102021133091.2A patent/DE102021133091A1/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090290032A1 (en) | 2008-05-22 | 2009-11-26 | Gm Global Technology Operations, Inc. | Self calibration of extrinsic camera parameters for a vehicle camera |
DE102014118989A1 (en) | 2014-12-18 | 2016-06-23 | Connaught Electronics Ltd. | Method for calibrating a camera system, camera system and motor vehicle |
DE112016006213T5 (en) | 2016-01-12 | 2018-10-18 | Mitsubishi Electric Corporation | System and method for fusing outputs from sensors having different resolutions |
DE102016104729A1 (en) | 2016-03-15 | 2017-09-21 | Connaught Electronics Ltd. | Method for extrinsic calibration of a camera, computing device, driver assistance system and motor vehicle |
DE102019008081A1 (en) | 2019-11-21 | 2020-08-13 | Daimler Ag | Method for a camera-based three-dimensional reconstruction |
DE102020131323A1 (en) | 2019-12-18 | 2021-06-24 | Motional Ad Llc | CAMERA-TO-LIDAR CALIBRATION AND VALIDATION |
DE102021113105A1 (en) | 2020-05-27 | 2021-12-02 | Nvidia Corporation | TECHNIQUES FOR MODIFYING AND TRAINING A NEURAL NETWORK |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102009005505B4 (en) | Method and device for generating an image of the surroundings of a motor vehicle | |
DE102006056408B4 (en) | Method for determining a position, device and computer program product | |
DE202017007675U1 (en) | Computer program product with a computer program for processing visual data of a road surface | |
WO2015173092A1 (en) | Method and apparatus for calibrating a camera system in a motor vehicle | |
DE102013205882A1 (en) | Method and device for guiding a vehicle around an object | |
DE102017108254B4 (en) | All-round camera system for object recognition and tracking and method for equipping a vehicle with a panoramic camera system | |
WO2013029722A2 (en) | Method for representing surroundings | |
DE112017007347T5 (en) | OBJECT DETECTION DEVICE AND VEHICLE | |
DE102015116542A1 (en) | Method for determining a parking area for parking a motor vehicle, driver assistance system and motor vehicle | |
DE102017109445A1 (en) | Calibration of a vehicle camera device in the vehicle longitudinal direction or vehicle transverse direction | |
DE102020007772A1 (en) | Procedure for in-service calibration of a lidar and vehicle | |
DE102018124979A1 (en) | Driver assistance system for determining a distance between two vehicles with a camera | |
DE102008025773A1 (en) | Local and movement conditions estimating method for observed object i.e. vehicle, involves determining distance, detecting shifting of portion of object, and estimating parameter of local and movement condition | |
EP2131598A2 (en) | Stereo camera system and method of determining at least one calibration error in a stereo camera system | |
EP2715666A1 (en) | Method for determining a pitching movement in a camera installed in a vehicle, and method for controlling a light emission from at least one headlamp on a vehicle | |
EP3621035A1 (en) | Method for guiding a vehicle behind a vehicle in front | |
DE102019208507A1 (en) | Method for determining the degree of overlap between an object and a lane | |
EP3520020B1 (en) | Road sign classification in a surrounding area of a motor vehicle | |
EP2192550A1 (en) | Method for determining the change in position of a camera system and device for recording and processing images | |
DE102018132676A1 (en) | Method for locating a vehicle in an environment | |
DE102018202753A1 (en) | Method for determining a distance between a motor vehicle and an object | |
DE102021133091A1 (en) | Method for determining an alignment of a camera unit of a detection device, detection device and vehicle | |
DE102017219688A1 (en) | Method for calibrating a vehicle camera | |
DE102014017904A1 (en) | Method and apparatus for detecting raised objects and method for assisting a driver in driving a vehicle | |
DE102019205484A1 (en) | Method and device for creating a height profile for an area to be traveled by a vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R016 | Response to examination communication |