DE102019202269B4 - Method for calibrating a mobile camera unit of a camera system for a motor vehicle - Google Patents
Method for calibrating a mobile camera unit of a camera system for a motor vehicle Download PDFInfo
- Publication number
- DE102019202269B4 DE102019202269B4 DE102019202269.3A DE102019202269A DE102019202269B4 DE 102019202269 B4 DE102019202269 B4 DE 102019202269B4 DE 102019202269 A DE102019202269 A DE 102019202269A DE 102019202269 B4 DE102019202269 B4 DE 102019202269B4
- Authority
- DE
- Germany
- Prior art keywords
- camera unit
- motor vehicle
- camera
- optical flow
- edges
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 34
- 230000003287 optical effect Effects 0.000 claims abstract description 42
- 238000012545 processing Methods 0.000 claims abstract description 19
- 230000003068 static effect Effects 0.000 claims abstract description 15
- 238000001514 detection method Methods 0.000 claims abstract description 10
- 230000005540 biological transmission Effects 0.000 claims abstract description 3
- 230000001133 acceleration Effects 0.000 claims description 12
- 230000033001 locomotion Effects 0.000 claims description 11
- 238000010191 image analysis Methods 0.000 claims description 3
- 238000007670 refining Methods 0.000 claims 1
- 238000004364 calculation method Methods 0.000 abstract description 4
- 230000004927 fusion Effects 0.000 abstract description 3
- 229920001817 Agar Polymers 0.000 description 3
- 102100034112 Alkyldihydroxyacetonephosphate synthase, peroxisomal Human genes 0.000 description 3
- 101000799143 Homo sapiens Alkyldihydroxyacetonephosphate synthase, peroxisomal Proteins 0.000 description 3
- 238000000848 angular dependent Auger electron spectroscopy Methods 0.000 description 3
- 230000010354 integration Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 230000005484 gravity Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000000875 corresponding effect Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 210000002023 somite Anatomy 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Abstract
Verfahren zum Kalibrieren einer mobilen Kameraeinheit (20) eines Kamerasystems (22) für ein Kraftfahrzeug (10), wobei die Kameraeinheit (20) zum Erfassen eines optischen Flusses (42) ausgebildet ist, aufweisend die Schritte:- Befestigen der mobilen Kameraeinheit (20) an einer beliebigen Position (p) an einer Fläche (18) des Kraftfahrzeugs (10) derart, dass wenigstens zwei senkrecht zueinander angeordnete Kanten (38) der Fläche (18) in einem Sichtbereich (28) der Kameraeinheit (20) liegen;- Statisches Detektieren von statischen Positionsparametern (pus, pos, pls, prs) der wenigstens zwei Kanten (38);- Dynamisches Detektieren von dynamischen Positionsparametern (pud, pod, pld, prd) der wenigstens zwei Kanten (38) mit Hilfe des erfassten optischen Flusses (42);- Fusionieren der statischen Positionsparameter (pus, pos, pls, prs) mit den dynamischen Positionsparametern (pud, pod, pld, prd) zu tatsächlichen Positionsparametern (put, pot, plt, prt);- Berechnen von lokalen Koordinaten (x, y, z) der Kameraeinheit (20) auf Basis der ermittelten tatsächlichen Positionsparameter (put, pot, plt, prt) und intrinsischer Parameter der Kameraeinheit (20);- Übermitteln der lokalen Koordinaten (x, y, z) an eine zentrale Recheneinheit (54) des Kamerasystems (22).A method for calibrating a mobile camera unit (20) of a camera system (22) for a motor vehicle (10), the camera unit (20) being designed to capture an optical flow (42), comprising the steps: - Attaching the mobile camera unit (20) at any position (p) on a surface (18) of the motor vehicle (10) such that at least two mutually perpendicular edges (38) of the surface (18) lie in a field of view (28) of the camera unit (20); Detection of static position parameters (pus, pos, pls, prs) of the at least two edges (38); - Dynamic detection of dynamic position parameters (pud, pod, pld, prd) of the at least two edges (38) with the aid of the detected optical flow ( 42); - Fusion of the static position parameters (pus, pos, pls, prs) with the dynamic position parameters (pud, pod, pld, prd) to form actual position parameters (put, pot, plt, prt); - Calculation of local coordinates (x , Y Z ) the camera unit (20) based on the determined actual position parameters (put, pot, plt, prt) and intrinsic parameters of the camera unit (20); - transmission of the local coordinates (x, y, z) to a central processing unit (54) of the Camera system (22).
Description
Die Erfindung betrifft ein Verfahren zum Kalibrieren einer mobilen Kameraeinheit eines Kamerasystems für ein Kraftfahrzeug, insbesondere eines Nutzfahrzeuges.The invention relates to a method for calibrating a mobile camera unit of a camera system for a motor vehicle, in particular a commercial vehicle.
Im Bereich von Kraftfahrzeugen finden Einzel- bzw. Multikamerasysteme ein zunehmend breiteres Anwendungsspektrum. Neben reinen Komfortsystemen zur Verbesserung der Sicht des Fahrers bieten diese alternativ oder ergänzend Fahrassistenzfunktion (ADAS-Systeme), oder werden als Kamera-Monitor-Systeme als Spiegelersatz-Systeme eingesetzt. Die Kameraeinheiten solcher Systeme können einzeln oder im Verbund betrieben werden.In the field of motor vehicles, single or multi-camera systems are finding an increasingly broad range of applications. In addition to pure comfort systems to improve the driver's view, these offer alternative or additional driver assistance functions (ADAS systems) or are used as camera monitor systems as mirror replacement systems. The camera units of such systems can be operated individually or in combination.
Die überwiegende Zahl der Kameraeinheiten ist ortsfest an dem jeweiligen Kraftfahrzeug installiert. Dabei werden die Toleranzen der Anbaupositionen (extrinsische Parameter) meist bei der Fertigung abgeglichen. Insbesondere bei Kamerasystemen, bei denen Sichtbereiche verschiedener Kameraeinheiten miteinander kombiniert werden (beispielsweise per Stitching bei Surround View Systemen) ist es bekannt, die Kameraeinheiten hochgenau beispielsweise mit großen Kalibriermustern auf dem Boden, auf dem sich das Kraftfahrzeug befindet, auszurichten. Dieser Prozess wird beispielsweise in der Fertigung durchgeführt.The majority of the camera units are fixedly installed on the respective motor vehicle. The tolerances of the mounting positions (extrinsic parameters) are usually adjusted during production. Particularly in camera systems in which viewing areas of different camera units are combined with one another (for example by stitching in surround view systems), it is known to align the camera units with high precision, for example with large calibration patterns on the floor on which the motor vehicle is located. This process is carried out in production, for example.
Eine Veränderung der Positionen der Kameraeinheiten, beispielsweise durch mechanische, thermische oder sonstige Beeinflussung, erfordert zumeist eine Rekalibrierung in der Werkstatt.A change in the positions of the camera units, for example through mechanical, thermal or other influences, usually requires recalibration in the workshop.
Die bekannten Kamerasysteme setzen daher feste, explizit bekannte und kalibrierte Positionen der Kameraeinheiten voraus.The known camera systems therefore require fixed, explicitly known and calibrated positions of the camera units.
Wünschenswert wäre es jedoch, eine mobile Kameraeinheit auch temporär an einem Kraftfahrzeug anbringen und in einem Kamerasystem des Kraftfahrzeuges nutzen zu können.However, it would be desirable to be able to attach a mobile camera unit temporarily to a motor vehicle and use it in a camera system of the motor vehicle.
In
Aufgabe der Erfindung ist es daher, ein Verfahren zum Kalibrieren einer mobilen Kameraeinheit vorzuschlagen.The object of the invention is therefore to propose a method for calibrating a mobile camera unit.
Diese Aufgabe wird mit einem Verfahren mit der Merkmalskombination des Anspruches 1 gelöst.This object is achieved with a method with the combination of features of
Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der abhängigen Ansprüche.Advantageous refinements of the invention are the subject of the dependent claims.
Bei einem Verfahren zum Kalibrieren einer mobilen Kameraeinheit eines Kamerasystems für ein Kraftfahrzeug, bei dem die Kameraeinheit zum Erfassen eines optischen Flusses ausgebildet ist, werden die folgenden Schritte durchgeführt:
- - Befestigen der mobilen Kameraeinheit an einer beliebigen Position an einer Fläche des Kraftfahrzeuges derart, dass wenigsten zwei senkrecht zueinander angeordnete Kanten der Fläche in einem Sichtbereich der Kameraeinheit liegen;
- - Statisches Detektieren von statischen Positionsparametern der wenigstens zwei Kanten;
- - Dynamisches Detektieren von dynamischen Positionsparameter der wenigstens zwei Kanten mithilfe des erfassten optischen Flusses;
- - Fusionieren der statischen Positionsparameter mit den dynamischen Positionsparametern zu tatsächlichen Positionsparametern;
- - Berechnung von lokalen Koordinaten der Kameraeinheit auf Basis der ermittelten tatsächlichen Positionsparameter und intrinsischer Parameter der Kameraeinheit;
- - Übermitteln der lokalen Koordinaten an eine zentrale Recheneinheit des Kamerasystems.
- Fastening the mobile camera unit at any position on a surface of the motor vehicle in such a way that at least two mutually perpendicular edges of the surface are in a field of view of the camera unit;
- Static detection of static position parameters of the at least two edges;
- - Dynamic detection of dynamic position parameters of the at least two edges with the aid of the detected optical flow;
- Fusing the static position parameters with the dynamic position parameters to form actual position parameters;
- - Calculation of local coordinates of the camera unit on the basis of the determined actual position parameters and intrinsic parameters of the camera unit;
- - Transmission of the local coordinates to a central processing unit of the camera system.
Mit diesem Verfahren ist es möglich, eine mobile Kameraeinheit mit einem Kamerasystem eines Kraftfahrzeuges zu kombinieren und die mobile Kameraeinheit temporär an das Kraftfahrzeug anzubringen (beispielsweise per Magnet), wobei die Kameraeinheit ohne explizite Kalibrierung in der Fertigung oder in einer Werkstatt funktionieren kann. Dabei ermittelt die Kameraeinheit ihre eigenen Positionsparameter an dem Kraftfahrzeug und kann ihre lokalen Koordinaten an eine zentrale Recheneinheit des Kraftfahrzeuges, beispielsweise ein Spiegelersatzsystem, übertragen. Die zentrale Recheneinheit kann dann die lokalen Koordinaten der Kameraeinheit in Systemkoordinaten transformieren und somit eine Integration der Daten aus der Kameraeinheit mit entsprechendem Stitching realisieren.With this method, it is possible to combine a mobile camera unit with a camera system of a motor vehicle and to attach the mobile camera unit temporarily to the motor vehicle (for example by magnet), the camera unit in the without explicit calibration Manufacturing or in a workshop. The camera unit determines its own position parameters on the motor vehicle and can transmit its local coordinates to a central processing unit of the motor vehicle, for example a mirror replacement system. The central processing unit can then transform the local coordinates of the camera unit into system coordinates and thus integrate the data from the camera unit with appropriate stitching.
Bei dem Kraftfahrzeug kann es sich beispielsweise um ein Nutzfahrzeug wie einen LKW, einen Bus, eine Baumaschine, eine Landmaschine oder einen PKW handeln.The motor vehicle can be, for example, a utility vehicle such as a truck, a bus, a construction machine, an agricultural machine or a car.
Die mobile Kameraeinheit kann beispielsweise eine Kamera mit Fischaugenlinse sein, deren optische Linse über einen Öffnungswinkel > 180° verfügt. Hierdurch kann die Kameraeinheit soweit zur Seite „schauen“, dass sie beispielsweise montiert auf eine Rückwand eines LKW-Anhängers wenigstens zwei Kanten der Rückwandfläche des Anhängers „sehen“ kann. Es ist auch möglich, dass die Kameraeinheit so angeordnet ist, dass sie sämtliche Kanten der Rückwand, insbesondere vier Kanten, „sehen“ kann.The mobile camera unit can, for example, be a camera with a fisheye lens, the optical lens of which has an opening angle> 180 °. As a result, the camera unit can “look” to the side to such an extent that it can “see” at least two edges of the rear wall surface of the trailer, for example when mounted on a rear wall of a truck trailer. It is also possible for the camera unit to be arranged such that it can “see” all edges of the rear wall, in particular four edges.
Beim statischen Detektieren der Positionsparameter der wenigstens zwei Kanten können klassische Image Processing Methoden verwendet werden. Beispielsweise können hierfür eine waagrechte Kante eines Aufbaus/Koffers des Anhängers oder waagrechte Kanten eines Stoßfängers des Kraftfahrzeuges verwendet werden, die sich relativ zu der Kameraeinheit nicht bewegen und somit ein statisches Detektieren von Positionsparametern ermöglichen.Classic image processing methods can be used for static detection of the position parameters of the at least two edges. For example, a horizontal edge of a body / suitcase of the trailer or horizontal edges of a bumper of the motor vehicle can be used for this, which do not move relative to the camera unit and thus allow static detection of position parameters.
Befindet sich das Kraftfahrzeug in Bewegung, kann die Kamera durch Bilderfassung den optischen Fluss Bild erfassen und somit Positionsparameter der wenigstens zwei Kanten, die sich dynamisch bewegen, detektieren.If the motor vehicle is in motion, the camera can capture the optical flow image through image capture and thus detect position parameters of the at least two edges that are moving dynamically.
Die somit einerseits statisch und andererseits aus dem optischen Fluss dynamisch detektierten Positionsparameter der wenigstens zwei Kanten werden dann überlagert bzw. fusioniert. Aus der Fusion dieser beiden Arten von Positionsparametern lassen sich die tatsächlichen Positionsparameter der beiden betreffenden Kanten mit einer deutlich höheren Sicherheit und Präzision bestimmen. Da intrinsische Parameter der Kameraeinheit bekannt sind, können anhand der Positionsparameter der beiden Kanten die Abstände der Kameraeinheit zu den beiden Kanten bestimmt und somit die lokalen Koordinaten der Kameraeinheit an der Fläche des Kraftfahrzeuges berechnet werden.The position parameters of the at least two edges thus detected statically on the one hand and dynamically on the other hand from the optical flow are then superimposed or merged. From the fusion of these two types of position parameters, the actual position parameters of the two relevant edges can be determined with a significantly higher degree of certainty and precision. Since intrinsic parameters of the camera unit are known, the distances between the camera unit and the two edges can be determined using the position parameters of the two edges and the local coordinates of the camera unit on the surface of the motor vehicle can thus be calculated.
Die Kameraeinheit ermittelt somit eigenständig eine lokale Position an der Fläche des Kraftfahrzeuges, an der sie angebracht ist. Die Position ist dabei eine Kombination aus mehreren korrelierten Parametern, die die Kameraeinheit eigenständig ermitteln kann. Dieser Satz von Parametern wird dann einem Gesamtsystem, insbesondere einer zentralen Recheneinheit eines Kamerasystems, übermittelt, in welche der Sichtbereich beziehungsweise die Kamerafunktionalität selbst integriert werden soll. Das Kamerasystem kann dann aus der Kombination der übermittelten Parameter und eigener bekannter beziehungsweise ermittelter Parameter eine präzise Integration der Kameraeinheit in das gesamte Kamerasystem vornehmen.The camera unit thus independently determines a local position on the surface of the motor vehicle to which it is attached. The position is a combination of several correlated parameters that the camera unit can determine independently. This set of parameters is then transmitted to an overall system, in particular a central processing unit of a camera system, into which the field of view or the camera functionality itself is to be integrated. The camera system can then perform a precise integration of the camera unit into the entire camera system from the combination of the transmitted parameters and its own known or determined parameters.
Vorteilhaft wird vor dem dynamischen Detektieren eine Raumlage „unten“ relativ zur Kameraeinheit durch Erfassen eines Untergrundes detektiert, auf dem das Kraftfahrzeug angeordnet ist, wobei dazu die Hilfe eines Beschleunigungssensors in Anspruch genommen wird. Der Beschleunigungssensor ist Teil des Kamerasystems und kann beispielsweise an der mobilen Kameraeinheit angeordnet sein. Der Beschleunigungssensor kann beispielsweise ein 3-beziehungsweise 6-Achsen-Beschleunigungssensor sein, über den die Kameraeinheit bestimmen kann, wo „unten“ ist. Dies erfolgt anhand der Erdbeschleunigung, mittels derer der Beschleunigungssensor die Orientierung eines Bildsensors der Kameraeinheit um eine Z-Achse, die senkrecht auf dem Untergrund steht, ermitteln kann.Before dynamic detection, a spatial position “below” relative to the camera unit is advantageously detected by detecting a surface on which the motor vehicle is arranged, with the aid of an acceleration sensor being used for this purpose. The acceleration sensor is part of the camera system and can be arranged, for example, on the mobile camera unit. The acceleration sensor can be, for example, a 3-axis or 6-axis acceleration sensor, via which the camera unit can determine where “down” is. This is done on the basis of the acceleration due to gravity, by means of which the acceleration sensor can determine the orientation of an image sensor of the camera unit around a Z-axis that is perpendicular to the ground.
Vorzugsweise wird zunächst der optische Fluss für den Untergrund erfasst. Nachdem die Kameraeinheit durch Detektion der Raumlage weiß, wo „unten“ ist, kann sie den optischen Fluss für den Untergrund, insbesondere des Bodens, auf dem sich das Kraftfahrzeug bewegt, ermitteln.The optical flow for the subsurface is preferably recorded first. After the camera unit knows where “down” is by detecting the spatial position, it can determine the optical flow for the subsurface, in particular the floor on which the motor vehicle is moving.
Vorteilhaft wird der erfasste optische Fluss unter Zuhilfenahme von Beschleunigungsdaten des sich bewegenden Kraftfahrzeuges präzisiert. Die Kameraeinheit kann optional detektieren, ob das Kraftfahrzeug beschleunigt oder abgebremst wird, um so den optischen Fluss präziser bestimmen zu können. Optional kann die Kameraeinheit jedoch auch Daten des Kraftfahrzeuges empfangen, wenn beispielsweise ein Empfänger mit einem BUS-System des Kraftfahrzeuges gekoppelt ist.The detected optical flow is advantageously specified more precisely with the aid of acceleration data from the moving motor vehicle. The camera unit can optionally detect whether the motor vehicle is being accelerated or decelerated in order to be able to determine the optical flow more precisely. Optionally, however, the camera unit can also receive data from the motor vehicle if, for example, a receiver is coupled to a BUS system of the motor vehicle.
Vorteilhaft wird der optische Fluss von wenigstens einer weiteren Raumlage „rechts“, „links“ und/oder „oben“ relativ zu der Kameraeinheit erfasst.The optical flow is advantageously recorded from at least one further spatial position “right”, “left” and / or “above” relative to the camera unit.
Vorteilhaft wird eine Bildanalyseeinrichtung bereitgestellt, die dazu ausgebildet ist, anhand eines Sprunges in dem erfassten optischen Fluss die wenigstens zwei Kanten, insbesondere mehr als zwei Kanten, des Kraftfahrzeuges zu erkennen. Wird der optische Fluss in mehreren Raumlagen wie oben beschrieben erfasst, kann somit erkannt werden, in welcher Raumlage eine entsprechende Kante zu finden ist. Somit können beispielsweise Anhängerkanten eines Aufbaues eines Kraftfahrzeuges bei einem LKW mittels Auswertung des optischen Flusses erkannt werden, da sich an den Anhängerkanten ein Sprung im optischen Fluss bildet. Im Bereich hinter den Kanten, die durch den Anhänger verdeckt werden und durch die Optik der Kameraeinheit nicht mehr eingesehen werden können, ist der optische Fluss dagegen prinzipiell Null.An image analysis device is advantageously provided which is designed to recognize the at least two edges, in particular more than two edges, of the motor vehicle on the basis of a jump in the detected optical flow. If the optical flow is recorded in several spatial positions as described above, it can thus be recognized in which spatial position a corresponding edge can be found. Thus, for example, trailer edges of a body of a motor vehicle on a truck can be recognized by evaluating the optical flow, since a jump in the optical flow forms at the trailer edges. In the area behind the edges, which are covered by the trailer and can no longer be seen through the optics of the camera unit, the optical flow is in principle zero.
Vorteilhaft wird aus dem optischen Fluss mehrerer Raumlagen eine Trajektorie des sich in Bewegung befindlichen Kraftfahrzeugs bestimmt und die erfassten Daten bezüglich der optischen Flüsse der mehreren Raumlagen mithilfe einer tatsächlichen Trajektorie des sich in Bewegung befindlichen Kraftfahrzeuges plausibilisiert. Aus der Korrelation der erfassten Daten bezüglich der optischen Flüsse zueinander kann die Bewegung beziehungsweise Trajektorie des Fahrzeugs bestimmt werden. Da in der zentralen Recheneinheit die tatsächliche Trajektorie des Kraftfahrzeuges hinterlegt ist, ist es möglich, somit eine Plausibilisierung und Filterung aller gewonnenen Daten durchzuführen und damit eine robustere Informationsbasis zu erhalten, auf deren Grundlage die interessierenden Kanten des Kraftfahrzeuges erkannt werden können.A trajectory of the motor vehicle in motion is advantageously determined from the optical flow of several spatial positions and the plausibility of the acquired data relating to the optical flows of the several spatial positions is checked using an actual trajectory of the motor vehicle in motion. The movement or trajectory of the vehicle can be determined from the correlation of the recorded data with respect to the optical flows. Since the actual trajectory of the motor vehicle is stored in the central processing unit, it is possible to carry out a plausibility check and filtering of all data obtained and thus to obtain a more robust information base, on the basis of which the relevant edges of the motor vehicle can be recognized.
Bei einem nicht zur Erfindung zugehörigen beispielhaften Verfahren zum Betreiben eines insbesondere für ein Kraftfahrzeug ausgebildeten, eine mobile Kameraeinheit aufweisenden Kamera-Monitor-Systems beziehungsweise eines Multikamerasystems beziehungsweise eines ADAS-Systems wird ein Verfahren zum Kalibrieren einer mobilen Kameraeinheit entsprechend dem in den Ansprüchen 1 bis 7 angegebenen Verfahren durchgeführt.In an exemplary method not belonging to the invention for operating a camera-monitor system, especially designed for a motor vehicle and having a mobile camera unit, or a multi-camera system or an ADAS system, a method for calibrating a mobile camera unit in accordance with the
Weiterhin ist erfindungsgemäß ein Kamera-Monitor-System mit einer mobilen Kameraeinheit und einer zentralen Recheneinheit dazu ausgebildet, ein Verfahren wie oben beschrieben durchzuführen.Furthermore, according to the invention, a camera monitor system with a mobile camera unit and a central processing unit is designed to carry out a method as described above.
Eine vorteilhafte Ausgestaltung der Erfindung wird nachfolgend anhand der beigefügten Zeichnungen näher erläutert. Darin zeigt:
-
1 eine Draufsicht von oben auf ein Kraftfahrzeug mit einem Systemkoordinatensystem, das eine mobile Kameraeinheit aufweist, welche lokale Koordinaten aufweist; -
2 eine vergrößerte Draufsicht von oben aufdas Kraftfahrzeug aus 1 mit mobiler Kameraeinheit, die eine Fischaugen-Linse aufweist und somit über einen Öffnungswinkel von > 180° verfügt; -
3 eine Ansicht von hinten aufdas Kraftfahrzeug aus 1 mit mobiler Kameraeinheit; -
4 eine perspektivische Ansicht aufdas Kraftfahrzeug aus 1 zum Veranschaulichen eines optischen Flusses; -
5 ein schematisches Flussdiagramm eines Verfahrens zum Kalibrieren der mobilen Kameraeinheit aus1 bis3 ; -
6 eine schematische Darstellung einer Recheneinheit, in der das Verfahren gemäß5 durchgeführt werden kann.
-
1 a plan view from above of a motor vehicle with a system coordinate system having a mobile camera unit which has local coordinates; -
2 an enlarged top plan view of themotor vehicle 1 with a mobile camera unit that has a fisheye lens and thus an opening angle of> 180 °; -
3 a rear view of themotor vehicle 1 with mobile camera unit; -
4th a perspective view of themotor vehicle 1 to illustrate an optical flow; -
5 a schematic flow diagram of a method for calibrating themobile camera unit 1 to3 ; -
6th a schematic representation of a computing unit in which the method according to5 can be carried out.
In
Das Gesamtsystem
Da die Kameraeinheit
Dies wird dadurch ermöglicht, dass die mobile Kameraeinheit
Diese Abstände
Gleichzeitig ist die mobile Kameraeinheit
Wie in
Es stehen demgemäß nun die statischen Positionsparameter pus, pos, prs, pls und die dynamischen Positionsparameter
In dem in
In
Mithilfe intrinsischer Parameter der Kameraeinheit
Wenn das Kraftfahrzeug
In
Die Recheneinheiten
Unter der Zuhilfenahme von bekannten optischen Eigenschaften der Kameraeinheit
Der optische Fluss
Optional könnten auch bekannte Verfahren wie „Tracking“ gemeinsamer Features über verschiedene Kameraeinheiten
Das beschriebene Verfahren ist insbesondere interessant für ein mobiles Kamerasystem
Die meisten bekannten Verfahren basieren darauf, gemeinsame Features mit unterschiedlichen Kameraeinheiten
Im vorliegenden Beispiel kann beispielsweise bekannt sein, dass die Anhängerrückwand, an der die Kameraeinheit
Das Verfahren ermöglicht selbstverständlich auch eine Kalibrierung von statisch montierten Kameras, beispielsweise Rückfahrkameras und kann auch mit Optiken mit einem Öffnungswinkel von > 180° in lediglich einer Ebene verwendet werden.The method naturally also enables the calibration of statically mounted cameras, for example rear-view cameras, and can also be used with optics with an opening angle of> 180 ° in just one plane.
Claims (8)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019202269.3A DE102019202269B4 (en) | 2019-02-20 | 2019-02-20 | Method for calibrating a mobile camera unit of a camera system for a motor vehicle |
PCT/EP2020/054246 WO2020169607A1 (en) | 2019-02-20 | 2020-02-18 | Method for calibrating a mobile camera unit of a camera system for a motor vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019202269.3A DE102019202269B4 (en) | 2019-02-20 | 2019-02-20 | Method for calibrating a mobile camera unit of a camera system for a motor vehicle |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102019202269A1 DE102019202269A1 (en) | 2020-08-20 |
DE102019202269B4 true DE102019202269B4 (en) | 2020-11-19 |
Family
ID=69650586
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102019202269.3A Active DE102019202269B4 (en) | 2019-02-20 | 2019-02-20 | Method for calibrating a mobile camera unit of a camera system for a motor vehicle |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE102019202269B4 (en) |
WO (1) | WO2020169607A1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112706755B (en) * | 2021-01-27 | 2022-08-16 | 广州小鹏自动驾驶科技有限公司 | Vehicle-mounted camera adjusting method and device |
DE102022213225A1 (en) | 2022-07-20 | 2024-01-25 | Continental Automotive Technologies GmbH | Camera system, vehicle and procedures |
WO2024017444A1 (en) | 2022-07-20 | 2024-01-25 | Continental Automotive Technologies GmbH | Self-calibrating camera system, vehicle and method |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102005050363A1 (en) * | 2005-10-21 | 2007-04-26 | Bayerische Motoren Werke Ag | Camera system for a motor vehicle |
DE102010048143A1 (en) * | 2010-10-11 | 2011-07-28 | Daimler AG, 70327 | Method for calibrating camera arranged in vehicle, involves determining current camera parameters in continuous manner and considering current pitch angle of vehicle during calibration |
US20140085469A1 (en) * | 2012-09-24 | 2014-03-27 | Clarion Co., Ltd. | Calibration Method and Apparatus for In-Vehicle Camera |
US20160284087A1 (en) * | 2015-03-24 | 2016-09-29 | Intel Corporation | Automatic orientation estimation of camera system relative to vehicle |
-
2019
- 2019-02-20 DE DE102019202269.3A patent/DE102019202269B4/en active Active
-
2020
- 2020-02-18 WO PCT/EP2020/054246 patent/WO2020169607A1/en active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102005050363A1 (en) * | 2005-10-21 | 2007-04-26 | Bayerische Motoren Werke Ag | Camera system for a motor vehicle |
DE102010048143A1 (en) * | 2010-10-11 | 2011-07-28 | Daimler AG, 70327 | Method for calibrating camera arranged in vehicle, involves determining current camera parameters in continuous manner and considering current pitch angle of vehicle during calibration |
US20140085469A1 (en) * | 2012-09-24 | 2014-03-27 | Clarion Co., Ltd. | Calibration Method and Apparatus for In-Vehicle Camera |
US20160284087A1 (en) * | 2015-03-24 | 2016-09-29 | Intel Corporation | Automatic orientation estimation of camera system relative to vehicle |
Also Published As
Publication number | Publication date |
---|---|
DE102019202269A1 (en) | 2020-08-20 |
WO2020169607A1 (en) | 2020-08-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE10229334B4 (en) | Method and device for calibrating sensors in motor vehicles by means of a calibration object with triple mirror as a reference feature | |
EP1797534B1 (en) | Method for detecting an optical structure | |
DE112010005008B4 (en) | System and method for determining camera calibration in runtime | |
EP2260263B1 (en) | Chassis-measuring system and method for determining the position parameters of probes of a chassis-measuring system | |
DE102019202269B4 (en) | Method for calibrating a mobile camera unit of a camera system for a motor vehicle | |
DE102011113197B4 (en) | Method and device for determining an angle between a towing vehicle and a trailer coupled to it, and the vehicle | |
DE10246066B4 (en) | Method and device for calibrating an image sensor system in a motor vehicle | |
DE102012221563B4 (en) | FUNCTIONAL DIAGNOSIS AND VALIDATION OF A VEHICLE-BASED IMAGING SYSTEM | |
DE102015107390B4 (en) | Method and device for automatically calibrating all-round vision systems | |
WO2016120044A1 (en) | Measurement of a dimension on a surface | |
DE102013110581A1 (en) | Device for optically scanning and measuring an environment | |
DE102016220075A1 (en) | Motor vehicle and method for 360 ° field detection | |
EP3510463A1 (en) | Sensor array for an autonomously operated utility vehicle and method for surround-view image acquisition | |
DE102020109279A1 (en) | TRAILER ALIGNMENT SYSTEM AND PROCEDURE | |
DE102017011177A1 (en) | Method for determining a bending angle of a vehicle combination, determination device and vehicle combination | |
DE102017109445A1 (en) | Calibration of a vehicle camera device in the vehicle longitudinal direction or vehicle transverse direction | |
DE102019115611A1 (en) | OBJECT TRACKING IN THE DEAD ANGLE | |
DE112015002764B4 (en) | Mounting angle adjustment method and mounting angle detection device for on-board camera | |
DE102008000837A1 (en) | Chassis measuring system and method for determining the positional parameters of measuring heads of a chassis measuring system | |
DE102015209764A1 (en) | Extrinsic calibration of an image capture device of a vehicle | |
DE102017126495A1 (en) | Calibration of a stationary camera system for detecting the position of a mobile robot | |
DE102014118203A1 (en) | DISTANCE DETERMINATION USING A MONOSCOPIC IMAGER IN A VEHICLE | |
DE102020113821A1 (en) | Driver condition detection device | |
DE102012000630A1 (en) | Obstacle detecting system for detecting obstacle during parking of car, has image capturing device including two cameras, and image processing unit detecting obstacle based on image information captured by two cameras | |
DE102020212279B3 (en) | Device for calibrating a spatial position of a center of an entrance pupil of a camera, calibration method for this, and a system for determining the relative position of centers of entrance pupils of at least two cameras, which are mounted on a common support frame, to one another, and determination methods for this |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final | ||
R081 | Change of applicant/patentee |
Owner name: CONTINENTAL AUTOMOTIVE TECHNOLOGIES GMBH, DE Free format text: FORMER OWNER: CONTINENTAL AUTOMOTIVE GMBH, 30165 HANNOVER, DE |
|
R081 | Change of applicant/patentee |
Owner name: CONTINENTAL AUTOMOTIVE TECHNOLOGIES GMBH, DE Free format text: FORMER OWNER: CONTINENTAL AUTOMOTIVE TECHNOLOGIES GMBH, 30165 HANNOVER, DE |