DE102019202269B4 - Method for calibrating a mobile camera unit of a camera system for a motor vehicle - Google Patents

Method for calibrating a mobile camera unit of a camera system for a motor vehicle Download PDF

Info

Publication number
DE102019202269B4
DE102019202269B4 DE102019202269.3A DE102019202269A DE102019202269B4 DE 102019202269 B4 DE102019202269 B4 DE 102019202269B4 DE 102019202269 A DE102019202269 A DE 102019202269A DE 102019202269 B4 DE102019202269 B4 DE 102019202269B4
Authority
DE
Germany
Prior art keywords
camera unit
motor vehicle
camera
optical flow
edges
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102019202269.3A
Other languages
German (de)
Other versions
DE102019202269A1 (en
Inventor
Thomas Smits
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Automotive Technologies GmbH
Original Assignee
Continental Automotive GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Automotive GmbH filed Critical Continental Automotive GmbH
Priority to DE102019202269.3A priority Critical patent/DE102019202269B4/en
Priority to PCT/EP2020/054246 priority patent/WO2020169607A1/en
Publication of DE102019202269A1 publication Critical patent/DE102019202269A1/en
Application granted granted Critical
Publication of DE102019202269B4 publication Critical patent/DE102019202269B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Abstract

Verfahren zum Kalibrieren einer mobilen Kameraeinheit (20) eines Kamerasystems (22) für ein Kraftfahrzeug (10), wobei die Kameraeinheit (20) zum Erfassen eines optischen Flusses (42) ausgebildet ist, aufweisend die Schritte:- Befestigen der mobilen Kameraeinheit (20) an einer beliebigen Position (p) an einer Fläche (18) des Kraftfahrzeugs (10) derart, dass wenigstens zwei senkrecht zueinander angeordnete Kanten (38) der Fläche (18) in einem Sichtbereich (28) der Kameraeinheit (20) liegen;- Statisches Detektieren von statischen Positionsparametern (pus, pos, pls, prs) der wenigstens zwei Kanten (38);- Dynamisches Detektieren von dynamischen Positionsparametern (pud, pod, pld, prd) der wenigstens zwei Kanten (38) mit Hilfe des erfassten optischen Flusses (42);- Fusionieren der statischen Positionsparameter (pus, pos, pls, prs) mit den dynamischen Positionsparametern (pud, pod, pld, prd) zu tatsächlichen Positionsparametern (put, pot, plt, prt);- Berechnen von lokalen Koordinaten (x, y, z) der Kameraeinheit (20) auf Basis der ermittelten tatsächlichen Positionsparameter (put, pot, plt, prt) und intrinsischer Parameter der Kameraeinheit (20);- Übermitteln der lokalen Koordinaten (x, y, z) an eine zentrale Recheneinheit (54) des Kamerasystems (22).A method for calibrating a mobile camera unit (20) of a camera system (22) for a motor vehicle (10), the camera unit (20) being designed to capture an optical flow (42), comprising the steps: - Attaching the mobile camera unit (20) at any position (p) on a surface (18) of the motor vehicle (10) such that at least two mutually perpendicular edges (38) of the surface (18) lie in a field of view (28) of the camera unit (20); Detection of static position parameters (pus, pos, pls, prs) of the at least two edges (38); - Dynamic detection of dynamic position parameters (pud, pod, pld, prd) of the at least two edges (38) with the aid of the detected optical flow ( 42); - Fusion of the static position parameters (pus, pos, pls, prs) with the dynamic position parameters (pud, pod, pld, prd) to form actual position parameters (put, pot, plt, prt); - Calculation of local coordinates (x , Y Z ) the camera unit (20) based on the determined actual position parameters (put, pot, plt, prt) and intrinsic parameters of the camera unit (20); - transmission of the local coordinates (x, y, z) to a central processing unit (54) of the Camera system (22).

Description

Die Erfindung betrifft ein Verfahren zum Kalibrieren einer mobilen Kameraeinheit eines Kamerasystems für ein Kraftfahrzeug, insbesondere eines Nutzfahrzeuges.The invention relates to a method for calibrating a mobile camera unit of a camera system for a motor vehicle, in particular a commercial vehicle.

Im Bereich von Kraftfahrzeugen finden Einzel- bzw. Multikamerasysteme ein zunehmend breiteres Anwendungsspektrum. Neben reinen Komfortsystemen zur Verbesserung der Sicht des Fahrers bieten diese alternativ oder ergänzend Fahrassistenzfunktion (ADAS-Systeme), oder werden als Kamera-Monitor-Systeme als Spiegelersatz-Systeme eingesetzt. Die Kameraeinheiten solcher Systeme können einzeln oder im Verbund betrieben werden.In the field of motor vehicles, single or multi-camera systems are finding an increasingly broad range of applications. In addition to pure comfort systems to improve the driver's view, these offer alternative or additional driver assistance functions (ADAS systems) or are used as camera monitor systems as mirror replacement systems. The camera units of such systems can be operated individually or in combination.

Die überwiegende Zahl der Kameraeinheiten ist ortsfest an dem jeweiligen Kraftfahrzeug installiert. Dabei werden die Toleranzen der Anbaupositionen (extrinsische Parameter) meist bei der Fertigung abgeglichen. Insbesondere bei Kamerasystemen, bei denen Sichtbereiche verschiedener Kameraeinheiten miteinander kombiniert werden (beispielsweise per Stitching bei Surround View Systemen) ist es bekannt, die Kameraeinheiten hochgenau beispielsweise mit großen Kalibriermustern auf dem Boden, auf dem sich das Kraftfahrzeug befindet, auszurichten. Dieser Prozess wird beispielsweise in der Fertigung durchgeführt.The majority of the camera units are fixedly installed on the respective motor vehicle. The tolerances of the mounting positions (extrinsic parameters) are usually adjusted during production. Particularly in camera systems in which viewing areas of different camera units are combined with one another (for example by stitching in surround view systems), it is known to align the camera units with high precision, for example with large calibration patterns on the floor on which the motor vehicle is located. This process is carried out in production, for example.

Eine Veränderung der Positionen der Kameraeinheiten, beispielsweise durch mechanische, thermische oder sonstige Beeinflussung, erfordert zumeist eine Rekalibrierung in der Werkstatt.A change in the positions of the camera units, for example through mechanical, thermal or other influences, usually requires recalibration in the workshop.

Die bekannten Kamerasysteme setzen daher feste, explizit bekannte und kalibrierte Positionen der Kameraeinheiten voraus.The known camera systems therefore require fixed, explicitly known and calibrated positions of the camera units.

Wünschenswert wäre es jedoch, eine mobile Kameraeinheit auch temporär an einem Kraftfahrzeug anbringen und in einem Kamerasystem des Kraftfahrzeuges nutzen zu können.However, it would be desirable to be able to attach a mobile camera unit temporarily to a motor vehicle and use it in a camera system of the motor vehicle.

US 2016/0 284 087 A1 offenbart ein Verfahren, mit dem anhand einer Bewegung eines Fahrzeuges eine Orientierung einer Kamera an dem Fahrzeug relativ zu dem Fahrzeug abgeschätzt werden kann. US 2016/0 284 087 A1 discloses a method with which an orientation of a camera on the vehicle relative to the vehicle can be estimated on the basis of a movement of a vehicle.

In DE 10 2010 048 143 A1 ist ein Verfahren zur Kalibrierung einer an einem Fahrzeug angeordneten Kamera beschrieben, wobei aktuelle Kameraparameter fortlaufend ermittelt werden und ein aktueller Nickwinkel des Fahrzeuges bei der Kalibrierung berücksichtigt wird.In DE 10 2010 048 143 A1 describes a method for calibrating a camera arranged on a vehicle, current camera parameters being continuously determined and a current pitch angle of the vehicle being taken into account in the calibration.

DE 10 2005 050 363 A1 offenbart ein Kamerasystem für ein Fahrzeug mit einer lösbar mit dem Fahrzeug verbundenen Kamera, wobei die Kamera an eine Vielzahl von fest mit dem Fahrzeug verbundenen Kopplungsstationen ankoppelbar ist. DE 10 2005 050 363 A1 discloses a camera system for a vehicle with a camera detachably connected to the vehicle, wherein the camera can be coupled to a plurality of coupling stations fixedly connected to the vehicle.

US 2014/0 085 469 A1 offenbart ein Kalibrierungsverfahren von Kameras unter Verwendung von Bildern, die durch Abbilden eines Randbereichs eines Fahrzeugs durch die Kameras erzeugt werden, wobei der Randbereich eines Fahrzeugs einen Kalibrierungsindex enthält, der auf einer Straßenoberfläche voreingestellt ist, auf der das Fahrzeug positioniert ist. US 2014/0 085 469 A1 discloses a calibration method of cameras using images generated by imaging a peripheral area of a vehicle by the cameras, the peripheral area of a vehicle including a calibration index preset on a road surface on which the vehicle is positioned.

Aufgabe der Erfindung ist es daher, ein Verfahren zum Kalibrieren einer mobilen Kameraeinheit vorzuschlagen.The object of the invention is therefore to propose a method for calibrating a mobile camera unit.

Diese Aufgabe wird mit einem Verfahren mit der Merkmalskombination des Anspruches 1 gelöst.This object is achieved with a method with the combination of features of claim 1.

Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der abhängigen Ansprüche.Advantageous refinements of the invention are the subject of the dependent claims.

Bei einem Verfahren zum Kalibrieren einer mobilen Kameraeinheit eines Kamerasystems für ein Kraftfahrzeug, bei dem die Kameraeinheit zum Erfassen eines optischen Flusses ausgebildet ist, werden die folgenden Schritte durchgeführt:

  • - Befestigen der mobilen Kameraeinheit an einer beliebigen Position an einer Fläche des Kraftfahrzeuges derart, dass wenigsten zwei senkrecht zueinander angeordnete Kanten der Fläche in einem Sichtbereich der Kameraeinheit liegen;
  • - Statisches Detektieren von statischen Positionsparametern der wenigstens zwei Kanten;
  • - Dynamisches Detektieren von dynamischen Positionsparameter der wenigstens zwei Kanten mithilfe des erfassten optischen Flusses;
  • - Fusionieren der statischen Positionsparameter mit den dynamischen Positionsparametern zu tatsächlichen Positionsparametern;
  • - Berechnung von lokalen Koordinaten der Kameraeinheit auf Basis der ermittelten tatsächlichen Positionsparameter und intrinsischer Parameter der Kameraeinheit;
  • - Übermitteln der lokalen Koordinaten an eine zentrale Recheneinheit des Kamerasystems.
In a method for calibrating a mobile camera unit of a camera system for a motor vehicle, in which the camera unit is designed to detect an optical flow, the following steps are carried out:
  • Fastening the mobile camera unit at any position on a surface of the motor vehicle in such a way that at least two mutually perpendicular edges of the surface are in a field of view of the camera unit;
  • Static detection of static position parameters of the at least two edges;
  • - Dynamic detection of dynamic position parameters of the at least two edges with the aid of the detected optical flow;
  • Fusing the static position parameters with the dynamic position parameters to form actual position parameters;
  • - Calculation of local coordinates of the camera unit on the basis of the determined actual position parameters and intrinsic parameters of the camera unit;
  • - Transmission of the local coordinates to a central processing unit of the camera system.

Mit diesem Verfahren ist es möglich, eine mobile Kameraeinheit mit einem Kamerasystem eines Kraftfahrzeuges zu kombinieren und die mobile Kameraeinheit temporär an das Kraftfahrzeug anzubringen (beispielsweise per Magnet), wobei die Kameraeinheit ohne explizite Kalibrierung in der Fertigung oder in einer Werkstatt funktionieren kann. Dabei ermittelt die Kameraeinheit ihre eigenen Positionsparameter an dem Kraftfahrzeug und kann ihre lokalen Koordinaten an eine zentrale Recheneinheit des Kraftfahrzeuges, beispielsweise ein Spiegelersatzsystem, übertragen. Die zentrale Recheneinheit kann dann die lokalen Koordinaten der Kameraeinheit in Systemkoordinaten transformieren und somit eine Integration der Daten aus der Kameraeinheit mit entsprechendem Stitching realisieren.With this method, it is possible to combine a mobile camera unit with a camera system of a motor vehicle and to attach the mobile camera unit temporarily to the motor vehicle (for example by magnet), the camera unit in the without explicit calibration Manufacturing or in a workshop. The camera unit determines its own position parameters on the motor vehicle and can transmit its local coordinates to a central processing unit of the motor vehicle, for example a mirror replacement system. The central processing unit can then transform the local coordinates of the camera unit into system coordinates and thus integrate the data from the camera unit with appropriate stitching.

Bei dem Kraftfahrzeug kann es sich beispielsweise um ein Nutzfahrzeug wie einen LKW, einen Bus, eine Baumaschine, eine Landmaschine oder einen PKW handeln.The motor vehicle can be, for example, a utility vehicle such as a truck, a bus, a construction machine, an agricultural machine or a car.

Die mobile Kameraeinheit kann beispielsweise eine Kamera mit Fischaugenlinse sein, deren optische Linse über einen Öffnungswinkel > 180° verfügt. Hierdurch kann die Kameraeinheit soweit zur Seite „schauen“, dass sie beispielsweise montiert auf eine Rückwand eines LKW-Anhängers wenigstens zwei Kanten der Rückwandfläche des Anhängers „sehen“ kann. Es ist auch möglich, dass die Kameraeinheit so angeordnet ist, dass sie sämtliche Kanten der Rückwand, insbesondere vier Kanten, „sehen“ kann.The mobile camera unit can, for example, be a camera with a fisheye lens, the optical lens of which has an opening angle> 180 °. As a result, the camera unit can “look” to the side to such an extent that it can “see” at least two edges of the rear wall surface of the trailer, for example when mounted on a rear wall of a truck trailer. It is also possible for the camera unit to be arranged such that it can “see” all edges of the rear wall, in particular four edges.

Beim statischen Detektieren der Positionsparameter der wenigstens zwei Kanten können klassische Image Processing Methoden verwendet werden. Beispielsweise können hierfür eine waagrechte Kante eines Aufbaus/Koffers des Anhängers oder waagrechte Kanten eines Stoßfängers des Kraftfahrzeuges verwendet werden, die sich relativ zu der Kameraeinheit nicht bewegen und somit ein statisches Detektieren von Positionsparametern ermöglichen.Classic image processing methods can be used for static detection of the position parameters of the at least two edges. For example, a horizontal edge of a body / suitcase of the trailer or horizontal edges of a bumper of the motor vehicle can be used for this, which do not move relative to the camera unit and thus allow static detection of position parameters.

Befindet sich das Kraftfahrzeug in Bewegung, kann die Kamera durch Bilderfassung den optischen Fluss Bild erfassen und somit Positionsparameter der wenigstens zwei Kanten, die sich dynamisch bewegen, detektieren.If the motor vehicle is in motion, the camera can capture the optical flow image through image capture and thus detect position parameters of the at least two edges that are moving dynamically.

Die somit einerseits statisch und andererseits aus dem optischen Fluss dynamisch detektierten Positionsparameter der wenigstens zwei Kanten werden dann überlagert bzw. fusioniert. Aus der Fusion dieser beiden Arten von Positionsparametern lassen sich die tatsächlichen Positionsparameter der beiden betreffenden Kanten mit einer deutlich höheren Sicherheit und Präzision bestimmen. Da intrinsische Parameter der Kameraeinheit bekannt sind, können anhand der Positionsparameter der beiden Kanten die Abstände der Kameraeinheit zu den beiden Kanten bestimmt und somit die lokalen Koordinaten der Kameraeinheit an der Fläche des Kraftfahrzeuges berechnet werden.The position parameters of the at least two edges thus detected statically on the one hand and dynamically on the other hand from the optical flow are then superimposed or merged. From the fusion of these two types of position parameters, the actual position parameters of the two relevant edges can be determined with a significantly higher degree of certainty and precision. Since intrinsic parameters of the camera unit are known, the distances between the camera unit and the two edges can be determined using the position parameters of the two edges and the local coordinates of the camera unit on the surface of the motor vehicle can thus be calculated.

Die Kameraeinheit ermittelt somit eigenständig eine lokale Position an der Fläche des Kraftfahrzeuges, an der sie angebracht ist. Die Position ist dabei eine Kombination aus mehreren korrelierten Parametern, die die Kameraeinheit eigenständig ermitteln kann. Dieser Satz von Parametern wird dann einem Gesamtsystem, insbesondere einer zentralen Recheneinheit eines Kamerasystems, übermittelt, in welche der Sichtbereich beziehungsweise die Kamerafunktionalität selbst integriert werden soll. Das Kamerasystem kann dann aus der Kombination der übermittelten Parameter und eigener bekannter beziehungsweise ermittelter Parameter eine präzise Integration der Kameraeinheit in das gesamte Kamerasystem vornehmen.The camera unit thus independently determines a local position on the surface of the motor vehicle to which it is attached. The position is a combination of several correlated parameters that the camera unit can determine independently. This set of parameters is then transmitted to an overall system, in particular a central processing unit of a camera system, into which the field of view or the camera functionality itself is to be integrated. The camera system can then perform a precise integration of the camera unit into the entire camera system from the combination of the transmitted parameters and its own known or determined parameters.

Vorteilhaft wird vor dem dynamischen Detektieren eine Raumlage „unten“ relativ zur Kameraeinheit durch Erfassen eines Untergrundes detektiert, auf dem das Kraftfahrzeug angeordnet ist, wobei dazu die Hilfe eines Beschleunigungssensors in Anspruch genommen wird. Der Beschleunigungssensor ist Teil des Kamerasystems und kann beispielsweise an der mobilen Kameraeinheit angeordnet sein. Der Beschleunigungssensor kann beispielsweise ein 3-beziehungsweise 6-Achsen-Beschleunigungssensor sein, über den die Kameraeinheit bestimmen kann, wo „unten“ ist. Dies erfolgt anhand der Erdbeschleunigung, mittels derer der Beschleunigungssensor die Orientierung eines Bildsensors der Kameraeinheit um eine Z-Achse, die senkrecht auf dem Untergrund steht, ermitteln kann.Before dynamic detection, a spatial position “below” relative to the camera unit is advantageously detected by detecting a surface on which the motor vehicle is arranged, with the aid of an acceleration sensor being used for this purpose. The acceleration sensor is part of the camera system and can be arranged, for example, on the mobile camera unit. The acceleration sensor can be, for example, a 3-axis or 6-axis acceleration sensor, via which the camera unit can determine where “down” is. This is done on the basis of the acceleration due to gravity, by means of which the acceleration sensor can determine the orientation of an image sensor of the camera unit around a Z-axis that is perpendicular to the ground.

Vorzugsweise wird zunächst der optische Fluss für den Untergrund erfasst. Nachdem die Kameraeinheit durch Detektion der Raumlage weiß, wo „unten“ ist, kann sie den optischen Fluss für den Untergrund, insbesondere des Bodens, auf dem sich das Kraftfahrzeug bewegt, ermitteln.The optical flow for the subsurface is preferably recorded first. After the camera unit knows where “down” is by detecting the spatial position, it can determine the optical flow for the subsurface, in particular the floor on which the motor vehicle is moving.

Vorteilhaft wird der erfasste optische Fluss unter Zuhilfenahme von Beschleunigungsdaten des sich bewegenden Kraftfahrzeuges präzisiert. Die Kameraeinheit kann optional detektieren, ob das Kraftfahrzeug beschleunigt oder abgebremst wird, um so den optischen Fluss präziser bestimmen zu können. Optional kann die Kameraeinheit jedoch auch Daten des Kraftfahrzeuges empfangen, wenn beispielsweise ein Empfänger mit einem BUS-System des Kraftfahrzeuges gekoppelt ist.The detected optical flow is advantageously specified more precisely with the aid of acceleration data from the moving motor vehicle. The camera unit can optionally detect whether the motor vehicle is being accelerated or decelerated in order to be able to determine the optical flow more precisely. Optionally, however, the camera unit can also receive data from the motor vehicle if, for example, a receiver is coupled to a BUS system of the motor vehicle.

Vorteilhaft wird der optische Fluss von wenigstens einer weiteren Raumlage „rechts“, „links“ und/oder „oben“ relativ zu der Kameraeinheit erfasst.The optical flow is advantageously recorded from at least one further spatial position “right”, “left” and / or “above” relative to the camera unit.

Vorteilhaft wird eine Bildanalyseeinrichtung bereitgestellt, die dazu ausgebildet ist, anhand eines Sprunges in dem erfassten optischen Fluss die wenigstens zwei Kanten, insbesondere mehr als zwei Kanten, des Kraftfahrzeuges zu erkennen. Wird der optische Fluss in mehreren Raumlagen wie oben beschrieben erfasst, kann somit erkannt werden, in welcher Raumlage eine entsprechende Kante zu finden ist. Somit können beispielsweise Anhängerkanten eines Aufbaues eines Kraftfahrzeuges bei einem LKW mittels Auswertung des optischen Flusses erkannt werden, da sich an den Anhängerkanten ein Sprung im optischen Fluss bildet. Im Bereich hinter den Kanten, die durch den Anhänger verdeckt werden und durch die Optik der Kameraeinheit nicht mehr eingesehen werden können, ist der optische Fluss dagegen prinzipiell Null.An image analysis device is advantageously provided which is designed to recognize the at least two edges, in particular more than two edges, of the motor vehicle on the basis of a jump in the detected optical flow. If the optical flow is recorded in several spatial positions as described above, it can thus be recognized in which spatial position a corresponding edge can be found. Thus, for example, trailer edges of a body of a motor vehicle on a truck can be recognized by evaluating the optical flow, since a jump in the optical flow forms at the trailer edges. In the area behind the edges, which are covered by the trailer and can no longer be seen through the optics of the camera unit, the optical flow is in principle zero.

Vorteilhaft wird aus dem optischen Fluss mehrerer Raumlagen eine Trajektorie des sich in Bewegung befindlichen Kraftfahrzeugs bestimmt und die erfassten Daten bezüglich der optischen Flüsse der mehreren Raumlagen mithilfe einer tatsächlichen Trajektorie des sich in Bewegung befindlichen Kraftfahrzeuges plausibilisiert. Aus der Korrelation der erfassten Daten bezüglich der optischen Flüsse zueinander kann die Bewegung beziehungsweise Trajektorie des Fahrzeugs bestimmt werden. Da in der zentralen Recheneinheit die tatsächliche Trajektorie des Kraftfahrzeuges hinterlegt ist, ist es möglich, somit eine Plausibilisierung und Filterung aller gewonnenen Daten durchzuführen und damit eine robustere Informationsbasis zu erhalten, auf deren Grundlage die interessierenden Kanten des Kraftfahrzeuges erkannt werden können.A trajectory of the motor vehicle in motion is advantageously determined from the optical flow of several spatial positions and the plausibility of the acquired data relating to the optical flows of the several spatial positions is checked using an actual trajectory of the motor vehicle in motion. The movement or trajectory of the vehicle can be determined from the correlation of the recorded data with respect to the optical flows. Since the actual trajectory of the motor vehicle is stored in the central processing unit, it is possible to carry out a plausibility check and filtering of all data obtained and thus to obtain a more robust information base, on the basis of which the relevant edges of the motor vehicle can be recognized.

Bei einem nicht zur Erfindung zugehörigen beispielhaften Verfahren zum Betreiben eines insbesondere für ein Kraftfahrzeug ausgebildeten, eine mobile Kameraeinheit aufweisenden Kamera-Monitor-Systems beziehungsweise eines Multikamerasystems beziehungsweise eines ADAS-Systems wird ein Verfahren zum Kalibrieren einer mobilen Kameraeinheit entsprechend dem in den Ansprüchen 1 bis 7 angegebenen Verfahren durchgeführt.In an exemplary method not belonging to the invention for operating a camera-monitor system, especially designed for a motor vehicle and having a mobile camera unit, or a multi-camera system or an ADAS system, a method for calibrating a mobile camera unit in accordance with the claims 1 to 7 specified procedure.

Weiterhin ist erfindungsgemäß ein Kamera-Monitor-System mit einer mobilen Kameraeinheit und einer zentralen Recheneinheit dazu ausgebildet, ein Verfahren wie oben beschrieben durchzuführen.Furthermore, according to the invention, a camera monitor system with a mobile camera unit and a central processing unit is designed to carry out a method as described above.

Eine vorteilhafte Ausgestaltung der Erfindung wird nachfolgend anhand der beigefügten Zeichnungen näher erläutert. Darin zeigt:

  • 1 eine Draufsicht von oben auf ein Kraftfahrzeug mit einem Systemkoordinatensystem, das eine mobile Kameraeinheit aufweist, welche lokale Koordinaten aufweist;
  • 2 eine vergrößerte Draufsicht von oben auf das Kraftfahrzeug aus 1 mit mobiler Kameraeinheit, die eine Fischaugen-Linse aufweist und somit über einen Öffnungswinkel von > 180° verfügt;
  • 3 eine Ansicht von hinten auf das Kraftfahrzeug aus 1 mit mobiler Kameraeinheit;
  • 4 eine perspektivische Ansicht auf das Kraftfahrzeug aus 1 zum Veranschaulichen eines optischen Flusses;
  • 5 ein schematisches Flussdiagramm eines Verfahrens zum Kalibrieren der mobilen Kameraeinheit aus 1 bis 3;
  • 6 eine schematische Darstellung einer Recheneinheit, in der das Verfahren gemäß 5 durchgeführt werden kann.
An advantageous embodiment of the invention is explained in more detail below with reference to the accompanying drawings. It shows:
  • 1 a plan view from above of a motor vehicle with a system coordinate system having a mobile camera unit which has local coordinates;
  • 2 an enlarged top plan view of the motor vehicle 1 with a mobile camera unit that has a fisheye lens and thus an opening angle of> 180 °;
  • 3 a rear view of the motor vehicle 1 with mobile camera unit;
  • 4th a perspective view of the motor vehicle 1 to illustrate an optical flow;
  • 5 a schematic flow diagram of a method for calibrating the mobile camera unit 1 to 3 ;
  • 6th a schematic representation of a computing unit in which the method according to 5 can be carried out.

1 zeigt eine Draufsicht auf ein Kraftfahrzeug 10, das hier als ein LKW 12 mit Zugmaschine 14 und Anhänger 16 dargestellt ist. An dem Anhänger 16, insbesondere an einer rückseitigen Fläche 18, ist eine mobile Kameraeinheit 20 befestigt, die Teil eines Kamerasystems 22 ist, zu dem auch an der Zugmaschine 14 befestigte Spiegelersatzkameras 24 gehören. 1 shows a plan view of a motor vehicle 10 this one as a truck 12 with tractor 14th and trailers 16 is shown. On the trailer 16 , especially on a rear surface 18th , is a mobile camera unit 20th attached, which is part of a camera system 22nd is also on the tractor 14th fixed mirror replacement cameras 24 belong.

In 1 sind der Sichtbereich 26 einer der Spiegelersatzkameras 24 sowie der Sichtbereich 28 der mobilen Kameraeinheit 20 im Querschnitt dargestellt.In 1 are the field of vision 26th one of the mirror replacement cameras 24 as well as the field of vision 28 the mobile camera unit 20th shown in cross section.

Das Gesamtsystem 30 aus LKW 12 und zugehörigem Kamerasystem 22 definiert ein Systemkoordinatensystem 32 mit den Systemkoordinaten xs, ys, zs. In diesem Systemkoordinatensystem 32 ist die mobile Kameraeinheit 20 an unterschiedlichen Positionen p befestigbar, wobei die Positionen p definiert sind durch lokale Koordinaten x, y, z der Kameraeinheit 20.The overall system 30th from truck 12 and associated camera system 22nd defines a system coordinate system 32 with the system coordinates xs, ys, zs. In this system coordinate system 32 is the mobile camera unit 20th attachable at different positions p, the positions p being defined by local coordinates x, y, z of the camera unit 20th .

Da die Kameraeinheit 20 an verschiedenen Positionen p an einer der Flächen 18 des Kraftfahrzeuges 10 befestig werden kann, ist es wichtig, dass diese Position p, definiert durch die lokalen Koordinaten x, y, z, bekannt ist und an das Kamerasystem 22 übertragen werden kann, und so die mobile Kameraeinheit 20 in das Kamerasystem 22 zu integrieren, indem die lokalen Koordinaten x, y, z der mobilen Kameraeinheit 20 in Systemkoordinaten xs, ys, zs transformiert werden und somit eine Integration beispielsweise mit entsprechendem Stiching realisiert werden kann.As the camera unit 20th at different positions p on one of the surfaces 18th of the motor vehicle 10 can be attached, it is important that this position p, defined by the local coordinates x, y, z, is known and to the camera system 22nd can be transmitted, and so the mobile camera unit 20th into the camera system 22nd integrate by taking the local coordinates x, y, z of the mobile camera unit 20th can be transformed into system coordinates xs, ys, zs and thus an integration can be realized, for example with appropriate stitching.

Dies wird dadurch ermöglicht, dass die mobile Kameraeinheit 20 in die Lage versetzt wird, eigenständig ihre lokale Position p an dem Kraftfahrzeug 10 zu ermitteln.This is made possible by the mobile camera unit 20th is enabled to independently determine their local position p on the motor vehicle 10 to determine.

2 zeigt eine Draufsicht auf das Kraftfahrzeug 10 aus 1 in einer vergrößerten Darstellung im Bereich der mobilen Kameraeinheit 20, die an der rückseitigen Fläche 18 befestigt ist. Wie anhand einem schematisch dargestellten Strahlengang 36 zu sehen ist, ist die Kamera mit einer Fischaugenlinse gebildet. Die Fischaugenlinse 34 verfügt über einen Öffnungswinkel von > 180°, sodass sie, wenn sie auf der rückwärtigen Fläche 18 des Anhängers 16 des Kraftfahrzeuges 10 montiert ist, sämtliche Kanten 38 des Anhängers 16 „sehen“ kann. Da 2 eine Draufsicht von oben und somit im Wesentlichen eine Querschnittdarstellung zeigt, ist schematisch hier nur die Kante 38 oberhalb der Fischaugenlinse 34 zu sehen, die Fischaugenlinse 34 kann jedoch selbstverständlich auch die Kanten links, rechts und unten erfassen. 2 shows a plan view of the motor vehicle 10 out 1 in an enlarged view in the area of the mobile camera unit 20th that are on the back face 18th is attached. As with the aid of a schematically illustrated beam path 36 can be seen, the camera is formed with a fisheye lens. The fisheye lens 34 has an opening angle of> 180 °, so that if them on the rear surface 18th of the trailer 16 of the motor vehicle 10 is mounted, all edges 38 of the trailer 16 "able to see. There 2 shows a plan view from above and thus essentially a cross-sectional view, only the edge is schematic here 38 above the fisheye lens 34 to see the fisheye lens 34 can of course also capture the edges on the left, right and below.

3 zeigt eine Ansicht von hinten auf den Anhänger 16 des LKW 12, der sich auf einem Untergrund 40 befindet. In dieser Ansicht von hinten sind alle vier Kanten 38 - relativ gesehen zur mobilen Kameraeinheit 20, „unten“, „oben“, „rechts“, „links“ - zu sehen. Die Abstände au, ao, ar und al dieser Kanten 38 zu der mobilen Kameraeinheit 20 sind mit gestrichelten Pfeilen eingezeichnet. 3 Figure 12 shows a rear view of the trailer 16 of the truck 12 standing on a subsurface 40 is located. In this rear view are all four edges 38 - relative to the mobile camera unit 20th , "Below", "above", "right", "left" - to be seen. The distances au, ao, ar and al of these edges 38 to the mobile camera unit 20th are shown with dashed arrows.

Diese Abstände au, ao, ar, al kann die mobile Kameraeinheit 20 statisch detektieren. Sie erhält so statische Positionsparameter pus, pos, prs, pls der Kanten 38, die sie über klassische Image Processing Methoden erfasst.These distances ouch , ao , ar , al can the mobile camera unit 20th detect statically. It receives static position parameters pus, pos, prs, pls of the edges 38 which it records using classic image processing methods.

Gleichzeitig ist die mobile Kameraeinheit 20 in der Lage, wie in 4 in der perspektivischen Ansicht anschaulich dargestellt ist, einen optischen Fluss 42 zu erfassen, wenn sich der LKW 12 in Bewegung befindet. Die mobile Kameraeinheit 20 kann dabei den optischen Fluss 42 für sämtliche Raumlagen 44 „unten“, „oben“, „rechts“ und „links“ relativ zu der Kameraeinheit 20 erfassen. Die Daten zum optischen Fluss 42, die die mobile Kameraeinheit 20 erfasst hat, werden an eine in 3 gezeigte Bildanalyseeinrichtung 46 gesendet und ausgewertet, wobei anhand eines Sprunges in dem jeweils erfassten optischen Fluss 42 für die vier Raumlagen 44 die Kanten 38 erkannt werden können. Dadurch ist es möglich, dynamische Positionsparameter pud, pod, prd, pld der Kanten 38 zu detektieren.At the same time is the mobile camera unit 20th able as in 4th is clearly shown in the perspective view, an optical flow 42 to capture when the truck is 12 is in motion. The mobile camera unit 20th can do the optical flow 42 for all spatial positions 44 “Down”, “up”, “right” and “left” relative to the camera unit 20th capture. The optical flow data 42 who have favourited the mobile camera unit 20th recorded are sent to an in 3 Image analysis device shown 46 sent and evaluated, based on a jump in the respectively detected optical flow 42 for the four spatial positions 44 the edges 38 can be recognized. This makes it possible to set dynamic position parameters pud , pod , prd , pld the edges 38 to detect.

Wie in 3 zu sehen, verfügt die Kameraeinheit 20 über einen Beschleunigungssensor 48, der ein 3-beziehungsweise 6-Achsen Beschleunigungssensor 48 sein kann. Über diesen Beschleunigungssensor 48 kann die mobile Kameraeinheit 20 mit Hilfe der Erdbeschleunigung bestimmen, wo die Raumlage 44 „unten“ sich befindet. Die Kameraeinheit 20 weiß daher beim Erfassen des optischen Flusses 42, dass es sich dabei um den optischen Fluss 42 der Raumlage „unten“ und somit den des Untergrundes 40 handelt. Hier ist es möglich, Beschleunigungsdaten des sich bewegenden Kraftfahrzeuges 10 zu Hilfe zu nehmen und somit zu erfassen, ob das Kraftfahrzeug 10 beschleunigt oder abgebremst wird. Somit kann der erfasste optische Fluss 42 für den Untergrund 40 noch präziser bestimmt werden. Damit kann auch der optische Fluss 42 für die restlichen Raumlagen 44 „rechts“, „links“, „oben“ präzise bestimmt werden.As in 3 to see features the camera unit 20th via an accelerometer 48 , which is a 3 or 6-axis accelerometer 48 can be. About this accelerometer 48 can the mobile camera unit 20th determine with the help of the acceleration of gravity where the spatial position 44 "Down" is located. The camera unit 20th therefore knows when capturing the optical flow 42 that this is the optical flow 42 the spatial position "below" and thus that of the subsurface 40 acts. Here it is possible to get acceleration data of the moving vehicle 10 to take help and thus to record whether the motor vehicle 10 is accelerated or decelerated. Thus, the detected optical flow 42 for the underground 40 can be determined even more precisely. This also allows the optical flow 42 for the remaining spaces 44 “Right”, “left”, “top” can be precisely determined.

Es stehen demgemäß nun die statischen Positionsparameter pus, pos, prs, pls und die dynamischen Positionsparameter pud, pod, prd, pld zur Verfügung, die dann überlagert beziehungsweise fusioniert werden können. Aus der Fusion dieser Positionsparameter, die zum Teil noch lückenhaft oder vereinzelt fehlerhaft beziehungsweise mehrdeutig sein können, lassen sich die tatsächlichen Positionsparameter put, pot, prt, plt mit einer deutlich höheren Sicherheit und Präzision bestimmen.Accordingly, there are now the static position parameters pus, pos, prs, pls and the dynamic position parameters pud , pod , prd , pld available, which can then be superimposed or merged. The actual position parameters can be derived from the fusion of these position parameters, some of which may still be incomplete or occasionally incorrect or ambiguous put , pot , prt , plt determine with a significantly higher degree of certainty and precision.

In dem in 3 gezeigten Ausführungsbeispiel erfolgt das statische Detektieren für die untere Kante 38 des Anhängers 16 mit Hilfe einer waagerechten Kante 38 eines Aufbaus 50 des Anhängers 16, es ist jedoch auch möglich, die ebenfalls in 3 gezeigten waagerechten Kanten 38 eines Stoßfängers 52, die darunter liegen, zu verbinden.In the in 3 The embodiment shown, the static detection takes place for the lower edge 38 of the trailer 16 with the help of a horizontal edge 38 of a structure 50 of the trailer 16 , however, it is also possible to use the 3 shown horizontal edges 38 a bumper 52 that lie underneath.

In 3 sind neben den statisch ermittelten Abständen au, ao, ar, al, die mit gestrichelten Pfeilen angedeutet sind, auch die Abstände ou, oo, or , ol eingezeichnet, die dynamisch über den optischen Fluss 42 ermittelt worden sind. Hier ist zu erkennen, dass ou sich unterscheidet von au. Mittels des optischen Flusses 42 und intrinsischen Parametern der Kameraeinheit 20 wird der Abstand ou zum Untergrund 40 unmittelbar hinter dem Anhänger 16 ermittelt. Dieser Abstand ou gibt zugleich die Höhe der angesteckten Kameraeinheit 20 wider. In der in 3 gezeigten Ausführungsform sind die Abstände ao, ar, al jeweils identisch zu den Abständen oo, or, ol. Es ist jedoch auch möglich, dass diese Abstände ebenso voneinander abweichen und somit über die Fusion der Daten ebenfalls plausibilisiert beziehungsweise korrigiert werden können.In 3 are in addition to the statically determined distances ouch , ao , ar , al , which are indicated by dashed arrows, also the distances ou , oo , or , ol drawn dynamically via the optical flow 42 have been determined. Here you can see that ou is different from au. By means of the optical flow 42 and intrinsic parameters of the camera unit 20th becomes the distance ou to the ground 40 immediately behind the trailer 16 determined. This distance ou also gives the height of the attached camera unit 20th contrary. In the in 3 The illustrated embodiment, the distances ao, ar, al are each identical to the distances oo , or , oil . However, it is also possible that these distances also differ from one another and can therefore also be checked for plausibility or corrected by merging the data.

Mithilfe intrinsischer Parameter der Kameraeinheit 20, die bekannt sind, können somit die lokalen Koordinaten x, y, z der Kameraeinheit 20 bestimmt werden. Diese werden nachfolgend zur weiteren Verarbeitung an eine in 6 gezeigte zentrale Recheneinheit 54 des gesamten Kamerasystems 22 gesendet.With the help of intrinsic parameters of the camera unit 20th which are known can thus use the local coordinates x, y, z of the camera unit 20th to be determined. These are subsequently sent to an in 6th Central processing unit shown 54 of the entire camera system 22nd sent.

Wenn das Kraftfahrzeug 10 sich in Bewegung befindet, folgt es einer bestimmten Trajektorie 56, die in 4 gezeigt ist. Die Daten, die von der Kameraeinheit 20 erfasst werden, korrelieren zueinander, sodass hieraus ebenfalls die Bewegung beziehungsweise Trajektorie 56 des Kraftfahrzeuges 10 bestimmt werden kann. Aus dem Abgleich der aus den Kameradaten bestimmten Trajektorie 56 mit der tatsächlichen Trajektorie 56 des Kraftfahrzeuges 10 können alle gewonnenen Daten plausibilisiert und gefiltert werden, umso eine robustere Informationsbasis zu erhalten.When the motor vehicle 10 is in motion, it follows a certain trajectory 56 , in the 4th is shown. The data received from the camera unit 20th are recorded, correlate to one another, so that the movement or trajectory is also derived from this 56 of the motor vehicle 10 can be determined. From the comparison of the trajectory determined from the camera data 56 with the actual trajectory 56 of the motor vehicle 10 all data obtained can be checked for plausibility and filtered in order to obtain a more robust information base.

In 5 sind die in dem oben beschriebenen Verfahren ablaufenden Verfahrensschritte schematisch dargestellt. Zunächst wird die mobile Kameraeinheit 20 an der Fläche 18 des Kraftfahrzeuges 10 befestigt. Dann werden zunächst die statischen Positionsparameter pus, pos, prs, pls der Kanten 38 detektiert, wonach, sobald sich das Kraftfahrzeug 10 in Bewegung befindet, auch die dynamischen Positionsparameter pud, pod, prd, pld der Kanten 38 erfasst werden. Die beiden Arten von Positionsparametern werden zu tatsächlichen Positionsparametern put, pot, prt, plt fusioniert und daraus die lokalen Koordinaten x, y, z der Kameraeinheit 20 berechnet. Im letzten Schritt werden diese lokalen Koordinaten x, y, z zur weiteren Verarbeitung an die zentrale Recheneinheit 54 übermittelt.In 5 the process steps taking place in the process described above are shown schematically. First is the mobile camera unit 20th on the surface 18th of the motor vehicle 10 attached. Then first the static position parameters pus, pos, prs, pls of the edges 38 detected, after which, as soon as the motor vehicle 10 is in motion, including the dynamic position parameters pud , pod , prd , pld the edges 38 are recorded. The two kinds of position parameters become actual position parameters put , pot , prt , plt fused and from this the local coordinates x, y, z of the camera unit 20th calculated. In the last step, these local coordinates x, y, z are sent to the central processing unit for further processing 54 transmitted.

6 zeigt ein Kamerasystem 22, das beispielsweise ein ADAS-System oder ein einfaches Multikamerasystem sein kann, in der vorliegenden Ausführungsform aber ein Kamera-Monitor-System 58 (Spiegelersatzsystem) ist, welches die mobile Kameraeinheit 20 aufweist, und in welchem das Verfahren zur Kalibration der mobilen Kameraeinheit 20 durchgeführt wird, um insgesamt das Kamerasystem 22 betreiben zu können. Die schematische Darstellung in 6 zeigt neben der mobilen Kameraeinheit 20, die flexibel an dem Kraftfahrzeug 10 befestigt werden kann, auch eine fest installierte Kameraeinheit 60, wobei beide Kameraeinheiten 20, 60 Kameradaten an das Kamerasystem 22 liefern. Die von der mobilen Kameraeinheit 20 gelieferten Daten werden in einer ersten Recheneinheit 62 bezüglich der statischen Positionsparameter pus, pos, prs, pls ausgewertet. Weiter umfasst das Kamerasystem 22 eine zweite Recheneinheit 64, die von der Bildanalyseeinrichtung 46 gebildet ist, und über die aus den jeweiligen optischen Flüssen 42 die dynamischen Positionsparameter pud, pod, prd, pld errechnet werden. Die in beiden Recheneinheiten 62, 64 ermittelten Daten werden zur einer dritten Recheneinheit 66 übermittelt, welche von der zentralen Recheneinheit 54 weitere Daten zu der Trajektorie 56 des Kraftfahrzeuges 10 und zusätzlich Beschleunigungsdaten 68 erhält. Daraus kann die dritte Recheneinheit 66 die lokalen Koordinaten x, y, z der mobilen Kameraeinheit 20 berechnen und zu der zentralen Recheneinheit 54 übermitteln. Die zentrale Recheneinheit 54 verarbeitet diese ermittelten lokalen Koordinaten x, y, z weiter und kann dann die von der Kameraeinheit 20 erfassten Bilder auf einem Monitor 70, gemeinsam mit Bildern, die die Kameraeinheit 60 liefert, in Systemkoordinaten xs, ys, zs darstellen. 6th shows a camera system 22nd , which can be, for example, an ADAS system or a simple multi-camera system, but in the present embodiment it is a camera-monitor system 58 (Mirror replacement system) is what the mobile camera unit 20th comprises, and in which the method for calibrating the mobile camera unit 20th is carried out to total the camera system 22nd to be able to operate. The schematic representation in 6th shows next to the mobile camera unit 20th that are flexible on the motor vehicle 10 can be attached, also a permanently installed camera unit 60 , with both camera units 20th , 60 Camera data to the camera system 22nd deliver. The one from the mobile camera unit 20th The data supplied are stored in a first processing unit 62 evaluated with regard to the static position parameters pus, pos, prs, pls. The camera system also includes 22nd a second processing unit 64 by the image analyzer 46 is formed, and over which from the respective optical flows 42 the dynamic positional parameters pud , pod , prd , pld can be calculated. The ones in both arithmetic units 62 , 64 determined data become a third processing unit 66 transmitted which from the central processing unit 54 further data on the trajectory 56 of the motor vehicle 10 and additional acceleration data 68 receives. The third computing unit can use this 66 the local coordinates x, y, z of the mobile camera unit 20th calculate and to the central processing unit 54 to transfer. The central processing unit 54 processes these determined local coordinates x, y, z and can then use them from the camera unit 20th captured images on a monitor 70 , together with images that the camera unit 60 returns, represent in system coordinates xs, ys, zs.

Die Recheneinheiten 62, 64, 66 können in einer alternativen Ausführungsform auch in der mobilen Kameraeinheit 20 enthalten sein. Die einzelnen Schritte können dann je nach Systemauslegung auf der mobilen Kameraeinheit 20 und/oder auf der zentralen Recheneinheit 54, beispielsweise einer Kraftfahrzeug-ECU, stattfinden. Im Zweifel kann also die mobile Kameraeinheit 20 völlig eigenständig die lokalen Koordinaten x, y, z ermitteln.The arithmetic units 62 , 64 , 66 can in an alternative embodiment also in the mobile camera unit 20th be included. The individual steps can then be performed on the mobile camera unit depending on the system design 20th and / or on the central processing unit 54 , for example an automobile ECU, take place. In case of doubt, the mobile camera unit can 20th determine the local coordinates x, y, z completely independently.

Unter der Zuhilfenahme von bekannten optischen Eigenschaften der Kameraeinheit 20 und deren Optik können die Bereiche von Interesse optimiert werden, beispielsweise indem ein Suchbereich eingeschränkt wird.With the help of known optical properties of the camera unit 20th and their optics, the areas of interest can be optimized, for example by restricting a search area.

Der optische Fluss 42 für die verschiedenen Raumlagen 44 und die geometrischen Berechnungen erfolgen normalisiert und nach dem Schritt einer Linsenentzerrung. Ebenso kann es jedoch sein, dass diese Berechnungen mit nicht entzerrten Daten erfolgen.The optical flow 42 for the different spatial positions 44 and the geometric calculations are carried out in a normalized manner and after the step of lens correction. However, it can also be the case that these calculations are made with non-rectified data.

Optional könnten auch bekannte Verfahren wie „Tracking“ gemeinsamer Features über verschiedene Kameraeinheiten 20, 60 hinweg zusätzlich eingesetzt werden, um mehr Redundanz und damit idealerweise mehr Robustheit zu schaffen.Known methods such as “tracking” common features via different camera units could optionally also be used 20th , 60 can also be used across the board to create more redundancy and, ideally, more robustness.

Das beschriebene Verfahren ist insbesondere interessant für ein mobiles Kamerasystem 22 mit wechselnden Anhängern 16 oder angehängten Maschinen. Es wird eine optimale Integration der Kameraeinheit 20 in Multikamera-/ Multisichtfeld-Systeme ermöglicht. Dabei wird die Notwendigkeit einer Kalibrierung in der Werkstatt vermieden.The method described is particularly interesting for a mobile camera system 22nd with changing followers 16 or attached machines. There will be an optimal integration of the camera unit 20th in multi-camera / multi-field of view systems. This avoids the need for calibration in the workshop.

Die meisten bekannten Verfahren basieren darauf, gemeinsame Features mit unterschiedlichen Kameraeinheiten 20, 60 zu verfolgen. Jedoch sind häufig die Kameraeinheiten 20, 60, beispielsweise eines Kameraarms und einer mobilen Rückfahrkamera, sehr weit voneinander entfernt. Hinzu kommt der sehr große Öffnungswinkel der Fischaugenoptik bei der mobilen Kameraeinheit 20. Beide Eigenschaften zusammen führen dazu, dass die klassischen „Feature-Tracking“ Methoden über Kameraeinheiten 20, 60 hinweg nur erschwert realisierbar sind. Der Ansatz, der oben beschrieben ist, besteht darin, die jeweils lokalen Informationen über bekanntes Wissen miteinander zu kombinieren und daher die Koordinatensysteme ineinander überführen zu können.Most known methods are based on common features with different camera units 20th , 60 to pursue. However, the camera units are often 20th , 60 , for example a camera arm and a mobile reversing camera, are very far apart. In addition, there is the very large opening angle of the fisheye optics on the mobile camera unit 20th . Both properties together mean that the classic "feature tracking" methods using camera units 20th , 60 are difficult to implement. The approach described above consists in combining the respective local information using known knowledge and therefore being able to convert the coordinate systems into one another.

Im vorliegenden Beispiel kann beispielsweise bekannt sein, dass die Anhängerrückwand, an der die Kameraeinheit 20 angeheftet wird, an eine Seite des Anhängers 16 grenzt. Somit gibt es als Schnittpunkt der beiden Flächen 18 eine Seitenfläche 18 des Anhängers 16 und die rückwärtige Seite des Anhängers 16, die sich an einer Kante 38 stoßen. Diese Kante 38 kann beispielsweise über Spiegelersatzkameras verfolgt werden und somit in einem Systemkoordinatensystem dynamisch gespeichert werden.In the present example, it can be known, for example, that the trailer rear wall on which the camera unit 20th is pinned to one side of the trailer 16 borders. Thus there is an intersection of the two surfaces 18th a side face 18th of the trailer 16 and the rear of the trailer 16 that is on an edge 38 bump. This edge 38 can, for example, be tracked using mirror replacement cameras and thus stored dynamically in a system coordinate system.

Das Verfahren ermöglicht selbstverständlich auch eine Kalibrierung von statisch montierten Kameras, beispielsweise Rückfahrkameras und kann auch mit Optiken mit einem Öffnungswinkel von > 180° in lediglich einer Ebene verwendet werden.The method naturally also enables the calibration of statically mounted cameras, for example rear-view cameras, and can also be used with optics with an opening angle of> 180 ° in just one plane.

Claims (8)

Verfahren zum Kalibrieren einer mobilen Kameraeinheit (20) eines Kamerasystems (22) für ein Kraftfahrzeug (10), wobei die Kameraeinheit (20) zum Erfassen eines optischen Flusses (42) ausgebildet ist, aufweisend die Schritte: - Befestigen der mobilen Kameraeinheit (20) an einer beliebigen Position (p) an einer Fläche (18) des Kraftfahrzeugs (10) derart, dass wenigstens zwei senkrecht zueinander angeordnete Kanten (38) der Fläche (18) in einem Sichtbereich (28) der Kameraeinheit (20) liegen; - Statisches Detektieren von statischen Positionsparametern (pus, pos, pls, prs) der wenigstens zwei Kanten (38); - Dynamisches Detektieren von dynamischen Positionsparametern (pud, pod, pld, prd) der wenigstens zwei Kanten (38) mit Hilfe des erfassten optischen Flusses (42); - Fusionieren der statischen Positionsparameter (pus, pos, pls, prs) mit den dynamischen Positionsparametern (pud, pod, pld, prd) zu tatsächlichen Positionsparametern (put, pot, plt, prt); - Berechnen von lokalen Koordinaten (x, y, z) der Kameraeinheit (20) auf Basis der ermittelten tatsächlichen Positionsparameter (put, pot, plt, prt) und intrinsischer Parameter der Kameraeinheit (20); - Übermitteln der lokalen Koordinaten (x, y, z) an eine zentrale Recheneinheit (54) des Kamerasystems (22).A method for calibrating a mobile camera unit (20) of a camera system (22) for a motor vehicle (10), the camera unit (20) being designed to detect an optical flow (42), comprising the steps: - Fastening the mobile camera unit (20) at any position (p) on a surface (18) of the motor vehicle (10) in such a way that at least two mutually perpendicular edges (38) of the surface (18) are in a field of view (28) of the Camera unit (20) lying; - Static detection of static position parameters (pus, pos, pls, prs) of the at least two edges (38); - Dynamic detection of dynamic position parameters (pud, pod, pld, prd) of the at least two edges (38) with the aid of the detected optical flow (42); - Merging the static position parameters (pus, pos, pls, prs) with the dynamic position parameters (pud, pod, pld, prd) to form actual position parameters (put, pot, plt, prt); - Calculating local coordinates (x, y, z) of the camera unit (20) on the basis of the determined actual position parameters (put, pot, plt, prt) and intrinsic parameters of the camera unit (20); - Transmission of the local coordinates (x, y, z) to a central processing unit (54) of the camera system (22). Verfahren nach Anspruch 1, gekennzeichnet durch Detektieren einer Raumlage (44) „unten“ relativ zur Kameraeinheit (20) durch Erfassen eines Untergrundes (40), auf dem das Kraftfahrzeug (10) angeordnet ist, mit Hilfe eines Beschleunigungssensors (48).Procedure according to Claim 1 , characterized by detecting a spatial position (44) “below” relative to the camera unit (20) by detecting a surface (40) on which the motor vehicle (10) is arranged with the aid of an acceleration sensor (48). Verfahren nach Anspruch 2, gekennzeichnet durch Erfassen des optischen Flusses (42) für den Untergrund (40).Procedure according to Claim 2 , characterized by detecting the optical flow (42) for the underground (40). Verfahren nach Anspruch 3, gekennzeichnet durch Präzisieren des erfassten optischen Flusses (42) unter Zuhilfenahme von Beschleunigungsdaten (68) des sich bewegenden Kraftfahrzeugs (10).Procedure according to Claim 3 , characterized by refining the detected optical flow (42) with the aid of acceleration data (68) of the moving motor vehicle (10). Verfahren nach einem der Ansprüche 1 bis 4, gekennzeichnet durch Erfassen des optischen Flusses (42) von wenigstens einer weiteren Raumlage (44) „rechts“, „links“ und/oder „oben“ relativ zur Kameraeinheit (20).Method according to one of the Claims 1 to 4th , characterized by detecting the optical flow (42) from at least one further spatial position (44) “right”, “left” and / or “above” relative to the camera unit (20). Verfahren nach einem der Ansprüche 1 bis 5, gekennzeichnet durch Bereitstellen einer Bildanalyseeinrichtung (46), die dazu ausgebildet ist, anhand eines Sprunges im erfassten optischen Fluss (42) die wenigstens zwei Kanten (38), insbesondere mehr als zwei Kanten (38), des Kraftfahrzeugs (10) zu erkennen.Method according to one of the Claims 1 to 5 , characterized by providing an image analysis device (46) which is designed to recognize the at least two edges (38), in particular more than two edges (38), of the motor vehicle (10) on the basis of a jump in the detected optical flow (42). Verfahren nach Anspruch 6, gekennzeichnet durch Bestimmen einer Trajektorie (56) des sich in Bewegung befindlichen Kraftfahrzeugs (10) aus dem optischen Fluss (42) mehrerer Raumlagen (44) und Plausibilisieren der erfassten Daten bzgl. der optischen Flüsse (42) der mehreren Raumlagen (44) mit Hilfe einer tatsächlichen Trajektorie (56) des sich in Bewegung befindlichen Kraftfahrzeugs (10).Procedure according to Claim 6 , characterized by determining a trajectory (56) of the motor vehicle (10) in motion from the optical flow (42) of several spatial positions (44) and also checking the plausibility of the recorded data with regard to the optical flows (42) of the several spatial positions (44) With the aid of an actual trajectory (56) of the motor vehicle (10) in motion. Kamera-Monitor-System (58) mit einer mobilen Kameraeinheit (20) und einer zentralen Recheneinheit (54), die dazu ausgebildet sind, ein Verfahren nach einem der Ansprüche 1 bis 7 durchzuführen.Camera monitor system (58) with a mobile camera unit (20) and a central processing unit (54), which are designed to implement a method according to one of the Claims 1 to 7th perform.
DE102019202269.3A 2019-02-20 2019-02-20 Method for calibrating a mobile camera unit of a camera system for a motor vehicle Active DE102019202269B4 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102019202269.3A DE102019202269B4 (en) 2019-02-20 2019-02-20 Method for calibrating a mobile camera unit of a camera system for a motor vehicle
PCT/EP2020/054246 WO2020169607A1 (en) 2019-02-20 2020-02-18 Method for calibrating a mobile camera unit of a camera system for a motor vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019202269.3A DE102019202269B4 (en) 2019-02-20 2019-02-20 Method for calibrating a mobile camera unit of a camera system for a motor vehicle

Publications (2)

Publication Number Publication Date
DE102019202269A1 DE102019202269A1 (en) 2020-08-20
DE102019202269B4 true DE102019202269B4 (en) 2020-11-19

Family

ID=69650586

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019202269.3A Active DE102019202269B4 (en) 2019-02-20 2019-02-20 Method for calibrating a mobile camera unit of a camera system for a motor vehicle

Country Status (2)

Country Link
DE (1) DE102019202269B4 (en)
WO (1) WO2020169607A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112706755B (en) * 2021-01-27 2022-08-16 广州小鹏自动驾驶科技有限公司 Vehicle-mounted camera adjusting method and device
DE102022213225A1 (en) 2022-07-20 2024-01-25 Continental Automotive Technologies GmbH Camera system, vehicle and procedures
WO2024017444A1 (en) 2022-07-20 2024-01-25 Continental Automotive Technologies GmbH Self-calibrating camera system, vehicle and method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005050363A1 (en) * 2005-10-21 2007-04-26 Bayerische Motoren Werke Ag Camera system for a motor vehicle
DE102010048143A1 (en) * 2010-10-11 2011-07-28 Daimler AG, 70327 Method for calibrating camera arranged in vehicle, involves determining current camera parameters in continuous manner and considering current pitch angle of vehicle during calibration
US20140085469A1 (en) * 2012-09-24 2014-03-27 Clarion Co., Ltd. Calibration Method and Apparatus for In-Vehicle Camera
US20160284087A1 (en) * 2015-03-24 2016-09-29 Intel Corporation Automatic orientation estimation of camera system relative to vehicle

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005050363A1 (en) * 2005-10-21 2007-04-26 Bayerische Motoren Werke Ag Camera system for a motor vehicle
DE102010048143A1 (en) * 2010-10-11 2011-07-28 Daimler AG, 70327 Method for calibrating camera arranged in vehicle, involves determining current camera parameters in continuous manner and considering current pitch angle of vehicle during calibration
US20140085469A1 (en) * 2012-09-24 2014-03-27 Clarion Co., Ltd. Calibration Method and Apparatus for In-Vehicle Camera
US20160284087A1 (en) * 2015-03-24 2016-09-29 Intel Corporation Automatic orientation estimation of camera system relative to vehicle

Also Published As

Publication number Publication date
DE102019202269A1 (en) 2020-08-20
WO2020169607A1 (en) 2020-08-27

Similar Documents

Publication Publication Date Title
DE10229334B4 (en) Method and device for calibrating sensors in motor vehicles by means of a calibration object with triple mirror as a reference feature
EP1797534B1 (en) Method for detecting an optical structure
DE112010005008B4 (en) System and method for determining camera calibration in runtime
EP2260263B1 (en) Chassis-measuring system and method for determining the position parameters of probes of a chassis-measuring system
DE102019202269B4 (en) Method for calibrating a mobile camera unit of a camera system for a motor vehicle
DE102011113197B4 (en) Method and device for determining an angle between a towing vehicle and a trailer coupled to it, and the vehicle
DE10246066B4 (en) Method and device for calibrating an image sensor system in a motor vehicle
DE102012221563B4 (en) FUNCTIONAL DIAGNOSIS AND VALIDATION OF A VEHICLE-BASED IMAGING SYSTEM
DE102015107390B4 (en) Method and device for automatically calibrating all-round vision systems
WO2016120044A1 (en) Measurement of a dimension on a surface
DE102013110581A1 (en) Device for optically scanning and measuring an environment
DE102016220075A1 (en) Motor vehicle and method for 360 ° field detection
EP3510463A1 (en) Sensor array for an autonomously operated utility vehicle and method for surround-view image acquisition
DE102020109279A1 (en) TRAILER ALIGNMENT SYSTEM AND PROCEDURE
DE102017011177A1 (en) Method for determining a bending angle of a vehicle combination, determination device and vehicle combination
DE102017109445A1 (en) Calibration of a vehicle camera device in the vehicle longitudinal direction or vehicle transverse direction
DE102019115611A1 (en) OBJECT TRACKING IN THE DEAD ANGLE
DE112015002764B4 (en) Mounting angle adjustment method and mounting angle detection device for on-board camera
DE102008000837A1 (en) Chassis measuring system and method for determining the positional parameters of measuring heads of a chassis measuring system
DE102015209764A1 (en) Extrinsic calibration of an image capture device of a vehicle
DE102017126495A1 (en) Calibration of a stationary camera system for detecting the position of a mobile robot
DE102014118203A1 (en) DISTANCE DETERMINATION USING A MONOSCOPIC IMAGER IN A VEHICLE
DE102020113821A1 (en) Driver condition detection device
DE102012000630A1 (en) Obstacle detecting system for detecting obstacle during parking of car, has image capturing device including two cameras, and image processing unit detecting obstacle based on image information captured by two cameras
DE102020212279B3 (en) Device for calibrating a spatial position of a center of an entrance pupil of a camera, calibration method for this, and a system for determining the relative position of centers of entrance pupils of at least two cameras, which are mounted on a common support frame, to one another, and determination methods for this

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R081 Change of applicant/patentee

Owner name: CONTINENTAL AUTOMOTIVE TECHNOLOGIES GMBH, DE

Free format text: FORMER OWNER: CONTINENTAL AUTOMOTIVE GMBH, 30165 HANNOVER, DE

R081 Change of applicant/patentee

Owner name: CONTINENTAL AUTOMOTIVE TECHNOLOGIES GMBH, DE

Free format text: FORMER OWNER: CONTINENTAL AUTOMOTIVE TECHNOLOGIES GMBH, 30165 HANNOVER, DE