DE102016222548A1 - Method and control unit for determining a distortion characteristic of an optical medium during travel operation - Google Patents

Method and control unit for determining a distortion characteristic of an optical medium during travel operation Download PDF

Info

Publication number
DE102016222548A1
DE102016222548A1 DE102016222548.0A DE102016222548A DE102016222548A1 DE 102016222548 A1 DE102016222548 A1 DE 102016222548A1 DE 102016222548 A DE102016222548 A DE 102016222548A DE 102016222548 A1 DE102016222548 A1 DE 102016222548A1
Authority
DE
Germany
Prior art keywords
distortion
image
determining
optical
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102016222548.0A
Other languages
German (de)
Inventor
Florian Ohr
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102016222548.0A priority Critical patent/DE102016222548A1/en
Publication of DE102016222548A1 publication Critical patent/DE102016222548A1/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Bestimmung der Verzeichnungseigenschaften eines optischen Mediums (202) unter Verwendung eines durch das optische Medium (202) erfassenden optischen Sensors (102) während des Fahrtbetriebs, wobei in einem Schritt des Bestimmens zumindest ein Parameter eines Verzeichnungsmodells zum Kompensieren einer optischen Verzeichnung des optischen Mediums (202)unter Verwendung einer Bildfolge des optischen Sensors (102) und einer Trajektorie des Sensors bestimmt wird, um die Verzeichnungseigenschaft des optischen Mediums (202)während eines Fahrtbetriebs zu bestimmen, wobei die Trajektore sich zumindest über zwei Abbildungszeitpunkte erstreckt und eine Translation und/oder Rotation des Sensors (102) zwischen einem ersten Erfassungszeitpunkt eines ersten Bilds der Bildfolge und einem zweiten Erfassungszeitpunkt eines zweiten Bilds der Bildfolge repräsentiert.The invention relates to a method for determining the distortion characteristics of an optical medium (202) using an optical sensor (102) sensing through the optical medium (202) during the running operation, wherein in a step of determining at least one parameter of a distortion model for compensating an optical Distortion of the optical medium (202) is determined using an image sequence of the optical sensor (102) and a trajectory of the sensor to determine the distortion characteristic of the optical medium (202) during a driving operation, the trajectory extending at least over two imaging times and a translation and / or rotation of the sensor (102) between a first detection time of a first image of the image sequence and a second detection time of a second image of the image sequence represents.

Description

Stand der TechnikState of the art

Die Erfindung geht aus von einem Steuergerät oder einem Verfahren nach Gattung der unabhängigen Ansprüche. Gegenstand der vorliegenden Erfindung ist auch ein Computerprogramm.The invention is based on a control device or a method according to the preamble of the independent claims. The subject of the present invention is also a computer program.

Bei einem optischen Sensor, der hinter einer schräg ausgerichteten Scheibe angeordnet ist, wird ein von dem Sensor durch die Scheibe erfasstes Abbild eines Umfelds verzeichnet. Um diese Verzeichnung zu korrigieren, ist eine Korrekturvorschrift erforderlich, die Abtastpunkte des Abbilds entgegengesetzt zu der Verzeichnung verschiebt.In an optical sensor which is arranged behind an obliquely oriented disk, an image of an environment detected by the sensor through the disk is recorded. To correct for this distortion, a correction rule is required which shifts sample pixels of the image opposite to the distortion.

Offenbarung der ErfindungDisclosure of the invention

Vor diesem Hintergrund werden mit dem hier vorgestellten Ansatz ein Verfahren zur Bestimmung einer Verzeichnungseigenschaft eines optischen Mediums während des Fahrtbetriebs vorgestellt, weiterhin ein Steuergerät, das dieses Verfahren verwendet, sowie schließlich ein entsprechendes Computerprogramm gemäß den Hauptansprüchen vorgestellt. Durch die in den abhängigen Ansprüchen aufgeführten Maßnahmen sind vorteilhafte Weiterbildungen und Verbesserungen der im unabhängigen Anspruch angegebenen Vorrichtung möglich.Against this background, a method for determining a distortion characteristic of an optical medium during travel operation is presented with the approach presented here, furthermore a control unit which uses this method, and finally a corresponding computer program according to the main claims. The measures listed in the dependent claims advantageous refinements and improvements of the independent claim device are possible.

Eine Verzeichnungseigenschaft eines optischen Mediums, wie beispielsweise einer Front- oder Heckscheibe, manifestiert sich in einem durch das optische Medium hindurch aufgezeichneten Abbild. Beispielsweise können gerade Linien und Kanten durch die Verzeichnung bzw. Verzeichnungseigenschaft gebogen abgebildet werden. Mit anderen Worten resultiert aus der Verzeichnung ein verzerrtes Abbild, in dem ein Szenenpunkt an einer anderen Position abgebildet wird, als im unverzeichneten Fall.A distortion characteristic of an optical medium, such as a front or rear window, manifests itself in an image recorded through the optical medium. For example, straight lines and edges can be displayed bent by the distortion or distortion characteristic. In other words, the distortion results in a distorted image in which a scene point is imaged at a different position than in the unrecognized case.

Bei fester relativer Position des optischen Mediums zum optischen Sensor, bleibt die Verzeichnungseigenschaft konstant über die Zeit. Dies ist bei einem hinter einer Frontscheibe, beziehungsweise Windschutzscheibe, angeordnetem optischen Sensor der Fall.With fixed relative position of the optical medium to the optical sensor, the distortion characteristic remains constant over time. This is the case with a behind a windshield, or windshield, arranged optical sensor.

Aus der Verschiebung der Abbildung eines Szenenpunktes zu unterschiedlichen Abtastzeitpunkten (im Weiteren auch als optischer Fluss bezeichnet), kann mit dem Zusatzwissen über die Bewegung des Sensors zwischen den Abtastzeitpunkten auf die Verzeichnungseigenschaft des optischen Mediums rückgeschlossen werden. Zusätzlich ist die Einbeziehung einer Abstandsinformation bezüglich des Szenenpunktes möglich.From the displacement of the image of a scene point at different sampling times (also referred to as optical flow hereinafter), it is possible to draw conclusions about the movement of the sensor between the sampling instants on the distortion property of the optical medium. In addition, the inclusion of a distance information with respect to the scene point is possible.

Der hier beschriebe Ansatz nutzt die oben beschriebenen Zusammenhänge, um die vorliegenden Verzeichnungseigenschaften des optischen Mediums zu bestimmen. Er stellt einen funktionalen Zusammenhang zwischen Verzeichnungseigenschaft, Fahrzeugumgebung und ihrem verzeichneten Abbild her. Die Verzeichnungseigenschaft wird dabei über ein Modell beschrieben, dessen Parameter, über den funktionalen Zusammenhang, aus einer Abbildungsfolge der Fahrzeugumgebung bestimmt werden können. Die Abbildungsfolge resultiert dabei aus einer Trajektorie des bewegten Fahrzeugs über die Zeit, welche in einer Sensortrajektorie resultiert. Diese besteht aus zumindest zwei Einzelposen des Sensors zu den jeweiligen Abtastzeitpunkten. Die jeweilige Transformation besteht zumindest aus einer rotatorischen und/oder einer oder mehreren translatorischen Komponenten und kann beispielsweise durch eine vektorwertige Translation und eine Rotation um die drei Hauptachsen des Sensors beschrieben werden.The approach described here uses the relationships described above to determine the present distortion characteristics of the optical medium. It establishes a functional relationship between distortion characteristic, vehicle environment and their recorded image. The distortion characteristic is described by a model whose parameters, via the functional relationship, can be determined from an imaging sequence of the vehicle environment. The imaging sequence results from a trajectory of the moving vehicle over time, which results in a sensor trajectory. This consists of at least two individual poses of the sensor at the respective sampling times. The respective transformation consists of at least one rotational and / or one or more translatory components and can be described for example by a vector-valued translation and a rotation about the three main axes of the sensor.

Es wird ein Verfahren zur Bestimmung einer Verzeichnungseigenschaft eines optischen Mediums während des Fahrtbetriebs unter Verwendung eines durch das Medium erfassenden optischen Sensors vorgestellt, wobei in einem Schritt des Bestimmens zumindest ein Parameter eines Verzeichnungsmodells zum Kompensieren einer optischen Verzeichnung des optischen Mediums unter Verwendung einer Bildfolge des optischen Sensors und einer Trajektorie des optischen Sensors bestimmt wird, um die Verzeichnungseigenschaft des optischen Mediums während eines Fahrtbetriebs zu bestimmen, wobei die Trajektorie eine Translation und/oder Rotation des optischen Sensors zwischen einem ersten Erfassungszeitpunkt eines ersten Bilds der Bildfolge und einem zweiten Erfassungszeitpunkt eines zweiten Bilds der Bildfolge repräsentiert.A method is provided for determining a distortion characteristic of an optical medium during travel using an optical sensor sensing the medium, wherein in a step of determining at least one parameter of a distortion model for compensating for optical distortion of the optical medium using an image sequence of the optical Sensor and a trajectory of the optical sensor is determined to determine the distortion characteristic of the optical medium during a driving operation, wherein the trajectory translation and / or rotation of the optical sensor between a first detection time of a first image of the image sequence and a second detection time of a second image represents the image sequence.

Das Modell beschreibt die Verzeichnungseigenschaft des optischen Mediums zumindest approximativ und enthält zumindest einen Parameter. Die in dem Modell enthaltene Verzeichnungsvorschrift ermöglicht die Korrektur eines Sensorabbildes, wodurch zumindest eine Reduktion der enthaltenen Verzeichnung erreicht wird.The model describes the distortion characteristic of the optical medium at least approximately and contains at least one parameter. The distortion rule contained in the model allows the correction of a sensor image, thereby achieving at least a reduction in the distortion contained.

Die Information der Sensortrajektorie kann als weiterer Freiheitsgrad bzw. Parameter, über das Funktional bestimmt oder geschätzt werden. Dies ist möglich über die Abbilder statischer Szenenobjekte, wie dies nachfolgend in einer Formel noch näher erläutert wird. Alternativ kann die Bewegungsinformation aus einem zusätzlichen Sensor des Fahrzeugs eingespeist werden, wie beispielweise einer Inertialsensorik, welche über den Datenbus des Fahrzeugs ausgelesen werden kann. The information of the sensor trajectory can be determined or estimated as a further degree of freedom or parameters, via the functional. This is possible via the images of static scene objects, as will be explained in more detail below in a formula. Alternatively, the movement information from an additional sensor of the vehicle can be fed, such as an inertial sensor, which can be read via the data bus of the vehicle.

Als weitere Information kann Tiefeninformation bezüglich der Fahrzeugumgebung in das Funktional aufgenommen werden (Umfeld erfassende Sensorik). Dadurch kann auf den Schritt zur Beseitigung der Tiefe als Unbekannte, entsprechend einer nachfolgend noch näher beschriebenen Formel, verzichtet werden. Es ergibt sich somit eine Variation des Verfahrens basierend auf einem leicht veränderten Funktional.As further information, depth information regarding the vehicle environment may be included in the functional (environment sensing sensor). This makes it possible to dispense with the step of eliminating the depth as unknown, according to a formula described in more detail below. This results in a variation of the method based on a slightly different functional.

Das Verfahren kann beispielsweise in Software oder Hardware oder in einer Mischform aus Software und Hardware beispielsweise in einem Steuergerät implementiert sein.The method can be implemented, for example, in software or hardware or in a mixed form of software and hardware, for example in a control unit.

Der hier vorgestellte Ansatz schafft ferner ein Steuergerät, das ausgebildet ist, um die Schritte einer Variante eines hier vorgestellten Verfahrens in entsprechenden Einrichtungen durchzuführen, anzusteuern bzw. umzusetzen. Auch durch diese Ausführungsvariante der Erfindung in Form eines Steuergeräts kann die der Erfindung zugrunde liegende Aufgabe schnell und effizient gelöst werden.The approach presented here also creates a control unit which is designed to execute, to control or to implement the steps of a variant of a method presented here in corresponding devices. Also by this embodiment of the invention in the form of a control device, the object underlying the invention can be achieved quickly and efficiently.

Hierzu kann das Steuergerät zumindest eine Recheneinheit zum Verarbeiten von Signalen oder Daten, zumindest eine Speichereinheit zum Speichern von Signalen oder Daten, zumindest eine Schnittstelle zu einem Sensor oder einem Aktor zum Einlesen von Sensorsignalen von dem Sensor oder zum Ausgeben von Steuersignalen an den Aktor und/oder zumindest eine Kommunikationsschnittstelle zum Einlesen oder Ausgeben von Daten aufweisen, die in ein Kommunikationsprotokoll eingebettet sind. Die Recheneinheit kann beispielsweise ein Signalprozessor, ein Mikrocontroller oder dergleichen sein, wobei die Speichereinheit ein Flash-Speicher, ein EEPROM oder eine magnetische Speichereinheit sein kann. Die Kommunikationsschnittstelle kann ausgebildet sein, um Daten drahtlos und/oder leitungsgebunden einzulesen oder auszugeben, wobei eine Kommunikationsschnittstelle, die leitungsgebundene Daten einlesen oder ausgeben kann, diese Daten beispielsweise elektrisch oder optisch aus einer entsprechenden Datenübertragungsleitung einlesen oder in eine entsprechende Datenübertragungsleitung ausgeben kann.For this purpose, the control unit can have at least one arithmetic unit for processing signals or data, at least one memory unit for storing signals or data, at least one interface to a sensor or an actuator for reading sensor signals from the sensor or for outputting control signals to the actuator and / or or at least a communication interface for reading or outputting data embedded in a communication protocol. The arithmetic unit may be, for example, a signal processor, a microcontroller or the like, wherein the memory unit may be a flash memory, an EEPROM or a magnetic memory unit. The communication interface can be designed to read or output data wirelessly and / or by line, wherein a communication interface that can read or output line-bound data, for example, electrically or optically read this data from a corresponding data transmission line or output in a corresponding data transmission line.

Unter einem Steuergerät kann vorliegend ein elektrisches Gerät verstanden werden, das Sensorsignale verarbeitet und in Abhängigkeit davon Steuer- und/oder Datensignale ausgibt. Das Steuergerät kann eine Schnittstelle aufweisen, die hard- und/oder softwaremäßig ausgebildet sein kann. Bei einer hardwaremäßigen Ausbildung können die Schnittstellen beispielsweise Teil eines sogenannten System-ASICs sein, der verschiedenste Funktionen des Steuergeräts beinhaltet. Es ist jedoch auch möglich, dass die Schnittstellen eigene, integrierte Schaltkreise sind oder zumindest teilweise aus diskreten Bauelementen bestehen. Bei einer softwaremäßigen Ausbildung können die Schnittstellen Softwaremodule sein, die beispielsweise auf einem Mikrocontroller neben anderen Softwaremodulen vorhanden sind.In the present case, a control device can be understood as meaning an electrical device which processes sensor signals and outputs control and / or data signals in dependence thereon. The control unit may have an interface, which may be formed in hardware and / or software. In the case of a hardware-based embodiment, the interfaces can be part of a so-called system ASIC, for example, which contains various functions of the control unit. However, it is also possible that the interfaces are their own integrated circuits or at least partially consist of discrete components. In a software training, the interfaces may be software modules that are present, for example, on a microcontroller in addition to other software modules.

Von Vorteil ist auch ein Computerprogrammprodukt oder Computerprogramm mit Programmcode, der auf einem maschinenlesbaren Träger oder Speichermedium wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung, Umsetzung und/oder Ansteuerung der Schritte des Verfahrens nach einer der vorstehend beschriebenen Ausführungsformen verwendet wird, insbesondere wenn das Programmprodukt oder Programm auf einem Computer oder einer Vorrichtung ausgeführt wird.Also of advantage is a computer program product or computer program with program code which can be stored on a machine-readable carrier or storage medium such as a semiconductor memory, a hard disk memory or an optical memory and for carrying out, implementing and / or controlling the steps of the method according to one of the embodiments described above is used, especially when the program product or program is executed on a computer or a device.

Ausführungsbeispiele des hier vorgestellten Ansatzes sind in den Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert. Es zeigt:

  • 1 ein Blockschaltbild eines Steuergeräts zur Bestimmung einer Verzeichnungseigenschaft eines optischen Mediums während des Fahrtbetriebs unter Verwendung eines optischen Sensors gemäß einem Ausführungsbeispiel;
  • 2 eine Darstellung eines optischen Pfads durch eine Frontscheibe;
  • 3 eine Darstellung einer optischen Verzeichnung durch ein optisches Medium;
  • 4 einen Verlauf einer optischen Verzeichnung eines optischen Mediums; und
  • 5 ein Ablaufdiagramm eines Verfahrens zur Bestimmung einer Verzeichnungseigenschaft eines optischen Mediums während des Fahrtbetriebs unter Verwendung eines optischen Sensors gemäß einem Ausführungsbeispiel.
Embodiments of the approach presented here are shown in the drawings and explained in more detail in the following description. It shows:
  • 1 a block diagram of a controller for determining a distortion characteristic of an optical medium during the driving operation using an optical sensor according to an embodiment;
  • 2 a representation of an optical path through a windshield;
  • 3 a representation of an optical distortion by an optical medium;
  • 4 a course of optical distortion of an optical medium; and
  • 5 a flowchart of a method for determining a distortion characteristic of an optical medium during the driving operation using an optical sensor according to an embodiment.

In der nachfolgenden Beschreibung von Ausführungsbeispielen der vorliegenden Erfindung werden für die in den verschiedenen Figuren dargestellten und ähnlich wirkenden Elemente gleiche oder ähnliche Bezugszeichen verwendet, wobei auf eine wiederholte Beschreibung dieser Elemente verzichtet wird. In the following description of exemplary embodiments of the present invention, the same or similar reference numerals are used for the elements shown in the various figures and similarly acting, wherein a repeated description of these elements is omitted.

1 zeigt ein Blockschaltbild eines Steuergeräts 100, zum Betreiben eines optischen Sensors 102 gemäß einem Ausführungsbeispiel. Das Steuergerät 100 und der optische Sensor 102 sind an einen Datenbus 104 eines Fahrzeugs 106 angeschlossen. Der optische Sensor 102 ist in einem Innenraum des Fahrzeugs 106 angeordnet und durch eine Frontscheibe des Fahrzeugs 106 als optisches Medium auf ein Umfeld des Fahrzeugs 106 gerichtet. Das von dem optischen Sensor 102 erfasste Abbild des Umfelds wird durch die Frontscheibe verzeichnet. Durch diese Verzeichnung sind Objekte des Umfelds abhängig von ihrer Position im Bild verschieden stark verzerrt abgebildet. Die Verzeichnung wird unter Verwendung eines Verzeichnungsmodells 108 kompensiert. Das Verzeichnungsmodell 108 ermöglicht dabei, für jeden Bildpunkt des Abbilds einen Korrekturvektor abzuleiten. Es wird in diesem Zusammenhang angemerkt, dass auf analoge Weise auch eine Verzeichnungseingeschaft einer Heckscheibe unter Verwendung des oder eines weiteren optischen Sensors bestimmt wird. Somit ist erkennbar, dass der hier vorgestellte Ansatz zwar unter Verwendung einer Frontscheibe des Fahrzeugs hier beschrieben ist, dieser Ansatz jedoch auch unabhängig von der Verwendung auf eine Frontscheibe für die Bestimmung der Verzeichnungseigenschaft nahezu jedes beliebigen optischen Mediums verwendet werden kann. 1 shows a block diagram of a controller 100 for operating an optical sensor 102 according to an embodiment. The control unit 100 and the optical sensor 102 are connected to a data bus 104 of a vehicle 106 connected. The optical sensor 102 is disposed in an interior of the vehicle 106 and through a windshield of the vehicle 106 as an optical medium on an environment of the vehicle 106 directed. That of the optical sensor 102 captured image of the environment is recorded by the windscreen. As a result of this distortion, objects of the environment are depicted with different distortions depending on their position in the image. The distortion is done using a distortion model 108 compensated. The distortion model 108 allows to derive a correction vector for each pixel of the image. It is noted in this connection that, analogously, also a distortion engagement of a rear window is determined using the or another optical sensor. Thus, it will be appreciated that while the approach presented herein is described using a windshield of the vehicle herein, this approach may be used to determine the distortion characteristic of virtually any optical medium, regardless of use on a windshield.

Das Steuergerät 100 kann als ECU bezeichnet werden und ist dazu ausgebildet, in einer Einrichtung 110 zum Schätzen bzw. Bestimmen zumindest eines Parameters 112 des Verzeichnungsmodells 108 unter Verwendung einer vom optischen Sensor 102 erfassten Abbildungsfolge 114 und einer Bewegung des optischen Sensors 102 während des Erfassens der Abbildungsfolge 114 zu bestimmen. Das Verzeichnungsmodell 108 kann als Verzerrungscharakteristik der Frontscheibe bezeichnet werden. Dabei wird die Bewegung zumindest eines ein Objekt abbildenden Bildpunkts in der Bildfolge 114 mit der Bewegung des optischen Sensors 102 verglichen. Ein Anteil der Bewegung des Bildpunkts, der nicht aus der Bewegung des optischen Sensors resultiert, resultiert entweder aus einer Eigenbewegung des Objekts oder aus der Verzeichnung durch die Frontscheibe.The control unit 100 can be termed ECU and is designed to be in a facility 110 for estimating or determining at least one parameter 112 of the distortion model 108 using one of the optical sensor 102 recorded sequence of pictures 114 and a movement of the optical sensor 102 while capturing the picture sequence 114 to determine. The distortion model 108 may be referred to as the distortion characteristic of the windshield. In this case, the movement of at least one object image-forming pixel in the image sequence 114 with the movement of the optical sensor 102 compared. A proportion of the movement of the pixel, which does not result from the movement of the optical sensor, results either from a self-motion of the object or from the distortion by the front screen.

In einem Ausführungsbeispiel verwendet das Steuergerät 100 ferner weitere auf dem Datenbus 104 bereitgestellte Sensordaten 116 anderer Sensoren 118 des Fahrzeugs 106, um den Parameter 112 zu bestimmen. Beispielsweise werden von einem auf das Umfeld gerichteten Radarsensor 118 erfasste Positionsinformationen 116 des Objekts verwendet, um die Eigenbewegung des Objekts zu berücksichtigen.In one embodiment, the controller uses 100 further more on the data bus 104 provided sensor data 116 other sensors 118 of the vehicle 106 to the parameter 112 to determine. For example, from an on-the-field radar sensor 118 captured position information 116 of the object used to account for the inherent motion of the object.

Zusätzliche im Fahrzeug 106 verbaute Sensorik 118 kann zum Verbessern der Schätzung verwendet werden. Beispielsweise können Messdaten 116 eines Radar-Sensors 118 verwendet werden, die über den CAN-Bus 104 zur Verfügung stehen.Additional in the vehicle 106 built-in sensors 118 can be used to improve the estimate. For example, measurement data 116 a radar sensor 118 to be used over the CAN bus 104 be available.

Durch Vermeidung eines gesonderten Kalibrierprozesses zur Bestimmung der Scheibenverzeichnung können erhebliche Mehraufwände beziehungsweise Mehrkosten bei der Fahrzeugherstellung und bei nachträglichem Scheibentausch vermieden werden.By avoiding a separate calibration process for determining the disc distortion considerable additional expenses or additional costs in vehicle production and subsequent replacement of discs can be avoided.

In 1 ist ein schematischer Aufbau der Verzeichnis-Schätzung dargestellt. Der optische Sensor 102 kann beispielsweise ein Bildsensor oder ein Zeilensensor sein.In 1 a schematic structure of the directory estimation is shown. The optical sensor 102 For example, it may be an image sensor or a line sensor.

2 zeigt eine Darstellung eines optischen Pfads 200 durch eine Frontscheibe 202. Die Frontscheibe 202 ist beispielsweise die Frontscheibe des in 1 dargestellten Fahrzeugs. Wie in 1 ist auf einer Innenseite der Frontscheibe 202 im Innenraum 204 ein optischer Sensor 102, beispielsweise eine Kamera 102, angeordnet. Wie in 1 ist der optische Sensor 102 mit einem Steuergerät 100 zur Verarbeitung der Daten des optischen Sensors 102 verbunden. 2 shows a representation of an optical path 200 through a windscreen 202. The windscreen 202 is for example the windscreen of in 1 shown vehicle. As in 1 is on an inside of the front window 202 in the interior 204 an optical sensor 102 , For example, a camera 102, arranged. As in 1 is the optical sensor 102 with a control unit 100 for processing the data of the optical sensor 102 connected.

In optischen Sensor 102 einfallendes Licht durchdringt zunächst die Frontscheibe 202. Aufgrund der gegenüber Luft höheren Dichte der Frontscheibe 202 wird das Licht an den Grenzflächen der Frontscheibe 202 gebrochen. Der hier als optischer Pfad 200 bezeichnete Lichtstrahl 200 trifft mit einem Einfallswinkel α auf die Frontscheibe 202. Am Übergang von Luft zu Glas wird der Lichtstrahl 200 gebrochen und um einen vom Einfallswinkel α abhängigen Brechungswinkel gebrochen. Innerhalb der Frontscheibe 202 weist der Lichtstrahl 200 damit einen anderen Winkel auf, als den Einfallswinkel α. Am Übergang von Glas zu Luft wird der Lichtstrahl 200 erneut um einen Brechungswinkel gebrochen und verlässt die Frontscheibe mit einem Austrittswinkel β. Der Brechungswinkel am Austritt ist von dem Winkel des Lichtstrahls 200 innerhalb der Frontscheibe 202 abhängig. In optical sensor 102 incident light first penetrates the windscreen 202. Due to the higher air density of the windscreen 202 the light is at the interfaces of the windscreen 202 Broken. The here as optical path 200 designated light beam 200 meets with an angle of incidence α on the windscreen 202 , At the transition from air to glass the light beam becomes 200 broken and refracted by an angle of incidence α dependent refraction angle. Inside the windscreen 202 points the light beam 200 so that a different angle than the angle of incidence α. At the transition from glass to air the light beam becomes 200 again refracted by an angle of refraction and leaves the windscreen with an exit angle β. The angle of refraction at the exit is the angle of the light beam 200 inside the windscreen 202 dependent.

Der Lichtstrahl 200 wird beim Durchdringen der Frontscheibe 202 seitlich versetzt und um die Differenz zwischen dem Einfallswinkel α und dem Ausfallswinkel β abgelenkt. Da die Frontscheibe 202 eine Krümmung aufweist, ergibt sich für die Gesamtheit der in den optischen Sensor 102 einfallenden Lichtstrahlen 200 eine Verzeichnung. Die Verzeichnung ist ein zweidimensionaler Verlauf des Versatzes und der Ablenkung. The light beam 200 is when penetrating the windscreen 202 laterally offset and deflected by the difference between the angle of incidence α and the angle of reflection β. Because the windscreen 202 has a curvature, resulting for the whole of the optical sensor 102 incident light rays 200 a distortion. The distortion is a two-dimensional course of the displacement and the deflection.

Durch die Verzeichnung wird eine durch die Frontscheibe 202 erfasste äußere Szene 206 verzerrt abgebildet. Der hier vorgestellte Ansatz ermöglicht eine Korrektur dieser Verzeichnung.The distortion becomes a through the windscreen 202 captured outer scene 206 distorted. The approach presented here allows a correction of this distortion.

Es wird eine Online-Schätzung, im Sinne einer Schätzung während des Betriebs, der Verzeichnungseigenschaften einer Windschutzscheibe 202 vorgestellt.It becomes an online estimate, in the sense of an estimate during operation, of the windshield distortion characteristics 202 presented.

Optische Sensoren 102 sind eine wichtige Datenquelle im Bereich der Fahrassistenz. Aufgrund des geringen Preises werden häufig optische Sensoren 102 verwendet, wie beispielsweise Video-Imager 102. Diese sind in der Regel im Inneren der Fahrzeugkabine 204 verbaut und registrieren die Außenszene 206 durch die Windschutzscheibe 202.Optical sensors 102 are an important data source in the field of driver assistance. Due to the low price, optical sensors 102 are often used, such as video imagers 102 , These are usually inside the vehicle cabin 204 installed and register the outdoor scene 206 through the windshield 202 ,

Die Scheibe 202 stellt dabei eine Störung des optischen Pfades 200 dar, welche eine Verzerrung der Abbildung verursacht. So werden Lichtstrahlen 200 entsprechend des Snelliusschen Brechungsgesetz gebrochen. Als Folge entsteht eine Fehlwahrnehmung der äußeren Szenerie 206. Aus diesem Grund erfolgt zur korrekten Abbildung der Fahrzeugumgebung 206 eine Verzeichnungskorrektur. Sind die Verzeichnungseigenschaften der Scheibe 202 bekannt, kann eine Korrektur der Abbildung erfolgen, wodurch eine unverfälschte Perzeption der Szenerie 206 gewährleistet ist. Dies kann softwareseitig erfolgen. Alternativ kann eine inverse Optik verwendet werden.The disc 202 represents a disturbance of the optical path 200 which causes a distortion of the image. That's how light rays become 200 broken according to the Snellius law of refraction. The result is a misperception of the outer scenery 206 , For this reason, the vehicle environment is displayed correctly 206 a distortion correction. Are the distortion characteristics of the disc 202 known, a correction of the image can be done, creating an unadulterated perception of the scenery 206 is guaranteed. This can be done on the software side. Alternatively, an inverse optic can be used.

Es wird ein Verfahren vorgestellt, welches die Verzeichnungseigenschaften einer Windschutzscheibe 202 ohne Verwendung eines expliziten Kalibriervorgangs bestimmt.A method is presented which illustrates the distortion characteristics of a windshield 202 determined without using an explicit calibration procedure.

In 2 ist der Effekt der Windschutzscheibenverzeichnung auf den optischen Pfad 200 eines im Fahrzeug verbauten Sensors 102 dargestellt. Abhängig von Winkel α erfährt der Sichtstrahl 200 eines Weltpunktes eine Ablenkung, die in einem verschobenen Abbild resultiert. Mit anderen Worten resultiert aus der Windschutzscheibenverzeichnung ein verzerrter Sichtstrahl 200.In 2 is the effect of windshield distortion on the optical path 200 a sensor installed in the vehicle 102 shown. Depending on angle α, the sight beam experiences 200 of a world point a distraction that results in a shifted image. In other words, the windshield distortion results in a distorted line of sight 200 ,

Die Verzeichnung der Windschutzscheibe 202 kann auch in einem initialen Kalibrierprozess bestimmt werden. Dazu sind eine externe Kalibriervorrichtung oder zusätzliche Sensoren erforderlich. Der Kalibrierprozess bedeutet einen erheblichen Mehraufwand bei der Fahrzeugfertigung und bei jedem Wechsel der Windschutzscheibe. Dagegen werden bei dem hier vorgestellten Ansatz die Verzeichnungseigenschaften der Scheibe 202 im fertiggestellten Fahrzeug bestimmt und dabei keine externen Hilfsmittel, Sensoren oder Apparaturen verwendet.The distortion of the windshield 202 can also be determined in an initial calibration process. This requires an external calibration device or additional sensors. The calibration process means a considerable extra effort in vehicle production and every time the windshield is changed. In contrast, in the approach presented here, the distortion characteristics of the disc 202 determined in the finished vehicle and uses no external aids, sensors or equipment.

Die Verzeichnungseigenschaften der Windschutzscheibe 202 werden auf Basis der Messdaten des hinter der Scheibe 202 verbauten Sensors 102 bestimmt. Dabei erfolgt eine Schätzung oder Bestimmung im Endfahrzeug, während des Betriebs und ohne Verwendung externer Hilfsmittel. Die Schätzung oder Bestimmung kann als Online-Schätzung bezeichnet werden.The distortion characteristics of the windshield 202 are based on the measured data of the behind the disc 202 built-in sensor 102 certainly. An estimate or determination is made in the final vehicle during operation and without the use of external aids. The estimate or determination can be referred to as an online estimate.

Durch die Online-Schätzung ist eine notwendige Korrektur des Sensorabbildes im Betrieb gewährleistet.The online estimation ensures a necessary correction of the sensor image during operation.

Die Online-Schätzung stellt einen funktionalen Zusammenhang zwischen einem Verzeichnungsmodell, der Fahrzeugumgebung 206 und ihrem verzerrten Abbild her.The online estimate provides a functional relationship between a distortion model, the vehicle environment 206 and her distorted image.

3 zeigt eine Darstellung einer optischen Verzeichnung 300 durch ein optisches Medium, wie beispielsweise die Frontscheibe. Die Frontscheibe entspricht dabei im Wesentlichen der Frontscheibe in 2. Die Verzeichnung 300 ist für die Bildpunkte eines Bilds angegeben, das unter Verwendung eines optischen Sensors erfasst worden ist, wie sie beispielsweise in 2 dargestellt ist. Bildpunktkoordinaten in x und y sind dabei in einem Merkmalsraum aufgetragen. Jedem Bildpunkt ist ein Wert der Verzeichnung 300 zugeordnet. 3 shows a representation of an optical distortion 300 through an optical medium, such as the windscreen. The windscreen corresponds essentially to the windscreen in 2 , The distortion 300 is given for the pixels of an image captured using an optical sensor, such as those shown in FIG 2 is shown. Pixel coordinates in x and y are plotted in a feature space. Each pixel is a value of distortion 300 assigned.

Hier sind Bildpunkte mit dem gleichen Wert durch Isolinien miteinander verbunden. Der Wert ist am rechten Rand des Merkmalsraums angetragen.Here pixels with the same value are connected by isolines. The value is plotted on the right edge of the feature space.

Die Verzeichnung nimmt dabei von oben nach unten zu, wobei der Anstieg ungleichmäßig verläuft. An den Seitenrändern ist die Verzeichnung geringfügig niedriger, als in der Bildmitte. The distortion increases from top to bottom, the increase is uneven. At the margins the distortion is slightly lower than in the middle of the picture.

Mit anderen Worten ist die vertikale Scheibenverzeichnung 300 in Abhängigkeit von der Bildposition dargestellt.In other words, the vertical disk distortion 300 depending on the picture position.

4 zeigt einen Verlauf 400 einer optischen Verzeichnung 300 des optisdchen Mediums wie beispielsweise der Frontscheibe. Der Verlauf entspricht dabei im Wesentlichen dem Verlauf der Verzeichnung in 3. Der Verlauf ist in einem Diagramm dargestellt, das auf seiner Abszisse einen vertikalen Bildkoordinatenwert y und auf seiner Ordinate die Verzeichnung 300 aufgetragen hat. Wie in 3 nimmt die Verzeichnung 300 mit zunehmendem Bildkoordinatenwert y zu. 4 shows a course 400 an optical distortion 300 the optical medium such as the windscreen. The course essentially corresponds to the course of the distortion in 3 , The gradient is shown in a diagram, the y axis on its abscissa a vertical image coordinate value y and on its ordinate the distortion 300 has applied. As in 3 takes the distortion 300 with increasing image coordinate value y.

Zusätzlich sind in 4 Polynome 402, 404 dargestellt, die den Verlauf 300 näherungsweise abbilden. Die Polynome 402, 404 sind Bestandteil des Verzeichnungsmodells zum Korrigieren der Verzeichnung 300. Die Gestalt der Polynome 402, 404 wird durch veränderbare Parameter bestimmt. Dabei weist das erste Polynom 402 einen veränderbaren Parameter auf, während das zweite Polynom 404 zwei veränderbare Parameter aufweist.Additionally are in 4 polynomials 402 . 404 shown the history 300 approximate. The polynomials 402 . 404 are part of the distortion model to correct the distortion 300 , The shape of the polynomials 402 . 404 is determined by changeable parameters. The first polynomial indicates this 402 a variable parameter while the second polynomial 404 has two variable parameters.

Bei dem hier vorgestellten Ansatz werden die Parameter während des Betriebs des optischen Sensors optimiert, um den Verlauf der Polynome 402, 404 möglichst nahe an den tatsächlichen Verlauf 400 der Verzeichnung 300 zu anzupassen.In the approach presented here, the parameters during operation of the optical sensor are optimized to the course of the polynomials 402 . 404 as close as possible to the actual course 400 the distortion 300 to adapt.

In 4 ist eine Approximation der vertikalen Scheibenverzeichnung 300 mittels eines ploynomiellen Modells dargestellt. Dabei sind die gemessene Verzeichnung 400 und eine Modellierung 402, 404 beziehungsweise Approximation der Verzeichnung 300 mittels Polynom ersten und zweiten Grades abgetragen. Es ist ein Beispiel einer gemessenen vertikalen Windschutzscheibenverzeichnung 400 mit zugehörigem Polynom 404 zweiten Grades dargestellt, welches die gemessene vertikale Verzeichnung 400 als Modell approximiert.In 4 is an approximation of vertical disk distortion 300 represented by a ploynomial model. Here are the measured distortion 400 and a modeling 402 . 404 or approximation of the distortion 300 abraded by polynomial first and second degree. It is an example of a measured vertical windshield distortion 400 with associated polynomial 404 second degree representing the measured vertical distortion 400 approximated as a model.

In diesem Beispiel kann die Verzeichnung 300 mittels drei Modellparametern beziehungsweise den Polynomkoeffizienten beschreiben werden. Um einen funktionalen Zusammenhang zum eigentlich erwarteten Abbild der Umgebung herzustellen, kann beispielsweise auf eine Bedingung der Multiple-View-Geometry zurückgegriffen werden. Eine solche Bedingung ist zum Beispiel die Epipolargeometrie oder eine Homografie. Es können auch weitere Möglichkeiten eines funktionalen Zusammenhangs verwendet werden, die sich aus der Formel (5) der Koordinatentransformation ergeben bzw. herleiten lassen. Weitere Messgrößen, die häufig auf dem CAN-Bus des Fahrzeugs zur Verfügung stehen können verwendet werden. Beispielsweise kann als weitere Information eine Tiefeninformation von einem Tiefe messenden Sensor, wie beispielsweise einem Radar-Sensor verwendet werden. Durch die Tiefeninformation kann ein Funktional unter Verwendung projektiver Geometrie aufgestellt werden.In this example, the distortion 300 be described by means of three model parameters or the polynomial coefficients. In order to establish a functional relationship to the actually expected image of the environment, for example, one condition of the multiple-view geometry can be used. One such condition is, for example, epipolar geometry or homography. It is also possible to use other possibilities of a functional relationship, which can be derived or derived from the formula (5) of the coordinate transformation. Other measured variables that are frequently available on the CAN bus of the vehicle can be used. For example, as further information, depth information from a depth-measuring sensor, such as a radar sensor, may be used. The depth information can be used to set up a functional using projective geometry.

Im Folgenden ist ein Ausführungsbeispiel eines Algorithmus gemäß dem hier vorgestellten Ansatz beschrieben.An embodiment of an algorithm according to the approach presented here is described below.

Matrizen und Vektoren sind dabei in fett geschriebenen Großbuchstaben und Kleinbuchstaben angegeben. Eine Bezeichnung eines Referenzkoordinatensystems wird als oberer Index auf der rechten Seite hinzugefügt. Die relative Position oder Orientierung wird als oberer Index auf der linken und als Index auf der rechten Seite hinzugefügt. Eine Drehung ARB ∈ ℝ3×3 beschreibt dabei eine Rotationssequenz Rz( Aψ̇B) · Ry(AθB) · Rx(AΦ̇B) zum Übertragen von Bild A in das Bild B. Ein Translationsvektor A t B C 3

Figure DE102016222548A1_0001
codiert den Vektor von A nach B im Koordinatensystem C. Siehe auch Formel 5, zur Verdeutlichung der Notation am Beispiel einer Koordinatentransformation in ℝ3. Gemessene Bildkoordinaten P1 = [u1,v1]T ∈ ℝ2 werden in normalisierten Bildkoordinaten als P ¯ C = K 1 + [ 1 P' ] = [ ( u ' u 0 ' ) 1 f u v ' v 0 ' 1 f v 1 ] = [ x ¯ C y ¯ C 1 ] ,
Figure DE102016222548A1_0002
Matrices and vectors are given in bold capital letters and lowercase letters. A designation of a reference coordinate system is added as an upper index on the right side. The relative position or orientation is added as the upper index on the left and as the index on the right. A rotation A R B ∈ ℝ 3 × 3 describes a rotation sequence R z ( A ψ̇ B ) × R y ( A θ B ) × R × ( A Φ × B ) for transferring image A into the image B. A translation vector A t B C 3
Figure DE102016222548A1_0001
encodes the vector from A to B in the coordinate system C. See also formula 5, for clarification of the notation using the example of a coordinate transformation in ℝ 3 . Measured image coordinates P 1 = [u 1 , v 1 ] T ∈ ℝ 2 are used in normalized image coordinates as P ¯ C = K - 1 + [ 1 P ' ] = [ ( u ' - u 0 ' ) 1 f u v ' - v 0 ' 1 f v 1 ] = [ x ¯ C y ¯ C 1 ] .
Figure DE102016222548A1_0002

Dargestellt, wobei K die intrinsische Kalibrierungsmatrix ist. Für ein entsprechendes Punktepaar sind der Punkt in dem letzten und in dem aktuellen Abbild als P ¯ C1  und  P ¯ C2

Figure DE102016222548A1_0003
gegeben.Shown, where K is the intrinsic calibration matrix. For a corresponding pair of points, the point in the last and in the current image is as P ¯ C1 and P ¯ C2
Figure DE102016222548A1_0003
given.

Alle verwendeten Koordinatensysteme sind entsprechend der Computer Vision Norm definiert.All coordinate systems used are defined according to the Computer Vision Standard.

Epipolargeometrie epipolar geometry

Unter der Annahme intrinsisch kalibrierter bildgebender Sensorik und dass [v] x ∈ ℝ3×3die schiefsymmetrische Matrix [ v ] x = [ 0 v 3 v 2 v 3 0 v 1 v 2 v 1 0 ]

Figure DE102016222548A1_0004
bezeichnet, sodass [v] × x = v × x, ∀x ∈ ℝ3, so kann die Epipolarbedingung als ( P ¯ C2 ) T + C2 E C1 + P ¯ C1 = 0,
Figure DE102016222548A1_0005
formuliert werden. Dabei ist
Figure DE102016222548A1_0006
die essentielle Matrix, welche sich aus der relativen Lage des Sensors zu zwei Aufnahmezeitpukten beziehungsweise aus zwei Aufnahmepositionen ergibt. Die Epipolarbedingung kann aus der Formel der Koordinatentransformation P C2 = C2 R C1 + P C1 + C2 t C1 C2
Figure DE102016222548A1_0007
abgeleitet werden, die in normierten Bildkoordinaten als z C2 + p ¯ C2 = C2 R C 1 + z C1 + p ¯ C1 + C2 t C1 C 2
Figure DE102016222548A1_0008
geschrieben wird.Assuming intrinsically calibrated imaging sensors and [v] x ∈ ℝ 3 × 3 the skew-symmetric matrix [ v ] x = [ 0 - v 3 v 2 v 3 0 - v 1 - v 2 v 1 0 ]
Figure DE102016222548A1_0004
so that [v] × x = v × x, ∀x ∈ ℝ 3 , the epipolar condition can be considered as ( P ¯ C2 ) T + C2 e C1 + P ¯ C1 = 0
Figure DE102016222548A1_0005
be formulated. It is
Figure DE102016222548A1_0006
the essential matrix, which results from the relative position of the sensor to two Aufnahmezeitpukten or from two recording positions. The epipolar condition can be derived from the formula of coordinate transformation P C2 = C2 R C1 + P C1 + C2 t C1 C2
Figure DE102016222548A1_0007
derived in normalized image coordinates as z C2 + p ¯ C2 = C2 R C 1 + z C1 + p ¯ C1 + C2 t C1 C 2
Figure DE102016222548A1_0008
is written.

Um eine Formulierung frei von Tiefeninformation zu erhalten, werden beide Seiten mit [ t C2C1 C2 ] x  und  P ¯ C 2

Figure DE102016222548A1_0009
multipliziert. Dies ergibt z C2 + ( P ¯ C2 ) T + [ C2 t C1 C2 ] x + P ¯ C2 = ( P ¯ C2 ) T + [ C2 t C1 C2 ] x R C2 C1 + z C1 + P ¯ C1
Figure DE102016222548A1_0010
To get a formulation free of depth information, both sides are included [ t C2C1 C2 ] x and P ¯ C 2
Figure DE102016222548A1_0009
multiplied. This results z C2 + ( P ¯ C2 ) T + [ C2 t C1 C2 ] x + P ¯ C2 = ( P ¯ C2 ) T + [ C2 t C1 C2 ] x R C2 C1 + z C1 + P ¯ C1
Figure DE102016222548A1_0010

Da der Vektor

Figure DE102016222548A1_0011
senkrecht zu dem Vektor P ¯ C2
Figure DE102016222548A1_0012
steht, ist das innere Produkt ( P ¯ C2 ) T + [ C2 t C1 C2 ] x + P ¯ C2
Figure DE102016222548A1_0013
Null. Dies bedeutet, dass der Term
Figure DE102016222548A1_0014
ebenfalls gleich Null ist. Da zc1 > 0 ist, erfüllen die beiden normalisierten Bildpunkte P ¯ C1
Figure DE102016222548A1_0015
und P ¯ C2
Figure DE102016222548A1_0016
die Epipolarbedingung.As the vector
Figure DE102016222548A1_0011
perpendicular to the vector P ¯ C2
Figure DE102016222548A1_0012
stands, is the inner product ( P ¯ C2 ) T + [ C2 t C1 C2 ] x + P ¯ C2
Figure DE102016222548A1_0013
Zero. This means that the term
Figure DE102016222548A1_0014
also equal to zero. Since z c1 > 0, the two normalized pixels meet P ¯ C1
Figure DE102016222548A1_0015
and P ¯ C2
Figure DE102016222548A1_0016
the epipolar condition.

Beispielalgorithmus basierend auf Epipolargeometrie Example algorithm based on epipolar geometry

Die hier vorgestellte Methode schätzt die Parameter eines Windschutzscheibenverzeichnungsmodells basierend auf der Epipolarbedingung zusammen mit einer optischen Flussinformation aus aufeinanderfolgender Bilder. Die Verzerrung wird in vertikaler Richtung φ ¯ V C

Figure DE102016222548A1_0017
als ein Polynom ersten Grades φ ¯ V C = c ¯ 1, v + y ¯ C + c ¯ 0, v .
Figure DE102016222548A1_0018
beschrieben.The method presented here estimates the parameters of a windshield distortion model based on the epipolar condition together with optical flow information from successive images. The distortion is in the vertical direction φ ¯ V C
Figure DE102016222548A1_0017
as a polynomial of the first degree φ ¯ V C = c ¯ 1, v + y ¯ C + c ¯ 0 v ,
Figure DE102016222548A1_0018
described.

In horizontaler Richtung ergibt dies φ ¯ h C = c ¯ 1, h + x ¯ C + c ¯ 0, h ,

Figure DE102016222548A1_0019
In the horizontal direction this results φ ¯ H C = c ¯ 1, H + x ¯ C + c ¯ 0 H .
Figure DE102016222548A1_0019

Wobei c̅1,v,c̅0,v,c̅1,h,c̅0,h die in normalisierten Bildkoordinaten angegebenen Polynomkoeffizienten sind. Der unverzerrte normalisierte Bildpunkt P ¯ C

Figure DE102016222548A1_0020
wird aus dem gemessenen verzerrten Punkt als P ¯ C = [ ( 1 c ¯ 1, h ) + x ¯ C c ¯ 0, h ( 1 c ¯ 1, v ) + y ¯ C c ¯ 0, v ]
Figure DE102016222548A1_0021
berechnet. Formel 10 in Formel 3 eingesetzt ergibt eine Bedingung, die den funktionellen Zusammenhang von Sensorbewegung, optischem Fluss und den Windschutzscheibenverzerrungsparameter beschreibt. 0 = [ ( 1 c ¯ 1, h ) + x ¯ C2 c ¯ 0, h ( 1 c ¯ 1, v ) + y ¯ C2 c ¯ 0, v ] T + [ C2 t C1 C2 ] x + C2 R C1 +   + + + + + + [ ( 1 c ¯ 1, h ) + x ¯ C1 c ¯ 0, h ( 1 c ¯ 1, v ) + y ¯ C 1 c ¯ 0, v ] .
Figure DE102016222548A1_0022
Where c̅ 1, v , c̅ 0, v , c̅ 1, h , c̅ 0, h are the polynomial coefficients given in normalized image coordinates. The undistorted normalized pixel P ¯ C
Figure DE102016222548A1_0020
is calculated from the measured distorted point as P ¯ C = [ ( 1 - c ¯ 1, H ) + x ¯ C - c ¯ 0 H ( 1 - c ¯ 1, v ) + y ¯ C - c ¯ 0 v ]
Figure DE102016222548A1_0021
calculated. Formula 10, used in Formula 3, yields a condition that describes the functional relationship between sensor motion, optical flow, and the windshield distortion parameter. 0 = [ ( 1 - c ¯ 1, H ) + x ¯ C2 - c ¯ 0 H ( 1 - c ¯ 1, v ) + y ¯ C2 - c ¯ 0 v ] T + [ C2 t C1 C2 ] x + C2 R C1 + + + + + + + [ ( 1 - c ¯ 1, H ) + x ¯ C1 - c ¯ 0 H ( 1 - c ¯ 1, v ) + y ¯ C 1 - c ¯ 0 v ] ,
Figure DE102016222548A1_0022

Für eine gegebene Sensorbewegung ( C2 R C1 , C2 t C1 C2 )

Figure DE102016222548A1_0023
werden, die unbekannten Polynomkoeffizienten mit nichtlinearen Optimierungsverfahren, wie beispielsweise Gauß-Newton oder Levenberg-Marquardth geschätzt. Die Abweichung des Terms der rechten Seite in Gleichung 11 beschreibt die Abweichung zu der in Gleichung 11 formulierten Bedingung. Die quadrierte Summe dieses Fehlers über alle Korrespondenzen wird iterativ minimiert. Jede weitere Abbildung des optischen Sensors ergibt eine neue Schätzung, aus der eine endgültige Schätzung abgeleitet werden kann, beispielsweise durch Filterung oder eine Majoritätsabschätzung (z.B. Histogramm) über die Zeit.For a given sensor movement ( C2 R C1 . C2 t C1 C2 )
Figure DE102016222548A1_0023
The unknown polynomial coefficients are estimated using nonlinear optimization methods such as Gauss-Newton or Levenberg-Marquardth. The deviation of the term of the right-hand side in equation 11 describes the deviation from the condition formulated in equation 11. The squared sum of this error across all correspondences is minimized iteratively. Any further mapping of the optical sensor yields a new estimate from which a final estimate can be derived, for example, by filtering or a majority estimate (eg, histogram) over time.

Die Sensorbewegung kann von einer Inertialsensorik oder aus vorhandenen ESP-Sensordaten, wie beispielsweise der Längsgeschwindigkeit und der Giergeschwindigkeit abgerufen werden. Über ein Fahrzeugbewegungsmodell (z. B. Ackermannmodell) kann aus diesen Informationen die Sensorbewegung hergeleitet werden.The sensor movement can be retrieved from an inertial sensor or from existing ESP sensor data, such as the longitudinal speed and the yaw rate. Via a vehicle movement model (eg Ackerman model), the sensor movement can be derived from this information.

Wenn die Sensorbewegung nicht bekannt ist, wird eine minimale Parametrisierung der Translation und Rotation als C2 t C1 C2 = [ t ¯ x C t ¯ y C 1 ]

Figure DE102016222548A1_0024
C2 R C1 = [ 0 C2 ψ C1 C2 θ C1 C2 ψ C1 0 C2 ϕ C1 C2 θ C1 C2 ϕ C1 0 ]
Figure DE102016222548A1_0025
gewählt, wobei t ¯ x C t ¯ y C C2 ϕ C1 C2 θ C1 C2 ψ C1
Figure DE102016222548A1_0026
die Sensorbewegungsparameter sind.If the sensor movement is not known, a minimal parameterization of the translation and rotation as C2 t C1 C2 = [ t ¯ x C t ¯ y C 1 ]
Figure DE102016222548A1_0024
C2 R C1 = [ 0 - C2 ψ C1 C2 θ C1 C2 ψ C1 0 - C2 φ C1 - C2 θ C1 C2 φ C1 0 ]
Figure DE102016222548A1_0025
chosen, where t ¯ x C . t ¯ y C . C2 φ C1 . C2 θ C1 . C2 ψ C1
Figure DE102016222548A1_0026
are the sensor motion parameters.

Auf diese Weise kann die Sensorbewegung zusammen mit den Verzerrungsparametern geschätzt werden. Ein Vorwissen über die in dem Funktional enthaltenen Größen ist somit nicht notwendig.In this way, the sensor movement can be estimated along with the distortion parameters. A prior knowledge of the variables contained in the functional is therefore not necessary.

Die Parametrisierung der vertikalen Windschutzscheibenverzerrung in zwei Parametern beschreibt die gemessene Verzerrung 400 ausreichend gut. Dennoch ist es möglich, ein Polynom höheren Grades als Modell zu verwenden. Als weitere Möglichkeit kann die relativ geringe horizontale Verzerrung vernachlässigt werden, um die Dimensionalität des Problems zu verringern.The parameterization of the vertical windshield distortion in two parameters describes the measured distortion 400 good enough. Nevertheless, it is possible to use a polynomial of higher degree as a model. As another possibility, the relatively small horizontal distortion can be neglected to reduce the dimensionality of the problem.

5 zeigt ein Ablaufdiagramm eines Verfahrens 500 zum Bestimmen der Verzeichnungseigenschaften eines optischen Mediums unter Verwendung eines durch das optische Medium erfassenden optischen Sensors gemäß einem Ausführungsbeispiel. Das Verfahren 500 kann beispielsweise in einem Steuergerät, wie in 1 ausgeführt werden. Das Verfahren 500 weist einen Schritt 502 des Bestimmens auf. Im Schritt 502 des Bestimmens wird zumindest ein Parameter eines Verzeichnungsmodells zum Kompensieren einer optischen Verzeichnung des optischen Mediums unter Verwendung einer Bildfolge des optischen Sensors und einer Trajektorie des Sensors bestimmt. Die Trajektorie kann aus zumindest zwei Einzelposen des Sensors zu den jeweiligen Abtastzeitpunkten bestehen. Die jeweilige Transformation zwischen den Abtastzeitpunkten kann zumindest aus einer rotatorischen Komponents und alternativ oder ergänzend aus zumindest einer translatorischen Komponente bestehen. Die hier vorgestellte Online-Korrektur weist direkte Auswirkungen auf das Verhalten von Fahrassistenzfunktionen auf. Wenn sich die Verzeichnungseigenschaften des optischen Mediums verändern, kann das Verzeichnungsmodell im Betrieb nachgeführt werden, um ein korrektes Verhalten der Fahrassistenzfunktionen zu gewährleisten. 5 shows a flowchart of a method 500 for determining the distortion characteristics of an optical medium using an optical sensor sensing optical sensor according to an embodiment. The procedure 500 For example, in a control device, as in 1 be executed. The procedure 500 has a step 502 of determining. In step 502 in determining, at least one parameter of a distortion model for compensating optical distortion of the optical medium is determined using an image sequence of the optical sensor and a trajectory of the sensor. The trajectory can consist of at least two individual positions of the sensor at the respective sampling instants. The respective transformation between the sampling instants may consist of at least one rotational component and, alternatively or additionally, at least one translational component. The online correction presented here has direct effects on the behavior of driver assistance functions. If the distortion characteristics of the optical medium change, the distortion model can be tracked during operation to ensure correct behavior of the driving assistance functions.

Umfasst ein Ausführungsbeispiel eine „und/oder“-Verknüpfung zwischen einem ersten Merkmal und einem zweiten Merkmal, so ist dies so zu lesen, dass das Ausführungsbeispiel gemäß einer Ausführungsform sowohl das erste Merkmal als auch das zweite Merkmal und gemäß einer weiteren Ausführungsform entweder nur das erste Merkmal oder nur das zweite Merkmal aufweist.If an exemplary embodiment comprises a "and / or" link between a first feature and a second feature, then this is to be read so that the embodiment according to one embodiment, both the first feature and the second feature and according to another embodiment either only first feature or only the second feature.

Claims (10)

Verfahren (500) zur Bestimmung einer Verzeichnungseigenschaft eines optischen Mediums (202) unter Verwendung eines durch das optische Medium erfassenden optischen Sensors (102) während eines Fahrtbetriebs eines Fahrzeugs (106), wobei in einem Schritt (502) des Bestimmens zumindest ein Parameter (112) eines Verzeichnungsmodells (108) zum Kompensieren einer optischen Verzeichnung (300) des optischen Mediums(202) unter Verwendung einer Bildfolge (114) des optischen Sensors (102) und einer Trajektorie des optischen Sensors (102) bestimmt wird, um die Verzeichnungseigenschaft des optischen Mediums (202)während eines Fahrtbetriebs zu bestimmen, wobei die Trajektorie eine Translation und/oder Rotation des optischen Sensors (102) zwischen einem ersten Erfassungszeitpunkt eines ersten Bilds der Bildfolge (114) und einem zweiten Erfassungszeitpunkt eines zweiten Bilds der Bildfolge (114) repräsentiert.A method (500) for determining a distortion characteristic of an optical medium (202) using an optical sensor (102) sensing through the optical medium during a driving operation of a vehicle (106), wherein in a step (502) of determining at least one parameter (112 ) of a distortion model (108) for compensating optical distortion (300) of the optical medium (202) using an image sequence (114) of the optical sensor (102) and a trajectory of the optical sensor (102) to determine the distortion characteristic of the optical During a travel operation, the trajectory represents a translation and / or rotation of the optical sensor (102) between a first detection time of a first image of the image sequence (114) and a second detection time of a second image of the image sequence (114) , Verfahren (500) gemäß Anspruch 1, bei dem im Schritt (502) des Bestimmens zusätzlich die Trajektorie aus der Bildfolge (114) mitbestimmt wird.Method (500) according to Claim 1 in which the trajectory from the image sequence (114) is additionally determined in the step (502) of determining. Verfahren (500) gemäß Anspruch 1, bei dem im Schritt (502) des Bestimmens die Trajektorie aus einem Bewegungssignal eines Sensors des Fahrzeugs (106) hergeleitet wird.Method (500) according to Claim 1 in which, in step (502) of determining, the trajectory is derived from a motion signal of a sensor of the vehicle (106). Verfahren (500) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt (502) des Bestimmens zumindest ein weiterer Parameter des Verzeichnungsmodells (108) unter Verwendung der Bildfolge (114) und der Trajektorie bestimmt wird. Method (500) according to one of the preceding claims, wherein in the step (502) of determining at least one further parameter of the distortion model (108) is determined using the image sequence (114) and the trajectory. Verfahren (500) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt (502) des Bestimmens ein eine Translation einer Bildkoordinate eines in der Bildfolge (114) abgebildeten Objekts zwischen dem ersten Bild und dem zweiten Bild repräsentierender Abbildungsvektor verwendet wird, um den Parameter (112) zu bestimmen.Method (500) according to one of the preceding claims, in which, in the step (502) of determining, an imaging vector representing a translation of an image coordinate of an object imaged in the image sequence (114) between the first image and the second image is used to determine the parameter ( 112). Verfahren (500) gemäß Anspruch 5, bei dem im Schritt (502) des Bestimmens der Parameter (112) ferner unter Verwendung eines Signals (116) einer Umfelderfassungseinrichtung (118) des Fahrzeugs (106) bestimmt wird, wobei das Signal (116) eine zumindest einachsige und unverzerrte Translation des abgebildeten Objekts zwischen dem ersten Erfassungszeitpunkt und dem zweiten Erfassungszeitpunkt repräsentiert.Method (500) according to Claim 5 in which, in step (502) of determining, the parameter (112) is further determined using a signal (116) of environment detecting means (118) of the vehicle (106), wherein the signal (116) is at least uniaxial and undistorted translation of the imaged one Object between the first detection time and the second detection time represents. Verfahren (500) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt (502) des Bestimmens ein eine vertikale Verzeichnungskorrektur des Verzeichnungsmodells beeinflussender Parameter (112) bestimmt wird.Method (500) according to one of the preceding claims, wherein in step (502) of determining a parameter (112) influencing a vertical distortion correction of the distortion model is determined. Steuergerät (100), das eingerichtet ist, um Schritte des Verfahrens (500) gemäß einem der vorangegangenen Ansprüche in entsprechenden Einheiten auszuführen.A controller (100) arranged to execute steps of the method (500) according to any one of the preceding claims in respective units. Computerprogramm, das dazu eingerichtet ist, das Verfahren gemäß einem der vorangegangenen Ansprüche auszuführen.Computer program adapted to carry out the method according to one of the preceding claims. Maschinenlesbares Speichermedium, auf dem das Computerprogramm nach Anspruch 9 gespeichert ist.Machine-readable storage medium on which the computer program is based Claim 9 is stored.
DE102016222548.0A 2016-11-16 2016-11-16 Method and control unit for determining a distortion characteristic of an optical medium during travel operation Ceased DE102016222548A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102016222548.0A DE102016222548A1 (en) 2016-11-16 2016-11-16 Method and control unit for determining a distortion characteristic of an optical medium during travel operation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016222548.0A DE102016222548A1 (en) 2016-11-16 2016-11-16 Method and control unit for determining a distortion characteristic of an optical medium during travel operation

Publications (1)

Publication Number Publication Date
DE102016222548A1 true DE102016222548A1 (en) 2018-05-17

Family

ID=62026242

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016222548.0A Ceased DE102016222548A1 (en) 2016-11-16 2016-11-16 Method and control unit for determining a distortion characteristic of an optical medium during travel operation

Country Status (1)

Country Link
DE (1) DE102016222548A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021214040B3 (en) 2021-12-09 2023-05-04 Continental Autonomous Mobility Germany GmbH Dynamic auto-calibration of a vehicle camera system behind a window

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130135474A1 (en) * 2011-11-28 2013-05-30 Clarion Co., Ltd. Automotive Camera System and Its Calibration Method and Calibration Program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130135474A1 (en) * 2011-11-28 2013-05-30 Clarion Co., Ltd. Automotive Camera System and Its Calibration Method and Calibration Program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ZHANG, Zhengyou. On the epipolar geometry between two images with lens distortion. In: Pattern Recognition, 1996., Proceedings of the 13th International Conference on. IEEE, 1996. S. 407-411. DOI: 10.1109/ICPR.1996.546059 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021214040B3 (en) 2021-12-09 2023-05-04 Continental Autonomous Mobility Germany GmbH Dynamic auto-calibration of a vehicle camera system behind a window
WO2023104254A1 (en) * 2021-12-09 2023-06-15 Continental Autonomous Mobility Germany GmbH Dynamic autocalibration of a vehicle camera system behind a windshield

Similar Documents

Publication Publication Date Title
DE102008031784B4 (en) Method and apparatus for distortion correction and image enhancement of a vehicle rearview system
DE102013223039B4 (en) Apparatus and method for providing an AVM image
EP1797534B1 (en) Method for detecting an optical structure
DE102018129741A1 (en) Device and method for controlling a display of a vehicle
DE102009050368A1 (en) Method for automatically calibrating a virtual camera
DE102014018040A1 (en) vision system
EP2246664B1 (en) Method for automatic determination of at least one target factor describing changes in the position of a motor vehicle
DE102016104729A1 (en) Method for extrinsic calibration of a camera, computing device, driver assistance system and motor vehicle
EP2934947A1 (en) Motor vehicle having a camera monitoring system
DE102015206477A1 (en) Method for displaying a vehicle environment of a vehicle
DE102008058279A1 (en) Method and device for compensating a roll angle
DE102012223373A1 (en) Apparatus and method for correcting image distortion from a rear camera
WO2018108213A1 (en) Surround view system for a vehicle
DE102015008887A1 (en) Method and device for calibrating a head-up display in a vehicle
DE102018204451A1 (en) Method and device for auto-calibration of a vehicle camera system
DE102018100909A1 (en) Method of reconstructing images of a scene taken by a multifocal camera system
DE112017004391T5 (en) An image forming apparatus, an image forming method, a recording medium and an image display system
DE102010042248A1 (en) Method and device for visualizing an environment of a vehicle
WO2018077520A1 (en) Method and device for operating a display system comprising a head-mounted display
DE102016222548A1 (en) Method and control unit for determining a distortion characteristic of an optical medium during travel operation
DE102017221381A1 (en) Method, apparatus and computer program for determining a distance to an object
DE102017104957A1 (en) Method for determining a movement of mutually corresponding pixels in an image sequence from a surrounding area of a motor vehicle, evaluation device, driver assistance system and motor vehicle
WO2021180679A1 (en) Determining a current focus area of a camera image on the basis of the position of the vehicle camera on the vehicle and on the basis of a current motion parameter
DE102012201805A1 (en) Method for determining compensation parameter for cross talks with multi-view-operable display device for inner chamber of e.g. passenger car, involves assigning reference angle and/or reference distance to reference parameters
DE102015016943A1 (en) Method for self-localization of a vehicle

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final