DE102016220079B4 - Method for determining distance data - Google Patents

Method for determining distance data Download PDF

Info

Publication number
DE102016220079B4
DE102016220079B4 DE102016220079.8A DE102016220079A DE102016220079B4 DE 102016220079 B4 DE102016220079 B4 DE 102016220079B4 DE 102016220079 A DE102016220079 A DE 102016220079A DE 102016220079 B4 DE102016220079 B4 DE 102016220079B4
Authority
DE
Germany
Prior art keywords
data
distance
image
processing
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102016220079.8A
Other languages
German (de)
Other versions
DE102016220079A1 (en
Inventor
Gordon Taft
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Original Assignee
Audi AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG filed Critical Audi AG
Priority to DE102016220079.8A priority Critical patent/DE102016220079B4/en
Publication of DE102016220079A1 publication Critical patent/DE102016220079A1/en
Application granted granted Critical
Publication of DE102016220079B4 publication Critical patent/DE102016220079B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]

Abstract

Verfahren zur Ermittlung von eine Entfernung zu wenigstens einem durch eine Kamera (6) erfassten Objekt beschreibenden Entfernungsdaten, wobei durch die Kamera (6) wenigstens ein Bild des Objekts erfasst wird, wonach in Abhängigkeit der Bilddaten des Bildes die Entfernungsdaten ermittelt werden, wobei die Bilddaten zweidimensionale Bilddaten sind, wobei die Entfernungsdaten ausschließlich aus den Bilddaten genau eines Bildes der Kamera (6) ermittelt werden, wobei die Entfernungsdaten durch Anwenden einer Ermittlungsfunktion auf die Bilddaten oder auf aus den Bilddaten ermittelte Verarbeitungsdaten ermittelt werden, wobei die Ermittlungsfunktion durch mehrere Verarbeitungsparameter parametrisiert wird, die ermittelt werden, indem die Ermittlungsfunktion durch mehrere Trainingsdatensätze (1) im Rahmen eines Maschinenlernens trainiert wird, wobei die Kamera (6) an einem Kraftfahrzeug (5) angeordnet ist, dadurch gekennzeichnet, dass in Abhängigkeit der Entfernungsdaten eine Fahrzeugeinrichtung (8) des Kraftfahrzeugs zur Ausgabe eines Fahrhinweises an einen Fahrer und/oder zur Durchführung eines Fahreingriffs angesteuert wird, wobei hierbei die Entfernungsdaten mit Daten aus anderen Informationsquellen fusioniert oder durch diese validiert werden.Method for determining distance data describing a distance to at least one object captured by a camera (6), at least one image of the object being captured by the camera (6), after which the distance data are determined as a function of the image data of the image, the image data are two-dimensional image data, the distance data being determined exclusively from the image data of exactly one image from the camera (6), the distance data being determined by applying a determination function to the image data or to processing data determined from the image data, the determination function being parameterized by a number of processing parameters , which are determined by the determination function being trained by a plurality of training data sets (1) as part of machine learning, the camera (6) being arranged on a motor vehicle (5), characterized in that depending on the distance data, a vehicle device (8) of the Motor vehicle is controlled to output driving instructions to a driver and / or to carry out a driving intervention, in which case the distance data are merged with data from other information sources or validated by them.

Description

Die Erfindung betrifft ein Verfahren gemäß dem Oberbegriff des Anspruchs 1. Daneben betrifft die Erfindung ein Kraftfahrzeug.The invention relates to a method according to the preamble of claim 1. The invention also relates to a motor vehicle.

In Kraftfahrzeugen können eine Vielzahl von Fahrerassistenzsystemen vorgesehen sein, die einen Fahrer bei der Führung des Kraftfahrzeugs unterstützen, indem sie ihm Hinweise geben oder in den Fahrbetrieb eingreifen. Für die Funktionsfähigkeit dieser Fahrerassistenzsysteme sowie für ein assistiertes beziehungsweise automatisiertes Fahren, dessen Bedeutung voraussichtlich zukünftig zunehmen wird, ist es wesentlich, möglichst detaillierte Informationen über das Kraftfahrzeugumfeld zu erfassen. Zugleich sollen diese Informationen mit möglichst geringem technischen Aufwand erfasst werden. Hierzu können beispielsweise Kameras genutzt werden, die das Umfeld des Kraftfahrzeugs erfassen.A large number of driver assistance systems can be provided in motor vehicles, which support a driver in driving the motor vehicle by giving him instructions or by intervening in the driving operation. For the functionality of these driver assistance systems and for assisted or automated driving, the importance of which is likely to increase in the future, it is essential to collect information about the vehicle environment that is as detailed as possible. At the same time, this information should be recorded with as little technical effort as possible. Cameras can be used for this purpose, for example, which record the surroundings of the motor vehicle.

Nachteilig an einer Umfelderfassung durch Kameras ist es, dass übliche Kameras keine Entfernungsinformationen zu erfassten Objekten bereitstellen. Gerade die Entfernung zu Objekten, beispielsweise zu anderen Verkehrsteilnehmern, kann jedoch für Fahrerassistenzsysteme oder Systeme zur automatisierten Führung von Kraftfahrzeugen hoch relevant sein.The disadvantage of using cameras to capture the surroundings is that conventional cameras do not provide any information about the distance to the captured objects. However, the distance to objects, for example to other road users, can be highly relevant for driver assistance systems or systems for automated driving of motor vehicles.

Um entsprechende Entfernungsinformationen zu erhalten sind verschiedene Ansätze bekannt. So ist es beispielsweise möglich, die das Umfeld erfassenden Kameras durch weitere Sensoren, beispielsweise Ultraschallsensoren und/oder Radarsensoren, zu ergänzen, die Entfernungen zu Objekten erfassen können. Ergänzend oder alternativ ist es möglich, statt üblichen Kameras bilderfassende Systeme zu nutzen, die zugleich Entfernungsinformationen bereitstellen, beispielsweise bildgebende Laserscanner oder Time-of-Flight-Kameras. Soll eine hohe Winkelauflösung erreicht werden, sind entsprechende Sensorsysteme jedoch technisch aufwendig.Various approaches are known for obtaining corresponding distance information. It is thus possible, for example, to supplement the cameras that record the surroundings with additional sensors, for example ultrasonic sensors and/or radar sensors, which can record distances to objects. In addition or as an alternative, it is possible to use image-capturing systems instead of conventional cameras, which at the same time provide distance information, for example imaging laser scanners or time-of-flight cameras. However, if a high angular resolution is to be achieved, the corresponding sensor systems are technically complex.

Ein weiterer Ansatz zur Erfassung von Entfernungsinformationen ist es, mehrere Kameras mit überlappenden Aufnahmebereichen zu nutzen und mit Hilfe eines Stereokopiesystems Entfernungen zu den erfassten Objekten zu ermitteln. Ein derartiger Ansatz wird beispielsweise in der Druckschrift DE 43 08 776 A1 genutzt. Hierbei wird eine feste Region außerhalb eines Fahrzeugs mittels eines optischen Stereokopiesystems abgebildet und durch eine Bildverarbeitungsvorrichtung werden Distanzverteilungen über das gesamte Bild berechnet.Another approach to capturing distance information is to use multiple cameras with overlapping recording areas and to determine distances to the captured objects with the help of a stereoscopic system. Such an approach is, for example, in the publication DE 43 08 776 A1 used. Here, a fixed region outside of a vehicle is imaged using a stereoscopic optical system, and distance distributions over the entire image are calculated by an image processing device.

Ein ähnliches Vorgehen lehrt auch die Druckschrift DE 10 2008 061 749 A1 . Der optisch zu erfassende Umgebungsbereich wird in dieser Druckschrift mittels mehr als einer Kamera aufgenommen. In einem Überdeckungsbereich wird ein stereoskopisches Auswerteverfahren genutzt.The publication also teaches a similar procedure DE 10 2008 061 749 A1 . In this publication, the surrounding area to be optically recorded is recorded using more than one camera. A stereoscopic evaluation method is used in an overlapping area.

Problematisch bei derartigen stereo-basierten Bildverarbeitungsverfahren ist es, dass die genutzten Digitalkameras eine begrenzte Auflösung aufweisen, womit typischerweise nur für einen Nahbereich bis zu maximal 50 Metern eine ausreichend genaue Entfernungsschätzung erreicht werden kann. Soll das Verfahren zur Entfernungsschätzung in Kraftfahrzeugen genutzt werden, ist aufgrund des erforderlichen Bremsweges eine entsprechende Auswertung typischerweise nur bis zu einer Maximalgeschwindigkeit von 60 bis 70 km/h möglich. Zudem ist es bei der Nutzung von Stereokameras nachteilig, dass für diese eine pixelgenaue Kalibration erforderlich ist, die aufgrund von Vibrationen und Temperaturschwankungen kaum über längere Zeiträume stabil gehalten werden kann.The problem with such stereo-based image processing methods is that the digital cameras used have a limited resolution, with which a sufficiently accurate distance estimation can typically only be achieved for a close range of up to a maximum of 50 meters. If the method is to be used for distance estimation in motor vehicles, a corresponding evaluation is typically only possible up to a maximum speed of 60 to 70 km/h due to the required braking distance. In addition, when using stereo cameras, it is disadvantageous that they require pixel-precise calibration, which can hardly be kept stable over long periods of time due to vibrations and temperature fluctuations.

Ein weiterer Ansatz zur Gewinnung von Abstandsinformationen sind sogenannte „structure from motion“-Techniken, bei denen zeitlich aufeinanderfolgend zweidimensionale Ansichten aufgenommen werden, aus denen ein 3D-Modell berechnet wird. Einen derartigen Ansatz offenbart beispielsweise die Druckschrift DE 10 2009 012 435 A1 . Es werden Bildsequenzen mit einer einzigen Rückblickfischaugenkamera erfasst und unter Verwendung von Punktkorrespondenzen zwischen diesen Bildern wird eine 3D-Information gewonnen. Nachteilig an diesem Ansatz ist es, dass aufgrund der begrenzten Kameraauflösung der 3D-Modulierungsbereich auf einige dutzend Meter Entfernung eingeschränkt ist. Zudem ist es häufig nicht möglich, zuverlässige Entfernungsinformationen für bewegte Objekte, beispielsweise andere Verkehrsteilnehmer, zu ermitteln.Another approach to obtaining distance information are so-called "structure from motion" techniques, in which two-dimensional views are recorded in succession over time, from which a 3D model is calculated. The document discloses such an approach, for example DE 10 2009 012 435 A1 . Image sequences are captured with a single rearview fisheye camera and 3D information is obtained using point correspondences between these images. The disadvantage of this approach is that the 3D modulation range is limited to a few tens of meters due to the limited camera resolution. In addition, it is often not possible to determine reliable distance information for moving objects, for example other road users.

Weiterhin ist ein Verfahren zur Ermittlung von Tiefeninformationen aus zweidimensionalen Bildern unter Nutzung eines neuralen Netzwerkes bekannt aus dem Artikel F. Liu, C. Shen, G. Lin, I. Reid: Learning Depth from Single Monocular Images Using Deep Convolutional Neural Fields. arXiv: 1502.07411 v6 [cs.CV], 25 Nov 2015. Preprint-Dokumentenserver Cornell University Library.Furthermore, a method for determining depth information from two-dimensional images using a neural network is known from the article F. Liu, C. Shen, G. Lin, I. Reid: Learning Depth from Single Monocular Images Using Deep Convolutional Neural Fields. arXiv: 1502.07411 v6 [cs.CV], 25 Nov 2015. Preprint Document Server Cornell University Library.

Ein Verfahren zur Erkennung von Hindernissen für autonome Systeme, die sich mit relativ hohen Geschwindigkeiten bewegen, wobei eine Abstandsermittlung mit Hilfe eines neuronalen Netzes und anhand eines Bildes einer Kamera durchgeführt wird, ist bekannt aus dem Artikel M. Mancini, G. Constante, P. Valigi, T.A. Ciarfuglia: Fast Robust Monocular Depth Estimation for Obstacle Detection with Fully Convolutional Networks. arXiv: 1607.06349v1 [cs.RO], 21 Jul 2016. Preprint-Dokumentenserver Cornell University Library.A method for detecting obstacles for autonomous systems that move at relatively high speeds, in which a distance is determined using a neural network and using an image from a camera, is known from the article M. Mancini, G. Constante, P. Valigi, T.A. Ciarfuglia: Fast Robust Monocular Depth Estimation for Obstacle Detection with Fully Convolutional Networks. arXiv: 1607.06349v1 [cs.RO], 21 Jul 2016. Preprint Document Server Cornell University Library.

Der Erfindung liegt demnach die Aufgabe zugrunde, ein Verfahren zur Ermittlung von Entfernungsdaten anzugeben, das auch bei einfacher genutzter Sensorik Entfernungsabschätzungen auch für entfernte und/oder bewegte Objekte ermöglicht.The invention is therefore based on the object of specifying a method for determining distance data, which also enables distance estimates for distant and/or moving objects even with simpler sensor technology.

Die Aufgabe wird durch ein Verfahren mit den Merkmalen des Anspruchs 1 gelöst.The object is achieved by a method having the features of claim 1.

Erfindungsgemäß wird vorgeschlagen, die Entfernung zu zumindest einem durch die Kamera erfassten Objekt mit Hilfe der Ermittlungsfunktion zu ermitteln, die durch Maschinenlernen trainiert wurde. Beispielsweise kann ein neuronales Netzwerk genutzt werden. Die Verarbeitungsparameter wirken somit als ein kognitives Gedächtnis der trainierten Ermittlungsfunktion. Ein großer Vorteil der Nutzung von Verfahren des Maschinenlernens ist es, dass es nicht erforderlich ist, manuell bestimmte Verarbeitungsregeln vorzugeben, um eine oder mehrere Entfernungen aus den Bilddaten zu ermitteln. Verfahren des Maschinenlernens, insbesondere neuronale Netzwerke, können im Rahmen der Bildverarbeitung ähnliche Ergebnisse erzielen, wie das menschliche Gehirn. Hierbei ist es bekannt, dass menschliche Betrachter auch aus zweidimensionalen Bildern oder bei Nutzung nur eines Auges relativ und absolute Entfernungen zu erkannten Objekten abschätzen können. Hierbei werden intuitiv relative Größen, Verdeckungen, Schattenwürfe und Ähnliches ausgewertet.According to the invention, it is proposed to determine the distance to at least one object captured by the camera using the determination function that was trained by machine learning. For example, a neural network can be used. The processing parameters thus act as a cognitive memory of the trained determination function. A major advantage of using machine learning methods is that it is not necessary to manually specify certain processing rules in order to determine one or more distances from the image data. Machine learning methods, especially neural networks, can achieve results similar to those of the human brain in the context of image processing. It is known here that human observers can also estimate relative and absolute distances to recognized objects from two-dimensional images or when using only one eye. Here, relative sizes, occlusions, shadows and the like are evaluated intuitively.

Der Erfindung liegt die Idee zugrunde, dass durch ein Maschinenlernen eine ähnliche „Intuition“ für eine Ermittlungsfunktion trainierbar ist. Entsprechende Verarbeitungsparameter, die eine Entfernungsabschätzung aus zweidimensionalen Bilddaten ermöglichen, können automatisch im Rahmen des Maschinenlernens erlernt werden. Das vorgeschlagene Verfahren zur Ermittlung von Entfernungsdaten ist in einer Vielzahl von Anwendungsbereichen einsetzbar. Besonders vorteilhaft ist es jedoch nutzbar, um in Kraftfahrzeugen Daten für Fahrerassistenzsysteme beziehungsweise für Systeme zum Durchführen autonomer Fahrmanöver bereitzustellen.The invention is based on the idea that a similar “intuition” for a determination function can be trained by machine learning. Corresponding processing parameters, which enable a distance estimation from two-dimensional image data, can be learned automatically within the framework of machine learning. The proposed method for determining distance data can be used in a large number of application areas. However, it can be used particularly advantageously to provide data for driver assistance systems or for systems for carrying out autonomous driving maneuvers in motor vehicles.

Die Entfernungsdaten können für jeden Bildpunkt der Bilddaten oder für mehrere Gruppen der Bildpunkte eine jeweilige Entfernung zu einem jeweiligen durch den Bildpunkt oder die Gruppe abgebildeten Objekte beschreiben. Somit kann letztlich ein ähnliches Entfernungsbild bereitgestellt werden, wie es bei einer Nutzung von aufwendigeren Sensoren, beispielsweise von Laserscannern oder Time-of-Flight-Kameras, möglich wäre. Die Gruppen von Bildpunkten können insbesondere jeweils benachbarte Bildpunkte, beispielsweise eine rechteckige Gruppe von Bildpunkten, umfassen.The distance data can describe a respective distance to a respective object imaged by the pixel or the group for each pixel of the image data or for a plurality of groups of pixels. A similar distance image can thus ultimately be provided, as would be possible when using more complex sensors, for example laser scanners or time-of-flight cameras. The groups of pixels can in particular include neighboring pixels, for example a rectangular group of pixels.

Die Trainingsdatensätze können jeweils ein Eingangsbild und ein Entfernungsreferenzbild umfassen, wobei im Rahmen des Maschinenlernens ein Maß für die Abweichung von Verarbeitungsbildern, die durch Anwenden der Ermittlungsfunktion auf das Eingangsbild eines jeweiligen Trainingsdatensatzes ermittelt werden, von den jeweiligen Entfernungsreferenzbildern minimiert wird. Als Maß für die Abweichung zwischen dem jeweiligen Verarbeitungsbild und dem Entfernungsreferenzbild kann eine Kostenfunktion definiert werden. Diese kann von mehreren Einzelabweichungen abhängen, die für die einzelnen Bildpunkte beziehungsweise für Gruppen dieser Bildpunkte der einzelnen Verarbeitungsbilder berechnet werden. Vorzugsweise weisen das Verarbeitungsbild und das Referenzbild eine gleiche Bildauflösung auf, womit die Einzelabweichungen jeweils bildpunktbasiert berechnet werden können. Die entsprechende Einzelabweichung kann hierbei jeweils den Unterschied zwischen der für den jeweiligen Bildpunkt im Entfernungsreferenzbild gespeicherten Entfernung und der für diesen Bildpunkt im Verarbeitungsbild ermittelten Entfernung angeben. Die Kostenfunktion kann in Abhängigkeit dieser Einzelabweichungen in Form einer Metrik beziehungsweise Norm berechnet werden. Beispielsweise kann eine 1-Norm, eine sogenannte Manhattan-Norm, oder eine 2-Norm, eine sogenannte Euklidische-Norm, verwendet werden. Bei einer 1-Norm werden die einzelnen Einzelabweichungen addiert, um zur Kostenfunktion zu gelangen. Bei einer 2-Norm werden die Quadrate der Einzelabweichungen summiert und die Kostenfunktion wird als Wurzel dieser Summe berechnet.The training data sets can each include an input image and a distance reference image, with machine learning minimizing a measure of the deviation of processing images, which are determined by applying the determination function to the input image of a respective training data set, from the respective distance reference images. A cost function can be defined as a measure of the deviation between the respective processing image and the distance reference image. This can depend on a number of individual deviations that are calculated for the individual pixels or for groups of these pixels of the individual processing images. The processing image and the reference image preferably have the same image resolution, with which the individual deviations can each be calculated based on pixels. The corresponding individual deviation can indicate the difference between the distance stored for the respective pixel in the distance reference image and the distance determined for this pixel in the processing image. Depending on these individual deviations, the cost function can be calculated in the form of a metric or standard. For example, a 1-norm, a so-called Manhattan norm, or a 2-norm, a so-called Euclidean norm, can be used. With a 1-norm, the individual deviations are added to arrive at the cost function. With a 2-norm, the squares of the individual deviations are summed and the cost function is calculated as the square root of this sum.

Die Minimierung der Kostenfunktion kann durch eine Variation der Verarbeitungsparameter erfolgen. Dieser Ansatz ist aus dem Bereich der neuronalen Netzwerke bekannt und wird dort Fehlerrückführung oder Backpropagation of Error genannt. Allgemein können Gradientenverfahren genutzt werden, bei denen eine Ableitung der Kostenfunktion beziehungsweise des Maßes für die Abweichung bezüglich der Verarbeitungsparameter berechnet wird, um eine Variationsrichtung für die Verarbeitungsparameter zu ermitteln. Hierbei handelt es sich um einen bekannten Optimierungsansatz, der nicht im Detail erläutert werden soll.The cost function can be minimized by varying the processing parameters. This approach is known from the field of neural networks and is called error feedback or backpropagation of error there. In general, gradient methods can be used, in which a derivation of the cost function or of the measure for the deviation with regard to the processing parameters is calculated in order to determine a direction of variation for the processing parameters. This is a well-known optimization approach that will not be explained in detail.

Als Trainingsdatensätze können insbesondere Trainingsdatensätze genutzt werden, die durch eine bildgebende Sensorik erfasst wurden, die zu jedem Bildpunkt neben Bilddaten zusätzliche Entfernungsdaten liefert. Beispielsweise können zumindest Teile der Trainingsdatensätze durch Time-of-Flight-Kameras erfasst werden, wobei das Eingangsbild die jeweiligen Intensitäten für alle Bildpunkte umfasst und das Entfernungsreferenzbild die Entfernungen. Ergänzend oder alternativ können entsprechende Trainingsdatensätze durch einen Laserscanner bereitgestellt werden. Es ist auch möglich, zumindest Teile der Trainingsdatensätze durch kombinierte Sensoreinrichtungen zu erfassen, die beispielsweise eine Radarsensorik mit hoher Winkelauflösung und wenigstens eine Kamera umfassen, wobei durch einen Kalibriervorgang die einzelnen Bildpunkte der Kamera zu einzelnen Erfassungswinkeln des Radarsensors zugeordnet sind oder Ähnliches. Ergänzend oder alternativ können auch synthetische Trainingsdatensätze genutzt werden, bei denen von einem 3D-Modell ausgegangen wird und aus diesem ein Eingangsbild und ein Entfernungsreferenzbild für die entsprechende 3D-Szene berechnet werden.In particular, training data sets can be used as training data sets that were recorded by an imaging sensor system that supplies additional distance data for each pixel in addition to image data. For example, at least parts of the training data sets can be captured by time-of-flight cameras, with the input image including the respective intensities for all pixels and the distance reference image including the distances. In addition or as an alternative, corresponding training data records can be obtained by a laser scan be provided. It is also possible to record at least parts of the training data sets using combined sensor devices, which include, for example, a radar sensor system with high angular resolution and at least one camera, with the individual pixels of the camera being assigned to individual detection angles of the radar sensor by a calibration process, or the like. In addition or as an alternative, synthetic training datasets can also be used, in which a 3D model is used as the starting point and an input image and a distance reference image for the corresponding 3D scene are calculated from this.

Das Training der Ermittlungsfunktion durch solche Trainingsdatensätze ermöglicht es, Eigenschaften der relativ aufwendigen, zur Ermittlung der Trainingsdatensätze genutzten Sensorik auf eine technisch sehr einfache Ermittlung der Entfernungen mit Hilfe einer Kamera und der Ermittlungsfunktion zu übertragen. Wird somit im Rahmen der Ermittlung der Trainingsdatensätze eine Sensorik genutzt, die eine sehr genaue Entfernungsbestimmung beziehungsweise eine Entfernungsbestimmung über große Reichweiten ermöglicht, so sind die Vorteile dieser Sensorik durch das Training der Ermittlungsfunktion zumindest teilweise auch dann nutzbar, wenn die tatsächliche Datenerfassung durch eine relativ einfache Kamera erfolgt.The training of the determination function using such training data sets makes it possible to transfer properties of the relatively complex sensors used to determine the training data sets to a technically very simple determination of the distances using a camera and the determination function. If, as part of the determination of the training data sets, a sensor system is used that enables a very precise distance determination or a distance determination over large ranges, the advantages of this sensor system can also be used at least partially through the training of the determination function if the actual data acquisition is carried out by a relatively simple camera done.

Im Rahmen der Erfindung wurde festgestellt, dass es vorteilhaft ist, einen Verarbeitungsalgorithmus zu nutzen, der mehrere in einer Verarbeitungsreihenfolge geordnete Verarbeitungsschichten aufweist, wobei in jeder dieser Verarbeitungsschichten wenigstens eine Teilfunktion ausgeführt wird, die jeweils durch wenigstens einen der Verarbeitungsparameter parametrisiert wird, wobei die wenigstens eine Teilfunktion der ersten Verarbeitungsschicht von zumindest einem jeweiligen Teil der Bilddaten abhängt, wobei die jeweilige wenigstens eine Teilfunktion der in der Verarbeitungsreihenfolge folgenden Verarbeitungsschichten von dem wenigstens einen Verarbeitungsergebnis der wenigstens einen Teilfunktion in der jeweiligen unmittelbar vorangehenden Verarbeitungsschicht abhängt. Vorzugsweise weist jede der Verarbeitungsschichten mehrere der Teilalgorithmen auf. Vorzugsweise hängt von jedem Bildpunkt der Bilddaten beziehungsweise der Verarbeitungsdaten wenigstens einer der Teilalgorithmen, vorzugsweise mehrere Teilalgorithmen, der ersten Verarbeitungsschicht ab. Die Teilalgorithmen einer letzten Verarbeitungsschicht können jeweils als Ausgabewert einen oder mehrere Bildpunkte der Entfernungsdaten ausgeben.In the context of the invention, it was found that it is advantageous to use a processing algorithm that has a plurality of processing layers arranged in a processing sequence, with at least one sub-function being executed in each of these processing layers, which is parameterized by at least one of the processing parameters, with the at least a partial function of the first processing layer depends on at least a respective part of the image data, wherein the respective at least one partial function of the processing layers following in the processing sequence depends on the at least one processing result of the at least one partial function in the respective immediately preceding processing layer. Each of the processing layers preferably has a plurality of the sub-algorithms. Preferably, at least one of the sub-algorithms, preferably a plurality of sub-algorithms, of the first processing layer depends on each pixel of the image data or the processing data. The sub-algorithms of a last processing layer can each output one or more pixels of the distance data as an output value.

Bei zumindest Teilen der Teilalgorithmen kann es sich um nicht lineare Funktionen handeln, wobei als Eingangswert der nicht linearen Funktion insbesondere eine gewichtete Summe mehrerer Verarbeitungsergebnisse der unmittelbar vorangehenden Verarbeitungsschicht verwendet werden kann. Der Verarbeitungsalgorithmus kann beispielsweise wenigstens drei, fünf oder sieben Verarbeitungsschichten aufweisen. Als Verarbeitungsalgorithmus können beispielsweise sogenannte „Deep Learning“-Algorithmen verwendet werden. Diese nutzen einen tiefen Graphen mit mehreren Verarbeitungsschichten, die sich jeweils aus mehreren linearen oder nicht linearen Transformationen zusammensetzen.At least parts of the sub-algorithms can be non-linear functions, it being possible in particular to use a weighted sum of a plurality of processing results from the immediately preceding processing layer as the input value of the non-linear function. For example, the processing algorithm may have at least three, five, or seven processing layers. For example, so-called “deep learning” algorithms can be used as the processing algorithm. These use a deep graph with multiple processing layers, each composed of multiple linear or non-linear transformations.

Vorzugsweise wird als Verarbeitungsalgorithmus ein künstliches neuronales Netz, beispielsweise ein Convolutional Neural Network, verwendet. Vorzugsweise wird im erfindungsgemäßen Verfahren ein entsprechendes neuronales Netzwerk nicht genutzt, um ein einzelnes Klassifikationsergebnis zu ermitteln, sondern es wird eine Vielzahl von Ausgabewerten generiert, nämlich verschiedene Entfernungen für verschiedene Bildpunkte beziehungsweise Bildbereiche. Das neuronale Netz wirkt somit als eine Art Filter auf die Bilddaten beziehungsweise die Verarbeitungsdaten, um ein Ergebnisbild zu generieren.An artificial neural network, for example a convolutional neural network, is preferably used as the processing algorithm. A corresponding neural network is preferably not used in the method according to the invention in order to determine a single classification result, but instead a large number of output values are generated, namely different distances for different pixels or image areas. The neural network thus acts as a kind of filter on the image data or the processing data in order to generate a result image.

Verschiedene Arten des Maschinenlernens nutzen verschiedene Arten der Wissensrepräsentation. Bei sogenannten symbolischen Systemen ist das erlernte Wissen explizit in Form von Regeln erkennbar. Bei subsymbolischen Systemen, beispielsweise bei neuronalen Netzwerken, wird zwar ein bestimmtes Verhalten der Ermittlungsfunktion antrainiert, das entsprechende Wissen in Form der Verarbeitungsparameter liegt jedoch in der Regel nicht so vor, dass es leicht interpretiert werden kann. Dies führt unter anderem dazu, dass eine einmal trainierte Ermittlungsfunktion stets Daten in einem gleichen Eingabeformat benötigt. Es ist daher im erfindungsgemäßen Verfahren möglich, die Ermittlungsfunktion nicht direkt auf Bilddaten anzuwenden, sondern auf Verarbeitungsdaten, die aus diesen ermittelt wurden. Hierdurch kann beispielsweise eine Abstraktionsschicht implementiert werden, um eine einmal trainierte Ermittlungsfunktion, das heißt einen bestimmten Satz von Verarbeitungsparametern, für unterschiedliche Kameras, beispielsweise Schwarz-Weiß- und Farbkameras und/oder Kameras mit unterschiedlicher Bildauflösung, zu nutzen. Die Vorverarbeitung zu Verarbeitungsdaten kann ausschließlich der Formatkonvertierung dienen, prinzipiell sind jedoch auch komplexere Vorverarbeitungen, beispielsweise eine Vektorisierung der Bilddaten, möglich.Different types of machine learning use different types of knowledge representation. In so-called symbolic systems, the knowledge learned is explicitly recognizable in the form of rules. In the case of sub-symbolic systems, for example in the case of neural networks, a specific behavior of the determination function is trained, but the corresponding knowledge in the form of the processing parameters is usually not available in such a way that it can be easily interpreted. This means, among other things, that once a determination function has been trained, it always requires data in the same input format. It is therefore possible in the method according to the invention not to apply the determination function directly to image data, but rather to processing data that were determined from them. In this way, for example, an abstraction layer can be implemented in order to use a determination function that has been trained once, ie a specific set of processing parameters, for different cameras, for example black-and-white and color cameras and/or cameras with different image resolutions. The pre-processing for processing data can only be used for format conversion, but in principle more complex pre-processing, for example vectorization of the image data, is also possible.

Es ist im erfindungsgemäßen Verfahren vorgesehen, dass die Bilddaten zweidimensionale Bilddaten sind, wobei die Entfernungsdaten ausschließlich aus den Bilddaten der Kamera ermittelt werden. Erfindungsgemäß werden die Entfernungsdaten ausschließlich aus Bilddaten genau eines Bildes der Kamera ermittelt. Die erfindungsgemäße Nutzung einer durch Maschinenlernen parametrisierten Ermittlungsfunktion kann somit sehr schnell und mit einfacher Sensorik Entfernungen zu Objekten ermitteln.The method according to the invention provides for the image data to be two-dimensional image data, with the distance data being determined exclusively from the image data of the camera. According to the invention, the distance data are determined exclusively from image data of exactly one image from the camera. The inventive use of a determination function parameterized by machine learning can thus determine distances to objects very quickly and with simple sensors.

Das erfindungsgemäße Verfahren ist mit besonderem Vorteil in Kraftfahrzeugen nutzbar. Es ist erfindungsgemäß vorgesehen, dass die Kamera an einem Kraftfahrzeug angeordnet ist, wobei in Abhängigkeit der Entfernungsdaten eine Fahrzeugeinrichtung des Kraftfahrzeugs zur Ausgabe eines Fahrhinweises an einen Fahrer und/oder zur Durchführung eines Fahreingriffs angesteuert wird. Die Ansteuerung der Fahrzeugeinrichtung kann insbesondere ausschließlich bei Erfüllung einer die Entfernungsdaten auswertenden Entfernungsbedingung erfolgen. Ergänzend ist es möglich, dass die Ansteuerung von einer Objektklassifikation der im Kraftfahrzeugumfeld erfassten Objekte abhängt.The method according to the invention can be used with particular advantage in motor vehicles. It is provided according to the invention that the camera is arranged on a motor vehicle, with a vehicle device of the motor vehicle being controlled to output driving instructions to a driver and/or to carry out a driving intervention depending on the distance data. In particular, the vehicle device can be activated exclusively when a distance condition that evaluates the distance data is met. In addition, it is possible for the activation to depend on an object classification of the objects detected in the motor vehicle environment.

Es ist jedoch auch möglich, wenigstens eine Fahrzeugeinrichtung in wenigstens einem Betriebsmodus des Kraftfahrzeugs kontinuierlich oder wiederholt auf eine Art und Weise anzusteuern, die von den Entfernungsdaten abhängt. Beispielsweise kann ein Abstand zu bestimmten Objekten im Umfeld des Kraftfahrzeugs optisch oder akustisch an einen Fahrer ausgegeben werden, eine Längsführung, beispielsweise durch einen Abstandsassistenten, kann von den Entfernungsdaten abhängen oder Ähnliches. Es ist hierbei möglich, dass die Ansteuerung der Fahrzeugeinrichtung ausschließlich in Abhängigkeit der Entfernungsdaten erfolgt. Erfindungsgemäß werden die Entfernungsdaten jedoch mit Daten aus anderen Informationsquellen fusioniert oder durch diese validiert. Als Informationsquellen können beispielsweise weitere Sensoren des Kraftfahrzeugs und/oder über Funkverbindungen, beispielsweise eine Car-2-Car-Kommunikation, empfangene Daten dienen.However, it is also possible to control at least one vehicle device in at least one operating mode of the motor vehicle continuously or repeatedly in a way that depends on the distance data. For example, a distance to specific objects in the area surrounding the motor vehicle can be output to a driver optically or acoustically, longitudinal guidance, for example by a distance assistant, can depend on the distance data or the like. In this case, it is possible for the vehicle device to be activated solely as a function of the distance data. According to the invention, however, the distance data is merged with data from other information sources or validated by them. Other sensors of the motor vehicle and/or data received via radio connections, for example car-2-car communication, can serve as sources of information.

Neben dem erfindungsgemäßen Verfahren betrifft die Erfindung ein Kraftfahrzeug mit einer Kamera und einer Verarbeitungseinrichtung, wobei durch die Verarbeitungseinrichtung Bilddaten der Kamera gemäß dem erfindungsgemäßen Verfahren auswertbar sind, wobei in Abhängigkeit der Entfernungsdaten eine Fahrzeugeinrichtung des Kraftfahrzeugs zur Ausgabe eines Fahrhinweises an einen Fahrer und/oder zur Durchführung eines Fahreingriffs ansteuerbar ist. Die Verarbeitungseinrichtung kann zudem eines oder mehrere Fahrerassistenzsysteme implementieren und/oder zur autonomen Führung des Kraftfahrzeugs ausgebildet sein. Hierzu ist durch die Verarbeitungseinrichtung wenigstens eine Fahrzeugeinrichtung des Kraftfahrzeugs ansteuerbar, beispielsweise eine Anzeigeeinrichtung, eine Ausgabeeinrichtung für akustische Informationen und/oder ein Aktor für Fahreingriffe.In addition to the method according to the invention, the invention relates to a motor vehicle with a camera and a processing device, with the processing device being able to evaluate image data from the camera in accordance with the method according to the invention, with a vehicle device of the motor vehicle for outputting driving instructions to a driver and/or for Carrying out a driving intervention can be controlled. The processing device can also implement one or more driver assistance systems and/or be designed for autonomous guidance of the motor vehicle. For this purpose, at least one vehicle device of the motor vehicle can be controlled by the processing device, for example a display device, an output device for acoustic information and/or an actuator for driving interventions.

Weitere Vorteile und Einzelheiten der Erfindung ergeben sich aus den folgenden Ausführungsbeispielen und den zugehörigen Zeichnungen. Hierbei zeigen:

  • 1 ein Ablaufdiagramm eines Ausführungsbeispiels des erfindungsgemäßen Verfahrens, und
  • 2 ein Ausführungsbeispiel eines erfindungsgemäßen Kraftfahrzeugs.
Further advantages and details of the invention result from the following exemplary embodiments and the associated drawings. Here show:
  • 1 a flowchart of an embodiment of the method according to the invention, and
  • 2 an embodiment of a motor vehicle according to the invention.

1 zeigt ein Ablaufdiagramm eines Verfahrens zur Ermittlung von eine Entfernung zu wenigstens einem durch eine Kamera erfassten Objekt beschreibenden Entfernungsdaten. In dem Verfahren werden durch eine Kamera Bilddaten eines Bildes erfasst. Dies erfolgt durch eine Kamera 6, die wie in 2 gezeigt ist, an einem Kraftfahrzeug 5 angeordnet ist. Durch Anwenden einer Ermittlungsfunktion werden Entfernungsdaten ermittelt, die vorzugsweise zu jedem Bildpunkt eine Entfernung des erfassten Objekts beschreiben. Die Ermittlungsfunktion ist durch eine Vielzahl von Verarbeitungsparametern parametrisiert, die durch ein Verfahren des Maschinenlernens anhand von Trainingsdatensätzen erlernt wurden. 1 shows a flowchart of a method for determining distance data describing a distance to at least one object captured by a camera. In the method, image data of an image are captured by a camera. This is done by a camera 6, which as in 2 is shown, is arranged on a motor vehicle 5 . By using a determination function, distance data are determined, which preferably describe a distance of the detected object for each pixel. The determination function is parameterized by a large number of processing parameters, which were learned by a machine learning method using training data sets.

Das in 1 dargestellte Verfahren zerfällt somit letztlich in zwei Verfahrensabschnitte. Im ersten Verfahrensabschnitt von Schritt S1 bis Schritt S7 wird die Ermittlungsfunktion parametrisiert und die entsprechend parametrisierte Ermittlungsfunktion beziehungsweise die Parameter für eine bereits vorhandene Ermittlungsfunktion werden in der Verarbeitungseinrichtung 7 des Kraftfahrzeugs 5 gespeichert. Anschließend können die Schritte S8 bis S10, in denen diese parametrisierte Ermittlungsfunktion im Rahmen des Fahrbetriebs des Kraftfahrzeugs 5 zur Entfernungsermittlung eingesetzt werden kann, im Kraftfahrzeug 5 durchgeführt werden.This in 1 The process presented thus ultimately breaks down into two process sections. In the first method step from step S1 to step S7, the determination function is parameterized and the correspondingly parameterized determination function or the parameters for an already existing determination function are stored in the processing device 7 of the motor vehicle 5 . Steps S8 to S10, in which this parameterized determination function can be used to determine the distance as part of the driving operation of the motor vehicle 5, can then be carried out in the motor vehicle 5.

Um die Ermittlungsfunktion zu trainieren werden zunächst in Schritt S1 eine Vielzahl von Trainingsdatensätzen 1 bereitgestellt. Diese umfassen jeweils ein Eingangsbild 2 und ein Entfernungsreferenzbild 3. Die Trainingsdatensätze 1 können auf vielfältige Weise ermittelt werden. Beispielsweise kann eine Time-of-Flight-Kamera genutzt werden, die für eine Vielzahl von Bildpunkten jeweils eine Information über eine erfasste Lichtintensität und über eine Lichtlaufzeit bereitstellt. Die Lichtintensitäten können als Bilddaten des Eingangsbildes 2 genutzt werden. Die Laufzeiten beziehungsweise aus den Laufzeiten ermittelte Entfernungen können als Bilddaten des Entfernungsreferenzbildes 3 genutzt werden.In order to train the determination function, a large number of training data records 1 are initially provided in step S1. These each include an input image 2 and a distance reference image 3. The training data sets 1 can be determined in a variety of ways. For example, a time-of-flight camera can be used, which provides information about a detected light intensity and about a light propagation time for a large number of pixels. The light intensities can be used as image data of the input image 2. The transit times or distances determined from the transit times can be used as image data of the distance reference image 3 .

Alternativ oder zusätzlich können Trainingsdatensätze 1, beispielsweise auch durch bildgebende Laserscanner, erfasst werden. Das Vorgehen hierbei entspricht dem Vorgehen für eine Time-of-Flight-Kamera. Es ist auch möglich, zumindest Teile der Trainingsdatensätze 1 durch Sensoreinrichtungen zu erfassen, die Sensordaten verschiedener Sensoren fusionieren, um das Eingangsbild und das Entfernungsreferenzbild bereitzustellen. Beispielsweise können die Entfernungsdaten des Entfernungsreferenzbildes durch einen winkelauflösenden Radardetektor erfasst werden. Ergänzend kann eine Kamera genutzt werden, deren Erfassungsbereich relativ zu dem Erfassungsbereich des Radardetektors kalibriert ist, um das zugehörige Eingangsbild zu ermitteln. Auch in diesem Fall können einzelnen Bildpunkten des Eingangsbildes definierte Entfernungen des Entfernungsreferenzbildes zugeordnet werden.Alternatively or additionally, training data records 1 can also be recorded, for example by imaging laser scanners. The procedure here corresponds to the procedure for a time-of-flight camera. It is also possible to acquire at least parts of the training data sets 1 using sensor devices that fuse sensor data from different sensors in order to provide the input image and the distance reference image. For example, the range data of the range reference image can be detected by an angle-resolving radar detector. In addition, a camera can be used whose detection area is calibrated relative to the detection area of the radar detector in order to determine the associated input image. In this case, too, individual pixels of the input image can be assigned defined distances of the distance reference image.

Letztlich ist es auch möglich, zumindest Teile der Trainingsdatensätze 1 synthetisch zu erzeugen. Hierzu können beispielsweise 3D-Modelle eines bestimmten Umfeldes bereitgestellt werden und es kann wenigstens eine virtuelle Datenerfassung in diesem Modell durchgeführt werden, durch die Bilddaten für das Eingangsbild und Entfernungen für das Entfernungsreferenzbild erfasst werden.Ultimately, it is also possible to generate at least parts of the training data sets 1 synthetically. For this purpose, 3D models of a specific environment can be provided, for example, and at least one virtual data acquisition can be carried out in this model, by means of which image data for the input image and distances for the distance reference image can be acquired.

In Schritt S2 wird für jeden der Trainingsdatensätze 1 jeweils die Ermittlungsfunktion auf das Eingangsbild 2 angewandt. Bei der Ermittlungsfunktion kann es sich beispielsweise um ein neuronales Netzwerk oder eine statistische Datenmodellierung handeln, das beziehungsweise die trainiert werden soll. Hierbei können zu Beginn des Trainings im Wesentlichen beliebige Anfangswerte für die Verarbeitungsparameter der Ermittlungsfunktion genutzt werden. In späteren Wiederholungen werden iterativ angepasste Verarbeitungsparameter genutzt, wobei diese Anpassung später erläutert wird.In step S2, the determination function is applied to the input image 2 for each of the training data sets 1. The determination function can be, for example, a neural network or statistical data modeling that is to be trained. Essentially any initial values for the processing parameters of the determination function can be used at the beginning of the training. Iteratively adjusted processing parameters are used in later iterations, which adjustment will be discussed later.

Durch Anwenden der Ermittlungsfunktion auf die Eingangsbilder steht in Schritt S3 für jeden der Trainingsdatensätze 1 ein jeweiliges Verarbeitungsbild 4 bereit. Dieses wird in Schritt S4 mit dem Entfernungsreferenzbild 3 des zugehörigen Trainingsdatensatzes 1 verglichen, um ein Maß für die Unterschiede zwischen dem jeweiligen Verarbeitungsbild 4 und dem jeweiligen Entfernungsreferenzbild 3, also eine Kostenfunktion, zu ermitteln. Das Maß für den Unterschied kann hierbei Unterschiede der Entfernung für die jeweiligen Bildpunkte als Unterschiedsgrößen auswerten. Die verschiedenen Unterschiedsgrößen können als Abweichungen betrachtet werden, für die ein Maß für die Gesamtabweichung berechnet wird. Dies kann in Form von einer 1-Norm, auch Manhattan-Norm genannt, also einer Summe der Unterschiedsgrößen, oder einer 2-Norm, auch Euklidische-Norm genannt, bei der eine Quadratwurzel der Summe der Quadrate der Unterschiedsgrößen berechnet wird, erfolgen. Insbesondere erfolgt die Summation hierbei über die Bildpunkte aller Trainingsdatensätze.By applying the determination function to the input images, a respective processing image 4 is available for each of the training data sets 1 in step S3. This is compared in step S4 with the distance reference image 3 of the associated training data set 1 in order to determine a measure of the differences between the respective processing image 4 and the respective distance reference image 3, ie a cost function. In this case, the measure of the difference can evaluate differences in the distance for the respective pixels as difference variables. The various difference sizes can be viewed as deviations for which a measure of the total deviation is calculated. This can take the form of a 1-norm, also known as the Manhattan norm, i.e. a sum of the differences, or a 2-norm, also known as the Euclidean norm, in which a square root of the sum of the squares of the differences is calculated. In particular, the summation takes place over the pixels of all training data sets.

In Schritt S5 wird ermittelt, ob die Parameteroptimierung konvergiert. Hierzu kann beispielsweise überprüft werden, ob der Unterschied der in aufeinanderfolgenden Durchläufen in Schritt S4 ermittelten Kostenfunktionen einen Grenzwert unterschreitet. Ist dies nicht der Fall, so werden in Schritt S6 die Verarbeitungsparameter angepasst und die Schritte S2 bis S5 werden anschließend mit den angepassten Verarbeitungsparametern wiederholt.In step S5 it is determined whether the parameter optimization is converging. For this purpose, it can be checked, for example, whether the difference between the cost functions determined in successive runs in step S4 falls below a limit value. If this is not the case, the processing parameters are adjusted in step S6 and steps S2 to S5 are then repeated with the adjusted processing parameters.

Zur Anpassung der Verarbeitungsparameter kann ein Gradientenverfahren genutzt werden. Hierzu kann eine Ableitung der in Schritt S4 berechneten Kostenfunktion nach den Verarbeitungsparametern berechnet werden, um eine Variationsrichtung zu ermitteln, für die die Kostenfunktion sinkt, vorzugsweise die Richtung des steilsten Abstiegs.A gradient method can be used to adapt the processing parameters. For this purpose, a derivation of the cost function calculated in step S4 can be calculated according to the processing parameters in order to determine a direction of variation for which the cost function decreases, preferably the direction of the steepest descent.

Wurde in Schritt S5 ermittelt, dass das Optimierungsverfahren bereits konvergiert ist, so werden die zuletzt in Schritt S2 genutzten Verarbeitungsparameter im Schritt S7 als gelernte beziehungsweise endgültige Verarbeitungsparameter festgelegt. Soll der Verarbeitungsalgorithmus beispielsweise in einer Vielzahl von Kraftfahrzeugen genutzt werden, können die Schritte S1 bis S6 zumindest für all diejenigen Kraftfahrzeuge, die austauschbar nutzbare Kameras 6 aufweisen, gemeinsam durchgeführt werden. In Schritt S7 kann die Ermittlungsfunktion für alle diese Kraftfahrzeuge durch die ermittelten Verarbeitungsparameter parametrisiert werden. Die Nutzung der entsprechend parametrisierten Ermittlungsfunktion erfolgt in den Schritten S8 bis S10. Diese werden im Folgenden für ein Beispiel beschrieben, in dem diese Schritte in dem Kraftfahrzeug 5 durchgeführt werden. Selbstverständlich sind auch andere Anwendungsfälle möglich.If it was determined in step S5 that the optimization method has already converged, the processing parameters last used in step S2 are defined in step S7 as learned or final processing parameters. If the processing algorithm is to be used in a large number of motor vehicles, for example, steps S1 to S6 can be carried out jointly at least for all those motor vehicles that have cameras 6 that can be used interchangeably. In step S7, the determination function for all of these motor vehicles can be parameterized by the determined processing parameters. The correspondingly parameterized determination function is used in steps S8 to S10. These are described below for an example in which these steps are carried out in motor vehicle 5 . Of course, other applications are also possible.

Im Schritt S7 wird durch die Kamera 6 des Kraftfahrzeugs 5 ein Bild des vorderen Umfelds des Kraftfahrzeugs 5 erfasst. Im Schritt S9 wird anschließend die durch die zuvor ermittelten Verarbeitungsparameter parametrisierte Ermittlungsfunktion auf die Bilddaten dieses Bildes angewandt. Hierdurch wird ein Entfernungsbild berechnet, das als Entfernungsdaten für jeden Bildpunkt der ursprünglichen Bilddaten eine jeweilige Entfernung zu einem jeweiligen durch diesen Bildpunkt abgebildeten Objekt beschreibt. Da die Ermittlungsfunktion durch die Trainingsdatensätze 1 gezielt dazu trainiert wurde, Entfernungen aus Bilddaten einer Kamera zu bestimmen, können bei einem ausreichenden Training entsprechende Entfernungen mit hoher Robustheit und hoher Genauigkeit ermittelt werden. In Weiterbildungen des erläuterten Verfahrens wäre es möglich, die durch die Ermittlungsfunktion ermittelten Entfernungen durch über weitere Sensoren des Kraftfahrzeugs 5 erfasste Sensordaten oder andere vom Kraftfahrzeug 5 empfangene Daten zu verifizieren.In step S7, an image of the area around the front of the motor vehicle 5 is captured by the camera 6 of the motor vehicle 5 . In step S9, the determination function parameterized by the previously determined processing parameters is then applied to the image data of this image. In this way, a distance image is calculated which, as distance data for each pixel of the original image data, describes a respective distance to a respective object imaged by this pixel. Since the determination function was specifically trained by the training data sets 1 to determine distances from image data from a camera, corresponding distances can be determined with a high level of robustness and accuracy given sufficient training. In further developments of the method explained, it would be possible to verify the distances determined by the determination function using sensor data recorded via additional sensors of motor vehicle 5 or other data received from motor vehicle 5 .

Die Entfernungsdaten werden anschließend in Schritt S10 weiterverarbeitet, beispielsweise um Entfernungen und/oder Relativbewegungen zu weiteren Verkehrsteilnehmern zu ermitteln, ein dreidimensionales Umgebungsmodell für das Kraftfahrzeug 5 zu generieren oder Ähnliches. In Abhängigkeit des Verarbeitungsergebnisses wird eine Fahrzeugeinrichtung 8 angesteuert, um dem Fahrer einen Fahrhinweis zu geben und/oder in den Fahrbetrieb einzugreifen. Beispielsweise können auf einer Anzeigeeinrichtung, insbesondere in Form eines Head-up-Displays, Abstandsinformationen zu weiteren Verkehrsteilnehmern eingeblendet werden oder es kann wenigstens ein Aktor als Fahrzeugeinrichtung 8 angesteuert werden, um das Kraftfahrzeug 5 im Rahmen einer automatischen Abstandsregelung zu beschleunigen oder zu bremsen.The distance data is then further processed in step S10, for example to determine distances and/or movements relative to other road users, to generate a three-dimensional environment model for motor vehicle 5 or the like. Depending on the processing result, a vehicle device 8 is activated in order to give the driver driving instructions and/or to intervene in the driving operation. For example, distance information to other road users can be displayed on a display device, in particular in the form of a head-up display, or at least one actuator can be controlled as vehicle device 8 in order to accelerate or brake motor vehicle 5 as part of automatic distance control.

Claims (5)

Verfahren zur Ermittlung von eine Entfernung zu wenigstens einem durch eine Kamera (6) erfassten Objekt beschreibenden Entfernungsdaten, wobei durch die Kamera (6) wenigstens ein Bild des Objekts erfasst wird, wonach in Abhängigkeit der Bilddaten des Bildes die Entfernungsdaten ermittelt werden, wobei die Bilddaten zweidimensionale Bilddaten sind, wobei die Entfernungsdaten ausschließlich aus den Bilddaten genau eines Bildes der Kamera (6) ermittelt werden, wobei die Entfernungsdaten durch Anwenden einer Ermittlungsfunktion auf die Bilddaten oder auf aus den Bilddaten ermittelte Verarbeitungsdaten ermittelt werden, wobei die Ermittlungsfunktion durch mehrere Verarbeitungsparameter parametrisiert wird, die ermittelt werden, indem die Ermittlungsfunktion durch mehrere Trainingsdatensätze (1) im Rahmen eines Maschinenlernens trainiert wird, wobei die Kamera (6) an einem Kraftfahrzeug (5) angeordnet ist, dadurch gekennzeichnet, dass in Abhängigkeit der Entfernungsdaten eine Fahrzeugeinrichtung (8) des Kraftfahrzeugs zur Ausgabe eines Fahrhinweises an einen Fahrer und/oder zur Durchführung eines Fahreingriffs angesteuert wird, wobei hierbei die Entfernungsdaten mit Daten aus anderen Informationsquellen fusioniert oder durch diese validiert werden.Method for determining distance data describing a distance to at least one object captured by a camera (6), at least one image of the object being captured by the camera (6), after which the distance data are determined as a function of the image data of the image, the image data are two-dimensional image data, the distance data being determined exclusively from the image data of exactly one image from the camera (6), the distance data being determined by applying a determination function to the image data or to processing data determined from the image data, the determination function being parameterized by a number of processing parameters that are determined by the determination function being trained by a plurality of training data sets (1) as part of machine learning, the camera (6) being arranged on a motor vehicle (5), characterized in that depending on the distance data, a vehicle device (8) of the Motor vehicle is controlled to output driving instructions to a driver and / or to carry out a driving intervention, in which case the distance data are merged with data from other information sources or validated by them. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Entfernungsdaten für jeden Bildpunkt der Bilddaten oder für mehrere Gruppen der Bildpunkte eine jeweilige Entfernung zu einem jeweiligen durch den Bildpunkt oder die Gruppe abgebildeten Objekt beschreiben.procedure after claim 1 , characterized in that the distance data for each pixel of the image data or for a plurality of groups of pixels describes a respective distance to a respective object imaged by the pixel or the group. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Trainingsdatensätze (1) jeweils ein Eingangsbild (2) und ein Entfernungsreferenzbild (3) umfassen, wobei im Rahmen des Maschinenlernens ein Maß für die Abweichung von Verarbeitungsbildern (4), die durch Anwenden der Ermittlungsfunktion auf das Eingangsbild (2) eines jeweiligen Trainingsdatensatzes (1) ermittelt werden, von den jeweiligen Entfernungsreferenzbildern (3) minimiert wird.procedure after claim 1 or 2 , characterized in that the training data sets (1) each comprise an input image (2) and a distance reference image (3), with a measure for the deviation of processing images (4), which are generated by applying the determination function to the input image (2nd ) of a respective training data set (1) are determined, is minimized by the respective distance reference images (3). Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Ermittlungsfunktion mehrere in einer Verarbeitungsreihenfolge geordnete Verarbeitungsschichten aufweist, wobei in jeder dieser Verarbeitungsschichten wenigstens eine Teilfunktion ausgeführt wird, die jeweils durch wenigstens einen der Verarbeitungsparameter parametrisiert wird, wobei die wenigstens eine Teilfunktion der ersten Verarbeitungsschicht von zumindest einem jeweiligen Teil der Bilddaten abhängt, wobei die jeweilige wenigstens eine Teilfunktion der in der Verarbeitungsreihenfolge folgenden Verarbeitungsschichten von dem wenigstens einen Verarbeitungsergebnis der wenigstens einen Teilfunktion in der jeweiligen unmittelbar vorangehenden Verarbeitungsschicht abhängt.Method according to one of the preceding claims, characterized in that the determination function has a plurality of processing layers arranged in a processing sequence, in each of these processing layers at least one sub-function is executed, which is parameterized by at least one of the processing parameters, the at least one sub-function of the first processing layer depends on at least a respective part of the image data, wherein the respective at least one partial function of the processing layers following in the processing sequence depends on the at least one processing result of the at least one partial function in the respective immediately preceding processing layer. Kraftfahrzeug (5) mit einer Kamera (6) und einer Verarbeitungseinrichtung (7), dadurch gekennzeichnet, dass durch die Verarbeitungseinrichtung (7) Bilddaten der Kamera (6) gemäß dem Verfahren nach einem der vorangehenden Ansprüche auswertbar sind, wobei in Abhängigkeit der Entfernungsdaten eine Fahrzeugeinrichtung (8) des Kraftfahrzeugs (5) zur Ausgabe eines Fahrhinweises an einen Fahrer und/oder zur Durchführung eines Fahreingriffs ansteuerbar ist, wobei hierbei die Entfernungsdaten mit Daten aus anderen Informationsquellen fusioniert oder durch diese validiert werden.Motor vehicle (5) with a camera (6) and a processing device (7), characterized in that the processing device (7) can evaluate image data from the camera (6) according to the method according to one of the preceding claims, with a Vehicle device (8) of the motor vehicle (5) can be controlled to issue driving instructions to a driver and/or to carry out a driving intervention, the distance data being fused with data from other information sources or validated by them.
DE102016220079.8A 2016-10-14 2016-10-14 Method for determining distance data Active DE102016220079B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102016220079.8A DE102016220079B4 (en) 2016-10-14 2016-10-14 Method for determining distance data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016220079.8A DE102016220079B4 (en) 2016-10-14 2016-10-14 Method for determining distance data

Publications (2)

Publication Number Publication Date
DE102016220079A1 DE102016220079A1 (en) 2018-04-19
DE102016220079B4 true DE102016220079B4 (en) 2023-04-06

Family

ID=61764823

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016220079.8A Active DE102016220079B4 (en) 2016-10-14 2016-10-14 Method for determining distance data

Country Status (1)

Country Link
DE (1) DE102016220079B4 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4308776A1 (en) 1992-03-23 1993-09-30 Fuji Heavy Ind Ltd System for monitoring the condition external to the vehicle using an image taken by several television cameras
DE102008061749A1 (en) 2007-12-17 2009-06-25 Continental Teves Ag & Co. Ohg Method and device for optically detecting a vehicle environment
DE102009012435A1 (en) 2008-03-27 2010-01-07 Mando Corp., Pyungtaek Apparatus and method for monocular motion stereo-based detection of free parking spaces

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4308776A1 (en) 1992-03-23 1993-09-30 Fuji Heavy Ind Ltd System for monitoring the condition external to the vehicle using an image taken by several television cameras
DE102008061749A1 (en) 2007-12-17 2009-06-25 Continental Teves Ag & Co. Ohg Method and device for optically detecting a vehicle environment
DE102009012435A1 (en) 2008-03-27 2010-01-07 Mando Corp., Pyungtaek Apparatus and method for monocular motion stereo-based detection of free parking spaces

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
F. Liu, C. Shen, G. Lin, I. Reid: Learning Depth from Single Monocular Images Using Deep Convolutional Neural Fields. arXiv: 1502.07411v6 [cs.CV], 25 Nov 2015. Preprint-Dokumentenserver Cornell University Library
M. Mancini, G. Costante, P. Valigi, T.A. Ciarfuglia: Fast Robust Monocular Depth Estimation for Obstacle Detection with Fully Convolutional Networks. arXiv: 1607.06349v1 [cs.RO], 21 Jul 2016. Preprint-Dokumentenserver Cornell University Library

Also Published As

Publication number Publication date
DE102016220079A1 (en) 2018-04-19

Similar Documents

Publication Publication Date Title
EP3053133B1 (en) Method and device for displaying a vehicle's environment and driver assistance system
DE102009005861A1 (en) Vehicle environment recognition system
DE102015119400B4 (en) Multi-camera device and method for synchronized autofocusing
EP3291172B1 (en) Method for calculating final image data
DE102012200731A1 (en) Method and device for visualizing the environment of a vehicle
DE102005034597A1 (en) Method and device for generating a depth map
EP2246664B1 (en) Method for automatic determination of at least one target factor describing changes in the position of a motor vehicle
DE102013224502A1 (en) Method for calibrating stereo camera of vehicle, involves finding calibration error for calibrating stereo camera, by comparing three-dimensional (3D) environment data of two cameras calculated at preset time periods
DE102018100909A1 (en) Method of reconstructing images of a scene taken by a multifocal camera system
EP3788552A1 (en) Method and device for determining a depth information image from an input image
DE102006039104A1 (en) Method for ranging or detection of stationary objects in surroundings of road vehicle using graphic data, involves testing object hypothesis such as stationary object against object hypothesis such as flat road
DE102018204451A1 (en) Method and device for auto-calibration of a vehicle camera system
EP2736017A2 (en) Method for determining the movement of a motor vehicle
DE102016220079B4 (en) Method for determining distance data
DE102018132676A1 (en) Method for locating a vehicle in an environment
DE102010042821B4 (en) Method and apparatus for determining a basic width of a stereo detection system
DE102021202454A1 (en) Environment modeling based on camera data
DE102019102423A1 (en) Method for live annotation of sensor data
DE102019129101A1 (en) A method and system for estimating a bounding box that includes a target vehicle
DE102012222443A1 (en) Method for recognition of tow-bar by camera system of driver assistance system in vehicle while parking vehicle, involves recognizing object in field of vision of camera due to image pixel comparison based on driving condition variable
DE102018221625A1 (en) Transfer of additional information between camera systems
DE102014202639A1 (en) Method for determining movement of vehicle, involves outputting movement of vehicle when quality value formed for evaluating detected vehicle movement estimate is available in predetermined relationship to reference value
DE102018208604A1 (en) Determining a recording behavior of a recording unit
DE102010006522A1 (en) Method for analyzis of corresponding pixels in two graphic data sets, involves determining signature information for each pixel of graphic data set, where correspondence hypothesis provided for determination of corresponding pixels
EP3865981B1 (en) Method and device for calibration of a 3d image sensor

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final