DE102021204411A1 - Method and apparatus for determining disparity and vehicle - Google Patents

Method and apparatus for determining disparity and vehicle Download PDF

Info

Publication number
DE102021204411A1
DE102021204411A1 DE102021204411.5A DE102021204411A DE102021204411A1 DE 102021204411 A1 DE102021204411 A1 DE 102021204411A1 DE 102021204411 A DE102021204411 A DE 102021204411A DE 102021204411 A1 DE102021204411 A1 DE 102021204411A1
Authority
DE
Germany
Prior art keywords
image
pixel
search
disparity
reference image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021204411.5A
Other languages
German (de)
Inventor
Dirk Raproeger
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102021204411.5A priority Critical patent/DE102021204411A1/en
Publication of DE102021204411A1 publication Critical patent/DE102021204411A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Bestimmen einer Disparität bei dem ein erstes rektifiziertes Bild (501) in ein Referenzbild (1101) und ein zweites rektifiziertes Bild (502) in ein Suchbild (1302) transformiert, eine Abstimmtabelle (1220) für einen Bildpunkt des Referenzbilds (1101) aufgebaut, Positionswerte (1402) für Bildpunkte des Suchbilds (1302) bestimmt, eine Häufigkeitsverteilung (1400) für die Positionswerte (1402) gebildet und ein Disparitätswert (1528) für den Bildpunkt des Referenzbilds (1101) aus der Position (1110) des Bildpunkts in dem Referenzbild (1101) und demjenigen der Positionswerte (1402) ermittelt wird, der die größte Häufigkeit in der Häufigkeitsverteilung (1400) aufweist.The invention relates to a method for determining a disparity in which a first rectified image (501) is transformed into a reference image (1101) and a second rectified image (502) is transformed into a search image (1302), a matching table (1220) for a pixel of the reference image (1101), position values (1402) for pixels of the search image (1302) determined, a frequency distribution (1400) formed for the position values (1402) and a disparity value (1528) for the pixel of the reference image (1101) from the position (1110) of the pixel in the reference image (1101) and that of the position values (1402) which has the greatest frequency in the frequency distribution (1400).

Description

Stand der TechnikState of the art

Die Erfindung geht von einer Vorrichtung oder einem Verfahren nach Gattung der unabhängigen Ansprüche aus. Gegenstand der vorliegenden Erfindung ist auch ein Computerprogramm.The invention is based on a device or a method according to the species of the independent claims. The subject matter of the present invention is also a computer program.

Bei der Verarbeitung eines Stereobildpaares im Bereich der Computer-Vision ist ein sehr wichtiger Schritt die Bestimmung der Disparität. Ein weiterer wichtiger Schritt ist die Bestimmung einer Oberflächennormalen. Dazu kann unter Verwendung extrahierter Bildpunkte eine Oberflächenschätzung durchgeführt werden und die Oberflächennormale bezüglich einer sich aus der Oberflächenschätzung ergebenden Fläche bestimmt werden.When processing a stereo image pair in the field of computer vision, a very important step is the determination of the disparity. Another important step is the determination of a surface normal. For this purpose, a surface estimation can be carried out using extracted image points and the surface normal can be determined with respect to an area resulting from the surface estimation.

Die DE 196 36 028 C1 offenbart einen Ansatz bei dem ein Disparitätshistogramm unter Verwendung eines gewichteten Häufigkeitsinkrements aufgebaut wird.the DE 196 36 028 C1 discloses an approach in which a disparity histogram is constructed using a weighted frequency increment.

Offenbarung der ErfindungDisclosure of Invention

Vor diesem Hintergrund werden mit dem hier vorgestellten Ansatz ein Verfahren und eine Vorrichtung zum Bestimmen einer Disparität sowie ein Fahrzeug gemäß den Hauptansprüchen vorgestellt. Durch die in den abhängigen Ansprüchen aufgeführten Maßnahmen sind vorteilhafte Weiterbildungen und Verbesserungen der im unabhängigen Anspruch angegebenen Vorrichtung möglich.Against this background, a method and a device for determining a disparity and a vehicle according to the main claims are presented with the approach presented here. Advantageous developments and improvements of the device specified in the independent claim are possible as a result of the measures listed in the dependent claims.

Vorteilhafterweise ist eine Bestimmung der Disparität mittels eines Abstimmungsverfahrens, einem sogenannten Votingverfahren möglich. Optional kann mit dem Abstimmungsverfahren zusätzlich zur Disparität auch ein Normalenvektor bestimmt werden.Advantageously, the disparity can be determined by means of a voting process, a so-called voting process. Optionally, in addition to the disparity, a normal vector can also be determined with the voting method.

Ein entsprechendes Verfahren zum Bestimmen einer Disparität umfasst die folgenden Schritte:

  • Einlesen eines ersten rektifizierten Bilds und eines zweiten rektifizierten Bilds;
  • Transformieren des ersten rektifizierten Bilds in ein Referenzbild unter Verwendung einer Transformationsvorschrift die jedem Bildpunkt des ersten rektifizierten Bilds einen Merkmalswert aus einer vorbestimmten Menge von Merkmalswerten zuordnet, und des zweiten rektifizierten Bilds in ein Suchbild unter Verwendung der Transformationsvorschrift die jedem Bildpunkt des zweiten rektifizierten Bilds einen Merkmalswert aus der vorbestimmten Menge von Merkmalswerten zuordnet;
  • Aufbauen einer Abstimmtabelle für einen Bildpunkt des Referenzbilds, indem jedem Merkmalswert aus der vorbestimmten Menge von Merkmalswerten Abstände zwischen einer Position des Bildpunkts in dem Referenzbild und zumindest sich in einer Referenzregion um die Position des Bildpunkts befindlichen Positionen des entsprechenden Merkmalswerts in dem Referenzbild zugeordnet werden;
  • Bestimmen von Positionswerten für zumindest jeden sich in einer Suchregion befindlichen Bildpunkt des Suchbilds, indem für jeden sich in der Suchregion befindlichen Bildpunkt des Suchbilds der entsprechende Merkmalswert aus dem Suchbild ausgelesen wird, die dem entsprechenden Merkmalswert zugeordneten Abstände aus der Abstimmtabelle ausgelesen werden und die Positionswerte aus der Position des Bildpunkts und den Abständen ermittelt werden;
  • Bilden einer Häufigkeitsverteilung für die Positionswerte der sich in der Suchregion befindlichen Bildpunkte des Suchbilds; und
  • Ermitteln eines Disparitätswerts für den Bildpunkt des Referenzbilds aus der Position des Bildpunkts in dem Referenzbild und demjenigen der Positionswerte, der die größte Häufigkeit in der Häufigkeitsverteilung aufweist.
A corresponding method for determining a disparity includes the following steps:
  • reading in a first rectified image and a second rectified image;
  • Transforming the first rectified image into a reference image using a transformation rule which assigns a feature value from a predetermined set of feature values to each pixel of the first rectified image, and transforming the second rectified image into a search image using the transformation rule which assigns a feature value to each pixel of the second rectified image assigns from the predetermined set of feature values;
  • constructing a matching table for a pixel of the reference image by associating each feature value from the predetermined set of feature values with distances between a position of the pixel in the reference image and positions of the corresponding feature value in the reference image that are at least in a reference region around the position of the pixel;
  • Determination of position values for at least each pixel of the search image located in a search region by reading the corresponding feature value from the search image for each pixel of the search image located in the search region, the distances assigned to the corresponding feature value are read from the matching table and the position values are read out the position of the pixel and the distances are determined;
  • forming a frequency distribution for the position values of the pixels of the search image located in the search region; and
  • Determining a disparity value for the pixel of the reference image from the position of the pixel in the reference image and that of the position values that has the greatest frequency in the frequency distribution.

Das Verfahren stellt eine Methode zur Bestimmung der Disparität in einem Stereobildpaar mittels eines Votingverfahrens dar. Das erste rektifizierte Bild kann auf einem unter Verwendung einer ersten Bilderfassungseinrichtung erfassten ersten Eingangsbilds und das zweite rektifizierte Bild auf einem unter Verwendung einer zweiten Bilderfassungseinrichtung erfassten zweiten Eingangsbilds basieren. Das erste Eingangsbild und das zweite Eingangsbild können ein Stereobildpaar darstellen. Die Bilderfassungseinrichtungen können beispielsweise an einem Fahrzeug angeordnet sein und verwendet werden, um einen Abschnitt eines Umfelds des Fahrzeugs aus unterschiedlichen Blickwinkeln zu erfassen. Durch eine geeignete Rektifizierung der Eingangsbilder können geometrische Verzerrungen eliminiert werden. Die rektifizierten Bilder können jeweils eine Mehrzahl von Bildpunkten umfassen. Beispielsweise kann jeder Bildpunkt einen Grauwert abbilden.The method represents a method for determining the disparity in a stereo image pair using a voting method. The first rectified image can be based on a first input image captured using a first image capturing device and the second rectified image can be based on a second input image captured using a second image capturing device. The first input image and the second input image can represent a stereo image pair. The image capturing devices can be arranged on a vehicle, for example, and can be used to capture a section of the surroundings of the vehicle from different viewing angles. Geometric distortions can be eliminated by suitable rectification of the input images. The rectified images can each include a plurality of pixels. For example, each pixel can represent a gray value.

Die Referenzregion kann auf eine geeignete Weise um die Position des Bildpunkts gelegt sein. Es können alle sich in der Referenzregion befindlichen Positionen des entsprechenden Merkmalswerts zugeordnet werden. Typischerweise umfasst die Referenzregion nicht das gesamte Referenzbild. Es können jedoch auch jedem Merkmalswert aus der vorbestimmten Menge von Merkmalswerten Abstände zwischen der Position des Bildpunkts in dem Referenzbild und allen Positionen des entsprechenden Merkmalswerts in dem Referenzbild zugeordnet werden. In einem solchen Fall kann die Referenzregion das gesamte Referenzbild umfassen.The reference region can be placed around the position of the pixel in a suitable way. All positions of the corresponding characteristic value located in the reference region can be assigned. Typically, the reference region does not include the entire reference image. However, each feature value from the predetermined set of feature values can also have distances between the position of the pixel in the reference image and all positions of the corresponding feature value in the reference image be assigned. In such a case, the reference region can encompass the entire reference image.

Die Größe und Positionierung der Suchregion kann auf eine geeignete Weise bestimmt sein oder werden. Dabei kann beispielsweise auf Erfahrungswerte zurückgegriffen werden. Beispielsweise kann zur Platzierung der Suchregion die Zeile der Referenzposition herangezogen werden. Die Suchregion und die Referenzregion können gleich oder unterschiedlich groß sein. Typischerweise umfasst die Suchregion nicht das gesamte Suchbild. Es können jedoch auch Positionswerte für jeden Bildpunkt des Suchbilds bestimmt werden, indem für jeden Bildpunkt des Suchbilds der entsprechende Merkmalswert aus dem Suchbild ausgelesen wird. Entsprechend kann dann anschließend die Häufigkeitsverteilung für die Positionswerte der Bildpunkte des Suchbilds gebildet werden. In einem solchen Fall kann die Suchregion das gesamte Suchbild umfassen.The size and positioning of the search region may be determined in any suitable manner. In this case, for example, empirical values can be used. For example, the line of the reference position can be used to place the search region. The search region and the reference region can be the same or different in size. Typically, the search region does not include the entire search image. However, position values for each pixel of the search image can also be determined by reading out the corresponding feature value from the search image for each pixel of the search image. The frequency distribution for the position values of the pixels of the search image can then be formed accordingly. In such a case, the search region can include the entire search image.

Optional kann das Verfahren entsprechend einen Schritt des Einlesens des ersten Eingangsbilds über eine Schnittstelle zu der ersten Bilderfassungseinrichtung und eines zweiten Eingangsbilds über eine Schnittstelle zu der zweiten Bilderfassungseinrichtung umfassen. Ferner kann das Verfahren optional einen Schritt des Rektifizierens des ersten Eingangsbilds und des zweiten Eingangsbilds umfassen.Optionally, the method can accordingly include a step of reading in the first input image via an interface to the first image acquisition device and a second input image via an interface to the second image acquisition device. Furthermore, the method can optionally include a step of rectifying the first input image and the second input image.

Durch den Schritt des Transformierens kann jedem Bildpunkt, beispielsweise basierend auf den diesen Bildpunkt umgebenden Bildpunkten ein eindeutiger Merkmalswert berechnet werden. Dabei kann auf bekannte Transformationsverfahren zurückgegriffen werden. Auf diese Weise können das Referenzbild und das Suchbild auf gleiche Weise bestimmt werden. Jedem Bildpunkt des Referenzbilds und des Suchbilds kann durch das Transformieren ein Merkmalswert zugeordnet sein.Through the step of transforming, a unique feature value can be calculated for each pixel, for example based on the pixels surrounding this pixel. Known transformation methods can be used here. In this way, the reference image and the search image can be determined in the same way. A feature value can be assigned to each pixel of the reference image and the search image as a result of the transformation.

Beispielsweise kann im Schritt des Transformierens durch die Transformationsvorschrift eine Merkmalsbestimmung gemäß BRIEF (engl. Binary Robust Independent Elementary Features), ORB, BRISK (engl. Binary robust invariant scalable keypoints), oder Census durchgeführt werden. Entsprechende Merkmalsbestimmungen sind beispielsweise aus Rublee Ethan, Orb: an efficient alternative to sift or surf., Computer Vision (ICCV) (2011), Roland Y. Siegwart Leutenegger Stefan, Margarita Chli, Brisk: Binary robust invariant scalable keypoints., Computer Vision (ICCV) (2011), Calonder Michael, Brief: Binary robust independent elementary features., Computer Vision ECCV 2010 (2010) oder Wikipedia, Census-transformation, Wikipedia (2019), Online erhältlich, bekannt.For example, in the transformation step, the transformation rule can be used to determine a feature according to BRIEF (Binary Robust Independent Elementary Features), ORB, BRISK (Binary Robust Invariant Scalable Keypoints), or Census. Corresponding feature definitions can be found, for example, in Rublee Ethan, Orb: an efficient alternative to sift or surf., Computer Vision (ICCV) (2011), Roland Y. Siegwartleutenegger Stefan, Margarita Chli, Brisk: Binary robust invariant scalable keypoints., Computer Vision ( ICCV) (2011), Calonder Michael, Brief: Binary robust independent elementary features., Computer Vision ECCV 2010 (2010) or Wikipedia, Census-transformation, Wikipedia (2019), Available online, known.

Vorteilhafterweise kann die maximale Anzahl unterschiedlicher Merkmalswerte in dem Referenzbild und dem Suchbild beschränkt sein. Beispielsweise kann ein Deskriptor verwendet werden, der 12 oder 14 Bit umfasst, und somit einen Wertevorrat von mindestens 4096 Merkmalen beinhaltet.Advantageously, the maximum number of different feature values in the reference image and the search image can be limited. For example, a descriptor can be used that comprises 12 or 14 bits and thus contains a value store of at least 4096 features.

Im Schritt des Aufbauens kann zunächst für einen ausgewählten Bildpunkt des Referenzbilds eine Abstimmtabelle aufgebaut werden. Die Abstimmtabelle kann eine Liste darstellen, in der alle möglichen Merkmalswerte aufgelistet sind und in der für jeden Merkmalswert zumindest ein Abstand notiert ist, sofern der entsprechende Merkmalswert in dem Referenzbild vorhanden ist. Ist ein Merkmalswert mehrfach vorhanden, so werden für diesen Merkmalswert entsprechend mehrere Abstände notiert. Zum Bestimmen eines Abstands kann eine einfache Differenz zwischen der Position des Bildpunkts in dem Referenzbild und der entsprechenden Position des gerade betrachteten Merkmalswert in dem Referenzbild gebildet werden.In the construction step, a matching table can first be constructed for a selected pixel of the reference image. The matching table can represent a list in which all possible feature values are listed and in which at least one distance is noted for each feature value if the corresponding feature value is present in the reference image. If a characteristic value exists more than once, several distances are noted for this characteristic value. To determine a distance, a simple difference can be formed between the position of the pixel in the reference image and the corresponding position of the currently observed feature value in the reference image.

Im Schritt des Bestimmens können die Merkmalswerte des Suchbilds als Adressen verwendet und die in der Abstimmtabelle eingetragenen Abstände als Offset genutzt werden, um die Positionswerte zu bestimmen.In the determination step, the feature values of the search image can be used as addresses and the distances entered in the matching table can be used as offsets in order to determine the position values.

Im Schritt des Bildens können Häufigkeiten der Positionswerte akkumuliert werden, um die Häufigkeitsverteilung in Form eines akkumulierten Histogramms zu bilden.In the forming step, frequencies of the position values can be accumulated in order to form the frequency distribution in the form of an accumulated histogram.

Im Schritt des Ermittelns kann das Maximum aus der Häufigkeitsverteilung gesucht werden, um den Disparitätswert für den Bildpunkt des Referenzbilds zu ermitteln, für den die im Schritt des Aufbauens die Abstimmtabelle aufgebaut wurde.In the determination step, the maximum from the frequency distribution can be sought in order to determine the disparity value for the pixel of the reference image for which the matching table was constructed in the construction step.

Um für zumindest einen weiteren Bildpunkt des Referenzbild einen Disparitätswert bestimmen zu können, können die genannten Schritte des Aufbauens, Bestimmens, Bildens und Ermittelns für zumindest einen weiteren Bildpunkt des Referenzbilds wiederholt ausgeführt werden.In order to be able to determine a disparity value for at least one further pixel of the reference image, the steps of constructing, determining, forming and determining mentioned can be carried out repeatedly for at least one further pixel of the reference image.

Somit können die Schritte des Aufbauens, Bestimmens, Bildens und Ermittelns für alle Bildpunkte des Referenzbilds wiederholt ausgeführt werden, um für jeden Bildpunkt des Referenzbilds einen Disparitätswert zu bestimmen. Auf diese Weise kann kontinuierlich die Disparität für das gesamte Stereobildpaar bestimmt werden.The steps of constructing, determining, forming and determining can thus be carried out repeatedly for all pixels of the reference image in order to determine a disparity value for each pixel of the reference image. In this way, the disparity for the entire stereo image pair can be continuously determined.

Optional kann das Verfahren einen Schritt des Erfassens des ersten Eingangsbilds unter Verwendung der ersten Bilderfassungseinrichtung und des zweiten Eingangsbilds unter Verwendung der zweiten Bilderfassungseinrichtung umfassen. Auf diese Weise können Eingangsbilder der Bilderfassungseinrichtung direkt nach dem Erfassen verarbeitet werden, um eine Disparitätsinformation zu erhalten.Optionally, the method may include a step of capturing the first input image using the first image capturing device and the second input image using the second image capturing device. on In this way, input images of the image acquisition device can be processed directly after acquisition in order to obtain disparity information.

Beispielsweise kann dabei eine der Bilderfassungseinrichtungen eine Frontkamera und die andere der Bilderfassungseinrichtung eine Seitenkamera eines Fahrzeugs sein. Solche Kameras weisen typischerweise einen sich überschneidenden Erfassungsbereich auf, dieser wird jedoch aus sehr unterschiedlichen Blickwinkeln erfasst, sodass eine Disparitätsbestimmung mittels herkömmlicher Verfahren aufgrund der sich stark unterscheidenden Eingangsbilder häufig nicht möglich ist.For example, one of the image capturing devices can be a front camera and the other of the image capturing devices can be a side camera of a vehicle. Such cameras typically have an overlapping detection area, but this is recorded from very different perspectives, so that a disparity determination using conventional methods is often not possible due to the strongly differing input images.

Gemäß einer Ausführungsform wird das Verfahren um weitere Schritte ergänzt, die zusätzlich zu der Bestimmung der Disparität eine Bestimmung eines Normalenvektors ermöglichen.According to one embodiment, the method is supplemented by further steps which, in addition to determining the disparity, enable a normal vector to be determined.

Dazu weist das Verfahren gemäß einer Ausführungsform einen Schritt des Extrahierens derjenigen der sich in der Suchregion befindlichen Bildpunkte des Suchbilds auf, für die im Schritt des Bestimmens derjenige der Positionswerte bestimmt wurde, der die größte Häufigkeit in der Häufigkeitsverteilung aufweist. In einem Schritt des Bestimmens wird basierend auf dieser Extraktion eine Oberflächennormale aus Positionen der im Schritt des Extrahierens extrahierten Bildpunkte des Suchbilds bestimmt.For this purpose, according to one embodiment, the method has a step of extracting those pixels of the search image located in the search region for which that of the position values was determined in the determination step that has the greatest frequency in the frequency distribution. In a determination step, based on this extraction, a surface normal is determined from positions of the pixels of the search image extracted in the extraction step.

Die genannten Schritte des Extrahierens und Bestimmens der Oberflächennormale können für zumindest einen weiteren Bildpunkt des Referenzbilds wiederholt ausgeführt werden, um zumindest eine weitere Oberflächennormale für den zumindest einen weiteren Bildpunkt des Referenzbilds zu bestimmen.The mentioned steps of extracting and determining the surface normal can be carried out repeatedly for at least one further pixel of the reference image in order to determine at least one further surface normal for the at least one further pixel of the reference image.

Somit können die Schritte des Extrahierens und Bestimmens ebenso wie die zur Bestimmung der Disparität ausgeführten Schritte des Aufbauens, Bestimmens, Bildens und Ermittelns für mehrere oder auch für alle Bildpunkte des Referenzbilds wiederholt ausgeführt werden. Auf diese Weise kann für mehrere oder für jeden Bildpunkt des Referenzbilds sowohl ein Disparitätswert als auch eine Oberflächennormale bestimmt werden. Auf diese Weise kann kontinuierlich die Disparität und Oberflächennormalen für das gesamte Stereobildpaar bestimmt werden.Thus, the steps of extracting and determining as well as the steps of building up, determining, forming and ascertaining carried out to determine the disparity can be carried out repeatedly for a plurality of or also for all pixels of the reference image. In this way, both a disparity value and a surface normal can be determined for several or for each pixel of the reference image. In this way, the disparity and surface normals can be continuously determined for the entire stereo image pair.

Dieses Verfahren kann beispielsweise in Software oder Hardware oder in einer Mischform aus Software und Hardware beispielsweise in einem Steuergerät implementiert sein.This method can be implemented, for example, in software or hardware or in a mixed form of software and hardware, for example in a control unit.

Der hier vorgestellte Ansatz schafft ferner eine Vorrichtung zur Bestimmung einer Disparität, wobei die Vorrichtung ausgebildet ist, um die Schritte einer Variante eines hier vorgestellten Verfahrens in entsprechenden Einrichtungen durchzuführen, anzusteuern bzw. umzusetzen. Auch durch diese Ausführungsvariante der Erfindung in Form einer Vorrichtung kann die der Erfindung zugrunde liegende Aufgabe schnell und effizient gelöst werden.The approach presented here also creates a device for determining a disparity, the device being designed to carry out, control or implement the steps of a variant of a method presented here in corresponding devices. The object on which the invention is based can also be achieved quickly and efficiently by this embodiment variant of the invention in the form of a device.

Hierzu kann die Vorrichtung zumindest eine Recheneinheit zum Verarbeiten von Signalen oder Daten, zumindest eine Speichereinheit zum Speichern von Signalen oder Daten, zumindest eine Schnittstelle zu einem Sensor oder einem Aktor zum Einlesen von Sensorsignalen von dem Sensor oder zum Ausgeben von Daten- oder Steuersignalen an den Aktor und/oder zumindest eine Kommunikationsschnittstelle zum Einlesen oder Ausgeben von Daten aufweisen, die in ein Kommunikationsprotokoll eingebettet sind. Die Recheneinheit kann beispielsweise ein Signalprozessor, ein Mikrocontroller oder dergleichen sein, wobei die Speichereinheit ein Flash-Speicher, ein EEPROM oder eine magnetische Speichereinheit sein kann. Die Kommunikationsschnittstelle kann ausgebildet sein, um Daten drahtlos und/oder leitungsgebunden einzulesen oder auszugeben, wobei eine Kommunikationsschnittstelle, die leitungsgebundene Daten einlesen oder ausgeben kann, diese Daten beispielsweise elektrisch oder optisch aus einer entsprechenden Datenübertragungsleitung einlesen oder in eine entsprechende Datenübertragungsleitung ausgeben kann.For this purpose, the device can have at least one computing unit for processing signals or data, at least one memory unit for storing signals or data, at least one interface to a sensor or an actuator for reading in sensor signals from the sensor or for outputting data or control signals to the Have actuator and / or at least one communication interface for reading or outputting data that are embedded in a communication protocol. The arithmetic unit can be, for example, a signal processor, a microcontroller or the like, with the memory unit being able to be a flash memory, an EEPROM or a magnetic memory unit. The communication interface can be designed to read in or output data wirelessly and/or by wire, wherein a communication interface that can read in or output wire-bound data can, for example, read this data electrically or optically from a corresponding data transmission line or can output it to a corresponding data transmission line.

Der beschriebene Ansatz kann vorteilhaft im Zusammenhang mit einem Fahrzeug umgesetzt werden. Ein solches Fahrzeug kann die genannten Bilderfassungseinrichtung und eine genannte Vorrichtung zur Bestimmung einer Disparität umfassen.The approach described can advantageously be implemented in connection with a vehicle. Such a vehicle can comprise the named image capturing device and a named device for determining a disparity.

Von Vorteil ist auch ein Computerprogrammprodukt oder Computerprogramm mit Programmcode, der auf einem maschinenlesbaren Träger oder Speichermedium wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung, Umsetzung und/oder Ansteuerung der Schritte des Verfahrens nach einer der vorstehend beschriebenen Ausführungsformen verwendet wird, insbesondere wenn das Programmprodukt oder Programm auf einem Computer oder einer Vorrichtung ausgeführt wird.A computer program product or computer program with program code, which can be stored on a machine-readable carrier or storage medium such as a semiconductor memory, a hard disk memory or an optical memory and for carrying out, implementing and/or controlling the steps of the method according to one of the embodiments described above, is also advantageous used, especially when the program product or program is run on a computer or device.

Ausführungsbeispiele des hier vorgestellten Ansatzes sind in den Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert. Es zeigt:

  • 1 eine schematische Darstellung der Projektion einer beobachteten Szene;
  • 2 ein Referenzbild gemäß einem Ausführungsbeispiel;
  • 3 ein Suchbild gemäß einem Ausführungsbeispiel;
  • 4 eine geometrische Sicht einer Bildvorverarbeitung;
  • 5 ein erstes rektifiziertes Bild und ein zweites rektifiziertes Bild gemäß einem Ausführungsbeispiel;
  • 6 ein Fahrzeug mit einer Vorrichtung zum Bestimmen einer Disparität gemäß einem Ausführungsbeispiel;
  • 7 ein erstes Eingangsbild einer ersten Bilderfassungseinrichtung gemäß einem Ausführungsbeispiel;
  • 8 ein zweites Eingangsbild einer zweiten Bilderfassungseinrichtung gemäß einem Ausführungsbeispiel;
  • 9 ein erstes rektifiziertes Bild gemäß einem Ausführungsbeispiel;
  • 10 ein zweites rektifiziertes Bild gemäß einem Ausführungsbeispiel;
  • 11 ein Referenzbild gemäß einem Ausführungsbeispiel;
  • 12 eine Abstimmtabelle gemäß einem Ausführungsbeispiel;
  • 13 ein Suchbild gemäß einem Ausführungsbeispiel;
  • 14 einen Ausschnitt einer Häufigkeitsverteilung gemäß einem Ausführungsbeispiel;
  • 15 ein Blockschaltbild eines Verfahrens zum Bestimmen einer Disparität gemäß einem Ausführungsbeispiel;
  • 16 ein Ablaufdiagramm eines Verfahrens zum Bestimmen einer Disparität gemäß einem Ausführungsbeispiel;
  • 17 eine Szene mit einem erhabenen Objekt gemäß einem Ausführungsbeispiel;
  • 18 ein Referenzbild gemäß einem Ausführungsbeispiel;
  • 19 ein Suchbild gemäß einem Ausführungsbeispiel;
  • 20 ein Referenzbild gemäß einem Ausführungsbeispiel;
  • 21 ein Suchbild gemäß einem Ausführungsbeispiel;
  • 22 ein Blockschaltbild eines Verfahrens zum Bestimmen einer Disparität und einer Oberflächennormalen gemäß einem Ausführungsbeispiel; und
  • 23 ein Ablaufdiagramm eines Verfahrens zum Bestimmen einer Disparität und einer Oberflächennormalen gemäß einem Ausführungsbeispiel.
Exemplary embodiments of the approach presented here are shown in the drawings and explained in more detail in the following description. It shows:
  • 1 a schematic representation of the projection of an observed scene;
  • 2 a reference image according to an embodiment;
  • 3 a search image according to one embodiment;
  • 4 a geometric view of image preprocessing;
  • 5 a first rectified image and a second rectified image according to an embodiment;
  • 6 a vehicle having a device for determining a disparity according to an embodiment;
  • 7 a first input image of a first image capturing device according to an embodiment;
  • 8th a second input image of a second image capturing device according to an embodiment;
  • 9 a first rectified image according to an embodiment;
  • 10 a second rectified image according to an embodiment;
  • 11 a reference image according to an embodiment;
  • 12 a tuning table according to one embodiment;
  • 13 a search image according to one embodiment;
  • 14 a section of a frequency distribution according to an embodiment;
  • 15 a block diagram of a method for determining a disparity according to an embodiment;
  • 16 a flowchart of a method for determining a disparity according to an embodiment;
  • 17 a scene with a raised object according to one embodiment;
  • 18 a reference image according to an embodiment;
  • 19 a search image according to one embodiment;
  • 20 a reference image according to an embodiment;
  • 21 a search image according to one embodiment;
  • 22 a block diagram of a method for determining a disparity and a surface normal according to an embodiment; and
  • 23 a flowchart of a method for determining a disparity and a surface normal according to an embodiment.

In der nachfolgenden Beschreibung günstiger Ausführungsbeispiele der vorliegenden Erfindung werden für die in den verschiedenen Figuren dargestellten und ähnlich wirkenden Elemente gleiche oder ähnliche Bezugszeichen verwendet, wobei auf eine wiederholte Beschreibung dieser Elemente verzichtet wird.In the following description of favorable exemplary embodiments of the present invention, the same or similar reference symbols are used for the elements which are shown in the various figures and have a similar effect, with a repeated description of these elements being dispensed with.

1 zeigt eine schematische Darstellung der Projektion einer beobachteten Szene durch mehrere Kamera-Projektionen. Gezeigt sind reale Objektpunkte Xj, die in einem ersten Eingangsbild 101, einem zweiten Eingangsbild 102 und zumindest einem weiteren Eingangsbild 103 abgebildet werden. Beispielsweise bilden das erste Eingangsbild 101 und das zweite Eingangsbild 102 ein Stereobildpaar. 1 shows a schematic representation of the projection of an observed scene by multiple camera projections. Real object points X j are shown, which are imaged in a first input image 101, a second input image 102 and at least one further input image 103. For example, the first input image 101 and the second input image 102 form a stereo image pair.

Bei der Verarbeitung eines Stereobildpaares im Bereich der Computer-Vision ist ein sehr wichtiger Schritt die Bestimmung der Disparität.When processing a stereo image pair in the field of computer vision, a very important step is the determination of the disparity.

Unter Disparität versteht man den Verschiebungswert eines kleinen Bildausschnittes aus dem sogenannten Referenzbild, beispielsweise dem ersten Eingangsbild 101, zum zweiten Bild des Stereopaares. Aufgrund der Projektion der beobachteten Szene in das Stereobildpaar, werden gleiche Objektpunkte in unterschiedliche Bildregionen projiziert. Die Objektpunkte [Xj] werden in die Bilder 101, 102, 103 jeweils an die Bildpositionen [x1; j], [x2; j] und [x3; j] projiziert.Disparity is understood as meaning the displacement value of a small image section from the so-called reference image, for example the first input image 101, to the second image of the stereo pair. Due to the projection of the observed scene into the stereo image pair, the same object points are projected into different image regions. The object points [X j ] are placed in the images 101, 102, 103 at the image positions [x 1 ; j], [x 2 ; j] and [x 3 ; j] projected.

Der Verschiebungswert zwischen [x1; j] und [x2; j] wird Disparität genannt.The shift value between [x 1 ; j] and [x 2 ; j] is called disparity.

Wenn mit bekannter extrinsischer Kalibrierung [Rn |tn] diese Disparität aus einem Stereobildpaar gemessen wird, lässt sich im Umkehrschluss eine unbekannte Szene durch Triangulation vermessen.If this disparity is measured from a pair of stereo images with a known extrinsic calibration [R n |t n ], an unknown scene can be measured by triangulation.

Zur Bestimmung der Disparität werden Bildausschnitte aus dem Referenzbild, hier beispielsweise das erste Eingangsbild 101, oder einer Transformation des Referenzbildes in ein Featurebild, im Suchbild, hier beispielsweise das zweite Eingangsbild 102 durch Verschiebung um (δx, δy) gesucht.To determine the disparity, image sections from the reference image, here for example the first input image 101, or a transformation of the reference image into a feature image, are searched for in the search image, here for example the second input image 102 by shifting by (δ x , δ y ).

Vorteilhafterweise ist es bei dem hier beschriebenen Ansatz nicht erforderlich, zur Disparitätsmessung zuerst Ähnlichkeitsmaße aufzustellen zwischen einer Referenz-Bildregion und verschobenen Bildregionen im Suchbild.Advantageously, with the approach described here, it is not necessary to first set up similarity measures between a reference image region and shifted image regions in the search image in order to measure the disparity.

Eine solche alternative Disparitätsmessung ist anhand der 2 bis 4 erläutert.Such an alternative disparity measurement is based on the 2 until 4 explained.

2 zeigt ein Referenzbild 201, beispielsweise das in 1 gezeigte erste Eingangsbild, das als Gitter aus Zahlen betrachtet wird. Ein als Referenzregion 203 bezeichneter Ausschnitt im Referenzbild 201 soll im Suchbild gefunden werden. 2 shows a reference image 201, for example the one in 1 shown first input image, which is viewed as a grid of numbers. A section in the reference image 201 designated as reference region 203 is to be found in the search image.

3 zeigt ein entsprechendes Suchbild 302, beispielsweise das in 1 gezeigte zweite Eingangsbild, das als Gitter aus Zahlen betrachtet wird. Der in 2 gezeigte Ausschnitt soll im Suchbild 302 gefunden werden. Dazu wird der ähnlichste Bildausschnitt gesucht, der auch als Suchregion 303 bezeichnet wird. Die Verschiebung δx, δy von der Referenzposition hin zur gefundenen Position im Suchbild 302 ist in diesem Beispiel (1, 2). 3 shows a corresponding search image 302, for example the one in 1 shown second input image, which is viewed as a grid of numbers. the inside 2 The section shown is to be found in the search image 302. For this purpose, the most similar image section, which is also referred to as search region 303, is searched for. The displacement δ x , δ y from the reference position to the position found in the search image 302 is (1, 2) in this example.

Der direkte Vergleich der Bildinformation fasst sowohl den Referenzbildausschnitt als auch das Suchbild als Gitter aus Zahlen anstatt der sichtbaren Farb/Grauwerte auf. In 3 wird beispielhaft die Referenzregion 203 aus den Zahlen g = ( 6,2,4,7 )

Figure DE102021204411A1_0001
im Suchbild 302 gesucht. Alle möglichen Positionen im Suchbild 302 können ebenfalls als 4-dimensionaler Vektor aufgefasst werden. So ist das Gebiet im Suchbild an der Ausgangsposition s 0,0 = ( 1,3,3,5 ) ,
Figure DE102021204411A1_0002
die Differenz wäre g s 0,0 = ( 5, 1,1,2 ) .
Figure DE102021204411A1_0003
The direct comparison of the image information includes both the reference image section and the search image as a grid of numbers instead of the visible color/grey values. In 3 the reference region 203 is exemplified from the numbers G = ( 6,2,4,7 )
Figure DE102021204411A1_0001
searched in search image 302. All possible positions in the search image 302 can also be interpreted as a 4-dimensional vector. So the area in the search image is at the starting position s 0.0 = ( 1,3,3,5 ) ,
Figure DE102021204411A1_0002
the difference would be G s 0.0 = ( 5, 1,1,2 ) .
Figure DE102021204411A1_0003

Nimmt man die Länge als Ähnlichkeitsmaß, so hat man hier in der Stelle (0; 0) einen Wert von 5,568. Der niedrigste Wert findet sich bei einer Verschiebung von (δx, δy) = (1, 2).If you take the length as a measure of similarity, you have a value of 5.568 in the position (0; 0). The lowest value is found at a shift of (δ x , δ y ) = (1, 2).

Durch spezielle Bildvorverarbeitung lässt sich solch eine zweidimensionale Suche auf eine eindimensionale Suche einschränken. Eine Suche erfolgt dann nur noch z.B. in x-Richtung. Ist der X-Wert gefunden, bei dem das gewählte Ähnlichkeitsmaß ein Extremum findet, so ist die Disparität bestimmt.Such a two-dimensional search can be restricted to a one-dimensional search by means of special image pre-processing. A search then only takes place, e.g. in the x-direction. If the X-value is found at which the selected measure of similarity finds an extremum, then the disparity is determined.

4 zeigt die geometrische Sicht dieser Vereinfachung. Ein Objektpunkt X wird in das Stereobildpaar aus erstem Eingangsbild 101 und zweitem Eingangsbild 102 projiziert. Aufenthaltsorte entlang der Sehstrahlen lassen sich in das jeweils andere Bild in eine Gerade auf der Bildfläche zurückführen. Die Projektion des 3D-Objektpunktes X in einem Bild, beispielsweise dem ersten Eingangsbild 101, bestimmt die Lage der Projektion dieses 3D-Punktes im jeweils anderen Bild, beispielsweise dem zweiten Eingangsbild 102. Der Aufenthaltsort kann durch eine Gerade im jeweils anderen Bild eingegrenzt werden. Werden diese Geraden zusätzlich noch so transformiert, dass sich ein Bild ergibt, welches diese Geraden ausschließlich in X-Richtung darstellt, so lässt sich die Disparität sehr einfach mit einer eindimensionalen Suche bestimmen. Dieser Prozess wird Rektifizierung genannt. 4 shows the geometric view of this simplification. An object point X is projected into the stereo image pair made up of the first input image 101 and the second input image 102 . Positions along the lines of sight can be traced back to the respective other image in a straight line on the image surface. The projection of the 3D object point X in an image, for example the first input image 101, determines the position of the projection of this 3D point in the other image, for example the second input image 102. The location can be delimited by a straight line in the other image. If these straight lines are additionally transformed in such a way that an image results that shows these straight lines exclusively in the X-direction, then the disparity can be determined very easily with a one-dimensional search. This process is called rectification.

In 4 sind dazu Kameraprojektionszentren 410, Epipole 412, Bildpunkte 414 und Epipolarlinien 416 gezeigt. Der Bereich 418 wird als Epipolarebene bezeichnet.In 4 camera projection centers 410, epipoles 412, image points 414 and epipolar lines 416 are shown for this purpose. Region 418 is referred to as the epipolar plane.

5 zeigt ein erstes rektifiziertes Bild 501 und ein zweites rektifiziertes Bild 502. Beispielhaft sind dabei die in den 2 und 3 gezeigten Bilder derart transformiert, dass sich eine Disparität d = 2 ergibt. Dabei sind die Bilder derart transformiert, dass sich die Epipolargeraden, wie die gezeigte Epipolargerade 505 jeweils nur in X-Richtung ausbreitet. 5 shows a first rectified image 501 and a second rectified image 502. Examples are those in FIGS 2 and 3 The images shown are transformed in such a way that a disparity d = 2 results. The images are transformed in such a way that the epipolar line, like the epipolar line 505 shown, propagates only in the X-direction.

Im ersten erstes rektifizierten Bild 501 ist eine Referenzregion 203 um den Objektpunkt X gelegt. In dem zweiten rektifizierten Bild 502 ist eine Suchregion 303 dargestellt. Der Referenzbildbereich kann hier nun beispielshaft mit einer Disparität d = 2 wiedergefunden werden.A reference region 203 is placed around the object point X in the first first rectified image 501 . In the second rectified image 502 a search region 303 is shown. The reference image area can now be found again here as an example with a disparity d=2.

6 zeigt ein Fahrzeug 600 mit einer ersten Bilderfassungseinrichtung 601 in Form einer Seitenkamera und einer zweiten Bilderfassungseinrichtung 602 in Form einer Frontkamera. Ferner umfasst das Fahrzeug 600 eine Vorrichtung 610 zum Bestimmen einer Disparität. Die Vorrichtung 610 ist ausgebildet ein Verfahren zum Bestimmen einer Disparität und optional einer Oberflächennormalen durchzuführen, wie es anhand der weiteren Figuren beschrieben ist. Dabei ist die Vorrichtung 610 ausgebildet, um ein erstes Eingangsbild über eine Schnittstelle zu der ersten Bilderfassungseinrichtung 601 und ein zweites Eingangsbild über eine Schnittstelle zu der zweiten Bilderfassungseinrichtung 602 einzulesen und zum Bestimmen der Disparität zu verwenden. Beispielsweise ist die Vorrichtung 610 ausgebildet, um eine Information über die Disparität an ein Fahrerassistenzsystem 615 des Fahrzeugs bereitzustellen. 6 1 shows a vehicle 600 with a first image capturing device 601 in the form of a side camera and a second image capturing device 602 in the form of a front camera. Furthermore, the vehicle 600 includes a device 610 for determining a disparity. The device 610 is designed to carry out a method for determining a disparity and optionally a surface normal, as is described with reference to the further figures. The device 610 is designed to read in a first input image via an interface to the first image acquisition device 601 and a second input image via an interface to the second image acquisition device 602 and to use them to determine the disparity. For example, device 610 is designed to provide information about the disparity to a driver assistance system 615 of the vehicle.

Gemäß einem Ausführungsbeispiel sind die Bilderfassungseinrichtungen 601, 602 jeweils als sogenannte Nahbereichkamera, auch als NRC-Kamera oder Near-Range-Camera bezeichnet, ausgeführt. Die Bilderfassungseinrichtungen 601, 602 werden verwendet, um Bilder der Umgebung des Fahrzeugs 600 aufnehmen. Im gemeinsamen Erfassungsbereich der Bilderfassungseinrichtungen 601, 602 ist im Falle eines weiteren Fahrzeugs auf einer Nebenspur beispielsweise ein Kotflügel mitsamt einem Reifen des weiteren Fahrzeugs sowohl in dem ersten Eingangsbild der ersten Bilderfassungseinrichtung 601, beispielsweise in Form einer linken Seitenspiegelkamera, als auch im zweiten Eingangsbild der zweiten Bilderfassungseinrichtung 602, beispielsweise in Form Bild einer Frontkamera zu sehen.According to one exemplary embodiment, the image acquisition devices 601, 602 are each designed as a so-called close-range camera, also referred to as an NRC camera or near-range camera. The image capturing devices 601, 602 are used to capture images of the surroundings of the vehicle 600. In the common detection area of image capturing devices 601, 602, if there is another vehicle in an adjacent lane, a fender, for example, together with a tire of the other vehicle is in the first input image of the first image capturing device 601, for example in the form of a left side mirror camera, and in the second input image of the second Image acquisition device 602, for example in the form of an image from a front camera.

7 zeigt ein entsprechendes erstes Eingangsbild 101 der in 6 gezeigten ersten Bilderfassungseinrichtung 601, wobei in dem ersten Eingangsbild 101 ein Kotflügel mitsamt einem Reifen des weiteren Fahrzeugs zu erkennen ist. 7 shows a corresponding first input image 101 of FIG 6 shown first image capturing device 601, wherein in the first input image 101 a mudguard together with a tire of the other vehicle can be seen.

8 zeigt ein entsprechendes zweites Eingangsbild 102 der in 6 gezeigten zweiten Bilderfassungseinrichtung 602, wobei in dem zweiten Eingangsbild 102 ebenfalls der Kotflügel mitsamt dem Reifen des weiteren Fahrzeugs zu erkennen ist. 8th shows a corresponding second input image 102 of FIG 6 second image capturing device 602 shown, wherein the fender together with the tire of the other vehicle can also be seen in the second input image 102 .

Vorteilhafterweise kann mit dem hier beschriebenen Ansatz auch bei solcher Aufnahmekonstellation, wie sie in den 7 und 8 gezeigt ist, eine robuste Disparität gefunden werden. Dies ist möglich, obwohl für eine solche Aufnahmekonstellation keine Ähnlichkeitsmaße gefunden werden können, die verschobene Bildausschnitte so bewerten könnten, dass zuverlässige Extrema gefunden werden. Anstelle einer Disparitätssuche, bei der versucht wird ein Ähnlichkeitsmaß zu designen, welches robust, einfach, schnell etc. ist und, das verwendet wird, um ähnliche Bildausschnitte (seien sie im Original-Datenformat als Grau- oder Farbbild, oder durch eine Transformation als ein Feature-Bild gegeben) zu vergleichen, wird bei dem hier beschriebenen Ansatz ein Votingverfahren verwendet, dass aus den Merkmalen, auch als Features bezeichnet, im Referenzbild eine Tabelle aufbaut, die im Suchgebiet benutzt wird, um direkt für die zu suchende Disparität zu stimmen. Es wird kein Ähnlichkeitsmaß für alle möglichen Positionen ermittelt, sondern nach einem Durchlauf über alle Merkmale im Suchgebiet, die Position ausgewählt, für die die meisten Stimmen aus dem Feature-Voting-Verfahren gestimmt haben.Advantageously, with the approach described here, even with such a recording constellation, as in the 7 and 8th shown, a robust disparity can be found. This is possible, although no similarity measures can be found for such a recording constellation that could evaluate shifted image sections in such a way that reliable extremes can be found. Instead of a disparity search, trying to design a similarity measure that is robust, simple, fast, etc., and that is used to find similar image sections (be they in the original data format as a gray or color image, or through a transformation as a feature image), the approach described here uses a voting procedure that uses the features in the reference image to create a table that is used in the search area to vote directly for the disparity to be sought. No measure of similarity is determined for all possible positions, but after a run through all features in the search area, the position is selected for which the most votes from the feature voting process have voted.

Dieses Verfahren ist insbesondere für Stereo-Bildpaare geeignet, die die betreffende Szene aus sehr unterschiedlichen Blickwinkeln betrachten. Hierbei werden die Projektionen der Szene in die Bildebene zu sehr unterschiedlichen Bildern Bildeindrücken führen, wie es anhand von 1 beschrieben ist.This method is particularly suitable for stereo image pairs that view the scene in question from very different perspectives. Here, the projections of the scene into the image plane lead to very different images, as can be seen from 1 is described.

Eine Anwendung dieses Verfahrens ist z.B. in der Fahrerassistenzfunktion zu finden. Es werden derzeit für diverse Fahrerassistenzfunktionen Kameras in den Front-Bereich eines Fahrzeugs (Heckscheibe, Kühlergrill) sowie in die Außenspiegel verbaut. Bilder aus solch einer Konstellation sind in den 7 und 8 zu sehen.An application of this method can be found, for example, in the driver assistance function. Cameras are currently installed in the front area of a vehicle (rear window, radiator grille) and in the exterior mirrors for various driver assistance functions. Pictures from such a constellation are in the 7 and 8th to see.

Das hier beschriebenen Verfahren, umgeht die Ähnlichkeitsmaße, da einzelne Merkmale direkt für die Position im Suchbild stimmen (engl. to vote). The method described here bypasses the similarity measures, since individual features directly vote for the position in the search image.

Anschließend kann ein robustes Maximum innerhalb der Stimmen (engl. Votes) gesucht werden und dadurch die gewünschte Disparität erhalten werden.A robust maximum within the votes can then be sought and the desired disparity can thereby be obtained.

9 zeigt ein erstes rektifiziertes Bild 501, das beispielsweise aus einer Rektifizierung eines ersten Eingangsbilds der in 6 gezeigten ersten Bilderfassungseinrichtung 601 hervorgegangen ist. Das erste rektifizierte Bild 501 zeigt ähnlich zu 7 zumindest einen Kotflügel mitsamt einem Reifen eines weiteren Fahrzeugs. 9 shows a first rectified image 501, which, for example, consists of a rectification of a first input image in 6 shown first image acquisition device 601 has emerged. The first rectified image 501 shows similar to 7 at least one fender along with a tire of another vehicle.

10 zeigt ein zweites rektifiziertes Bild 502, das beispielsweise aus einer Rektifizierung eines zweiten Eingangsbilds der in 6 gezeigten zweiten Bilderfassungseinrichtung 602 hervorgegangen ist. Das zweite rektifizierte Bild 502 zeigt ähnlich zu 8 zumindest den Kotflügel mitsamt dem Reifen des weiteren Fahrzeugs. 10 shows a second rectified image 502, which, for example, consists of a rectification of a second input image in FIG 6 shown second image capturing device 602 has emerged. The second rectified image 502 shows similar to 8th at least the fender along with the tires of the other vehicle.

Aus den 7 bis 10 ist zu erkennen, dass die Seitenkamera und die Frontkamera beispielsweise ein überholendes Fahrzeug aus sehr unterschiedlichen Richtungen betrachten. Eine Rektifizierung ergibt die in den 9 und 10 gezeigten rektifizierten Bilder 501, 502, die mit herkömmlichen Ähnlichkeitsmaßen nicht mehr robust zu vergleichen sind. Hier kann das hier beschriebene voting-basierte Verfahren robuste Disparitäten bestimmen.From the 7 until 10 it can be seen that the side camera and the front camera view, for example, an overtaking vehicle from very different directions. A rectification results in the 9 and 10 shown rectified images 501, 502, which can no longer be compared robustly with conventional similarity measures. The voting-based method described here can determine robust disparities here.

Das hier beschriebene Verfahren ist somit insbesondere für Stereo-Bildpaare geeignet, die die betreffende Szene aus sehr unterschiedlichen Blickwinkeln betrachten. Hierbei werden die Projektionen der Szene in die Bildebene, also die Rektifizierung, zu sehr unterschiedlichen Bildeindrücken führen, wie es aus den 9 und 10 ersichtlich ist.The method described here is therefore particularly suitable for stereo image pairs that view the scene in question from very different perspectives. Here, the projections of the scene into the image plane, i.e. the rectification, lead to very different image impressions, as can be seen from the 9 and 10 is evident.

Grundlage des hier beschriebenen Verfahrens ist zunächst eine Transformation des Eingangsbildes, nach erfolgter geometrischen Rektifizierung, in ein Merkmalbild, auch Featurebild genannt, für das zu jedem Punkt aufgrund der Umgebung ein eindeutiger Merkmalswert, auch Featurewert genannt, berechnet wird.The method described here is initially based on a transformation of the input image, after geometric rectification has taken place, into a feature image, also called feature image, for which a unique feature value, also called feature value, is calculated for each point based on the environment.

11 zeigt ein Referenzbild 1101 gemäß einem Ausführungsbeispiel. Beispielsweise wird das Referenzbild 1101 durch Transformieren eines ersten rektifizierten Bilds generiert, wie es beispielhaft in 5 links oder in 9 gezeigt ist. Dazu kann eine Transformationsvorschrift verwendet werden, die jedem Bildpunkt des ersten rektifizierten Bilds einen Merkmalswert aus einer vorbestimmten Menge von Merkmalswerten zuordnet. Somit stellt das Referenzbild 1101 ein Merkmalbild dar, auch Feature Bild genannt. 11 11 shows a reference image 1101 according to an embodiment. For example, the reference image 1101 is generated by transforming a first rectified image, as exemplified in 5 left or in 9 is shown. A transformation rule can be used for this purpose, which assigns a feature value from a predetermined set of feature values to each pixel of the first rectified image. The reference image 1101 thus represents a feature image, also called a feature image.

Das Referenzbild 1101 setzt sich aus Merkmalswerten zusammen, die in einer Mehrzahl von Zeilen und Spalten angeordnet sind. Beispielsweise sind in der ersten Zeile des Referenzbilds 1101 die Merkmalswerte 12, 08, 15, 02, 09, 14 eingetragen.The reference image 1101 is composed of feature values that are in a plurality of Rows and columns are arranged. For example, the feature values 12, 08, 15, 02, 09, 14 are entered in the first line of the reference image 1101 .

Wird als Transformationsvorschrift beispielsweise die Census-Transformation verwendet, so wird beispielsweise der Grauwert eines Bildpunkts des in 5 gezeigten rektifizierten ersten Bilds einzeln mit den Grauwert der benachbarten Bildpunkte verglichen und das Ergebnis wird als Merkmalswert in dem Referenzbild 1101 an der Position 1110 des betrachteten Bildpunkts abgespeichert.If, for example, the census transformation is used as the transformation rule, the gray value of a pixel of the in 5 shown rectified first image compared individually with the gray value of the neighboring pixels and the result is stored as a feature value in the reference image 1101 at the position 1110 of the observed pixel.

Wird beispielsweise das erste rektifizierte Bild aus 5 mit einem Algorithmus in das Referenzbild 1101 mit dem Wertebereich von [0, ...,15] transformiert so ergibt sich eine Abstimmtabelle mit maximal 16 Adressen.For example, will the first rectified image be 5 transformed with an algorithm into the reference image 1101 with the value range of [0,...,15], this results in a voting table with a maximum of 16 addresses.

Die beim Transformieren des ersten rektifizierten Bilds durchgeführte Merkmalsberechnung kann mit diversen aus der Literatur bekannten Verfahren, wie z.B. BRIEF, ORB, BRISK, Census oder weiteren Featuregeneratoren erfolgen und ist für die grundsätzliche Ausprägung des hier beschriebenen Ansatzes nicht von Interesse. Beispielsweise bieten sich im Computer-Vision Bereich, in dem Matchingaufgaben gelöst werden sollen, Binäre Deskriptoren als Merkmale an.The feature calculation carried out when transforming the first rectified image can be carried out with various methods known from the literature, such as BRIEF, ORB, BRISK, Census or other feature generators and is not of interest for the basic form of the approach described here. For example, in the field of computer vision, in which matching tasks are to be solved, binary descriptors are available as features.

Die grundlegende Frage bei der Bestimmung der Disparität ist auch bei dem hier beschriebenen Ansatz, wo im Suchbereich der verschobene Bildbereich ist. In 11 ist beispielhaft ein transformiertes Featurebildpaar angegeben. Der Objektpunkt X im Referenzbild 1101 zeigt wie im original rektifizierten Bild, beispielsweise gezeigt in 5, auf (x = 1,5 I y = 1,5). Da wegen der vorrangegangenen Rektifizierung nur der X-Wert interessiert, werden im Anschluss die Stimmen nur auf den X-Wert 1,5 der Bild-Koordinate bezogen.The basic question when determining the disparity is also with the approach described here, where in the search area is the shifted image area. In 11 a transformed pair of feature images is given as an example. The object point X in the reference image 1101 shows as in the original rectified image, e.g. shown in 5 , on (x = 1.5 I y = 1.5). Since only the x-value is of interest due to the previous rectification, the votes are then only related to the x-value of 1.5 of the image coordinates.

Die verschiedenen Merkmalswerte werden einmal durchlaufen und die Differenz der eigenen Feature-Position, also der Position des entsprechenden Merkmalswerts, und der Projektion des zu evaluierenden Objektpunktes, also der Position 1110 des Bildpunkts, hier x = 1,5, als Abstand, auch als Delta-X-Wert bezeichnet, in die Abstimmtabelle eingetragen, wie es in 12 gezeigt ist.The various feature values are run through once and the difference between the feature's own position, i.e. the position of the corresponding feature value, and the projection of the object point to be evaluated, i.e. the position 1110 of the pixel, here x = 1.5, as a distance, also as a delta -X value, entered in the reconciliation table, as in 12 is shown.

Gemäß einem Ausführungsbeispiel werden das gesamte Referenzbild und das gesamte Suchbild transformiert. Für die Bestimmung der Disparität eines Punktes (egal ob sukzessive über das Bild iteriert wird, oder nur einzelne Punkte herausgegriffen werden) wird gemäß einem Ausführungsbeispiel eine Referenzregion um den Punkt, hier beispielhaft den Objektpunkt X, im Referenzbild 1101 genutzt. Für die Referenzregion wird die Abstimmtabelle aufgebaut. Die Referenzregion wird mit einer anderen Region, die als Suchregion bezeichnet wird, im Suchbild ausgewertet. In diesem Fall wird nicht das ganze Suchbild, sondern ein im Suchbild gelegenes Gebiet um die Zeile der Referenzposition ausgewertet. Referenzregion und Suchregion müssen nicht gleich groß sein, im Regelfall ist die Suchregion größer, aber im Normalfall ist die Referenzregion nicht das ganze Referenzbild 1101, sowie auch die Suchregion nicht das ganze Suchbild umfasst.According to one embodiment, the entire reference image and the entire search image are transformed. To determine the disparity of a point (regardless of whether the image is iterated successively or only individual points are picked out), a reference region around the point, here by way of example the object point X, in the reference image 1101 is used according to one exemplary embodiment. The tuning table is built for the reference region. The reference region is evaluated with another region called the search region in the search image. In this case, not the entire search image is evaluated, but an area located in the search image around the line of the reference position. The reference region and search region do not have to be the same size, the search region is usually larger, but the reference region is not normally the entire reference image 1101, and the search region does not include the entire search image.

12 zeigt eine Abstimmtabelle 1220 gemäß einem Ausführungsbeispiel. In der ersten Spalte sind alle Merkmalswerte 1222 aus der vorbestimmten Menge von Merkmalswerten aufgetragen, hier die Merkmalswerte 00 bis 15. Für jeden der Merkmalswerte 1222 sind in den weiteren Spalten der Abstimmtabelle Abstände 1224 eingetragen. Die Merkmalswerte 1222 werden auch als Feature und die Abstände 1224 auch als Delta bezeichnet. 12 1220 shows a tuning table 1220 according to one embodiment. All feature values 1222 from the predetermined set of feature values are entered in the first column, here the feature values 00 to 15. For each of the feature values 1222, distances 1224 are entered in the other columns of the matching table. The feature values 1222 are also referred to as features and the distances 1224 are also referred to as delta.

Für den Merkmalswert 00 ist beispielsweise der Abstand -0,5 eingetragen, da die Differenz zwischen der X-Position des Merkmalswert 00 in dem in 11 gezeigten Referenzbilds 1101 und der X-Position des Objektpunkts X -0,5 ergibt. For example, the distance -0.5 is entered for the characteristic value 00, since the difference between the X position of the characteristic value 00 in the in 11 shown reference image 1101 and the X position of the object point X -0.5.

Für den Merkmalswert 01 ist kein Abstand eingetragen, da der Merkmalswert 01 in dem in 11 gezeigten Referenzbild 1101 nicht enthalten ist.No distance is entered for characteristic value 01, since characteristic value 01 is in the in 11 shown reference image 1101 is not included.

Für den Merkmalswert 02 ist ein erster Abstand +1,5, ein zweiter Abstand -0,5 und ein dritter Abstand -1,5 eingetragen, da der Merkmalswert 02 in dem in 11 gezeigten Referenzbild 1101 dreimal enthalten ist. Die Differenzen zwischen den X-Positionen der Merkmalswerte 02 in dem in 11 gezeigten Referenzbilds 1101 und der X-Position des Objektpunkts X ergibt die genannten Abstände +1,5, -0,5 und -1,5.A first distance +1.5, a second distance -0.5 and a third distance -1.5 are entered for the feature value 02, since the feature value 02 in the in 11 reference image 1101 shown is included three times. The differences between the X positions of the characteristic values 02 in the in 11 The reference image 1101 shown and the X position of the object point X result in the stated distances of +1.5, -0.5 and -1.5.

Für die weiteren Merkmalswerte 03 bis 15 werden in entsprechender Weise Abstände bestimmt und in die Abstimmtabelle 1220 eingetragen.For the other feature values 03 to 15, distances are determined in a corresponding manner and entered into the matching table 1220.

Auf diese Weise werden zu jedem Merkmalswert die Delta-X-Werte zur Projektion des Objektpunktes gespeichert.In this way, the delta X values for projecting the object point are stored for each feature value.

Der beschriebene Aufbau der Abstimmtabelle 1220 in Form einer Feature-Delta-X-Tabelle dient als Vorbereitung eines Disparitätsvotings im anschließenden Voting im Suchbild.The described structure of the voting table 1220 in the form of a feature delta X table serves as a preparation for a disparity voting in the subsequent voting in the search image.

Ist die Abstimmtabelle 1220, die auch als Votingtabelle bezeichnet wird, einmal aufgebaut, so werden im Suchbild an jeder Stelle des Merkmalbildes alle Tabelleneinträge als Stimmen für die Projektion im Suchbild aufgefasst.Once the voting table 1220, which is also referred to as a voting table, has been set up, all table entries at each point of the feature image in the search image are interpreted as votes for the projection in the search image.

Die Beschränkung der Merkmalswerte auf 16 ist dabei lediglich beispielhaft gewählt. Typischerweise werden mehr als 16 Merkmalswerte verwendet, beispielsweise mindestens 4096 bei Verwendung eines Deskriptors mit mindestens 12 bit. Die Anzahl der Merkmalswerte spielt dabei eine untergeordnete Rolle. Unabhängig von der Codierung wird ein Merkmalsraum verwendet, der ganzzahlig und endlich ist oder zumindest auf ganzzahlig abbildbar ist.The restriction of the feature values to 16 is only chosen as an example. Typically more than 16 feature values are used, for example at least 4096 when using a descriptor with at least 12 bits. The number of characteristic values plays a subordinate role. Regardless of the coding, a feature space is used that is integer and finite or at least can be mapped to integer.

13 zeigt ein Suchbild 1302 gemäß einem Ausführungsbeispiel. Beispielsweise wird das Suchbild 1302 durch Transformieren eines zweiten rektifizierten Bilds generiert, wie es beispielhaft in 5 rechts oder in 10 gezeigt ist. Dazu kann dieselbe Transformationsvorschrift verwendet werden, die zur Bestimmung des Referenzbilds eingesetzt wird. Somit stellt das Suchbild 1302 ein weiteres Merkmalbild dar, auch Feature Bild genannt. 13 Figure 13 shows a search image 1302 according to one embodiment. For example, the search image 1302 is generated by transforming a second rectified image, as exemplified in 5 right or in 10 is shown. The same transformation rule that is used to determine the reference image can be used for this. The search image 1302 thus represents another feature image, also called a feature image.

Das Suchbild 1302 setzt sich demnach entsprechend zu dem Referenzbild aus Merkmalswerten zusammen. Jedem Bildpunkt des Suchbilds 1302 ist dabei ein Merkmalswert zugeordnet.The search image 1302 is accordingly composed of feature values corresponding to the reference image. A feature value is assigned to each pixel of the search image 1302 .

In 13 ist die Nutzung der aus dem Referenzbild aufgebauten Abstimmtabelle dargestellt. Dazu werden im Suchbild 1302 die Merkmalswerte als Adresse genutzt und die in der Abstimmtabelle gespeicherten Abstände als Offset genutzt.In 13 shows the use of the matching table built from the reference image. For this purpose, the feature values are used as an address in the search image 1302 and the distances stored in the matching table are used as an offset.

Beispielhaft sind in 13 im Suchbild 1302 für die Merkmalswerte 12 und 05 die in der in 12 gezeigten Abstimmtabelle für die Merkmalswerte 12 und 05 eingetragenen Abstände als Verschiebungsvektoren eingetragen.Examples are in 13 in the search screen 1302 for the characteristic values 12 and 05 in the in 12 distances entered in the matching table shown for the feature values 12 and 05 are entered as displacement vectors.

Die Verschiebungsvektoren zeigen auf Positionen, die als Positionswerte verwendet werden.The displacement vectors point to positions that are used as position values.

Beispielsweise ist dem in der ersten Spalte und ersten Zeile des Suchbilds 1302 angeordneten erstem Bildpunkt der Merkmalswert 14 zugeordnet. In der in 12 gezeigten Abstimmtabelle sind für den Merkmalswert 14 die Abstände - 2,5 sowie -3,5 eingetragen. Aus der X-Position des ersten Bildpunkts, hier 0, 5 und den genannten Abständen -2,5 sowie -3,5 ergeben sich zwei Positionswerte, nämlich -2 und -3.For example, the feature value 14 is assigned to the first pixel arranged in the first column and first row of the search image 1302 . in the in 12 The voting table shown shows the distances -2.5 and -3.5 for the feature value 14. Two position values, namely -2 and -3, result from the X position of the first pixel, here 0.5, and the specified distances -2.5 and -3.5.

Wenn für alle Bildpunkte und somit alle Merkmalswerte im Suchbild 1302 Positionswerte ermittelt wurden, wird gemäß einem Ausführungsbeispiel eine Häufigkeitsverteilung über alle ermittelten Positionswerte gebildet.If position values have been determined for all pixels and thus all feature values in the search image 1302, a frequency distribution over all determined position values is formed according to one exemplary embodiment.

Anhand von 13 und der nachfolgenden 14 ist ein somit ein Tabellenaufbau und anschließendes Voting in einem aufakkumuliertem Histogramm dargestellt. Based on 13 and the following one 14 is a table structure and subsequent voting in an accumulated histogram.

14 zeigt einen Ausschnitt einer Häufigkeitsverteilung 1400 gemäß einem Ausführungsbeispiel. In der zweiten Zeile sind dabei diejenigen Positionswerte 1402 eingetragen, die wie anhand von 13 beschrieben anhand des Suchbilds ermittelt wurden. In der ersten Zeile ist eine Häufigkeit der jeweiligen Positionswerte 1402 eingetragen. 14 shows a section of a frequency distribution 1400 according to an embodiment. In the second line, those position values 1402 are entered which, as based on 13 described were determined using the search image. A frequency of the respective position values 1402 is entered in the first line.

Aus der Häufigkeitsverteilung 1400 geht hervor, dass basierend auf allen Bildpunkten und somit Merkmalswerten des anhand von 13 gezeigten Suchbilds und der anhand von 12 gezeigten Abstimmtabelle der Positionswert 0,5 zweimal, der Positionswert 1,5 achtmal, der Positionswert 2,5 siebenmal, der Positionswert 3,5 vierundzwanzigmal und der Positionswert 4,5 zweimal ermittelt wurden.The frequency distribution 1400 shows that based on all pixels and thus feature values of the 13 shown search image and based on 12 shown tuning table the position value 0.5 twice, the position value 1.5 eight times, the position value 2.5 seven times, the position value 3.5 twenty-four times and the position value 4.5 twice.

Die Abstände der Abstimmtabelle als Offsets zusammen mit den Merkmalspositionen im Suchbild werden in einem dazu in einem Histogramm aufakkumuliert.The distances of the matching table as offsets together with the feature positions in the search image are accumulated in a histogram.

Werden alle Stimmen, also Votes, in einem Histogramm auf akkumuliert so ergibt sich für dieses Beispiel die in 14 dargestellte Verteilung. Das Maximum der Votes bildet sich in der Position 3,5 aus. Wird davon der Ausgangswert x = 1,5 abgezogen ergibt sich die Disparität d = 2. Als Ausgangswert wird dazu die X-Position des Bildpunkts in dem in 11 gezeigten Referenzbild verwendet, für den die in 12 gezeigte Abstimmtabelle bestimmt wurde.If all voices, i.e. votes, are accumulated in a histogram, the result for this example is in 14 shown distribution. The maximum number of votes is in position 3.5. If the initial value x = 1.5 is subtracted from this, the disparity d = 2 results. The initial value is the X position of the pixel in the in 11 used for the reference image shown in 12 shown tuning table was determined.

15 zeigt ein Blockschaltbild eines Verfahrens zum Bestimmen einer Disparität gemäß einem Ausführungsbeispiel. Das Verfahren stellt dabei ein Voting-Verfahren zum Bestimmen eines Disparitätsbildes 1500 dar. 15 shows a block diagram of a method for determining a disparity according to an embodiment. The method represents a voting method for determining a disparity image 1500.

Eine erste Bilderfassungseinrichtung 601 stellt ein erstes Eingangsbild 101 und eine zweite Bilderfassungseinrichtung 602 stellt ein zweites Eingangsbild 102 bereit. Das erste Eingangsbild 101 wird in einem Schritt 1510 einer Rektifizierung unterworfen, um ein erstes rektifiziertes Bild 501 zu erhalten. Entsprechend wird das zweite Eingangsbild 102 in einem Schritt 1512 einer Rektifizierung unterworfen, um ein zweites rektifiziertes Bild 502 zu erhalten.A first image capture device 601 provides a first input image 101 and a second image capture device 602 provides a second input image 102 . The first input image 101 is rectified in a step 1510 to obtain a first rectified image 501 . Correspondingly, the second input image 102 is subjected to a rectification in a step 1512 in order to obtain a second rectified image 502 .

Das erste rektifizierte Bild 501 wird in einem Schritt 1514 in ein Referenzbild 1101 transformiert und das zweite rektifizierte Bild 502 wird in einem Schritt 1516 in ein Suchbild 1302 transformiert.The first rectified image 501 is transformed into a reference image 1101 in a step 1514 and the second rectified image 502 is transformed into a search image 1302 in a step 1516 .

In einem Schritt 1520 wird für einen Bildpunkt des Referenzbilds 1101 eine Abstimmtabelle 1220 aufgebaut. In einem Schritt 1522 wird eine Abstimmung durchgeführt. Dazu werden unter Verwendung des Suchbilds 1302 und der Abstimmtabelle 1220 Positionswerte 1402 für jeden Bildpunkt des Suchbilds 1302 ermittelt. In einem Schritt 1524 wird ein Histogramm aufgebaut. Dazu wird eine Häufigkeitsverteilung 1400 der ermittelten Positionswerte 1402 gebildet. In einem Schritt 1526 wird eine Disparität bestimmt. Dazu wird unter Verwendung der Häufigkeitsverteilung 1400 ein Disparitätswert 1528 für denjenigen Bildpunkt des Referenzbilds 1101 ermittelt, für den die Schritte 1520, 1522, 1524, 1526 soeben ausgeführt wurden.In a step 1520 a matching table 1220 is built for a pixel of the reference image 1101 . In a step 1522 a vote is taken carried out. For this purpose, position values 1402 are determined for each pixel of the search image 1302 using the search image 1302 and the matching table 1220 . In a step 1524, a histogram is built. For this purpose, a frequency distribution 1400 of the determined position values 1402 is formed. In a step 1526, a disparity is determined. For this purpose, using the frequency distribution 1400, a disparity value 1528 is determined for that pixel of the reference image 1101 for which the steps 1520, 1522, 1524, 1526 have just been carried out.

In einem Schritt 1529 wird ein nächster Bildpunkt an einer weiteren Position p des Referenzbilds 1101 ausgewählt und die Schritte 1520, 1522, 1524, 1526 werden für diesen Bildpunkt wiederholt ausgeführt, um einen weiteren Disparitätswert 1528 für diesen Bildpunkt zu ermitteln.In a step 1529, a next pixel is selected at a further position p of the reference image 1101 and steps 1520, 1522, 1524, 1526 are repeated for this pixel in order to determine a further disparity value 1528 for this pixel.

Gemäß einem Ausführungsbeispiel werden die Schritte 1520, 1522, 1524, 1526 für jeden Bildpunkt des Referenzbilds 1101 durchgeführt also für jede Position p aus (nxm), wobei n und m die Anzahl der Zeilen und Spalten des Referenzbilds 1101 darstellen.According to an exemplary embodiment, steps 1520, 1522, 1524, 1526 are carried out for each pixel of reference image 1101, ie for each position p from (n×m), where n and m represent the number of rows and columns in reference image 1101.

Im Folgenden wird das Verfahren anhand eines Ausführungsbeispiels detailliert beschrieben. Dabei werden am Anfang Stereo-Bildpaare herkömmlich rektifiziert 1510, 1512. Das Verfahren ermittelt daraus das Disparitätsbild 1500, welches danach wiederum in einer herkömmlichen Triangulation 1530 in einer gemessenen 3D-Welt-Beschreibung 1532 münden kann.The method is described in detail below using an exemplary embodiment. At the beginning, stereo image pairs are conventionally rectified 1510, 1512. From this, the method determines the disparity image 1500, which can then in turn lead to a conventional triangulation 1530 in a measured 3D world description 1532.

Das Blockschaltbild zeigt die prinzipiellen Verarbeitungsschritte und deren Abfolge des Verfahrens. Nach einer herkömmlichen Rektifizierung 1510, 1512 wird aus dem Original-Stereobildpaar das rektifizierte Bildpaar erhalten, in dem die Objektpunkte der beobachteten 3D-Welt gegenseitig auf Zeilen im Bild liegen, wie es beispielsweise anhand von 5 gezeigt ist.The block diagram shows the basic processing steps and their sequence of the procedure. After a conventional rectification 1510, 1512, the rectified pair of images is obtained from the original stereo image pair, in which the object points of the observed 3D world lie on lines in the image, as is the case, for example, using 5 is shown.

Dazu notwendig ist eine Kamerakalibrierung, die die Rotation R und die Translation t

Figure DE102021204411A1_0004
innerhalb des Kamerapaares beschreibt. Auf diesen rektifizierten Eingangsbildern wird nun in den Schritten 1514, 1516 eine Feature-Transformation durchgeführt, so dass ein Feature-Stereobildpaar erhalten wird, das sich aus dem Referenzbild 1101 und dem Suchbild 1302 zusammensetzt.This requires a camera calibration that includes the rotation R and the translation t
Figure DE102021204411A1_0004
within the camera pair describes. A feature transformation is now carried out on these rectified input images in steps 1514, 1516, so that a feature stereo image pair is obtained, which is composed of the reference image 1101 and the search image 1302.

Um für jede Position im Feature-Referenzbild 1101 mit einer Auflösung von n * m eine Disparität zu bestimmen, wird der folgende Block mit den Schritten 1520, 1522, 1524, 1526 n * m wiederholt.In order to determine a disparity for each position in the feature reference image 1101 with a resolution of n*m, the following block with steps 1520, 1522, 1524, 1526 n*m is repeated.

Es wird dazu, wie anhand der vorangegangenen Figuren beschrieben, zumindest aus einer Referenzregion des Referenzbilds 1101 die Abstimmtabelle 1220 aufgebaut, in der der Abstand eines Merkmalwerts zur momentan betrachteten Bildposition den Offset für das spätere Abstimmen darstellt.For this purpose, as described with reference to the previous figures, the matching table 1220 is set up from at least one reference region of the reference image 1101, in which the distance of a feature value from the currently observed image position represents the offset for the later matching.

Das Abstimmen wird nach erfolgreich aufgebauter Abstimmtabelle 1220 für das Feature-Suchbild 1302 ausgeführt. Die Merkmalswerte zumindest in einer Suchregion im Suchbild 1302 dienen als Adresse in die Abstimmtabelle 1220 und stimmen jeweils mit den gesammelten Abständen für die korrespondierende Bildposition. All diese Stimmen werden in einem Histogramm auf akkumuliert, so dass anschließend das Maximum der Stimmen bestimmt werden kann. Die gewünschte Disparität ist die Differenz aus aktueller Referenzposition und dem Maximum des Abstimm-Histogramms, hier der Häufigkeitsverteilung 1400.The matching is performed after the matching table 1220 for the feature search image 1302 has been successfully built. The feature values in at least one search region in the search image 1302 serve as an address in the matching table 1220 and each match the collected distances for the corresponding image position. All of these votes are accumulated in a histogram so that the maximum number of votes can then be determined. The desired disparity is the difference between the current reference position and the maximum of the voting histogram, here the frequency distribution 1400.

Die Gesamtheit aller Disparitäten wird in dem Disparitätsbild 1500 gespeichert. Dieses Resultat wird optional in die traditionelle Triangulation gegeben, um aus der bereits genutzten Kalibrierung eine 3D-Beschreibung der beobachteten Welt zu erschließen.The entirety of all disparities is stored in the disparity image 1500 . This result is optionally entered into traditional triangulation in order to derive a 3D description of the observed world from the calibration already used.

Die beschriebene Schätzung von Disparitäten kann die Nutzung von Kamerabildern erleichtern, die eine Szene aus sehr unterschiedlichen Blickwinkeln betrachten. Der beschriebene Ansatz kann in jedem Multikamerasystem eingesetzt werden und bei einem Produktwechsel und/oder - update zum Einsatz kommen. Solche Multikamerasysteme können beispielsweise in Kraftfahrzeugen eingebaut werden. Das vorgestellte Verfahren kann aber auch in anderen Domänen zum Einsatz kommen, in dem Kameras die Umgebung sensieren und Disparitäten gesucht werden.The disparity estimation described above can facilitate the use of camera images that view a scene from very different perspectives. The approach described can be used in any multi-camera system and can be used in the event of a product change and/or update. Such multi-camera systems can be built into motor vehicles, for example. However, the method presented can also be used in other domains, in which cameras sense the environment and disparities are sought.

Gemäß einem Ausführungsbeispiel wird das Verfahren im Zusammenhang mit Fahrerassistenzsystemen eingesetzt, die eine Frontsensorik in Kombination mit anderen Kameras nutzen. Auch eignet sich der beschriebene Ansatz für das Gebiet der Near-Range-Kameras. Der Ansatz ermöglicht eine Vermessung der Umwelt durch Sensoren, die bislang in diesem Gebiet noch nicht eingesetzt werden konnten.According to one exemplary embodiment, the method is used in connection with driver assistance systems that use a front sensor system in combination with other cameras. The approach described is also suitable for the field of near-range cameras. The approach enables the environment to be surveyed using sensors that have not previously been used in this area.

16 zeigt ein Ablaufdiagramm eines Verfahrens zum Bestimmen einer Disparität gemäß einem Ausführungsbeispiel. Das Verfahren kann beispielsweise unter Verwendung einer Vorrichtung ausgeführt werden, wie sie anhand von 6 gezeigt ist. 16 shows a flow chart of a method for determining a disparity according to an embodiment. The method can be carried out, for example, using an apparatus as is based on FIG 6 is shown.

In einem Schritt 1514 wird ein erstes rektifiziertes Bild in ein Referenzbild transformiert, wie es beispielsweise in 11 gezeigt ist. Dabei wird eine Transformationsvorschrift eingesetzt, die jedem Bildpunkt des ersten rektifizierten Bilds einen Merkmalswert aus einer vorbestimmten Menge von Merkmalswerten zuordnet. In einem Schritt 1516 wird ein zweites rektifiziertes Bild in ein Suchbild transformiert, wie es beispielsweise in 13 gezeigt ist. Dabei kann dieselbe Transformationsvorschrift wie im Schritt 1514 eingesetzt werden.In a step 1514, a first rectified image is transformed into a reference image as is for example in 11 is shown. In this case, a transformation rule is used which assigns a feature value from a predetermined set of feature values to each pixel of the first rectified image. In a step 1516, a second rectified image is transformed into a search image, such as that shown in FIG 13 is shown. The same transformation rule as in step 1514 can be used here.

In einem Schritt 1520 wird eine Abstimmtabelle, wie sie beispielsweise in 12 gezeigt ist, für einen Bildpunkt des Referenzbilds aufgebaut. Dazu wird jedem möglichen Merkmalswert, sofern vorhanden, ein Abstand oder bei mehrfachem Vorkommen des Merkmalswerts mehrere Abstände zwischen einer Position des Bildpunkts in dem Referenzbild und allen Positionen des entsprechenden Merkmalswerts in dem Referenzbild zugeordnet.In a step 1520, a matching table such as that shown in FIG 12 shown, is constructed for a pixel of the reference image. For this purpose, each possible feature value, if present, is assigned a distance or, if the feature value occurs multiple times, several distances between a position of the pixel in the reference image and all positions of the corresponding feature value in the reference image.

Gemäß einem Ausführungsbeispiel wird im Schritt 1520 eine Referenzregion um die Position des Bildpunkts im Referenzbild gelegt. In diesem Fall wird zum Aufbauen der Abstimmtabelle im Schritt 1520 nur die Referenzregion betrachtet. Dazu wird jedem möglichen Merkmalswert, sofern vorhanden, ein Abstand oder bei mehrfachem Vorkommen des Merkmalswerts mehrere Abstände zwischen einer Position des Bildpunkts in dem Referenzbild und allen sich in der Referenzregion befindlichen Positionen des entsprechenden Merkmalswerts in dem Referenzbild zugeordnet.According to one embodiment, in step 1520 a reference region is placed around the position of the pixel in the reference image. In this case, only the reference region is considered in step 1520 to build the tuning table. To this end, each possible feature value, if present, is assigned a distance or, if the feature value occurs multiple times, several distances between a position of the pixel in the reference image and all positions of the corresponding feature value in the reference image located in the reference region.

In einem Schritt 1522 werden Positionswerten, wie sie in 14 dargestellt sind, 1402 für jeden Bildpunkt des Suchbilds bestimmt. Dazu wird für jeden Bildpunkt des Suchbilds der entsprechende Merkmalswert aus dem Suchbild ausgelesen, die dem entsprechenden Merkmalswert zugeordneten Abstände aus der Abstimmtabelle ausgelesen und es werden die Positionswerte aus der Position des Bildpunkts und den Abständen ermittelt.In a step 1522, position values as defined in 14 are shown are determined 1402 for each pixel of the search image. To do this, the corresponding feature value is read from the search image for each pixel of the search image, the distances assigned to the corresponding feature value are read from the matching table, and the position values are determined from the position of the pixel and the distances.

Gemäß einem Ausführungsbeispiel wird im Schritt 1522 eine Suchregion im Suchbild festgelegt. In diesem Fall wird für jeden sich in der Suchregion befindlichen Bildpunkt des Suchbilds der entsprechende Merkmalswert aus dem Suchbild ausgelesen, die dem entsprechenden Merkmalswert zugeordneten Abstände aus der Abstimmtabelle ausgelesen und die Positionswerte aus der Position des Bildpunkts und den Abständen ermittelt.According to one embodiment, in step 1522 a search region is specified in the search image. In this case, for each pixel of the search image located in the search region, the corresponding feature value is read from the search image, the distances assigned to the corresponding feature value are read from the matching table, and the position values are determined from the position of the pixel and the distances.

In einem Schritt 1524 wird eine Häufigkeitsverteilung, wie sie beispielsweise in 14 gezeigt ist, für die im Schritt 1522 ermittelten Positionswerte gebildet.In a step 1524, a frequency distribution, such as that shown in 14 is shown, is formed for the position values determined in step 1522 .

Wenn im Schritt 1522 eine Suchregion verwendet wird, wird im Schritt 1524 die Häufigkeitsverteilung für die Positionswerte der sich in der Suchregion befindlichen Bildpunkte des Suchbilds gebildet.If a search region is used in step 1522, in step 1524 the frequency distribution for the position values of the pixels of the search image located in the search region is formed.

In einem Schritt 1526 wird ein Disparitätswert für den genannten Bildpunkt des Referenzbilds ermittelt. Dazu wird derjenige der Positionswerte aus der Häufigkeitsverteilung herausgesucht, der die größte Häufigkeit in der Häufigkeitsverteilung aufweist. Von diesem am häufigsten auftretenden Positionswert wird zum Ermitteln des Disparitätswerts die Position, beispielsweise ein die Position repräsentierender Koordinatenwert, des genannten Bildpunkts abgezogen.In a step 1526, a disparity value is determined for the named pixel of the reference image. To do this, the position value that has the greatest frequency in the frequency distribution is selected from the frequency distribution. To determine the disparity value, the position, for example a coordinate value representing the position, of the named pixel is subtracted from this most frequently occurring position value.

Um für jeden Bildpunkt des Referenzbilds oder zumindest mehrere Bildpunkte des Referenzbilds einen Disparitätswert zu bestimmen, werden die Schritte 1520, 1522, 1524, 1526 für die entsprechenden weiteren Bildpunkte wiederholt ausgeführt. Die Bildpunkte können zu einem Disparitätsbild zusammengefasst werden, wie es in 15 beschrieben ist.In order to determine a disparity value for each pixel of the reference image or at least a plurality of pixels of the reference image, steps 1520, 1522, 1524, 1526 are carried out repeatedly for the corresponding further pixels. The pixels can be combined to form a disparity image, as shown in 15 is described.

Die rektifizierten Bilder können in einem Schritt des Einlesens über eine Schnittstelle eingelesen werden. Zusätzlich oder alternativ umfasst das Verfahren einen Schritt 1510, in dem das erste rektifizierte Bild aus einem ersten Eingangsbilds bestimmt wird. Entsprechend umfasst das Verfahren in diesem Fall einen Schritt 1512, in dem das zweite rektifizierte Bild aus einem zweiten Eingangsbild bestimmt wird.The rectified images can be read in via an interface in one reading step. Additionally or alternatively, the method includes a step 1510 in which the first rectified image is determined from a first input image. Correspondingly, in this case the method comprises a step 1512 in which the second rectified image is determined from a second input image.

Gemäß unterschiedlichen Ausführungsbeispielen werden die Eingangsbilder eingelesen oder in einem Schritt 1630 unter Verwendung zumindest einer Bilderfassungseinrichtung erfasst. Wenn nur eine Bilderfassungseinrichtung eingesetzt wird, können die Eingangsbilder zu unterschiedlichen Zeitpunkten erfasst werden oder worden sein.According to different exemplary embodiments, the input images are read in or captured in a step 1630 using at least one image capture device. If only one image capture device is used, the input images may be or may have been captured at different points in time.

Die Schritte des Verfahrens können in einer geeigneten Vorrichtung umgesetzt werden, die dazu beispielsweise eine Transformationseinrichtung zum Transformieren der rektifizierten Bilder, eine Aufbaueinrichtung zum Aufbauen der Abstimmtabelle, eine Bestimmungseinrichtung zum Bestimmen der Positionswerte, eine Bildungseinrichtung zum Bilden einer Häufigkeitsverteilung und eine Ermittlungseinrichtung zum Ermitteln des Disparitätswerts aufweist.The steps of the method can be implemented in a suitable device which, for example, has a transformation device for transforming the rectified images, a construction device for construction of the matching table, a determination device for determining the position values, a formation device for forming a frequency distribution and a determination device for determining the disparity value having.

Gemäß einem Ausführungsbeispiel wird das beschriebene Voting-Verfahren verwendet, um eine gleichzeitige Bestimmung von Disparität und Oberflächennormalen des beobachteten Objektausschnitts in einem StereoBildpaar zu ermöglichen.According to one embodiment, the voting method described is used to enable a simultaneous determination of disparity and surface normal of the observed object section in a stereo image pair.

Wie bereits ausgeführt, wird unter Disparität der Verschiebungswert eines kleinen Bildausschnittes aus dem sogenannten Referenzbild zum zweiten Bild des Stereopaares verstanden. So ist in 4 mit Hilfe der extrinsischen Kalibrierung das Stereobildpaar 101, 102 bereits derart rektifiziert, dass ohne Einschränkung der Allgemeinheit, die Suche eines Referenz-Bildausschnittes eindimensional auf einer Geraden im Suchbild erfolgen kann. Die Ermittlung des Disparitätswertes ist beispielsweise anhand von 15 mittels eines Voting-Verfahrens erklärt.As already explained, under disparity the displacement value of a small image section from the so-called reference image becomes the second Image of the stereo pair understood. So is in 4 with the aid of the extrinsic calibration, the stereo image pair 101, 102 is already rectified in such a way that the search for a reference image section can be carried out one-dimensionally on a straight line in the search image without loss of generality. The determination of the disparity value is, for example, based on 15 explained by means of a voting procedure.

Die erfolgreiche Suche des Referenzausschnittes im Suchbild, beispielsweise in 5 dargestellt, geht in den Standardfällen davon aus, dass eine rein translatorische Bewegung der Bildausschnitte zueinander vorliegt. Wie bereits ausgeführt, ermöglicht das Voting-Verfahren eine Robustifizierung der Disparitätsschättzung.The successful search for the reference section in the search image, for example in 5 shown, assumes in the standard cases that there is a purely translational movement of the image sections to one another. As already explained, the voting method enables the disparity estimation to be robustened.

In vielen Fällen ist neben der Disparität des betrachteten Objektpunktes, welche ein Maß für die Entfernung des Objektes darstellt, ebenfalls die Oberflächennormale von Interesse.In many cases, the surface normal is also of interest in addition to the disparity of the observed object point, which represents a measure of the distance of the object.

Dies ist beispielsweise relevant, wenn sich die Frage stellt, ob es sich bei dem Objektpunkt um eine vor der Kamera aufragenden Wand handelt oder ob der Bildausschnitt zur Straßenoberfläche gehört.This is relevant, for example, when the question arises as to whether the object point is a wall rising up in front of the camera or whether the image section belongs to the street surface.

In Punkte aufragender Wand würde aus geometrischer Sicht die Disparität mit einer translatorischen Bewegung beschrieben werden können. Sowohl das Verfahren anhand der vorangegangenen Figuren beschriebene Verfahren als auch viele weitere bekannte Verfahren erzielen hierbei gute Ergebnisse.From a geometric point of view, the disparity could be described with a translatory movement in points of a rising wall. Both the method described with reference to the previous figures and many other known methods achieve good results here.

Schon bei Verletzung dieser rein translatorischen Annahme ist das Voting-Verfahren in Vorteil, bei entsprechend gut gewählten Merkmalen, auch als Features bezeichnet, die die Stimmen (engl. Votes) abgeben.Even if this purely translational assumption is violated, the voting procedure has an advantage if the characteristics are well chosen, also referred to as features that cast the votes.

Allen bislang erwähnten Verfahren ist jedoch gemein, dass sie ausschließlich die Disparität bestimmen und die Oberflächennormale außer Acht lassen.However, all the methods mentioned so far have in common that they only determine the disparity and ignore the surface normal.

Gemäß den im Folgenenden beschriebenen Ausführungsbeispielen wird die Disparitätssuche und eine Bestimmung der Oberflächennormalen nicht in zwei separaten Schritten durchgeführt, wie beispielsweise erstmal die Bestimmung der Disparität, und anschließend in einer lokalen Nachbarschaft eine Oberflächenschätzung von der die Oberflächen-Normale bestimmt wird. Vielmehr wird gemäß den beschriebenen Ausführungsbeispielen eine zeitgleiche Bestimmung von Disparität und Oberflächennormalen durchgeführt.According to the exemplary embodiments described below, the disparity search and a determination of the surface normal are not carried out in two separate steps, such as first determining the disparity and then in a local neighborhood a surface estimation from which the surface normal is determined. Rather, according to the exemplary embodiments described, a simultaneous determination of disparity and surface normals is carried out.

Dazu wird das anhand der vorangegangenen Figuren beschriebe Votingverfahren genutzt, wobei aus den Merkmalen und deren Position im Suchbild, die für die resultierende Disparität gestimmt haben, die Oberflächennormale bestimmt wird. Dies erfolgt, ohne dass in einem zweiten nachgelagerten Schritt in einer lokalen Nachbarschaft die ermittelten Disparitäten untersucht würden.For this purpose, the voting method described with reference to the previous figures is used, with the surface normal being determined from the features and their position in the search image that voted for the resulting disparity. This is done without examining the identified disparities in a local neighborhood in a second subsequent step.

Dieses Verfahren ist insbesondere für Anwendungen geeignet, die eine Szene beobachten, in der vorzugsweise verschiedene Oberflächennormalen vorhanden sind.This method is particularly suitable for applications that observe a scene in which there are preferably different surface normals.

Diese Vorgehensweise wird im Folgenden anhand der 17 bis 21 erläutert.This procedure is explained below using the 17 until 21 explained.

17 zeigt eine entsprechende Szene, beispielhaft im automotive Bereich, bei der Oberflächen von erhabenen Objekten, beispielsweise Fahrzeugoberflächen von Fahrzeugen wie einem LKW 1701 auf einer Straßenoberfläche 1703 aufragen. Die Straßenoberfläche 1703 steht dabei beispielhaft für eine Bodenebene. 17 shows a corresponding scene, for example in the automotive sector, in which the surfaces of raised objects, for example vehicle surfaces of vehicles such as a truck 1701, rise up on a road surface 1703. The road surface 1703 is an example of a ground plane.

18 stellt ein Referenzbild 1801 gemäß einem Ausführungsbeispiel dar, in dem die bereits anhand von 17 gezeigte Szene abgebildet wird. Es ist eine Referenzposition 1805 und ein Referenzbildausschnitt 1807 gezeigt, wie sie beispielsweise anhand von 3 bereits beschrieben sind. Der Referenzbildausschnitt 1807 befindet sich an einer Seitenwand des LKWs 1701 und somit an einer in Bezug zur Straßenoberfläche 1703 erhabenen und abgewinkelten Fläche. 18 represents a reference image 1801 according to an embodiment, in which the already based on 17 scene shown is depicted. A reference position 1805 and a reference image section 1807 are shown, as they are shown, for example, with reference to FIG 3 are already described. The reference image section 1807 is located on a side wall of the truck 1701 and thus on a surface that is raised and angled in relation to the road surface 1703 .

Der Referenzbildausschnitt 1807, der auch als Bildausschnitt bezeichnet wird, wird an der Referenzposition 1805 im Referenzbild 1801 betrachtet. Die Positionen um die Referenzposition 1805 sind gemäß einem Ausführungsbeispiel farbig eindeutig markiert.The reference image section 1807, which is also referred to as an image section, is viewed at the reference position 1805 in the reference image 1801. According to one exemplary embodiment, the positions around the reference position 1805 are clearly marked in color.

19 stellt ein Suchbild 1901 gemäß einem Ausführungsbeispiel dar, in dem die bereits anhand von 18 gezeigte Szene abgebildet wird. Mit dem anhand der 1 bis 16 beschriebenen Voting-Verfahren zur Disparitätsbestimmung wurde für den Referenzbildausschnitt 1807 eine Disparität bestimmt. Die Merkmale, die für diese Disparität gestimmt haben, erhalten gemäß einem Ausführungsbeispiel die Ausgangsfarbe gemäß der Referenzposition 1805. 19 represents a search image 1901 according to an embodiment in which the already based on 18 scene shown is depicted. With the based on the 1 until 16 A disparity was determined for the reference image detail 1807 using the voting method described for determining the disparity. According to one embodiment, the features that voted for this disparity receive the output color according to the reference position 1805.

20 stellt das anhand von 18 beschriebene Referenzbild 1801 dar. Es ist eine weitere Referenzposition 2005 und ein weiterer Referenzbildausschnitt 2007 gezeigt. Der weitere Referenzbildausschnitt 2007 befindet sich auf der Straßenoberfläche 1703. 20 sets that based on 18 described reference image 1801. A further reference position 2005 and a further reference image section 2007 are shown. The further reference image section 2007 is located on the road surface 1703.

21 stellt ein Suchbild 1901 gemäß einem Ausführungsbeispiel dar, in dem die bereits anhand von 20 gezeigte Szene abgebildet wird. Mit dem anhand der 1 bis 16 beschriebenen Voting-Verfahren zur Disparitätsbestimmung wurde für den weiteren Referenzbildausschnitt 2007 eine Disparität bestimmt. Die Merkmale, die für diese Disparität gestimmt haben, erhalten gemäß einem Ausführungsbeispiel die Ausgangsfarbe gemäß der Referenzposition 2005. 21 represents a search image 1901 according to an embodiment in which the already based on 20 scene shown is depicted. With the based on the 1 until 16 A disparity was determined for the further reference image section 2007 using the voting method described for determining the disparity. According to one embodiment, the features that voted for this disparity receive the output color according to the reference position 2005.

Im Gegensatz zu dem in 19 gezeigten Resultat aus dem LKW-Ausschnitt, ist hier ein Parallelogramm entstanden. Die Merkmale sind nicht nur rein translatorisch verschoben, sondern wurden perspektivisch verzerrt. Das Maß der Verzerrung entspricht der Oberflächennormalen.In contrast to the in 19 shown result from the truck section, a parallelogram has been created here. The features are not only shifted purely translationally, but have been distorted in perspective. The amount of distortion corresponds to the surface normal.

Das anhand der 17 bis 21 illustrierte Verfahren zur zeitglichen Bestimmung Disparität und Normalenvektor mittels Voting-Verfahren ist insbesondere für Stereo-Bildpaare wie das Referenzbild 1801 und das Suchbild 1901 geeignet, die eine Szene mit Objekten mit unterschiedlichen Oberflächennormalen zeigt. Vorzugsweise im automotive Bereich bei der Sensierung des Fahrzeugumfeldes ist die Straßenoberfläche 1703 zu sehen, auf der die beobachteten Objekte, beispielsweise der LKW 1701, platziert sind.That based on 17 until 21 The method illustrated for the temporal determination of disparity and normal vector by means of a voting method is particularly suitable for stereo image pairs such as the reference image 1801 and the search image 1901, which shows a scene with objects with different surface normals. The road surface 1703 on which the observed objects, for example the truck 1701, are placed can be seen preferably in the automotive area when sensing the vehicle surroundings.

In einer solchen Szene ist es häufig sinnvoll zusätzlich zur Disparität auch eine Oberflächennormale zu bestimmen, um Objekte für eine bessere Szenenanalyse von der Straßenoberfläche 1703 semantisch zu trennen.In such a scene, it often makes sense to determine a surface normal in addition to the disparity in order to semantically separate objects from the road surface 1703 for better scene analysis.

Vorteilhafterweise kann die Bestimmung dieser beiden Größen in einem Schritt robust mittels eines Voting-Verfahrens durchgeführt werden. Eine ansonsten erforderliche Zweitteilung, also zunächst Disparitätsbestimmung und anschließend in einer lokalen Umgebung die Berechnung der Oberflächennormalen, kann somit in einem Verfahren vereinigt werden.Advantageously, these two variables can be determined in a robust manner in one step using a voting method. A second division that would otherwise be necessary, ie first determining the disparity and then calculating the surface normal in a local environment, can thus be combined in one method.

Ausgehend von der Szene in 17 können somit zwei verschiedene Bildbereiche exemplarisch betrachtet werden. Zum einen kann beispielhaft ein Bildausschnitt aus dem LKW 1701 betrachtet werden, wie es in 18 gezeigt ist, zum anderen ein Ausschnitt aus der Pflasterung der Straßen, oder besser gesagt Straßenoberfläche 1703 oder Parkplatzoberfläche herausgegriffen werden, wie es in 20 gezeigt ist.Starting from the scene in 17 two different image areas can thus be viewed as an example. On the one hand, an image section from truck 1701 can be viewed as an example, as shown in 18 is shown, on the other hand a section of the paving of the streets, or rather street surface 1703 or parking lot surface can be picked out, as it is in 20 is shown.

Das anhand der 1 bis 16 beschriebene Votingverfahren nutzt Merkmale innerhalb dieser Bildausschnitte, hier des Referenzbildausschnitts 1807 und des weiteren Referenzbildausschnitts 2007, und votiert mit der Entfernung zum Mittelpunkt des Bildausschnittes für die gesuchte Disparität. Die Positionen rund um den Referenzpunkt, um den sich der entsprechende Referenzbildausschnitt 1807, 2007 spannt, ist in 18 im LKW-Ausschnitt gekennzeichnet. Beispielhaft sind die Positionen farbig gekennzeichnet.That based on 1 until 16 The voting method described uses features within these image sections, here the reference image section 1807 and the further reference image section 2007, and votes with the distance to the center of the image section for the disparity sought. The positions around the reference point, around which the corresponding reference image section 1807, 2007 spans, is in 18 marked in the truck cutout. The positions are marked in color as an example.

Im Falle des LKW-Ausschnitts sind in 19 die Merkmale dargestellt, die für die gesuchte Disparität gestimmt haben. Dabei ist eine Gleichförmigkeit in Bezug zu der in 18 gezeigten Darstellung des Referenzbildausschnitts 1807 zu erkennen. Die Lücken lassen sich in der Regel in realen Bildern nicht vermeiden, da nicht alle Merkmale ideal in beiden Bildern vorkommen. Das rechteckige Gebiet des Referenzausschnittes 1807 ist im Suchbild 1901 ebenfalls rechteckig.In the case of the truck cutout are in 19 the characteristics are presented that voted for the sought-after disparity. A uniformity in relation to the in 18 shown representation of the reference image detail 1807 to recognize. As a rule, the gaps cannot be avoided in real images, since not all features ideally occur in both images. The rectangular area of the reference section 1807 is also rectangular in the search image 1901 .

Im Fall der Straßenoberfläche 1703 sieht das aber anders aus. Auch hier wurde exemplarisch ein Gebiet ausgewählt und in 21 mittels des Voting-Verfahrens im Suchbild 1901 gefunden und farblich gekennzeichnet. Was auffällt ist nun die Parallelogramm-Verzerrung des unterlegten Bereiches, welches ja die Position der für die Disparität votierenden Merkmale wieder spiegelt.In the case of the road surface 1703, however, things are different. Here, too, an area was selected as an example and 21 found using the voting process in search image 1901 and marked in colour. What is striking is the parallelogram distortion of the underlying area, which reflects the position of the features voting for the disparity.

22 zeigt ein Blockschaltbild eines Verfahrens zum Bestimmen einer Disparität gemäß einem Ausführungsbeispiel. Das Verfahren stellt dabei ein Voting-Verfahren zum Bestimmen eines Disparitätsbildes 1500 und zusätzlich eines Oberflächen-Normalen-Bilds 2200 dar. 22 shows a block diagram of a method for determining a disparity according to an embodiment. The method represents a voting method for determining a disparity image 1500 and, in addition, a surface normal image 2200.

Wie bereits anhand von 15 beschrieben, wird eine erste Bilderfassungseinrichtung 601 verwendet, um das erste Eingangsbild 101 bereitzustellen und die zweite Bilderfassungseinrichtung 602 wird verwendet, um das zweite Eingangsbild 102 bereitzustellen. Das erste Eingangsbild 101 wird in dem Schritt 1510 einer Rektifizierung unterworfen, um das erste rektifizierte Bild 501 zu erhalten. Entsprechend wird das zweite Eingangsbild 102 in dem Schritt 1512 einer Rektifizierung unterworfen, um das zweite rektifizierte Bild 502 zu erhalten.As already based on 15 described, a first image capturing device 601 is used to provide the first input image 101 and the second image capturing device 602 is used to provide the second input image 102 . The first input image 101 is rectified in step 1510 to obtain the first rectified image 501 . Correspondingly, the second input image 102 is subjected to rectification in step 1512 in order to obtain the second rectified image 502 .

Das erste rektifizierte Bild 501 wird in dem Schritt 1514 in das Referenzbild 1101 transformiert und das zweite rektifizierte Bild 502 wird in dem Schritt 1516 in das Suchbild 1302 transformiert.The first rectified image 501 is transformed into the reference image 1101 in step 1514 and the second rectified image 502 is transformed into the search image 1302 in step 1516 .

In dem Schritt 1520 wird für einen Bildpunkt des Referenzbilds 1101 die Abstimmtabelle 1220 aufgebaut. In dem Schritt 1522 wird eine Abstimmung durchgeführt. Dazu werden unter Verwendung des Suchbilds 1302 und der Abstimmtabelle 1220 Positionswerte 1402 für jeden Bildpunkt des Suchbilds 1302 ermittelt. In dem Schritt 1524 wird das Histogramm aufgebaut. Dazu wird die Häufigkeitsverteilung 1400 der ermittelten Positionswerte 1402 gebildet. In dem Schritt 1526 wird die Disparität bestimmt. Dazu wird unter Verwendung der Häufigkeitsverteilung 1400 der Disparitätswert 1528 für denjenigen Bildpunkt des Referenzbilds 1101 ermittelt, für den die Schritte 1520, 1522, 1524 soeben ausgeführt wurden.In step 1520 the matching table 1220 is built for a pixel of the reference image 1101 . In step 1522 a vote is performed. For this purpose, position values 1402 are determined for each pixel of the search image 1302 using the search image 1302 and the matching table 1220 . In step 1524 the histogram is built. For this purpose, the frequency distribution 1400 of the determined position values 1402 educated. In step 1526, the disparity is determined. For this purpose, using the frequency distribution 1400, the disparity value 1528 is determined for that pixel of the reference image 1101 for which the steps 1520, 1522, 1524 have just been carried out.

Abweichend von der Beschreibung in 15 werden gemäß dem anhand von 22 beschriebenen Ausführungsbeispiel zusätzlich ein Schritt 2230 des Extrahierens und ein Schritt 2232 des Bestimmens einer Oberflächennormale ausgeführt.Deviating from the description in 15 are in accordance with the basis of 22 described exemplary embodiment, a step 2230 of extracting and a step 2232 of determining a surface normal are additionally executed.

In dem Schritt 2230 werden diejenigen der sich in der Suchregion befindlichen Bildpunkte des Suchbilds 1302 extrahiert, für die im Schritt 1522 derjenige der Positionswerte 1402 bestimmt wurde, der die größte Häufigkeit in der Häufigkeitsverteilung 1400 aufweist. In dem Schritt 2232 wird anschließend die Oberflächennormale 2234 aus Positionen der im Schritt 2230 des Extrahierens extrahierten Bildpunkte des Suchbilds 1302 bestimmt.In step 2230 those pixels of the search image 1302 located in the search region are extracted for which in step 1522 that of the position values 1402 was determined that has the greatest frequency in the frequency distribution 1400 . In step 2232, the surface normal 2234 is then determined from positions of the pixels of the search image 1302 extracted in step 2230 of extraction.

Durch Ausführen des Schritts 1529 wird, wie anhand von 15 beschrieben, ein nächster Bildpunkt an einer weiteren Position p des Referenzbilds 1101 ausgewählt und die Schritte 1520, 1522, 1524, 1526, 2230, 2232 werden für diesen Bildpunkt wiederholt ausgeführt, um sowohl einen weiteren Disparitätswert 1528 als auch eine weitere Oberflächennormale 2234 für diesen Bildpunkt zu ermitteln.Executing step 1529, as shown in FIG 15 described, a next pixel is selected at a further position p of the reference image 1101 and the steps 1520, 1522, 1524, 1526, 2230, 2232 are repeatedly carried out for this pixel in order to generate both a further disparity value 1528 and a further surface normal 2234 for this pixel to investigate.

Gemäß einem Ausführungsbeispiel werden die Schritte 1520, 1522, 1524, 1526, 2230, 2232 für jeden Bildpunkt des Referenzbilds 1101 durchgeführt also für jede Position p aus (nxm), wobei n und m die Anzahl der Zeilen und Spalten des Referenzbilds 1101 darstellen.According to an exemplary embodiment, steps 1520, 1522, 1524, 1526, 2230, 2232 are carried out for each pixel of the reference image 1101, i.e. for each position p from (n×m), where n and m represent the number of rows and columns in the reference image 1101.

Basierend auf den auf diese Weise ermittelten Oberflächennormalen 2234 wird optional das Oberflächen-Normalen-Bild 2200 der 3D-Welt ermittelt.Based on the surface normals 2234 determined in this way, the surface normal image 2200 of the 3D world is optionally determined.

Die in 22 in Form eines Blockschaltbilds gezeigten prinzipiellen Verarbeitungsschritte und deren Abfolge gliedern sich in das bereits anhand von 15 beschriebene Blockschaltbild in den Voting-Schritt für jeden Bildpunkt hinein. Als Resultat des Voting-Verfahrens wird gemäß einem Ausführungsbeispiel die Disparitätskarte und gleichzeitig eine Karte der Oberflächennormalen erhalten. Dazu werden nach der Disparitätsbestimmung die Positionen der erfolgreichen Merkmale ermittelt und wie anhand der 16 bis 21 beschrieben die Oberflächennormale 2234 im gleichen Verarbeitungsschritt bestimmt. Die Gesamtheit aller Disparitäten und Oberflächennormalen 2234 bilden das Disparitätsbild 1500 und das Oberflächen-Normalen-Bild 2200.In the 22 The basic processing steps shown in the form of a block diagram and their sequence are divided into the already based on 15 described block diagram into the voting step for each pixel. According to one exemplary embodiment, the result of the voting method is the disparity map and, at the same time, a map of the surface normals. For this purpose, after determining the disparity, the positions of the successful characteristics are determined and how using the 16 until 21 described, the surface normal 2234 is determined in the same processing step. The totality of all disparities and surface normals 2234 form the disparity image 1500 and the surface normal image 2200.

Das bereits anhand von 15 beschriebenen Voting-Verfahren zur Bestimmung des Disparitätsbildes 1500 wird dazu entsprechend dem hier beschriebenen Ausführungsbeispiel um die Blöcke erweitert, die die Schritte 2230, 2232 repräsentieren. Es wird aus dem Voting-Verfahren heraus gleichzeitig die Disparität und der Normalenvektor des betrachteten Oberflächen-Referenzpunktes geschätzt. Die Positionen der „erfolgreichen“ Votes für die ermittelte Disparität ergeben aus der perspektivischen Verzerrung die Oberflächennormale 2234 in jedem untersuchten Bildpunkt.That already based on 15 For this purpose, the voting method described for determining the disparity image 1500 is expanded in accordance with the exemplary embodiment described here by the blocks which represent the steps 2230, 2232. The disparity and the normal vector of the surface reference point under consideration are simultaneously estimated from the voting procedure. The positions of the "successful" votes for the determined disparity result from the perspective distortion in the surface normal 2234 in each examined pixel.

Die gleichzeitige Schätzung von Disparitäten, auch als Disparitätswerte 1528 bezeichnet, und Oberflächennormalen 2234 kann beispielsweise in jedem Multikamerasystem eingesetzt werden und bei einem Produktwechsel und/oder -update zum Einsatz kommen. Die Bilderfassungseinrichtungen 601, 602 können in Kraftfahrzeugen eingebaut werden, aber auch in anderen Domänen zum Einsatz kommen, in dem Kameras die Umgebung sensieren und Disparitäten mitsamt der zugehörigen Oberflächennormalen 2234 gesucht werden. Somit kann der beschriebene Ansatz beispielsweise bei Fahrerassistenzsystemen, sowohl für die Frontsensorik als auch in Kombination mit anderen Fahrzeug-Kameras eingesetzt werden.The simultaneous estimation of disparities, also referred to as disparity values 1528, and surface normals 2234 can be used in any multi-camera system, for example, and can be used during a product change and/or update. The image capturing devices 601, 602 can be installed in motor vehicles, but can also be used in other domains, in which cameras sense the surroundings and disparities together with the associated surface normals 2234 are searched for. Thus, the approach described can be used, for example, in driver assistance systems, both for the front sensors and in combination with other vehicle cameras.

23 zeigt ein Ablaufdiagramm eines Verfahrens zum Bestimmen einer Disparität und zusätzlich einer Oberflächennormalen gemäß einem Ausführungsbeispiel. Das Verfahren kann beispielsweise unter Verwendung einer Vorrichtung ausgeführt werden, wie sie anhand von 6 gezeigt ist. 23 shows a flowchart of a method for determining a disparity and additionally a surface normal according to an embodiment. The method can be carried out, for example, using an apparatus as is based on FIG 6 is shown.

Neben den anhand von 16 bereits beschriebenen erforderlichen oder optionalen Schritten 1510, 1512, 1514, 1516, 1520, 1522, 1524, 1526, 1630 umfasst das in 23 gezeigte Ablaufdiagramm ferner die bereits anhand von 22 beschriebenen Schritte 2230, 2232.In addition to the based on 16 The required or optional steps 1510, 1512, 1514, 1516, 1520, 1522, 1524, 1526, 1630 already described in 23 shown flowchart also the already based on 22 described steps 2230, 2232.

In dem Schritt 2230 wird zunächst auf den häufigsten Positionswert zurückgegriffen, also auf denjenigen Positionswert, der in der Häufigkeitsverteilung die größte Häufigkeit aufgewiesen hat. Anschließend werden die diejenigen der sich in der Suchregion befindlichen Bildpunkte des Suchbilds extrahiert, für die im Schritt 1522 dieser häufigste Positionswert bestimmt wurde. In dem Schritt 2232 wird anschließend die Oberflächennormale 2234 aus Positionen der im Schritt 2230 des Extrahierens extrahierten Bildpunkte des Suchbilds 1302 bestimmt.In step 2230, the most frequent position value is first accessed, ie that position value which has the greatest frequency in the frequency distribution. Then those pixels of the search image located in the search region are extracted for which this most frequent position value was determined in step 1522 . In step 2232, the surface normal 2234 is then determined from positions of the pixels of the search image 1302 extracted in step 2230 of extraction.

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent Literature Cited

  • DE 19636028 C1 [0003]DE 19636028 C1 [0003]

Claims (14)

Verfahren zum Bestimmen einer Disparität, wobei das Verfahren die folgenden Schritte umfasst: Einlesen eines ersten rektifizierten Bilds (501) und eines zweiten rektifizierten Bilds (502); Transformieren (1514, 1516) des ersten rektifizierten Bilds (501) in ein Referenzbild (1101; 1801) unter Verwendung einer Transformationsvorschrift die jedem Bildpunkt des ersten rektifizierten Bilds (501) einen Merkmalswert aus einer vorbestimmten Menge von Merkmalswerten (1222) zuordnet, und des zweiten rektifizierten Bilds (502) in ein Suchbild (1303; 1901) unter Verwendung der Transformationsvorschrift die jedem Bildpunkt des zweiten rektifizierten Bilds (502) einen Merkmalswert aus der vorbestimmten Menge von Merkmalswerten (1222) zuordnet; Aufbauen (1520) einer Abstimmtabelle (1220) für einen Bildpunkt des Referenzbilds (1101; 1801), indem jedem Merkmalswert aus der vorbestimmten Menge von Merkmalswerten (1222) Abstände (1224) zwischen einer Position (1110) des Bildpunkts in dem Referenzbild (1101; 1801) und zumindest sich in einer Referenzregion (203) um die Position (1110) des Bildpunkts befindlichen Positionen des entsprechenden Merkmalswerts in dem Referenzbild (1101; 1801) zugeordnet werden; Bestimmen (1522) von Positionswerten (1402) für zumindest jeden sich in einer Suchregion (303) befindlichen Bildpunkt des Suchbilds (1303; 1901), indem für jeden sich in der Suchregion (303) befindlichen Bildpunkt des Suchbilds (1303; 1901) der entsprechende Merkmalswert aus dem Suchbild (1303; 1901) ausgelesen wird, die dem entsprechenden Merkmalswert zugeordneten Abstände (1224) aus der Abstimmtabelle (1220) ausgelesen werden und die Positionswerte (1402) aus der Position (1110) des Bildpunkts und den Abständen (1224) ermittelt werden; Bilden (1524) einer Häufigkeitsverteilung (1400) für die Positionswerte (1402) der sich in der Suchregion befindlichen Bildpunkte des Suchbilds (1303; 1901); und Ermitteln (1526) eines Disparitätswerts (1528) für den Bildpunkt des Referenzbilds (1101; 1801) aus der Position (1110) des Bildpunkts in dem Referenzbild (1101; 1801) und demjenigen der Positionswerte (1402), der die größte Häufigkeit in der Häufigkeitsverteilung (1400) aufweist.A method of determining a disparity, the method comprising the steps of: reading in a first rectified image (501) and a second rectified image (502); Transforming (1514, 1516) the first rectified image (501) into a reference image (1101; 1801) using a transformation rule which assigns a feature value from a predetermined set of feature values (1222) to each pixel of the first rectified image (501), and des second rectified image (502) into a search image (1303; 1901) using the transformation rule which assigns a feature value from the predetermined set of feature values (1222) to each pixel of the second rectified image (502); constructing (1520) a matching table (1220) for a pixel of the reference image (1101; 1801) by assigning each feature value from the predetermined set of feature values (1222) distances (1224) between a position (1110) of the pixel in the reference image (1101; 1801) and at least positions of the corresponding feature value in the reference image (1101; 1801) located in a reference region (203) around the position (1110) of the pixel; Determination (1522) of position values (1402) for at least each pixel of the search image (1303; 1901) located in a search region (303) by for each pixel of the search image (1303; 1901) located in the search region (303) the corresponding feature value is read from the search image (1303; 1901), the distances (1224) assigned to the corresponding feature value are read from the matching table (1220) and the position values (1402) are determined from the position (1110) of the pixel and the distances (1224). will; forming (1524) a frequency distribution (1400) for the position values (1402) of the pixels of the search image (1303; 1901) located in the search region; and Determining (1526) a disparity value (1528) for the pixel of the reference image (1101; 1801) from the position (1110) of the pixel in the reference image (1101; 1801) and that of the position values (1402) which has the greatest frequency in the frequency distribution (1400). Verfahren gemäß Anspruch 1, mit einem Schritt des Einlesens eines ersten Eingangsbilds (101) über eine Schnittstelle zu einer ersten Bilderfassungseinrichtung (601) und eines zweiten Eingangsbilds (102) über eine Schnittstelle zu einer zweiten Bilderfassungseinrichtung (602) und einem Schritt (1510, 1512) des Rektifizierens des ersten Eingangsbilds (101), um das erste rektifizierte Bild (501) zu erhalten, und des zweiten Eingangsbilds (102), um das zweite rektifiziertes Bild (502) zu erhalten.procedure according to claim 1 , with a step of reading in a first input image (101) via an interface to a first image acquisition device (601) and a second input image (102) via an interface to a second image acquisition device (602) and a step (1510, 1512) of rectifying the the first input image (101) to obtain the first rectified image (501) and the second input image (102) to obtain the second rectified image (502). Verfahren gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt (1514, 1516) des Transformierens durch die Transformationsvorschrift eine Merkmalsbestimmung gemäß BRIEF (Binary Robust Independent Elementary Features), ORB, BRISK oder Census durchgeführt wird.Method according to one of the preceding claims, in which, in the step (1514, 1516) of transforming by the transformation rule, a feature is determined according to BRIEF (Binary Robust Independent Elementary Features), ORB, BRISK or Census. Verfahren gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt (1514, 1516) des Transformierens durch die Transformationsvorschrift die vorbestimmte Menge von Merkmalswerten (1222) beschränkt ist.Method according to one of the preceding claims, in which, in the step (1514, 1516) of transforming, the predetermined set of feature values (1222) is restricted by the transformation rule. Verfahren gemäß einem der vorangegangenen Ansprüche, bei dem die Schritte (1520, 1522, 1524, 1526) des Aufbauens, Bestimmens, Bildens und Ermittelns für zumindest einen weiteren Bildpunkt des Referenzbilds (1101; 1801) wiederholt ausgeführt werden, um zumindest einen weiteren Disparitätswert für den zumindest einen weiteren Bildpunkt des Referenzbilds (1101; 1801) zu bestimmen.Method according to one of the preceding claims, in which the steps (1520, 1522, 1524, 1526) of constructing, determining, forming and determining are carried out repeatedly for at least one further pixel of the reference image (1101; 1801) in order to determine at least one further disparity value for to determine the at least one further pixel of the reference image (1101; 1801). Verfahren gemäß einem der vorangegangenen Ansprüche, bei dem die Schritte (1520, 1522, 1524, 1526) des Aufbauens, Bestimmens, Bildens und Ermittelns für alle Bildpunkte des Referenzbilds (1101; 1801) wiederholt ausgeführt werden, um für jeden Bildpunkt des Referenzbilds (1101; 1801) einen Disparitätswert zu bestimmen.Method according to one of the preceding claims, in which the steps (1520, 1522, 1524, 1526) of constructing, determining, forming and determining are carried out repeatedly for all pixels of the reference image (1101; 1801) in order for each pixel of the reference image (1101 ; 1801) to determine a disparity value. Verfahren gemäß Anspruch 2, mit einem Schritt (1630) des Erfassens des ersten Eingangsbilds (101) unter Verwendung der ersten Bilderfassungseinrichtung (601) und des zweiten Eingangsbilds (102) unter Verwendung der zweiten Bilderfassungseinrichtung (602).procedure according to claim 2 , comprising a step (1630) of capturing the first input image (101) using the first image capturing device (601) and the second input image (102) using the second image capturing device (602). Verfahren gemäß Anspruch 7, bei dem eine der Bilderfassungseinrichtungen (601, 602) eine Frontkamera und die andere der Bilderfassungseinrichtungen (601, 602) eine Seitenkamera eines Fahrzeugs (600) ist.procedure according to claim 7 wherein one of the image capturing devices (601, 602) is a front camera and the other of the image capturing devices (601, 602) is a side camera of a vehicle (600). Verfahren gemäß einem der vorangegangenen Ansprüche, mit einem Schritt (2230) des Extrahierens derjenigen der sich in der Suchregion (303) befindlichen Bildpunkte des Suchbilds (1303; 1901), für die im Schritt des Bestimmens (1522) derjenige der Positionswerte (1402) bestimmt wurde, der die größte Häufigkeit in der Häufigkeitsverteilung (1400) aufweist, und mit einem Schritt (2232) des Bestimmens einer Oberflächennormale (2234) aus Positionen der im Schritt (2230) des Extrahierens extrahierten Bildpunkte des Suchbilds (1303; 1901).Method according to one of the preceding claims, with a step (2230) of extracting those pixels of the search image (1303; 1901) located in the search region (303) for which that of the position values (1402) is determined in the determining step (1522). which has the greatest frequency in the frequency distribution (1400), and with a step (2232) of determining a surface normal (2234) from positions of the pixels of the search image (1303; 1901) extracted in step (2230) of extraction. Verfahren gemäß Anspruch 9, bei dem die Schritte (2230, 2232) des Extrahierens und Bestimmens einer Oberflächennormale (2234) für zumindest einen weiteren Bildpunkt des Referenzbilds (1101; 1801) wiederholt ausgeführt werden, um zumindest eine weitere Oberflächennormale (2234) für den zumindest einen weiteren Bildpunkt des Referenzbilds (1101; 1801) zu bestimmen.procedure according to claim 9 , in which the steps (2230, 2232) of extracting and determining a surface normal (2234) for at least one further pixel of the reference image (1101; 1801) are carried out repeatedly in order to determine at least one further surface normal (2234) for the at least one further pixel of the to determine the reference image (1101; 1801). Vorrichtung (610) zum Bestimmen einer Disparität, wobei die Vorrichtung (610) eingerichtet ist, um die Schritte des Verfahrens gemäß einem der vorangegangenen Ansprüche in entsprechenden Einheiten auszuführen und/oder anzusteuern.Device (610) for determining a disparity, wherein the device (610) is set up to carry out and/or to control the steps of the method according to one of the preceding claims in corresponding units. Fahrzeug (600) mit einer ersten Bilderfassungseinrichtung (601), einer zweiten Bilderfassungseinrichtung (602) und einer Vorrichtung (610) gemäß Anspruch 11.Vehicle (600) with a first image capturing device (601), a second image capturing device (602) and a device (610) according to claim 11 . Computerprogramm, das dazu eingerichtet ist, die Schritte des Verfahrens gemäß einem der Ansprüche 1 bis 10 auszuführen und/oder anzusteuern.Computer program that is set up to carry out the steps of the method according to one of Claims 1 until 10 execute and/or control. Maschinenlesbares Speichermedium, auf dem das Computerprogramm nach Anspruch 13 gespeichert ist.Machine-readable storage medium on which the computer program Claim 13 is saved.
DE102021204411.5A 2021-05-03 2021-05-03 Method and apparatus for determining disparity and vehicle Pending DE102021204411A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102021204411.5A DE102021204411A1 (en) 2021-05-03 2021-05-03 Method and apparatus for determining disparity and vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021204411.5A DE102021204411A1 (en) 2021-05-03 2021-05-03 Method and apparatus for determining disparity and vehicle

Publications (1)

Publication Number Publication Date
DE102021204411A1 true DE102021204411A1 (en) 2022-11-03

Family

ID=83600658

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021204411.5A Pending DE102021204411A1 (en) 2021-05-03 2021-05-03 Method and apparatus for determining disparity and vehicle

Country Status (1)

Country Link
DE (1) DE102021204411A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19636028C1 (en) 1996-09-05 1997-11-20 Daimler Benz Ag Stereo image object detection, esp. for road vehicles

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19636028C1 (en) 1996-09-05 1997-11-20 Daimler Benz Ag Stereo image object detection, esp. for road vehicles

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
LU, Jiangbo; LAFRUIT, Gauthier; CATTHOOR, Francky. Anisotropic local high-confidence voting for accurate stereo correspondence. In: Image Processing: Algorithms and Systems VI. International Society for Optics and Photonics, 2008. S. 68120J-1 bis 68120J-12
Ramya Narasimha, Elise Arnaud, Florence Forbes, Radu Horaud. A Joint Framework for Disparity and Surface Normal Estimation. Research Report RR-7090, INRIA, 2009

Similar Documents

Publication Publication Date Title
DE112018000899T5 (en) Joint 3D object detection and orientation estimation via multimodal fusion
DE102010012262A1 (en) Image processing device
DE112014000155B4 (en) Method for determining depth maps from stereo images with improved depth resolution in an area
DE112011103452T5 (en) Method for matching pixels of a distance representation
DE112018007485T5 (en) Road surface detection device, image display device using a road surface detection device, obstacle detection device using a road surface detection device, road surface detection method, image display method using a road surface detection method, and obstacle detection method using a road surface detection method
DE102016208056A1 (en) Method and device for processing image data and driver assistance system for a vehicle
DE102019101482A1 (en) DETECTION DEVICE FOR THE EXTERNAL ENVIRONMENT OF A VEHICLE
DE102016014783A1 (en) Method for detecting objects
DE102008015535B4 (en) Process for image processing of stereo images
DE102008036219A1 (en) Method for identification of object i.e. traffic sign, in surrounding area of e.g. passenger car, involves determining similarity measure between multiple characteristics of image region and multiple characteristics of characteristic set
EP4000005A1 (en) Method for determining the position of a first image region in a correspondence image, soc and control device, and system for carrying out the method, and computer program
DE102021204411A1 (en) Method and apparatus for determining disparity and vehicle
DE102019209473A1 (en) Method and device for the rapid detection of repetitive structures in the image of a street scene
DE102016124123A1 (en) A method for generating a cluster of image areas for capturing a target object in an image, computer program product, camera system and motor vehicle
DE102007027958A1 (en) Method for optimizing a stereoscopic image
EP1756748B1 (en) Method for the classification of an object by means of a stereo camera
EP3465608B1 (en) Method and device for determining a transfer between two display images, and vehicle
DE10310849B4 (en) Method for photogrammetric distance and / or position determination
DE102014211709B4 (en) Method for the computer-aided three-dimensional reconstruction of a surface of an object from digital image data
DE102022123295A1 (en) Stereo vision system, driver assistance system and method for generating a stereo vision from two 2D representations
DE19630194B4 (en) Method for detecting objects
DE102010009620A1 (en) Method for detecting obstacle in car surroundings, involves detecting image by monocular image capture system, comparing intensity difference with predetermined threshold, and detecting obstacle when difference is larger than threshold
DE102016223079B4 (en) Method and device for determining an association between a matrix element of a matrix and a comparison matrix element of a comparison matrix using a correspondence table
DE102017217156B4 (en) Method and device for controlling a driver assistance system using a stereo camera system with a first and a second camera
DE102018121265A1 (en) Method for determining an angle for determining a pose of a trailer

Legal Events

Date Code Title Description
R163 Identified publications notified