DE102021204411A1 - Method and apparatus for determining disparity and vehicle - Google Patents
Method and apparatus for determining disparity and vehicle Download PDFInfo
- Publication number
- DE102021204411A1 DE102021204411A1 DE102021204411.5A DE102021204411A DE102021204411A1 DE 102021204411 A1 DE102021204411 A1 DE 102021204411A1 DE 102021204411 A DE102021204411 A DE 102021204411A DE 102021204411 A1 DE102021204411 A1 DE 102021204411A1
- Authority
- DE
- Germany
- Prior art keywords
- image
- pixel
- search
- disparity
- reference image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zum Bestimmen einer Disparität bei dem ein erstes rektifiziertes Bild (501) in ein Referenzbild (1101) und ein zweites rektifiziertes Bild (502) in ein Suchbild (1302) transformiert, eine Abstimmtabelle (1220) für einen Bildpunkt des Referenzbilds (1101) aufgebaut, Positionswerte (1402) für Bildpunkte des Suchbilds (1302) bestimmt, eine Häufigkeitsverteilung (1400) für die Positionswerte (1402) gebildet und ein Disparitätswert (1528) für den Bildpunkt des Referenzbilds (1101) aus der Position (1110) des Bildpunkts in dem Referenzbild (1101) und demjenigen der Positionswerte (1402) ermittelt wird, der die größte Häufigkeit in der Häufigkeitsverteilung (1400) aufweist.The invention relates to a method for determining a disparity in which a first rectified image (501) is transformed into a reference image (1101) and a second rectified image (502) is transformed into a search image (1302), a matching table (1220) for a pixel of the reference image (1101), position values (1402) for pixels of the search image (1302) determined, a frequency distribution (1400) formed for the position values (1402) and a disparity value (1528) for the pixel of the reference image (1101) from the position (1110) of the pixel in the reference image (1101) and that of the position values (1402) which has the greatest frequency in the frequency distribution (1400).
Description
Stand der TechnikState of the art
Die Erfindung geht von einer Vorrichtung oder einem Verfahren nach Gattung der unabhängigen Ansprüche aus. Gegenstand der vorliegenden Erfindung ist auch ein Computerprogramm.The invention is based on a device or a method according to the species of the independent claims. The subject matter of the present invention is also a computer program.
Bei der Verarbeitung eines Stereobildpaares im Bereich der Computer-Vision ist ein sehr wichtiger Schritt die Bestimmung der Disparität. Ein weiterer wichtiger Schritt ist die Bestimmung einer Oberflächennormalen. Dazu kann unter Verwendung extrahierter Bildpunkte eine Oberflächenschätzung durchgeführt werden und die Oberflächennormale bezüglich einer sich aus der Oberflächenschätzung ergebenden Fläche bestimmt werden.When processing a stereo image pair in the field of computer vision, a very important step is the determination of the disparity. Another important step is the determination of a surface normal. For this purpose, a surface estimation can be carried out using extracted image points and the surface normal can be determined with respect to an area resulting from the surface estimation.
Die
Offenbarung der ErfindungDisclosure of Invention
Vor diesem Hintergrund werden mit dem hier vorgestellten Ansatz ein Verfahren und eine Vorrichtung zum Bestimmen einer Disparität sowie ein Fahrzeug gemäß den Hauptansprüchen vorgestellt. Durch die in den abhängigen Ansprüchen aufgeführten Maßnahmen sind vorteilhafte Weiterbildungen und Verbesserungen der im unabhängigen Anspruch angegebenen Vorrichtung möglich.Against this background, a method and a device for determining a disparity and a vehicle according to the main claims are presented with the approach presented here. Advantageous developments and improvements of the device specified in the independent claim are possible as a result of the measures listed in the dependent claims.
Vorteilhafterweise ist eine Bestimmung der Disparität mittels eines Abstimmungsverfahrens, einem sogenannten Votingverfahren möglich. Optional kann mit dem Abstimmungsverfahren zusätzlich zur Disparität auch ein Normalenvektor bestimmt werden.Advantageously, the disparity can be determined by means of a voting process, a so-called voting process. Optionally, in addition to the disparity, a normal vector can also be determined with the voting method.
Ein entsprechendes Verfahren zum Bestimmen einer Disparität umfasst die folgenden Schritte:
- Einlesen eines ersten rektifizierten Bilds und eines zweiten rektifizierten Bilds;
- Transformieren des ersten rektifizierten Bilds in ein Referenzbild unter Verwendung einer Transformationsvorschrift die jedem Bildpunkt des ersten rektifizierten Bilds einen Merkmalswert aus einer vorbestimmten Menge von Merkmalswerten zuordnet, und des zweiten rektifizierten Bilds in ein Suchbild unter Verwendung der Transformationsvorschrift die jedem Bildpunkt des zweiten rektifizierten Bilds einen Merkmalswert aus der vorbestimmten Menge von Merkmalswerten zuordnet;
- Aufbauen einer Abstimmtabelle für einen Bildpunkt des Referenzbilds, indem jedem Merkmalswert aus der vorbestimmten Menge von Merkmalswerten Abstände zwischen einer Position des Bildpunkts in dem Referenzbild und zumindest sich in einer Referenzregion um die Position des Bildpunkts befindlichen Positionen des entsprechenden Merkmalswerts in dem Referenzbild zugeordnet werden;
- Bestimmen von Positionswerten für zumindest jeden sich in einer Suchregion befindlichen Bildpunkt des Suchbilds, indem für jeden sich in der Suchregion befindlichen Bildpunkt des Suchbilds der entsprechende Merkmalswert aus dem Suchbild ausgelesen wird, die dem entsprechenden Merkmalswert zugeordneten Abstände aus der Abstimmtabelle ausgelesen werden und die Positionswerte aus der Position des Bildpunkts und den Abständen ermittelt werden;
- Bilden einer Häufigkeitsverteilung für die Positionswerte der sich in der Suchregion befindlichen Bildpunkte des Suchbilds; und
- Ermitteln eines Disparitätswerts für den Bildpunkt des Referenzbilds aus der Position des Bildpunkts in dem Referenzbild und demjenigen der Positionswerte, der die größte Häufigkeit in der Häufigkeitsverteilung aufweist.
- reading in a first rectified image and a second rectified image;
- Transforming the first rectified image into a reference image using a transformation rule which assigns a feature value from a predetermined set of feature values to each pixel of the first rectified image, and transforming the second rectified image into a search image using the transformation rule which assigns a feature value to each pixel of the second rectified image assigns from the predetermined set of feature values;
- constructing a matching table for a pixel of the reference image by associating each feature value from the predetermined set of feature values with distances between a position of the pixel in the reference image and positions of the corresponding feature value in the reference image that are at least in a reference region around the position of the pixel;
- Determination of position values for at least each pixel of the search image located in a search region by reading the corresponding feature value from the search image for each pixel of the search image located in the search region, the distances assigned to the corresponding feature value are read from the matching table and the position values are read out the position of the pixel and the distances are determined;
- forming a frequency distribution for the position values of the pixels of the search image located in the search region; and
- Determining a disparity value for the pixel of the reference image from the position of the pixel in the reference image and that of the position values that has the greatest frequency in the frequency distribution.
Das Verfahren stellt eine Methode zur Bestimmung der Disparität in einem Stereobildpaar mittels eines Votingverfahrens dar. Das erste rektifizierte Bild kann auf einem unter Verwendung einer ersten Bilderfassungseinrichtung erfassten ersten Eingangsbilds und das zweite rektifizierte Bild auf einem unter Verwendung einer zweiten Bilderfassungseinrichtung erfassten zweiten Eingangsbilds basieren. Das erste Eingangsbild und das zweite Eingangsbild können ein Stereobildpaar darstellen. Die Bilderfassungseinrichtungen können beispielsweise an einem Fahrzeug angeordnet sein und verwendet werden, um einen Abschnitt eines Umfelds des Fahrzeugs aus unterschiedlichen Blickwinkeln zu erfassen. Durch eine geeignete Rektifizierung der Eingangsbilder können geometrische Verzerrungen eliminiert werden. Die rektifizierten Bilder können jeweils eine Mehrzahl von Bildpunkten umfassen. Beispielsweise kann jeder Bildpunkt einen Grauwert abbilden.The method represents a method for determining the disparity in a stereo image pair using a voting method. The first rectified image can be based on a first input image captured using a first image capturing device and the second rectified image can be based on a second input image captured using a second image capturing device. The first input image and the second input image can represent a stereo image pair. The image capturing devices can be arranged on a vehicle, for example, and can be used to capture a section of the surroundings of the vehicle from different viewing angles. Geometric distortions can be eliminated by suitable rectification of the input images. The rectified images can each include a plurality of pixels. For example, each pixel can represent a gray value.
Die Referenzregion kann auf eine geeignete Weise um die Position des Bildpunkts gelegt sein. Es können alle sich in der Referenzregion befindlichen Positionen des entsprechenden Merkmalswerts zugeordnet werden. Typischerweise umfasst die Referenzregion nicht das gesamte Referenzbild. Es können jedoch auch jedem Merkmalswert aus der vorbestimmten Menge von Merkmalswerten Abstände zwischen der Position des Bildpunkts in dem Referenzbild und allen Positionen des entsprechenden Merkmalswerts in dem Referenzbild zugeordnet werden. In einem solchen Fall kann die Referenzregion das gesamte Referenzbild umfassen.The reference region can be placed around the position of the pixel in a suitable way. All positions of the corresponding characteristic value located in the reference region can be assigned. Typically, the reference region does not include the entire reference image. However, each feature value from the predetermined set of feature values can also have distances between the position of the pixel in the reference image and all positions of the corresponding feature value in the reference image be assigned. In such a case, the reference region can encompass the entire reference image.
Die Größe und Positionierung der Suchregion kann auf eine geeignete Weise bestimmt sein oder werden. Dabei kann beispielsweise auf Erfahrungswerte zurückgegriffen werden. Beispielsweise kann zur Platzierung der Suchregion die Zeile der Referenzposition herangezogen werden. Die Suchregion und die Referenzregion können gleich oder unterschiedlich groß sein. Typischerweise umfasst die Suchregion nicht das gesamte Suchbild. Es können jedoch auch Positionswerte für jeden Bildpunkt des Suchbilds bestimmt werden, indem für jeden Bildpunkt des Suchbilds der entsprechende Merkmalswert aus dem Suchbild ausgelesen wird. Entsprechend kann dann anschließend die Häufigkeitsverteilung für die Positionswerte der Bildpunkte des Suchbilds gebildet werden. In einem solchen Fall kann die Suchregion das gesamte Suchbild umfassen.The size and positioning of the search region may be determined in any suitable manner. In this case, for example, empirical values can be used. For example, the line of the reference position can be used to place the search region. The search region and the reference region can be the same or different in size. Typically, the search region does not include the entire search image. However, position values for each pixel of the search image can also be determined by reading out the corresponding feature value from the search image for each pixel of the search image. The frequency distribution for the position values of the pixels of the search image can then be formed accordingly. In such a case, the search region can include the entire search image.
Optional kann das Verfahren entsprechend einen Schritt des Einlesens des ersten Eingangsbilds über eine Schnittstelle zu der ersten Bilderfassungseinrichtung und eines zweiten Eingangsbilds über eine Schnittstelle zu der zweiten Bilderfassungseinrichtung umfassen. Ferner kann das Verfahren optional einen Schritt des Rektifizierens des ersten Eingangsbilds und des zweiten Eingangsbilds umfassen.Optionally, the method can accordingly include a step of reading in the first input image via an interface to the first image acquisition device and a second input image via an interface to the second image acquisition device. Furthermore, the method can optionally include a step of rectifying the first input image and the second input image.
Durch den Schritt des Transformierens kann jedem Bildpunkt, beispielsweise basierend auf den diesen Bildpunkt umgebenden Bildpunkten ein eindeutiger Merkmalswert berechnet werden. Dabei kann auf bekannte Transformationsverfahren zurückgegriffen werden. Auf diese Weise können das Referenzbild und das Suchbild auf gleiche Weise bestimmt werden. Jedem Bildpunkt des Referenzbilds und des Suchbilds kann durch das Transformieren ein Merkmalswert zugeordnet sein.Through the step of transforming, a unique feature value can be calculated for each pixel, for example based on the pixels surrounding this pixel. Known transformation methods can be used here. In this way, the reference image and the search image can be determined in the same way. A feature value can be assigned to each pixel of the reference image and the search image as a result of the transformation.
Beispielsweise kann im Schritt des Transformierens durch die Transformationsvorschrift eine Merkmalsbestimmung gemäß BRIEF (engl. Binary Robust Independent Elementary Features), ORB, BRISK (engl. Binary robust invariant scalable keypoints), oder Census durchgeführt werden. Entsprechende Merkmalsbestimmungen sind beispielsweise aus Rublee Ethan, Orb: an efficient alternative to sift or surf., Computer Vision (ICCV) (2011), Roland Y. Siegwart Leutenegger Stefan, Margarita Chli, Brisk: Binary robust invariant scalable keypoints., Computer Vision (ICCV) (2011), Calonder Michael, Brief: Binary robust independent elementary features., Computer Vision ECCV 2010 (2010) oder Wikipedia, Census-transformation, Wikipedia (2019), Online erhältlich, bekannt.For example, in the transformation step, the transformation rule can be used to determine a feature according to BRIEF (Binary Robust Independent Elementary Features), ORB, BRISK (Binary Robust Invariant Scalable Keypoints), or Census. Corresponding feature definitions can be found, for example, in Rublee Ethan, Orb: an efficient alternative to sift or surf., Computer Vision (ICCV) (2011), Roland Y. Siegwartleutenegger Stefan, Margarita Chli, Brisk: Binary robust invariant scalable keypoints., Computer Vision ( ICCV) (2011), Calonder Michael, Brief: Binary robust independent elementary features., Computer Vision ECCV 2010 (2010) or Wikipedia, Census-transformation, Wikipedia (2019), Available online, known.
Vorteilhafterweise kann die maximale Anzahl unterschiedlicher Merkmalswerte in dem Referenzbild und dem Suchbild beschränkt sein. Beispielsweise kann ein Deskriptor verwendet werden, der 12 oder 14 Bit umfasst, und somit einen Wertevorrat von mindestens 4096 Merkmalen beinhaltet.Advantageously, the maximum number of different feature values in the reference image and the search image can be limited. For example, a descriptor can be used that comprises 12 or 14 bits and thus contains a value store of at least 4096 features.
Im Schritt des Aufbauens kann zunächst für einen ausgewählten Bildpunkt des Referenzbilds eine Abstimmtabelle aufgebaut werden. Die Abstimmtabelle kann eine Liste darstellen, in der alle möglichen Merkmalswerte aufgelistet sind und in der für jeden Merkmalswert zumindest ein Abstand notiert ist, sofern der entsprechende Merkmalswert in dem Referenzbild vorhanden ist. Ist ein Merkmalswert mehrfach vorhanden, so werden für diesen Merkmalswert entsprechend mehrere Abstände notiert. Zum Bestimmen eines Abstands kann eine einfache Differenz zwischen der Position des Bildpunkts in dem Referenzbild und der entsprechenden Position des gerade betrachteten Merkmalswert in dem Referenzbild gebildet werden.In the construction step, a matching table can first be constructed for a selected pixel of the reference image. The matching table can represent a list in which all possible feature values are listed and in which at least one distance is noted for each feature value if the corresponding feature value is present in the reference image. If a characteristic value exists more than once, several distances are noted for this characteristic value. To determine a distance, a simple difference can be formed between the position of the pixel in the reference image and the corresponding position of the currently observed feature value in the reference image.
Im Schritt des Bestimmens können die Merkmalswerte des Suchbilds als Adressen verwendet und die in der Abstimmtabelle eingetragenen Abstände als Offset genutzt werden, um die Positionswerte zu bestimmen.In the determination step, the feature values of the search image can be used as addresses and the distances entered in the matching table can be used as offsets in order to determine the position values.
Im Schritt des Bildens können Häufigkeiten der Positionswerte akkumuliert werden, um die Häufigkeitsverteilung in Form eines akkumulierten Histogramms zu bilden.In the forming step, frequencies of the position values can be accumulated in order to form the frequency distribution in the form of an accumulated histogram.
Im Schritt des Ermittelns kann das Maximum aus der Häufigkeitsverteilung gesucht werden, um den Disparitätswert für den Bildpunkt des Referenzbilds zu ermitteln, für den die im Schritt des Aufbauens die Abstimmtabelle aufgebaut wurde.In the determination step, the maximum from the frequency distribution can be sought in order to determine the disparity value for the pixel of the reference image for which the matching table was constructed in the construction step.
Um für zumindest einen weiteren Bildpunkt des Referenzbild einen Disparitätswert bestimmen zu können, können die genannten Schritte des Aufbauens, Bestimmens, Bildens und Ermittelns für zumindest einen weiteren Bildpunkt des Referenzbilds wiederholt ausgeführt werden.In order to be able to determine a disparity value for at least one further pixel of the reference image, the steps of constructing, determining, forming and determining mentioned can be carried out repeatedly for at least one further pixel of the reference image.
Somit können die Schritte des Aufbauens, Bestimmens, Bildens und Ermittelns für alle Bildpunkte des Referenzbilds wiederholt ausgeführt werden, um für jeden Bildpunkt des Referenzbilds einen Disparitätswert zu bestimmen. Auf diese Weise kann kontinuierlich die Disparität für das gesamte Stereobildpaar bestimmt werden.The steps of constructing, determining, forming and determining can thus be carried out repeatedly for all pixels of the reference image in order to determine a disparity value for each pixel of the reference image. In this way, the disparity for the entire stereo image pair can be continuously determined.
Optional kann das Verfahren einen Schritt des Erfassens des ersten Eingangsbilds unter Verwendung der ersten Bilderfassungseinrichtung und des zweiten Eingangsbilds unter Verwendung der zweiten Bilderfassungseinrichtung umfassen. Auf diese Weise können Eingangsbilder der Bilderfassungseinrichtung direkt nach dem Erfassen verarbeitet werden, um eine Disparitätsinformation zu erhalten.Optionally, the method may include a step of capturing the first input image using the first image capturing device and the second input image using the second image capturing device. on In this way, input images of the image acquisition device can be processed directly after acquisition in order to obtain disparity information.
Beispielsweise kann dabei eine der Bilderfassungseinrichtungen eine Frontkamera und die andere der Bilderfassungseinrichtung eine Seitenkamera eines Fahrzeugs sein. Solche Kameras weisen typischerweise einen sich überschneidenden Erfassungsbereich auf, dieser wird jedoch aus sehr unterschiedlichen Blickwinkeln erfasst, sodass eine Disparitätsbestimmung mittels herkömmlicher Verfahren aufgrund der sich stark unterscheidenden Eingangsbilder häufig nicht möglich ist.For example, one of the image capturing devices can be a front camera and the other of the image capturing devices can be a side camera of a vehicle. Such cameras typically have an overlapping detection area, but this is recorded from very different perspectives, so that a disparity determination using conventional methods is often not possible due to the strongly differing input images.
Gemäß einer Ausführungsform wird das Verfahren um weitere Schritte ergänzt, die zusätzlich zu der Bestimmung der Disparität eine Bestimmung eines Normalenvektors ermöglichen.According to one embodiment, the method is supplemented by further steps which, in addition to determining the disparity, enable a normal vector to be determined.
Dazu weist das Verfahren gemäß einer Ausführungsform einen Schritt des Extrahierens derjenigen der sich in der Suchregion befindlichen Bildpunkte des Suchbilds auf, für die im Schritt des Bestimmens derjenige der Positionswerte bestimmt wurde, der die größte Häufigkeit in der Häufigkeitsverteilung aufweist. In einem Schritt des Bestimmens wird basierend auf dieser Extraktion eine Oberflächennormale aus Positionen der im Schritt des Extrahierens extrahierten Bildpunkte des Suchbilds bestimmt.For this purpose, according to one embodiment, the method has a step of extracting those pixels of the search image located in the search region for which that of the position values was determined in the determination step that has the greatest frequency in the frequency distribution. In a determination step, based on this extraction, a surface normal is determined from positions of the pixels of the search image extracted in the extraction step.
Die genannten Schritte des Extrahierens und Bestimmens der Oberflächennormale können für zumindest einen weiteren Bildpunkt des Referenzbilds wiederholt ausgeführt werden, um zumindest eine weitere Oberflächennormale für den zumindest einen weiteren Bildpunkt des Referenzbilds zu bestimmen.The mentioned steps of extracting and determining the surface normal can be carried out repeatedly for at least one further pixel of the reference image in order to determine at least one further surface normal for the at least one further pixel of the reference image.
Somit können die Schritte des Extrahierens und Bestimmens ebenso wie die zur Bestimmung der Disparität ausgeführten Schritte des Aufbauens, Bestimmens, Bildens und Ermittelns für mehrere oder auch für alle Bildpunkte des Referenzbilds wiederholt ausgeführt werden. Auf diese Weise kann für mehrere oder für jeden Bildpunkt des Referenzbilds sowohl ein Disparitätswert als auch eine Oberflächennormale bestimmt werden. Auf diese Weise kann kontinuierlich die Disparität und Oberflächennormalen für das gesamte Stereobildpaar bestimmt werden.Thus, the steps of extracting and determining as well as the steps of building up, determining, forming and ascertaining carried out to determine the disparity can be carried out repeatedly for a plurality of or also for all pixels of the reference image. In this way, both a disparity value and a surface normal can be determined for several or for each pixel of the reference image. In this way, the disparity and surface normals can be continuously determined for the entire stereo image pair.
Dieses Verfahren kann beispielsweise in Software oder Hardware oder in einer Mischform aus Software und Hardware beispielsweise in einem Steuergerät implementiert sein.This method can be implemented, for example, in software or hardware or in a mixed form of software and hardware, for example in a control unit.
Der hier vorgestellte Ansatz schafft ferner eine Vorrichtung zur Bestimmung einer Disparität, wobei die Vorrichtung ausgebildet ist, um die Schritte einer Variante eines hier vorgestellten Verfahrens in entsprechenden Einrichtungen durchzuführen, anzusteuern bzw. umzusetzen. Auch durch diese Ausführungsvariante der Erfindung in Form einer Vorrichtung kann die der Erfindung zugrunde liegende Aufgabe schnell und effizient gelöst werden.The approach presented here also creates a device for determining a disparity, the device being designed to carry out, control or implement the steps of a variant of a method presented here in corresponding devices. The object on which the invention is based can also be achieved quickly and efficiently by this embodiment variant of the invention in the form of a device.
Hierzu kann die Vorrichtung zumindest eine Recheneinheit zum Verarbeiten von Signalen oder Daten, zumindest eine Speichereinheit zum Speichern von Signalen oder Daten, zumindest eine Schnittstelle zu einem Sensor oder einem Aktor zum Einlesen von Sensorsignalen von dem Sensor oder zum Ausgeben von Daten- oder Steuersignalen an den Aktor und/oder zumindest eine Kommunikationsschnittstelle zum Einlesen oder Ausgeben von Daten aufweisen, die in ein Kommunikationsprotokoll eingebettet sind. Die Recheneinheit kann beispielsweise ein Signalprozessor, ein Mikrocontroller oder dergleichen sein, wobei die Speichereinheit ein Flash-Speicher, ein EEPROM oder eine magnetische Speichereinheit sein kann. Die Kommunikationsschnittstelle kann ausgebildet sein, um Daten drahtlos und/oder leitungsgebunden einzulesen oder auszugeben, wobei eine Kommunikationsschnittstelle, die leitungsgebundene Daten einlesen oder ausgeben kann, diese Daten beispielsweise elektrisch oder optisch aus einer entsprechenden Datenübertragungsleitung einlesen oder in eine entsprechende Datenübertragungsleitung ausgeben kann.For this purpose, the device can have at least one computing unit for processing signals or data, at least one memory unit for storing signals or data, at least one interface to a sensor or an actuator for reading in sensor signals from the sensor or for outputting data or control signals to the Have actuator and / or at least one communication interface for reading or outputting data that are embedded in a communication protocol. The arithmetic unit can be, for example, a signal processor, a microcontroller or the like, with the memory unit being able to be a flash memory, an EEPROM or a magnetic memory unit. The communication interface can be designed to read in or output data wirelessly and/or by wire, wherein a communication interface that can read in or output wire-bound data can, for example, read this data electrically or optically from a corresponding data transmission line or can output it to a corresponding data transmission line.
Der beschriebene Ansatz kann vorteilhaft im Zusammenhang mit einem Fahrzeug umgesetzt werden. Ein solches Fahrzeug kann die genannten Bilderfassungseinrichtung und eine genannte Vorrichtung zur Bestimmung einer Disparität umfassen.The approach described can advantageously be implemented in connection with a vehicle. Such a vehicle can comprise the named image capturing device and a named device for determining a disparity.
Von Vorteil ist auch ein Computerprogrammprodukt oder Computerprogramm mit Programmcode, der auf einem maschinenlesbaren Träger oder Speichermedium wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung, Umsetzung und/oder Ansteuerung der Schritte des Verfahrens nach einer der vorstehend beschriebenen Ausführungsformen verwendet wird, insbesondere wenn das Programmprodukt oder Programm auf einem Computer oder einer Vorrichtung ausgeführt wird.A computer program product or computer program with program code, which can be stored on a machine-readable carrier or storage medium such as a semiconductor memory, a hard disk memory or an optical memory and for carrying out, implementing and/or controlling the steps of the method according to one of the embodiments described above, is also advantageous used, especially when the program product or program is run on a computer or device.
Ausführungsbeispiele des hier vorgestellten Ansatzes sind in den Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert. Es zeigt:
-
1 eine schematische Darstellung der Projektion einer beobachteten Szene; -
2 ein Referenzbild gemäß einem Ausführungsbeispiel; -
3 ein Suchbild gemäß einem Ausführungsbeispiel; -
4 eine geometrische Sicht einer Bildvorverarbeitung; -
5 ein erstes rektifiziertes Bild und ein zweites rektifiziertes Bild gemäß einem Ausführungsbeispiel; -
6 ein Fahrzeug mit einer Vorrichtung zum Bestimmen einer Disparität gemäß einem Ausführungsbeispiel; -
7 ein erstes Eingangsbild einer ersten Bilderfassungseinrichtung gemäß einem Ausführungsbeispiel; -
8 ein zweites Eingangsbild einer zweiten Bilderfassungseinrichtung gemäß einem Ausführungsbeispiel; -
9 ein erstes rektifiziertes Bild gemäß einem Ausführungsbeispiel; -
10 ein zweites rektifiziertes Bild gemäß einem Ausführungsbeispiel; -
11 ein Referenzbild gemäß einem Ausführungsbeispiel; -
12 eine Abstimmtabelle gemäß einem Ausführungsbeispiel; -
13 ein Suchbild gemäß einem Ausführungsbeispiel; -
14 einen Ausschnitt einer Häufigkeitsverteilung gemäß einem Ausführungsbeispiel; -
15 ein Blockschaltbild eines Verfahrens zum Bestimmen einer Disparität gemäß einem Ausführungsbeispiel; -
16 ein Ablaufdiagramm eines Verfahrens zum Bestimmen einer Disparität gemäß einem Ausführungsbeispiel; -
17 eine Szene mit einem erhabenen Objekt gemäß einem Ausführungsbeispiel; -
18 ein Referenzbild gemäß einem Ausführungsbeispiel; -
19 ein Suchbild gemäß einem Ausführungsbeispiel; -
20 ein Referenzbild gemäß einem Ausführungsbeispiel; -
21 ein Suchbild gemäß einem Ausführungsbeispiel; -
22 ein Blockschaltbild eines Verfahrens zum Bestimmen einer Disparität und einer Oberflächennormalen gemäß einem Ausführungsbeispiel; und -
23 ein Ablaufdiagramm eines Verfahrens zum Bestimmen einer Disparität und einer Oberflächennormalen gemäß einem Ausführungsbeispiel.
-
1 a schematic representation of the projection of an observed scene; -
2 a reference image according to an embodiment; -
3 a search image according to one embodiment; -
4 a geometric view of image preprocessing; -
5 a first rectified image and a second rectified image according to an embodiment; -
6 a vehicle having a device for determining a disparity according to an embodiment; -
7 a first input image of a first image capturing device according to an embodiment; -
8th a second input image of a second image capturing device according to an embodiment; -
9 a first rectified image according to an embodiment; -
10 a second rectified image according to an embodiment; -
11 a reference image according to an embodiment; -
12 a tuning table according to one embodiment; -
13 a search image according to one embodiment; -
14 a section of a frequency distribution according to an embodiment; -
15 a block diagram of a method for determining a disparity according to an embodiment; -
16 a flowchart of a method for determining a disparity according to an embodiment; -
17 a scene with a raised object according to one embodiment; -
18 a reference image according to an embodiment; -
19 a search image according to one embodiment; -
20 a reference image according to an embodiment; -
21 a search image according to one embodiment; -
22 a block diagram of a method for determining a disparity and a surface normal according to an embodiment; and -
23 a flowchart of a method for determining a disparity and a surface normal according to an embodiment.
In der nachfolgenden Beschreibung günstiger Ausführungsbeispiele der vorliegenden Erfindung werden für die in den verschiedenen Figuren dargestellten und ähnlich wirkenden Elemente gleiche oder ähnliche Bezugszeichen verwendet, wobei auf eine wiederholte Beschreibung dieser Elemente verzichtet wird.In the following description of favorable exemplary embodiments of the present invention, the same or similar reference symbols are used for the elements which are shown in the various figures and have a similar effect, with a repeated description of these elements being dispensed with.
Bei der Verarbeitung eines Stereobildpaares im Bereich der Computer-Vision ist ein sehr wichtiger Schritt die Bestimmung der Disparität.When processing a stereo image pair in the field of computer vision, a very important step is the determination of the disparity.
Unter Disparität versteht man den Verschiebungswert eines kleinen Bildausschnittes aus dem sogenannten Referenzbild, beispielsweise dem ersten Eingangsbild 101, zum zweiten Bild des Stereopaares. Aufgrund der Projektion der beobachteten Szene in das Stereobildpaar, werden gleiche Objektpunkte in unterschiedliche Bildregionen projiziert. Die Objektpunkte [Xj] werden in die Bilder 101, 102, 103 jeweils an die Bildpositionen [x1; j], [x2; j] und [x3; j] projiziert.Disparity is understood as meaning the displacement value of a small image section from the so-called reference image, for example the
Der Verschiebungswert zwischen [x1; j] und [x2; j] wird Disparität genannt.The shift value between [x 1 ; j] and [x 2 ; j] is called disparity.
Wenn mit bekannter extrinsischer Kalibrierung [Rn |tn] diese Disparität aus einem Stereobildpaar gemessen wird, lässt sich im Umkehrschluss eine unbekannte Szene durch Triangulation vermessen.If this disparity is measured from a pair of stereo images with a known extrinsic calibration [R n |t n ], an unknown scene can be measured by triangulation.
Zur Bestimmung der Disparität werden Bildausschnitte aus dem Referenzbild, hier beispielsweise das erste Eingangsbild 101, oder einer Transformation des Referenzbildes in ein Featurebild, im Suchbild, hier beispielsweise das zweite Eingangsbild 102 durch Verschiebung um (δx, δy) gesucht.To determine the disparity, image sections from the reference image, here for example the
Vorteilhafterweise ist es bei dem hier beschriebenen Ansatz nicht erforderlich, zur Disparitätsmessung zuerst Ähnlichkeitsmaße aufzustellen zwischen einer Referenz-Bildregion und verschobenen Bildregionen im Suchbild.Advantageously, with the approach described here, it is not necessary to first set up similarity measures between a reference image region and shifted image regions in the search image in order to measure the disparity.
Eine solche alternative Disparitätsmessung ist anhand der
Der direkte Vergleich der Bildinformation fasst sowohl den Referenzbildausschnitt als auch das Suchbild als Gitter aus Zahlen anstatt der sichtbaren Farb/Grauwerte auf. In
Nimmt man die Länge als Ähnlichkeitsmaß, so hat man hier in der Stelle (0; 0) einen Wert von 5,568. Der niedrigste Wert findet sich bei einer Verschiebung von (δx, δy) = (1, 2).If you take the length as a measure of similarity, you have a value of 5.568 in the position (0; 0). The lowest value is found at a shift of (δ x , δ y ) = (1, 2).
Durch spezielle Bildvorverarbeitung lässt sich solch eine zweidimensionale Suche auf eine eindimensionale Suche einschränken. Eine Suche erfolgt dann nur noch z.B. in x-Richtung. Ist der X-Wert gefunden, bei dem das gewählte Ähnlichkeitsmaß ein Extremum findet, so ist die Disparität bestimmt.Such a two-dimensional search can be restricted to a one-dimensional search by means of special image pre-processing. A search then only takes place, e.g. in the x-direction. If the X-value is found at which the selected measure of similarity finds an extremum, then the disparity is determined.
In
Im ersten erstes rektifizierten Bild 501 ist eine Referenzregion 203 um den Objektpunkt X gelegt. In dem zweiten rektifizierten Bild 502 ist eine Suchregion 303 dargestellt. Der Referenzbildbereich kann hier nun beispielshaft mit einer Disparität d = 2 wiedergefunden werden.A
Gemäß einem Ausführungsbeispiel sind die Bilderfassungseinrichtungen 601, 602 jeweils als sogenannte Nahbereichkamera, auch als NRC-Kamera oder Near-Range-Camera bezeichnet, ausgeführt. Die Bilderfassungseinrichtungen 601, 602 werden verwendet, um Bilder der Umgebung des Fahrzeugs 600 aufnehmen. Im gemeinsamen Erfassungsbereich der Bilderfassungseinrichtungen 601, 602 ist im Falle eines weiteren Fahrzeugs auf einer Nebenspur beispielsweise ein Kotflügel mitsamt einem Reifen des weiteren Fahrzeugs sowohl in dem ersten Eingangsbild der ersten Bilderfassungseinrichtung 601, beispielsweise in Form einer linken Seitenspiegelkamera, als auch im zweiten Eingangsbild der zweiten Bilderfassungseinrichtung 602, beispielsweise in Form Bild einer Frontkamera zu sehen.According to one exemplary embodiment, the
Vorteilhafterweise kann mit dem hier beschriebenen Ansatz auch bei solcher Aufnahmekonstellation, wie sie in den
Dieses Verfahren ist insbesondere für Stereo-Bildpaare geeignet, die die betreffende Szene aus sehr unterschiedlichen Blickwinkeln betrachten. Hierbei werden die Projektionen der Szene in die Bildebene zu sehr unterschiedlichen Bildern Bildeindrücken führen, wie es anhand von
Eine Anwendung dieses Verfahrens ist z.B. in der Fahrerassistenzfunktion zu finden. Es werden derzeit für diverse Fahrerassistenzfunktionen Kameras in den Front-Bereich eines Fahrzeugs (Heckscheibe, Kühlergrill) sowie in die Außenspiegel verbaut. Bilder aus solch einer Konstellation sind in den
Das hier beschriebenen Verfahren, umgeht die Ähnlichkeitsmaße, da einzelne Merkmale direkt für die Position im Suchbild stimmen (engl. to vote). The method described here bypasses the similarity measures, since individual features directly vote for the position in the search image.
Anschließend kann ein robustes Maximum innerhalb der Stimmen (engl. Votes) gesucht werden und dadurch die gewünschte Disparität erhalten werden.A robust maximum within the votes can then be sought and the desired disparity can thereby be obtained.
Aus den
Das hier beschriebene Verfahren ist somit insbesondere für Stereo-Bildpaare geeignet, die die betreffende Szene aus sehr unterschiedlichen Blickwinkeln betrachten. Hierbei werden die Projektionen der Szene in die Bildebene, also die Rektifizierung, zu sehr unterschiedlichen Bildeindrücken führen, wie es aus den
Grundlage des hier beschriebenen Verfahrens ist zunächst eine Transformation des Eingangsbildes, nach erfolgter geometrischen Rektifizierung, in ein Merkmalbild, auch Featurebild genannt, für das zu jedem Punkt aufgrund der Umgebung ein eindeutiger Merkmalswert, auch Featurewert genannt, berechnet wird.The method described here is initially based on a transformation of the input image, after geometric rectification has taken place, into a feature image, also called feature image, for which a unique feature value, also called feature value, is calculated for each point based on the environment.
Das Referenzbild 1101 setzt sich aus Merkmalswerten zusammen, die in einer Mehrzahl von Zeilen und Spalten angeordnet sind. Beispielsweise sind in der ersten Zeile des Referenzbilds 1101 die Merkmalswerte 12, 08, 15, 02, 09, 14 eingetragen.The
Wird als Transformationsvorschrift beispielsweise die Census-Transformation verwendet, so wird beispielsweise der Grauwert eines Bildpunkts des in
Wird beispielsweise das erste rektifizierte Bild aus
Die beim Transformieren des ersten rektifizierten Bilds durchgeführte Merkmalsberechnung kann mit diversen aus der Literatur bekannten Verfahren, wie z.B. BRIEF, ORB, BRISK, Census oder weiteren Featuregeneratoren erfolgen und ist für die grundsätzliche Ausprägung des hier beschriebenen Ansatzes nicht von Interesse. Beispielsweise bieten sich im Computer-Vision Bereich, in dem Matchingaufgaben gelöst werden sollen, Binäre Deskriptoren als Merkmale an.The feature calculation carried out when transforming the first rectified image can be carried out with various methods known from the literature, such as BRIEF, ORB, BRISK, Census or other feature generators and is not of interest for the basic form of the approach described here. For example, in the field of computer vision, in which matching tasks are to be solved, binary descriptors are available as features.
Die grundlegende Frage bei der Bestimmung der Disparität ist auch bei dem hier beschriebenen Ansatz, wo im Suchbereich der verschobene Bildbereich ist. In
Die verschiedenen Merkmalswerte werden einmal durchlaufen und die Differenz der eigenen Feature-Position, also der Position des entsprechenden Merkmalswerts, und der Projektion des zu evaluierenden Objektpunktes, also der Position 1110 des Bildpunkts, hier x = 1,5, als Abstand, auch als Delta-X-Wert bezeichnet, in die Abstimmtabelle eingetragen, wie es in
Gemäß einem Ausführungsbeispiel werden das gesamte Referenzbild und das gesamte Suchbild transformiert. Für die Bestimmung der Disparität eines Punktes (egal ob sukzessive über das Bild iteriert wird, oder nur einzelne Punkte herausgegriffen werden) wird gemäß einem Ausführungsbeispiel eine Referenzregion um den Punkt, hier beispielhaft den Objektpunkt X, im Referenzbild 1101 genutzt. Für die Referenzregion wird die Abstimmtabelle aufgebaut. Die Referenzregion wird mit einer anderen Region, die als Suchregion bezeichnet wird, im Suchbild ausgewertet. In diesem Fall wird nicht das ganze Suchbild, sondern ein im Suchbild gelegenes Gebiet um die Zeile der Referenzposition ausgewertet. Referenzregion und Suchregion müssen nicht gleich groß sein, im Regelfall ist die Suchregion größer, aber im Normalfall ist die Referenzregion nicht das ganze Referenzbild 1101, sowie auch die Suchregion nicht das ganze Suchbild umfasst.According to one embodiment, the entire reference image and the entire search image are transformed. To determine the disparity of a point (regardless of whether the image is iterated successively or only individual points are picked out), a reference region around the point, here by way of example the object point X, in the
Für den Merkmalswert 00 ist beispielsweise der Abstand -0,5 eingetragen, da die Differenz zwischen der X-Position des Merkmalswert 00 in dem in
Für den Merkmalswert 01 ist kein Abstand eingetragen, da der Merkmalswert 01 in dem in
Für den Merkmalswert 02 ist ein erster Abstand +1,5, ein zweiter Abstand -0,5 und ein dritter Abstand -1,5 eingetragen, da der Merkmalswert 02 in dem in
Für die weiteren Merkmalswerte 03 bis 15 werden in entsprechender Weise Abstände bestimmt und in die Abstimmtabelle 1220 eingetragen.For the other feature values 03 to 15, distances are determined in a corresponding manner and entered into the matching table 1220.
Auf diese Weise werden zu jedem Merkmalswert die Delta-X-Werte zur Projektion des Objektpunktes gespeichert.In this way, the delta X values for projecting the object point are stored for each feature value.
Der beschriebene Aufbau der Abstimmtabelle 1220 in Form einer Feature-Delta-X-Tabelle dient als Vorbereitung eines Disparitätsvotings im anschließenden Voting im Suchbild.The described structure of the voting table 1220 in the form of a feature delta X table serves as a preparation for a disparity voting in the subsequent voting in the search image.
Ist die Abstimmtabelle 1220, die auch als Votingtabelle bezeichnet wird, einmal aufgebaut, so werden im Suchbild an jeder Stelle des Merkmalbildes alle Tabelleneinträge als Stimmen für die Projektion im Suchbild aufgefasst.Once the voting table 1220, which is also referred to as a voting table, has been set up, all table entries at each point of the feature image in the search image are interpreted as votes for the projection in the search image.
Die Beschränkung der Merkmalswerte auf 16 ist dabei lediglich beispielhaft gewählt. Typischerweise werden mehr als 16 Merkmalswerte verwendet, beispielsweise mindestens 4096 bei Verwendung eines Deskriptors mit mindestens 12 bit. Die Anzahl der Merkmalswerte spielt dabei eine untergeordnete Rolle. Unabhängig von der Codierung wird ein Merkmalsraum verwendet, der ganzzahlig und endlich ist oder zumindest auf ganzzahlig abbildbar ist.The restriction of the feature values to 16 is only chosen as an example. Typically more than 16 feature values are used, for example at least 4096 when using a descriptor with at least 12 bits. The number of characteristic values plays a subordinate role. Regardless of the coding, a feature space is used that is integer and finite or at least can be mapped to integer.
Das Suchbild 1302 setzt sich demnach entsprechend zu dem Referenzbild aus Merkmalswerten zusammen. Jedem Bildpunkt des Suchbilds 1302 ist dabei ein Merkmalswert zugeordnet.The
In
Beispielhaft sind in
Die Verschiebungsvektoren zeigen auf Positionen, die als Positionswerte verwendet werden.The displacement vectors point to positions that are used as position values.
Beispielsweise ist dem in der ersten Spalte und ersten Zeile des Suchbilds 1302 angeordneten erstem Bildpunkt der Merkmalswert 14 zugeordnet. In der in
Wenn für alle Bildpunkte und somit alle Merkmalswerte im Suchbild 1302 Positionswerte ermittelt wurden, wird gemäß einem Ausführungsbeispiel eine Häufigkeitsverteilung über alle ermittelten Positionswerte gebildet.If position values have been determined for all pixels and thus all feature values in the
Anhand von
Aus der Häufigkeitsverteilung 1400 geht hervor, dass basierend auf allen Bildpunkten und somit Merkmalswerten des anhand von
Die Abstände der Abstimmtabelle als Offsets zusammen mit den Merkmalspositionen im Suchbild werden in einem dazu in einem Histogramm aufakkumuliert.The distances of the matching table as offsets together with the feature positions in the search image are accumulated in a histogram.
Werden alle Stimmen, also Votes, in einem Histogramm auf akkumuliert so ergibt sich für dieses Beispiel die in
Eine erste Bilderfassungseinrichtung 601 stellt ein erstes Eingangsbild 101 und eine zweite Bilderfassungseinrichtung 602 stellt ein zweites Eingangsbild 102 bereit. Das erste Eingangsbild 101 wird in einem Schritt 1510 einer Rektifizierung unterworfen, um ein erstes rektifiziertes Bild 501 zu erhalten. Entsprechend wird das zweite Eingangsbild 102 in einem Schritt 1512 einer Rektifizierung unterworfen, um ein zweites rektifiziertes Bild 502 zu erhalten.A first
Das erste rektifizierte Bild 501 wird in einem Schritt 1514 in ein Referenzbild 1101 transformiert und das zweite rektifizierte Bild 502 wird in einem Schritt 1516 in ein Suchbild 1302 transformiert.The first rectified
In einem Schritt 1520 wird für einen Bildpunkt des Referenzbilds 1101 eine Abstimmtabelle 1220 aufgebaut. In einem Schritt 1522 wird eine Abstimmung durchgeführt. Dazu werden unter Verwendung des Suchbilds 1302 und der Abstimmtabelle 1220 Positionswerte 1402 für jeden Bildpunkt des Suchbilds 1302 ermittelt. In einem Schritt 1524 wird ein Histogramm aufgebaut. Dazu wird eine Häufigkeitsverteilung 1400 der ermittelten Positionswerte 1402 gebildet. In einem Schritt 1526 wird eine Disparität bestimmt. Dazu wird unter Verwendung der Häufigkeitsverteilung 1400 ein Disparitätswert 1528 für denjenigen Bildpunkt des Referenzbilds 1101 ermittelt, für den die Schritte 1520, 1522, 1524, 1526 soeben ausgeführt wurden.In a step 1520 a matching table 1220 is built for a pixel of the
In einem Schritt 1529 wird ein nächster Bildpunkt an einer weiteren Position p des Referenzbilds 1101 ausgewählt und die Schritte 1520, 1522, 1524, 1526 werden für diesen Bildpunkt wiederholt ausgeführt, um einen weiteren Disparitätswert 1528 für diesen Bildpunkt zu ermitteln.In a
Gemäß einem Ausführungsbeispiel werden die Schritte 1520, 1522, 1524, 1526 für jeden Bildpunkt des Referenzbilds 1101 durchgeführt also für jede Position p aus (nxm), wobei n und m die Anzahl der Zeilen und Spalten des Referenzbilds 1101 darstellen.According to an exemplary embodiment, steps 1520, 1522, 1524, 1526 are carried out for each pixel of
Im Folgenden wird das Verfahren anhand eines Ausführungsbeispiels detailliert beschrieben. Dabei werden am Anfang Stereo-Bildpaare herkömmlich rektifiziert 1510, 1512. Das Verfahren ermittelt daraus das Disparitätsbild 1500, welches danach wiederum in einer herkömmlichen Triangulation 1530 in einer gemessenen 3D-Welt-Beschreibung 1532 münden kann.The method is described in detail below using an exemplary embodiment. At the beginning, stereo image pairs are conventionally rectified 1510, 1512. From this, the method determines the
Das Blockschaltbild zeigt die prinzipiellen Verarbeitungsschritte und deren Abfolge des Verfahrens. Nach einer herkömmlichen Rektifizierung 1510, 1512 wird aus dem Original-Stereobildpaar das rektifizierte Bildpaar erhalten, in dem die Objektpunkte der beobachteten 3D-Welt gegenseitig auf Zeilen im Bild liegen, wie es beispielsweise anhand von
Dazu notwendig ist eine Kamerakalibrierung, die die Rotation R und die Translation
Um für jede Position im Feature-Referenzbild 1101 mit einer Auflösung von n * m eine Disparität zu bestimmen, wird der folgende Block mit den Schritten 1520, 1522, 1524, 1526 n * m wiederholt.In order to determine a disparity for each position in the
Es wird dazu, wie anhand der vorangegangenen Figuren beschrieben, zumindest aus einer Referenzregion des Referenzbilds 1101 die Abstimmtabelle 1220 aufgebaut, in der der Abstand eines Merkmalwerts zur momentan betrachteten Bildposition den Offset für das spätere Abstimmen darstellt.For this purpose, as described with reference to the previous figures, the matching table 1220 is set up from at least one reference region of the
Das Abstimmen wird nach erfolgreich aufgebauter Abstimmtabelle 1220 für das Feature-Suchbild 1302 ausgeführt. Die Merkmalswerte zumindest in einer Suchregion im Suchbild 1302 dienen als Adresse in die Abstimmtabelle 1220 und stimmen jeweils mit den gesammelten Abständen für die korrespondierende Bildposition. All diese Stimmen werden in einem Histogramm auf akkumuliert, so dass anschließend das Maximum der Stimmen bestimmt werden kann. Die gewünschte Disparität ist die Differenz aus aktueller Referenzposition und dem Maximum des Abstimm-Histogramms, hier der Häufigkeitsverteilung 1400.The matching is performed after the matching table 1220 for the
Die Gesamtheit aller Disparitäten wird in dem Disparitätsbild 1500 gespeichert. Dieses Resultat wird optional in die traditionelle Triangulation gegeben, um aus der bereits genutzten Kalibrierung eine 3D-Beschreibung der beobachteten Welt zu erschließen.The entirety of all disparities is stored in the
Die beschriebene Schätzung von Disparitäten kann die Nutzung von Kamerabildern erleichtern, die eine Szene aus sehr unterschiedlichen Blickwinkeln betrachten. Der beschriebene Ansatz kann in jedem Multikamerasystem eingesetzt werden und bei einem Produktwechsel und/oder - update zum Einsatz kommen. Solche Multikamerasysteme können beispielsweise in Kraftfahrzeugen eingebaut werden. Das vorgestellte Verfahren kann aber auch in anderen Domänen zum Einsatz kommen, in dem Kameras die Umgebung sensieren und Disparitäten gesucht werden.The disparity estimation described above can facilitate the use of camera images that view a scene from very different perspectives. The approach described can be used in any multi-camera system and can be used in the event of a product change and/or update. Such multi-camera systems can be built into motor vehicles, for example. However, the method presented can also be used in other domains, in which cameras sense the environment and disparities are sought.
Gemäß einem Ausführungsbeispiel wird das Verfahren im Zusammenhang mit Fahrerassistenzsystemen eingesetzt, die eine Frontsensorik in Kombination mit anderen Kameras nutzen. Auch eignet sich der beschriebene Ansatz für das Gebiet der Near-Range-Kameras. Der Ansatz ermöglicht eine Vermessung der Umwelt durch Sensoren, die bislang in diesem Gebiet noch nicht eingesetzt werden konnten.According to one exemplary embodiment, the method is used in connection with driver assistance systems that use a front sensor system in combination with other cameras. The approach described is also suitable for the field of near-range cameras. The approach enables the environment to be surveyed using sensors that have not previously been used in this area.
In einem Schritt 1514 wird ein erstes rektifiziertes Bild in ein Referenzbild transformiert, wie es beispielsweise in
In einem Schritt 1520 wird eine Abstimmtabelle, wie sie beispielsweise in
Gemäß einem Ausführungsbeispiel wird im Schritt 1520 eine Referenzregion um die Position des Bildpunkts im Referenzbild gelegt. In diesem Fall wird zum Aufbauen der Abstimmtabelle im Schritt 1520 nur die Referenzregion betrachtet. Dazu wird jedem möglichen Merkmalswert, sofern vorhanden, ein Abstand oder bei mehrfachem Vorkommen des Merkmalswerts mehrere Abstände zwischen einer Position des Bildpunkts in dem Referenzbild und allen sich in der Referenzregion befindlichen Positionen des entsprechenden Merkmalswerts in dem Referenzbild zugeordnet.According to one embodiment, in step 1520 a reference region is placed around the position of the pixel in the reference image. In this case, only the reference region is considered in
In einem Schritt 1522 werden Positionswerten, wie sie in
Gemäß einem Ausführungsbeispiel wird im Schritt 1522 eine Suchregion im Suchbild festgelegt. In diesem Fall wird für jeden sich in der Suchregion befindlichen Bildpunkt des Suchbilds der entsprechende Merkmalswert aus dem Suchbild ausgelesen, die dem entsprechenden Merkmalswert zugeordneten Abstände aus der Abstimmtabelle ausgelesen und die Positionswerte aus der Position des Bildpunkts und den Abständen ermittelt.According to one embodiment, in step 1522 a search region is specified in the search image. In this case, for each pixel of the search image located in the search region, the corresponding feature value is read from the search image, the distances assigned to the corresponding feature value are read from the matching table, and the position values are determined from the position of the pixel and the distances.
In einem Schritt 1524 wird eine Häufigkeitsverteilung, wie sie beispielsweise in
Wenn im Schritt 1522 eine Suchregion verwendet wird, wird im Schritt 1524 die Häufigkeitsverteilung für die Positionswerte der sich in der Suchregion befindlichen Bildpunkte des Suchbilds gebildet.If a search region is used in
In einem Schritt 1526 wird ein Disparitätswert für den genannten Bildpunkt des Referenzbilds ermittelt. Dazu wird derjenige der Positionswerte aus der Häufigkeitsverteilung herausgesucht, der die größte Häufigkeit in der Häufigkeitsverteilung aufweist. Von diesem am häufigsten auftretenden Positionswert wird zum Ermitteln des Disparitätswerts die Position, beispielsweise ein die Position repräsentierender Koordinatenwert, des genannten Bildpunkts abgezogen.In a
Um für jeden Bildpunkt des Referenzbilds oder zumindest mehrere Bildpunkte des Referenzbilds einen Disparitätswert zu bestimmen, werden die Schritte 1520, 1522, 1524, 1526 für die entsprechenden weiteren Bildpunkte wiederholt ausgeführt. Die Bildpunkte können zu einem Disparitätsbild zusammengefasst werden, wie es in
Die rektifizierten Bilder können in einem Schritt des Einlesens über eine Schnittstelle eingelesen werden. Zusätzlich oder alternativ umfasst das Verfahren einen Schritt 1510, in dem das erste rektifizierte Bild aus einem ersten Eingangsbilds bestimmt wird. Entsprechend umfasst das Verfahren in diesem Fall einen Schritt 1512, in dem das zweite rektifizierte Bild aus einem zweiten Eingangsbild bestimmt wird.The rectified images can be read in via an interface in one reading step. Additionally or alternatively, the method includes a
Gemäß unterschiedlichen Ausführungsbeispielen werden die Eingangsbilder eingelesen oder in einem Schritt 1630 unter Verwendung zumindest einer Bilderfassungseinrichtung erfasst. Wenn nur eine Bilderfassungseinrichtung eingesetzt wird, können die Eingangsbilder zu unterschiedlichen Zeitpunkten erfasst werden oder worden sein.According to different exemplary embodiments, the input images are read in or captured in a
Die Schritte des Verfahrens können in einer geeigneten Vorrichtung umgesetzt werden, die dazu beispielsweise eine Transformationseinrichtung zum Transformieren der rektifizierten Bilder, eine Aufbaueinrichtung zum Aufbauen der Abstimmtabelle, eine Bestimmungseinrichtung zum Bestimmen der Positionswerte, eine Bildungseinrichtung zum Bilden einer Häufigkeitsverteilung und eine Ermittlungseinrichtung zum Ermitteln des Disparitätswerts aufweist.The steps of the method can be implemented in a suitable device which, for example, has a transformation device for transforming the rectified images, a construction device for construction of the matching table, a determination device for determining the position values, a formation device for forming a frequency distribution and a determination device for determining the disparity value having.
Gemäß einem Ausführungsbeispiel wird das beschriebene Voting-Verfahren verwendet, um eine gleichzeitige Bestimmung von Disparität und Oberflächennormalen des beobachteten Objektausschnitts in einem StereoBildpaar zu ermöglichen.According to one embodiment, the voting method described is used to enable a simultaneous determination of disparity and surface normal of the observed object section in a stereo image pair.
Wie bereits ausgeführt, wird unter Disparität der Verschiebungswert eines kleinen Bildausschnittes aus dem sogenannten Referenzbild zum zweiten Bild des Stereopaares verstanden. So ist in
Die erfolgreiche Suche des Referenzausschnittes im Suchbild, beispielsweise in
In vielen Fällen ist neben der Disparität des betrachteten Objektpunktes, welche ein Maß für die Entfernung des Objektes darstellt, ebenfalls die Oberflächennormale von Interesse.In many cases, the surface normal is also of interest in addition to the disparity of the observed object point, which represents a measure of the distance of the object.
Dies ist beispielsweise relevant, wenn sich die Frage stellt, ob es sich bei dem Objektpunkt um eine vor der Kamera aufragenden Wand handelt oder ob der Bildausschnitt zur Straßenoberfläche gehört.This is relevant, for example, when the question arises as to whether the object point is a wall rising up in front of the camera or whether the image section belongs to the street surface.
In Punkte aufragender Wand würde aus geometrischer Sicht die Disparität mit einer translatorischen Bewegung beschrieben werden können. Sowohl das Verfahren anhand der vorangegangenen Figuren beschriebene Verfahren als auch viele weitere bekannte Verfahren erzielen hierbei gute Ergebnisse.From a geometric point of view, the disparity could be described with a translatory movement in points of a rising wall. Both the method described with reference to the previous figures and many other known methods achieve good results here.
Schon bei Verletzung dieser rein translatorischen Annahme ist das Voting-Verfahren in Vorteil, bei entsprechend gut gewählten Merkmalen, auch als Features bezeichnet, die die Stimmen (engl. Votes) abgeben.Even if this purely translational assumption is violated, the voting procedure has an advantage if the characteristics are well chosen, also referred to as features that cast the votes.
Allen bislang erwähnten Verfahren ist jedoch gemein, dass sie ausschließlich die Disparität bestimmen und die Oberflächennormale außer Acht lassen.However, all the methods mentioned so far have in common that they only determine the disparity and ignore the surface normal.
Gemäß den im Folgenenden beschriebenen Ausführungsbeispielen wird die Disparitätssuche und eine Bestimmung der Oberflächennormalen nicht in zwei separaten Schritten durchgeführt, wie beispielsweise erstmal die Bestimmung der Disparität, und anschließend in einer lokalen Nachbarschaft eine Oberflächenschätzung von der die Oberflächen-Normale bestimmt wird. Vielmehr wird gemäß den beschriebenen Ausführungsbeispielen eine zeitgleiche Bestimmung von Disparität und Oberflächennormalen durchgeführt.According to the exemplary embodiments described below, the disparity search and a determination of the surface normal are not carried out in two separate steps, such as first determining the disparity and then in a local neighborhood a surface estimation from which the surface normal is determined. Rather, according to the exemplary embodiments described, a simultaneous determination of disparity and surface normals is carried out.
Dazu wird das anhand der vorangegangenen Figuren beschriebe Votingverfahren genutzt, wobei aus den Merkmalen und deren Position im Suchbild, die für die resultierende Disparität gestimmt haben, die Oberflächennormale bestimmt wird. Dies erfolgt, ohne dass in einem zweiten nachgelagerten Schritt in einer lokalen Nachbarschaft die ermittelten Disparitäten untersucht würden.For this purpose, the voting method described with reference to the previous figures is used, with the surface normal being determined from the features and their position in the search image that voted for the resulting disparity. This is done without examining the identified disparities in a local neighborhood in a second subsequent step.
Dieses Verfahren ist insbesondere für Anwendungen geeignet, die eine Szene beobachten, in der vorzugsweise verschiedene Oberflächennormalen vorhanden sind.This method is particularly suitable for applications that observe a scene in which there are preferably different surface normals.
Diese Vorgehensweise wird im Folgenden anhand der
Der Referenzbildausschnitt 1807, der auch als Bildausschnitt bezeichnet wird, wird an der Referenzposition 1805 im Referenzbild 1801 betrachtet. Die Positionen um die Referenzposition 1805 sind gemäß einem Ausführungsbeispiel farbig eindeutig markiert.The
Im Gegensatz zu dem in
Das anhand der
In einer solchen Szene ist es häufig sinnvoll zusätzlich zur Disparität auch eine Oberflächennormale zu bestimmen, um Objekte für eine bessere Szenenanalyse von der Straßenoberfläche 1703 semantisch zu trennen.In such a scene, it often makes sense to determine a surface normal in addition to the disparity in order to semantically separate objects from the
Vorteilhafterweise kann die Bestimmung dieser beiden Größen in einem Schritt robust mittels eines Voting-Verfahrens durchgeführt werden. Eine ansonsten erforderliche Zweitteilung, also zunächst Disparitätsbestimmung und anschließend in einer lokalen Umgebung die Berechnung der Oberflächennormalen, kann somit in einem Verfahren vereinigt werden.Advantageously, these two variables can be determined in a robust manner in one step using a voting method. A second division that would otherwise be necessary, ie first determining the disparity and then calculating the surface normal in a local environment, can thus be combined in one method.
Ausgehend von der Szene in
Das anhand der
Im Falle des LKW-Ausschnitts sind in
Im Fall der Straßenoberfläche 1703 sieht das aber anders aus. Auch hier wurde exemplarisch ein Gebiet ausgewählt und in
Wie bereits anhand von
Das erste rektifizierte Bild 501 wird in dem Schritt 1514 in das Referenzbild 1101 transformiert und das zweite rektifizierte Bild 502 wird in dem Schritt 1516 in das Suchbild 1302 transformiert.The first rectified
In dem Schritt 1520 wird für einen Bildpunkt des Referenzbilds 1101 die Abstimmtabelle 1220 aufgebaut. In dem Schritt 1522 wird eine Abstimmung durchgeführt. Dazu werden unter Verwendung des Suchbilds 1302 und der Abstimmtabelle 1220 Positionswerte 1402 für jeden Bildpunkt des Suchbilds 1302 ermittelt. In dem Schritt 1524 wird das Histogramm aufgebaut. Dazu wird die Häufigkeitsverteilung 1400 der ermittelten Positionswerte 1402 gebildet. In dem Schritt 1526 wird die Disparität bestimmt. Dazu wird unter Verwendung der Häufigkeitsverteilung 1400 der Disparitätswert 1528 für denjenigen Bildpunkt des Referenzbilds 1101 ermittelt, für den die Schritte 1520, 1522, 1524 soeben ausgeführt wurden.In
Abweichend von der Beschreibung in
In dem Schritt 2230 werden diejenigen der sich in der Suchregion befindlichen Bildpunkte des Suchbilds 1302 extrahiert, für die im Schritt 1522 derjenige der Positionswerte 1402 bestimmt wurde, der die größte Häufigkeit in der Häufigkeitsverteilung 1400 aufweist. In dem Schritt 2232 wird anschließend die Oberflächennormale 2234 aus Positionen der im Schritt 2230 des Extrahierens extrahierten Bildpunkte des Suchbilds 1302 bestimmt.In
Durch Ausführen des Schritts 1529 wird, wie anhand von
Gemäß einem Ausführungsbeispiel werden die Schritte 1520, 1522, 1524, 1526, 2230, 2232 für jeden Bildpunkt des Referenzbilds 1101 durchgeführt also für jede Position p aus (nxm), wobei n und m die Anzahl der Zeilen und Spalten des Referenzbilds 1101 darstellen.According to an exemplary embodiment, steps 1520, 1522, 1524, 1526, 2230, 2232 are carried out for each pixel of the
Basierend auf den auf diese Weise ermittelten Oberflächennormalen 2234 wird optional das Oberflächen-Normalen-Bild 2200 der 3D-Welt ermittelt.Based on the
Die in
Das bereits anhand von
Die gleichzeitige Schätzung von Disparitäten, auch als Disparitätswerte 1528 bezeichnet, und Oberflächennormalen 2234 kann beispielsweise in jedem Multikamerasystem eingesetzt werden und bei einem Produktwechsel und/oder -update zum Einsatz kommen. Die Bilderfassungseinrichtungen 601, 602 können in Kraftfahrzeugen eingebaut werden, aber auch in anderen Domänen zum Einsatz kommen, in dem Kameras die Umgebung sensieren und Disparitäten mitsamt der zugehörigen Oberflächennormalen 2234 gesucht werden. Somit kann der beschriebene Ansatz beispielsweise bei Fahrerassistenzsystemen, sowohl für die Frontsensorik als auch in Kombination mit anderen Fahrzeug-Kameras eingesetzt werden.The simultaneous estimation of disparities, also referred to as
Neben den anhand von
In dem Schritt 2230 wird zunächst auf den häufigsten Positionswert zurückgegriffen, also auf denjenigen Positionswert, der in der Häufigkeitsverteilung die größte Häufigkeit aufgewiesen hat. Anschließend werden die diejenigen der sich in der Suchregion befindlichen Bildpunkte des Suchbilds extrahiert, für die im Schritt 1522 dieser häufigste Positionswert bestimmt wurde. In dem Schritt 2232 wird anschließend die Oberflächennormale 2234 aus Positionen der im Schritt 2230 des Extrahierens extrahierten Bildpunkte des Suchbilds 1302 bestimmt.In
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent Literature Cited
- DE 19636028 C1 [0003]DE 19636028 C1 [0003]
Claims (14)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021204411.5A DE102021204411A1 (en) | 2021-05-03 | 2021-05-03 | Method and apparatus for determining disparity and vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021204411.5A DE102021204411A1 (en) | 2021-05-03 | 2021-05-03 | Method and apparatus for determining disparity and vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102021204411A1 true DE102021204411A1 (en) | 2022-11-03 |
Family
ID=83600658
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102021204411.5A Pending DE102021204411A1 (en) | 2021-05-03 | 2021-05-03 | Method and apparatus for determining disparity and vehicle |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102021204411A1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19636028C1 (en) | 1996-09-05 | 1997-11-20 | Daimler Benz Ag | Stereo image object detection, esp. for road vehicles |
-
2021
- 2021-05-03 DE DE102021204411.5A patent/DE102021204411A1/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19636028C1 (en) | 1996-09-05 | 1997-11-20 | Daimler Benz Ag | Stereo image object detection, esp. for road vehicles |
Non-Patent Citations (2)
Title |
---|
LU, Jiangbo; LAFRUIT, Gauthier; CATTHOOR, Francky. Anisotropic local high-confidence voting for accurate stereo correspondence. In: Image Processing: Algorithms and Systems VI. International Society for Optics and Photonics, 2008. S. 68120J-1 bis 68120J-12 |
Ramya Narasimha, Elise Arnaud, Florence Forbes, Radu Horaud. A Joint Framework for Disparity and Surface Normal Estimation. Research Report RR-7090, INRIA, 2009 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112018000899T5 (en) | Joint 3D object detection and orientation estimation via multimodal fusion | |
DE102010012262A1 (en) | Image processing device | |
DE112014000155B4 (en) | Method for determining depth maps from stereo images with improved depth resolution in an area | |
DE112011103452T5 (en) | Method for matching pixels of a distance representation | |
DE112018007485T5 (en) | Road surface detection device, image display device using a road surface detection device, obstacle detection device using a road surface detection device, road surface detection method, image display method using a road surface detection method, and obstacle detection method using a road surface detection method | |
DE102016208056A1 (en) | Method and device for processing image data and driver assistance system for a vehicle | |
DE102019101482A1 (en) | DETECTION DEVICE FOR THE EXTERNAL ENVIRONMENT OF A VEHICLE | |
DE102016014783A1 (en) | Method for detecting objects | |
DE102008015535B4 (en) | Process for image processing of stereo images | |
DE102008036219A1 (en) | Method for identification of object i.e. traffic sign, in surrounding area of e.g. passenger car, involves determining similarity measure between multiple characteristics of image region and multiple characteristics of characteristic set | |
EP4000005A1 (en) | Method for determining the position of a first image region in a correspondence image, soc and control device, and system for carrying out the method, and computer program | |
DE102021204411A1 (en) | Method and apparatus for determining disparity and vehicle | |
DE102019209473A1 (en) | Method and device for the rapid detection of repetitive structures in the image of a street scene | |
DE102016124123A1 (en) | A method for generating a cluster of image areas for capturing a target object in an image, computer program product, camera system and motor vehicle | |
DE102007027958A1 (en) | Method for optimizing a stereoscopic image | |
EP1756748B1 (en) | Method for the classification of an object by means of a stereo camera | |
EP3465608B1 (en) | Method and device for determining a transfer between two display images, and vehicle | |
DE10310849B4 (en) | Method for photogrammetric distance and / or position determination | |
DE102014211709B4 (en) | Method for the computer-aided three-dimensional reconstruction of a surface of an object from digital image data | |
DE102022123295A1 (en) | Stereo vision system, driver assistance system and method for generating a stereo vision from two 2D representations | |
DE19630194B4 (en) | Method for detecting objects | |
DE102010009620A1 (en) | Method for detecting obstacle in car surroundings, involves detecting image by monocular image capture system, comparing intensity difference with predetermined threshold, and detecting obstacle when difference is larger than threshold | |
DE102016223079B4 (en) | Method and device for determining an association between a matrix element of a matrix and a comparison matrix element of a comparison matrix using a correspondence table | |
DE102017217156B4 (en) | Method and device for controlling a driver assistance system using a stereo camera system with a first and a second camera | |
DE102018121265A1 (en) | Method for determining an angle for determining a pose of a trailer |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified |