DE10103870B4 - Verfahren zur Bilderkennung bei Kraftfahrzeugen - Google Patents
Verfahren zur Bilderkennung bei Kraftfahrzeugen Download PDFInfo
- Publication number
- DE10103870B4 DE10103870B4 DE10103870A DE10103870A DE10103870B4 DE 10103870 B4 DE10103870 B4 DE 10103870B4 DE 10103870 A DE10103870 A DE 10103870A DE 10103870 A DE10103870 A DE 10103870A DE 10103870 B4 DE10103870 B4 DE 10103870B4
- Authority
- DE
- Germany
- Prior art keywords
- camera
- image
- sensor
- mirror image
- original image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
- G01C11/06—Interpretation of pictures by comparison of two or more pictures of the same area
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/16—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
- B60R21/01—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
- B60R21/013—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
- B60R21/0134—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Abstract
Verfahren zur Bilderkennung bei Kraftfahrzeugen, bei dem von einem Gegenstand ausgehende elektromagnetische Wellen von wenigstens einem Sensor sowohl bezüglich ihrer Intensität als auch bezüglich ihrer Richtung aufgenommen, ausgewertet und einer Bildmatrix übergeben werden, dadurch gekennzeichnet,
– daß die Lage und die Geometrie einer reflektierenden Fläche der Karosserie zu dem Sensor ermittelt wird,
– daß von dem Sensor das ungestörte Originalbild des Gegenstandes aufgenommen wird,
– daß zusätzlich Reflexionswellen von dem Gegenstand, welche von der reflektierenden Fläche gespiegelt werden, im folgenden Spiegelbild genannt, aufgenommen wird und
– daß das Spiegelbild und das Originalbild zur Auswertung herangezogen wird.
– daß die Lage und die Geometrie einer reflektierenden Fläche der Karosserie zu dem Sensor ermittelt wird,
– daß von dem Sensor das ungestörte Originalbild des Gegenstandes aufgenommen wird,
– daß zusätzlich Reflexionswellen von dem Gegenstand, welche von der reflektierenden Fläche gespiegelt werden, im folgenden Spiegelbild genannt, aufgenommen wird und
– daß das Spiegelbild und das Originalbild zur Auswertung herangezogen wird.
Description
- Die Erfindung betrifft ein Verfahren zur Bilderkennung bei Kraftfahrzeugen, bei dem von einem Gegenstand ausgehende elektromagnetische Wellen von wenigstens einem Sensor sowohl bezüglich ihrer Intensität als auch bezüglich ihrer Richtung aufgenommen, ausgewertet und einer Bildmatrix übergeben werden, wie es in der Industrie und insbesondere in der Automobilindustrie verwendet wird.
- Aus dem Artikel Nayar S.K., 1988, Sphereo: Determining Depth using Two Specular Spheres and a Single Camera, In Proceedings of SPIE: Optics, Illumination, and Image Sensing for Machine Vision III, Vol. 1005., SPIE, Society of Photo-Optical Engineering, 245–254 ist ein Verfahren und eine Vorrichtung zur Entfernungsmessung von Gegenständen bekannt, bei dem eine Kamera das Originalbild eines Gegenstandes sowie zwei Spiegelbilder des Gegenstandes, die an zwei spiegelnden Flächen reflektiert werden, aufnimmt. Mit diesen drei Bildern kann dann unter Zuhilfenahme eines mathematischen Algorithmus der Abstand des Gegenstandes bestimmt werden. Bei diesem Verfahren ist es wesentlich, daß die spiegelnden Flächen eine bestimmte Geometrie aufweisen. Ferner ist es unabdingbar, daß auch die örtlich Lage der spiegelnden Flächen sowohl hinsichtlich ihrer Entfernung und ihres Winkels bezüglich der Kamera als auch zueinander bekannt und immer gleichbleibend ist. Eine derartige Vorrichtung und damit das zugehörige Verfahren ist für eine Verwendung in einem Kraftfahrzeug und hierbei insbesondere einem Automobil allenfalls bedingt geeignet.
- Des weiteren ist insbesondere im Bereich der Computer und Robottechnik eine Verfahren (Stereobildverarbeitung) bekannt, bei dem unter Zuhilfenahme zweier Kameras die Entfernung eines Gegenstandes bestimmt wird. Dabei geht die Basislinie, also die Entfernung der Kameras zueinander, in die Messgenauigkeit ein. Aus diesem Blickwinkel wäre eine möglichst große Basislinie wünschenswert, was in einem Fahrzeug nur in engen Grenzen möglicht ist. Des weiteren muss, um die Entfernung des Gegenstandes bestimmen zu können, das Objekt im linken Bild und im rechten Bild eindeutig identifiziert werden. Die Wahrscheinlichkeit, diese Korrespondenz korrekt zu finden, wird Matching genannt und nimmt mit wachsender Basislinie und damit wachsendem Blickwinkelunterschied ab. Es muss also eine Abwägung zwischen Messgenauigkeit und Matching-Wahrscheinlichkeit vorgenommen werden.
- Aus dem Patent
US 5 530 420 A ist ein kamerabasiertes Umgebungserfassungssystem für Kraftfahrzeuge bekannt, welches auf Grundlage der Stereobildverarbeitung arbeitet. Hierbei werden von Objekten vor dem Kraftfahrzeug aus den durch von einem Kamerapaar erfassten Bilddaten dreidimensionale Positionsdaten errechnet, wobei die Position und Ausrichtung der einzelnen Kameras zueinander und in Bezug das Kraftfahrzeug in die Berechnung einfließen. Auch bei diesem System muss wie vorab beschrieben, eine Abwägung zwischen Messgenauigkeit und Matching-Wahrscheinlichkeit vorgenommen werden. - Darüber hinaus treten beim Zwei-Kamera-Stereo Probleme mit repetitiven Mustern auf. Lattenzäune, Alleenbäume oder Geländer, speziell wenn Teile des Musters für eine Kamera durch andere Objekte verdeckt sind, führen bei zwei Kameras zu falschem Matching und damit zu falschen Objektentfernungen Verdeckungen treten durch die verschiedensten Objekte auf. Dies kann ein vorausfahrendes Fahrzeug oder auch der Scheibenwischer sein, der den Blick einer Kamera gerade verdeckt.
- Aufgabe der Erfindung ist es, ein Verfahren zur Entfernungsmessung zur Verfügung zu stellen, dass bei möglichst geringen Kosten zumindest einige der genannten Nachteile verringert, insbesondere beseitigt.
- Die Aufgabe wird durch ein Verfahren mit den Verfahrensschritten des Anspruch 1 gelöst. Da insbesondere eine in hoher Qualität lackierte Motorhaube bei Kraftfahrzeugen quasi als Spiegel betrachtet werden kann, ist es möglich, die Spiegelung eines Gegenstandes auf der Motorhaube als Referenz zu betrachten. Die Wirkung ist hierbei mit dem Einsatz einer weiteren Kamera zu vergleichen, die direkt beobachtbare Gegenstände aus einem an deren Blickwinkel zeigt. Die Spiegelbilder können direkt den zu betrachteten Gegenständen zugeordnet werden. Durch die insbesondere auch aus der Astronomie bekannten mathematischen Algorithmen können diese Reflexionen perspektivisch richtig zu rekonstruiert werden. Daher ist es möglich, ohne jeden weiteren Hardware-Aufwand, nur durch modellbasierte Berechnungen, insbesondere Probleme der Stereokamera zu minimieren oder zu eliminieren. Bei geeigneter Konfiguration kann mit einer Kamera Stereobildverarbeitung betrieben werden, um andere Problemstellungen in Monokamera-Anwendungen zu unterstützen. Die Rekonstruktionsmöglichkeiten werden beispielsweise durch die Verschmutzung der Motorhaube eingeschränkt. Wenn die Bildqualität die Verarbeitung aber erlaubt, können die Probleme in der Stereobildverarbeitung gelöst werden, da dann auch mit nur einer Kamera Stereoberechnung betrieben werden kann bzw. eine Lösung für selektive Matching-Hypothesenauswahl bei repetitiven Mustern möglich ist. Allerdings können die Bilder aus der Motorhaubenspiegelung nicht komplett, sondern nur lokal perspektivisch rekonstruiert werden. Eine komplette Rekonstruktion ist nur möglich, wenn die Motorhaube eine einem Kegelschnitt ähnliche Oberfläche aufweist. Lokal kann eine solche Oberfläche approximiert werden. Trotz dieser Einschränkung ist durch die erfindungsgemäße Erweiterung der Funktionalität in der Objektzuordnung die Zuverlässigkeit der Entfernungsbestimmung wesentlich verbessert.
- Weitere sinnvolle Ausgestaltungen sind den Unteransprüchen entnehmbar. Im übrigen wird die Erfindung anhand eines in den Zeichnungen dargestellten Ausführungsbeispiels erläutert. Dabei zeigt
-
1 eine Seitenansicht mit einer schematischen Darstellung eines Strahlengangs und -
2 ein Reflexionsbild des Strahlenganges nach1 auf einer Motorhaube. - In
1 ist eine Seitenansicht mit einer schematischen Darstellung eines Strahlengangs dargestellt, wie er bei einem erfindungsgemäßen Verfahren bei einem Fahrzeug in einem Auge einer Kamera, insbesondere in einer Stereokamera, auftritt. Die Punkte B und A beschreiben einen zwei Gegenstände, von denen der Gegenstand A zumindest teilweise durch den Gegenstand B verdeckt ist; d.h. das Originalbild der Lichtwelle von A liegt bzgl. der betrachteten Kamera entlang der gleichen Linie wie der Strahls. Da die Kamera in ihrer Lage zur Motorhaube fest ist, ergeben sich allerdings für die von ihr beobachtbaren Spiegelbilder der Gegenstände A und B unterschiedliche Ort. Mit Kenntnis der Geometrie der Motorhaube kann das zumindest zumeist verzerrte Spiegelbild B' bspw. durch einen modifizierten Bildvergleich mit dem Gegenstand B identifiziert werden. Durch diese Identifizierung wiederum ist es möglich, daß der Gegenstand A von dem von ihm zumindest teilweise verdeckten Gegenstand B meßtechnisch getrennt werden kann. Aufgrund dieser Trennbarkeit und der Kenntnis des Abstands von der Kamera und den Spiegelbildern A' und B' sowie deren Winkellage zur Kamera ist es ferner möglich, den Abstand zwischen A und B und somit zu berechnen. - Wie schon erwähnt ist es bei der Bildverarbeitung sinnvoll, eine Methoden zur Darstellung verzerrter Bilder anzuwenden. Eine Methode, in der gezielt Bildverzerrungen eingesetzt werden, sind bspw. Anamorphoten in der korrektiven Optik und der Filmtechnik. Jedes optische System mit verschiedenen Werten in den zwei Hauptschnitten bezeichnet man als anamorphotisch. Dies wird zumeist dazu verwendet, Astigmatismen zu korrigieren, wenn der Fehler nur in einem Meridian existiert.
- Zur Rekonstruktion der Bilder sind einige Methoden denkbar, von denen einige beschrieben werden. Sinnvollerweise werden für die Rekonstruktion der Bilder einige Annahmen gemacht, die nachfolgend aufgeführt werden.
-
- 1. Die Motorhaube ist ein spekularer Reflektor. Bei der Reflexion können spekulare und diffuse Anteile unterschieden werden. Bei der Modellierung von Computergraphiken oder bei der Formbestimmung aus dem Schattenwurf hängt die Richtungsverteilung der reflektierten Strahlung von den relativen Positionen von Beobachter, Fläche und Lichtquelle ab. Diese Verteilung wird durch ein sogenanntes BRDF-Modell (Bi-directional Reflectance Distribution Function) beschrieben. Diese Funktionen wurden für die verschiedenen Reflexionsmodelle ntwickelt. Da de glatte, glänzend lackierte Motorhaube eines der besten Lackteile am Auto ist und nur Rauhigkeiten im Mikrometerbereich aufweist, kann sie als spekularer Reflektor betrachtet. Dieser Umstand erlaubt die Behandlung der Abbildung durch die Strahlenoptik.
- 2. Die Kamera ist eine perspektivische Lochkamera. Aufgrund der technischen Anordnung und der verwendeten Kameras kommt die Behandlung einer perspektivischen Abbildung in Frage. Zweckmäßigerweise sollte aufgrund der Lichtschwäche in der Realität keine Lochkamera eingesetzt werden. Allerdings ist es durch die Korrektur der Linsenfehler möglich, das verwendete System auf eine Lochkamera zurückzuführen.
- 3. Das Bild wird auf einer Ebene rekonstruiert. Diese ist die Rekonstruktionsfläche, die einer korrekten menschlichen Perspektive entspricht, und die zum verwendeten Lochkameramodell gehört.
- 4. Im Bereich zwischen Spiegel und Kamera sind keine Objekte vorhanden. Sollten sich in diesem Bereich Objekte befinden, so müßten diese von Spiegelungen durch entsprechende Bildverarbeitungsschritte identifiziert werden. Wie es sich im Rahmen der beabsichtigten Anwendung und zur Lösung des Problems herausgestellt hat, ist günstigerweise die Annahme möglich, daß im entsprechenden Bildbereich nur Spiegelungen zu sehen sind.
- 5. Die Rekonstruktion beschränkt sich auf den mittleren, konkaven Bereich der Motorhaube. Da in den konvexen Bereichen der Motorhaube die stärksten Verzerrungen auftreten wird in diesen Bereichen die Rekonstruktion sehr komplex. Daher wird zur Rekonstruktion nur die Front des Fahrzeugs und der konkave mittlere Bereich der Motorhaube herangezogen. Aufgrund der Kameraposition, die vorzugsweise im Bereich des Innenrückspiegels angeordnet ist, enthält dieser Bereich auch die Richtungen, die bei dem erfindungsgemäßen Verfahren für die Rekonstruktion am wichtigsten sind. Hinzu kommt, daß diese Fläche in den CAD-Daten einem Flächenelement entspricht und nicht zusammengesetzt ist.
- 6. Die Konfiguration ist statisch. Unter einer statischen Konfiguration wird eine Konstanz der geometrischen Gegebenheiten verstanden. Es treten keine Veränderungen in der Haubengeometrie und relativen Position der ersten Modelle auf. In Rahmen einer Kamerakalibrierung und speziell einer adaptiven Kamerakalibrierung fällt diese Annahme weg.
- Für eine Rekonstruktion ist es ferner günstig, daß die geometrischen Daten, wie Aufpunkte der reflektierten Strahlen auf der Motorhaube und Normalenvektoren, an diesen Stellen bekannt sind. Diese könnten entweder aus CAD-Daten oder entsprechenden Kalibrierungsverfahren stammen, die später noch beschrieben werden.
- Eine Möglichkeit, das Bild zu rekonstruieren besteht darin, ein bekanntes Muster abzubilden, und die Reflexion mit dem Original zu vergleichen. Hierzu wird die Reflexion einer senkrecht vor dem Auto stehenden Kalibrierwand in der Motorhaube simuliert. Dabei ist die Verzerrung der quadratischen Struktur gut zu beobachten. Nun werden die korrespondierende Punkte der Bildebene und der Spiegelebene gesucht. Daraus ergibt sich ein zweidimensionales Feld mit Verschiebungsvektoren.
- Für die Stereobildverarbeitung ist es nötig, Bilder mit einem anderen Blickwinkel zu erhalten. Wird allerdings das Spiegelbild mit dem direkt sichtbaren Bereich korrigiert, so geht dabei genau diese zusätzliche Information verloren. In diesem Fall muß das Spiegelbild auf die Sichtweise einer solchen virtuellen Kamera korrigiert werden. Die extrinsischen Parameter dieser virtuellen Kamera sind so aber nicht bekannt.
- Werden andere Verfahren angewandt, um diese Kamera zu berechnen, so ist die Lösung der Rekonstruktionsaufgabe vollbracht und dieses zweidimensionale bildbasierte Korrekturverfahren obsolet.
- Die oben Vorgehensweisen zielen im wesentlichen darauf ab, die Position und Blickrichtung einer virtuellen Kamera zur Bildrekonstruktion zu finden. Sind diese extrinsischen Kameraparameter der virtuellen Kamera gefunden, kann das Spiegelbild mit Hilfe der Haubengeometrie rekonstruiert werden. Um diese äußeren Parameter der virtuellen Kamera genau bestimmen zu können, müssen zuerst die äußeren Parameter der realen Kamera bekannt sein.
- Insbesondere ist die Auswirkungen unterschiedlicher Kamerapositionen auf einen Meßfehler beachtlich. Daher werden in den folgenden Abschnitten werden verschiedene Verfahren vorgestellt, die dazu dienen könnten, die Position und Blickrichtung der realen Kamera relativ zur Motorhaube zu bestimmen. In vorteilhaf ter Weise können mit diesen Verfahren sogar teilweise auch die geometrischen Eigenschaften der Oberfläche mitbestimmt werden, so daß nicht auf CAD-Daten zurückgegriffen werden muß. Die intrinsischen Kameraparameter der virtuellen Kamera können hingegen frei gewählt werden.
- Zur Vereinfachung der Weiterverarbeitung im multiokularen System werden die inneren Parameter der realen Kamera übernommen.
- Die Streifenprojektion ist eine Methode zur Vermessung von dreidimensionalen Oberflächen. Dazu wird ein spezieller Aufbau verwendet, bei dem die relativen Positionen des Streifenprojektors und der Kamera genau bekannt sind. Dann wird eine Folge verschiedener Streifenmuster auf das Objekt projiziert und durch die Kamera aufgenommen. Die Streifen durchschneiden das Objekt in Ebenen, und durch die Positionsbestimmung des bekannten Streifens im Bild der Kamera kann die Schnittebene berechnet werden. Bei entsprechender Dauer der Messung und Entfernung des Objekts vom Meßaufbau kann Genauigkeit in Submillimeterbereich erzielt werden. Diese Daten können durch Triangulation angenähert werden, so daß die Oberfläche mathematisch bekannt ist und Aufpunkte und Normalenvektoren berechnet werden können.
- Durch die Aufnahme des Bildes mit einer CCD und/oder einer CMOS oder sonstig geeigneten Kamera findet eine Diskretisierung statt, so daß eine entsprechende Diskretisierung der Oberfläche ausreichend sein könnte. Durch die Zuordnung von Bildbereichen zu Objekten kann dann wiederum eine Verbesserung der Berechnung erzielt werden. Bei dem nun vorgestellten Verfahren, das an die sogenannte Laser Guide Star Methode angelehnt ist, werden zwei Aufnahmen einer Kalibrierungswand verwendet. Da sowohl der Aufpunkt wie auch die Reflexionsrichtung bzw. der Normalenvektor an der Stelle bestimmt werden müssen, benötigt man mehr als eine Aufnahme. Für jedes Pixel im Bereich der Motorhaube (z0) wird das entsprechende Pixel des korrespondierenden Gegenstands im direkten Sichtbereich gesucht (z). Nach der Verschiebung der Wand wird dasselbe Pixel z0 verwendet und das nun verschobene korrespondierende Pixel z0 gesucht. Da die Geometrie und die Entfernung der Kalibrierungswand (a, a0, x, x0) bekannt sind, kann der Aufpunkt (xp, zp) berechnet werden. Die Bestimmung des Normalenvektors ist nicht mehr nötig, da mit dem Aufpunkt und x, a bzw. x0, a0 die Reflexionsrichtung im dreidimensionalen Raum direkt berechnet werden kann.
- Diese Methode verzichtet komplett auf CAD-Daten oder andere Datenquellen, die abhängig verwendet werden müßten. Neben der Kalibrierung liefert dieser Ansatz auch die geometrischen Informationen, die zur Berechnung der Objektentfernungen benötigt werden.
- Die beschriebenen Lösungsansätze zielen in verschiedenen Richtungen, in denen jeweils unterschiedliche Probleme zu lösen sind. In jedem Fall nimmt jedoch die Kamerakalibrierung, also die Bestimmung der Position und Blickrichtung relativ zur Motorhaube, eine wichtige Stellung ein.
- Wird eine Rekonstruktion des Bildes im üblichen Sinn durchgeführt, so ist die Wahl des Blickpunktes und der Blickrichtung wichtig. Da nur rotierte Kegelschnitte in Verbindung mit einer entsprechenden Kamera ein katadioptrisches System mit einem einzelnen Blickpunkt liefern, werden bei der Rekonstruktion mit einem gewählten Blickpunkt immer Fehler auftreten. Die Blickrichtung spiegelt sich dabei in der Wahl der Rekonstruktionsebene, als Ebene senkrecht zur Blickrichtung, wider. Selbst die Wahl der Entfernung dieser Rekonstruktionsebene spielt in diesem fehlerbehafteten Ansatz dann eine Rolle. Wird also eine derartige Rekonstruktion verwendet, sind ausführliche Fehlerbetrachtungen nötig.
- Wird der Ansatz verwendet, daß zuerst die Objekterkennung in geeigneten Suchfenstern durchgeführt und dann für die entsprechende Pixel trianguliert wird, ist die zu erwartende Entfer nungsgenauigkeit wesentlich größer, da in diesem Sinne keine Rekonstruktionsfehler auftreten.
- Um eine sinnvolle Rekonstruktion der von der Motorhaube reflektierten Bilder vorzunehmen, werden zuvor in zweckmäßiger Weise die Epipolaren der reflektierenden Fläche der Karosserie ermittelt.
- Zur Definition einer Epipolaren: Ein Sehstrahl S0 geht durch den Brennpunkt F0 einer Kamera K0 und eine Punkt P0 in der Bildebene der Kamera K0. Der Brennpunkt einer weiteren Kamera K1, die an einem anderen Ort wie K0 ist, hat den Brennpunkt F1. Die Epipolarebene, die durch Sehstrahl S0 und den Brennpunkt F1 definiert ist, schniedet die Bildebene der Kamera
1 entlang der Epipolarkurve L1. Bei einer Lochkamera ist die Epipolare L1 eine Linie. - Zur Ermittelung der Epipolaren werden vorzugsweise Spiegelungen von Eichgegenständen bekannter Geometrie aufgenommen, die von der Motorhaube einen bekannten Abstand aufweisen. Aus diesen (Eich-)Spiegelungen werden die Epipolaren ermittelt und eine Eichfunktion erstellt, welche später zur Auswertung herangezogen wird.
Claims (10)
- Verfahren zur Bilderkennung bei Kraftfahrzeugen, bei dem von einem Gegenstand ausgehende elektromagnetische Wellen von wenigstens einem Sensor sowohl bezüglich ihrer Intensität als auch bezüglich ihrer Richtung aufgenommen, ausgewertet und einer Bildmatrix übergeben werden, dadurch gekennzeichnet, – daß die Lage und die Geometrie einer reflektierenden Fläche der Karosserie zu dem Sensor ermittelt wird, – daß von dem Sensor das ungestörte Originalbild des Gegenstandes aufgenommen wird, – daß zusätzlich Reflexionswellen von dem Gegenstand, welche von der reflektierenden Fläche gespiegelt werden, im folgenden Spiegelbild genannt, aufgenommen wird und – daß das Spiegelbild und das Originalbild zur Auswertung herangezogen wird.
- Verfahren nach Anspruch 1, dadurch gekennzeichnet, – daß die Epipolaren der reflektierenden Fläche der Karosserie ermittelt werden, – daß mit Eichgegenständen bekannter Geometrie und bekanntem Abstand die Spiegelungen an den Epipolaren aufgenommen werden und – daß daraus eine Eichfunktion erstellt wird, – daß die Eichfunktion zur Auswertung herangezogen wird.
- Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß die Position des Spiegelbildes im Bezug zu den Epipolaren bestimmt wird und daß die Position des Spiegelbildes zur Bestimmung der Entfernung des Gegenstandes verwendet wird.
- Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß als Sensor eine Stereo-Kamera, insbesondere eine Stereo-CCD-Kamera, gewählt wird.
- Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß als Sensor eine Kamera gewählt wird und daß mit einer Kamera das Originalbild des Gegenstandes sowie die Reflexion an der Karosserie und als Referenzbild die Reflexion an einer in bekanntem Abstand von der Kamera angeordneten spiegelnden Fläche bekannter Geometrie, bevorzugt an einer Kugel, aufgenommen wird.
- Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß das Originalbild eines Gegenstandes getrennt von dem Spiegelbild des Gegenstandes ermittelt und ausgewertet wird und daß zwischen dem fertig bearbeiteten Originalbild und dem entsprechend aufbereiteten Spiegelbild korrespondierende Bildpunkte und/oder -ausschnitte ermittelt werden.
- Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß mittels korrespondierender Bildpunkte und/oder -flächen eine Triangulation zur Abstandsbestimmung des Gegenstandes durchgeführt wird.
- Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß mittels korrespondierender Bildpunkte und/oder -flächen eine Triangulation zur Winkelbestimmung des Gegenstandes durchgeführt wird.
- Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß mittels korrespondierender Bildpunkte und/oder -flächen eine Triangulation zur Ortsbestimmung des Gegenstandes durchgeführt wird.
- Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß der Meßbereich der elektromagnetischen Wellen von dem Ultravioletten bis zum FIR, insbesondere zwischen dem Ultravioletten und dem FIR gewählt wird.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10103870A DE10103870B4 (de) | 2001-01-30 | 2001-01-30 | Verfahren zur Bilderkennung bei Kraftfahrzeugen |
EP02702236A EP1358444A1 (de) | 2001-01-30 | 2002-01-05 | Verfahren zur bilderkennung bei kraftfahrzeugen |
PCT/EP2002/000056 WO2002061370A1 (de) | 2001-01-30 | 2002-01-05 | Verfahren zur bilderkennung bei kraftfahrzeugen |
US10/470,458 US20040071316A1 (en) | 2001-01-30 | 2002-01-05 | Method for image recognition in motor vehicles |
JP2002561894A JP2004522956A (ja) | 2001-01-30 | 2002-01-05 | 自動車用の画像認識方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10103870A DE10103870B4 (de) | 2001-01-30 | 2001-01-30 | Verfahren zur Bilderkennung bei Kraftfahrzeugen |
Publications (2)
Publication Number | Publication Date |
---|---|
DE10103870A1 DE10103870A1 (de) | 2002-08-22 |
DE10103870B4 true DE10103870B4 (de) | 2004-02-05 |
Family
ID=7672056
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE10103870A Expired - Fee Related DE10103870B4 (de) | 2001-01-30 | 2001-01-30 | Verfahren zur Bilderkennung bei Kraftfahrzeugen |
Country Status (5)
Country | Link |
---|---|
US (1) | US20040071316A1 (de) |
EP (1) | EP1358444A1 (de) |
JP (1) | JP2004522956A (de) |
DE (1) | DE10103870B4 (de) |
WO (1) | WO2002061370A1 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102006004770A1 (de) * | 2005-11-09 | 2007-05-10 | Daimlerchrysler Ag | Verfahren zur bildgestützten Erkennung von Fahrzeugen im Umfeld eines Sraßenfahrzeugs |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10201523A1 (de) * | 2002-01-17 | 2003-07-31 | Bosch Gmbh Robert | Verfahren und Vorrichtung zur Verdeckungsdetektion bei Bildsensorsystemen |
DE10234645B4 (de) * | 2002-07-29 | 2004-07-22 | Daimlerchrysler Ag | Kameraanordnung mit einer spiegelnden Fläche |
DE10310265A1 (de) * | 2003-02-25 | 2004-09-09 | Daimlerchrysler Ag | Spiegel zur optoelektronischen Umgebungserfassung an einem Fahrzeug |
DE10310264A1 (de) * | 2003-02-25 | 2004-09-09 | Daimlerchrysler Ag | Katadioptrische Kamera für eine technische Einrichtung, insbesondere ein Kraftfahrzeug |
DE10323560B4 (de) * | 2003-05-26 | 2010-12-02 | Robert Bosch Gmbh | Kamera und Vorrichtung zur Ermittlung der Helligkeit der Umgebung eines Kraftfahrzeuges |
US8760632B2 (en) | 2009-11-09 | 2014-06-24 | Toyota Jidosha Kabushiki Kaisha | Distance measuring apparatus and distance measuring method |
DE102013226760A1 (de) * | 2013-12-19 | 2015-06-25 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Erkennung von Objektreflexionen |
JP6433268B2 (ja) * | 2014-03-31 | 2018-12-05 | 国立大学法人 東京大学 | 検査システムおよび検査方法 |
KR102273027B1 (ko) | 2014-06-09 | 2021-07-05 | 삼성전자주식회사 | 위치정보를 사용하여 설정된 관심영역을 사용하여 영상데이터를 생성하는 방법 및 장치 |
JP2018155565A (ja) * | 2017-03-16 | 2018-10-04 | 株式会社富士通ゼネラル | 画像処理装置 |
US11062149B2 (en) * | 2018-03-02 | 2021-07-13 | Honda Motor Co., Ltd. | System and method for recording images reflected from a visor |
EP4067814A1 (de) * | 2021-03-29 | 2022-10-05 | Teledyne FLIR Commercial Systems, Inc. | Radiometrische thermische bildgebungsverbesserungen für navigationssysteme und verfahren |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5530420A (en) * | 1993-12-27 | 1996-06-25 | Fuji Jukogyo Kabushiki Kaisha | Running guide apparatus for vehicle capable of keeping safety at passing through narrow path and the method thereof |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5465153A (en) * | 1991-10-04 | 1995-11-07 | Kms Fusion, Inc. | Electro-optical system for gauging specular surface profile deviations |
US5517575A (en) * | 1991-10-04 | 1996-05-14 | Ladewski; Theodore B. | Methods of correcting optically generated errors in an electro-optical gauging system |
US5670935A (en) * | 1993-02-26 | 1997-09-23 | Donnelly Corporation | Rearview vision system for vehicle including panoramic view |
IL109385A (en) * | 1993-04-22 | 1998-03-10 | Pixsys | A system for locating the relative location of objects in three-dimensional space |
US5615003A (en) * | 1994-11-29 | 1997-03-25 | Hermary; Alexander T. | Electromagnetic profile scanner |
US5852672A (en) * | 1995-07-10 | 1998-12-22 | The Regents Of The University Of California | Image system for three dimensional, 360 DEGREE, time sequence surface mapping of moving objects |
US5988862A (en) * | 1996-04-24 | 1999-11-23 | Cyra Technologies, Inc. | Integrated system for quickly and accurately imaging and modeling three dimensional objects |
US6304263B1 (en) * | 1996-06-05 | 2001-10-16 | Hyper3D Corp. | Three-dimensional display system: apparatus and method |
JP3866328B2 (ja) * | 1996-06-06 | 2007-01-10 | 富士重工業株式会社 | 車両周辺立体物認識装置 |
JP3516856B2 (ja) * | 1998-01-30 | 2004-04-05 | 富士重工業株式会社 | 車外監視装置 |
US6212132B1 (en) * | 1998-08-04 | 2001-04-03 | Japan Radio Co., Ltd. | Three-dimensional radar apparatus and method for displaying three-dimensional radar image |
JP2001028056A (ja) * | 1999-07-14 | 2001-01-30 | Fuji Heavy Ind Ltd | フェールセーフ機能を有するステレオ式車外監視装置 |
US6873724B2 (en) * | 2001-08-08 | 2005-03-29 | Mitsubishi Electric Research Laboratories, Inc. | Rendering deformable 3D models recovered from videos |
-
2001
- 2001-01-30 DE DE10103870A patent/DE10103870B4/de not_active Expired - Fee Related
-
2002
- 2002-01-05 EP EP02702236A patent/EP1358444A1/de not_active Withdrawn
- 2002-01-05 US US10/470,458 patent/US20040071316A1/en not_active Abandoned
- 2002-01-05 JP JP2002561894A patent/JP2004522956A/ja active Pending
- 2002-01-05 WO PCT/EP2002/000056 patent/WO2002061370A1/de not_active Application Discontinuation
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5530420A (en) * | 1993-12-27 | 1996-06-25 | Fuji Jukogyo Kabushiki Kaisha | Running guide apparatus for vehicle capable of keeping safety at passing through narrow path and the method thereof |
Non-Patent Citations (1)
Title |
---|
NAYAR,S.K.: Sphero: Determining Using Two Specular Spheres and a Single Camera. In: SPIE Vol. 1005 Optics, Illumination, and Image Sensing Machine Vision III, 1988, S. 245-254 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102006004770A1 (de) * | 2005-11-09 | 2007-05-10 | Daimlerchrysler Ag | Verfahren zur bildgestützten Erkennung von Fahrzeugen im Umfeld eines Sraßenfahrzeugs |
DE102006004770B4 (de) * | 2005-11-09 | 2007-10-11 | Daimlerchrysler Ag | Verfahren zur bildgestützten Erkennung von Fahrzeugen im Umfeld eines Sraßenfahrzeugs |
Also Published As
Publication number | Publication date |
---|---|
JP2004522956A (ja) | 2004-07-29 |
DE10103870A1 (de) | 2002-08-22 |
US20040071316A1 (en) | 2004-04-15 |
WO2002061370A1 (de) | 2002-08-08 |
EP1358444A1 (de) | 2003-11-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE10103870B4 (de) | Verfahren zur Bilderkennung bei Kraftfahrzeugen | |
EP2002203B1 (de) | Verfahren und system zur formmessung einer spiegelnden oberfläche | |
DE102016123568A1 (de) | Holographische wellenleiter(hud)-seitenblickanzeige | |
EP3256036B1 (de) | Vorrichtung und verfahren zur abstandsbestimmung und/oder zentrierung unter verwendung von hornhautreflexionen | |
WO2017206999A1 (de) | Verfahren zur auswertung von bilddaten einer fahrzeugkamera | |
DE102014115037A1 (de) | Sichtbasierte Objekterkennung und -hervorhebung bei Fahrzeugbildanzeigesystemen | |
DE112016001150T5 (de) | Schätzung extrinsischer kameraparameter anhand von bildlinien | |
DE102008031784A1 (de) | Verfahren und Vorrichtung zur Verzerrungskorrektur und Bildverbesserung eines Fahrzeugrückblicksystems | |
DE102007059735A1 (de) | Stereo-Sichtsystem für Fahrzeuge zur Erkennung seitlich liegender Hindernisse | |
DE102012018325A1 (de) | Verfahren und Vorrichtung für ein bildgebendes Fahrerassistenzsystem mit adaptiver Umsichtdarstellung | |
DE102010039092B4 (de) | Verfahren und Steuergerät zum Ermitteln eines Abstandes eines Objektes von einem Fahrzeug | |
WO2015000898A1 (de) | Verfahren und vorrichtung zur optischen formerfassung und/oder prüfung eines gegenstandes | |
DE102018100909A1 (de) | Verfahren zum Rekonstruieren von Bildern einer Szene, die durch ein multifokales Kamerasystem aufgenommen werden | |
DE102017217870B4 (de) | Verfahren zum Zusammenfügen von Teilbildern zu einem Abbild eines zusammenhängenden Umgebungsbereiches eines Fahrzeugs sowie Fahrerassistenzsystem und Fahrzeug | |
DE102018213269A1 (de) | Verfahren zum Betreiben einer Blickfeldanzeigevorrichtung für ein Kraftfahr-zeug | |
DE102017219790A1 (de) | System und Verfahren zum Bestimmen einer Pose einer Augmented-Reality-Brille, System und Verfahren zum Einmessen einer Augmented-Reality-Brille, Verfahren zum Unterstützen einer Posenbestimmung einer Augmented-Reality-Brille und für das Verfahren geeignetes Kraftfahrzeug | |
DE102019103519A1 (de) | Vorrichtung zum Bestimmen von dimensionalen und/oder geometrischen Eigenschaften eines Messobjekts | |
DE10014964C2 (de) | Verfahren zum optischen Messen der Form spiegelnder Oberflächen | |
DE102017221317A1 (de) | Verfahren und Vorrichtung zum Betreiben einer Datenbrille in einem Kraftfahrzeug | |
DE102014224274B4 (de) | Vorrichtung und verfahren zum optischen vermessen von gegenständen mittels spiegelndem fluss und stereo-regularisierung | |
DE102007037131A1 (de) | Verfahren zur dreidimensionalen Vermessung einer Oberfläche | |
DE102005060980A1 (de) | Verfahren und System zur Bestimmung eines dreidimensionalen Raumes gegenüber einer realen Umgebung | |
DE102017117594A1 (de) | Automatisierte Erkennung einer Scheinwerferfehlstellung | |
DE102017210415A1 (de) | Verfahren zum Bereitstellen einer Bildmaske für die Abgrenzung einer Interessensregion in einem Kamerabild einer Umfeldkamera eines Kraftfahrzeugs sowie Steuervorrichtung, Umfeldkamera und Kraftfahrzeug | |
DE10117390A1 (de) | Vorrichtung zur quantitativen Beurteilung der räumlichen Lage zweier Maschinenteile, Werkstücke oder anderer Gegenstände relativ zueinander |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |