DE10103870A1 - Verfahren zur Bilderkennung bei Kraftfahrzeugen - Google Patents

Verfahren zur Bilderkennung bei Kraftfahrzeugen

Info

Publication number
DE10103870A1
DE10103870A1 DE10103870A DE10103870A DE10103870A1 DE 10103870 A1 DE10103870 A1 DE 10103870A1 DE 10103870 A DE10103870 A DE 10103870A DE 10103870 A DE10103870 A DE 10103870A DE 10103870 A1 DE10103870 A1 DE 10103870A1
Authority
DE
Germany
Prior art keywords
camera
image
sensor
determined
original image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE10103870A
Other languages
English (en)
Other versions
DE10103870B4 (de
Inventor
Fridtjof Stein
Alexander Wuerz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
DaimlerChrysler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DaimlerChrysler AG filed Critical DaimlerChrysler AG
Priority to DE10103870A priority Critical patent/DE10103870B4/de
Priority to EP02702236A priority patent/EP1358444A1/de
Priority to JP2002561894A priority patent/JP2004522956A/ja
Priority to PCT/EP2002/000056 priority patent/WO2002061370A1/de
Priority to US10/470,458 priority patent/US20040071316A1/en
Publication of DE10103870A1 publication Critical patent/DE10103870A1/de
Application granted granted Critical
Publication of DE10103870B4 publication Critical patent/DE10103870B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Electromagnetism (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Bilderkennung bei Kraftfahrzeugen, bei dem von einem Gegenstand ausgehende elektromagnetische Wellen von wenigstens einem Sensor sowohl bezüglich ihrer Intensität als auch bezüglich ihrer Richtung aufgenommen, ausgewertet und einer Bildmatrix übergeben werden. Von dem Sensor wird das ungestörte Originalbild des Gegenstandes und zusätzlich Reflexionswellen von dem Gegenstand, welche an der Karosserie reflektiert werden, im folgenden Spiegelbild genannt, aufgenommen. Anschließend wird das Spiegelbild und das Originalbild zur Auswertung herangezogen, wobei zuvor die Lage und die Geometrie der reflektierenden Fläche der Karosserie zu dem Sensor ermittelt wird.

Description

Die Erfindung betrifft ein Verfahren zur Bilderkennung bei Kraftfahrzeugen, bei dem von einem Gegenstand ausgehende elekt­ romagnetische Wellen von wenigstens einem Sensor sowohl bezüg­ lich ihrer Intensität als auch bezüglich ihrer Richtung aufge­ nommen, ausgewertet und einer Bildmatrix übergeben werden, wie es in der Industrie und insbesondere in der Automobilindustrie verwendet wird.
Aus dem Artikel Nayar S. K., 1988, Sphereo: Determining Depth u­ sing Two Specular Spheres and a Single Camera, In Proceedings of SPIE: Optics, Illumination, and Image Sensing for Machine Vision III, Vol. 1005., SPIE, Society of Photo-Optical Enginee­ ring, 245-254 ist ein Verfahren und eine Vorrichtung zur Ent­ fernungsmessung von Gegenständen bekannt, bei dem eine Kamera das Originalbild eines Gegenstandes sowie zwei Spiegelbilder des Gegenstandes, die an zwei spiegelnden Flächen reflektiert werden, aufnimmt. Mit diesen drei Bildern kann dann unter Zu­ hilfenahme eines mathematischen Algorithmus der Abstand des Ge­ genstandes bestimmt werden. Bei diesem Verfahren ist es wesent­ lich, daß die spiegelnden Flächen eine bestimmte Geometrie auf­ weisen. Ferner ist es unabdingbar, daß auch die örtlich Lage der spiegelnden Flächen sowohl hinsichtlich ihrer Entfernung und ihres Winkels bezüglich der Kamera als auch zueinander be­ kannt und immer gleichbleibend ist. Eine derartige Vorrichtung und damit das zugehörige Verfahren ist für eine Verwendung in einem Kraftfahrzeug und hierbei insbesondere einem Automobil allenfalls bedingt geeignet.
Des weiteren ist insbesondere im Bereich der Computer und Ro­ bottechnik eine Verfahren (Stereobildverarbeitung) bekannt, bei dem unter Zuhilfenahme zweier Kameras die Entfernung eines Ge­ genstandes bestimmt wird. Dabei geht die Basislinie, also die Entfernung der Kameras zueinander, in die Meßgenauigkeit ein. Aus diesem Blickwinkel wäre eine möglichst große Basislinie wünschenswert, was in einem Fahrzeug nur in engen Grenzen mög­ licht ist. Des weiteren muß um die Entfernung des Gegenstandes bestimmen zu können, muß das Objekt im linken Bild und im rech­ ten Bild eindeutig identifiziert werden. Die Wahrscheinlich­ keit, diese Korrespondenz korrekt zu finden, wird Matching ge­ nannt und nimmt mit wachsender Basislinie und damit wachsendem Blickwinkelunterschied ab. Es muß also eine Abwägung zwischen Meßgenauigkeit und Matching-Wahrscheinlichkeit vorgenommen wer­ den.
Darüber hinaus treten beim Zwei-Kamera-Stereo Probleme mit re­ petitiven Mustern auf. Lattenzäune, Alleenbäume oder Geländer, speziell wenn Teile des Musters für eine Kamera durch andere Objekte verdeckt sind, führen bei zwei Kameras zu falschem Mat­ ching und damit zu falschen Objektentfernungen. Verdeckungen treten durch die verschiedensten Objekte auf. Dies kann ein vo­ rausfahrendes Fahrzeug oder auch der Scheibenwischer sein, der den Blick einer Kamera gerade verdeckt.
Aufgabe der Erfindung ist es, ein Verfahren zur Entfernungsmes­ sung zur Verfügung zu stellen, daß bei möglichst geringen Kos­ ten zumindest einige der genannten Nachteile verringert, insbe­ sondere beseitigt.
Die Aufgabe wird durch ein Verfahren mit den Verfahrensschrit­ ten des Anspruch 1 gelöst. Da insbesondere eine in hoher Quali­ tät lackierte Motorhaube bei Kraftfahrzeugen quasi als Spiegel betrachtet werden kann, ist es möglich, die Spiegelung eines Gegenstandes auf der Motorhaube als Referenz zu betrachten. Die Wirkung ist hierbei mit dem Einsatz einer weiteren Kamera zu vergleichen, die direkt beobachtbare Gegenstände aus einem anderen Blickwinkel zeigt. Die Spiegelbilder können direkt den zu betrachteten Gegenständen zugeordnet werden. Durch die insbe­ sondere auch aus der Astronomie bekannten mathematischen Algo­ rithmen können diese Reflexionen perspektivisch richtig zu re­ konstruiert werden. Daher ist es möglich, ohne jeden weiteren Hardware-Aufwand, nur durch modellbasierte Berechnungen, insbe­ sondere Probleme der Stereokamera zu minimieren oder zu elimi­ nieren. Bei geeigneter Konfiguration kann mit einer Kamera Ste­ reobildverarbeitung betrieben werden, um andere Problemstellun­ gen in Monokamera-Anwendungen zu unterstützen. Die Rekonstruk­ tionsmöglichkeiten werden beispielsweise durch die Verschmut­ zung der Motorhaube eingeschränkt. Wenn die Bildqualität die Verarbeitung aber erlaubt, können die Probleme in der Stereo­ bildverarbeitung gelöst werden, da dann auch mit nur einer Ka­ mera Stereoberechnung betrieben werden kann bzw. eine Lösung für selektive Matching-Hypothesenauswahl bei repetitiven Mus­ tern möglich ist. Allerdings können die Bilder aus der Motor­ haubenspiegelung nicht komplett, sondern nur lokal perspekti­ visch rekonstruiert werden. Eine komplette Rekonstruktion ist nur möglich, wenn die Motorhaube eine einem Kegelschnitt ähnli­ che Oberfläche aufweist. Lokal kann eine solche Oberfläche ap­ proximiert werden. Trotz dieser Einschränkung ist durch die er­ findungsgemäße Erweiterung der Funktionalität in der Objektzu­ ordnung die Zuverlässigkeit der Entfernungsbestimmung wesent­ lich verbessert.
Weitere sinnvolle Ausgestaltungen sind den Unteransprüchen ent­ nehmbar. Im übrigen wird die Erfindung anhand eines in den Zeichnungen dargestellten Ausführungsbeispiels erläutert. Dabei zeigt
Fig. 1 eine Seitenansicht mit einer schematischen Darstellung eines Strahlengangs und
Fig. 2 ein Reflexionsbild des Strahlenganges nach Fig. 1 auf einer Motorhaube.
In Fig. 1 ist eine Seitenansicht mit einer schematischen Dar­ stellung eines Strahlengangs dargestellt, wie er bei einem er­ findungsgemäßen Verfahren bei einem Fahrzeug in einem Auge ei­ ner Kamera, insbesondere in einer Stereokamera, auftritt. Die Punkte B und A beschreiben einen zwei Gegenstände, von denen der Gegenstand A zumindest teilweise durch den Gegenstand B verdeckt ist; d. h. das Originalbild der Lichtwelle von A liegt bzgl. der betrachteten Kamera entlang der gleichen Linie wie der Strahls. Da die Kamera in ihrer Lage zur Motorhaube fest ist, ergeben sich allerdings für die von ihr beobachtbaren Spiegelbilder der Gegenstände A und B unterschiedliche Ort. Mit Kenntnis der Geometrie der Motorhaube kann das zumindest zu­ meist verzerrte Spiegelbild B' bspw. durch einen modifizierten Bildvergleich mit dem Gegenstand B identifiziert werden. Durch diese Identifizierung wiederum ist es möglich, daß der Gegens­ tand A von dem von ihm zumindest teilweise verdeckten Gegens­ tand B meßtechnisch getrennt werden kann. Aufgrund dieser Trennbarkeit und der Kenntnis des Abstands von der Kamera und den Spiegelbildern A' und B' sowie deren Winkellage zur Kamera ist es ferner möglich, den Abstand zwischen A und B und somit zu berechnen.
Wie schon erwähnt ist es bei der Bildverarbeitung sinnvoll, ei­ ne Methoden zur Darstellung verzerrter Bilder anzuwenden. Eine Methode, in der gezielt Bildverzerrungen eingesetzt werden, sind bspw. Anamorphoten in der korrektiven Optik und der Film­ technik. Jedes optische System mit verschiedenen Werten in den zwei Hauptschnitten bezeichnet man als anamorphotisch. Dies wird zumeist dazu verwendet, Astigmatismen zu korrigieren, wenn der Fehler nur in einem Meridian existiert.
Zur Rekonstruktion der Bilder sind einige Methoden denkbar, von denen einige beschrieben werden. Sinnvollerweise werden für die Rekonstruktion der Bilder einige Annahmen gemacht, die nachfol­ gend aufgeführt werden.
  • 1. Die Motorhaube ist ein spekularer Reflektor.
    Bei der Reflexion können spekulare und diffuse Anteile un­ terschieden werden. Bei der Modellierung von Computergra­ phiken oder bei der Formbestimmung aus dem Schattenwurf hängt die Richtungsverteilung der reflektierten Strahlung von den relativen Positionen von Beobachter, Fläche und Lichtquelle ab. Diese Verteilung wird durch ein sogenanntes BRDF-Modell (Bi-directional Reflectance Distribution Func­ tion) beschrieben. Diese Funktionen wurden für die ver­ schiedenen Reflexionsmodelle ntwickelt. Da de glatte, glän­ zend lackierte Motorhaube eines der besten Lackteile am Au­ to ist und nur Rauhigkeiten im Mikrometerbereich aufweist, kann sie als spekularer Reflektor betrachtet. Dieser Um­ stand erlaubt die Behandlung der Abbildung durch die Strah­ lenoptik.
  • 2. Die Kamera ist eine perspektivische Lochkamera.
    Aufgrund der technischen Anordnung und der verwendeten Ka­ meras kommt die Behandlung einer perspektivischen Abbildung in Frage. Zweckmäßigerweise sollte aufgrund der Lichtschwä­ che in der Realität keine Lochkamera eingesetzt werden. Al­ lerdings ist es durch die Korrektur der Linsenfehler mög­ lich, das verwendete System auf eine Lochkamera zurückzu­ führen.
  • 3. Das Bild wird auf einer Ebene rekonstruiert.
    Diese ist die Rekonstruktionsfläche, die einer korrekten menschlichen Perspektive entspricht, und die zum verwende­ ten Lochkameramodell gehört.
  • 4. Im Bereich zwischen Spiegel und Kamera sind keine Objekte vorhanden.
    Sollten sich in diesem Bereich Objekte befinden, so müßten diese von Spiegelungen durch entsprechende Bildverarbei­ tungsschritte identifiziert werden. Wie es sich im Rahmen der beabsichtigten Anwendung und zur Lösung des Problems herausgestellt hat, ist günstigerweise die Annahme möglich, daß im entsprechenden Bildbereich nur Spiegelungen zu sehen sind.
  • 5. Die Rekonstruktion beschränkt sich auf den mittleren, kon­ kaven Bereich der Motorhaube.
    Da in den konvexen Bereichen der Motorhaube die stärksten Verzerrungen auftreten wird in diesen Bereichen die Rekon­ struktion sehr komplex. Daher wird zur Rekonstruktion nur die Front des Fahrzeugs und der konkave mittlere Bereich der Motorhaube herangezogen. Aufgrund der Kameraposition, die vorzugsweise im Bereich des Innenrückspiegels angeord­ net ist, enthält dieser Bereich auch die Richtungen, die bei dem erfindungsgemäßen Verfahren für die Rekonstruktion am wichtigsten sind. Hinzu kommt, daß diese Fläche in den CAD-Daten einem Flächenelement entspricht und nicht zusam­ mengesetzt ist.
  • 6. Die Konfiguration ist statisch.
    Unter einer statischen Konfiguration wird eine Konstanz der geometrischen Gegebenheiten verstanden. Es treten keine Veränderungen in der Haubengeometrie und relativen Position der ersten Modelle auf. In Rahmen einer Kamerakalibrierung und speziell einer adaptiven Kamerakalibrierung fällt diese Annahme weg.
Für eine Rekonstruktion ist es ferner günstig, daß die geomet­ rischen Daten, wie Aufpunkte der reflektierten Strahlen auf der Motorhaube und Normalenvektoren, an diesen Stellen bekannt sind. Diese könnten entweder aus CAD-Daten oder entsprechenden Kalibrierungsverfahren stammen, die später noch beschrieben werden.
Eine Möglichkeit, das Bild zu rekonstruieren besteht darin, ein bekanntes Muster abzubilden, und die Reflexion mit dem Original zu vergleichen. Hierzu wird die Reflexion einer senkrecht vor dem Auto stehenden Kalibrierwand in der Motorhaube simuliert. Dabei ist die Verzerrung der quadratischen Struktur gut zu beo­ bachten. Nun werden die korrespondierende Punkte der Bildebene und der Spiegelebene gesucht. Daraus ergibt sich ein zweidimen­ sionales Feld mit Verschiebungsvektoren.
Für die Stereobildverarbeitung ist es nötig, Bilder mit einem anderen Blickwinkel zu erhalten. Wird allerdings das Spiegel­ bild mit dem direkt sichtbaren Bereich korrigiert, so geht da­ bei genau diese zusätzliche Information verloren. In diesem Fall muß das Spiegelbild auf die Sichtweise einer solchen vir­ tuellen Kamera korrigiert werden. Die extrinsischen Parameter dieser virtuellen Kamera sind so aber nicht bekannt.
Werden andere Verfahren angewandt, um diese Kamera zu berech­ nen, so ist die Lösung der Rekonstruktionsaufgabe vollbracht und dieses zweidimensionale bildbasierte Korrekturverfahren obsolet.
Die oben Vorgehensweisen zielen im wesentlichen darauf ab, die Position und Blickrichtung einer virtuellen Kamera zur Bildre­ konstruktion zu finden. Sind diese extrinsischen Kameraparame­ ter der virtuellen Kamera gefunden, kann das Spiegelbild mit Hilfe der Haubengeometrie rekonstruiert werden. Um diese äuße­ ren Parameter der virtuellen Kamera genau bestimmen zu können, müssen zuerst die äußeren Parameter der realen Kamera bekannt sein.
Insbesondere ist die Auswirkungen unterschiedlicher Kameraposi­ tionen auf einen Meßfehler beachtlich. Daher werden in den fol­ genden Abschnitten werden verschiedene Verfahren vorgestellt, die dazu dienen könnten, die Position und Blickrichtung der re­ alen Kamera relativ zur Motorhaube zu bestimmen. In vorteilhafter Weise können mit diesen Verfahren sogar teilweise auch die geometrischen Eigenschaften der Oberfläche mitbestimmt werden, so daß nicht auf CAD-Daten zurückgegriffen werden muß. Die in­ trinsischen Kameraparameter der virtuellen Kamera können hinge­ gen frei gewählt werden.
Zur Vereinfachung der Weiterverarbeitung im multiokularen Sys­ tem werden die inneren Parameter der realen Kamera übernommen.
Die Streifenprojektion ist eine Methode zur Vermessung von dreidimensionalen Oberflächen. Dazu wird ein spezieller Aufbau verwendet, bei dem die relativen Positionen des Streifenpro­ jektors und der Kamera genau bekannt sind. Dann wird eine Folge verschiedener Streifenmuster auf das Objekt projiziert und durch die Kamera aufgenommen. Die Streifen durchschneiden das Objekt in Ebenen, und durch die Positionsbestimmung des be­ kannten Streifens im Bild der Kamera kann die Schnittebene be­ rechnet werden. Bei entsprechender Dauer der Messung und Ent­ fernung des Objekts vom Meßaufbau kann Genauigkeit in Submilli­ meterbereich erzielt werden. Diese Daten können durch Triangu­ lation angenähert werden, so daß die Oberfläche mathematisch bekannt ist und Aufpunkte und Normalenvektoren berechnet werden können.
Durch die Aufnahme des Bildes mit einer CCD und/oder einer CMOS oder sonstig geeigneten Kamera findet eine Diskretisierung statt, so daß eine entsprechende Diskretisierung der Oberfläche ausreichend sein könnte. Durch die Zuordnung von Bildbereichen zu Objekten kann dann wiederum eine Verbesserung der Berechnung erzielt werden. Bei dem nun vorgestellten Verfahren, das an die sogenannte Laser Guide Star Methode angelehnt ist, werden zwei Aufnahmen einer Kalibrierungswand verwendet. Da sowohl der Auf­ punkt wie auch die Reflexionsrichtung bzw. der Normalenvektor an der Stelle bestimmt werden müssen, benötigt man mehr als ei­ ne Aufnahme. Für jedes Pixel im Bereich der Motorhaube (z0) wird das entsprechende Pixel des korrespondierenden Gegenstands im direkten Sichtbereich gesucht (z). Nach der Verschiebung der Wand wird dasselbe Pixel z0 verwendet und das nun verschobene korrespondierende Pixel z0 gesucht. Da die Geometrie und die Entfernung der Kalibrierungswand (a, a0, x, x0) bekannt sind, kann der Aufpunkt (xp, zp) berechnet werden. Die Bestimmung des Normalenvektors ist nicht mehr nötig, da mit dem Aufpunkt und x, a bzw. x0, a0 die Reflexionsrichtung im dreidimensionalen Raum direkt berechnet werden kann.
Diese Methode verzichtet komplett auf CAD-Daten oder andere Da­ tenquellen, die abhängig verwendet werden müßten. Neben der Ka­ librierung liefert dieser Ansatz auch die geometrischen Infor­ mationen, die zur Berechnung der Objektentfernungen benötigt werden.
Die beschriebenen Lösungsansätze zielen in verschiedenen Rich­ tungen, in denen jeweils unterschiedliche Probleme zu lösen sind. In jedem Fall nimmt jedoch die Kamerakalibrierung, also die Bestimmung der Position und Blickrichtung relativ zur Mo­ torhaube, eine wichtige Stellung ein.
Wird eine Rekonstruktion des Bildes im üblichen Sinn durchge­ führt, so ist die Wahl des Blickpunktes und der Blickrichtung wichtig. Da nur rotierte Kegelschnitte in Verbindung mit einer entsprechenden Kamera ein katadioptrisches System mit einem einzelnen Blickpunkt liefern, werden bei der Rekonstruktion mit einem gewählten Blickpunkt immer Fehler auftreten. Die Blick­ richtung spiegelt sich dabei in der Wahl der Rekonstruktions­ ebene, als Ebene senkrecht zur Blickrichtung, wider. Selbst die Wahl der Entfernung dieser Rekonstruktionsebene spielt in die­ sem fehlerbehafteten Ansatz dann eine Rolle. Wird also eine derartige Rekonstruktion verwendet, sind ausführliche Fehlerbe­ trachtungen nötig.
Wird der Ansatz verwendet, daß zuerst die Objekterkennung in geeigneten Suchfenstern durchgeführt und dann für die entspre­ chende Pixel trianguliert wird, ist die zu erwartende Entfernungsgenauigkeit wesentlich größer, da in diesem Sinne keine Rekonstruktionsfehler auftreten.
Um eine sinnvolle Rekonstruktion der von der Motorhaube reflek­ tierten Bilder vorzunehmen, werden zuvor in zweckmäßiger Weise die Epipolaren der reflektierenden Fläche der Karosserie ermit­ telt.
Zur Definition einer Epipolaren: Ein Sehstrahl SO geht durch den Brennpunkt F0 einer Kamera K0 und eine Punkt P0 in der Bildebene der Kamera K0. Der Brennpunkt einer weiteren Kamera K1, die an einem anderen Ort wie K0 ist, hat den Brennpunkt F1. Die Epipolarebene, die durch Sehstrahl S0 und den Brennpunkt F1 definiert ist, schniedet die Bildebene der Kamera 1 entlang der Epipolarkurve L1. Bei einer Lochkamera ist die Epipolare L1 ei­ ne Linie.
Zur Ermittelung der Epipolaren werden vorzugsweise Spiegelungen von Eichgegenständen bekannter Geometrie aufgenommen, die von der Motorhaube einen bekannten Abstand aufweisen. Aus diesen (Eich-)Spiegelungen werden die Epipolaren ermittelt und eine Eichfunktion erstellt, welche später zur Auswertung herangezo­ gen wird.

Claims (10)

1. Verfahren zur Bilderkennung bei Kraftfahrzeugen, bei dem von einem Gegenstand ausgehende elektromagnetische Wellen von we­ nigstens einem Sensor sowohl bezüglich ihrer Intensität als auch bezüglich ihrer Richtung aufgenommen, ausgewertet und ei­ ner Bildmatrix übergeben werden, dadurch gekennzeichnet,
daß die Lage und die Geometrie einer reflektierenden Fläche der Karosserie zu dem Sensor ermittelt wird,
daß von dem Sensor das ungestörte Originalbild des Gegens­ tandes aufgenommen wird,
daß zusätzlich Reflexionswellen von dem Gegenstand, welche von der reflektierenden Fläche gespiegelt werden, im folgen­ den Spiegelbild genannt, aufgenommen wird und
daß das Spiegelbild und das Originalbild zur Auswertung he­ rangezogen wird.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet,
daß die Epipolaren der reflektierenden Fläche der Karosserie ermittelt werden,
daß mit Eichgegenständen bekannter Geometrie und bekanntem Abstand die Spiegelungen an den Epipolaren aufgenommen wer­ den und
daß daraus eine Eichfunktion erstellt wird,
daß die Eichfunktion zur Auswertung herangezogen wird.
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß die Position des Spiegelbildes im Bezug zu den Epipolaren bestimmt wird und daß die Position des Spiegelbildes zur Be­ stimmung der Entfernung des Gegenstandes verwendet wird.
4. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß als Sensor eine Stereo-Kamera, insbesondere eine Stereo- CCD-Kamera, gewählt wird.
5. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß als Sensor eine Kamera gewählt wird und daß mit einer Kame­ ra das Originalbild des Gegenstandes sowie die Reflexion an der Karosserie und als Referenzbild die Reflexion an einer in be­ kanntem Abstand von der Kamera angeordneten spiegelnden Fläche bekannter Geometrie, bevorzugt an einer Kugel, aufgenommen wird.
6. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß das Originalbild eines Gegenstandes getrennt von dem Spie­ gelbild des Gegenstandes ermittelt und ausgewertet wird und daß zwischen dem fertig bearbeiteten Originalbild und dem entspre­ chend aufbereiteten Spiegelbild korrespondierende Bildpunkte und/oder -ausschnitte ermittelt werden.
7. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß mittels korrespondierender Bildpunkte und/oder -flächen ei­ ne Triangulation zur Abstandsbestimmung des Gegenstandes durch­ geführt wird.
8. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß mittels korrespondierender Bildpunkte und/oder -flächen ei­ ne Triangulation zur Winkelbestimmung des Gegenstandes durchge­ führt wird.
9. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß mittels korrespondierender Bildpunkte und/oder -flächen ei­ ne Triangulation zur Ortsbestimmung des Gegenstandes durchge­ führt wird.
10. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß der Meßbereich der elektromagnetischen Wellen von dem Ult­ ravioletten bis zum FIR, insbesondere zwischen dem Ultraviolet­ ten und dem FIR gewählt wird.
DE10103870A 2001-01-30 2001-01-30 Verfahren zur Bilderkennung bei Kraftfahrzeugen Expired - Fee Related DE10103870B4 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE10103870A DE10103870B4 (de) 2001-01-30 2001-01-30 Verfahren zur Bilderkennung bei Kraftfahrzeugen
EP02702236A EP1358444A1 (de) 2001-01-30 2002-01-05 Verfahren zur bilderkennung bei kraftfahrzeugen
JP2002561894A JP2004522956A (ja) 2001-01-30 2002-01-05 自動車用の画像認識方法
PCT/EP2002/000056 WO2002061370A1 (de) 2001-01-30 2002-01-05 Verfahren zur bilderkennung bei kraftfahrzeugen
US10/470,458 US20040071316A1 (en) 2001-01-30 2002-01-05 Method for image recognition in motor vehicles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE10103870A DE10103870B4 (de) 2001-01-30 2001-01-30 Verfahren zur Bilderkennung bei Kraftfahrzeugen

Publications (2)

Publication Number Publication Date
DE10103870A1 true DE10103870A1 (de) 2002-08-22
DE10103870B4 DE10103870B4 (de) 2004-02-05

Family

ID=7672056

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10103870A Expired - Fee Related DE10103870B4 (de) 2001-01-30 2001-01-30 Verfahren zur Bilderkennung bei Kraftfahrzeugen

Country Status (5)

Country Link
US (1) US20040071316A1 (de)
EP (1) EP1358444A1 (de)
JP (1) JP2004522956A (de)
DE (1) DE10103870B4 (de)
WO (1) WO2002061370A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10234645A1 (de) * 2002-07-29 2004-02-12 Daimlerchrysler Ag Kameraanordnung mit einer spiegelnden Fläche
DE10310265A1 (de) * 2003-02-25 2004-09-09 Daimlerchrysler Ag Spiegel zur optoelektronischen Umgebungserfassung an einem Fahrzeug
DE10310264A1 (de) * 2003-02-25 2004-09-09 Daimlerchrysler Ag Katadioptrische Kamera für eine technische Einrichtung, insbesondere ein Kraftfahrzeug
DE10323560A1 (de) * 2003-05-26 2004-12-23 Robert Bosch Gmbh Kamera und Vorrichtung zur Ermittlung der Helligkeit der Umgebung eines Kraftfahrzeuges

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10201523A1 (de) * 2002-01-17 2003-07-31 Bosch Gmbh Robert Verfahren und Vorrichtung zur Verdeckungsdetektion bei Bildsensorsystemen
DE102006004770B4 (de) * 2005-11-09 2007-10-11 Daimlerchrysler Ag Verfahren zur bildgestützten Erkennung von Fahrzeugen im Umfeld eines Sraßenfahrzeugs
US8760632B2 (en) 2009-11-09 2014-06-24 Toyota Jidosha Kabushiki Kaisha Distance measuring apparatus and distance measuring method
DE102013226760A1 (de) * 2013-12-19 2015-06-25 Robert Bosch Gmbh Verfahren und Vorrichtung zur Erkennung von Objektreflexionen
JP6433268B2 (ja) * 2014-03-31 2018-12-05 国立大学法人 東京大学 検査システムおよび検査方法
KR102273027B1 (ko) 2014-06-09 2021-07-05 삼성전자주식회사 위치정보를 사용하여 설정된 관심영역을 사용하여 영상데이터를 생성하는 방법 및 장치
JP2018155565A (ja) * 2017-03-16 2018-10-04 株式会社富士通ゼネラル 画像処理装置
US11062149B2 (en) * 2018-03-02 2021-07-13 Honda Motor Co., Ltd. System and method for recording images reflected from a visor
EP4067814A1 (de) * 2021-03-29 2022-10-05 Teledyne FLIR Commercial Systems, Inc. Radiometrische thermische bildgebungsverbesserungen für navigationssysteme und verfahren

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5517575A (en) * 1991-10-04 1996-05-14 Ladewski; Theodore B. Methods of correcting optically generated errors in an electro-optical gauging system
US5465153A (en) * 1991-10-04 1995-11-07 Kms Fusion, Inc. Electro-optical system for gauging specular surface profile deviations
US5670935A (en) * 1993-02-26 1997-09-23 Donnelly Corporation Rearview vision system for vehicle including panoramic view
EP0700269B1 (de) * 1993-04-22 2002-12-11 Image Guided Technologies, Inc. Anordnung zur bestimmung der gegenseitigen lage von körpern
JP3522317B2 (ja) * 1993-12-27 2004-04-26 富士重工業株式会社 車輌用走行案内装置
US5615003A (en) * 1994-11-29 1997-03-25 Hermary; Alexander T. Electromagnetic profile scanner
US5852672A (en) * 1995-07-10 1998-12-22 The Regents Of The University Of California Image system for three dimensional, 360 DEGREE, time sequence surface mapping of moving objects
US5988862A (en) * 1996-04-24 1999-11-23 Cyra Technologies, Inc. Integrated system for quickly and accurately imaging and modeling three dimensional objects
US6304263B1 (en) * 1996-06-05 2001-10-16 Hyper3D Corp. Three-dimensional display system: apparatus and method
JP3866328B2 (ja) * 1996-06-06 2007-01-10 富士重工業株式会社 車両周辺立体物認識装置
JP3516856B2 (ja) * 1998-01-30 2004-04-05 富士重工業株式会社 車外監視装置
US6212132B1 (en) * 1998-08-04 2001-04-03 Japan Radio Co., Ltd. Three-dimensional radar apparatus and method for displaying three-dimensional radar image
JP2001028056A (ja) * 1999-07-14 2001-01-30 Fuji Heavy Ind Ltd フェールセーフ機能を有するステレオ式車外監視装置
US6873724B2 (en) * 2001-08-08 2005-03-29 Mitsubishi Electric Research Laboratories, Inc. Rendering deformable 3D models recovered from videos

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10234645A1 (de) * 2002-07-29 2004-02-12 Daimlerchrysler Ag Kameraanordnung mit einer spiegelnden Fläche
WO2004013575A1 (de) * 2002-07-29 2004-02-12 Daimlerchrysler Ag Kameraanordnung mit einer spiegelnden fläche
DE10234645B4 (de) * 2002-07-29 2004-07-22 Daimlerchrysler Ag Kameraanordnung mit einer spiegelnden Fläche
DE10310265A1 (de) * 2003-02-25 2004-09-09 Daimlerchrysler Ag Spiegel zur optoelektronischen Umgebungserfassung an einem Fahrzeug
DE10310264A1 (de) * 2003-02-25 2004-09-09 Daimlerchrysler Ag Katadioptrische Kamera für eine technische Einrichtung, insbesondere ein Kraftfahrzeug
DE10323560A1 (de) * 2003-05-26 2004-12-23 Robert Bosch Gmbh Kamera und Vorrichtung zur Ermittlung der Helligkeit der Umgebung eines Kraftfahrzeuges
DE10323560B4 (de) * 2003-05-26 2010-12-02 Robert Bosch Gmbh Kamera und Vorrichtung zur Ermittlung der Helligkeit der Umgebung eines Kraftfahrzeuges

Also Published As

Publication number Publication date
US20040071316A1 (en) 2004-04-15
DE10103870B4 (de) 2004-02-05
EP1358444A1 (de) 2003-11-05
WO2002061370A1 (de) 2002-08-08
JP2004522956A (ja) 2004-07-29

Similar Documents

Publication Publication Date Title
EP2002203B1 (de) Verfahren und system zur formmessung einer spiegelnden oberfläche
DE112015003439B4 (de) Fahrzeug-Head-Up-Anzeigevorrichtung
DE3738648C2 (de)
DE3587482T2 (de) Fehlerinspektion fuer plattenoberflaechen.
DE10103870A1 (de) Verfahren zur Bilderkennung bei Kraftfahrzeugen
EP1956413A2 (de) Holographisches Informations-Display
EP2105701A1 (de) Verfahren und Vorrichtung zur Bestimmung der 3D-Koordinaten eines Objekts
DE102010039092B4 (de) Verfahren und Steuergerät zum Ermitteln eines Abstandes eines Objektes von einem Fahrzeug
DE102018100909A1 (de) Verfahren zum Rekonstruieren von Bildern einer Szene, die durch ein multifokales Kamerasystem aufgenommen werden
WO2020030407A1 (de) Verfahren zum betreiben einer blickfeldanzeigevorrichtung für ein kraftfahrzeug
EP3707547B1 (de) System und verfahren zum bestimmen einer pose einer augmented-reality-brille, system und verfahren zum einmessen einer augmented-reality-brille, verfahren zum unterstützen einer posenbestimmung einer augmented-reality-brille und für das verfahren geeignetes kraftfahrzeug
DE10317078B4 (de) Verfahren und Vorrichtung zur Analyse reflektierender Oberflächen
WO1997010488A1 (de) Verfahren und vorrichtung zum erfassen und vermessen dreidimensionaler körper oder von beliebigen flächen
EP4046133B1 (de) Verfahren und vorrichtung zum bestimmen einer kontur einer fassungsnut
DE102004008904A1 (de) Vorrichtung und Verfahren zur Bestimmung von Raumkoordinaten eines Objekts
DE102007002880B4 (de) Verfahren und Vorrichtung zum optischen Ausmessen eines Objekts, insbesondere eines Werkstücks oder Werkzeugs
DE112020001450T5 (de) System zur anzeige eines virtuellen bilds, bildanzeigeverfahren, head-up display und sich bewegendes fahrzeug
DE19646702A1 (de) Verfahren zum Detektieren von Produktionsfehlern in einem Artikel
DE102014224274B4 (de) Vorrichtung und verfahren zum optischen vermessen von gegenständen mittels spiegelndem fluss und stereo-regularisierung
DE102010053978A1 (de) Verfahren und System zur Bestimmung der Position und/oder Lage eines Objektes in einem räumlichen Messvolumen
DE102017117594A1 (de) Automatisierte Erkennung einer Scheinwerferfehlstellung
DE102004050020A1 (de) Auswertevorrichtung, Auswerteverfahren und Verwendung einer Auswertevorrichtung für einen Hochgeschwindigkeitsversuch
DE102019125612A1 (de) Verfahren zur computerimplementierten Simulation eines optischen Sensors in einer virtuellen Umgebung
DE10234645B4 (de) Kameraanordnung mit einer spiegelnden Fläche
DE102018119602B3 (de) Verfahren und System zur Merkmalsdetektion in flickerbehafteten Lichtverteilungsbildern

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee