DE10103870B4 - Verfahren zur Bilderkennung bei Kraftfahrzeugen - Google Patents

Verfahren zur Bilderkennung bei Kraftfahrzeugen Download PDF

Info

Publication number
DE10103870B4
DE10103870B4 DE10103870A DE10103870A DE10103870B4 DE 10103870 B4 DE10103870 B4 DE 10103870B4 DE 10103870 A DE10103870 A DE 10103870A DE 10103870 A DE10103870 A DE 10103870A DE 10103870 B4 DE10103870 B4 DE 10103870B4
Authority
DE
Germany
Prior art keywords
camera
image
sensor
mirror image
original image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE10103870A
Other languages
English (en)
Other versions
DE10103870A1 (de
Inventor
Fridtjof Dipl.-Inform. Dr. Stein
Alexander Dipl.-Phys. Würz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daimler AG
Original Assignee
DaimlerChrysler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DaimlerChrysler AG filed Critical DaimlerChrysler AG
Priority to DE10103870A priority Critical patent/DE10103870B4/de
Priority to EP02702236A priority patent/EP1358444A1/de
Priority to PCT/EP2002/000056 priority patent/WO2002061370A1/de
Priority to US10/470,458 priority patent/US20040071316A1/en
Priority to JP2002561894A priority patent/JP2004522956A/ja
Publication of DE10103870A1 publication Critical patent/DE10103870A1/de
Application granted granted Critical
Publication of DE10103870B4 publication Critical patent/DE10103870B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Abstract

Verfahren zur Bilderkennung bei Kraftfahrzeugen, bei dem von einem Gegenstand ausgehende elektromagnetische Wellen von wenigstens einem Sensor sowohl bezüglich ihrer Intensität als auch bezüglich ihrer Richtung aufgenommen, ausgewertet und einer Bildmatrix übergeben werden, dadurch gekennzeichnet,
– daß die Lage und die Geometrie einer reflektierenden Fläche der Karosserie zu dem Sensor ermittelt wird,
– daß von dem Sensor das ungestörte Originalbild des Gegenstandes aufgenommen wird,
– daß zusätzlich Reflexionswellen von dem Gegenstand, welche von der reflektierenden Fläche gespiegelt werden, im folgenden Spiegelbild genannt, aufgenommen wird und
– daß das Spiegelbild und das Originalbild zur Auswertung herangezogen wird.

Description

  • Die Erfindung betrifft ein Verfahren zur Bilderkennung bei Kraftfahrzeugen, bei dem von einem Gegenstand ausgehende elektromagnetische Wellen von wenigstens einem Sensor sowohl bezüglich ihrer Intensität als auch bezüglich ihrer Richtung aufgenommen, ausgewertet und einer Bildmatrix übergeben werden, wie es in der Industrie und insbesondere in der Automobilindustrie verwendet wird.
  • Aus dem Artikel Nayar S.K., 1988, Sphereo: Determining Depth using Two Specular Spheres and a Single Camera, In Proceedings of SPIE: Optics, Illumination, and Image Sensing for Machine Vision III, Vol. 1005., SPIE, Society of Photo-Optical Engineering, 245–254 ist ein Verfahren und eine Vorrichtung zur Entfernungsmessung von Gegenständen bekannt, bei dem eine Kamera das Originalbild eines Gegenstandes sowie zwei Spiegelbilder des Gegenstandes, die an zwei spiegelnden Flächen reflektiert werden, aufnimmt. Mit diesen drei Bildern kann dann unter Zuhilfenahme eines mathematischen Algorithmus der Abstand des Gegenstandes bestimmt werden. Bei diesem Verfahren ist es wesentlich, daß die spiegelnden Flächen eine bestimmte Geometrie aufweisen. Ferner ist es unabdingbar, daß auch die örtlich Lage der spiegelnden Flächen sowohl hinsichtlich ihrer Entfernung und ihres Winkels bezüglich der Kamera als auch zueinander bekannt und immer gleichbleibend ist. Eine derartige Vorrichtung und damit das zugehörige Verfahren ist für eine Verwendung in einem Kraftfahrzeug und hierbei insbesondere einem Automobil allenfalls bedingt geeignet.
  • Des weiteren ist insbesondere im Bereich der Computer und Robottechnik eine Verfahren (Stereobildverarbeitung) bekannt, bei dem unter Zuhilfenahme zweier Kameras die Entfernung eines Gegenstandes bestimmt wird. Dabei geht die Basislinie, also die Entfernung der Kameras zueinander, in die Messgenauigkeit ein. Aus diesem Blickwinkel wäre eine möglichst große Basislinie wünschenswert, was in einem Fahrzeug nur in engen Grenzen möglicht ist. Des weiteren muss, um die Entfernung des Gegenstandes bestimmen zu können, das Objekt im linken Bild und im rechten Bild eindeutig identifiziert werden. Die Wahrscheinlichkeit, diese Korrespondenz korrekt zu finden, wird Matching genannt und nimmt mit wachsender Basislinie und damit wachsendem Blickwinkelunterschied ab. Es muss also eine Abwägung zwischen Messgenauigkeit und Matching-Wahrscheinlichkeit vorgenommen werden.
  • Aus dem Patent US 5 530 420 A ist ein kamerabasiertes Umgebungserfassungssystem für Kraftfahrzeuge bekannt, welches auf Grundlage der Stereobildverarbeitung arbeitet. Hierbei werden von Objekten vor dem Kraftfahrzeug aus den durch von einem Kamerapaar erfassten Bilddaten dreidimensionale Positionsdaten errechnet, wobei die Position und Ausrichtung der einzelnen Kameras zueinander und in Bezug das Kraftfahrzeug in die Berechnung einfließen. Auch bei diesem System muss wie vorab beschrieben, eine Abwägung zwischen Messgenauigkeit und Matching-Wahrscheinlichkeit vorgenommen werden.
  • Darüber hinaus treten beim Zwei-Kamera-Stereo Probleme mit repetitiven Mustern auf. Lattenzäune, Alleenbäume oder Geländer, speziell wenn Teile des Musters für eine Kamera durch andere Objekte verdeckt sind, führen bei zwei Kameras zu falschem Matching und damit zu falschen Objektentfernungen Verdeckungen treten durch die verschiedensten Objekte auf. Dies kann ein vorausfahrendes Fahrzeug oder auch der Scheibenwischer sein, der den Blick einer Kamera gerade verdeckt.
  • Aufgabe der Erfindung ist es, ein Verfahren zur Entfernungsmessung zur Verfügung zu stellen, dass bei möglichst geringen Kosten zumindest einige der genannten Nachteile verringert, insbesondere beseitigt.
  • Die Aufgabe wird durch ein Verfahren mit den Verfahrensschritten des Anspruch 1 gelöst. Da insbesondere eine in hoher Qualität lackierte Motorhaube bei Kraftfahrzeugen quasi als Spiegel betrachtet werden kann, ist es möglich, die Spiegelung eines Gegenstandes auf der Motorhaube als Referenz zu betrachten. Die Wirkung ist hierbei mit dem Einsatz einer weiteren Kamera zu vergleichen, die direkt beobachtbare Gegenstände aus einem an deren Blickwinkel zeigt. Die Spiegelbilder können direkt den zu betrachteten Gegenständen zugeordnet werden. Durch die insbesondere auch aus der Astronomie bekannten mathematischen Algorithmen können diese Reflexionen perspektivisch richtig zu rekonstruiert werden. Daher ist es möglich, ohne jeden weiteren Hardware-Aufwand, nur durch modellbasierte Berechnungen, insbesondere Probleme der Stereokamera zu minimieren oder zu eliminieren. Bei geeigneter Konfiguration kann mit einer Kamera Stereobildverarbeitung betrieben werden, um andere Problemstellungen in Monokamera-Anwendungen zu unterstützen. Die Rekonstruktionsmöglichkeiten werden beispielsweise durch die Verschmutzung der Motorhaube eingeschränkt. Wenn die Bildqualität die Verarbeitung aber erlaubt, können die Probleme in der Stereobildverarbeitung gelöst werden, da dann auch mit nur einer Kamera Stereoberechnung betrieben werden kann bzw. eine Lösung für selektive Matching-Hypothesenauswahl bei repetitiven Mustern möglich ist. Allerdings können die Bilder aus der Motorhaubenspiegelung nicht komplett, sondern nur lokal perspektivisch rekonstruiert werden. Eine komplette Rekonstruktion ist nur möglich, wenn die Motorhaube eine einem Kegelschnitt ähnliche Oberfläche aufweist. Lokal kann eine solche Oberfläche approximiert werden. Trotz dieser Einschränkung ist durch die erfindungsgemäße Erweiterung der Funktionalität in der Objektzuordnung die Zuverlässigkeit der Entfernungsbestimmung wesentlich verbessert.
  • Weitere sinnvolle Ausgestaltungen sind den Unteransprüchen entnehmbar. Im übrigen wird die Erfindung anhand eines in den Zeichnungen dargestellten Ausführungsbeispiels erläutert. Dabei zeigt
  • 1 eine Seitenansicht mit einer schematischen Darstellung eines Strahlengangs und
  • 2 ein Reflexionsbild des Strahlenganges nach 1 auf einer Motorhaube.
  • In 1 ist eine Seitenansicht mit einer schematischen Darstellung eines Strahlengangs dargestellt, wie er bei einem erfindungsgemäßen Verfahren bei einem Fahrzeug in einem Auge einer Kamera, insbesondere in einer Stereokamera, auftritt. Die Punkte B und A beschreiben einen zwei Gegenstände, von denen der Gegenstand A zumindest teilweise durch den Gegenstand B verdeckt ist; d.h. das Originalbild der Lichtwelle von A liegt bzgl. der betrachteten Kamera entlang der gleichen Linie wie der Strahls. Da die Kamera in ihrer Lage zur Motorhaube fest ist, ergeben sich allerdings für die von ihr beobachtbaren Spiegelbilder der Gegenstände A und B unterschiedliche Ort. Mit Kenntnis der Geometrie der Motorhaube kann das zumindest zumeist verzerrte Spiegelbild B' bspw. durch einen modifizierten Bildvergleich mit dem Gegenstand B identifiziert werden. Durch diese Identifizierung wiederum ist es möglich, daß der Gegenstand A von dem von ihm zumindest teilweise verdeckten Gegenstand B meßtechnisch getrennt werden kann. Aufgrund dieser Trennbarkeit und der Kenntnis des Abstands von der Kamera und den Spiegelbildern A' und B' sowie deren Winkellage zur Kamera ist es ferner möglich, den Abstand zwischen A und B und somit zu berechnen.
  • Wie schon erwähnt ist es bei der Bildverarbeitung sinnvoll, eine Methoden zur Darstellung verzerrter Bilder anzuwenden. Eine Methode, in der gezielt Bildverzerrungen eingesetzt werden, sind bspw. Anamorphoten in der korrektiven Optik und der Filmtechnik. Jedes optische System mit verschiedenen Werten in den zwei Hauptschnitten bezeichnet man als anamorphotisch. Dies wird zumeist dazu verwendet, Astigmatismen zu korrigieren, wenn der Fehler nur in einem Meridian existiert.
  • Zur Rekonstruktion der Bilder sind einige Methoden denkbar, von denen einige beschrieben werden. Sinnvollerweise werden für die Rekonstruktion der Bilder einige Annahmen gemacht, die nachfolgend aufgeführt werden.
    • 1. Die Motorhaube ist ein spekularer Reflektor. Bei der Reflexion können spekulare und diffuse Anteile unterschieden werden. Bei der Modellierung von Computergraphiken oder bei der Formbestimmung aus dem Schattenwurf hängt die Richtungsverteilung der reflektierten Strahlung von den relativen Positionen von Beobachter, Fläche und Lichtquelle ab. Diese Verteilung wird durch ein sogenanntes BRDF-Modell (Bi-directional Reflectance Distribution Function) beschrieben. Diese Funktionen wurden für die verschiedenen Reflexionsmodelle ntwickelt. Da de glatte, glänzend lackierte Motorhaube eines der besten Lackteile am Auto ist und nur Rauhigkeiten im Mikrometerbereich aufweist, kann sie als spekularer Reflektor betrachtet. Dieser Umstand erlaubt die Behandlung der Abbildung durch die Strahlenoptik.
    • 2. Die Kamera ist eine perspektivische Lochkamera. Aufgrund der technischen Anordnung und der verwendeten Kameras kommt die Behandlung einer perspektivischen Abbildung in Frage. Zweckmäßigerweise sollte aufgrund der Lichtschwäche in der Realität keine Lochkamera eingesetzt werden. Allerdings ist es durch die Korrektur der Linsenfehler möglich, das verwendete System auf eine Lochkamera zurückzuführen.
    • 3. Das Bild wird auf einer Ebene rekonstruiert. Diese ist die Rekonstruktionsfläche, die einer korrekten menschlichen Perspektive entspricht, und die zum verwendeten Lochkameramodell gehört.
    • 4. Im Bereich zwischen Spiegel und Kamera sind keine Objekte vorhanden. Sollten sich in diesem Bereich Objekte befinden, so müßten diese von Spiegelungen durch entsprechende Bildverarbeitungsschritte identifiziert werden. Wie es sich im Rahmen der beabsichtigten Anwendung und zur Lösung des Problems herausgestellt hat, ist günstigerweise die Annahme möglich, daß im entsprechenden Bildbereich nur Spiegelungen zu sehen sind.
    • 5. Die Rekonstruktion beschränkt sich auf den mittleren, konkaven Bereich der Motorhaube. Da in den konvexen Bereichen der Motorhaube die stärksten Verzerrungen auftreten wird in diesen Bereichen die Rekonstruktion sehr komplex. Daher wird zur Rekonstruktion nur die Front des Fahrzeugs und der konkave mittlere Bereich der Motorhaube herangezogen. Aufgrund der Kameraposition, die vorzugsweise im Bereich des Innenrückspiegels angeordnet ist, enthält dieser Bereich auch die Richtungen, die bei dem erfindungsgemäßen Verfahren für die Rekonstruktion am wichtigsten sind. Hinzu kommt, daß diese Fläche in den CAD-Daten einem Flächenelement entspricht und nicht zusammengesetzt ist.
    • 6. Die Konfiguration ist statisch. Unter einer statischen Konfiguration wird eine Konstanz der geometrischen Gegebenheiten verstanden. Es treten keine Veränderungen in der Haubengeometrie und relativen Position der ersten Modelle auf. In Rahmen einer Kamerakalibrierung und speziell einer adaptiven Kamerakalibrierung fällt diese Annahme weg.
  • Für eine Rekonstruktion ist es ferner günstig, daß die geometrischen Daten, wie Aufpunkte der reflektierten Strahlen auf der Motorhaube und Normalenvektoren, an diesen Stellen bekannt sind. Diese könnten entweder aus CAD-Daten oder entsprechenden Kalibrierungsverfahren stammen, die später noch beschrieben werden.
  • Eine Möglichkeit, das Bild zu rekonstruieren besteht darin, ein bekanntes Muster abzubilden, und die Reflexion mit dem Original zu vergleichen. Hierzu wird die Reflexion einer senkrecht vor dem Auto stehenden Kalibrierwand in der Motorhaube simuliert. Dabei ist die Verzerrung der quadratischen Struktur gut zu beobachten. Nun werden die korrespondierende Punkte der Bildebene und der Spiegelebene gesucht. Daraus ergibt sich ein zweidimensionales Feld mit Verschiebungsvektoren.
  • Für die Stereobildverarbeitung ist es nötig, Bilder mit einem anderen Blickwinkel zu erhalten. Wird allerdings das Spiegelbild mit dem direkt sichtbaren Bereich korrigiert, so geht dabei genau diese zusätzliche Information verloren. In diesem Fall muß das Spiegelbild auf die Sichtweise einer solchen virtuellen Kamera korrigiert werden. Die extrinsischen Parameter dieser virtuellen Kamera sind so aber nicht bekannt.
  • Werden andere Verfahren angewandt, um diese Kamera zu berechnen, so ist die Lösung der Rekonstruktionsaufgabe vollbracht und dieses zweidimensionale bildbasierte Korrekturverfahren obsolet.
  • Die oben Vorgehensweisen zielen im wesentlichen darauf ab, die Position und Blickrichtung einer virtuellen Kamera zur Bildrekonstruktion zu finden. Sind diese extrinsischen Kameraparameter der virtuellen Kamera gefunden, kann das Spiegelbild mit Hilfe der Haubengeometrie rekonstruiert werden. Um diese äußeren Parameter der virtuellen Kamera genau bestimmen zu können, müssen zuerst die äußeren Parameter der realen Kamera bekannt sein.
  • Insbesondere ist die Auswirkungen unterschiedlicher Kamerapositionen auf einen Meßfehler beachtlich. Daher werden in den folgenden Abschnitten werden verschiedene Verfahren vorgestellt, die dazu dienen könnten, die Position und Blickrichtung der realen Kamera relativ zur Motorhaube zu bestimmen. In vorteilhaf ter Weise können mit diesen Verfahren sogar teilweise auch die geometrischen Eigenschaften der Oberfläche mitbestimmt werden, so daß nicht auf CAD-Daten zurückgegriffen werden muß. Die intrinsischen Kameraparameter der virtuellen Kamera können hingegen frei gewählt werden.
  • Zur Vereinfachung der Weiterverarbeitung im multiokularen System werden die inneren Parameter der realen Kamera übernommen.
  • Die Streifenprojektion ist eine Methode zur Vermessung von dreidimensionalen Oberflächen. Dazu wird ein spezieller Aufbau verwendet, bei dem die relativen Positionen des Streifenprojektors und der Kamera genau bekannt sind. Dann wird eine Folge verschiedener Streifenmuster auf das Objekt projiziert und durch die Kamera aufgenommen. Die Streifen durchschneiden das Objekt in Ebenen, und durch die Positionsbestimmung des bekannten Streifens im Bild der Kamera kann die Schnittebene berechnet werden. Bei entsprechender Dauer der Messung und Entfernung des Objekts vom Meßaufbau kann Genauigkeit in Submillimeterbereich erzielt werden. Diese Daten können durch Triangulation angenähert werden, so daß die Oberfläche mathematisch bekannt ist und Aufpunkte und Normalenvektoren berechnet werden können.
  • Durch die Aufnahme des Bildes mit einer CCD und/oder einer CMOS oder sonstig geeigneten Kamera findet eine Diskretisierung statt, so daß eine entsprechende Diskretisierung der Oberfläche ausreichend sein könnte. Durch die Zuordnung von Bildbereichen zu Objekten kann dann wiederum eine Verbesserung der Berechnung erzielt werden. Bei dem nun vorgestellten Verfahren, das an die sogenannte Laser Guide Star Methode angelehnt ist, werden zwei Aufnahmen einer Kalibrierungswand verwendet. Da sowohl der Aufpunkt wie auch die Reflexionsrichtung bzw. der Normalenvektor an der Stelle bestimmt werden müssen, benötigt man mehr als eine Aufnahme. Für jedes Pixel im Bereich der Motorhaube (z0) wird das entsprechende Pixel des korrespondierenden Gegenstands im direkten Sichtbereich gesucht (z). Nach der Verschiebung der Wand wird dasselbe Pixel z0 verwendet und das nun verschobene korrespondierende Pixel z0 gesucht. Da die Geometrie und die Entfernung der Kalibrierungswand (a, a0, x, x0) bekannt sind, kann der Aufpunkt (xp, zp) berechnet werden. Die Bestimmung des Normalenvektors ist nicht mehr nötig, da mit dem Aufpunkt und x, a bzw. x0, a0 die Reflexionsrichtung im dreidimensionalen Raum direkt berechnet werden kann.
  • Diese Methode verzichtet komplett auf CAD-Daten oder andere Datenquellen, die abhängig verwendet werden müßten. Neben der Kalibrierung liefert dieser Ansatz auch die geometrischen Informationen, die zur Berechnung der Objektentfernungen benötigt werden.
  • Die beschriebenen Lösungsansätze zielen in verschiedenen Richtungen, in denen jeweils unterschiedliche Probleme zu lösen sind. In jedem Fall nimmt jedoch die Kamerakalibrierung, also die Bestimmung der Position und Blickrichtung relativ zur Motorhaube, eine wichtige Stellung ein.
  • Wird eine Rekonstruktion des Bildes im üblichen Sinn durchgeführt, so ist die Wahl des Blickpunktes und der Blickrichtung wichtig. Da nur rotierte Kegelschnitte in Verbindung mit einer entsprechenden Kamera ein katadioptrisches System mit einem einzelnen Blickpunkt liefern, werden bei der Rekonstruktion mit einem gewählten Blickpunkt immer Fehler auftreten. Die Blickrichtung spiegelt sich dabei in der Wahl der Rekonstruktionsebene, als Ebene senkrecht zur Blickrichtung, wider. Selbst die Wahl der Entfernung dieser Rekonstruktionsebene spielt in diesem fehlerbehafteten Ansatz dann eine Rolle. Wird also eine derartige Rekonstruktion verwendet, sind ausführliche Fehlerbetrachtungen nötig.
  • Wird der Ansatz verwendet, daß zuerst die Objekterkennung in geeigneten Suchfenstern durchgeführt und dann für die entsprechende Pixel trianguliert wird, ist die zu erwartende Entfer nungsgenauigkeit wesentlich größer, da in diesem Sinne keine Rekonstruktionsfehler auftreten.
  • Um eine sinnvolle Rekonstruktion der von der Motorhaube reflektierten Bilder vorzunehmen, werden zuvor in zweckmäßiger Weise die Epipolaren der reflektierenden Fläche der Karosserie ermittelt.
  • Zur Definition einer Epipolaren: Ein Sehstrahl S0 geht durch den Brennpunkt F0 einer Kamera K0 und eine Punkt P0 in der Bildebene der Kamera K0. Der Brennpunkt einer weiteren Kamera K1, die an einem anderen Ort wie K0 ist, hat den Brennpunkt F1. Die Epipolarebene, die durch Sehstrahl S0 und den Brennpunkt F1 definiert ist, schniedet die Bildebene der Kamera 1 entlang der Epipolarkurve L1. Bei einer Lochkamera ist die Epipolare L1 eine Linie.
  • Zur Ermittelung der Epipolaren werden vorzugsweise Spiegelungen von Eichgegenständen bekannter Geometrie aufgenommen, die von der Motorhaube einen bekannten Abstand aufweisen. Aus diesen (Eich-)Spiegelungen werden die Epipolaren ermittelt und eine Eichfunktion erstellt, welche später zur Auswertung herangezogen wird.

Claims (10)

  1. Verfahren zur Bilderkennung bei Kraftfahrzeugen, bei dem von einem Gegenstand ausgehende elektromagnetische Wellen von wenigstens einem Sensor sowohl bezüglich ihrer Intensität als auch bezüglich ihrer Richtung aufgenommen, ausgewertet und einer Bildmatrix übergeben werden, dadurch gekennzeichnet, – daß die Lage und die Geometrie einer reflektierenden Fläche der Karosserie zu dem Sensor ermittelt wird, – daß von dem Sensor das ungestörte Originalbild des Gegenstandes aufgenommen wird, – daß zusätzlich Reflexionswellen von dem Gegenstand, welche von der reflektierenden Fläche gespiegelt werden, im folgenden Spiegelbild genannt, aufgenommen wird und – daß das Spiegelbild und das Originalbild zur Auswertung herangezogen wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, – daß die Epipolaren der reflektierenden Fläche der Karosserie ermittelt werden, – daß mit Eichgegenständen bekannter Geometrie und bekanntem Abstand die Spiegelungen an den Epipolaren aufgenommen werden und – daß daraus eine Eichfunktion erstellt wird, – daß die Eichfunktion zur Auswertung herangezogen wird.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß die Position des Spiegelbildes im Bezug zu den Epipolaren bestimmt wird und daß die Position des Spiegelbildes zur Bestimmung der Entfernung des Gegenstandes verwendet wird.
  4. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß als Sensor eine Stereo-Kamera, insbesondere eine Stereo-CCD-Kamera, gewählt wird.
  5. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß als Sensor eine Kamera gewählt wird und daß mit einer Kamera das Originalbild des Gegenstandes sowie die Reflexion an der Karosserie und als Referenzbild die Reflexion an einer in bekanntem Abstand von der Kamera angeordneten spiegelnden Fläche bekannter Geometrie, bevorzugt an einer Kugel, aufgenommen wird.
  6. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß das Originalbild eines Gegenstandes getrennt von dem Spiegelbild des Gegenstandes ermittelt und ausgewertet wird und daß zwischen dem fertig bearbeiteten Originalbild und dem entsprechend aufbereiteten Spiegelbild korrespondierende Bildpunkte und/oder -ausschnitte ermittelt werden.
  7. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß mittels korrespondierender Bildpunkte und/oder -flächen eine Triangulation zur Abstandsbestimmung des Gegenstandes durchgeführt wird.
  8. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß mittels korrespondierender Bildpunkte und/oder -flächen eine Triangulation zur Winkelbestimmung des Gegenstandes durchgeführt wird.
  9. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß mittels korrespondierender Bildpunkte und/oder -flächen eine Triangulation zur Ortsbestimmung des Gegenstandes durchgeführt wird.
  10. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß der Meßbereich der elektromagnetischen Wellen von dem Ultravioletten bis zum FIR, insbesondere zwischen dem Ultravioletten und dem FIR gewählt wird.
DE10103870A 2001-01-30 2001-01-30 Verfahren zur Bilderkennung bei Kraftfahrzeugen Expired - Fee Related DE10103870B4 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE10103870A DE10103870B4 (de) 2001-01-30 2001-01-30 Verfahren zur Bilderkennung bei Kraftfahrzeugen
EP02702236A EP1358444A1 (de) 2001-01-30 2002-01-05 Verfahren zur bilderkennung bei kraftfahrzeugen
PCT/EP2002/000056 WO2002061370A1 (de) 2001-01-30 2002-01-05 Verfahren zur bilderkennung bei kraftfahrzeugen
US10/470,458 US20040071316A1 (en) 2001-01-30 2002-01-05 Method for image recognition in motor vehicles
JP2002561894A JP2004522956A (ja) 2001-01-30 2002-01-05 自動車用の画像認識方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE10103870A DE10103870B4 (de) 2001-01-30 2001-01-30 Verfahren zur Bilderkennung bei Kraftfahrzeugen

Publications (2)

Publication Number Publication Date
DE10103870A1 DE10103870A1 (de) 2002-08-22
DE10103870B4 true DE10103870B4 (de) 2004-02-05

Family

ID=7672056

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10103870A Expired - Fee Related DE10103870B4 (de) 2001-01-30 2001-01-30 Verfahren zur Bilderkennung bei Kraftfahrzeugen

Country Status (5)

Country Link
US (1) US20040071316A1 (de)
EP (1) EP1358444A1 (de)
JP (1) JP2004522956A (de)
DE (1) DE10103870B4 (de)
WO (1) WO2002061370A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006004770A1 (de) * 2005-11-09 2007-05-10 Daimlerchrysler Ag Verfahren zur bildgestützten Erkennung von Fahrzeugen im Umfeld eines Sraßenfahrzeugs

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10201523A1 (de) * 2002-01-17 2003-07-31 Bosch Gmbh Robert Verfahren und Vorrichtung zur Verdeckungsdetektion bei Bildsensorsystemen
DE10234645B4 (de) * 2002-07-29 2004-07-22 Daimlerchrysler Ag Kameraanordnung mit einer spiegelnden Fläche
DE10310265A1 (de) * 2003-02-25 2004-09-09 Daimlerchrysler Ag Spiegel zur optoelektronischen Umgebungserfassung an einem Fahrzeug
DE10310264A1 (de) * 2003-02-25 2004-09-09 Daimlerchrysler Ag Katadioptrische Kamera für eine technische Einrichtung, insbesondere ein Kraftfahrzeug
DE10323560B4 (de) * 2003-05-26 2010-12-02 Robert Bosch Gmbh Kamera und Vorrichtung zur Ermittlung der Helligkeit der Umgebung eines Kraftfahrzeuges
US8760632B2 (en) 2009-11-09 2014-06-24 Toyota Jidosha Kabushiki Kaisha Distance measuring apparatus and distance measuring method
DE102013226760A1 (de) * 2013-12-19 2015-06-25 Robert Bosch Gmbh Verfahren und Vorrichtung zur Erkennung von Objektreflexionen
JP6433268B2 (ja) * 2014-03-31 2018-12-05 国立大学法人 東京大学 検査システムおよび検査方法
KR102273027B1 (ko) 2014-06-09 2021-07-05 삼성전자주식회사 위치정보를 사용하여 설정된 관심영역을 사용하여 영상데이터를 생성하는 방법 및 장치
JP2018155565A (ja) * 2017-03-16 2018-10-04 株式会社富士通ゼネラル 画像処理装置
US11062149B2 (en) * 2018-03-02 2021-07-13 Honda Motor Co., Ltd. System and method for recording images reflected from a visor
EP4067814A1 (de) * 2021-03-29 2022-10-05 Teledyne FLIR Commercial Systems, Inc. Radiometrische thermische bildgebungsverbesserungen für navigationssysteme und verfahren

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5530420A (en) * 1993-12-27 1996-06-25 Fuji Jukogyo Kabushiki Kaisha Running guide apparatus for vehicle capable of keeping safety at passing through narrow path and the method thereof

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5465153A (en) * 1991-10-04 1995-11-07 Kms Fusion, Inc. Electro-optical system for gauging specular surface profile deviations
US5517575A (en) * 1991-10-04 1996-05-14 Ladewski; Theodore B. Methods of correcting optically generated errors in an electro-optical gauging system
US5670935A (en) * 1993-02-26 1997-09-23 Donnelly Corporation Rearview vision system for vehicle including panoramic view
IL109385A (en) * 1993-04-22 1998-03-10 Pixsys A system for locating the relative location of objects in three-dimensional space
US5615003A (en) * 1994-11-29 1997-03-25 Hermary; Alexander T. Electromagnetic profile scanner
US5852672A (en) * 1995-07-10 1998-12-22 The Regents Of The University Of California Image system for three dimensional, 360 DEGREE, time sequence surface mapping of moving objects
US5988862A (en) * 1996-04-24 1999-11-23 Cyra Technologies, Inc. Integrated system for quickly and accurately imaging and modeling three dimensional objects
US6304263B1 (en) * 1996-06-05 2001-10-16 Hyper3D Corp. Three-dimensional display system: apparatus and method
JP3866328B2 (ja) * 1996-06-06 2007-01-10 富士重工業株式会社 車両周辺立体物認識装置
JP3516856B2 (ja) * 1998-01-30 2004-04-05 富士重工業株式会社 車外監視装置
US6212132B1 (en) * 1998-08-04 2001-04-03 Japan Radio Co., Ltd. Three-dimensional radar apparatus and method for displaying three-dimensional radar image
JP2001028056A (ja) * 1999-07-14 2001-01-30 Fuji Heavy Ind Ltd フェールセーフ機能を有するステレオ式車外監視装置
US6873724B2 (en) * 2001-08-08 2005-03-29 Mitsubishi Electric Research Laboratories, Inc. Rendering deformable 3D models recovered from videos

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5530420A (en) * 1993-12-27 1996-06-25 Fuji Jukogyo Kabushiki Kaisha Running guide apparatus for vehicle capable of keeping safety at passing through narrow path and the method thereof

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
NAYAR,S.K.: Sphero: Determining Using Two Specular Spheres and a Single Camera. In: SPIE Vol. 1005 Optics, Illumination, and Image Sensing Machine Vision III, 1988, S. 245-254 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006004770A1 (de) * 2005-11-09 2007-05-10 Daimlerchrysler Ag Verfahren zur bildgestützten Erkennung von Fahrzeugen im Umfeld eines Sraßenfahrzeugs
DE102006004770B4 (de) * 2005-11-09 2007-10-11 Daimlerchrysler Ag Verfahren zur bildgestützten Erkennung von Fahrzeugen im Umfeld eines Sraßenfahrzeugs

Also Published As

Publication number Publication date
JP2004522956A (ja) 2004-07-29
DE10103870A1 (de) 2002-08-22
US20040071316A1 (en) 2004-04-15
WO2002061370A1 (de) 2002-08-08
EP1358444A1 (de) 2003-11-05

Similar Documents

Publication Publication Date Title
DE10103870B4 (de) Verfahren zur Bilderkennung bei Kraftfahrzeugen
EP2002203B1 (de) Verfahren und system zur formmessung einer spiegelnden oberfläche
DE102016123568A1 (de) Holographische wellenleiter(hud)-seitenblickanzeige
EP3256036B1 (de) Vorrichtung und verfahren zur abstandsbestimmung und/oder zentrierung unter verwendung von hornhautreflexionen
WO2017206999A1 (de) Verfahren zur auswertung von bilddaten einer fahrzeugkamera
DE102014115037A1 (de) Sichtbasierte Objekterkennung und -hervorhebung bei Fahrzeugbildanzeigesystemen
DE112016001150T5 (de) Schätzung extrinsischer kameraparameter anhand von bildlinien
DE102008031784A1 (de) Verfahren und Vorrichtung zur Verzerrungskorrektur und Bildverbesserung eines Fahrzeugrückblicksystems
DE102007059735A1 (de) Stereo-Sichtsystem für Fahrzeuge zur Erkennung seitlich liegender Hindernisse
DE102012018325A1 (de) Verfahren und Vorrichtung für ein bildgebendes Fahrerassistenzsystem mit adaptiver Umsichtdarstellung
DE102010039092B4 (de) Verfahren und Steuergerät zum Ermitteln eines Abstandes eines Objektes von einem Fahrzeug
WO2015000898A1 (de) Verfahren und vorrichtung zur optischen formerfassung und/oder prüfung eines gegenstandes
DE102018100909A1 (de) Verfahren zum Rekonstruieren von Bildern einer Szene, die durch ein multifokales Kamerasystem aufgenommen werden
DE102017217870B4 (de) Verfahren zum Zusammenfügen von Teilbildern zu einem Abbild eines zusammenhängenden Umgebungsbereiches eines Fahrzeugs sowie Fahrerassistenzsystem und Fahrzeug
DE102018213269A1 (de) Verfahren zum Betreiben einer Blickfeldanzeigevorrichtung für ein Kraftfahr-zeug
DE102017219790A1 (de) System und Verfahren zum Bestimmen einer Pose einer Augmented-Reality-Brille, System und Verfahren zum Einmessen einer Augmented-Reality-Brille, Verfahren zum Unterstützen einer Posenbestimmung einer Augmented-Reality-Brille und für das Verfahren geeignetes Kraftfahrzeug
DE102019103519A1 (de) Vorrichtung zum Bestimmen von dimensionalen und/oder geometrischen Eigenschaften eines Messobjekts
DE10014964C2 (de) Verfahren zum optischen Messen der Form spiegelnder Oberflächen
DE102017221317A1 (de) Verfahren und Vorrichtung zum Betreiben einer Datenbrille in einem Kraftfahrzeug
DE102014224274B4 (de) Vorrichtung und verfahren zum optischen vermessen von gegenständen mittels spiegelndem fluss und stereo-regularisierung
DE102007037131A1 (de) Verfahren zur dreidimensionalen Vermessung einer Oberfläche
DE102005060980A1 (de) Verfahren und System zur Bestimmung eines dreidimensionalen Raumes gegenüber einer realen Umgebung
DE102017117594A1 (de) Automatisierte Erkennung einer Scheinwerferfehlstellung
DE102017210415A1 (de) Verfahren zum Bereitstellen einer Bildmaske für die Abgrenzung einer Interessensregion in einem Kamerabild einer Umfeldkamera eines Kraftfahrzeugs sowie Steuervorrichtung, Umfeldkamera und Kraftfahrzeug
DE10117390A1 (de) Vorrichtung zur quantitativen Beurteilung der räumlichen Lage zweier Maschinenteile, Werkstücke oder anderer Gegenstände relativ zueinander

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee