DE10103870A1 - Verfahren zur Bilderkennung bei Kraftfahrzeugen - Google Patents
Verfahren zur Bilderkennung bei KraftfahrzeugenInfo
- Publication number
- DE10103870A1 DE10103870A1 DE10103870A DE10103870A DE10103870A1 DE 10103870 A1 DE10103870 A1 DE 10103870A1 DE 10103870 A DE10103870 A DE 10103870A DE 10103870 A DE10103870 A DE 10103870A DE 10103870 A1 DE10103870 A1 DE 10103870A1
- Authority
- DE
- Germany
- Prior art keywords
- camera
- image
- sensor
- determined
- original image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 238000011156 evaluation Methods 0.000 claims abstract description 4
- 239000011159 matrix material Substances 0.000 claims abstract description 3
- 238000012545 processing Methods 0.000 description 8
- 238000005259 measurement Methods 0.000 description 7
- 239000013598 vector Substances 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- RLLPVAHGXHCWKJ-IEBWSBKVSA-N (3-phenoxyphenyl)methyl (1s,3s)-3-(2,2-dichloroethenyl)-2,2-dimethylcyclopropane-1-carboxylate Chemical compound CC1(C)[C@H](C=C(Cl)Cl)[C@@H]1C(=O)OCC1=CC=CC(OC=2C=CC=CC=2)=C1 RLLPVAHGXHCWKJ-IEBWSBKVSA-N 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 201000009310 astigmatism Diseases 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 210000003734 kidney Anatomy 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- BULVZWIRKLYCBC-UHFFFAOYSA-N phorate Chemical compound CCOP(=S)(OCC)SCSCC BULVZWIRKLYCBC-UHFFFAOYSA-N 0.000 description 1
- 108090000623 proteins and genes Proteins 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
- G01C11/06—Interpretation of pictures by comparison of two or more pictures of the same area
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/16—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
- B60R21/01—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
- B60R21/013—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
- B60R21/0134—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Optics & Photonics (AREA)
- Signal Processing (AREA)
- Electromagnetism (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zur Bilderkennung bei Kraftfahrzeugen, bei dem von einem Gegenstand ausgehende elektromagnetische Wellen von wenigstens einem Sensor sowohl bezüglich ihrer Intensität als auch bezüglich ihrer Richtung aufgenommen, ausgewertet und einer Bildmatrix übergeben werden. Von dem Sensor wird das ungestörte Originalbild des Gegenstandes und zusätzlich Reflexionswellen von dem Gegenstand, welche an der Karosserie reflektiert werden, im folgenden Spiegelbild genannt, aufgenommen. Anschließend wird das Spiegelbild und das Originalbild zur Auswertung herangezogen, wobei zuvor die Lage und die Geometrie der reflektierenden Fläche der Karosserie zu dem Sensor ermittelt wird.
Description
Die Erfindung betrifft ein Verfahren zur Bilderkennung bei
Kraftfahrzeugen, bei dem von einem Gegenstand ausgehende elekt
romagnetische Wellen von wenigstens einem Sensor sowohl bezüg
lich ihrer Intensität als auch bezüglich ihrer Richtung aufge
nommen, ausgewertet und einer Bildmatrix übergeben werden, wie
es in der Industrie und insbesondere in der Automobilindustrie
verwendet wird.
Aus dem Artikel Nayar S. K., 1988, Sphereo: Determining Depth u
sing Two Specular Spheres and a Single Camera, In Proceedings
of SPIE: Optics, Illumination, and Image Sensing for Machine
Vision III, Vol. 1005., SPIE, Society of Photo-Optical Enginee
ring, 245-254 ist ein Verfahren und eine Vorrichtung zur Ent
fernungsmessung von Gegenständen bekannt, bei dem eine Kamera
das Originalbild eines Gegenstandes sowie zwei Spiegelbilder
des Gegenstandes, die an zwei spiegelnden Flächen reflektiert
werden, aufnimmt. Mit diesen drei Bildern kann dann unter Zu
hilfenahme eines mathematischen Algorithmus der Abstand des Ge
genstandes bestimmt werden. Bei diesem Verfahren ist es wesent
lich, daß die spiegelnden Flächen eine bestimmte Geometrie auf
weisen. Ferner ist es unabdingbar, daß auch die örtlich Lage
der spiegelnden Flächen sowohl hinsichtlich ihrer Entfernung
und ihres Winkels bezüglich der Kamera als auch zueinander be
kannt und immer gleichbleibend ist. Eine derartige Vorrichtung
und damit das zugehörige Verfahren ist für eine Verwendung in
einem Kraftfahrzeug und hierbei insbesondere einem Automobil
allenfalls bedingt geeignet.
Des weiteren ist insbesondere im Bereich der Computer und Ro
bottechnik eine Verfahren (Stereobildverarbeitung) bekannt, bei
dem unter Zuhilfenahme zweier Kameras die Entfernung eines Ge
genstandes bestimmt wird. Dabei geht die Basislinie, also die
Entfernung der Kameras zueinander, in die Meßgenauigkeit ein.
Aus diesem Blickwinkel wäre eine möglichst große Basislinie
wünschenswert, was in einem Fahrzeug nur in engen Grenzen mög
licht ist. Des weiteren muß um die Entfernung des Gegenstandes
bestimmen zu können, muß das Objekt im linken Bild und im rech
ten Bild eindeutig identifiziert werden. Die Wahrscheinlich
keit, diese Korrespondenz korrekt zu finden, wird Matching ge
nannt und nimmt mit wachsender Basislinie und damit wachsendem
Blickwinkelunterschied ab. Es muß also eine Abwägung zwischen
Meßgenauigkeit und Matching-Wahrscheinlichkeit vorgenommen wer
den.
Darüber hinaus treten beim Zwei-Kamera-Stereo Probleme mit re
petitiven Mustern auf. Lattenzäune, Alleenbäume oder Geländer,
speziell wenn Teile des Musters für eine Kamera durch andere
Objekte verdeckt sind, führen bei zwei Kameras zu falschem Mat
ching und damit zu falschen Objektentfernungen. Verdeckungen
treten durch die verschiedensten Objekte auf. Dies kann ein vo
rausfahrendes Fahrzeug oder auch der Scheibenwischer sein, der
den Blick einer Kamera gerade verdeckt.
Aufgabe der Erfindung ist es, ein Verfahren zur Entfernungsmes
sung zur Verfügung zu stellen, daß bei möglichst geringen Kos
ten zumindest einige der genannten Nachteile verringert, insbe
sondere beseitigt.
Die Aufgabe wird durch ein Verfahren mit den Verfahrensschrit
ten des Anspruch 1 gelöst. Da insbesondere eine in hoher Quali
tät lackierte Motorhaube bei Kraftfahrzeugen quasi als Spiegel
betrachtet werden kann, ist es möglich, die Spiegelung eines
Gegenstandes auf der Motorhaube als Referenz zu betrachten. Die
Wirkung ist hierbei mit dem Einsatz einer weiteren Kamera zu
vergleichen, die direkt beobachtbare Gegenstände aus einem anderen
Blickwinkel zeigt. Die Spiegelbilder können direkt den zu
betrachteten Gegenständen zugeordnet werden. Durch die insbe
sondere auch aus der Astronomie bekannten mathematischen Algo
rithmen können diese Reflexionen perspektivisch richtig zu re
konstruiert werden. Daher ist es möglich, ohne jeden weiteren
Hardware-Aufwand, nur durch modellbasierte Berechnungen, insbe
sondere Probleme der Stereokamera zu minimieren oder zu elimi
nieren. Bei geeigneter Konfiguration kann mit einer Kamera Ste
reobildverarbeitung betrieben werden, um andere Problemstellun
gen in Monokamera-Anwendungen zu unterstützen. Die Rekonstruk
tionsmöglichkeiten werden beispielsweise durch die Verschmut
zung der Motorhaube eingeschränkt. Wenn die Bildqualität die
Verarbeitung aber erlaubt, können die Probleme in der Stereo
bildverarbeitung gelöst werden, da dann auch mit nur einer Ka
mera Stereoberechnung betrieben werden kann bzw. eine Lösung
für selektive Matching-Hypothesenauswahl bei repetitiven Mus
tern möglich ist. Allerdings können die Bilder aus der Motor
haubenspiegelung nicht komplett, sondern nur lokal perspekti
visch rekonstruiert werden. Eine komplette Rekonstruktion ist
nur möglich, wenn die Motorhaube eine einem Kegelschnitt ähnli
che Oberfläche aufweist. Lokal kann eine solche Oberfläche ap
proximiert werden. Trotz dieser Einschränkung ist durch die er
findungsgemäße Erweiterung der Funktionalität in der Objektzu
ordnung die Zuverlässigkeit der Entfernungsbestimmung wesent
lich verbessert.
Weitere sinnvolle Ausgestaltungen sind den Unteransprüchen ent
nehmbar. Im übrigen wird die Erfindung anhand eines in den
Zeichnungen dargestellten Ausführungsbeispiels erläutert. Dabei
zeigt
Fig. 1 eine Seitenansicht mit einer schematischen Darstellung
eines Strahlengangs und
Fig. 2 ein Reflexionsbild des Strahlenganges nach Fig. 1 auf
einer Motorhaube.
In Fig. 1 ist eine Seitenansicht mit einer schematischen Dar
stellung eines Strahlengangs dargestellt, wie er bei einem er
findungsgemäßen Verfahren bei einem Fahrzeug in einem Auge ei
ner Kamera, insbesondere in einer Stereokamera, auftritt. Die
Punkte B und A beschreiben einen zwei Gegenstände, von denen
der Gegenstand A zumindest teilweise durch den Gegenstand B
verdeckt ist; d. h. das Originalbild der Lichtwelle von A liegt
bzgl. der betrachteten Kamera entlang der gleichen Linie wie
der Strahls. Da die Kamera in ihrer Lage zur Motorhaube fest
ist, ergeben sich allerdings für die von ihr beobachtbaren
Spiegelbilder der Gegenstände A und B unterschiedliche Ort. Mit
Kenntnis der Geometrie der Motorhaube kann das zumindest zu
meist verzerrte Spiegelbild B' bspw. durch einen modifizierten
Bildvergleich mit dem Gegenstand B identifiziert werden. Durch
diese Identifizierung wiederum ist es möglich, daß der Gegens
tand A von dem von ihm zumindest teilweise verdeckten Gegens
tand B meßtechnisch getrennt werden kann. Aufgrund dieser
Trennbarkeit und der Kenntnis des Abstands von der Kamera und
den Spiegelbildern A' und B' sowie deren Winkellage zur Kamera
ist es ferner möglich, den Abstand zwischen A und B und somit
zu berechnen.
Wie schon erwähnt ist es bei der Bildverarbeitung sinnvoll, ei
ne Methoden zur Darstellung verzerrter Bilder anzuwenden. Eine
Methode, in der gezielt Bildverzerrungen eingesetzt werden,
sind bspw. Anamorphoten in der korrektiven Optik und der Film
technik. Jedes optische System mit verschiedenen Werten in den
zwei Hauptschnitten bezeichnet man als anamorphotisch. Dies
wird zumeist dazu verwendet, Astigmatismen zu korrigieren, wenn
der Fehler nur in einem Meridian existiert.
Zur Rekonstruktion der Bilder sind einige Methoden denkbar, von
denen einige beschrieben werden. Sinnvollerweise werden für die
Rekonstruktion der Bilder einige Annahmen gemacht, die nachfol
gend aufgeführt werden.
- 1. Die Motorhaube ist ein spekularer Reflektor.
Bei der Reflexion können spekulare und diffuse Anteile un terschieden werden. Bei der Modellierung von Computergra phiken oder bei der Formbestimmung aus dem Schattenwurf hängt die Richtungsverteilung der reflektierten Strahlung von den relativen Positionen von Beobachter, Fläche und Lichtquelle ab. Diese Verteilung wird durch ein sogenanntes BRDF-Modell (Bi-directional Reflectance Distribution Func tion) beschrieben. Diese Funktionen wurden für die ver schiedenen Reflexionsmodelle ntwickelt. Da de glatte, glän zend lackierte Motorhaube eines der besten Lackteile am Au to ist und nur Rauhigkeiten im Mikrometerbereich aufweist, kann sie als spekularer Reflektor betrachtet. Dieser Um stand erlaubt die Behandlung der Abbildung durch die Strah lenoptik. - 2. Die Kamera ist eine perspektivische Lochkamera.
Aufgrund der technischen Anordnung und der verwendeten Ka meras kommt die Behandlung einer perspektivischen Abbildung in Frage. Zweckmäßigerweise sollte aufgrund der Lichtschwä che in der Realität keine Lochkamera eingesetzt werden. Al lerdings ist es durch die Korrektur der Linsenfehler mög lich, das verwendete System auf eine Lochkamera zurückzu führen. - 3. Das Bild wird auf einer Ebene rekonstruiert.
Diese ist die Rekonstruktionsfläche, die einer korrekten menschlichen Perspektive entspricht, und die zum verwende ten Lochkameramodell gehört. - 4. Im Bereich zwischen Spiegel und Kamera sind keine Objekte
vorhanden.
Sollten sich in diesem Bereich Objekte befinden, so müßten diese von Spiegelungen durch entsprechende Bildverarbei tungsschritte identifiziert werden. Wie es sich im Rahmen der beabsichtigten Anwendung und zur Lösung des Problems herausgestellt hat, ist günstigerweise die Annahme möglich, daß im entsprechenden Bildbereich nur Spiegelungen zu sehen sind. - 5. Die Rekonstruktion beschränkt sich auf den mittleren, kon
kaven Bereich der Motorhaube.
Da in den konvexen Bereichen der Motorhaube die stärksten Verzerrungen auftreten wird in diesen Bereichen die Rekon struktion sehr komplex. Daher wird zur Rekonstruktion nur die Front des Fahrzeugs und der konkave mittlere Bereich der Motorhaube herangezogen. Aufgrund der Kameraposition, die vorzugsweise im Bereich des Innenrückspiegels angeord net ist, enthält dieser Bereich auch die Richtungen, die bei dem erfindungsgemäßen Verfahren für die Rekonstruktion am wichtigsten sind. Hinzu kommt, daß diese Fläche in den CAD-Daten einem Flächenelement entspricht und nicht zusam mengesetzt ist. - 6. Die Konfiguration ist statisch.
Unter einer statischen Konfiguration wird eine Konstanz der geometrischen Gegebenheiten verstanden. Es treten keine Veränderungen in der Haubengeometrie und relativen Position der ersten Modelle auf. In Rahmen einer Kamerakalibrierung und speziell einer adaptiven Kamerakalibrierung fällt diese Annahme weg.
Für eine Rekonstruktion ist es ferner günstig, daß die geomet
rischen Daten, wie Aufpunkte der reflektierten Strahlen auf der
Motorhaube und Normalenvektoren, an diesen Stellen bekannt
sind. Diese könnten entweder aus CAD-Daten oder entsprechenden
Kalibrierungsverfahren stammen, die später noch beschrieben
werden.
Eine Möglichkeit, das Bild zu rekonstruieren besteht darin, ein
bekanntes Muster abzubilden, und die Reflexion mit dem Original
zu vergleichen. Hierzu wird die Reflexion einer senkrecht vor
dem Auto stehenden Kalibrierwand in der Motorhaube simuliert.
Dabei ist die Verzerrung der quadratischen Struktur gut zu beo
bachten. Nun werden die korrespondierende Punkte der Bildebene
und der Spiegelebene gesucht. Daraus ergibt sich ein zweidimen
sionales Feld mit Verschiebungsvektoren.
Für die Stereobildverarbeitung ist es nötig, Bilder mit einem
anderen Blickwinkel zu erhalten. Wird allerdings das Spiegel
bild mit dem direkt sichtbaren Bereich korrigiert, so geht da
bei genau diese zusätzliche Information verloren. In diesem
Fall muß das Spiegelbild auf die Sichtweise einer solchen vir
tuellen Kamera korrigiert werden. Die extrinsischen Parameter
dieser virtuellen Kamera sind so aber nicht bekannt.
Werden andere Verfahren angewandt, um diese Kamera zu berech
nen, so ist die Lösung der Rekonstruktionsaufgabe vollbracht
und dieses zweidimensionale bildbasierte Korrekturverfahren
obsolet.
Die oben Vorgehensweisen zielen im wesentlichen darauf ab, die
Position und Blickrichtung einer virtuellen Kamera zur Bildre
konstruktion zu finden. Sind diese extrinsischen Kameraparame
ter der virtuellen Kamera gefunden, kann das Spiegelbild mit
Hilfe der Haubengeometrie rekonstruiert werden. Um diese äuße
ren Parameter der virtuellen Kamera genau bestimmen zu können,
müssen zuerst die äußeren Parameter der realen Kamera bekannt
sein.
Insbesondere ist die Auswirkungen unterschiedlicher Kameraposi
tionen auf einen Meßfehler beachtlich. Daher werden in den fol
genden Abschnitten werden verschiedene Verfahren vorgestellt,
die dazu dienen könnten, die Position und Blickrichtung der re
alen Kamera relativ zur Motorhaube zu bestimmen. In vorteilhafter
Weise können mit diesen Verfahren sogar teilweise auch die
geometrischen Eigenschaften der Oberfläche mitbestimmt werden,
so daß nicht auf CAD-Daten zurückgegriffen werden muß. Die in
trinsischen Kameraparameter der virtuellen Kamera können hinge
gen frei gewählt werden.
Zur Vereinfachung der Weiterverarbeitung im multiokularen Sys
tem werden die inneren Parameter der realen Kamera übernommen.
Die Streifenprojektion ist eine Methode zur Vermessung von
dreidimensionalen Oberflächen. Dazu wird ein spezieller Aufbau
verwendet, bei dem die relativen Positionen des Streifenpro
jektors und der Kamera genau bekannt sind. Dann wird eine Folge
verschiedener Streifenmuster auf das Objekt projiziert und
durch die Kamera aufgenommen. Die Streifen durchschneiden das
Objekt in Ebenen, und durch die Positionsbestimmung des be
kannten Streifens im Bild der Kamera kann die Schnittebene be
rechnet werden. Bei entsprechender Dauer der Messung und Ent
fernung des Objekts vom Meßaufbau kann Genauigkeit in Submilli
meterbereich erzielt werden. Diese Daten können durch Triangu
lation angenähert werden, so daß die Oberfläche mathematisch
bekannt ist und Aufpunkte und Normalenvektoren berechnet werden
können.
Durch die Aufnahme des Bildes mit einer CCD und/oder einer CMOS
oder sonstig geeigneten Kamera findet eine Diskretisierung
statt, so daß eine entsprechende Diskretisierung der Oberfläche
ausreichend sein könnte. Durch die Zuordnung von Bildbereichen
zu Objekten kann dann wiederum eine Verbesserung der Berechnung
erzielt werden. Bei dem nun vorgestellten Verfahren, das an die
sogenannte Laser Guide Star Methode angelehnt ist, werden zwei
Aufnahmen einer Kalibrierungswand verwendet. Da sowohl der Auf
punkt wie auch die Reflexionsrichtung bzw. der Normalenvektor
an der Stelle bestimmt werden müssen, benötigt man mehr als ei
ne Aufnahme. Für jedes Pixel im Bereich der Motorhaube (z0)
wird das entsprechende Pixel des korrespondierenden Gegenstands
im direkten Sichtbereich gesucht (z). Nach der Verschiebung der
Wand wird dasselbe Pixel z0 verwendet und das nun verschobene
korrespondierende Pixel z0 gesucht. Da die Geometrie und die
Entfernung der Kalibrierungswand (a, a0, x, x0) bekannt sind,
kann der Aufpunkt (xp, zp) berechnet werden. Die Bestimmung des
Normalenvektors ist nicht mehr nötig, da mit dem Aufpunkt und
x, a bzw. x0, a0 die Reflexionsrichtung im dreidimensionalen
Raum direkt berechnet werden kann.
Diese Methode verzichtet komplett auf CAD-Daten oder andere Da
tenquellen, die abhängig verwendet werden müßten. Neben der Ka
librierung liefert dieser Ansatz auch die geometrischen Infor
mationen, die zur Berechnung der Objektentfernungen benötigt
werden.
Die beschriebenen Lösungsansätze zielen in verschiedenen Rich
tungen, in denen jeweils unterschiedliche Probleme zu lösen
sind. In jedem Fall nimmt jedoch die Kamerakalibrierung, also
die Bestimmung der Position und Blickrichtung relativ zur Mo
torhaube, eine wichtige Stellung ein.
Wird eine Rekonstruktion des Bildes im üblichen Sinn durchge
führt, so ist die Wahl des Blickpunktes und der Blickrichtung
wichtig. Da nur rotierte Kegelschnitte in Verbindung mit einer
entsprechenden Kamera ein katadioptrisches System mit einem
einzelnen Blickpunkt liefern, werden bei der Rekonstruktion mit
einem gewählten Blickpunkt immer Fehler auftreten. Die Blick
richtung spiegelt sich dabei in der Wahl der Rekonstruktions
ebene, als Ebene senkrecht zur Blickrichtung, wider. Selbst die
Wahl der Entfernung dieser Rekonstruktionsebene spielt in die
sem fehlerbehafteten Ansatz dann eine Rolle. Wird also eine
derartige Rekonstruktion verwendet, sind ausführliche Fehlerbe
trachtungen nötig.
Wird der Ansatz verwendet, daß zuerst die Objekterkennung in
geeigneten Suchfenstern durchgeführt und dann für die entspre
chende Pixel trianguliert wird, ist die zu erwartende Entfernungsgenauigkeit
wesentlich größer, da in diesem Sinne keine
Rekonstruktionsfehler auftreten.
Um eine sinnvolle Rekonstruktion der von der Motorhaube reflek
tierten Bilder vorzunehmen, werden zuvor in zweckmäßiger Weise
die Epipolaren der reflektierenden Fläche der Karosserie ermit
telt.
Zur Definition einer Epipolaren: Ein Sehstrahl SO geht durch
den Brennpunkt F0 einer Kamera K0 und eine Punkt P0 in der
Bildebene der Kamera K0. Der Brennpunkt einer weiteren Kamera
K1, die an einem anderen Ort wie K0 ist, hat den Brennpunkt F1.
Die Epipolarebene, die durch Sehstrahl S0 und den Brennpunkt F1
definiert ist, schniedet die Bildebene der Kamera 1 entlang der
Epipolarkurve L1. Bei einer Lochkamera ist die Epipolare L1 ei
ne Linie.
Zur Ermittelung der Epipolaren werden vorzugsweise Spiegelungen
von Eichgegenständen bekannter Geometrie aufgenommen, die von
der Motorhaube einen bekannten Abstand aufweisen. Aus diesen
(Eich-)Spiegelungen werden die Epipolaren ermittelt und eine
Eichfunktion erstellt, welche später zur Auswertung herangezo
gen wird.
Claims (10)
1. Verfahren zur Bilderkennung bei Kraftfahrzeugen, bei dem von
einem Gegenstand ausgehende elektromagnetische Wellen von we
nigstens einem Sensor sowohl bezüglich ihrer Intensität als
auch bezüglich ihrer Richtung aufgenommen, ausgewertet und ei
ner Bildmatrix übergeben werden,
dadurch gekennzeichnet,
daß die Lage und die Geometrie einer reflektierenden Fläche der Karosserie zu dem Sensor ermittelt wird,
daß von dem Sensor das ungestörte Originalbild des Gegens tandes aufgenommen wird,
daß zusätzlich Reflexionswellen von dem Gegenstand, welche von der reflektierenden Fläche gespiegelt werden, im folgen den Spiegelbild genannt, aufgenommen wird und
daß das Spiegelbild und das Originalbild zur Auswertung he rangezogen wird.
daß die Lage und die Geometrie einer reflektierenden Fläche der Karosserie zu dem Sensor ermittelt wird,
daß von dem Sensor das ungestörte Originalbild des Gegens tandes aufgenommen wird,
daß zusätzlich Reflexionswellen von dem Gegenstand, welche von der reflektierenden Fläche gespiegelt werden, im folgen den Spiegelbild genannt, aufgenommen wird und
daß das Spiegelbild und das Originalbild zur Auswertung he rangezogen wird.
2. Verfahren nach Anspruch 1,
dadurch gekennzeichnet,
daß die Epipolaren der reflektierenden Fläche der Karosserie ermittelt werden,
daß mit Eichgegenständen bekannter Geometrie und bekanntem Abstand die Spiegelungen an den Epipolaren aufgenommen wer den und
daß daraus eine Eichfunktion erstellt wird,
daß die Eichfunktion zur Auswertung herangezogen wird.
daß die Epipolaren der reflektierenden Fläche der Karosserie ermittelt werden,
daß mit Eichgegenständen bekannter Geometrie und bekanntem Abstand die Spiegelungen an den Epipolaren aufgenommen wer den und
daß daraus eine Eichfunktion erstellt wird,
daß die Eichfunktion zur Auswertung herangezogen wird.
3. Verfahren nach Anspruch 2,
dadurch gekennzeichnet,
daß die Position des Spiegelbildes im Bezug zu den Epipolaren
bestimmt wird und daß die Position des Spiegelbildes zur Be
stimmung der Entfernung des Gegenstandes verwendet wird.
4. Verfahren nach Anspruch 1,
dadurch gekennzeichnet,
daß als Sensor eine Stereo-Kamera, insbesondere eine Stereo-
CCD-Kamera, gewählt wird.
5. Verfahren nach Anspruch 1,
dadurch gekennzeichnet,
daß als Sensor eine Kamera gewählt wird und daß mit einer Kame
ra das Originalbild des Gegenstandes sowie die Reflexion an der
Karosserie und als Referenzbild die Reflexion an einer in be
kanntem Abstand von der Kamera angeordneten spiegelnden Fläche
bekannter Geometrie, bevorzugt an einer Kugel, aufgenommen
wird.
6. Verfahren nach Anspruch 1,
dadurch gekennzeichnet,
daß das Originalbild eines Gegenstandes getrennt von dem Spie
gelbild des Gegenstandes ermittelt und ausgewertet wird und daß
zwischen dem fertig bearbeiteten Originalbild und dem entspre
chend aufbereiteten Spiegelbild korrespondierende Bildpunkte
und/oder -ausschnitte ermittelt werden.
7. Verfahren nach Anspruch 1,
dadurch gekennzeichnet,
daß mittels korrespondierender Bildpunkte und/oder -flächen ei
ne Triangulation zur Abstandsbestimmung des Gegenstandes durch
geführt wird.
8. Verfahren nach Anspruch 1,
dadurch gekennzeichnet,
daß mittels korrespondierender Bildpunkte und/oder -flächen ei
ne Triangulation zur Winkelbestimmung des Gegenstandes durchge
führt wird.
9. Verfahren nach Anspruch 1,
dadurch gekennzeichnet,
daß mittels korrespondierender Bildpunkte und/oder -flächen ei
ne Triangulation zur Ortsbestimmung des Gegenstandes durchge
führt wird.
10. Verfahren nach Anspruch 1,
dadurch gekennzeichnet,
daß der Meßbereich der elektromagnetischen Wellen von dem Ult
ravioletten bis zum FIR, insbesondere zwischen dem Ultraviolet
ten und dem FIR gewählt wird.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10103870A DE10103870B4 (de) | 2001-01-30 | 2001-01-30 | Verfahren zur Bilderkennung bei Kraftfahrzeugen |
EP02702236A EP1358444A1 (de) | 2001-01-30 | 2002-01-05 | Verfahren zur bilderkennung bei kraftfahrzeugen |
JP2002561894A JP2004522956A (ja) | 2001-01-30 | 2002-01-05 | 自動車用の画像認識方法 |
PCT/EP2002/000056 WO2002061370A1 (de) | 2001-01-30 | 2002-01-05 | Verfahren zur bilderkennung bei kraftfahrzeugen |
US10/470,458 US20040071316A1 (en) | 2001-01-30 | 2002-01-05 | Method for image recognition in motor vehicles |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10103870A DE10103870B4 (de) | 2001-01-30 | 2001-01-30 | Verfahren zur Bilderkennung bei Kraftfahrzeugen |
Publications (2)
Publication Number | Publication Date |
---|---|
DE10103870A1 true DE10103870A1 (de) | 2002-08-22 |
DE10103870B4 DE10103870B4 (de) | 2004-02-05 |
Family
ID=7672056
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE10103870A Expired - Fee Related DE10103870B4 (de) | 2001-01-30 | 2001-01-30 | Verfahren zur Bilderkennung bei Kraftfahrzeugen |
Country Status (5)
Country | Link |
---|---|
US (1) | US20040071316A1 (de) |
EP (1) | EP1358444A1 (de) |
JP (1) | JP2004522956A (de) |
DE (1) | DE10103870B4 (de) |
WO (1) | WO2002061370A1 (de) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10234645A1 (de) * | 2002-07-29 | 2004-02-12 | Daimlerchrysler Ag | Kameraanordnung mit einer spiegelnden Fläche |
DE10310265A1 (de) * | 2003-02-25 | 2004-09-09 | Daimlerchrysler Ag | Spiegel zur optoelektronischen Umgebungserfassung an einem Fahrzeug |
DE10310264A1 (de) * | 2003-02-25 | 2004-09-09 | Daimlerchrysler Ag | Katadioptrische Kamera für eine technische Einrichtung, insbesondere ein Kraftfahrzeug |
DE10323560A1 (de) * | 2003-05-26 | 2004-12-23 | Robert Bosch Gmbh | Kamera und Vorrichtung zur Ermittlung der Helligkeit der Umgebung eines Kraftfahrzeuges |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10201523A1 (de) * | 2002-01-17 | 2003-07-31 | Bosch Gmbh Robert | Verfahren und Vorrichtung zur Verdeckungsdetektion bei Bildsensorsystemen |
DE102006004770B4 (de) * | 2005-11-09 | 2007-10-11 | Daimlerchrysler Ag | Verfahren zur bildgestützten Erkennung von Fahrzeugen im Umfeld eines Sraßenfahrzeugs |
US8760632B2 (en) | 2009-11-09 | 2014-06-24 | Toyota Jidosha Kabushiki Kaisha | Distance measuring apparatus and distance measuring method |
DE102013226760A1 (de) * | 2013-12-19 | 2015-06-25 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Erkennung von Objektreflexionen |
JP6433268B2 (ja) * | 2014-03-31 | 2018-12-05 | 国立大学法人 東京大学 | 検査システムおよび検査方法 |
KR102273027B1 (ko) | 2014-06-09 | 2021-07-05 | 삼성전자주식회사 | 위치정보를 사용하여 설정된 관심영역을 사용하여 영상데이터를 생성하는 방법 및 장치 |
JP2018155565A (ja) * | 2017-03-16 | 2018-10-04 | 株式会社富士通ゼネラル | 画像処理装置 |
US11062149B2 (en) * | 2018-03-02 | 2021-07-13 | Honda Motor Co., Ltd. | System and method for recording images reflected from a visor |
EP4067814A1 (de) * | 2021-03-29 | 2022-10-05 | Teledyne FLIR Commercial Systems, Inc. | Radiometrische thermische bildgebungsverbesserungen für navigationssysteme und verfahren |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5517575A (en) * | 1991-10-04 | 1996-05-14 | Ladewski; Theodore B. | Methods of correcting optically generated errors in an electro-optical gauging system |
US5465153A (en) * | 1991-10-04 | 1995-11-07 | Kms Fusion, Inc. | Electro-optical system for gauging specular surface profile deviations |
US5670935A (en) * | 1993-02-26 | 1997-09-23 | Donnelly Corporation | Rearview vision system for vehicle including panoramic view |
EP0700269B1 (de) * | 1993-04-22 | 2002-12-11 | Image Guided Technologies, Inc. | Anordnung zur bestimmung der gegenseitigen lage von körpern |
JP3522317B2 (ja) * | 1993-12-27 | 2004-04-26 | 富士重工業株式会社 | 車輌用走行案内装置 |
US5615003A (en) * | 1994-11-29 | 1997-03-25 | Hermary; Alexander T. | Electromagnetic profile scanner |
US5852672A (en) * | 1995-07-10 | 1998-12-22 | The Regents Of The University Of California | Image system for three dimensional, 360 DEGREE, time sequence surface mapping of moving objects |
US5988862A (en) * | 1996-04-24 | 1999-11-23 | Cyra Technologies, Inc. | Integrated system for quickly and accurately imaging and modeling three dimensional objects |
US6304263B1 (en) * | 1996-06-05 | 2001-10-16 | Hyper3D Corp. | Three-dimensional display system: apparatus and method |
JP3866328B2 (ja) * | 1996-06-06 | 2007-01-10 | 富士重工業株式会社 | 車両周辺立体物認識装置 |
JP3516856B2 (ja) * | 1998-01-30 | 2004-04-05 | 富士重工業株式会社 | 車外監視装置 |
US6212132B1 (en) * | 1998-08-04 | 2001-04-03 | Japan Radio Co., Ltd. | Three-dimensional radar apparatus and method for displaying three-dimensional radar image |
JP2001028056A (ja) * | 1999-07-14 | 2001-01-30 | Fuji Heavy Ind Ltd | フェールセーフ機能を有するステレオ式車外監視装置 |
US6873724B2 (en) * | 2001-08-08 | 2005-03-29 | Mitsubishi Electric Research Laboratories, Inc. | Rendering deformable 3D models recovered from videos |
-
2001
- 2001-01-30 DE DE10103870A patent/DE10103870B4/de not_active Expired - Fee Related
-
2002
- 2002-01-05 EP EP02702236A patent/EP1358444A1/de not_active Withdrawn
- 2002-01-05 JP JP2002561894A patent/JP2004522956A/ja active Pending
- 2002-01-05 WO PCT/EP2002/000056 patent/WO2002061370A1/de not_active Application Discontinuation
- 2002-01-05 US US10/470,458 patent/US20040071316A1/en not_active Abandoned
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10234645A1 (de) * | 2002-07-29 | 2004-02-12 | Daimlerchrysler Ag | Kameraanordnung mit einer spiegelnden Fläche |
WO2004013575A1 (de) * | 2002-07-29 | 2004-02-12 | Daimlerchrysler Ag | Kameraanordnung mit einer spiegelnden fläche |
DE10234645B4 (de) * | 2002-07-29 | 2004-07-22 | Daimlerchrysler Ag | Kameraanordnung mit einer spiegelnden Fläche |
DE10310265A1 (de) * | 2003-02-25 | 2004-09-09 | Daimlerchrysler Ag | Spiegel zur optoelektronischen Umgebungserfassung an einem Fahrzeug |
DE10310264A1 (de) * | 2003-02-25 | 2004-09-09 | Daimlerchrysler Ag | Katadioptrische Kamera für eine technische Einrichtung, insbesondere ein Kraftfahrzeug |
DE10323560A1 (de) * | 2003-05-26 | 2004-12-23 | Robert Bosch Gmbh | Kamera und Vorrichtung zur Ermittlung der Helligkeit der Umgebung eines Kraftfahrzeuges |
DE10323560B4 (de) * | 2003-05-26 | 2010-12-02 | Robert Bosch Gmbh | Kamera und Vorrichtung zur Ermittlung der Helligkeit der Umgebung eines Kraftfahrzeuges |
Also Published As
Publication number | Publication date |
---|---|
US20040071316A1 (en) | 2004-04-15 |
DE10103870B4 (de) | 2004-02-05 |
EP1358444A1 (de) | 2003-11-05 |
WO2002061370A1 (de) | 2002-08-08 |
JP2004522956A (ja) | 2004-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2002203B1 (de) | Verfahren und system zur formmessung einer spiegelnden oberfläche | |
DE112015003439B4 (de) | Fahrzeug-Head-Up-Anzeigevorrichtung | |
DE3738648C2 (de) | ||
DE3587482T2 (de) | Fehlerinspektion fuer plattenoberflaechen. | |
DE10103870A1 (de) | Verfahren zur Bilderkennung bei Kraftfahrzeugen | |
EP1956413A2 (de) | Holographisches Informations-Display | |
EP2105701A1 (de) | Verfahren und Vorrichtung zur Bestimmung der 3D-Koordinaten eines Objekts | |
DE102010039092B4 (de) | Verfahren und Steuergerät zum Ermitteln eines Abstandes eines Objektes von einem Fahrzeug | |
DE102018100909A1 (de) | Verfahren zum Rekonstruieren von Bildern einer Szene, die durch ein multifokales Kamerasystem aufgenommen werden | |
WO2020030407A1 (de) | Verfahren zum betreiben einer blickfeldanzeigevorrichtung für ein kraftfahrzeug | |
EP3707547B1 (de) | System und verfahren zum bestimmen einer pose einer augmented-reality-brille, system und verfahren zum einmessen einer augmented-reality-brille, verfahren zum unterstützen einer posenbestimmung einer augmented-reality-brille und für das verfahren geeignetes kraftfahrzeug | |
DE10317078B4 (de) | Verfahren und Vorrichtung zur Analyse reflektierender Oberflächen | |
WO1997010488A1 (de) | Verfahren und vorrichtung zum erfassen und vermessen dreidimensionaler körper oder von beliebigen flächen | |
EP4046133B1 (de) | Verfahren und vorrichtung zum bestimmen einer kontur einer fassungsnut | |
DE102004008904A1 (de) | Vorrichtung und Verfahren zur Bestimmung von Raumkoordinaten eines Objekts | |
DE102007002880B4 (de) | Verfahren und Vorrichtung zum optischen Ausmessen eines Objekts, insbesondere eines Werkstücks oder Werkzeugs | |
DE112020001450T5 (de) | System zur anzeige eines virtuellen bilds, bildanzeigeverfahren, head-up display und sich bewegendes fahrzeug | |
DE19646702A1 (de) | Verfahren zum Detektieren von Produktionsfehlern in einem Artikel | |
DE102014224274B4 (de) | Vorrichtung und verfahren zum optischen vermessen von gegenständen mittels spiegelndem fluss und stereo-regularisierung | |
DE102010053978A1 (de) | Verfahren und System zur Bestimmung der Position und/oder Lage eines Objektes in einem räumlichen Messvolumen | |
DE102017117594A1 (de) | Automatisierte Erkennung einer Scheinwerferfehlstellung | |
DE102004050020A1 (de) | Auswertevorrichtung, Auswerteverfahren und Verwendung einer Auswertevorrichtung für einen Hochgeschwindigkeitsversuch | |
DE102019125612A1 (de) | Verfahren zur computerimplementierten Simulation eines optischen Sensors in einer virtuellen Umgebung | |
DE10234645B4 (de) | Kameraanordnung mit einer spiegelnden Fläche | |
DE102018119602B3 (de) | Verfahren und System zur Merkmalsdetektion in flickerbehafteten Lichtverteilungsbildern |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |