DE19636028C1 - Verfahren zur Stereobild-Objektdetektion - Google Patents
Verfahren zur Stereobild-ObjektdetektionInfo
- Publication number
- DE19636028C1 DE19636028C1 DE19636028A DE19636028A DE19636028C1 DE 19636028 C1 DE19636028 C1 DE 19636028C1 DE 19636028 A DE19636028 A DE 19636028A DE 19636028 A DE19636028 A DE 19636028A DE 19636028 C1 DE19636028 C1 DE 19636028C1
- Authority
- DE
- Germany
- Prior art keywords
- disparity
- image
- pixels
- pixel
- brightness
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/285—Analysis of motion using a sequence of stereo image pairs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/147—Details of sensors, e.g. sensor lenses
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0085—Motion estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Vascular Medicine (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Holo Graphy (AREA)
- Eye Examination Apparatus (AREA)
Description
Die Erfindung bezieht sich auf ein Verfahren zum Detektieren und
gegebenenfalls auch zum Verfolgen von Objekten mittels Aufnahme
und Auswertung von Stereobildern. Ein solches Verfahren ist bei
spielsweise nützlich als Hilfsmittel zum automatisierten Führen
von Straßenfahrzeugen oder auch auf dem Gebiet der Robotik, wo
es jeweils darauf ankommt, relevante Objekte zu detektieren und
deren Position und Größe zu bestimmen. Im Fall der autonomen
Fahrzeugführung, z. B. im städtischen Stop, sind neben
stehenden Objekten, die sich im Fahrbereich des Fahrzeugs befin
den, auch alle bewegten Objekte im näheren Umfeld zu detektie
ren. Hingegen ist für derartige Anwendungen keine vollständige,
dichte Tiefenkarte der Szene erforderlich. So kann meist von ei
ner relativ ebenen Grundfläche und deutlich erhabenen Objekten
ausgegangen werden. Es brauchen zudem keine Detailinformationen,
wie die genaue Form eines vorausfahrenden Fahrzeugs, abgeleitet
werden. Derartige vereinfachende Randbedingungen gelten analog
für eine Vielzahl von Problemstellungen auf den Gebieten der Ro
botik und der Überwachungstechnik.
Die Verfahren zur Stereobild-Objektdetektion lassen sich in flä
chenbasierte Methoden und merkmalbasierte Methoden unterteilen.
Flächenbasierte Methoden sind z. B. in den Konferenzbeiträgen K.
Sane Yoshi, 3-D image recognition system by means of stereo
scopy combined with ordinary image processing, Intelligent Ve
hicles ′94, 24.10.1994 bis 26.10.1994, Paris, Seiten 13 bis 18
und L. Matthies et al., Obstacle detection for unmanned ground
vehicles : a progress report, Intelligent Vehicles ′95, 25./
26.09.1995, Detroit, Seiten 66 bis 71 beschrieben. Sie erfordern
einen höheren Rechenaufwand als merkmalbasierte Methoden. Für
einen Überblick über gängige Stereobild-Objektdetektionsver
fahren sei auf das Buch O. Faugeras, Three-Dimensional Computer
Vision, MIT Press, 1993 verwiesen.
Aus der Offenlegungsschrift DE 44 31 479 A1 ist ein Verfahren
zur Detektion von Objekten, insbesondere Fahrzeugen, bekannt,
bei dem von einem jeweiligen Bereich zwei Bilder aus verschiede
nen Blickwinkeln aufgenommen werden. Aus einem Vergleich der
beiden Bilder, insbesondere deren Grauwerte, wird für mindestens
einen Teilbereich jeweils dann ein Objekt erkannt, wenn der Un
terschied zwischen den beiden Bildern für den betreffenden Teil
bereich größer als eine vorgegebene Schwelle ist.
Bei einem in der Offenlegungsschrift DE 43 08 776 A1 offenbarten
System zur Überwachung eines fahrzeugexternen Zustandes ist eine
Stereobild-Objektdetektion vorgesehen, durch die ein jeweiliges
Objekt innerhalb einer festen Region außerhalb eines Fahrzeugs
abgebildet wird. Die aufgenommenen Bilder werden einer Bildver
arbeitungsvorrichtung zugeführt, welche eine Distanzverteilung
über das gesamte Bild hinweg berechnet. Um ein jeweiliges Objekt
im linken und rechten Bild aufzufinden, wird das jeweilige Bild
in kleine Regionen unterteilt, und es werden Farb- oder Hellig
keitsmuster innerhalb dieser Regionen für die beiden Bilder ver
glichen, um die Regionen mit sich entsprechenden Objektdetails
herauszufinden und daraus die Distanzverteilung über das gesamte
Stereobild zu bestimmen.
In der Offenlegungsschrift EP 0 626 655 A2 ist eine Einrichtung
zur Erkennung vorausfahrender Fahrzeuge und zur Bestimmung von
deren Entfernung beschrieben, die von einem Stereobild-Objektde
tektionsverfahren Gebrauch macht. Für die Bildauswertung werden
spezielle, auf das Erkennen von Fahrzeugkonturen zugeschnittene
Techniken eingesetzt, welche Fahrzeugkonturmodelle verwenden.
Für ein erkanntes Fahrzeug wird die zugehörige Disparität und
daraus die Fahrzeugentfernung ermittelt.
Der Erfindung liegt als technisches Problem die Bereitstellung
eines Verfahrens zur Stereobild-Objektdetektion zugrunde, das
sich besonders für die oben genannten Anwendungsfälle mit ver
einfachten Randbedingungen eignet und vergleichsweise effizient
und robust ist.
Die Erfindung löst dieses Problem durch die Bereitstellung eines
Verfahrens mit den Merkmalen des Anspruchs 1. Bei diesem Verfah
ren wird aus dem aufgenommenen Stereobildpaar zunächst ein
Strukturklassenbildpaar erzeugt, indem für jeden Bildpunkt die
Helligkeitsdifferenzen zu vorgegebenen Umgebungsbildpunkten in
digitaler Form ermittelt und die Digitalwerte in einer vorbe
stimmten Reihenfolge zu einer Digitalwertgruppe zusammengefaßt
werden. Jede der verschiedenen möglichen Gruppen definiert dabei
eine eigene Strukturklasse. Anschließend wird eine vergleichs
weise effektiv durchführbare, zweckmäßig einfach gestaltete Kor
respondenzanalyse durchgeführt, bei der alle Strukturklassen un
berücksichtigt bleiben, die in Richtung der Epipolarlinie, d. h.
zur Linie sich entsprechender Bildpunktpaare eines jeweiligen
gemeinsamen Urbildpunktes, keinen Strukturgradienten zeigen.
Dies sind diejenigen Strukturklassen, deren Bildpunkte sich in
ihrer Helligkeit nicht um ein vorgebbares Maß von der Helligkeit
der in Richtung der Epipolarlinie liegenden Umgebungsbildpunkte
unterscheiden. Dadurch wird bereits ein merklicher Bildverarbei
tungsaufwand eingespart. In dieser Richtung verlaufende Struktu
ren eignen sich systembedingt bei der merkmalsbasierten Stereo
bildauswertung ohnehin nicht zur Entfernungsbestimmung. Zu allen
übrigen Strukturklassen werden dann Disparitätswerte korrespon
dierender Bildpunkte gleicher Strukturklasse ermittelt, die in
einem Disparitätshistogramm zu einem jeweiligen Häufigkeitswert
akkumuliert werden. Optional kann für jedes korrespondierende
Bildpunktpaar der zugehörige Disparitätswert mit einem gewichte
ten Häufigkeitsinkrement in das Histogramm eingehen. Anschlie
ßend wird das Histogramm auf Häufungspunktbereiche untersucht.
Zu festgestellten, interessierenden Häufungspunktbereichen wird
dann umgekehrt die zugehörige Bildpunktgruppe eines zugehörigen
Strukturklassenbildes dargestellt und als in einer bestimmten
Entfernung befindliches Objekt interpretiert. Es zeigt sich, daß
dieses Objektdetektionsverfahren für viele Anwendungsfälle sehr
effektiv arbeitet und robuste, d. h. wenig störanfällige Resul
tate liefert.
Sei einem nach Anspruch 2 weitergebildeten Verfahren wird eine
ternäre Logik zur Digitalisierung der Helligkeitsdifferenzen
verwendet, was eine für die hier betrachteten Anwendungen sehr
vorteilhafte, weil einerseits ausreichend differenzierte und an
dererseits ausreichend schnell durchführbare Strukturklassifi
zierung ermöglicht.
Bei einem nach Anspruch 3 weitergebildeten Verfahren werden als
Umgebungsbildpunkte die vier Bildpunkte gewählt, die an den je
weiligen Bezugsbildpunkt zum einen parallel und zum anderen
senkrecht zur Epipolarlinie jeweils beidseits direkt angrenzen
oder von diesem um eine vorgebbare Abgriffweite beabstandet an
geordnet sind. Eine Abgriffweite in der Größe eines oder even
tuell auch mehrerer Bildpunkte ermöglicht die Einbeziehung eines
größeren Nachbarschaftsbereiches, was in Fällen zweckmäßig ist,
in denen sich die Helligkeitsgradienten typischerweise über ei
nen Bereich mehrerer Bildpunkte hinweg erstrecken.
Bei einem nach Anspruch 4 weitergebildeten Verfahren ist der er
forderliche Berechnungsaufwand weiter dadurch verringert, daß
kleine Disparitäten favorisiert werden, indem zu jedem Bildpunkt
des einen Strukturklassenbildes nur die minimale Disparität,
d. h. die Entfernung des nächstgelegenen Bildpunktes gleicher
Strukturklasse im anderen Strukturklassenbild, ermittelt und für
die Erstellung des Disparitätshistogramms berücksichtigt wird.
Die zugrundeliegende Annahme der Favorisierung kleiner Dispari
täten und damit großer Objektentfernungen ist insbesondere bei
der Verwendung in Fahrzeugen für die Betrachtung von Straßensze
nen mit ihren relativ großen Hindernissen angemessen. Mit dieser
Vorgehensweise wird zudem das Auftreten von nahen Phantomobjek
ten bei der Korrespondenzanalyse unterdrückt, wie sie durch weit
entfernte, periodische Strukturen, z. B. Häuserfronten, generiert
werden können.
Bei einem nach Anspruch 5 weitergebildeten Verfahren wird jedem
Bildpunkt neben der die Helligkeitsdifferenzen repräsentierenden
Digitalwertgruppe ein die Größe der aufgetretenen Helligkeits
differenzen stärker differenzierender Kontrastwert zugeordnet,
der als Gewichtsfaktor zur Bildung eines gewichteten Häufig
keitsinkrementes verwendet wird. Für jedes korrespondierende
Bildpunktpaar, für das ein Disparitätswert ermittelt wird, wird
dann selbiger mit dem kontrastabhängig gewichteten Häufigkeits
inkrement zum Disparitätshistogramm akkumuliert. Dadurch werden
kontrastreiche Strukturen stärker bei der Bildauswertung berück
sichtigt, was das Grundrauschen vermindert.
Bei einem nach Anspruch 6 weitergebildeten Verfahren wird die
Objektdetektion durch eine Ballungsanalyse der als zu einem je
weiligen Objekt gehörig interpretierten Bildpunktgruppe erwei
tert, die einerseits ausreichend einfach gestaltet ist und ande
rerseits eine verbesserte Lokalisierung und Bewegungsverfolgung
des Objektes erlaubt.
Bei einem nach Anspruch 7 weitergebildeten Verfahren wird an
schließend an die Detektion eines Objektes eine kontinuierliche
Bewegungsverfolgung desselben durchgeführt, indem die erfin
dungsgemäße Objektdetektion beschränkt auf einen minimalen, das
detektierte Objekt enthaltenden Kubus zyklisch wiederholt durch
geführt wird. Die Beschränkung auf den hierfür jeweils relevan
ten Bildbereich spart nicht nur Rechenaufwand ein, sondern redu
ziert vor allem auch den Einfluß störender Hintergrundobjekte.
Außerdem braucht nur noch ein relativ kleiner Bereich von Dis
paritätswerten ausgewertet werden, wobei die zugehörige Tiefe
des Kubus von der maximal zu erwartenden Entfernungsänderung be
stimmt ist.
Ein nach Anspruch 8 weitergebildetes Verfahren eignet sich für
Straßenfahrzeuge und beinhaltet ein plausibles Straßenmodell,
das es gestattet, Strukturen der Straßenoberfläche mit hoher Zu
verlässigkeit herauszufiltern, was die Detektion von Objekten im
Bereich über der Straßenoberfläche erleichtert und/oder das zu
verlässige Erfassen von Fahrbahnmarkierungen zur autonomen Fahr
zeugquerführung ermöglicht.
Eine vorteilhafte Ausführungsform der Erfindung ist in den
Zeichnungen illustriert und wird nachfolgend beschrieben. Hier
bei zeigen:
Fig. 1 ein von einer Stereokameraanordnung eines Fahrzeugs auf
genommenes Stereobildpaar,
Fig. 2 eine schematische Darstellung der zur Auswertung der Ste
reobilder gemäß Fig. 1 verwendeten Strukturklassifizie
rung,
Fig. 3 eine Grauwertdarstellung des durch die Strukturklassifi
zierung gemäß Fig. 2 aus dem linken Stereobild von Fig. 1
erhaltenen Strukturklassenbildes,
Fig. 4 ein durch Korrespondenzanalyse der beiden, zu den Stereo
bildern von Fig. 1 gehörigen Strukturklassenbildern er
haltenes Disparitätshistogramm mit mehreren Häufungspunk
ten,
Fig. 5 eine Darstellung der mit einem ersten Häufungspunkt von
Fig. 4 verknüpften Bildpunktgruppe und
Fig. 6 eine Darstellung der mit einem zweiten Häufungspunkt von
Fig. 4 verknüpften Bildpunktgruppe.
Fig. 1 zeigt ein Stereobildpaar 1a, 1b, das eine typische Stra
ßenverkehrsszene wiedergibt. Zur kontinuierlichen Aufnahme des
Verkehrsgeschehens vor einem Fahrzeug anhand solcher Stereobild
paare 1a, 1b ist an dem Fahrzeug in herkömmlicher Weise eine
nach vorn gerichtete Stereokameraanordnung angebracht, deren op
tische Achsen vorzugsweise parallel zueinander ausgerichtet und
horizontal gegeneinander versetzt sind. In diesem Fall bilden
die zugehörigen Epipolarlinien, d. h. diejenigen Linien, entlang
denen der zu einem gemeinsamen Urbildpunkt gehörige Bildpunkt im
einen Stereobild gegenüber dem entsprechenden Bildpunkt im ande
ren Stereobild versetzt sein kann, gleichzeitig jeweilige Bild
zeilen des Stereo-Bildpaares 1a, 1b, was die spätere Dispari
tätsauswertung besonders einfach macht. Die Stereobildüberwa
chung des Verkehrsgeschehens vor dem Fahrzeug läßt sich insbe
sondere zum automatisierten Führen des Fahrzeugs in Längs- und/
oder Querrichtung bzw. zur Warnung vor auftretenden Hindernis
sen, wie anderen Fahrzeugen und Fußgängern, verwenden. Interes
sierende Objekte sind bei dem Stereobildpaar 1a, 1b von Fig. 1
folglich vor allem das auf derselben Fahrspur vorausfahrende
Fahrzeug 2 sowie ein auf einer benachbarten Fahrspur befindli
ches Fahrzeug 3. Ziel des nachfolgend näher beschriebenen Ob
jektdetektionsverfahrens ist es vor allem, selbsttätig die Lage
dieser beiden Objekte 2, 3 bezogen auf das eigene Fahrzeug rasch
und zuverlässig zu ermitteln.
Hierfür wird jedes der beiden Stereobilder 1a, 1b in ein ent
sprechendes Strukturklassenbild mittels einer Strukturklassifi
zierung transformiert, wie sie in Fig. 2 schematisch angedeutet
ist. Für jeden Bildpunkt x der beiden Stereobilder 1a, 1b wird
eine Umgebungsbildpunktmenge definiert, die im Fall von Fig. 2
aus den vier in Zeilen- und Spaltenrichtung, d. h. parallel und
senkrecht zur horizontalen Epipolarlinie, nächstbenachbarten Um
gebungsbildpunkten x₀, x₁, x₂, x₃ besteht. Wenn sich diese Wahl
der Umgebungsbildpunkte als zu lokal erweist, kann alternativ
ein größerer Nachbarschaftsbereich von Umgebungsbildpunkten bzw.
ein Satz weiter entfernter Umgebungsbildpunkte gewählt werden.
Bei Wahl eines größeren Nachbarschaftsbereiches, die eine kubi
sche Steigerung der Anzahl von Strukturklassen impliziert und
die Empfindlichkeit bezüglich der jeweils gewählten Helligkeits
schwellwerte anwachsen läßt, ist die Auswertung in einer Gauß
pyramide von Vorteil. Zufriedenstellende Ergebnisse werden durch
eine rechentechnisch weniger aufwendige Erhöhung der Abgriffwei
te erzielt, d. h. anstelle der in Fig. 2 gewählten, in Zeilen-
und Spaltenrichtung direkt benachbarten Umgebungsbildpunkte wer
den dann solche gewählt, die zum Bezugsbildpunkt x einen Abstand
von einem oder einigen wenigen Bildpunkten besitzen.
In jedem Fall wird dann paarweise die Helligkeit des Bezugsbild
punktes x mit denjenigen des jeweiligen Umgebungsbildpunktes x₀
bis x₃ unter Vorgabe eines positiven Helligkeitsschwellwertes T
in digitalisierter Form gemäß eine Ternärlogik verglichen, wobei
als Vergleichsergebnis ein Helligkeitsdifferenz-Digitalwert d (xi)
in Form einer jeweiligen Ternärziffer gemäß nachfolgender Bezie
hung generiert wird:
wobei g(x) die Helligkeit des Bezugsbildpunktes und g(xi) mit
i=0, . . . , 3 die Helligkeit des jeweiligen Umgebungsbildpunktes
ist. Die vier zu einem jeweiligen Bildpunkt x in dieser Weise
ermittelten Ternärziffern d(x₀) bis d(x₃) werden dann zu einer
Gruppe in Form einer Ternärzahl C der Form
zusammengefaßt, wie in der rechten Hälfte von Fig. 2 veranschau
licht. Für die so gebildete Ternärzahl C sind einundachtzig un
terschiedliche Werte möglich, von denen jeder eine eigene Struk
turklasse definiert. Anstelle der vorliegend beschriebenen ter
nären Digitalisierung der Helligkeitsunterschiede kommen auch
andere Mehrwert-Digitalisierungen in Betracht, allerdings werden
bei einer nur binären Digitalisierung Gradienteninformationen,
die ein wichtiger Bestandteil der nachfolgenden Korrespondenz
analyse sind, unterdrückt, während höherwertige Digitalisierun
gen einen erhöhten Rechenaufwand zur Folge haben.
Fig. 3 zeigt das Ergebnis der Strukturklassifikation für das
linke Stereobild 1a von Fig. 1, wobei als Gesamthelligkeitsum
fang das Intervall [0,255] und ein Helligkeitsdifferenzschwell
wert von T=20 gewählt wurden. Zur besseren Veranschaulichung
wurden die ermittelten Ternärzahlen C mit dem Faktor drei multi
pliziert und invertiert, so daß die zur Strukturklasse mit der
Ternärzahl C=0 gehörigen Bildpunkte in Fig. 3 weiß erscheinen.
Aus Fig. 3 läßt sich erkennen, daß aufgrund der durch den Hel
ligkeitsschwellwert T eingebrachten Nichtlinearität eine be
trächtliche Datenreduktion erzielt wird. Im Bild von Fig. 3 ge
hören etwa 50% aller Bildpunkte der Strukturklasse mit C=0 an.
Weitere 25% der Bildpunkte gehören zu sogenannten horizontalen
Strukturklassen, das sind jene mit horizontalen Strukturen, bei
denen d(x₃)=d(x₁)=0 ist. Solche horizontalen Strukturklassen sind
für die Auswertung von Stereobildern mit der vorliegend horizon
tal gewählten Epipolarlinie nicht nutzbringend und werden daher
bei der weiteren Bildauswertung nicht mehr berücksichtigt. Dem
gemäß brauchen nur noch 25% der Bildpunkte einer Korrespondenza
nalyse unterworfen werden. Durch Auswahl eines geeigneten Aus
wertefensters läßt sich diese Bildpunktanzahl unter Erhöhung der
Auswertesicherheit weiter steigern. So kann z. B. im vorliegenden
Fall der merklich über dem Horizont und damit der Straßenober
fläche liegende Bildbereich als nicht interessierend ausgeblen
det werden. Ein günstiges Auswertefenster ist beispielhaft im
linken Stereobild 1a von Fig. 1 mit dem dortigen weißen Rahmen 4
angedeutet. Mit der Wahl dieses Auswertefensters 4 wird bei der
vorliegenden Bildszene die Menge an für die anschließende Korre
spondenzanalyse zu berücksichtigenden Bildpunkten auf 13% aller
Bildpunkte reduziert, und zugleich werden Störeinflüsse durch
Disparitätsfehlbestimmungen vermieden, die auf ausgeblendete
Bildbereiche zurückgehen.
An die Erzeugung des Strukturklassenbildpaares schließt sich ei
ne vereinfachte Korrespondenzanalyse an, die zwar keine bild
punktweise eindeutige Lösung des Korrespondenzproblems dar
stellt, jedoch mit entsprechend geringerem Rechenaufwand ausrei
chend zuverlässige Ergebnisse für die hier in Betracht kommenden
Anwendungen liefert, bei denen die relevanten, zu detektierenden
Objekte Strukturen mit zur Epipolarlinie im wesentlichen senk
rechten Helligkeitsgradienten besitzen, was nicht nur für Fahr
zeuge, sondern auch für die meisten stehenden Objekte und insbe
sondere für Fußgänger gilt. Dazu wird im einzelnen wie folgt
vorgegangen.
Zu jedem Bildpunkt im einen Strukturklassenbild als Bezugspunkt
wird innerhalb eines vorgegebenen Disparitätsintervall nach auf
der entsprechenden Epipolarlinie als der maßgeblichen Suchrich
tung liegenden Bildpunkten derselben Strukturklasse im anderen
Strukturklassenbild gesucht. Wegen der parallelen optischen Ach
sen der Bildaufnahmekameras und der horizontal versetzten Anord
nung derselben ergibt sich im vorliegenden Beispiel eine in
Bildzeilenrichtung verlaufende Suchrichtung. Die Entfernung ei
nes jeweils aufgefundenen Bildpunktes zur Lage des Bezugsbild
punktes wird erfaßt und als zugehöriger Disparitätswert in einem
Disparitätshistogramm akkumuliert, und zwar in einer ersten Al
ternative ungewichtet, d. h. die Häufigkeit im Histogramm wird
für jeden Disparitätswert pro Auftreten desselben um eins er
höht. In einer zweiten Alternative wird ein den Bildkontrast be
rücksichtigendes, gewichtetes Häufigkeitsinkrement verwendet.
Dazu wird für jeden Bildpunkt x ein lokales Kontrastmaß aus den
ermittelten Helligkeitsdifferenzen generiert, z. B. ein Kontrast
maß K(x) der Form
wobei N die Anzahl der Umgebungsbildpunkte angibt, deren Hellig
keit um mehr als der Helligkeitsschwellwert T von der Bezugs
punkthelligkeit abweicht, und bei der Summation auch nur diese
Umgebungsbildpunkte berücksichtigt werden. Damit erhält der ein
zelne Bildpunkt ein Kontrastgewicht, das es erlaubt, kontrast
reiche Strukturen bei der Disparitätsanalyse zu betonen. Eine
Möglichkeit, dieses Kontrastmaß in der Erstellung des Dispari
tätshistogramms zu berücksichtigen, besteht darin, den zu einem
jeweiligen korrespondierenden Bildpunktpaar ermittelten Dispari
tätswert nicht mit dem Häufigkeitsinkrement eins, sondern mit
einem um das Minimum der zu den beiden korrelierenden Bildpunk
ten gehörigen Kontrastwerte erhöhten Häufigkeitsinkrement in die
Histogrammerzeugung eingehen zu lassen. Dies ergibt eine schär
fere Trennung der Häufigkeitspunktbereiche, d. h. der Peakberei
che, im resultierenden Disparitätshistogramm vom Untergrundrau
schen.
Fig. 4 zeigt das durch den erläuterten Disparitätsanalysevorgang
unter Verwendung des ungewichteten Häufigkeitsinkrementes eins
aus dem Bereich des Auswertefensters 4 erhaltene Disparitäts
histogramm mit Disparitätswerten zwischen null und zweihundert.
Dabei wurden zu jedem Bezugsbildpunkt im einen Strukturbild alle
in Richtung der entsprechenden Epipolarlinie liegenden Bildpunk
te im anderen Strukturbild berücksichtigt. Alternativ dazu hat
sich für den vorliegenden Anwendungsfall der Beobachtung des
Straßenverkehrs die Favorisierung kleiner Disparitätswerte als
vorteilhaft erwiesen, was mit einer Bevorzugung großer Entfer
nungen korreliert. Denn in komplexen Straßenszenen bedingen häu
fig periodische Strukturen, wie z. B. die Häuserfront 5 im Ste
reobildpaar 1a, 1b von Fig. 1, ein starkes Rauschen im Dispari
tätshistogramm, indem sie wegen ihrer Periodizität sehr nahe am
Kameraort stehende Phantomobjekte vortäuschen. Dem wird durch
die Favorisierung großer Entfernungen wirksam begegnet. In einer
einfachen und effektiven Form geschieht dies dadurch, daß bei
der Disparitätsanalyse zu jedem Bezugsbildpunkt im einen Struk
turklassenbild nur der diesem auf der Epipolarlinie nächstgele
gene Bildpunkt derselben Strukturklasse im anderen Strukturklas
senbild berücksichtigt wird. Diese Vorgehensweise erweist sich
für die Beobachtung des Straßenverkehrs bei den praktisch auf
tretenden Straßenszenen mit ihren relativ großen Hindernissen
als zulässig und wegen der dadurch bedingten Einsparung an Re
chenzeit und der Unterdrückung von Phantomobjekten sehr vorteil
haft. Alternativ zu dem in Fig. 4 gezeigten zweidimensionalen
Histogramm kann bei Bedarf ein dreidimensionales Disparitäts
histogramm als quantisierte Tiefenkarte angefertigt werden, bei
dem als zusätzliche Histogrammachse der laterale Offset des je
weiligen Bezugsbildpunktes zur Bildmittelachse herangezogen
wird.
Nachdem das Disparitätshistogramm in der einen oder anderen Form
erstellt wurde, wird dieses auf Häufungspunktbereiche hin unter
sucht. In Fig. 4 sind von den ausgeprägten Häufigkeitspunktbe
reichen die zwei d₁, d₂ mit den höchsten Disparitätswerten mar
kiert, wobei der eine, d₁, einem Disparitäts-Spitzenwert von etwa
28 und der andere, d₂, einem Disparitäts-Spitzenwert von etwa 15
entspricht. Jeder solche Häufigkeitspunktbereich sollte einem
Objekt im Beobachtungsbereich entsprechen. Um dies zu verifizie
ren und dadurch die Objektdetektion zu vervollständigen, werden
anschließend in zur Disparitätsanalyse umgekehrter Richtung die
jenigen Bildpunkte eines Strukturklassenbildes wiedergegeben,
die zu einem jeweiligen Disparitätshäufungspunktbereich gehören.
So sind in Fig. 5 die zu dem Disparitätshäufungspunktbereich d₁
mit dem Disparitäts-Spitzenwert 28 gehörigen Bildpunkte und in
Fig. 6 die zu dem Disparitätshäufungspunktbereich d₂ mit dem Dis
paritäts-Spitzenwert 15 gehörigen Bildpunkte dargestellt. Wie
daraus zu erkennen, gibt Fig. 5 bereits recht gut das auf der
gleichen Fahrspur vorausfahrende Fahrzeug 2 wieder, während das
auf der anderen Fahrspur befindliche Fahrzeug 3 das Bild von
Fig. 6 dominiert. Es kann daraus geschlossen werden, daß diese
beiden Fahrzeuge 2, 3 zu diesen beiden Disparitätshäufungspunkt
bereichen d₁, d₂ gehören.
Aus dieser Zuordnung eines endgültigen Disparitätswertes zu ei
nem jeweiligen Objekt kann die Entfernung L des letzteren von
der Stereokameraanordnung durch die Beziehung L=fx·B/d ermittelt
werden, wobei B den Basisabstand der Stereokameraanordnung, fx
deren skalierte Brennweite und d den jeweiligen Disparitätswert
bezeichnen. Anschließend kann das detektierte Objekt bei Bedarf
kontinuierlich weiter beobachtet, d. h. verfolgt werden. Dazu
wird einleitend eine einfache Ballungsanalyse vorgenommen, bei
der ein rechteckförmiges Fenster minimaler Höhe und Breite so im
resultierenden Objektbild analog den Fig. 5 und 6 positioniert
wird, daß darin ein vorgegebener Mindestprozentsatz von z. B. 90%
der gefundenen Bildpunkte enthalten ist. Da die obige trigono
metrische Beziehung für die Objektentfernung L wegen der Diskre
tisierung der Disparitätswerte vor allem bei kleinen Disparitä
ten eine relativ grobe Näherung darstellt und in diesem Fall für
die Bestimmung von Bewegungsvorgängen noch nicht optimal ist,
kann es zudem zweckmäßig sein, eine verbesserte, einer subbild
punktgenauen Messung entsprechende Disparitätsschätzung vorzu
nehmen, bei der zum Spitzenwert eines jeweiligen Disparitätshäu
fungspunktbereiches ein Korrekturterm der Form
dd=0,5 · (h++h-) / (2hm-(h++h-))
hinzuaddiert wird, wobei hm den Spitzenwert und h+ bzw. h- die
Disparitätshöhen im jeweiligen Seitenbereich bezeichnen.
Nach der solchermaßen bewerkstelligten Objektdetektion mit Be
stimmung der Entfernung und der ungefähren Ausdehnung des jewei
ligen Objektes wird in der nachfolgenden Verfolgungsphase eine
auf den relevanten, gerade noch das zu beobachtende Objekt ent
haltenden Bildbereich beschränkte Bildauswertung nach dem be
schriebenen Verfahren in zyklisch wiederholter Form durchge
führt. Die erfindungsgemäßen Verfahrensmaßnahmen ermöglichen ty
pische Verfahrenszyklen von lediglich größenordnungsmäßig zwi
schen 100ms und 200ms, verglichen mit typischen Zykluszeiten
aufwendigerer Stereobildauswerteverfahren von mehreren Sekunden.
Durch die Bildbereichsbeschränkung wird nicht nur Rechenzeit
eingespart, sondern vor allem auch der Einfluß störender Hinter
grundobjekte reduziert. Von zentraler Bedeutung ist, daß nur
noch ein relativ kleiner Disparitätsbereich ausgewertet werden
muß, indem um das zu verfolgende Objekt gedanklich ein Kubus ge
legt wird, dessen Tiefe von der maximal zu erwartenden Entfer
nungsänderung abhängt.
Die laterale Position eines interessierenden Objektes läßt sich
für die Spurverfolgung mittels Strahlensatz beispielsweise aus
der lateralen Position des Bildmittelpunktes oder alternativ des
Bildschwerpunktes ermitteln. Zweckmäßigerweise werden die erhal
tenen Resultate einer üblichen Kalman-Filterung unterworfen, um
durch Berücksichtigung des Wissens über die eingeschränkten Be
wegungsmöglichkeiten zu optimalen Resultaten zu gelangen.
Um Straßenoberflächenstrukturen von den Strukturen von über der
Straßenoberfläche befindlichen Objekten zu isolieren, kann ein
einfaches Straßenmodell Verwendung finden, bei dem eine ebene
Straßenoberfläche und parallele optische Achsen der Stereoka
meraanordnung angenommen werden. Für die zu erwartende Dispari
tät dE(x,y) eines Bildpunktes mit den Koordinaten (x,y) in der
Bildebene ergibt sich dann aus der Kamerahöhe H über der Fahr
bahn und dem Kameraneigungswinkel α gegenüber dem Horizont die
Beziehung
dE (x, y) = (B/H) fx ((y/fy) cosα+sinα),
wobei fx und fy die skalierten Brennweiten in den betreffenden
Koordinatenrichtungen und B die Basisweite der Stereokameraan
ordnung bezeichnen. Zur Extraktion der Straßenoberflächenstruk
turen tragen unter diesen Voraussetzungen nur Punkte unterhalb
des Horizontes bei. Dabei liegen alle Bildpunkte mit Dispari
tätswerten, die innerhalb eines bestimmten Intervalls um den Er
wartungswert liegen, auf der Straßenoberfläche, während diejeni
gen mit größeren Disparitätswerten zu Objekten über der Straßen
oberfläche gehören und diejenigen mit zu kleinen Disparitätswer
ten von Reflexionen weiter entfernter Objekte herrühren.
Je nach Anwendungsfall können für die Objektdetektion zusätzlich
Symmetrieüberlegungen verwendet werden, die den Rechenaufwand
verringern und die Detektionssicherheit erhöhen können. In jedem
Fall ermöglicht das erfindungsgemäße Verfahren eine bei gegebe
ner Detektionssicherheit sehr rasche und robuste Objektdetektion
und läßt sich zur optischen Echtzeit-Objektbeobachtung im Stra
ßenverkehr, auf dem Gebiet der Robotik und überall dort einset
zen, wo Bedarf an einer stereobildbasierten Detektion und gege
benenfalls Verfolgung von Objekten besteht.
Claims (8)
1. Verfahren zur Stereobild-Objektdetektion, insbesondere für
Straßenfahrzeuge,
gekennzeichnet durch
folgende Schritte:
- a) Erzeugen eines Strukturklassenbildpaares aus dem jeweiligen aufgenommenen Stereobildpaar (1a, 1b), indem für jeden Bild punkt (x) die Differenzen zwischen dessen Helligkeitswert (g(x)) und jedem der Helligkeitswerte (g(xi);i=0, . . . , n-1) einer Anzahl (n) vorgegebener Umgebungsbildpunkte (x₀, . . . , xn-1) als Digitalwerte (d(xi)) bestimmt und die erhaltenen Digitalwerte zu einer Digitalwertgruppe (C) zusammengefaßt werden, wobei jeweils identische Digitalwertgruppen eine ei gene Strukturklasse definieren,
- b) Durchführen einer Korrespondenzanalyse des Strukturklassen bildpaares, bei der
- b. 1) nur diejenigen Strukturklassen berücksichtigt werden, deren Bildpunkte wenigstens einen in Richtung der Epipolarlinie liegenden Umgebungsbildpunkt mit um eine oder mehrere Hel ligkeitsdigitalstufen unterschiedlicher Helligkeit besitzen,
- b. 2) für jeden Bildpunkt einer jeweils noch berücksichtigten Strukturklasse des einen Strukturklassenbildes die innerhalb eines vorgebbaren Disparitätsintervalls auf der Epipolarli nie liegenden Bildpunkte derselben Strukturklasse des ande ren Strukturklassenbildes aufgesucht und der zugehörige Dis paritätswert ermittelt wird und
- b. 3) die dadurch insgesamt erhaltenen Disparitätswerte entspre chend einem zugeordneten Häufigkeitsinkrement in einem Dis paritätshistogramm akkumuliert werden, und
- c) Identifizieren von Häufungspunktbereichen (d₁, d₂) im er zeugten Disparitätshistogramm und Extrahieren eines jeweili gen Objektes aus der zum jeweiligen Häufungspunktbereich ge hörigen Bildpunktgruppe.
2. Verfahren nach Anspruch 1, weiter
dadurch gekennzeichnet, daß
zur Digitalwertermittlung im Schritt a ein Ternärsystem verwen
det wird, wobei den Helligkeitsdifferenzen, die betragsmäßig
kleiner gleich einem vorgegebenen positiven Helligkeitsschwell
wert (T) sind, eine erste Ternärziffer, den Helligkeitsdifferen
zen, die größer als der Schwellwert sind, eine zweite Ternärzif
fer und den Helligkeitsdifferenzen, die kleiner als das Negative
(-T) des Schwellwertes sind, die dritte der drei Ternärziffern
zugeordnet wird.
3. Verfahren nach Anspruch 1 oder 2, weiter
dadurch gekennzeichnet, daß
als Umgebungsbildpunkte (x₀ bis x₃) jeweils zwei auf gegenüber
liegenden Seiten des jeweiligen Bezugsbildpunktes (x) zum einen
parallel und zum anderen senkrecht zur Epipolarlinie liegende
Bildpunkte verwendet werden, die dem Bezugsbildpunkt direkt be
nachbart oder von diesem um eine vorgebbare Abgriffweite beab
standet angeordnet sind.
4. Verfahren nach einem der Ansprüche 1 bis 3, weiter
dadurch gekennzeichnet, daß
das vorgebbare Disparitätsintervall für die Korrespondenzanalyse
so gewählt wird, daß zum jeweiligen Bildpunkt im einen Struktur
klassenbild nur der nächstliegende Bildpunkt auf der Epipolarli
nie im anderen Strukturklassenbild berücksichtigt und der dies
bezügliche Disparitätswert im Disparitätshistogramm akkumuliert
wird.
5. Verfahren nach einem der Ansprüche 1 bis 4, weiter
dadurch gekennzeichnet, daß
jedem Bildpunkt des Strukturklassenbildpaares zusätzlich zur je
weiligen Digitalwertgruppe ein in Abhängigkeit von den Hellig
keitsdifferenzen ermittelter Kontrastwert (K(x)) als Gewichts
faktor zugeordnet wird und der zu einem jeweiligen Bildpunktpaar
ermittelte Disparitätswert mit einem in Abhängigkeit von den zu
gehörigen Kontrastwerten gewichteten Häufigkeitsinkrement zum
Disparitätshistogramm akkumuliert wird.
6. Verfahren nach einem der Ansprüche 1 bis 5, weiter
dadurch gekennzeichnet, daß
die Extraktion des jeweiligen Objektes aus der zu einem jeweili
gen Disparitätshäufungspunktbereich gehörigen Bildpunktgruppe
eine Ballungsanalyse der Bildpunktgruppe umfaßt, mit der ein
Rechteck minimaler Fläche ermittelt wird, das einen vorgebbaren
Prozentsatz der Bildpunkte dieser Bildpunktgruppe enthält.
7. Verfahren nach einem der Ansprüche 1 bis 6, weiter
dadurch gekennzeichnet, daß
nach erstmaliger Extraktion des jeweiligen Objektes aus der zu
einem jeweiligen Disparitätshäufungspunktbereich gehörigen Bild
punktgruppe eine Bewegungsverfolgung desselben mittels wieder
holtem Ausführen der Schritte a bis c eingeschränkt auf den Be
reich eines minimalen, das betreffende Objekt enthaltenden Kubus
durchgeführt wird.
8. Verfahren nach einem der Ansprüche 1 bis 7 zur Detektion
von Objekten im Straßenverkehr, weiter
dadurch gekennzeichnet, daß
unter der Annahme eines im wesentlichen ebenen Straßenverlaufs
und paralleler optischer Stereokameraachsen diejenigen Bildpunk
te, deren zugeordnete Disparitätswerte innerhalb eines vorgege
benen Erwartungsbereichs um einen der folgenden Beziehung genü
genden Disparitätserwartungswert (dE)
dE (x, y) = (B/H) fx ((y/fy) cosα+sinα),liegen, wobei B die Basisweite der Stereokameraanordnung, H de
ren Höhe über der Straßenoberfläche, α deren Nickwinkel relativ
zur Straßenoberfläche, fx und fy die laterale- bzw. vertikale Ka
merabrennweite und y die von der optischen Achse nach unten wei
sende Bildvertikalkoordinate darstellt, als zu einem Objekt der
Straßenoberfläche gehörig interpretiert werden.
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19636028A DE19636028C1 (de) | 1996-09-05 | 1996-09-05 | Verfahren zur Stereobild-Objektdetektion |
IT97RM000530A IT1294262B1 (it) | 1996-09-05 | 1997-09-03 | Procedimento per il riconoscimento stereoscopico di oggetti |
FR9710946A FR2752969B1 (fr) | 1996-09-05 | 1997-09-03 | Procede pour detecter un objet a partir d'images stereoscopiques |
GB9718813A GB2317066B (en) | 1996-09-05 | 1997-09-04 | Method for Detecting Objects by Means of Stereoimages |
JP9277885A JP3049603B2 (ja) | 1996-09-05 | 1997-09-04 | 立体画像−物体検出方法 |
US08/923,937 US5937079A (en) | 1996-09-05 | 1997-09-05 | Method for stereo image object detection |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19636028A DE19636028C1 (de) | 1996-09-05 | 1996-09-05 | Verfahren zur Stereobild-Objektdetektion |
Publications (1)
Publication Number | Publication Date |
---|---|
DE19636028C1 true DE19636028C1 (de) | 1997-11-20 |
Family
ID=7804698
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19636028A Expired - Fee Related DE19636028C1 (de) | 1996-09-05 | 1996-09-05 | Verfahren zur Stereobild-Objektdetektion |
Country Status (6)
Country | Link |
---|---|
US (1) | US5937079A (de) |
JP (1) | JP3049603B2 (de) |
DE (1) | DE19636028C1 (de) |
FR (1) | FR2752969B1 (de) |
GB (1) | GB2317066B (de) |
IT (1) | IT1294262B1 (de) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19802261A1 (de) * | 1998-01-22 | 1999-07-29 | Daimler Chrysler Ag | Verfahren zur Signalverarbeitung von Zeitfolgen digitalisierter Bilder |
EP1197937A1 (de) * | 2000-10-11 | 2002-04-17 | Sharp Kabushiki Kaisha | Vorrichtung zur Überwachung der Umgebung eines beweglichen Körpers |
DE10244148A1 (de) * | 2002-09-23 | 2004-04-08 | Daimlerchrysler Ag | Verfahren und Vorrichtung zur videobasierten Beobachtung und Vermessung der seitlichen Umgebung eines Fahrzeugs |
DE102009022278A1 (de) | 2009-05-22 | 2010-01-21 | Daimler Ag | Verfahren zur Ermittlung eines hindernisfreien Raums |
DE102009042476A1 (de) | 2008-09-25 | 2010-04-01 | Volkswagen Ag | Bestimmung von Zuständen in der Umgebung eines Kraftfahrzeugs mittels einer Stereokamera |
EP2476996A1 (de) * | 2009-09-07 | 2012-07-18 | Panasonic Corporation | Parallaxen-berechnungsverfahren und parallaxen-berechnungsvorrichtung |
DE102009004626B4 (de) * | 2008-01-18 | 2015-09-10 | Fuji Jukogyo K.K. | Vorrichtung zur Überwachung der Umgebung eines Fahrzeugs |
DE102015216160A1 (de) | 2015-08-25 | 2017-03-02 | Robert Bosch Gmbh | Verfahren zum Erfassen einer Fahrzeugumgebung eines Fahrzeuges |
DE102008053460B4 (de) * | 2007-10-29 | 2020-09-03 | Subaru Corporation | Objekterfassungssystem |
DE102021204411A1 (de) | 2021-05-03 | 2022-11-03 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren und Vorrichtung zum Bestimmen einer Disparität und Fahrzeug |
Families Citing this family (58)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6320589B1 (en) * | 1997-08-04 | 2001-11-20 | Lucent Technologies | Display techniques for three dimensional virtual reality |
DE19859087A1 (de) * | 1998-12-10 | 2000-06-15 | Arnold & Richter Kg | Verfahren zur Trennung von auf Medien wie Laufbildfilmen, Videobändern o. dgl. gespeicherten Bildfolgen in Einzelsequenzen |
DE19926559A1 (de) * | 1999-06-11 | 2000-12-21 | Daimler Chrysler Ag | Verfahren und Vorrichtung zur Detektion von Objekten im Umfeld eines Straßenfahrzeugs bis in große Entfernung |
US7236622B2 (en) * | 1999-08-25 | 2007-06-26 | Eastman Kodak Company | Method for forming a depth image |
JP3287465B2 (ja) * | 1999-09-22 | 2002-06-04 | 富士重工業株式会社 | ステレオ画像処理装置 |
JP3255360B2 (ja) * | 1999-09-22 | 2002-02-12 | 富士重工業株式会社 | 距離データの検査方法およびその検査装置 |
AU2464101A (en) | 1999-12-29 | 2001-07-09 | Geospan Corporation | Any aspect passive volumetric image processing method |
US8224078B2 (en) | 2000-11-06 | 2012-07-17 | Nant Holdings Ip, Llc | Image capture and identification system and process |
US9310892B2 (en) | 2000-11-06 | 2016-04-12 | Nant Holdings Ip, Llc | Object information derived from object images |
US7680324B2 (en) | 2000-11-06 | 2010-03-16 | Evryx Technologies, Inc. | Use of image-derived information as search criteria for internet and other search engines |
US7565008B2 (en) | 2000-11-06 | 2009-07-21 | Evryx Technologies, Inc. | Data capture and identification system and process |
US7899243B2 (en) | 2000-11-06 | 2011-03-01 | Evryx Technologies, Inc. | Image capture and identification system and process |
US20050125121A1 (en) * | 2003-11-28 | 2005-06-09 | Denso Corporation | Vehicle driving assisting apparatus |
JP4406381B2 (ja) * | 2004-07-13 | 2010-01-27 | 株式会社東芝 | 障害物検出装置及び方法 |
EP1779295A4 (de) * | 2004-07-26 | 2012-07-04 | Automotive Systems Lab | Schutzsystem für gefährdete strassenbenutzer |
US7333652B2 (en) * | 2004-08-03 | 2008-02-19 | Sony Corporation | System and method for efficiently performing a depth map recovery procedure |
JP4246691B2 (ja) * | 2004-11-30 | 2009-04-02 | 本田技研工業株式会社 | 画像情報処理システム、画像情報処理方法、画像情報処理プログラム、及び自動車 |
US7639841B2 (en) * | 2004-12-20 | 2009-12-29 | Siemens Corporation | System and method for on-road detection of a vehicle using knowledge fusion |
US7561721B2 (en) * | 2005-02-02 | 2009-07-14 | Visteon Global Technologies, Inc. | System and method for range measurement of a preceding vehicle |
US7620208B2 (en) * | 2005-02-09 | 2009-11-17 | Siemens Corporate Research, Inc. | System and method for detecting features from images of vehicles |
US20070031008A1 (en) * | 2005-08-02 | 2007-02-08 | Visteon Global Technologies, Inc. | System and method for range measurement of a preceding vehicle |
JP2007139756A (ja) * | 2005-10-17 | 2007-06-07 | Ricoh Co Ltd | 相対位置検出装置、回転体走行検出装置及び画像形成装置 |
US7623681B2 (en) * | 2005-12-07 | 2009-11-24 | Visteon Global Technologies, Inc. | System and method for range measurement of a preceding vehicle |
KR101311896B1 (ko) * | 2006-11-14 | 2013-10-14 | 삼성전자주식회사 | 입체 영상의 변위 조정방법 및 이를 적용한 입체 영상장치 |
WO2008065717A1 (fr) * | 2006-11-29 | 2008-06-05 | Fujitsu Limited | Système et procédé de détection de piéton |
US8199975B2 (en) * | 2006-12-12 | 2012-06-12 | Cognex Corporation | System and method for side vision detection of obstacles for vehicles |
KR20080076628A (ko) * | 2007-02-16 | 2008-08-20 | 삼성전자주식회사 | 영상의 입체감 향상을 위한 입체영상 표시장치 및 그 방법 |
US8103109B2 (en) * | 2007-06-19 | 2012-01-24 | Microsoft Corporation | Recognizing hand poses and/or object classes |
US20090005948A1 (en) * | 2007-06-28 | 2009-01-01 | Faroog Abdel-Kareem Ibrahim | Low speed follow operation and control strategy |
JP4521642B2 (ja) * | 2008-02-13 | 2010-08-11 | 本田技研工業株式会社 | 車両周辺監視装置、車両、車両周辺監視プログラム |
US9019381B2 (en) * | 2008-05-09 | 2015-04-28 | Intuvision Inc. | Video tracking systems and methods employing cognitive vision |
AU2009249001B2 (en) * | 2008-05-22 | 2013-10-24 | Matrix Electronic Measuring Properties, Llc | Stereoscopic measurement system and method |
KR20110026214A (ko) * | 2009-09-07 | 2011-03-15 | 삼성전자주식회사 | 얼굴 검출 장치 및 방법 |
US8294768B2 (en) * | 2009-11-23 | 2012-10-23 | Hon Hai Precision Industry Co., Ltd. | System and method for motion detection |
US9049423B2 (en) * | 2010-12-01 | 2015-06-02 | Qualcomm Incorporated | Zero disparity plane for feedback-based three-dimensional video |
US9591281B2 (en) * | 2010-12-22 | 2017-03-07 | Thomson Licensing | Apparatus and method for determining a disparity estimate |
CN102316307B (zh) * | 2011-08-22 | 2013-09-25 | 安科智慧城市技术(中国)有限公司 | 一种道路交通视频检测方法及装置 |
CN103164851B (zh) * | 2011-12-09 | 2016-04-20 | 株式会社理光 | 道路分割物检测方法和装置 |
CN103177236B (zh) * | 2011-12-22 | 2016-06-01 | 株式会社理光 | 道路区域检测方法和装置、分道线检测方法和装置 |
TWI453697B (zh) * | 2011-12-29 | 2014-09-21 | Automotive Res & Testing Ct | The detection system of the driving space and its detection method |
CN102628814B (zh) * | 2012-02-28 | 2013-12-18 | 西南交通大学 | 一种基于数字图像处理的钢轨光带异常自动检测方法 |
CN103310213B (zh) * | 2012-03-07 | 2016-05-25 | 株式会社理光 | 车辆检测方法和装置 |
US8768007B2 (en) | 2012-03-26 | 2014-07-01 | Tk Holdings Inc. | Method of filtering an image |
US8824733B2 (en) | 2012-03-26 | 2014-09-02 | Tk Holdings Inc. | Range-cued object segmentation system and method |
US8831285B2 (en) | 2012-07-26 | 2014-09-09 | Hewlett-Packard Development Company, L.P. | Detecting objects with a depth sensor |
TWI496090B (zh) | 2012-09-05 | 2015-08-11 | Ind Tech Res Inst | 使用深度影像的物件定位方法與裝置 |
WO2014070448A1 (en) | 2012-10-31 | 2014-05-08 | Tk Holdings, Inc. | Vehicular path sensing system and method |
DE102013200409A1 (de) * | 2013-01-14 | 2014-07-17 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Überwachen eines Umfelds eines Fahrzeugs und Verfahren zum Durchführen einer Notbremsung |
WO2014152470A2 (en) | 2013-03-15 | 2014-09-25 | Tk Holdings, Inc. | Path sensing using structured lighting |
US9488483B2 (en) * | 2013-05-17 | 2016-11-08 | Honda Motor Co., Ltd. | Localization using road markings |
CN104217208B (zh) | 2013-06-03 | 2018-01-16 | 株式会社理光 | 目标检测方法和装置 |
US9224060B1 (en) * | 2013-09-17 | 2015-12-29 | Amazon Technologies, Inc. | Object tracking using depth information |
CN104517275A (zh) | 2013-09-27 | 2015-04-15 | 株式会社理光 | 对象检测方法和系统 |
CN104198752B (zh) * | 2014-08-18 | 2017-09-08 | 浙江大学 | 基于机器视觉的高温钢坯运动状态的多率检测方法 |
JP6623729B2 (ja) * | 2015-12-04 | 2019-12-25 | 株式会社ソシオネクスト | 測距システム、移動体及び部品 |
CN107729856B (zh) * | 2017-10-26 | 2019-08-23 | 海信集团有限公司 | 一种障碍物检测方法及装置 |
CN110823134B (zh) * | 2018-07-23 | 2021-07-23 | 北京大恒图像视觉有限公司 | 一种靶线计算及工业传感器安装检测方法 |
US11495028B2 (en) * | 2018-09-28 | 2022-11-08 | Intel Corporation | Obstacle analyzer, vehicle control system, and methods thereof |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4308776A1 (de) * | 1992-03-23 | 1993-09-30 | Fuji Heavy Ind Ltd | System zur Überwachung des fahrzeugexternen Zustands unter Verwendung eines durch mehrere Fernsehkameras aufgenommenen Bildes |
EP0626655A2 (de) * | 1993-05-25 | 1994-11-30 | Matsushita Electric Industrial Co., Ltd. | Fahrzeugerkennungsgerät |
DE4431479A1 (de) * | 1994-09-03 | 1996-03-07 | Bosch Gmbh Robert | Vorrichtung und Verfahren zur Erkennung von Objekten |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4825393A (en) * | 1986-04-23 | 1989-04-25 | Hitachi, Ltd. | Position measuring method |
AU7989991A (en) * | 1990-05-29 | 1991-12-31 | Axiom Innovation Limited | Machine vision stereo matching |
JP3209828B2 (ja) * | 1993-05-25 | 2001-09-17 | 松下電器産業株式会社 | 車間距離計測装置とステレオ画像取り込み装置 |
US5684890A (en) * | 1994-02-28 | 1997-11-04 | Nec Corporation | Three-dimensional reference image segmenting method and apparatus |
JP3242529B2 (ja) * | 1994-06-07 | 2001-12-25 | 松下通信工業株式会社 | ステレオ画像対応付け方法およびステレオ画像視差計測方法 |
US5818959A (en) * | 1995-10-04 | 1998-10-06 | Visual Interface, Inc. | Method of producing a three-dimensional image from two-dimensional images |
-
1996
- 1996-09-05 DE DE19636028A patent/DE19636028C1/de not_active Expired - Fee Related
-
1997
- 1997-09-03 IT IT97RM000530A patent/IT1294262B1/it active IP Right Grant
- 1997-09-03 FR FR9710946A patent/FR2752969B1/fr not_active Expired - Fee Related
- 1997-09-04 JP JP9277885A patent/JP3049603B2/ja not_active Expired - Fee Related
- 1997-09-04 GB GB9718813A patent/GB2317066B/en not_active Expired - Fee Related
- 1997-09-05 US US08/923,937 patent/US5937079A/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4308776A1 (de) * | 1992-03-23 | 1993-09-30 | Fuji Heavy Ind Ltd | System zur Überwachung des fahrzeugexternen Zustands unter Verwendung eines durch mehrere Fernsehkameras aufgenommenen Bildes |
EP0626655A2 (de) * | 1993-05-25 | 1994-11-30 | Matsushita Electric Industrial Co., Ltd. | Fahrzeugerkennungsgerät |
DE4431479A1 (de) * | 1994-09-03 | 1996-03-07 | Bosch Gmbh Robert | Vorrichtung und Verfahren zur Erkennung von Objekten |
Non-Patent Citations (2)
Title |
---|
L. MATTHIES et al. "Obstacle detection for unmannned ground vehicles: a progress report", IEEE Symposium on Intelligent Vehicles '95, 25./26.09.1995, Detroit, S.66-71 * |
SANEYOSHI Keiji "3-D image recognition system by means of stereoscopy combined with ordinary image processing", IEEE Symposium on Intelli- gent Vehicles '94, 24.10.1994 bis 26.10.1994, Paris, S.13-18 * |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19802261A1 (de) * | 1998-01-22 | 1999-07-29 | Daimler Chrysler Ag | Verfahren zur Signalverarbeitung von Zeitfolgen digitalisierter Bilder |
EP1197937A1 (de) * | 2000-10-11 | 2002-04-17 | Sharp Kabushiki Kaisha | Vorrichtung zur Überwachung der Umgebung eines beweglichen Körpers |
US7295229B2 (en) | 2000-10-11 | 2007-11-13 | Sharp Kabushiki Kaisha | Surround surveillance apparatus for mobile body |
DE10244148A1 (de) * | 2002-09-23 | 2004-04-08 | Daimlerchrysler Ag | Verfahren und Vorrichtung zur videobasierten Beobachtung und Vermessung der seitlichen Umgebung eines Fahrzeugs |
DE102008053460B4 (de) * | 2007-10-29 | 2020-09-03 | Subaru Corporation | Objekterfassungssystem |
DE102009004626B4 (de) * | 2008-01-18 | 2015-09-10 | Fuji Jukogyo K.K. | Vorrichtung zur Überwachung der Umgebung eines Fahrzeugs |
DE102009042476A1 (de) | 2008-09-25 | 2010-04-01 | Volkswagen Ag | Bestimmung von Zuständen in der Umgebung eines Kraftfahrzeugs mittels einer Stereokamera |
DE102009042476B4 (de) | 2008-09-25 | 2022-12-22 | Volkswagen Ag | Bestimmung von Zuständen in der Umgebung eines Kraftfahrzeugs mittels einer Stereokamera |
DE102009022278A1 (de) | 2009-05-22 | 2010-01-21 | Daimler Ag | Verfahren zur Ermittlung eines hindernisfreien Raums |
EP2650639A1 (de) * | 2009-09-07 | 2013-10-16 | Panasonic Corporation | Disparitätsberechnungsvorrichtung |
EP2752641A1 (de) * | 2009-09-07 | 2014-07-09 | Panasonic Corporation | Disparitätsberechnungsvorrichtung |
US8743183B2 (en) | 2009-09-07 | 2014-06-03 | Panasonic Corporation | Parallax calculation method and parallax calculation device |
US9338434B2 (en) | 2009-09-07 | 2016-05-10 | Panasonic Intellectual Property Management Co., Ltd. | Parallax calculation method and parallax calculation device |
EP2476996A4 (de) * | 2009-09-07 | 2013-02-20 | Panasonic Corp | Parallaxen-berechnungsverfahren und parallaxen-berechnungsvorrichtung |
EP2476996A1 (de) * | 2009-09-07 | 2012-07-18 | Panasonic Corporation | Parallaxen-berechnungsverfahren und parallaxen-berechnungsvorrichtung |
DE102015216160A1 (de) | 2015-08-25 | 2017-03-02 | Robert Bosch Gmbh | Verfahren zum Erfassen einer Fahrzeugumgebung eines Fahrzeuges |
DE102021204411A1 (de) | 2021-05-03 | 2022-11-03 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren und Vorrichtung zum Bestimmen einer Disparität und Fahrzeug |
Also Published As
Publication number | Publication date |
---|---|
FR2752969A1 (fr) | 1998-03-06 |
FR2752969B1 (fr) | 2001-09-28 |
JPH10124683A (ja) | 1998-05-15 |
US5937079A (en) | 1999-08-10 |
JP3049603B2 (ja) | 2000-06-05 |
ITRM970530A1 (it) | 1998-03-06 |
GB2317066A (en) | 1998-03-11 |
GB2317066B (en) | 1998-11-04 |
IT1294262B1 (it) | 1999-03-24 |
GB9718813D0 (en) | 1997-11-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE19636028C1 (de) | Verfahren zur Stereobild-Objektdetektion | |
DE60308782T2 (de) | Vorrichtung und Methode zur Hinderniserkennung | |
DE69624980T2 (de) | Objektüberwachungsverfahren und -gerät mit zwei oder mehreren Kameras | |
EP1589484B1 (de) | Verfahren zur Erkennung und/oder Verfolgung von Objekten | |
DE69624614T2 (de) | Verfahren zur Stereoübereinstimmungs- und Ungleichheitsmessung | |
DE69226512T2 (de) | Verfahren zur Bildverarbeitung | |
DE102014209137B4 (de) | Verfahren und Vorrichtung zur Kalibrierung eines Kamerasystems eines Kraftfahrzeugs | |
DE69625423T2 (de) | Vorrichtung zur Erkennung eines Objektes, in welchem die Position eines ebenen Objektes mit Hilfe einer Houghtransformation geschätzt wird | |
DE19934925B4 (de) | Fahrzeugbereich-Erkennungsvorrichtung und Fahrzeugbereich-Bestimmungsverfahren | |
DE102006057552B4 (de) | System und Verfahren zur Messung des Abstands eines vorausfahrenden Fahrzeugs | |
DE69428737T2 (de) | Fahrzeugerkennungsgerät | |
DE69231812T2 (de) | Verfahren zur bestimmung von fuehlerbewegung und szenenstruktur und bildverarbeitungssystem dafuer | |
DE4332612C2 (de) | Außenansichts-Überwachungsverfahren für Kraftfahrzeuge | |
EP2005361A1 (de) | Multisensorieller hypothesen-basierter objektdetektor und objektverfolger | |
EP3520024B1 (de) | Detektion und validierung von objekten aus sequentiellen bildern einer kamera mittels homographien | |
DE19926559A1 (de) | Verfahren und Vorrichtung zur Detektion von Objekten im Umfeld eines Straßenfahrzeugs bis in große Entfernung | |
DE69129099T2 (de) | Bewegungsausziehverfahren mit der Entstehung von Differenzbildern und einem dreidimensionalen Filter | |
EP3520023B1 (de) | Detektion und validierung von objekten aus sequentiellen bildern einer kamera | |
DE102007013664A1 (de) | Multisensorieller Hypothesen-basierter Objektdetektor und Objektverfolger | |
DE102018123393A1 (de) | Erkennung von Parkflächen | |
DE102012000459A1 (de) | Verfahren zur Objektdetektion | |
DE10141055A1 (de) | Verfahren zur Bestimmung von Bewegungsinformationen | |
DE102008050456B4 (de) | Verfahren und Vorrichtung zur Fahrspurerkennung | |
DE102019209473A1 (de) | Verfahren und Vorrichtung zur schnellen Erfassung von sich wiederholenden Strukturen in dem Bild einer Straßenszene | |
DE102016218849A1 (de) | Detektion und Tracking von Objekten aus Bildern einer Kamera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8100 | Publication of patent without earlier publication of application | ||
D1 | Grant (no unexamined application published) patent law 81 | ||
8364 | No opposition during term of opposition | ||
8327 | Change in the person/name/address of the patent owner |
Owner name: DAIMLERCHRYSLER AG, 70567 STUTTGART, DE |
|
8339 | Ceased/non-payment of the annual fee |