DE19636028C1 - Verfahren zur Stereobild-Objektdetektion - Google Patents

Verfahren zur Stereobild-Objektdetektion

Info

Publication number
DE19636028C1
DE19636028C1 DE19636028A DE19636028A DE19636028C1 DE 19636028 C1 DE19636028 C1 DE 19636028C1 DE 19636028 A DE19636028 A DE 19636028A DE 19636028 A DE19636028 A DE 19636028A DE 19636028 C1 DE19636028 C1 DE 19636028C1
Authority
DE
Germany
Prior art keywords
disparity
image
pixels
pixel
brightness
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE19636028A
Other languages
English (en)
Inventor
Uwe Dr Ing Franke
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Daimler Benz AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler Benz AG filed Critical Daimler Benz AG
Priority to DE19636028A priority Critical patent/DE19636028C1/de
Priority to IT97RM000530A priority patent/IT1294262B1/it
Priority to FR9710946A priority patent/FR2752969B1/fr
Priority to JP9277885A priority patent/JP3049603B2/ja
Priority to GB9718813A priority patent/GB2317066B/en
Priority to US08/923,937 priority patent/US5937079A/en
Application granted granted Critical
Publication of DE19636028C1 publication Critical patent/DE19636028C1/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0085Motion estimation from stereoscopic image signals

Description

Die Erfindung bezieht sich auf ein Verfahren zum Detektieren und gegebenenfalls auch zum Verfolgen von Objekten mittels Aufnahme und Auswertung von Stereobildern. Ein solches Verfahren ist bei­ spielsweise nützlich als Hilfsmittel zum automatisierten Führen von Straßenfahrzeugen oder auch auf dem Gebiet der Robotik, wo es jeweils darauf ankommt, relevante Objekte zu detektieren und deren Position und Größe zu bestimmen. Im Fall der autonomen Fahrzeugführung, z. B. im städtischen Stop, sind neben stehenden Objekten, die sich im Fahrbereich des Fahrzeugs befin­ den, auch alle bewegten Objekte im näheren Umfeld zu detektie­ ren. Hingegen ist für derartige Anwendungen keine vollständige, dichte Tiefenkarte der Szene erforderlich. So kann meist von ei­ ner relativ ebenen Grundfläche und deutlich erhabenen Objekten ausgegangen werden. Es brauchen zudem keine Detailinformationen, wie die genaue Form eines vorausfahrenden Fahrzeugs, abgeleitet werden. Derartige vereinfachende Randbedingungen gelten analog für eine Vielzahl von Problemstellungen auf den Gebieten der Ro­ botik und der Überwachungstechnik.
Die Verfahren zur Stereobild-Objektdetektion lassen sich in flä­ chenbasierte Methoden und merkmalbasierte Methoden unterteilen. Flächenbasierte Methoden sind z. B. in den Konferenzbeiträgen K. Sane Yoshi, 3-D image recognition system by means of stereo­ scopy combined with ordinary image processing, Intelligent Ve­ hicles ′94, 24.10.1994 bis 26.10.1994, Paris, Seiten 13 bis 18 und L. Matthies et al., Obstacle detection for unmanned ground vehicles : a progress report, Intelligent Vehicles ′95, 25./ 26.09.1995, Detroit, Seiten 66 bis 71 beschrieben. Sie erfordern einen höheren Rechenaufwand als merkmalbasierte Methoden. Für einen Überblick über gängige Stereobild-Objektdetektionsver­ fahren sei auf das Buch O. Faugeras, Three-Dimensional Computer Vision, MIT Press, 1993 verwiesen.
Aus der Offenlegungsschrift DE 44 31 479 A1 ist ein Verfahren zur Detektion von Objekten, insbesondere Fahrzeugen, bekannt, bei dem von einem jeweiligen Bereich zwei Bilder aus verschiede­ nen Blickwinkeln aufgenommen werden. Aus einem Vergleich der beiden Bilder, insbesondere deren Grauwerte, wird für mindestens einen Teilbereich jeweils dann ein Objekt erkannt, wenn der Un­ terschied zwischen den beiden Bildern für den betreffenden Teil­ bereich größer als eine vorgegebene Schwelle ist.
Bei einem in der Offenlegungsschrift DE 43 08 776 A1 offenbarten System zur Überwachung eines fahrzeugexternen Zustandes ist eine Stereobild-Objektdetektion vorgesehen, durch die ein jeweiliges Objekt innerhalb einer festen Region außerhalb eines Fahrzeugs abgebildet wird. Die aufgenommenen Bilder werden einer Bildver­ arbeitungsvorrichtung zugeführt, welche eine Distanzverteilung über das gesamte Bild hinweg berechnet. Um ein jeweiliges Objekt im linken und rechten Bild aufzufinden, wird das jeweilige Bild in kleine Regionen unterteilt, und es werden Farb- oder Hellig­ keitsmuster innerhalb dieser Regionen für die beiden Bilder ver­ glichen, um die Regionen mit sich entsprechenden Objektdetails herauszufinden und daraus die Distanzverteilung über das gesamte Stereobild zu bestimmen.
In der Offenlegungsschrift EP 0 626 655 A2 ist eine Einrichtung zur Erkennung vorausfahrender Fahrzeuge und zur Bestimmung von deren Entfernung beschrieben, die von einem Stereobild-Objektde­ tektionsverfahren Gebrauch macht. Für die Bildauswertung werden spezielle, auf das Erkennen von Fahrzeugkonturen zugeschnittene Techniken eingesetzt, welche Fahrzeugkonturmodelle verwenden. Für ein erkanntes Fahrzeug wird die zugehörige Disparität und daraus die Fahrzeugentfernung ermittelt.
Der Erfindung liegt als technisches Problem die Bereitstellung eines Verfahrens zur Stereobild-Objektdetektion zugrunde, das sich besonders für die oben genannten Anwendungsfälle mit ver­ einfachten Randbedingungen eignet und vergleichsweise effizient und robust ist.
Die Erfindung löst dieses Problem durch die Bereitstellung eines Verfahrens mit den Merkmalen des Anspruchs 1. Bei diesem Verfah­ ren wird aus dem aufgenommenen Stereobildpaar zunächst ein Strukturklassenbildpaar erzeugt, indem für jeden Bildpunkt die Helligkeitsdifferenzen zu vorgegebenen Umgebungsbildpunkten in digitaler Form ermittelt und die Digitalwerte in einer vorbe­ stimmten Reihenfolge zu einer Digitalwertgruppe zusammengefaßt werden. Jede der verschiedenen möglichen Gruppen definiert dabei eine eigene Strukturklasse. Anschließend wird eine vergleichs­ weise effektiv durchführbare, zweckmäßig einfach gestaltete Kor­ respondenzanalyse durchgeführt, bei der alle Strukturklassen un­ berücksichtigt bleiben, die in Richtung der Epipolarlinie, d. h. zur Linie sich entsprechender Bildpunktpaare eines jeweiligen gemeinsamen Urbildpunktes, keinen Strukturgradienten zeigen.
Dies sind diejenigen Strukturklassen, deren Bildpunkte sich in ihrer Helligkeit nicht um ein vorgebbares Maß von der Helligkeit der in Richtung der Epipolarlinie liegenden Umgebungsbildpunkte unterscheiden. Dadurch wird bereits ein merklicher Bildverarbei­ tungsaufwand eingespart. In dieser Richtung verlaufende Struktu­ ren eignen sich systembedingt bei der merkmalsbasierten Stereo­ bildauswertung ohnehin nicht zur Entfernungsbestimmung. Zu allen übrigen Strukturklassen werden dann Disparitätswerte korrespon­ dierender Bildpunkte gleicher Strukturklasse ermittelt, die in einem Disparitätshistogramm zu einem jeweiligen Häufigkeitswert akkumuliert werden. Optional kann für jedes korrespondierende Bildpunktpaar der zugehörige Disparitätswert mit einem gewichte­ ten Häufigkeitsinkrement in das Histogramm eingehen. Anschlie­ ßend wird das Histogramm auf Häufungspunktbereiche untersucht. Zu festgestellten, interessierenden Häufungspunktbereichen wird dann umgekehrt die zugehörige Bildpunktgruppe eines zugehörigen Strukturklassenbildes dargestellt und als in einer bestimmten Entfernung befindliches Objekt interpretiert. Es zeigt sich, daß dieses Objektdetektionsverfahren für viele Anwendungsfälle sehr effektiv arbeitet und robuste, d. h. wenig störanfällige Resul­ tate liefert.
Sei einem nach Anspruch 2 weitergebildeten Verfahren wird eine ternäre Logik zur Digitalisierung der Helligkeitsdifferenzen verwendet, was eine für die hier betrachteten Anwendungen sehr vorteilhafte, weil einerseits ausreichend differenzierte und an­ dererseits ausreichend schnell durchführbare Strukturklassifi­ zierung ermöglicht.
Bei einem nach Anspruch 3 weitergebildeten Verfahren werden als Umgebungsbildpunkte die vier Bildpunkte gewählt, die an den je­ weiligen Bezugsbildpunkt zum einen parallel und zum anderen senkrecht zur Epipolarlinie jeweils beidseits direkt angrenzen oder von diesem um eine vorgebbare Abgriffweite beabstandet an­ geordnet sind. Eine Abgriffweite in der Größe eines oder even­ tuell auch mehrerer Bildpunkte ermöglicht die Einbeziehung eines größeren Nachbarschaftsbereiches, was in Fällen zweckmäßig ist, in denen sich die Helligkeitsgradienten typischerweise über ei­ nen Bereich mehrerer Bildpunkte hinweg erstrecken.
Bei einem nach Anspruch 4 weitergebildeten Verfahren ist der er­ forderliche Berechnungsaufwand weiter dadurch verringert, daß kleine Disparitäten favorisiert werden, indem zu jedem Bildpunkt des einen Strukturklassenbildes nur die minimale Disparität, d. h. die Entfernung des nächstgelegenen Bildpunktes gleicher Strukturklasse im anderen Strukturklassenbild, ermittelt und für die Erstellung des Disparitätshistogramms berücksichtigt wird. Die zugrundeliegende Annahme der Favorisierung kleiner Dispari­ täten und damit großer Objektentfernungen ist insbesondere bei der Verwendung in Fahrzeugen für die Betrachtung von Straßensze­ nen mit ihren relativ großen Hindernissen angemessen. Mit dieser Vorgehensweise wird zudem das Auftreten von nahen Phantomobjek­ ten bei der Korrespondenzanalyse unterdrückt, wie sie durch weit entfernte, periodische Strukturen, z. B. Häuserfronten, generiert werden können.
Bei einem nach Anspruch 5 weitergebildeten Verfahren wird jedem Bildpunkt neben der die Helligkeitsdifferenzen repräsentierenden Digitalwertgruppe ein die Größe der aufgetretenen Helligkeits­ differenzen stärker differenzierender Kontrastwert zugeordnet, der als Gewichtsfaktor zur Bildung eines gewichteten Häufig­ keitsinkrementes verwendet wird. Für jedes korrespondierende Bildpunktpaar, für das ein Disparitätswert ermittelt wird, wird dann selbiger mit dem kontrastabhängig gewichteten Häufigkeits­ inkrement zum Disparitätshistogramm akkumuliert. Dadurch werden kontrastreiche Strukturen stärker bei der Bildauswertung berück­ sichtigt, was das Grundrauschen vermindert.
Bei einem nach Anspruch 6 weitergebildeten Verfahren wird die Objektdetektion durch eine Ballungsanalyse der als zu einem je­ weiligen Objekt gehörig interpretierten Bildpunktgruppe erwei­ tert, die einerseits ausreichend einfach gestaltet ist und ande­ rerseits eine verbesserte Lokalisierung und Bewegungsverfolgung des Objektes erlaubt.
Bei einem nach Anspruch 7 weitergebildeten Verfahren wird an­ schließend an die Detektion eines Objektes eine kontinuierliche Bewegungsverfolgung desselben durchgeführt, indem die erfin­ dungsgemäße Objektdetektion beschränkt auf einen minimalen, das detektierte Objekt enthaltenden Kubus zyklisch wiederholt durch­ geführt wird. Die Beschränkung auf den hierfür jeweils relevan­ ten Bildbereich spart nicht nur Rechenaufwand ein, sondern redu­ ziert vor allem auch den Einfluß störender Hintergrundobjekte. Außerdem braucht nur noch ein relativ kleiner Bereich von Dis­ paritätswerten ausgewertet werden, wobei die zugehörige Tiefe des Kubus von der maximal zu erwartenden Entfernungsänderung be­ stimmt ist.
Ein nach Anspruch 8 weitergebildetes Verfahren eignet sich für Straßenfahrzeuge und beinhaltet ein plausibles Straßenmodell, das es gestattet, Strukturen der Straßenoberfläche mit hoher Zu­ verlässigkeit herauszufiltern, was die Detektion von Objekten im Bereich über der Straßenoberfläche erleichtert und/oder das zu­ verlässige Erfassen von Fahrbahnmarkierungen zur autonomen Fahr­ zeugquerführung ermöglicht.
Eine vorteilhafte Ausführungsform der Erfindung ist in den Zeichnungen illustriert und wird nachfolgend beschrieben. Hier­ bei zeigen:
Fig. 1 ein von einer Stereokameraanordnung eines Fahrzeugs auf­ genommenes Stereobildpaar,
Fig. 2 eine schematische Darstellung der zur Auswertung der Ste­ reobilder gemäß Fig. 1 verwendeten Strukturklassifizie­ rung,
Fig. 3 eine Grauwertdarstellung des durch die Strukturklassifi­ zierung gemäß Fig. 2 aus dem linken Stereobild von Fig. 1 erhaltenen Strukturklassenbildes,
Fig. 4 ein durch Korrespondenzanalyse der beiden, zu den Stereo­ bildern von Fig. 1 gehörigen Strukturklassenbildern er­ haltenes Disparitätshistogramm mit mehreren Häufungspunk­ ten,
Fig. 5 eine Darstellung der mit einem ersten Häufungspunkt von Fig. 4 verknüpften Bildpunktgruppe und
Fig. 6 eine Darstellung der mit einem zweiten Häufungspunkt von Fig. 4 verknüpften Bildpunktgruppe.
Fig. 1 zeigt ein Stereobildpaar 1a, 1b, das eine typische Stra­ ßenverkehrsszene wiedergibt. Zur kontinuierlichen Aufnahme des Verkehrsgeschehens vor einem Fahrzeug anhand solcher Stereobild­ paare 1a, 1b ist an dem Fahrzeug in herkömmlicher Weise eine nach vorn gerichtete Stereokameraanordnung angebracht, deren op­ tische Achsen vorzugsweise parallel zueinander ausgerichtet und horizontal gegeneinander versetzt sind. In diesem Fall bilden die zugehörigen Epipolarlinien, d. h. diejenigen Linien, entlang denen der zu einem gemeinsamen Urbildpunkt gehörige Bildpunkt im einen Stereobild gegenüber dem entsprechenden Bildpunkt im ande­ ren Stereobild versetzt sein kann, gleichzeitig jeweilige Bild­ zeilen des Stereo-Bildpaares 1a, 1b, was die spätere Dispari­ tätsauswertung besonders einfach macht. Die Stereobildüberwa­ chung des Verkehrsgeschehens vor dem Fahrzeug läßt sich insbe­ sondere zum automatisierten Führen des Fahrzeugs in Längs- und/ oder Querrichtung bzw. zur Warnung vor auftretenden Hindernis­ sen, wie anderen Fahrzeugen und Fußgängern, verwenden. Interes­ sierende Objekte sind bei dem Stereobildpaar 1a, 1b von Fig. 1 folglich vor allem das auf derselben Fahrspur vorausfahrende Fahrzeug 2 sowie ein auf einer benachbarten Fahrspur befindli­ ches Fahrzeug 3. Ziel des nachfolgend näher beschriebenen Ob­ jektdetektionsverfahrens ist es vor allem, selbsttätig die Lage dieser beiden Objekte 2, 3 bezogen auf das eigene Fahrzeug rasch und zuverlässig zu ermitteln.
Hierfür wird jedes der beiden Stereobilder 1a, 1b in ein ent­ sprechendes Strukturklassenbild mittels einer Strukturklassifi­ zierung transformiert, wie sie in Fig. 2 schematisch angedeutet ist. Für jeden Bildpunkt x der beiden Stereobilder 1a, 1b wird eine Umgebungsbildpunktmenge definiert, die im Fall von Fig. 2 aus den vier in Zeilen- und Spaltenrichtung, d. h. parallel und senkrecht zur horizontalen Epipolarlinie, nächstbenachbarten Um­ gebungsbildpunkten x₀, x₁, x₂, x₃ besteht. Wenn sich diese Wahl der Umgebungsbildpunkte als zu lokal erweist, kann alternativ ein größerer Nachbarschaftsbereich von Umgebungsbildpunkten bzw. ein Satz weiter entfernter Umgebungsbildpunkte gewählt werden. Bei Wahl eines größeren Nachbarschaftsbereiches, die eine kubi­ sche Steigerung der Anzahl von Strukturklassen impliziert und die Empfindlichkeit bezüglich der jeweils gewählten Helligkeits­ schwellwerte anwachsen läßt, ist die Auswertung in einer Gauß­ pyramide von Vorteil. Zufriedenstellende Ergebnisse werden durch eine rechentechnisch weniger aufwendige Erhöhung der Abgriffwei­ te erzielt, d. h. anstelle der in Fig. 2 gewählten, in Zeilen- und Spaltenrichtung direkt benachbarten Umgebungsbildpunkte wer­ den dann solche gewählt, die zum Bezugsbildpunkt x einen Abstand von einem oder einigen wenigen Bildpunkten besitzen.
In jedem Fall wird dann paarweise die Helligkeit des Bezugsbild­ punktes x mit denjenigen des jeweiligen Umgebungsbildpunktes x₀ bis x₃ unter Vorgabe eines positiven Helligkeitsschwellwertes T in digitalisierter Form gemäß eine Ternärlogik verglichen, wobei als Vergleichsergebnis ein Helligkeitsdifferenz-Digitalwert d (xi) in Form einer jeweiligen Ternärziffer gemäß nachfolgender Bezie­ hung generiert wird:
wobei g(x) die Helligkeit des Bezugsbildpunktes und g(xi) mit i=0, . . . , 3 die Helligkeit des jeweiligen Umgebungsbildpunktes ist. Die vier zu einem jeweiligen Bildpunkt x in dieser Weise ermittelten Ternärziffern d(x₀) bis d(x₃) werden dann zu einer Gruppe in Form einer Ternärzahl C der Form
zusammengefaßt, wie in der rechten Hälfte von Fig. 2 veranschau­ licht. Für die so gebildete Ternärzahl C sind einundachtzig un­ terschiedliche Werte möglich, von denen jeder eine eigene Struk­ turklasse definiert. Anstelle der vorliegend beschriebenen ter­ nären Digitalisierung der Helligkeitsunterschiede kommen auch andere Mehrwert-Digitalisierungen in Betracht, allerdings werden bei einer nur binären Digitalisierung Gradienteninformationen, die ein wichtiger Bestandteil der nachfolgenden Korrespondenz­ analyse sind, unterdrückt, während höherwertige Digitalisierun­ gen einen erhöhten Rechenaufwand zur Folge haben.
Fig. 3 zeigt das Ergebnis der Strukturklassifikation für das linke Stereobild 1a von Fig. 1, wobei als Gesamthelligkeitsum­ fang das Intervall [0,255] und ein Helligkeitsdifferenzschwell­ wert von T=20 gewählt wurden. Zur besseren Veranschaulichung wurden die ermittelten Ternärzahlen C mit dem Faktor drei multi­ pliziert und invertiert, so daß die zur Strukturklasse mit der Ternärzahl C=0 gehörigen Bildpunkte in Fig. 3 weiß erscheinen. Aus Fig. 3 läßt sich erkennen, daß aufgrund der durch den Hel­ ligkeitsschwellwert T eingebrachten Nichtlinearität eine be­ trächtliche Datenreduktion erzielt wird. Im Bild von Fig. 3 ge­ hören etwa 50% aller Bildpunkte der Strukturklasse mit C=0 an. Weitere 25% der Bildpunkte gehören zu sogenannten horizontalen Strukturklassen, das sind jene mit horizontalen Strukturen, bei denen d(x₃)=d(x₁)=0 ist. Solche horizontalen Strukturklassen sind für die Auswertung von Stereobildern mit der vorliegend horizon­ tal gewählten Epipolarlinie nicht nutzbringend und werden daher bei der weiteren Bildauswertung nicht mehr berücksichtigt. Dem­ gemäß brauchen nur noch 25% der Bildpunkte einer Korrespondenza­ nalyse unterworfen werden. Durch Auswahl eines geeigneten Aus­ wertefensters läßt sich diese Bildpunktanzahl unter Erhöhung der Auswertesicherheit weiter steigern. So kann z. B. im vorliegenden Fall der merklich über dem Horizont und damit der Straßenober­ fläche liegende Bildbereich als nicht interessierend ausgeblen­ det werden. Ein günstiges Auswertefenster ist beispielhaft im linken Stereobild 1a von Fig. 1 mit dem dortigen weißen Rahmen 4 angedeutet. Mit der Wahl dieses Auswertefensters 4 wird bei der vorliegenden Bildszene die Menge an für die anschließende Korre­ spondenzanalyse zu berücksichtigenden Bildpunkten auf 13% aller Bildpunkte reduziert, und zugleich werden Störeinflüsse durch Disparitätsfehlbestimmungen vermieden, die auf ausgeblendete Bildbereiche zurückgehen.
An die Erzeugung des Strukturklassenbildpaares schließt sich ei­ ne vereinfachte Korrespondenzanalyse an, die zwar keine bild­ punktweise eindeutige Lösung des Korrespondenzproblems dar­ stellt, jedoch mit entsprechend geringerem Rechenaufwand ausrei­ chend zuverlässige Ergebnisse für die hier in Betracht kommenden Anwendungen liefert, bei denen die relevanten, zu detektierenden Objekte Strukturen mit zur Epipolarlinie im wesentlichen senk­ rechten Helligkeitsgradienten besitzen, was nicht nur für Fahr­ zeuge, sondern auch für die meisten stehenden Objekte und insbe­ sondere für Fußgänger gilt. Dazu wird im einzelnen wie folgt vorgegangen.
Zu jedem Bildpunkt im einen Strukturklassenbild als Bezugspunkt wird innerhalb eines vorgegebenen Disparitätsintervall nach auf der entsprechenden Epipolarlinie als der maßgeblichen Suchrich­ tung liegenden Bildpunkten derselben Strukturklasse im anderen Strukturklassenbild gesucht. Wegen der parallelen optischen Ach­ sen der Bildaufnahmekameras und der horizontal versetzten Anord­ nung derselben ergibt sich im vorliegenden Beispiel eine in Bildzeilenrichtung verlaufende Suchrichtung. Die Entfernung ei­ nes jeweils aufgefundenen Bildpunktes zur Lage des Bezugsbild­ punktes wird erfaßt und als zugehöriger Disparitätswert in einem Disparitätshistogramm akkumuliert, und zwar in einer ersten Al­ ternative ungewichtet, d. h. die Häufigkeit im Histogramm wird für jeden Disparitätswert pro Auftreten desselben um eins er­ höht. In einer zweiten Alternative wird ein den Bildkontrast be­ rücksichtigendes, gewichtetes Häufigkeitsinkrement verwendet. Dazu wird für jeden Bildpunkt x ein lokales Kontrastmaß aus den ermittelten Helligkeitsdifferenzen generiert, z. B. ein Kontrast­ maß K(x) der Form
wobei N die Anzahl der Umgebungsbildpunkte angibt, deren Hellig­ keit um mehr als der Helligkeitsschwellwert T von der Bezugs­ punkthelligkeit abweicht, und bei der Summation auch nur diese Umgebungsbildpunkte berücksichtigt werden. Damit erhält der ein­ zelne Bildpunkt ein Kontrastgewicht, das es erlaubt, kontrast­ reiche Strukturen bei der Disparitätsanalyse zu betonen. Eine Möglichkeit, dieses Kontrastmaß in der Erstellung des Dispari­ tätshistogramms zu berücksichtigen, besteht darin, den zu einem jeweiligen korrespondierenden Bildpunktpaar ermittelten Dispari­ tätswert nicht mit dem Häufigkeitsinkrement eins, sondern mit einem um das Minimum der zu den beiden korrelierenden Bildpunk­ ten gehörigen Kontrastwerte erhöhten Häufigkeitsinkrement in die Histogrammerzeugung eingehen zu lassen. Dies ergibt eine schär­ fere Trennung der Häufigkeitspunktbereiche, d. h. der Peakberei­ che, im resultierenden Disparitätshistogramm vom Untergrundrau­ schen.
Fig. 4 zeigt das durch den erläuterten Disparitätsanalysevorgang unter Verwendung des ungewichteten Häufigkeitsinkrementes eins aus dem Bereich des Auswertefensters 4 erhaltene Disparitäts­ histogramm mit Disparitätswerten zwischen null und zweihundert. Dabei wurden zu jedem Bezugsbildpunkt im einen Strukturbild alle in Richtung der entsprechenden Epipolarlinie liegenden Bildpunk­ te im anderen Strukturbild berücksichtigt. Alternativ dazu hat sich für den vorliegenden Anwendungsfall der Beobachtung des Straßenverkehrs die Favorisierung kleiner Disparitätswerte als vorteilhaft erwiesen, was mit einer Bevorzugung großer Entfer­ nungen korreliert. Denn in komplexen Straßenszenen bedingen häu­ fig periodische Strukturen, wie z. B. die Häuserfront 5 im Ste­ reobildpaar 1a, 1b von Fig. 1, ein starkes Rauschen im Dispari­ tätshistogramm, indem sie wegen ihrer Periodizität sehr nahe am Kameraort stehende Phantomobjekte vortäuschen. Dem wird durch die Favorisierung großer Entfernungen wirksam begegnet. In einer einfachen und effektiven Form geschieht dies dadurch, daß bei der Disparitätsanalyse zu jedem Bezugsbildpunkt im einen Struk­ turklassenbild nur der diesem auf der Epipolarlinie nächstgele­ gene Bildpunkt derselben Strukturklasse im anderen Strukturklas­ senbild berücksichtigt wird. Diese Vorgehensweise erweist sich für die Beobachtung des Straßenverkehrs bei den praktisch auf­ tretenden Straßenszenen mit ihren relativ großen Hindernissen als zulässig und wegen der dadurch bedingten Einsparung an Re­ chenzeit und der Unterdrückung von Phantomobjekten sehr vorteil­ haft. Alternativ zu dem in Fig. 4 gezeigten zweidimensionalen Histogramm kann bei Bedarf ein dreidimensionales Disparitäts­ histogramm als quantisierte Tiefenkarte angefertigt werden, bei dem als zusätzliche Histogrammachse der laterale Offset des je­ weiligen Bezugsbildpunktes zur Bildmittelachse herangezogen wird.
Nachdem das Disparitätshistogramm in der einen oder anderen Form erstellt wurde, wird dieses auf Häufungspunktbereiche hin unter­ sucht. In Fig. 4 sind von den ausgeprägten Häufigkeitspunktbe­ reichen die zwei d₁, d₂ mit den höchsten Disparitätswerten mar­ kiert, wobei der eine, d₁, einem Disparitäts-Spitzenwert von etwa 28 und der andere, d₂, einem Disparitäts-Spitzenwert von etwa 15 entspricht. Jeder solche Häufigkeitspunktbereich sollte einem Objekt im Beobachtungsbereich entsprechen. Um dies zu verifizie­ ren und dadurch die Objektdetektion zu vervollständigen, werden anschließend in zur Disparitätsanalyse umgekehrter Richtung die­ jenigen Bildpunkte eines Strukturklassenbildes wiedergegeben, die zu einem jeweiligen Disparitätshäufungspunktbereich gehören. So sind in Fig. 5 die zu dem Disparitätshäufungspunktbereich d₁ mit dem Disparitäts-Spitzenwert 28 gehörigen Bildpunkte und in Fig. 6 die zu dem Disparitätshäufungspunktbereich d₂ mit dem Dis­ paritäts-Spitzenwert 15 gehörigen Bildpunkte dargestellt. Wie daraus zu erkennen, gibt Fig. 5 bereits recht gut das auf der gleichen Fahrspur vorausfahrende Fahrzeug 2 wieder, während das auf der anderen Fahrspur befindliche Fahrzeug 3 das Bild von Fig. 6 dominiert. Es kann daraus geschlossen werden, daß diese beiden Fahrzeuge 2, 3 zu diesen beiden Disparitätshäufungspunkt­ bereichen d₁, d₂ gehören.
Aus dieser Zuordnung eines endgültigen Disparitätswertes zu ei­ nem jeweiligen Objekt kann die Entfernung L des letzteren von der Stereokameraanordnung durch die Beziehung L=fx·B/d ermittelt werden, wobei B den Basisabstand der Stereokameraanordnung, fx deren skalierte Brennweite und d den jeweiligen Disparitätswert bezeichnen. Anschließend kann das detektierte Objekt bei Bedarf kontinuierlich weiter beobachtet, d. h. verfolgt werden. Dazu wird einleitend eine einfache Ballungsanalyse vorgenommen, bei der ein rechteckförmiges Fenster minimaler Höhe und Breite so im resultierenden Objektbild analog den Fig. 5 und 6 positioniert wird, daß darin ein vorgegebener Mindestprozentsatz von z. B. 90% der gefundenen Bildpunkte enthalten ist. Da die obige trigono­ metrische Beziehung für die Objektentfernung L wegen der Diskre­ tisierung der Disparitätswerte vor allem bei kleinen Disparitä­ ten eine relativ grobe Näherung darstellt und in diesem Fall für die Bestimmung von Bewegungsvorgängen noch nicht optimal ist, kann es zudem zweckmäßig sein, eine verbesserte, einer subbild­ punktgenauen Messung entsprechende Disparitätsschätzung vorzu­ nehmen, bei der zum Spitzenwert eines jeweiligen Disparitätshäu­ fungspunktbereiches ein Korrekturterm der Form
dd=0,5 · (h++h-) / (2hm-(h++h-))
hinzuaddiert wird, wobei hm den Spitzenwert und h+ bzw. h- die Disparitätshöhen im jeweiligen Seitenbereich bezeichnen.
Nach der solchermaßen bewerkstelligten Objektdetektion mit Be­ stimmung der Entfernung und der ungefähren Ausdehnung des jewei­ ligen Objektes wird in der nachfolgenden Verfolgungsphase eine auf den relevanten, gerade noch das zu beobachtende Objekt ent­ haltenden Bildbereich beschränkte Bildauswertung nach dem be­ schriebenen Verfahren in zyklisch wiederholter Form durchge­ führt. Die erfindungsgemäßen Verfahrensmaßnahmen ermöglichen ty­ pische Verfahrenszyklen von lediglich größenordnungsmäßig zwi­ schen 100ms und 200ms, verglichen mit typischen Zykluszeiten aufwendigerer Stereobildauswerteverfahren von mehreren Sekunden. Durch die Bildbereichsbeschränkung wird nicht nur Rechenzeit eingespart, sondern vor allem auch der Einfluß störender Hinter­ grundobjekte reduziert. Von zentraler Bedeutung ist, daß nur noch ein relativ kleiner Disparitätsbereich ausgewertet werden muß, indem um das zu verfolgende Objekt gedanklich ein Kubus ge­ legt wird, dessen Tiefe von der maximal zu erwartenden Entfer­ nungsänderung abhängt.
Die laterale Position eines interessierenden Objektes läßt sich für die Spurverfolgung mittels Strahlensatz beispielsweise aus der lateralen Position des Bildmittelpunktes oder alternativ des Bildschwerpunktes ermitteln. Zweckmäßigerweise werden die erhal­ tenen Resultate einer üblichen Kalman-Filterung unterworfen, um durch Berücksichtigung des Wissens über die eingeschränkten Be­ wegungsmöglichkeiten zu optimalen Resultaten zu gelangen.
Um Straßenoberflächenstrukturen von den Strukturen von über der Straßenoberfläche befindlichen Objekten zu isolieren, kann ein einfaches Straßenmodell Verwendung finden, bei dem eine ebene Straßenoberfläche und parallele optische Achsen der Stereoka­ meraanordnung angenommen werden. Für die zu erwartende Dispari­ tät dE(x,y) eines Bildpunktes mit den Koordinaten (x,y) in der Bildebene ergibt sich dann aus der Kamerahöhe H über der Fahr­ bahn und dem Kameraneigungswinkel α gegenüber dem Horizont die Beziehung
dE (x, y) = (B/H) fx ((y/fy) cosα+sinα),
wobei fx und fy die skalierten Brennweiten in den betreffenden Koordinatenrichtungen und B die Basisweite der Stereokameraan­ ordnung bezeichnen. Zur Extraktion der Straßenoberflächenstruk­ turen tragen unter diesen Voraussetzungen nur Punkte unterhalb des Horizontes bei. Dabei liegen alle Bildpunkte mit Dispari­ tätswerten, die innerhalb eines bestimmten Intervalls um den Er­ wartungswert liegen, auf der Straßenoberfläche, während diejeni­ gen mit größeren Disparitätswerten zu Objekten über der Straßen­ oberfläche gehören und diejenigen mit zu kleinen Disparitätswer­ ten von Reflexionen weiter entfernter Objekte herrühren.
Je nach Anwendungsfall können für die Objektdetektion zusätzlich Symmetrieüberlegungen verwendet werden, die den Rechenaufwand verringern und die Detektionssicherheit erhöhen können. In jedem Fall ermöglicht das erfindungsgemäße Verfahren eine bei gegebe­ ner Detektionssicherheit sehr rasche und robuste Objektdetektion und läßt sich zur optischen Echtzeit-Objektbeobachtung im Stra­ ßenverkehr, auf dem Gebiet der Robotik und überall dort einset­ zen, wo Bedarf an einer stereobildbasierten Detektion und gege­ benenfalls Verfolgung von Objekten besteht.

Claims (8)

1. Verfahren zur Stereobild-Objektdetektion, insbesondere für Straßenfahrzeuge, gekennzeichnet durch folgende Schritte:
  • a) Erzeugen eines Strukturklassenbildpaares aus dem jeweiligen aufgenommenen Stereobildpaar (1a, 1b), indem für jeden Bild­ punkt (x) die Differenzen zwischen dessen Helligkeitswert (g(x)) und jedem der Helligkeitswerte (g(xi);i=0, . . . , n-1) einer Anzahl (n) vorgegebener Umgebungsbildpunkte (x₀, . . . , xn-1) als Digitalwerte (d(xi)) bestimmt und die erhaltenen Digitalwerte zu einer Digitalwertgruppe (C) zusammengefaßt werden, wobei jeweils identische Digitalwertgruppen eine ei­ gene Strukturklasse definieren,
  • b) Durchführen einer Korrespondenzanalyse des Strukturklassen­ bildpaares, bei der
  • b. 1) nur diejenigen Strukturklassen berücksichtigt werden, deren Bildpunkte wenigstens einen in Richtung der Epipolarlinie liegenden Umgebungsbildpunkt mit um eine oder mehrere Hel­ ligkeitsdigitalstufen unterschiedlicher Helligkeit besitzen,
  • b. 2) für jeden Bildpunkt einer jeweils noch berücksichtigten Strukturklasse des einen Strukturklassenbildes die innerhalb eines vorgebbaren Disparitätsintervalls auf der Epipolarli­ nie liegenden Bildpunkte derselben Strukturklasse des ande­ ren Strukturklassenbildes aufgesucht und der zugehörige Dis­ paritätswert ermittelt wird und
  • b. 3) die dadurch insgesamt erhaltenen Disparitätswerte entspre­ chend einem zugeordneten Häufigkeitsinkrement in einem Dis­ paritätshistogramm akkumuliert werden, und
  • c) Identifizieren von Häufungspunktbereichen (d₁, d₂) im er­ zeugten Disparitätshistogramm und Extrahieren eines jeweili­ gen Objektes aus der zum jeweiligen Häufungspunktbereich ge­ hörigen Bildpunktgruppe.
2. Verfahren nach Anspruch 1, weiter dadurch gekennzeichnet, daß zur Digitalwertermittlung im Schritt a ein Ternärsystem verwen­ det wird, wobei den Helligkeitsdifferenzen, die betragsmäßig kleiner gleich einem vorgegebenen positiven Helligkeitsschwell­ wert (T) sind, eine erste Ternärziffer, den Helligkeitsdifferen­ zen, die größer als der Schwellwert sind, eine zweite Ternärzif­ fer und den Helligkeitsdifferenzen, die kleiner als das Negative (-T) des Schwellwertes sind, die dritte der drei Ternärziffern zugeordnet wird.
3. Verfahren nach Anspruch 1 oder 2, weiter dadurch gekennzeichnet, daß als Umgebungsbildpunkte (x₀ bis x₃) jeweils zwei auf gegenüber­ liegenden Seiten des jeweiligen Bezugsbildpunktes (x) zum einen parallel und zum anderen senkrecht zur Epipolarlinie liegende Bildpunkte verwendet werden, die dem Bezugsbildpunkt direkt be­ nachbart oder von diesem um eine vorgebbare Abgriffweite beab­ standet angeordnet sind.
4. Verfahren nach einem der Ansprüche 1 bis 3, weiter dadurch gekennzeichnet, daß das vorgebbare Disparitätsintervall für die Korrespondenzanalyse so gewählt wird, daß zum jeweiligen Bildpunkt im einen Struktur­ klassenbild nur der nächstliegende Bildpunkt auf der Epipolarli­ nie im anderen Strukturklassenbild berücksichtigt und der dies­ bezügliche Disparitätswert im Disparitätshistogramm akkumuliert wird.
5. Verfahren nach einem der Ansprüche 1 bis 4, weiter dadurch gekennzeichnet, daß jedem Bildpunkt des Strukturklassenbildpaares zusätzlich zur je­ weiligen Digitalwertgruppe ein in Abhängigkeit von den Hellig­ keitsdifferenzen ermittelter Kontrastwert (K(x)) als Gewichts­ faktor zugeordnet wird und der zu einem jeweiligen Bildpunktpaar ermittelte Disparitätswert mit einem in Abhängigkeit von den zu­ gehörigen Kontrastwerten gewichteten Häufigkeitsinkrement zum Disparitätshistogramm akkumuliert wird.
6. Verfahren nach einem der Ansprüche 1 bis 5, weiter dadurch gekennzeichnet, daß die Extraktion des jeweiligen Objektes aus der zu einem jeweili­ gen Disparitätshäufungspunktbereich gehörigen Bildpunktgruppe eine Ballungsanalyse der Bildpunktgruppe umfaßt, mit der ein Rechteck minimaler Fläche ermittelt wird, das einen vorgebbaren Prozentsatz der Bildpunkte dieser Bildpunktgruppe enthält.
7. Verfahren nach einem der Ansprüche 1 bis 6, weiter dadurch gekennzeichnet, daß nach erstmaliger Extraktion des jeweiligen Objektes aus der zu einem jeweiligen Disparitätshäufungspunktbereich gehörigen Bild­ punktgruppe eine Bewegungsverfolgung desselben mittels wieder­ holtem Ausführen der Schritte a bis c eingeschränkt auf den Be­ reich eines minimalen, das betreffende Objekt enthaltenden Kubus durchgeführt wird.
8. Verfahren nach einem der Ansprüche 1 bis 7 zur Detektion von Objekten im Straßenverkehr, weiter dadurch gekennzeichnet, daß unter der Annahme eines im wesentlichen ebenen Straßenverlaufs und paralleler optischer Stereokameraachsen diejenigen Bildpunk­ te, deren zugeordnete Disparitätswerte innerhalb eines vorgege­ benen Erwartungsbereichs um einen der folgenden Beziehung genü­ genden Disparitätserwartungswert (dE) dE (x, y) = (B/H) fx ((y/fy) cosα+sinα),liegen, wobei B die Basisweite der Stereokameraanordnung, H de­ ren Höhe über der Straßenoberfläche, α deren Nickwinkel relativ zur Straßenoberfläche, fx und fy die laterale- bzw. vertikale Ka­ merabrennweite und y die von der optischen Achse nach unten wei­ sende Bildvertikalkoordinate darstellt, als zu einem Objekt der Straßenoberfläche gehörig interpretiert werden.
DE19636028A 1996-09-05 1996-09-05 Verfahren zur Stereobild-Objektdetektion Expired - Fee Related DE19636028C1 (de)

Priority Applications (6)

Application Number Priority Date Filing Date Title
DE19636028A DE19636028C1 (de) 1996-09-05 1996-09-05 Verfahren zur Stereobild-Objektdetektion
IT97RM000530A IT1294262B1 (it) 1996-09-05 1997-09-03 Procedimento per il riconoscimento stereoscopico di oggetti
FR9710946A FR2752969B1 (fr) 1996-09-05 1997-09-03 Procede pour detecter un objet a partir d'images stereoscopiques
JP9277885A JP3049603B2 (ja) 1996-09-05 1997-09-04 立体画像−物体検出方法
GB9718813A GB2317066B (en) 1996-09-05 1997-09-04 Method for Detecting Objects by Means of Stereoimages
US08/923,937 US5937079A (en) 1996-09-05 1997-09-05 Method for stereo image object detection

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19636028A DE19636028C1 (de) 1996-09-05 1996-09-05 Verfahren zur Stereobild-Objektdetektion

Publications (1)

Publication Number Publication Date
DE19636028C1 true DE19636028C1 (de) 1997-11-20

Family

ID=7804698

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19636028A Expired - Fee Related DE19636028C1 (de) 1996-09-05 1996-09-05 Verfahren zur Stereobild-Objektdetektion

Country Status (6)

Country Link
US (1) US5937079A (de)
JP (1) JP3049603B2 (de)
DE (1) DE19636028C1 (de)
FR (1) FR2752969B1 (de)
GB (1) GB2317066B (de)
IT (1) IT1294262B1 (de)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19802261A1 (de) * 1998-01-22 1999-07-29 Daimler Chrysler Ag Verfahren zur Signalverarbeitung von Zeitfolgen digitalisierter Bilder
EP1197937A1 (de) * 2000-10-11 2002-04-17 Sharp Kabushiki Kaisha Vorrichtung zur Überwachung der Umgebung eines beweglichen Körpers
DE10244148A1 (de) * 2002-09-23 2004-04-08 Daimlerchrysler Ag Verfahren und Vorrichtung zur videobasierten Beobachtung und Vermessung der seitlichen Umgebung eines Fahrzeugs
DE102009022278A1 (de) 2009-05-22 2010-01-21 Daimler Ag Verfahren zur Ermittlung eines hindernisfreien Raums
DE102009042476A1 (de) 2008-09-25 2010-04-01 Volkswagen Ag Bestimmung von Zuständen in der Umgebung eines Kraftfahrzeugs mittels einer Stereokamera
EP2476996A1 (de) * 2009-09-07 2012-07-18 Panasonic Corporation Parallaxen-berechnungsverfahren und parallaxen-berechnungsvorrichtung
DE102009004626B4 (de) * 2008-01-18 2015-09-10 Fuji Jukogyo K.K. Vorrichtung zur Überwachung der Umgebung eines Fahrzeugs
DE102015216160A1 (de) 2015-08-25 2017-03-02 Robert Bosch Gmbh Verfahren zum Erfassen einer Fahrzeugumgebung eines Fahrzeuges
DE102008053460B4 (de) * 2007-10-29 2020-09-03 Subaru Corporation Objekterfassungssystem
DE102021204411A1 (de) 2021-05-03 2022-11-03 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zum Bestimmen einer Disparität und Fahrzeug

Families Citing this family (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6320589B1 (en) * 1997-08-04 2001-11-20 Lucent Technologies Display techniques for three dimensional virtual reality
DE19859087A1 (de) * 1998-12-10 2000-06-15 Arnold & Richter Kg Verfahren zur Trennung von auf Medien wie Laufbildfilmen, Videobändern o. dgl. gespeicherten Bildfolgen in Einzelsequenzen
DE19926559A1 (de) * 1999-06-11 2000-12-21 Daimler Chrysler Ag Verfahren und Vorrichtung zur Detektion von Objekten im Umfeld eines Straßenfahrzeugs bis in große Entfernung
US7236622B2 (en) * 1999-08-25 2007-06-26 Eastman Kodak Company Method for forming a depth image
JP3287465B2 (ja) * 1999-09-22 2002-06-04 富士重工業株式会社 ステレオ画像処理装置
JP3255360B2 (ja) * 1999-09-22 2002-02-12 富士重工業株式会社 距離データの検査方法およびその検査装置
WO2001048683A1 (en) 1999-12-29 2001-07-05 Geospan Corporation Any aspect passive volumetric image processing method
US7680324B2 (en) 2000-11-06 2010-03-16 Evryx Technologies, Inc. Use of image-derived information as search criteria for internet and other search engines
US7565008B2 (en) 2000-11-06 2009-07-21 Evryx Technologies, Inc. Data capture and identification system and process
US7899243B2 (en) 2000-11-06 2011-03-01 Evryx Technologies, Inc. Image capture and identification system and process
US8224078B2 (en) 2000-11-06 2012-07-17 Nant Holdings Ip, Llc Image capture and identification system and process
US9310892B2 (en) 2000-11-06 2016-04-12 Nant Holdings Ip, Llc Object information derived from object images
US20050125121A1 (en) * 2003-11-28 2005-06-09 Denso Corporation Vehicle driving assisting apparatus
JP4406381B2 (ja) * 2004-07-13 2010-01-27 株式会社東芝 障害物検出装置及び方法
WO2006014974A2 (en) * 2004-07-26 2006-02-09 Automotive Systems Laboratory, Inc. Vulnerable road user protection system
US7333652B2 (en) * 2004-08-03 2008-02-19 Sony Corporation System and method for efficiently performing a depth map recovery procedure
JP4246691B2 (ja) * 2004-11-30 2009-04-02 本田技研工業株式会社 画像情報処理システム、画像情報処理方法、画像情報処理プログラム、及び自動車
US7639841B2 (en) * 2004-12-20 2009-12-29 Siemens Corporation System and method for on-road detection of a vehicle using knowledge fusion
US7561721B2 (en) * 2005-02-02 2009-07-14 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
US7620208B2 (en) * 2005-02-09 2009-11-17 Siemens Corporate Research, Inc. System and method for detecting features from images of vehicles
US20070031008A1 (en) * 2005-08-02 2007-02-08 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
JP2007139756A (ja) * 2005-10-17 2007-06-07 Ricoh Co Ltd 相対位置検出装置、回転体走行検出装置及び画像形成装置
US7623681B2 (en) * 2005-12-07 2009-11-24 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
KR101311896B1 (ko) * 2006-11-14 2013-10-14 삼성전자주식회사 입체 영상의 변위 조정방법 및 이를 적용한 입체 영상장치
WO2008065717A1 (fr) * 2006-11-29 2008-06-05 Fujitsu Limited Système et procédé de détection de piéton
US8199975B2 (en) * 2006-12-12 2012-06-12 Cognex Corporation System and method for side vision detection of obstacles for vehicles
KR20080076628A (ko) * 2007-02-16 2008-08-20 삼성전자주식회사 영상의 입체감 향상을 위한 입체영상 표시장치 및 그 방법
US8103109B2 (en) * 2007-06-19 2012-01-24 Microsoft Corporation Recognizing hand poses and/or object classes
US20090005948A1 (en) * 2007-06-28 2009-01-01 Faroog Abdel-Kareem Ibrahim Low speed follow operation and control strategy
JP4521642B2 (ja) * 2008-02-13 2010-08-11 本田技研工業株式会社 車両周辺監視装置、車両、車両周辺監視プログラム
US9019381B2 (en) * 2008-05-09 2015-04-28 Intuvision Inc. Video tracking systems and methods employing cognitive vision
EP2286297B1 (de) * 2008-05-22 2017-03-22 Matrix Electronic Measuring Properties, LLC Stereoskopisches messsystem und -verfahren
KR20110026214A (ko) * 2009-09-07 2011-03-15 삼성전자주식회사 얼굴 검출 장치 및 방법
US8294768B2 (en) * 2009-11-23 2012-10-23 Hon Hai Precision Industry Co., Ltd. System and method for motion detection
US9049423B2 (en) * 2010-12-01 2015-06-02 Qualcomm Incorporated Zero disparity plane for feedback-based three-dimensional video
US9591281B2 (en) * 2010-12-22 2017-03-07 Thomson Licensing Apparatus and method for determining a disparity estimate
CN102316307B (zh) * 2011-08-22 2013-09-25 安科智慧城市技术(中国)有限公司 一种道路交通视频检测方法及装置
CN103164851B (zh) * 2011-12-09 2016-04-20 株式会社理光 道路分割物检测方法和装置
CN103177236B (zh) * 2011-12-22 2016-06-01 株式会社理光 道路区域检测方法和装置、分道线检测方法和装置
TWI453697B (zh) * 2011-12-29 2014-09-21 Automotive Res & Testing Ct The detection system of the driving space and its detection method
CN102628814B (zh) * 2012-02-28 2013-12-18 西南交通大学 一种基于数字图像处理的钢轨光带异常自动检测方法
CN103310213B (zh) * 2012-03-07 2016-05-25 株式会社理光 车辆检测方法和装置
US8824733B2 (en) 2012-03-26 2014-09-02 Tk Holdings Inc. Range-cued object segmentation system and method
US8768007B2 (en) 2012-03-26 2014-07-01 Tk Holdings Inc. Method of filtering an image
US8831285B2 (en) 2012-07-26 2014-09-09 Hewlett-Packard Development Company, L.P. Detecting objects with a depth sensor
TWI496090B (zh) 2012-09-05 2015-08-11 Ind Tech Res Inst 使用深度影像的物件定位方法與裝置
US9349058B2 (en) 2012-10-31 2016-05-24 Tk Holdings, Inc. Vehicular path sensing system and method
DE102013200409A1 (de) * 2013-01-14 2014-07-17 Robert Bosch Gmbh Verfahren und Vorrichtung zum Überwachen eines Umfelds eines Fahrzeugs und Verfahren zum Durchführen einer Notbremsung
WO2014152470A2 (en) 2013-03-15 2014-09-25 Tk Holdings, Inc. Path sensing using structured lighting
US9488483B2 (en) * 2013-05-17 2016-11-08 Honda Motor Co., Ltd. Localization using road markings
CN104217208B (zh) 2013-06-03 2018-01-16 株式会社理光 目标检测方法和装置
US9224060B1 (en) * 2013-09-17 2015-12-29 Amazon Technologies, Inc. Object tracking using depth information
CN104517275A (zh) 2013-09-27 2015-04-15 株式会社理光 对象检测方法和系统
CN104198752B (zh) * 2014-08-18 2017-09-08 浙江大学 基于机器视觉的高温钢坯运动状态的多率检测方法
JP6623729B2 (ja) * 2015-12-04 2019-12-25 株式会社ソシオネクスト 測距システム、移動体及び部品
CN107729856B (zh) * 2017-10-26 2019-08-23 海信集团有限公司 一种障碍物检测方法及装置
CN110823134B (zh) * 2018-07-23 2021-07-23 北京大恒图像视觉有限公司 一种靶线计算及工业传感器安装检测方法
US11495028B2 (en) * 2018-09-28 2022-11-08 Intel Corporation Obstacle analyzer, vehicle control system, and methods thereof

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4308776A1 (de) * 1992-03-23 1993-09-30 Fuji Heavy Ind Ltd System zur Überwachung des fahrzeugexternen Zustands unter Verwendung eines durch mehrere Fernsehkameras aufgenommenen Bildes
EP0626655A2 (de) * 1993-05-25 1994-11-30 Matsushita Electric Industrial Co., Ltd. Fahrzeugerkennungsgerät
DE4431479A1 (de) * 1994-09-03 1996-03-07 Bosch Gmbh Robert Vorrichtung und Verfahren zur Erkennung von Objekten

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4825393A (en) * 1986-04-23 1989-04-25 Hitachi, Ltd. Position measuring method
WO1991019265A1 (en) * 1990-05-29 1991-12-12 Axiom Innovation Limited Machine vision stereo matching
JP3209828B2 (ja) * 1993-05-25 2001-09-17 松下電器産業株式会社 車間距離計測装置とステレオ画像取り込み装置
US5684890A (en) * 1994-02-28 1997-11-04 Nec Corporation Three-dimensional reference image segmenting method and apparatus
JP3242529B2 (ja) * 1994-06-07 2001-12-25 松下通信工業株式会社 ステレオ画像対応付け方法およびステレオ画像視差計測方法
US5818959A (en) * 1995-10-04 1998-10-06 Visual Interface, Inc. Method of producing a three-dimensional image from two-dimensional images

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4308776A1 (de) * 1992-03-23 1993-09-30 Fuji Heavy Ind Ltd System zur Überwachung des fahrzeugexternen Zustands unter Verwendung eines durch mehrere Fernsehkameras aufgenommenen Bildes
EP0626655A2 (de) * 1993-05-25 1994-11-30 Matsushita Electric Industrial Co., Ltd. Fahrzeugerkennungsgerät
DE4431479A1 (de) * 1994-09-03 1996-03-07 Bosch Gmbh Robert Vorrichtung und Verfahren zur Erkennung von Objekten

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
L. MATTHIES et al. "Obstacle detection for unmannned ground vehicles: a progress report", IEEE Symposium on Intelligent Vehicles '95, 25./26.09.1995, Detroit, S.66-71 *
SANEYOSHI Keiji "3-D image recognition system by means of stereoscopy combined with ordinary image processing", IEEE Symposium on Intelli- gent Vehicles '94, 24.10.1994 bis 26.10.1994, Paris, S.13-18 *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19802261A1 (de) * 1998-01-22 1999-07-29 Daimler Chrysler Ag Verfahren zur Signalverarbeitung von Zeitfolgen digitalisierter Bilder
EP1197937A1 (de) * 2000-10-11 2002-04-17 Sharp Kabushiki Kaisha Vorrichtung zur Überwachung der Umgebung eines beweglichen Körpers
US7295229B2 (en) 2000-10-11 2007-11-13 Sharp Kabushiki Kaisha Surround surveillance apparatus for mobile body
DE10244148A1 (de) * 2002-09-23 2004-04-08 Daimlerchrysler Ag Verfahren und Vorrichtung zur videobasierten Beobachtung und Vermessung der seitlichen Umgebung eines Fahrzeugs
DE102008053460B4 (de) * 2007-10-29 2020-09-03 Subaru Corporation Objekterfassungssystem
DE102009004626B4 (de) * 2008-01-18 2015-09-10 Fuji Jukogyo K.K. Vorrichtung zur Überwachung der Umgebung eines Fahrzeugs
DE102009042476A1 (de) 2008-09-25 2010-04-01 Volkswagen Ag Bestimmung von Zuständen in der Umgebung eines Kraftfahrzeugs mittels einer Stereokamera
DE102009042476B4 (de) 2008-09-25 2022-12-22 Volkswagen Ag Bestimmung von Zuständen in der Umgebung eines Kraftfahrzeugs mittels einer Stereokamera
DE102009022278A1 (de) 2009-05-22 2010-01-21 Daimler Ag Verfahren zur Ermittlung eines hindernisfreien Raums
EP2650639A1 (de) * 2009-09-07 2013-10-16 Panasonic Corporation Disparitätsberechnungsvorrichtung
EP2752641A1 (de) * 2009-09-07 2014-07-09 Panasonic Corporation Disparitätsberechnungsvorrichtung
US8743183B2 (en) 2009-09-07 2014-06-03 Panasonic Corporation Parallax calculation method and parallax calculation device
US9338434B2 (en) 2009-09-07 2016-05-10 Panasonic Intellectual Property Management Co., Ltd. Parallax calculation method and parallax calculation device
EP2476996A4 (de) * 2009-09-07 2013-02-20 Panasonic Corp Parallaxen-berechnungsverfahren und parallaxen-berechnungsvorrichtung
EP2476996A1 (de) * 2009-09-07 2012-07-18 Panasonic Corporation Parallaxen-berechnungsverfahren und parallaxen-berechnungsvorrichtung
DE102015216160A1 (de) 2015-08-25 2017-03-02 Robert Bosch Gmbh Verfahren zum Erfassen einer Fahrzeugumgebung eines Fahrzeuges
DE102021204411A1 (de) 2021-05-03 2022-11-03 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zum Bestimmen einer Disparität und Fahrzeug

Also Published As

Publication number Publication date
IT1294262B1 (it) 1999-03-24
GB9718813D0 (en) 1997-11-12
GB2317066B (en) 1998-11-04
GB2317066A (en) 1998-03-11
FR2752969A1 (fr) 1998-03-06
JP3049603B2 (ja) 2000-06-05
JPH10124683A (ja) 1998-05-15
FR2752969B1 (fr) 2001-09-28
US5937079A (en) 1999-08-10
ITRM970530A1 (it) 1998-03-06

Similar Documents

Publication Publication Date Title
DE19636028C1 (de) Verfahren zur Stereobild-Objektdetektion
DE60308782T2 (de) Vorrichtung und Methode zur Hinderniserkennung
EP1589484B1 (de) Verfahren zur Erkennung und/oder Verfolgung von Objekten
DE102014209137B4 (de) Verfahren und Vorrichtung zur Kalibrierung eines Kamerasystems eines Kraftfahrzeugs
DE19934925B4 (de) Fahrzeugbereich-Erkennungsvorrichtung und Fahrzeugbereich-Bestimmungsverfahren
DE102006057552B4 (de) System und Verfahren zur Messung des Abstands eines vorausfahrenden Fahrzeugs
DE4332612C2 (de) Außenansichts-Überwachungsverfahren für Kraftfahrzeuge
DE102004012811B4 (de) Vorrichtung zum Überwachen der Umgebung eines Fahrzeugs
EP2757346B1 (de) Verfahren zum Messen eines Höhenprofils eines auf einer Straße passierenden Fahrzeugs
EP2005361A1 (de) Multisensorieller hypothesen-basierter objektdetektor und objektverfolger
DE19926559A1 (de) Verfahren und Vorrichtung zur Detektion von Objekten im Umfeld eines Straßenfahrzeugs bis in große Entfernung
DE102007013664A1 (de) Multisensorieller Hypothesen-basierter Objektdetektor und Objektverfolger
DE102012000459A1 (de) Verfahren zur Objektdetektion
DE102016218852A1 (de) Detektion von Objekten aus Bildern einer Kamera
DE102018123393A1 (de) Erkennung von Parkflächen
DE10312249A1 (de) Verfahren zur gemeinsamen Verarbeitung von tiefenaufgelösten Bildern und Videobildern
DE10141055A1 (de) Verfahren zur Bestimmung von Bewegungsinformationen
DE10148062A1 (de) Verfahren zur Verarbeitung eines tiefenaufgelösten Bildes
EP3520025A1 (de) Detektion und validierung von objekten aus sequentiellen bildern einer kamera mittels homographien
DE102008050456B4 (de) Verfahren und Vorrichtung zur Fahrspurerkennung
DE102019209473A1 (de) Verfahren und Vorrichtung zur schnellen Erfassung von sich wiederholenden Strukturen in dem Bild einer Straßenszene
DE102018121158A1 (de) Verfahren zum Erfassen von Bodenabtastpunkten und Fahrerunterstützungssystem, das dafür konfiguriert ist, ein derartiges Verfahren auszuführen
DE102008059551A1 (de) Verfahren zum Ermitteln der Lageänderung eines Kamerasystems und Vorrichtung zum Erfassen und Verarbeiten von Bildern
EP0763800A2 (de) Verfahren zur Erkennung von Objekten in zeitveränderlichen Bildern
DE10136649B4 (de) Verfahren und Vorrichtung zur Objekterkennung von sich bewegenden Kraftfahrzeugen

Legal Events

Date Code Title Description
8100 Publication of patent without earlier publication of application
D1 Grant (no unexamined application published) patent law 81
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: DAIMLERCHRYSLER AG, 70567 STUTTGART, DE

8339 Ceased/non-payment of the annual fee