DE10228638A1 - Fahrzeugzonen-Überwachungsvorrichtung - Google Patents

Fahrzeugzonen-Überwachungsvorrichtung

Info

Publication number
DE10228638A1
DE10228638A1 DE10228638A DE10228638A DE10228638A1 DE 10228638 A1 DE10228638 A1 DE 10228638A1 DE 10228638 A DE10228638 A DE 10228638A DE 10228638 A DE10228638 A DE 10228638A DE 10228638 A1 DE10228638 A1 DE 10228638A1
Authority
DE
Germany
Prior art keywords
image
vehicle
straight line
pattern
line segment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE10228638A
Other languages
English (en)
Other versions
DE10228638B4 (de
Inventor
Nobuharu Nagaoka
Takayuki Tsuji
Masahito Watanabe
Hiroshi Hattori
Kouzou Simamura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of DE10228638A1 publication Critical patent/DE10228638A1/de
Application granted granted Critical
Publication of DE10228638B4 publication Critical patent/DE10228638B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

Die Erfindung betrifft eine Fahrzeugzonen-Überwachungsvorrichtung, die künstliche Strukturen auf der Basis von Formidentifikationen unter Verwendung eines Referenzbilds aus einem Infrarotbild eliminiert, das von einer an dem Fahrzeug vorgesehenen Fotografiervorrichtung aufgenommen worden ist, und verbleibende Objekte als sich bewegende physische Körper, wie etwa Fußgänger und Tiere erfasst. Die Fahrzeugzonen-Überwachungsvorrichtung, die die in der Nähe des Fahrzeugs befindlichen physischen Körper aus Infrarotbildern erfasst, die von an dem Fahrzeug vorgesehenen Infrarotkameras (2R uns 2L) aufgenommen worden sind, umfasst eine Objektextrahiervorrichtung, die Infrarotstrahlung abgebende Objektbilder aus dem Infrarotbild extrahiert, sowie eine künstliche Struktur-Identifiziervorrichtung, die identifiziert, ob ein Objekt eine künstliche Struktur ist oder nicht, indem sie das von der Objektbild-Extrahiervorrichtung extrahierte Objektbild mit einem Referenzbild vergleicht, das ein geradliniges Muster oder ein rechtwinkliges Muster aufweist.

Description

  • Die Erfindung betrifft eine Fahrzeugzonen- oder Fahrzeugumgebungs- Überwachungsvorrichtung, die physische Körper, wie etwa andere Fahrzeuge, Fußgänger und Tiere, die sich in der Nähe des Fahrzeugs befinden, erfasst.
  • Die ungeprüfte japanische Patentanmeldung, Erstveröffentlichung Nr. 2001-6069 ist ein bekanntes Beispiel einer Zonenüberwachungsvorrichtung, die in der Nähe eines Fahrzeugs befindliche physische Körper erfasst, die sich bewegen, wie etwa Fußgänger und Tiere. Diese Zonenüberwachungsvorrichtung berechnet den Abstand zwischen den in der Nähe des Fahrzeugs befindlichen Objekten und dem Fahrzeug aus Bildern, die von zwei Infrarotkameras erhalten werden, und berechnet dann den Bewegungsvektor der Objekte aus den Positionsdaten der Objekte, die in zeitlicher Aufeinanderfolge gefunden werden. Zusätzlich erfasst die Vorrichtung die Objekte, die hohe Kollisionsmöglichkeit mit dem Fahrzeug haben, aus der Beziehung zwischen der Fortbewegungsrichtung des Fahrzeugs und dem Bewegungsvektor des Objekts.
  • Zusätzlich offenbart die japanische ungeprüfte Patentanmeldung Erstveröffentlichung Nr. 2001-108758 eine Technik, in der Objekte erfasst werden, indem solche Zonen eliminiert werden, die Temperaturen zeigen, die sich klar von der physischen Körpertemperatur eines Fußgängers unterscheiden, aus einem Infrarotbild, das mit einer Bildaufnahme aufgenommen wird, die an dem Fahrzeug vorgesehen ist.
  • Für Objekte, die aus Abschnitten extrahiert sind, die die Zone eliminieren, die eine von der Körpertemperatur eines Fußgängers klar unterschiedliche Temperatur zeigen, bestimmt die Vorrichtung, ob das Objekt ein Fußgänger ist oder nicht, indem es das Aspektverhältnis des Objekts weiter identifiziert.
  • Obwohl jedoch in den oben beschriebenen herkömmlichen Zonenüberwachungsvorrichtungen Objekte, die Infrarotlicht emittieren, erfasst werden können, ist die Erfassung von Objekten neben Fußgängern und Tieren ein Problem. Diese Objekte umfassen solche, die von sich aus Wärme abstrahlen, wie etwa Warenautomaten, Telefonsäulen und Lichtmasten, die während des Tages durch Sonneneinstrahlung erhitzt worden sind und die im Hinblick auf die Fahrzeugfahrt nur wenig wichtig sind.
  • Insbesondere besteht das Problem, dass die physischen Körper, die angenähert die gleiche Temperatur wie der physische Körpertemperatur eines Fußgängers haben oder die eine längliche Form haben, die etwa die gleiche ist wie die eines Fußgängers, von Fußgängern überhaupt unterschieden werden können.
  • Wenn ferner Fußgänger und Tiere mit unbestimmten Formen aus den Objekten extrahiert werden, indem ihre Form identifiziert wird, besteht das Problem, dass die Verbesserung der Erfassungsgenauigkeit schwierig ist.
  • Im Hinblick auf die obigen Probleme ist es Aufgabe der Erfindung, eine Fahrzeugzonen-Überwachungsvorrichtung anzugeben, die künstliche Strukturen durch Formidentifikation unter Verwendung von Referenzbildern aus dem Infrarotbild, das von einer an dem Fahrzeug vorgesehenen Fotografiervorrichtung aufgenommen ist, eliminiert und die restlichen Objekte als physische Körper erfasst, die sich bewegen, wie etwa Fußgänger und Tiere.
  • Zur Lösung zumindest eines der oben beschriebenen Probleme wird nach einem ersten Aspekt der Erfindung eine Fahrzeugzonen- Überwachungsvorrichtung vorgeschlagen, die einen in der Nähe des Fahrzeugs befindlichen physischen Körper aus von einer Fotografiervorrichtung bzw. Bildaufnahmevorrichtung aufgenommenen Infrarotbildern erfasst, umfassend: eine Objektextrahiervorrichtung, die ein Infrarotstrahlung abgebendes Objekt aus den Infrarotbildern erfasst; und eine künstliche-Struktur-Identifiziervorrichtung, die ein Bild eines Objekts, das durch die Objekt-Extrahiervorrichtung extrahiert ist, mit einem Referenzbild eines Elements vergleicht, das eine künstliche Struktur definiert, und identifiziert, ob das Objekt eine künstliche Struktur ist oder nicht.
  • Mittels der oben beschriebenen Struktur wird, für eine Mehrzahl von Wärme emittierenden physischen Körpern, die in den von der Fotografiervorrichtung aufgenommenen Infrarotbildern vorhanden sind, ein Bild dieses physischen Körpers mit einem Referenzbild verglichen, und wird unterschieden, ob der physische Körper eine künstliche Struktur mit einer vorbestimmten Form oder ein anderer physischer Körper als dieser ist, z. B. ein sich bewegender, wie etwa ein Fußgänger oder ein Tier.
  • In der Fahrzeugzonen-Überwachungsvorrichtung des ersten Aspekts ist ein zweiter Aspekt bevorzugt gekennzeichnet durch eine künstliche- Struktur-Eleminiervorrichtung, die Objekte, die von der künstliche- Struktur-Identifiziervorrichtung als künstliche Strukturen identifiziert worden sind, von den Objekten, die von der Objektextrahiervorrichtung extrahiert worden sind, eliminiert.
  • Mittels der oben beschriebenen Struktur werden, um andere Objekte als künstliche Strukturen, die Aufmerksamkeit erhalten sollten, zu extrahieren, künstliche Strukturen von aus den Infrarotbildern extrahierten Objekte eliminiert, und die verbleibenden Objekte können als sich bewegende physische Körper erkannt werden.
  • In der Fahrzeugzonen-Überwachungsvorrichtung des ersten und zweiten Aspekts ist ein dritter Aspekt der Erfindung bevorzugt dadurch gekennzeichnet, dass die Referenzbilder ein Bild enthalten, das ein Liniensegment repräsentiert; und die künstliche-Struktur- Identifiziervorrichtung Objekte, die ein Liniensegment enthalten, als künstliche Struktur identifiziert.
  • Mittels der oben beschriebenen Struktur können, durch Identifikation, ob ein geradliniges Segment vorhanden ist oder nicht, das künstliche Strukturen in Objekten leicht charakterisiert, Objekte mit geradlinigen Segmenten als künstliche Strukturen eliminiert werden und können andere Objekte als künstliche Objekte erkannt werden.
  • In der Fahrzeugzonen-Überwachungsvorrichtung der ersten bis dritten Aspekte ist ein vierter Aspekt der Erfindung bevorzugt dadurch gekennzeichnet, dass die künstliche-Struktur-Identifiziervorrichtung eine Referenzbilddimensions-Veränderungsvorrichtung aufweist, die die Gräße des Referenzbilds so verändert, dass sie zum Abstand zwischen dem Fahrzeug und dem Objekt konform ist.
  • Mittels der oben beschriebenen Struktur kann die Präzision der Erfassung, ob ein Objekt eine künstliche Struktur ist oder nicht, verbessert werden, indem die Größendifferenzen zwischen dem Objektbild und dem Referenzbild komplementiert bzw. komplementär gemacht werden, die aufgrund des Abstands zwischen dem Objekt und dem Fahrzeug auftreten, und auf beide mittels einer geeigneten Größe bzw. Maßstab Bezug genommen wird.
  • Wie oben erläutert, wird das Ergebnis der Überwachung der Umgebung in der Nähe des Fahrzeugs behandelt, indem es in bewegende physische Körper, wie etwa Fußgänger und Tiere, und künstliche Straßenstrukturen klassifiziert wird. Somit kann z. B. für den Fall, dass die Umgebung in der Nähe des Fahrzeugs dem Fahrer des Fahrzeugs angezeigt wird, das Verfahren zum Anzeigen dieser Objekte differenziert unterschiedlich sein, wobei dem Fahrer solche physischen Körper geeignet mitgeteilt werden, denen mehr Aufmerksamkeit geschenkt werden sollte.
  • Falls z. B. die Information über diese physischen Körper bei der Fahrzeugsteuerung verwendet wird, kann diese, in Abhängigkeit von der Klassifizierung und Wichtigkeit der physischen Körper, als Bestimmungsmaterial verwendet werden, um die Reihenfolge oder den Befehl zur Fahrzeugsteuerung zu verändern.
  • Wie oben beschrieben, wird nach dem ersten Aspekt der Erfindung das Bild einer Mehrzahl von Objekten, die Wärme abstrahlen und in einem durch eine Fotografiervorrichtung aufgenommenen Infrarotbild vorhanden sind, mit einem Referenzbild verglichen. Es lässt sich unterscheiden, ob dieser physische Körper eine künstliche Struktur mit einer bestimmten Form oder ein sich bewegender physischer Körper wie etwa ein Fußgänger oder ein Tier ist.
  • Durch Klassifizieren von aus dem Infrarotbild extrahierten Objekten in künstliche Strukturen und natürliche Strukturen erhält man den Effekt, dass physische Körper, die wichtig sind und denen in Bezug auf die Fahrt des Fahrzeugs mehr Aufmerksamkeit geschenkt werden sollte, zuverlässig erkannt werden können.
  • Zusätzlich kann im Vergleich zu den Fall, in dem Fußgänger und Tiere mit undefinierten Formen aus einem Objekt durch die Formidentifizierung des Objekts selbst extrahiert werden kann, weil physische Körper mit bestimmten Formen erfasst werden, der Effekt erhalten werden, dass das Erkennen des Objekts mit weniger Berechnung und höherer Erfassungspräzision erfolgt.
  • Nach dem zweiten Aspekt der Erfindung werden, um andere Objekte als künstliche Strukturen zu extrahieren, denen Aufmerksamkeit geschenkt werden sollte, die künstlichen Strukturen aus den von dem Infrarotbild extrahierten Objekten eliminiert, und die verbleibenden Objekte werden als bewegende physische Körper erkannt.
  • In dem man künstliche Strukturen ausschließt und nur solche Objekte behandelt, die nicht künstliche Strukturen sind, die aus dem Infrarotbild extrahiert worden sind, erhält man daher den Effekt, dass das Erkennen wichtiger physischer Körper verbessert werden kann.
  • Nach dem dritten Aspekt der Erfindung können, durch Identifikation, ob ein geradliniges Segment vorhanden ist oder nicht, das künstliche Strukturen in dem Bild einfach charakterisiert, Objekte mit geradlinigen Segmenten als künstliche Struktur ausgeschlossen werden, und Objekte die nicht künstliche Strukturen sind, können erkannt werden.
  • Daher können Straßenstrukturen aus dem Infrarotbild vergleichsweise leicht entfernt werden, und man kann den Effekt erhalten, dass die Erfassungspräzision von Fußgängern und Tieren, die eine undefinierte Form haben, verbessert werden kann.
  • Nach dem vierten Aspekt der Erfindung erhält man durch Kompensation der Größendifferenzen zwischen dem Objektbild und dem Referenzbild, das durch den Abstand zwischen dem Objekt und dem Fahrzeug erzeugt wird, und durch Vergleichen beider mit einer geeigneten Größe, den Effekt erhalten, dass die Erfassungspräzision, ob das Objekt eine künstliche Struktur ist oder nicht, verbessert werden kann.
  • Daher erhält man die Effekte, dass Erfassungsfehler aufgrund des Abstands zwischen dem Fahrzeug und dem Objekt vermieden werden können, und die Umgebungsüberwachung in der Nähe des Fahrzeugs kann über einen weiten Bereich hinaus ausgeführt werden.
  • Durch die Unterscheidung physischer Körper, die sich bewegen, wie etwa Fußgänger und Tiere, von künstlichen Straßenstrukturen, kann die Information über diese physischen Körper bei der Fahrzeugsteuerung benutzt werden, und falls diese Information als Information oder Warnungen dem Fahrer des Fahrzeugs angezeigt wird, kann dies als Material benutzt werden, um das Anzeigeverfahren der Information und der Warnungen in Abhängigkeit vom Inhalt und der Wichtigkeit des Objekts oder das Steuerverfahren des Fahrzeugs zu verändern.
  • Die Erfindung wird nun anhand von Ausführungsbeispielen unter Hinweis auf die beigefügten Zeichnungen beschrieben.
  • Fig. 1 zeigt im Blockdiagramm die Struktur der Fahrzeugzonen- Überwachungsvorrichtung nach der Ausführung;
  • Fig. 2 zeigt die Installationspositionen der Infrarotkameras, Sensoren, der Anzeige u. dgl. in dem Fahrzeug;
  • Fig. 3 zeigt im Flussdiagramm die Prozesssequenz für alle Operationen in der Bildprozessoreinheit der Fahrzeugzonen- Überwachungsvorrichtung dieser Ausführung;
  • Fig. 4A und Fig. 4B zeigen die Grauskalierungen, die durch die Infrarotkamera erhalten werden, sowie das binäre Bild davon;
  • Fig. 5A, 5B und 5C zeigen den Umwandlungsprozess und die Markierung bzw. Kennzeichnung für die Lauflängendaten;
  • Fig. 6A und 6B zeigen die zeitliche Verfolgung des Objekts;
  • Fig. 7 zeigt die Drehwinkelkompensation des Objektbilds,
  • Fig. 8A und 8B zeigen das Suchbild im rechten Bild und die gesetzte Suchzone im linken Bild;
  • Fig. 9 zeigt den Korrelationsberechnungsprozess, der die Suchzone als Objekt verwendet;
  • Fig. 10A und 10B zeigen das Berechnungsverfahren zur Objektparallaxe in der Abstandsberechnung des Objekts;
  • Fig. 11 zeigt den Versatz oder Offset der Objektposition in dem durch Drehen des Fahrzeugs erzeugten Bild;
  • Fig. 12 zeigt im Flussdiagramm die Details des Warnbestimmungsprozesses in der Bildprozessoreinheit der Fahrzeugzonen-Überwachungsvorrichtung dieser Ausführung;
  • Fig. 13 zeigt die Zonenaufteilung in der Vorwärtsrichtung des Fahrzeugs;
  • Fig. 14 zeigt den Fall, in dem leicht eine Kollision auftreten kann;
  • Fig. 15 zeigt im Flussdiagramm die Details des Erfassungsprozesses eines vertikalen linearen Teils in der Bildprozessoreinheit der Fahrzeugzonen-Überwachungsvorrichtung der Ausführung;
  • Fig. 16 zeigt im Flussdiagramm die Details des Erfassungsprozesses des horizontalen linearen Teils in der Bildprozessoreinheit der Fahrzeugzonen-Überwachungsvorrichtung dieser Ausführung;
  • Fig. 17 zeigt im Flussdiagramm die Details des Erfassungsprozesses des viereckigen Teils in der Bildprozessoreinheit der Fahrzeugzonen-Überwachungsvorrichtung dieser Ausführung;
  • Fig. 18A und 18B zeigen die Details des extrahierten Musters des vertikal linearen Teils bei der Suche des Bilds;
  • Fig. 19 zeigt die Suche des Referenzmusters für die Suche des vertikalen linearen Teils;
  • Fig. 20A und 20B zeigen die Details des extrahierten Musters des vertikalen linearen Teils bei der Suche des Bilds;
  • Fig. 21A und 21B zeigen die Details des extrahierten Musters des viereckigen Teils bei der Suche des Bilds;
  • Fig. 22 zeigt ein Beispiel einer von der Infrarotkamera aufgenommenen Straßenstruktur;
  • Fig. 23 zeigt im Flussdiagramm die Details des Erfassungsprozesses identischer Formen in der Bildprozessoreinheit der Fahrzeugzonen-Überwachungsvorrichtung dieser Ausführung; und
  • Fig. 24A und 24B zeigen die Suche des Objektmusters zum Erfassen identischer Formen.
  • Fig. 1 zeigt im Blockdiagramm die Struktur der Fahrzeugzonen- Überwachungsvorrichtung des Ausführungsbeispiels.
  • In Fig. 1 ist mit der Bezugszahl 1 eine Bildprozessoreinheit bezeichnet, die eine CPU (zentrale Prozessoreinheit) aufweist, die die Fahrzeugzonen- Überwachungsvorrichtung dieser Ausführung steuert, und mit ihr verbunden sind zwei Infrarotkameras 2R und 2L, die Infrarotlicht erfassen können, ein Gierratensensor 3, der Schwingungen bzw. Gierbewegungen dieses Fahrzeugkörpers erfasst, ein Geschwindigkeitssensor 4, der die Fahrgeschwindigkeit (Fahrzeuggeschwindigkeit) dieses Fahrzeugs erfasst, sowie ein Bremssensor 5 zum Erfassen der Bremsbetätigung. Hierdurch erfasst die Bildprozessoreinheit 1 ein sich bewegendes Objekt, wie etwa einen Fußgänger oder ein Tier vor dem Fahrzeug aus Signalen, die das Infrarotbild in der Nähe des Fahrzeugs repräsentieren, sowie den Fahrzustand des Fahrzeugs, und bestimmt, wenn die Möglichkeit einer Kollision hoch ist.
  • Mit der Bildprozessoreinheit 1 verbunden sind ein Lautsprecher 6, der eine stimmliche Warnung ausgibt, und z. B. eine Messanzeige bzw. Tachoanzeige, die ein Messgerät, das den Fahrzustand des Fahrzeugs numerisch repräsentiert, eine NAVI-Anzeige (Navigationsanzeige), die an der Konsole des Fahrzeugs angeordnet ist, oder ein HUD (Head Up Display), das Informationen an der Frontscheibe an einer Position anzeigt, die sich nicht mit der Voraussicht des Fahrers stört, integriert, um den Fahrer des Fahrzeugs über Objekte in Kenntnis zu setzen, mit denen die Kollisionsgefahr hoch ist.
  • Zusätzlich umfasst die Bildprozessoreinheit 1 eine A/D- Umwandlungsschaltung, die ein analoges Eingangssignal in ein digitales Signal umwandelt, einen Bildspeicher, der ein digitalisiertes Bildsignal speichert, eine CPU (zentrale Prozessoreinheit), die jede Art von Operationsprozess ausführt, ein RAM (Speicher mit wahlfreiem Zugriff), das zum Speichern von Daten dient, die die CPU gegenwärtig verarbeitet, ein ROM (Nur-Lesespeicher), das von der CPU ausgeführte Programme, Tabellen, Kennfelder u. dgl. speichert, ein Treibersignal für den Lautsprecher 6 sowie eine Ausgabeschaltung, die Anzeigesignale u. dgl. z. B. an das HUD 7a ausgibt, und ist so strukturiert, dass jedes der Ausgangssignale der Infrarotkameras 2R und 2L, des Gierratensensors 3, des Geschwindigkeitssensors 4 und des Bremssensors 5 in digitale Signale umgewandelt und in die CPU eingegeben werden.
  • Zusätzlich sind, wie in Fig. 2 gezeigt, an der Vorderseite des Fahrzeugs 10 die Infrarotkameras 2R und 2L an im Wesentlichen symmetrischen Positionen in Bezug auf die Quermittelrichtung des Fahrzeugs 10 angeordnet, und die optischen Achsen der zwei Infrarotkameras 2R und 2L sind zueinander parallel. Zusätzlich ist die Höhe beider Kameras über der Straßenoberfläche auf gleiche Werte festgelegt. Darüber hinaus haben die Infrarotkameras 2R und 2L die Eigenschaft, dass der Ausgangssignalpegel ansteigt (die Helligkeit zunimmt), wenn die Temperatur des Objektes ansteigt.
  • Zusätzlich ist das HUD 7a so vorgesehen, dass das Anzeigebild an einer Position der Frontscheibe des Fahrzeugs 10 angezeigt wird, die den nach vorne gerichteten Sichthorizont des Fahrers nicht blockiert.
  • Nachfolgend wird der Betrieb dieser Ausführung anhand der Figuren erläutert.
  • Fig. 3 ist ein Flussdiagramm, dass die Prozesssequenz in der Bildprozessoreinheit 1 der Fahrzeugzonen-Überwachungsvorrichtung dieser Ausführung zeigt.
  • Zuerst erhält die Bildprozessoreinheit 1 ein Infrarotbild, das ein Ausgangssignal der Infrarotkameras 2R und 2L ist (Schritt S1), führt daran eine A/D-Umwandlung aus (Schritt S2) und speichert das Grauskalenbild in dem Bildspeicher (Schritt S3). Ferner wird das rechte Bild von der Infrarotkamera R2 erhalten, und dann wird das linke Bild von der Infrarotkamera 2L erhalten. Zusätzlich wird in dem rechten Bild und dem linken Bild die horizontale Position auf dem Anzeigeschirm desselben Objekts mit einem Versatz angezeigt, und somit kann durch diesen Versatz (Parallaxe) der Abstand zu diesem Objekt berechnet werden.
  • Dann dient das von der Infrarotkamera R2 erhaltene rechte Bild als das Referenzbild. Es erfolgt eine binäre Verarbeitung dieses Signalbilds, d. h. der Prozess, in dem Zonen, die heller sind als ein Helligkeitsschwellenwert ITH, mit "1" bezeichnet werden (weiß), und dunkle Zonen mit "0" (schwarz) bezeichnet werden (Schritt S4).
  • Fig. 4A zeigt das Grauskalenbild, das von der Infrarotkamera 2R erhalten ist, und, durch einen binären Prozess erhält man das Bild von Fig. 4B. Ferner werden in Fig. 4B jene physischen Körper, die mit den Rahmen P1 bis P4 umgeben sind, als die Objekte festgelegt, die auf dem Anzeigeschirm in weiß dargestellt werden (nachfolgend als "sehr helle Zone" bezeichnet).
  • Wenn die Bilddaten, die dieser binären Verarbeitung unterzogen sind, von der Infrarotkamera erhalten worden sind, erfolgt ein Prozess, in der die binären Bilddaten in Lauflängendaten umgewandelt werden (Schritt S5).
  • Fig. 5A erläutert dies in einer Zeichnung, und in dieser Figur ist jene Zone, die durch binäre Umwandlung weiß geworden ist, als die Linien L1 bis L8 gezeigt. Die Linien L1 bis L8 haben alle eine Breite von 1 Pixel in der y-Richtung und sind, obwohl sie tatsächlich ohne Zwischenraum in der y-Richtung angeordnet sind, zum Zwecke der Erläuterung getrennt worden. Zusätzlich haben die Linien L1 bis L8 jeweils eine Länge von 2 Pixeln, 2 Pixeln, 3 Pixeln, 8 Pixeln, 7 Pixeln, 8 Pixeln, 8 Pixeln bzw. 8 Pixeln. Die Lauflängendaten sind durch die Koordinaten des Anfangspunkts jeder der Linien (dem Punkt am linken Ende jeder Linie) und der Länge (Anzahl von Pixeln) vom Anfangspunkt zum Endpunkt (dem Punkt am rechten Ende jeder Linie) gezeigt. Zum Beispiel umfasst die Linie L3 die 3 Pixel (x3, y5), (x4, y5) und (x5, y5) und somit wird (x3, y5, 3) die Lauflängendaten.
  • Dann wird aus den in Lauflängendaten umgewandelten Bilddaten, durch Markierung des Objekts (Schritt S6) der Prozess ausgeführt, mit dem das Objekt extrahiert wird (Schritt S7). Das heißt, wie in Fig. 5B gezeigt, dass von den Linien L1 bis L8, die in Lauflängendaten umgewandelt worden sind, die Linien L1 bis L3, die die in der y-Richtung überlappenden Teile sind, als ein Objekt 1 behandelt werden, die Linien L4 bis L8 als ein Objekt 2 behandelt werden und die Objektmarkierungen 1 und 2 zu den Lauflängendaten addiert werden. Durch diesen Prozess werden z. B. die in Fig. 4B gezeigten sehr hellen Zonen jeweils als Objekte 1 bis 4 erkannt.
  • Wenn die Extraktion der Objekte abgeschlossen ist, wie in Fig. 5C gezeigt, wird dann der Schwerpunkt G, die Oberflächenausdehnung S und das Aspektverhältnis ASPECT des mit den unterbrochenen Linien umschriebenen Vierecks berechnet (Schritt S8).
  • Hier wird die Oberflächenausdehnung S berechnet, indem die Längen der Lauflängendaten für das gleiche Objekt addiert werden. Zusätzlich wird die Koordinate des Schwerpunkts G als die x-Koordinate jener Linie berechnet, die die Oberflächenausdehnung S in der x-Richtung zweiteilt, und die y-Koordinate jener Linie, die sie in der y-Richtung zweiteilt. Ferner wird das Aspektverhältnis ASPECT berechnet als das Dy/Dx- Verhältnis von Dy und Dx, wie in Fig. 5C gezeigt. Ferner kann die Position des Schwerpunkts G durch die Position des Schwerpunkts des umschriebenen Vierecks ersetzt werden.
  • Wenn der Schwerpunkt, die Oberflächenausdehnung und das Aspektverhältnis des Umschreibungsvierecks berechnet worden sind, erfolgt dann die Erkennung der zeitlichen Verfolgung bzw. Zeitspur, d. h. die Abtastung jedes Zyklus desselben Objekts (Schritt S9). In einer zeitlichen Verfolgung dient k als die Zeit, während der die Zeit t als analoger Betrag an einem Abtastzyklus diskret gemacht wird, und wie in Fig. 6A werden, falls die Objekte A und B zur Zeit k extrahiert werden, die Objekte C und D, die zur Zeit (k + 1) extrahiert werden, als mit den Objekten A und B identisch bestimmt. Insbesondere wenn die folgenden Identitätsbestimmungsbedingungen 1 bis 3 erfüllt sind, werden die Objekte A und B als identisch mit den Objekten C und D bestimmt und die Markierungen der Objekte C und D werden jeweils in die Objekte A und B geändert.
    • 1. Wenn die Positionskoordinaten des Schwerpunkts im Bild des Objekts i ( = A, B) zur Zeit k jeweils auf (xi(k), yi(k)) gesetzt werden und die Positionskoordinaten des Schwerpunkts des Bilds des Objekts j (= C, D) zur Zeit (k + 1) jeweils auf (xj(k + 1), yj(k + 1)) gesetzt werden, dann gilt |xj(k + 1) - xi(k)| < Δx|yj(k + 1) - yi(k)| < Δy, wobei Δx und Δy die zulässigen Werte des Bewegungsbetrags in dem Bild jeweils in der x-Richtung und der y-Richtung bezeichnen.
    • 2. Wenn die Oberflächenausdehnung des Objekts i (= A, B) in dem Bild zur Zeit k gleich Si(k) ist und die Oberflächenausdehnung des Objekts j (= C, D) des Bilds zur Zeit (k + 1) gleich Sj(k + 1) ist, dann gilt Sj(k + 1)/Si(k) < 1 ± ΔS, wobei ΔS die zulässigen Werte der Flächenänderung bezeichnet.
    • 3. Wenn das Aspektverhältnis des umschriebenen Vierecks des Objekts i (= A, B) zur Zeit k gleich ASPECT i(k) ist und das Aspektverhältnis des umschriebenen Vierecks des Objekts j (= C, D) gleich ASPECT j(k + 1) ist, dann gilt ASPECT j(k + 1)/ASPECT i(k) < 1 ± Δ ASPECT, wobei Δ ASPECT die zulässigen Werte des Aspektverhältnisses bezeichnet.
  • Wenn man z. B. Fig. 6A und 6B vergleicht, erfüllen, obwohl die Größe jedes der Objekte in dem Bild größer wird, das Objekt A und das Objekt C die oben beschriebenen Bedingungen für die Identitätsindifikation, und erfüllen das Objekt B und das Objekt D die oben beschriebenen Bedingungen für die Identitätsidentifikation, und somit werden die Objekte C und D jeweils als die Objekte A bzw. B erkannt. Auf diese Weise werden die Positionskoordinaten (des Schwerpunkts) jedes der erkannten Objekte in dem Speicher als zeitserielle Positionsdaten gespeichert, die beim späteren Berechnungsprozess verwendet werden.
  • Ferner wird der oben erläuterte Prozess in den Schritten S4 bis S9 an einem binären Referenzbild ausgeführt (in dieser Ausführung dem rechten Bild).
  • Dann wird die Geschwindigkeit VCAR, die von dem Geschwindigkeitssensor 4 erfasst ist und die Gierrate YR, die von dem Gierratensensor 3 erfasst ist, gelesen, und, wie in Fig. 7 gezeigt, wird der Kurvenfahr- bzw. Drehwinkel θr des Fahrzeugs 10 durch Integrieren der Gierrate Yr in Bezug auf die Zeit berechnet (Schritt S10).
  • Im Gegensatz hierzu wird der Prozess der Schritte S9 und S10 parallel ausgeführt, und in den Schritten S11 bis S13 wird der Prozess ausgeführt, der den Abstand z zwischen dem Objekt und dem Fahrzeug 10 berechnet. Weil diese Berechnung länger dauert als die Schritte S9 und S10, werden sie in einem längeren Zyklus als Schritt S9 und S10 ausgeführt (z. B. mit einem Zyklus, der etwa das dreifache des Ausführungszyklus der Schritte S1 bis S10 beträgt).
  • Zuerst wird, durch Auswahl von einem der Objekte, das durch das binäre Bild des Referenzobjekts (des rechten Bilds) markiert bzw. verfolgt wird, wie in Fig. 8A gezeigt, in dem Suchbild R1 (hier wird die Gesamtfläche, die von dem Umschreibungsviereck umgeben ist, zum gesuchten Bild gemacht) von dem rechten Bild extrahiert (Schritt S11).
  • Dann wird die Fahrzeugsuchzone, in der das Bild dem gesuchten Bild (nachfolgend als das "korrespondierende Bild" bezeichnet) entspricht, von dem linken Bild gesetzt, und das korrespondierende Bild wird durch Ausführung der Korrelationsbereichnung extrahiert (Schritt S12). Insbesondere wird, wie in Fig. 8B gezeigt, in Abhängigkeit von jeder der Spitzenkoordinaten des gesuchten Bilds R1, die Suchzone R2 in dem linken Bild gesetzt, und der Helligkeitsdifferenz-Gesamtwert C (a, b), der den Korrelationsgrad mit dem gesuchten Bild R1 in der Suchzone R2 angibt, wird durch die nachfolgend gezeigte Gleichung 1 berechnet, und die Zone, in der dieser Gesamtwert C (a, b), minimal wird, wird als das korrespondierende Bild extrahiert. Anzumerken ist, dass diese Korrelationsberechnung mittels des Grauskalenbilds und nicht des binären Bilds ausgeführt wird.
  • Wenn darüberhinaus vergangene Positionsdaten für den identischen physischen Körper vorhanden sind, wird eine Zone R2a (in Fig. 8B mit unterbrochener Linie gezeigt), die schmaler ist als die Suchzone R2, so gesetzt, dass sie als die Suchzone dient.


  • Hier ist IR (m, n) der Helligkeitswert der Position der Koordinate (m, n) in der in Fig. 9 gezeigten Suchzone R1, und IL (a + m - M, b + n - N) ist der Helligkeitswert der Position der Koordinate (m, n) in der Suchzone R1 und der lokalen Zone R3 mit derselben Form, wobei die Koordinaten (a, b) in der Suchzone die Basispunkte sind. Die Position des korrespondierenden Bilds wird definiert, indem die Position herausgefunden wird, an der der Gesamtwert C (a, b) der Helligkeitsdifferenz minimiert wird, indem die Koordinaten (a, b) an dem Basispunkt geändert werden.
  • Aufgrund des Prozesses in Schritt S12, wie in Fig. 10A und 10B gezeigt, werden, weil das Suchbild R1 und das diesem Objekt entsprechende korrespondierende Bild R4 extrahiert sind, dann der Abstand dR (Anzahl der Pixel) zwischen der Position des Schwerpunkts des Suchbilds R1 und der Bildmittellinie LCTR sowie der Abstand dL (Anzahl der Pixel) zwischen der Position des Schwerpunkts des korrespondierenden Bilds R4 und der Bildmittellinie LCTR gefunden, und durch Anwenden der folgenden Gleichung 2 wird der Abstand z zwischen dem Fahrzeug 10 und dem Objekt berechnet (Schritt S13).


  • Hier ist B die Basislinienlänge, d. h. der Abstand in der horizontalen Richtung zwischen der Mittelposition des fotografischen Elements der Infrarotkamera 2R und der Mittelposition des fotografischen Elements der Infrarotkamera 2L (die Trennung bzw. der Abstand der Lichtstrahlenachse beider Infrarotkameras); F ist die Brennweite der Linsen der Infrarotkameras 2R und 2L, p ist die Pixeltrennung bzw. der Pixelabstand in dem fotografischen Element der Infrarotkameras 2R und 2L, und Δd (= dR + dL) ist der Parallaxenbetrag.
  • Wenn die Berechnung des Drehwinkels θr in Schritt S10 und die Berechnung des Abstands zu dem Objekt in Schritt S13 abgeschlossen worden sind, werden die Koordinaten (x, y) in dem Bild und der in Gleichung 2 berechnete Abstand z auf die folgende Gleichung 3 angewendet, und in reale Raumkoordinaten (X, Y, Z) umgewandelt (Schritt S14).
  • Hier ist, wie in Fig. 2 gezeigt, der Ursprung O der realen Raumkoordinaten (X, Y, Z) die Position des Mittelpunkts der Installationsposition der Infrarotkameras 2R und 2L (die Position, an der sie an dem Fahrzeug 10 fixiert sind), wobei sie wie in der Figur gezeigt fixiert sind, und die Koordinaten in dem Bild werden durch x in der horizontalen Richtung und y in der vertikalen Richtung bestimmt, wobei die Mitte des Bilds als der Ursprung dient.


    wobei f = F/p.
  • Hier sind (xc, yc) die Koordinaten (x, y) des rechten Bilds, die in Koordinaten eines virtuellen Bilds umgewandelt worden sind, in dem der reale Raumursprung O und die Bildmitte in Übereinstimmung gebracht worden sind, auf der Basis der relativen Positionsbeziehung zwischen der Installationsposition der Infrarotkamera 2R und dem realen Raumursprung O. Zusätzlich ist f das Verhältnis der Brennweite F und dem Pixelintervall P.
  • Wenn dann die realen Raumkoordinaten gefunden worden sind, wird die Drehwinkelkompensation aufgeführt, um die Positionsverschiebung in dem Bild aufgrund der Drehung bzw. Kurvenfahrt des Fahrzeugs 10 zu kompensieren (Schritt S15).
  • Wenn, wie in Fig. 7 gezeigt, das Fahrzeug dreht (d. h. eine Kurve fährt), z. B. mit einem Drehwinkel θr in der linken Richtung während des Zeitintervalls von Zeit k zu (k + 1), tritt eine Verschiebung in der x-Richtung um einen Betrag äquivalent Δx, wie in Fig. 11 gezeigt, in dem von der Kamera erhaltenen Bild auf, und die Drehwinkelkompensation ist ein Prozess, um dies zu kompensieren. Insbesondere wird in der folgenden Gleichung 4 das reale Raumkoordinatensystem (X, Y, Z) angewendet, und werden die kompensierten Koordinaten (Xr, Yr, Zr) berechnet. Die berechneten realen Raumpositionsdaten (Xr, Yr, Zr) werden jedem Objekt zugeordnet und im Speicher gespeichert. Ferner werden in der folgenden Erläuterung die Koordinaten nach der Drehwinkelkompensation als (X, Y, Z) bezeichnet.


  • Wenn die Drehwinkelkompensation für die realen Koordinaten abgeschlossen ist, wird dann die angenähert gerade Linie LMV, die den relativen Bewegungsvektor zwischen dem Objekt und dem Fahrzeug 10 enspricht, aus N realen Raumpositionsdaten (für z. B. N = 10) nach der Drehwinkelkompensation herausgefunden, die während der Überwachungsperiode ΔT für ein- und dasselbe Objekt erhalten wurden, d. h. aus den Zeitseriendaten (Schritt S16).
  • Genauer gesagt, wenn der Richtungsvektor L, der die Richtung der angenähert geraden Linie LMV angibt, gleich (Ix, Iy, Iz) ist, wobei (|L| = 1), wird die durch die folgende Gleichung 5 repräsentierte gerade Linie gefunden.

    X = u.Ix + Xav
    Y = u.Iy + Yav
    Z = u.Iz + Zav.


  • Hier ist u ein Parameter, der einen beliebigen Wert einnimmt, und Xav, Yav und Zav sind jeweilige Mittelwerte der X-Koordinate, der Y- Koordinate und der Z-Koordinate der realen Raumpositionsdaten-Sequenz.
  • Wenn ferner der Parameter u eliminiert wird, wird Gleichung 5 zu Gleichung 5a:

    (X - Xav)/1x = (Y - Yav)/1y = (Z - Zav)/1z Gl. 5a
  • Für den Fall, dass z. B. P(0), P(1), P(2), . . ., P(n-2), P(N-1) die Zeitseriendaten nach der Drehwinkelkompensation bezeichnet, läuft die angenähert gerade Linie LMV durch die Mittelwertpositionskoordinate Pav = (Zav, Yav, Zav) der Zeitsequenzdaten, und sie wird als gerade Linie gefunden, die dadurch gekennzeichnet ist, dass der Mittelwert des Quadrats des Abstands von jedem der Datenpunkte minimal ist.
  • Hier bezeichnet der in Klammern gesetzte numerische Wert, der zu P addiert ist, das die Koordinate jedes Datenpunkts bezeichnet, an, dass, je größer der Wert, desto älter die Daten sind. Zum Beispiel bezeichnet P(0) die jüngste Positionskoordinate, P(1) bezeichnet die Positionskoordinate einer ein Zyklus zurückliegenden Abtastung und P(2) bezeichnet die Positionskoordinate einer zwei Zyklen zurückliegenden Abtastung.
  • Wenn dann die jüngste Positionskoordinate P(0) = (X(0), Y(0), Z(0)) ist, wird die Positionskoordinate P(N-1) = (X (N-1), Y(N-1), Z(N-1)) der (N-1) zurückliegenden Abtastung (vor der Zeit ΔT) auf eine Position auf der angenähert geraden Linie LMV kompensiert. Genauer gesagt, durch Anwenden der Z-Koordinaten (Z(0), Z(N-1)) auf die obige Gleichung 5a, d. h. der folgenden Gleichung 6, werden die Positionskoordinaten nach der Kompensation Pv(0) = (Xv(0), Yv(0), Zv(0)) und Pv(N-1) = (Xv(N-1), Yv(N-1), Zv(N-1)) gefunden.


  • Der relative Bewegungsvektor wird als Vektor von der in Gleichung 8 berechneten Positionskoordinate Pv(N-1) zu Pv(0) hin gefunden.
  • In dem den relativen Bewegungsvektor, herausfindet, indem man der angenähert geraden Linie, die sich dem relativen Bewegungsort des Objekts in Bezug auf das Fahrzeug 10 aus einer Mehrzahl (N) Daten innerhalb der Überwachungsperiode ΔT berechnet, kann der Einfluss des Positionserfassungsfehlers reduziert werden, und kann die Möglichkeit einer Kollision mit dem Objekt genauer vorhergesagt werden.
  • Wenn darüberhinaus in Schritt S16 der relative Bewegungsvektor gefunden worden ist, wird dann die Möglichkeit einer Kollision mit dem erfassten Objekt bestimmt, und es wird ein Warnbestimmungsprozess ausgeführt, der eine Warnung ausgibt, wenn die Möglichkeit hoch ist (Schritt S17).
  • Ferner kehrt, wenn der Warnbestimmungsprozess abgeschlossen worden ist, der Fluss zu Schritt S1 zurück, und der obige Prozess wird wiederholt.
  • Nun wird der Warnbestimmungsprozess in Schritt S17 des in Fig. 3 gezeigten Flussdiagramms anhand des in Fig. 12 gezeigten Flussdiagramms erläutert.
  • Wie in Fig. 14 gezeigt, wird hier als ein zu erläuterndes Beispiel ein Fall beschrieben, in dem sich ein Tier 20 mit einer Geschwindigkeit Vp in einer Richtung bewegt, die einen Winkel von angenähert 90° in Bezug auf die Fortbewegungsrichtung des Fahrzeugs 10 hat.
  • Zuerst berechnet die Bildprozessoreinheit 1 mittels der folgenden Gleichung 7 die relative Geschwindigkeit Vs in der Z-Richtung von dem Tier 20, das sich während der Zeit ΔT dem Abstand Zv(0) von dem Abstand Zv(N-1) annähert, und führt einen Kollisionsbestimmungsprozess aus (Schritt S21). Der Kollisionsbestimmungsprozess ist ein Prozess, der bestimmt, ob die Möglichkeit einer Kollision besteht, wenn die folgenden Gleichungen 8 und 9 erfüllt sind.
  • Für den Fall, dass in Schritt S21 bestimmt worden ist, dass eine Möglichkeit einer Kollision mit dem Tier 20 besteht (JA in Schritt S21), geht der Fluss zum nächsten Schritt S22 weiter.
  • Wenn darüber hinaus in Schritt S21 Gleichung 8 und/oder Gleichung 9 nicht erfüllt ist, wird bestimmt, dass keine Möglichkeit einer Kollision mit dem Tier 20 besteht (NEIN in Schritt S21), und der Warnbestimmungsprozess wird beendet.

    Vs = (Zv(N-a) - Zv(0))/ΔT Gl. 7

    Zv(0)/Vs ≤ T Gl. 8

    |Yv(0)| ≤ H Gl. 9
  • Hier ist Zv(0) der jüngste Abstandserfassungswert (v ist beigefügt, um anzuzeigen, dass dies Daten nach der Kompensation unter Verwendung der angenähert geraden Linie LMV sind, während die Z-Koordinate ein Wert ist, der mit jenem vor der Kompensation identisch ist), und Zv(N-1) ist der erfasste Abstandswert vor der Zeit ΔT. Ferner ist T eine zulässige Zeit und zeigt an, dass die Möglichkeit einer Kollision zur Zeit T vor der vorhergesagten Kollisionszeit bestimmt ist, und beträgt z. B. etwa 2 bis 5 Sekunden. Darüber hinaus ist H eine vorbestimmte Höhe, die einen Bereich der Y-Richtung definiert, die die Höhenrichtung ist, und ist z. B. auf etwa das Doppelte der Höhe des Fahrzeugs 10 gesetzt.
  • Wenn der Kollisionsbestimmungsprozess abgeschlossen ist, wird dann bestimmt, ob das Objekt innerhalb der Annäherungsbestimmungszone liegt oder nicht (Schritt S22). Zum Beispiel ist in Fig. 13 die Zone, die mit den Infrarotkameras 2R und 2L überwacht werden kann, mit der Fläche AR0 in der mit der dicken durchgehenden Linie bezeichneten Umschreibungsdreieck bezeichnet, und die Zonen AR1, AR2 und AR3 in der Zone AR0, die dem Fahrzeug 10 näher sind als Z1 = Vs × T, dienen als die Warnzonen.
  • Hier ist AR1 die Zone entsprechend dem Bereich, dem die Zulässigkeit β (z. B. 50 bis 100 cm) an beiden Seite der Breite α des Fahrzeugs 10 hinzu addiert worden ist, oder anders gesagt, die Zone mit einer Breite (α/2 + β) an beiden Seiten der Achse am Mittelteil in der Breitenrichtung des Fahrzeugs 10. Wenn das Objekt weiterhin so bleibt wie es ist, ist die Möglichkeit einer Kollision extrem hoch. Somit werden diese Zonen Annäherungsbestimmungszonen genannt. Die Zonen AR2 und AR3 sind Zonen (in Querrichtung außerhalb der Annäherungsbestimmungszone), in denen der Absolutwert der X-Koordinate größer ist als die Annäherungsbestimmungszone, wobei eine unten beschriebene Invasionskollisionsbestimmung um das Objekt innerhalb dieser Zone durchgeführt wird, und daher wird dies die invasive oder Invasionsbestimmungszone genannt. Ferner haben diese Zonen eine vorbestimmte Höhe in der Y-Richtung, wie in der obigen Gleichung 9 gezeigt.
  • Die Antwort im obigen Schritt S1 wird positiv (JA), falls ein Objekt entweder in der Annäherungsbestimmungszone AR1 oder den Invasionsbestimmungszonen AR2 und AR3 vorhanden ist.
  • Dann wird in Schritt S22 bestimmt, ob sich das Objekt in der Annäherungsbestimmungszone AR1 befindet oder nicht, und falls bestimmt wird, dass sich das Objekt in der Annäherungsbestimmungszone AR1 befindet, (JA in Schritt S22) geht der Fluss direkt zu Schritt S24 weiter. Falls hingegen bestimmt wird, dass sich das Objekt nicht in der Annäherungsbestimmungszone AR1 befindet (NEIN in Schritt S22), wird ein Invasionskollisionsbestimmungsprozess ausgeführt (Schritt S23).
  • Genauer gesagt, der Invasionskollisionsbestimmungsprozess in Schritt S23 unterscheidet, ob die Differenz zwischen xc(0), das die jüngste x-Koordinate in dem Bild ist (der Buchstabe c ist, wie später erläutert, hinzugefügt, um anzuzeigen, dass dies eine Koordinate ist, an der die Kompensation ausgeführt worden ist, die die Mittelposition des Bilds mit dem realen Raumursprungspunkt O in Übereinstimmung bringt) und cx(N-1), das die x-Koordinate vor der Zeit ΔT ist, der folgenden Gleichung 10 genügt, und falls diese erfüllt ist, wird bestimmt, dass die Möglichkeit einer Kollision hoch ist.


  • Falls ferner, wie in Fig. 14 gezeigt, sich ein Tier in einer Richtung bewegt, die einen Winkel von angenähert 90° in Bezug auf die Fortbewegungsrichtung des Fahrzeugs 10 hat, wird, wenn Xv(N-1)/Zv(N-1) = Xv(0)/Zr(0), oder anders gesagt, wenn das Verhältnis der Geschwindigkeit Vp und der relativen Geschwindigkeit Vs des Tiers (Vp/Vs) Xr(N-1)/Zr(N-1) ist, die Peilung 8d, mit der man das Tier 20 von dem Fahrzeug 10 aus sieht, konstant, und die Möglichkeit einer Kollision wird hoch. Gleichung 10 bestimmt diese Möglichkeit unter Berücksichtigung der Breite α des Fahrzeugs 10.
  • Falls in Schritt S23 bestimmt worden ist, dass die Möglichkeit einer Kollision hoch ist (JA in Schritt S23), geht der Fluss zu Schritt S24 weiter. Falls hingegen bestimmt worden ist, dass die Möglichkeit einer Kollision niedrig ist (NEIN in Schritt S23), wird der Warnbestimmungsprozess abgeschlossen.
  • In Schritt S24 wird bestimmt, ob ein Warnausgabebestimmungsprozess, d. h. die Ausgabe einer Warnung, ausgeführt werden soll oder nicht (Schritt S24).
  • Der Warnausgabebestimmungsprozess bestimmt, ob der Fahrer des Fahrzeugs 10 eine Bremsbetätigung ausführt oder nicht, aus der Ausgabe BR des Bremssensors 5.
  • Falls der Fahrer des Fahrzeugs 10 eine Bremsbetätigung ausführt, wird die hierdurch erzeugte Beschleunigung Gs (positiv in der Verzögerungsrichtung) berechnet, und wenn diese Beschleunigung Gs größer als ein vorbestimmter Schwellenwert GTH ist, wird bestimmt, dass durch die Bremsbetätigung eine Kollision vermieden werden kann, und der Warnbestimmungsprozess endet. Wenn eine geeignete Bremsbetätigung ausgeführt wird, wird hierdurch keine Warnung ausgegeben, und der Fahrer wird nicht unnötig belästigt.
  • Wenn darüber hinaus die Beschleunigung Gs gleich oder kleiner als der vorbestimmte Schwellenwert GTH ist und darüber hinaus der Fahrer des Fahrzeugs 10 keine Bremsbetätigung ausführt, geht der Fluss unmittelbar zu den Prozessen in Schritt S25 und den folgenden weiter, wo die Formbestimmung des Objekts ausgeführt wird.
  • Ferner wird der vorbestimmte Schwellenwert GTH durch die folgende Gleichung 11 bestimmt. Dieser Wert entspricht dem Zustand, in dem das Fahrzeug 10 mit einem Fahrabstand gleich oder kleiner als der Abstand Zv(0) stoppt, falls die Beschleunigung Gs während der Bremsung so bleibt wie sie ist.


  • Bei der Formidentifikation des Objekts in Schritt S25 und folgenden, sind die folgenden Schritte enthalten: Identifizieren, ob ein Teil, das ein geradliniges Segment indiziert, in dem Bild des Objekts enthalten ist oder nicht (Schritt S25); ob ein Winkel im Bild des Objekts ein rechter Winkel ist oder nicht (Schritt S26); ob das Bild des Objekts mit der Form einer vorab registrierten künstlichen Struktur übereinstimmt oder nicht (Schritt S27); und ob eine Mehrzahl identischer Formen in dem Bild des Objekts enthalten sind oder nicht (Schritt S28).
  • Zuerst wird identifiziert, ob ein Teil, das ein geradliniges Segment indiziert, in dem Bild des Objekts enthalten ist oder nicht (Schritt S25).
  • In Schritt S25 wird, falls kein geradliniges Segment indizierendes Teil in dem Bild des Objekts enthalten ist (NEIN in Schritt S25), identifiziert, ob ein Winkel in dem Bild des Objekts ein rechter Winkel ist oder nicht (Schritt S26).
  • In Schritt S26 wird, falls ein Winkel in dem Bild des Objekts kein rechter Winkel ist (NEIN in Schritt S26) identifiziert, ob das Bild des Objekts mit der Form einer vorab registrierten künstlichen Struktur übereinstimmt oder nicht (Schritt S27).
  • In Schritt S27 wird, falls das Bild des Objekts nicht mit der Form der vorab registrierten künstlichen Struktur übereinstimmt (NEIN in Schritt S27) identifiziert, ob eine Mehrzahl identischer Formen in dem Bild des Objekts enthalten sind oder nicht (Schritt S28).
  • Zusätzlich ist in Schritt S28, falls eine Mehrzahl identischer Formen in dem Bild des Objekts nicht enthalten ist (NEIN in Schritt S28), die Möglichkeit, dass das Objekt ein Fußgänger oder ein Tier ist, hoch, und somit wird eine stimmliche Warnung durch den Lautsprecher 3 ausgegeben, und gleichzeitig wird die Bildanzeigevorrichtung 7 z. B. das von der Infrarotkamera 2R erhaltene Bild angezeigt, und das sich annähernde Objekt wird auf der Anzeige hervorgehoben (z. B. dadurch hervorgehoben, dass es von einem Rahmen umgeben wird) (Schritt S29).
  • Falls hingegen in Schritt S25 ein ein geradliniges Segment indizierendes Teil in dem Bild des Objekts enthalten ist (JA in Schritt S25), oder falls in Schritt S26 ein Winkel in dem Bild des Objekts ein rechter Winkel ist (JA in Schritt S26), oder falls in Schritt S27 das Bild des Objekts mit der Form einer vorher registrierten künstlichen Struktur übereinstimmt (JA in Schritt S27), oder falls ferner in Schritt S28 eine Mehrzahl identischer Formen in dem Bild des Objekts enthalten sind (JA in Schritt S28), wird das Objekt als künstliche Struktur behandelt, und das in Schritt S7 von Fig. 3 extrahierte Objekt wird eliminiert (Schritt S30). Es wird keine Warnung ausgegeben, und der Warnbestimmungsprozess wird abgeschlossen.
  • Nun wird ein Verfahren zur Identifizierung einer Form des Objekts in Fig. 12, wie oben beschrieben, und insbesondere der Suchprozess für die geradlinigen Segmente und die rechtwinkligen Segmente in Schritt S25, Schritt S26, Schritt S28 und Schritt S30 anhand der Figuren erläutert.
  • Fig. 15, Fig. 16, Fig. 17 und Fig. 23 sind Flussdiagramme, die im weiteren Detail den Prozess der Schritte S25, S26, S28 und einen Teil des Prozesses von Schritt S30 zeigen.
  • Bei der Suche nach einem geradlinigen Segment beginnt die Bildprozessoreinheit 1 mit der Erfassung vertikaler Liniensegmente (Identifizierung vertikaler Liniensegmente). Fig. 15 ist ein Flussdiagramm, dass die Identifizierung der vertikalen, geradlinigen Segmente zeigt.
  • Daher werden zuerst, um nach vertikalen geradlinigen Segmenten zu suchen, das Bild des Objekts und das rechte gerade Liniensegment- Bildmuster, das ein Referenzbild zur Ausführung der Korrelationsberechnung ist, ausgewählt (Schritt S31). In Abhängigkeit von dem Abstand zwischen dem Fahrzeug 10 und dem Objekt, der in Schritt S13 des Flussdiagramms von Fig. 3 gefunden ist, wird die Mustergröße des Referenzbilds so bestimmt, dass sie proportional zur Größe des Bilds des realen Raums ist, das auf das Anzeigebild projiziert wird (Schritt S32).
  • Hier erfolgt die Bestimmung der Mustergröße des Referenzbilds wie folgt. Insbesondere, falls der Abstand zwischen dem Fahrzeug 10 und dem Objekt mittels der obigen Gleichung 2 berechnet wird als z = L[m], wird das Objekt mit einer Höhe A[m] und Breite B[m] an einer Position mit Abstand L[m] im realen Raum mit einer Größe gleich a × b[Pixel] auf dem Anzeigeschirm projeziert.

    a = f × A/L Gl. 12

    b = f × B/L Gl. 13
  • Daher wird, wie in Fig. 18A gezeigt, aus dem rechten geradlinigen Segment-Bildmuster, das vorab vorbereitet ist, z. B. das a × b[Pixel]- gerade Liniensegment-Muster extrahiert. Das rechte gerade Liniensegment-Extraktionsmuster "Pat_Line_R" dient als Referenzmuster. Ähnlich ist in Fig. 18B das a × b[Pixel] linke geradlinige Segment- Extraktionsmuster "Pat_Line_L" gezeigt, das aus dem vorab vorbereiteten linken gerade Liniensegment-Bildmuster extrahiert ist.
  • Wenn die Referenzgröße für die Korrelationsberechnung herausgefunden ist, wird dann die Suchzone in der Nähe des Objekts gesetzt (Schritt S33).
  • Hier erfolgt das Setzen der Suchzone wie folgt. Wie insbesondere in Fig. 19 gezeigt, wird der Umriss (das binäre Objektbild 100), das der binären Extraktion unterzogen worden ist, den Umriss des Objekts 101 nicht notwendigerweise korrekt repräsentieren. Daher werden in Bezug auf die Mitte 102 des Umschreibungsvierecks des binären Objektbilds (OBJ) 100 die Breite und Höhe der Suchfläche auf eine Höhe und eine Breite gesetzt, die durch jeweilige obere, untere, linke und rechte a[Pixel]- Bereiche definiert ist, und der Suchbereich 103 für die Korrelationsberechnung umfasst dieser a × a[Pixel]-Bereiche.
  • Dann wird aus innerhalb der Suchzone 103 in der Nähe des Objekts ein Abschnitt (OBJ_Pat) 104, der eine hohe Korrelation mit dem rechten gerade Liniensegment-Extraktionsmuster "Pat_Line_R" hat, durch die Korrelationsberechnung herausgefunden (Schritt S34).
  • Zusätzlich wird identifiziert, ob ein Teil, das eine hohe Korrelation zu dem rechten geradlinigen Segment-Extraktionsmuster "Pat_Line_R" hat, vorhanden ist oder nicht (Schritt S35).
  • In Schritt S35 wird für den Fall, dass ein Teil, das eine hohe Korrelation mit dem rechten gerade Liniensegment-Extraktionsmuster "Pat_Line_R" hat, vorhanden ist (JA in Schritt S35), um zu bestimmen, ob das Teil mit der hohen Korrelation und das Objekt 101 identische physische Körper sind oder nicht, der Abstand von OBJ_Pat 104 genauso berechnet wie die Berechnung des Abstands des Objekts durch die obige Gleichung 2 (Schritt S36).
  • Ferner für den Fall, dass der tatsächliche Abstand zwischen dem Fahrzeug 10 und dem Objekt 101 gleich dem Abstand zwischen dem Fahrzeug 10 und dem OBJ_Pat 104 mit hoher Korrelation ist, können das Objekt 101 und OBJ_Pat 104 als identische physische Körper identifiziert werden. Somit kann, durch Vergleich der berechneten Parallaxe Δd und Δd_P, anstatt Abstände zu vergleichen, identifiziert werden, ob das Objekt 101 und OBJ_Pat 104 identische physische Körper sind oder nicht (Schritt S37). Insbesondere wird mittels der folgenden Gleichung 14 bestimmt, ob der Parallaxenfehler kleiner als ein zulässiger Wert TH ist oder nicht.

    |Δd-Δd_P| < TH Gl. 14
  • Falls im Schritt S37 identifiziert wird, dass das Objekt 101 und das OBJ_Pat 104 identische physische Körper sind (JA in Schritt S37) wird bestimmt, dass ein vertikales geradliniges Segment im Objekt 101 vorhanden ist (Schritt S38), wobei ein vertikales geradliniges Segment als künstliche Hauptstraßenstruktur behandelt wird (Schritt S39), und wird die vertikale gerade Linie-Bestimmung abgeschlossen.
  • Falls hingegen in Schritt S35 ein Teil, das eine hohe Korrelation mit dem rechten gerade Liniensegment-Extraktionsmuster "Pat_Line_R" hat, nicht vorhanden ist (NEIN in Schritt S35), oder falls im Schritt S37 das Objekt 101 und das OBJ_Pat 104 nicht als identische physische Körper identifiziert werden (NEIN in Schritt S37), geht der Fluss zu Schritt S40 weiter, und es wird identifiziert, ob das bei der Korrelationsberechnung verwendete Referenzmuster ein linkes geradliniges Segment-Bildmuster ist oder nicht (Schritt S40).
  • Falls in Schritt S40 das bei der Korrelationsberechnung verwendete Referenzmuster nicht ein linkes geradliniges Segment-Bildmuster ist (NEIN in Schritt S40), wird das zuvor vorbereitete linke gerade Liniensegment-Bildmuster gewählt (Schritt S41), und der Fluss kehrt zu Schritt S32 zurück.
  • Zusätzlich wird in den oben beschriebenen Schritten S32 und S33 der gleiche Vorgang an dem linken geradlinigen Segment-Bildmuster durchgeführt wie er an dem rechten geradlinigen Segment-Bildmuster ausgeführt wurde. Das a × 8[Pixel] linke gerade Liniensegment- Extraktionsmuster "Pat_Line_L", das von dem in Fig. 18 gezeigten linken gerade Liniensegment-Bildmuster extrahiert ist, dient als das Referenzmuster. Ferner wird in Schritt S34, von innerhalb des Suchbereichs 103 in der Nähe des Objekts, das Teil (OBJ_Pat), das eine hohe Korrelation mit dem linken gerade Liniensegment-Extraktionsmuster "Pat_Line_L" hat, zur Verwendung bei der Korrelationsberechnung gesucht.
  • Als Ergebnis der Korrelationsberechnung unter Verwendung des linken gerade Liniensegment-Extraktionsmusters, werden die oben beschriebenen Vorgänge von Schritt S35 bis Schritt S39 ausgeführt. Wenn ein vertikales geradliniges Segment als im Objekt 101 befindlich identifiziert wird, wird das Objekt als künstliche Straßenstruktur behandelt, und die vertikale gerade Liniensegment-Bestimmung wird abgeschlossen.
  • Zusätzlich wird, als Ergebnis der Korrelationsberechnung unter Verwendung des linken gerade Liniensegment-Extraktionsmusters, wenn der Fluss wieder zur Bestimmung von Schritt S40 fortschreitet, die Suche des vertikalen gerade Liniensegments durch sowohl das rechte gerade Liniensegment-Extraktionsmuster als auch das linke gerade Liniensegment-Extraktionsmuster bereits abgeschlossen ist (JA in Schritt S40), kein vertikales geradliniges Segment als vorhanden identifiziert (Schritt S42), und der Fluss geht zu der horizontalen geradlinigen Segment-Identifizierung weiter.
  • Ferner liegt bei der oben beschriebenen vertikalen geradlinigen Segment- Identifizierung der Grund dafür, dass eine Korrelationsberechnung unter Verwendung sowohl des rechten geradlinigen Segment-Extraktionsmuster als auch des linken geradlinigen Segment-Extraktionsmusters ausgeführt wird, und der Abstand zwischen dem Fahrzeug 10 und den jeweiligen Teilen mit hohen Korrelationen mit dem Abstand zwischen dem Objekt und dem Fahrzeug 10 verglichen wird, darin, weil für den Fall, dass eine Mehrzahl von Objekten überlappen und als ein Objekt erkannt werden, die Möglichkeit besteht, dass die rechten oder linken geradlinigen Segmente der Objekte, die bei der vertikalen geradlinigen Segment- Identifizierung erfasst werden, keine Teile des Objekts sind, das der Kollisionsbestimmung unterliegt. Daher wird der Abstand zwischen dem Objekt und dem Fahrzeug 10 mit dem Abstand zwischen dem erfassten Objekt und dem rechten oder linken geradlinigen Segment des Fahrzeugs 10 verglichen, und es wird identifiziert, ob beide identische physische Körper sind.
  • Nun wird die horizontale gerade Liniensegment-Bestimmung anhand des in Fig. 16 gezeigten Flussdiagramms erläutert.
  • Bei der horizontalen geradlinigen Segment-Bestimmung wird zuerst, um nach einem horizontalen geradlinigen Segment zu suchen, ein Oberrandgeradliniges Segment-Muster, dass das Referenzbild zur Ausführung der Korrelationsberechnung am Bild des Objekts ist, gewählt (Schritt S51). In Abhängigkeit von dem Abstand zwischen dem Fahrzeug 10 und dem Objekt, der in Schritt S13 im Flussdiagramm von Fig. 3 gefunden ist, wird die Mustergröße des Referenzbilds so bestimmt, dass sie der Größe des Bilds in dem realen Raum, das auf den Anzeigeschirm projeziert wird, proportional ist (Schritt S52).
  • Hier erfolgt die Bestimmung der Mustergröße des Referenzbilds genauso wie bei der oben beschriebenen vertikalen geradlinigen Segment- Identifizierung. Das heißt, falls der Abstand zwischen dem Fahrzeug 10 und dem Objekt durch die obige Gleichung 2 als z = K[m] berechnet wird, wird das Objekt mit der Höhe B[m] und der Breite A[m], das sich an einer Position mit dem Abstand L[m] im realen Raum befindet, mit einer b × a[Pixel]-Größe auf dem Anzeigeschirm projeziert.

    b = f × B/L Gl. 15

    a = f × A/L Gl. 16
  • Daher wird, wie z. B. in Fig. 20A gezeigt, das b × a[Pixel] gerade Liniensegment-Muster von dem Oberrand-gerade Liniensegment- Bildmuster extrahiert, das zuvor vorbereitet wurde, und das Oberrandgerade Liniensegment-Extraktionsmuster "Pat_Line_U" dient als Referenzmuster. Ähnlich ist das b × a[Pixel]-Unterrand-gerade Liniensegment-Extraktionsmuster "Pat_Line_D", das von dem zuvor vorbereiteten Unterrand-gerade Liniensegment-Bildmuster extrahiert ist, in Fig. 20B gezeigt.
  • Wenn die Referenzmustergröße für die Korrelationsberechnung gefunden worden ist, wird dann die Suchzone in der Nähe zu dem Objekt gesetzt (Schritt S53).
  • Ferner erfolgt auch das Setzen der Suchzone ähnlich der oben beschriebenen vertikalen geradlinigen Segment-Identifizierung. Das heißt, in Bezug auf die Mitte des Umschreibungsvierecks des binären Objektbilds (OBJ), sind die Breite und Höhe der Suchfläche auf eine Höhe und Breite gesetzt, die durch die jeweiligen oberen, unteren, linken und rechten a[Pixel]-Bereich definiert ist, und der Suchbereich 103 für die Korrelationsberechnung weist vier dieser a × a[Pixel]-Bereiche auf.
  • Dann wird, aus innerhalb des Suchbereichs in der Nähe zu dem Objekt, unter Verwendung der Korrelationsberechnung ein Teil (OBJ_Pat) mit hoher Korrelation zu dem Oberrand-gerade Liniensegment- Extraktionsmuster "Pat_Line_U" gesucht (Schritt S54).
  • Zusätzlich wird identifiziert, ob ein Teil mit hoher Korrelation zu dem Oberrand-gerade Liniensegment-Extraktionsmuster "Pat_Line_U" vorhanden ist oder nicht (Schritt S55).
  • Falls in Schritt S55 ein Teil mit hoher Korrelation zu dem Oberrandgerade Liniensegment-Extraktionsmuster "Pat_Line_U" vorhanden ist (JA in Schritt S55), wird identifiziert, ob ein horizontales geradliniges Segment in dem Objekt vorhanden ist (Schritt S56). Das Vorhandensein eines horizontalen geradlinigen Segments bedeutet, dass das Objekt als künstliche (Haupt)-Straßenstruktur zu behandeln ist (Schritt S57), und die Bestimmung des horizontalen geradlinigen Segments wird abgeschlossen.
  • Falls hingegen in Schritt S55 ein Teil mit hoher Korrelation zu dem Oberrand-gerade Liniensegment-Extraktionsmuster "Pat_Line_U" nicht vorhanden ist (NEIN in Schritt S55), wird identifiziert, ob das bei der Korrelationsberechnung verwendete Referenzmuster ein Unterrand-gerade Liniensegment-Bildmuster ist oder nicht (Schritt S58).
  • Falls in Schritt S58 das bei der Korrelationsberechnung verwendete Referenzmuster nicht das Unterrand-gerade Liniensegment-Bildmuster ist (NEIN in Schritt S58), wird ein vorher vorbereitetes Unterrand-gerade Liniensegment-Bildmuster gewählt (Schritt S59) und der Fluss kehrt zu Schritt S52 zurück.
  • Darüber hinaus werden in den obigen Schritten S52 und S53 die gleichen Vorgänge, die an dem Oberrand-gerade Liniensegment- Bildmuster ausgeführt wurden, an dem Unterrand-gerade Liniensegment- Bildmuster ausgeführt, und das b × a[Pixel]-Unterrand-gerade Liniensegment-Extraktionsmuster "Pat_Line_D", das von dem in Fig. 20B gezeigten Unterrand-gerade Liniensegment-Bildmuster extrahiert ist, dient als das Referenzmuster. Ferner wird in Schritt S54 das Teil (OBJ_Pat) mit hoher Korrelation zu dem Unterrand-gerade Liniensegment- Extraktionsmuster "Pat_Line_D" unter Verwendung der Korrelationsberechnung aus innerhalb des Suchbereichs in der Nähe zu dem Objekt herausgefunden.
  • Als Ergebnis der Korrelationsberechnung unter Verwendung des Unterrand-gerade Liniensegment-Extraktionsmusters, werden die Vorgänge der oben beschriebenen Schritte S55 bis S57 ausgeführt. Wenn identifiziert wird, dass ein horizontales geradliniges Segment in dem Bild vorhanden ist, wird das Objekt als künstliche Struktur behandelt, und die horizontale gerade Liniensegment-Identifizierung wird abgeschlossen.
  • Darüber hinaus werden, als Ergebnis der Korrelationsberechnung unter Verwendung des Unterrand-gerade Liniensegment-Extraktionsmusters, wenn der Fluss wieder zur Identifizierung von Schritt S58 fortschreitet, weil die Suche nach horizontalen geradlinigen Segmenten unter Verwendung sowohl des Oberrand-gerade Liniensegment- Extraktionsmusters als auch des Unterrand-gerade Liniensegment- Extraktionsmusters bereits abgeschlossen wurden (JA in Schritt S58), keine horizontalen geradlinigen Segmente als vorhanden identifiziert (Schritt S60), und der Fluss geht zur Rechtwinkelsegment-Identifizierung weiter.
  • Ferner liegt bei der oben beschriebenen horizontalen geradlinigen Segment-Identifizierung der Grund für das Finden des Abstands zwischen den jeweiligen Teilen mit hoher Korrelation und dem Fahrzeug 10 nach Ausführung der Korrelationsberechnung unter Verwendung sowohl des Oberrand-gerade Liniensegment-Extraktionsmuster als auch des Unterrand-gerade Liniensegment-Extraktionsmusters darin, dass weil auf der Basis des Prinzips binärer bzw. stereoskopischer Sicht mittels der linken und rechten Kameras, der Abstand des horizontalen geradlinigen Segments nicht berechnet werden kann. Anders als im Falle der vertikalen geradlinigen Segment-Identifizierung wird daher bei der horizontalen gerade Linien-Identifizierung die Identifizierung auf der Basis nur der Korrelation des geraden Linienmusters ausgeführt.
  • Nachfolgend wird die Rechtwinkelsegment-Bestimmung anhand des in Fig. 17 gezeigten Flussdiagramms erläutert.
  • Bei der Rechtwinkelsegment-Bestimmung werden zuerst, um nach einen rechtwinkligen Segment zu suchen, das Bild des Objekts und ein oberes rechtes Rechtwinkelsegment-Bildmuster, das ein Referenzbild zur Ausführung der Korrelationsberechnung ist, ausgewählt (Schritt S71). In Abhängigkeit von dem Abstand zwischen dem Fahrzeug 10 und dem Objekt, der in Schritt S13 des Flussdiagramms von Fig. 3 gefunden ist, wird die Mustergröße des Referenzbilds so bestimmt, dass sie proportional zur Größe des Bilds im realen Raum ist, der auf den Anzeigeschirm projeziert wird (Schritt S72).
  • Hierbei erfolgt die Bestimmung der Mustergröße des Referenzbilds genauso wie die vertikale gerade Liniensegment-Identifizierung und die horizontale gerade Liniensegment-Identifizierung. Insbesondere falls der Abstand zwischen dem Fahrzeug 10 und dem Objekt mittels der obigen Gleichung 2 als z = L[m] berechnet wird, wird das Objekt mit einer Höhe A[m] und Breite A[m] an einer Position mit Abstand L[m] im realen Raum mit einer a × a[Pixel]-Größe auf dem Anzeigeschirm projeziert.

    a = f × A/L Gl. 17
  • Daher wird, wie in Fig. 21A gezeigt, von dem zuvor vorbereiteten oberen Rechtwinkelsegment-Bildmuster, z. B. das a × a[Pixel] Rechtwinkelsegment-Muster extrahiert, und das obere rechte Rechtwinkelsegment-Extraktionsmuster "Pat_Corner_R" dient als Referenzmuster. Ähnlich ist ein a × a[Pixel] oberes linkes Rechtwinkelsegment-Extraktionsmuster "Pat_Corner_L", das aus dem zuvor vorbereiteten oberen linken Rechtwinkelsegment-Bildmuster extrahiert ist, in Fig. 21 B gezeigt.
  • Wenn die Referenzgröße für die Korrelationsberechnung gefunden worden ist, wird dann die Suchzone in der Nähe zu dem Objekt gesetzt (Schritt S73).
  • Ferner wird auch das Setzen der Suchzone ähnlich ausgeführt wie die vertikale gerade Liniensegment-Identifizierung und die horizontale gerade Liniensegment-Identifizierung, die oben beschrieben sind. Das heißt, an der Mitte des Umschreibungsvierecks eines binären Objektbilds (OBJ), werden die Breite und Höhe jeweils auf einen a[Pixel]-Bereich für die Breite und die Ober- und Unterseite des binären Objektbilds gesetzt, und dies dient als Suchbereich für die Korrelationsberechnung.
  • Dann wird, aus innerhalb des Suchbereichs in der Nähe zu dem Objekt, unter Verwendung der Korrelationsberechnung ein Teil (OBJ_Pat) mit hoher Korrelation zu dem oberen rechten Rechtwinkelsegment- Extraktionsmuster "Pat_Corner_R" gesucht (Schritt S74).
  • Darüber hinaus wird bestimmt, ob ein Teil mit hoher Korrelation zu dem oberen rechten Rechtwinkelsegment-Extraktionsmuster "Pat_Corner_R" vorhanden ist oder nicht (Schritt S75).
  • Falls in Schritt S75 ein Teil mit hoher Korrelation zu dem oberen rechten Rechtwinkel-Segment-Extraktionsmuster "Pat_Corner_R" vorhanden ist (JA in Schritt S75), wird der Abstand des OBJ_Pat ähnlich der Abstandsberechnung des Objekts mittels der obigen Gleichung 2 berechnet, um zu identifizieren, ob das Teil mit hoher Korrelation und das Objekt identische physische Körper sind oder nicht (Schritt S76).
  • Falls ferner der tatsächliche Abstand zwischen dem Fahrzeug 10 und dem Objekt gleich dem Abstand zwischen dem Fahrzeug und dem Teil OBJ_Pat mit hoher Korrelation ist, und das Objekt und OBJ_Pat als identische physische Körper identifiziert werden, kann somit durch Vergleichen der erfassten Parallaxe Δd und Δd_P, anstatt die Abstände zu vergleichen, identifiziert werden, ob das Objekt und OBJ_Pat identische physische Körper sind oder nicht (Schritt S77). Insbesondere wird unter Verwendung der obigen Gleichung 14 identifiziert, ob der Parallaxenfehler kleiner als ein zulässiger Wert TH ist oder nicht.
  • Falls in Schritt S77 das Objekt und OBJ_Pat als identische physische Körper identifiziert werden (JA in Schritt S77), wird ein rechtwinkliges Segment in dem Objekt als vorhanden identifiziert (Schritt S78), wobei ein rechtwinkliges Segment als künstliche (Haupt)-Straßenstruktur behandelt wird (Schritt S79), und die Rechtwinkelsegment-Identifikation abgeschlossen wird.
  • Falls hingegen in Schritt S75 ein Teil mit hoher Korrelation zu dem oberen rechten Rechtwinkelsegment-Extraktionsmuster "Pat_Corner_R" nicht vorhanden ist (NEIN in Schritt S75), oder falls in Schritt S77 das Objekt und OBJ_Pat nicht als identische physische Körper identifiziert werden (NEIN in Schritt S77), geht der Fluss zu Schritt S80 weiter, und es wird identifiziert, ob das bei der Korrelationsberechnung verwendete Referenzmuster ein oberes linkes Rechtwinkelsegment-Bildmuster ist oder nicht (Schritt S80).
  • Falls in Schritt S80 das bei der Korrelationsberechnung verwendete Referenzmuster nicht das obere linke Rechtwinkelsegment-Bildmuster ist (NEIN in Schritt S80), wird das vorher vorbereitete obere linke Rechtwinkelsegment-Bildmuster ausgewählt (Schritt S81) und der Fluss geht zu Schritt S72 weiter.
  • Zusätzlich wird in den oben beschriebenen Schritten S72 und S73 derselbe Vorgang, der für das obere rechte Rechtwinkelsegment- Bildmuster ausgeführt wurde, für das obere linke Rechtwinkelsegment- Bildmuster ausgeführt, und ein a × a[Pixel]-oberes rechtes Rechtwinkelsegment-Extraktionsmuster "Pat_Corner_L", das von dem in Fig. 21 B gezeigten oberen linken Rechtwinkelsegment-Bildmuster extrahiert ist, dient als das Referenzmuster. Ferner wird in S74 das Teil mit hoher Korrelation zu dem oberen linken Rechtwinkelsegment- Extraktionsmuster "Pat_Corner_L" zur Verwendung bei der Korrelationsberechnung aus innerhalb der Suchzone in der Nähe zu dem Objekt gesucht.
  • Als Ergebnis der Korrelationsberechnung unter Verwendung des oberen linken Rechtwinkelsegment-Extraktionsmusters werden die Vorgänge von Schritt S75 bis S79 ausgeführt, und wenn ein rechtwinkliges Segment als in dem Objekt vorhanden identifiziert wird, wird das Objekt 101 als künstliche Straßenstruktur behandelt, und die Rechtwinkelsegment- Identifizierung wird abgeschlossen.
  • Als Ergebnis der Korrelationsberechnung unter Verwendung des oberen linken Rechtwinkelsegment-Extraktionsmusters ist, wenn der Fluss wieder zur Identifikation von Schritt S80 fortschreitet, die Suche nach rechtwinkligen Segmenten unter Verwendung des oberen rechten Rechtwinkelsegment-Extraktionsmusters als auch des oberen linken Rechtwinkelsegment-Extraktionsmusters bereits abgeschlossen worden (JA in Schritt S80). Somit wird kein rechtwinkliges Segment als vorhanden identifiziert (Schritt S82).
  • Daher wird bestimmt, dass das Objekt keine künstliche Straßenstruktur ist (Schritt S83), wird die Rechtwinkelsegment-Bestimmung abgeschlossen und wird der Prozess in Schritt S27 zur Bestimmung der Form des Objekts in Fig. 12, wie oben beschrieben, ausgeführt.
  • Ferner ist bei der oben beschriebenen Rechtwinkelsegment-Identifizierung der Grund dafür, dass die Korrelationsberechnung sowohl unter Verwendung des oberen rechten Rechtwinkelsegment-Extraktionsmusters als auch des oberen linken Rechtwinkelsegment-Extraktionsmusters ausgeführt wird und dass der Abstand zwischen den Teilen mit jeweiligen hohen Korrelationen und dem Fahrzeug 10 mit dem Abstand zwischen dem Objekt und dem Fahrzeug 10 verglichen wird, der gleiche wie im Fall der vertikalen gerade Liniensegment-Identifizierung.
  • Nun wird die Bestimmung identischer Formen anhand der Figuren erläutert.
  • Wie in Fig. 22 gezeigt, ist die Identifizierung identischer Formen ein Prozess, in dem eine Straßenstruktur 50 (z. B. eine obere und eine untere runde Linse, die in einem Verkehrssignal bzw. einer Ampel angeordnet sind), die aus einer Mehrzahl physischer Körper mit identischer Form strukturiert sind, unter den von den Infrarotkameras erhaltenen Infrarotbildern gesucht wird.
  • Das in Fig. 23 gezeigte Flussdiagramm wird zur Erläuterung herangezogen. Zuerst werden, um nach identischen Formen zu suchen, das Bild des Objekts und ein Objektmuster "Pat", das ein Referenzbild zur Ausführung der Korrelationsberechung ist, gesetzt (Schritt S91).
  • Hier ist das Objektmuster "Pat" das Referenzbild, das die Zone um eine Größe größer setzt als das binäre Objektbild (OBJ) 200, wie in Fig. 24B gezeigt, falls z. B. das Teil der Linse in der Straßenstruktur 50, das Wärme abstrahlt, als das binäre Objektbild (OBJ) 200 extrahiert wird, wie in Fig. 24A gezeigt.
  • Wenn das Objektmuster für die Korrelationsberechnung gefunden worden ist, wird dann die Suchzone in der Nähe zu dem Objekt gesetzt (Schritt S 92).
  • Hier wird die Suchzone wie folgt gesetzt. Wie insbesondere in Fig. 24A gezeigt, wird der Bereich der Suchzone so gesetzt, dass eine obere und eine untere a[Pixel]-Höhe über und unter dem binären Objektbild 200 vorhanden ist und eine linke und rechte b/2[Pixel]-Breite rechts und links in Bezug auf die Mitte des binären Objektbilds 200 vorhanden ist. Dies dient als der jeweilige obere Suchbereich 202 und untere Suchbereich 203 für die Korrelationsberechnung.
  • Dann wird ein Teil (OBJ_Pat) mit hoher Korrelation zu dem Objektmuster "Pat" für die Korrelationsberechnung aus innerhalb des oberen Suchbereichs 202 und des unteren Suchbereichs 203 in der Nähe zu dem Objekt gesucht (Schritt S93).
  • Zusätzlich wird identifiziert, ob ein Teil mit hoher Korrelation zu dem Objektmuster "Pat" vorhanden ist (Schritt S94).
  • In Schritt S94 wird für den Fall, dass ein Teil mit hoher Korrelation zu dem Objektmuster "Pat" vorhanden ist (JA in Schritt S94) eine mit dem Objekt identische Form als vorhanden identifiziert (Schritt S95), wobei eine identische Form als künstliche Straßenstruktur behandelt wird (Schritt S96), und die Formidentitäts-Bestimmung wird abgeschlossen. Ferner wird in Beispiel von Fig. 22 aus der Mitte des Infrarotbilds eine Straßenstruktur (Verkehrssignal) mit einer Mehrzahl (2) identischer Objekte (runder Linsen) erfasst.
  • Falls hingegen in Schritt S94 ein Teil mit hoher Korrelation zu dem Objektmuster "Pat" nicht vorhanden ist (NEIN in Schritt S94), wird keine mit dem Objekt identische Form als vorhanden identifiziert (Schritt S97), wobei keine identische Form als künstliche Hauptstraßenstruktur behandelt wird (Schritt S98), und die identische Formidentifizierung wird abgeschlossen.
  • Ferner wurde bei der oben beschriebenen Formidentitäts-Bestimmung das Setzen der Suchzone, in der nach dem Objektmuster gesucht wurde, in der vertikalen Richtung des binären Objektbilds (OBJ) 200 gesetzt, wobei aber, weil die physischen Körper mit identischer Form auch von links nach rechts angeordnet sein können, nach Suche in einer vertikalen Richtung, die Suchzone auch von links nach rechts gesetzt werden kann, und nach einem Objektmuster gesucht werden kann.
  • Zusätzlich umfasst in der vorliegenden Ausführung die Bildprozessoreinheit 1 eine Objektextraktionsvorrichtung, eine künstliche Sruktur-Identifizierungsvorrichtung und eine Referenzbilddimensions- Veränderungsvorrichtung. Genauer gesagt entsprechen S1 bis S7 in Fig. 3 der Objektextraktionsvorrichtung, S25 bis S28 in Fig. 12 entsprechen der künstlichen Strukturidentifikationsvorrichtung, und S30 in Fig. 12 entspricht der künstlichen Struktureliminationsvorrichtung. Ferner entsprechen S32 in Fig. 15, S52 in Fig. 16 und S72 in Fig. 17 den Referenzbilddimensions-Veränderungsvorrichtungen.
  • Ferner wurde in der oben beschriebenen Ausführung Infrarotkameras 2R und 2L als fotografische Vorrichtung benutzt, wobei aber auch eine Fernsehkamera, die nur normales sichtbares Licht erfassen kann, wie sie in der japanischen ungeprüften Patentanmeldung Erstveröffentlichung Nr. Hei 2-26490 offenbart ist, verwendet werden kann. Jedoch kann mittels einer Infrarotkamera der Extraktionsprozess von Tieren oder anderen fahrenden Fahrzeugen o. dgl. verkürzt werden, und dies kann mit einem relativ niedrigen Rechenkapazitätswert der Berechnungsvorrichtung realisiert werden. Darüber hinaus wurde in der oben beschriebenen Ausführung das Beispiel der Überwachung der Vorderseite des Fahrzeugs beschrieben, wobei aber auch die Rückseite des Fahrzeugs oder eine andere Richtung überwacht werden kann.
  • Die Erfindung betrifft eine Fahrzeugzonen-Überwachungsvorrichtung, die künstliche Strukturen auf der Basis von Formidentifikationen unter Verwendung eines Referenzbilds aus einem Infrarotbild eliminiert, das von einer an dem Fahrzeug vorgesehenen Fotografiervorrichtung aufgenommen worden ist, und verbleibende Objekte als sich bewegende physische Körper, wie etwa Fußgänger und Tiere erfasst. Die Fahrzeugzonen-Überwachungsvorrichtung, die die in der Nähe des Fahrzeugs befindlichen physischen Körper aus Infrarotbildern erfasst, die von an dem Fahrzeug vorgesehenen Infrarotkameras 2R und 2L aufgenommen worden sind, umfasst eine Objektextrahiervorrichtung, die Infrarotstrahlung abgebende Objektbilder aus dem Infrarotbild extrahiert, sowie eine künstliche Struktur-Identifiziervorrichtung, die identifiziert, ob ein Objekt eine künstliche Struktur ist oder nicht, indem sie das von der Objektbild-Extrahiervorrichtung extrahierte Objektbild mit einem Referenzbild vergleicht, das ein geradliniges Muster oder ein rechtwinkliges Muster aufweist.

Claims (4)

1. Fahrzeugzonen-Überwachungsvorrichtung, die einen in der Nähe des Fahrzeugs befindlichen physischen Körper aus von einer Fotografiervorrichtung (2R, 2L) aufgenommenen Infrarotbildern erfasst, umfassend:
eine Objektextrahiervorrichtung (S1 bis S7), die ein Infrarotstrahlung abgebendes Objekt aus den Infrarotbildern erfasst; und
eine künstliche-Struktur-Identifiziervorrichtung (S25 bis S28), die ein Bild eines Objekts, das durch die Objekt- Extrahiervorrichtung (S1 bis S7) extrahiert ist, mit einem Referenzbild eines Elements vergleicht, das eine künstliche Struktur definiert, und identifiziert, ob das Objekt eine künstliche Struktur ist oder nicht.
2. Fahrzeugzonen-Überwachungsvorrichtung nach Anspruch 1, gekennzeichnet durch eine künstliche-Struktur-Eleminiervorrichtung (S30), die Objekte, die von der künstliche-Struktur-Identifiziervorrichtung (S25 bis S28) als künstliche Strukturen identifiziert worden sind, von den Objekten, die von der Objektextrahiervorrichtung (S1 bis S7) extrahiert worden sind, eliminiert.
3. Fahrzeugzonen-Überwachungsvorrichtung nach Anspruch 1 oder Anspruch 2, dadurch gekennzeichnet,
dass das Referenzbild ein Bild enthält, das ein geradliniges Segment repräsentiert; und
die künstliche-Struktur-Identifiziervorrichtung (S25 bis S28) Objekte, die ein geradliniges Segment enthalten, als künstliche Struktur identifiziert.
4. Fahrzeugzonen-Überwachungsvorrichtung nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die künstliche-Struktur-Identifiziervorrichtung (S25 bis S28) eine Referenzbilddimensions-Veränderungsvorrichtung (S32, S52, S72) aufweist, die die Größe des Referenzbilds so verändert, dass sie proportional zum Abstand zwischen dem Fahrzeug und dem Objekt ist.
DE10228638A 2001-06-28 2002-06-26 Fahrzeugzonen-Überwachungsvorrichtung Expired - Fee Related DE10228638B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2001197312A JP2003016429A (ja) 2001-06-28 2001-06-28 車両周辺監視装置
JP2001-197312 2001-06-28

Publications (2)

Publication Number Publication Date
DE10228638A1 true DE10228638A1 (de) 2003-01-16
DE10228638B4 DE10228638B4 (de) 2007-12-20

Family

ID=19034940

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10228638A Expired - Fee Related DE10228638B4 (de) 2001-06-28 2002-06-26 Fahrzeugzonen-Überwachungsvorrichtung

Country Status (3)

Country Link
US (2) US20030007074A1 (de)
JP (1) JP2003016429A (de)
DE (1) DE10228638B4 (de)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10348109A1 (de) * 2003-10-16 2005-05-19 Bayerische Motoren Werke Ag Verfahren und Vorrichtung zur Sichtbarmachung einer Fahrzeugumgebung
DE10355474A1 (de) * 2003-11-27 2005-06-23 Daimlerchrysler Ag Abstandswarnsystem
US7330568B2 (en) 2003-03-20 2008-02-12 Honda Motor Co., Ltd. Device for monitoring around vehicle
DE102005026876B4 (de) * 2004-06-14 2008-03-27 Honda Motor Co., Ltd. Fahrzeugumgebungs-Überwachungsvorrichtung
US7388476B2 (en) 2004-11-30 2008-06-17 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
DE102007021643A1 (de) 2007-05-09 2008-11-20 Docter Optics Gmbh Kamera für digitale Bildverarbeitung
DE102007025108A1 (de) 2007-05-30 2008-12-11 Docter Optics Gmbh Objektiv insbesondere für ein Fahrassistenzsystem
US7489805B2 (en) 2004-11-30 2009-02-10 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7515737B2 (en) 2004-11-30 2009-04-07 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7526104B2 (en) 2004-11-30 2009-04-28 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7545955B2 (en) 2004-11-30 2009-06-09 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7561719B2 (en) 2004-11-30 2009-07-14 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7567688B2 (en) 2004-11-30 2009-07-28 Honda Motor Co., Ltd. Apparatus for and method of extracting image
US7590263B2 (en) 2004-11-30 2009-09-15 Honda Motor Co., Ltd. Vehicle vicinity monitoring apparatus
US7599521B2 (en) 2004-11-30 2009-10-06 Honda Motor Co., Ltd. Vehicle vicinity monitoring apparatus
US7616806B2 (en) 2004-11-30 2009-11-10 Honda Motor Co., Ltd. Position detecting apparatus and method of correcting data therein
US7620237B2 (en) 2004-11-30 2009-11-17 Honda Motor Co., Ltd. Position detecting apparatus and method of correcting data therein
DE102005056429B4 (de) * 2004-11-30 2010-09-30 Honda Motor Co., Ltd. Fahrzeugumgebungsüberwachungsvorrichtung
DE102004010197B4 (de) * 2004-03-02 2015-04-16 Sick Ag Verfahren zur Funktionskontrolle einer Positionsermittlungs- oder Umgebungserfassungseinrichtung eines Fahrzeugs oder zur Kontrolle einer digitalen Karte
DE102016215058A1 (de) 2016-08-12 2018-02-15 Bayerische Motoren Werke Aktiengesellschaft Verbesserte Regelung der Innenraumtemperatur

Families Citing this family (87)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3764086B2 (ja) * 2001-10-29 2006-04-05 本田技研工業株式会社 車両用情報提供装置
US7956889B2 (en) * 2003-06-04 2011-06-07 Model Software Corporation Video surveillance system
JP4766841B2 (ja) * 2003-09-08 2011-09-07 株式会社オートネットワーク技術研究所 車両に搭載されるカメラ装置及び車両周辺監視装置
JP3922245B2 (ja) * 2003-11-20 2007-05-30 日産自動車株式会社 車両周辺監視装置および方法
KR100543709B1 (ko) * 2003-12-23 2006-01-20 삼성전자주식회사 이동체의 회전 이동량 이용 방법과 장치 및 컴퓨터프로그램을 저장하는 컴퓨터로 읽을 수 있는 기록 매체
CN1886983A (zh) * 2003-12-25 2006-12-27 耐力有限公司 成像系统
JP3982504B2 (ja) * 2004-01-23 2007-09-26 日産自動車株式会社 車両用暗視カメラ装置および表示装置
JP4376653B2 (ja) * 2004-02-17 2009-12-02 富士重工業株式会社 車外監視装置
DE102004054072A1 (de) * 2004-11-09 2006-05-11 Siemens Ag Sensorsystem zur Erfassung eines Fußgängeraufpralls
EP1696669B1 (de) * 2005-02-24 2013-07-03 Aisin Seiki Kabushiki Kaisha Gerät zur Fahrzeugumgebungsbeobachtung
FR2883818B1 (fr) * 2005-03-31 2008-09-12 Valeo Vision Sa Procede de detection anticipee d'une arrivee d'un vehicule automobile dans un secteur sombre
DE102005054359A1 (de) * 2005-11-15 2007-05-16 Leuze Lumiflex Gmbh & Co Kg Schutzeinrichtung
JP4611919B2 (ja) * 2006-03-23 2011-01-12 本田技研工業株式会社 歩行者認識装置
JP4171501B2 (ja) 2006-04-25 2008-10-22 本田技研工業株式会社 車両の周辺監視装置
JP4813304B2 (ja) * 2006-09-19 2011-11-09 本田技研工業株式会社 車両周辺監視装置
US7831098B2 (en) * 2006-11-07 2010-11-09 Recognition Robotics System and method for visual searching of objects using lines
GB2443664A (en) * 2006-11-10 2008-05-14 Autoliv Dev An infra red object detection system de-emphasizing non relevant hot objects
JP5108605B2 (ja) * 2008-04-23 2012-12-26 三洋電機株式会社 運転支援システム及び車両
JP4377439B1 (ja) * 2008-06-12 2009-12-02 本田技研工業株式会社 車両周辺監視装置
JP4864953B2 (ja) * 2008-10-08 2012-02-01 本田技研工業株式会社 車両周辺監視装置
EP3032922B1 (de) 2008-11-17 2018-09-19 Express Imaging Systems, LLC Elektronische steuerung zur regulierung der leistung für festkörperbeleuchtung und verfahren dafür
CN201402328Y (zh) * 2009-03-30 2010-02-10 德尔福技术有限公司 离车安全性检测设备
US8926139B2 (en) * 2009-05-01 2015-01-06 Express Imaging Systems, Llc Gas-discharge lamp replacement with passive cooling
WO2010135575A2 (en) 2009-05-20 2010-11-25 Express Imaging Systems, Llc Long-range motion detection for illumination control
WO2010135582A2 (en) 2009-05-20 2010-11-25 Express Imaging Systems, Llc Apparatus and method of energy efficient illumination
US9292909B2 (en) * 2009-06-03 2016-03-22 Flir Systems, Inc. Selective image correction for infrared imaging devices
TW201146015A (en) * 2010-06-14 2011-12-16 Hon Hai Prec Ind Co Ltd Monitoring system and method
US9158738B2 (en) 2010-07-09 2015-10-13 Honda Motor Co., Ltd. Apparatus for monitoring vicinity of a vehicle
JP4820462B1 (ja) * 2010-10-22 2011-11-24 パイオニア株式会社 端末装置、端末装置によって実行される画像処理方法及び画像処理プログラム
TW201217201A (en) * 2010-10-29 2012-05-01 Univ Nat Taiwan Science Tech Real-time warning system on vehicle windshield and performing method thereof
WO2012066751A1 (ja) 2010-11-16 2012-05-24 本田技研工業株式会社 車両の周辺監視装置
CN102685382B (zh) * 2011-03-18 2016-01-20 安尼株式会社 图像处理装置和方法、及移动体防碰撞装置
JP5533766B2 (ja) * 2011-04-05 2014-06-25 株式会社デンソー 車両用表示装置
US8901825B2 (en) 2011-04-12 2014-12-02 Express Imaging Systems, Llc Apparatus and method of energy efficient illumination using received signals
WO2012164804A1 (ja) * 2011-06-02 2012-12-06 パナソニック株式会社 物体検出装置、物体検出方法および物体検出プログラム
GB2494414A (en) * 2011-09-06 2013-03-13 Land Rover Uk Ltd Terrain visualisation for vehicle using combined colour camera and time of flight (ToF) camera images for augmented display
CN103918252B (zh) * 2011-11-04 2017-06-06 英派尔科技开发有限公司 用于图像的ir信号捕获
US9360198B2 (en) 2011-12-06 2016-06-07 Express Imaging Systems, Llc Adjustable output solid-state lighting device
US9497393B2 (en) * 2012-03-02 2016-11-15 Express Imaging Systems, Llc Systems and methods that employ object recognition
JP5480925B2 (ja) * 2012-03-05 2014-04-23 本田技研工業株式会社 車両周辺監視装置
KR20130117411A (ko) * 2012-04-17 2013-10-28 한국전자통신연구원 사용자 인식 장치 및 그 방법
US9210751B2 (en) 2012-05-01 2015-12-08 Express Imaging Systems, Llc Solid state lighting, drive circuit and method of driving same
US9204523B2 (en) 2012-05-02 2015-12-01 Express Imaging Systems, Llc Remotely adjustable solid-state lamp
US9738253B2 (en) * 2012-05-15 2017-08-22 Aps Systems, Llc. Sensor system for motor vehicle
JP5502149B2 (ja) * 2012-06-29 2014-05-28 本田技研工業株式会社 車両周辺監視装置
US9131552B2 (en) 2012-07-25 2015-09-08 Express Imaging Systems, Llc Apparatus and method of operating a luminaire
US8896215B2 (en) 2012-09-05 2014-11-25 Express Imaging Systems, Llc Apparatus and method for schedule based operation of a luminaire
US9301365B2 (en) 2012-11-07 2016-03-29 Express Imaging Systems, Llc Luminaire with switch-mode converter power monitoring
US9210759B2 (en) 2012-11-19 2015-12-08 Express Imaging Systems, Llc Luminaire with ambient sensing and autonomous control capabilities
US9288873B2 (en) 2013-02-13 2016-03-15 Express Imaging Systems, Llc Systems, methods, and apparatuses for using a high current switching device as a logic level sensor
EA032553B1 (ru) * 2013-05-27 2019-06-28 Экин Текнолоджи Санайи Ве Тикарет Аноним Ширкети Мобильная система распознавания регистрационного номера и определения скорости
US9466443B2 (en) 2013-07-24 2016-10-11 Express Imaging Systems, Llc Photocontrol for luminaire consumes very low power
JP2015024713A (ja) * 2013-07-25 2015-02-05 トヨタ自動車株式会社 衝突判定装置
US9414449B2 (en) 2013-11-18 2016-08-09 Express Imaging Systems, Llc High efficiency power controller for luminaire
US10065562B2 (en) 2013-12-31 2018-09-04 International Business Mahcines Corporation Vehicle collision avoidance
US9185777B2 (en) 2014-01-30 2015-11-10 Express Imaging Systems, Llc Ambient light control in solid state lamps and luminaires
JP6303956B2 (ja) * 2014-09-24 2018-04-04 株式会社デンソー 軸ずれ量推定装置
US9572230B2 (en) 2014-09-30 2017-02-14 Express Imaging Systems, Llc Centralized control of area lighting hours of illumination
WO2016064542A1 (en) 2014-10-24 2016-04-28 Express Imaging Systems, Llc Detection and correction of faulty photo controls in outdoor luminaires
CN105761546B (zh) * 2014-12-16 2018-06-12 中国移动通信集团公司 一种车辆防碰撞的方法、装置和系统
US9462662B1 (en) 2015-03-24 2016-10-04 Express Imaging Systems, Llc Low power photocontrol for luminaire
JP6384419B2 (ja) * 2015-07-24 2018-09-05 トヨタ自動車株式会社 動物種類判定装置
US9538612B1 (en) 2015-09-03 2017-01-03 Express Imaging Systems, Llc Low power photocontrol for luminaire
US9924582B2 (en) 2016-04-26 2018-03-20 Express Imaging Systems, Llc Luminaire dimming module uses 3 contact NEMA photocontrol socket
DE102016114168A1 (de) * 2016-08-01 2018-02-01 Connaught Electronics Ltd. Verfahren zum Erfassen eines Objekts in einem Umgebungsbereich eines Kraftfahrzeugs mit Vorhersage der Bewegung des Objekts, Kamerasystem sowie Kraftfahrzeug
US10230296B2 (en) 2016-09-21 2019-03-12 Express Imaging Systems, Llc Output ripple reduction for power converters
US9985429B2 (en) 2016-09-21 2018-05-29 Express Imaging Systems, Llc Inrush current limiter circuit
CN106600628B (zh) * 2016-12-13 2020-12-22 广州紫川电子科技有限公司 一种基于红外热像仪的目标物识别的方法与装置
US10098212B2 (en) 2017-02-14 2018-10-09 Express Imaging Systems, Llc Systems and methods for controlling outdoor luminaire wireless network using smart appliance
US11375599B2 (en) 2017-04-03 2022-06-28 Express Imaging Systems, Llc Systems and methods for outdoor luminaire wireless control
US10904992B2 (en) 2017-04-03 2021-01-26 Express Imaging Systems, Llc Systems and methods for outdoor luminaire wireless control
US10568191B2 (en) 2017-04-03 2020-02-18 Express Imaging Systems, Llc Systems and methods for outdoor luminaire wireless control
US10219360B2 (en) 2017-04-03 2019-02-26 Express Imaging Systems, Llc Systems and methods for outdoor luminaire wireless control
US10699386B2 (en) 2017-06-05 2020-06-30 Adasky, Ltd. Techniques for scene-based nonuniformity correction in shutterless FIR cameras
US10929955B2 (en) 2017-06-05 2021-02-23 Adasky, Ltd. Scene-based nonuniformity correction using a convolutional recurrent neural network
US11012594B2 (en) 2017-06-05 2021-05-18 Adasky, Ltd. Techniques for correcting oversaturated pixels in shutterless FIR cameras
US10511793B2 (en) 2017-06-05 2019-12-17 Adasky, Ltd. Techniques for correcting fixed pattern noise in shutterless FIR cameras
EP3621850B1 (de) 2017-06-05 2023-08-30 Adasky, Ltd. Blendenfreie ferninfrarot (fir)-kamera für sicherheits- und antriebssysteme in kraftfahrzeugen
DE112018004835T5 (de) * 2017-09-01 2020-07-16 Murakami Corporation Kollisionsvorhersagevorrichtung, Kollisionsvorhersageverfahren und Programm
CN107791952A (zh) * 2017-09-25 2018-03-13 长安大学 一种行车盲区生物体检测报警系统及方法
WO2019177019A1 (ja) * 2018-03-14 2019-09-19 パナソニックIpマネジメント株式会社 信号機認識装置、信号機認識方法およびプログラム
US11234304B2 (en) 2019-05-24 2022-01-25 Express Imaging Systems, Llc Photocontroller to control operation of a luminaire having a dimming line
US11317497B2 (en) 2019-06-20 2022-04-26 Express Imaging Systems, Llc Photocontroller and/or lamp with photocontrols to control operation of lamp
US10915766B2 (en) * 2019-06-28 2021-02-09 Baidu Usa Llc Method for detecting closest in-path object (CIPO) for autonomous driving
WO2021008712A1 (en) * 2019-07-18 2021-01-21 Toyota Motor Europe Method for calculating information relative to a relative speed between an object and a camera
US11212887B2 (en) 2019-11-04 2021-12-28 Express Imaging Systems, Llc Light having selectively adjustable sets of solid state light sources, circuit and method of operation thereof, to provide variable output characteristics
CN113821023B (zh) * 2021-08-05 2024-05-24 百工汇智(上海)工业科技有限公司 一种用于智能地坪划线机器人的划线方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5341142A (en) * 1987-07-24 1994-08-23 Northrop Grumman Corporation Target acquisition and tracking system
US5461357A (en) * 1992-01-29 1995-10-24 Mazda Motor Corporation Obstacle detection device for vehicle
JPH05265547A (ja) 1992-03-23 1993-10-15 Fuji Heavy Ind Ltd 車輌用車外監視装置
US5325449A (en) * 1992-05-15 1994-06-28 David Sarnoff Research Center, Inc. Method for fusing images and apparatus therefor
US5414439A (en) * 1994-06-09 1995-05-09 Delco Electronics Corporation Head up display with night vision enhancement
US6720920B2 (en) * 1997-10-22 2004-04-13 Intelligent Technologies International Inc. Method and arrangement for communicating between vehicles
JPH09119982A (ja) 1995-10-26 1997-05-06 Mitsubishi Heavy Ind Ltd 飛しょう体誘導装置
AU1084397A (en) * 1995-12-01 1997-06-19 Southwest Research Institute Methods and apparatus for traffic incident detection
JP3727400B2 (ja) 1996-02-22 2005-12-14 株式会社日本自動車部品総合研究所 横断者の検出装置
CA2201080C (en) * 1996-03-27 2000-01-25 Her Majesty The Queen, In Right Of Canada, As Represented By The Ministe R Of Industry Ultrasonic detection system for safety of vehicle passengers
US5880777A (en) * 1996-04-15 1999-03-09 Massachusetts Institute Of Technology Low-light-level imaging and image processing
US5937077A (en) * 1996-04-25 1999-08-10 General Monitors, Incorporated Imaging flame detection system
US5831669A (en) * 1996-07-09 1998-11-03 Ericsson Inc Facility monitoring system with image memory and correlation
DE59809476D1 (de) * 1997-11-03 2003-10-09 Volkswagen Ag Autonomes Fahrzeug und Verfahren zur Steuerung eines autonomen Fahrzeuges
US6570608B1 (en) * 1998-09-30 2003-05-27 Texas Instruments Incorporated System and method for detecting interactions of people and vehicles
US6266442B1 (en) * 1998-10-23 2001-07-24 Facet Technology Corp. Method and apparatus for identifying objects depicted in a videostream
JP3515926B2 (ja) * 1999-06-23 2004-04-05 本田技研工業株式会社 車両の周辺監視装置
JP2001108758A (ja) 1999-10-06 2001-04-20 Matsushita Electric Ind Co Ltd 人物検出装置
JP4205825B2 (ja) * 1999-11-04 2009-01-07 本田技研工業株式会社 対象物認識装置
JP3760068B2 (ja) * 1999-12-02 2006-03-29 本田技研工業株式会社 画像認識装置
US6445832B1 (en) * 2000-10-10 2002-09-03 Lockheed Martin Corporation Balanced template tracker for tracking an object image sequence
US6737963B2 (en) * 2001-03-30 2004-05-18 Koninklijke Philips Electronics N.V. Driver tailgating and following aid

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004012811B4 (de) * 2003-03-20 2009-02-12 Honda Motor Co., Ltd. Vorrichtung zum Überwachen der Umgebung eines Fahrzeugs
US7330568B2 (en) 2003-03-20 2008-02-12 Honda Motor Co., Ltd. Device for monitoring around vehicle
US7593573B2 (en) 2003-10-16 2009-09-22 Bayerische Motoren Werke Aktiengesellschaft Method and device for visualizing the surroundings of a vehicle
DE10348109A1 (de) * 2003-10-16 2005-05-19 Bayerische Motoren Werke Ag Verfahren und Vorrichtung zur Sichtbarmachung einer Fahrzeugumgebung
DE10355474A1 (de) * 2003-11-27 2005-06-23 Daimlerchrysler Ag Abstandswarnsystem
DE102004010197B4 (de) * 2004-03-02 2015-04-16 Sick Ag Verfahren zur Funktionskontrolle einer Positionsermittlungs- oder Umgebungserfassungseinrichtung eines Fahrzeugs oder zur Kontrolle einer digitalen Karte
DE102005026876B4 (de) * 2004-06-14 2008-03-27 Honda Motor Co., Ltd. Fahrzeugumgebungs-Überwachungsvorrichtung
US7590263B2 (en) 2004-11-30 2009-09-15 Honda Motor Co., Ltd. Vehicle vicinity monitoring apparatus
US7620237B2 (en) 2004-11-30 2009-11-17 Honda Motor Co., Ltd. Position detecting apparatus and method of correcting data therein
US7515737B2 (en) 2004-11-30 2009-04-07 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7526104B2 (en) 2004-11-30 2009-04-28 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7545955B2 (en) 2004-11-30 2009-06-09 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7561719B2 (en) 2004-11-30 2009-07-14 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7567688B2 (en) 2004-11-30 2009-07-28 Honda Motor Co., Ltd. Apparatus for and method of extracting image
US7388476B2 (en) 2004-11-30 2008-06-17 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7969466B2 (en) 2004-11-30 2011-06-28 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7599521B2 (en) 2004-11-30 2009-10-06 Honda Motor Co., Ltd. Vehicle vicinity monitoring apparatus
US7616806B2 (en) 2004-11-30 2009-11-10 Honda Motor Co., Ltd. Position detecting apparatus and method of correcting data therein
US7489805B2 (en) 2004-11-30 2009-02-10 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
DE102005056645B4 (de) * 2004-11-30 2010-09-16 Honda Motor Co., Ltd. Fahrzeugumgebungsüberwachungsvorrichtung
DE102005056616B4 (de) * 2004-11-30 2010-09-23 Honda Motor Co., Ltd. Fahrzeugumgebungsüberwachungsvorrichtung
DE102005056666B4 (de) * 2004-11-30 2010-09-30 Honda Motor Co., Ltd. Fahrzeugumgebungsüberwachungsvorrichtung
DE102005056429B4 (de) * 2004-11-30 2010-09-30 Honda Motor Co., Ltd. Fahrzeugumgebungsüberwachungsvorrichtung
DE102005057090B4 (de) * 2004-11-30 2011-02-03 Honda Motor Co., Ltd. Vorrichtung zur und Verfahren der Bildextraktion
DE102005056647B4 (de) * 2004-11-30 2011-02-03 Honda Motor Co., Ltd. Fahrzeugumgebungsüberwachungsvorrichtung
DE102005056664B4 (de) * 2004-11-30 2011-02-10 Honda Motor Co., Ltd. Fahrzeugumgebungsüberwachungsvorrichtung
DE102005056665B4 (de) * 2004-11-30 2011-03-17 Honda Motor Co., Ltd. Fahrzeugumgebungsüberwachungsvorrichtung
DE102007021643A1 (de) 2007-05-09 2008-11-20 Docter Optics Gmbh Kamera für digitale Bildverarbeitung
US8212689B2 (en) 2007-05-30 2012-07-03 Docter Optics Gmbh Objective, in particular for a driver assistance system
DE102007025108A1 (de) 2007-05-30 2008-12-11 Docter Optics Gmbh Objektiv insbesondere für ein Fahrassistenzsystem
DE102016215058A1 (de) 2016-08-12 2018-02-15 Bayerische Motoren Werke Aktiengesellschaft Verbesserte Regelung der Innenraumtemperatur

Also Published As

Publication number Publication date
US20030007074A1 (en) 2003-01-09
US8144195B2 (en) 2012-03-27
US20090046151A1 (en) 2009-02-19
JP2003016429A (ja) 2003-01-17
DE10228638B4 (de) 2007-12-20

Similar Documents

Publication Publication Date Title
DE10228638B4 (de) Fahrzeugzonen-Überwachungsvorrichtung
DE10247371B4 (de) Fahrzeuginformation-Bereitstellungsvorrichtung
DE10251880B4 (de) Bilderkennungsvorrichtung
DE10301468B4 (de) Vorrichtung zur Beobachtung der Umgebung eines Fahrzeugs
DE10026586B4 (de) Objekterfassungssystem
DE102005056645B4 (de) Fahrzeugumgebungsüberwachungsvorrichtung
DE102005026875B4 (de) Fahrzeugumgebungs-Überwachungsvorrichtung
DE10030421B4 (de) Fahrzeugumgebungsüberwachungssystem
DE102014116140B4 (de) Einparkhilfsvorrichtung und Einparkhilfsverfahren für ein Fahrzeug
DE69937699T2 (de) Vorrichtung zum Überwachen der Umgebung eines Fahrzeuges
DE102005026876B4 (de) Fahrzeugumgebungs-Überwachungsvorrichtung
DE102005056429B4 (de) Fahrzeugumgebungsüberwachungsvorrichtung
DE69932021T2 (de) Dreidimensionales Darstellungssystem mit einer einzelnen Kamera für Fahrzeuge
DE10301469B4 (de) Infrarotbildverarbeitungsvorrichtung
DE102004041919B4 (de) Fahrzeugumgebungs-Überwachungseinrichtung
DE60126382T2 (de) Verfahren und Gerät zur Erkennung von Gegenständen
DE102013102144B4 (de) Vorrichtung zum Steuern von Fahrzeugscheinwerfern
DE102005056647B4 (de) Fahrzeugumgebungsüberwachungsvorrichtung
DE102005056616B4 (de) Fahrzeugumgebungsüberwachungsvorrichtung
DE102004012811A1 (de) Vorrichtung zum Überwachen der Umgebung eines Fahrzeugs
EP1995692A2 (de) Verfahren zur Erkennung und Verfolgung von Objekten
DE10029423A1 (de) Objekterkennungssystem
DE102017218366A1 (de) Verfahren und system zur fussgängererfassung in einem fahrzeug
DE102007022940A1 (de) Fahrzeugumgebungs-Überwachungsvorrichtung
DE102005056664B4 (de) Fahrzeugumgebungsüberwachungsvorrichtung

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8364 No opposition during term of opposition
R084 Declaration of willingness to licence
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee