DE102005056616B4 - Fahrzeugumgebungsüberwachungsvorrichtung - Google Patents

Fahrzeugumgebungsüberwachungsvorrichtung Download PDF

Info

Publication number
DE102005056616B4
DE102005056616B4 DE102005056616A DE102005056616A DE102005056616B4 DE 102005056616 B4 DE102005056616 B4 DE 102005056616B4 DE 102005056616 A DE102005056616 A DE 102005056616A DE 102005056616 A DE102005056616 A DE 102005056616A DE 102005056616 B4 DE102005056616 B4 DE 102005056616B4
Authority
DE
Germany
Prior art keywords
edge
horizontal
image
vehicle
horizontal edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE102005056616A
Other languages
English (en)
Other versions
DE102005056616A1 (de
Inventor
Nobuharu Wako Nagaoka
Takayuki Wako Tsuji
Masahito Wako Watanabe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of DE102005056616A1 publication Critical patent/DE102005056616A1/de
Application granted granted Critical
Publication of DE102005056616B4 publication Critical patent/DE102005056616B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/60Instruments characterised by their location or relative disposition in or on vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/77Instrument locations other than the dashboard
    • B60K2360/785Instrument locations other than the dashboard on or in relation to the windshield or windows
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • B60W2520/105Longitudinal acceleration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/14Yaw
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/12Brake pedal position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • G01S3/7864T.V. type tracking systems

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Chemical & Material Sciences (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

Fahrzeugumgebungsüberwachungsvorrichtung, welche auf Grundlage eines mittels einer Infrarotabbildungsvorrichtung (2R, 2L) aufgenommenen Graustufenbildes einen in der Umgebung eines Fahrzeugs (10) vorhandenen Körper als ein Objekt extrahiert, umfassend:
eine Extraktionseinrichtung, die aus durch Binärisieren des Graustufenbildes erhaltenen Bilddaten ein binärisiertes Objekt extrahiert;
eine Kantenerfassungseinrichtung, die eine Kante in dem Graustufenbild erfasst;
eine Horizontalkanten-Bestimmungseinrichtung, die bestimmt, ob die durch die Kanten-Erfassungseinrichtung erfasste horizontale Kante in einem vorgeschriebenen Bereich von der oberen Endposition (OBJ_TOP) oder der unteren Endposition (OBJ_BOT) des durch die Extraktionseinrichtung extrahierten binärisierten Objekts existiert; und eine Objekttyp-Bestimmungseinrichtung, die auf Grundlage eines Bestimmungsergebnisses der Horizontalkanten-Bestimmungseinrichtung einen Objekttyp bestimmt,
dadurch gekennzeichnet, dass die Kantenerfassungseinrichtung dort, wo horizontale Linien (I) Seiten des Objekts in dem Graustufenbild schneiden, horizontale Kanten erfasst, und dass, wenn der Längenanteil (RATE (I)) einer solchen horizontalen Kante, deren Höhenposition relativ zu den anderen horizontalen Kanten maximal oder minimal ist, die Länge der horizontalen Linien (I) um...

Description

  • Die vorliegende Erfindung betrifft eine Fahrzeugumgebungsüberwachungsvorrichtung, die Objekte durch Durchführen einer Binärisierungsverarbeitung von durch Infrarotkameras aufgenommenen Bildern extrahiert.
  • Herkömmlich ist eine Anzeigeverarbeitungseinrichtung bekannt, bei der ein Objekt, etwa ein Fußgänger, der möglicherweise mit einem Fahrzeug zusammenstößt, aus einem durch eine Infrarotkamera aufgenommen Infrarotbild einer Fahrzeugumgebung extrahiert wird und Information über dieses Objekt dem Fahrer zur Verfügung gestellt wird (siehe beispielsweise die JP-A-H11-328364 ).
  • Diese Anzeigeverarbeitungseinrichtung sucht durch Binärisieren des Inrarotbilds einen Bereich (binärisiertes Objekt), in dem helle Teile konzentriert sind, und bestimmt auf Grundlage des aus einem Seitenverhältnis oder Füllfaktor des binärisierten Objekts berechneten Abstands, ob das binärisierte Objekt der Kopf eines Fußgängers ist. Sie bestimmt darüber hinaus eine tatsächliche Fläche und einen Schwerpunkt im Infrarotbild. Dann wird die Höhe des Fußgängers im Infrarotbild aus dem Abstand zwischen dem Kopfteilbereich des Fußgängers und der Infrarotkamera sowie einer Durchschnittshöhe von erwachsenen Personen berechnet, und ein den Körper eines Fußgängers enthaltender Körperbereich wird festgelegt. Durch Trennen und Anzeigen des Kopfbereichs und des Körperbereichs von anderen Bereichen wird bezüglich eines Fußgängers eine anschauliche Unterstützung für den Fahrer durchgeführt.
  • Da übrigens die Anzeigeverarbeitungsvorrichtung des Beispiels des oben genannten Stands der Technik einen Fußgänger aufgrund einer Bestimmung der Form für einen Kopfteilbereich oder einen Körperteilbereich im Infrarotbild erfasst, kann es schwierig werden, einen Fußgänger von einer künstlichen Struktur zu unterscheiden, die die Form eines Fußgängers hat, und insbesondere eine ähnliche Form, Größe und Positionshöhe des Fußgängerkopfes hat und Wärme abstrahlt.
  • Aus der DE 102 28 638 A1 ist eine Fahrzeugumgebungsüberwachungsvorrichtung nach dem Oberbegriff von Anspruch 1 bekannt. Dort wird eine künstliche Struktur basierend auf einer horizontalen Kante bestimmt, welche wiederum mittels einer Mustervorlage bestimmt wird, nicht aber gemäß dem horizontalen Längenanteil einer Kante davon.
  • Aufgabe der vorliegenden Erfindung ist es, eine Fahrzeugumgebungsüberwachungsvorrichtung bereitzustellen, die in der Lage ist, einen Fußgänger und eine künstliche Struktur in einem Infrarotbild genau zu unterscheiden und zu extrahieren.
  • Zur Lösung der obigen Aufgabe sieht die vorliegende Erfindung eine Fahrzeugumgebungsüberwachungsvorrichtung gemäß Anspruch 1 vor.
  • Die Vorrichtung extrahiert einen in der Umgebung eines Fahrzeugs als ein Objekt vorhandenen Körper auf Grundlage eines durch eine Infrarotabbildungseinrichtung aufgenommenen Bildes und umfasst eine Extraktionseinrichtung für ein binärisiertes Objekt, welche ein binärisiertes Objekt aus durch Binärisieren von Graustufenbildern des Bildes erhaltenen Bilddaten extrahiert, eine Kanten-Erfassungseinrichtung, die Kanten in dem Graustufenbild erfasst, eine Horizontalkanten-Bestimmungseinrichtung, die bestimmt, ob eine jeweilige durch die Kanten-Erfassungseinrichtung erfasste Horizontalkante in einem vorgeschriebenen Bereich von einem oberen Ende oder einem unteren Ende des durch die Extraktionseinrichtung für ein binärisiertes Objekt extrahierten binärisierten Objekts existiert, sowie eine Objekttyp-Bestimmungseinrichtung, die einen Objekttyp auf Grundlage eines Bestimmungsergebnisses der Horizontalkanten-Bestimmungseinrichtung bestimmt.
  • Gemäß der oben beschriebenen Fahrzeugumgebungsüberwachungsvorrichtung kann eine künstliche Struktur als Objekttyp, bei dem horizontale Kanten in einem vorgeschriebenen Bereich vom oberen Ende oder unteren Ende des binärisierten Objekts schwierig zu erfassen sind, und etwas anderes als eine künstliche Struktur, nämlich ein Fußgänger, mit leicht erfassbaren horizontalen Kanten am oberen Ende oder unteren Ende des binärisierten Objekts genau unterschieden werden.
  • Die Fahrzeugumgebungsüberwachungsvorrichtung enthält eine Fußgängererkennungseinrichtung, welche in der Umgebung eines Fahrzeugs vorhandene Fußgänger auf Grundlage des Bildes erkennt, wobei die Fußgängererkennungseinrichtung eine Fußgängererkennungsverarbeitung an dem Objekt ausführt, wenn durch die Objekttypbestimmungseinrichtung bestimmt wird, dass das Objekt ein Fußgänger ist.
  • Hierdurch kann die Fußgängererkennungsgenauigkeit verbessert werden, indem die Fußgängererkennungsverarbeitung für das Objekt durchgeführt wird, als ein Fußgänger bestimmt wird.
  • Ferner kann die Fahrzeugumgebungsüberwachungseinrichtung eine Warnungsausgabeeinrichtung umfassen, welche eine das Objekt betreffende Warnung ausgibt, wenn das Objekt durch die Objekttypbestimmungseinrichtung als ein Fußgänger bestimmt wird.
  • Da in diesem Fall eine Warnung für ein Objekt, das als etwas anderes als eine künstliche Struktur bestimmt wird, sowie für ein Objekt, das als ein Fußgänger bestimmt wird, ausgegeben werden kann, können unnötige Warnungen für künstliche Strukturen vermieden werden.
  • Die Erfindung wird im Folgenden anhand eines bevorzugten Ausführungsbeispiels unter Bezugnahme auf die Figuren näher erläutert. Es zeigt:
  • 1 ein Blockdiagramm, das die Konstruktion einer Fahrzeugum gebungsüberwachungsvorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung zeigt;
  • 2 ein Diagramm, das ein mit der in 1 gezeigten Fahrzeugumgebungsüberwachungsvorrichtung ausgestattetes Fahrzeug zeigt;
  • 3 ein Flussdiagramm, das die Betriebsvorgänge der in 1 gezeigten Fahrzeugumgebungsüberwachungsvorrichtung zeigt;
  • 4 ein Flussdiagramm, das die in 3 gezeigte Warnungsbestimmungsverarbeitung zeigt;
  • 5 ein Diagramm, das ein Beispiel einer Relativposition zwischen einem Fahrzeug und einem Objekt zeigt;
  • 6 ein Diagramm, das ein Beispiel der Klassifikation der Bereiche, etwa eines vor dem Fahrzeug festgelegten Annäherungsbestimmungsbereichs zeigt;
  • 7 ein Diagramm, das ein Beispiel eines Zielbereichs (Maske) zeigt, welcher ein Horizontalkantenfassungsziel ist und welcher ein Bereich ist, der ein binärisiertes Objekt enthält;
  • 8 ein Diagramm, welches ein Beispiel einer in der in 7 gezeigten Maske erfassten horizontalen Kante zeigt;
  • 9 ein Diagramm, das ein Beispiel der Kantenerfassungsposition zeigt, bei der die Höhenposition der horizontalen Kante maximal ist (das heißt, die höchste Position in der Vertikalrichtung);
  • 10 ein Diagramm, das ein Beispiel der Kantenerfassungsposition und der Position des oberen Endes des binärisierten Objekts zeigt;
  • 11 ein Diagramm, das ein Beispiel eines Zielbereichs (Maske) zeigt, welcher eine Horizontalkantenerfassungsziel ist und welcher Bereich ist, der wenigstens den unteren Abschnitt des binärisierten Objekts enthält;
  • 12 ein Diagramm, das ein Beispiel der in der in 11 gezeigten Maske erfassten horizontalen Kante zeigt;
  • 13 ein Diagramm, das ein Beispiel der Kantenerfassungsposition und der Position des unteren Endes des binärisierten Objekts zeigt.
  • Hierin wird im Folgenden eine Fahrzeugumgebungsüberwachungsvorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung unter Bezugnahme auf die Zeichnungen beschrieben.
  • Die beispielhaft in 1 gezeigte Fahrzeugumgebungsüberwachungsvorrichtung gemäß der vorliegenden Ausführungsform umfasst: eine Bildverarbeitungseinheit 1, die mit einer CPU (zentralen Prozessoreinheit) ausgestattet ist, welche die Fahrzeugumgebungsüberwachungsvorrichtung steuert/regelt, zwei Infrarotkameras 2R und 2L, die in der Lage sind, entfernte Infrarotstrahlung zu erfassen, einen Gierratensensor 3, der die Gierrate des Fahrzeugs erfasst, einen Fahrzeuggeschwindigkeitssensor 4, der die Bewegungsgeschwindigkeit des Fahrzeugs erfasst, einen Bremssensor 5, der eine Bremsbetätigung eines Fahrers erfasst, einen Lautsprecher 6 und eine Anzeigevorrichtung 7. Beispielsweise erfasst die Bildverarbeitungseinheit 1 ein sich bewegendes Objekt, etwa einen Fußgänger oder ein Tier vor dem Fahrzeug in dessen Bewegungsrichtung aus Infrarotbildern der Umgebung des Fahrzeugs, die durch die beiden Infrarotkameras 2R, 2L aufgenommen werden, und aus Erfassungssignalen, welche den Bewegungszustand des durch jeden der Sensoren 3, 4 und 5 erfassten Fahrzeugs betreffen. In dem Fall, in dem die Möglichkeit einer Kollision zwischen dem erfassten sich bewegenden Objekt und dem Fahrzeug bestimmt wird, wird über die Lautsprecher 6 oder die Anzeigeeinrichtung 7 eine Warnung ausgegeben.
  • Weiterhin ist die Anzeigeeinrichtung 7 beispielsweise mit einer Anzeigeeinrichtung konstruiert, welche Instrumente umfasst, die verschiedene Bewegungszustände des Fahrzeugs anzeigen, mit einer Anzeigeeinrichtung in der Art einer Navigationseinrichtung, und ferner mit einem HUD (Head Up Display = projizierte Frontscheibenanzeige) 7a, welches Information verschiedener Art an einer Position an der Windschutzscheibe anzeigt, an der das Sichtfeld des Fahrers nicht beeinträchtigt ist.
  • Weiterhin enthält die Bildverarbeitungseinheit 1 einen A/D-Wandler, der Eingangsanalogsignale zu Digitalsignalen umwandelt, einen Bildspeicher, der digitalisierte Bildsignale speichert, eine CPU (zentrale Prozessoreinheit), die verschiedene arithmetische Prozeduren durchführt, einen RAM (Arbeitsspeicher), der zum Speichern von Daten in der Mitte der arithmetischen Prozedur verwendet wird, einen ROM (Nur-Lesespeicher), der durch die CPU ausgeführte Programme und Tabellen, Kennfelder und dergleichen speichert sowie eine Ausgangsschaltung, die Treibersignale für die Lautsprecher 6 und Anzeigesignale für das HUD 7a ausgibt. Die Bildverarbeitungseinheit 1 ist derart konstruiert, dass die Ausgangssignale der Infrarotkameras 2R und 2L und der jeweiligen Sensoren 3, 4 und 5 in die CPU eingegeben werden, nachdem sie in Digitalsignale umgewandelt worden sind.
  • Wie in 2 gezeigt ist, sind ferner zwei Infrarotkameras 2R und 2L an der Vorderseite des Fahrzeugs 10 an Stellen symmetrisch in Breitenrichtung relativ zur zentralen Achse des Fahrzeugs 10 angeordnet. Die optischen Achsen beider Kameras 2R, 2L sind parallel zueinander und beide Infrarotkameras 2R, 2L sind in derselben Höhe von der Straßenoberfläche aus befestigt. Eine Charakteristik der Infrarotkameras 2R, 2L ist, dass der Ausgangssignal pegel (das heißt die Luminanz oder Bildhelligkeit) ansteigt, wenn die Temperatur des Objekts ansteigt.
  • Weiterhin ist das HUD 7a derart vorgesehen, dass es die Bilder an einer Position an der Windschutzscheibe des Fahrzeugs 10 anzeigt, an der das Sichtfeld des Fahrers nicht beeinträchtigt ist.
  • Die Fahrzeugumgebungsüberwachungsvorrichtung gemäß der vorliegenden Ausführungsform ist mit der oben beschriebenen Konstruktion ausgestattet. Nachfolgend wird die Funktionsweise der Fahrzeugumgebungsüberwachungsvorrichtung unter Bezugnahme auf die Zeichnungen beschrieben.
  • Die Betriebsvorgänge der Bildverarbeitungseinheit 1 zur Erfassung eines Objekts, etwa eines Fußgängers, und Ausgabe einer Warnung werden im Folgenden beschrieben.
  • Zunächst erhält in dem in 3 gezeigten Schritt S1 die Bildverarbeitungseinheit 1 Infrarotbilder, die die Ausgangssignale von den Infrarotkameras 2R, 2L sind.
  • Nachfolgend wird in Schritt S2 eine A/D-Wandlung der erhaltenen Bilder durchgeführt.
  • Nachfolgend wird in Schritt S3 ein Graustufenbild, welches Halbtongradationsinformation (Graustufenrasterinformation) enthält, erhalten und in einem Bildspeicher abgespeichert. Hierbei nimmt die Infrarotkamera 2R das rechte Bild auf und die Infrarotkamera 2L das linke Bild auf. Weil ferner im rechten Bild und im linken Bild die horizontale Position am Anzeigeschirm für dasselbe Objekt verschoben erscheint, ermöglicht diese Verschiebung (das heißt die Parallaxe) die Berechnung des Abstands von dem Fahrzeug 10 zum Objekt.
  • Nachfolgend wird das durch die Infrarotkamera 2R aufgenommene rechte Bild als Referenzbild bestimmt und eine Binärisierungsverarbeitung dieses Bildsignals wird durchgeführt, das heißt Bereiche, die heller sind als ein vorbestimmter Luminanzschwellenwert (Bildhelligkeitsschwellenwert) ITH, werden auf ”1” (weiß) gesetzt und dunklere Bereiche werden auf ”0” (schwarz) gesetzt.
  • Die Prozedur von Schritt S4 bis S9 oben wird für das aus der Binärisierungsverarbeitung erhaltene Referenzbild durchgeführt (beispielsweise das rechte Bild).
  • Nachfolgend werden in Schritt S5 die als Ergebnis der Binärisierungsverarbeitung für die Infrarotbilder erhaltenen Bilddaten in lauflängenkodierte Daten umgewandelt. In den lauflängenkodierten Daten werden Bereiche, welche als Ergebnis der Binärisierungsverarbeitung weiß geworden sind, auf dem Pixelniveau als Zeilen angezeigt. Jede Zeile ist derart festgelegt, dass sie in der y-Richtung die Breite eines Pixels und in der x-Richtung die Länge einer entsprechend zugehörigen Anzahl von Pixeln aufweist.
  • Nachfolgend wird in Schritt S6 eine Kennzeichnung des Objekts für die in lauflängenkodierte Daten umgewandelten Bilddaten durchgeführt.
  • Nachfolgend wird in Schritt S7 das Objekt nach Maßgabe der Kennzeichnung des Objekts extrahiert. Hierbei werden in dem Fall, in dem aus jeweiligen Zeilen der lauflängenkodierten Daten Zeilen mit gleichen Koordinaten in x-Richtung zueinander benachbart sind, erkannt, dass die benachbarten Zeilen ein einzelnes Objekt bilden.
  • Nachfolgend wird in Schritt S8 der Schwerpunkt G des extrahierten Objekts, die Fläche S und das Seitenverhältnis ASPECT des umschriebenen Vierecks berechnet.
  • Hierbei werden, unter der Annahme, dass die lauflängenkodierten Daten des als A bezeichneten Objekts (x(i), y(i), Lauflänge(i), A) (i = 0, 1, 2, ..., N – 1, wobei N eine willkürliche nicht negative ganze Zahl ist), die Flächen S durch Addieren der Längen (Lauflänge(i) – 1) jedes lauflängenkodierten Datums für dasselbe Objekt berechnet.
  • Ferner werden die Koordinaten (xc, yc) des Schwerpunkts G des mit A bezeichneten Objekts durch Multiplizieren der Länge (Lauflänge(i) – 1), jedes lauflängenkodierten Datums mit den Koordinaten x(i) oder y(i) (das heißt (Lauflänge(i) – 1) × x(i) oder (Lauflänge(i) – 1) × y(i)), Addieren der Multiplikationsprodukte für dasselbe Objekt und Teilen des Ergebnisses durch die Fläche S berechnet.
  • Weiterhin wird das Seitenverhältnis ASPECT als das Verhältnis Dy/Dx der Länge Dy in der Vertikalrichtung eines um das mit A bezeichnete Objekt umschriebenen Vierecks gegenüber der Länge Dx in der Horizontalrichtung berechnet.
  • Da die lauflängenkodierten Daten durch die Anzahl von Pixeln (Anzahl von Koordinaten) repräsentiert werden (= Lauflänge(i)), ist es notwendig, von der tatsächlichen Länge 1 zu subtrahieren (= Lauflänge(i) – 1). Ferner können die Koordinaten des Schwerpunkts G durch den Schwerpunkt des umschriebenen Vierecks des Objekts ersetzt werden.
  • Nachfolgend werden die Schritte S9 und S10 sowie die Schritte S11 bis S13 parallel abgearbeitet.
  • Zunächst wird in Schritt S9 eine zeitliche Verfolgung des Objekts durchgeführt, das heißt dasselbe Objekt wird zu jeder Abtastzeit erkannt. Die zeitliche Verfolgung wird durchgeführt, um zu bestimmen, ob zwei zum Zeitintervall k extrahierte Objekte A und B dieselben sind wie die Körper C und D, die zur diskreten Zeit (k + 1) extrahiert worden sind. Die Zeitintervalle k, k + 1 sind hierbei eine innerhalb eines Abtastintervalls diskrete analoge Zeit. Wenn bestimmt wird, dass die Objekte A und B dieselben sind wie die Objekte C und D, werden die Objekte C und D als Objekte A und B umbenannt.
  • Dann werden die Koordinaten jedes erkannten Objekts (beispielsweise der Schwerpunkt) in dem Speicher als Zeitserienpositionsdaten gespeichert.
  • Nachfolgend wird in Schritt S10 die durch den Fahrzeuggeschwindigkeitssensor 4 erfasste Fahrzeuggeschwindigkeit VCAR und die durch den Gierratensensor 3 erfasste Gierrate YR erhalten und durch Nehmen des zeitlichen Integrals der Gierrate YR wird der Lenkwinkel θr des Fahrzeugs 10 berechnet.
  • Mittlerweile wird parallel zur Verarbeitung in Schritt S9 und S10 eine Verarbeitung zum Berechnen des Abstands z zwischen dem Objekt und dem Fahrzeug 10 in Schritt S11 bis Schritt S13 durchgeführt. Weil die Verarbeitung von Schritt S11 mehr Zeit erfordert als diejenige von Schritt S9 und S10, wird dieser für eine längere Zeitdauer als die Schritte S9 und S10 durchgeführt (eine Zeitdauer, die beispielsweise ungefähr dreimal länger ist als die Zeitdauer für die Schritte S1 bis S10).
  • Zunächst wird in Schritt S11 eine Mehrzahl der Objekte, die in den binärisierten Bilddaten des Referenzbilds (beispielsweise des rechten Bilds) verfolgt wurden, ausgewählt und beispielsweise wird der gesamte Bereich, welcher das ausgewählte Objekt durch ein umschriebenes Viereck umschließt, als ein Suchbild R1 aus dem Referenzbild (beispielsweise dem rechten Bild) ausgewählt.
  • Nachfolgend wird in Schritt S12 ein Suchbereich zum Suchen eines Bilds (entsprechendes Bild) R2 entsprechend dem Suchbereich R1 in dem Bild (beispielsweise dem linken Bild) festgelegt, das dem Referenzbild (beispielsweise dem rechten Bild) entspricht, und eine Korrelationsberechnung wird durchgeführt, um ein entsprechendes Bild R2 zu extrahieren. Hier wird beispielsweise ein Suchbereich in dem linken Bild festgelegt nach Maßgabe der Vertexkoordinaten des Suchbilds R1 festgelegt, ein Luminanzdifferenzsummenwert C(a, b), welcher den Korrelationsgrad des Suchbilds R1 in dem Suchbereich zeigt, berechnet und der Bereich, in dem dieser Summen wert C(a, b) am niedrigsten ist, als das entsprechende Bild R2 extrahiert. Weiterhin wird diese Korrelationsberechnung für das Graustufenbild durchgeführt, nicht für die von dem Binärisierungsprozess erhaltenen Bilddaten. In dem Fall, in dem die historischen Positionsdaten für dasselbe Objekt zur Verfügung stehen, kann der Suchbereich auf Grundlage der historischen Positionsdaten kleiner sein.
  • Nachfolgend wird in Schritt S13 die Position der Schwerpunkte sowohl des Suchbilds R1 als auch des entsprechenden Bilds R2 und die Parallaxe Δd auf dem Pixelniveau berechnet. Ferner wird der Abstand zwischen dem Fahrzeug 10 und dem Objekt, das heißt der Abstand z(m) (Objektabstand) von den Infrarotkameras 2R, 2L zum Objekt berechnet, beispielsweise auf Grundlage der Basislänge der Kameras, d. h. des horizontalen Abstands D (m) zwischen Mittelpunkten jeder Abbildungseinrichtung der Infrarotkameras 2R, 2L, dem Brennpunktsabstand der Kamera, d. h. dem Brennpunktsabstand f(m) jeder Linse der Infrarotkameras 2R, 2L, der Pixelteilung p (m/ Pixel) und der Parallaxe Δd (Pixel), wie im Ausdruck (1) gezeigt ist.
  • Figure 00110001
  • Wenn weiterhin in Schritt S14 die Berechnung des Lenkwinkels θr in Schritt S10 und die Berechnung des Abstands z in Schritt S13 vollständig sind, werden die Koordinaten im Bild (x, y) und der Abstand z in reale Raumkoordinaten (X, Y, Z) umgewandelt.
  • Wie in 2 gezeigt ist, werden hierbei beispielsweise die realen Raumkoordinaten (X, Y, Z) festgelegt durch Zuweisen des Ursprungs O zu der Mittelposition der Montageposition der Infrarotkameras 2R, 2L vor dem Fahrzeug 10 und die Koordinaten in dem Bild werden derart festgelegt, dass die Horizontalrichtung die x-Richtung ist und die Vertikalrichtung die y-Richtung ist, wobei der Mittelpunkt des Bilds im Ursprung liegt. Ferner sind die Koordinaten (xc, yc) die Koordinaten, die umgewandelt wurden aus den Ko ordinaten (x, y) im Referenzbild (beispielsweise dem rechten Bild) in die Koordinaten in einem virtuellen Bild, welches erhalten wurde durch Ausrichten des Ursprungs Odes realen Raums und des Mittelpunkts der Bilddaten derart, dass sie zusammenfallen, auf Grundlage der Relativpositionsbeziehung zwischen der Montageposition der Infrarotkamera 2R und des Ursprungs O im realen Raum.
  • Figure 00120001
  • Nachfolgend wird in Schritt S15 eine Lenkwinkelkorrektur durchgeführt, um die Verlagerung des Objekts im Bild, welche durch das Lenken des Fahrzeugs 10 verursacht wird, zu kompensieren. Diese Lenkwinkelkorrekturprozedur wird durchgeführt, um eine Verlagerung um Δx in der x-Richtung im Bereich der durch die Infrarotkameras 2R, 2L aufgenommenen Bilddaten zu kompensieren, wenn beispielsweise das Fahrzeug 10 um einen Winkel von θr innerhalb einer Zeitdauer von der Zeit k bis (k + 1) nach links lenkt. Wie beispielsweise in dem nummerischen Ausdruck (3) gezeigt ist, werden die als ein Ergebnis der Kompensation der Koordinaten im realen Raum (X, Y, Z) kompensierten Koordinaten (Xr, Yr, Zr) als neue Koordinaten (X, Y, Z) im realen Raum erhalten.
  • Figure 00120002
  • Nachfolgend wird in Schritt S16 eine ungefähr gerade Linie LMV, die dem Relativbewegungsvektor zwischen dem Objekt und dem Fahrzeug 10 entspricht, aus N (beispielsweise beträgt N ungefähr 10) Stücken von realen Raumpositionsdaten, welche Zeitseriendaten bilden und welche einer Lenkwinkelkorrektur unterzogen wurden, für dasselbe Objekt während einer vor bestimmten Überwachungszeitdauer ΔT erhalten.
  • In diesem Schritt S16 werden die jüngsten Koordinaten P(0) = (X(0), Y(0), Z(0)) und die Koordinaten P vor dem Abtasten (vor der vorbestimmten Zeitdauer ΔT) (N – 1) = (X(N – 1), Y(N – 1), Z(N – 1) zu Positionen auf der ungefähr geraden Linie LMV korrigiert und die korrigierten Koordinaten Pv(0) = (Xv(0), Yv(0), Zv(0)) und Pv(N – 1) = (Xv(N – 1), Yv(N – 1), Zv(N – 1)) berechnet.
  • Diese Prozedur ergibt den Relativbewegungsvektor als ein sich von den Koordinaten Pv(N – 1) zu Pv(0) bewegenden Vektor.
  • Durch Erhalten eines Relativbewegungsvektors durch Berechnen einer angenäherten geraden Linie, welche den Relativbewegungsweg des Objekts relativ zum Fahrzeug 10 aus einer Mehrzahl von (beispielsweise N) Stücken von realen Raumpositionsdaten innerhalb der vorbestimmten Überwachungszeitdauer ΔT annähert, ist es möglich, mit besserer Genauigkeit abzuschätzen, ob eine Möglichkeit eines Zusammenstoßes zwischen dem Fahrzeug 10 und einem Objekt besteht, wobei der Effekt von Positionserfassungsfehlern verringert wird.
  • Nachfolgend wird in Schritt S17 bei der Warnungsbestimmungsverarbeitung auf Grundlage der Möglichkeit einer Kollision zwischen dem erfassten Objekt und dem Fahrzeug 10 bestimmt, ob das erfasste Objekt Anlass zu einer Warnung sein soll.
  • Wenn das Ergebnis dieser Bestimmung ”NEIN” ist, geht der Ablauf weiter zu Schritt S1 und die Verarbeitung der oben beschriebenen Schritte S1 bis S17 wird wiederholt.
  • Wenn andererseits das Ergebnis dieser Bestimmung ”JA” ist, geht der Ablauf weiter zu Schritt S18.
  • Weiterhin wird in Schritt S18 in dem Warnungsausgabebestimmungsprozess auf Grundlage der Ausgabe BR des Bremssensors 5 je nachdem, ob der Fahrer des Fahrzeugs 10 die Bremse betätigt, bestimmt, ob die Warnungsausgabe erforderlich ist.
  • Wenn das Bestimmungsergebnis in Schritt S18 ”NEIN” ist, wird beispielsweise in dem Fall, in dem ein Beschleunigungs/Verzögerungsgrad Gs (positiv in der Verzögerungsrichtung) größer ist als ein vorbestimmter Schwellenwert GTH, während der Fahrer des Fahrzeugs 10 die Bremse betätigt, bestimmt, dass die Kollision durch die Bremsbetätigung vermieden werden kann. Der Ablauf kehrt zu Schritt S1 zurück und die Verarbeitung der oben beschriebenen Schritte S1 bis S18 wird wiederholt.
  • Wenn andererseits das Bestimmungsergebnis in Schritt S18 ”JA” ist, wird beispielsweise in dem Fall, in dem ein Beschleunigungs/Verzögerungsgrad Gs (positiv in der Verzögerungsrichtung) nicht größer als der vorbestimmte Schwellenwert GTH ist, während der Fahrer des Fahrzeugs 10 die Bremse betätigt, oder in dem Fall, in dem der Fahrer des Fahrzeugs 10 die Bremse nicht betätigt, die Möglichkeit einer Kollision als hoch bestimmt und der Ablauf geht weiter zu Schritt S19.
  • Der vorbestimmte Schwellenwert GTH ist ein Wert, der einer Beschleunigung/Verzögerung entspricht, welche dazu führen würde, dass das Fahrzeug 10, sofern dieser Beschleunigungs/Verzögerungsgrad Gs während des Bremsvorgangs beibehalten wird, nach einem Bewegungsabstand anhält, der nicht größer ist als der Abstand Zv(0) zwischen dem Objekt und dem Fahrzeug 10.
  • Danach wird in Schritt S19 ein hörbarer Warnton ausgegeben, beispielsweise durch den Lautsprecher 6, oder eine visuelle Warnanzeige ausgegeben, beispielsweise durch die Anzeigevorrichtung 7, oder eine ertastbare Warnung ausgegeben durch Erzeugen einer Befestigungskraft, die für den Fahrer tastend wahrnehmbar ist, mit Erzeugung einer vorbestimmten Span nung im Sicherheitsgurt oder durch Erzeugen von Vibration (Lenkvibration), beispielsweise an einem Lenkrad, das durch den Fahrer tastend wahrnehmbar ist.
  • Nachfolgend werden in Schritt S20 beispielsweise die von der Infrarotkamera 2R erhaltenen Bilddaten an die Anzeigevorrichtung 7 ausgegeben, um das sich relativ annähernde Objekt als ein hervorgehobenes Bild anzuzeigen.
  • Hierin wird im Folgenden die oben beschriebene Warnungsbestimmungsverarbeitung in Schritt S17 unter Bezugnahme auf die beigefügten Zeichnungen beschrieben.
  • Diese Warnungsbestimmungsverarbeitung bestimmt die Möglichkeit einer Kollision zwischen dem Fahrzeug 10 und einem erfassten Objekt auf Grundlage der Kollisionsbestimmungsverarbeitung, einer Verarbeitung zur Bestimmung, ob ein Objekt sich in einem Annäherungsbestimmungsbereich befindet, einer Eindringkollisionsbestimmungsverarbeitung, einer Verarbeitung zur Bestimmung einer künstlichen Struktur und einer Verabeitung zur Bestimmung eines Fußgängers, wie in 4 gezeigt ist. Die folgende Beschreibung nimmt Bezug auf ein Beispiel, wie es in 5 gezeigt ist, bei dem ein Objekt 20 sich mit einer Geschwindigkeit Vp in der Richtung im Wesentlichen in einem 90°-Winkel relativ zur Bewegungsrichtung des Fahrzeugs 10 (beispielsweise der Z-Richtung) bewegt.
  • Zunächst wird in dem in 4 gezeigten Schritt S31 eine Kollisionsbestimmungsverarbeitung durchgeführt. Die Kollisionsbestimmungsverarbeitung berechnet die Relativgeschwindigkeit Vs des Fahrzeugs 10 und des Objekts 20 in der Z-Richtung in dem Fall, in dem, wie in 5, das Objekt 20 sich von einem Abstand von Zv(N – 1) auf einen Abstand von Zv(0) während einer Zeitdauer ΔT annähert, und unter der Annahme, dass die Höhen sowohl des Fahrzeugs 10 als auch des Objekts 20 nicht größer als ein vorbestimmter Bodenabstand sind und die Relativgeschwindigkeit Vs beibehalten wird. Sie bestimmt ferner, ob das Fahrzeug 10 und das Objekt 20 innerhalb der vorbestimmten erlaubten Zeit Ts miteinander zusammenstoßen.
  • Wenn das Bestimmungsergebnis ”NEIN” ist, geht der Ablauf weiter zu Schritt S37, der später beschrieben wird.
  • Wenn andererseits das Ergebnis dieser Bestimmung ”JA” ist, geht der Ablauf weiter zu Schritt S32.
  • Weiterhin soll die erlaubte Zeit Ts die Bestimmung der Möglichkeit einer Kollision um eine vorbestimmte Zeitdauer Ts vor der geschätzten Kollisionszeit ermöglichen, und ist beispielsweise auf ungefähr 2 bis 5 Sekunden eingestellt. Ferner wird der vorbestimmte Bodenabstand H beispielsweise auf ungefähr zweimal die Höhe des Fahrzeugs 10 eingestellt.
  • Nachfolgend wird in Schritt S32 bestimmt, ob das Objekt sich innerhalb eines Annäherungsbestimmungsbereichs befindet. Wie beispielsweise in 6 gezeigt ist, bestimmt in einem Bereich AR0, welcher durch die Infrarotkameras 2R, 2L überwacht werden kann, diese Bestimmungsverarbeitung, ob das Objekt sich innerhalb eines Bereichs AR1 befindet, der sich in einem Abstand (Vs × Ts) näher zum Fahrzeug 10 als eine vordere Position Z1 befindet und der eine Gesamtbreite (α + 2β) mit einer vorbestimmten Breite β (beispielsweise ungefähr 50 bis 100 cm) aufweist, die zu beiden Seiten der Breite α des Fahrzeugs 10 in der Fahrzeugquerrichtung (das heißt der X-Richtung) addiert ist, und der den vorbestimmten Bodenabstand H aufweist. Das heißt, AR1 ist ein Annäherungsbestimmungsbereich, in dem eine hohe Wahrscheinlichkeit besteht, dass eine Kollision mit dem Fahrzeug 10 auftritt, wenn das Objekt an seiner Stelle bleibt.
  • Wenn das Bestimmungsergebnis ”JA” ist, geht der Ablauf weiter zu Schritt S34, der später beschrieben wird.
  • Wenn andererseits das Ergebnis der Bestimmung ”NEIN” ist, geht der Ab lauf weiter zu Schritt S33.
  • Danach wird in Schritt S33 eine Eindringkollisionsbestimmungsverarbeitung durchgeführt, um zu bestimmen, ob eine Möglichkeit existiert, dass das Objekt in den Annäherungsbestimmungsbereich eintritt und mit dem Fahrzeug 10 zusammenstößt. Wie beispielsweise in 6 gezeigt ist, bestimmt diese Eindringkollisionsbestimmungsverarbeitung, ob eine Möglichkeit besteht, dass das sich in den außerhalb des Annäherungsbestimmungsbereichs AR1 in der Fahrzeugquerrichtung (das heißt der x-Richtung) liegenden Eindringbestimmungsbereichen AR2 und AR3 bewegende Objekt mit dem Bodenabstand H in den Annäherungsbestimmungsbereich AR1 eintritt und mit dem Fahrzeug 10 zusammenstößt.
  • Wenn das Bestimmungsergebnis ”JA” ist, geht der Ablauf weiter zu Schritt S36, der später beschrieben wird.
  • Wenn andererseits das Bestimmungsergebnis ”NEIN” ist, geht der Ablauf weiter zu Schritt S37, der später beschrieben wird.
  • Danach wird in Schritt S34 eine Verarbeitung zur Bestimmung einer künstlichen Struktur durchgeführt, um zu bestimmen, ob das Objekt eine künstliche Struktur ist. Diese Verarbeitung zur Bestimmung einer künstlichen Struktur bestimmt, dass das Objekt eine künstliche Struktur ist und schließt das Objekt von der Warnungsbestimmung aus, wenn bestimmte Charakteristiken, etwa die unten genannten, erfasst werden, welche bedeuten, dass das Objekt kein Fußgänger sein kann.
  • Wenn das Ergebnis dieser Bestimmung ”NEIN” ist, geht der Ablauf weiter zu Schritt S35.
  • Wenn andererseits das Ergebnis dieser Bestimmung ”JA” ist, geht der Ablauf weiter zu Schritt S37.
  • Danach wird in Schritt S35 eine Verarbeitung zur Bestimmung eines Fußgängers durchgeführt, um zu bestimmen, ob das Objekt ein Fußgänger ist.
  • Wenn das Ergebnis der Bestimmung in Schritt S35 ”JA” ist, geht der Ablauf weiter zu Schritt S36.
  • Wenn anderersits das Ergebnis der Bestimmung in Schritt S35 ”NEIN” ist, geht der Ablauf weiter zu Schritt S37, welcher später beschrieben wird.
  • Danach wird in Schritt S36, dann, wenn in Schritt S33 eine Möglichkeit existiert, dass das Objekt in den Annäherungsbestimmungsbereich eindringt und mit dem Fahrzeug 10 zusammenstößt (JA in Schritt S33), oder wenn in Schritt S35 das als möglicherweise ein Fußgänger bestimmte Objekt keine künstliche Struktur ist (JA in Schritt S35), bestimmt, dass eine Möglichkeit besteht, dass das Fahrzeug 10 mit dem erfassten Objekt zusammenstößt und eine Warnung gerechtfertigt ist, und die Verarbeitung wird beendet.
  • In Schritt S37 wird andererseits dann, wenn in Schritt S31 keine Möglichkeit eines Zusammenstoßes zwischen dem Fahrzeug 10 und dem Objekt innerhalb der vorbestimmten erlaubten Zeit Ts besteht (NEIN in Schritt S31) oder in Schritt S33 keine Möglichkeit besteht, dass das Objekt in den Annäherungsbestimmungsbereich eindringt und mit dem Fahrzeug 10 zusammenstößt (NEIN in Schritt S33), oder in Schritt S34 eine Bestimmung gemacht wird, dass das Objekt eine künstliche Struktur ist (JA in Schritt S34), oder wenn das in Schritt S34 als keine künstliche Struktur bestimmte Objekt kein Fußgänger ist (NEIN in Schritt S35), bestimmt, dass keine Möglichkeit einer Kollision zwischen dem Objekt und dem Fahrzeug 10 besteht und eine Warnung nicht gerechtfertigt ist, und die Verarbeitung wird beendet.
  • Hierin wird im Folgenden als die oben genannte Verarbeitung zur Bestimmung einer künstlichen Struktur in Schritt S34 eine Verarbeitung zur Unterscheidung einer künstlichen Struktur mit einer Form ähnlich einem Fußgänger, insbesondere einer ähnlichen Form und Höhe eines Kopfes, der Wärme emittiert, beschrieben.
  • Wie beispielsweise in 7 gezeigt ist, legt diese Verarbeitung zur Bestimmung einer künstlichen Struktur in einem Referenzbild (beispielsweise das von der Infrarotkamera 2R erhaltene rechte Bild) einen Zielbereich (Maske) OA fest, der ein Erfassungsziel für eine horizontale Kante ist und ein Bereich ist, der ein binärisiertes Objekt OB enthält.
  • Bei beispielsweise gegebenen Koordinaten (xb, yb) am oberen linken Punkt QL des umschriebenen Vierecks QB des binärisiertes Objekts OB, einer Breite Wb des umschriebenen Vierecks und einer Höhe Hb des umschriebenen Vierecks, sind dann, wenn die Breite dxP der Maske OA auf einen vorbestimmten Wert eingestellt ist (beispielsweise die Breite Wb des umschriebenen Vierecks + 2 × ein vorbestimmter Wert M_W, wobei der vorbestimmte Wert M_W 1 Pixel ist) und die Höhe dyP der Maske OA auf einen vorbestimmten Wert eingestellt ist (beispielsweise 2 × der vorbestimmte Wert M_H, wobei der vorbestimmte Wert M_H ein Wert ist, der sich über eine vorbestimmte Höhe MASK_H eines tatsächlichen Raums (beispielsweise 30 cm) in einem Bild erstreckt, wobei der vorbestimmte Wert M_H = Brennweite f × vorbestimmte Höhe MASK_H/Objektabstand z ist), die Koordinaten (xP, yP) des oberen linken Punkts AL der Maske OA gleich (xP = xb – M_W, yP = yb – M_H).
  • Dann wird bestimmt, ob ein Kantenfilterausgangswert Kido_buff, der durch Anwenden eines geeigneten Kantenfilters zum Erfassen von horizontalen Kanten innerhalb der Maske OA in dem Graustufenbild größer ist als ein vorbestimmter Schwellenwert KIDO_FIL_TH (beispielsweise 10 Gradationsstufen bzw. Grade).
  • Wenn das Ergebnis dieser Bestimmung ”JA” ist, wird die Festlegung gemacht, dass eine horizontale Kante existiert.
  • Wenn das Ergebnis dieser Bestimmung ”NEIN” ist, wird nunmehr die Festlegung getroffen, dass keine horizontale Kante existiert.
  • Wie für das Beispiel in 8 gezeigt ist, wird dann bei jeder horizontalen Linie I (I ist eine ganze Zahl, I = 0, ..., dyP – 1), die in der Maske OA festgelegt ist, das Verhältnis der Anzahl von Pixeln, bei denen bestimmt wurde, dass eine horizontale Kante existiert (Kantenerfassungspixelzahl), zur gesamten Pixelzahl, die die horizontale Linie bildet, das heißt das Einschließungsverhältnis RATE(I) der horizontalen Kante (= 100 × Kantenerfassungspixelzahl × (dxP – 2 × M_W)) berechnet.
  • Danach wird aus den in der horizontalen Linie I, bei der das Einschließungsverhältnis RATE(I) der horizontalen Kante größer ist als ein vorbestimmter Schwellenwert RATE_TH (beispielsweise 50%) (RATE(I) > RATE_TH), wie beispielsweise in 9 gezeigt ist, enthaltenen horizontalen Kanten die Höhenposition der horizontalen Kante, bei der die Höhenposition der horizontalen Kante maximal ist (das heißt die höchste Position in der Vertikalrichtung), als die Kantenerfassungsposition j_FL_TOP festgelegt.
  • Danach wird bestimmt, ob der Unterschied zwischen der oberen Endposition OBJ_TOP des binärisierten Objekts, welches von den zu lauflängenkodierten Daten umgewandelten Bilddaten erfasst wird, und der Kantenerfassungsposition j_FL_TOP(|OBJ_TOP – j_FL_TOP|) größer ist als ein vorgeschriebener Schwellenwert DIFF_H_TH.
  • Der vorgeschriebene Schwellenwert DIFF_H_TH ist beispielsweise ein Wert, der sich um eine vorbestimmte Höhe H_TH (beispielsweise 10 cm) des tatsächlichen Raums in einem Bild erstreckt, wobei der vorgeschriebene Schwellenwert DIFF_H_TH = Brennweite f × vorbestimmte Höhe H_TH/Objektabstand z ist.
  • Wenn das Ergebnis dieser Bestimmung ”NEIN” ist, das heißt, wenn die obere Endposition OBJ_TOP des binärisierten Objekts und die Kantenerfas sungsposition j_FL_TOP ungefähr in der gleichen Position liegen, dann wird, wie in 10 gezeigt ist, bestimmt, dass die maximale Höhenposition der horizontalen Kante, bei der die Abnahme im Luminanzwert relativ steil ist (Kantenerfassungsposition j_FL_TOP), bei ungefähr derselben Position wie die obere Endposition OBJ_TOP des binärisierten Objekts erfasst wird. Es wird bestimmt, dass das binärisierte Objekt etwas anderes ist als eine künstliche Struktur (beispielsweise der Kopf eines Fußgängers), der/das sich in der Vertikalrichtung (beispielsweise in der Vertikalrichtung nach oben) erstreckt, und die Verarbeitung wird beendet.
  • Wenn dieses Bestimmungsergebnis ”JA” ist, das heißt, wenn die Differenz zwischen der oberen Endposition OBJ_TOP des binärisierten Objekts und der Kantenerfassungsposition j_FL_TOP relativ groß ist, beispielsweise die Verringerung im Luminanzwert in der Vertikalrichtung relativ moderat ist, wird bestimmt, dass das binärisierte Objekt eine künstliche Struktur ist, die sich in der Vertikalrichtung (beispielsweise in der Vertikalrichtung nach oben) erstreckt, und die Verarbeitung wird beendet.
  • Das heißt, dann, wenn das binärisierte Objekt als eine künstliche Struktur bestimmt wird, die sich in der Vertikalrichtung (zum Beispiel in der Vertikalrichtung nach oben) erstreckt, wobei die Fluktuation im Luminanzwert entlang der Vertikalrichtung relativ moderat ist, wird beispielsweise eine horizontale Kante lediglich in der Nähe der Spitzenposition erfasst, wo der der Luminanzwert maximal wird. Die horizontale Kante wird schwer zu erfassen in dem Bereich, in dem der Luminanzwert sich zu einem sich verringernden Trend ändert und die Differenz zwischen der oberen Endposition OBJ_TOP des binärisierten Objekts und der Kantenerfassungsposition j_FL_TOP steigt an.
  • Gemäß der oben beschriebenen Fahrzeugumgebungsüberwachungsvorrichtung können eine künstliche Struktur, die sich in eine Vertikalrichtung (zum Beispiel in der Vertikalrichtung nach oben) erstreckt, als ein Objekttyp, bei dem eine horizontale Kante innerhalb des vorgeschriebenen Schwellenwerts DIFF_H_TH von der oberen Endposition OBJ_TOP des binärisierten Objekts schwer zu erfassen ist, und etwas anderes als eine künstliche Struktur, beispielsweise ein Fußgänger, dem eine horizontale Kante an der oberen Endposition OBJ_TOP des binärisierten Objekts leicht zu erfassen ist, leicht voneinander unterschieden werden.
  • Wenn bei der oben beschriebenen Ausführungsform die Differenz zwischen der oberen Endposition OBJ_TOP des binärisierten Objekts und der Kantenerfassungsposition j_FL_TOP größer als der vorbeschriebene Schwellenwert DIFF_H_TH ist, wird das binärisierte Objekt als eine künstliche Struktur bestimmt, die sich in der Vertikalrichtung (zum Beispiel in der Vertikalrichtung nach oben) erstreckt, aber ist nicht hierauf beschränkt. Wenn beispielsweise die Differenz zwischen der unteren Endposition OBJ_BOT des binärisierten Objekts und die Kantenerfassungsposition j_FL_BOT größer als der vorbestimmte Schwellenwert DIFF_H_TH ist, kann das binärisierte Objekt als eine künstliche Struktur bestimmt werden, die sich in der Vertikalrichtung erstreckt (beispielsweise in der Vertikalrichtung nach unten).
  • Das heißt, bei der Verarbeitung zur Bestimmung einer künstlichen Struktur wird, wie in 11 gezeigt ist, an einem Referenzbild (beispielsweise dem von der Infrarotkamera 2R erhaltenen rechten Bild) ein Zielbereich (Maske) OA festgelegt, welcher ein Erfassungsziel für eine horizontale Kante ist und ein Bereich ist, der wenigstens den unteren Teil des binärisierten Objekts OB enthält.
  • Bei beispielsweise gegebenen Koordinaten (xb, yb) am oberen linken Punkt QL des umschriebenen Vierecks QB des binärisierten Objekts OB, einer Breite Wb des umschriebenen Vierecks und einer Höhe Hb des umschriebenen Vierecks, sind dann, wenn die Breite dxP der Maske OA auf einen vorbestimmten Wert eingestellt ist (beispielsweise die Breite Wb des umschriebenen Vierecks + 2 × einen vorbestimmten Wert M_W, wobei der vorbestimmte Wert M_W 1 Pixel beträgt) und die Höhe dyP der Maske OA auf einen vorbestimmten Wert eingestellt ist (beispielsweise 2 × den vorbe stimmten Wert M_H, wobei der vorbestimmte Wert M_H ein Wert ist, der sich um eine vorbestimmte Höhe MASK_H eines tatsächlichen Raums (beispielsweise 30 cm) in einem Bild erstreckt, wobei der vorbestimmte Wert M_H = Brennweite f × vorbestimmte Höhe MASK_H/Objektabstand z ist), die Koordinaten (xp, yP) des oberen linken Punkts AL der Maske OA (xP = xb – M_W, yP = yb + Hb – M_H).
  • Dann wird bestimmt, ob ein Kantenfilterausgabewert Kido_buff, der durch Anwenden eines geeigneten Kantenfilters zur Erfassung von horizontalen Kanten innerhalb der Maske OA an dem Graustufenbild erhalten wird, größer ist als ein vorbestimmter Schwellenwert KIDO_FIL_TH (beispielsweise 10 Gradationsstufen bzw. Grade).
  • Wenn das Ergebnis dieser Bestimmung ”JA” ist, wird die Festlegung gemacht, dass eine horizontale Kante existiert.
  • Wenn das Ergebnis dieser Bestimmung ”NEIN” ist, wird nunmehr die Festlegung gemacht, dass keine horizontale Kante existiert.
  • Wie beispielsweise in 12 gezeigt ist, wird dann bei jeder horizontalen Linie I (I ist eine ganze Zahl, wobei I = 0, ..., dyP – 1 ist), die in der Maske OA festgelegt ist, das Verhältnis der Anzahl von Pixeln, bei denen bestimmt wird, dass die horizontale Kante existiert (Kantenerfassungspixelzahl) zur Gesamtzahl der die horizontale Linie bildenden Pixelzahl, das heißt, die Einschließungsrate RATE(I) der horizontalen Kante (= 100 × Kantenerfassungspixelzahl × (dxP – 2 × M_W)), berechnet.
  • Dann wird unter den die horizontale Linie I enthaltenen horizontalen Kanten, bei denen die Einschließungsrate RATE(I) der horizontalen Kante größer ist als ein vorgeschriebener Schwellenwert RATE_TH (beispielsweise 50%) (RATE(I) > RATE_TH), wie beispielsweise in 9 gezeigt ist, die Höhenpositon der horizontalen Kante, bei der die Höhenposition der horizontalen Kante ein Minimum ist (das heißt die niedrigste Position in der Vertikalrich tung), als die Kantenerfassungsposition j_FL_BOT festgelegt.
  • Dann wird bestimmt, ob die Differenz zwischen der unteren Endposition OBJ_BOT des binärisierten Objekts, das aus den zu lauflängenkodierten Daten umgewandelten Bilddaten erfasst wird, und der Kantenerfassungsposition j_FL_BOT(|OBJ_BOT – j_FL_BOT|) größer ist als ein vorbestimmter Schwellenwert DIFF_H_TH.
  • Der vorgeschriebene Schwellenwert DIFF_H_TH ist beispielsweise ein Wert, der sich um eine vorbestimmte Höhe H_TH (beispielsweise 10 cm) des tatsächlichen Raums in einem Bild erstreckt, wobei der vorgeschriebene Schwellenwert DIFF_H_TH = Brennweite f × vorbestimmte Höhe H_TH/Objektabstand z ist.
  • Wenn das Ergebnis dieser Bestimmung ”NEIN” ist, das heißt, wenn die untere Endposition OBJ_BOT des binärisierten Objekts und die Kantenerfassungsposition j_FL_BOT ungefähr dieselbe Position sind, wie in 13 gezeigt ist, wird bestimmt, dass die minimale Höhenposition der horizontalen Kante, bei der die Verringerung des Luminanzwerts relativ steil ist (Kantenerfassungsposition j_FL_BOT), als ungefähr dieselbe Position erfasst wird wie die untere Endposition OBJ_BOt des binärisierten Objekts, und es wird bestimmt, dass das binärisierte Objekt etwas anderes ist als eine künstliche Struktur (beispielsweise der Kopf eines Fußgängers), das/der sich in der Vertikalrichtung (beispielsweise in der Vertikalrichtung nach unten) erstreckt, und die Verarbeitung wird beendet.
  • Wenn das Ergebnis dieser Bestimmung ”JA” ist, das heißt, wenn die Differenz zwischen der unteren Endposition OBJ_BOT des binärisierten Objekts und der Kantenerfassungsposition j_FL_BOT relativ groß ist, beispielsweise die Verringerung des Luminanzwerts in der Vertikalrichtung relativ moderat ist, wird bestimmt, dass das binärisierte Objekt eine künstliche Struktur ist, die sich in der Vertikalrichtung erstreckt (beispielsweise in der Vertikalrichtung nach unten), und die Verarbeitung wird beendet.
  • Das heißt, wenn das binärisierte Objekt als eine künstliche Struktur bestimmt wird, die sich in der Vertikalrichtung erstreckt (beispielsweise in der Vertikalrichtung nach unten), wobei die Fluktuation im Luminanzwert entlang der Vertikalrichtung relativ moderat ist, wird beispielsweise eine horizontale Kante lediglich in der Nähe einer Spitzenwertposition bestimmt, bei der der Luminanzwert maximal ist. Die horizontale Kante wird schwierig zu erfassen in dem Bereich, in dem der Luminanzwert sich zu einem sich verringernden Trend verändert, und die Differenz zwischen der unteren Endposition OBJ_BOT des binärisierten Objekts und der Kantenerfassungsposition j_FL_BOT steigt an.
  • Bei dieser Modifikation kann eine sich in einer Vertikalrichtung (beispielsweise in einer Vertikalrichtung nach unten) erstreckende künstliche Struktur als ein Typ eines Objekts, bei dem eine horizontale Kante innerhalb des vorgeschriebenen Schwellenwerts DIFF_H_TH von der unteren Endposition OBJ_BOT des binärisierten Objekts schwierig zu erfassen ist, und etwas anderes als eine künstliche Struktur, beispielsweise ein Fußgänger, bei dem eine horizontale Kante an der unteren Endposition OBJ_BOT des binärisierten Objekts leicht erfasst werden kann, genau voneinander unterschieden werden.
  • Eine Fahrzeugumgebungsüberwachungsstruktur, welche einen in der Umgebung eines Fahrzeugs als ein Objekt vorhandenen Körper auf Grundlage eines durch eine Infrarotabbildungseinrichtung erhaltenen Bildes erfasst, umfasst eine Extraktionseinrichtung für ein binärisiertes Objekt, die ein binärisiertes Objekt aus Daten extrahiert, die durch Binärisieren eines Graustufenbildes des Bildes erhalten werden, eine Horizontalkanten-Erfassungseinrichtung, die eine horizontale Kante in dem Graustufenbild erfasst, eine Horizontalkanten-Bestimmungseinrichtung, die bestimmt, ob die durch die Horizontalkanten-Erfassungseinrichtung erfasste horizontale Kante in einem vorbestimmten Bereich von dem oberen Ende oder dem unteren Ende des durch die Extraktionseinrichtung für das binärisierte Objekt extrahierten binärisierten Objekts existiert, sowie eine Objekttyp-Bestimmungseinrichtung, die einen Objekttyp auf Grundlage eines Bestimmungsergebnisses der Horizontalkanten-Bestimmungseinrichtung bestimmt.

Claims (2)

  1. Fahrzeugumgebungsüberwachungsvorrichtung, welche auf Grundlage eines mittels einer Infrarotabbildungsvorrichtung (2R, 2L) aufgenommenen Graustufenbildes einen in der Umgebung eines Fahrzeugs (10) vorhandenen Körper als ein Objekt extrahiert, umfassend: eine Extraktionseinrichtung, die aus durch Binärisieren des Graustufenbildes erhaltenen Bilddaten ein binärisiertes Objekt extrahiert; eine Kantenerfassungseinrichtung, die eine Kante in dem Graustufenbild erfasst; eine Horizontalkanten-Bestimmungseinrichtung, die bestimmt, ob die durch die Kanten-Erfassungseinrichtung erfasste horizontale Kante in einem vorgeschriebenen Bereich von der oberen Endposition (OBJ_TOP) oder der unteren Endposition (OBJ_BOT) des durch die Extraktionseinrichtung extrahierten binärisierten Objekts existiert; und eine Objekttyp-Bestimmungseinrichtung, die auf Grundlage eines Bestimmungsergebnisses der Horizontalkanten-Bestimmungseinrichtung einen Objekttyp bestimmt, dadurch gekennzeichnet, dass die Kantenerfassungseinrichtung dort, wo horizontale Linien (I) Seiten des Objekts in dem Graustufenbild schneiden, horizontale Kanten erfasst, und dass, wenn der Längenanteil (RATE (I)) einer solchen horizontalen Kante, deren Höhenposition relativ zu den anderen horizontalen Kanten maximal oder minimal ist, die Länge der horizontalen Linien (I) um einen vorbestimmten ersten Schwellenwert (RATE_TH) überschreitet, die Horizontalkanten-Bestimmungseinrichtung bestimmt, ob ein Höhenunterschied zwischen der oberen Endposition (OBJ_TOP) oder unteren Endposition (OBJ_BOT) des binärisierten Objekts und der Höhenposition (j_FL_TOP, j_FL_BOT) dieser einen horizontalen Kante größer als ein vorbestimmter zweiter Schwellenwert (DIFF_H_TH) ist, wobei die Objekttyp-Bestimmungseinrichtung bestimmt, dass das Objekt ein Fußgänger ist, wenn der Höhenunterschied gleich oder kleiner als der vorbestimmte zweite Schwellenwert (DIFF_H_TH) ist.
  2. Fahrzeugumgebungsüberwachungsvorrichtung nach Anspruch 1, gekennzeichnet durch eine Warnungsausgabeeinrichtung (6, 7), die eine das Objekt betreffende Warnung ausgibt, wenn durch die Objekttyp-Bestimmungseinrichtung bestimmt wird, dass das Objekt ein Fußgänger ist.
DE102005056616A 2004-11-30 2005-11-28 Fahrzeugumgebungsüberwachungsvorrichtung Expired - Fee Related DE102005056616B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004347817A JP4128562B2 (ja) 2004-11-30 2004-11-30 車両周辺監視装置
JP2004-347817 2004-11-30

Publications (2)

Publication Number Publication Date
DE102005056616A1 DE102005056616A1 (de) 2006-06-01
DE102005056616B4 true DE102005056616B4 (de) 2010-09-23

Family

ID=36371614

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102005056616A Expired - Fee Related DE102005056616B4 (de) 2004-11-30 2005-11-28 Fahrzeugumgebungsüberwachungsvorrichtung

Country Status (3)

Country Link
US (1) US7388476B2 (de)
JP (1) JP4128562B2 (de)
DE (1) DE102005056616B4 (de)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4203512B2 (ja) * 2006-06-16 2009-01-07 本田技研工業株式会社 車両周辺監視装置
US7881497B2 (en) * 2007-03-08 2011-02-01 Honeywell International Inc. Vision based navigation and guidance system
JP4521642B2 (ja) * 2008-02-13 2010-08-11 本田技研工業株式会社 車両周辺監視装置、車両、車両周辺監視プログラム
DE102008001551A1 (de) * 2008-05-05 2009-11-12 Robert Bosch Gmbh Vorrichtung und Verfahren zum automatischen Einstellen der Leuchtdichte eines von einer Beleuchtungseinrichtung eines Fahrzeuges ausgesandten Lichtbündels in Abhängigkeit von der Sichtweite
WO2011108217A1 (ja) 2010-03-01 2011-09-09 本田技研工業株式会社 車両の周辺監視装置
EP2544161B1 (de) * 2010-03-03 2014-12-24 Honda Motor Co., Ltd. Vorrichtung zur überwachung des umgebungsbereichs eines fahrzeugs
US10703299B2 (en) * 2010-04-19 2020-07-07 SMR Patents S.à.r.l. Rear view mirror simulation
US9030560B2 (en) 2010-06-07 2015-05-12 Honda Motor Co., Ltd. Apparatus for monitoring surroundings of a vehicle
EP2926317B1 (de) * 2012-12-03 2020-02-12 Harman International Industries, Incorporated System und verfahren zum erkennen von fussgängern mit einer einzigen normalen kamera
US9990550B2 (en) * 2014-09-19 2018-06-05 Bendix Commercial Vehicle Systems Llc Wide baseline object detection stereo system
US10055643B2 (en) * 2014-09-19 2018-08-21 Bendix Commercial Vehicle Systems Llc Advanced blending of stitched images for 3D object reproduction
CN107553497B (zh) * 2017-10-20 2023-12-22 苏州瑞得恩光能科技有限公司 太阳能面板清扫机器人的边缘定位装置及其定位方法
JP7096147B2 (ja) * 2018-12-25 2022-07-05 トヨタ自動車株式会社 注意喚起装置

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11328364A (ja) * 1998-05-13 1999-11-30 Nissan Motor Co Ltd 領域推定装置及び表示処理装置
DE10030421A1 (de) * 1999-06-23 2001-01-04 Honda Motor Co Ltd Fahrzeugumgebungsüberwachungssystem
DE10033599A1 (de) * 1999-07-13 2001-02-01 Honda Motor Co Ltd Positionserfassungsvorrichtung
US20010002936A1 (en) * 1999-12-02 2001-06-07 Takayuki Tsuji Image recognition system
EP1245443A2 (de) * 2001-03-30 2002-10-02 Honda Giken Kogyo Kabushiki Kaisha Überwachungssystem der Umgebung eines Fahrzeuges
DE10228638A1 (de) * 2001-06-28 2003-01-16 Honda Motor Co Ltd Fahrzeugzonen-Überwachungsvorrichtung
DE10247371A1 (de) * 2001-10-29 2003-07-24 Honda Motor Co Ltd Fahrzeuginformation-Bereitstellungsvorrichtung
DE10301469A1 (de) * 2002-01-18 2003-09-18 Honda Motor Co Ltd Infrarotbildverarbeitungsvorrichtung
DE10301468A1 (de) * 2002-01-18 2003-10-23 Honda Motor Co Ltd Vorrichtung zur Beobachtung der Umgebung eines Fahrzeugs
DE102004012811A1 (de) * 2003-03-20 2004-11-11 Honda Motor Co., Ltd. Vorrichtung zum Überwachen der Umgebung eines Fahrzeugs
DE102004041919A1 (de) * 2003-09-01 2005-04-28 Honda Motor Co Ltd Fahrzeugumgebungs-Überwachungseinrichtung
DE102005026875A1 (de) * 2004-06-14 2006-01-05 Honda Motor Co., Ltd. Fahrzeugumgebungs-Überwachungsvorrichtung
DE102005026876A1 (de) * 2004-06-14 2006-06-08 Honda Motor Co., Ltd. Fahrzeugumgebungs-Überwachungsvorrichtung

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69232732T2 (de) * 1991-03-19 2009-09-10 Mitsubishi Denki K.K. Messeinrichtung für sich bewegende Körper und Bildverarbeitungsanordnung zum Messen des Verkehrsflusses
JPH08313632A (ja) 1995-05-19 1996-11-29 Omron Corp 警報発生装置および方法,ならびにこの警報発生装置を搭載した車両
JP3716623B2 (ja) 1998-07-09 2005-11-16 日産自動車株式会社 温体検出装置
JP2001211449A (ja) 2000-01-27 2001-08-03 Honda Motor Co Ltd 車両用画像認識装置
JP2001351200A (ja) 2000-06-09 2001-12-21 Nissan Motor Co Ltd 車載用物体検知装置
JP4104867B2 (ja) 2002-01-18 2008-06-18 本田技研工業株式会社 ナイトビジョンシステム
US7231288B2 (en) * 2005-03-15 2007-06-12 Visteon Global Technologies, Inc. System to determine distance to a lead vehicle

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11328364A (ja) * 1998-05-13 1999-11-30 Nissan Motor Co Ltd 領域推定装置及び表示処理装置
DE10030421A1 (de) * 1999-06-23 2001-01-04 Honda Motor Co Ltd Fahrzeugumgebungsüberwachungssystem
DE10033599A1 (de) * 1999-07-13 2001-02-01 Honda Motor Co Ltd Positionserfassungsvorrichtung
US20010002936A1 (en) * 1999-12-02 2001-06-07 Takayuki Tsuji Image recognition system
EP1245443A2 (de) * 2001-03-30 2002-10-02 Honda Giken Kogyo Kabushiki Kaisha Überwachungssystem der Umgebung eines Fahrzeuges
DE10228638A1 (de) * 2001-06-28 2003-01-16 Honda Motor Co Ltd Fahrzeugzonen-Überwachungsvorrichtung
DE10247371A1 (de) * 2001-10-29 2003-07-24 Honda Motor Co Ltd Fahrzeuginformation-Bereitstellungsvorrichtung
DE10301469A1 (de) * 2002-01-18 2003-09-18 Honda Motor Co Ltd Infrarotbildverarbeitungsvorrichtung
DE10301468A1 (de) * 2002-01-18 2003-10-23 Honda Motor Co Ltd Vorrichtung zur Beobachtung der Umgebung eines Fahrzeugs
DE102004012811A1 (de) * 2003-03-20 2004-11-11 Honda Motor Co., Ltd. Vorrichtung zum Überwachen der Umgebung eines Fahrzeugs
DE102004041919A1 (de) * 2003-09-01 2005-04-28 Honda Motor Co Ltd Fahrzeugumgebungs-Überwachungseinrichtung
DE102005026875A1 (de) * 2004-06-14 2006-01-05 Honda Motor Co., Ltd. Fahrzeugumgebungs-Überwachungsvorrichtung
DE102005026876A1 (de) * 2004-06-14 2006-06-08 Honda Motor Co., Ltd. Fahrzeugumgebungs-Überwachungsvorrichtung

Also Published As

Publication number Publication date
JP2006151300A (ja) 2006-06-15
JP4128562B2 (ja) 2008-07-30
US7388476B2 (en) 2008-06-17
US20060126898A1 (en) 2006-06-15
DE102005056616A1 (de) 2006-06-01

Similar Documents

Publication Publication Date Title
DE102005056616B4 (de) Fahrzeugumgebungsüberwachungsvorrichtung
DE102005056645B4 (de) Fahrzeugumgebungsüberwachungsvorrichtung
DE102005056429B4 (de) Fahrzeugumgebungsüberwachungsvorrichtung
DE102005056647B4 (de) Fahrzeugumgebungsüberwachungsvorrichtung
DE102004041919B4 (de) Fahrzeugumgebungs-Überwachungseinrichtung
EP1928687B1 (de) Verfahren und fahrerassistenzsystem zur sensorbasierten anfahrtsteuerung eines kraftfahrzeugs
DE102016100030B4 (de) Gerät zum sicheren führen eines fahrzeugs
DE102005026875B4 (de) Fahrzeugumgebungs-Überwachungsvorrichtung
DE10030421B4 (de) Fahrzeugumgebungsüberwachungssystem
DE10301469B4 (de) Infrarotbildverarbeitungsvorrichtung
DE10164346B4 (de) Straßenüberwachungsverfahren für ein Fahrzeug und System dafür
DE102007011616B4 (de) Fahrzeugumgebung-Überwachungsgerät
DE102005026876B4 (de) Fahrzeugumgebungs-Überwachungsvorrichtung
DE4434698B4 (de) Fahrzeugbetrieb-Unterstützungssystem
DE10251880B4 (de) Bilderkennungsvorrichtung
DE102005056664B4 (de) Fahrzeugumgebungsüberwachungsvorrichtung
DE102007019491B4 (de) Fahrzeugumgebungs-Überwachungsvorrichtung, Fahrzeug, Fahrzeugumgebungs-Überwachungsverfahren und Fahrzeugumgebungs-Überwachungsprogramm
DE112013001424T5 (de) Objekterkennungsvorrichtung
WO2019174682A1 (de) Verfahren und vorrichtung zur erkennung und bewertung von fahrbahnzuständen und witterungsbedingten umwelteinflüssen
DE102010030044A1 (de) Wiederherstellvorrichtung für durch Wettereinflüsse verschlechterte Bilder und Fahrerunterstützungssystem hiermit
DE112017002120T5 (de) Objekterfassungsvorrichtung und Objekterfassungsverfahren
WO2009152875A1 (de) Bilddatenvisualisierung
DE102005056665B4 (de) Fahrzeugumgebungsüberwachungsvorrichtung
WO2019201537A1 (de) Verfahren und steuergerät zum kennzeichnen einer person
DE102013022076A1 (de) Verfahren zum Bestimmen einer Breite eines Zielfahrzeugs mittels eines Kamerasystems eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8364 No opposition during term of opposition
R084 Declaration of willingness to licence
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee