-
Die vorliegende Erfindung betrifft eine Fahrzeugumgebungsüberwachungsvorrichtung, die Objekte durch Durchführen einer Binärisierungsverarbeitung von durch Infrarotkameras aufgenommenen Bildern extrahiert.
-
Es wird die Priorität der
japanischen Patentanmeldung mit der Offenlegungsnummer 2004-347330 , eingereicht am 30. November 2004, beansprucht, deren Offenbarung hierin durch Bezugnahme einbezogen wird.
-
Herkömmlich ist eine Anzeigeverarbeitungseinrichtung bekannt, bei der ein Objekt, etwa ein Fußgänger, der möglicherweise mit einem Fahrzeug zusammenstößt, aus einem durch eine Infrarotkamera aufgenommen Infrarotbild einer Fahrzeugumgebung extrahiert wird und Information über dieses Objekt dem Fahrer zur Verfügung gestellt wird (siehe beispielsweise die
JP-A-H11-328364 ).
-
Diese Anzeigeverarbeitungseinrichtung sucht durch Binärisieren des Inrarotbilds einen Bereich (binärisiertes Objekt), in dem helle Teile konzentriert sind, und bestimmt auf Grundlage des aus einem Seitenverhältnis oder Füllfaktor des binärisierten Objekts berechneten Abstands, ob das binärisierte Objekt der Kopf eines Fußgängers ist. Sie bestimmt darüber hinaus eine tatsächliche Fläche und einen Schwerpunkt im Infrarotbild. Dann wird die Höhe des Fußgängers im Infrarotbild aus dem Abstand zwischen dem Kopfteilbereich des Fußgängers und der Infrarotkamera sowie einer Durchschnittshöhe von erwachsenen Personen berechnet, und ein den Körper eines Fußgängers enthaltender Körperbereich wird festgelegt. Durch Trennen und Anzeigen des Kopfbereichs und des Körperbereichs von anderen Bereichen wird bezüglich eines Fußgängers eine anschauliche Unterstützung für den Fahrer durchgeführt.
-
Da übrigens die Anzeigeverarbeitungsvorrichtung des Beispiels des oben genannten Stands der Technik einen Fußgänger aufgrund einer Bestimmung der Form für einen Kopfteilbereich oder einen Körperteilbereich im Infrarotbild erfasst, kann es schwierig werden, einen Fußgänger von einer künstlichen Struktur zu unterscheiden, die die Form eines Fußgängers hat, und insbesondere eine ähnliche Form, Größe und Positionshöhe des Fußgängerkopfes hat und Wärme abstrahlt.
-
In der
DE 10 2004 012 811 A1 wird der Typ des Objekts nämlich gemäß dem Verhältnis des Maximalwerts zum Minimalwert der Fläche des das Objekt umschreibenden Vierecks und des Objekts selbst innerhalb einer vorbestimmten Zeitdauer bestimmt.
-
Die
DE 103 01 469 A1 offenbart nur einen Schwellenwert, der beim Binärisierungsprozess des Graustufenbildes benutzt wird.
-
Die vorliegende Erfindung berücksichtigt die oben genannten Umstände und es ist eine Aufgabe der vorliegenden Erfindung, eine Fahrzeugumgebungsüberwachungsvorrichtung bereitzustellen, die in der Lage ist, einen Fußgänger und eine künstliche Struktur in einem Infrarotbild genau zu unterscheiden und zu extrahieren.
-
Zur Lösung der genannten Aufgabe sieht die vorliegende Erfindung eine Fahrzeugumgebungsüberwachungsvorrichtung gemäß Anspruch 1.
-
Die Vorrichtung extrahiert einen in der Umgebung eines Fahrzeugs vorhandenen Körper als ein Objekt auf Grundlage eines durch eine Infrarotabbildungseinrichtung aufgenommenen Bildes und umfasst eine Extraktionseinrichtung für ein binärisiertes Objekt, die ein binärisiertes Objekt aus durch Binärisieren eines Graustufenbildes des Bildes erhaltenen Bilddaten extrahiert, eine Bereichseinstelleinrichtung, die einen Bereich, der wenigstens einen Abschnitt des durch die Extraktionseinrichtung für ein binärisiertes Objekt extrahierten binärisierten Objekts umfasst, in dem Graustufenbild festlegt, eine Luminanzstatusgrößen-Berechnungseinrichtung, die eine Luminanzstatusgröße des durch die Bereichseinstelleinrichtung festgelegten Bereichs berechnet, eine Intervallstatusgrößen-Berechnungseinrichtung, die eine Intervallstatusgröße nach Maßgabe eines Intervalls zwischen einer Position eines im Wesentlichen maximalen Luminanzwerts und einer Position eines im Wesentlichen minimalen Luminanzwerts innerhalb des Bereichs aufgrund der durch die Luminanzstatusgrößen-Berechnungseinrichtung berechneten Luminanzstatusgröße berechnet, und eine Objekttyp-Bestimmungseinrichtung, die einen Objekttyp auf Grundlage der durch die Intervallstatusgrößen-Berechnungseinrichtung berechneten Intervallstatusgröße bestimmt.
-
Gemäß der oben genannten Fahrzeugumgebungsüberwachungsvorrichtung berechnet die Luminanzstatusgrößen-Berechnungseinrichtung Fluktuationen in einem Durchschnittswert des Luminanzwerts entlang der Horizontalrichtung (horizontale Durchschnittsluminanz) für jede Vertikalposition in beispielsweise einem Graustufenbild als die Luminanzstatusgröße in dem durch die Bereichseinstelleinrichtung festgelegten Bereich. Die Intervallstatusgrößen-Berechnungseinrichtung berechnet beispielsweise die Länge eines Intervalls oder den Luminanzverteilungsstatus in dem Intervall als Intervallstatusgröße nach Maßgabe des Intervalls zwischen der Position des näherungsweise maximalen Luminanzwerts und der Position des näherungsweise minimalen Luminanzwerts innerhalb des Bereichs auf Grundlage der Luminanzstatusgröße. Wenn die berechnete Intervallstatusgröße einen vorbestimmten Bereich, der als physikalische Merkmale eines menschlichen Körpers erlaubt ist, überschreitet, beispielsweise wenn die Länge des Intervalls übermäßig lang ist, kann sie präzise als eine künstliche Struktur unterschieden werden.
-
Die Intervallstatusgröße ist die Länge des Intervalls.
-
Erfindungsgemäß wird das von der Infrarotabbildungseinrichtung erzeugte Graustufenbild binärisiert. Dann wird ein Bereich, der zumindest einen Abschnitt des extrahierten binärisierten Objekts enthält, auf das Graustufenbild gelegt.
-
Schließlich wird der Typ des Objekts basierend auf der Intervall-Länge entsprechend einem Intervall zwischen einer Position eines im Wesentlichen maximalen Luminanzwerts und einer Position eines im Wesentlichen minimalen Luminanzwerts innerhalb des Bereichs basierend auf der Luminanzstatusgröße bestimmt. Das heißt, der Typ des Objekts wird basierend auf einem Abstand zwischen zwei Punkten bestimmt.
-
In diesem Fall kann eine künstliche Struktur und etwas anderes als eine künstliche Struktur auf Grundlage der Länge des Intervalls, die mit dem Verteilungszustand des Relativwerts des Luminanzwerts in dem Bereich, übereinstimmt, ungeachtet des Absolutwerts präzise unterschieden werden.
-
Die Fahrzeugumgebungsüberwachungsvorrichtung kann ferner eine Einstelleinrichtung für einen vorgeschriebenen Bereich enthalten, die auf Grundlage der durch die Luminanzstatusgrößen-Berechnungseinrichtung berechneten Luminanzstatusgröße einen vorgeschriebenen Bereich nach Maßgabe des durch die Extraktionseinrichtung für das binärisierte Objekt extrahierten binärisierten Objekts im Graustufenbild festlegt, eine Seitenverhältnis-Berechnungseinrichtung enthalten, die das Seitenverhältnis des durch die Einstelleinrichtung für den vorgeschriebenen Bereich festgelegten vorgeschriebenen Bereichs berechnet, und eine Seitenverhältnis-Bestimmungseinrichtung enthalten, die bestimmt, ob das durch die Seitenverhältnis-Berechnungseinrichtung berechnete Seitenverhältnis nicht kleiner ist als eine vorgeschriebene obere Grenze oder nicht größer ist als eine untere Grenze, wobei die Objekttyp-Bestimmungseinrichtung den Objekttyp zusätzlich zur durch die Intervallstatusgrößen-Berechnungseinrichtung berechneten Intervallstatusgröße auf Grundlage des Bestimmungsergebnisses der Seitenverhältnis-Bestimmungseinrichtung bestimmt.
-
Gemäß der obigen Fahrzeugumgebungsüberwachungsvorrichtung kann dann, wenn das Seitenverhältnis des binärisierten Objekts den als physikalische Merkmale eines menschlichen Körpers erlaubten Bereich überschreitet, beispielsweise übermäßig schmal oder breit gegenüber dem Seitenverhältnis des Kopfs einer Person (der einen ungefähren Wert von 1 aufweist) ist, diese präzise als eine künstliche Struktur unterschieden werden. Hierdurch kann der Zuverlässigkeitsgrad bei der Bestimmung des Objekttyps auf Grundlage des Seitenverhältnisses zusätzlich zur Intervallstatusgröße verbessert werden.
-
Ferner kann die Fahrzeugumgebungsüberwachungsvorrichtung eine Fußgängererkennungseinrichtung umfassen, die in der Umgebung eines Fahrzeugs vorhandene Fußgänger auf Grundlage des Bildes erkennt, wobei die Fußgängererkennungseinrichtung eine Fußgängererkennungsverarbeitung an dem Objekt durchführt, wenn durch die Objekttypbestimmungseinrichtung bestimmt wird, dass das Objekt etwas anderes als eine künstliche Struktur ist oder dass das Objekt ein Fußgänger ist.
-
Gemäß der obigen Fahrzeugumgebungsüberwachungsvorrichtung kann die Fußgängererkennungsgenauigkeit verbessert werden, indem eine Fußgängererkennungsverarbeitung für das Objekt durchgeführt wird, das als etwas anderes als eine künstliche Struktur bestimmt wurde, sowie für das Objekt, das als ein Fußgänger bestimmt wurde.
-
Ferner kann die Fahrzeugumgebungsüberwachungsvorrichtung eine Warnungsausgabeeinrichtung umfassen, die eine das Objekt betreffende Warnung ausgibt, wenn durch die Objekttypbestimmungseinrichtung bestimmt wird, dass das Objekt etwas anderes als eine künstliche Struktur ist oder dass das Objekt ein Fußgänger ist.
-
Da gemäß der obigen Fahrzeugumgebungsüberwachungsvorrichtung eine Warnung für ein Objekt ausgegeben werden kann, das als etwas anderes als eine künstliche Struktur bestimmt wurde, sowie für ein Objekt, das als ein Fußgänger bestimmt wurde, können unnötige Warnungen für eine künstliche Struktur vermieden werden.
-
Die Erfindung wird im Folgenden anhand eines Ausführungsbeispiels unter Bezugnahme auf die begleitenden Zeichnungen näher erläutert. Es zeigt:
-
1 ein Blockdiagramm, das die Konstruktion einer Fahrzeugumgebungsüberwachungsvorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung zeigt;
-
2 ein Diagramm, das ein mit der in 1 gezeigten Fahrzeugumgebungsüberwachungsvorrichtung ausgestattetes Fahrzeug zeigt;
-
3 ein Flussdiagramm, das die Betriebsvorgänge der in 1 gezeigten Fahrzeugumgebungsüberwachungsvorrichtung zeigt;
-
4 ein Flussdiagramm, das die in 3 gezeigte Warnungsbestimmungsverarbeitung zeigt;
-
5 ein Diagramm, das ein Beispiel einer Relativposition zwischen einem Fahrzeug und einem Objekt zeigt;
-
6 ein Diagramm, das ein Beispiel der Klassifikation der Bereiche, etwa eines vor dem Fahrzeug festgelegten Annäherungsbestimmungsbereichs zeigt;
-
7 ist ein Schaubild, das ein Beispiel der horizontalen Durchschnittsluminanzprojektion in einem Bereich zeigt, der wenigstens einen Abschnitt des binärisierten Objekts enthält.
-
8 ist ein Schaubild, das ein Beispiel der horizontalen Durchschnittsluminanzprojektion und des Differentialkoeffizienten zeigt.
-
9 ist ein Schaubild, das ein Beispiel der maximalen Spitzenwertposition und der minimalen Spitzenwertposition zeigt.
-
10 ist ein Schaubild, das ein Beispiel der horizontalen Durchschnittsluminanzprojektion in einem Bereich, der wenigstens einen Abschnitt des binärisierten Objekts enthält, sowie die vertikale Durchschnittsluminanzprojektion zeigt.
-
Hierin wird im Folgenden eine Fahrzeugumgebungsüberwachungsvorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung unter Bezugnahme auf die Zeichnungen beschrieben.
-
Die beispielhaft in 1 gezeigte Fahrzeugumgebungsüberwachungsvorrichtung gemäß der vorliegenden Ausführungsform umfasst: eine Bildverarbeitungseinheit 1, die mit einer CPU (zentralen Prozessoreinheit) ausgestattet ist, welche die Fahrzeugumgebungsüberwachungsvorrichtung steuert/regelt, zwei Infrarotkameras 2R und 2L, die in der Lage sind, entfernte Infrarotstrahlung zu erfassen, einen Gierratensensor 3, der die Gierrate des Fahrzeugs erfasst, einen Fahrzeuggeschwindigkeitssensor 4, der die Bewegungsgeschwindigkeit des Fahrzeugs erfasst, einen Bremssensor 5, der eine Bremsbetätigung eines Fahrers erfasst, einen Lautsprecher 6 und eine Anzeigevorrichtung 7. Beispielsweise erfasst die Bildverarbeitungseinheit 1 ein sich bewegendes Objekt, etwa einen Fußgänger oder ein Tier vor dem Fahrzeug in dessen Bewegungsrichtung aus Infrarotbildern der Umgebung des Fahrzeugs, die durch die beiden Infrarotkameras 2R, 2L aufgenommen werden, und aus Erfassungssignalen, welche den Bewegungszustand des durch jeden der Sensoren 3, 4 und 5 erfassten Fahrzeugs betreffen. In dem Fall, in dem die Möglichkeit einer Kollision zwischen dem erfassten sich bewegenden Objekt und dem Fahrzeug bestimmt wird, wird über die Lautsprecher 6 oder die Anzeigeeinrichtung 7 eine Warnung ausgegeben.
-
Weiterhin ist die Anzeigeeinrichtung 7 beispielsweise mit einer Anzeigeeinrichtung konstruiert, welche Instrumente umfasst, die verschiedene Bewegungszustände des Fahrzeugs anzeigen, mit einer Anzeigeeinrichtung in der Art einer Navigationseinrichtung, und ferner mit einem HUD (Head Up Display = projizierte Frontscheibenanzeige) 7a, welches Information verschiedener Art an einer Position an der Windschutzscheibe anzeigt, an der das Sichtfeld des Fahrers nicht beeinträchtigt ist.
-
Weiterhin enthält die Bildverarbeitungseinheit 1 einen A/D-Wandler, der Eingangsanalogsignale zu Digitalsignalen umwandelt, einen Bildspeicher, der digitalisierte Bildsignale speichert, eine CPU (zentrale Prozessoreinheit), die verschiedene arithmetische Prozeduren durchführt, einen RAM (Arbeitsspeicher), der zum Speichern von Daten in der Mitte der arithmetischen Prozedur verwendet wird, einen ROM (Nur-Lesespeicher), der durch die CPU ausgeführte Programme und Tabellen, Kennfelder und dergleichen speichert sowie eine Ausgangsschaltung, die Treibersignale für die Lautsprecher 6 und Anzeigesignale für das HUD 7a ausgibt. Die Bildverarbeitungseinheit 1 ist derart konstruiert, dass die Ausgangssignale der Infrarotkameras 2R und 2L und der jeweiligen Sensoren 3, 4 und 5 in die CPU eingegeben werden, nachdem sie in Digitalsignale umgewandelt worden sind.
-
Wie in 2 gezeigt ist, sind ferner zwei Infrarotkameras 2R und 2L an der Vorderseite des Fahrzeugs 10 an Stellen symmetrisch in Breitenrichtung relativ zur zentralen Achse des Fahrzeugs 10 angeordnet. Die optischen Achsen beider Kameras 2R, 2L sind parallel zueinander und beide Infrarotkameras 2R, 2L sind in derselben Höhe von der Straßenoberfläche aus befestigt. Eine Charakteristik der Infrarotkameras 2R, 2L ist, dass der Ausgangssignalpegel (das heißt die Luminanz oder Bildhelligkeit) ansteigt, wenn die Temperatur des Objekts ansteigt.
-
Weiterhin ist das HUD 7a derart vorgesehen, dass es die Bilder an einer Position an der Windschutzscheibe des Fahrzeugs 10 anzeigt, an der das Sichtfeld des Fahrers nicht beeinträchtigt ist.
-
Die Fahrzeugumgebungsüberwachungsvorrichtung gemäß der vorliegenden Ausführungsform ist mit der oben beschriebenen Konstruktion ausgestattet. Nachfolgend wird die Funktionsweise der Fahrzeugumgebungsüberwachungsvorrichtung unter Bezugnahme auf die Zeichnungen beschrieben.
-
Die Betriebsvorgänge der Bildverarbeitungseinheit 1 zur Erfassung eines Objekts, etwa eines Fußgängers, und Ausgabe einer Warnung werden im Folgenden beschrieben.
-
Zunächst erhält in dem in 3 gezeigten Schritt S1 die Bildverarbeitungseinheit 1 Infrarotbilder, die die Ausgangssignale von den Infrarotkameras 2R, 2L sind.
-
Nachfolgend wird in Schritt S2 eine A/D-Wandlung der erhaltenen Bilder durchgeführt.
-
Nachfolgend wird in Schritt S3 ein Graustufenbild, welches Halbtongradationsinformation (Graustufenrasterinformation) enthält, erhalten und in einem Bildspeicher abgespeichert. Hierbei nimmt die Infrarotkamera 2R das rechte Bild auf und die Infrarotkamera 2L das linke Bild auf. Weil ferner im rechten Bild und im linken Bild die horizontale Position am Anzeigeschirm für dasselbe Objekt verschoben erscheint, ermöglicht diese Verschiebung (das heißt die Parallaxe) die Berechnung des Abstands von dem Fahrzeug 10 zum Objekt.
-
Nachfolgend wird das durch die Infrarotkamera 2R aufgenommene rechte Bild als Referenzbild bestimmt und eine Binärisierungsverarbeitung dieses Bildsignals wird durchgeführt, das heißt Bereiche, die heller sind als ein vorbestimmter Luminanzschwellenwert (Bildhelligkeitsschwellenwert) ITH, werden auf ”1” (weiß) gesetzt und dunklere Bereiche werden auf ”0” (schwarz) gesetzt.
-
Die Prozedur von Schritt S4 bis S9 oben wird für das aus der Binärisierungsverarbeitung erhaltene Referenzbild durchgeführt (beispielsweise das rechte Bild).
-
Nachfolgend werden in Schritt S5 die als Ergebnis der Binärisierungsverarbeitung für die Infrarotbilder erhaltenen Bilddaten in lauflängenkodierte Daten umgewandelt. In den lauflängenkodierten Daten werden Bereiche, welche als Ergebnis der Binärisierungsverarbeitung weiß geworden sind, auf dem Pixelniveau als Zeilen angezeigt. Jede Zeile ist derart festgelegt, dass sie in der y-Richtung die Breite eines Pixels und in der x-Richtung die Länge einer entsprechend zugehörigen Anzahl von Pixeln aufweist.
-
Nachfolgend wird in Schritt S6 eine Kennzeichnung des Objekts für die in lauflängenkodierte Daten umgewandelten Bilddaten durchgeführt.
-
Nachfolgend wird in Schritt S7 das Objekt nach Maßgabe der Kennzeichnung des Objekts extrahiert. Hierbei werden in dem Fall, in dem aus jeweiligen Zeilen der lauflängenkodierten Daten Zeilen mit gleichen Koordinaten in x-Richtung zueinander benachbart sind, erkannt, dass die benachbarten Zeilen ein einzelnes Objekt bilden.
-
Nachfolgend wird in Schritt S8 der Schwerpunkt G des extrahierten Objekts, die Fläche S und das Seitenverhältnis ASPECT des umschriebenen Vierecks berechnet.
-
Hierbei werden, unter der Annahme, dass die lauflängenkodierten Daten des als A bezeichneten Objekts (x(i), y(i), Lauflänge(i), A) (i = 0, 1, 2, ..., N – 1, wobei N eine willkürliche nicht negative ganze Zahl ist), die Flächen S durch Addieren der Längen (Lauflänge(i) – 1) jedes lauflängenkodierten Datums für dasselbe Objekt berechnet.
-
Ferner werden die Koordinaten (xc, yc) des Schwerpunkts G des mit A bezeichneten Objekts durch Multiplizieren der Länge (Lauflänge(i) – 1), jedes lauflängenkodierten Datums mit den Koordinaten x(i) oder y(i) (das heißt (Lauflänge(i) – 1) × x(i) oder (Lauflänge(i) – 1) × y(i)), Addieren der Multiplikationsprodukte für dasselbe Objekt und Teilen des Ergebnisses durch die Fläche S berechnet.
-
Weiterhin wird das Seitenverhältnis ASPECT als das Verhältnis Dy/Dx der Länge Dy in der Vertikalrichtung eines um das mit A bezeichnete Objekt umschriebenen Vierecks gegenüber der Länge Dx in der Horizontalrichtung berechnet.
-
Da die lauflängenkodierten Daten durch die Anzahl von Pixeln (Anzahl von Koordinaten) repräsentiert werden (= Lauflänge(i)), ist es notwendig, von der tatsächlichen Länge 1 zu subtrahieren (= Lauflänge(i) – 1). Ferner können die Koordinaten des Schwerpunkts G durch den Schwerpunkt des umschriebenen Vierecks des Objekts ersetzt werden.
-
Nachfolgend werden die Schritte S9 und S10 sowie die Schritte S11 bis S13 parallel abgearbeitet.
-
Zunächst wird in Schritt S9 eine zeitliche Verfolgung des Objekts durchgeführt, das heißt dasselbe Objekt wird zu jeder Abtastzeit erkannt. Die zeitliche Verfolgung wird durchgeführt, um zu bestimmen, ob zwei zum Zeitintervall k extrahierte Objekte A und B dieselben sind wie die Körper C und D, die zur diskreten Zeit (k + 1) extrahiert worden sind. Die Zeitintervalle k, k + 1 sind hierbei eine innerhalb eines Abtastintervalls diskrete analoge Zeit. Wenn bestimmt wird, dass die Objekte A und B dieselben sind wie die Objekte C und D, werden die Objekte C und D als Objekte A und B umbenannt. Dann werden die Koordinaten jedes erkannten Objekts (beispielsweise der Schwerpunkt) in dem Speicher als Zeitserienpositionsdaten gespeichert.
-
Nachfolgend wird in Schritt S10 die durch den Fahrzeuggeschwindigkeitssensor 4 erfasste Fahrzeuggeschwindigkeit VCAR und die durch den Gierratensensor 3 erfasste Gierrate YR erhalten und durch Nehmen des zeitlichen Integrals der Gierrate YR wird der Lenkwinkel θr des Fahrzeugs 10 berechnet.
-
Mittlerweile wird parallel zur Verarbeitung in Schritt S9 und S10 eine Verarbeitung zum Berechnen des Abstands z zwischen dem Objekt und dem Fahrzeug 10 in Schritt S11 bis Schritt S13 durchgeführt. Weil die Verarbeitung von Schritt S11 mehr Zeit erfordert als diejenige von Schritt S9 und S10, wird dieser für eine längere Zeitdauer als die Schritte S9 und S10 durchgeführt (eine Zeitdauer, die beispielsweise ungefähr dreimal länger ist als die Zeitdauer für die Schritte S1 bis S10).
-
Zunächst wird in Schritt S11 eine Mehrzahl der Objekte, die in den binärisierten Bilddaten des Referenzbilds (beispielsweise des rechten Bilds) verfolgt wurden, ausgewählt und beispielsweise wird der gesamte Bereich, welcher das ausgewählte Objekt durch ein umschriebenes Viereck umschließt, als ein Suchbild R1 aus dem Referenzbild (beispielsweise dem rechten Bild) ausgewählt.
-
Nachfolgend wird in Schritt S12 ein Suchbereich zum Suchen eines Bilds (entsprechendes Bild) R2 entsprechend dem Suchbereich R1 in dem Bild (beispielsweise dem linken Bild) festgelegt, das dem Referenzbild (beispielsweise dem rechten Bild) entspricht, und eine Korrelationsberechnung wird durchgeführt, um ein entsprechendes Bild R2 zu extrahieren. Hier wird beispielsweise ein Suchbereich in dem linken Bild festgelegt nach Maßgabe der Vertexkoordinaten des Suchbilds R1 festgelegt, ein Luminanzdifferenzsummenwert C (a, b), welcher den Korrelationsgrad des Suchbilds R1 in dem Suchbereich zeigt, berechnet und der Bereich, in dem dieser Summenwert C (a, b) am niedrigsten ist, als das entsprechende Bild R2 extrahiert. Weiterhin wird diese Korrelationsberechnung für das Graustufenbild durchgeführt, nicht für die von dem Binärisierungsprozess erhaltenen Bilddaten. In dem Fall, in dem die historischen Positionsdaten für dasselbe Objekt zur Verfügung stehen, kann der Suchbereich auf Grundlage der historischen Positionsdaten kleiner sein.
-
Nachfolgend wird in Schritt S13 die Position der Schwerpunkte sowohl des Suchbilds R1 als auch des entsprechenden Bilds R2 und die Parallaxe Δd auf dem Pixelniveau berechnet. Ferner wird der Abstand zwischen dem Fahrzeug 10 und dem Objekt, das heißt der Abstand z(m) (Objektabstand) von den Infrarotkameras 2R, 2L zum Objekt berechnet, beispielsweise auf Grundlage der Basislänge der Kameras, d. h. des horizontalen Abstands D (m) zwischen Mittelpunkten jeder Abbildungseinrichtung der Infrarotkameras 2R, 2L, dem Brennpunktsabstand der Kamera, d. h. dem Brennpunktsabstand f(m) jeder Linse der Infrarotkameras 2R, 2L, der Pixelteilung p (m/Pixel) und der Parallaxe Δd (Pixel), wie im Ausdruck (1) gezeigt ist.
-
-
Wenn weiterhin in Schritt S14 die Berechnung des Lenkwinkels θr in Schritt S10 und die Berechnung des Abstands z in Schritt S13 vollständig sind, werden die Koordinaten im Bild (x, y) und der Abstand z in reale Raumkoordinaten (X, Y, Z) umgewandelt.
-
Wie in 2 gezeigt ist, werden hierbei beispielsweise die realen Raumkoordinaten (X, Y, Z) festgelegt durch Zuweisen des Ursprungs O zu der Mittelposition der Montageposition der Infrarotkameras 2R, 2L vor dem Fahrzeug 10 und die Koordinaten in dem Bild werden derart festgelegt, dass die Horizontalrichtung die x-Richtung ist und die Vertikalrichtung die y-Richtung ist, wobei der Mittelpunkt des Bilds im Ursprung liegt. Ferner sind die Koordinaten (xc, yc) die Koordinaten, die umgewandelt wurden aus den Koordinaten (x, y) im Referenzbild (beispielsweise dem rechten Bild) in die Koordinaten in einem virtuellen Bild, welches erhalten wurde durch Aus des Ursprungs O des realen Raums und des Mittelpunkts der Bilddaten derart, dass sie zusammenfallen, auf Grundlage der Relativpositionsbeziehung zwischen der Montageposition der Infrarotkamera 2R und des Ursprungs O im realen Raum.
-
-
Nachfolgend wird in Schritt S15 eine Lenkwinkelkorrektur durchgeführt, um die Verlagerung des Objekts im Bild, welche durch das Lenken des Fahrzeugs 10 verursacht wird, zu kompensieren. Diese Lenkwinkelkorrekturprozedur wird durchgeführt, um eine Verlagerung um Δx in der x-Richtung im Bereich der durch die Infrarotkameras 2R, 2L aufgenommenen Bilddaten zu kompensieren, wenn beispielsweise das Fahrzeug 10 um einen Winkel von er innerhalb einer Zeitdauer von der Zeit k bis (k + 1) nach links lenkt. Wie beispielsweise in dem nummerischen Ausdruck (3) gezeigt ist, werden die als ein Ergebnis der Kompensation der Koordinaten im realen Raum (X, Y, Z) kompensierten Koordinaten (Xr, Yr, Zr) als neue Koordinaten (X, Y, Z) im realen Raum erhalten.
-
-
Nachfolgend wird in Schritt S16 eine ungefähr gerade Linie LMV, die dem Relativbewegungsvektor zwischen dem Objekt und dem Fahrzeug 10 entspricht, aus N (beispielsweise beträgt N ungefähr 10) Stücken von realen Raumpositionsdaten, welche Zeitseriendaten bilden und welche einer Lenkwinkelkorrektur unterzogen wurden, für dasselbe Objekt während einer vorbestimmten Überwachungszeitdauer ΔT erhalten.
-
In diesem Schritt S16 werden die jüngsten Koordinaten P(0) = (X(0), Y(0), Z(0)) und die Koordinaten P vor dem Abtasten (vor der vorbestimmten Zeitdauer ΔT) (N – 1) = (X(N – 1), Y(N – 1), Z(N – 1) zu Positionen auf der ungefähr geraden Linie LMV korrigiert und die korrigierten Koordinaten Pv(0) = (Xv(0), Yv(0), Zv(0)) und Pv(N – 1) = (Xv(N – 1), Yv(N – 1), Zv(N – 1)) berechnet.
-
Diese Prozedur ergibt den Relativbewegungsvektor als ein sich von den Koordinaten Pv(N – 1) zu Pv(0) bewegenden Vektor.
-
Durch Erhalten eines Relativbewegungsvektors durch Berechnen einer angenäherten geraden Linie, welche den Relativbewegungsweg des Objekts relativ zum Fahrzeug 10 aus einer Mehrzahl von (beispielsweise N) Stücken von realen Raumpositionsdaten innerhalb der vorbestimmten Überwachungszeitdauer AT annähert, ist es möglich, mit besserer Genauigkeit abzuschätzen, ob eine Möglichkeit eines Zusammenstoßes zwischen dem Fahrzeug 10 und einem Objekt besteht, wobei der Effekt von Positionserfassungsfehlern verringert wird.
-
Nachfolgend wird in Schritt S17 bei der Warnungsbestimmungsverarbeitung auf Grundlage der Möglichkeit einer Kollision zwischen dem erfassten Objekt und dem Fahrzeug 10 bestimmt, ob das erfasste Objekt Anlass zu einer Warnung sein soll.
-
Wenn das Ergebnis dieser Bestimmung ”NEIN” ist, geht der Ablauf weiter zu Schritt S1 und die Verarbeitung der oben beschriebenen Schritte S1 bis S17 wird wiederholt.
-
Wenn andererseits das Ergebnis dieser Bestimmung ”JA” ist, geht der Ablauf weiter zu Schritt S18.
-
Weiterhin wird in Schritt S18 in dem Warnungsausgabebestimmungsprozess auf Grundlage der Ausgabe BR des Bremssensors 5 je nachdem, ob der Fahrer des Fahrzeugs 10 die Bremse betätigt, bestimmt, ob die Warnungsausgabe erforderlich ist.
-
Wenn das Bestimmungsergebnis in Schritt S18 ”NEIN” ist, wird beispielsweise in dem Fall, in dem ein Beschleunigungs/Verzögerungsgrad Gs (positiv in der Verzögerungsrichtung) größer ist als ein vorbestimmter Schwellenwert GTH, während der Fahrer des Fahrzeugs 10 die Bremse betätigt, bestimmt, dass die Kollision durch die Bremsbetätigung vermieden werden kann. Der Ablauf kehrt zu Schritt S1 zurück und die Verarbeitung der oben beschriebenen Schritte S1 bis S18 wird wiederholt.
-
Wenn andererseits das Bestimmungsergebnis in Schritt S18 ”JA” ist, wird beispielsweise in dem Fall, in dem ein Beschleunigungs/Verzögerungsgrad Gs (positiv in der Verzögerungsrichtung) nicht größer als der vorbestimmte Schwellenwert GTH ist, während der Fahrer des Fahrzeugs 10 die Bremse betätigt, oder in dem Fall, in dem der Fahrer des Fahrzeugs 10 die Bremse nicht betätigt, die Möglichkeit einer Kollision als hoch bestimmt und der Ablauf geht weiter zu Schritt S19.
-
Der vorbestimmte Schwellenwert GTH ist ein Wert, der einer Beschleunigung/Verzögerung entspricht, welche dazu führen würde, dass das Fahrzeug 10, sofern dieser Beschleunigungs/Verzögerungsgrad Gs während des Bremsvorgangs beibehalten wird, nach einem Bewegungsabstand anhält, der nicht größer ist als der Abstand Zv(0) zwischen dem Objekt und dem Fahrzeug 10.
-
Danach wird in Schritt S19 ein hörbarer Warnton ausgegeben, beispielsweise durch den Lautsprecher 6, oder eine visuelle Warnanzeige ausgegeben, beispielsweise durch die Anzeigevorrichtung 7, oder eine ertastbare Warnung ausgegeben durch Erzeugen einer Befestigungskraft, die für den Fahrer tastend wahrnehmbar ist, mit Erzeugung einer vorbestimmten Spannung im Sicherheitsgurt oder durch Erzeugen von Vibration (Lenkvibration), beispielsweise an einem Lenkrad, das durch den Fahrer tastend wahrnehmbar ist.
-
Nachfolgend werden in Schritt S20 beispielsweise die von der Infrarotkamera 2R erhaltenen Bilddaten an die Anzeigevorrichtung 7 ausgegeben, um das sich relativ annähernde Objekt als ein hervorgehobenes Bild anzuzeigen.
-
Hierin wird im Folgenden die oben beschriebene Warnungsbestimmungsverarbeitung in Schritt S17 unter Bezugnahme auf die beigefügten Zeichnungen beschrieben.
-
Diese Warnungsbestimmungsverarbeitung bestimmt die Möglichkeit einer Kollision zwischen dem Fahrzeug 10 und einem erfassten Objekt auf Grundlage der Kollisionsbestimmungsverarbeitung, einer Verarbeitung zur Bestimmung, ob ein Objekt sich in einem Annäherungsbestimmungsbereich befindet, einer Eindringkollisionsbestimmungsverarbeitung, einer Verarbeitung zur Bestimmung einer künstlichen Struktur und einer Verabeitung zur Bestimmung eines Fußgängers, wie in 4 gezeigt ist. Die folgende Beschreibung nimmt Bezug auf ein Beispiel, wie es in 5 gezeigt ist, bei dem ein Objekt 20 sich mit einer Geschwindigkeit Vp in der Richtung im Wesentlichen in einem 90°-Winkel relativ zur Bewegungsrichtung des Fahrzeugs 10 (beispielsweise der Z-Richtung) bewegt.
-
Zunächst wird in dem in 4 gezeigten Schritt S31 eine Kollisionsbestimmungsverarbeitung durchgeführt. Die Kollisionsbestimmungsverarbeitung berechnet die Relativgeschwindigkeit Vs des Fahrzeugs 10 und des Objekts 20 in der Z-Richtung in dem Fall, in dem, wie in 5, das Objekt 20 sich von einem Abstand von Zv(N – 1) auf einen Abstand von Zv(0) während einer Zeitdauer ΔT annähert, und unter der Annahme, dass die Höhen sowohl des Fahrzeugs 10 als auch des Objekts 20 nicht größer als ein vorbestimmter Bodenabstand sind und die Relativgeschwindigkeit Vs beibehalten wird. Sie bestimmt ferner, ob das Fahrzeug 10 und das Objekt 20 innerhalb der vorbestimmten erlaubten Zeit Ts miteinander zusammenstoßen.
-
Wenn das Bestimmungsergebnis ”NEIN” ist, geht der Ablauf weiter zu Schritt S37, der später beschrieben wird.
-
Wenn andererseits das Ergebnis dieser Bestimmung ”JA” ist, geht der Ablauf weiter zu Schritt S32.
-
Weiterhin soll die erlaubte Zeit Ts die Bestimmung der Möglichkeit einer Kollision um eine vorbestimmte Zeitdauer Ts vor der geschätzten Kollisionszeit ermöglichen, und ist beispielsweise auf ungefähr 2 bis 5 Sekunden eingestellt. Ferner wird der vorbestimmte Bodenabstand H beispielsweise auf ungefähr zweimal die Höhe des Fahrzeugs 10 eingestellt.
-
Nachfolgend wird in Schritt S32 bestimmt, ob das Objekt sich innerhalb eines Annäherungsbestimmungsbereichs befindet. Wie beispielsweise in 6 gezeigt ist, bestimmt in einem Bereich AR0, welcher durch die Infrarotkameras 2R, 2L überwacht werden kann, diese Bestimmungsverarbeitung, ob das Objekt sich innerhalb eines Bereichs AR1 befindet, der sich in einem Abstand (Vs × Ts) näher zum Fahrzeug 10 als eine vordere Position Z1 befindet und der eine Gesamtbreite (α + 2β) mit einer vorbestimmten Breite β (beispielsweise ungefähr 50 bis 100 cm) aufweist, die zu beiden Seiten der Breite α des Fahrzeugs 10 in der Fahrzeugquerrichtung (das heißt der X-Richtung) addiert ist, und der den vorbestimmten Bodenabstand H aufweist. Das heißt, AR1 ist ein Annäherungsbestimmungsbereich, in dem eine hohe Wahrscheinlichkeit besteht, dass eine Kollision mit dem Fahrzeug 10 auftritt, wenn das Objekt an seiner Stelle bleibt.
-
Wenn das Bestimmungsergebnis ”JA” ist, geht der Ablauf weiter zu Schritt S34, der später beschrieben wird.
-
Wenn andererseits das Ergebnis der Bestimmung ”NEIN” ist, geht der Ablauf weiter zu Schritt S33.
-
Danach wird in Schritt S33 eine Eindringkollisionsbestimmungsverarbeitung durchgeführt, um zu bestimmen, ob eine Möglichkeit existiert, dass das Objekt in den Annäherungsbestimmungsbereich eintritt und mit dem Fahrzeug 10 zusammenstößt. Wie beispielsweise in 6 gezeigt ist, bestimmt diese Eindringkollisionsbestimmungsverarbeitung, ob eine Möglichkeit besteht, dass das sich in den außerhalb des Annäherungsbestimmungsbereichs AR1 in der Fahrzeugquerrichtung (das heißt der x-Richtung) liegenden Eindringbestimmungsbereichen AR2 und AR3 bewegende Objekt mit dem Bodenabstand H in den Annäherungsbestimmungsbereich AR1 eintritt und mit dem Fahrzeug 10 zusammenstößt.
-
Wenn das Bestimmungsergebnis ”JA” ist, geht der Ablauf weiter zu Schritt S36, der später beschrieben wird.
-
Wenn andererseits das Bestimmungsergebnis ”NEIN” ist, geht der Ablauf weiter zu Schritt S37, der später beschrieben wird.
-
Danach wird in Schritt S34 eine Verarbeitung zur Bestimmung einer künstlichen Struktur durchgeführt, um zu bestimmen, ob das Objekt eine künstliche Struktur ist. Diese Verarbeitung zur Bestimmung einer künstlichen Struktur bestimmt, dass das Objekt eine künstliche Struktur ist und schließt das Objekt von der Warnungsbestimmung aus, wenn bestimmte Charakteristiken, etwa die unten genannten, erfasst werden, welche bedeuten, dass das Objekt kein Fußgänger sein kann.
-
Wenn das Ergebnis dieser Bestimmung ”NEIN” ist, geht der Ablauf weiter zu Schritt S35.
-
Wenn andererseits das Ergebnis dieser Bestimmung ”JA” ist, geht der Ablauf weiter zu Schritt S37.
-
Danach wird in Schritt S35 eine Verarbeitung zur Bestimmung eines Fußgängers durchgeführt, um zu bestimmen, ob das Objekt ein Fußgänger ist.
-
Wenn das Ergebnis der Bestimmung in Schritt S35 ”JA” ist, geht der Ablauf weiter zu Schritt S36.
-
Wenn anderersits das Ergebnis der Bestimmung in Schritt S35 ”NEIN” ist, geht der Ablauf weiter zu Schritt S37, welcher später beschrieben wird.
-
Danach wird in Schritt S36, dann, wenn in Schritt S33 eine Möglichkeit existiert, dass das Objekt in den Annäherungsbestimmungsbereich eindringt und mit dem Fahrzeug 10 zusammenstößt (JA in Schritt S33), oder wenn in Schritt S35 das als möglicherweise ein Fußgänger bestimmte Objekt keine künstliche Struktur ist (JA in Schritt S35), bestimmt, dass eine Möglichkeit besteht, dass das Fahrzeug 10 mit dem erfassten Objekt zusammenstößt und eine Warnung gerechtfertigt ist, und die Verarbeitung wird beendet.
-
In Schritt S37 wird andererseits dann, wenn in Schritt S31 keine Möglichkeit eines Zusammenstoßes zwischen dem Fahrzeug 10 und dem Objekt innerhalb der vorbestimmten erlaubten Zeit Ts besteht (NEIN in Schritt S31) oder in Schritt S33 keine Möglichkeit besteht, dass das Objekt in den Annäherungsbestimmungsbereich eindringt und mit dem Fahrzeug 10 zusammenstößt (NEIN in Schritt S33), oder in Schritt S34 eine Bestimmung gemacht wird, dass das Objekt eine künstliche Struktur ist (JA in Schritt S34), oder wenn das in Schritt S34 als keine künstliche Struktur bestimmte Objekt kein Fußgänger ist (NEIN in Schritt S35), bestimmt, dass keine Möglichkeit einer Kollision zwischen dem Objekt und dem Fahrzeug 10 besteht und eine Warnung nicht gerechtfertigt ist, und die Verarbeitung wird beendet.
-
Hierin wird im Folgenden als die oben genannte Verarbeitung zur Bestimmung einer künstlichen Struktur in Schritt S34 eine Verarbeitung zur Unterscheidung einer künstlichen Struktur mit einer Form ähnlich einem Fußgänger, insbesondere einer ähnlichen Form und Höhe eines Kopfes, der Wärme emittiert, beschrieben.
-
Wie beispielsweise in 7 gezeigt ist, legt diese Verarbeitung zur Bestimmung einer künstlichen Struktur einen Zielbereich (Maske) OA für die Luminanzstatusgrößenberechnung fest, welcher ein Bereich ist, der wenigstens einen Abschnitt eines binärisierten Objekts OB in dem Referenzbild (beispielsweise das von der Infrarotkamera 2R aufgenommene rechte Bild) enthält.
-
Beispielsweise sind unter Bezugnahme auf die Koordinaten (xb, yb) des oberen linken Punkts QL des umschriebenen Vierecks QB des binärisierten Objekts OB, die Breite Wb des umschriebenen Vierecks und die Höhe Hb des umschriebenen Vierecks dann, wenn die Breite dxP der Maske OA auf einen vorbestimmten Wert eingestellt ist (beispielsweise 2 Pixel) und die Höhe dyP der Maske OA auf einen vorbestimmten Wert eingestellt ist (beispielsweise einen Wert zweimal die Höhe Hb des umschriebenen Vierecks = 2 × Hb), die Koordinaten (xP, yP) des oberen linken Punks AL der Maske OA(xP = xb + Wb/2 – 1, yP = yb – Hb).
-
Dann wird die Fluktuation (horizontale Durchschnittsluminanzprojektion) F(J) in Beziehung zur vertikalen Position J eines Durchschnittswerts des Luminanzwerts (horizontale Durchschnittsluminanz) entlang der Horizontalrichtung (d. h. der x-Richtung) für jede vertikale Position J (J ist eine geeignete ganze Zahl) in der Vertikalrichtung (d. h. der y-Richtung, wobei vertikal nach unten die positive Richtung anzeigt) berechnet.
-
Dann wird, wie in 8 gezeigt ist, die Fluktuation (Differentialkoeffizient) S (J) der Steigung in Beziehung zur Vertikalposition J bezüglich der horizontalen Durchschnittsluminanzprojektion F(J) berechnet. Beispielsweise wird die Steigung der geraden Linie gemäß der Näherung erster Ordnung der horizontalen Durchschnittsluminanzprojektion F(J) an jeder vorbestimmten Vertikalbreite in jeder Vertikalposition J berechnet und als Differentialkoeffizient S(J) an jeder Vertikalposition J festgelegt.
-
Dann wird die Position des näherungsweisen Maximalwerts (maximale Spitzenwertposition) j_en und die Position des näherungsweisen Minimalwerts (minimale Spitzenwertposition) j_st der horizontalen Durchschnittsluminanzprojektion F(J) abgeleitet.
-
Wenn hierbei die maximale Spitzenwertposition j_en als eine erste Bestimmungsverarbeitung erfasst wird, wird zunächst bestimmt, ob ein Kantenfilterausgabewert eg_cal, der durch Anwenden eines geeigneten Kantenfilters auf die horizontale Durchschnittsluminanzprojektion F(J) erhalten wird, größer ist als ein vorbestimmter Schwellenwert EG_TH (beispielsweise 10).
-
Ferner wird als zweite Bestimmungsverarbeitung bestimmt, ob die Luminanzdifferenz (F(J) – F(J – 1)) an einer benachbarten Vertikalposition in der horizontalen Durchschnittsluminanzprojektion F(J) größer ist als eine vorbestimmte Differenz KDIFF_TH (beispielsweise – 10).
-
Dann wird in dem Fall, dass das Bestimmungsergebnis der ersten Bestimmungsverarbeitung und das Bestimmungsergebnis der zweiten Bestimmungsverarbeitung ”JA” ist, d. h., dass eg_cal > EG_TH und (F(J) – F(J – 1)) > KDIFF_TH ist, die Position, bei der der Kantenfilterausgabewert eg_cal ein Maximum annimmt, als die maximale Spitzenwertposition j_en festgelegt, wie in 9 gezeigt ist.
-
In dem Fall, dass entweder das Bestimmungsergebnis der ersten Bestimmungsverarbeitung oder das Bestimmungsergebnis der zweiten Bestimmungsverarbeitung ”NEIN” ist, wird davon ausgegangen, dass eine maximale Spitzenwertposition j_en nicht existiert.
-
Weiterhin wird bei Erfassung der minimalen Spitzenwertposition j_st in dem Bereich, in dem die Vertikalpositon J nicht kleiner als die maximale Spitzenwertposition j_en ist, zunächst als dritte Bestimmungsverarbeitung bestimmt, ob der Differentialkoeffizient S(J) und der Differentialkoeffizient S(J – 1) an einer benachbarten Vertikalposition kleiner ist als ein vorbestimmter Schwellenwert SMIN_TH.
-
Ferner wird als eine vierte Bestimmungsverarbeitung bestimmt, ob die horizontale Durchschnittsluminanzprojektion F(J) bezüglich der Vertikalpositon J in der dritten Bestimmungsverarbeitung kleiner ist als ein vorbestimmter Schwellenwert KIDO_TH (beispielsweise 100 Grade/Gradationsstufen).
-
Dann wird für den Fall, dass das Bestimmungsergebnis der dritten Bestimmungsverarbeitung und das Bestimmungsergebnis der vierten Bestimmungsverarbeitung ”JA” ist, das heißt, dass S(J) < SMIN_TH, S(J – 1) < SMIN_TH und F(J) < KIDO_TH ist, die entsprechende Vertikalposition J als die minimale Spitzenwertposition j_st festgelegt, wie beispielsweise in 9 gezeigt ist.
-
In dem Fall, dass entweder das Bestimmungsergebnis der dritten Bestimmungsverarbeitung oder das Bestimmungsergebnis der vierten Bestimmungsverarbeitung ”NEIN” ist, wird nunmehr davon ausgegangen, dass eine minimale Spitzenwertposition j_st nicht existiert.
-
Dann wird bestimmt, ob die Intervalllänge (|maximale Spitzenwertposition j_en – minimale Spitzenwertposition j_st| × Pixelteilung p) im tatsächlichen Raum entsprechend dem Unterschied zwischen der maximalen Spitzenwertposition j_en und der minimalen Spitzenwertposition j_st länger ist als eine vorbestimmte Länge SLOPE_TH (beispielsweise 1 m).
-
Wenn dieses Bestimmungsergebnis ”JA” ist, d. h. wenn (|j_en – j_st| × p) > SLOPE_TH, wird beispielsweise bestimmt, dass die Wärmeverteilung in der Vertikalrichtung relativ moderat ist und dass daher das binärisierte Objekt eine künstliche Struktur ist, und die Verarbeitung wird beendet.
-
Wenn dieses Bestimmungsergebnis ”NEIN” ist, d. h. wenn (|j_en – j_st| × p) ≤ SLOPE_TH ist, wird nunmehr beispielsweise bestimmt, dass die Wärmeverteilung in der Vertikalrichtung relativ steil ist und dass daher das binärisierte Objekt etwas anderes als eine künstliche Struktur ist, die sich in der Vertikalrichtung erstreckt (etwa ein Fußgänger ist, der sich nicht in der Vertikalrichtung erstreckt), und die Verarbeitung wird beendet.
-
Wie oben genannt, wird nach Maßgabe der Fahrzeugumgebungsüberwachungsvorrichtung gemäß der vorliegenden Ausführungsform in dem Fall, dass die Intervalllänge im tatsächlichen Raum entsprechend dem Unterschied zwischen der maximalen Spitzenwertposition j_en und der minimalen Spitzenwertposition j_st länger ist als eine vorbestimmte Länge SLOPE_TH (beispielsweise 1 m), die als physikalische Merkmale eines menschlichen Körpers erlaubt ist, die Wärmeverteilung in der Vertikalrichtung als übermäßig moderat bestimmt, so dass sie genau als eine künstliche Struktur unterschieden werden kann.
-
Bei der oben beschriebenen Ausführungsform wird im Fall, dass die Intervalllänge (|maximale Spitzenwertposition j_en – minimale Spitzenwertposition j_st| × Pixelteilung p) im tatsächlichen Raum länger ist als die vorbestimmte Länge SLOPE_TH (beispielsweise 1 m), das binärisierte Objekt als eine künstliche Struktur unterschieden, aber dies ist nicht hierauf beschränkt. Weiterhin wird in einem Graustufenbild bestimmt, ob das Seitenverhältnis des Bereichs relativ hoher Luminanz nach Maßgabe des binärisierten Objekts größer ist als ein vorbestimmter oberer Grenzwert oder kleiner ist als ein vorbestimmter unterer Grenzwert, und nach Maßgabe dieses Bestimmungsergebnisses kann bestimmt werden, ob das binärisierte Objekt eine künstliche Struktur ist oder nicht (z. B. ein Fußgänger oder dergleichen ist).
-
Wie beispielsweise in 10 gezeigt ist, wird bei dieser Modifikation bei Berechnung der Vertikalbreite c_H und der Horizontalbreite c_W des Bereichs relativ hoher Luminanz nach Maßgabe des binärisierten Objekts zunächst auf Grundlage der horizontalen Durchschnittsluminanzprojektion F (J), der maximalen Spitzenwertposition j_en und der minimalen Spitzenwertposition j_st der Durchschnittswert der horizontalen Durchschnittsluminanzprojektion F(J) (Durchschnittsluminanzwert) AVE_H (= (F(j_st) + ... + F (j_en))/((j_st) – (j_en + 1))) berechnet.
-
Dann wird in der horizontalen Durchschnittsluminanzprojektion F(J) ein Wert, der ungefähr zweimal die Breite des Bereichs aufweist, in dem der Luminanzwert größer als der Durchschnittsluminanzwert AVE_H ist, als die Vertikalbreite c_H festgelegt.
-
Nachfolgend wird eine Maske CA mit einer Breite dyA, welche ein vorbestimmter Wert ist (beispielsweise 2 Pixel), und einer Höhe dxA, welche ein vorbestimmter Wert ist (beispielsweise ein Wert von zweimal der Breite Wb eines umschriebenen Vierecks = 2 × Wb), mit Mittelpunkt an der maximalen Spitzenwertposition j_en festgelegt, und eine Fluktuation (vertikale Durchschnittsluminanzprojektion) W(I) wird in Beziehung zu der Horizontalposition I des Durchschnittswerts des Luminanzwerts (vertikale Durchschnittsluminanz) entlang der vertikalen Richtung (d. h. der y-Richtung) für jede Horizontalposition I (I ist eine geeignete ganze Zahl) in der Horizontalrichtung (d. h. der x-Richtung) berechnet.
-
Dann wird der Wert der Breite in dem Bereich, in dem der Luminanzwert in der vertikalen Durchschnittsluminanzprojektion W(I) größer ist als der Durchschnittsluminanzwert AVE_H als die Horizontalbreite c_W festgelegt.
-
Dann wird bestimmt, ob das Seitenverhältnis (= Vertikalbreite c_H/Horizontalbreite c_W) größer ist als ein vorbestimmter oberer Grenzwert R_THU (beispielsweise 2) oder ob das Seitenverhältnis (= Vertikalbreite c_H/Horizontalbreite c_W) kleiner ist als ein vorbestimmter unterer Grenzwert R_THL (beispielsweise 0,5).
-
Wenn dieses Bestimmungsergebnis ”JA” ist, d. h. in dem Fall, dass die Intervalllänge (maximale Spitzenwertposition j_en – minimale Spitzenwertposition j_st| × Pixelteilung p) im tatsächlichen Raum länger ist als die vorbestimmte Länge SLOPE_TH (beispielsweise 1 m) und dass der Bereich relativ hoher Luminanz nach Maßgabe des binärisierten Objekts übermäßig schmal oder breit ist, wird bestimmt, dass das binärisierte Objekt eine künstliche Struktur ist, und die Verarbeitung wird beendet.
-
Im Fall, dass das Bestimmungsergebnis ”NEIN” ist, wird sogar dann, wenn die Intervalllänge (|maximale Spitzenwertposition j_en – minimale Spitzenwertposition j_st| × Pixelteilung p) im tatsächlichen Raum länger ist als die vorbestimmte Länge SLOPE_TH (beispielsweise 1 m), dann, wenn das Seitenverhältnis innerhalb eines vorbestimmten Bereichs nicht kleiner als die vorbestimmte untere Grenze R_THL (beispielsweise 0,5) und nicht größer als die vorbestimmte obere Grenze R_THU (beispielsweise 2) liegt, bestimmt, dass das binärisierte Objekt R eine künstliche Struktur ist, die sich in der Vertikalrichtung erstreckt oder die sich in der Horizontalrichtung erstreckt, sondern dass das binärisierte Objekt ein Fußgänger ist, der sich weder übermäßig weit in Horizontalrichtung noch übermäßig weit in Vertikalrichtung erstreckt, und die Verarbeitung wird beendet.
-
Bei dieser Modifikation kann der Zuverlässigkeitsgrad bei der Bestimmung des Objekttyps verbessert werden durch Bestimmen, ob eine künstliche Struktur vorliegt, auf Grundlage des Seitenverhältnisses des Bereichs relativ hoher Luminanz nach Maßgabe des binärisierten Objekts, zusätzlich zu der Intervalllänge im tatsächlichen Raum entsprechend dem Unterschied zwischen der maximalen Spitzenwertposition j_en und der minimalen Spitzenwertposition j_st.
-
In der oben beschriebenen Ausführungsform wurde die Bestimmungsverarbeitung für ein Intervall in einem tatsächlichen Raum entsprechend dem Unterschied zwischen der maximalen Spitzenwertposition j_en und der minimalen Spitzenwertposition j_st durchgeführt, aber ist nicht hierauf beschränkt. Beispielsweise kann die Bestimmungsverarbeitung für ein Intervall zwischen der Position des näherungsweise maximalen Luminanzwerts und der Position des näherungsweise minimalen Luminanzwerts durchgeführt werden, das die Bestimmung des Objekttyps erlaubt, etwa eines Intervalls im tatsächlichen Raum, welches dem Unterschied zwischen einer Position in dem vorbestimmten Bereich einschließlich der maximalen Spitzenwertposition j_en und einer Position im vorbestimmten Bereich einschließlich der minimalen Spitzenwertposition j_st entspricht.
-
Eine Fahrzeugumgebungsüberwachungsvorrichtung, die einen in der Umgebung eines Fahrzeugs (10) vorhandenen Körper als ein Objekt auf Grundlage eines durch eine Infrarotabbildungseinrichtung (2R, 2L) aufgenommenen Bildes extrahiert, umfasst eine Extraktionseinrichtung für ein binärisiertes Objekt, die ein binärisiertes Objekt aus durch Binärisieren eines Graustufenbildes des Bildes erhaltenen Bilddaten extrahiert, eine Bereichseinstelleinrichtung, die einen Bereich, der wenigstens einen Abschnitt des binärisierten Objekts enthält, in dem Graustufenbild festlegt, eine Luminanzstatusgrößen-Berechnungseinrichtung, die eine Luminanzstatusgröße des Bereichs berechnet, eine Intervallstatusgrößen-Berechnungseinrichtung, die eine Intervallstatusgröße nach Maßgabe eines Intervalls zwischen einer Position eines im Wesentlichen maximalen Luminanzwerts und einer Position eines im Wesentlichen minimalen Luminanzwerts innerhalb des Bereichs auf Grundlage der Luminanzstatusgröße berechnet, sowie eine Objekttyp-Bestimmungseinrichtung, die einen Objekttyp des Objekts auf Grundlage der Intervallstatusgröße berechnet.