DE102017209631A1 - Objektidentifizierungsvorrichtung - Google Patents

Objektidentifizierungsvorrichtung Download PDF

Info

Publication number
DE102017209631A1
DE102017209631A1 DE102017209631.4A DE102017209631A DE102017209631A1 DE 102017209631 A1 DE102017209631 A1 DE 102017209631A1 DE 102017209631 A DE102017209631 A DE 102017209631A DE 102017209631 A1 DE102017209631 A1 DE 102017209631A1
Authority
DE
Germany
Prior art keywords
area
parameter
pixels
image
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102017209631.4A
Other languages
English (en)
Other versions
DE102017209631B4 (de
Inventor
Kazuhiro MIYAZATO
Masamichi OHSUGI
Hideaki Sawada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Publication of DE102017209631A1 publication Critical patent/DE102017209631A1/de
Application granted granted Critical
Publication of DE102017209631B4 publication Critical patent/DE102017209631B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Optics & Photonics (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

Eine Objektidentifizierungsvorrichtung (13) weist auf: eine erste Bestimmungsvorrichtung (131), die einen ersten Bereich (231) bestimmt, der ein Objekt in einem Bild enthält; eine zweite Bestimmungsvorrichtung (134), die einen speziellen Grenzabschnitt (302) in dem ersten Bereich von einer Grenze (301) des Objektes, bei der ein Grad eines Gradienten einer Bildeigenschaftsgröße gleich oder größer als eine vorbestimmte Größe ist, bestimmt, wobei der spezielle Grenzabschnitt ein Abschnitt ist, bei dem eine Richtung des Gradienten der Bildeigenschaftsgröße eine Richtung ist und wobei ein Verteilungsbereich des speziellen Grenzabschnitts in dem ersten Bereich größer als derjenige eines anderen Grenzabschnitts ist, bei dem die Richtung des Gradienten der Bildeigenschaftsgröße eine andere Richtung ist, die sich von der einen Richtung unterscheidet; und eine Identifizierungsvorrichtung (136), die das Objekt auf der Grundlage eines ersten Parameters (A), der eine Länge des ersten Bereiches repräsentiert, und eines zweiten Parameters (B), der eine Länge des speziellen Grenzabschnitts repräsentiert, identifiziert.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft das technische Gebiet einer Objektidentifizierungsvorrichtung, die ein Objekt in einem Bild identifiziert.
  • Stand der Technik
  • Eine Objektidentifizierungsvorrichtung, die ein Objekt in einem Bild identifiziert, das von einer Kamera aufgenommen wird, ist bekannt. Die JP 2012-118698 A offenbart als ein Beispiel der Objektidentifizierungsvorrichtung eine Objektidentifizierungsvorrichtung, die identifiziert, ob das Objekt in dem Bild ein rauchähnliches Objekt ist. Die Objektidentifizierungsvorrichtung, die in der JP 2012-118698 A beschrieben ist, berechnet eine Disparität (Parallaxe) aus einem Paar Bildern, die von einer Stereokamera aufgenommen werden, und spezifiziert bzw. bestimmt einen Zielbereich in dem Bild, in dem das Objekt, das ein Identifizierungsziel ist, erscheint, auf der Grundlage der berechneten Disparität. Dann identifiziert die Objektidentifizierungsvorrichtung, die in der JP 2012-118698 A beschrieben ist, auf der Grundlage einer Kantenstärke in dem Zielbereich, ob das Objekt in dem Zielbereich ein rauchähnliches Objekt ist. Insbesondere erzeugt die Objektidentifizierungsvorrichtung ein Histogramm der Kantenstärke, spezifiziert bzw. bestimmt die Kantenstärke EN, bei der ein kumulativer Wert, der durch Addieren des Histogramms von einer oberen Seite erhalten wird, gleich oder größer als N% der Gesamtheit bzw. Summe ist, und identifiziert, dass das Objekt in dem Zielbereich das rauchähnliche Objekt ist, wenn die Kantenstärke EN gleich oder kleiner als ein Schwellenwert S ist.
  • Die JP 2015-075826 A , die JP 2014-215718 A , die JP 2014-010771 A , die JP 2013-206328 A , die JP 2013-203337 A und die JP 2016-001435 A beschreiben jeweils ein anderes Beispiel der Objektidentifizierungsvorrichtung. Die Objektidentifizierungsvorrichtung, die in diesen Patentdokumenten beschrieben ist, weist jedoch im Vergleich zu der Objektidentifizierungsvorrichtung, die in der JP 2012-118698 beschrieben ist, einen geringeren Bezug zu der vorliegenden Erfindung auf, und somit wird deren detaillierte Beschreibung weggelassen.
  • Zitierungsliste
  • Patentliteratur
    • Patentliteratur 1: JP 2012-118698 A
    • Patentliteratur 2: JP 2015-075826 A
    • Patentliteratur 3: JP 2014-215718 A
    • Patentliteratur 4: JP 2014-010771 A
    • Patentliteratur 5: JP 2013-206328 A
    • Patentliteratur 6: JP 2013-203337 A
    • Patentliteratur 7: JP 2016-001435 A
  • Zusammenfassung der Erfindung
  • Technisches Problem
  • Die Objektidentifizierungsvorrichtung, die in der JP 2012-118698 A beschrieben ist, identifiziert auf der Grundlage eines Pegels der Kantenstärke, ob das Objekt ein rauchähnliches Objekt ist. Der Grund dafür, warum die Objektidentifizierungsvorrichtung in der Lage ist, das Objekt auf diese Weise zu identifizieren, besteht darin, dass die Kantenstärke des rauchähnlichen Objektes wahrscheinlicher kleiner als die Kantenstärke eines anderen Objektes (beispielsweise eine künstliche Struktur wie beispielsweise eine Leitplanke, ein Pfosten und ein Strommast) ist, das sich von dem rauchähnlichen Objekt unterscheidet.
  • Die Kantenstärke des rauchähnlichen Objektes wird jedoch in dem Fall, in dem eine Farbe (alternativ andere Eigenschaften wie beispielsweise die Luminanz; dasselbe gilt in diesem Absatz und dem nächsten Absatz) des rauchähnlichen Objektes sich stark von einer Farbe eines Hintergrundes hinter dem rauchähnlichen Objekt unterscheidet, größer als in einem Fall, in dem die Farbe des rauchähnlichen Objektes sich nicht stark von der Farbe des Hintergrundes hinter dem rauchähnlichen Objekt unterscheidet. Somit kann sogar dann bestimmt werden, dass die oben beschriebene Kantenstärke EN nicht gleich oder kleiner als der Schwellenwert S ist, wenn das Objekt in dem Zielbereich ein rauchähnliches Objekt ist. Als Ergebnis kann das Objekt in dem Bild irrtümlicherweise nicht als ein rauchähnliches Objekt (beispielsweise als künstliche Struktur) in dem Fall identifiziert werden, in dem das Objekt in dem Bild als rauchähnliches Objekt identifiziert werden sollte.
  • Auf dieselbe Weise wird die Kantenstärke eines anderen Objektes, das sich von dem rauchähnlichen Objekt in dem Bild unterscheidet, in dem Fall, in dem sich die Farbe des anderen Objektes in dem Bild nicht stark von der Farbe des Hintergrundes hinter einem anderen Objekt unterscheidet, kleiner als in dem Fall, in dem sich die Farbe des anderen Objektes in dem Bild stark von der Farbe des Hintergrundes hinter dem anderen Objekt unterscheidet. Somit kann sogar dann bestimmt werden, dass die oben beschriebene Kantenstärke EN gleich oder kleiner als der Schwellenwert S ist, wenn das Objekt in dem Zielbereich kein rauchähnliches Objekt ist. Als Ergebnis kann das Objekt in dem Bild irrtümlicherweise nicht als ein anderes Objekt (beispielswiese als ein rauchähnliches Objekt) in dem Fall identifiziert werden, in dem das Objekt in dem Bild als ein anderes Objekt identifiziert werden sollte, das sich von dem rauchähnlichen Objekt unterscheidet (beispielsweise die künstliche Struktur).
  • Wie es oben beschrieben wurde, weist die Objektidentifizierungsvorrichtung, die das Objekt in dem Bild einfach auf der Grundlage des Pegels der Kantenstärke identifiziert, das Problem auf, dass die Genauigkeit der Identifizierung nicht notwendigerweise gut ist.
  • Das oben beschriebene technische Problem ist ein Beispiel der technischen Probleme, die von der vorliegenden Erfindung gelöst werden. Daher ist es eine Aufgabe der vorliegenden Erfindung, eine Objektidentifizierungsvorrichtung zu schaffen, die in der Lage ist, ein Objekt in einem Bild noch genauer zu identifizieren.
  • Lösung für das Problem
  • <1>
  • Gemäß einem Aspekt weist eine Objektidentifizierungsvorrichtung auf: eine erste Bestimmungsvorrichtung, die einen ersten Bereich in einem Bild bestimmt, wobei sich ein Objekt, das ein Identifizierungsziel ist, in dem ersten Bereich befindet; eine zweite Bestimmungsvorrichtung, die einen speziellen Grenzabschnitt in dem ersten Bereich bestimmt, wobei der spezielle Grenzabschnitt mindestens ein Abschnitt einer Grenze des Objektes ist, bei der ein Grad eines Gradienten einer Bildeigenschaftsgröße gleich oder größer als eine vorbestimmte Größe ist, wobei der spezielle Grenzabschnitt ein Abschnitt ist, bei dem eine Richtung des Gradienten der Bildeigenschaftsgröße eine (erste) Richtung ist, und wobei ein Verteilungsbereich des speziellen Grenzabschnitts in dem ersten Bereich größer als derjenige eines anderen Grenzabschnitts ist, bei dem die Richtung des Gradienten der Bildeigenschaftsgröße eine andere (zweite) Richtung ist, die sich von der einen Richtung unterscheidet; und eine Identifizierungsvorrichtung, die das Objekt auf der Grundlage eines ersten Parameters, der eine Länge des ersten Bereiches repräsentiert, und eines zweiten Parameters, der eine Länge des speziellen Grenzabschnitts repräsentiert, identifiziert.
  • Wie es später genauer mit Bezug auf die Zeichnungen beschrieben wird, variiert der erste Parameter und/oder der zweite Parameter hauptsächlich in Abhängigkeit von einem Typ des Objektes unabhängig von einer Beziehung zwischen einer Farbe (alternativ anderer Eigenschaften wie beispielsweise Luminanz; dasselbe gilt in diesem Absatz) des Objektes und einer Farbe eines Hintergrundes hinter dem Objekt. Daher ist die Objektidentifizierungsvorrichtung in der Lage, das Objekt noch genauer als eine Objektidentifizierungsvorrichtung gemäß einem Vergleichsbeispiel zu identifizieren, die das Objekt einfach auf der Grundlage des Grades des Gradienten der Bildeigenschaftsgröße identifiziert.
  • <2>
  • Gemäß einem anderen Aspekt der oben beschriebenen Objektidentifizierungsvorrichtung identifiziert die Identifizierungsvorrichtung das Objekt auf der Grundlage einer Beziehung zwischen dem ersten Parameter und dem zweiten Parameter.
  • Wie es später genauer mit Bezug auf die Zeichnungen beschrieben wird, variiert die Beziehung zwischen dem ersten Parameter und dem zweiten Parameter hauptsächlich in Abhängigkeit von dem Typ des Objektes unabhängig von der Beziehung zwischen der Farbe (alternativ anderen Eigenschaften wie beispielsweise Luminanz; dasselbe gilt in diesem Absatz) des Objektes und der Farbe des Hintergrundes hinter dem Objekt. Daher ist die Identifizierungsvorrichtung in der Lage, das Objekt noch genauer auf der Grundlage der Beziehung zwischen dem ersten Parameter und dem zweiten Parameter zu identifizieren.
  • <3>
  • Gemäß einem weiteren Aspekt der oben beschriebenen Objektidentifizierungsvorrichtung, die das Objekt auf der Grundlage der Beziehung zwischen dem ersten Parameter und dem zweiten Parameter identifiziert, identifiziert die Identifizierungsvorrichtung, dass das Objekt Rauch ist, wenn die Beziehung eine erste Beziehung ist, die im Voraus als eine Beziehung festgelegt bzw. eingestellt wird, die beobachtet wird, wenn das Objekt Rauch ist, wobei die Identifizierungsvorrichtung identifiziert, dass das Objekt eine künstliche Struktur ist, wenn die Beziehung eine zweite Beziehung ist, die sich von der ersten Beziehung unterscheidet und die im Voraus als eine Beziehung festgelegt bzw. eingestellt wird, die beobachtet wird, wenn das Objekt die künstliche Struktur ist.
  • Die Beziehung zwischen dem ersten Parameter und dem zweiten Parameter, wenn das Objekt Rauch ist, kann von der Beziehung zwischen dem ersten Parameter und dem zweiten Parameter unterschieden werden, wenn das Objekt die künstliche Struktur ist. Daher ist die Identifizierungsvorrichtung gemäß diesem Aspekt in der Lage, auf der Grundlage der Beziehung zwischen dem ersten Parameter und dem zweiten Parameter noch genauer zu identifizieren, ob das Objekt Rauch ist oder ob das Objekt eine künstliche Struktur ist.
  • <4>
  • Gemäß einem weiteren Aspekt der oben beschriebenen Objektidentifizierungsvorrichtung, die das Objekt auf der Grundlage der Beziehung zwischen dem ersten Parameter und dem zweiten Parameter identifiziert, enthält die Beziehung ein Verhältnis des zweiten Parameters zu dem ersten Parameter und/oder eine Differenz zwischen dem ersten Parameter und dem zweiten Parameter.
  • Gemäß diesem Aspekt ist die Identifizierungsvorrichtung in der Lage, das Objekt noch genauer auf der Grundlage des Verhältnisses des zweiten Parameters zu dem ersten Parameter und/oder der Differenz zwischen dem ersten Parameter und dem zweiten Parameter zu identifizieren.
  • <5>
  • Gemäß einem weiteren Aspekt der oben beschriebenen Objektidentifizierungsvorrichtung, die das Objekt auf der Grundlage des Verhältnisses und/oder der Differenz identifiziert, identifiziert die Identifizierungsvorrichtung, dass das Objekt Rauch ist, wenn das Verhältnis kleiner als ein erster Schwellenwert ist oder die Differenz größer als ein zweiter Schwellenwert ist, und die Identifizierungsvorrichtung identifiziert, dass das Objekt eine künstliche Struktur ist, wenn das Verhältnis größer als ein dritter Schwellenwert ist, der gleich oder größer als der erste Schwellenwert ist, oder die Differenz kleiner als ein vierter Schwellenwert ist, der gleich oder kleiner als der zweite Schwellenwert ist.
  • Wie es später genauer mit Bezug auf die Zeichnungen beschrieben wird, besteht eine hohe Wahrscheinlichkeit, dass das Verhältnis des zweiten Parameters zu dem ersten Parameter, wenn das Objekt Rauch ist, kleiner als das Verhältnis des zweiten Parameters zu dem ersten Parameter ist, wenn das Objekt die künstliche Struktur ist. Außerdem besteht eine hohe Wahrscheinlichkeit, dass die Differenz zwischen dem ersten Parameter und dem zweiten Parameter, wenn das Objekt Rauch ist, größer als die Differenz zwischen dem ersten Parameter und dem zweiten Parameter ist, wenn das Objekt eine künstliche Struktur ist. Daher ist gemäß diesem Aspekt die Identifizierungsvorrichtung in der Lage, noch genauer auf der Grundlage des Verhältnisses des zweiten Parameters zu dem ersten Parameter und/oder der Differenz zwischen dem ersten Parameter und dem zweiten Parameter zu identifizieren, ob das Objekt Rauch ist oder ob das Objekt das künstliche Objekt ist.
  • <6>
  • Gemäß einem weiteren Aspekt der oben beschriebenen Objektidentifizierungsvorrichtung repräsentiert der erste Parameter als Länge des ersten Bereiches eine Länge einer ersten Linie, die durch Verbinden von zwei Punkten auf einem Außenrand des ersten Bereiches erhalten wird, und der zweite Parameter repräsentiert als Länge des speziellen Grenzabschnitts eine Länge einer zweiten Linie, die durch Projizieren des speziellen Grenzabschnitts auf die erste Linie erhalten wird.
  • Gemäß diesem Aspekt sind der erste Parameter und der zweite Parameter jeweils zum noch genaueren identifizieren des Objektes geeignet.
  • <7>
  • Gemäß einem weiteren Aspekt der oben beschriebenen Objektidentifizierungsvorrichtung, bei der der erste Parameter die Länge der ersten Linie repräsentiert, ist eine Gestalt des ersten Bereiches eine Rechteckgestalt, und die erste Linie ist eine Seite des ersten Bereiches.
  • Gemäß diesem Aspekt sind der erste Parameter und der zweite Parameter jeweils zum noch genaueren Identifizieren des Objektes geeignet.
  • <8>
  • Gemäß einem Aspekt der oben beschriebenen Objektidentifizierungsvorrichtung, bei der die erste Linie eine Seite des ersten Bereiches ist, ist die eine Seite eine längere Seite des ersten Bereiches.
  • Wie es später genauer mit Bezug auf die Zeichnungen beschrieben wird, ist die Objektidentifizierungsvorrichtung in der Lage, das Objekt unter Verwendung eines Identifizierungskriteriums hinsichtlich dessen, ob die Grenze des Objektes einen Grenzabschnitt enthält, der sich linear in mindestens einem Abschnitt des ersten Bereiches erstreckt, zu identifizieren. Hier besteht eine hohe Wahrscheinlichkeit, dass das Objekt wie beispielsweise die künstliche Struktur oder der Rauch eine Gestalt aufweist, die sich in einer bestimmten Richtung (beispielsweise in einer vertikalen Richtung oder in einer horizontalen Richtung) in einem dreidimensionalen Raum erstreckt. Somit besteht eine hohe Wahrscheinlichkeit, dass sich der Grenzabschnitt, der sich linear in mindestens einem Abschnitt des ersten Bereiches erstreckt, entlang der längeren Seite des ersten Bereiches erstreckt, die einer Richtung entspricht, entlang der sich das Objekt in dem dreidimensionalen Raum erstreckt. Wenn daher der erste Parameter, der die Länge der längeren Seite des ersten Bereiches repräsentiert, und der zweite Parameter, der die Länge der zweiten Linie repräsentiert, die durch Projizieren des speziellen Grenzabschnitts auf die längere Seite erhalten wird, verwendet werden, wird erwartet, dass sich die Identifizierungsgenauigkeit der Objektidentifizierungsvorrichtung verbessert.
  • <9>
  • Gemäß einem weiteren Aspekt der oben beschriebenen Objektidentifizierungsvorrichtung bestimmt die erste Bestimmungseinrichtung den ersten Bereich durch Analysieren des Bildes mittels eines ersten Analyseverfahrens, die Objektidentifizierungsvorrichtung weist außerdem eine dritte Bestimmungsvorrichtung auf, die einen zweiten Bereich in dem Bild durch Analysieren des Bildes mittels des ersten Analyseverfahrens oder eines zweiten Analyseverfahrens, das sich von dem ersten Analyseverfahren unterscheidet, bestimmt, wobei sich ein vorbestimmtes Objekt, das als Identifizierungsziel eliminiert werden kann, in dem zweiten Bereich befindet, und die zweite Bestimmungsvorrichtung bestimmt den speziellen Grenzabschnitt in dem ersten Bereich, der sich nicht mit dem zweiten Bereich überdeckt, und bestimmt den speziellen Grenzabschnitt nicht in dem ersten Bereich, der sich mit dem zweiten Bereich überdeckt.
  • Gemäß diesem Aspekt kann die Verarbeitungslast der Objektidentifizierungsvorrichtung verringert werden, da die zweite Bestimmungsvorrichtung den speziellen Grenzabschnitt in dem ersten Bereich, der sich mit dem zweiten Bereich überdeckt, nicht bestimmen muss. Da das vorbestimmte Objekt als Identifizierungsziel eliminiert werden kann, kann eine Verschlechterung der Identifizierungsgenauigkeit verhindert werden, die durch eine falsche Identifizierung, dass das vorbestimmte Objekt ein anderes Objekt ist, bewirkt wird.
  • <10>
  • Gemäß einem weiteren Aspekt der oben beschriebenen Objektidentifizierungsvorrichtung bestimmt die erste Bestimmungsvorrichtung den ersten Bereich durch Analysieren des Bildes mittels eines ersten Analyseverfahrens, die Objektidentifizierungsvorrichtung weist außerdem eine dritte Bestimmungsvorrichtung auf, die einen zweiten Bereich in dem Bild durch Analysieren des Bildes mittels des ersten Analyseverfahrens oder eines zweiten Analyseverfahrens, das sich von dem ersten Analyseverfahren unterscheidet, bestimmt, wobei sich ein vorbestimmtes Objekt, das als Identifizierungsziel eliminiert werden kann, in dem zweiten Bereich befindet, und die zweite Bestimmungsvorrichtung bestimmt den speziellen Grenzabschnitt auf der Grundlage des ersten Parameters, des zweiten Parameters und eines Ergebnisses der Bestimmung mittels der dritten Bestimmungsvorrichtung.
  • Gemäß diesem Aspekt ist die Identifizierungsvorrichtung in der Lage, das Objekt durch Berücksichtigen, dass das vorbestimmte Objekt als Identifizierungsziel eliminiert werden kann, zu identifizieren. Somit kann eine Verringerung der Identifizierungsgenauigkeit verhindert werden, die durch ein falsches Identifizieren, dass das vorbestimmte Objekt ein anderes Objekt ist (das heißt das vorbestimmte Objekt ist ein Objekt, das das Identifizierungsziel sein kann), verursacht wird.
  • <11>
  • Gemäß einem weiteren Aspekt der oben beschriebenen Objektidentifizierungsvorrichtung enthält die Grenze mehrere zweite Pixel, bei denen jeweils der Grad des Gradienten der Bildeigenschaftsgröße gleich oder größer als die vorbestimmte Größe ist, wobei sich die zweiten Pixel an mindestens einem Abschnitt von mehreren ersten Pixeln, die in dem Bild enthalten sind, befinden, der spezielle Grenzabschnitt enthält mehrere dritte Pixel, wobei die dritten Pixel sich an mindestens einem Abschnitt der zweiten Pixel befinden, die Richtung des Gradienten der Bildeigenschaftsgröße an jedem der dritten Pixel ist die eine (erste) Richtung, und die Anzahl der dritten Pixel ist größer als die Anzahl von mehreren vierten Pixeln, bei denen jeweils die Richtung des Gradienten der Bildeigenschaftsgröße die andere (zweite) Richtung ist.
  • Gemäß diesem Aspekt werden die Grenze, der spezielle Grenzabschnitt und der zweite Parameter im Hinblick auf ein Pixel, das in dem Bild enthalten ist, definiert.
  • Kurze Beschreibung der Zeichnungen
  • 1 ist ein Blockdiagramm, das ein Beispiel einer Struktur bzw. eines Aufbaus eines Fahrzeugs gemäß der vorliegenden Ausführungsform darstellt.
  • 2(a) ist eine Flächenansicht (ebene Ansicht), die ein Beispiel einer Grenze einer Leitplanke darstellt, 2(b) ist eine Flächenansicht (ebene Ansicht), die ein Beispiel einer Grenze eines Pfostens darstellt, und 2(c) ist eine Flächenansicht (ebene Ansicht), die ein Beispiel einer Grenze von Rauch darstellt.
  • 3 ist ein Flussdiagramm, das einen Ablauf eines Objektidentifizierungsbetriebs darstellt.
  • 4(a) ist eine Flächenansicht, die ein Beispiel eines dreidimensionalen Objektbereiches darstellt, 4(b) ist eine Flächenansicht, die ein Beispiel eines Mensch/ Fahrzeugbereiches darstellt, und 4(c) ist eine Flächenansicht, die ein Beispiel eines Zielbereiches darstellt.
  • 5(a) ist ein schematisches Diagramm, das eine Bildeigenschaftsgröße bei jeweiligen Pixeln, die in einem Zielbild enthalten sind, darstellt, und 5(b) ist eine Flächenansicht, die ein Beispiel einer Grenze eines Zielobjektes darstellt.
  • 6(a) und 6(b) sind jeweils eine Flächenansicht, die Winkelbereiche darstellt, die zum Klassifizieren der Pixel, die in der Grenze enthalten sind, verwendet wird.
  • 7(a) und 7(b) sind jeweils eine Flächenansicht, die Grenzabschnitte darstellt, die die Pixel enthalten, bei denen die Richtungen der Gradienten dieselben sind.
  • 8(a) und 8(b) sind jeweils ein schematisches Diagramm, das einen Betrieb zum Berechnen eines ersten Parameters und eines zweiten Parameters in dem Zielbereich darstellt.
  • 9 ist eine Graphik, die eine Beziehung zwischen einer Auftrittshäufigkeit eines Parameters zur Identifizierung und einem Schwellenwert darstellt.
  • 10(a) und 10(b) sind jeweils eine Flächenansicht, die ein anderes Beispiel eines Ziels darstellt, das durch den ersten Parameter repräsentiert wird.
  • 11 ist eine Flächenansicht, die ein Beispiel darstellt, bei dem ein spezieller Grenzabschnitt mehrere Grenzabschnitte enthält, die sich jeweils linear in mindestens einem Abschnitt des Zielbereiches erstrecken.
  • 12 ist eine Graphik, die eine Beziehung zwischen der Auftrittshäufigkeit des Parameters zur Identifizierung (Identifizierungsparameter) und mehreren Schwellenwerten darstellt.
  • 13 ist ein Flussdiagramm, das einen Ablauf eines Objektidentifizierungsbetriebs gemäß einem modifizierten Beispiel darstellt.
  • Beschreibung der Ausführungsformen
  • Im Folgenden wird eine Ausführungsform einer Objektidentifizierungsvorrichtung der vorliegenden Erfindung beschrieben. In der folgenden Beschreibung wird ein Fahrzeug 1 erläutert, für das eine Ausführungsform der Objektidentifizierungsvorrichtung der vorliegenden Erfindung verwendet wird. Die Ausführungsform der Objektidentifizierungsvorrichtung der vorliegenden Erfindung kann jedoch auch für eine beliebige Vorrichtung, die kein Fahrzeug ist, verwendet werden.
  • (1) Struktur bzw. Aufbau des Fahrzeugs 1
  • Zunächst wird mit Bezug auf 1 die Struktur bzw. der Aufbau des Fahrzeugs 1 der vorliegenden Ausführungsform erläutert. Wie es in 1 dargestellt ist, weist das Fahrzeug 1 eine Kamera 11, ein LIDAR (Abstandsmessung mittels Licht) 12 und eine ECU (elektrische Steuereinheit) 13 auf, die ein spezielles Beispiel der „Objektidentifizierungsvorrichtung“ ist.
  • Die Kamera 11 ist eine Abbildungsvorrichtung, die eine Außensituation vor dem Fahrzeug 1 abbildet. Das Bild, das von der Kamera 11 aufgenommen wird, wird an die ECU 13 ausgegeben.
  • Das LIDAR 12 erfasst Abstandsinformationen, die einen Abstand zu einem Objekt repräsentieren, das vor dem Fahrzeug 1 vorhanden ist, durch Aussenden von Licht vor dem Fahrzeug 1 und Erfassen des Lichtes, das von dem Objekt reflektiert wird. Die Abstandsinformationen, die von dem LIDAR 12 erfasst werden, werden an die ECU 13 ausgegeben.
  • Die ECU 13 führt einen Objektidentifizierungsbetrieb zum Identifizieren, was für ein Objekt das Objekt in dem Bild, das von der Kamera 11 aufgenommen wird, ist, durch. Um den Objektidentifizierungsbetrieb durchzuführen, enthält die ECU 13 als Verarbeitungsblöcke, die in der ECU 13 logisch realisiert werden, einen 3D-Objektbereichsbestimmungsteil 131 (3D: dreidimensional), der ein spezielles Beispiel der „ersten Bestimmungsvorrichtung“ ist, einen Mensch/Fahrzeugbestimmungsteil 132, der ein spezielles Beispiel der „dritten Bestimmungsvorrichtung“ ist, einen Zielbereichsbestimmungsteil 133, einen Grenzbestimmungsteil 134, der ein spezielles Beispiel der „zweiten Bestimmungsvorrichtung“ ist, einen Identifizierungsparameterberechnungsteil 135 und einen Objektidentifizierungsteil 136, der ein spezielles Beispiel der „Identifizierungsvorrichtung“ ist. Auch der Betrieb jedes Verarbeitungsblockes später genauer beschrieben wird (siehe 3 und so weiter), wird in den folgenden Absätzen ein Überblick über den Betrieb jedes Verarbeitungsblockes gegeben.
  • Der 3D-Objektbereichsbestimmungsteil 131 bestimmt (mit anderen Worten spezifiziert oder legt fest oder stellt ein) einen 3D-Objektbereich 231 in dem Bild auf der Grundlage des Bildes, das von der Kamera 11 ausgegeben wird, und der Abstandsinformationen, die von dem LIDAR 12 ausgegeben werden. Der 3D-Objektbereich 231 ist ein Bereich, in dem ein 3D-Objekt vorhanden ist (mit anderen Worten auftritt, erscheint oder existiert). Der 3D-Objektbereichsbestimmungsteil 131 gibt außerdem sein Bestimmungsergebnis an den Zielbereichsbestimmungsteil 133 aus. Man beachte, dass der 3D-Objektbereich 231 ein spezielles Beispiel des „ersten Bereiches“ ist.
  • Der Mensch/Fahrzeugbestimmungsteil 132 bestimmt einen Mensch/Fahrzeugbereich 232 in dem Bild auf der Grundlage des Bildes, das von der Kamera 11 aufgenommen wird. Der Mensch/Fahrzeugbereich 232 ist ein Bereich, in dem ein Mensch oder ein Fahrzeug vorhanden ist (mit anderen Worten erscheint, auftritt oder existiert). Der Mensch/Fahrzeugbestimmungsteil 132 gibt außerdem sein Bestimmungsergebnis an den Zielbereichsbestimmungsteil 133 aus. Man beachte, dass der Mensch/Fahrzeugbereich 232 ein spezielles Beispiel des „zweiten Bereiches“ ist.
  • Der Zielbereichsbestimmungsteil 133 bestimmt einen Zielbereich 233, der ein Ziel für den Objektidentifizierungsbetrieb ist, auf der Grundlage des 3D-Objektbereiches 231 und des Mensch/Fahrzeugbereiches 232.
  • Der Grenzbestimmungsteil 134 bestimmt eine Grenze 301 des Objektes, das in dem Zielbereich 233 enthalten ist (im Folgenden wird das Objekt in dem Zielbereich 233 als „Zielobjekt“ bezeichnet). Die „Grenze 301“ der vorliegenden Ausführungsform meint mindestens einer Linie (alternativ einen linearen Bereich), die das Zielobjekt und ein anderes Objekt, das sich von dem Zielobjekt unterscheidet, unterteilen bzw. trennen kann, eine Linie (alternativ einen linearen Bereich), die das Zielobjekt und den Hintergrund hinter dem Zielobjekt teilen bzw. trennen kann, und/oder eine Linie (alternativ einen linearen Bereich), die einen Abschnitt des Zielobjektes und einen anderen Abschnitt des Zielobjektes teilen bzw. trennen kann. Die Grenze 301 entspricht Pixeln, bei denen jeweils ein Gradient einer Bildeigenschaftsgröße gleich oder größer als eine vorbestimmte Größe ist (das heißt Pixel, bei denen jeweils die Differenz der Bildeigenschaftsgröße zu derjenigen des benachbarten Pixels gleich oder größer als eine bestimmte Größe ist). Mit anderen Worten, die Grenze 301 entspricht einem Bereich, der diese Pixel enthält (das heißt einem Bereich, bei dem diese Pixel vorhanden sind).
  • Der Grenzbestimmungsteil 134 bestimmt außerdem einen speziellen Grenzabschnitt 302, der mindestens ein Abschnitt der bestimmten Grenze 301 ist. Der spezielle Grenzabschnitt 302 entspricht Pixeln, bei denen die Richtungen der Gradienten der Bildeigenschaftsgrößen dieselben bzw. gleich sind (das heißt ein Bereich, der diese Pixel enthält, oder ein Bereich, bei dem diese Pixel vorhanden sind).
  • Der Identifizierungsparameterberechnungsteil 135 berechnet einen Identifizierungsparameter P auf der Grundlage eines Bestimmungsergebnisses des Zielbereichsbestimmungsteils 133 und eines Bestimmungsergebnisses des Grenzbestimmungsteils 134.
  • Der Objektidentifizierungsteil 136 identifiziert auf der Grundlage des Identifizierungsparameters P, der von dem Identifizierungsparameterberechnungsteil 135 berechnet wird, was für ein Objekt das Zielobjekt in dem Zielbereich 233 ist. Insbesondere ist der Objektidentifizierungsteil 136 in der Lage, zu identifizieren, ob das Zielobjekt Rauch ist (genauer gesagt, ob das Zielobjekt ein Kandidat ist, der Rauch sein kann; dasselbe gilt für die folgende Erläuterung). Der Objektidentifizierungsteil 136 kann zusätzlich oder anstelle der Identifizierung, ob das Zielobjekt Rauch ist, in der Lage sein, zu identifizieren, ob das Zielobjekt eine künstliche Struktur ist (genauer gesagt, ob das Zielobjekt ein Kandidat ist, der die künstliche Struktur sein kann; dasselbe gilt für die folgende Erläuterung). Die künstliche Struktur ist typischerweise eine künstliche Struktur, die auf einer Straße angeordnet ist, und kann eine Leitplanke, ein Pfosten, ein Strommast oder Ähnliches sein. In der folgenden Beschreibung wird aus Vereinfachungsgründen ein Beispiel beschrieben, bei dem der Objektidentifizierungsteil 136 in der Lage ist, zu identifizieren, ob das Zielobjekt Rauch oder eine künstliche Struktur ist.
  • (2) Objektidentifizierungsbetrieb
  • Im Folgenden wird der Objektidentifizierungsbetrieb, der von der ECU 13 durchgeführt wird, beschrieben.
  • (2-1) Überblick über den Objektidentifizierungsbetrieb
  • Zunächst wird mit Bezug auf 2(a) bis 2(c) ein Überblick über den Objektidentifizierungsbetrieb gegeben.
  • 2(a) stellt unter Verwendung von durchgezogenen Linien ein Beispiel der Grenze 301 dar, die in dem Zielbereich 233 bestimmt wird, in dem die Leitplanke (das heißt eine künstliche Struktur) vorhanden ist, die ein Beispiel des Zielobjektes sein kann. Wie es in 2(a) dargestellt ist, enthält die Grenze 301 der Leitplanke Grenzabschnitte 301a (siehe dicke durchgezogene Linien), die sich jeweils linear in dem gesamten Zielbereich 233 erstrecken (alternativ in einigen Fällen in einem Teil des Zielbereiches 233; dasselbe gilt für die folgende Beschreibung).
  • 2(b) stellt unter Verwendung von durchgezogenen Linien ein Beispiel der Grenze 301 dar, die in dem Zielbereich 233 bestimmt wird, in dem der Pfosten (auch als Pfostenkegel bezeichnet, das heißt eine künstliche Struktur) vorhanden ist, der ein Beispiel des Zielobjektes sein kann. Wie es in 2(b) dargestellt ist, enthält die Grenze 301 des Pfostens Grenzabschnitte 301a (siehe dicke durchgezogene Linien), die sich jeweils linear in dem gesamten Zielbereich 233 erstrecken (alternativ in einigen Fällen in einem Teil des Zielbereiches 233). Man beachte, dass die Grenze 301 eines Strommasts, der ein Beispiel des Zielobjektes sein kann, einen Grenzabschnitt 301a enthält, der sich linear in dem gesamten Zielbereich 233 erstreckt, jedoch in den Zeichnungen nicht dargestellt ist.
  • 2(c) stellt unter Verwendung von durchgezogenen Linien ein Beispiel der Grenze 301 dar, die in dem Zielbereich 233 bestimmt wird, in dem Rauch vorhanden ist, der ein Beispiel des Zielobjektes sein kann. Wie es in 2(c) dargestellt ist, enthält die Grenze 301 des Rauches keinen Grenzabschnitt 301a, der sich linear in dem gesamten Zielbereich 233 erstreckt.
  • Wie es in 2(a) bis 2(c) dargestellt ist, enthält die Grenze 301 der künstlichen Struktur den Grenzabschnitt 301a, der sich linear in mindestens einem Teil des Zielbereiches 233 erstreckt, wohingegen die Grenze 301 des Rauches einen derartigen Grenzabschnitt 301a, der sich linear in mindestens einem Teil des Zielbereiches 233 erstreckt, nicht enthält. Das heißt, eine Verteilung (Verteilungsaspekt) der Grenze 301 des Rauches in dem Zielbereich 233 unterscheidet sich von einer Verteilung (Verteilungsaspekt) der Grenze 301 der künstlichen Struktur in dem Zielbereich 233. Der Objektidentifizierungsbetrieb verwendet den Unterschied zwischen der Verteilung der Grenze 301 des Rauches und der Verteilung der Grenze 301 der künstlichen Struktur, um zu identifizieren, ob das Zielobjekt Rauch oder eine künstliche Struktur ist.
  • (2-2) Spezieller Ablauf des Objektidentifizierungsbetriebs
  • Im Folgenden wird mit Bezug auf das Flussdiagramm der 3 der spezielle Ablauf des Objektidentifizierungsbetriebs beschrieben. Wie es in 3 dargestellt ist, erhalten jeweils der 3D-Objektbereichsbestimmungsteil 131 und der Mensch/Fahrzeugbestimmungsteil 132 das Bild von der Kamera 11 (Schritt S11). Außerdem erhält der 3D-Objektbereichsbestimmungsteil 131 die Abstandsinformationen von dem LIDAR 12 (Schritt S11). Man beachte, dass das Bild, das in Schritt S11 erhalten wird, in der folgenden Beschreibung als „Zielbild“ bezeichnet wird, da das Bild, das in Schritt S11 erhalten wird, das Bild ist, das ein Ziel für den Objektidentifizierungsbetrieb ist. Außerdem werden die folgenden Prozesse von Schritt S12 bis Schritt S21 hinsichtlich des Zielbildes und der Abstandsinformationen, die in Schritt S11 erlangt wurden, durchgeführt. Daher kann gesagt werden, dass die ECU 13 wiederholt den Objektidentifizierungsbetrieb (insbesondere die Prozesse von Schritt S12 bis Schritt S21) jedes Mal durchführt, wenn die ECU 13 das Zielbild und die Abstandsinformationen erhält. Mit anderen Worten, es kann gesagt werden, dass die ECU 13 die Durchführung des Objektidentifizierungsbetriebs als Reaktion auf das Erhalten des Zielbildes und der Abstandsinformationen startet.
  • Dann bestimmt der 3D-Objektbereichsbestimmungsteil 131 den 3D-Objektbereich 231 in dem Zielbild auf der Grundlage der Abstandsinformationen (Schritt S12). In der folgenden Beschreibung wird ein Beispiel des Betriebs der Bestimmung des 3D-Objektbereiches 231 kurz beschrieben, der 3D-Objektbereichsbestimmungsteil 131 kann jedoch den 3D-Objektbereich 231 unter Verwendung eines Verfahrens bestimmen, das sich von dem unten beschriebenen Verfahren unterscheidet. Der 3D-Objektbereichsbestimmungsteil 131 wandelt beispielsweise ein 2D-Koordinatensystem (2D: zweidimensional) in dem Zielbild auf der Grundlage der Abstandsinformationen in ein 3D-Koordinatensystem um. Dann klassifiziert der 3D-Objektbereichsbestimmungsteil 131 als eine Bereichsgruppe eine Gruppe von kleinen Bereichen in dem Zielbild, wobei jeder kleine Bereich sich an einer im Vergleich zu einer Straßenoberfläche oder einer Erdoberfläche höheren Position befindet und ein Abstand von jedem kleinen Bereich zu dem Fahrzeug 1 gleich oder kleiner als ein vorbestimmter Schwellenwert ist. In diesem Fall kann der 3D-Objektbereichsbestimmungsteil 131 als eine Bereichsgruppe eine Gruppe der kleinen Bereiche in dem Zielbild klassifizieren, wobei der Abstand von jedem kleinen Bereich zu dem Fahrzeug 1 gleich oder kleiner als der vorbestimmte Schwellenwert ist und die kleinen Bereiche entlang einer bestimmten Richtung angeordnet sind, da eine hohe Wahrscheinlichkeit besteht, dass das 3D-Objekt ein Objekt ist, das sich in einer bestimmten Richtung (beispielsweise einer vertikalen Richtung, einer horizontalen Richtung oder einer diagonalen Richtung, die die vertikale Richtung und die horizontale Richtung kreuzt) in dem 3D-Koordinatensystem erstreckt. Dann bestimmt der 3D-Objektbereichsbestimmungsteil 131 als 3D-Objektbereich 231 einen rechteckigen Bereich, der durch Verbinden von minimalen und maximalen Koordinaten in jeder Bereichsgruppe in dem 2D-Koordinatensystem erhalten wird. Da der rechteckige Bereich, der durch Verbinden der minimalen und maximalen Koordinaten in jeder Bereichsgruppe erhalten wird, der 3D-Objektbereich 231 ist, weist der 3D-Objektbereich 231 Eigenschaften derart auf, dass der 3D-Objektbereich 231 größer wird, wenn das 3D-Objekt in dem 3D-Objektbereich 231 größer wird.
  • Wenn sich ein einzelnes 3D-Objekt in dem Zielbild befindet, bestimmt der 3D-Objektbereichsbestimmungsteil 131 einen einzelnen 3D-Objektbereich 231, in dem dieses einzelne 3D-Objekt vorhanden ist. Wenn andererseits mehrere 3D-Objekte in dem Zielbild vorhanden sind, bestimmt der 3D-Objektbereichsbestimmungsteil 131 mehrere 3D-Objektbereiche 231, in denen jeweils unterschiedliche bzw. andere 3D-Objekte vorhanden sind. Daher entspricht gemäß einer allgemeinen Regel jeder 3D-Objektbereich 231 einem Bereich, in dem ein einzelnes 3D-Objekt vorhanden ist. Man beachte, dass 4(a) mehrere 3D-Objektbereiche 231 darstellt, die bestimmt werden, wenn mehrere 3D-Objekte in dem Zielbild vorhanden sind. Insbesondere stellt 4(a) ein Beispiel dar, bei dem der 3D-Objektbereich 231a, in dem eine Leitplanke, die das 3D-Objekt ist, vorhanden ist, der 3D-Objektbereich 231b, in dem das Fahrzeug, das ein 3D-Objekt ist, vorhanden ist, der 3D-Objektbereich 231c, in dem Rauch, der ein 3D-Objekt ist, vorhanden ist, der 3D-Objektbereich 231d, in dem ein Strommast, der ein 3D-Objekt ist, vorhanden ist, und der 3D-Objektbereich 231e, in dem ein Mensch, insbesondere ein Fußgänger, der ein 3D-Objekt ist, vorhanden ist, bestimmt werden.
  • Nach (alternativ parallel dazu) dem Prozess in Schritt S12 bestimmt der Mensch/Fahrzeugbestimmungsteil 132 den Mensch/Fahrzeugbereich 232 in dem Zielbild (Schritt S13). In der folgenden Beschreibung wird kurz ein Beispiel des Betriebs zur Bestimmung des Mensch/Fahrzeugbereiches 232 beschrieben, der Mensch/Fahrzeugbestimmungsteil 132 kann jedoch den Mensch/Fahrzeugbereich 232 unter Verwendung eines Verfahrens bestimmen, das sich von dem unten beschriebenen Verfahren unterscheidet. Der Mensch/Fahrzeugbestimmungsteil 132 bestimmt den Mensch/Fahrzeugbereich 232 durch Analysieren des Zielbildes mittels eines Analyseverfahrens, das sich von einem Analyseverfahren unterscheidet, das von dem 3D-Objektbereichsbestimmungsteil 131 verwendet wird, um den 3D-Objektbereich 231 zu bestimmen. Ein Musterabbildungsverfahren, das auf einem Schablonenbild basiert, das ein Menschen oder ein Fahrzeug repräsentiert, ist ein Beispiel für dieses Analyseverfahren. Der Mensch/ Fahrzeugbestimmungsteil 132 kann jedoch den Mensch/Fahrzeugbereich 232 durch Analysieren des Zielbildes mittels eines Analyseverfahrens bestimmen, das dasselbe oder ein ähnliches Verfahren wie das Analyseverfahren ist, das von dem 3D-Objektbereichsbestimmungsteil 131 verwendet wird, um den 3D-Objektbereich 231 zu bestimmen. Man beachte, dass 4(b) ein Beispiel darstellt, bei dem der Mensch/Fahrzeugbereich 232a, in dem ein Fahrzeug vorhanden ist, und der Mensch/Fahrzeugbereich 232b, in dem ein Mensch vorhanden ist, bestimmt werden.
  • Dann bestimmt der Zielbereichsbestimmungsteil 133 den Zielbereich 233 auf der Grundlage des 3D-Objektbereiches 231, der in Schritt S12 bestimmt wurde, und des Mensch/Fahrzeugbereiches 232, der in Schritt S13 bestimmt wurde (Schritt S14). Insbesondere stellt der Zielbereichsbestimmungsteil 133 als Zielbereich(e) 233 den (die) 3D-Objektbereich(e) 231 ein, der (die) sich nicht mit dem (den) Mensch/Fahrzeugbereich(en) 232 überdeckt (überdecken). Andererseits stellt der Zielbereichsbestimmungsteil 133 als Zielbereich 233 keinen 3D-Objektbereich 231 ein, der sich mit einem Mensch/Fahrzeugbereich 232 überdeckt. Man beachte, dass 4(c) die Zielbereiche 233 darstellt, die auf der Grundlage der 3D-Objektbereiche 231 in 4(a) und der Mensch/Fahrzeugbereiche 232 in 4(b) bestimmt werden. Insbesondere überdecken sich die 3D-Objektbereiche 231b und 231e in 4(a) mit den Mensch/Fahrzeugbereichen 232a und 232b in 4(b). Daher werden die 3D-Objektbereiche 231a, 231c und 231d als jeweilige Zielbereiche 233a, 233b und 233c eingestellt. Andererseits werden die jeweiligen 3D-Objektbereiche 231b und 231e nicht als Zielbereiche 233 eingestellt.
  • Dann führt die ECU 13 die Prozesse von Schritt S15 bis Schritt S20 für jeden Zielbereich 233, der in Schritt S14 bestimmt wurde, durch.
  • Insbesondere bestimmt der Grenzbestimmungsteil 134 zunächst die Grenze 301 des Objektes in dem Zielbereich 233 durch Analysieren des Zielbereiches 233 (Schritt S15). Hier entspricht, wie es oben beschrieben wurde, die Grenze 301 dem Bereich, der die Pixel enthält, bei denen jeweils der Gradient der Bildeigenschaftsgröße gleich oder größer als die vorbestimmte Größe ist. Wenn das Zielbild nur einen Bereich enthält, der die Pixel enthält, bei denen der Gradient der Bildeigenschaftsgröße jeweils gleich oder größer als die vorbestimmte Größe ist, entspricht die Grenze 301 diesem einen Bereich. Wenn das Zielbild mehrere Bereiche enthält, die jeweils die Pixel enthalten, bei denen der Gradient der Bildeigenschaftsgröße jeweils gleich oder größer als die vorbestimmte Größe ist, entspricht die Grenze 301 einer Gruppe aus diesen Bereichen. Daher berechnet der Grenzbestimmungsteil 134 den Gradienten der Bildeigenschaftsgröße auf der Grundlage der Bildeigenschaftsgröße bei jedem Pixel, das in dem Zielbereich 233 enthalten ist, wie es in 5(a) dargestellt ist. Der „Gradient“ kann nicht nur einen Vektor (typischerweise 2D-Vektor) bedeuten, der durch eine Ableitung (Differenzieren) der Bildeigenschaftsgröße entlang jeweils der horizontalen Richtung und der vertikalen Richtung an einem bestimmten Pixel bestimmt wird, sondern auch irgendeinen Parameter, der einen Grad einer Variation bzw. Änderung der Bildeigenschaftsgröße bei einem bestimmten Pixel spezifizieren bzw. bestimmen kann. Dann bestimmt der Grenzbestimmungsteil 134 die Pixel, bei denen der Gradient der Bildeigenschaftsgröße jeweils gleich oder größer als die vorbestimmte Größe ist. Als Ergebnis ist der Bereich, der die bestimmten Pixel enthält, die Grenze 301 des Objektes in dem Zielbereich 233. 5(b) stellt beispielsweise ein Beispiel der Grenze 301 dar, die in dem Zielbereich 233 bestimmt wird, der eine Leitplanke enthält, die ein Beispiel des Zielobjektes sein kann. Man beachte, dass jedes Pixel, das in dem Zielbild enthalten ist, ein spezielles Beispiel des oben beschriebenen „ersten Pixels“ ist und jedes Pixel, das in der Grenze 301 enthalten ist (das heißt jedes Pixel, bei dem der Gradient der Bildeigenschaftsgröße gleich oder größer als die vorbestimmte Größe ist), ein spezielles Beispiel des oben beschriebenen „zweiten Pixels“ ist.
  • Man beachte, dass ein Pfeil in 5(a) jeweils eine Richtung des Gradienten (das heißt eine Richtung des 2D-Vektors und eine spezielle Richtung, entlang der ein Grad der Variation der Bildeigenschaftsgröße relativ groß oder an einem bestimmten Pixel maximal wird) repräsentiert. 5(a) stellt ein Beispiel dar, bei dem die Richtung des Gradienten als eine Richtung definiert ist, entlang der sich die Bildeigenschaftsgröße verringert. Die Richtung des Gradienten kann jedoch als eine Richtung definiert werden, entlang der sich die Bildeigenschaftsgröße erhöht.
  • Wenn die Bildeigenschaftsgröße eine Luminanz (alternativ Helligkeit) ist, entsprechen die Pixel, bei denen der Gradient der Bildeigenschaftsgröße jeweils gleich oder größer als die vorbestimmte Größe ist, einer sogenannten Kante. Somit kann der Grenzbestimmungsteil 134 die Pixel, bei denen der Gradient der Bildeigenschaftsgröße jeweils gleich oder größer als die vorbestimmte Größe ist, unter Verwendung eines sogenannten Kantenerfassungsverfahrens bestimmen und den Bereich, der die bestimmten Pixel enthält, als Grenze 301 bestimmen. Selbstverständlich kann die Bildeigenschaftsgröße irgendein Parameter (beispielsweise eine Chrominanz, eine Farbphase oder Ähnliches) sein, der sich von der Luminanz unterscheidet.
  • Der Grenzbestimmungsteil 134 kann jedoch mittels Durchführung einer gewünschten Bildanalyse des Zielbereiches, ohne direkt die Bildeigenschaftsgröße zu verwenden oder direkt den Gradienten der Bildeigenschaftsgröße zu berechnen, als Grenze 301 diejenigen Pixel bestimmen, bei denen der Gradient der Bildeigenschaftsgröße jeweils gleich oder größer als die vorbestimmte Größe (alternativ einen Bereich in dem Zielbild, der in Verbindung mit den Pixeln oder ohne Bezug zu den Pixeln definiert werden kann) ist.
  • Dann bestimmt der Grenzbestimmungsteil 134 den speziellen Grenzabschnitt 302, der mindestens ein Teil der Grenze 301 ist, durch Analysieren der Grenze, die in Schritt S15 bestimmt wurde (Schritt S16). Der spezielle Grenzabschnitt 302 entspricht einem Bereich, der die Pixel enthält, bei denen die Richtungen der Gradienten der Bildeigenschaftsgrößen gleich sind. Man beachte, dass eine Bedingung, gemäß der die Richtungen der Gradienten der Bildeigenschaftsgrößen dieselben bzw. gleich sind, nicht nur eine Bedingung enthält, gemäß der die Richtungen der Gradienten absolut gleich sind, sondern auch eine Bedingung enthält, gemäß der die Differenz zwischen den Richtungen der Gradienten klein ist, sodass die Richtungen der Gradienten im Hinblick darauf als im Wesentlichen gleich betrachtet werden können, dass eine Verschlechterung der Genauigkeit des Objektidentifizierungsbetriebs verhindert wird, auch wenn sich die Richtungen der Gradienten tatsächlich voneinander unterscheiden. Eine Bedingung, gemäß der die Richtungen der Gradienten nicht gleich sind, sondern sich die Richtungen der Gradienten in einem bestimmten Winkelbereich befinden, wie es später unter Verwendung von 6(a) und 6(b) dargestellt wird, ist ein Beispiel der Bedingung, gemäß der die Differenz zwischen den Richtungen der Gradienten klein ist.
  • Es besteht jedoch eine hohe Wahrscheinlichkeit, dass das Zielbild mehrere Bereiche enthält, die jeweils die Pixel enthalten, bei denen die Richtungen der Gradienten der Bildeigenschaftsgrößen in Abhängigkeit von der Richtung des Gradienten gleich sind. Es besteht beispielsweise eine hohe Wahrscheinlichkeit, dass das Zielbild mindestens einen ersten Bereich, der die Pixel enthält, bei denen die Richtung des Gradienten der Bildeigenschaftsgröße eine erste Richtung ist, und einen zweiten Bereich enthält, der die Pixel enthält, bei denen die Richtung des Gradienten der Bildeigenschaftsgröße eine zweite Richtung ist. Der spezielle Grenzabschnitt 302 ist unter diesen Bereichen, die unterschiedlichen Richtungen des Gradienten entsprechen, ein Bereich, dessen Verteilungsbereich bzw. -gebiet in dem Zielbereich 233 maximal bzw. am größten ist. Man beachte, dass der „Verteilungsbereich“ der vorliegenden Ausführungsform einen Bereich meint, über den sich ein bestimmter Bereich, der eine Gruppe der Pixel enthält, die dieselben Eigenschaften aufweisen, verteilt. Das heißt, der „Verteilungsbereich“ meint einen Bereich, der diesen bestimmten Bereich abdeckt, in diesem vorhanden ist oder in diesem angeordnet ist. Somit meint der Verteilungsbereich in dem Zielbereich 233 einen Bereich in dem Zielbereich 233, über den sich ein bestimmter Bereich verteilt (das heißt abgedeckt ist, vorhanden ist oder angeordnet ist). Der Bereich, über den dieser bestimmte Bereich verteilt ist, wird größer, wenn die Größe dieses bestimmten Bereiches größer wird. Somit kann gesagt werden, dass die Verteilung dieses bestimmten Bereiches äquivalent zu der Größe (beispielsweise Länge, Abmessung oder Quadratmaß) dieses bestimmten Bereiches sein kann.
  • Um den speziellen Grenzabschnitt 302 zu bestimmen, klassifiziert der Grenzbestimmungsteil 134 zunächst die Pixel, die in der Grenze 301 enthalten sind, auf der Grundlage der Richtung des Gradienten der Bildeigenschaftsgröße bei jedem Pixel. Wie es beispielsweise in 6(a) dargestellt ist, definiert der Grenzbestimmungsteil 134 N (N ist eine ganze Zahl von größer als 1) Winkelbereiche durch Teilen von 360 Grad in gleichen Abständen in dem 2D-Koordinatensystem. Der Grenzbestimmungsteil 134 bestimmt, welcher Winkelbereich aus den N Winkelbereichen zu der Richtung des Gradienten bei eine jeweiligen Pixel gehört. Als Ergebnis klassifiziert der Grenzbestimmungsteil 134 jedes Pixel in ein Pixel, das zu dem bestimmten Winkelbereich gehört, das die Richtung des Gradienten an einem jeweiligen Pixel enthält.
  • Der Grenzbestimmungsteil 134 kann gewöhnlich den speziellen Grenzabschnitt 302, mit dem die Genauigkeit des Objektidentifizierungsbetriebs wirksam gewährleistet wird, unter Verwendung der Klassifizierung auf der Grundlage von N Winkelbereichen bestimmen, wie es in 6(a) dargestellt ist. In einigen Fällen besteht jedoch die Möglichkeit, dass der spezielle Grenzabschnitt 302, der unter Verwendung der Klassifizierung auf der Grundlage von N Winkelbereichen bestimmt wird, die Genauigkeit des Objektidentifizierungsbetriebs verschlechtern kann. Insbesondere besteht die Möglichkeit, dass die Richtung des Gradienten an einem jeweiligen Pixel dieselbe wie eine Richtung sein kann, die einer Grenze zwischen zwei benachbarten Winkelbereichen entspricht. Obwohl in diesem Fall die Richtungen der Gradienten bei zwei Pixeln im Wesentlichen gleich sind, kann bestimmt werden, dass die Richtungen der Gradienten bei 2 Pixeln nicht die Richtungen sind, die zu demselben Winkelbereich gehören. Diese Klassifizierung kann zu einer Verschlechterung der Genauigkeit der Bestimmung des speziellen Grenzabschnitts 302 führen, der der Bereich ist, der die Pixel enthält, dessen Verteilungsbereich in dem Zielbereich 233 maximal ist. Somit kann der Grenzbestimmungsteil 134 zusätzlich zu den N Winkelbereichen, die in 6(a) dargestellt sind, neue N Winkelbereiche definieren, die durch Verschieben der N Winkelbereiche um einen bestimmten Winkel, der kleiner als eine Winkelbreite jedes Winkelbereiches ist (beispielsweise um einen bestimmten Winkel, der die Hälfte der Winkelbreite jedes Winkelbereiches beträgt), in dem 2D-Koordinatensystem erhalten werden, wie es in 6(b) dargestellt ist, um eine Verschlechterung der Genauigkeit der Identifizierung des Objektes zu verhindern. In diesem Fall bestimmt der Grenzbestimmungsteil 134, zu welchem Winkelbereich aus den ursprünglichen N Winkelbereichen und den neuen N Winkelbereichen die Richtung des Gradienten bei einem jeweiligen Pixel gehört.
  • Dann berechnet der Grenzbestimmungsteil 134 die Gesamtzahl der Pixel, die zu einem jeweiligen Winkelbereich gehören. Hier wird das Zielbild durch eine Einheit eines Pixels ausgebildet. Somit wird der Verteilungsbereich der Pixel, die zu einem bestimmten Winkelbereich gehören, in dem Zielbild größer, wenn die Gesamtzahl der Pixel, die zu diesem bestimmten Winkelbereich gehören, größer wird. Das heißt, es kann gesagt werden, dass die Gesamtzahl der Pixel, die zu diesem bestimmten Winkelbereich gehören, äquivalent zu dem Verteilungsbereich der Pixel ist, die zu einem bestimmten Winkelbereich gehören. Das heißt, es kann gesagt werden, dass die Gesamtzahl der Pixel, die zu diesem bestimmten Winkelbereich gehören, ein Beispiel des Parameters ist, der den Verteilungsbereich repräsentiert. Daher bestimmt der Grenzbestimmungsteil 134 den Winkelbereich, in dem die Anzahl der zugehörigen Pixel maximal ist, um den Winkelbereich zu bestimmen, in dem der Verteilungsbereich der zugehörigen Pixel maximal ist. Dann bestimmt der Grenzbestimmungsteil 134 als speziellen Grenzabschnitt 302 den Bereich, in dem die Pixel, die zu dem bestimmten Winkelbereich gehören, vorhanden sind. 7(a) und 7(b) stellen beispielsweise jeweils ein Beispiel eines linearen Bereiches dar, bei dem die Pixel, die zu einem bestimmten Winkelbereich gehören, unter den Pixeln, die in der Grenze 301 der Leitplanke enthalten sind, vorhanden sind, und stellen außerdem die Richtungen der Gradienten der Bildeigenschaftsgrößen bei den Pixeln dar. In den Beispielen, die in 7(a) und 7(b) dargestellt sind, ist die Gesamtzahl der Pixel, die zu dem Winkelbereich gehören, der in 7(a) dargestellt ist, größer als die Gesamtzahl der Pixel, die zu dem Winkelbereich gehören, der in 7(b) dargestellt ist. Das heißt, der Verteilungsbereich der Pixel, die zu dem Winkelbereich gehören, der in 7(a) dargestellt ist, ist größer als der Verteilungsbereich der Pixel, die zu dem Winkelbereich gehören, der in 7(b) dargestellt ist. Somit bestimmt der Grenzbestimmungsteil 134 als speziellen Grenzabschnitt 302 nicht den Bereich, in dem die Pixel, die zu dem Winkelbereich gehören, der in 7(b) dargestellt ist, vorhanden sind. Andererseits bestimmt der Grenzbestimmungsteil 134 als speziellen Grenzabschnitt 302 den Bereich, in dem die Pixel, die zu dem Winkelbereich gehören, der in 7(a) dargestellt ist, gehören, wenn die Gesamtzahl der Pixel, die zu dem Winkelbereich gehören, der in 7(a) dargestellt ist, maximal ist. Man beachte, dass jedes der Pixel, die zu dem Winkelbereich gehören, der in 7(a) dargestellt ist (das heißt jedes Pixel, das in dem speziellen Grenzabschnitt 302 enthalten ist), ein spezielles Beispiel des oben beschriebenen „dritten Pixels“ ist und jedes der Pixel, die zu dem Winkelbereich gehören, der in 7(b) dargestellt ist (das heißt jedes der Pixel, die nicht in dem speziellen Grenzabschnitt 302 enthalten sind, sondern die in der Grenze 301 enthalten sind und bei denen die Richtungen der Gradienten der Bildeigenschaftsgrößen gleich sind), ein spezielles Beispiel des oben beschriebenen „vierten Pixels“ sind.
  • Dann berechnet der Identifizierungsparameterberechnungsteil 135 den Identifizierungsparameter P auf der Grundlage des Zielbereiches 233, der in Schritt S14 bestimmt wurde, und des speziellen Grenzabschnitts 302, der in Schritt S16 bestimmt wurde (Schritt S17). Der Identifizierungsparameter P ist ein Parameter, der auf der Grundlage eines ersten Parameters A betreffend den Zielbereich 233 und eines zweiten Parameters B betreffend den speziellen Grenzabschnitt 302 bestimmt wird. In der folgenden Beschreibung wird ein spezielles Beispiel zum Berechnen des Identifizierungsparameters P mit Bezug auf 8(a) beschrieben. 8(a) stellt ein Beispiel der Grenze 301 dar, die in dem Zielbereich 233 bestimmt wird, in dem eine Leitplanke, die das Zielobjekt sein kann, vorhanden ist. Außerdem ist der spezielle Grenzabschnitt 302 in 8(a) durch eine dicke durchgezogene Linie dargestellt.
  • Wie es in 8(a) dargestellt ist, repräsentiert der erste Parameter A die Anzahl von Pixeln in einer Reihe, die entlang einer längeren Seite des Zielbereiches 233 angeordnet sind. Der Identifizierungsparameterberechnungsteil 135 berechnet die Anzahl der Pixel, die entlang der längeren Seite des Zielbereiches 233 angeordnet sind, durch Analysieren des Zielbereiches 233. In dem Beispiel, das in 8(a) dargestellt ist, ist die Anzahl der Pixel, die entlang der längeren Seite des Zielbereiches 233 angeordnet sind, gleich 40, und somit repräsentiert der erste Parameter A einen Wert von „40“.
  • Andererseits repräsentiert der zweite Parameter B die Anzahl der Pixel, auf die der spezielle Grenzabschnitt 302 projiziert wird, wenn der spezielle Grenzabschnitt 302 auf die längere Seite des Zielbereiches 233 projiziert wird, aus einer Reihe der Pixel, die entlang der längeren Seite des Zielbereiches 233 angeordnet sind. Das heißt, der zweite Parameter B repräsentiert die Anzahl der Pixel, auf die jeweils die Pixel, das in dem speziellen Grenzabschnitt 302 enthalten sind, projiziert werden, wenn die Pixel, die in dem speziellen Grenzabschnitt 302 enthalten sind, auf die längere Seite des Zielbereiches 233 projiziert werden, aus einer Reihe der Pixel, die entlang der längeren Seite des Zielbereiches 233 angeordnet sind. Der Identifizierungsparameterberechnungsteil 135 bestimmt die Pixel, auf die der spezielle Grenzabschnitt 302 projiziert wird, wenn der spezielle Grenzabschnitt 302 auf die längere Seite des Zielbereiches 233 projiziert wird, und berechnet die Anzahl der bestimmten Pixel durch Analysieren des Zielbereiches 233. In dem Beispiel, das in 8(a) dargestellt ist, ist die Anzahl der Pixel, auf die der spezielle Grenzabschnitt 302 projiziert wird, gleich 38, und somit repräsentiert der zweite Parameter B einen Wert von „38“.
  • Man beachte, dass 8(b) ein Beispiel des ersten Parameters A und des zweiten Parameters B darstellt, die von dem Zielbereich 233 bestimmt werden, in dem Rauch, der das Zielobjekt sein kann, vorhanden ist. In dem Beispiel, das in 8(b) dargestellt ist, ist die Anzahl der Pixel, die entlang der längeren Seite des Zielbereiches 233 angeordnet sind, gleich 40, und somit repräsentiert der erste Parameter A einen Wert von „40“. Außerdem ist in dem Beispiel, das in 8(b) dargestellt ist, die Anzahl der Pixel, auf die der spezielle Grenzabschnitt 302 projiziert wird, gleich 9, und somit repräsentiert der zweite Parameter B einen Wert von „9“.
  • Dann berechnet der Identifizierungsparameterberechnungsteil 135 ein Verhältnis des zweiten Parameters B zu dem ersten Parameter A (das heißt B/A). Das Verhältnis des zweiten Parameters B zu dem ersten Parameter A wird als Identifizierungsparameter P verwendet. Somit kann gesagt werden, dass der Identifizierungsparameter P im Wesentlichen ein Verteilungsverhältnis des speziellen Grenzabschnitts 302, der auf die längere Seite des Zielbereiches 233 projiziert wird, zu der längeren Seite des Zielbereiches 233 repräsentiert.
  • Gemäß 3 bestimmt der Objektidentifizierungsteil 136 dann, ob der Identifizierungsparameter P, der in Schritt S17 berechnet wurde, größer als ein vorbestimmter Schwellenwert TH1 ist (Schritt S18). Als Ergebnis der Bestimmung in Schritt S18 identifiziert der Objektidentifizierungsteil 136 das Objekt als eine künstliche Struktur (Schritt S19), wenn bestimmt wird, dass der Identifizierungsparameter P größer als der Schwellenwert TH1 ist (Schritt S18: Ja). Wenn andererseits als Ergebnis der Bestimmung in Schritt S18 bestimmt wird, dass der Identifizierungsparameter P kleiner als der Schwellenwert TH1 ist (Schritt S18: Nein), identifiziert der Objektidentifizierungsteil 136 das Objekt als Rauch (Schritt S20). Man beachte, dass der Objektidentifizierungsteil 136 das Objekt als künstliche Struktur oder als Rauch identifizieren kann, wenn bestimmt wird, dass der Identifizierungsparameter P gleich dem Schwellenwert TH1 ist. Die ECU 13 wiederholt die oben beschriebenen Prozesse ab Schritt S15 bis Schritt S20 für sämtliche Zielbereiche, die in Schritt S14 bestimmt wurden (Schritt S21).
  • Wenn hier, wie es in 8(a) dargestellt ist, das Zielobjekt eine künstliche Struktur ist, enthält die Grenze 301 des Zielobjektes den Grenzabschnitt 301a, der sich linear in mindestens einem Teil des Zielbereiches 233 erstreckt. Da sich der Grenzabschnitt 301a linear erstreckt, besteht eine hohe Wahrscheinlichkeit, dass der Grenzabschnitt 301a die Pixel enthält, bei denen die Richtungen der Gradienten der Bildeigenschaftsgrößen gleich sind. Somit besteht eine hohe Wahrscheinlichkeit, dass der spezielle Grenzabschnitt 302, der der Bereich ist, der die Pixel enthält, bei denen die Richtungen der Gradienten der Bildeigenschaftsgrößen gleich sind, ebenfalls den Grenzabschnitt 301a enthält. Somit ist der zweite Parameter B in dem Fall, in dem das Zielobjekt eine künstliche Struktur ist, größer als der zweite Parameter B in dem Fall, in dem das Zielobjekt keine künstliche Struktur (beispielsweise Rauch) ist. Mit anderen Worten, der zweite Parameter B ist in dem Fall, in dem das Zielobjekt eine künstliche Struktur ist, näher bei dem ersten Parameter A als im dem Fall, in dem das Zielobjekt keine künstliche Struktur ist. Als Ergebnis ist der Identifizierungsparameter P in dem Fall, in dem das Zielobjekt eine künstliche Struktur ist, größer als der Identifizierungsparameter P in dem Fall, in das Zielobjekt keine künstliche Struktur ist. Daher besteht eine relativ hohe Wahrscheinlichkeit, dass das Zielobjekt eine künstliche Struktur ist, wenn der Identifizierungsparameter P größer als der Schwellenwert TH1 ist, im Vergleich zu dem Fall, in dem der Identifizierungsparameter P kleiner als der Schwellenwert TH1 ist. Wenn andererseits, wie es in 8(b) dargestellt ist, das Zielobjekt Rauch ist, enthält die Grenze 301 des Zielobjektes keinen Grenzabschnitt 301a, der sich linear in mindestens einem Teil des Zielbereiches 233 erstreckt. Das heißt, es besteht eine hohe Wahrscheinlichkeit, dass der spezielle Grenzabschnitt 302 den Grenzabschnitt 301a, der sich linear in mindestens einem Teil des Zielbereiches 233 erstreckt, nicht enthält. Somit ist der zweite Parameter B in dem Fall, in dem das Zielobjekt Rauch ist, kleiner als der zweite Parameter B in dem Fall, in dem das Zielobjekt kein Rauch ist (beispielsweise eine künstliche Struktur). Mit anderen Worten, der zweite Parameter B ist in dem Fall, in dem das Zielobjekt Rauch ist, weiter von dem ersten Parameter A entfernt als in dem Fall, in dem das Zielobjekt kein Rauch ist (beispielsweise eine künstliche Struktur). Als Ergebnis ist der Identifizierungsparameter P in dem Fall, in dem das Zielobjekt Rauch ist, kleiner als der Identifizierungsparameter P in dem Fall, in dem das Zielobjekt kein Rauch ist. Daher besteht eine relativ hohe Wahrscheinlichkeit, dass das Zielobjekt Rauch ist, wenn der Identifizierungsparameter P kleiner als der Schwellenwert TH1 ist, im Vergleich zu einem Fall, in dem der Identifizierungsparameter P größer als der Schwellenwert TH1 ist. Daher ist der Objektidentifizierungsteil 136 durch Vergleichen des Identifizierungsparameters P mit dem Schwellenwert TH1 in der Lage, zu identifizieren, ob das Zielobjekt Rauch oder eine künstliche Struktur ist.
  • Es ist vorteilhaft, wenn der Schwellenwert TH1 auf einen geeigneten Wert eingestellt wird, der eine Unterscheidung des Identifizierungsparameters P, der berechnet wird, wenn das Zielobjekt Rauch ist, von dem Identifizierungsparameter P, der berechnet wird, wenn das Zielobjekt die künstliche Struktur ist, ermöglicht. Wie es beispielsweise in 9 dargestellt ist, wird eine Auftrittshäufigkeit der Identifizierungsparameter P, die berechnet werden, wenn die Zielobjekte unterschiedlicher Rauch sind, relativ groß in einem Bereich, der um den relativ kleinen Identifizierungsparameter P1 zentriert ist. Andererseits wird, wie es in 9 dargestellt ist, die Auftrittshäufigkeit der Identifizierungsparameter P, die berechnet werden, wenn die Zielobjekte unterschiedliche künstliche Strukturen sind, in einem Bereich, der um den relativ großen Identifizierungsparameter P2 zentriert ist (P2 > P1), relativ groß. Daher kann der Schwellenwert TH1 auf einen geeigneten Wert eingestellt werden, der eine Unterscheidung des Verteilungsbereiches der Identifizierungsparameter P, die berechnet werden, wenn die Zielobjekte unterschiedlicher Rauch sind, von dem Verteilungsbereich der Identifizierungsparameter P, die berechnet werden, wenn die Zielobjekte unterschiedliche künstliche Strukturen sind, ermöglicht.
  • Wie es oben beschrieben wurde, ist die ECU 13 der vorliegenden Ausführungsform auf der Grundlage der Differenz bzw. dem Unterschied zwischen der Verteilung der Grenze 301 des Rauches und der Verteilung der Grenze 301 der künstlichen Struktur in der Lage, zu identifizieren, ob das Zielobjekt Rauch oder eine künstliche Struktur ist. Sogar wenn eine Farbe (alternativ andere Eigenschaften; dasselbe gilt für die folgende Beschreibung) des Rauches in dem Zielbild sich stark von einer Farbe eines Hintergrundes hinter dem Rauch unterscheidet, bleibt die Tatsache, dass die Grenze 301 des Rauches den Grenzabschnitt 301a, der sich linear in mindestens einem Abschnitt des Zielbereiches 233 erstreckt, nicht enthält. Sogar wenn die Farbe des Rauches sich stark von der Farbe des Hintergrundes unterscheidet, ist somit der zweite Parameter B relativ klein, und somit ist der Identifizierungsparameter P relativ klein, wie bei dem Fall, bei dem die Farbe des Rauches sich nicht stark von der Farbe des Hintergrundes unterscheidet. Daher ist die ECU 13 sogar dann, wenn die Farbe des Rauches sich stark von der Farbe des Hintergrundes unterscheidet, mit derselben Genauigkeit wie der Objektidentifizierungsbetrieb, der durchgeführt wird, wenn die Farbe des Rauches sich nicht stark von der Farbe des Hintergrundes unterscheidet, in der Lage, zu identifizieren, ob das Zielobjekt Rauch ist. Sogar wenn eine Farbe der künstlichen Struktur in dem Zielbild sich nicht stark von einer Farbe eines Hintergrundes hinter der künstlichen Struktur unterscheidet, bleibt die Tatsache, dass die Grenze 301 der künstlichen Struktur den Grenzabschnitt 301a enthält, der sich linear in mindestens einem Abschnitt des Zielbereiches 233 erstreckt. Sogar wenn sich die Farbe der künstlichen Struktur nicht stark von der Farbe des Hintergrundes unterscheidet, ist somit der zweite Parameter B relativ groß, und somit ist der Identifizierungsparameter P relativ groß, wie in dem Fall, in dem sich die Farbe der künstlichen Struktur stark von der Farbe des Hintergrundes unterscheidet. Sogar wenn sich die Farbe der künstlichen Struktur nicht stark von der Farbe des Hintergrundes unterscheidet, ist daher die ECU 13 mit derselben Genauigkeit wie der Objektidentifizierungsbetrieb, der durchgeführt wird, wenn sich die Farbe der künstlichen Struktur stark von der Farbe des Hintergrundes unterscheidet, in der Lage, zu identifizieren, ob das Zielobjekt die künstliche Struktur ist. Daher ist die ECU 13 in der Lage, das Zielobjekt noch genauer als eine Objektidentifizierungsvorrichtung gemäß einem Vergleichsbeispiel zu identifizieren, die das Objekt in dem Bild auf der Grundlage des Pegels der Kantenstärke identifiziert (das heißt der Größe des Gradienten der Luminanz selbst, die ein Beispiel der Bildeigenschaftsgröße ist).
  • Außerdem ist die ECU 13 auf der Grundlage des Bestimmungsergebnisses des Mensch/Fahrzeugbestimmungsteils 132 in der Lage, einen Abschnitt bzw. Teil der 3D-Objektbereiche 231 aus dem Zielbereich 233 bzw. als Zielbereich zu eliminieren. Daher muss die ECU 13 einen Prozess zum Bestimmen der Grenze 301 und des speziellen Grenzabschnitts 302 für einen Teil der 3D-Objektbereiche 231 nicht durchführen. Als Ergebnis kann die Verarbeitungslast des Objektidentifizierungsbetriebs verringert werden. Außerdem kann eine Verschlechterung der Identifizierungsgenauigkeit verhindert werden, die durch ein falsches Identifizieren, dass der Mensch oder das Fahrzeug Rauch oder eine künstliche Struktur ist, verursacht wird.
  • Außerdem ist die ECU 13 in der Lage, das Objekt unter Verwendung des ersten Parameters A, der die Anzahl der Pixel einer Reihe, die entlang der längeren Seite des Zielbereiches 233 angeordnet sind, repräsentiert, und des zweiten Parameters B, der die Anzahl der Pixel, auf die der spezielle Grenzabschnitt 302 projiziert wird, aus einer Reihe der Pixel, die entlang der längeren Seite des Zielbereiches 233 angeordnet sind, zu identifizieren. Das heißt, die ECU 13 ist in der Lage, das Objekt unter Verwendung des Identifizierungsparameters P betreffend die Länge der längeren Seite des Zielbereiches 233 zu identifizieren. Wie es oben beschrieben wurde, besteht hier eine hohe Wahrscheinlichkeit, dass das Zielobjekt wie beispielsweise die künstliche Struktur und der Rauch sich in einer bestimmten Richtung in dem 3D-Raum erstreckt. Somit besteht eine hohe Wahrscheinlichkeit, dass sich der Grenzabschnitt 301a, der sich linear in mindestens einem Teil des Zielbereiches 233 erstreckt, entlang der längeren Seite des Zielbereiches 233 erstreckt. Wenn daher der Identifizierungsparameter P betreffend die längere Seite des Zielbereiches 233 verwendet wird, besteht eine hohe Wahrscheinlichkeit, dass der Identifizierungsparameter P, der berechnet wird, wenn das Zielobjekt Rauch ist (das heißt der berechnet wird, wenn es keinen Grenzabschnitt 301a gibt, der sich linear entlang der längeren Seite des Zielbereiches 233 erstreckt), zu einem Wert wird, der deutlich von dem Identifizierungsparameter P unterschieden werden kann, der berechnet wird, wenn das Zielobjekt eine künstliche Struktur ist (das heißt der berechnet wird, wenn es den Grenzabschnitt 301a gibt, der sich linear entlang der längeren Seite des Zielbereiches 233 erstreckt). Daher wird erwartet, dass sich die Genauigkeit der Identifizierung des Objektes verbessert.
  • (3) Modifiziertes Beispiel
  • In der obigen Beschreibung bestimmt der Grenzbestimmungsteil 134 den Winkelbereich, in dem die Anzahl der zugehörigen (das heißt klassifizierten) Pixel maximal ist, und der Grenzbestimmungsteil 134 bestimmt als speziellen Grenzabschnitt 302 den Bereich, in dem die Pixel, die zu dem bestimmten Winkelbereich gehören, vorhanden sind. Der Grenzbestimmungsteil 134 kann jedoch einen Winkelbereich bestimmen, in dem die Anzahl der zugehörigen Pixel nicht maximal, sondern gleich oder größer als eine vorbestimmte Anzahl ist, und der Grenzbestimmungsteil 134 kann als speziellen Grenzabschnitt 302 den Bereich bestimmen, bei dem die Pixel, die zu dem bestimmten einen Winkelbereich gehören, vorhanden sind. Mit anderen Worten, der Grenzbestimmungsteil 134 kann einen Winkelbereich bestimmen, in dem der Verteilungsbereich der zugehörigen Pixel in dem Zielbereich 233 nicht maximal, sondern gleich oder größer als ein vorbestimmter Bereich ist, und der Grenzbestimmungsteil 134 kann als speziellen Grenzabschnitt 302 den Bereich bestimmen, bei dem die Pixel, die zu dem bestimmten einen Winkelbereich gehören, vorhanden sind. Die vorbestimmte Anzahl (alternativ der vorbestimmte Bereich) kann in diesem Fall auf der Grundlage der oben beschriebenen Differenz zwischen der Verteilung (Verteilungsbereich) der Grenze 301 des Rauches und der Verteilung (Verteilungsbereich) der Grenze 301 der künstlichen Struktur eingestellt werden. Insbesondere kann die Grenze 301 der künstlichen Struktur den Grenzabschnitt 301a enthalten, der sich linear in einem Teil des Zielbereiches 233 erstreckt. Somit besteht eine hohe Wahrscheinlichkeit, dass die Anzahl der Pixel, bei denen die Richtungen der Gradienten der Bildeigenschaftsgrößen gleich sind, unter den Pixeln, die in der Grenze 301 der künstlichen Struktur enthalten sind, relativ groß ist, sodass die Pixel den Grenzabschnitt 301a bilden können, der sich linear in mindestens einem Teil des Zielbereiches 233 erstreckt. Somit kann die Anzahl der Pixel, die den Grenzabschnitt 301a bilden können, der sich linear in mindestens einem Teil des Zielbereiches 233 erstreckt, auf die vorbestimmte Anzahl festgelegt werden. Alternativ kann der Verteilungsbereich der Pixel, die in dem Zielbereich 233 verteilt sein können, um den Grenzabschnitt 301a zu bilden, der sich linear in mindestens einem Teil des Zielbereiches 233 erstreckt, auf den vorbestimmten Bereich festgelegt werden.
  • Wenn die Anzahl der Pixel, bei denen jeweils die Richtung des Gradienten eine Richtung ist, größer als die Anzahl der Pixel ist, bei denen jeweils die Richtung des Gradienten eine andere Richtung ist, die sich von der einen Richtung unterscheidet, wird geschätzt, dass die Pixel, bei denen jeweils die Richtung des Gradienten die eine Richtung ist, anstatt die Pixel, bei denen die Richtung des Gradienten jeweils eine andere Richtung ist, den sich linear erstreckenden Grenzabschnitt 301a bilden. Somit kann der Grenzbestimmungsteil 134 einen Winkelbereich bestimmen, in dem die Anzahl der zugehörigen Pixel größer als die Anzahl der Pixel ist, die zu einem anderen Winkelbereich gehören, und der Grenzbestimmungsteil 134 kann als speziellen Grenzabschnitt 302 den Bereich bestimmen, bei dem die Pixel, die zu dem bestimmten einen Winkelbereich gehören, vorhanden sind. Mit anderen Worten, der Grenzbestimmungsteil 134 kann einen Winkelbereich bestimmen, in dem der Verteilungsbereich der zugehörigen Pixel in dem Zielbereich 233 größer als der Verteilungsbereich der Pixel ist, die zu einem anderen Winkelbereich gehören, und der Grenzbestimmungsteil 134 kann als speziellen Grenzabschnitt 302 den Bereich bestimmen, bei dem die Pixel, die zu dem bestimmten einen Winkelbereich gehören, vorhanden sind.
  • In der obigen Beschreibung repräsentiert der erste Parameter A die Anzahl der Pixel einer Reihe, die entlang der längeren Seite des Zielbereiches 233 angeordnet sind. Hier wird die Anzahl der Pixel einer Reihe, die entlang der längeren Seite des Zielbereiches 233 angeordnet sind, größer, wenn die längere Seite des Zielbereiches 233 größer wird. Daher kann gesagt werden, dass die Anzahl der Pixel einer Reihe, die entlang der längeren Seite des Zielbereiches 233 angeordnet sind, äquivalent zu einer Länge der längeren Seite des Zielbereiches 233 ist. Somit kann der erste Parameter A ein beliebiger Parameter sein, der sich von der Anzahl der Pixel einer Reihe unterscheidet, die entlang der längeren Seite des Zielbereiches 233 angeordnet sind, aber die Länge der längeren Seite des Zielbereiches 233 repräsentiert. Mit anderen Worten, der erste Parameter A kann ein beliebiger Parameter sein, der größer wird, wenn die längere Seite des Zielbereiches 233 größer wird.
  • Alternativ kann, wie es in 10(a) dargestellt ist, der erste Parameter A ein beliebiger Parameter sein, der eine Länge einer kürzeren Seite des Zielbereiches 233 repräsentiert. Das heißt, der erste Parameter A kann ein beliebiger Parameter sein, der größer wird, wenn die kürzere Seite des Zielbereiches 233 länger wird. Alternativ kann, wie es in 10(b) dargestellt ist, der erste Parameter A ein beliebiger Parameter sein, der eine Länge (beispielsweise die Länge selbst, die Länge der Linie entlang der längeren Seite des Zielbereiches 233 oder die Länge der Linie entlang der kürzeren Seite des Zielbereiches 233) einer Linie repräsentiert, die durch Verbinden von zwei Punkten auf einem Außenrand des Zielbereiches 233 erhalten wird. Das heißt, der erste Parameter A kann ein beliebiger Parameter sein, der größer wird, wenn die Linie, die durch Verbinden von zwei Punkten auf dem Außenrand des Zielbereiches 233 erhalten wird, länger wird. Man beachte, dass 10(c) eine diagonale Linie des Zielbereiches 233 als ein Beispiel der Linie darstellt, die durch Verbinden von zwei Punkten auf dem Außenrand des Zielbereiches 233 erhalten wird. In jedem Fall ist der erste Parameter A ein Parameter, der größer wird, wenn die Größe des Zielbereiches 233 größer wird. Somit kann gesagt werden, dass der erste Parameter A im Wesentlichen ein Parameter ist, der die Größe (insbesondere Länge) des Zielbereiches 233 repräsentiert.
  • In der obigen Beschreibung repräsentiert der zweite Parameter B die Anzahl der Pixel, auf die der spezielle Grenzabschnitt 302 projiziert wird, wenn der spezielle Grenzabschnitt 302 auf die längere Seite des Zielbereiches 233 projiziert wird, aus einer Reihe der Pixel, die entlang der längeren Seite des Zielbereiches 233 angeordnet sind. Hier wird die Anzahl der Pixel, auf die der spezielle Grenzabschnitt 302 projiziert wird, größer, wenn der spezielle Grenzabschnitt 302 größer wird (insbesondere wird der spezielle Grenzabschnitt 302 entlang der längeren Seite des Zielbereiches 233 länger). Daher kann gesagt werden, dass die Anzahl der Pixel, auf die der spezielle Grenzabschnitt 302 projiziert wird, äquivalent zu der Länge (insbesondere der Länge entlang der längeren Seite des Zielbereiches 233, dessen Länge durch den ersten Parameter A repräsentiert wird) des speziellen Grenzabschnitts 302. Somit kann der zweite Parameter B ein beliebiger Parameter sein, der sich von der Anzahl der Pixel unterscheidet, auf die der spezielle Grenzabschnitt 302 projiziert wird, aber die Länge des speziellen Grenzabschnitts 302 repräsentiert. Mit anderen Worten, der zweite Parameter B kann ein beliebiger Parameter sein, der größer wird, wenn der spezielle Grenzabschnitt 302 länger wird.
  • Man beachte, dass eine hohe Wahrscheinlichkeit besteht, dass der spezielle Grenzabschnitt 302 mehreren Bereichen entspricht, die jeweils eine kleine Anzahl von Pixeln enthalten, wie es in 8(b) dargestellt ist, wenn das Zielobjekt Rauch ist. Sogar in diesem Fall kann jeder Bereich, der den speziellen Grenzabschnitt 302 ausbildet, als ein Längenmaß bestimmt werden, auch wenn jeder Bereich sehr kurz ist. Somit kann der spezielle Grenzabschnitt 302 auch als das Längenmaß bestimmt werden. Insbesondere kann der spezielle Grenzabschnitt 302 beispielsweise durch einen Parameter einer Summe der Längen der Bereiche, die den speziellen Grenzabschnitt 302 ausbilden, bestimmt werden. Wenn das Zielobjekt jedoch Rauch ist, kann gesagt werden, dass die Länge des speziellen Grenzabschnitts 302 im Wesentlichen äquivalent zu dem Verteilungsbereich (insbesondere dem Verteilungsbereich entlang der längeren Seite des Zielbereiches 233) des speziellen Grenzabschnitts 302 in dem Zielbereich 233 ist. Man beachte, dass auch gesagt werden kann, dass die Länge des speziellen Grenzabschnitts 302 im Wesentlichen äquivalent zu dem Verteilungsbereich (insbesondere dem Verteilungsbereich entlang der längeren Seite des Zielbereiches 233) des speziellen Grenzabschnitts 302 in dem Zielbereich 233 sogar dann ist, wenn das Zielobjekt eine künstliche Struktur ist.
  • In der folgenden Beschreibung wird ein Beispiel eines Parameters, der die Länge des speziellen Grenzabschnitts 302 repräsentiert, beschrieben. Wenn der spezielle Grenzabschnitt 302 auf die längere Seite des Zielbereiches 233 projiziert wird, wird eine projizierte Linie, die eine Linie ist, auf die der spezielle Grenzabschnitt 302 projiziert wird, auf der längeren Seite bestimmt. Die projizierte Linie wird länger, wenn der spezielle Grenzabschnitt 302 länger wird. Somit kann der zweite Parameter B ein Parameter sein, der die Länge der projizierten Linie repräsentiert, die durch Projizieren des speziellen Grenzabschnitts 302 auf die längere Seite des Zielbereiches 233 erhalten wird. Wenn der erste Parameter A die Länge der kürzeren Seite des Zielbereiches 233 repräsentiert, kann der zweite Parameter B ein Parameter sein, der die Länge der projizierten Linie repräsentiert, die durch Projizieren des speziellen Grenzabschnitts 302 auf die kürzere Seite des Zielbereiches 233 erhalten wird. Wenn der erste Parameter A die Länge der Linie repräsentiert, die durch Verbinden von zwei Punkten auf dem Außenrand des Zielbereiches 233 erhalten wird, kann der zweite Parameter B ein Parameter sein, der die Länge der projizieren Linie repräsentiert, die durch Projizieren des speziellen Grenzabschnitts 302 auf diese Linie erhalten wird. Alternativ kann der zweite Parameter B ein Parameter sein, der die Länge des speziellen Grenzabschnitts 302 selbst repräsentiert. Der zweite Parameter B kann beispielsweise die Anzahl der Pixel repräsentieren, die in dem speziellen Grenzabschnitt 302 enthalten sind. In jedem Fall ist der zweite Parameter B ein Parameter, der größer wird, wenn die Größe des speziellen Grenzabschnitts 302 größer wird. Somit kann gesagt werden, dass der zweite Parameter B im Wesentlichen ein Parameter ist, der die Größe (insbesondere die Länge) des speziellen Grenzabschnitts 302 repräsentiert.
  • Wie es in 11 dargestellt ist, können mehrere Grenzabschnitte 301a, die sich jeweils linear in mindestens einem Teil des Zielbereiches 233 erstrecken, in dem Zielbereich 233 vorhanden sein. Wenn hier die Richtungen der Gradienten der Bildeigenschaftsgrößen bei den Pixeln, die in den Grenzabschnitten 301a enthalten sind, gleich sind, enthält der spezielle Grenzabschnitt 302 diese Grenzabschnitte 301a. In diesem Fall kann der zweite Parameter B die Anzahl der Pixel aus einer Reihe der Pixel, die entlang der längeren Seite des Zielbereiches 233 angeordnet sind, repräsentieren, auf die mindestens einer der Grenzabschnitte 301a projiziert wird, wenn mindestens einer der Grenzabschnitte 301a auf die längere Seite des Zielbereiches 233 projiziert wird. Der zweite Parameter B kann beispielsweise die Anzahl der Pixel aus einer Reihe der Pixel, die entlang der längeren Seite des Zielbereiches 233 angeordnet sind, repräsentieren, auf die nur einer der Grenzabschnitte 301a projiziert wird, wenn nur einer der Grenzabschnitte 301a auf die längere Seite des Zielbereiches 233 projiziert wird. Der zweite Parameter B kann beispielsweise die Anzahl der Pixel aus einer Reihe der Pixel, die entlang der längeren Seite des Zielbereiches 233 angeordnet sind, repräsentieren, auf die mindestens einer der Grenzabschnitte 301a projiziert wird, wenn sämtliche Grenzabschnitte 301a auf die längere Seite des Zielbereiches 233 projiziert werden. Alternativ kann der zweite Parameter B ein Parameter betreffend die Länge mindestens eines der Grenzabschnitte 301a sein. Der zweite Parameter B kann beispielsweise die Summe der Längen der Grenzabschnitte 301a repräsentieren. Der zweite Parameter B kann beispielsweise die Länge irgendeines der Grenzabschnitte 301a repräsentieren. Es ist jedoch im Hinblick auf die Verbesserung der Identifizierungsgenauigkeit vorteilhaft, wenn der zweite Parameter B ein Parameter ist, der die Längen sämtlicher Grenzabschnitte 301a berücksichtigt (reflektiert), die den speziellen Grenzabschnitt 302 bilden.
  • Wie es oben beschrieben wurde, ist der Objektidentifizierungsbetrieb der vorliegenden Ausführungsform ein Betrieb, der auf der Voraussetzung basiert, dass die Grenze 301 der künstlichen Struktur den Grenzabschnitt 301a enthält, der sich linear in mindestens einem Teil des Zielbereiches 233 erstreckt. Somit ist es vorteilhaft, wenn der spezielle Grenzabschnitt 302, der bestimmt wird, wenn das Zielobjekt eine künstliche Struktur ist, der sich linear erstreckende Grenzabschnitt 301a ist und der spezielle Grenzabschnitt 302, der bestimmt wird, wenn das Zielobjekt keine künstliche Struktur ist, kein linear erstreckender Grenzabschnitt 301a ist, um die Genauigkeit der Identifizierung, ob das Zielobjekt eine künstliche Struktur ist, zu verbessern. Somit kann der Grenzbestimmungsteil 134 einen Prozess zum Extrahieren der Pixel (beispielsweise der Kante), die sich derart verteilen, dass sie sich linear erstrecken, aus den Pixeln, die in dem speziellen Grenzabschnitt enthalten sind, durchführen und dann die extrahierten Pixel auf die längere Seite des Zielbereiches 233 projizieren. Als ein Beispiel des Prozesses zum Extrahieren der Pixel, die sich derart verteilen, dass sie sich linear erstrecken, gibt es einen Prozess zum Bestimmen einer Linie, die auf der Grundlage der Pixel bestimmt werden kann, die in dem speziellen Grenzabschnitt 302 enthalten sind, mittels Durchführung eines Linienerfassungsprozesses wie beispielsweise einer Hough-Transformation der Pixel, die in dem speziellen Grenzabschnitt 302 enthalten sind, und anschließendes Extrahieren der Pixel, die jeweils von der bestimmten Linie um einen vorbestimmten Abstand oder weniger entfernt sind, aus den Pixeln, die in dem speziellen Grenzabschnitt 302 enthalten sind, als Pixel, die sich derart verteilen, dass sie sich linear erstrecken.
  • In der obigen Beschreibung wird ein einziger Schwellenwert TH1 als Schwellenwert verwendet, mit dem der Identifizierungsparameter P verglichen wird. Es besteht jedoch die Möglichkeit, dass das Zielobjekt kein Rauch und keine künstliche Struktur ist, wenn der Identifizierungsparameter P in der Nähe des oben beschriebenen Schwellenwertes TH1 liegt, wie es in der Graphik der 9 dargestellt ist. Außerdem besteht die Möglichkeit, dass das Zielobjekt kein Rauch ist, wenn der Identifizierungsparameter P wesentlich kleiner als der oben beschriebene Schwellenwert TH1 ist. Außerdem besteht die Möglichkeit, dass das Zielobjekt keine künstliche Struktur ist, wenn der Identifizierungsparameter P wesentlich größer als der oben beschriebene Schwellenwert TH1 ist. Somit können mehrere Schwellenwerte TH als Schwellenwerte verwendet werden, mit denen der Identifizierungsparameter P verglichen wird. Wie es beispielsweise in 12 dargestellt ist, kann der Objektidentifizierungsteil 136 identifizieren, dass das Zielobjekt Rauch ist, wenn der Identifizierungsparameter P größer als ein vorbestimmter Schwellenwert TH2 (TH2 < P1) und kleiner als ein vorbestimmter Schwellenwert TH3 (P1 < TH3 ≤ TH1) ist. Der Objektidentifizierungsteil 136 kann identifizieren, dass das Objekt eine künstliche Struktur ist, wenn der Identifizierungsparameter P größer als ein vorbestimmter Schwellenwert TH4 (TH1 ≤ TH4 < P2) und kleiner als ein vorbestimmter Schwellenwert TH5 (P2 < TH5) ist. Der Objektidentifizierungsteil 136 kann identifizieren, dass das Zielobjekt ein anderes Objekt ist, das kein Rauch und keine künstliche Struktur ist, wenn der Identifizierungsparameter P kleiner als der Schwellenwert TH2 ist, wenn der Identifizierungsparameter P größer als der Schwellenwert TH3 und kleiner als der Schwellenwert TH4 ist oder wenn der Identifizierungsparameter P größer als der Schwellenwert TH5 ist. Unter Verwendung dieser Schwellenwerte TH wird die Identifizierungsgenauigkeit verbessert.
  • In der obigen Beschreibung ist der Identifizierungsparameter P das Verhältnis des zweiten Parameters B zu dem ersten Parameter A. Der Identifizierungsparameter P kann jedoch eine Differenz zwischen dem ersten Parameter A und dem zweiten Parameter B sein. In diesem Fall identifiziert der Objektidentifizierungsteil 136 das Objekt durch Vergleichen der Differenz mit einem vorbestimmten Schwellenwert TH6. Insbesondere kann der Objektidentifizierungsteil 136 identifizieren, dass das Zielobjekt eine künstliche Struktur ist, wenn die Differenz kleiner als der Schwellenwert TH6 ist. Der Objektidentifizierungsteil 136 kann identifizieren, dass das Zielobjekt Rauch ist, wenn die Differenz größer als der Schwellenwert TH6 ist. Man beachte, dass der Schwellenwert TH6 wie der Schwellenwert TH1 eingestellt werden kann.
  • Das Verhältnis des zweiten Parameters B zu dem ersten Parameter A und die Differenz zwischen dem ersten Parameter A und dem zweiten Parameter B entsprechen jeweils einem Parameter, der eine Beziehung zwischen dem ersten Parameter A und dem zweiten Parameter B repräsentiert. Daher kann der Identifizierungsparameter P irgendein Parameter sein, der die Beziehung zwischen dem ersten Parameter A und dem zweiten Parameter B repräsentiert. In diesem Fall kann der Objektidentifizierungsteil 136 identifizieren, dass das Zielobjekt eine künstliche Struktur ist, wenn die Beziehung gleich einer ersten Beziehung ist. Der Objektidentifizierungsteil 136 kann identifizieren, dass das Zielobjekt Rauch ist, wenn die Beziehung gleich einer zweiten Beziehung ist (alternativ nicht die erste Beziehung ist). Man beachte, dass die erste Beziehung und die zweite Beziehung wie der Schwellenwert TH1 eingestellt werden können.
  • In der obigen Beschreibung sind der 3D-Objektbereich 231, der Mensch/ Fahrzeugbereich 232 und der Zielbereich 233 jeweils ein rechteckiger Bereich. Der 3D-Objektbereich 231, der Mensch/Fahrzeugbereich 232 und der Zielbereich 233 können jedoch jeweils ein Bereich sein, der eine beliebige Gestalt aufweist, die sich von der rechteckigen Gestalt unterscheidet (beispielsweise eine Polygongestalt, eine Kreisgestalt oder eine ovale Gestalt). Sogar in diesem Fall kann der erste Parameter A ein Parameter sein, der die Anzahl der Pixel einer Reihe repräsentiert, die entlang der Linie (oder einer gekrümmten Linie) angeordnet sind, die durch Verbinden von zwei Punkten auf dem Außenrand des Zielbereiches 233 angeordnet sind (alternativ ein Parameter, der dem oben beschriebenen modifizierten Beispiel des ersten Parameters A entspricht). Der zweite Parameter B kann ein Parameter sein, der die Anzahl der Pixel aus einer Reihe der Pixel, die entlang der Linie (oder der gekrümmten Linie) angeordnet sind, die durch Verbinden von zwei Punkten auf dem Außenrand des Zielbereiches 233 erhalten wird, repräsentiert, auf die der spezielle Grenzabschnitt 302 projiziert wird, wenn der spezielle Grenzabschnitt 302 auf die Linie (oder die gekrümmte Linie) projiziert wird, die durch Verbinden von zwei Punkten auf dem Außenrand des Zielbereiches 233 erhalten wird (alternativ ein Parameter, der dem oben beschriebenen modifizierten Beispiel des zweiten Parameters B entspricht).
  • Der Mensch/Fahrzeugbereich 232, der von dem Mensch/Fahrzeugbestimmungsteil 132 bestimmt wird, wird verwendet, um einen Teil der 3D-Objektbereiche 231 aus dem Zielbereich 233 bzw. als Zielbereich zu eliminieren. Das heißt, es kann gesagt werden, dass der Mensch/Fahrzeugbestimmungsteil 132 den Menschen oder das Fahrzeug entsprechend den Objekten bestimmt, als Zielobjekt für den Objektidentifizierungsbetrieb eliminiert werden können. Somit kann der Mensch/Fahrzeugbestimmungsteil 132 einen eliminierten Bereich, in dem das Objekt, das als Zielobjekt für den Objektidentifizierungsbetrieb eliminiert werden kann, vorhanden ist, zusätzlich oder anstelle der Bestimmung des Mensch/Fahrzeugbereiches 232, in dem der Mensch oder das Fahrzeug vorhanden ist, bestimmen. In diesem Fall stellt der Zielbereichsbestimmungsteil 133 als Zielbereich 233 den 3D-Objektbereich 231 ein, der sich nicht mit dem eliminierten Bereich überdeckt. Der Zielbereichsbestimmungsteil 133 stellt als Zielbereich 233 keinen 3D-Objektbereich 231 ein, der sich mit dem eliminierten Bereich überdeckt.
  • In der obigen Beschreibung wird das Bestimmungsergebnis des Mensch/ Fahrzeugbestimmungsteils 132 von dem Zielbereichsbestimmungsteil 133 verwendet, um einen Teil der 3D-Objektbereiche 231 aus dem Zielbereich 233 bzw. als Zielbereich zu eliminieren. Das Bestimmungsergebnis des Mensch/Fahrzeugbestimmungsteils 132 kann jedoch verwendet werden, wenn der Objektidentifizierungsteil 136 das Objekt identifiziert. Ein Ablauf dieses modifizierten Beispiels des Objektidentifizierungsbetriebs wird im Folgenden mit Bezug auf 13 beschrieben. Man beachte, dass die Struktur des Fahrzeugs 1, das das modifizierte Beispiel des Objektidentifizierungsbetriebs durchführt, dieselbe wie die Struktur des Fahrzeugs 1 ist, die in 1 dargestellt ist (unterscheidet sich jedoch darin, dass das Bestimmungsergebnis des Mensch/Fahrzeugbestimmungsteils 132 an den Objektidentifizierungsteil 136 anstelle an den Zielbereichsbestimmungsteil 133 ausgegeben wird), und somit wird die Beschreibung dieser Struktur des Fahrzeugs 1 weggelassen.
  • Wie es in 13 dargestellt ist, werden auch in dem modifizierten Beispiel die Prozesse von Schritt S11 bis Schritt S13 durchgeführt. In dem modifizierten Beispiel stellt der Zielbereichsbestimmungsteil 133 direkt den 3D-Objektbereich 231 als Zielbereich 233 ein, ohne den Mensch/Fahrzeugbereich 232 zu verwenden (Schritt S31). Dann werden auch in dem modifizierten Beispiel die Prozesse von Schritt S15 bis Schritt S18 durchgeführt. Wenn bestimmt wird, dass der Identifizierungsparameter P größer als der Schwellenwert TH1 ist (Schritt S18: Ja), identifiziert der Objektidentifizierungsteil 136 das Objekt als künstliche Struktur (Schritt S19). Wenn bestimmt wird, dass der Identifizierungsparameter P kleiner als der Schwellenwert TH1 ist (Schritt S18: Nein), bestimmt der Objektidentifizierungsteil 136, ob der Zielbereich 233, der das Ziel für den Objektidentifizierungsbetrieb ist, sich mit dem Mensch/Fahrzeugbereich 232 überdeckt (Schritt S32). Wenn bestimmt wird, dass sich der Zielbereich 233 nicht mit dem Mensch/Fahrzeugbereich 232 überdeckt (Schritt S32: Nein), identifiziert der Objektidentifizierungsteil 136 das Objekt als Rauch (Schritt S20). Wenn bestimmt wird, dass sich der Zielbereich 233 mit dem Mensch/Fahrzeugbereich 232 überdeckt (Schritt S32: Ja), identifiziert der Objektidentifizierungsteil 136 das Objekt als ein anderes Objekt, das sich von dem Rauch und der künstlichen Struktur unterscheidet (Schritt S33). Gemäß diesem modifizierten Beispiel des Objektidentifizierungsbetriebs wird erwartet, dass sich die Genauigkeit der Identifizierung des Objektes wie in dem Fall verbessert, in dem das Bestimmungsergebnis des Mensch/Fahrzeugbestimmungsteils 132 von dem Zielbereichsbestimmungsteil 133 verwendet wird, um einen Teil der 3D-Objektbereiche 231 aus dem Zielbereich 233 zu eliminieren.
  • Das Fahrzeug 1 muss keine Kamera 11 aufweisen. In diesem Fall kann das Fahrzeug 1 den oben beschriebenen Objektidentifizierungsbetrieb hinsichtlich eines Bildes, das von einer Kamera aufgenommen wird, die außerhalb des Fahrzeugs 1 angeordnet ist, durchführen.
  • Das Fahrzeug 1 kann zusätzlich oder anstelle des LIDAR 12 irgendeinen Sensor aufweisen, der in der Lage ist, die Abstandsinformationen zu erfassen. Eine Stereokamera oder ein Radar ist ein Beispiel dieses Sensors. Man beachte, dass die Stereokamera als Kamera 11 verwendet werden kann, wenn das Fahrzeug diese Stereokamera aufweist. Alternativ muss das Fahrzeug 1 das LIDAR 12 nicht aufweisen (alternativ irgendein Sensor, der in der Lage ist, die Abstandsinformationen zu erfassen). In diesem Fall kann das Fahrzeug 1 die Abstandsinformationen von einem LIDAR erhalten (alternativ ein beliebiger Sensor, der in der Lage ist, die Abstandsinformationen zu erfassen), das außerhalb des Fahrzeugs 1 angeordnet ist.
  • Die ECU 13 muss den Mensch/Fahrzeugbestimmungsteil 132 und den Zielbereichsbestimmungsteil 133 nicht enthalten. In diesem Fall wird der 3D-Objektbereich 231 direkt als Zielbereich 233 verwendet.
  • Mindestens ein Teil der Merkmale in der oben beschriebenen Ausführungsform und den modifizierten Beispielen kann weggelassen oder entsprechend modifiziert werden. Mindestens ein Teil der Merkmale einer oben beschriebenen Ausführungsform und eines modifizierten Beispiels können mit mindestens einem anderen Teil der Merkmale in einer oben beschriebenen Ausführungsform und einem modifizierten Beispiel kombiniert werden.
  • Sämtliche Beispiele und die hier verwendete Bedingungssprache dienen nur dazu, dem Leser beim Verständnis der Erfindung und der Konzepte, die gemäß dem Erfinder zur Erweiterung des Stands der Technik beitragen, zu erleichtern und beschränken die Erfindung nicht auf die speziell genannten Beispiele und Bedingungen und beschränken auch die Organisation derartiger Beispiele in der Beschreibung zur Darstellung der Überlegenheit und Unterlegenheit der Erfindung nicht. Auch wenn die Ausführungsformen der vorliegenden Erfindung genauer beschrieben wurden, ist es selbstverständlich, dass verschiedene Änderungen, Ersetzungen und Alternativen möglich sind, ohne von dem Bereich der Erfindung abzuweichen. Eine Objektidentifizierungsvorrichtung, die derartige Änderungen beinhaltet, liegt ebenfalls innerhalb des technischen Bereiches der vorliegenden Erfindung.
  • Bezugszeichenliste
  • 1
    Fahrzeug
    11
    Kamera
    12
    LIDAR
    13
    ECU
    131
    3D-Objektbereichsbestimmungsteil
    132
    Mensch/Fahrzeugbestimmungsteil
    133
    Zielbereichsbestimmungsteil
    134
    Grenzbestimmungsteil
    135
    Identifizierungsparameterberechnungsteil
    136
    Objektidentifizierungsteil
    231
    3D-Objektbereich
    232
    Mensch/Fahrzeugbereich
    233
    Zielbereich
    301
    Grenze
    302
    spezieller Grenzabschnitt
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2012-118698 A [0002, 0002, 0002, 0005]
    • JP 2015-075826 A [0003]
    • JP 2014-215718 A [0003]
    • JP 2014-010771 A [0003]
    • JP 2013-206328 A [0003]
    • JP 2013-203337 A [0003]
    • JP 2016-001435 A [0003]
    • JP 2012-118698 [0003]

Claims (11)

  1. Objektidentifizierungsvorrichtung (13), die aufweist: eine erste Bestimmungsvorrichtung (131), die einen ersten Bereich (231) in einem Bild bestimmt, wobei sich ein Objekt, das ein Identifizierungsziel ist, in dem ersten Bereich befindet; eine zweite Bestimmungsvorrichtung (134), die einen speziellen Grenzabschnitt (302) in dem ersten Bereich bestimmt, wobei der spezielle Grenzabschnitt mindestens ein Abschnitt einer Grenze (301) des Objektes ist, bei der ein Grad eines Gradienten einer Bildeigenschaftsgröße gleich oder größer als eine vorbestimmte Größe ist, wobei der spezielle Grenzabschnitt ein Abschnitt ist, bei dem eine Richtung des Gradienten der Bildeigenschaftsgröße eine Richtung ist, und wobei ein Verteilungsbereich des speziellen Grenzabschnitts in dem ersten Bereich größer als derjenige eines anderen Grenzabschnitts ist, bei dem die Richtung des Gradienten der Bildeigenschaftsgröße eine andere Richtung ist, die sich von der einen Richtung unterscheidet; und eine Identifizierungsvorrichtung (136), die das Objekt auf der Grundlage eines ersten Parameters (A), der eine Länge des ersten Bereiches repräsentiert, und eines zweiten Parameters (B) identifiziert, der eine Länge des speziellen Grenzabschnitts repräsentiert.
  2. Objektidentifizierungsvorrichtung (13) nach Anspruch 1, wobei die Identifizierungsvorrichtung (136) das Objekt auf der Grundlage einer Beziehung zwischen dem ersten Parameter (A) und dem zweiten Parameter (B) identifiziert.
  3. Objektidentifizierungsvorrichtung (13) nach Anspruch 2, wobei die Identifizierungsvorrichtung (136) identifiziert, dass das Objekt Rauch ist, wenn die Beziehung gleich einer ersten Beziehung ist, die im Voraus als Beziehung eingestellt wird, die beobachtet wird, wenn das Objekt Rauch ist, und die Identifizierungsvorrichtung (136) identifiziert, dass das Objekt eine künstliche Struktur ist, wenn die Beziehung eine zweite Beziehung ist, die sich von der ersten Beziehung unterscheidet und die im Voraus als Beziehung eingestellt wird, die beobachtet wird, wenn das Objekt die künstliche Struktur ist.
  4. Objektidentifizierungsvorrichtung (13) nach Anspruch 2 oder 3, wobei die Beziehung ein Verhältnis des zweiten Parameters (B) zu dem ersten Parameter (A) und/oder eine Differenz zwischen dem ersten Parameter (A) und dem zweiten Parameter (B) enthält.
  5. Objektidentifizierungsvorrichtung (13) nach Anspruch 4, wobei die Identifizierungsvorrichtung (136) identifiziert, dass das Objekt Rauch ist, wenn das Verhältnis kleiner als ein erster Schwellenwert ist oder die Differenz größer als ein zweiter Schwellenwert ist, und die Identifizierungsvorrichtung (136) identifiziert, dass das Objekt eine künstliche Struktur ist, wenn das Verhältnis größer als ein dritter Schwellenwert ist, der gleich oder größer als der erste Schwellenwert ist, oder die Differenz kleiner als ein vierter Schwellenwert ist, der gleich oder kleiner als der zweite Schwellenwert ist.
  6. Objektidentifizierungsvorrichtung (13) nach einem der Ansprüche 1 bis 5, wobei der erste Parameter (A) als Länge des ersten Bereiches (231) eine Länge einer ersten Linie repräsentiert, die durch Verbinden von zwei Punkten auf einem Außenrand des ersten Bereiches erhalten wird, und der zweite Parameter (B) als Länge des speziellen Grenzabschnitts (302) eine Länge einer zweiten Linie repräsentiert, die durch Projizieren des speziellen Grenzabschnitts auf die erste Linie erhalten wird.
  7. Objektidentifizierungsvorrichtung (13) nach Anspruch 6, wobei eine Gestalt des ersten Bereiches (231) eine Rechteckgestalt ist, und die erste Linie eine Seite des ersten Bereiches ist.
  8. Objektidentifizierungsvorrichtung (13) nach Anspruch 7, wobei die eine Seite eine längere Seite des ersten Bereiches (231) ist.
  9. Objektidentifizierungsvorrichtung (13) nach einem der Ansprüche 1 bis 8, wobei die erste Bestimmungsvorrichtung (131) den ersten Bereich (231) durch Analysieren des Bildes mittels eines ersten Analyseverfahrens bestimmt, die Objektidentifizierungsvorrichtung (13) außerdem eine dritte Bestimmungsvorrichtung (132) aufweist, die einen zweiten Bereich (232) in dem Bild durch Analysieren des Bildes mittels des ersten Analyseverfahrens oder eines zweiten Analyseverfahrens, das sich von dem ersten Analyseverfahren unterscheidet, bestimmt, wobei sich ein vorbestimmtes Objekt, das als Identifizierungsziel eliminiert werden kann, in dem zweiten Bereich befindet, und die zweite Bestimmungsvorrichtung (134) den speziellen Grenzabschnitt (302) in dem ersten Bereich, der sich nicht mit dem zweiten Bereich überdeckt, bestimmt und den speziellen Grenzabschnitt in dem ersten Bereich, der sich mit dem zweiten Bereich überdeckt, nicht bestimmt.
  10. Objektidentifizierungsvorrichtung (13) nach einem der Ansprüche 1 bis 8, wobei die erste Bestimmungsvorrichtung (131) den ersten Bereich (231) durch Analysieren des Bildes mittels eines ersten Analyseverfahrens bestimmt, die Objektidentifizierungsvorrichtung (13) außerdem eine dritte Bestimmungsvorrichtung (132) aufweist, die einen zweiten Bereich (232) in dem Bild durch Analysieren des Bildes mittels des ersten Analyseverfahrens oder eines zweiten Analyseverfahrens, das sich von dem ersten Analyseverfahren unterscheidet, bestimmt, wobei sich ein vorbestimmtes Objekt, das als Identifizierungsziel eliminiert werden kann, in dem zweiten Bereich befindet, und die zweite Bestimmungsvorrichtung (134) den speziellen Grenzabschnitt auf der Grundlage des ersten Parameters, des zweiten Parameters und eines Ergebnisses der Bestimmung durch die dritte Bestimmungsvorrichtung bestimmt.
  11. Objektidentifizierungsvorrichtung (13) nach einem der Ansprüche 1 bis 10, wobei die Grenze (301) mehrere zweite Pixel enthält, bei denen jeweils der Grad des Gradienten der Bildeigenschaftsgröße gleich oder größer als die vorbestimmte Größe ist, wobei die zweiten Pixel mindestens ein Teil von mehreren ersten Pixeln sind, die in dem Bild enthalten sind, und der spezielle Grenzabschnitt (302) mehrere dritte Pixel enthält, wobei die dritten Pixel mindestens ein Teil der zweiten Pixel sind, wobei die Richtung des Gradienten der Bildeigenschaftsgröße an jedem der dritten Pixel die eine Richtung ist, und wobei die Anzahl der dritten Pixel größer als die Anzahl von mehreren vierten Pixeln ist, bei denen jeweils die Richtung des Gradienten der Bildeigenschaftsgröße die andere Richtung ist.
DE102017209631.4A 2016-06-14 2017-06-08 Objektidentifizierungsvorrichtung Active DE102017209631B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-118233 2016-06-14
JP2016118233A JP6508134B2 (ja) 2016-06-14 2016-06-14 物体判別装置

Publications (2)

Publication Number Publication Date
DE102017209631A1 true DE102017209631A1 (de) 2017-12-14
DE102017209631B4 DE102017209631B4 (de) 2022-09-01

Family

ID=60419919

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017209631.4A Active DE102017209631B4 (de) 2016-06-14 2017-06-08 Objektidentifizierungsvorrichtung

Country Status (4)

Country Link
US (1) US10380743B2 (de)
JP (1) JP6508134B2 (de)
CN (1) CN107506685B (de)
DE (1) DE102017209631B4 (de)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7120835B2 (ja) * 2018-07-18 2022-08-17 トヨタ自動車株式会社 画像処理装置
KR102205325B1 (ko) * 2019-06-14 2021-01-21 경북대학교 산학협력단 라인 검출 방법
US11107238B2 (en) * 2019-12-13 2021-08-31 Zebra Technologies Corporation Method, system and apparatus for detecting item facings
JP2022186023A (ja) * 2021-06-04 2022-12-15 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012118698A (ja) 2010-11-30 2012-06-21 Fuji Heavy Ind Ltd 画像処理装置
JP2013203337A (ja) 2012-03-29 2013-10-07 Fuji Heavy Ind Ltd 運転支援装置
JP2013206328A (ja) 2012-03-29 2013-10-07 Fuji Heavy Ind Ltd 物体検出装置
JP2014010771A (ja) 2012-07-02 2014-01-20 Toshiba Corp 車両検知装置
JP2014215718A (ja) 2013-04-23 2014-11-17 株式会社東芝 車両検知装置、および、車両検知システム
JP2015075826A (ja) 2013-10-07 2015-04-20 日立建機株式会社 オフロードダンプトラック
JP2016001435A (ja) 2014-06-12 2016-01-07 富士重工業株式会社 車外環境認識装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS50826A (de) 1973-04-28 1975-01-07
JP3505362B2 (ja) * 1997-08-13 2004-03-08 名古屋電機工業株式会社 車両検出方法
US7245315B2 (en) * 2002-05-20 2007-07-17 Simmonds Precision Products, Inc. Distinguishing between fire and non-fire conditions using cameras
US8427538B2 (en) * 2004-04-30 2013-04-23 Oncam Grandeye Multiple view and multiple object processing in wide-angle video camera
JP4864043B2 (ja) * 2008-05-13 2012-01-25 株式会社豊田中央研究所 画像処理装置、方法及びプログラム
US8447139B2 (en) * 2010-04-13 2013-05-21 International Business Machines Corporation Object recognition using Haar features and histograms of oriented gradients
EP2606470B1 (de) * 2010-08-19 2015-04-22 BAE Systems PLC Sensordatenverarbeitung
JP5658963B2 (ja) * 2010-09-29 2015-01-28 オリンパス株式会社 画像処理装置、画像処理方法、および画像処理プログラム
JP5594672B2 (ja) * 2011-04-14 2014-09-24 株式会社 日立産業制御ソリューションズ 物体認識装置および物体認識方法
KR101237089B1 (ko) 2011-10-12 2013-02-26 계명대학교 산학협력단 랜덤 포레스트 분류 기법을 이용한 산불연기 감지 방법
KR101353952B1 (ko) * 2012-10-05 2014-01-23 계명대학교 산학협력단 시공간적 비오에프와 랜덤 포레스트를 이용한 산불 연기 감지 방법
JP6445775B2 (ja) * 2014-04-01 2018-12-26 キヤノン株式会社 画像処理装置、画像処理方法
JP6236363B2 (ja) * 2014-06-30 2017-11-22 本田技研工業株式会社 対象物認識装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012118698A (ja) 2010-11-30 2012-06-21 Fuji Heavy Ind Ltd 画像処理装置
JP2013203337A (ja) 2012-03-29 2013-10-07 Fuji Heavy Ind Ltd 運転支援装置
JP2013206328A (ja) 2012-03-29 2013-10-07 Fuji Heavy Ind Ltd 物体検出装置
JP2014010771A (ja) 2012-07-02 2014-01-20 Toshiba Corp 車両検知装置
JP2014215718A (ja) 2013-04-23 2014-11-17 株式会社東芝 車両検知装置、および、車両検知システム
JP2015075826A (ja) 2013-10-07 2015-04-20 日立建機株式会社 オフロードダンプトラック
JP2016001435A (ja) 2014-06-12 2016-01-07 富士重工業株式会社 車外環境認識装置

Also Published As

Publication number Publication date
JP2017224110A (ja) 2017-12-21
JP6508134B2 (ja) 2019-05-08
DE102017209631B4 (de) 2022-09-01
US20170358089A1 (en) 2017-12-14
US10380743B2 (en) 2019-08-13
CN107506685B (zh) 2021-01-12
CN107506685A (zh) 2017-12-22

Similar Documents

Publication Publication Date Title
DE102011106050B4 (de) Schattenentfernung in einem durch eine fahrzeugbasierte Kamera erfassten Bild zur Detektion eines freien Pfads
DE102016118502A1 (de) Verfahren, Einrichtung und Vorrichtung zum Ermitteln einer Fahrbahngrenze
DE112012002885B4 (de) Verfahren und Vorrichtung zur bildbasierten Fahrzeugerfassung und Entfernungsmessung
DE102011106052B4 (de) Schattenentfernung in einem durch eine fahrzeugbasierte Kamera erfassten Bild unter Verwendung eines nichtlinearen beleuchtungsinvarianten Kerns
DE102007043164B4 (de) Nebelerkennungsvorrichtung für Kraftfahrzeuge
DE102011001037B4 (de) Fahrzeuginterne Vorrichtung zur Weiß-Linien-Erkennung
DE102017209631B4 (de) Objektidentifizierungsvorrichtung
DE102015206654A1 (de) Bildverarbeitungsvorrichtung
DE102014117102B4 (de) Spurwechselwarnsystem und Verfahren zum Steuern des Spurwechselwarnsystems
DE102006005512B4 (de) System und Verfahren zur Messung der Entfernung eines vorausfahrenden Fahrzeugs
DE102015111907B4 (de) Algorithmus zum Erweitern des Erkennungsbereichs für eine AVM-Haltelinienerkennung
DE102013205854B4 (de) Verfahren zum Detektieren eines freien Pfads mittels temporärer Koherenz
DE102012112104A1 (de) Verfahren und vorrichtung zur befahrbarkeitsanalyse
DE102014112820A9 (de) Fahrzeugaußenumgebungerkennungsvorrichtung
DE102011111440A1 (de) Verfahren zur Umgebungsrepräsentation
DE112018007485T5 (de) Straßenoberflächen-Detektionsvorrichtung, Bildanzeige-Vorrichtung unter Verwendung einer Straßenoberflächen-Detektionsvorrichtung, Hindernis-Detektionsvorrichtung unter Nutzung einer Straßenoberflächen-Detektionsvorrichtung, Straßenoberflächen-Detektionsverfahren, Bildanzeige-Verfahren unter Verwendung eines Straßenoberflächen-Detektionsverfahrens, und Hindernis-Detektionsverfahren unter Nutzung eines Straßenoberflächen-Detektionsverfahrens
DE102012005851A1 (de) Verfahren zum Warnen des Fahrers eines Kraftfahrzeugs vor der Anwesenheit einesObjekts in der Umgebung des Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug
DE102013012930A1 (de) Verfahren zum Bestimmen eines aktuellen Abstands und/oder einer aktuellen Geschwindigkeit eines Zielobjekts anhand eines Referenzpunkts in einem Kamerabild, Kamerasystem und Kraftfahrzeug
DE102012220619A1 (de) Farberfassungsvorrichtung für ein Fahrzeug
DE102012215026A1 (de) Verfahren und Vorrichtung zum Betreiben eines Fahrzeugs
DE112017001951T5 (de) Vorrichtung und verfahren zur objekterkennung bezüglich eines eingangsbildes für ein fahrzeug
DE102012024878A1 (de) Verfahren zum Detektieren eines Zielobjekts anhand eines Kamerabilds durch Clusterbildung aus mehreren benachbarten Bildzellen, Kameraeinrichtung und Kraftfahrzeug
DE102016218852A1 (de) Detektion von Objekten aus Bildern einer Kamera
DE102015211874A1 (de) Objekterkennungsvorrichtung
DE102015205505A1 (de) Verfahren und Vorrichtung zum Detektieren elliptischer Strukturen in einem Bild

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000

R016 Response to examination communication
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06V0030190000

Ipc: G06V0010500000

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06V0010500000

Ipc: G06V0020520000

R018 Grant decision by examination section/examining division
R020 Patent grant now final
R084 Declaration of willingness to licence