JP5886809B2 - 車外環境認識装置 - Google Patents

車外環境認識装置 Download PDF

Info

Publication number
JP5886809B2
JP5886809B2 JP2013202627A JP2013202627A JP5886809B2 JP 5886809 B2 JP5886809 B2 JP 5886809B2 JP 2013202627 A JP2013202627 A JP 2013202627A JP 2013202627 A JP2013202627 A JP 2013202627A JP 5886809 B2 JP5886809 B2 JP 5886809B2
Authority
JP
Japan
Prior art keywords
point
pedestrian
appearance
unit
deriving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013202627A
Other languages
English (en)
Other versions
JP2015069379A (ja
Inventor
野村 直樹
直樹 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Jukogyo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Jukogyo KK filed Critical Fuji Jukogyo KK
Priority to JP2013202627A priority Critical patent/JP5886809B2/ja
Priority to DE102014112797.8A priority patent/DE102014112797A1/de
Priority to US14/478,928 priority patent/US9280900B2/en
Priority to CN201410488153.5A priority patent/CN104517118B/zh
Publication of JP2015069379A publication Critical patent/JP2015069379A/ja
Application granted granted Critical
Publication of JP5886809B2 publication Critical patent/JP5886809B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、検出領域に存在する対象物がいずれの特定物に対応するかを特定する車外環境認識装置に関する。
従来、自車両の前方に位置する車両等の特定物を検出し、先行車両との衝突を回避したり(衝突回避制御)、先行車両との車間距離を安全な距離に保つように制御する(クルーズコントロール)技術が知られている(例えば、特許文献1)。
このような自車両の前方監視技術により、先行車両のみならず、歩行者の飛び出しによる接触事故の回避や軽減にも効果が期待されている。かかる歩行者の場合、先行車両と異なり検出領域に様々な方向から突然出現する可能性があるので、車両前方に出現してから車両が歩行者に近づくまでの時間が短い場合が多く、運転者の瞬間的な脇見や、僅かな操作の遅れ等が接触事故の発生に大きく影響する。したがって、上述した衝突回避制御への期待が高まっている。
一方で、衝突回避制御の誤作動、例えば、歩行者であると誤認識して自車両に制動をかけてしまう等の事象が生じると、運転者に衝突回避制御への不信感を抱かせてしまうことになる。したがって、誤作動することなく、精度よくかつ迅速に接触事故を回避可能な衝突回避制御の実現が希求される。
例えば、撮像装置で得られた画像に含まれる対象物の輪郭を特徴ベクトルとし、予め準備された輪郭形状モデルとパターンマッチングすることで、歩行者の特定精度を高める技術が開示されている(例えば、特許文献2)。
特開2012−194864号公報 特開2008−45974号公報
上述したように衝突回避制御においては誤作動を回避しなければならない。したがって、対象物(歩行者)が撮像装置の検出領域内に入ってきても、その対象物の外観が歩行者の輪郭形状モデルと一致し、その対象物が歩行者であると特定されるまで長時間を要してしまう。
本発明は、このような課題に鑑み、歩行者を精度よくかつ迅速に検出することが可能な、車外環境認識装置を提供することを目的としている。
上記課題を解決するために、本発明の車外環境認識装置は、検出領域を撮像した画像における複数の対象部位の実空間における3次元位置を導出する3次元位置導出部と、3次元位置の差分が所定範囲内にある対象部位同士をグループ化して対象物を特定する対象物特定部と、対象物の位置に関する位置情報に基づく位置ポイントを導出する位置ポイント導出部と、対象物の外観に関する外観情報に基づく外観ポイントを導出する外観ポイント導出部と、外観ポイントが所定値以上であり、かつ、位置ポイントと外観ポイントとを加算した歩行者ポイントが予め定められた閾値以上である場合、対象物を歩行者と特定する歩行者特定部と、を備えることを特徴とする。
位置ポイントは、対象物の、進行横位置、速度、累積移動量から選択された1または複数のパラメータに基づいて導出されてもよい。
外観ポイントは、対象物の、高さ、縦横比、位置関係、部分性、人工性、輪郭一致度、警戒度から選択された1または複数のパラメータに基づいて導出されてもよい。
画像の輝度に基づくエッジから対象物の輪郭を特定する輪郭特定部と、対象物の輪郭の内外における画素の色調を比較し、その結果に応じて対象物を歩行者と特定する色調判定部と、をさらに備えてもよい。
上記課題を解決するために、本発明の他の車外環境認識装置は、検出領域を撮像した画像における複数の対象部位の実空間における3次元位置を導出する3次元位置導出部と、3次元位置の差分が所定範囲内にある対象部位同士をグループ化して対象物を特定する対象物特定部と、画像の輝度に基づくエッジから対象物の輪郭を特定する輪郭特定部と、対象物の輪郭の内外における画素の色調を比較し、その結果に応じて対象物を歩行者と特定する色調判定部と、を備えることを特徴とする。
本発明によれば、歩行者を精度よくかつ迅速に検出することが可能となる。
環境認識システムの接続関係を示したブロック図である。 車外環境認識装置の概略的な機能を示した機能ブロック図である。 輝度画像と距離画像を説明するための説明図である。 位置情報とフレーム位置ポイントとの関係を説明するための説明図である。 外観情報とフレーム外観ポイントとの関係を説明するための説明図である。 歩行者ポイントの生成例を示した説明図である。 歩行者判定の全体的な処理の流れを示したフローチャートである。 他の実施形態を説明するための説明図である。 色調判定部の動作を説明するための説明図である。
以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。かかる実施形態に示す寸法、材料、その他具体的な数値などは、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書および図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。
近年では、車両に搭載した車載カメラによって自車両の前方の道路環境を撮像し、画像内における色情報や位置情報に基づいて先行車両等の対象物を特定し、特定された対象物との衝突を回避したり、先行車両との車間距離を安全な距離に保つ(ACC:Adaptive Cruise Control)、所謂衝突防止機能を搭載した車両が普及しつつある。かかる衝突防止機能では、自車両前方の様々な障害物を特定し、それが静止している対象物であるか、それとも移動を伴った対象物であるかに応じて適切に回避制御を行っている。移動を伴う対象物としては、主として車両や歩行者が想定されるが、特に、歩行者は検出領域に様々な方向から突然出現する可能性があり、また、その絶対的な大きさも車両と比較して小さいので、特定が困難、または、特定に時間を要するという問題があった。
例えば、対象物の外観とパターンマッチングを行うことで対象物を歩行者と特定する技術を用いたとしても、歩行者であるとの誤認識による車両の誤作動を回避すべく、複数のフレームに亘って外観がマッチングしたことをもって歩行者と特定しなければならない。したがって、歩行者の特定には長時間が費やされることになる。そこで、本実施形態では、対象物の外観に関する外観情報のみならず、その位置に関する位置情報にも着目し、早期に歩行者らしさを判定することで、歩行者を精度よくかつ迅速に検出することを目的としている。以下、このような目的を達成するための環境認識システムを説明し、その具体的な構成要素である車外環境認識装置を詳述する。
(環境認識システム100)
図1は、環境認識システム100の接続関係を示したブロック図である。環境認識システム100は、自車両1内に設けられた、撮像装置110と、車外環境認識装置120と、車両制御装置(ECU:Engine Control Unit)130とを含んで構成される。
撮像装置110は、CCD(Charge-Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)等の撮像素子を含んで構成され、自車両1の前方に相当する環境を撮像し、3つの色相(R(赤)、G(緑)、B(青))からなるカラー画像やモノクロ画像を生成することができる。ここでは、撮像装置110で撮像されたカラー画像を輝度画像として採用し、後述する距離画像と区別する。
また、撮像装置110は、自車両1の進行方向側において2つの撮像装置110それぞれの光軸が略平行になるように、略水平方向に離隔して配置される。撮像装置110は、自車両1の前方の検出領域に存在する対象物を撮像した画像データを、例えば1/60秒のフレーム毎(60fps)に連続して生成する。ここで、認識する対象物は、車両、歩行者、信号機、道路(進行路)、ガードレール、建物といった独立して存在する立体物のみならず、テールランプやウィンカー、信号機の各点灯部分等、立体物の一部として特定できる物も含む。以下の実施形態における各機能部は、このような画像データの更新を契機としてフレーム毎に各処理を遂行する。
車外環境認識装置120は、2つの撮像装置110それぞれから画像データを取得し、所謂パターンマッチングを用いて視差を導き出し、導出された視差情報(後述する奥行距離に相当)を画像データに対応付けて距離画像を生成する。輝度画像および距離画像については後ほど詳述する。また、車外環境認識装置120は、輝度画像に基づく輝度、および、距離画像に基づく自車両1との奥行距離を用いて自車両1前方の検出領域における対象物がいずれの特定物に対応するかを特定する。
車外環境認識装置120は、特定物を特定すると、その特定物(例えば、先行車両)を追跡しつつ、特定物の相対速度等を導出し、特定物と自車両1とが衝突する可能性が高いか否かの判定を行う。ここで、衝突の可能性が高いと判定した場合、車外環境認識装置120は、その旨、運転者の前方に設置されたディスプレイ122を通じて運転者に警告表示(報知)を行うとともに、車両制御装置130に対して、その旨を示す情報を出力する。
車両制御装置130は、ステアリングホイール132、アクセルペダル134、ブレーキペダル136を通じて運転者の操作入力を受け付け、操舵機構142、駆動機構144、制動機構146に伝達することで自車両1を制御する。また、車両制御装置130は、車外環境認識装置120の指示に従い、駆動機構144、制動機構146を制御する。
以下、車外環境認識装置120の構成について詳述する。ここでは、本実施形態に特徴的な、対象物を歩行者と特定する手順について詳細に説明し、本実施形態の特徴と無関係の構成については説明を省略する。
(車外環境認識装置120)
図2は、車外環境認識装置120の概略的な機能を示した機能ブロック図である。図2に示すように、車外環境認識装置120は、I/F部150と、データ保持部152と、中央制御部154とを含んで構成される。
I/F部150は、撮像装置110や車両制御装置130との双方向の情報交換を行うためのインターフェースである。データ保持部152は、RAM、フラッシュメモリ、HDD等で構成され、以下に示す各機能部の処理に必要な様々な情報を保持し、また、撮像装置110から受信した画像データを一時的に保持する。
中央制御部154は、中央処理装置(CPU)、プログラム等が格納されたROM、ワークエリアとしてのRAM等を含む半導体集積回路で構成され、システムバス156を通じて、I/F部150、データ保持部152等を制御する。また、本実施形態において、中央制御部154は、画像処理部160、3次元位置導出部162、対象物特定部164、位置ポイント導出部166、外観ポイント導出部168、ポイント生成部170、歩行者特定部172、輪郭特定部174、色調判定部176としても機能する。以下、このような機能部について大凡の目的を踏まえ、画像処理、対象物特定処理、歩行者特定処理といった順に詳細な動作を説明する。
(画像処理)
画像処理部160は、2つの撮像装置110それぞれから画像データを取得し、一方の画像データから任意に抽出したブロック(例えば水平4画素×垂直4画素の配列)に対応するブロックを他方の画像データから検索する、所謂パターンマッチングを用いて視差を導き出す。ここで、「水平」は画面横方向を示し、「垂直」は画面縦方向を示す。
このパターンマッチングとしては、2つの画像データ間において、任意の画像位置を示すブロック単位で輝度(Y色差信号)を比較することが考えられる。例えば、輝度の差分をとるSAD(Sum of Absolute Difference)、差分を2乗して用いるSSD(Sum of Squared intensity Difference)や、各画素の輝度から平均値を引いた分散値の類似度をとるNCC(Normalized Cross Correlation)等の手法がある。画像処理部160は、このようなブロック単位の視差導出処理を検出領域(例えば水平600画素×垂直180画素)に映し出されている全てのブロックについて行う。ここでは、ブロックを水平4画素×垂直4画素としているが、ブロック内の画素数は任意に設定することができる。
ただし、画像処理部160では、検出分解能単位であるブロック毎に視差を導出することはできるが、そのブロックがどのような対象物の一部であるかを認識できない。したがって、視差情報は、対象物単位ではなく、検出領域における検出分解能単位(例えばブロック単位)で独立して導出されることとなる。ここでは、このようにして導出された視差情報(後述する奥行距離に相当)を画像データに対応付けた画像を距離画像という。
図3は、輝度画像210と距離画像212を説明するための説明図である。例えば、2つの撮像装置110を通じ、検出領域214について図3(a)のような輝度画像(画像データ)210が生成されたとする。ただし、ここでは、理解を容易にするため、撮像装置110それぞれが生成した2つの輝度画像210の一方のみを模式的に示している。本実施形態において、画像処理部160は、このような輝度画像210からブロック毎の視差を求め、図3(b)のような距離画像212を形成する。距離画像212における各ブロックには、そのブロックの視差が関連付けられている。ここでは、説明の便宜上、視差が導出されたブロックを黒のドットで表している。
図2に戻って説明すると、3次元位置導出部162は、画像処理部160で生成された距離画像212に基づいて検出領域214内のブロック毎の視差情報を、所謂ステレオ法を用いて、水平距離、高さおよび奥行距離を含む実空間における3次元の位置情報に変換する。ここで、ステレオ法は、三角測量法を用いることで、対象部位の距離画像212における視差からその対象部位の撮像装置110に対する奥行距離を導出する方法である。このとき、3次元位置導出部162は、対象部位の奥行距離と、対象部位と同奥行距離にある道路表面上の点と対象部位との距離画像212上の検出距離とに基づいて、対象部位の道路表面からの高さを導出する。そして、導出された3次元位置情報を改めて距離画像212に対応付ける。かかる奥行距離の導出処理や3次元位置の特定処理は、様々な公知技術を適用できるので、ここでは、その説明を省略する。
(対象物特定処理)
対象物特定部164は、距離画像212に基づく3次元の位置情報を用いて検出領域214における対象部位(画素やブロック)同士をグループ化して対象物を特定する。具体的に、対象物特定部164は、任意の対象部位を基点として、その対象部位と、水平距離の差分、高さの差分、および、奥行距離の差分が予め定められた所定範囲内にある他の対象部位をグループ化し、その対象部位も一体的な対象物とする。ここで、所定範囲は実空間上の距離で表され、任意の値(例えば、1.0m等)に設定することができる。また、対象物特定部164は、グループ化により新たに追加された対象部位に関しても、その対象部位を基点として、水平距離の差分、高さの差分、および、奥行距離の差分が所定範囲内にある他の対象部位をグループ化する。結果的に、距離が所定範囲内であれば、それら全ての対象部位が対象物としてグループ化されることとなる。
(歩行者特定処理)
続いて、対象物の位置や外観に基づいて、その対象物が歩行者であるか否か判定される。
位置ポイント導出部166は、対象物の位置に関する位置情報に基づいて位置ポイントを導出する。位置情報としては、例えば、対象物の、自車両1の進行路に垂直な方向の自車両1端部からの相対的な位置である進行横位置、速度、および、検出領域214に入ってからの移動量の累積を示す累積移動量がある。かかる速度および移動量は、対象物の移動方向を考慮しないスカラー量であってもよいし、移動方向を考慮して水平方向等、特定の方向の成分のみを対象としてもよい。そして、位置ポイント導出部166は、位置情報に応じたポイントを積算してフレーム単位のフレーム位置ポイントを導出する。
図4は、位置情報とフレーム位置ポイントとの関係を説明するための説明図である。図4(a)を参照すると、進行横位置が1m未満の場合3ポイント、1m以上3m未満の場合2ポイント、3m以上5m未満の場合1ポイント、5m以上の場合0ポイントとなる。図4(b)を参照すると、速度が1m/s未満の場合0ポイント、1m/s以上3m/s未満の場合1ポイント、3m/s以上5m/s未満の場合2ポイント、5m/s以上の場合3ポイントとなる。図4(c)を参照すると、累積移動量が0.5m未満の場合0ポイント、0.5m以上1.0m未満の場合1ポイント、1.0m以上1.5m未満の場合2ポイント、1.5m以上の場合3ポイントとなる。
続いて、位置ポイント導出部166は、図4(d)に示すように、積算されたフレーム位置ポイント(0〜9ポイント)に対応付けられたポイントを求め、前回のフレームで導出された位置ポイントに加算して、新たな位置ポイントを導出する。したがって、位置ポイントは、フレーム単位で±1ポイントのみ変動することとなる。
また、位置ポイントには上下限値が設けられ、本実施形態においては、例えば、下限値が0ポイント、上限値が5ポイントに設定される。このように、上下限値を設けることで、歩行者を検出していない期間や歩行者を検出している期間が長時間に亘ったとしてもポイントの絶対値が大きくなることがなく、歩行者の検出の有無が切り替わった場合に、迅速かつ的確に、その有無を判定することが可能となる。また、上限値を5ポイントとすることで、歩行者と判定される閾値(本実施形態では20ポイント)に位置ポイントのみで達成することを回避することができ、外観ポイントが有意な値(所定値以上)の場合にのみ歩行者を特定することが可能となる。かかる上下限値は、任意の値に設定できるのは言うまでもない。
外観ポイント導出部168は、対象物の外観に関する外観情報に基づいて外観ポイントを導出する。外観情報としては、例えば、対象物の、地面からの高さ、横に対する縦の割合である縦横比、検出領域214に対する位置関係、対象物が大きな物体の一部であるかを示す部分性、人工物らしさを示す人工性、輪郭の歩行者らしさを示す輪郭一致度、および、自動的なブレーキが必要な物体である可能性の高さ(正面にあるものほど、速度を持っているものほど、累積移動量が大きいほど高い)を示す警戒度がある。そして、外観ポイント導出部168は、外観情報に応じたポイントを積算してフレーム単位のフレーム外観ポイントを導出する。
図5は、外観情報とフレーム外観ポイントとの関係を説明するための説明図である。図5(a)を参照すると、高さが0.8m未満の場合0ポイント、0.8m以上1.2m未満の場合8ポイント、1.2m以上2.0m未満の場合10ポイント、2.0m以上2.2m未満の場合5ポイント、2.2m以上の場合0ポイントとなる。図5(b)を参照すると、縦横比が100%未満の場合0ポイント、100%以上150%未満の場合5ポイント、150%以上300%未満の場合10ポイント、300%以上400%未満の場合8ポイント、400%以上の場合0ポイントとなる。図5(c)を参照すると、位置関係が検出領域214から完全にはみ出している場合0ポイント、はみ出している可能性がある場合5ポイント、検出領域214に含まれる場合10ポイントとなる。
また、図5(d)を参照すると、部分性が確実に大きな物体の一部であると判断できる場合0ポイント、大きな物体の一部である可能性がある場合5ポイント、大きな物体の一部ではないと判断できる場合10ポイントとなる。図5(e)を参照すると、人工性が人工物であると判断できる場合0ポイント、人工物の可能性がある場合5ポイント、人工物ではないと判断できる場合10ポイントとなる。また、図示は省略するが、輪郭一致度は、モデルパターンとのマッチングによる相関性に基づいて0〜50ポイントの間で決定される。
続いて、外観ポイント導出部168は、積算されたポイントを合計したフレーム外観ポイント(0〜100ポイント)に対して、図5(f)に示すように警戒度に応じた係数を乗じる。そして、外観ポイント導出部168は、図5(g)に示すように、フレーム外観ポイントに対応付けられたポイントを求め、前回のフレームで導出された外観ポイントに加算して、新たな外観ポイントを導出する。したがって、外観ポイントは、フレーム単位で−4〜+8の幅で変動することとなる。このようなフレーム外観ポイントや外観ポイント、および、上述したフレーム位置ポイントや位置ポイントの判定に係る数値は任意に設定することができる。
ポイント生成部170は、位置ポイント導出部166が導出した位置ポイントと、外観ポイント導出部168が導出した外観ポイントとを加算して歩行者ポイントを生成する。
歩行者特定部172は、ポイント生成部170が生成した歩行者ポイントと予め定められた閾値(ここでは20ポイント)とを比較し、歩行者ポイントが閾値以上である場合、対象物を歩行者と特定する。このように、外観ポイントのみならず、位置情報に基づいて生成される位置ポイントも導出して歩行者ポイントに加えることで、外観が歩行者と判定される前から、対象物の位置に関して歩行者らしさを判定することができる。したがって、自車両1前方に歩行者が存在する場合に、比較的早期に歩行者ポイントを閾値に達成させることができ、歩行者を精度よくかつ迅速に検出することが可能となる。
ただし、歩行者特定部172は、外観ポイントが有意な値(ここでは1ポイント以上)でなければ、仮に位置ポイントのみによる歩行者ポイントが閾値以上であったとしても対象物を歩行者と特定しない。位置ポイントは、あくまで外観ポイントの補助的な役を担い、外観ポイントが有意な値の場合のみ、位置ポイントも参照している。こうして、外観は歩行者と判定できないが、意図せず位置ポイントのみで対象物を歩行者であると誤認識してしまう事態を回避することができる。本実施形態では、位置ポイントに閾値未満の上限値を設けることで、位置情報が歩行者と判定されるポイントを示す時間の長短に拘わらず、位置ポイントのみで歩行者ポイントが閾値に達することを回避している。
図6は、歩行者ポイントの生成例を示した説明図であり、図6(a)に従来の処理を、図6(b)に本実施形態の処理を示している。図6(a)、(b)の時点1では、対象物の位置情報としては歩行者として判定できるものの、まだ、外観情報が歩行者として判定できない。したがって、対象物の外観のみによって歩行者か否か判定する従来の処理では、図6(a)の時点1での歩行者ポイントは0ポイントとなる。一方、本実施形態では、位置情報が歩行者として判定できれば、位置ポイントが積算されるので、図6(b)の時点1においても歩行者ポイントが既に上限値の5ポイントとなっている場合もある。
そして、時点2では外観ポイントが8ポイントとなり、時点3で外観ポイントが16ポイントとなる場合、従来の処理では、図6(a)の時点3に示すように、歩行者ポイントが16ポイントであり、閾値(ここでは20ポイント)に達していないので、最終的に外観ポイントのみで閾値に達する時点4において、自車両1の具体的な対応、例えば、車両の停止処理が為される。一方、本実施形態では、位置ポイントと外観ポイントとが加算された歩行者ポイントで判定するので、図6(b)の時点2で歩行者ポイントは13ポイントとなり、時点3では、歩行者ポイントが21ポイントとなる。したがって、閾値に達した時点3において、自車両1の停止処理を遂行することができ、図6(a)と比較して、自車両1が車外環境に早期に対応できることが理解できる。
図7は、歩行者判定の全体的な処理の流れを示したフローチャートである。かかる歩行者判定処理は、検出領域214に含まれるようになった対象物毎にフレーム単位で実行される。
図7に示すように、まず、位置ポイント導出部166は、対象物の高さおよび幅が歩行者として判定できる範囲に含まれるか否か判定する(S200)。その結果、判定できる範囲に含まれていれば(S200におけるYES)、位置ポイントを導出する(S202)。かかる位置ポイントの導出処理では、位置ポイント導出部166が、図4に示した、進行横位置、速度、累積移動量それぞれに対応したポイントを積算してフレーム位置ポイントを導出し、さらに、導出されたフレーム位置ポイントに対応付けられたポイントを求め、前回のフレームで導出された位置ポイントに加算し、新たな位置ポイントを導出している。
続いて、外観ポイント導出部168は、対象物の輪郭を把握できるか否か判定する(S204)。その結果、輪郭を把握できる場合(S204におけるYES)、外観ポイントを導出する(S206)。かかる外観ポイントの導出処理では、外観ポイント導出部168が、図5を用いて説明した、高さ、縦横比、位置関係、部分性、人工性、輪郭一致度、警戒度それぞれに対応したポイントを積算してフレーム外観ポイントを導出し、さらに、導出されたフレーム外観ポイントに対応付けられたポイントを求め、前回のフレームで導出された外観ポイントに加算し、新たな外観ポイントを導出している。
続いて、ポイント生成部170は、位置ポイント導出部166が導出した位置ポイントと、外観ポイント導出部168が導出した外観ポイントとを加算して歩行者ポイントを生成する(S208)。そして、歩行者特定部172は、その歩行者ポイントが閾値以上であるか否か判定する(S210)。その結果、歩行者ポイントが閾値以上であれば(S210におけるYES)、その対象物を歩行者と判定し(S212)、当該歩行者判定処理を終了する。また、歩行者ポイントが閾値未満であれば(S210におけるNO)、その対象物が検出領域214から外れたか否か判定する(S214)。その結果、検出領域214から外れていれば(S214におけるYES)、当該歩行者判定処理を終了する。
また、対象物の高さおよび幅が歩行者として判定できる範囲に含まれない(S200におけるNO)、対象物の輪郭を把握できない(S204におけるNO)、または、対象物が検出領域214から外れていない(S214におけるNO)場合、まだ、歩行者と判定する可能性があるとして、ステップS200からの処理を繰り返す。
(他の実施形態)
上述した実施形態に代えて、また、加えて、他の実施形態により歩行者を判定することもできる。
図8は、他の実施形態を説明するための説明図である。歩行者は、様々な色調や模様の服装を様々な態様で着用している。また、歩行者によっては肌の色や髪の色等も異なる場合がある。したがって、図8(a)に示すように、歩行者とそれ以外の領域(背景)とは歩行者の輪郭を境に色調が異なることが多くなる。一方、図8(b)に太線で示すように、車両等の一部を歩行者として誤認識する場合がある。しかし、車両は、比較的少ない色調で表されることが多く、また、一部が歩行者として認識されることがあるものの、その側方には図8(b)の如く、同一の車両の他の部位が存在し、対象物とそれ以外の領域、特に水平方向の領域とは対象物の輪郭を境にして色調が等しくなることが多い。ここでは、このように歩行者とそれ以外の領域とでは色調が異なり易い特性に着目して、歩行者の判定精度を高める。
輪郭特定部174は、輝度画像210の輝度に基づくエッジから対象物の輪郭を特定する。色調判定部176は、対象物の輪郭の内外における色調(R、G、B)を比較し、その結果に応じて対象物を歩行者と特定する。ここでは、輝度情報を利用せず、例えば、明るい青と暗い青の差が出にくくなるように色調のみを比較対象とする。
図9は、色調判定部176の動作を説明するための説明図である。具体的に、まず、色調判定部176は、図9(a)に示すように、対象物2について、水平方向の中央(重心)を示す垂直方向に延伸する中心線300を導出する。そして、色調判定部176は、中心線300の各画素の水平方向、かつ、太線で示した輪郭302に含まれる画素で構成される左右2つの代表輪郭画素を特定する。したがって、代表輪郭画素は、中心線300の画素の左右に、それぞれ中心線300の画素と同数存在することとなる。
続いて、色調判定部176は、図9(b)に両矢印で示したように、左右の代表輪郭画素から中心線300までの水平方向の画素の色調を積算、除算して、色調の平均値を導出し、その平均値を左右の代表輪郭画素に関連付ける。次に、色調判定部176は、図9(c)のように、代表輪郭画素から輪郭外に対して水平方向の画素の色調の平均値を導出する。このとき、色調の平均値の導出対象となる画素数は、図9(c)に示すように、その代表輪郭画素から中心線300までの画素数となる。こうして、等しい条件(画素数)で輪郭内外の色調の平均値を導出することができる。
次に、色調判定部176は、代表輪郭画素それぞれについて輪郭内外の色調の平均値を比較し、その差分が予め定められた閾値以上となる代表輪郭画素の数を積算する。ここで、色調の比較は、R、G、Bそれぞれの差分の合計値によって行われてもよい。そして、その積算値と代表輪郭画素の総数とを比較し、積算値が総数の所定比率(ここでは50%)以上であれば、その対象物を歩行者として特定する。本実施形態では実験の結果、歩行者と判定するのに適している所定%を50%としたが、かかる数値に限らず、車外環境や歩行者の態様に応じて任意に設定することができる。
ただし、当該他の実施形態による歩行者判定は、あくまで、上述した歩行者ポイントによる歩行者判定の補助的な役割を担い、歩行者ポイントによる歩行者の判定をより確実かつ迅速に行う場合に、確認的に利用されるのが効果的である。
以上、説明したように、本実施形態では、まだ、外観上歩行者と判定できない時点から、予め位置情報に基づいて対象物を歩行者判定することで、歩行者を精度よくかつ迅速に検出することができる。また、さらに、対象物の輪郭内外の色調によって歩行者らしさを判定することで、歩行者の判定精度をさらに高めることが可能となる。
また、コンピュータを、車外環境認識装置120として機能させるプログラムや当該プログラムを記録した、コンピュータで読み取り可能なフレキシブルディスク、光磁気ディスク、ROM、CD、DVD、BD等の記憶媒体も提供される。ここで、プログラムは、任意の言語や記述方法にて記述されたデータ処理手段をいう。
以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明はかかる実施形態に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。
なお、本明細書の歩行者判定処理の各工程は、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいはサブルーチンによる処理を含んでもよい。
本発明は、検出領域に存在する対象物がいずれの特定物に対応するかを特定する車外環境認識装置に利用することができる。
162 3次元位置導出部
164 対象物特定部
166 位置ポイント導出部
168 外観ポイント導出部
172 歩行者特定部
174 輪郭特定部
176 色調判定部

Claims (5)

  1. 検出領域を撮像した画像における複数の対象部位の実空間における3次元位置を導出する3次元位置導出部と、
    前記3次元位置の差分が所定範囲内にある対象部位同士をグループ化して対象物を特定する対象物特定部と、
    前記対象物の位置に関する位置情報に基づく位置ポイントを導出する位置ポイント導出部と、
    前記対象物の外観に関する外観情報に基づく外観ポイントを導出する外観ポイント導出部と、
    前記外観ポイントが所定値以上であり、かつ、前記位置ポイントと前記外観ポイントとを加算した歩行者ポイントが予め定められた閾値以上である場合、前記対象物を歩行者と特定する歩行者特定部と、
    を備えることを特徴とする車外環境認識装置。
  2. 前記位置ポイントは、前記対象物の、進行横位置、速度、累積移動量から選択された1または複数のパラメータに基づいて導出されることを特徴とする請求項に記載の車外環境認識装置。
  3. 前記外観ポイントは、前記対象物の、高さ、縦横比、位置関係、部分性、人工性、輪郭一致度、警戒度から選択された1または複数のパラメータに基づいて導出されることを特徴とする請求項1または2に記載の車外環境認識装置。
  4. 前記画像の輝度に基づくエッジから前記対象物の輪郭を特定する輪郭特定部と、
    前記対象物の輪郭の内外における画素の色調を比較し、その結果に応じて該対象物を歩行者と特定する色調判定部と、
    をさらに備えることを特徴とする請求項1からのいずれか1項に記載の車外環境認識装置。
  5. 検出領域を撮像した画像における複数の対象部位の実空間における3次元位置を導出する3次元位置導出部と、
    前記3次元位置の差分が所定範囲内にある対象部位同士をグループ化して対象物を特定する対象物特定部と、
    前記画像の輝度に基づくエッジから前記対象物の輪郭を特定する輪郭特定部と、
    前記対象物の輪郭の内外における画素の色調を比較し、その結果に応じて該対象物を歩行者と特定する色調判定部と、
    を備えることを特徴とする車外環境認識装置。
JP2013202627A 2013-09-27 2013-09-27 車外環境認識装置 Active JP5886809B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2013202627A JP5886809B2 (ja) 2013-09-27 2013-09-27 車外環境認識装置
DE102014112797.8A DE102014112797A1 (de) 2013-09-27 2014-09-05 Fahrzeugaußenumgebungerkennungsvorrichtung
US14/478,928 US9280900B2 (en) 2013-09-27 2014-09-05 Vehicle external environment recognition device
CN201410488153.5A CN104517118B (zh) 2013-09-27 2014-09-22 车外环境识别装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013202627A JP5886809B2 (ja) 2013-09-27 2013-09-27 車外環境認識装置

Publications (2)

Publication Number Publication Date
JP2015069379A JP2015069379A (ja) 2015-04-13
JP5886809B2 true JP5886809B2 (ja) 2016-03-16

Family

ID=52673269

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013202627A Active JP5886809B2 (ja) 2013-09-27 2013-09-27 車外環境認識装置

Country Status (4)

Country Link
US (1) US9280900B2 (ja)
JP (1) JP5886809B2 (ja)
CN (1) CN104517118B (ja)
DE (1) DE102014112797A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016206774A (ja) * 2015-04-17 2016-12-08 トヨタ自動車株式会社 立体物検出装置及び立体物検出方法
JP6384400B2 (ja) * 2015-05-18 2018-09-05 株式会社デンソー 衝突回避装置
US20170015245A1 (en) * 2015-07-16 2017-01-19 Hon Hai Precision Industry Co., Ltd. Vehicle warning system and method of same
JP6299720B2 (ja) * 2015-10-02 2018-03-28 トヨタ自動車株式会社 物体認識装置及び煙判定方法
US10445612B2 (en) * 2015-10-26 2019-10-15 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
JP6791645B2 (ja) * 2016-03-29 2020-11-25 本田技研工業株式会社 光通信装置、光通信システム、および光通信方法
JP2018101212A (ja) * 2016-12-19 2018-06-28 矢崎総業株式会社 車載器および顔正面度算出方法
DE112017006840B4 (de) * 2017-01-16 2023-11-02 Fujitsu Limited Informationsverarbeitungsprogramm, Informationsverarbeitungsverfahren und Informationsverarbeitungsvorrichtung
JP6764378B2 (ja) * 2017-07-26 2020-09-30 株式会社Subaru 車外環境認識装置
JP6653300B2 (ja) * 2017-09-15 2020-02-26 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
CN108881849B (zh) * 2018-07-20 2020-11-20 合肥云联电子科技有限公司 一种用于视频监控的智能辅助系统
US11222218B2 (en) * 2019-03-11 2022-01-11 Subaru Corporation Vehicle exterior environment detection apparatus
US11341621B2 (en) * 2020-03-04 2022-05-24 GM Global Technology Operations LLC Enhanced imaging system for a motor vehicle
CN113673282A (zh) * 2020-05-14 2021-11-19 华为技术有限公司 目标检测方法和装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05265547A (ja) * 1992-03-23 1993-10-15 Fuji Heavy Ind Ltd 車輌用車外監視装置
JP2940366B2 (ja) * 1993-12-07 1999-08-25 住友電気工業株式会社 対象物の追従認識装置
EP1202214A3 (en) * 2000-10-31 2005-02-23 Matsushita Electric Industrial Co., Ltd. Method and apparatus for object recognition
JP2005132170A (ja) * 2003-10-29 2005-05-26 Mitsubishi Motors Corp 駐車支援装置
DE102004018813A1 (de) * 2004-04-19 2006-02-23 Ibeo Automobile Sensor Gmbh Verfahren zur Erkennung und/oder Verfolgung von Objekten
JP5127182B2 (ja) 2006-08-14 2013-01-23 富士重工業株式会社 物体検出装置
WO2008053433A2 (en) * 2006-11-02 2008-05-08 Koninklijke Philips Electronics N.V. Hand gesture recognition by scanning line-wise hand images and by extracting contour extreme points
JP4937844B2 (ja) * 2007-06-12 2012-05-23 富士重工業株式会社 歩行者検出装置
JP5171723B2 (ja) * 2009-04-27 2013-03-27 アルプス電気株式会社 障害物検知装置、および当該装置を搭載した車両
US8861842B2 (en) * 2010-02-05 2014-10-14 Sri International Method and apparatus for real-time pedestrian detection for urban driving
CN102741884B (zh) * 2010-07-27 2016-06-08 松下知识产权经营株式会社 移动体检测装置及移动体检测方法
JP2012053663A (ja) * 2010-09-01 2012-03-15 Honda Motor Co Ltd 物体種別判定装置
JP2012194864A (ja) 2011-03-17 2012-10-11 Toyota Motor Corp 衝突回避装置及び衝突回避方法
CN103198332B (zh) * 2012-12-14 2016-08-03 华南理工大学 一种实时鲁棒的远红外车载行人检测方法
US9070023B2 (en) * 2013-09-23 2015-06-30 Toyota Motor Engineering & Manufacturing North America, Inc. System and method of alerting a driver that visual perception of pedestrian may be difficult

Also Published As

Publication number Publication date
US20150091715A1 (en) 2015-04-02
CN104517118B (zh) 2017-05-03
JP2015069379A (ja) 2015-04-13
CN104517118A (zh) 2015-04-15
US9280900B2 (en) 2016-03-08
DE102014112797A1 (de) 2015-04-02

Similar Documents

Publication Publication Date Title
JP5886809B2 (ja) 車外環境認識装置
JP5906224B2 (ja) 車外環境認識装置
JP6132412B2 (ja) 車外環境認識装置
JP6236039B2 (ja) 車外環境認識装置
JP6420650B2 (ja) 車外環境認識装置
JP6722084B2 (ja) 物体検出装置
JP5955291B2 (ja) フィルタリング装置および環境認識システム
JP2015170240A (ja) 車外環境認識装置
JP6591188B2 (ja) 車外環境認識装置
JP6564218B2 (ja) 車外環境認識装置
JP6240475B2 (ja) 車外環境認識装置
JP7229032B2 (ja) 車外物体検出装置
JP6174960B2 (ja) 車外環境認識装置
JP6254866B2 (ja) 車両制御装置
JP6378547B2 (ja) 車外環境認識装置
JP6378594B2 (ja) 車外環境認識装置
JP6335065B2 (ja) 車外環境認識装置
JP6270624B2 (ja) 車外環境認識装置
JP6273156B2 (ja) 歩行者認識装置
JP6523694B2 (ja) 車外環境認識装置
JP5890816B2 (ja) フィルタリング装置および環境認識システム
JP6254870B2 (ja) 車外環境認識装置
JP6313667B2 (ja) 車外環境認識装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150512

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150709

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160212

R150 Certificate of patent or registration of utility model

Ref document number: 5886809

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250