JP2007156626A - 物体種別判定装置及び物体種別判定方法 - Google Patents
物体種別判定装置及び物体種別判定方法 Download PDFInfo
- Publication number
- JP2007156626A JP2007156626A JP2005348059A JP2005348059A JP2007156626A JP 2007156626 A JP2007156626 A JP 2007156626A JP 2005348059 A JP2005348059 A JP 2005348059A JP 2005348059 A JP2005348059 A JP 2005348059A JP 2007156626 A JP2007156626 A JP 2007156626A
- Authority
- JP
- Japan
- Prior art keywords
- edge
- processing target
- camera
- target area
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
【課題】斜めの線や曲線を多く含む物体の判定を可能にし、カメラで撮影された画像に現れる物体の種別を精度良く判定できるようにする。
【解決手段】カメラ1で撮影した画像を画像処理装置2に取り込み、各種の画像処理を行なってカメラ1の撮影画像に現れる物体の種別を判定する。このとき、画像処理装置2は、領域特定部11により、カメラ1の撮影画像において物体が存在する領域である慮域を処理対象領域として特定し、エッジ成分解析部12により、この処理対象領域内の各エッジ成分のエッジ方向やエッジ強度を求め、判定部13により、これら処理対象領域内の各エッジ成分のエッジ方向やエッジ強度の分布といった情報を用いて、この処理対象領域に存在する物体の種別を判定する。
【選択図】図1
【解決手段】カメラ1で撮影した画像を画像処理装置2に取り込み、各種の画像処理を行なってカメラ1の撮影画像に現れる物体の種別を判定する。このとき、画像処理装置2は、領域特定部11により、カメラ1の撮影画像において物体が存在する領域である慮域を処理対象領域として特定し、エッジ成分解析部12により、この処理対象領域内の各エッジ成分のエッジ方向やエッジ強度を求め、判定部13により、これら処理対象領域内の各エッジ成分のエッジ方向やエッジ強度の分布といった情報を用いて、この処理対象領域に存在する物体の種別を判定する。
【選択図】図1
Description
本発明は、カメラで撮影された車両周囲の画像を処理して、当該画像に現れる物体の種別を判定する物体種別判定装置及び物体種別判定方法に関する。
近年、車両が走行する道路上及びその周囲の物体を認識し、その認識結果に応じて車両のブレーキやアクセル、ステアリング等を自動制御する運転支援システムの研究開発が盛んに進められている。このような運転支援システムでは、車両の自動制御を適切に行う上で、車両周囲に存在する物体の種別を的確に判定することが非常に重要であり、従来、このような物体の種別を判定する装置として、車両周囲の様子をカメラで撮影し、このカメラで撮影された画像を処理して、当該画像に現れる物体の種別を判定する物体種別判定装置が知られている。
例えば、特許文献1には、カメラで撮影された車両周囲の画像に対して一般的なエッジ検出処理を行って水平方向のエッジと垂直方向のエッジとを検出し、これら水平方向のエッジと垂直方向のエッジのヒストグラムを用いて、カメラで撮影された画像に現れる物体が車両であるか否かを判定する技術が開示されている。具体的には、この特許文献1にて開示される技術では、カメラで撮影された車両周囲の画像の中で物体が存在すると推定される領域を特定し、この領域内における水平方向のエッジ及び垂直方向のエッジのヒストグラムとレーザレーダによる検知点の分布を融合して融合パターンを求めるようにしている。また、車両を映した複数のサンプル画像に対応した辞書パターンを予め作成し、データベースに格納しておくようにしている。そして、実際にカメラで撮影された画像から求めた融合パターンと、データベースに格納されている辞書パターンとを照合して、その一致度から、カメラで撮影された画像に現れる物体が車両であるか否かを判定するようにしている。
特開2003−99762号公報
しかしながら、特許文献1にて開示される従来の技術では、水平方向のエッジと垂直方向のエッジのみに着目して融合パターンや辞書パターンを作成しており、斜め向きのエッジやエッジの向きのランダムさなどは考慮されていないため、車両のような箱型の物体の判定には適用できるが、斜めの線や曲線を多く含む物体の判定には適用が難しいという問題がある。
本発明は、以上のような従来の技術が有する問題点を解決すべく創案されたものであって、斜めの線や曲線を多く含む物体の判定を可能にし、カメラで撮影された画像に現れる物体の種別を精度良く判定できるようにした物体種別判定装置及び物体種別判定方法を提供することを目的としている。
本発明は、前記目的を達成するために、カメラの撮影画像内の物体が存在する領域を処理対象領域として特定して、この処理対象領域内の全ての画素毎または処理対象領域内の複数の代表画素毎に、当該画素とその周辺画素とで形成されるエッジ成分のエッジ方向とエッジ強度とを求め、これら処理対象領域内の各エッジ成分のエッジ方向とエッジ強度との少なくとも何れかの分布をもとに、処理対象領域に存在する物体の種別を判定するようにした。ここで、エッジ成分とは、処理対象領域内における画素がその周辺画素とともに形成する細かなエッジを意味し、エッジ方向とは、その細かなエッジが向いている方向(角度)を意味し、エッジ強度とは、その方向のエッジ成分が存在することの確からしさを意味する。
本発明によれば、処理対象領域内の各エッジ成分のエッジ方向やエッジ強度といった情報を用いて、この処理対象領域に存在する物体の種別を判定するようにしているので、カメラで撮影された画像に現れる物体が斜めの線や曲線を多く含む物体であっても、その物体の種別を精度良く判定することができる。
以下、本発明の具体的な実施形態について、図面を参照しながら詳細に説明する。
[第1の実施形態]
まず、本発明の第1の実施形態について説明する。本実施形態の物体種別判定装置は、車両前方に存在する物体を検出してその種別を判定するものであり、図1に示すように、カメラ1と画像処理装置2とを備えて構成される。
まず、本発明の第1の実施形態について説明する。本実施形態の物体種別判定装置は、車両前方に存在する物体を検出してその種別を判定するものであり、図1に示すように、カメラ1と画像処理装置2とを備えて構成される。
カメラ1は、車両に搭載されて車両前方の画像を撮影するものであり、例えば、車両前方の画像を赤外画像として撮影する赤外線カメラや、CCDやCMOSセンサなどを撮像素子として用いた輝度カメラ等が用いられる。このカメラ1は画像処理装置2に接続されており、カメラ1で撮影された車両前方の画像は、映像信号として画像処理装置2に入力される。
カメラ1は、例えば図2(a)及び図2(b)に示すように、撮像軸が路面と平行となり、撮像面が路面と垂直となるよう、車両100の前方に向けて車両100に取り付けられている。ただし、車両100に対するカメラ1の取り付けはこの例に限定されるものではなく、向きや取り付け位置を任意に設定することが可能である。なお、図2(a)及び図2(b)では、カメラ1で画像を撮影する際の基準座標系についても模式的に図示している。この基準座標系においては、カメラ1の撮像軸をZw軸とし、路面に鉛直な方向の軸をYw軸とし、Zw軸及びYw軸に直行する方向の軸をXw軸としている。
画像処理装置2は、カメラ1で撮影されて映像信号として入力された車両前方の画像を画像メモリに格納し、この画像メモリに格納したカメラ1の撮影画像に対して各種画像処理を行って、当該画像に映し出された物体の種別を判定するものであり、例えば、各種の電気・電子素子によって構成された映像処理回路や、半導体チップによって構成されたデジタル画像処理回路などによって構成されている。なお、カメラ1の撮影画像が格納される画像メモリは、画像処理装置2内部に設けられていてもよいし、画像処理装置2とは別体に設けられていてもよい。この画像メモリには、カメラ1によって新たな画像が撮影される毎に、すでに格納している画像に代えて新たな画像が逐次更新されながら格納される。
画像処理装置2は、アナログ映像信号、或いはアナログ映像信号をデジタル処理した画像データに対して各種の演算処理を行うことにより、各種画像処理を行う機能を有しており、特に本発明に関わる機能として、図1に示すように、領域特定部11としての機能と、エッジ成分解析部12としての機能と、判定部13としての機能とを有している。
領域特定部11は、画像メモリに格納されたカメラ1の撮影画像内において、物体が存在する領域を処理対象領域として特定する処理を行うものである。また、エッジ成分解析部12は、領域特定部11で特定された処理対象領域内に現れる細かなエッジであるエッジ成分のエッジ方向とエッジ強度とを求める処理を行うものである。また、判定部13は、エッジ成分解析部12によって求められた処理対象領域内の各エッジ成分のエッジ方向とエッジ強度との少なくとも何れかの分布をもとに、処理対象領域内に含まれる物体の種別を判定するものである。なお、画像処理装置2のこれら各部で実施される処理の具体的な内容については、詳細を後述する。
図3及び図4は、本実施形態の物体種別判定装置において、カメラ1と判定対象となる物体との位置関係に応じて、カメラ1の撮影画像内で物体がどのような位置に写るかを説明する図である。図3(a)は、車両前方に歩行者200が存在するシーンで、カメラ1と判定対象となる歩行者200との位置関係を、カメラ1が搭載された車両の側面側からみた状態を示す模式図であり、図3(b)は、このような位置関係でカメラ1により撮影される画像の一例である。また、図4(a)は、カメラ1と判定対象となる歩行者200との位置関係を、カメラ1が搭載された車両の上方からみた状態を示す模式図であり、図4(b)は、このような位置関係でカメラ1により撮影された画像の一例である。なお、カメラ1により撮像される画像内の位置を示す座標系は、画像の左上を原点として、横方向にX座標、縦方向にY座標をとるものとする。
これら図3及び図4に示すように、カメラ1の撮影画像内における歩行者200の位置は、カメラ1と歩行者200との位置関係により決定され、例えば図3に示すように、カメラ1の撮影画像に現れる歩行者200の下端位置のY座標(yb)は、カメラ1の原点(カメラレンズ中心)の高さHと、カメラ1の原点を地面に投影した位置から歩行者200までの距離zと、カメラ1の焦点距離fとから決定される。また、例えば図4に示すように、カメラ1の撮影画像に現れる歩行者200の位置のX座標(xc)は、カメラ1の撮像軸から歩行者200までの距離xsと、カメラ1の原点を地面に投影した位置から歩行者200までの距離zと、カメラ1の焦点距離fとから決定される。
次に、本実施形態の物体種別判定装置において、画像処理装置2で実施される一連の処理について、図5に示すフローチャートを参照しながら説明する。
画像処理装置2は、図5に示すように、カメラ1の撮影画像が映像信号として入力されると、まず、ステップS1において、この画像を所定の分解能で画像メモリに格納する。そして、ステップS2において、領域特定部11による処理として、画像メモリに格納されたカメラ1の撮影画像において、物体が存在する領域である処理対象領域を特定する処理を行う。
具体的には、例えば、ある物体のモデルを定義して物体検出用のテンプレートを用意し、そのテンプレートとの類似性からカメラ1の撮影画像に現れる物体を検出して、その領域を処理対象領域として特定するといった手法や、Hough変換などの直線を検出する技術を利用してカメラ1の撮影画像の中で直線が多く存在する領域を求め、その領域を処理対象領域として特定するといった手法、色情報を用いてカメラ1の撮影画像における色領域を求め、その領域を処理対象領域として特定するといった手法、オプティカルフローを求めて、同じ動き(フロー)が集中している部分を処理対象領域として特定するといった手法など、一般的によく利用される画像処理手法を用いてカメラ1の撮影画像における処理対象領域を特定すればよい。また、その他、例えば、特開2004−235711号公報、或いは特開平11−345336号公報などで提案されている手法を用いるようにしてもよい。
図6は、車両前方に歩行者200と先行車両300とが存在するシーンで、カメラ1により撮影された車両前方の画像を画像処理装置2で処理して、カメラ1の撮影画像における歩行者200が存在する領域と先行車両300が存在する領域とを、それぞれ処理対象領域として特定した様子を示す図である。この図6に示す例では、カメラ1の撮影画像において、座標(xc0,yc0)を始点とし、縦横の幅をwc0,hc0とする矩形領域Aと、座標(xc1,yc1)を始点とし、縦横の幅をwc1,hc1とする矩形領域Bとが、それぞれ処理対象領域として特定されている。
次に、画像処理装置2は、ステップS3において、エッジ成分解析部12による処理として、ステップS2で特定した処理対象領域内の各エッジ成分のエッジ方向とエッジ強度とを求める処理を行う。
ここで、処理対象領域内の各エッジ成分のエッジ方向及びエッジ強度は、例えば図7に示すような、3×3画素、或いは5×5画素程度のエッジ検出用フィルタを用いて、このエッジ検出用フィルタとのコンボリューションにより求めることができる。具体的には、例えば図7(a)及び図7(b)に示すような垂直方向(Y軸に沿った方向)のエッジ検出用フィルタ、図7(c)及び図7(d)に示すような水平方向(X軸に沿った方向)のエッジ検出用フィルタ、図7(e)及び図7(f)に示すような左斜め方向のエッジ検出用フィルタ、図7(g)及び図7(h)に示すような右斜め方向のエッジ検出用フィルタといったように、複数のエッジ方向毎に定義された複数のエッジ検出用フィルタを用い、処理対象領域内のある画素とこれに隣接する周辺画素とで形成されるエッジ成分に各エッジ検出用フィルタを適用して、いずれのエッジ検出用フィルタとの間で最も相関が高いかにより、エッジ成分のエッジ方向を求めることができ、そのエッジ検出用フィルタとの相関の度合いからエッジ成分のエッジ強度を求めることができる。なお、各エッジ検出用フィルタは、例えばソーベルフィルタのように、フィルタ内部の値の和が0になるように設定されるものとする。
ここで、垂直方向のエッジ成分を例に挙げて、このエッジ成分のエッジ方向とエッジ強度とを求める処理を、図8を用いて具体的に説明する。なお、ここでは、説明を分かりやすくするために、左右に単純な形状の黒い壁が存在する領域を処理対象領域とし、この処理対象領域内のP1,P2,P3の各位置にエッジ検出用フィルタを適用して、これらの各位置のエッジ成分のエッジ方向とエッジ強度とを求めるものとする。この図8に示す例において、左側の壁の奥行き方向の端部に位置するP1,P2のエッジ成分は、画像上の右側が白、左側が黒の垂直方向のエッジ成分である。これらのエッジ成分のエッジ方向とエッジ強度とを求める際に、例えばP1の位置に図7(a)に示すような右側が白画素で左側が黒画素の垂直方向のエッジ検出用フィルタ(270°のフィルタ)を適用すると、そのエッジ検出用フィルタと位置P1におけるエッジ成分との正規化相関の値は、値が似ているために高くなる。一方、例えばP2の位置に水平方向のエッジ検出用フィルタ(0°のフィルタ或いは180°のフィルタ)を適用すると、そのエッジ検出用フィルタと位置P2におけるエッジ成分との正規化相関の値は0に近くなる。また、右側の壁の奥行き方向の端部に位置するP3のエッジ成分は、画像上の右側が黒、左側が白の垂直方向のエッジ成分であるが、このエッジ成分のエッジ方向とエッジ強度とを求める際に、図7(a)に示すような右側が白画素で左側が黒画素の垂直方向のエッジ検出用フィルタ(270°のフィルタ)を適用すると、そのエッジ検出用フィルタと位置P3におけるエッジ成分との正規化相関の値は−1に近くなる。
以上のようなエッジ成分とエッジ検出用フィルタとの関係は、垂直方向のエッジ成分に限らず、水平方向のエッジ成分、斜め方向のエッジ成分についても、同様に当てはまるものである。すなわち、処理対象領域内の各エッジ成分のエッジ方向は、当該エッジ成分が存在する位置に各方向のエッジ検出用フィルタを適用したときに、正規化相関の値として最も高い値が得られたエッジ検出用フィルタの示す方向が、当該エッジ成分のエッジ方向として求められることになる。また、当該エッジ成分のエッジ強度については、最も高い値となった正規化相関の値を見ればよい。なお、エッジ成分が存在しない位置では、いずれの方向のエッジ検出用フィルタを適用した場合でも、エッジ検出用フィルタとの正規化相関の値は0に近くなる。つまり、いずれの方向のエッジ検出用フィルタを適用しても正規化相関の値が高くならない場合には、その位置にはエッジ成分が存在しない(または、エッジ強度が弱い)と判定すればよい。
画像処理装置2では、以上のような処理を、カメラ1の撮影画像における処理対象領域内の全ての画素毎、または処理対象領域内で予め定めた法則にしたがって決定された複数の代表画素毎に行い、これらの画素とその周辺画素とで形成される各エッジ成分のエッジ方向とエッジ強度とをそれぞれ求める。
次に、画像処理装置2は、ステップS4において、判定部13による処理として、ステップS3で求めた処理対象領域内の各エッジ成分のエッジ方向とエッジ強度との少なくとも何れかの分布をもとに、処理対象領域内に含まれる物体の種別を判定する処理を行い、その判定結果を出力する。この判定部13による処理は、例えば、処理対象領域内の各エッジ成分のエッジ方向毎のヒストグラムやエッジ強度毎のヒストグラムを作成し、処理対象領域内でどのような方向のエッジ成分の頻度が高いか、或いはどの程度の強度のエッジ成分の頻度が高いかを分析するといった手法で実施される。
具体的な例を挙げて説明すると、例えば図6に示したカメラ1の撮影画像における処理対象領域A及び処理対象領域Bに対してそれぞれステップS3の処理を行い、処理対象領域A内の各エッジ成分のエッジ方向とエッジ強度、処理対象領域B内の各エッジ成分のエッジ方向とエッジ強度をそれぞれ求めたとする。この場合、処理対象領域A内の各エッジ成分のエッジ方向毎のヒストグラムを作成すると、例えば図9(a)のようなヒストグラムが得られることになる。また、同様に、処理対象領域B内の各エッジ成分のエッジ方向毎のヒストグラムを作成すると、例えば図9(b)に示すようなヒストグラムが得られることになる。なお、各エッジ成分のエッジ方向は、図7に例示した各方向毎のエッジ検出用フィルタよりも更に細かな方向毎に定義された多数のエッジ検出用フィルタを用いて求めている。また、これら図9(a)及び図9(b)に示すヒストグラムは、信頼性維持のために、エッジ強度が所定の閾値以上のエッジ成分を対象として作成している。
図9(a)に示した例から分かるように、図6に示したカメラ1の撮影画像において、先行車両300が存在する処理対象領域Aでは、先行車両300が垂直方向のエッジ成分と水平方向のエッジ成分とを多く持つため、処理対象領域A内の各エッジ成分のエッジ方向毎のヒストグラムを作成すると、0°,90°,180°,270°といった水平方向及び垂直方向にヒストグラムが集中して分布し、特に0°,180°などの水平方向のエッジ成分が最も多く、ついで、90°,270°などの垂直方向のエッジ成分が多くなるといった特徴が現れることになる。一方、図9(b)に示した例から分かるように、図6に示したカメラ1の撮影画像において、歩行者200が存在する処理対象領域Bでは、歩行者200が不規則な方向のエッジ成分を多く持つため、処理対象領域B内の各エッジ成分のヒストグラムを作成すると、様々な方向で不規則にヒストグラムが分布するといった特徴が現れることになる。
このように、処理対象領域内の各エッジ成分のエッジ方向毎のヒストグラムを作成すると、当該処理対象領域内に存在する物体の種別に応じて、様々な特徴を持つ異なる分布のヒストグラムが得られることになる。したがって、このように作成したエッジ方向毎のヒストグラムの特徴を解析することによって、処理対象領域内に存在する物体の種別を判定することが可能となる。
なお、以上は、処理対象領域内の各エッジ成分のエッジ方向毎のヒストグラムを作成した場合について説明したが、処理対象領域内の各エッジ成分のエッジ強度毎のヒストグラムを作成した場合も同様に、当該処理対象領域内に存在する物体の種別に応じて、様々な特徴を持つ異なる分布のヒストグラムが得られることになる。したがって、このように作成したエッジ強度毎のヒストグラムの特徴を解析することによっても、処理対象領域内に存在する物体の種別を判定することができる。また、処理対象領域内の各エッジ成分のエッジ方向毎のヒストグラムとエッジ強度毎のヒストグラムとをそれぞれ作成し、これらエッジ方向毎のヒストグラムの特徴とエッジ強度毎のヒストグラムの特徴とをそれぞれ解析するようにすれば、処理対象領域内に存在する物体の種別をより正確に判定することができる。
ここで、処理対象領域内の各エッジ成分のエッジ方向毎のヒストグラムやエッジ強度毎のヒストグラムに基づいて、処理対象領域内に存在する物体の種別を判定する具体的な手法について、さらに詳しく説明する。
本実施形態の物体種別判定装置において、画像処理装置2では、判定部11による処理として、上述したように、カメラ1の撮影画像の中で特定された処理対象領域における各エッジ成分のエッジ方向毎のヒストグラムやエッジ強度毎のヒストグラムに基づいて、処理対象領域内に存在する物体の種別を判定する。このとき、例えば車両と歩行者との区別であれば、エッジ方向毎のヒストグラムとして図9(a)に示したようなヒストグラム、或いは図9(b)に示したようなヒストグラムが得られるので、得られたヒストグラムの特徴を解析し、0°,90°,180°,270°などの水平方向、垂直方向の角度にヒストグラムが集中して分布している場合は車両、ヒストグラムの分布が不規則で、各角度においてヒストグラムが分布を持つ場合は歩行者であると判定すればよい。
また、このような物体の種別の判定は、物体それぞれの特徴を定めたり、区別する対象をその場面に応じて可変にすることで、車両や歩行者以外の他の物体の種別を判定する際にも有効に適用できる。
具体的な例を挙げて説明すると、例えば、カメラ1により車両前方の画像として図10に示すような画像が撮影されたとする。この図10に示すカメラ1の撮影画像では、車両前方に存在する物体として、歩行者200と車両300の他に、電柱400とガードレール500が写されている。このようなカメラ1の撮影画像に対して上述したステップS2の処理を行なうと、カメラ1の撮影画像における人物200が存在する領域Aと先行車両300が存在する領域Bのほか、電柱400が存在する領域、すなわち座標(xc2,yc2)を始点とし、縦横の幅をwc2,hc2とする矩形領域Cと、ガードレール500が存在する領域、すなわち座標(xc3,yc3)を始点とし、縦横の幅をwc3,hc3とする矩形領域Dとが、それぞれ処理対象領域として特定されることになる。そして、これらの各処理対象領域を対象として上述したステップS3の処理をそれぞれ行って各エッジ成分のエッジ方向及びエッジ強度を求め、ステップS4において各エッジ方向毎のヒストグラムを作成すると、処理対象領域Cでは90°,270°などの垂直方向の角度のみにヒストグラムが集中して分布する特徴のヒストグラムが得られ、処理対象領域Dでは90°,270°などの垂直方向の角度と、ある特定の斜め方向(α°とα+180°)の部分のみにヒストグラムが集中して分布する特徴のヒストグラムが得られることになる。したがって、このようなヒストグラムの特徴と判定対象となる物体の種類とを予め対応付けて定義しておき、処理対象領域内の各エッジ成分のヒストグラムが得られたときに、そのヒストグラムの特徴がどれに当てはまるかを確認することによって、処理対象領域内の物体の種別、例えばその物体が電柱400であるかガードレール500であるかを適切に判定することができる。
また、処理対象領域内の各エッジ成分のヒストグラムとして、エッジ方向毎のヒストグラムに加えてエッジ強度毎のヒストグラムを用いる場合は、電柱400やガードレール500のように、1種類の材質でできた人工の物体は、色も単色であることからエッジ強度もほぼ一定であることが多い。一方、歩行者200のように衣服の部分、頭髪、皮膚、靴、被服自体の模様など、様々な色や材質からなるものは、エッジ方向だけでなくエッジ強度も不均一であり、様々な値を持つことが多い。さらに、一般的に、人工物は歩行者200のようにそれ自体が動きや直線性を持たないものに比べてエッジ強度が高くなる傾向にある。これらのことから、エッジ強度が高く、且つエッジ強度の分布もピーク位置を持つなど、分布に特徴があるものは電柱400やガードレール500などの人工的な物体であり、エッジ強度が全般に低く、エッジ方向の分布が不均一で不規則なものは、歩行者200や生き物など非人工的な物体であると判定してもよい。また、人工物と非人工物と切り分けた後のさらに細かい種類判定(例えば、電柱400であるかガードレール500であるかなど)は、エッジ強度とともに、エッジ方向の分布や、エッジ方向がピークを持つ細かい角度の位置など考慮することで、その種別を判別すればよい。
さらに、処理対象領域内の物体の種別を判定するに際しては、これらの各エッジ成分のエッジ方向やエッジ強度の分布だけでなく、その物体が存在する処理対象領域の位置や大きさ、縦横比なども考慮することで、より一層正確な判定が可能になる。具体的には、例えば、処理対象領域の縦横比を考慮して、処理対象領域が縦長の領域であり、且つその処理対象領域内の各エッジ成分のエッジ方向の分布が不規則である場合は歩行者200、処理対象領域が縦長の領域ではあるが、その処理対象領域内の各エッジ成分のエッジ方向の分布が垂直方向の角度に集まっており、エッジ強度も一定である場合は電柱400であるといったように、物体の種別を判別するようにしてもよい。
以上、具体的な例を挙げながら詳細に説明したように、本実施形態の物体種別判定装置によれば、カメラ1の撮影画像において物体が存在する領域である処理対象領域内の各エッジ成分のエッジ方向やエッジ強度といった情報を用いて、この処理対象領域に存在する物体の種別を判定するようにしているので、形状の定義が困難である物体も含めて、カメラ1で撮影された画像に現れる物体の種別を精度良く判定することができる。
特に、車両が走行する道路周辺の画像を処理する場合、歩行者や犬、猫などのような生き物(非人工物)と、電柱やガードレールのような道路に予め設置してある物体(人工物)と、走行物である先行車両(人工物)などの主な3種類の区別は非常に重要である。従来の手法では、車両の認識については、ある程度、車両の形状特徴を捉えることでその物体が車両であることの判定が可能であったが、歩行者などの生き物は、その種別を判定することが重要な対象物であるにもかかわらず、形状の特徴を数式化したりモデル化したりすることが難しく、このような物体の種別を適切に判定することは困難であった。具体的には、例えば、電柱と歩行者は、物体の形状や縦横比だけを見ると、非常に似通っている(図10参照。)。そのため、例えば、従来一般的に行われているように、カメラの撮影画像から物体が存在する領域を検出し、その領域の縦横比と位置(例えば、位置が路面上であることなど)といった情報のみからその物体の種別を判定する手法では、電柱と歩行者を間違えやすいといった問題があった。
これに対して、本実施形態の物体種別判定装置では、判定対象となる物体が持つ特徴を、エッジ成分のエッジ方向の分布やエッジ強度の分布により捉えるようにしているので、上述したように形状のモデル化が困難な物体であっても、その物体の種別を適切に判別できるという利点がある。特に、このエッジ成分の「エッジ方向」や「エッジ強度」という情報は、全ての物体に共通して画像から検出できる特徴量である。したがって、このような情報を用いて物体の種別を判定する手法は、様々な物体の種別の判別に幅広く適用できるという利点もある。さらに、このエッジ成分のエッジ方向やエッジ強度といった情報を、従来用いていたモデルの定義やテンプレート、色情報、縦横比、物体の位置や大きさなどの情報と統合して用いるようにすることで、物体の種別判定の信頼度をさらに向上させるという効果もある。
[第2の実施形態]
次に、本発明の第2の実施形態について説明する。本実施形態の物体種別判定装置は、基本構成及び処理の概要を上述した第1の実施形態と同様とし、画像処理装置2のエッジ成分解析部12における処理やその後の判定部13における処理が、上述した第1の実施形態とは異なるものである。すなわち、上述した第1の実施形態では、画像処理装置2のエッジ成分解析部12により処理対象領域内の各エッジ成分のエッジ方向とエッジ強度を求める際に、細かな方向毎に細分化された多数のエッジ検出用フィルタを用いたのに対して、本実施形態では、垂直方向のエッジ検出用フィルタ(90°のフィルタ、270°のフィルタ)と水平方向のエッジ検出用フィルタ(0°のフィルタ、180°のフィルタ)のみを用いて、処理対象領域内の各エッジ成分のエッジ方向とエッジ強度とを求めるようにしている。なお、本実施形態におけるその他の部分は上述した第1の実施形態と同様であるので、以下では、本実施形態に特徴的な部分についてのみ説明し、第1の実施形態と同様の部分については重複した説明を省略する。
次に、本発明の第2の実施形態について説明する。本実施形態の物体種別判定装置は、基本構成及び処理の概要を上述した第1の実施形態と同様とし、画像処理装置2のエッジ成分解析部12における処理やその後の判定部13における処理が、上述した第1の実施形態とは異なるものである。すなわち、上述した第1の実施形態では、画像処理装置2のエッジ成分解析部12により処理対象領域内の各エッジ成分のエッジ方向とエッジ強度を求める際に、細かな方向毎に細分化された多数のエッジ検出用フィルタを用いたのに対して、本実施形態では、垂直方向のエッジ検出用フィルタ(90°のフィルタ、270°のフィルタ)と水平方向のエッジ検出用フィルタ(0°のフィルタ、180°のフィルタ)のみを用いて、処理対象領域内の各エッジ成分のエッジ方向とエッジ強度とを求めるようにしている。なお、本実施形態におけるその他の部分は上述した第1の実施形態と同様であるので、以下では、本実施形態に特徴的な部分についてのみ説明し、第1の実施形態と同様の部分については重複した説明を省略する。
図11は、本実施形態の物体種別判定装置において、画像処理装置2のエッジ成分解析部12や判定部13における処理をブロック化した概念図である。この図11に示すように、本実施形態の物体種別判定装置では、画像処理装置2のエッジ成分解析部12が、まず、カメラ1の撮影画像で特定された処理対象領域内の全ての画素、或いは複数の代表画素毎に、垂直方向のエッジ検出用フィルタを適用し、当該画素とその周辺画素とで形成されるエッジ成分と、垂直方向のエッジ検出用フィルタとのコンボリューション(エッジ成分を構成する画素値とフィルタとの正規化相関)を、各エッジ成分毎に算出する(図11におけるA1の処理)。
また、画像処理装置2のエッジ成分解析部12は、処理対象領域内の全ての画素、或いは複数の代表画素毎に、水平方向のエッジ検出用フィルタを適用し、当該画素とその周辺画素とで形成されるエッジ成分と、水平方向のエッジ検出用フィルタとのコンボリューションを、各エッジ成分毎に算出する(図11におけるA2の処理)。
次に、画像処理装置2のエッジ成分解析部12は、処理対象領域内の各エッジ成分について、垂直方向のエッジ検出用フィルタとの正規化相関の値と、水平方向のエッジ検出用フィルタとの正規化相関の値とから、各エッジ成分のエッジ方向を求める(図11におけるA3の処理)とともに、各エッジ成分のエッジ強度を求める(図11におけるA4の処理)。
まず、処理対象領域内の各エッジ成分のエッジ方向を、垂直方向のエッジ検出用フィルタとの正規化相関の値と水平方向のエッジ検出用フィルタとの正規化相関の値とから求める処理について説明する。例えば、垂直方向のエッジ成分について考えると、第1の実施形態でも説明したように、このエッジ成分に対して垂直方向のエッジ検出用フィルタを適用したときの正規化相関の値は非常に高い値となるが、このエッジ成分に対して水平方向のエッジ検出用フィルタを適用したときの正規化相関の値は0に近くなる。つまり、垂直方向のエッジ検出用フィルタとの正規化相関の値が高く、水平方向のエッジ検出用フィルタとの正規化相関の値が低いとき、その位置のエッジ成分のエッジ方向は垂直方向に近い角度であると言える。また、逆に、垂直方向のエッジ検出用フィルタとの正規化相関の値が低く、水平方向のエッジ検出用フィルタとの正規化相関の値が高いとき、その位置のエッジ成分のエッジ方向は水平方向に近い角度であると言える。このように、垂直方向のエッジ検出用フィルタとの正規化相関の値と水平方向のエッジ検出用フィルタとの正規化相関の値との関係は、対象とするエッジ成分のエッジ方向に応じて変化するので、これらの関係を細かな角度毎に定義しておけば、垂直方向のエッジ検出用フィルタと水平方向のエッジ検出用フィルタのみを用いて各エッジ成分のエッジ方向を求めることができる。
図12は、垂直方向のエッジ検出用フィルタとの正規化相関の値と水平方向のエッジ検出用フィルタとの正規化相関の値との関係を細かな角度毎にまとめた例を示す模式図である。なお、この図12に示す例においては、垂直方向のエッジ検出用フィルタとして右側が黒画素で左側が白画素のフィルタ(90°のフィルタ)を用い、水平方向のエッジ検出用フィルタとして上側が白画素で下側が黒画素のフィルタ(0°のフィルタ)を用いるものとしている。また、垂直方向のエッジ検出用フィルタ(90°のフィルタ)との正規化相関の値をDx、水平方向のエッジ検出用フィルタ(0°のフィルタ)との正規化相関の値をDyとして示している。また、カメラ1の撮影画像上における角度については、図12の右側のように定義するものとする。
ここで、例えば、左斜め上が白画素、右斜め下が黒画素の角度45°のエッジ成分について考える。このエッジ成分に対して垂直方向のエッジ検出用フィルタと水平方向のエッジ検出用フィルタとを適用して、各フィルタとの正規化関数の値Dx,Dyをそれぞれ計算すると、角度45°のエッジ成分と垂直方向のエッジ検出用フィルタとで黒画素が重なり合う面積と、角度45°のエッジ成分と水平方向のエッジ検出用フィルタとで黒画素が重なり合う面積とが同じ面積なので、Dxの値とDyの値がほぼ同じとなる。つまり、エッジ方向がある角度θのエッジ成分については、Dx/Dy=tanθの関係が成り立ち、エッジ方向を示す角度θは、atan(Dx/Dy)を計算することで求めることができる。また、この際、例えば角度45°と角度225°の区別など、エッジ成分の向きだけでなく白画素と黒画素との方向性の違いは、atan(Dx/Dy)を計算すると同時に、Dx,Dyそれぞれの正負を確認すればよい。ここで,白画素が右左(または上下)どちらにある場合を正とするかは、予め定義しておけばよい。
また、第1の実施形態でも説明したように、処理対象領域内でエッジ成分が存在しない位置に垂直方向のエッジ検出用フィルタと水平方向のエッジ検出用フィルタを適用した場合、これらの各フィルタとの正規化相関の値Dx,Dyはともに極めて低い値となる。つまり、一般に|Dx|と|Dy|とがともに小さな値である場合には、その位置にエッジ成分が存在しない、もしくは、その位置で求められるエッジ成分のエッジ方向の信頼性が非常に低い場合が多い。したがって、信頼性の高い情報だけを次段の処理に活用するために、|Dx|+|Dy|またはDx2+Dy2の値(これらは、後述するようにエッジ成分のエッジ強度を示す値である。)が所定の閾値以上の場合にだけ、当該エッジ成分のエッジ方向を求めるようにし、これらの値が閾値以下の部分はエッジ成分が存在しないと判定するようにしてもよい。
さらに、このような判定に用いる閾値は、画像の撮影に用いるカメラ1の種類や判定対象とする物体によって可変にすることで、信頼性をより一層高めることが可能になる。すなわち、例えばカメラ1として赤外線カメラを用いた場合、赤外線カメラにより撮影される赤外画像は、一般的に、CCDやCMOSなどを撮像素子として用いた輝度カメラの撮影画像に比べてエッジが不鮮明になる。このため、カメラ1として赤外線カメラを用いた場合にエッジ成分の判定に用いる上述した閾値を高い値に設定すると、エッジ成分が全く検出されないということも生じうる。このような不都合を回避するために、カメラ1として赤外線カメラを用いる場合には、輝度カメラを用いる場合に比べて、エッジ成分の判定に用いる上述した閾値を低い値に設定することが望ましい。なお、このような不都合を回避するためには、上述した閾値の変更以外にも、例えば、グラデーションのようななまった(なだらかに輝度が変化する)エッジ成分にも適用できるように、大きめのサイズ(例えば7×7画素やそれ以上)のエッジ検出用フィルタを用いて、正規化相関の値Dx,Dyを計算する構成とすることも有効である。
また、第1の実施形態でも説明したように、一般的に人工物は直線的であることからエッジが比較的鮮明であるが、生物のようにエッジ方向が不規則な物体はエッジ強度も低い場合が多い。このため、生物を含めたあらゆる物体についてのエッジ成分のエッジ方向を確実に求められるようにするためには、エッジ成分の判定に用いる閾値を予め低い値としておく方が有利ではあるが、閾値が低い値であると、人工物体上に現れる不必要なノイズや模様など、形状自体ではなく、形状判定に悪影響を及ぼす不必要なエッジを検出してしまう虞がある。このような不都合を生じさせないために、例えば、エッジ成分の判定に用いる閾値として予め2種類もしくはそれ以上の閾値を用意しておき、その閾値毎にエッジ成分のエッジ方向を求めるようにしてもよい。
次に、処理対象領域内の各エッジ成分のエッジ強度を、垂直方向のエッジ検出用フィルタとの正規化相関の値と水平方向のエッジ検出用フィルタとの正規化相関の値とから求める処理について説明する。処理対象領域内の各エッジ成分のエッジ強度は、先にも説明したように、垂直方向のエッジ検出用フィルタとの正規化相関の値をDx、水平方向のエッジ検出用フィルタとの正規化相関の値をDyとすると、例えば下記式(1)により算出することができる。
エッジ強度=|Dx|+|Dy|またはDx2+Dy2 ・・・(1)
本実施形態の物体種別判定装置において、画像処理装置2のエッジ成分解析部12は、このように求めたエッジ強度の情報を、例えば、上述したように各エッジ成分のエッジ方向の情報の中から信頼性の高いエッジ方向の情報を抽出するために用いたり、エッジ成分の判定に用いる閾値を設定する際の指標として活用する。また、このように求めた各エッジ成分のエッジ強度の情報は、後段の処理である物体の種別を判定する際に、一つの情報として利用することもできる。例えば、第1の実施形態でも説明したように、処理対象領域がエッジ強度の高いエッジ成分を多く含む場合は、当該処理対象領域内の物体が人工物体である可能性が高く、処理対象領域がエッジ強度の低いエッジ成分を多く含む場合は、当該処理対象領域内の物体が非人工物である可能性が高いので、このような情報を用いることで、物体の種別をより精度良く判定することが可能となる。
本実施形態の物体種別判定装置において、画像処理装置2のエッジ成分解析部12は、このように求めたエッジ強度の情報を、例えば、上述したように各エッジ成分のエッジ方向の情報の中から信頼性の高いエッジ方向の情報を抽出するために用いたり、エッジ成分の判定に用いる閾値を設定する際の指標として活用する。また、このように求めた各エッジ成分のエッジ強度の情報は、後段の処理である物体の種別を判定する際に、一つの情報として利用することもできる。例えば、第1の実施形態でも説明したように、処理対象領域がエッジ強度の高いエッジ成分を多く含む場合は、当該処理対象領域内の物体が人工物体である可能性が高く、処理対象領域がエッジ強度の低いエッジ成分を多く含む場合は、当該処理対象領域内の物体が非人工物である可能性が高いので、このような情報を用いることで、物体の種別をより精度良く判定することが可能となる。
次に、本実施形態の物体種別判定装置において、画像処理装置2の判定部13が、エッジ成分解析部12によって求められた処理対象領域内の各エッジ成分のエッジ方向の情報やエッジ強度の情報を用いて、処理対象領域に存在する物体の種別を判定する手法について説明する。
画像処理装置2の判定部13は、上述した第1の実施形態と同様に、例えば、処理対象領域内の各エッジ成分のエッジ方向毎のヒストグラムやエッジ強度毎のヒストグラムを作成し(図11におけるA5,A6の処理)、処理対象領域内でどのような方向のエッジ成分の頻度が高いか、或いはどの程度の強度のエッジ成分の頻度が高いかを分析することで、処理対象領域に存在する物体の種別を判定する(図11におけるA7の処理)。
具体的な例を挙げて説明すると、例えば図6に示したカメラ1の撮影画像における処理対象領域A及び処理対象領域Bを対象として、それぞれの処理対象領域内の各エッジ成分のエッジ方向とエッジ強度とを求めたとする。そして、処理対象領域A内の各エッジ成分の中からエッジ強度が第1の閾値Th1以上のものを抽出してエッジ方向毎のヒストグラムを作成すると、例えば図13(a)のようなヒストグラムが得られることになる。同様に、処理対象領域B内の各エッジ成分の中からエッジ強度が第1の閾値Th1以上のものを抽出してエッジ方向毎のヒストグラムを作成すると、例えば図13(b)のようなヒストグラムが得られることになる。また、閾値を第1の閾値Th1から第2の閾値Th2に変更し(ただし、Th2<Th1)、処理対象領域A内の各エッジ成分の中からエッジ強度が第2の閾値Th2以上のものを抽出してエッジ方向毎のヒストグラムを作成すると、例えば図13(c)のようなヒストグラムが得られることになる。さらに、処理対象領域B内の各エッジ成分の中からエッジ強度が第2の閾値Th2以上のものを抽出してエッジ方向毎のヒストグラムを作成すると、例えば図13(d)のようなヒストグラムが得られることになる。
また、処理対象領域A内の各エッジ成分のエッジ強度毎のヒストグラムは、例えば図13(e)のようになり、処理対象領域B内の各エッジ成分のエッジ強度毎のヒストグラムは、例えば図13(f)のようになる。なお、図13(e)及び図13(f)においては、図13(a)乃至図13(d)のヒストグラムを作成する際に用いる閾値Th1,Th2を、エッジ強度を示す横軸上で示している。
図13(a)乃至図13(d)に示したエッジ方向毎のヒストグラムから分かるように、第1の実施形態でも説明したが、車両のような人工物と歩行者のような非人工物とを判別する場合、車両が存在する処理対象領域では、各エッジ成分のエッジ方向毎のヒストグラムがある角度でピークを持つような分布となり、頻度の高い角度と低い角度が現れるといった特徴を持つ。一方、歩行者が存在する処理対象領域では、各エッジ成分のエッジ方向毎のヒストグラムが、ピークが現れる場合もあるが、車両のような人工物体と比較するとその分布が広がっており、頻度が高くなる角度の傾向も不規則となるといった特徴を持つ。
また、エッジ方向と角度との関係を考えると、例えば垂直方向のエッジ成分は角度としては90°と270°になるので、これら反転の関係にある角度を同じ方向と捉えて、全てが0°〜180°の角度に収まるようなヒストグラムを作成する、もしくは、0°から360°までの角度で作成したヒストグラムを90°毎(0°〜90°、90°〜180°、180°〜270°、270°〜360°)に切り分けて、角度毎の頻度を見ると、歩行者のような非人工物は0°〜90°の間の様々な角度のエッジ成分が存在するのに対し、車両のような人工物体は、90°毎に分けるとある一つの角度に頻度が集中するといった特徴を持つ。このため、例えば90°毎の方向別に見たヒストグラムの分散を計算すると、車両が存在する領域である処理対象領域A内の各エッジ成分のエッジ方向の分散は小さくなり、歩行者が存在する領域である処理対象領域B内の各エッジ成分のエッジ方向の分散は大きくなる。
このように、処理対象領域内の各エッジ成分のエッジ方向毎のヒストグラムを作成すると、当該処理対象領域内に存在する物体の種別に応じた特徴のヒストグラムが得られるので、このような処理対象領域内の各エッジ成分のエッジ方向毎のヒストグラムに基づいて、処理対象領域に存在する物体の種別、例えば、路上の場合であれば車両と歩行者のような物体の種別を判定することが可能となる。さらに、処理対象領域に存在する物体の種別をより精度良く判定するには、エッジ方向毎のヒストグラムの対象とするエッジ成分を抽出するための閾値を、上述した第1の閾値Th1及び第2の閾値Th2のように複数設定して、例えば、図13(a)に示したヒストグラムと図13(c)に示したヒストグラムとの双方に基づいて処理対象領域Aに存在する物体の種別を判定したり、図13(b)に示したヒストグラムと図13(d)に示したヒストグラムとの双方に基づいて処理対象領域Bに存在する物体の種別を判定することが望ましい。この場合には、例えばエッジの不鮮明さやカメラ1の種類などに関わらず、ロバストに幅広く精度の良い物体の種別判定を行うことが可能となる。
なお、以上は、処理対象領域内の各エッジ成分のエッジ方向毎のヒストグラムに基づいて当該処理対象領域に存在する物体の種別を判定する手法について説明したが、第1の実施形態でも説明したように、処理対象領域内の各エッジ成分のエッジ強度毎のヒストグラム(例えば図13(e)に示したヒストグラムや図13(f)に示したヒストグラム)においても、当該処理対象領域内に存在する物体の種別に応じて様々な特徴を持つことになるので、このようなエッジ強度毎のヒストグラムに基づいて処理対象領域に存在する物体の種別を判定することも可能である。また、処理対象領域内の各エッジ成分のエッジ方向毎のヒストグラムとエッジ強度毎のヒストグラムとの双方に基づいて処理対象領域に存在する物体の種別を判定するようにすれば、より精度の良い判定が可能となる。
また、エッジ方向毎のヒストグラムの対象とするエッジ成分を抽出するための閾値(例えば第1の閾値Th1や第2の閾値Th2)の設定は、経験的に最適と思われる値に設定すればよいが、例えば図13(e)や図13(f)で示したように、エッジ強度毎のヒストグラムを確認して、二つまたはそれ以上のビークが存在する場合に、二つもしくはそれ以上の個数存在するヒストグラムのピーク間となるエッジ強度を示す値に設定するようにしてもよい。このように閾値を設定した場合には、例えば、判定対象となる各物体の種別に応じたエッジ成分のエッジ方向毎のヒストグラムとして、角度別のヒストグラムを作成することも可能となる。
また、エッジ方向毎のヒストグラムの対象とするエッジ成分を抽出するための閾値は、例えば、歩行者などのようにエッジ強度が比較的弱い物体を判定対象としたい場合には、エッジ強度の下限の閾値だけでなく、エッジ強度の上限の閾値を設けるようにしてもよい。このように上限下限両方の閾値を設定とすることで、例えば歩行者の背景にガードレールや路面の白線のように歩行者よりエッジ強度の高い物体が存在する場合でも、このような背景となる部分のエッジ成分については、ヒストグラムの対象から除外することができる。これにより、背景を除去して、歩行者を構成するエッジ成分のみを対象としたヒストグラムを作成し、これに基づいた物体種別の判定ができるようになるため、判定の信頼性をより向上させることができる。
以上、具体的な例を挙げながら詳細に説明したように、本実施形態の物体種別判定装置によれば、画像処理装置2のエッジ成分解析部12が、垂直方向のエッジ検出用フィルタと水平方向のエッジ検出用フィルタのみを用いて、処理対象領域内の各エッジ成分のエッジ方向とエッジ強度とを求めるようにしているので、上述した第1の実施形態の効果に加えて、処理対象領域内の各エッジ成分のエッジ方向及びエッジ強度を求める計算を、非常に簡素な構成で高速に行えるという効果が得られる。
[第3の実施形態]
次に、本発明の第3の実施形態について説明する。本実施形態の物体種別判定装置は、基本構成及び処理の概要を上述した第1の実施形態と同様とし、画像処理装置2の判定部13における処理が、上述した第1の実施形態とは異なるものである。すなわち、本実施形態では、画像処理装置2の判定部13が、処理対象領域内の各エッジ成分のエッジ方向毎のヒストグラムやエッジ強度毎のヒストグラムに基づいて当該処理対象領域に存在する物体の種別を判定する際に、時系列的な変化という情報も活用するようにしたものである。なお、本実施形態におけるその他の部分は上述した第1の実施形態と同様であるので、以下では、本実施形態に特徴的な部分についてのみ説明し、第1の実施形態と同様の部分については重複した説明を省略する。
次に、本発明の第3の実施形態について説明する。本実施形態の物体種別判定装置は、基本構成及び処理の概要を上述した第1の実施形態と同様とし、画像処理装置2の判定部13における処理が、上述した第1の実施形態とは異なるものである。すなわち、本実施形態では、画像処理装置2の判定部13が、処理対象領域内の各エッジ成分のエッジ方向毎のヒストグラムやエッジ強度毎のヒストグラムに基づいて当該処理対象領域に存在する物体の種別を判定する際に、時系列的な変化という情報も活用するようにしたものである。なお、本実施形態におけるその他の部分は上述した第1の実施形態と同様であるので、以下では、本実施形態に特徴的な部分についてのみ説明し、第1の実施形態と同様の部分については重複した説明を省略する。
本実施形態の物体種別判定装置において、カメラ1は、車両前方の画像を所定の撮像周期で連続的に撮影している。そして、画像処理装置2は、カメラ1で撮影される画像の全てのフレーム、或いは予め定められた所定のフレーム間隔で、上述したような処理対象領域の特定、エッジ成分のエッジ方向およびエッジ強度の検出、ヒストグラム化といった画像処理を行なって、当該画像に現れる物体の種別を判定するようにしている。このとき、特に本実施形態の物体種別判定装置においては、画像処理装置2の判定部13が、前回の処理の結果または数回前までの処理結果を記憶しておいて、これらの過去の処理結果と新たな処理結果との違いから時系列的な変化を確認し、その情報を物体の種別判定に用いるようにしている。
具体的な例を挙げて説明すると、例えば、時刻tにおいてカメラ1により図14(a)に示す画像が撮影されて、このカメラ1の撮影画像から車両300が存在する処理対象領域Aと歩行者200が存在する処理対象領域Bとが特定され、時刻t+Δtにいおいてカメラ1により図14(b)に示す画像が撮影されて、このカメラ1の撮影画像から車両300が存在する処理対象領域Aと歩行者200が存在する処理対象領域Bとが特定されたとする。この場合、時刻tの撮影画像に対して、処理対象領域A内の各エッジ成分のエッジ方向とエッジ強度、処理対象領域B内の各エッジ成分のエッジ方向とエッジ強度をそれぞれ求め、エッジ強度が所定の閾値以上のエッジ成分を対象としてエッジ方向毎のヒストグラムを作成すると、処理対象領域Aでは図14(c)に示すようなヒストグラム、処理対象領域Bでは図14(d)に示すようなヒストグラムが得られる。一方、時刻t+Δtの画像に対して、処理対象領域A内の各エッジ成分のエッジ方向とエッジ強度、処理対象領域B内の各エッジ成分のエッジ方向とエッジ強度をそれぞれ求め、時刻tの撮影画像に対する処理のときと同じ閾値を用いて、エッジ強度がその閾値以上のエッジ成分を対象としてエッジ方向毎のヒストグラムを作成すると、処理対象領域Aでは図14(e)に示すようなヒストグラム、処理対象領域Bでは図14(f)に示すようなヒストグラムが得られる。
ここで、カメラ1の撮影画像における処理対象領域A,Bについて、同じ閾値を用いて作成したエッジ成分のエッジ方向毎のヒストグラムの時系列的な変化に着目すると、人工物であり、急激に形を変えることのない車両300が存在する処理対象領域Aでは、図14(c)及び図14(e)から分かるように、当該処理対象領域A内の各エッジ成分のエッジ方向毎のヒストグラムの分布が非常に似た形状で観測されるのに対して、エッジの方向が様々で、且つ、それ自身が形状を変化させるような歩行者200が存在する処理対象領域Bでは、図14(d)及び図14(f)から分かるように、当該処理対象領域B内の各エッジ成分のエッジ方向毎のヒストグラムの分布に明らかな変化が見られる。本実施形態の物体種別判定装置では、画像処理装置2の判定部13が、このような時系列的な変化の情報を加味して、処理対象領域に存在する物体の種別を判定するようにしている。
さらに、以上のような歩行者200の判定の例では、図14(d)及び図14(f)に示したヒストグラムを見ればわかるように、歩行者200の向き(例えば横向きか前向きかなど)に応じて、垂直方向のエッジ成分が多くなったり水平方向のエッジ成分が多くなったりするという特徴がある。例えば、図14(b)に示した時刻t+Δt時のカメラ1の撮影画像の例では、図14(a)の時刻t時の例と比較して歩行者200が横向きとなっているため、ヒストグラムの垂直方向のエッジ成分が時刻tより多くなっている。歩行者の場合、このようなヒストグラムの変化が歩行速度に応じて現れることが多いので、このような寺家入れいな時系列的な変化の情報を用いて、判定対象の物体が歩行者であることを再確認することができる。さらに、そのヒストグラムの時系列的な変化の情報は、歩行者が横向きであるか正面向きであるかの判定にも応用できる。
以上説明したように、本実施形態の物体種別判定装置によれば、画像処理装置2の判定部13が、処理対象領域内の各エッジ成分のエッジ方向毎のヒストグラムやエッジ強度毎のヒストグラムに基づいて当該処理対象領域に存在する物体の種別を判定する際に、時系列的な変化という情報も活用するようにしているので、物体の種別の判定をより高い精度で正確に行うことができる。
[第4の実施形態]
次に、本発明の第4の実施形態について説明する。本実施形態の物体種別判定装置は、基本構成及び処理の概要を上述した第1の実施形態と同様とし、画像処理装置2の判定部13における処理が、上述した第1の実施形態とは異なるものである。すなわち、本実施形態では、画像処理装置2の判定部13が、処理対象領域内の各エッジ成分のエッジ方向毎のヒストグラムやエッジ強度毎のヒストグラムに基づいて当該処理対象領域に存在する物体の種別を判定する際に、例えばスキャニングレーザレーダのようなカメラ1以外の物体検知装置で検出された情報も活用するようにしたものである。なお、本実施形態におけるその他の部分は上述した第1の実施形態と同様であるので、以下では、本実施形態に特徴的な部分についてのみ説明し、第1の実施形態と同様の部分については重複した説明を省略する。
次に、本発明の第4の実施形態について説明する。本実施形態の物体種別判定装置は、基本構成及び処理の概要を上述した第1の実施形態と同様とし、画像処理装置2の判定部13における処理が、上述した第1の実施形態とは異なるものである。すなわち、本実施形態では、画像処理装置2の判定部13が、処理対象領域内の各エッジ成分のエッジ方向毎のヒストグラムやエッジ強度毎のヒストグラムに基づいて当該処理対象領域に存在する物体の種別を判定する際に、例えばスキャニングレーザレーダのようなカメラ1以外の物体検知装置で検出された情報も活用するようにしたものである。なお、本実施形態におけるその他の部分は上述した第1の実施形態と同様であるので、以下では、本実施形態に特徴的な部分についてのみ説明し、第1の実施形態と同様の部分については重複した説明を省略する。
本実施形態の物体種別判定装置では、画像処理装置2が、例えばスキャニングレーザレーダのようなカメラ1以外の物体検知装置に接続されており、画像処理装置2にこの物体検知装置からの情報を取得する機能が設けられている。そして、画像処理装置2の判定部13が、カメラ1の撮影画像に対する画像処理で物体の種別を判定する際に、この物体検知装置からの情報も利用するようにしている。
具体的な例を挙げて説明すると、車両前方に2名の歩行者200a,200bと車両300とが存在するシーンで、カメラ1により図15(a)に示すような画像が撮影され、このカメラ1の撮影画像において、座標(xc0,yc0)を始点として縦横の幅をwc0,hc0とする処理対象領域A(車両300が存在する領域)と、座標(xc1,yc1)を始点として縦横の幅をwc1,hc1とする処理対象領域B1(歩行者200aが存在する領域)と、座標(xc2,yc2)を始点として縦横の幅をwc2,hc2とする処理対象領域B2(歩行者200bが存在する領域)とがそれぞれ特定されたとする。このとき、スキャニングレーザレーダ20では、例えば図15(b)に示すように、前方に存在する物体までの距離と方位の計測が行われ、スキャニングレーザレーダ20で車両及び歩行者を検出した場合のレーザ反射強度分布は、図15(c)及び図15(d)に示すようになる。
スキャニングレーザレーダ20による距離計測は、一般的に、所定の波長を有する波を発信し、発信波の反射波を受信するまでの時間差から物体までの距離を計測する原理を用いている。また、反射波の強度は、面積の大きい物体や反射効率の高い物体からの反射波は高く、逆に小さい物体や発信波を反射しにくい物体からの反射波は低くなる。
スキャニングレーザレーダ20は、光波を発信しているため、車両のように外殻が鉄板でできており、且つ、光を効率よく反射するリフレクタ(反射板)が取り付けられている物体は、反射強度が高くなる。また、車両ボディと反射板では反射効率が異なるため、車両を検出した場合は、例えば図15(c)に示すように、反射板の位置において強度が高く、車両ボディ面は反射板よりも強度が低くなる。また、歩行者(衣服)場合、身体のどの部分も車のような鉄製のものに比べ反射効率が低く、面積も小さいため、一般的に車両よりも反射強度は低くなる。また、歩行者は曲面で構成されているため、中心部よりも側部の方が強度が低くなり、例えば図15(d)に示すような形状の反射強度分布が観測される。
したがって、本実施形態の物体種別判定装置においては、画像処理装置2の判定部13が、物体の種別判定を行うにあたって、このようなスキャニングレーザレーダ20のレーザ反射強度分布を確認することで、例えば図15(a)に示したカメラ1の撮影画像において、処理対象領域Aに存在する物体は車両300であり、処理対象領域B1や処理対象領域B2に存在する物体は歩行者200a,200bであることを、より高い精度で判定することが可能となる。
また、このようにスキャニングレーザレーダ20のレーザ反射強度分布の情報を用いる場合、そのレーザ反射強度分布の時系列的な変化を見ることも、物体の種別判定を正確に行う上では非常に有効である。例えば、上述した例のように判定対象となる物体が歩行者と車両の場合、歩行者が時間の経過に伴って向きを変えたとしても、歩行者の反射率は全体として大きく変化することはないため、スキャニングレーザレーダ20のレーダ反射強度分布としては、あまり変化がないことになる。一方、向きによって反射率が大きく異なる車両のような物体では、時間の経過に伴ってその向きが変わると、例えば図16(a)乃至図16(c)に示すように、スキャニングレーザレーダ20のレーダ反射強度分布の形状に大きな変化が現れることになる。
したがって、本実施形態の物体種別判定装置においては、画像処理装置2の判定部13が、カメラ1の撮影画像に現れる物体の種別判定を行うにあたって、このようなスキャニングレーザレーダ20のレーザ反射強度分布の時系列的な変化についても確認することで、物体の種別判定をより高い制度で行うことが可能となる。
以上説明したように、本実施形態の物体種別判定装置によれば、画像処理装置2の判定部13が、処理対象領域内の各エッジ成分のエッジ方向毎のヒストグラムやエッジ強度毎のヒストグラムに基づいて当該処理対象領域に存在する物体の種別を判定する際に、スキャニングレーザレーダ20のようなカメラ1以外の物体検知装置からの情報も活用するようにしているので、物体の種別の判定をより高い精度で正確に行うことができる。
[第5の実施形態]
次に、本発明の第5の実施形態について説明する。本実施形態の物体種別判定装置は、基本構成及び処理の概要を上述した第1の実施形態と同様とし、画像処理装置2の領域特定部11における処理が、上述した第1の実施形態とは異なるものである。すなわち、本実施形態では、画像処理装置2の領域特定部11が、カメラ1の撮影画像において物体が存在する処理対象領域を特定する際に、例えばスキャニングレーザレーダのようなカメラ1以外の物体検知装置で検出された情報も活用するようにしたものである。なお、本実施形態におけるその他の部分は上述した第1の実施形態と同様であるので、以下では、本実施形態に特徴的な部分についてのみ説明し、第1の実施形態と同様の部分については重複した説明を省略する。
次に、本発明の第5の実施形態について説明する。本実施形態の物体種別判定装置は、基本構成及び処理の概要を上述した第1の実施形態と同様とし、画像処理装置2の領域特定部11における処理が、上述した第1の実施形態とは異なるものである。すなわち、本実施形態では、画像処理装置2の領域特定部11が、カメラ1の撮影画像において物体が存在する処理対象領域を特定する際に、例えばスキャニングレーザレーダのようなカメラ1以外の物体検知装置で検出された情報も活用するようにしたものである。なお、本実施形態におけるその他の部分は上述した第1の実施形態と同様であるので、以下では、本実施形態に特徴的な部分についてのみ説明し、第1の実施形態と同様の部分については重複した説明を省略する。
本実施形態の物体種別判定装置では、上述した第4の実施形態と同様に、画像処理装置2が、例えばスキャニングレーザレーダのようなカメラ1以外の物体検知装置に接続されており、画像処理装置2にこの物体検知装置からの情報を取得する機能が設けられている。そして、本実施形態の物体種別判定装置では、画像処理装置2の領域特定部11が、カメラ1の撮影画像における処理対象領域を特定する処理を行なう際に、この物体検知装置からの情報も利用するようにしている。
具体的な例を挙げながら説明すると、例えば物体検知装置としてスキャニングレーザ20を用いた場合、このスキャニングレーザレーダ20で歩行者や車両を検出すると、車両や歩行者が存在する位置までの距離の計測結果として、例えば図15(b)に示したような情報が得られることになる。通常、物体はある程度の面積を有するため、図15(b)に示すように、物体を検出すると同じ距離に並んで複数個の検知点(図15(b)中において「○」印で示す)が検出される。このことから、ある距離に図15(b)のように検知点が複数個並んでいる場合に、当該位置に物体があると判断することができる。
また、スキャニングレーザレーダ20からの入力信号に基づいて検出された物体について、カメラ1で撮像された画像上の位置を照合することで、より確実に物体が存在する処理対象領域を特定することが可能となる。この場合、例えば図17(a)及び図17(b)に示すように、スキャニングレーザレーダ20の座標系を第1の実施形態で説明したカメラ1の基準座標系に合わせ、この基準座標系に対するスキャニングレーザレーダ20及びカメラ1の取り付け位置を予め計測した上で設定しておき、スキャニングレーザレーダ20での検出点をカメラ1で撮像された画像内における位置に座標変換しなおすことで、計算できる。
具体的には、スキャニングレーザレーダ20の中心軸を基準座標系のZ軸とし、スキャン面をXZ平面として定義することにより、カメラ1によって撮像された画像における位置と、基準座標系の位置との関係(画像上のx座標位置とy座標位置)は、第1の実施形態で図3及び図4を用いて説明したような関係となるため、これら図3及び図4に基づいた座標変換により計算することができる。
本実施形態の物体種別判定装置では、画像処理装置2の領域特定部11が、カメラ1で撮影された画像から物体が存在すると推定される領域を処理対象領域の候補として検出したときに、スキャニングレーザレーダ20によって検出した物体までの距離及び方位の情報を、このカメラ1の撮影画像上における処理対象領域の候補となる領域と照合し、例えば、この領域に対応する位置にスキャニングレーザレーダ20で物体が検出されているか否かを確認することによって、カメラ1の撮影画像における処理対象領域を正確に特定することが可能となる。
以上説明したように、本実施形態の物体種別判定装置によれば、画像処理装置2の領域特定部11が、カメラ1の撮影画像において物体が存在する処理対象領域を特定する際に、例えばスキャニングレーザレーダ20のようなカメラ1以外の物体検知装置で検出された情報も活用するようにしているので、カメラ1の撮影画像における処理対象領域をより正確に特定して、この処理対象領域に存在する物体の種別の判定をより高い精度で正確に行うことができる。
[第6の実施形態]
次に、本発明の第6の実施形態について説明する。本実施形態の物体種別判定装置は、基本構成及び処理の概要を上述した第1の実施形態と同様とし、画像処理装置2の判定部13における処理が、上述した第1の実施形態とは異なるものである。すなわち、本実施形態では、画像処理装置2の判定部13が、処理対象領域内の各エッジ成分のエッジ方向毎のヒストグラムやエッジ強度毎のヒストグラムに基づいて当該処理対象領域に存在する物体の種別を判定する際に、当該処理対象領域内の各画素の輝度情報も活用するようにしたものである。なお、本実施形態におけるその他の部分は上述した第1の実施形態と同様であるので、以下では、本実施形態に特徴的な部分についてのみ説明し、第1の実施形態と同様の部分については重複した説明を省略する。
次に、本発明の第6の実施形態について説明する。本実施形態の物体種別判定装置は、基本構成及び処理の概要を上述した第1の実施形態と同様とし、画像処理装置2の判定部13における処理が、上述した第1の実施形態とは異なるものである。すなわち、本実施形態では、画像処理装置2の判定部13が、処理対象領域内の各エッジ成分のエッジ方向毎のヒストグラムやエッジ強度毎のヒストグラムに基づいて当該処理対象領域に存在する物体の種別を判定する際に、当該処理対象領域内の各画素の輝度情報も活用するようにしたものである。なお、本実施形態におけるその他の部分は上述した第1の実施形態と同様であるので、以下では、本実施形態に特徴的な部分についてのみ説明し、第1の実施形態と同様の部分については重複した説明を省略する。
本実施形態の物体種別判定装置では、画像処理装置2の領域特定部11によりカメラ1の撮影画像における処理対象領域が特定され、エッジ成分解析部12により処理対象領域内の各エッジ成分のエッジ方向やエッジ強度が求められると、判定部13が、処理対象領域内の各エッジ成分のエッジ方向毎のヒストグラムやエッジ強度毎のヒストグラムを作成するとともに、処理対象領域内の各画素の輝度情報を確認して、処理対象領域内の各画素についての輝度毎のヒストグラムを作成する。
処理対象領域内の各画素の輝度に着目した場合、例えば、車両のように一面がボディで同じ色のものと、歩行者のように、頭部、服装部、脚部で異なる色になるものとでは、輝度毎のヒストグラムの形状は大きく異なるものとなる。また、このような処理対象領域内の各画素についての輝度毎のヒストグラムの時系列的な変化を見ると、第4の実施形態で説明した処理対象領域内の各エッジ成分のエッジ方向毎のヒストグラムの時系列的な変化と同様に、歩行者などそれ自身が動くものと車両などの人工物体とでは、前者の方が、例えば、歩行者の背後に見える背景部分が変化する、もしくは歩行者の手足などの見え方や角度も変わるために、ヒストグラム形状の変化が起こりやすいといった特徴がある。したがって、このようなヒストグラムの形状の違いを物体毎に特徴付けておけば、この輝度毎のヒストグラムの形状やその時系列的な変化から、処理対象領域に存在する物体の種別をある程度正確に予測することができる。
このような観点から、本実施形態の物体種別判定装置では、画像処理装置2の判定部13が、処理対象領域内の各エッジ成分のエッジ方向毎のヒストグラムやエッジ強度毎のヒストグラムだけでなく、例えば、処理対象領域内の各画素についての輝度毎のヒストグラムも用いて、処理対象領域に存在する物体の種別を判定するようにしている。その結果、例えば、判定対象である歩行者が背景と似た色、似た明るさであり、処理対象領域内の各エッジ成分のエッジ強度が弱いために、エッジ成分のエッジ方向毎のヒストグラムとして物体の種別判定に有効なヒストグラムが得られないような場合であっても、画素の輝度情報に基づく物体の種別判定が可能となるため、環境に対しロバストで、且つ精度の高い判定を実現することができる。
以上説明したように、本実施形態の物体種別判定装置によれば、画像処理装置2の判定部13が、処理対象領域内の各エッジ成分のエッジ方向毎のヒストグラムやエッジ強度毎のヒストグラムに基づいて当該処理対象領域に存在する物体の種別を判定する際に、当該処理対象領域内の各画素の輝度情報も活用するようにしているので、物体の種別の判定をより高い精度で正確に行うことができ、また、環境に対してロバストな判定を行うことができる。
[実施形態の効果]
以上、具体的な実施形態を例示しながら詳細に説明したように、本発明を適用した物体種別判定装置においては、カメラ1で撮影された画像に対する画像処理によりその画像に現れる物体の種別を判定するにあたって、画像に現れる物体が共通に持つ情報であるエッジ成分のエッジ方向やエッジ強度という情報を用いて、その物体の種別を判定する構成とした。これにより、本発明を適用した物体種別判定装置によれば、歩行者のように、形状のモデル化や定式化が難しく、従来手法でよく用いられるテンプレートマッチングなどの手法では種別の判定が難しい物体であっても、その種別判定が可能となる。
以上、具体的な実施形態を例示しながら詳細に説明したように、本発明を適用した物体種別判定装置においては、カメラ1で撮影された画像に対する画像処理によりその画像に現れる物体の種別を判定するにあたって、画像に現れる物体が共通に持つ情報であるエッジ成分のエッジ方向やエッジ強度という情報を用いて、その物体の種別を判定する構成とした。これにより、本発明を適用した物体種別判定装置によれば、歩行者のように、形状のモデル化や定式化が難しく、従来手法でよく用いられるテンプレートマッチングなどの手法では種別の判定が難しい物体であっても、その種別判定が可能となる。
また、本発明を適用した物体種別判定装置での処理は、エッジ成分のエッジ方向やエッジ強度という単純な情報を用いた処理となっているため、物体の種別判定を簡素なハードウエア構成で高速に実行することが可能となっている。そのため、例えば車両に搭載された車載カメラを用いた周囲認識など、小型高速化が求められる装置でも実装が可能であるという利点がある。さらに、このようなエッジ成分のエッジ方向やエッジ強度の情報を用いた処理は、例えば、輝度画像のカメラや赤外線カメラといったように、画像を撮影するカメラ1の種類が変わった場合でも、処理の閾値などのパラメータをカメラ1の種類に合わせて調整することで同様に実行できるので、様々なタイプの画像処理の分野への応用が可能である。
なお、以上説明した各実施形態の物体種別判定装置は、本発明の一適用例を例示したものであり、本発明の技術的範囲は、以上の実施形態の説明で開示した内容に限定されるものではなく、これらの開示から容易に導き得る様々な代替技術も含まれることは勿論である。
1 カメラ
2 画像処理装置
11 領域特定部
12 エッジ成分解析部
13 判定部
20 スキャニングレーザレーダ
100 自車両
200 歩行者
300 先行車両(車両)
2 画像処理装置
11 領域特定部
12 エッジ成分解析部
13 判定部
20 スキャニングレーザレーダ
100 自車両
200 歩行者
300 先行車両(車両)
Claims (12)
- カメラで撮影された車両周囲の画像を処理して、当該画像に現れる物体の種別を判定する物体種別判定装置において、
前記カメラの撮影画像内の物体が存在する領域を処理対象領域として特定する領域特定手段と、
前記領域特定手段により特定された処理対象領域内の全ての画素毎または前記処理対象領域内の複数の代表画素毎に、当該画素とその周辺画素とで形成されるエッジ成分のエッジ方向とエッジ強度とを求めるエッジ成分解析手段と、
前記エッジ成分解析手段によって求められた前記処理対象領域内の各エッジ成分のエッジ方向とエッジ強度との少なくとも何れかの分布をもとに、前記処理対象領域に存在する物体の種別を判定する判定手段とを備えることを特徴とする物体種別判定装置。 - 前記エッジ成分解析手段は、複数のエッジ方向毎に定義された複数のエッジ検出用フィルタを用いて、前記処理対象領域内の各エッジ成分のエッジ方向とエッジ強度とを求めることを特徴とする請求項1に記載の物体種別判定装置。
- 前記エッジ成分解析手段は、垂直方向のエッジ検出用フィルタと水平方向のエッジ検出用フィルタとを用いて、垂直方向のエッジ検出用フィルタとの間の相関及び水平方向のエッジ検出用フィルタとの間の相関から、前記処理対象領域内の各エッジ成分のエッジ方向とエッジ強度とを求めることを特徴とする請求項2に記載の物体種別判定装置。
- 前記判定手段は、前記処理対象領域内の各エッジ成分のエッジ方向毎のヒストグラムを作成し、このエッジ方向毎のヒストグラムに基づいて、前記処理対象領域に存在する物体の種別を判定することを特徴とする請求項1乃至3の何れかに記載の物体種別判定装置。
- 前記判定手段は、前記処理対象領域内の各エッジ成分のうちで、エッジ強度が所定の閾値以上のエッジ成分を対象として、エッジ方向毎のヒストグラムを作成することを特徴とする請求項4に記載の物体種別判定装置。
- 前記判定手段は、前記処理対象領域内の各エッジ成分のエッジ強度毎のヒストグラムを作成し、このエッジ強度毎のヒストグラムに基づいて、前記処理対象領域存在する物体の種別を判定することを特徴とする請求項1乃至5の何れかに記載の物体種別判定装置。
- 前記判定手段は、前記処理対象領域内の各エッジ成分のエッジ方向とエッジ強度との少なくとも何れかの分布の時系列変化をもとに、前記処理対象領域に存在する物体の種別を判定することを特徴とする請求項1乃至6の何れかに記載の物体種別判定装置。
- 前記カメラ以外の物体検知手段からの情報を取得する情報取得手段をさらに備え、
前記判定手段は、前記処理対象領域内の各エッジ成分のエッジ方向とエッジ強度との少なくとも何れかの分布と、前記情報取得手段により取得された情報とをもとに、前記処理対象領域に存在する物体の種別を判定することを特徴とする請求項1乃至7の何れかに記載の物体種別判定装置。 - 前記カメラ以外の物体検知手段からの情報を取得する情報取得手段をさらに備え、
前記領域特定手段は、前記情報取得手段により取得された情報を用いて、前記カメラの撮影画像内の物体が存在する領域を処理対象領域として特定することを特徴とする請求項1乃至7の何れかに記載の物体種別判定装置。 - 前記カメラ以外の物体検知手段は、車両周囲に電磁波を発信して物体にて反射された反射波を受信することで、車両周囲に存在する物体を検知するレーダ装置であることを特徴とする請求項8又は9に記載の物体種別判定装置。
- 前記判定手段は、前記処理対象領域内の各エッジ成分のエッジ方向とエッジ強度との少なくとも何れかの分布と、前記処理対象領域内の各画素の輝度情報とをもとに、前記処理対象領域に存在する物体の種別を判定することを特徴とする請求項1乃至10の何れかに記載の物体種別判定装置。
- カメラで撮影された車両周囲の画像を処理して、当該画像に現れる物体の種別を判定する物体種別判定方法であって、
前記カメラの撮影画像内の物体が存在する領域を処理対象領域として特定する第1のステップと、
前記第1のステップで特定した処理対象領域内の全ての画素毎または前記処理対象領域内の複数の代表画素毎に、当該画素とその周辺画素とで形成されるエッジ成分のエッジ方向とエッジ強度とを求める第2のステップと、
前記第2のステップで求めた前記処理対象領域内の各エッジ成分のエッジ方向とエッジ強度との少なくとも何れかの分布をもとに、前記処理対象領域に存在する物体の種別を判定する第3のステップとを有することを特徴とする物体種別判定方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005348059A JP2007156626A (ja) | 2005-12-01 | 2005-12-01 | 物体種別判定装置及び物体種別判定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005348059A JP2007156626A (ja) | 2005-12-01 | 2005-12-01 | 物体種別判定装置及び物体種別判定方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007156626A true JP2007156626A (ja) | 2007-06-21 |
Family
ID=38240940
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005348059A Pending JP2007156626A (ja) | 2005-12-01 | 2005-12-01 | 物体種別判定装置及び物体種別判定方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007156626A (ja) |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009176091A (ja) * | 2008-01-25 | 2009-08-06 | Fuji Heavy Ind Ltd | 物体検出装置 |
JP2009187357A (ja) * | 2008-02-07 | 2009-08-20 | Honda Motor Co Ltd | 物体種別判定装置、物体種別判定方法、及び物体種別判定用プログラム |
JP2009276910A (ja) * | 2008-05-13 | 2009-11-26 | Toyota Central R&D Labs Inc | 画像処理装置、方法及びプログラム |
WO2010055629A1 (ja) | 2008-11-11 | 2010-05-20 | パナソニック株式会社 | 特徴量抽出装置、物体識別装置及び特徴量抽出方法 |
JP2010160770A (ja) * | 2009-01-12 | 2010-07-22 | Denso Corp | 歩行者検出装置 |
JP2010231532A (ja) * | 2009-03-27 | 2010-10-14 | Fujitsu Ltd | 画像処理プログラム、画像処理方法および画像処理装置 |
JP2011508323A (ja) * | 2007-12-24 | 2011-03-10 | マイクロソフト コーポレーション | 不変の視覚場面及び物体の認識 |
JP2011113330A (ja) * | 2009-11-27 | 2011-06-09 | Fuji Heavy Ind Ltd | 物体検出装置および運転支援システム |
JP2011154580A (ja) * | 2010-01-28 | 2011-08-11 | Hitachi Automotive Systems Ltd | 車両用外界認識装置 |
WO2012029382A1 (ja) * | 2010-08-31 | 2012-03-08 | 本田技研工業株式会社 | 車両周辺監視装置 |
JP2012133587A (ja) * | 2010-12-21 | 2012-07-12 | Canon Inc | 画像解析装置、画像解析方法及びプログラム |
US8306318B2 (en) | 2009-09-02 | 2012-11-06 | Kabushiki Kaisha Toyota Chuo Kenkyusho | Image processing apparatus, image processing method, and computer readable storage medium |
JP2012221456A (ja) * | 2011-04-14 | 2012-11-12 | Toyota Central R&D Labs Inc | 対象物識別装置及びプログラム |
JP2013114421A (ja) * | 2011-11-28 | 2013-06-10 | Toyota Motor Corp | 車両用制御装置、特定物体判別装置、特定物体判別方法、特定物体判別プログラム |
JP2014130404A (ja) * | 2012-12-28 | 2014-07-10 | Aero Asahi Corp | 路面画像生成システム並びに影除去装置、方法及びプログラム |
US8942917B2 (en) | 2011-02-14 | 2015-01-27 | Microsoft Corporation | Change invariant scene recognition by an agent |
JP2015203677A (ja) * | 2014-04-16 | 2015-11-16 | 本田技研工業株式会社 | 物体認識装置 |
EP2993622A1 (en) | 2014-09-03 | 2016-03-09 | Konica Minolta, Inc. | Image processing device and image processing method for feature point detection |
JP2016115259A (ja) * | 2014-12-17 | 2016-06-23 | 日立建機株式会社 | 作業機械およびその周囲監視装置 |
KR20180043610A (ko) * | 2016-10-20 | 2018-04-30 | 현대자동차주식회사 | 차선 추정 장치 및 방법 |
JP2020035334A (ja) * | 2018-08-31 | 2020-03-05 | 株式会社デンソー | 画像処理装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0383474A (ja) * | 1989-08-28 | 1991-04-09 | Matsushita Electric Works Ltd | 車両検出装置 |
JPH0997335A (ja) * | 1995-09-29 | 1997-04-08 | Hitachi Ltd | 車両認識装置及び交通流計測装置 |
JP2002252768A (ja) * | 2001-02-26 | 2002-09-06 | Ricoh Co Ltd | カラー画像処理装置、カラー画像処理方法、カラー画像処理プログラム、及び記録媒体 |
JP2004086417A (ja) * | 2002-08-26 | 2004-03-18 | Gen Tec:Kk | 横断歩道等における歩行者検出方法及び同装置 |
JP2005284410A (ja) * | 2004-03-26 | 2005-10-13 | Omron Corp | 車両認識装置及び車両認識方法 |
-
2005
- 2005-12-01 JP JP2005348059A patent/JP2007156626A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0383474A (ja) * | 1989-08-28 | 1991-04-09 | Matsushita Electric Works Ltd | 車両検出装置 |
JPH0997335A (ja) * | 1995-09-29 | 1997-04-08 | Hitachi Ltd | 車両認識装置及び交通流計測装置 |
JP2002252768A (ja) * | 2001-02-26 | 2002-09-06 | Ricoh Co Ltd | カラー画像処理装置、カラー画像処理方法、カラー画像処理プログラム、及び記録媒体 |
JP2004086417A (ja) * | 2002-08-26 | 2004-03-18 | Gen Tec:Kk | 横断歩道等における歩行者検出方法及び同装置 |
JP2005284410A (ja) * | 2004-03-26 | 2005-10-13 | Omron Corp | 車両認識装置及び車両認識方法 |
Cited By (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011508323A (ja) * | 2007-12-24 | 2011-03-10 | マイクロソフト コーポレーション | 不変の視覚場面及び物体の認識 |
EP2235680A4 (en) * | 2007-12-24 | 2018-03-21 | Microsoft Technology Licensing, LLC | Invariant visual scene and object recognition |
KR101548928B1 (ko) * | 2007-12-24 | 2015-09-02 | 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 | 불변적인 시각적 장면 및 객체 인식 |
JP2009176091A (ja) * | 2008-01-25 | 2009-08-06 | Fuji Heavy Ind Ltd | 物体検出装置 |
JP2009187357A (ja) * | 2008-02-07 | 2009-08-20 | Honda Motor Co Ltd | 物体種別判定装置、物体種別判定方法、及び物体種別判定用プログラム |
JP2009276910A (ja) * | 2008-05-13 | 2009-11-26 | Toyota Central R&D Labs Inc | 画像処理装置、方法及びプログラム |
WO2010055629A1 (ja) | 2008-11-11 | 2010-05-20 | パナソニック株式会社 | 特徴量抽出装置、物体識別装置及び特徴量抽出方法 |
US8649608B2 (en) | 2008-11-11 | 2014-02-11 | Panasonic Corporation | Feature value extracting device, object identification device, and feature value extracting method |
JP2010160770A (ja) * | 2009-01-12 | 2010-07-22 | Denso Corp | 歩行者検出装置 |
JP2010231532A (ja) * | 2009-03-27 | 2010-10-14 | Fujitsu Ltd | 画像処理プログラム、画像処理方法および画像処理装置 |
US8306318B2 (en) | 2009-09-02 | 2012-11-06 | Kabushiki Kaisha Toyota Chuo Kenkyusho | Image processing apparatus, image processing method, and computer readable storage medium |
JP2011113330A (ja) * | 2009-11-27 | 2011-06-09 | Fuji Heavy Ind Ltd | 物体検出装置および運転支援システム |
JP2011154580A (ja) * | 2010-01-28 | 2011-08-11 | Hitachi Automotive Systems Ltd | 車両用外界認識装置 |
US8965056B2 (en) | 2010-08-31 | 2015-02-24 | Honda Motor Co., Ltd. | Vehicle surroundings monitoring device |
WO2012029382A1 (ja) * | 2010-08-31 | 2012-03-08 | 本田技研工業株式会社 | 車両周辺監視装置 |
JP2012133587A (ja) * | 2010-12-21 | 2012-07-12 | Canon Inc | 画像解析装置、画像解析方法及びプログラム |
US8942917B2 (en) | 2011-02-14 | 2015-01-27 | Microsoft Corporation | Change invariant scene recognition by an agent |
US9619561B2 (en) | 2011-02-14 | 2017-04-11 | Microsoft Technology Licensing, Llc | Change invariant scene recognition by an agent |
JP2012221456A (ja) * | 2011-04-14 | 2012-11-12 | Toyota Central R&D Labs Inc | 対象物識別装置及びプログラム |
JP2013114421A (ja) * | 2011-11-28 | 2013-06-10 | Toyota Motor Corp | 車両用制御装置、特定物体判別装置、特定物体判別方法、特定物体判別プログラム |
JP2014130404A (ja) * | 2012-12-28 | 2014-07-10 | Aero Asahi Corp | 路面画像生成システム並びに影除去装置、方法及びプログラム |
JP2015203677A (ja) * | 2014-04-16 | 2015-11-16 | 本田技研工業株式会社 | 物体認識装置 |
US9691001B2 (en) | 2014-09-03 | 2017-06-27 | Konica Minolta, Inc. | Image processing device and image processing method |
EP2993622A1 (en) | 2014-09-03 | 2016-03-09 | Konica Minolta, Inc. | Image processing device and image processing method for feature point detection |
JP2016115259A (ja) * | 2014-12-17 | 2016-06-23 | 日立建機株式会社 | 作業機械およびその周囲監視装置 |
KR20180043610A (ko) * | 2016-10-20 | 2018-04-30 | 현대자동차주식회사 | 차선 추정 장치 및 방법 |
KR101866075B1 (ko) * | 2016-10-20 | 2018-06-08 | 현대자동차주식회사 | 차선 추정 장치 및 방법 |
US10279806B2 (en) | 2016-10-20 | 2019-05-07 | Hyundai Motor Company | Lane estimating apparatus and method |
JP2020035334A (ja) * | 2018-08-31 | 2020-03-05 | 株式会社デンソー | 画像処理装置 |
JP7192312B2 (ja) | 2018-08-31 | 2022-12-20 | 株式会社デンソー | 画像処理装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007156626A (ja) | 物体種別判定装置及び物体種別判定方法 | |
JP3861781B2 (ja) | 前方車両追跡システムおよび前方車両追跡方法 | |
JP3822515B2 (ja) | 障害物検知装置及びその方法 | |
JP3596314B2 (ja) | 物体端の位置計測装置および移動体の通行判断装置 | |
JP4263737B2 (ja) | 歩行者検知装置 | |
Reisman et al. | Crowd detection in video sequences | |
JP4857839B2 (ja) | 物体検出装置 | |
KR101176693B1 (ko) | 거리센서를 이용한 차선인식 방법 및 그 시스템 | |
JP5827508B2 (ja) | 車両用障害物検出装置及びそれを用いた車両 | |
JP2007234019A (ja) | 車両画像領域特定装置およびその方法 | |
US20220366700A1 (en) | Object recognition device | |
JP2008242571A (ja) | 物体検出装置 | |
JP2000285245A (ja) | 移動体の衝突防止装置、衝突防止方法、および記録媒体 | |
JP3656056B2 (ja) | 割り込み車両検出装置及びその方法 | |
JP5983729B2 (ja) | 白線検出装置、白線検出フィルタ装置及び白線検出方法 | |
JP3812384B2 (ja) | 先行車両認識装置 | |
JP2020107290A (ja) | 付着物検出装置および付着物検出方法 | |
JP4123138B2 (ja) | 車両検知方法及び車両検知装置 | |
JP2009230530A (ja) | 車両認識装置、車両、及び車両認識用プログラム | |
JP4887540B2 (ja) | 車両周辺監視装置、車両、車両周辺監視用プログラム、車両周辺監視方法 | |
JP2019218022A (ja) | 線路検出装置 | |
JP6701905B2 (ja) | 検出装置、視差値導出装置、物体認識装置、機器制御システム、およびプログラム | |
JP5862217B2 (ja) | マーカの検出および追跡装置 | |
JP4765113B2 (ja) | 車両周辺監視装置、車両、車両周辺監視用プログラム、車両周辺監視方法 | |
JP3915621B2 (ja) | レーンマーク検出装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20081028 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100817 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101012 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110104 |