JP2009294842A - 歩行者検出装置及び歩行者検出方法 - Google Patents

歩行者検出装置及び歩行者検出方法 Download PDF

Info

Publication number
JP2009294842A
JP2009294842A JP2008146892A JP2008146892A JP2009294842A JP 2009294842 A JP2009294842 A JP 2009294842A JP 2008146892 A JP2008146892 A JP 2008146892A JP 2008146892 A JP2008146892 A JP 2008146892A JP 2009294842 A JP2009294842 A JP 2009294842A
Authority
JP
Japan
Prior art keywords
target
pedestrian
region
area
dimensional object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008146892A
Other languages
English (en)
Other versions
JP5320828B2 (ja
Inventor
Kazumi Fujimoto
和巳 藤本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2008146892A priority Critical patent/JP5320828B2/ja
Publication of JP2009294842A publication Critical patent/JP2009294842A/ja
Application granted granted Critical
Publication of JP5320828B2 publication Critical patent/JP5320828B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】背景を歩行者と誤検出することを防ぐ。
【解決手段】
カメラ10と、撮像された画像から特徴点を抽出する特徴点抽出部21と、抽出された特徴点の移動速度及び/又は移動方向を含む移動情報をそれぞれ算出する移動情報算出部22と、算出された特徴点の移動情報に基づいて、撮像された画像の中から移動する対象立体物を含む対象領域を抽出する判定対象抽出部31と、抽出された対象領域に関する移動情報と対象領域の周囲に設定された比較領域に関する移動情報とを比較し、その移動情報の比較結果に基づいて抽出された対象領域に含まれる対象立体物が歩行者であるか否かを判定する歩行者判定手段34と、を有する。
【選択図】 図1

Description

本発明は、撮像された画像に基づいて歩行者を検出する歩行者検出装置及び歩行者検出方法に関する。
車載カメラの撮像画像からオプティカルフロー(画像速度情報)を利用して歩行者や車両等の移動体を検出する移動体検出装置と移動検出方法が提案されている。例えば、撮像画像のオプティカルフローを求め、移動体の動きに基づいて抽出された撮像画像の背景のオプティカルフローと撮像画像全体のオプティカルフローとの比較により、移動体を検出する移動体検出方法が提案されている(特許文献1参照)。
特開2004−56763号公報
従来の移動体検出装置または移動体検出方法では、移動体を検出するために撮像画像と背景のオプティカルフローを正確に算出する必要があるが、実際の環境にて撮像される画像では、様々な形状のエッジが複雑に組み合わさり、これら各画素の時間的な対応付けも複雑であるため、正確なオプティカルフローを算出することが難しい。このため、単純に撮像画像のオプティカルフローと背景のオプティカルフローを比較しただけでは、背景を歩行者と判定する誤検出が発生する可能性があるという問題があった。
本願発明が解決しようとする課題は、背景を歩行者として誤検出することを低減させる歩行者検出装置及び歩行者検出方法を提供することである。
本発明は、撮像画像から抽出された対象領域の移動情報と対象領域の周囲に設定された比較領域の移動情報とに基づいて、抽出された対象領域に含まれる対象立体物が歩行者であるか否かを判定することにより、上記課題を解決する。
本発明によれば、対象立体物を含む対象領域の移動情報と比較領域の移動情報とを比較することにより、近傍に存在する背景に対する対象立体物の相対的な動きを観察することができるので、背景を歩行者として誤検出することを低減させることができる。
<第1実施形態>
図1は、歩行者検出装置100を含む車載装置1000のブロック構成の一例を示す図である。本実施形態の歩行者検出装置100は、車両に搭載され、車両の前方(進行方向に沿った前方)の撮像画像に基づいて歩行者を検出する装置である。
図1に示すように、本実施形態の車載装置1000は、歩行者検出装置100と、この歩行者検出装置100から歩行者検出情報を取得し、取得した歩行者検出情報に基づく情報をユーザ又は車両側に出力する車両コントローラ200等の外部装置とを有する。外部装置としては、図1に示すように、車両の駆動を制御する車両コントローラ200の他、歩行者の存在を知らせる警報装置300、歩行者の存在に応じた走行支援を行う走行支援装置400、ディスプレイ及び/又はスピーカを有し、歩行者の存在に関する情報を提示する出力装置500を一又は二以上備える。これら本実施形態の歩行者検出装置100、車両コントローラ200、警報装置300、走行支援装置400、出力装置500の演算処理は、CPU、MPU、DSP、FPGAなどの動作回路を組み合わせて構成された処理手段により実行される。
なお、これらの装置の処理手段は、CAN(Controller Area Network)などの車載LANにより接続される。
本実施形態の歩行者検出装置100は、カメラ10と、カメラ10の撮像データを記憶する画像メモリ11と、撮像された画像を処理する画像処理部20と、判定処理部30とを備える。
以下、画像処理装置100が備える各構成について説明する。
カメラ10は、例えばCCD(Charge-Coupled Devices)やCMOS(Complementary Metal-Oxide Semiconductor)などの撮像素子を有するカメラであり、所定周期で連続的に車両周囲(車両前方、車両後方、車両側方など)を撮像し、フレーム毎に撮像された画像を画像メモリ11に出力する画像メモリ11は、画像データをアクセス可能な状態で記憶する。画像メモリ11として、HDD、CD、MD、DVD、光ディスクその他の記録媒体を用いる。
図2にカメラ10の設置例を示す。図2に示すように、カメラ10は車両の室内上部前方に設置される。同図に示すように、本実施形態では、1つのカメラ10を車両に設置する。つまり、本実施形態では、単眼のカメラ10で車両周囲を撮像する。
さらに、カメラ10は、その光軸LSが車両前方正面方向(Z方向)に向き、撮像面の水平軸X(図示省略)は路面と平行となるように、また撮像面の垂直軸Y(図示省略)が路面と略垂直になるように設定される。
カメラ10により撮像された画像(自車両前方の画像)の例を図3に示す。カメラ10により撮像された撮像画像は、画像左上頂点を原点として左から右へ延在するx軸、上から下へ延在するy軸により定義されるxy座標系により表される。図3に示す画像例は、左右の白線、外壁などの走路の境界線と、道路の左側から右側へ移動する歩行者が撮像画像に含まれる。
次に、画像処理部20について説明する。画像処理部20は、特徴点抽出部21と、移動情報算出部22と、グループ化部23と、座標変換部24とを備え、カメラ10により撮像された撮像画像の処理を行う。
まず、特徴点抽出部21について説明する。特徴点抽出部21は、カメラ10により撮像された撮像画像から特徴点を抽出する。この特徴点抽出部21は、カメラ10により撮像された画像を画像メモリ11から取得し、取得した撮像画像を所定の閾値を用いて2値化することによって、画像内に存在する物体のエッジを抽出する。図4(a)に、抽出された垂直方向のエッジ例を示す。次に、抽出された各エッジに対して、細線化処理を行ってエッジ幅を絞り、エッジの中心を正確に設定する(図4(b)参照)。さらに、細線化されたエッジのエッジ幅が一定の幅となるように、例えば3画素分の幅となるように、エッジを水平方向に拡張する(図4(c)参照)。この操作により、抽出したエッジが正規化され、各エッジが均一の幅を持つエッジ画像を得る。
移動情報算出部22は、特徴点抽出部21により抽出された特徴点及びこの特徴点周囲に対応する画素について、その移動方向及び/又は移動速度を含む移動情報をそれぞれ算出する。求めた特徴部の移動速度と移動方向は、撮像タイミング識別子又はフレーム識別子と対応づけて記憶する。この画素の移動情報は、画素の特定情報とともに、「画素の移動速度」と「画素の移動方向」を含む。なお、一の画像データ中に複数の特徴部が存在する場合は、すべての特徴部についてその移動情報を算出する。
以下、本実施形態の移動情報算出部22について説明する。
本実施形態の移動情報算出部22は、カメラ10により撮像された物体の画像の情報に基づいて、物体の外延に対応するエッジが検出された位置の画素のカウント値をカウントアップし、このカウント値の傾きに基づいて、エッジの移動速度及び移動方向を算出する。
また、移動情報算出部20は、撮像タイミングが異なる画像データについて、各画像データに含まれるエッジに対応する画素の画素カウンタのカウンタ値を所定の手法で更新する。ここで、画素カウンタとは、各画素に設定されたカウンタであり、画素がエッジに対応する場合は画素カウンタのカウンタ値を+1加算し、画素がエッジに対応しない場合は画素カウンタのカウンタ値を0とする(初期化する)カウンタである。このカウンタ値の更新処理を、カメラ10により所定周期で繰り返し撮像されるフレーム毎に行う。この操作を行うと、エッジに対応する時間が長い画素は、対応する画素カウンタのカウンタ値が大きくなり、他方、エッジに対応する時間が短い画素は、対応する画素カウンタのカウンタ値が小さくなる。
この画素カウンタのカウンタ値の変化は、エッジの移動方向と移動量を表していることになる。このため、このカウンタ値に基づいて、撮像画像上におけるエッジの移動方向と移動速度とを算出する。画像の座標系は方位を表しているため、エッジ、及びこのエッジに対応する特徴部の移動方向と移動速度を求めることができる。
さらに、図4に基づいて、移動情報算出部22が行う移動情報の算出手法を説明する。図4は移動情報の算出処理を説明するための図、すなわち、抽出されたエッジが正規化されたエッジ画像を取得し、エッジのカウンタ値(滞留時間)から移動方向と移動速度を算出する処理を具体的に説明するための図である。
まず、特徴点抽出部21は、エッジ画像に対して2値化処理を行う。2値化処理とはエッジの検出された位置の画素を1とし、エッジの検出されなかった位置の画素を0とする処理である。図4(a)は抽出された垂直方向のエッジの2値化画像例を示す。
次に、図4(b)に示すように、生成された2値化画像に対して、細線化処理を行う。細線化処理とは、検出されたエッジのエッジ幅を所定画素幅になるまで縮小する処理である。つまり、抽出された各エッジに対して細線化処理を行ってエッジ幅を絞る。本例では、図4(b)に示すように、所定画素幅として1画素になるまでエッジのエッジ幅を細線化する。このようにエッジを所定の画素幅になるまで細線化することによって、エッジの中心となる中心位置を設定する。なお、本例では、1画素に細線化する例を示すが、細線化する画素数は特に限定されない。
次に、細線化されたエッジのエッジ幅を膨張させる膨張処理を行う。膨張処理とは、細線化によって設定された中心位置からエッジの移動方向に向かってエッジ幅が一定の幅となるように膨張させるとともに、中心位置からエッジの移動方向と反対方向にもエッジ幅を膨張させる処理である。本例では、細線化されたエッジのエッジ幅が3画素分の幅となるように、エッジを水平方向に膨張させる。この処理により、抽出されたエッジを正規化し、各エッジの幅が均一なエッジ画像を得る。
具体的に、図4(c)に示すように、エッジの中心位置x0からエッジの移動方向(x軸の正方向)に1画素膨張させるとともに、エッジの中心位置x0からエッジの移動方向と反対方向(x軸の負方向)に1画素膨張させて、エッジ幅を3画素に膨張させる。
このように細線化処理と膨張処理とを行うことによって、抽出されたエッジ画像のエッジ幅を、エッジの移動方向に向かって所定の幅に統一し、規格化する。
次に、移動情報算出部22が移動情報を算出するために行う、カウントアップ処理について説明する。ここに言うカウントアップ処理とは、エッジが検出された画素の位置に対応するメモリアドレスの値をカウントアップし、エッジが検出されなかった画素の位置に対応するメモリアドレスの値を初期化する処理である。
以下、図4(c)〜(f)に基づいて移動情報算出部22によるエッジのカウントアップ処理について説明する。説明の便宜のため、ここでは、エッジがx軸の正方向に移動する場合を例にして説明する。エッジがx軸の負方向やy軸方向、あるいは2次元的に移動する場合においても、基本的な処理手法は共通する。
図4(c)に示すように、エッジはあるフレームにおいて位置x0にエッジの中心位置がある。そして、その中心位置からエッジの移動方向に1画素の位置x0+1に膨張され、同様に、中心位置からエッジの移動方向と反対方向に1画素の位置x0−1に膨張される。
このようなエッジが検出された位置、「x0−1」、「x0」、「x0+1」に対応するメモリアドレスのカウント値は+1カウントアップされる。他方、エッジが検出されなかった位置に対応するメモリアドレスのカウント値は、リセットされる。
例えば、図4(d)では、時刻tにおいて、位置「x0−1」、「x0」、「x0+1」にエッジが検出されている。このため、それぞれの位置に対応するメモリアドレスのカウント値が各1カウントアップされる。その結果、位置「x0+1」のカウント値は「1」、位置「x0」のカウント値は「3」、位置「x0−1」のカウント値は「5」である。
次に、図4(e)に示すように、時刻t+1になってもエッジが移動していないので、位置「x0−1」、「x0」、「x0+1」の各位置でエッジが検出される。このため、位置「x0−1」、「x0」、「x0+1」のカウント値をさらに1ずつカウントアップする。その結果、位置「x0+1」のカウント値は2、位置「x0」のカウント値は4、位置「x0−1」のカウント値は6となる。
さらに、図4(f)に示すように、時刻t+2では、エッジがx軸の正方向に1画素シフトして位置「x0」、「x0+1」、「x0+2」の位置でエッジが検出される。このため、エッジが検出された位置「x0」、「x0+1」、「x0+2」に対応するメモリアドレスのカウント値はカウントアップされる。他方、エッジが検出されなかった位置「x0−1」のカウント値はリセットされ、「ゼロ」となる。その結果、図4(f)に示すように位置「x0+2」のカウント値は1、位置「x0+1」のカウント値は3、位置「x0」のカウント値は5となる。さらに、エッジが検出されなかった位置「x0−1」のカウント値はリセットされ、「0」になっている。
このように、移動情報算出部22は、エッジが検出された位置に対応するメモリアドレスのカウント値をカウントアップし、エッジの検出されなかった位置に対応するメモリアドレスのカウント値をリセットする。
なお、図4に基づく説明においては、カウント値を検出する位置として、エッジの中心位置「x0」と、この中心位置からエッジの移動方向へ1画素の位置「x0+1」と、中心位置からエッジの移動方向と反対方向に1画素の位置「x0−1」の3箇所でカウント値を検出するが、後述するカウント値の傾きが求められれば、カウント値を検出するポイントの配置、数は限定されない。つまり、エッジの移動方向に対して2箇所以上においてカウント値を検出できれば、カウント値の検出箇所はいくつであってもよい。
また、エッジが移動する速度に比べて、フレームレートが十分に高く設定されていれば、連続するフレーム間において、エッジは同じ位置で複数回検出される。例えば、図4の例では、連続する時刻tのフレームと時刻t+1のフレームにおいて、エッジは位置x0において2回検出される。したがって、エッジが検出された位置に対応するメモリアドレスのカウント値をカウントアップしていくと、そのカウント値はその位置においてエッジが検出されている時間(フレーム数、滞留時間)と相関する。特に、エッジのカウント値の中で最小のカウント値hは、エッジが移動してから何フレームの間、同じ位置にあるかということを表す。
次に、本実施形態における、エッジの移動速度、移動方向及び位置の算出手法について説明する。本実施形態では、カウント値の傾きを算出し、この傾きに基づいて、エッジの移動速度、移動方向及び位置を算出する。
例えば、図4(e)の場合では、位置「x0−1」、「x0」、「x0+1」のカウント値がそれぞれ「6」、「4」、「2」である。位置「x0−1」のカウント値「6」から「x0+1」のカウント値「2」を引くと、カウント値の傾きHは、H=(6−2)/2=2と算出できる。
これは、H={(エッジが位置x0−1に移動してから現在までの時間)−(エッジが位置x0+1に移動した後の時間)}/(2画素)を意味する。つまり、傾きHを算出することにより、エッジが、位置x0にある1画素を通過するのに要する時間(フレーム数)を算出することになる。
したがって、カウント値の傾きHは、エッジが1画素移動するために何フレームを要するかに相当し、このカウント値の傾きHに基づいてエッジの移動速度1/Hを算出する。図4(e)では1画素移動するのに2フレームを要することになるので、エッジの移動速度は1/2(画素/フレーム)と算出する。同様に、図4(f)でもH=(5−1)/2=2となるので、エッジの移動速度は1/2(画素/フレーム)になる。
続いて、カウント値の大小に基づいて、エッジの移動方向を判断する手法について説明する。エッジの無い位置にエッジが移動し、新たにエッジが検出された位置のカウント値は1となるから、各位置のカウント値の中では最も小さな値となる。したがって、エッジが移動する方向のカウント値は小さく、エッジが移動する方向と反対方向のカウント値は大きくなる。この傾向を利用して、エッジの移動方向を判断することができる。
さらに、エッジが移動する速度に比べてフレームレートが十分に高く設定されていれば、検出対象物は等速移動をしていると仮定することができる。また、現在の位置におけるカウント値の中で最小のカウント値hは、エッジがその位置で検出されている時間、すなわちエッジが移動してから何フレームの間、同じ位置にあるかということを表している。これらのことにより、エッジの位置は、エッジの中心位置をx0とすると、「エッジの位置=x0+h/H」により求めることができる。例えば、図4(f)では、エッジの速度は1/2(画素/フレーム)で、時刻t+2の時点では1フレーム連続して同じ位置でエッジが検出されているので、時刻t+2のエッジの位置は「1(フレーム)×{1/2(画素/フレーム)}=0.5画素」だけ位置x0から移動していると算出することができる。
以上のことから、エッジが検出された位置に対応するメモリアドレスのカウント値をカウントアップし、カウントアップされたカウント値の傾きに基づいてエッジの移動速度及び移動方向を算出することができる。
また、移動情報算出部22は、撮像画像上に存在するエッジの移動情報を所定の階級値に分類し、移動情報の特徴を表現する移動画像を生成する。図5に移動画像の一例を示す。図5に示すように、本実施形態の移動画像では、移動情報が検出されたエッジの画素を丸印で表し、移動速度が速い画素ほど点を大きい丸印で表すことにより、画素の移動情報を表現する。また、移動方向が右、すなわち右方向へ移動する画素を塗りつぶした黒印で表し、移動方向が左、すなわち左方向へ移動する画素を色抜きの白印で表すことにより、画素の移動方向を表現する。図5においては、自車両の走行路右側の外壁および白線からは画像の右側へ向かう速度が検出されており、走行路左側の外壁からは画像の左側及び右側へ向かう速度が検出されている。これは、左操舵から中立へ戻す状況を示しており、消失点が左側外壁に存在することを示している。また、走行路左側から右へ移動する歩行者では、画像の右側へ向かう速度が検出されている。このように、移動画像は、移動速度と移動方向を含む移動情報を表現できる。
次に、グループ化部23について説明する。グループ化部23は、移動情報算出部22により算出された移動速度が所定範囲内であるとともに、画像おいて略垂直方向に隣接する画素群をグループ化する。グループ化部23は、算出された移動画像から立体物を抽出するために、移動画像を分割する領域を設定する。すなわち、図6に示すように、移動画像上に短冊状の複数の領域を設定し、移動画像を複数の領域で分割する。次に、各領域毎に、画像の縦方向において所定域値内の移動速度で連続する画素をグループ化し、グループ化された画素に基づいて立体物を検出する。具体的には、移動画像(図5参照)を縦方向(y軸方向)に探索する。移動情報を持った画素Aが見つかった場合、画素Aに隣接する画素Bを探索する。画素Bが移動情報を有し、かつ画素Aと画素Bの速度方向の差が閾値Re以内であり、かつ、画素Aと画素Bの速度の大きさの差が閾値Tv以内であれば、同じ移動速度で縦に連続していると判断する。次に、画素Bに隣接する画素Cについても同様に移動情報の有無を判断し、画素Aと画素Cの速度の方向の差が閾値Re以内か、速度の大きさの差が閾値Tv以内かを判断する。以後、いずれかの条件を満たさなくなるまで繰り返す。ここで「縦方向に移動情報が共通する画素が連続する」という特徴は、立体の画像上の特徴である。すなわち、画像の下部から上部に向かって各領域を走査し、領域内に速度を持った画素が存在する場合は、その画素の上方に隣接する速度を持った画素との速度差を比較する。その速度差が閾値T1以下である場合には、車両に対して同じ速度で移動する物体であると推定できることから、同じ物体であると判定してグループ化を行う。
次に、座標変換部24について説明する。座標変換部24は、画像に含まれる画素を所定の視点から見た俯瞰図における変換座標に変換する。この変換座標は、所定の領域(面積)が与えられるとともに分割領域に分割された変換座標である。まず、座標変換部24は、グループ化部23によりグループ化された画素の上端位置(最も高い位置に存在する画素)と下端位置(最も低い位置に存在する画素)を検出する。この処理により、図6に示す下端位置BL1〜BL16及び上端位置TL1〜TL16が検出される。
そして、座標変換部24は、xy平面上において抽出された下端BL1〜BL16および上端TL1〜TL16の中心位置を座標とする下端点BP1〜BP16(図示省略)および上端点TP1〜TP16(図示省略)の位置座標を、規定の面積を備えたZX平面(以下、規定のZX平面と呼ぶ)上の点として3次元の位置座標(実空間上の3次元における位置座標)に変換する。
ここで、各点の座標を(x、y)とし、カメラの路面からの高さをCh(m)、カメラの俯角をTr(rad)、画像の縦サイズをIh、画像の横サイズをIw、高さ方向の1画素あたりの角度分解能をPYr(rad)、横方向の1画素あたりの角度分解能をPXr(rad)とすると、xy平面上の点TP1〜TP16及びBP1〜BP16は、次式に従ってZX平面の座標(Z、X)に変換される。
(式1)Z=(Ch)/(TAN(Tr+(y−Ih/2)×PYr))
(式2)X=x×TAN((Z-Iw/2)×PXr)
上端点TP1〜TP16の変換後の点を、上端座標変換点RT1〜RT16とし、下端点BP1〜BP16の変換後の点を下端座標変換点RB1〜RB16とする。一部の対応関係を図7に示す。
座標変換部24により得られた情報は判定処理部24に送出される。また、必要に応じて、移動情報、特徴点に関する情報も判定処理部30へ送出される。
続いて、判定処理部30について説明する。判定処理部30は、画像処理部20により処理された画像に基づいて抽出された対象立体物が歩行者であるか否かを判定し、歩行者を検出する。
具体的に、本実施形態の判定処理部30は、判定対象抽出部31と、歩行者候補抽出部32と、歩行者候補検証部33と、歩行者判定部34とを備える。
以下、判定処理部30が備える各構成について説明する。
まず、判定対象抽出部31について説明する。判定対象抽出部31は、画像処理部20の移動情報算出部22により算出された特徴点の移動情報に基づいて、撮像された画像の中から移動する対象立体物を含む対象領域を抽出する。 判定対象抽出部31は、本実施形態の歩行者検知装置100が最終的に歩行者を検知する観点から、歩行者の可能性が高い対象立体物を含む対象領域を抽出することが好ましい。歩行者は、立体物であるとともに移動体であるから、歩行者に対応する画像は、立体物としての特徴と移動体としての特徴とを備える。このため、判定対象抽出部31は、判定の対象候補として立体物を抽出する機能及び/又は判定の対象候補として移動体を抽出する機能を有する。立体物の抽出手法及び移動体の抽出手法は、以下に説明する手法のほか、公知の手法を用いることができる。なお、ここで「移動する」とは立体物自身が移動する(能動的に移動する)場合と、歩行者検出装置100が移動することにより、立体物が相対的に移動する場合の両方を含む。
特に限定されないが、本実施形態の判定対象抽出部31は、以下の2つの手法により撮像画像から対象立体物を含む対象領域を抽出する。
第1の手法として、判定対象抽出部31は、グループ化部23によりグループ化された画素群のうち、変換座標において最も高い位置(上端)に存在する画素の座標と最も低い位置(下端)に存在する画素の座標とに基づき、撮像された画像の中から対象立体物を含む対象領域を抽出する。
本実施形態の判定対象抽出部31は、グループ化部23によりグループ化された画素群のうち、変換座標において上端に位置する画素の座標が変換座標の領域外に属するとともに、下端に位置する画素の座標がいずれかの分割領域に属する場合は、グループ化された画素群に対応する領域を、対象立体物を含む対象領域として抽出する。例えば、図7に示すOB1のように、上端に位置する画素TP1の変換座標はZX変換座標の領域外に位置し、下端に位置する画素BP1の変換座標はZX変換座標内に位置するため、判定対象抽出部31は、OB1が属する領域を、対象立体物を含む対象領域として抽出する。
他方、判定対象抽出部31は、グループ化部23によりグループ化された画素群のうち、変換座標において上端に位置する画素の座標と下端に位置する画素の座標とが共通の分割領域に属する場合は、グループ化された画素群に対応する領域を、平面物を含む領域として抽出する。平面物であるということは立体物ではなく、ましてや歩行者でもないから、抽出された平面物を含む領域は、対象立体物を含む対象領域として抽出しない。例えば、図7に示すTP10とBP10を含む領域(撮像画像における路上の白線に対応)のように、上端に位置する画素TP10の変換座標はZX変換座標の領域55に位置し、下端に位置する画素BP10の変換座標もZX変換座標の領域55内に位置するため、判定対象抽出部31は、この領域を、平面物を含む領域として抽出する。
また、判定対象抽出部31は、所定間隔に分割されたZX平面の座標(Z、X)において、上端座標変換点RT1〜RT16と下端座標変換点RB1〜RB16とが、ZX平面のいずれの分割領域に属するかに基づいて、立体物の抽出を行う(図7参照)。ここで、車両の上下動に伴いカメラ10の撮像画像が上下に動くことにより、座標変換点の属する領域が変動してしまう可能性がある。この影響を避けるため、ZX平面の分割領域の所定間隔はメーターオーダーで設定する。本実施例では、x軸方向は、−5.25m>x、−5.25≦x<−3.5m、−3.5m≦x<−1.75m、−1.75m≦x<0m、0m≦x<1.75m、1.75m≦x<3.5m、3.5m≦x<5.25m、5.25m≦x、として8分割し、z軸方向は、0≦z<10m、10m≦z<20m、20m≦z<30m、30m≦z<40m、40m≦z<50mとして5分割して、領域11〜領域15、領域21〜領域25、領域31〜領域35、領域41〜領域45、領域51〜領域55、領域61〜領域65、領域71〜領域75、領域81〜領域85を設定する。また、領域11〜領域15を領域10とし、領域21〜領域25を領域20とし、領域31〜領域35を領域30とし、領域41〜領域45を領域40とし、領域51〜領域55を領域50とし、領域61〜領域65を領域60とし、領域71〜領域75を領域70とし、領域81〜領域85を領域80とする。
判定対象抽出部31は、xy座標において同位置のグループとされた上端座標変換点と下端座標変換点とが、ZX平面における同一の分割領域に属する場合は、同一グループの上端点と下端点は同一の路面上にある、すなわち路面上の平面物体であると判定する(立体物ではないと判定する)。また、上端点に対応する上端座標変換点が規定のZX座標外に位置し、その上端点と同一のグループの下端点の下端座標変換点が規定のZX座標内に位置する場合は、下端点のみが路面上にあるため立体物であると判定する。
なお、ここで、移動情報算出部22は、後述する走路境界の検出のために、各領域に設定されたカウンタのうち下端点の座標変換点が位置する領域のカウンタのカウンタ値を+1加算し、下端点の位置情報分布を算出する。
また、上端点TP1、TP3、TP5、TP6、TP8、TP9及びTP12〜TP16の座標変換点RT1、RT3、RT5、RT6、RT8、RT9及びRT12〜RT16は図7に示す規定のZX座標外に投影されるため、上端点TP1、TP3、TP5、TP6、TP8、TP9及びTP12〜TP16を含むグループに対応する対象物は立体物であると判定される。つまり、上端点TP1、TP3、TP5、TP6、TP8、TP9及びTP12〜TP16を含むエッジはxy平面上で立体物OB1〜OB11として抽出される。
また、上端点TP2、TP4、TP7、TP10、TP11の座標変換点RT2、RT4、RT7、RT10、RT11は下端点BP2、BP4、BP7、BP10、BP11の座標変換点RB2、RB4、RB7、RB10、RB11と同じ領域に位置するため、上端点TP2、TP4、TP7、TP10、TP11を含むグループは路面上に位置する平面の対象物であると判定される。
また、判定対象抽出部31は、抽出された対象領域に含まれる平面物に対応する画素群が、抽出された対象立体物を含む対象領域に対応する特徴点に、画像の略垂直方向に沿って連なる場合は、平面物を含む対象領域と立体物を含む対象領域とを一の対象立体物を含む対象領域として抽出する。
なお、ここで、移動情報算出部22は、後述する走路境界の検出のために、下端点の座標変換点RB1〜RB16が位置する領域のカウンタのカウンタ値を+1加算する。
さらに、第2の手法として、判定対象抽出部31は、グループの画素群のうち画像の略垂直方向の最下に位置する画素の座標値に基づいて、画像に含まれる立体物の設置面と所定の関係を有する基準境界を抽出し、グループ化部23によりグループ化された画素群のうち最上に位置する画素の位置が基準境界の位置よりも上に位置する場合は、グループ化された画素群に対応する領域を、移動する対象立体物を含む対象領域として抽出する。
この処理にあたり、グループ化部23は、画像において略垂直方向に隣接するとともに、移動情報算出部22により算出された移動速度が所定範囲内である画素群をグループ化する。
まず、判定対象抽出部31は、立体物の設置面を定義づけることができる基準境界を抽出する。本実施形態では、歩行者検出装置100を搭載する車両が走行する道路の走路境界を基準境界として抽出する。
このため、図8に示すように、得られた下端点の座標変換点の位置分布に基づいて、基準境界が存在する可能性が高い領域を抽出する。すなわち、得られた下端点の座標変換点の位置分布において、同じx軸領域で複数のz軸領域にカウンタ値が存在すれば、自車両前方に走路境界(自車両が走行する走路の境界)が車両に沿って直線状に存在すると推定できるため、カウンタ値がある領域を、基準境界の一態様としての走路境界を含む領域として抽出する。例えば、図8では、x軸が同じ範囲の領域30において、複数のz軸領域(下端点RB2、RB4、RB7が位置する領域)にカウンタ値が存在するため、これらの領域を走路境界領域として抽出する。なお、領域20、領域50、領域80についても同様である。
そして、抽出された領域に走路境界を示す直線が存在するかどうかの判定を行う(図8参照)。すなわち、抽出した領域に存在する下端点の座標変換点に基づいて、xy座標系での回帰分析を行い、下端点を通る直線の傾きを算出する。例えば、図8の領域30では、領域20に存在する下端点の座標変換点RB2、RB4、RB7に対応するxy座標における下端点BP2、BP4、BP7の座標位置からxy座標系での回帰分析を行い、下端点BP2、BP4、BP7を通る直線の傾きa3を算出する。同様に、領域20、領域50、領域80に位置する下端点の投影点に対応した直線の傾きa2、a5、a8を算出する。そして、算出した直線の傾きが、走路境界として判定できる範囲として予め定義された所定の範囲内に入っていれば、抽出された走路境界を示す直線が存在すると判定する。すなわち、下端点の座標変換点が位置するx軸領域の左端座標と各Z軸領域の代表座標(例えば中心座標)を座標とする点(例えば図8のPL1〜PL5)をxy座標系に変換して回帰分析して算出した直線の傾きTn0a1と、下端点の座標変換点が位置するx軸領域の右端座標と各Z軸領域の代表座標(例えば中心座標)を座標とする点(例えば図8のPR1〜PR5)をxy座標系に変換して回帰分析して算出した直線の傾きTn0a2とで規定される傾きの範囲内に、下端点に基づき算出された直線の傾きanが入っている場合には、抽出した領域内に走路境界を示す直線Lnが存在するとの判定を行う。
例えば、図9に示すように、本実施例の領域80においては、座標(x,z)=(−3.5,5)の点PL1、座標(x,z)=(−3.5,15)の点PL2、座標(x,z)=(−3.5,25)の点PL3、座標(x,z)=(−3.5,35)の点PL4、座標(x,z)=(−3.5,45)の点PL5をxy座標に変換して回帰分析を行い算出した各点を結ぶ直線の傾きT30a1と、座標(x,z)=(−1.75,5)の点PR1、座標(x,z)=(−1.75,15)の点PR2、座標(x,z)=(−1.75,25)の点PR3、座標(x,z)=(−1.75,35)の点PR4、座標(x,z)=(−1.75,45)の点PR5をxy座標に変換して回帰分析を行い算出した各点を結ぶ直線の傾きT30a2に対し、下端点の投影点RB1、RB4、RB5に対応するxy平面上の下端点BP1、BP4、BP5を結ぶ直線の傾きa3が、T30a1とT30a2で規定される範囲内に存在するため、下端点BP2、BP4、BP7を結ぶ直線は走路境界を示す直線L3であると判定される(図9参照)。
同様にして、領域20では、下端点の投影点RB1、RB6に対応する、BP1、BP6を結ぶ直線は走路境界を示す直線L2であると判定され、領域50では、下端点の投影点RB10、RB11に対応するxy平面上の下端点BP10、BP11を結ぶ直線は走路境界を示す直線L5であると判定され、領域80では、下端点の投影点RB12〜RB16に対応するxy平面上の下端点BP12〜BP16を結ぶ直線は走路境界を示す直線L8であると判定される。
次に、図10に示すように、判定対象抽出部31は、走路境界を示す直線のうち、自車両の近傍から遠方に連続して存在する立体物で構成される直線を背景として検出する。一般に、前方の撮像画像における背景は、静止した立体物が自車両近傍から遠方に直線的に並んでおり、近傍の速度が速く、遠方に行くに従い速度が遅くなる、という特徴を備える。したがって、このような特徴を示す走路境界を背景として抽出する。ここで、立体物で構成される走路境界が複数存在する場合には、自車両からより遠方に位置する走路境界を選択する。本実施例では、外壁と路面の交点である走路境界線L2とL8を背景として検出する。
次に、図11に示すように、検出された画像位置と速度の関係から、画像上の任意の位置における静止物体の速度を算出する予測式を算出する。背景となる立体物は静止物であるため、背景となる立体物の速度は、画像の各位置における静止物の速度を表している。例えば、立体物OB1、OB4の速度は、それぞれの画像位置における静止物の速度を表している。したがって、複数の立体物間の画像位置と速度の関係を示す予測式を算出することで、画像上の任意の位置の静止物の速度を求めることができる。本実施例では、画像左側の物体に対しては、立体物OB1、OB4の画像上のxy座標を説明変数、速度を目的変数として、回帰分析を行い、静止物体の速度の予測式を算出する。同様に、画像右側の物体に対しては、立体物OB7、OB8、OB10、OB11画像上のxy座標を説明変数、速度を目的変数として、回帰分析を行い、静止物の速度の予測式を算出する。
そして、画像処理部20により検出された特徴点の位置と特徴点の移動情報(移動速度、移動方向)と、算出された予測式から得られる静止物の移動速度とを比較することにより、移動体を検出する。
すなわち、本実施形態の判定対象抽出部31は、グループ化された画素群のうち画像の略垂直方向の最下に位置する画素の座標値に基づいて、画像に含まれる立体物の設置面と所定の関係を有する基準境界を抽出し、その基準境界の位置と移動速度算出手段により算出された基準境界の移動情報とに基づいて画像の背景の予測移動情報を算出し、グループ化部23によりグループ化された画素群の移動情報に含まれる移動方向と背景の予測移動情報に含まれる予測移動方向と差が、予め定義された略反対方向の関係である場合は、グループ化された画素群に対応する領域を、自車両の進路方向、すなわち自己の存在する方向に移動する対象立体物を含む対象領域として抽出する。
そして、移動体であれば、背景よりも手前に存在するため、画像上では、一般に背景の下端よりも立体物の上端は高い位置に存在する。
したがって、予測式から算出した速度とは反対向きの速度を持ち、背景の下端位置よりも上端位置が高い立体物は、自車両の進路路方向に進む移動体であると判定する。
図11に示すように、立体物OB2、OB3、OB5、OB6は、予測式から算出した静止物とは略反対向きの速度の方向を持ち、その上端位置が背景(走路境界L2)の下端位置よりも高い位置にあるため、自車両の進路方向に進む移動体であると判定する。同様に、立体物OB9は予測式から算出した静止物とは略反対向きの速度の方向を持ち、その上端位置が背景(走路境界L8)の下端位置よりも高い位置にあるため、自車両の進路方向に進む移動体であると判定する。略反対向きの方向の内容については予め定義する。たとえば、2つの移動方向の差が160°〜200°である、又は2つの移動方向の差が170°〜190°などである。
他方、グループ化部23によりグループ化された画素群の移動情報に含まれる移動方向と背景の予測移動情報に含まれる予測移動方向との差が所定値未満であり、グループ化部23によりグループ化された画素群の移動情報に含まれる移動速度と背景の予測移動情報に含まれる予測移動速度との差が所定値未満である場合は、グループ化された画素群に対応する領域を、静止物として抽出する。
つまり、立体物の速度の方向が予測式から算出した静止物体の速度と同じ方向であり、立体物の速度の値と予測式から算出した静止物の速度の値との差が所定値以下であれば、その立体物は静止物であると判定し、立体物として判定しない。
また、判定対象抽出部31は、対象領域が複数抽出されたとき、抽出された対象領域に含まれる対象立体物に対応する特徴点の移動方向の差が所定値未満であり、かつ対象立体物に対応する特徴点の移動速度の差が所定値未満である場合は、これらの対象領域を一の対象立体物を含む一の対象領域として抽出する。例えば、図10に示す例において、判定対象抽出部31はOB2とOB3は一つの移動する対象立体物OB2としてグループ化する。
次に、歩行者候補抽出部32について説明する。歩行者候補抽出部32は、検出された移動する対象立体物の速度変化に基づいて、移動する立体物が歩行者候補(歩行者である可能性が高い移動する立体物)を含む対象領域を抽出する。
ここで、歩行者に対応する特徴点の移動速度を詳細に観察すると、歩行者が一定速度で歩行している場合は、図12に示すように、歩行により腕と脚の動きに速度の増減が観察される。歩行開始からの脚の速度変化を見ると、まず、例えば右脚が進行方向に踏み出し、歩行がスタートする。そして、その速度が徐々に速くなって最高速度に達した後に今度は速度が徐々に低下して地面に着地するという速度変化が観察される。右脚が地面に着地すると同時に今度は左脚が進行方向に踏み出して、右脚と同様の速度変化が観察される。一方、歩行開始から腕の速度変化を見ると、脚とは逆向きの速度変化が観察される。このように、歩行者においては、歩行により対応する特徴点に速度変化が観察される、と言う特徴がある。
したがって、この特徴を利用することにより、立体物が歩行者である可能性があるか否かを識別し、歩行者である可能性の高い移動する対象立体物を含む対象領域を抽出することができる。
本実施形態の歩行者候補抽出部32は、判定対象抽出部31により抽出された対象立体物を含む対象領域に含まれる特徴点の移動速度を移動情報算出部22から取得し、対象領域内の特徴点の移動速度の分散値を算出し、この分散値が所定値以上である場合は、対象領域を歩行者が含まれる対象領域として抽出する。抽出した対象領域に関する情報は、後述する歩行者候補懸賞部33及び/又は歩行者判定部34に送出される。
すなわち、例えば、移動体の速度の分散値を移動速度の変化ΔVとし、ΔVが所定値ΔVP以上であるか否か、すなわち、歩行者候補抽出部32は、ΔV≧ΔVPの条件を満たすか否かによって、移動体が歩行者の可能性があるか否かを識別することが可能となる。なお、移動速度の変化ΔVは、任意に定義することができ、最大速度と最少速度の差としてもよいし、平均速度からの差としてもよい。
図10に示す画像情報について移動速度の分散値を算出したところ、立体物OB2、OB5、OB9の移動体の速度の分散値がΔV≧ΔVPを満たす。このため、立体物OB2、OB5、OB9は、歩行者の可能性が高い歩行者候補と判定される。他方、立体物OB6は、条件を満たさないため、歩行者以外の物体と判定する。
また、歩行者候補抽出部32は、算出された移動速度の分散値が所定値未満であっても、所定時間内における対象領域内の特徴点の移動量が所定値未満であるとともに、対象領域内の特徴点の移動速度の変化が所定値以上である場合は、対象領域を歩行者が含まれる対象領域として抽出する。これにより、移動が遅い歩行者についても、直ちに歩行者以外として排除することなく特徴点の移動量や移動速度の変化に基づいて歩行者である可能性を判断するため、歩行者を含む対象領域を正確に抽出することができる。
ここで、図10に示すように、OB5、OB9は歩行者以外であるにも関わらず、本処理においては歩行者候補と判定される。これは、分散値を指標とした場合に、歩行者の特徴に近い速度変化を持つ立体物が存在するためである。例えば、車両挙動の影響で画像の中央部以外の背景となる立体物の領域に消失点が含まれる場合は、消失点付近の動きの変化が小さくなるため、その領域には左右の移動速度が混在する。このため、その領域の速度の分散値は大きくなり、消失点を境に速度の向きが反転するため、消失点付近の背景となる立体物を歩行者と誤検出する場合があるからである。また、消失点以外の領域においても、複雑なエッジが組み合わさる領域では、間違った速度が計測されてしまう場合ある。その領域においても速度の分散が大きくなり、さらに周囲に正しい速度を持った背景が存在するため、複雑なエッジが組み合わさる立体物を、背景であるにもかかわらず歩行者と誤検出する場合がある。
そこで、本実施形態では、歩行者候補検証部33を設け、歩行者の検出精度を向上させる。
この歩行者候補検証部33は、図13に示すように、検出された対象領域に存在する移動速度の分布の経時的な推移を観察することで、対象立体物が歩行者を含むか否かの候補の検証を行い、歩行者候補以外と判定された場合には、ノイズとして削除する。
歩行者候補検証部33は、抽出された対象領域に含まれる特徴点の移動方向のばらつき度が時間の経過とともに大きくなる場合は、対象領域は歩行者を含まない対象領域であると検証する。
対象領域は移動物体を含む領域として検出された領域であるため、時間経過に伴う追跡処理は、水平位置の近傍の領域に制限できる。歩行者候補を含むとして抽出された対象領域が背景のような静止物体を含む領域であれば、水平方向に沿う特徴点の移動量が大きいため、追跡処理を行う対象領域の移動速度は時間経過ともに異なる立体物のエッジから計測されたものになる。他方、対象領域が歩行者を含むものであれば、追跡処理を行う対象領域の移動速度は時間経過にかかわらず同じ歩行者のエッジから計測されたものになる。また、歩行者候補を含む対象領域が消失点を含む領域であれば、時間経過に伴い、消失点の位置は移動するため、その対象領域の移動速度は消失点以外の背景(立体物)から検出された移動速度に変化する。同様に対象領域が間違った移動速度を持つ背景を含む場合でも、時間経過に伴い、その対象領域は正しい移動速度を持つ背景を含むように変化する。
このように、静止物体は、移動物体より水平移動量が大きいという特徴があるため、この特徴を利用することにより、対象領域内に含まれる特徴点が歩行者に対応するものであるか否かを検証することが可能となる。
本実施形態の歩行者候補検証部33は、抽出された対象領域に含まれる特徴点について、歩行者候補とされる対象立体物に対応する特徴点の移動方向との方向差が所定値未満であり、歩行者候補に対応する特徴点の移動速度との速度差が所定値未満である特徴点の数N1と、歩行者候補とされる対象立体物に対応する特徴点の移動方向との方向差が所定値以上である特徴点の数N2とを算出し、N2>N1を満たし、かつ、対象領域の面積に対するN2の割合R1が、予め設定された所定値Rt1よりも大きい場合は、対象領域は歩行者を含まない対象領域として検証する。
すなわち、歩行者候補が含まれる対象領域内の移動速度のうち、歩行者候補の移動速度と同じ方向で歩行者候補の移動速度との差が所定値Vt1以下である速度情報数をN1とし、歩行者候補と反対向きの速度情報数をN2を所定時間観測し、N2>N1を満たし、歩行者候補の領域面積に対するN2の割合R1が所定値Rt1よりも大きくなる場合には、その歩行者候補領域は歩行者候補を含むものではなく、背景から得られたノイズとして削除する。
他方、立体物OB2は、時間が経過しても対象領域内の移動速度に変化がないため、歩行者候補とする。
また、立体物OB5は、消失点領域のため、時間経過とともに消失点が左方向に移動し、対象領域内の移動速度は、徐々左向きの速度に揃う。したがって、OB5は歩行者候補ではないと判定し、ノイズとして削除する。
さらに、立体物OB9は、背景速度の誤検出のため、時間経過とともに正しい移動速度に変化し、対象領域内の移動速度は右向きの速度に揃うようになる。したがって、OB9は、歩行者候補以外と判定し、ノイズとして削除する。
このように、対象領域と消失点の位置関係に応じて対象立体物の移動速度には異なる特徴を観察できる。このため、歩行者候補検証部33は、抽出された対象領域と消失点との距離に応じて、特徴点の移動方向のばらつき度の変化を観察する時間を決定する。特徴点の移動方向のばらつき度の変化を観察する時間は、対象領域と消失点が近い位置にあるほど、長く設定することが好ましい。
最後に、歩行者候補判定部34について説明する。
歩行者候補判定部34は、判定対象抽出部31により抽出された対象領域に関する移動情報と、この対象領域の周囲に設定された比較領域に関する移動情報とを比較し、その移動情報の比較結果に基づいて抽出された対象領域に含まれる対象立体物が歩行者であるか否かを判定する。
比較の対象となる対象領域は、判定対象抽出部31により抽出された移動する立体物を含む領域のほか、歩行者候補抽出部32により歩行者を含む確率が高いとして抽出された領域、歩行者候補検証部33により歩行者を含むと検証された領域を含む。
具体的に、歩行者候補判定部34は、図14に示すように、歩行者を含む可能性のある対象領域の移動速度と、その周囲に設定された比較領域(図14中1〜5)の移動速度及び/又は移動方向の比較を行い、対象領域の歩行者候補が最終的に歩行者であるか否かを判定する。
この判定により歩行者でないものを歩行者として検出することを防止することができる。
すなわち、対象領域と周囲に存在する比較物体(背景)を観察した場合、自車両の進路方向に進む歩行者は、周囲物体(背景)の手前に存在する。そのため、歩行者候補として検出された対象領域が歩行者を含むのであれば、歩行者候補を含む対象領域の周囲に背景が存在する。歩行者候補を含む対象領域とその周囲にある背景を含む比較領域とは距離差があり、歩行者候補を含む対象領域の移動情報(方向及び速度)とその周囲の比較領域の移動情報(方向及び速度)との間に差を検出することができる。
他方、対象領域が(歩行者を含まない)背景であれば、対象領域と比較領域は同じ背景に対応する。同じ背景であれば、距離差は生じないから、対象領域の移動速度とその周囲の比較領域との間には速度差又は方向差が検出されないはずである。
このように、対象領域に歩行者が含まれる場合は、対象領域に含まれる歩行者候補の移動情報とその周囲に設定された比較領域に含まれる背景を構成する立体物の移動情報との間に差が発生するという特徴を検知することができる。
本願発明では、この特徴を利用することにより、最終的に対象領域の歩行者候補が歩行者であるか否かの判定を行うことができる。
具体的に、本実施形態の歩行者判定部34は、判定対象抽出部31、歩行者候補抽出部32、歩行者候補検証部33により処理された対象領域に含まれる対象立体物の移動速度と対象領域の周囲に設定された比較領域に含まれる比較物の移動速度とを比較し、これらの移動速度の差が所定値以上である場合は、対象領域に含まれる立体物は歩行者であると判定する。他方、歩行者判定部34は、これらの移動速度の差が所定値未満である場合は、対象領域に含まれる立体物は歩行者以外の立体物であると判定する。
また、本実施形態の歩行者判定部34は、判定対象抽出部31、歩行者候補抽出部32、歩行者候補検証部33により処理された対象領域に含まれる対象立体物の移動方向とその対象領域の周囲に設定された比較物を含む比較領域の移動方向とを比較し、これらの移動方向の差が所定値以上である場合は、対象領域に含まれる対象立体物は歩行者であると判定する。他方、歩行者判定部34は、移動方向の差が所定値未満である場合は、対象領域に含まれる対象立体物は歩行者以外の立体物であると判定する。
さらに、本実施形態の歩行者判定部34は、比較された二つの移動方向が、予め定義された略反対方向関係を有する場合は、対象領域に含まれる立体物は自己に接近する歩行者であると判定する。略反対方向の関係とは、二つの移動方向の差が160度〜200度、又は175度〜185度など、180度を基準に予め設定することができる。
特に限定されないが、比較領域は分割された所定の領域ごとに設定され、歩行者の判定を行うことが好ましい。これにより対象立体物の移動速度と、対象立体物を四方から囲む背景の移動速度を比較することができる。
たとえば、比較領域として、対象領域の上端辺から上側へ所定長さの幅を有する上側比較領域(図14の1で示す領域)、対象領域の左端辺から左側へ所定長さの幅を有する左側比較領域(図14の2で示す領域)、又は対象領域の右端辺から右側へ所定長さの幅を有する右側比較領域(図14の4で示す領域)のいずれか1つ以上を設定する。
さらに、比較領域として、対象領域の上端辺、左右端辺から所定距離だけ離隔するとともに、所定長さの幅を有する別の比較領域(第2上側比較領域、第2左側比較領域(図14の3で示す領域)、第2右側比較領域(図14の5で示す領域))を設定することができる。対象領域から所定距離だけ離隔させた位置に比較領域を設定することにより、対象領域の移動速度と比較領域の移動速度とを正確に比較することができる。
次に、対象領域を5つの領域に分けた場合の歩行者の判定処理の一例を図14に基づいて説明する。具体的に、図14に示す撮像画像においては、以下の比較結果を得た場合を例に説明する。
まず、第1に、歩行者候補を含む対象領域の上端辺の右上端から左上端の上部領域(図14の1で示す領域)に、検出された歩行者候補の移動速度と反対方向の動きを持つ立体物が存在する。
第2に、歩行者候補を含む対象領域の左端辺から所定距離D1左側までの領域(図14の2で示す領域)に、検出された歩行者候補の移動速度と反対方向の動きを持つ立体物が存在する。
第3に、歩行者候補を含む対象領域の左端辺の左側所定値D2〜D3までの領域(図14の3で示す領域)に、検出された歩行者候補の移動速度と同一方向の移動速度を持ち、検出された移動速度との速度差がVt2未満となる立体物が存在する。
第4に、歩行者候補を含む対象領域の右端辺から所定値D1右側までの領域(図14の4で示す領域)に検出した歩行者候補の速度と反対方向の動きを持つ立体物が存在する。
第5に、歩行者候補を含む対象領域の右端辺の右側所定値D2〜D3までの領域(図14の5で示す領域)に、検出された歩行者候補の移動速度と同一方向の移動速度を持ち、検出された移動速度との速度差がVt2未満となる立体物が存在する。
このような比較情報を得た場合、歩行者判定部34は、第3の比較結果と第5の比較結果を示す歩行者候補については、歩行者以外の物体として判断し、対応する歩行者候補から除外する。
そして、歩行者判定部34は、第1の比較結果を示す歩行者候補(対象立体物)を、歩行者として最終的に判断する。
さらに、歩行者判定部34は、第2の比較結果及び/又は第4の比較結果を満たす歩行者候補(対象立体物)を、歩行者として最終的に判断する。
このように、撮像画像から検出された対象立体物の移動情報(移動速度、移動方向を含む)と、その周囲の比較領域の移動情報とを比較し、その比較結果に基づいて対象立体物が歩行者であるか否かを判定するため、対象立体物の動きから歩行者に特有の動きの変化を抽出することができ、背景としての立体物を歩行者として誤検出することを防止することができる。
続いて、本実施形態の歩行者検出装置100の歩行者検出の処理手順を図15に示すフローチャート図に基づいて説明する。
図15は、本実施形態の歩行者検出装置100の処理を示すフローチャートである。
この処理はイグニションスイッチ(図示省略)がオンされると起動されるプログラムとして実行される。
まず、カメラ10により撮像された自車両前方の画像は、画像メモリ11に記録される。
ステップS101において、画像メモリ11は、自己に記録された自車両前方の画像を所定の周期で特徴点抽出部21に出力する。この後に、フローはステップS102へ移行する。
ステップS102において、特徴点抽出部21は撮像画像のエッジ抽出処理を行い、撮像画像内に存在する物体の輪郭をエッジ画像として抽出するとともに、エッジ画像の正規化を行う。この後に、フローはステップS103へ移行する。
ステップS103において、移動情報算出部22はエッジの速度を算出し、算出した速度を所定の階調で表した移動画像を算出する。この後に、フローはステップS104へ移行する。
ステップS104において、グループ化部23は、算出した移動画像上に物体検出用の短冊領域を設定する。この後に、フローはステップS105へ移行する。
ステップS105において、グループ化部23は、各短冊領域内に速度を持った画素があるかどうかを下から上に向かって調べる。速度を持った画素がある場合、グループ化部23はそれらの画素は同一の物体を表しているものとしてグループ化を行う。この後に、フローはステップS106へ移行する。
ステップS106において、座標変換部24は、各短冊領域内におけるグループ毎において、最も上(上端)に位置する画素の中心座標を上端点に、最も下(下端)に位置する画素の中心座標を下端点に設定する。この後に、フローはステップS107へ移行する。
ステップS107において、座標変換部24は、(式1)、(式2)を用いて、検出した上端点と下端点の座標をZX平面へ座標変換する。この後に、フローはステップS108へ移行する。
ステップS108において判定対象抽出部31の判定対象抽出部31は、上端点の座標変換点と上端点と同じグループの下端点の座標変換点の位置がx軸範囲とz軸範囲を規定した規定のZX平面のどの領域に該当するかを判断し、上端点の座標変換点と上端点と同じグループの下端点の座標変換点の双方が規定のZX平面の同一の分割領域に位置する場合は、上端点、下端点を含む物体を平面物であると判定し、上端点と同じグループの下端点の座標変換点のみが規定のZX平面に位置する場合は、上端点、下端点を含む物体を立体物であると判定する。また、下端点が位置する領域のカウンタのカウンタ値を+1加算する。この後に、フローはステップS109に進む。
ステップS109において、立体物抽出部31により、検出した全ての上端点、下端点について、上端点、下端点を含む物体が平面物であるか立体物であるかの判定(以下、物体の属性判定と呼ぶ)が行われたかどうかの判定が行われる。検出した全ての上端点、下端点について物体の属性判定が行われた場合は、ステップS110に進む。一方、検出した全ての上端点、下端点について物体の属性判定が行われていない場合は、ステップS105に戻る。
続いて、ステップS110において、判定対象抽出部31は、ZX平面における下端点の座標変換点の位置分布から、同じx軸領域において、複数のz軸領域にカウンタ値が存在する領域を、走路境界線が存在する可能性が高い領域として抽出する。この後に、フローはステップS111へ進む。
ステップS111において、判定対象抽出部31により抽出された領域内に存在する下端点の座標変換点に対応するxy平面の下端点についてxy座標系での回帰分析が行われ、下端点を結ぶ直線の傾きが算出される。この後に、フローはステップS112へ進む。
ステップS112において、判定対象抽出部31は、ステップS111で算出された直線の傾きが、下端点の位置する領域において、x軸領域の左端座標と各z軸領域の代表座標を座標とする点(図8のPL1〜PL5)を結ぶ直線およびx軸領域の右端座標と各z軸領域の代表座標を座標とする点(図8のPR1〜PR5)を結ぶ直線のxy座標系における傾きの範囲にあれば、抽出した領域に走路境界を示す直線が存在すると判定し、ステップS111で算出された直線は走路境界を示す直線として検出する。この後に、フローはステップS113へ進む。
ステップS113において、判定対象抽出部31は、ステップ110で抽出された領域について、全ての走路境界を示す直線が検出されたか否かの判定を行う。全ての領域について走路境界を示す直線が検出された場合は、ステップS114へ進む。一方、全ての領域について走路境界を示す直線が検出されていない場合は、ステップS110に戻る。
ステップS114において、判定対象抽出部31は、ステップS112で検出された走路境界に相当する直線のうち、車両の近傍から遠方に連続して存在する立体物で構成される直線を背景となる走路境界として検出する。この後に、フローはステップS115へ移行する。
ステップS115において、判定対象抽出部31は、ステップS114で検出された背景となる走路境界を構成する立体物の移動速度を目的変数とし、下端点における画像xy座標を説明変数として、重回帰分析を行うことで、画像上の任意の位置での静止物体の速度の予測式を算出する。この後に、フローはステップ116に移行する。
ステップS116において、判定対象抽出部31は、ステップS114で検出された背景となる走路境界の位置と立体物の上端位置とを比較し、画像上において、走路境界の位置よりも立体物の上端位置が上方に存在する場合には、その立体物を対象立体物として検出し、その対象立体物を含む領域を対象領域として抽出する。この後に、フローはステップS117に移行する。
ステップS117において、判定対象抽出部31は、ステップS116で検出された移動体候補の移動速度と移動体候補位置において予測式から得られる静止物の移動速度とを比較し、速度差の絶対値が所定の範囲内にある場合は、その移動体候補を静止物と判定する。そして、フローはステップS116に移行する。一方、速度差の絶対値が所定の範囲外である場合は、その移動体候補を移動体と判定し、フローはステップS118に移行する。
ステップS118において、判定対象抽出部31は、移動体と判定された立体物の速度の向きと予測式から得られた静止物体の移動方向の向きが反対であれば、その移動体を自車に向かう移動体と判定する。「移動方向の向きが反対である」状態は、任意に定義することができ、例えば移動方向の角度差によって予め定義する。この後に、フローはステップS119に移行する。
ステップS119において、判定対象抽出部31は、移動体が検出されたか否かの判断を行う。全ての移動体が検出された場合には、フローはステップS120へ進む。一方、全ての移動体が検出されていない場合は、フローはステップS116に戻る。
ステップS120において、判定対象抽出部31は、速度の差が所定値以内で存在する対象立体物が複数検出され、それらの対象立体物の座標の差が所定値以内である場合に、複数の対象立体物を一つの対象立体物としてグループ化を行う。この後に、フローはステップS121へ移行する。
次に、ステップS121において、歩行者候補抽出部32は、対象立体物に対応する特徴点の速度から、対象立体物の速度の分散値ΔVを算出し、算出された対象立体物の速度の分散値ΔVが、ΔV≧ΔVPの条件を満たしていれば、対象立体物は歩行者候補と判定する。この後に、フローはステップS122へ移行する。
ステップS122において、歩行者候補検証部33は、検出された対象領域に含まれる対象立体物の速度情報分布の推移に基づいて、後述する歩行者候補の検証を行う。この後に、フローはステップS123へ移行する。
ステップS123において、歩行者判定部34は、検出された歩行者候補の移動速度と周囲に存在する背景(立体物)の移動速度との比較に基づいて、対象領域に含まれる立体物が歩行者であるか否かの最終的な判定を行う。この処理については後述する。この後に、フローはステップS124へ移行する。
ステップS124において、歩行者の検出が終了したか否かの判断を行う。歩行者の検出が終了した場合は、フローはステップS125へ進む。歩行者の検出が終了していない場合は、フローはステップS120に戻り、歩行者の検出が継続される。
ステップS125では、自車両のイグニションスイッチがオフされたか否かの判定が行われる。イグニションスイッチがオフされていない場合は、ステップS101へ戻って処理を繰り返す。一方、イグニションスイッチがオフされた場合は、フローはステップS126へ移行して処理を終了する。
続けて、ステップS122における歩行者候補の検証処理に関する動作フローを、図16に示すフローチャートに基づいて説明する。この動作フローは、歩行者候補検証部33により実行される。
ステップS1221において、歩行者候補検証部33は、対象領域内に存在する移動情報のうち、歩行者候補の移動速度と同じ方向で、速度差が所定値Vt1以下である速度情報数N1と、歩行者候補の移動速度と反対向きの速度情報数N2を算出する。この後、フローはステップS1222に移行する.
ステップS1222において、歩行者候補検証部33は、ステップS1221で算出された速度情報数N1、N2が関係「N2>N1」を満たし、検出された対象領域の領域面積に対するN2の割合R1が、予め設定された所定値Rt1よりも大きくなる場合(R1>Rt1)は、対象領域に含まれる立体物はノイズと判定し、削除する(S1224)。他方、この条件を満たさない場合は、フローはステップS1223に移行する.
ステップS1223において、歩行者候補検証部33は、時間の経過に伴う対象領域に含まれる特徴点の移動方向のばらつき度を観察する。本処理では、S1222で検証する「N2>N1」かつ「R1>Rt1」の関係が保たれる検証時間を計測する。検証時間TV1が所定時間T1を超える場合(TV1>T1)は、歩行者候補の検証処理を終了し、フローをステップS123の歩行者判定処理に進める。他方、検証時間TV1が所定時間T1を超えない場合は、歩行者候補の検証を継続し、フローはステップS124に移行する。
なお、ステップS1224では、ノイズと判定した立体物を削除し、S124へ移行する。
次に、ステップS123の歩行者判定の動作フローを、図17のフローチャートに基づいて説明する。この動作フローは、歩行者判定部34により実行される。
図17に示すステップS1231において、歩行者判定部34は、歩行者候補を含むとされた対象領域の移動情報と、その対象領域に接する領域であって、対象領域の右上端から左上端の上側比較領域に含まれる立体物の移動情報とを比較する。ここでは移動方向を比較するが、移動速度を比較してもよい。
このステップS1231において、この比較領域に歩行者とは反対の方向の移動方向を持つ立体物が存在すれば、歩行者として判定する。フローはステップS1238に移行する。他方、反対の移動方向を持つ立体物が存在しなければ、フローはステップS1232に移行する。
ステップS1232において、歩行者判定部34は、歩行者候補を含むとされた対象領域の移動情報と歩行者候補領域の左端から所定距離D1左側までの左側比較領域(図14参照)の移動情報の比較を行う。当該領域に反対の移動方向を持つ立体物が存在すれば、右側比較領域の立体物と比較を行うため、フローはステップS1233に移行する。存在しなければ、フローはステップS1234に移行する.
続いて、ステップS1233において、歩行者判定部34は、歩行者候補を含むとされた対象領域の移動情報と、この対象領域に接し、その右端から所定距離D1右側までの右側比較領域(図14参照)の移動速度の比較を行う。当該領域に反対の移動速度を持つ立体物が存在すれば、歩行者として判定できるため、フローはステップS1238に移行する。存在しなければ、フローはステップS1234に移行する。
ステップS1234において、歩行者判定部34は、歩行者候補を含むとされた対象領域の移動情報と、この対象領域から所定距離だけ離隔し、左側所定値D2〜D3までの第2左側比較領域(図14参照)に含まれる立体物の移動情報とを比較する。
第2左側比較領域に同一方向の移動方向を持ち、検出された移動速度との速度差がPV2未満となる立体物が存在すれば、対象領域に含まれる立体物はノイズと判定し、フローはステップS1237に移行する。存在しなければ、フローはステップS1235に移行する。
ステップS1235において、歩行者判定部34は、歩行者候補を含むとされた対象領域の移動情報と、この対象領域の右端から所定距離だけ離隔し、右側所定値D2〜D3までの第2右側比較領域の立体物の移動情報を比較する。第2右側比較領域に同一方向の移動方向を持ち、検出された移動速度との速度差がVt2未満となる立体物が存在すれば、第2右側対象領域に含まれる立体物はノイズと判定し、ステップS1237に移行する。存在しなければ、フローはステップS124に移行する。
ステップS1238において、歩行者判定部34は、対象領域に含まれる立体物は歩行者であると判定し、ステップS124へ移行する。
また、ステップS1237において、歩行者判定部34は、対象領域に含まれる立体物はノイズ(歩行者ではない)と判定し、その歩行者候補と判断された立体物を歩行者候補から削除し、ステップS124へ移行する。
ステップS124に進み、すべての歩行者を検出したか否かを判断し、処理の繰り返し又は終了へ向かう。
本実施形態の歩行者検出装置100は、以上のように構成され動作するので、以下の効果を奏する。
本実施形態の歩行者検出装置100は、撮像画像から抽出された対象領域に関する移動情報と対象領域の周囲に設定された比較領域に関する移動情報とに基づいて、抽出された対象領域に含まれる対象立体物が歩行者であるか否かを判定する。これにより、近傍に存在する背景に対する対象立体物の相対的な動きの変化を観察することができるので、背景を歩行者として誤検出することを防ぐことができる。
判定対象抽出部31により抽出された移動する立体物には背景となるものも含まれるが、本実施形態の歩行者判定部32は、その周囲に存在する立体物に対する対象立体物の相対的な動きの変化を観察して、対象立体物が歩行者であるか否かを判定するため、背景を構成する立体物から歩行者を正確に識別することができる。
具体的に、対象領域に関する移動速度と比較領域に関する移動速度との差が所定値以上である場合は、対象領域に含まれる立体物は歩行者であると判定することにより、移動速度が異なる背景から歩行者を識別し、背景を歩行者として誤検出することを低減することができる。
また、対象領域に関する移動方向と比較領域に関する移動方向との差が所定値以上である場合は、対象領域に含まれる立体物は歩行者であると判定することにより、移動方向が異なる背景から歩行者を識別し、背景を歩行者として誤検出することを低減することができる。
さらに、対象領域に関する移動方向と比較領域に関する移動方向が、予め定義された略反対方向関係を有する場合は、対象領域に含まれる立体物は自己に接近する歩行者であると判定することにより、背景から歩行者を識別するとともに、自己(歩行者検出装置100)に接近する歩行者をさらに識別することができる。
他方、比較の結果、移動速度の差が所定値未満である場合は、対象領域に含まれる立体物は歩行者以外の立体物であると判定することにより、背景と移動速度がほぼ同じである歩行者(候補)を、歩行者以外の立体物と識別し、背景を歩行者として誤検出することを低減することができる。
同様に、比較の結果、移動方向の差が所定値未満である場合は、対象領域に含まれる対象立体物は歩行者以外の立体物であると判定することにより、背景と移動方向がほぼ同じである歩行者(候補)を、歩行者以外の立体物と識別し、背景を歩行者として誤検出することを低減することができる。
このように、本実施形態によれば、同じ背景を構成するのであれば移動情報(移動速度及び/又は移動方向)が共通し、背景とは別個の歩行者であれば移動情報が異なるとの観点から、対象領域と比較領域との移動情報の比較に基づいて、対象立体物が歩行者であるか否かを正確かつ簡易に判定することができる。特に、移動する観測者が見る前方風景のように、背景を構成する設置物と自由に移動する歩行者が混在する場合は、設置物の移動情報は観測者の移動によって決まるため、両者の移動情報の比較結果に基づいて対象立体物が歩行者であるか否かを正確に判定することができる。
また、対象領域の周囲に設定される比較領域は、対象領域の上端から上側へ所定長さの幅を有する上側比較領域、対象領域の左端辺から左側へ所定長さの幅を有する左側比較領域、又は対象領域の右端辺から右側へ所定長さの幅を有する右側比較領域のいずれか1つ以上を含むようにしたので、対象立体物とこれを様々な方向から囲む背景とについて移動情報の比較を行うことができ、対象立体物が歩行者であるか否かを正確に判定することができる。
さらに、比較領域を対象領域の上端辺、右端辺、左端辺から所定距離だけ離隔させた位置に設定することにより、対象立体物の移動情報と比較領域内の背景の移動情報を正確に比較することができ、対象立体物が歩行者であるか否かを正確に判定することができる。特に、対象領域から離隔させて第2の比較領域を設定することにより、移動情報が複雑に重畳する各領域の境界における移動情報を比較することを避けることができるため、正確な移動情報に基づいて移動情報の比較を行うことができる。
また、本実施形態の歩行者検知装置100は、歩行者候補抽出部32を備え、対象領域内の特徴点の移動速度の分散値を算出し、分散値が所定値以上である領域を歩行者が含まれる対象領域として抽出することにより、歩行者特有の画像の特徴に基づいて歩行者を含む対象領域を正確に抽出することができる。
加えて、移動速度の分散値が所定値未満であっても、所定時間内における対象領域内の特徴点の移動量と移動速度の変化に基づいて歩行者が含まれる対象領域を抽出するため、移動速度が遅い歩行者についても簡易な手法で、歩行者を含む対象領域を正確に抽出することができる。
特に、特徴点の移動速度の分散値に基づいて歩行者候補を含む対象領域を抽出してから、この抽出された対象領域と周囲の比較領域との移動速度の比較に基づいて対象領域に含まれる対象立体物が歩行者であるか否かを判定することにより、歩行者を含む可能性の高い対象領域について、さらに異なる指標に基づいて歩行者を含むか否かを判定することにより、背景を歩行者とする誤検出を防ぐことができる。
さらにまた、本実施形態の歩行者検知装置100は、歩行者候補検証部33を備え、特徴点の移動情報のばらつき度の経時的変化に基づいて対象領域が歩行者を含むか否かを検証することにより、歩行者特有の画像の経時的変化における特徴に基づいて対象領域が歩行者を含むか否かを正確に検証することができる。
特に、特徴点の移動情報のばらつき度が時間の経過とともに大きくなる場合は、その特徴点が同一の歩行者に基づくものではないとの観点に基づいて、対象領域が歩行者を含むか否かを正確に検証することができる。
加えて、特徴点を所定時間観察した場合に、歩行者候補とされる対象立体物の移動情報と共通する移動情報の数N1と、対象立体物の移動情報と異なる移動情報の数N2を比較し、N2>N1であり、対象領域の面積に対するN2の割合が所定値よりも大きいことを基準に移動情報のばらつき度の大小を判断することにより、対象領域が歩行者を含むか否かを定量的に検証することができる。
つまり、所定時間の間に、対象領域内において、歩行者候補と共通の(差が所定未満の)移動情報数N1よりも、歩行者候補と異なる移動情報数N2が多くなり、対象領域に対する割合が所定値よりも大きくなる変化がある場合は、対象立体物は歩行者以外であると検証することができる。これにより、歩行者と同じような移動情報及び移動情報の変化を示す背景についても、所定時間の移動情報の推移を観察することで、歩行者以外の物体(ノイズ)であるか否かを検証することができる。
加えて、本実施形態の歩行者検知装置100においては、判定対象抽出部31が移動する立体物を含む対象領域を抽出するため、歩行者判定部34は対象立体物が歩行者であるか否かを正確に判定することができる。
つまり、撮像画像上で同等の速度を有する隣接した画素をグループ化して、その上端と下端に位置する画素を求め、該画素の俯瞰変換後の座標により平面物、立体物、移動体の判定を行うことができるため、一つのカメラ10から得た撮像画像に基づいて移動する立体物を含む対象領域を簡単に抽出することができる。
また、変換座標において上端に位置する画素の座標が所定領域を有する変換座標の領域外に属するとともに、下端に位置する画素の座標が変換座標のいずれかの分割領域に属する場合は、グループ化された画素群に対応する領域を、対象立体物を含む対象領域として抽出することができる。つまり、撮像画像上で同等の速度を有する隣接した画素をグループ化してその上端と下端に位置する画素を求め、この画素の俯瞰座標への変換後の座標により立体物の判定を行うことができるため、一つのカメラ10から得た撮像画像に基づいて移動する立体物を含む対象領域を簡単に抽出することができる。
他方、変換座標において上端に位置する画素の座標と下端に存在する画素の座標とが共通の分割領域に属する場合は、グループ化された画素群に対応する領域を、平面物を含む対象領域として抽出することができる。つまり、撮像画像上で同等の速度を有する隣接した画素をグループ化してその上端と下端に位置する画素を求め、この画素の俯瞰座標への変換後の座標により平面物の判定を行うことができるため、一つのカメラ10から得た撮像画像に基づいて平面物(移動する立体物以外の物)を含む対象領域を簡単に抽出することができる。
さらに、判定対象抽出部31は、上端の画素の座標値と下端の画素の座標値とに基づいて基準境界を求め、上端の画素と基準境界との位置関係に基づいて移動する対象立体物、静止物が含まれる対象領域を抽出することができるため、観測者側の動きの推定や物体までの距離を算出することなく、検出された立体物の速度と位置関係に基づいて移動体の検出を簡単に行うことができる。
同様に、基準境界の移動情報から算出された背景の予測移動方向と対象立体物の移動方向との関係に応じて自己に接近する対象立体物を含む対象領域を抽出することができる。
このように、背景が自車両(観測者)の近傍から遠方に連続して存在する静止立体物であるとし、下端点の座標変換の位置から走路境界を背景の一つと擬制して、効率的に背景の存在及び背景の移動情報を検出し、移動体を含む対象領域を抽出することができる.
また、背景は静止物であるため、自車両(観測者)の近傍の速度が大きく、遠方になるに従って速度が小さくなるという関係が成り立つ。したがって、背景の画像位置と速度関係を満たす予測式とを算出すれば、画像上の任意の位置における静止物の速度を推定することができる。そして、この推定した速度情報と検出で得られた速度情報を比較することにより、静止物か移動物かの判定を効率的に行うことができる。
さらに、画像上の移動情報の差が所定値未満である画素群の対象領域を一の対象領域として抽出することにより、一つの移動体において複数のエッジが検出された場合でも、一つの移動体であるとの判定を行うことができる。
加えて、特徴点を撮像画像に含まれる物体のエッジに対応する画素又は画素群とするため、撮像画像上において物体のエッジを検出することで、簡単に歩行者を検出することができる。
<第2実施形態>
続いて、第2実施形態について説明する。第2実施形態は、歩行者候補検証部33の処理の内容に特徴がある。この点を除き、第2実施形態の基本的構成及び処理は、第1実施形態のそれに共通するため、ここでは異なる点を中心に説明する。
歩行者候補検証部33は、対象領域に含まれる立体物の特徴点の移動方向のばらつき度が時間の経過とともに大きくなる場合は、その対象領域は歩行者を含まない対象領域として検証する。
これに加え、本実施形態において、歩行者候補検証部33は、撮像画像における消失点の位置を考慮し、抽出された対象領域と消失点との距離に応じて特徴点の移動方向のばらつき度の変化を観察する時間(検証時間)を決定する。
撮像画像における消失点は、その位置によっては、立体物が歩行者であるか否かについての誤検出の原因の一つとなる。また、消失点の画像上の位置により、今後の移動量が予測できる。消失点が画像の端にあれば、操舵量が大きいと考えられるため、今後の移動量は大きくなる。つまり、短い時間で大きい移動量を検知することができるといえる。従って、消失点が画像の端にある場合は、移動方向の変化量を観察する検証時間は少ない時間とすることが可能である。一方、消失点が画像の中央に近づくにつれ、操舵量は小さくなり、今後の移動量は小さくなる。従って検証時間は、長く取る必要がある。
以上のことから、検出された歩行者候補(対象領域)の画像上の位置、すなわち消失点と歩行者候補(対象領域)との位置関係に基づいて、移動方向のばらつきを観察する検証時間を変えることができる。
消失点の位置と検証時間との関係は予め任意に定義することができる。たとえば、対象領域の水平座標に基づいて検証時間を決定することができる。また、撮像画像の縁に沿う外側領域と、外側領域の内側であって、撮像画像の中心から予め定義された内側領域とを予め定義し、消失点がどの領域に属するかに基づいて、検証時間を決定してもよいし、撮像画像の外縁又は中心からの距離に応じて検証時間を決定してもよい。
特に限定されないが、消失点が外側領域に属する場合(又は消失点が外側領域に近い若しくは消失点が中心から遠い場合)は、検証時間を相対的に短く設定し、消失点が内側領域に属する場合(又は消失点が縁から遠い若しくは消失点が中心に近い場合)は、検証時間を相対的に長く設定する。
図18は、本実施形態における歩行者検証処理を示す。この歩行者検証処理は、図15に示すフローチャートのステップ122の処理に対応する。
ステップS122Aにおいて、歩行者候補検証部33は、ステップS121で検出された歩行者候補の画像上の位置に応じて検証時間を設定する。この後、フローはステップS122Bに移行する.
なお、ステップS122B〜ステップS122Eは、上述した図16に示すステップS1221〜ステップS1244と同様の処理である。
本実施形態の歩行者検出装置100によれば、歩行者候補検証処理において、抽出された対象領域と消失点との距離に応じて、特徴点の移動方向のばらつき度の変化を観察する時間を決定するため、適切な検証時間を設定することができ、全体として処理時間を短縮することができる。
<第3実施形態>
続いて、第3実施形態について説明する。第3実施形態は、判定対象抽出部31の処理の内容に特徴がある。この点を除き、第3実施形態の基本的構成及び処理は、第1実施形態のそれに共通するため、ここでは異なる点を中心に説明する。
特徴点の移動情報に基づいて、撮像画像の中から移動する対象立体物を含む対象領域を抽出する際に、例えばエッジ検出の結果に起因して、同じ立体物等を異なる立体物として抽出してしまう場合がある。
本実施形態の判定対象抽出部31は、判定対象抽出部31が、一の立体物や移動体の特徴点を同一のグループにグループ化できない場合でも、平面物と立体物の検出を確実に行う。
具体的に、本実施形態の判定対象抽出部31は、抽出された対象領域に含まれる平面物に対応する画素群が、抽出された対象領域に含まれる立体物に対応する画素群に、画像の略垂直方向に沿って連なる場合は、平面物を含む対象領域と立体物を含む対象領域とを共通の対象立体物を含む対象領域として抽出する。
図19に示す画像情報に基づいて本実施形態の判定対象の抽出処理を説明する。図19に示すように、外壁上(図3を参照)に検出されたP1〜P13の内、P1〜P3とP4〜P13が別々にグループ化され、P61〜P12の内、P61〜P63とP4〜P12が別々にグループ化され、P81〜P811の内、P81〜P83とP84〜P11が別々にグループ化され、P91〜P912の内、P91〜P93とP4〜P12が別々にグループ化された場合の処理について説明する。
まず、算出された移動画像に物体を検出するための領域を設定する。すなわち、図19に示すように、移動画像上に短冊状の複数の領域(以降、短冊領域と呼ぶ)を設定し、移動画像を分割する。本実施形態では、各短冊領域毎に画像下端から上端に速度を持った画素を順に走査して検出し、検出された画素を前述の(数式1)、(数式2)に基づいてZX平面へ座標変換する。
座標変換の結果が図7に示すZX平面内に位置するか否かを判定する。座標変換の結果がZX平面内に位置すれば、平面物の候補点と判定する。一方、ZX平面内に位置しなければ、立体物の候補点として判定する。なお、ZX平面には前述した実施形態で説明した領域と同じ領域が設定されるものとし、領域の設定方法については説明を省略する。
具体的に、図19に示す例では、P1〜P3はZX平面内の同一の領域に位置して平面物の候補点と判定され、P4〜P13はZX平面内に位置しないため、立体物候補点と判定される。同様に、P1〜P3、P1〜P3、P1〜P3、P51〜P53、P61〜P63、P71〜P73、P1〜P3、P1〜P3、P101〜P103、P111〜P113、P121〜P123、P131〜P133、P141〜P143、P151〜P153、P161〜P163は平面物候補点と判定され、P14〜P113、P4〜P15、P4〜P15、P3〜P12、P4〜P11、P4〜P12、P124〜P1215、P134〜P1315、P144、P154〜P1516、P164〜P1617は立体物候補点と判定される。
次に、平面物候補点と立体物候補点の判定結果に基づき、立体物の判定を行う。すなわち、平面物候補点であると判定された点と立体物候補点であると判定された点が、縦方向に連続して存在する場合は、立体物の内、路面近くに存在する部分が誤って平面物候補点であると判定されたものと推定できる。このため、平面物候補点と立体物候補点が縦方向に連続して存在する物体を立体物として判定する。
例えば、本例では、図19及び20に示すように、平面物候補点P1〜P3と立体物候補点P4〜P13が縦方向に連続しているため、P1〜P13を一の立体物OB1として判定する。
同様に、P1〜P15を立体物OB2、P1〜P15を一の立体物OB3として判定し、P1〜P12を一の立体物OB4、P1〜P11を一の立体物OB5として判定し、P1〜P12を一の立体物OB6として判定し、P121〜P1215を一の立体物OB7として判定し、P131〜P1315を一の立体物OB8として判定し、P141〜P144を一の立体物OB9として判定し、P151〜P1516を一の立体物OB10として判定し、P161〜P1617を一の立体物OB11として判定する(図20参照)。
さらに、平面物および立体物と判定された点の内、下端点を抽出し、第1の実施形態と同様に、下端点のZX平面への座標変換点が位置するZX平面の領域のカウンタのカウンタ値を+1加算して、下端点の位置分布を算出する。例えば、本実施例では、P1、P1、P1、P1、P1、P1、P1、P1、P1、P101、P111、P121、P131、P141、P151、P161を下端点として検出し、図8に示す各下端点P1〜P161の座標変換点RB1〜RB16が位置する領域のカウンタのカウンタ値を+1加算する。以下、前述した実施形態と同様の処理を行うことで、走路境界と立体物、立体物中の移動体の検出を行うことができる。
移動体を検出した後は、前述した実施形態と同様の操作を行うことで、歩行者の検出を行うことができる。
図21は、本実施形態における歩行者検出装置100の処理を示すフローチャートである。図20に示す処理はイグニションスイッチがオンされると、起動されるプログラムとして実行される。図20において、図15に示す本発明の実施形態における処理のフローチャートと同一の処理内容については、同じステップ番号を付与し、二点鎖線で囲んだ異なる処理を中心に説明する。
ステップS131では、ステップS104にて設定された物体検出用の短冊領域内において画像下端から上端に向かって走査を行い、速度を持つ画素の座標を(数式1)、(数式2)を用いてZX平面上へ座標変換する。この後に、フローはステップS132へ移行する。
ステップS132において、判定対象抽出部31は、特徴点の画素の座標変換点がZX平面内に位置すれば、特徴点を平面物候補点と判定し、特徴点の画素の座標変換点がZX平面内に位置しなければ、立体物候補点と判定する。この後に、フローはステップS133に進む。
ステップS133では、速度が算出された画素の全てがZX平面上へ座標変換されて、平面物候補点および立体物候補点の検出が終了したかどうかが判定される。平面物候補点および立体物候補点の検出が終了した場合には、フローはステップS134に進む。一方、平面物候補点および立体物候補点の検出が終了していない場合は、フローはステップS131に戻り、平面物候補点および立体物候補点の検出が継続される。
ステップS134において、判定対象抽出部31は、各短冊領域内において、平面物候補点および立体物候補点が縦方向に連続して存在する場合、平面物候補点および立体物候補点を含む物体を一つの立体物として判定する。この後に、フローはステップS135に進む。
ステップS135において、判定対象抽出部31は、平面物候補点のうち、一番下にある点を下端点として検出し、検出した下端点のZX平面上の座標変換点が位置する領域のカウンタのカウンタ値を+1加算する。この後に、フローはステップS136に進む。
ステップS136において、判定対象抽出部31は、各領域において、カウンタ値に基づき各領域の下端点の位置分布情報の算出が終了したかどうかを判断する。各領域の下端点の位置分布情報の算出が終了した場合には、フローはステップS110へ進む。一方、各領域の下端点の位置分布情報の算出が終了していない場合には、フローはステップS134へ戻り、下端点の位置分布情報の算出が継続される。
ステップ110以降の処理は、上述した図15に示す処理と同様の処理を行うことにより、歩行者を検出する。
このように、本実施形態の歩行者検出装置100によれば、一の立体物に観察される、立体物の画素群に平面物の画素群が画像の略垂直方向に連なるという特徴を検出することにより、一の立体物が平面物と立体物とに別々に判定された場合であっても、一の対象立体物として判断し、対応する対象領域を抽出することができる。
これにより、特徴点の抽出を含む画像処理において、同じ立体物を構成する画素でありながら何らかの影響で同等の移動速度が算出されない場合であっても、立体物の識別を高い精度で行うことができる。
なお、以上説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。
すなわち、本明細書では、本発明に係る歩行者検出装置100を含む車載装置1000をその一態様として説明するが、本発明はこれに限定されるものではない。
また、本明細書では、歩行者検出装置100の一態様として、特徴点抽出手段の一例としての特徴点抽出部21と、移動情報算出手段の一例としての移動情報算出部22と、判定対象抽出手段の一例としての判定対象抽出部24と、歩行者判定手段としての歩行者判定部34を備える歩行者検出装置100を説明したが、これに限定されるものではない。
さらに、歩行者検出装置100は、本明細書で説明したように、歩行者候補抽出手段の一例としての歩行者候補抽出部32と、歩行者候補検証手段の一例としての歩行者候補検証部33と、を備えることができる。また、これに加えて、グループ化手段の一例としてのグループ化部と、座標変換手段の一例としての座標変換部24とを備えることができる。
本発明の実施形態を図面により詳述したが、実施形態は本発明の例示にしか過ぎず、本発明は実施形態の構成にのみ限定されるものではない。したがって本発明の要旨を逸脱しない範囲の設計の変更等があっても本発明に含まれることはもちろんである。
例えば、ブロック図は上記実施例に示すものに限定されるものではなく、同等の機能を備えた他の構成とすることができる。
また、カメラの取り付け位置は実施形態で述べた位置に限定されるものではなく、カメラの光軸が車両前方正面方向(Z方向)に向き、撮像面の水平軸および垂直軸がそれぞれ路面と略平行および略垂直となるように設定されていれば良い。
また、検出したエッジの幅の正規化を行うにあたっては、エッジ幅は3画素に限定されるものではなく、任意の画素数を設定することができる。この場合、その後の処理でエッジの中央部の画素を利用するため、エッジ幅の画素数は奇数個であることが望ましい。
また、xy平面を分割して設定する短冊領域の数は上記実施形態に示すものに限定されるものではなく、任意の数に分割して設定することができる。
また、ZX平面を分割して設定する領域の数は上記実施形態に示すものに限定されるものではなく、任意の数に分割して設定することができる。
また、ZX平面の縦方向および横方向の範囲は、任意の値に設定することができる。
また、上記実施形態では道路を走行する車両に歩行者検出装置10を搭載する例について説明したが、他の移動体に搭載してもよい。
さらに、上記実施形態では、検出する走路境界として、縁石、白線、外壁と路面との接点の例について説明したが、これに限定されず、例えば、ガードレール、駐車車両と路面との境界、路面と路面以外の領域(田、畑など)との境界を検出してもよい。
本実施形態の歩行者検出装置のブロック構成の一例を示す図である。 (A)及び(B)は、カメラ10の搭載例を示す図である。 車載されたカメラ10により撮像された車両前方の画像例である。 (a)〜(f)は移動速度の算出処理例を説明するための図である。 移動画像の一例を示す図である。 グループ化処理例を説明するための図である。 立体物を含む領域を判定の対象として抽出する処理例を説明するための図である。 走路境界を抽出する手法例を説明するための図である。 背景となる走路境界を抽出する手法例を説明するための図である。 抽出された走路境界に基づいて移動する対象立体物を抽出する手法例を説明するための図である。 移動する立体物を対象立体物として抽出する処理例を説明するための図である。 歩行者の脚部と腕部の速度変化の特徴例を示す図である。 歩行者候補の検証処理例を説明するための図である。 歩行者の判定処理を説明するための図である。 歩行者検出処理の一例を示すフローチャート図である。 歩行者候補検証処理の一例を示すフローチャート図である。 歩行者判定処理の一例を示すフローチャート図である。 第2実施形態に係る、歩行者候補検証処理の他の例を示すフローチャート図である。 移動する対象立体物を抽出するための処理例を説明するための図である。 移動する対象立体物を抽出するための処理例を説明するための他の図である。 第3実施形態に係る、判定対象抽出処理の他の例を示すフローチャート図である。
符号の説明
1000…車載装置
100…歩行者検出装置
10…カメラ
11…画像メモリ
20…画像処理部
21…特徴点抽出部
22…移動情報算出部
23…グループ化部
24…座標変換部
30…判定処理部
31…判定対象抽出部
32…歩行者候補抽出部
33…歩行者候補検証部
34…歩行者判定部
200…車両コントローラ
300…警報装置
400…走行支援装置
500…出力装置

Claims (23)

  1. 撮像手段と、
    前記撮像手段により撮像された画像から特徴点を抽出する特徴点抽出手段と、
    前記特徴点抽出手段により抽出された特徴点の移動速度及び/又は移動方向を含む移動情報をそれぞれ算出する移動情報算出手段と、
    前記移動情報算出手段により算出された前記特徴点の移動情報に基づいて、前記撮像された画像の中から移動する対象立体物を含む対象領域を抽出する判定対象抽出手段と、
    前記判定対象抽出手段により抽出された対象領域に関する移動情報と前記対象領域の周囲に設定された比較領域に関する移動情報とを比較し、前記比較の結果に基づいて前記抽出された対象領域に含まれる対象立体物が歩行者であるか否かを判定する歩行者判定手段とを有する歩行者検出装置。
  2. 請求項1に記載の歩行者検出装置において、
    前記歩行者判定手段は、前記対象領域に関する移動速度と前記対象領域の周囲に設定された比較領域に関する移動速度との差が所定値以上である場合は、前記対象領域に含まれる対象立体物は歩行者であると判定する歩行者検出装置。
  3. 請求項1又は2に記載の歩行者検出装置において、
    前記歩行者判定手段は、前記対象領域に関する移動方向と前記対象領域の周囲に設定された比較領域に関する移動方向との差が所定値以上である場合は、前記対象領域に含まれる対象立体物は歩行者であると判定する歩行者検出装置。
  4. 請求項3に記載の歩行者検出装置において、
    前記歩行者判定手段は、前記対象領域に関する移動方向と前記比較領域に関する移動方向が、予め定義された略反対方向関係である場合は、前記対象領域に含まれる対象立体物は自己に接近する歩行者であると判定する歩行者検出装置。
  5. 請求項2に記載の歩行者検出装置において、
    前記歩行者判定手段は、前記比較の結果、移動速度の差が所定値未満である場合は、前記対象領域に含まれる対象立体物は歩行者以外の立体物であると判定する歩行者検出装置。
  6. 請求項3又は4に記載の歩行者検出装置において、
    前記歩行者判定手段は、前記比較の結果、移動方向の差が所定値未満である場合は、前記対象領域に含まれる対象立体物は歩行者以外の立体物であると判定する歩行者検出装置。
  7. 請求項1〜6の何れか一項に記載の歩行者検出装置において、
    前記対象領域の周囲に設定される比較領域は、前記対象領域の上端辺から上側へ所定長さの幅を有する上側比較領域、前記対象領域の左端辺から左側へ所定長さの幅を有する左側比較領域、又は前記対象領域の右端辺から右側へ所定長さの幅を有する右側比較領域のいずれか1つ以上を含む歩行者検出装置。
  8. 請求項1〜7の何れか一項に記載の歩行者検出装置において、
    前記対象領域の周囲に設定される比較領域は、前記対象領域の上端辺から上側に所定距離だけ離隔するとともに上側へ所定長さの幅を有する第2上側比較領域、前記対象領域の左端辺から左側に所定距離だけ離隔するとともに左側へ所定長さの幅を有する第2左側比較領域、又は前記対象領域の右端辺から所定距離だけ離隔するとともに右側へ所定長さの幅を有する第2右側比較領域のいずれか1つ以上を含む歩行者検出装置。
  9. 請求項1〜8の何れか一項に記載の歩行者検出装置において、
    前記判定対象抽出手段により抽出された対象領域に含まれる特徴点の移動速度を前記移動情報算出手段から取得し、前記対象領域内の特徴点の移動速度の分散値を算出し、前記分散値が所定値以上である場合は、前記対象領域を歩行者が含まれる対象領域として抽出する歩行者候補抽出手段をさらに備える歩行者検出装置。
  10. 請求項9に記載の歩行者検出装置において、
    前記歩行者候補抽出手段は、前記算出された移動速度の分散値が所定値未満であっても、所定時間内における前記対象領域内の特徴点の移動量が所定値未満であるとともに、前記対象領域内の特徴点の移動速度の変化が所定値以上である場合は、前記対象領域を歩行者が含まれる対象領域として抽出する歩行者検出装置。
  11. 請求項1〜10の何れか一項に記載の歩行者検出装置において、
    前記抽出された対象領域に含まれる特徴点の移動情報のばらつき度が時間の経過とともに大きくなる場合は、前記対象領域は歩行者を含まないと検証する歩行者候補検証手段をさらに備える歩行者検出装置。
  12. 請求項11に記載の歩行者検出装置において、
    前記歩行者候補検証手段は、前記抽出された対象領域に含まれる特徴点について所定時間観察し、歩行者候補とされる対象立体物に対応する特徴点の移動方向との方向差が所定値未満であり、かつ前記歩行者候補に対応する特徴点の移動速度との速度差が所定値未満である特徴点の数N1と、歩行者候補とされる対象立体物に対応する特徴点の移動方向との方向差が所定値以上である特徴点の数N2とを算出し、N2>N1を満たし、前記対象領域の面積に対するN2の割合R1が、予め設定された所定値Rt1よりも大きくなる場合は、前記対象領域は歩行者を含まない対象領域として検証する歩行者検出装置。
  13. 請求項11又は12に記載の歩行者検出装置において、
    前記歩行者候補検証手段は、前記抽出された対象領域と消失点との距離に応じて、前記特徴点の移動方向のばらつき度の変化を観察する時間を決定する歩行者検出装置。
  14. 請求項1〜13の何れか一項に記載の歩行者検出装置において、
    前記移動情報算出手段により算出された移動速度が所定範囲内であり、前記画像おいて略垂直方向に隣接する画素群をグループ化するグループ化手段と、
    前記画像に含まれる画素を、所定の視点から見た俯瞰図における変換座標に変換する座標変換手段と、をさらに備え、
    前記判定対象抽出手段は、前記グループ化手段によりグループ化された画素群のうち、前記変換座標において上端に位置する画素の座標と下端に位置する画素の座標とに基づき、前記撮像された画像の中から対象立体物を含む対象領域を抽出する歩行者検出装置。
  15. 請求項14に記載の歩行者検出装置において、
    前記座標変換手段は、前記画素を、所定の視点から見た俯瞰図であって、所定の分割領域に区分された変換座標に変換し、
    前記判定対象抽出手段は、前記グループ化手段によりグループ化された画素群のうち、前記変換座標において上端に位置する画素の座標が前記変換座標の領域外に属するとともに、下端に位置する画素の座標が前記いずれかの分割領域に属する場合は、前記グループ化された画素群に対応する領域を、前記対象立体物を含む対象領域として抽出する歩行者検出装置。
  16. 請求項15に記載の歩行者検出装置において、
    前記判定対象抽出手段は、前記グループ化手段によりグループ化された画素群のうち、前記変換座標において上端に位置する画素の座標と下端に存在する画素の座標とが共通の分割領域に属する場合は、前記グループ化された画素群に対応する領域を、平面物を含む対象領域として抽出する歩行者検出装置。
  17. 請求項16に記載の歩行者検出装置において、
    前記判定対象抽出手段は、前記抽出された対象領域に含まれる平面物に対応する画素群が、前記抽出された対象領域に含まれる立体物に対応する画素群に、前記画像の略垂直方向に沿って連なる場合は、前記平面物を含む対象領域と前記立体物を含む対象領域とを一の対象立体物を含む対象領域として抽出する歩行者検出装置。
  18. 請求項1〜17の何れか一項に記載の歩行者検出装置において、
    前記画像おいて略垂直方向に隣接するとともに、前記移動情報算出手段により算出された移動速度が所定範囲内である画素群をグループ化するグループ化手段を備え、
    前記判定対象抽出手段は、前記グループの画素群のうち前記画像の略垂直方向の下端に位置する画素の座標値に基づいて、前記画像に含まれる立体物の設置面と所定の関係を有する基準境界を抽出し、前記グループ化手段によりグループ化された画素群のうち上端に位置する画素の位置が前記基準境界の位置よりも上に位置する場合は、前記グループ化された画素群に対応する領域を前記移動する対象立体物を含む対象領域として抽出する歩行者検出装置。
  19. 請求項18に記載の歩行者検出装置において、
    前記判定対象抽出手段は、前記基準境界の位置に基づいて前記移動速度算出手段により算出された前記基準境界の移動情報から前記画像の背景の予測移動情報を算出し、前記グループ化手段によりグループ化された画素群の移動情報に含まれる移動方向と前記背景の予測移動情報に含まれる予測移動方向との差が、予め定義された略反対方向の関係である場合は、前記グループ化された画素群に対応する領域を、前記自己の方向に移動する対象立体物を含む対象領域として抽出する歩行者検出装置。
  20. 請求項19に記載の歩行者検出装置において、
    前記判定対象抽出手段は、前記グループ化手段によりグループ化された画素群の移動情報に含まれる移動方向と前記背景の予測移動情報に含まれる予測移動方向との差が所定値未満であり、前記グループ化手段によりグループ化された画素群の移動情報に含まれる移動速度と前記背景の予測移動情報に含まれる予測移動速度との差が所定値未満である場合は、前記グループ化された画素群に対応する領域を、前記静止物を含む領域として抽出する歩行者検出装置。
  21. 請求項18又は19に記載の歩行者検出装置において、
    前記判定対象抽出手段は、前記対象領域が複数抽出されたとき、前記抽出された対象領域に含まれる対象立体物に対応する特徴点の移動方向の差が所定値未満であり、かつ前記対象立体物に対応する特徴点の移動速度の差が所定値未満である場合は、これらの対象領域を共通の対象立体物を含む一の対象領域として抽出する歩行者検出装置。
  22. 請求項1〜21の何れか一項に記載の歩行者検出装置において、
    前記特徴点は前記撮像された画像に含まれる物体のエッジに対応する画素又は画素群である歩行者検出装置。
  23. 撮像画像から抽出された特徴点の移動速度及び/又は移動方向を含む移動情報をそれぞれ算出し、
    前記特徴点の移動情報に基づいて、前記撮像画像の中から移動する対象立体物を含む対象領域を抽出し、
    前記対象領域に関する移動情報と前記対象領域の周囲に設定された比較領域に関する移動情報に基づいて、前記対象領域に含まれる対象立体物が歩行者であるか否かを判定する歩行者検出方法。
JP2008146892A 2008-06-04 2008-06-04 歩行者検出装置及び歩行者検出方法 Active JP5320828B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008146892A JP5320828B2 (ja) 2008-06-04 2008-06-04 歩行者検出装置及び歩行者検出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008146892A JP5320828B2 (ja) 2008-06-04 2008-06-04 歩行者検出装置及び歩行者検出方法

Publications (2)

Publication Number Publication Date
JP2009294842A true JP2009294842A (ja) 2009-12-17
JP5320828B2 JP5320828B2 (ja) 2013-10-23

Family

ID=41542990

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008146892A Active JP5320828B2 (ja) 2008-06-04 2008-06-04 歩行者検出装置及び歩行者検出方法

Country Status (1)

Country Link
JP (1) JP5320828B2 (ja)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012120856A1 (ja) * 2011-03-10 2012-09-13 パナソニック株式会社 物体検出装置及び物体検出方法
CN102855774A (zh) * 2011-06-27 2013-01-02 歌乐株式会社 车辆周围监视装置
JP2013050798A (ja) * 2011-08-30 2013-03-14 Nissan Motor Co Ltd 動き検出装置
JP2013050797A (ja) * 2011-08-30 2013-03-14 Nissan Motor Co Ltd 動き検出装置
WO2013042205A1 (ja) 2011-09-20 2013-03-28 トヨタ自動車株式会社 歩行者行動予測装置および歩行者行動予測方法
JP2013190949A (ja) * 2012-03-13 2013-09-26 Toyota Central R&D Labs Inc 歩行者検出装置及びプログラム
JP2014035560A (ja) * 2012-08-07 2014-02-24 Nissan Motor Co Ltd 飛び出し検出装置
JP2014228410A (ja) * 2013-05-23 2014-12-08 日本無線株式会社 レーダ装置
JP2014240753A (ja) * 2013-06-11 2014-12-25 富士通株式会社 距離測定装置、距離測定方法、およびプログラム
WO2017014080A1 (ja) * 2015-07-17 2017-01-26 株式会社デンソー 運転支援システム
JP2017083232A (ja) * 2015-10-26 2017-05-18 富士通テン株式会社 車両状態判定装置、表示処理装置および車両状態判定方法
WO2017126225A1 (ja) 2016-01-22 2017-07-27 日産自動車株式会社 歩行者の判定方法及び判定装置
WO2017126226A1 (ja) 2016-01-22 2017-07-27 日産自動車株式会社 車両の運転支援制御方法及び制御装置
JP2017211282A (ja) * 2016-05-26 2017-11-30 マツダ株式会社 車両用歩行者検出装置
JP2017537484A (ja) * 2015-09-11 2017-12-14 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 可動物体を検出し、追跡するシステム及び方法
US9852334B2 (en) 2012-12-13 2017-12-26 Denso Corporation Method and apparatus for detecting moving objects
US10672141B2 (en) 2015-09-15 2020-06-02 Ricoh Company, Ltd. Device, method, system and computer-readable medium for determining collision target object rejection
CN111611841A (zh) * 2019-02-26 2020-09-01 现代摩比斯株式会社 用于车辆的对象检测设备和方法
CN116953680A (zh) * 2023-09-15 2023-10-27 成都中轨轨道设备有限公司 一种基于图像的目标物实时测距方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006268097A (ja) * 2005-03-22 2006-10-05 Nissan Motor Co Ltd 車載物体検出装置、および物体検出方法
JP2007249257A (ja) * 2006-03-13 2007-09-27 Nissan Motor Co Ltd 移動体検出装置および移動体検出方法
JP2007288657A (ja) * 2006-04-19 2007-11-01 Toyota Motor Corp 車両用表示装置、車両用表示装置の表示方法
JP2007316790A (ja) * 2006-05-24 2007-12-06 Nissan Motor Co Ltd 歩行者検出装置および歩行者検出方法
JP2008077624A (ja) * 2005-12-07 2008-04-03 Nissan Motor Co Ltd 物体検出装置および物体検出方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006268097A (ja) * 2005-03-22 2006-10-05 Nissan Motor Co Ltd 車載物体検出装置、および物体検出方法
JP2008077624A (ja) * 2005-12-07 2008-04-03 Nissan Motor Co Ltd 物体検出装置および物体検出方法
JP2007249257A (ja) * 2006-03-13 2007-09-27 Nissan Motor Co Ltd 移動体検出装置および移動体検出方法
JP2007288657A (ja) * 2006-04-19 2007-11-01 Toyota Motor Corp 車両用表示装置、車両用表示装置の表示方法
JP2007316790A (ja) * 2006-05-24 2007-12-06 Nissan Motor Co Ltd 歩行者検出装置および歩行者検出方法

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012189445A (ja) * 2011-03-10 2012-10-04 Panasonic Corp 物体検出装置及び物体検出方法
WO2012120856A1 (ja) * 2011-03-10 2012-09-13 パナソニック株式会社 物体検出装置及び物体検出方法
US9041588B2 (en) 2011-03-10 2015-05-26 Panasonic Intellectual Property Management Co., Ltd. Object detection device and object detection method
CN102855774B (zh) * 2011-06-27 2014-12-10 歌乐株式会社 车辆周围监视装置
CN102855774A (zh) * 2011-06-27 2013-01-02 歌乐株式会社 车辆周围监视装置
JP2013008328A (ja) * 2011-06-27 2013-01-10 Clarion Co Ltd 車両周囲監視装置
US9177196B2 (en) 2011-06-27 2015-11-03 Clarion Co., Ltd. Vehicle periphery monitoring system
JP2013050798A (ja) * 2011-08-30 2013-03-14 Nissan Motor Co Ltd 動き検出装置
JP2013050797A (ja) * 2011-08-30 2013-03-14 Nissan Motor Co Ltd 動き検出装置
WO2013042205A1 (ja) 2011-09-20 2013-03-28 トヨタ自動車株式会社 歩行者行動予測装置および歩行者行動予測方法
CN103907146A (zh) * 2011-09-20 2014-07-02 丰田自动车株式会社 行人行动预测装置以及行人行动预测方法
US9904846B2 (en) 2011-09-20 2018-02-27 Toyota Jidosha Kabushiki Kaisha Pedestrian behavior predicting device and pedestrian behavior predicting method
JP2013190949A (ja) * 2012-03-13 2013-09-26 Toyota Central R&D Labs Inc 歩行者検出装置及びプログラム
JP2014035560A (ja) * 2012-08-07 2014-02-24 Nissan Motor Co Ltd 飛び出し検出装置
US9852334B2 (en) 2012-12-13 2017-12-26 Denso Corporation Method and apparatus for detecting moving objects
JP2014228410A (ja) * 2013-05-23 2014-12-08 日本無線株式会社 レーダ装置
US9736460B2 (en) 2013-06-11 2017-08-15 Fujitsu Limited Distance measuring apparatus and distance measuring method
JP2014240753A (ja) * 2013-06-11 2014-12-25 富士通株式会社 距離測定装置、距離測定方法、およびプログラム
JP2017027202A (ja) * 2015-07-17 2017-02-02 株式会社日本自動車部品総合研究所 運転支援システム
WO2017014080A1 (ja) * 2015-07-17 2017-01-26 株式会社デンソー 運転支援システム
US10198634B2 (en) 2015-09-11 2019-02-05 SZ DJI Technology Co., Ltd. Systems and methods for detecting and tracking movable objects
US10650235B2 (en) 2015-09-11 2020-05-12 SZ DJI Technology Co., Ltd. Systems and methods for detecting and tracking movable objects
JP2017537484A (ja) * 2015-09-11 2017-12-14 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 可動物体を検出し、追跡するシステム及び方法
US10672141B2 (en) 2015-09-15 2020-06-02 Ricoh Company, Ltd. Device, method, system and computer-readable medium for determining collision target object rejection
JP2017083232A (ja) * 2015-10-26 2017-05-18 富士通テン株式会社 車両状態判定装置、表示処理装置および車両状態判定方法
WO2017126225A1 (ja) 2016-01-22 2017-07-27 日産自動車株式会社 歩行者の判定方法及び判定装置
US10503985B2 (en) 2016-01-22 2019-12-10 Nissan Motor Co., Ltd. Pedestrian determination method and determination device
US10576972B2 (en) 2016-01-22 2020-03-03 Nissan Motor Co., Ltd. Vehicle driving assist control method and control device
WO2017126226A1 (ja) 2016-01-22 2017-07-27 日産自動車株式会社 車両の運転支援制御方法及び制御装置
JP2017211282A (ja) * 2016-05-26 2017-11-30 マツダ株式会社 車両用歩行者検出装置
CN111611841A (zh) * 2019-02-26 2020-09-01 现代摩比斯株式会社 用于车辆的对象检测设备和方法
KR20200103984A (ko) * 2019-02-26 2020-09-03 현대모비스 주식회사 차량의 객체 검출 장치 및 방법
KR102177879B1 (ko) * 2019-02-26 2020-11-12 현대모비스 주식회사 차량의 객체 검출 장치 및 방법
US11314972B2 (en) 2019-02-26 2022-04-26 Hyundai Mobis Co., Ltd. Object detection apparatus and method for vehicle
US11721033B2 (en) 2019-02-26 2023-08-08 Hyundai Mobis Co., Ltd. Object detection apparatus and method for vehicle
CN111611841B (zh) * 2019-02-26 2024-05-07 现代摩比斯株式会社 用于车辆的对象检测设备和方法
CN116953680A (zh) * 2023-09-15 2023-10-27 成都中轨轨道设备有限公司 一种基于图像的目标物实时测距方法及系统
CN116953680B (zh) * 2023-09-15 2023-11-24 成都中轨轨道设备有限公司 一种基于图像的目标物实时测距方法及系统

Also Published As

Publication number Publication date
JP5320828B2 (ja) 2013-10-23

Similar Documents

Publication Publication Date Title
JP5320828B2 (ja) 歩行者検出装置及び歩行者検出方法
JP6657789B2 (ja) 画像処理装置、撮像装置、機器制御システム、頻度分布画像生成方法、及びプログラム
EP1860594A2 (en) Pedestrian detector and pedestrian detecting method
JP4553072B1 (ja) 画像統合装置および画像統合方法
US20130286205A1 (en) Approaching object detection device and method for detecting approaching objects
WO2017130640A1 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
JP2017526082A (ja) 動作推定方法、移動体、およびプロセッサに動作推定方法を実行させるコンピュータプログラムコードでコード化された非一時的コンピュータ可読媒体
JP5157692B2 (ja) 移動体検出装置及び移動体検出方法
JP2016148962A (ja) 物体検知装置
CN105654031B (zh) 用于物体检测的系统和方法
JP2004032460A (ja) 画像処理装置およびその方法
JP2008262333A (ja) 路面判別装置および路面判別方法
JP2010246166A (ja) 3次元情報表示装置および3次元情報表示方法
JP2007249257A (ja) 移動体検出装置および移動体検出方法
JP2019066333A (ja) 車両用外界認識装置
JPWO2017145634A1 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
US9824449B2 (en) Object recognition and pedestrian alert apparatus for a vehicle
JP2016004446A (ja) 動き推定装置
JP2017021780A (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及び画像処理プログラム
JP2016012304A (ja) 対象物認識装置
WO2010113253A1 (ja) 3次元情報表示装置および3次元情報表示方法
JP2016009331A (ja) 車両周辺監視装置
JP4830822B2 (ja) 物体検出装置および物体検出方法
JP2005170290A (ja) 障害物検出装置
JP2014059646A (ja) 対象物検出装置、及び対象物検出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121016

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121017

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130219

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130618

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130701

R150 Certificate of patent or registration of utility model

Ref document number: 5320828

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150