JP6069938B2 - 飛び出し検出装置 - Google Patents

飛び出し検出装置 Download PDF

Info

Publication number
JP6069938B2
JP6069938B2 JP2012174739A JP2012174739A JP6069938B2 JP 6069938 B2 JP6069938 B2 JP 6069938B2 JP 2012174739 A JP2012174739 A JP 2012174739A JP 2012174739 A JP2012174739 A JP 2012174739A JP 6069938 B2 JP6069938 B2 JP 6069938B2
Authority
JP
Japan
Prior art keywords
unit
speed information
moving speed
voting
pop
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012174739A
Other languages
English (en)
Other versions
JP2014035560A (ja
Inventor
藤本 和巳
和巳 藤本
泰宏 松下
泰宏 松下
鈴木 章
章 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2012174739A priority Critical patent/JP6069938B2/ja
Publication of JP2014035560A publication Critical patent/JP2014035560A/ja
Application granted granted Critical
Publication of JP6069938B2 publication Critical patent/JP6069938B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、自車両前方に存在する障害物の陰等による死角から車道側に飛び出す物体を検出する飛び出し検出装置に関する。
従来より、車両に搭載されているレーザレーダやミリ波レーダ用いて、直進走行時の車両前方の死角から出現した物体を検出する検出方法が提案されている(例えば、特許文献1参照)。該特許文献1では、車両前方に存在する障害物の陰等の死角をレーザレーダやミリ波レーダを用いて検出し、この死角から出現した物体が存在する場合には、物体の存在の確からしさを示す確信度を通常よりも増加させ、検出から認識までの時間を短くすることにより、車道側の飛び出す物体をいち早く検出することが開示されている。
特開2011−116218号公報
しかしながら、上述した特許文献1に開示された飛び出し歩行者の検出方法では、直進走行時の死角から物体が出現した場合に対処する方法で、旋回走行時の飛び出しの検出に適した方法とはなっていない。
本発明は、このような従来の課題を解決するためになされたものであり、その目的とするところは、旋回走行時に死角から出現する物体をいち早く検出することが可能な飛び出し検出装置を提供することにある。
上記目的を達成するため、本願請求項1に記載の発明は、撮像部で撮像した画像から特徴点を抽出する特徴点抽出部と、特徴点を表す画素の、移動速度情報を算出する移動速度情報算出部と、画像中に存在する物体を検出する物体検出部と、自車両の旋回状態を推定する旋回状態推定部と、物体検出部にて検出した物体の、位置情報及び移動速度情報を蓄積する物体情報蓄積部と、撮像部にて撮像された画像中に存在する死角領域を検出する死角検出部と、旋回状態推定部にて推定された旋回状態に基づいて、死角検出部で検出された死角領域に隣接した所定の領域を、注目領域として設定する注目領域設定部と、注目領域設定部で設定された注目領域内にて、死角領域の移動速度情報に対し所定閾値以上の差異を有する移動速度情報の物体が検出された場合に、飛び出しが発生しているものと判定する飛び出し判定部と、を備える。また、旋回状態推定部にて検出された自車両の旋回状態が旋回である場合には、直進である場合よりも、前記所定閾値を大きくする。
本発明に係る飛び出し検出装置では、自車両の旋回状態を推定し、死角領域に隣接し自車両の旋回状態に基づいた場所に注目領域を設定し、死角領域の移動速度情報と注目領域の移動速度情報との差異を自車の旋回状態に基づいた条件で判断することで、旋回走行時に高速、且つ高精度に飛び出しの発生を検出することができる。
本発明の第1実施形態に係る飛び出し検出装置の構成を示すブロック図である。 本発明の実施形態に係る飛び出し検出装置の、カメラを車両に搭載する場合の説明図である。 本発明の実施形態に係る飛び出し検出装置の、カメラで撮像した画像の具体例を示す説明図である。 抽出したエッジを正規化して、エッジ画像を得るために行う各処理の具体例を示す説明図である。 本発明の第1実施形態に係り、カーブ路に存在する物体についての水平及び垂直方向の速度画像の具体例を示す説明図である。 本発明の第1実施形態に係り、水平方向の移動速度情報から物体を抽出し、垂直方向の速度画像から物体の境界位置を検出し、水平方向で検出した物体の下端位置を更新する場合の具体例を示す説明図である。 本発明の第1実施形態に係り、速度画像を格子状に分割し、各領域に物体が存在した場合にその移動速度情報を保存し、物体情報を蓄積する場合の具体例を示す説明図である。 本発明の第1実施形態に係り、物体蓄積情報を参照し、死角領域を検出する場合の具体例を示す説明図である。 本発明の第1実施形態に係り、死角領域の周辺領域に注目領域を設定し、注目領域内で死角の移動速度情報と異なる移動情報が検出されれば飛び出しと判定する場合の具体例を示す説明図である。 本発明の第1実施形態に係る飛び出し検出装置の処理動作を示すフローチャートである。 本発明の第2実施形態に係る飛び出し検出装置の構成を示すブロック図である。 本発明の第2実施形態に係り、右向き投票部、左向き投票部、及び向き無し投票部の投票値を示す説明図である。 本発明の第2実施形態に係り、画素分布に基づいて消失点の方向を推定する例を示す説明図である。 本発明の第2実施形態に係る飛び出し検出装置の処理動作を示すフローチャートである。
以下、本発明の実施形態を図面に基づいて説明する。
[第1実施形態の説明]
図1は、本発明の第1実施形態に係る飛び出し検出装置の構成を示すブロック図である。図1に示すように、第1実施形態に係る飛び出し検出装置10は、車両に搭載されて車両前方を撮像するカメラ(撮像部)101と、操舵角、車速等の車両情報を取得する車両情報取得部102と、車両情報総括的な制御を行う制御部100を備えている。
制御部100は、カメラ101で撮像した画像を一時的に記録する画像一時記録部103と、画像一時記録部103に記憶された画像を画像処理することで特徴点を抽出する特徴点抽出部104と、特徴点抽出部104により抽出された特徴点の画像上における速度及び方向を移動速度情報として算出する移動速度情報算出部105と、移動速度情報算出部105により算出された移動速度情報に基づいて物体を検出する物体検出部106と、車両情報取得部102により取得した操舵角及び車速に基づき、自車両の旋回状態を推定する旋回状態推定部107と、検出した物体情報の位置情報及び移動速度情報を過去から現在まで蓄積する物体情報蓄積部108と、蓄積した位置情報及び移動速度情報に基づいて死角領域を検出する死角検出部109と、死角領域に隣接して所定の場所に注目領域を設定する注目領域設定部110と、注目領域内に死角の移動速度情報と異なる移動速度情報が検出された際に飛び出しと判定する飛び出し判定部111と、を備えている。
なお、制御部100は、例えば、中央演算ユニット(CPU)や、RAM、ROM、ハードディスク等の記憶手段からなる一体型のコンピュータとして構成することができる。
カメラ101は、例えばCCDやCMOSなどの撮像素子を備えており、連続的に車両前方を撮像してフレーム毎に撮像した画像を画像一時記録部103に出力する。カメラ101で撮像された画像は、画像一時記録部103に一時的に記録される。
図2は、車両に搭載されるカメラ101を示す説明図であり、(a)は側面図、(b)は平面図を示している。図2に示すように、カメラ101は車両の室内上部前方中央に設置され、その光軸LSは車両前方正面方向(Z方向)に向き、撮像面の水平軸X(図示省略)は路面と平行となるように設定されている。また、撮像面の垂直軸Y(図示省略)は路面と垂直になるように設定されている。
図3は、カメラ101で自車両の前方を撮像した画像の例を示す説明図である。この画像は、画像左上を原点として左から右へx軸、上から下へy軸とするxy座標系によって表されている。また、図3に示す画像では、カーブ走行時における、駐車車両等の遮蔽物と、左から右方向へ移動する飛び出し歩行者が含まれている。
図1に示す特徴点抽出部104は、カメラ101で撮像された画像を画像一時記録部103から読み込み、読み込んだ画像を所定の閾値を用いて2値化することによって、画像内に存在する物体のエッジを抽出する。
例えば、特徴点抽出部104は、垂直方向のエッジを抽出し(後述する図4(a)参照)、次に、抽出した各エッジに対して、細線化処理を行ってエッジ幅を絞り、エッジの中心を正確に設定する(図4(b)参照)。更に、細線化されたエッジのエッジ幅が一定の幅となるように(例えば3画素分の幅となるように)、エッジを水平方向に拡張する(図4(c)参照)。この操作により、抽出したエッジが正規化され、各エッジが均一の幅を持つエッジ画像を得ることができる。同様に、水平方向のエッジを抽出し、抽出した各エッジに対して細線化処理を行い、エッジ幅が均一となるように正規化を行う。
移動速度情報算出部105は、まず、水平方向のエッジに該当する画素の画素カウンタの投票値(カウンタでカウントされる数値)を更新する。ここで、画素カウンタとは、各画素毎に設定されたカウンタであり、画素がエッジに該当する場合に画素カウンタの投票値に「1」を加算し、画素がエッジに該当しない場合は投票値が「0」となって初期化されるカウンタである。この投票値の更新処理を、カメラ101で連続的に撮像されるフレーム(時系列的に取得される複数の画像)毎に行う。この操作により、エッジに該当する時間が長い画素は画素カウンタの投票値が大きくなり、エッジに該当する時間が短い画素は投票値が小さくなる。
この投票値の変化は、エッジの移動方向と移動量を表していることになるため、この投票値に基づいて、撮像画像上におけるエッジの移動方向と移動速度とを算出することができる。以下、詳細に説明する。
図4は、抽出したエッジを正規化して、エッジ画像を得るために行う処理の具体例を示す図である。まず、エッジ画像に対して2値化処理を行う。2値化処理とはエッジの検出された位置の画素を「1」とし、エッジの検出されなかった位置の画素を「0」とする処理である。2値化処理によって図4(a)に示すような2値化画像を生成する。
次に、生成された2値化画像に対して、細線化処理を行う。細線化処理とは、検出されたエッジのエッジ幅を所定画素幅になるまで縮小する処理である。図4(b)では所定画素幅として1画素になるまでエッジのエッジ幅を細線化している。そして、このようにエッジを所定の画素幅になるまで細線化することによって、エッジの中心となる中心位置を設定している。ここでは、一例として1画素に細線化する場合について説明しているが、その他の画素数に細線化してもよい。
次に、細線化されたエッジのエッジ幅を膨張させる膨張処理を行う。膨張処理とは、細線化によって設定された中心位置からエッジの移動方向に向かってエッジ幅を膨張させると共に、中心位置からエッジの移動方向の反対方向についても同様にエッジ幅を膨張させる処理である。
例えば、図4(c)では、エッジの中心位置x0からエッジの移動方向(x軸の正方向)に1画素膨張させると共に、エッジの中心位置x0からエッジの移動方向と反対方向(x軸の負方向)に1画素膨張させて、エッジ幅を3画素に膨張させている。
このように細線化処理と膨張処理とを行うことによって、抽出したエッジ画像のエッジ幅を、エッジの移動方向に向かって所定の幅に統一して規格化している。
次に、エッジ幅が規格化されたエッジに対してカウントアップ処理を行う。カウントアップ処理とは、エッジが検出された位置のメモリアドレスの値をカウントアップし、エッジが検出されなかった位置のメモリアドレスの値を初期化する処理である。
以下、図4(c)〜(f)を参照して、エッジのカウントアップ処理について説明する。ここでは簡単のために、エッジはx軸の正方向に移動するものとして説明する。なお、エッジはx軸の負方向やy軸方向、或いは2次元的に移動する場合も同様に説明することができる。
図4(c)に示すように、エッジはあるフレームにおいて位置x0にエッジの中心位置があり、その中心位置からエッジの移動方向に1画素の位置x0+1と、中心位置からエッジの移動方向と反対方向に1画素の位置x0−1に膨張されている。
このような場合にエッジが検出された位置x0−1、x0、x0+1の投票値が1ずつカウントアップされ、エッジが検出されなかった位置の投票値がリセットされる。例えば、図4(d)では、時刻tにおいて位置x0−1、x0、x0+1にエッジが検出されているので、それぞれの位置で投票値が1ずつカウントアップされて、位置x0+1の投票値が「1」、位置x0の投票値が「3」、位置x0−1の投票値が「5」になっている。
そして、図4(e)に示すように時刻t+1でもエッジが移動していないので、位置x0−1、x0、x0+1の各位置でエッジが検出され、位置x0−1、x0、x0+1の投票値を更に1ずつカウントアップして、位置x0−1の投票値を「6」、位置x0の投票値を「4」、位置x0+1の投票値を「2」としている。
更に、図4(f)に示すように時刻t+2では、エッジがx軸の正方向に1画素シフトして位置x0、x0+1、x0+2の位置でエッジが検出されている。
従って、エッジが検出された位置x0、x0+1、x0+2の投票値がカウントアップされ、エッジが検出されなかった位置x0−1の投票値がリセットされる。その結果、図4(f)に示すように位置x0+2の投票値が「1」、位置x0+1の投票値が「3」、位置x0の投票値が「5」となっている。更に、エッジが検出されなかった位置x0−1の投票値はリセットされて「0」になっている。
このように、エッジが検出された位置の投票値をカウントアップし、エッジの検出されなかった位置の投票値をリセットしている。
なお、図4に示す例では、投票値を検出する位置を、エッジの中心位置(x0)と、この中心位置からエッジの移動方向へ1画素の位置(x0+1)と、中心位置からエッジの移動方向と反対方向に1画素の位置(x0−1)と、の3箇所としたが、投票値の傾きを求めることができれば、3箇所に限定されない。
また、エッジが移動する速度に比べて、フレームレートが十分に高く設定されていれば、連続するフレーム間において、エッジは同じ位置で複数回検出される。例えば、図4の例では、位置x0において時刻tと時刻t+1の2回エッジが検出されている。従って、エッジが検出された位置の投票値をカウントアップしていくと、その投票値はその位置においてエッジが検出されている時間(フレーム数)と等しくなる。特にエッジの投票値の中で最小のカウント値hは、エッジが移動してから何フレームの間、同じ位置にあるかということを表している。
次に、エッジの移動速度、移動方向及び位置を算出する。まず、投票値の移動方向への傾きを算出し、この傾きに基づいて、エッジの移動方向、移動速度および位置を算出する。
例えば、図4(e)の場合では、位置x0−1、x0、x0+1の投票値がそれぞれ「6」、「4」、「2」となっている。従って、位置x0−1の投票値である「6」からx0+1の投票値である「2」を減じることによって、投票値の傾きをH=(6−2)/2=2として算出することができる。これにより、下記(1)式が成立する。
H={(エッジが位置x0−1に移動してから現在までの時間)
−(エッジが位置x0+1に移動してしまった後の時間)}
/(2画素) …(1)
(1)式により、エッジが位置x0のある1画素を通過するのに要した時間(フレーム数)を算出したことになる。従って、投票値の傾きHはエッジが1画素移動するために何フレームを要したかを求めることになり、この投票値の傾きHに基づいてエッジの移動速度1/Hを算出することができる。
図4(e)では1画素移動するのに2フレームを要したことになるので、エッジの移動速度は1/2(画素/フレーム)と算出することができる。また、エッジの移動方向は、投票値の大小によって判断することができる。エッジが移動して新たにエッジが検出された位置の投票値は「1」であり、各位置の投票値の中では最も小さな値となる。
従って、エッジが移動する方向の投票値は小さく(例えば、図4(f)の位置x0+2はカウント値が小さい)、エッジが移動する方向と反対方向の投票値は大きくなるので(例えば、図4(f)の位置x0はカウント値が大きい)、これによってエッジの移動方向を判断することができる。即ち、図4(d)〜(f)の例では、左から右方向に移動しているものと判断できる。
また、現在の位置における投票値の中で最小の投票値hは、エッジがその位置で検出されている時間、即ち、エッジが移動してから何フレームの間、同じ位置にあるかということを表している。
これらのことにより、エッジの位置は、エッジの中心位置をx0とすると、下記(2)式により求めることができる。
(エッジの位置)=x0+h/H …(2)
例えば、図4(f)では、エッジの速度は1/2(画素/フレーム)で、時刻t+2の時点では1フレーム連続して同じ位置でエッジが検出されているので、時刻t+2のエッジの位置は、「1(フレーム)×{1/2(画素/フレーム)}=0.5画素」だけ位置x0から移動していると算出することができる。
以上のことから、エッジが検出された位置の投票値をカウントアップし、カウントアップされた投票値の傾きに基づいてエッジの移動速度及び方向を算出するができる。更に、垂直方向のエッジに対しても、図4(a)〜(f)の処理を実施し、エッジの移動速度及び方向を算出することができる。
そして、撮影した画像に対し、上記の処理を加えることにより、画像中に存在する物体の移動速度成分を生成する。詳細には、所定の階級値で表した水平方向の速度画像、及び垂直方向の速度画像を生成する。
本実施形態では、水平方向の速度画像として、図5(a)に示すように、速度成分の階級値として、速度が検出された画素を丸印で示し、且つ、移動速度が速い画素ほどその大きさを大きくして示している。
また、右へ向かう速度を黒丸で示し、且つ、左へ向かう速度を白丸で示すことによって移動方向を示している。即ち、図5(a)においては、自車両の走行路右側の外壁からは画像の右側へ向かう速度が検出されており、走行路左側の外壁及び駐車車両からは画像の左側へ向かう速度が検出されている。
更に、図5(a)には、走行路左側から右側へ飛び出そうとしている歩行者が示されており、該歩行者の脚部は右側へ向かう速度が検出されている。この歩行者は、自車両に異常接近する可能性がある歩行者である。
また、本実施形態における垂直方向の速度画像では、図5(b)に示すように、水平方向の速度画像と同様に、速度成分の階級値として、速度が検出された画素を丸印で示し、移動速度が速い画素ほどその大きさを大きく示している。また、上へ向かう速度を白丸で表し、下へ向かう速度を黒丸で示すことによって移動方向を示している。即ち、駐車車両等の静止物体の上端は、上に向かう速度が検出され、静止物体の下端は下に向かう速度が検出されている。
図1に示す物体検出部106は、カメラ101にて時系列的に撮像された画像に基づいて、死角となる障害物、及び飛び出し対象となる物体を検出する。物体であれば、画像をある大きさの領域に区分した際に、水平方向の移動速度が同一となる領域が垂直方向に向けて連続的に存在するはずである。従って、図6(a)に示すように画像下部から上部に順に走査し、各領域毎の移動速度情報(移動速度情報算出部105で求めた情報)を比較することで物体を検出する。具体的には、一つめの領域の移動速度を検出し、更に、その上部の領域の移動速度を検出し、両者の移動速度が同一であれば更にその上部の移動速度を検出するという処理を繰り返すことにより、物体を検出する。図6(a)に示す例では、OB1(t)〜OB4(t)の物体が検出されている。
また、垂直方向の移動速度においては、物体の上端及び下端位置において、他の領域に対する相対的な移動速度が存在するため、図6(b)に示すように、画像下部から上部に走査し、移動速度情報を比較することで、移動速度情報が存在しない領域から移動速度情報が存在する領域へ変化する境界を検出する。図6(b)に示す例では、例えば、OB1(t)の上端の白点、及び下端の黒点が境界として検出される。そして、検出した境界から、水平方向の走査で検出した速度画像を上部に向けて走査し、所定範囲内に物体が存在すれば、同一物体として、物体の下端位置を垂直方向の速度画像で検出した境界位置へ更新する。本実施形態では、OB1(t)、OB2(t)、OB4(t)の下端位置を更新している。
旋回状態推定部107は、車両情報取得部102にて取得される自車両の操舵角、及び車速に基づき、自車両前方の推定進路中心位置を算出し、更に、この中心位置に基づいて画像内の消失点方向を推定する。本実施形態では、図6に示す消失点a1を推定し、該消失点a1が画像の右側に存在することから、自車の旋回方向が右旋回であるものと推定する。
物体情報蓄積部108は、検出した物体の位置情報と移動速度情報を蓄積する。本実施形態では、図7に示すように速度画像を所定間隔で格子状に分割し、当該領域に物体が存在すれば移動速度情報を保存する。
死角検出部109は、蓄積した位置情報と移動速度情報に基づいて、現在物体が存在している領域に対して、過去に現在の移動速度情報に近い移動速度情報が存在すれば、死角候補領域として抽出する。本実施形態では、図8に示すようにOB2(t)、OB3(t)を含む領域を死角候補領域として抽出する。即ち、カメラ101で撮像された画像が、図8(a)から時間が経過して図8(b)のように変化した場合には、OB2(t)は現在の移動速度情報に近い移動情報が過去に存在しているので、死角候補領域として抽出する。OB3(t)についても同様である。
更に、抽出した死角候補領域に隣接し、現在において死角候補領域に近い移動速度情報を持つ物体が存在しない領域(図8(b)の符号P1の領域)に対して、過去に死角候補領域に近い移動速度情報が存在すれば、死角領域として検出する。本実施形態では、図8に示すように、OB2(t)、OB3(t)を含む領域を死角領域として検出する。即ち、OB1(t)、OB2(t)を含む領域を死角候補領域から死角領域に変更する。
注目領域設定部110は、検出した死角領域に隣接して所定の場所に注目領域P2(図8(b)参照)を設定する。本実施形態では、図9に示すようにOB2(t)、OB3(t)を含む死角領域の右側に隣接する注目領域を設定する。注目領域は、上部、中部、下部と複数に分割して設定する。
飛び出し判定部111は、注目領域内に、隣接する死角領域の移動速度情報と異なる移動速度情報が存在するか否かを判定する。具体的には、死角領域の移動速度との差異が予め設定した所定の閾値以上となる移動速度の物体が存在するか否かを判定する。そして、分割した下部領域内に、上記の閾値以上の差異となる移動速度の物体が検出された場合には、飛び出しが発生したものと判定する。また、上部または中部の領域内にて、上記の閾値以上の差異となる移動速度の物体が検出された場合には、飛び出し注意(飛び出しの可能性有り)と判定し、判定処理を継続する。図9(a)に示す例では、下部領域に死角領域と異なる移動速度情報(図中黒丸で示す移動速度情報)が検出されているので飛び出しが発生しているものと判定する。
また、自車両が旋回している場合と、直進している場合とで、死角と飛び出しの移動速度情報の差異の閾値(所定閾値)が異なるように設定する。旋回時における静止物の移動速度情報には並進成分と回転成分が含まれる。一方、直進時における静止物の移動速度情報に並進成分のみが含まれる。図9(a)、(b)に示すように同様な位置の遮蔽物から飛び出し物体が出現する場合には、旋回時の方が速度の差異が大きくなる。従って、旋回時に飛び出しと判定する閾値を直進時と比較し大きくする。即ち、飛び出し判定部111は、旋回状態推定部107にて検出される自車両の旋回状態が、左または右方向への旋回である場合には、直進である場合よりも、所定閾値を大きくする。この例では、図9に示すように、下部領域に死角領域と異なる移動速度情報が検出されたため、飛び出しが発生しているものと判定する。
次に、上述のように構成された第1実施形態に係る飛び出し検出装置10の処理手順を、図10に示すフローチャートを参照して説明する。
図10に示す処理は、図示省略のイグニッションスイッチがオンされると、制御部100によって起動されるプログラムとして実行される。ステップS101では、カメラ101で撮像され画像一時記録部103に記録された自車両前方の画像が所定の周期で特徴点抽出部104に出力される。この後に、フローはステップS102へ移行する。
ステップS102では、特徴点抽出部104が、画像一時記録部に記録された撮像された画像に対してエッジ抽出処理を行って、撮像画像内に存在する物体の輪郭を抽出した水平方向及び垂直方向エッジ画像を生成する。この後に、フローはステップS103へ移行する。
ステップS103では、上述したように画像の画素に含まれるエッジの移動速度情報を算出し、算出した移動速度情報を所定の階調値に変換した水平方向の速度画像及び垂直方向の速度画像を算出する。この後に、フローはステップS104へ移行する。
ステップS104では、算出した水平方向の速度画像に対して、画像下部から画像上部に順に走査し、移動速度情報を比較し、垂直方向に連続して同じ移動速度情報が存在する領域を物体として抽出する。この後に、フローはステップS105に移行する。
ステップS105では、算出した垂直方向の速度画像に対して、画像下部から画像上部に順に走査し、移動速度情報を比較し、移動速度情報が存在しない領域から移動速度情報が存在する領域へ変化する境界を検出する。この後に、フローはステップS106に移行する。
ステップS106では、ステップS105で検出した垂直方向の移動速度情報を基に算出した境界位置から、水平方向の速度画像を上部に走査し、所定範囲内に物体が存在すれば、物体の下端位置を垂直方向の速度画像で検出した境界位置に更新する。この後に、フローはステップS107に移行する。
ステップS107では、旋回状態推定部107は、車両情報取得部102より、自車両の操舵角及び車速情報を取得し、自車前方の推定進路中心位置を算出し、更に、画像における消失点方向(図7に示すa1)を推定する。その後、フローはステップS108へ移行する。
ステップS108では、速度画像を所定間隔で格子状に分割し、当該領域にステップS104で検出した物体が存在すれば、移動速度情報を保存する。その後、フローはステップS109へ移行する。
ステップS109では、ステップS108で蓄積した位置情報と移動速度情報に基づき、現在の移動速度情報に近い移動速度情報が過去に検出されたか否かを判定し、過去から現在に同様な移動速度情報が検出された領域を死角候補領域として抽出する。この後、フローはステップS110へ移行する。
ステップS110では、ステップS109で抽出した死角領域候補に隣接して、死角候補に近い移動速度情報を持つ物体が存在しない領域に対して、過去に死角候補領域に近い移動速度情報が存在すれば、死角領域として検出する。この後、フローはステップS111へ移行する。
ステップS111では、ステップS110で検出した死角領域に隣接し、ステップS107で推定した自車両の旋回状態に基づいた場所に注目領域を設定する。注目領域は、上下方向に向けて、上部、中部、下部に分割して設定する。この後、フローはステップS112へ移行する。
ステップS112では、ステップS107で推定した自車の旋回状態に基づき、飛び出しと判定する条件を設定する。この後、フローはステップS113に移行する。
ステップS113では、ステップS111で設定した注目領域の下部の移動速度情報と死角領域の移動速度情報との差異を算出し、ステップS112で設定した判定条件を満たせば、ステップS114に移行し、満たさなければ、ステップS115へ移行する。具体的には、速度情報の差異が、自車両の旋回状態に応じて設定された閾値以上であれば、YES判定となり、そうでなければ、NO判定となる。
ステップS114では、ステップS113で死角領域と注目領域の移動速度情報の差異が条件を満たしたため、飛び出しが発生しているものと判定する。この後、フローはステップS117へ移行する。
ステップS115では、ステップS111で設定した注目領域の上部、或いは中部に死角領域の移動速度情報と死角領域の移動速度情報の差異を算出し、ステップS112で設定した判定条件を満たせば、ステップS116に移行し、満たさなければ、ステップS117へ移行する。
ステップS116では、ステップS115で死角領域と注目領域の移動速度情報の差異が条件を満たしたので、飛び出し注意と判定する。この後、フローはステップS117へ移行する。
ステップS117では、自車両のイグニションスイッチがオフされたか否かを判断し、オフされないと判断した場合には、ステップS1へ戻って処理を繰り返す。これに対して、自車両のイグニションスイッチがオフされたと判断した場合には、本処理を終了する。
こうして、自車両がカーブ路を走行する際に、歩行者の飛び出しをいち早く検出することができるのである。
このようにして、第1実施形態に係る飛び出し検出装置10では、カメラ101で撮像した画像から、特徴点の水平及び垂直方向の移動速度情報を算出し、算出した移動速度情報を垂直方向に比較し、同一の移動速度情報をもつ特徴点をグループ化することで、物体を検出する。そして、検出した物体の位置及び移動速度情報を蓄積し、現在の物体検出状況と過去の物体の検出状況を照らし合わせることで画像に存在する死角領域を高速且つ正確に検出することができる。
更に、自車両の旋回状態を推定し、死角領域に隣接し自車両の旋回状態に基づいた場所に注目領域を設定し、死角領域と注目領域の移動速度情報の差異を自車の旋回状態に基づいた条件で判断することで、直進、旋回時に関わらず高速、且つ高精度に飛び出し物体を判定することができる。具体的には、死角領域の移動速度情報と、注目領域内で検出される物体の移動速度情報の差異の閾値を、旋回時の方が直進時よりも大きくなるように設定する。従って、旋回時のように、速度の差異が大きく検出される場合には閾値を大きくすることにより、飛び出しに関係の無い物体の移動が飛び出しであるものと誤判定することを防止でき、反対に、直進時のように、速度の差異が相対的に小さく検出される場合には閾値を小さくすることにより、小さい速度差の飛び出しが発生した場合でもこれを確実に検出することが可能となる。
また、旋回状態推定部107は、自車両の操舵角に基づいて自車両走行路の消失点を推定し、更にこの消失点の画像上の位置に基づいて、旋回状態、即ち、左旋回、右旋回、或いは直進を推定するので、旋回状態を高精度に検出することができる。なお、旋回状態の推定は、例えば、ヨーレートセンサやナビゲーション装置より得られる道路情報に基づいて推定することも可能である。
また、死角検出部109は、現在から過去の物体の位置情報、及び移動速度情報を比較することにより死角領域を検出している。死角領域は、物体の移動速度情報の連続性が途切れる箇所であり、一方で、連続性が途切れる位置は、自車両の走行に伴って相対的に自車両に接近している。従って、現在における物体の位置情報の、連続性が途切れる位置は、過去に物体が存在した位置であるため、物体の位置情報と移動速度の履歴を参照することにより、死角を構成する物体を検出できる。即ち、物体を個別にトラッキングすることなく、死角領域の検出が可能となり、ひいては飛び出しの発生を迅速に検出できる。
更に、飛び出し判定部111は、自車両が左または右方向に旋回している場合には、直進している場合よりも閾値を大きく設定するので、車両の旋回状態に応じた高精度な飛び出し検出が可能となる。
また、カメラ101で撮像された画像に含まれる対象物のエッジ成分を抽出し、このエッジ成分を用いて物体の存在を検出するので、車両前方に存在する物体を高精度に検出することが可能となる。
更に、同一移動速度情報が垂直方向に連続して存在する場合に物体として検出するので、物体の存在を高精度に検出することができる。
また、画像中の垂直方向の移動速度情報に基づき、移動速度情報が変化する境界部を検出し、垂直上方の所定範囲内に、水平方向の移動速度に基づいて検出した物体が存在する場合には、同一物体としてグループ化することにより、物体の検出精度を向上させることができる。
また、蓄積した位置情報及び移動速度情報に基づき、過去に物体が存在し、且つ現在に物体が存在する領域を死角候補領域と抽出し、この抽出した死角候補領域に隣接し、且つ、現在において該死角候補領域と移動速度情報が近い物体が存在しない領域について、過去の位置情報と移動速度情報を参照し、過去において死角候補領域に近い移動情報を持つ場合には、この死角候補領域を死角領域として検出するので、死角領域を高精度に検出することができる。
更に、死角領域に隣接し、高さ方向に上部、中部、下部の注目領域を設定するので、注目領域に出現する物体が飛び出しであるのか否かの判定をより高精度に行うことができる。
また、飛び出し判定部111は、注目領域を上部、中部、下部に分割し、下部において死角領域と異なる移動速度情報が検出された際には、飛び出しと判定し、上部・中部において死角領域と異なる移動速度情報が検出された際には飛び出し注意と判定することとした。
即ち、歩行者が死角から飛び出す際には、一般的には脚部から先に現れる可能性が高いが、頭部・手などが先に現れることも想定されるため、領域を複数に分けて判定を行う。そして、下部の領域にて死角領域と異なる移動速度検出が検出された場合には、飛び出しと判定し、上部・中部にて死角領域と異なる移動速度が検出された場合には、歩行者が道路側をのぞき込んで安全を確認していることや、道路を横切るために手を挙げている場合も考えられるので、即時に飛び出しと判定せず、飛び出し注意と判定することにより、運転者に注意を喚起する。
また、物体検出部106は、垂直方向の速度画像から、移動速度情報の有無を参照することで、路面との境界となる物体の下端位置を検出する。水平方向の移動速度情報を基に検出した物体の下端位置は、移動速度が検出し難いため、水平方向の移動速度情報のみでは、実際の下端位置よりも上側に下端が検出されることがある。この構成によれば、垂直方向の移動速度情報により位置を更新することで、物体の下端位置を正確に検出することが可能となり、距離の検出精度も向上させることができる。
[第2実施形態の説明]
次に、本発明の第2実施形態について説明する。図11は、第2実施形態に係る飛び出し検出装置10aの構成を示すブロック図である。
図11に示すように、第2実施形態に係る飛び出し検出装置10aは、車両に搭載されて車両前方を撮像するカメラ(撮像部)101と、車両情報総括的な制御を行う制御部100aを備えている。また、車両情報取得部102を備えていない点で前述した第1実施形態と相違している。
制御部100aは、カメラ101で撮像した画像を一時的に記録する画像一時記録部103と、画像一時記録部103に記憶された画像を画像処理することで特徴点を抽出する特徴点抽出部104と、特徴点抽出部104により抽出された特徴点の画像上における速度及び方向を、移動速度情報として求め、更に該移動速度情報を移動方向別に算出する方向別移動速度情報算出部112と、移動速度情報算出部105により算出された移動速度情報に基づいて物体を検出する物体検出部106と、方向別移動速度情報に基づき自車両の旋回状態を推定する画像旋回状態推定部113と、検出した物体の位置情報及び移動速度情報を過去から現在まで蓄積する物体情報蓄積部108と、蓄積した位置情報及び移動速度情報に基づいて死角領域を検出する死角検出部109と、死角領域に隣接して所定の場所に注目領域を設定する注目領域設定部110と、注目領域内に死角の移動速度情報と異なる移動速度情報が検出された際に飛び出しと判定する飛び出し判定部111と、を備えている。
なお、制御部100aは、例えば、中央演算ユニット(CPU)や、RAM、ROM、ハードディスク等の記憶手段からなる一体型のコンピュータとして構成することができる。
カメラ101、画像一時記録部103、特徴点抽出部104、物体検出部106、物体情報蓄積部108、死角検出部109、注目領域設定部110、及び飛び出し判定部111の構成は、前述した第1実施形態と同様であるので、説明を省略する。
方向別移動速度情報算出部112は、前述した第1実施形態と同様に、エッジに該当する画素の投票値(カウント値)を更新する。投票値の更新方法の説明は、前述した第1実施形態と同様であるので詳細な説明を省略する。
第2実施形態では、画像から抽出される2つのエッジ画像が接近し、且つ、エッジ画像の移動方向が互いに逆向きである場合には、2つのエッジ画像の投票値が混在してしまい、各エッジ画像の移動方向を算出できなくなる場合がある。そこで、図12に示すように、移動方向別に投票値を更新する投票部を設定し、移動方向を算出することとした。
具体的には、左向きに移動するエッジ画像の投票値を積算する左向き投票部と、右向きに移動するエッジ画像の投票値を積算する右向き投票部と、過去の移動速度方向が未検出であるエッジ画像の投票値を積算する向き無し投票部を設定し、各投票部の投票値に基づいて各エッジ画像の移動方向を算出する。
各投票部の投票について説明すると、1フレーム前(時刻t)で、2つのエッジ画像についての移動方向が算出されていない場合には、図12(b)に示すように向き無投票部の投票値を更新する。その後、図12(e)に示すように、今回のフレーム(時刻t+1)にて向き無し投票部の投票値を更新し、左向きの移動情報が算出されたならば、図12(e)の投票値を、左向き投票部に転送する。その結果、左向き投票部の投票値は図12(d)のようになる。
同様に、右向きの移動情報が算出されたならば、図12(e)の投票値を右向き投票部に転送する。その結果、右向き投票部の投票値は図12(f)に示すようになる。移動方向が算出された後のフレームでは、各方向別の投票部の投票値を更新することで、接近したエッジの移動速度情報を正しく算出することができる。
画像旋回状態推定部113は、方向別移動速度情報算出部112で算出した方向別移動速度情報から画像内の消失点方向を推定し、自車両の旋回状態を推定する。左方向の速度画像、及び右向きの速度画像に対し、所定のy座標より下部領域の水平画像位置における画素数をカウントし、方向別の画素数分布を算出する。算出した画素数分布に基づき、移動速度情報が左右に分かれる位置(消失点方向)を推定し、自車の旋回状態を推定する。
本実施例では、図13に示すように、左右の移動速度情報から方向別の画素数分布を算出し、消失点a1を画像右端と推定し、自車の旋回状態を右旋回と推定する。以下、図13を参照して、水平位置での画素の移動速度情報に基づいて消失点の位置を決定する処理について説明する。
図13は、自車両の走行路が右側にカーブしている場合の例を示しており、図13(a)に示すように、左向きの移動速度情報が検出されている。一方、図13(b)に示すように、右向きの移動速度情報は検出されていない。
その結果、左側への移動速度を有する画素は、図13(c)に示すように左から右に向けて画素数が単調に減少するように変化する。従って、この場合には、自車両は右側に旋回しているものと判断でき、消失点の位置a1は、画像の右側にあるものと推定される。
また、図13(b)に示すように、画素分布がほぼ中央まで減少するように変化する場合には、直進路であると判断でき、図13(c)に示すように、右から左に向けて画素数が単調に減少する場合には、自車両は左側に旋回しているものと判断できる。
次に、上述のように構成された第2実施形態に係る飛び出し検出装置10aの処理手順を、図14に示すフローチャートを参照して説明する。
図14に示す処理は、図示省略のイグニッションスイッチがオンされると、制御部100aによって起動されるプログラムとして実行される。ステップS101では、カメラ101で撮像され画像一時記録部103に記録された自車両前方の画像が所定の周期で特徴点抽出部104に出力される。この後に、フローはステップS102へ移行する。
ステップS102では、特徴点抽出部104が、画像一時記録部に記録された撮像された画像に対してエッジ抽出処理を行って、撮像画像内に存在する物体の輪郭を抽出した水平方向及び垂直方向エッジ画像を生成する。この後に、フローはステップS103-1へ移行する。
ステップS103-1では、ステップS102で抽出したエッジ情報と前フレームで算出した移動速度情報に基づき、方向別の投票部の各投票値を更新する。その後に、フローはステップS103-2に移行する。
ステップS103-2では、ステップS103-1で更新した方向別の投票部に基づき、エッジの方向別の移動速度情報を算出し、算出した移動速度情報を所定の階調値に変換した水平方向の速度画像及び垂直方向の速度画像を算出する。この後に、フローはステップS103-3へ移行する。
ステップS103-3では、ステップS103-2で新規に移動速度情報が算出されたエッジ位置に関係する投票値を該当する移動方向の投票部に転送する。この後に、ステップS104へ移行する。
ステップS104では、算出した水平方向の速度画像に対して、画像下部から画像上部に順に走査し、移動速度情報を比較し、垂直方向に連続して同じ移動速度情報が存在する領域を物体として抽出する。この後に、フローはステップS105に移行する。
ステップS105では、算出した垂直方向の速度画像に対して、画像下部から画像上部に順に走査し、移動速度情報を比較し、移動速度情報が存在しない領域から移動速度情報が存在する領域へ変化する境界を検出する。この後に、フローはステップS106に移行する。
ステップS106では、ステップS105で検出した垂直方向の移動速度情報を基に算出した境界位置から、水平方向の速度画像を上部に走査し、所定範囲内に物体が存在すれば、物体の下端位置を垂直方向の速度画像で検出した境界位置に更新する。この後に、フローはステップS107-1に移行する。
ステップS107-1では、方向別の速度画像に対し、所定のy座標下部領域における水平位置の画素数カウントを行い、移動方向別の画素数分布を算出する。この後に、フローはステップS107-2に移行する。
ステップS107-2では、移動方向別の画素数分布から移動情報が左右に分かれる位置を推定し、更に、消失点に基づいて自車両の旋回状態を推定する。この後に、フローはステップS108に移行する。
ステップS108では、速度画像を所定間隔で格子状に分割し、当該領域にステップS104で検出した物体が存在すれば、移動速度情報を保存する。その後、フローはステップS109へ移行する。
ステップS109では、ステップS108で蓄積した位置情報と移動速度情報に基づき、現在の移動速度情報に近い移動速度情報が過去に検出されたか否かを判定し、過去から現在に同様な移動速度情報が検出された領域を死角候補領域として抽出する。この後、フローはステップS110へ移行する。
ステップS110では、ステップS109で抽出した死角領域候補に隣接して、死角候補に近い移動速度情報を持つ物体が存在しない領域に対して、過去に死角候補領域に近い移動速度情報が存在すれば、死角領域として検出する。この後、フローはステップS111へ移行する。
ステップS111では、ステップS110で検出した死角領域に隣接し、ステップS107で推定した自車両の旋回状態に基づいた場所に注目領域を設定する。注目領域は、上下方向に向けて、上部、中部、下部に分割して設定する。この後、フローはステップS112へ移行する。
ステップS112では、ステップS107で推定した自車の旋回状態に基づき、飛び出しと判定する条件を設定する。この後、フローはステップS113に移行する。
ステップS113では、ステップS111で設定した注目領域の下部の移動速度情報と死角領域の移動速度情報との差異を算出し、ステップS112で設定した判定条件を満たせば、ステップS114に移行し、満たさなければ、ステップS115へ移行する。具体的には、速度情報の差異が、自車両の旋回状態に応じて設定された閾値以上であれば、YES判定となり、そうでなければ、NO判定となる。
ステップS114では、ステップS113で死角と注目領域の移動速度情報の差異が条件を満たしたため、飛び出しが発生しているものと判定する。この後、フローはステップS117へ移行する。
ステップS115では、ステップS111で設定した注目領域の上部、或いは中部に死角領域の移動速度情報と死角の移動速度情報の差異を算出し、ステップS112で設定した判定条件を満たせば、ステップS116に移行し、満たさなければ、ステップS117へ移行する。
ステップS116では、ステップS115で死角と注目領域の移動速度情報の差異が条件を満たしたので、飛び出し注意と判定する。この後、フローはステップS117へ移行する。
ステップS117では、自車両のイグニションスイッチがオフされたか否かを判断し、オフされないと判断した場合には、ステップS1へ戻って処理を繰り返す。これに対して、自車両のイグニションスイッチがオフされたと判断した場合には、本処理を終了する。
こうして、自車両がカーブ路を走行する際に、歩行者の飛び出しをいち早く検出することができるのである。
このようにして、第2実施形態に係る飛び出し検出装置10aでは、前述した第1実施形態と同様の効果を達成できる。これに加えて、第2実施形態では、画像に含まれる移動速度情報に基づいて自車両の旋回状態を推定している。具体的には、方向別移動速度情報算出部112は、移動方向別に投票値を更新し、移動方向と速度を算出している。この構成によれば、2つのエッジ画像が互いに接近して移動方向が逆向きとなる特徴点が存在する場合には、投票値が混在することを防止できるため、2つのエッジ画像の移動速度情報をそれぞれ正確に算出することができる。
また、左向き投票部、右向き投票部、及び向き無し投票部を設定し、移動速度情報が検出されていないエッジ画像については、向き無し投票部に投票し、その後移動情報が検出された場合には、この向き無し投票部の投票値を左向き投票部、或いは右向き投票部に転送して、エッジ画像の移動速度情報を求めるので、複数のエッジ画像が存在する場合であっても、各エッジ画像の投票値を左右の移動方向毎に弁別することができ、これらのエッジ画像の移動速度情報に基づいて、高精度に消失点を求めることができる。
同様に、上向き投票部、下向き投票部、及び向き無し投票部を設定し、移動速度情報が検出されていないエッジ画像については、向き無し投票部に投票し、その後移動情報が検出された場合には、この向き無し投票部の投票値を上向き投票部、或いは下向き投票部に転送して、エッジ画像の移動速度情報を求めるので、複数のエッジ画像が存在する場合であっても、各エッジ画像の投票値を上下の移動方向毎に弁別することができ、これらのエッジ画像の移動速度情報に基づいて、高精度に消失点を求めることができる。
また、画像旋回状態推定部113は、方向別の移動速度情報に基づき、方向別の移動速度情報の画素数分布を算出し、この画像から移動情報が左右に分かれる位置を推定し、自車両の旋回状態を推定している。従って、自車両の旋回状態と操舵角が一致しない場合であっても、画像の移動情報を用いることで、自車両の旋回状態を正しく推定することができ、ひいては飛び出しの発生を迅速、且つ高精度に検出することが可能となる。
また、移動速度情報を算出する際に、移動方向別に移動速度を算出することにより、エッジ近接による精度悪化を防止することができるため、正確に移動速度情報の算出が可能となり、自車の旋回状態推定の精度も向上することができる。
以上、本発明の飛び出し検出装置を図示の実施形態に基づいて説明したが、本発明はこれに限定されるものではなく、各部の構成は、同様の機能を有する任意の構成のものに置き換えることができる。
例えば、上記した各実施形態では、車両が走行する走行路の左側に存在する死角領域から物体(例えば、歩行者)が飛び出す例について説明したが、走行路の右側に死角領域を設定し、この死角領域から飛び出す物体を検出することも可能である。
本発明は、車両前方の死角から飛び出す物体を迅速且つ高精度に検出することに利用することができる。
10,10a 飛び出し検出装置
100,100a 制御部
101 カメラ
102 車両情報取得部
103 画像一時記録部
104 特徴点抽出部
105 移動速度情報算出部
106 物体検出部
107 旋回状態推定部
108 物体情報蓄積部
109 死角検出部
110 注目領域設定部
111 飛び出し判定部
112 方向別移動速度情報算出部
113 画像旋回状態推定部

Claims (13)

  1. 自車両前方を撮像して画像を取得する撮像部と、
    撮像した画像から特徴点を抽出する特徴点抽出部と、
    特徴点を表す画素の、画像上の移動速度、及び移動方向を移動速度情報として算出する移動速度情報算出部と、
    前記移動速度情報算出部にて算出された移動速度情報に基づき、画像中に存在する物体を検出する物体検出部と、
    自車両の旋回状態を推定する旋回状態推定部と、
    前記物体検出部にて検出した物体の、位置情報及び移動速度情報を、時系列的に蓄積する物体情報蓄積部と、
    前記物体情報蓄積部に蓄積された位置情報及び移動速度情報に基づいて、前記撮像部にて撮像された画像中に存在する死角領域を検出する死角検出部と、
    前記旋回状態推定部にて推定された旋回状態に基づいて、前記死角検出部で検出された死角領域に隣接した所定の領域を、注目領域として設定する注目領域設定部と、
    前記注目領域設定部で設定された注目領域内にて、前記死角領域の移動速度情報に対し所定閾値以上の差異を有する移動速度情報の物体が検出された場合に、飛び出しが発生しているものと判定する飛び出し判定部と、を備え
    前記飛び出し判定部は、前記旋回状態推定部にて検出された自車両の旋回状態が旋回である場合には、直進である場合よりも、前記所定閾値を大きくする
    ことを特徴とする飛び出し検出装置。
  2. 前記旋回状態推定部は、自車両の操舵角に基づいて自車両走行路の消失点方向を推定し、更に、推定した消失点に基づいて自車両の旋回状態を推定することを特徴とする請求項1に記載の飛び出し検出装置。
  3. 前記旋回状態推定部は、画像に含まれる移動速度情報に基づいて自車両走行路の消失点を推定し、更に、推定した消失点に基づいて自車両の旋回状態を推定することを特徴とする請求項1に記載の飛び出し検出装置。
  4. 前記移動速度情報算出部は、前記特徴点抽出部で抽出された特徴点に基づいて、左右方向に所定画素数の幅を有するエッジ画像を設定し、且つ、左向き投票部、右向き投票部、及び向き無し投票部を備え、
    時系列的に取得される複数の画像について、エッジ画像が画像中の画素に存在した場合で、過去の移動速度方向が左側であるエッジ画像については、前記左向き投票部の対応画素に投票値を付与し、過去の移動速度方向が右側であるエッジ画像については、前記右向き投票部の対応画素に投票値を付与し、過去の移動速度方向が未検出であるエッジ画像については、前記向き無し投票部の対応画素に投票値を付与し、
    前記向き無し投票部に積算された投票値に対応するエッジ画像の移動速度情報が算出された場合には、この移動速度方向に基づいて、向き無し投票部に積算された投票値を前記左向き投票部、または右向き投票部に転送し、
    前記左向き投票部に積算されたデータに基づいて、左方向に移動する物体を検出し、前記右向き投票部に積算されたデータに基づいて、右方向に移動する物体を検出し、
    前記旋回状態推定部は、これらの移動情報に基づいて、消失点を求めることを特徴とする請求項3に記載の飛び出し検出装置。
  5. 前記移動速度情報算出部は、前記特徴点抽出部で抽出された特徴点に基づいて、上下方向に所定画素数の幅を有するエッジ画像を設定し、且つ、上向き投票部、下向き投票部、及び向き無し投票部を備え、
    時系列的に取得される複数の画像について、エッジ画像が画像中の画素に存在した場合で、過去の移動速度方向が上側であるエッジ画像については、前記上向き投票部の対応画素に投票値を付与し、過去の移動速度方向が下側であるエッジ画像については、前記下向き投票部の対応画素に投票値を付与し、過去の移動速度方向が未検出であるエッジ画像については、前記向き無し投票部の対応画素に投票値を付与し、
    前記向き無し投票部に積算された投票値に対応するエッジ画像の移動速度情報が算出された場合には、この移動速度方向に基づいて、向き無し投票部に積算された投票値を前記上向き投票部、または下向き投票部に転送し、
    前記上向き投票部に積算されたデータに基づいて、上方向に移動する物体を検出し、前記下向き投票部に積算されたデータに基づいて、下方向に移動する物体を検出し、
    前記旋回状態推定部は、これらの移動情報に基づいて、消失点を求めることを特徴とする請求項3に記載の飛び出し検出装置。
  6. 前記旋回状態推定部は、水平方向における左側移動速度情報、及び右側移動速度情報に基づいて水平方向位置の画素数の分布を算出し、移動速度情報が左右に分かれる位置を、消失点であるものと推定することを特徴とする請求項3に記載の飛び出し検出装置。
  7. 前記注目領域設定部は、前記死角領域の前記消失点側に隣接した注目領域を、高さ方向に向けて上部、中部、下部の各領域に分割し、
    前記飛び出し判定部は、分割した各領域のそれぞれについて飛び出し検出の条件を変更することを特徴とする請求項2または請求項3のいずれかに記載の飛び出し検出装置。
  8. 前記飛び出し判定部は、前記死角領域の移動速度情報と、前記下部の注目領域内の物体の移動速度情報の差異が前記所定閾値を上回った場合に、飛び出しが発生したものと判定することを特徴とする請求項7に記載の飛び出し検出装置。
  9. 前記飛び出し判定部は、前記死角領域の移動速度情報と、前記上部または中部の注目領域内の物体の移動速度情報の差異が前記所定閾値を上回った際に、飛び出し注意と判定し、飛び出し判定を継続することを特徴とする請求項7に記載の飛び出し検出装置。
  10. 前記特徴点抽出部は、対象物のエッジ成分を特徴点として抽出することを特徴とする請求項1〜請求項9のいずれか1項に記載の飛び出し検出装置。
  11. 前記物体検出部は、前記撮像部で撮像された画像中の水平方向の移動速度情報に基づいて、同一移動速度情報となる領域が垂直方向に所定量連続して存在する場合に、この領域を物体として検出することを特徴とする請求項1〜請求項10のいずれか1項に記載の飛び出し検出装置。
  12. 前記物体検出部は、垂直方向の移動速度情報に基づき、移動速度情報が変化する境界部を検出し、垂直方向上方の所定範囲内に、水平方向の移動速度情報に基づいて検出した物体が存在する場合には、同一物体としてグループ化することを特徴とする請求項11に記載の飛び出し検出装置。
  13. 前記死角検出部は、前記物体情報蓄積部に蓄積した位置情報及び移動速度情報に基づき、過去に物体が存在し、且つ現在においても物体が存在する領域を死角候補領域として抽出し、
    この抽出した死角候補領域に隣接し、且つ、現在において前記死角候補領域と移動速度情報が近い物体が存在しない領域について、過去における位置情報と移動速度情報を参照し、過去において前記死角候補領域と同一或いは近い移動情報が存在する場合には、この死角候補領域を死角領域として検出することを特徴とする請求項1〜請求項12のいずれか1項に記載の飛び出し検出装置。
JP2012174739A 2012-08-07 2012-08-07 飛び出し検出装置 Active JP6069938B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012174739A JP6069938B2 (ja) 2012-08-07 2012-08-07 飛び出し検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012174739A JP6069938B2 (ja) 2012-08-07 2012-08-07 飛び出し検出装置

Publications (2)

Publication Number Publication Date
JP2014035560A JP2014035560A (ja) 2014-02-24
JP6069938B2 true JP6069938B2 (ja) 2017-02-01

Family

ID=50284547

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012174739A Active JP6069938B2 (ja) 2012-08-07 2012-08-07 飛び出し検出装置

Country Status (1)

Country Link
JP (1) JP6069938B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018182275A1 (en) * 2017-03-31 2018-10-04 Samsung Electronics Co., Ltd. Method and device for controlling driving based on sensing information

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3407326B1 (en) 2016-01-22 2024-05-01 Nissan Motor Co., Ltd. Pedestrian determination method and determination device
CN108475469B (zh) 2016-01-22 2019-07-09 日产自动车株式会社 车辆的驾驶辅助控制方法以及控制装置
JP7077726B2 (ja) * 2018-04-02 2022-05-31 株式会社デンソー 車両システム、空間領域推測方法及び空間領域推測装置
JP7147527B2 (ja) 2018-12-10 2022-10-05 トヨタ自動車株式会社 支援装置、支援方法およびプログラム
JP7487460B2 (ja) * 2019-09-26 2024-05-21 株式会社Jvcケンウッド 運転支援装置、運転支援方法、および運転支援プログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4052650B2 (ja) * 2004-01-23 2008-02-27 株式会社東芝 障害物検出装置、方法及びプログラム
JP2006318345A (ja) * 2005-05-16 2006-11-24 Sony Corp 物体追跡方法、物体追跡方法のプログラム、物体追跡方法のプログラムを記録した記録媒体及び物体追跡装置
JP4797794B2 (ja) * 2006-05-24 2011-10-19 日産自動車株式会社 歩行者検出装置および歩行者検出方法
JP2008242571A (ja) * 2007-03-26 2008-10-09 Honda Motor Co Ltd 物体検出装置
WO2009005025A1 (ja) * 2007-07-03 2009-01-08 Konica Minolta Holdings, Inc. 移動物体検出装置
JP5320828B2 (ja) * 2008-06-04 2013-10-23 日産自動車株式会社 歩行者検出装置及び歩行者検出方法
JP5321540B2 (ja) * 2010-06-25 2013-10-23 株式会社Jvcケンウッド 画像補正処理装置、画像補正処理方法、及び画像補正処理プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018182275A1 (en) * 2017-03-31 2018-10-04 Samsung Electronics Co., Ltd. Method and device for controlling driving based on sensing information
US10665106B2 (en) 2017-03-31 2020-05-26 Samsung Electronics Co., Ltd. Method and device for controlling driving based on sensing information

Also Published As

Publication number Publication date
JP2014035560A (ja) 2014-02-24

Similar Documents

Publication Publication Date Title
JP7025912B2 (ja) 車載環境認識装置
JP5407898B2 (ja) 対象物検出装置及びプログラム
JP6511283B2 (ja) 物体検知装置
JP6662388B2 (ja) 画像処理装置、撮像装置、機器制御システム、分布データ生成方法、及びプログラム
JP6069938B2 (ja) 飛び出し検出装置
US10860867B2 (en) Image processing apparatus, imaging apparatus, mobile device control system, and recording medium
US9047518B2 (en) Method for the detection and tracking of lane markings
JP5783243B2 (ja) 周期的静止物検出装置及び周期的静止物検出方法
CN107750213B (zh) 前方车辆碰撞报警装置及报警方法
KR101176693B1 (ko) 거리센서를 이용한 차선인식 방법 및 그 시스템
US11064177B2 (en) Image processing apparatus, imaging apparatus, mobile device control system, image processing method, and recording medium
US20150367781A1 (en) Lane boundary estimation device and lane boundary estimation method
JP6226368B2 (ja) 車両監視装置、および車両監視方法
JP2013140515A (ja) 立体物検出装置及びプログラム
JP2006268097A (ja) 車載物体検出装置、および物体検出方法
JP5894201B2 (ja) 境界線認識装置
EP2936386B1 (en) Method for detecting a target object based on a camera image by clustering from multiple adjacent image cells, camera device and motor vehicle
EP3115933A1 (en) Image processing device, image capturing device, mobile body control system, image processing method, and computer-readable recording medium
EP3584763A1 (en) Vehicle-mounted environment recognition device
JP2006350699A (ja) 画像処理装置及び方法
CN115327572A (zh) 一种车辆前方障碍物检测方法
JP2010020476A (ja) 物体検出装置及び物体検出方法
EP3410345B1 (en) Information processing apparatus and non-transitory recording medium storing thereon a computer program
JP2017068789A (ja) 物体認識装置及び煙判定方法
JP2016162130A (ja) 横断歩道検出装置、横断歩道検出方法及び横断歩道検出用コンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150629

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160405

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160603

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161219

R151 Written notification of patent or utility model registration

Ref document number: 6069938

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151