JP2010146478A - 物体検出装置 - Google Patents
物体検出装置 Download PDFInfo
- Publication number
- JP2010146478A JP2010146478A JP2008325738A JP2008325738A JP2010146478A JP 2010146478 A JP2010146478 A JP 2010146478A JP 2008325738 A JP2008325738 A JP 2008325738A JP 2008325738 A JP2008325738 A JP 2008325738A JP 2010146478 A JP2010146478 A JP 2010146478A
- Authority
- JP
- Japan
- Prior art keywords
- optical flow
- image
- object detection
- limit range
- ecu
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
Abstract
【課題】オプティカルフローを利用して物体を高精度に検出する物体検出装置を提供することを課題とする。
【解決手段】移動体に搭載された撮像手段で異なる時間に撮像された複数の画像から物体を検出する物体検出装置であって、異なる時間に撮像された複数の画像からオプティカルフローを算出するオプティカルフロー算出手段と、画像上の位置に応じてオプティカルフローの動きの制限範囲を設定する制限範囲設定手段と、オプティカルフロー算出手段で算出したオプティカルフローから、制限範囲設定手段で設定した制限範囲内の動きを有するオプティカルフローを抽出するオプティカルフロー抽出手段と、オプティカルフロー抽出手段で抽出したオプティカルフローに基づいて物体を検出する物体検出手段とを備えることを特徴とする。
【選択図】図3
【解決手段】移動体に搭載された撮像手段で異なる時間に撮像された複数の画像から物体を検出する物体検出装置であって、異なる時間に撮像された複数の画像からオプティカルフローを算出するオプティカルフロー算出手段と、画像上の位置に応じてオプティカルフローの動きの制限範囲を設定する制限範囲設定手段と、オプティカルフロー算出手段で算出したオプティカルフローから、制限範囲設定手段で設定した制限範囲内の動きを有するオプティカルフローを抽出するオプティカルフロー抽出手段と、オプティカルフロー抽出手段で抽出したオプティカルフローに基づいて物体を検出する物体検出手段とを備えることを特徴とする。
【選択図】図3
Description
本発明は、移動体に搭載された撮像手段で異なる時間に撮像された複数の画像から求めたオプティカルフローを利用して物体を検出する物体検出装置に関する。
オプティカルフローは、時間的に連続する画像列から画像内の各点(画素、領域)の速度場を求め、画像内の物体の動きをベクトルで表したものである。このオプティカルフローのベクトルの大きさ及び向きを利用して、自車両周辺の他車両の動きを検出する技術が開発されている。しかし、オプティカルフローは画像中のノイズの影響を受け易いので、オプティカルフローには誤差が含まれる場合がある。そこで、特許文献1に記載の装置では、画像内に設定された各領域のオプティカルフローをそれぞれ算出し、この各領域のオプティカルフローのうち閾値以上のオプティカルフローに基づいて他車両の動きを検出する。
特開平6−314340号公報
特開2007−286724号公報
車両に搭載したカメラで撮像した画像を用いてオプティカルフローを算出する場合、カメラ自体が車両と共に車両の進行方向に向かって移動するので、画像における進行方向中心付近ではオプティカルフロー(物体の動き)が小さくなり、周縁ほどオプティカルフローが大きくなる。そのため、上記の装置のように一律の大きさの閾値でオプティカルフローを判定した場合、中心付近でのオプティカルフローについては他車両の動きを示しているにもかかわらず、ノイズとして判定されてしまう虞がある。一方、周縁付近でのオプティカルフローについてはノイズを示しているにもかかわらず、検出対象の物体のオプティカルフローとして判定されてしまう虞がある。
そこで、本発明は、オプティカルフローを利用して物体を高精度に検出する物体検出装置を提供することを課題とする。
本発明に係る物体検出装置は、移動体に搭載された撮像手段で異なる時間に撮像された複数の画像から物体を検出する物体検出装置であって、異なる時間に撮像された複数の画像からオプティカルフローを算出するオプティカルフロー算出手段と、画像上の位置に応じてオプティカルフローの動きの制限範囲を設定する制限範囲設定手段と、オプティカルフロー算出手段で算出したオプティカルフローから、制限範囲設定手段で設定した制限範囲内の動きを有するオプティカルフローを抽出するオプティカルフロー抽出手段と、オプティカルフロー抽出手段で抽出したオプティカルフローに基づいて物体を検出する物体検出手段とを備えることを特徴とする。
この物体検出装置では、オプティカルフロー算出手段により異なる時間に撮像された複数の画像からオプティカルフローを算出する。移動体に搭載された撮像手段で撮像した画像を用いてオプティカルフローを算出した場合、撮像手段自体が車両と共に車両の進行方向に向かって移動するので、画像内における所定の中心(例えば、移動体の進行方向中心)に近い位置ほど(撮像位置から遠いほど)オプティカルフローが小さくなり、その所定の中心から離れるほど(撮像位置から近いほど)オプティカルフローが大きくなる。つまり、物体の動きが同じでも、画像上の位置によってオプティカルフローが異なる。そこで、物体検出装置では、制限範囲設定手段により画像上の位置に応じてオプティカルフローの動きの制限範囲をそれぞれ設定する。そして、物体検出装置では、オプティカルフロー抽出手段により画像の各位置でのオプティカルフローの中から制限範囲内のオプティカルフローを抽出する。さらに、物体検出装置では、物体検出手段によりその抽出されたオプティカルフローから物体を検出する。このように、物体検出装置では、画像上の位置に応じた制限範囲を設定し、画像上の位置に応じてオプティカルフローに制限を設けることにより、画像上の位置に応じた基準により的確にノイズを除去でき、オプティカルフローによって物体を高精度に検出することができる。
なお、制限範囲は、画像上の位置(撮像手段から相対的な位置)に応じて検出対象の物体が画像上で動く範囲を考慮し、その検出対象の物体に対するオプティカルフローが取り得る範囲である。制限範囲としては、オプティカルフローの大きさの制限範囲(上限及び/下限)でもよいし、オプティカルフローの向きの制限範囲でもよいし、大きさの制限範囲及び向きの制限範囲でもよい。
本発明の上記物体検出装置では、制限範囲設定手段は、撮像位置から近いほど大きな制限範囲を設定すると好適である。
上記したように、画像上で撮像位置から遠い位置ほどオプティカルフローが小さくなり、撮像位置から近い位置ほどオプティカルフローが大きくなる。そこで、物体検出装置では、制限範囲設定手段により撮像位置から近いほど大きな制限範囲を設定することにより、撮像手段からの相対的な位置に応じて適切な制限範囲を設けることができる。
本発明の上記物体検出装置では、制限範囲設定手段は、画像中の所定位置を中心として、当該所定位置から遠いほど大きな制限範囲を設定すると好適である。
上記したように、画像内における所定の中心に近い位置ほどオプティカルフローが小さくなり、その所定の中心から離れるほどオプティカルフローが大きくなる。そこで、物体検出装置では、制限範囲設定手段により画像中の所定位置を中心として所定位置から遠いほど大きな制限範囲を設定することにより、画像中の所定位置からの位置に応じて適切な制限範囲を設けることができる。
本発明の上記物体検出装置では、上記の所定位置は、画像における物体検出対象領域に基づいて設定される構成としてもよい。
この物体検出装置では、物体検出対象領域を考慮して画像中の所定位置(中心)を設定することにより、画像中の所定位置からの位置に応じて適切な制限範囲を設けることができる。また、画像内で物体検出対象領域を限定することにより、処理負荷を低減できる。
本発明の上記物体検出装置では、上記の所定位置は、画像から検出された走行路の形状に基づいて設定される構成としてもよい。
画像における走行路の消失点は、地平線上の位置(画像内における所定の中心)に相当する。そこで、この物体検出装置では、走行路の形状を用いて画像中の所定位置(中心)を設定することにより、画像中の所定位置からの位置に応じて適切な制限範囲を設けることができる。走行路の形状としては、例えば、車線を示す一対の白線から検出してもよいし、走行中の道路自体を検出してもよい。
本発明の上記物体検出装置では、上記の所定位置は、画像における周縁領域のオプティカルフローの向きに基づいて設定される構成としてもよい。
画像における周縁領域の大部分は、自車両から遠方に存在する背景に相当する。したがって、周縁領域では、オプティカルフローの向きが画像内における所定の中心方向を向いており、安定したオプティカルフローが算出される。そこで、物体検出装置では、画像における周縁領域のオプティカルフローの向きに基づいて画像中の所定位置(中心)を設定することにより、画像中の所定位置からの位置に応じて適切な制限範囲を設けることができる。
本発明の上記物体検出装置では、上記の所定位置は、移動体の挙動に基づいて補正される構成としてもよい。
撮像手段を搭載する移動体が所定の方向に傾いたりすると、撮像手段の撮像方向が変化し、画像内における所定の中心位置も変化する。そこで、物体検出装置では、移動体の挙動により画像中の所定位置(中心)を補正することにより、移動体の挙動に応じた画像中の所定位置(中心)のずれを修正できる。
本発明の上記物体検出装置では、制限範囲設定手段は、移動体の速度に応じて制限範囲を補正する構成としてもよい。
撮像手段を搭載する移動体の速度が高くなるほど、オプティカルフローが大きくなる。そこで、物体検出装置では、制限範囲設定手段により移動体の速度に応じて制限範囲を補正することにより、より適切な制限範囲を設けることができる。
本発明は、画像上の位置に応じた制限範囲を設定し、画像上の位置に応じてオプティカルフローに制限を設けることにより、画像上の位置に応じた基準により的確にノイズを除去でき、オプティカルフローによって物体を高精度に検出することができる。
以下、図面を参照して、本発明に係る物体検出装置の実施の形態を説明する。
本実施の形態では、本発明に係る物体検出装置を、車両に搭載される周辺監視装置に適用する。本実施の形態に係る周辺監視装置は、自車両前方の障害物(例えば、他車両、自転車、歩行者などの移動物体、落下物などの静止物体)を検出し、その検出した障害物情報を運転支援装置(衝突防止装置など)に出力あるいは音声や表示によって運転者に提供する。なお、検出方向としては、前方とするが、側方、後方などの他の方向でもよい。
図1及び図2を参照して、本実施の形態に係る周辺監視装置1について説明する。図1は、本実施の形態に係る周辺監視装置の構成図である。図2は、図1のECUにおける撮像画像に対する分割領域設定の一例である。
周辺監視装置1は、時間的に連続するフレーム間の画像から検出したオプティカルフローに基づいて障害物の情報を検出する。特に、周辺監視装置1は、物体の検出精度を向上させるために、画像上の位置に応じてオプティカルフロー算出用の領域及びその領域におけるオプティカルフローの大きさの制限範囲を設定する。周辺監視装置1は、カメラ2、車速センサ3、ヨーセンサ4、ピッチセンサ5及びECU[Electronic Control Unit]6を備えている。
なお、本実施の形態ではECU6における各処理が特許請求の範囲に記載するオプティカルフロー算出手段、制限範囲設定手段、オプティカルフロー抽出手段、物体検出手段に相当する。
カメラ2は、自車両の前方を撮像するカメラである。カメラ2は、自車両の前側の中央に取り付けられる。カメラ2では、自車両前方を撮像し、その撮像画像情報を画像信号としてECU6に送信する。この撮像画像は、一定時間(例えば、1/30秒)毎のフレームの画像である。
車速センサ3は、自車両の車速を検出するレーダセンサである。車速センサ3では、自車両の車速を検出し、その検出した車速を示す車速信号をECU6に送信する。
ヨーセンサ4は、自車両のヨー角を検出するセンサである。ヨーセンサ4では、自車両のヨー角を検出し、その検出したヨー角を示すヨー信号をECU6に送信する。
ピッチセンサ5は、自車両のピッチ角を検出するセンサである。ピッチセンサ5では、自車両のピッチ角を検出し、その検出したピッチ角を示すピッチ信号をECU6に送信する
ECU6は、CPU[Central ProcessingUnit]、ROM[Read Only Memory]、RAM[Random Access Memory]及び画像処理チップなどからなる電子制御ユニットであり、周辺監視装置1を統括制御する。ECU6では、一定時間毎に、カメラ2からの画像信号及び各センサ3,4,5からの検出信号を取り入れ、撮像画像情報や検出情報を時系列で記憶する。そして、ECU6では、これらの情報を用いて障害物情報を検出するための処理を行い、検出した障害物情報(例えば、位置、移動方向、移動速度)を運転支援装置に出力あるいは運転者に提供する。
ECU6では、前時刻(t−1)のフレームの画像と現時刻(t)のフレームの画像を用いて、画像全体の画素毎のオプティカルフローを算出する。オプティカルフローの算出方法としては、従来の手法を適用する。なお、この画素毎のオプティカルフローについては、下記で説明する視野領域内の画素についてのみ算出してもよい。
カメラ2による撮像画像全体を領域で分割するために、ECU6では、カメラ2のレンズパラメータ(画角など)を考慮し、領域単位のオプティカルフローを求めるための基本となる分割領域を設定する。この各分割領域は、図2に示すように、同心で半径の異なる正円を複数設けるとともにその正円の中心から所定角度間隔毎の放射状に複数の線を設け、この複数の正円と複数の放射状の線で区画される領域とする。
オプティカルフローの大きさは、画像上での自車両の進行方向の中心から近いほど(カメラ2の撮像位置から遠いほど)小さくなり、その中心から遠いほど(カメラ2の撮像位置から近いほど)大きくなる。そこで、この画像上の位置に応じたオプティカルフローの大きさに対応する分割領域とするために、最も内周の正円には非常に小さい半径を設定し、外周側の正円ほど半径が増加する割合を大きくした半径を設定する。したがって、外周側の分割領域ほど、半径方向の長さが長くなる。また、複数の放射状の線の間隔角度は、画像上での検出対象の物体の大きさやECU6での処理能力などを考慮して設定される。なお、この間隔角度は等角度でもよいし、あるいは、等角度でなくてもよく、例えば、横位置が中心に近いほど(鉛直線に近い線間ほど)角度を狭くするなどしてもよい。
視野領域を設けるために、ECU6では、設定した基本となる分割領域群から障害物を検出する対象(処理対象となる領域)となる領域を選択し、この選択した分割領域群によって視野領域を構成する。この視野領域は、自車両に対する障害物が存在する可能性がある領域であり、障害物が存在しない空などの領域が除外される。視野領域の中心位置は、地平線上の位置であり、自車両の進行方向の中心とする。
視野領域の中心を求めるために、ECU6では、現時刻(t)のフレームの画像から自車両が走行中の車線を構成する一対の白線を検知する。この白線検知方法は、従来の方法を適用する。そして、ECU6では、その検知した一対の白線の消失点(地平線上の点)を算出する。さらに、ECU6では、その白線の消失点を視野領域の中心に設定し、視野領域を構成する分割領域群を画像上に配置させる。
しかし、道路上に白線が無かったりあるいは白線を検知できない場合がある。その場合、ECU6では、画像上の周縁領域における各画素のオプティカルフローの向きを中心方向に延長し、その交点を視野領域の中心に設定し、視野領域を構成する分割領域群を画像上に配置させる。なお、画像の周縁領域の大部分は、自車両から遠方に存在する背景に相当する。したがって、この周縁領域では、自車両の前方方向の動きに対して相対的な動きを示すので、オプティカルフローの向きが画像の中心方向を向いており、安定したオプティカルフローが算出される。
視野領域の中心を補正するために、ECU6では、自車両のヨー角に応じて視野領域の中心を補正するとともにピッチ角に応じて視野領域の中心を補正し、視野領域を構成する分割領域群を画像上に再配置させる。なお、カメラ2が搭載される自車両がヨーイングしたりあるいはピッチングすると、カメラ2の撮像方向が変化し、画像上において障害物の存在する領域も変化する。そのため、画像上の視野領域を自車両の挙動に応じて移動させる必要がある。
図2に示す例の場合、自車両が走行中の道路R上に一対の白線WL,WLを検知でき、その白線WL,WLの消失点に視野領域VAの中心が設定されている。視野領域VAは、画像Pにおける主に下側に設定され、多数の分割領域で構成されている。この例でも判るように、視野領域VAの中心C付近ほど分割領域が小さく、周縁ほど分割領域が大きい。
視野領域を構成する分割領域毎に制限範囲を設定するために、ECU6では、分割領域毎に、画像上の位置に応じてオプティカルフローの大きさの制限範囲を設定する。オプティカルフローの大きさは、視野領域の中心に近いほど(カメラ2の撮像位置から遠いほど)小さくなり、視野領域の中心から遠いほど(カメラ2の撮像位置から近いほど)大きくなる。そこで、視野領域の中心に近い分割領域ほどオプティカルフローの大きさの制限範囲を小さい範囲に設定し、中心から遠い分割領域ほどオプティカルフローの大きさの制限範囲を大きい範囲を設定する。この制限範囲は、大きさの下限値と上限値からなる。小さい制限範囲では、大きさが比較的小さいオプティカルフローを正常なオプティカルフロー(ノイズなどでない)と判定する範囲である。大きな制限範囲では、大きさが比較的大きいオプティカルフローを正常なオプティカルフローと判定する範囲である。
なお、制限範囲の設定には、カメラ2のレンズパラメータ、画像上の各位置での画素単位のオプティカルフローの大きさなども考慮して設定してもよい。
視野領域を構成する分割領域毎の制限範囲を補正するために、ECU6では、分割領域毎に、自車両の車速に応じて制限範囲を補正する。自車両の車速が高くなるほど、フレーム間での自車両の移動量が増加するので、オプティカルフローが大きくなる。そこで、自車両の車速が高くなるほど、画像上の位置に応じて設定されている基準の制限範囲より大きな範囲に補正する。なお、制限範囲の大きさを補正するのではなく、車速によって制限範囲を正規化してもよい。
以上のように、ECU6では、画像に視野領域を設定し、視野領域を多数の分割領域で分割する。分割領域は、視野領域の中心に近いほど小さな領域に設定され、中心から遠いほど大きな領域に設定されている。分割領域には、それぞれ制限範囲が設けられている。制限範囲は、視野領域の中心に近いほど小さな範囲に設定され、中心から遠いほど大きな範囲に設定されている。
視野領域を構成する分割領域毎に制限範囲を設けると、ECU6では、分割領域毎に、分割領域内に含まれる各画素のオプティカルフローを平均化するなどして、領域単位のオプティカルフロー(ベクトル)を算出する。さらに、ECU6では、分割領域毎に、その領域単位のオプティカルフローの大きさが制限範囲内か否かを判定する。オプティカルフローの大きさが制限範囲内の場合、ECU6では、そのオプティカルフローが正常なものと判断し、そのオプティカルフローを採用する。オプティカルフローの大きさが制限範囲外の場合、ECU6では、そのオプティカルフローが異常なもの(ノイズなど)と判断し、そのオプティカルフローを棄却する。
そして、ECU6では、採用した領域単位のオプティカルフローの中から周辺の領域のオプティカルフローと異なる大きさや向きを示すオプティカルフローを抽出する。画像上において背景とは異なる物体(障害物)が存在すると、その物体に対するオプティカルフローはその周辺(背景)とは明らかに異なる大きさや向きを示す。したがって、周辺とは異なる特異なオプティカルフローを抽出することにより、障害物のオプティカルフローを見つけ出すことができる。
そして、ECU6では、その抽出した領域のオプティカルフローから障害物情報(移動方向、移動速度、移動量、位置など)を設定する。さらに、ECU6では、その障害物情報を運転支援装置に出力あるいは運転者に提供する。なお、障害物のその他の情報として、画像から障害物の大きさを検出してもよいし、更に、パターン認識などを利用して障害物の種別を検出してもよい。ステレオカメラの場合、障害物までの相対距離や相対速度なども高精度に検出できる。また、ミリ波センサなどを用いて、障害物までの相対距離、相対速度、相対横位置などを高精度に検出してもよい。
図1及び図2を参照して、周辺監視装置1における動作について説明する。特に、ECU6における処理について図3のフローチャートに沿って説明する。図3は、図1のECUにおける処理の流れを示すフローチャートである。
カメラ2では、一定時間毎に、自車両の前方を撮像し、その画像情報からなる画像信号をECU6に送信する。車速センサ3では、一定時間毎に、自車両の車速を検出し、その車速からなる車速信号をECU6に送信する。ヨーセンサ4では、一定時間毎に、自車両のヨー角を検出し、そのヨー角からなるヨー信号をECU6に送信する。ピッチセンサ5では、一定時間毎に、自車両のピッチ角を検出し、そのピッチ角からなるピッチ信号をECU6に送信する。
ECU6では、一定時間毎に、カメラ2からの画像信号を受信し、各フレームの画像を取得する(S1)。この各フレームの画像は、ECU6内に時系列で一時記憶される。そして、ECU6では、現時刻(t)のフレームの画像と前時刻(t−1)のフレームの画像を用いて、各画素のオプティカルフローを算出する(S2)。
ECU6では、カメラ2の特性などを考慮し、画像を領域に分割して領域単位でオプティカルフローを求めるための基本となる多数の分割領域を設定する(S3)。そして、ECU6では、その分割領域群から検出の対象となる領域を選択し、その選択した分割領域から視野領域を構成する(S4)。
ECU6では、現時刻(t)のフレームの画像から一対の白線を検知する(S5)。そして、ECU6では、現時刻(t)のフレームの画像上での一対の白線の消失点を求め、その消失点を視野領域の中心に設定して視野領域内の分割領域群を画像上に配置させる(S6)。この際、一対の白線を検知できない場合、画像上の周縁領域における各画素のオプティカルフローの向きに基づいて視野領域の中心を設定する。
ECU6では、一定時間毎に、ヨーセンサ4からのヨー信号を受信し、ヨー角を取得する(S7)。また、ECU6では、一定時間毎に、ピッチセンサ5からのピッチ信号を受信し、ピッチ角を取得する(S7)。そして、ECU6では、ヨー角、ピッチ角に応じて視野領域の中心を補正し、視野領域内の分割領域群を画像上に再配置させる(S8)。
ECU6では、視野領域の分割領域毎に、画像における位置に応じてオプティカルフローの大きさの制限範囲を設定する(S9)。
ECU6では、車速センサ3からの車速信号を受信し、車速を取得する(S10)。そして、ECU6では、視野領域の分割領域毎に、車速に応じてオプティカルフローの大きさの制限範囲を補正する(S11)。
ECU6では、視野領域の分割領域毎に、領域内の画素単位のオプティカルフローを用いて、領域単位のオプティカルフロー(ベクトル)を算出する(S12)。
ECU6では、視野領域の分割領域毎に、領域単位のオプティカルフローの大きさが制限範囲内か否かを判定する(S13)。S13にて制限範囲外と判定した場合、ECU6では、そのオプティカルフローは異常なもの(ノイズなど)と判断し、そのオプティカルフローを棄却する(S15)。
S13にて制限範囲内と判定した場合、ECU6では、そのオプティカルフローは正常なものと判断する(S14)。そして、ECU6では、正常と判断したオプティカルフローの中から障害物のものと推測されるオプティカルフローを抽出し、その抽出したオプティカルフローから障害物情報を設定する(S14)。
そして、ECU6では、障害物情報を運転支援装置に出力あるいは音声や表示によって運転者に提供する。
この周辺監視装置1によれば、画像上の位置に応じて分割領域とその領域での制限範囲を設定し、画像上の位置に応じて分割領域単位でオプティカルフローの大きさに制限を設けることにより、画像上の位置に応じた基準により的確にノイズを除去でき、オプティカルフローによって物体を高精度に検出することができる。
さらに、周辺監視装置1によれば、視野領域の中心から遠いほど(カメラ2ら近いほど)大きな制限範囲を設定することにより、画像上の位置(カメラ2からの相対的な位置)に応じて適切な制限範囲を設けることができる。
また、周辺監視装置1によれば、視野領域を設定し、視野領域のみを障害物を検出する対象とすることにより、処理負荷を軽減できる。
また、周辺監視装置1によれば、一対の白線の消失点あるいは周縁領域のオプティカルフローの方向を利用して視野領域の中心を設定することにより、視野領域の中心位置を高精度に求めることができ、その中心からの位置に応じて適切な制限範囲を設けることができる。さらに、周辺監視装置1によれば、車両の挙動に応じて視野領域の中心を補正することにより、視野領域の中心位置をより高精度に求めることができる。
また、周辺監視装置1によれば、自車両の車速に応じて制限範囲を補正することにより、より適切な制限範囲を設けることができる。
以上、本発明に係る実施の形態について説明したが、本発明は上記実施の形態に限定されることなく様々な形態で実施される。
例えば、本実施の形態では車両に搭載され、車両周辺の障害物を検出するための周辺監視装置に適用したが、オプティカルフローを用いて物体検出を行う様々な物体検出装置に適用可能である。また、ロボットなどの他の移動体に搭載してもよい。
また、本実施の形態では車両挙動を検出する手段としてヨーセンサ、ピッチセンサを用いたが、他の手段で車両挙動を検出してもよく、例えば、各輪の車輪速センサによる左右の車輪速パルスなどから自車両の挙動を求める。
また、本実施の形態では分割領域として同心の複数の正円と中心からの複数の放射状の線を用いたが、カメラのレンズパラメータなどを考慮し、楕円などを用いて他の形状で分割領域を設定してもよい。
また、本実施の形態では制限範囲としてオプティカルフローの大きさの下限及び上限からなる制限範囲としたが、大きさの下限のみあるいは上限のみでもよいし、オプティカルフローの向きの制限範囲だけでもよいし、あるいは、大きさ及び向きの制限範囲でもよい。
また、本実施の形態では視野領域を設定し、視野領域についてのみ物体検出を行う構成としたが、画像全体について物体検出を行ってもよい。
また、本実施の形態では自車両の挙動に応じて視野領域の中心を補正する構成としたが、このような補正を行わない構成としてもよい。特に、挙動が変化しないような移動体に撮像手段が搭載された場合には、撮像方向が変化しないので、このような補正を行う必要がない。
また、本実施の形態では自車両の車速に応じて制限範囲を補正する構成としたが、このような補正を行わない構成としてもよい。
1…周辺監視装置、2…カメラ、3…車速センサ、4…ヨーセンサ、5…ピッチセンサ、6…ECU
Claims (8)
- 移動体に搭載された撮像手段で異なる時間に撮像された複数の画像から物体を検出する物体検出装置であって、
異なる時間に撮像された複数の画像からオプティカルフローを算出するオプティカルフロー算出手段と、
画像上の位置に応じてオプティカルフローの動きの制限範囲を設定する制限範囲設定手段と、
前記オプティカルフロー算出手段で算出したオプティカルフローから、前記制限範囲設定手段で設定した制限範囲内の動きを有するオプティカルフローを抽出するオプティカルフロー抽出手段と、
前記オプティカルフロー抽出手段で抽出したオプティカルフローに基づいて物体を検出する物体検出手段と
を備えることを特徴とする物体検出装置。 - 前記制限範囲設定手段は、撮像位置から近いほど大きな制限範囲を設定することを特徴とする請求項1に記載する物体検出装置。
- 前記制限範囲設定手段は、画像中の所定位置を中心として、当該所定位置から遠いほど大きな制限範囲を設定することを特徴とする請求項1に記載する物体検出装置。
- 前記所定位置は、画像における物体検出対象領域に基づいて設定されることを特徴とする請求項3に記載する物体検出装置。
- 前記所定位置は、画像から検出された走行路の形状に基づいて設定されることを特徴とする請求項3又は請求項4に記載する物体検出装置。
- 前記所定位置は、画像における周縁領域のオプティカルフローの向きに基づいて設定されることを特徴とする請求項3又は請求項4に記載する物体検出装置。
- 前記所定位置は、移動体の挙動に基づいて補正されることを特徴とする請求項3〜請求項6のいずれか1項に記載する物体検出装置。
- 前記制限範囲設定手段は、移動体の速度に応じて制限範囲を補正することを特徴とする請求項1〜請求項7のいずれか1項に記載する物体検出装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008325738A JP2010146478A (ja) | 2008-12-22 | 2008-12-22 | 物体検出装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008325738A JP2010146478A (ja) | 2008-12-22 | 2008-12-22 | 物体検出装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010146478A true JP2010146478A (ja) | 2010-07-01 |
Family
ID=42566820
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008325738A Pending JP2010146478A (ja) | 2008-12-22 | 2008-12-22 | 物体検出装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010146478A (ja) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013149175A (ja) * | 2012-01-22 | 2013-08-01 | Suzuki Motor Corp | オプティカルフロー処理装置及び表示半径マップ生成装置 |
JP2013210942A (ja) * | 2012-03-30 | 2013-10-10 | Fujitsu Ten Ltd | 検知装置、及び検知方法 |
WO2014084256A1 (ja) | 2012-11-27 | 2014-06-05 | クラリオン株式会社 | 車載画像処理装置 |
JP2015011502A (ja) * | 2013-06-28 | 2015-01-19 | 株式会社Jvcケンウッド | 先方状況判定装置、安全運転支援装置 |
JP5949955B2 (ja) * | 2013-01-25 | 2016-07-13 | トヨタ自動車株式会社 | 道路環境認識システム |
JP2017102928A (ja) * | 2015-12-03 | 2017-06-08 | ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh | 二輪車における傾斜検出 |
JP2019021060A (ja) * | 2017-07-18 | 2019-02-07 | 日産自動車株式会社 | 物体検出方法及び物体検出装置 |
WO2020090320A1 (ja) * | 2018-10-31 | 2020-05-07 | ソニーセミコンダクタソリューションズ株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
US11445151B2 (en) | 2020-02-21 | 2022-09-13 | Toyota Jidosha Kabushiki Kaisha | Vehicle electronic mirror system |
-
2008
- 2008-12-22 JP JP2008325738A patent/JP2010146478A/ja active Pending
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013149175A (ja) * | 2012-01-22 | 2013-08-01 | Suzuki Motor Corp | オプティカルフロー処理装置及び表示半径マップ生成装置 |
JP2013210942A (ja) * | 2012-03-30 | 2013-10-10 | Fujitsu Ten Ltd | 検知装置、及び検知方法 |
US9715633B2 (en) | 2012-11-27 | 2017-07-25 | Clarion Co., Ltd. | Vehicle-mounted image processing device |
WO2014084256A1 (ja) | 2012-11-27 | 2014-06-05 | クラリオン株式会社 | 車載画像処理装置 |
JP5949955B2 (ja) * | 2013-01-25 | 2016-07-13 | トヨタ自動車株式会社 | 道路環境認識システム |
JPWO2014115319A1 (ja) * | 2013-01-25 | 2017-01-26 | トヨタ自動車株式会社 | 道路環境認識システム |
JP2015011502A (ja) * | 2013-06-28 | 2015-01-19 | 株式会社Jvcケンウッド | 先方状況判定装置、安全運転支援装置 |
JP2017102928A (ja) * | 2015-12-03 | 2017-06-08 | ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh | 二輪車における傾斜検出 |
JP7179440B2 (ja) | 2015-12-03 | 2022-11-29 | ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング | 二輪車における傾斜検出 |
JP2019021060A (ja) * | 2017-07-18 | 2019-02-07 | 日産自動車株式会社 | 物体検出方法及び物体検出装置 |
JP7031157B2 (ja) | 2017-07-18 | 2022-03-08 | 日産自動車株式会社 | 物体検出方法及び物体検出装置 |
WO2020090320A1 (ja) * | 2018-10-31 | 2020-05-07 | ソニーセミコンダクタソリューションズ株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
US11445151B2 (en) | 2020-02-21 | 2022-09-13 | Toyota Jidosha Kabushiki Kaisha | Vehicle electronic mirror system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5012718B2 (ja) | 画像処理装置 | |
JP2010146478A (ja) | 物体検出装置 | |
US10445596B2 (en) | Camera device for vehicle | |
EP3581451B1 (en) | Lane keeping assist system and method for improving safety in preceding vehicle follower longitudinal control | |
JP6996353B2 (ja) | 物体認識装置及び車両走行制御システム | |
JP5939357B2 (ja) | 移動軌跡予測装置及び移動軌跡予測方法 | |
US8854458B2 (en) | Object detection device | |
JP4788798B2 (ja) | 物体検出装置 | |
JP4453775B2 (ja) | 物体検出装置 | |
JP4337929B2 (ja) | 移動状態推定装置 | |
US20150371542A1 (en) | Warning device and travel control device | |
JP5310745B2 (ja) | 走行支援装置 | |
US20190156131A1 (en) | Image Processing Device, Outside Recognition Device | |
JP2011053809A (ja) | 車両用白線認識装置 | |
JP4670528B2 (ja) | 撮像装置のずれ検出方法、撮像装置のずれ補正方法及び撮像装置 | |
JP4840472B2 (ja) | 物体検出装置 | |
JP6496585B2 (ja) | 物体認識装置 | |
JP4721278B2 (ja) | 車線逸脱判定装置、車線逸脱防止装置および車線追従支援装置 | |
JP2007030603A (ja) | 車両用走行支援装置 | |
US11145063B2 (en) | Image processing apparatus | |
JP2020077293A (ja) | 区画線検出装置及び区画線検出方法 | |
JP2014130429A (ja) | 撮像装置及び立体物領域検出用プログラム | |
JP2010006270A (ja) | 車両挙動検出装置 | |
JP2000251199A (ja) | 車両用後側方監視装置 | |
JP4040620B2 (ja) | 車両周辺監視装置 |