JP2010002326A - 移動ベクトル検出装置 - Google Patents
移動ベクトル検出装置 Download PDFInfo
- Publication number
- JP2010002326A JP2010002326A JP2008162024A JP2008162024A JP2010002326A JP 2010002326 A JP2010002326 A JP 2010002326A JP 2008162024 A JP2008162024 A JP 2008162024A JP 2008162024 A JP2008162024 A JP 2008162024A JP 2010002326 A JP2010002326 A JP 2010002326A
- Authority
- JP
- Japan
- Prior art keywords
- distance
- movement vector
- image
- movement
- axis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Input (AREA)
- Studio Devices (AREA)
Abstract
【課題】3次元方向(奥行き方向)の動きベクトルを検出することが可能な移動ベクトル検出装置を提供する。
【解決手段】距離画像を用いて移動ベクトルを検出する移動ベクトル検出装置において、撮像素子を用いて、所定タイミングごとに、画素値が測距対象物までの距離値である距離画像を生成する距離画像生成手段と、前記距離画像生成手段により異なるタイミングで生成された二枚の距離画像それぞれに含まれる特定の測距対象物までの距離値及び前記特定の測距対象物の前記二枚の距離画像中それぞれの位置に基づいて、前記特定の測距対象物の奥行き方向の移動ベクトルを算出する第1ベクトル算出手段と、を備えることを特徴とする。
【選択図】 図4
【解決手段】距離画像を用いて移動ベクトルを検出する移動ベクトル検出装置において、撮像素子を用いて、所定タイミングごとに、画素値が測距対象物までの距離値である距離画像を生成する距離画像生成手段と、前記距離画像生成手段により異なるタイミングで生成された二枚の距離画像それぞれに含まれる特定の測距対象物までの距離値及び前記特定の測距対象物の前記二枚の距離画像中それぞれの位置に基づいて、前記特定の測距対象物の奥行き方向の移動ベクトルを算出する第1ベクトル算出手段と、を備えることを特徴とする。
【選択図】 図4
Description
本発明は、移動ベクトル検出装置に係り、特に距離画像を用いて奥行き方向の移動ベクトルを検出する移動ベクトル検出装置に関する。
従来、ある時間の画像(エッジ検出、モデルマッチング等により当該画像から抽出される特徴量)と一定時間経過後の画像(エッジ検出、モデルマッチング等により当該画像から抽出される特徴量)とのパターンマッチングにより対応点を検出し、その動きベクトル(画像面内の動きベクトル)を検出することが行われている(例えば、特許文献1参照)。
特開平8−29126号公報
しかしながら、上記特許文献1においては、検出される動きベクトルは画像面内(2次元方向)の動きベクトルであり、3次元方向(奥行き方向)の動きベクトルを検出することができないという問題がある。
本発明は、このような事情に鑑みてなされたものであり、3次元方向(奥行き方向)の動きベクトルを検出することが可能な移動ベクトル検出装置を提供することを目的とする。
上記課題を解決するために、請求項1に記載の発明は、距離画像を用いて移動ベクトルを検出する移動ベクトル検出装置において、撮像素子を用いて、所定タイミングごとに、画素値が測距対象物までの距離値である距離画像を生成する距離画像生成手段と、前記距離画像生成手段により異なるタイミングで生成された二枚の距離画像それぞれに含まれる特定の測距対象物までの距離値及び前記特定の測距対象物の前記二枚の距離画像中それぞれの位置に基づいて、前記特定の測距対象物の奥行き方向の移動ベクトルを算出する第1ベクトル算出手段と、を備えることを特徴とする。
請求項1に記載の発明によれば、距離画像生成手段により異なるタイミングで生成された二枚の距離画像それぞれに含まれる特定の測距対象物までの距離値及び前記特定の測距対象物の前記二枚の距離画像中それぞれの位置に基づいて、前記特定の測距対象物の奥行き方向の移動ベクトルを算出することが可能となる。
この算出された特定の測距対象物の奥行き方向の移動ベクトルを用いることで、例えば、測距対象物(物体)の奥行き方向の移動距離や移動方向等を把握することが可能となる。
請求項2に記載の発明は、請求項1に記載の発明において、撮像素子を用いて、所定タイミングごとに、画素値が輝度値である通常画像を生成する通常画像生成手段と、前記通常画像生成手段により異なるタイミングで生成された二枚の通常画像に含まれる前記特定の測距対象物の前記通常画像面内の移動ベクトルを算出する第2ベクトル算出手段と、を備えることを特徴とする。
請求項2に記載の発明によれば、特定の測距対象物の3次元の移動ベクトル(特定の測距対象物の奥行き方向の移動ベクトル及び特定の測距対象物の通常画像面内の移動ベクトルを成分とする三次元ベクトル)を得ることが可能となる。
この3次元ベクトルを用いることにより、従来のように2次元方向(X軸及びY軸方向)の移動ベクトルのみ用いていた場合と比べて、各種処理(例えば消失点の演算処理、物体の動き推定)の精度を向上させることが可能となる。また、この3次元ベクトルを用いることにより、時間変化後の距離情報を把握することが可能であるため、移動ベクトル検出装置又は移動ベクトル検出装置が搭載された車両等の移動体との相対速度を検出することが可能となる。また、この3次元ベクトルを用いることで、測距対象物(物体)が今後どのような動きをするかを推定することが可能となる。
また、従来技術によれば、通常画像のみを用いて動きベクトルを検出しているため、エッジ検出等により画像から特徴量の抽出が何らかの原因でできなかった場合(例えば、光が当たっていた物体に光が当たらなくなった、一つの物体の濃淡の差が大きく一つの物体と認識されない、均一なテクスチャ又は均一な色(例えば白い壁の前に白い物体)である、物体の大きさ自体が変化する等)、動き推定ができなくなる。
しかし、請求項2に記載の発明によれば、仮に、何らかの原因で通常画像から特徴量の抽出ができなくなったとしても、距離画像を用いて動きベクトルを検出することが可能であるため、測距対象物(物体)が今後どのような動きをするかを推定することが可能となる。
請求項3に記載の発明は、請求項1又は2に記載の発明において、対象空間に変調光を照射する光源をさらに備え、前記撮像素子は、前記光源から照射され対象空間内の測距対象物で反射した反射光を受光して電荷に変換する複数の光電変換素子、前記光電変換素子ごとに設けられた複数の電荷蓄積部、及び、前記光源の変調に同期して、前記光電変換素子により変換された電荷を前記複数の電荷蓄積部に振り分ける手段を備えていることを特徴とする。
請求項3に記載の発明によれば、一つの撮像素子を用いて、画素値が距離値である距離画像及び画素値が輝度値である通常画像を生成することが可能となる。
本発明によれば、3次元方向(奥行き方向)の動きベクトルを検出することが可能な移動ベクトル検出装置を提供することが可能となる。
〔第一実施形態〕
以下、本発明の一実施形態である移動ベクトル検出装置について図面を参照しながら説明する。
以下、本発明の一実施形態である移動ベクトル検出装置について図面を参照しながら説明する。
〔データ通信装置の構成〕
まず、本実施形態の移動ベクトル検出装置の構成について説明する。
まず、本実施形態の移動ベクトル検出装置の構成について説明する。
図1は、本実施形態の移動ベクトル検出装置のブロック図である。
移動ベクトル検出装置1は、図1に示すように、光飛行時間型距離画像センサ10(以下、距離画像センサ10という)を備えている。距離画像センサ10は、光源11、撮像素子15、制御部16、距離画像生成部17、通常画像生成部18等を備えている。
光源11は、対象空間に基準周波数fsの光(例えば、正弦波もしくは矩形波等で高速に変調させた赤外光もしくは可視光)を照射する光源であり、LEDやレーザー等の高速変調が可能なデバイスが用いられる。
撮像素子15は、光源11から照射され対象空間内の物体で反射した反射光を含む入射光14を受光して電荷に変換する複数の光電変換素子(画素又はピクセルともいう)、この光電変換素子ごとに設けられた複数の電荷蓄積部(本実施形態では四つの電荷蓄積部C1、C2、C3、C4を例示。以下、C1、C2、C3、C4は、数式において用いた場合、該電荷蓄積部C1、C2、C3、C4に蓄積された電荷量を表す)、及び、光源11の変調に同期して、光電変換素子により変換された電荷を複数の電荷蓄積部に振り分ける手段等を備えている(いずれも図示せず)。
制御部16は、光源11と撮像素子15を同期制御する。撮像素子15は、基準周波数fsに基づいて電荷振り分けを行う。具体的には、撮像素子15は、図2に示すように、制御部16から供給されるゲート制御信号DG1、DG2、DG3、DG4に従って、基準周波数fsに同期した時間T1、T2、T3、T4ごとに、ゲートを開閉し、光電変換素子により変換された電荷を、電荷蓄積部C1、C2、C3、C4それぞれに振り分ける。撮像素子15は、時間T1〜T4のサイクルを数千〜数十万回繰り返すことで、一枚の画像を取得する。この一枚の画像を取得する時間のことを、1フレームという。なお、電荷蓄積部は、四つに限定されない。二つ以上の電荷蓄積部であれば、同様に適用することが可能である。
距離画像生成部17は、上記のように振り分けられた電荷(電荷蓄積部C1、C2、C3、C4に蓄積された電荷)に基づいて所定演算(後述の式1を用いる)を行い、画素値が測距対象物までの距離値である距離画像を生成する。距離画像は、2次元(XY方向)の位置情報に加え、その画素の距離情報も含んだ3次元(XYZ方向)情報となる。距離画像によれば、通常画像では輝度値の変化が少なくエッジ検出等で特徴量を抽出することができない場合であっても、距離情報により物体の形状を検出することが可能となる。
通常画像生成部18は、上記のように振り分けられた電荷(電荷蓄積部C1、C2、C3、C4に蓄積された電荷)に基づいて所定演算(後述の式2を用いる)を行い、画素値が輝度値である距離画像を生成する。
以上のように、本実施形態では、一つの撮像素子15を用いて距離画像及び通常画像の両方を取得できるようになっている。
〔距離画像を生成する原理〕
次に、距離画像を生成する原理について説明する。
次に、距離画像を生成する原理について説明する。
図3は、距離画像を生成する原理を説明するための図である。図3中、正弦波21は光源11から照射された基準周波数fsの光を表しており、正弦波22は撮像素子15への入射光を表している。正弦波21と正弦波22との位相差φは、光源11から照射された基準周波数fsの光の測距対象物までの飛行時間によって生じる遅延を表している。
図3では、光源11からの照射光の一周期を四つの期間に分けて四つの電荷蓄積部C1、C2、C3、C4に電荷を振り分けている。それぞれの期間をT1、T2、T3、T4とし、それぞれの期間に蓄積する電荷量をC1、C2、C3、C4とすると、位相差φは、次の式で表される。
光の速度は既知であるから、この位相差φを求めることで測距対象物までの距離が求まり、画素値が距離値である距離画像を生成することが可能となる。例えば、光源11を10MHzで変調させた場合、発光側から往復で15mまでの距離を計測することが可能である。
なお、一般的な画像データ(通常画像)として用いる電荷量平均Aは、次の式で表される。
また、測距対象物で反射した変調光成分の振幅量Bは、次の式で表される。
一般的に発光源の変調周波数は数十MHzであり、よって変調の1周期は数十ns程度である。そのため、距離画像を得るためには数百〜数十万周期の電荷蓄積時間を要する。
〔移動ベクトル検出装置1の動作例1〕
次に、上記構成の移動ベクトル検出装置1の動作例1について図面を参照しながら説明する。
次に、上記構成の移動ベクトル検出装置1の動作例1について図面を参照しながら説明する。
図4は、移動ベクトル検出装置1の動作例を説明するためのフローチャートである。以下の処理は、主に、制御部16又はこれとは別に設けられた制御部(図示せず)等が行う。
まず、移動ベクトル検出装置1は、撮像素子15で周囲環境を撮像し、距離画像を取得する処理を行う(ステップS1)。具体的には、次の処理を行う。
光源11は、制御部16の同期信号に従って、対象空間に変調した光を照射する。撮像素子15は、その光源11から照射され対象空間内の物体B1〜B3等で反射した反射光を含む入射光を受光し、複数の光電変換素子により電荷に変換し、制御部16のゲート制御信号DG1、DG2、DG3、DG4に従って、その変換された電荷を、複数の電荷蓄積部C1、C2、C3、C4それぞれに振り分ける。以上の処理を光蓄積時間が終了(経過)するまで継続する。
距離画像生成部17は、振り分けられた電荷に基づいて所定演算(上記式1の演算)を行い、光源11との位相差φを算出し、画素値が距離値である距離画像を生成する。
例えば、図5及び図6に示すように、三つの物体B1〜B3と撮像素子15とが相対的に接近する方向に移動しており、時間t−dtにおいては図5の位置関係、dt経過後の時間tにおいては図7の位置関係となる状況を想定する。各図中、X軸は撮像素子15を通りかつ撮像素子15の光軸に直交する水平軸、Y軸は鉛直軸、Z軸は撮像素子15の光軸方向(奥行き方向)を表している。この場合、距離画像生成部17は、時間t−dtにおいては図8に示す距離画像を生成し、時間tにおいては図9に示す距離画像を生成する。
次に、移動ベクトル検出装置1は、物体B1〜B3のZ軸方向(奥行き方向)の移動ベクトルを求める処理を行う(ステップS2〜ステップS6)。具体的には、次の処理を行う。
移動ベクトル検出装置1は、距離画像が生成された場合、その距離画像から距離情報を抽出し(ステップS2)、その抽出した距離情報が閾値距離内であるか否か(ステップS3)、及び、dt時間前の距離情報があるか否かを判定する(ステップS4)。
この判定の結果、その抽出した距離情報が閾値距離内であり(ステップS3:Yes)、かつ、dt時間前の距離情報があると判定した場合(ステップS4:Yes)、移動ベクトル検出装置1は、ステップS1で取得した距離画像のうち物体B1〜B3の距離値を表す画素(画素群)を特徴量として抽出する(ステップS5)。
例えば、上記のように、時間t−dtにおいて図8に示す距離画像が生成された場合、移動ベクトル検出装置1は、図10に示すように、その距離画像のうち物体B1〜B3の距離値を表す画素(画素群)を特徴量b1〜b3として抽出する。図10は、縦軸がZ軸(撮像素子15の光軸方向(奥行き方向))、横軸がX軸(撮像素子15を通りかつ撮像素子15の光軸に直交する水平軸)である座標系に、図8に示す距離画像(時間t−dtにおける距離画像)から抽出された特徴量b1〜b3(物体B1〜B3の距離値)をプロットした図である。
同様に、時間dt経過後の時間tにおいて図9に示す距離画像が生成された場合、移動ベクトル検出装置1は、図11に示すように、その距離画像のうち物体B1〜B3の距離値を表す画素(画素群)を特徴量b1〜b3として抽出する。図11は、縦軸がZ軸、横軸がX軸である座標系に、図9に示す距離画像(時間tにおける距離画像)から抽出された特徴量b1〜b3(物体B1〜B3の距離値)をプロットした図である。これらの特徴量b1〜b3を用いることで、物体1〜3の表面形状(輪郭形状)、ZX方向の位置及び距離を求めることが可能となる。
次に、移動ベクトル検出装置1は、図12に示すように、時間t−dtにおける距離画像(特徴量b1〜b3)と時間tにおける距離画像(特徴量b1〜b3)の差分を演算(例えば、パターンマッチングにより特徴量の対応点を検出し、両者の差分を演算)することで、物体B1、B2のZ軸方向(奥行き方向)の移動ベクトルVZ1、VZ2を求める(ステップS6)。この移動ベクトルVZ1、VZ2を用いることにより、物体B1、B2のZ軸方向(奥行き方向)の移動距離と移動方向を把握することが可能となる。
なお、図12は、物体B3についてはZ軸方向(奥行き方向)のベクトルVZ3を求めることができなかったことを表している。しかし、実際は、反射波を検出するために、撮像素子15で高速撮影を行う(例えば10MHzで動作させた場合、単位時間10ns。時速100kmで移動する物体でもこの時間で移動する距離は約3μmである)。このため、実際には部分的なマッチングを行うことで物体B3の移動ベクトルVZ3の検出が可能と考えられる。
次に、移動ベクトル検出装置1は、物体B1〜B3の2次元方向(X軸及びY軸方向)の移動ベクトルを求める処理を行う(ステップS7〜S8)。具体的には、次の処理を行う。
移動ベクトル検出装置1は、通常画像の取得タイミングであるか否かを判定する(ステップS7)。通常画像生成部18は、通常画像の取得タイミングであると判定された場合(ステップS7:Yes)、振り分けられた電荷C1、C2、C3、C4に基づいて所定演算(上記式2の演算)を行い、画素値が輝度値である通常画像を生成する。
例えば、通常画像生成部18は、時間t−dtに図8に示す距離画像が生成された直後の時間においては図13に示す通常画像を生成し、時間tに図9に示す距離画像が生成された直後の時間においては図14に示す通常画像を生成する。
次に、移動ベクトル検出装置1は、従来と同様、エッジ検出等によりそれぞれの通常画像(例えば図8及び図9に示す距離画像)から特徴量を抽出し(ステップS8)、図15に示すように、パターンマッチングにより対応点を検出等することで、物体B1の2次元方向(X軸及びY軸方向)の移動ベクトルVXY1を求める。この移動ベクトルVXY1を用いることにより、物体B1のX軸及びY軸を含む平面内における移動距離と移動方向を把握することが可能となる。
なお、図15は、物体B2、物体B3については特徴量の対応点が検出されなかったため、2次元方向(X軸及びY軸方向)の移動ベクトルVXY2、VXY3を求めることができなかったことを表している。しかし、本実施形態では、Z軸方向(奥行き方向)の移動ベクトルVZ1〜VZ3を算出することが可能であり、移動ベクトルVZ1〜VZ3を用いることにより、物体B2、B3の検出が可能となる。
次に、移動ベクトル検出装置1は、図16に示すように、移動ベクトルVXY1の交点P(消失点)を演算する(ステップS9)。この演算された消失点Pを用いることにより、移動ベクトル検出装置1(撮像素子15)の進行方向を推定することが可能となる。
次に、移動ベクトル検出装置1は、Z軸方向(奥行き方向)の移動ベクトル及び2次元方向(X軸及びY軸方向)の移動ベクトルを成分とする3次元ベクトルを抽出する(ステップS10)。
この3次元ベクトルを用いることにより、2次元方向(X軸及びY軸方向)の移動ベクトルのみ用いていた場合と比べて、各種処理(例えば消失点の演算処理)の精度を向上させることが可能となる。また、この3次元ベクトルを用いることにより、時間変化後の距離情報を把握することが可能であるため、移動ベクトル検出装置1(撮像素子15)との相対速度を検出することが可能となる。また、この3次元ベクトルを用いることで、物体B1が今後どのような動きをするかを推定することが可能となる。
以後、移動ベクトル検出装置1は、3次元ベクトルの取得を続ける場合(ステップS11:Yes)、以上のステップS1〜S10の処理を繰り返し実行する。
〔移動ベクトル検出装置1の動作例2〕
次に、上記構成の移動ベクトル検出装置1の動作例2について図面を参照しながら説明する。本動作例2においては、移動ベクトル検出装置1は、例えば、車両前方の監視を目的として、車室内のダッシュボード、ルームミラー、車室外のヘッドランプ内部、バンパー、エアダクト等に装着されている。
次に、上記構成の移動ベクトル検出装置1の動作例2について図面を参照しながら説明する。本動作例2においては、移動ベクトル検出装置1は、例えば、車両前方の監視を目的として、車室内のダッシュボード、ルームミラー、車室外のヘッドランプ内部、バンパー、エアダクト等に装着されている。
移動ベクトル検出装置1は、撮像素子15で図17に示すような車両前方環境を撮像し、距離画像を取得する処理を行う(ステップS1)。具体的には、次の処理を行う。
光源11は、制御部16の同期信号に従って、対象空間に変調した光を照射する。撮像素子15は、その光源11から照射され対象空間内の物体B1〜B3等で反射した反射光を含む入射光を受光し、複数の光電変換素子により電荷に変換し、制御部16のゲート制御信号DG1、DG2、DG3、DG4に従って、その変換された電荷を、複数の電荷蓄積部C1、C2、C3、C4それぞれに振り分ける。以上の処理を光蓄積時間が終了(経過)するまで継続する。
距離画像生成部17は、振り分けられた電荷に基づいて所定演算(上記式1の演算)を行い、光源11との位相差φを算出し、画素値が距離値である距離画像を生成する。
例えば、四つの物体B4〜B7と車両等の移動体(この移動体に搭載された移動ベクトル検出装置1)とが相対的に移動しており、距離画像生成部17は、時間t−dtにおいては図18に示す距離画像を生成し、時間tにおいては図19に示す距離画像を生成したとする(ステップS1)。
移動ベクトル検出装置1は、その生成された距離画像を用いて、物体B4〜B7のZ軸方向(奥行き方向)の移動ベクトルを求める処理を行う(ステップS2〜ステップS6)。具体的には、次の処理を行う。
移動ベクトル検出装置1は、距離画像が生成された場合、その距離画像から距離情報を抽出し(ステップS2)、その抽出した距離情報が閾値距離内であるか否か(ステップS3)、及び、dt時間前の距離情報があるか否かを判定する(ステップS4)。
この判定の結果、その抽出した距離情報が閾値距離内であり(ステップS3:Yes)、かつ、dt時間前の距離情報があると判定した場合(ステップS4:Yes)、移動ベクトル検出装置1は、ステップS1で取得した距離画像のうち物体B4〜B7の距離値を表す画素(画素群)を特徴量として抽出する(ステップS5)。
例えば、上記のように、時間t−dtにおいて図18に示す距離画像が生成された場合、移動ベクトル検出装置1は、図20に示すように、その距離画像のうち物体B4〜B7の距離値を表す画素(画素群)を特徴量b4〜b7として抽出する。図20は、縦軸がZ軸(撮像素子15の光軸方向(奥行き方向))、横軸がX軸(撮像素子15を通りかつ撮像素子15の光軸に直交する水平軸)である座標系に、図18に示す距離画像(時間t−dtにおける距離画像)から抽出された特徴量b4〜b7(物体B4〜B7の距離値)をプロットした図である。
同様に、時間dt経過後の時間tにおいて図19に示す距離画像が生成された場合、移動ベクトル検出装置1は、図21に示すように、その距離画像のうち物体B4〜B7の距離値を表す画素(画素群)を特徴量b4〜b7として抽出する。図21は、縦軸がZ軸、横軸がX軸である座標系に、図19に示す距離画像(時間tにおける距離画像)から抽出された特徴量b4〜b7(物体B4〜B7の距離値)をプロットした図である。これらの特徴量b4〜b7を用いることで、物体B4〜B7の表面形状(輪郭形状)、ZX方向の位置及び距離を求めることが可能となる。
次に、移動ベクトル検出装置1は、図22に示すように、時間t−dtにおける距離画像(特徴量b4〜b7)と時間tにおける距離画像(特徴量b4〜b7)の差分を演算(例えば、パターンマッチングにより特徴量の対応点を検出し、両者の差分を演算)することで、物体B4〜B7のZ軸方向(奥行き方向)の移動ベクトルVZ4〜、VZ7を求める(ステップS6)。この移動ベクトルVZ4〜、VZ7を用いることにより、物体B4〜B7のZ軸方向(奥行き方向)の移動距離と移動方向を把握することが可能となる。また、移動ベクトルVZ4〜、VZ7は、相対速度を表すため、自車への危険度を表す指標として用いることが可能である。
例えば、物体B6(特徴量b6で表される先行車両)に注目すると、時間dt経過後に自車から距離が離れているため、衝突の危険は無いことを把握できる。また、物体B7(特徴量b7で表される歩行者)に注目すると、時間dt経過後に自車に近づいているため、衝突の危険があることを把握できる。また、物体B4、B5(特徴量b4で表される歩行者、特徴量b5で表される信号機)に注目すると、自車方向へ移動していないので、衝突の危険は少ないことを把握できる。
次に、移動ベクトル検出装置1は、物体B4〜B3の2次元方向(X軸及びY軸方向)の移動ベクトルを求める処理を行う(ステップS7〜S8)。具体的には、次の処理を行う。
移動ベクトル検出装置1は、通常画像の取得タイミングであるか否かを判定する(ステップS7)。通常画像生成部18は、通常画像の取得タイミングであると判定された場合(ステップS7:Yes)、振り分けられた電荷C1、C2、C3、C4に基づいて所定演算(上記式2の演算)を行い、画素値が輝度値である通常画像を生成する。
例えば、通常画像生成部18は、時間t−dtに図18に示す距離画像が生成された直後の時間においては図17に示す通常画像を生成し、時間tに図19に示す距離画像が生成された直後の時間においては通常画像を生成する。
次に、移動ベクトル検出装置1は、従来と同様、エッジ検出等によりそれぞれの通常画像から特徴量を抽出し(ステップS8)、パターンマッチングにより対応点を検出等することで、物体B4〜B7の2次元方向(X軸及びY軸方向)の移動ベクトルVXY4〜VXY7を求める。この移動ベクトルVXY4〜VXY7を用いることにより、物体B4〜B7のX軸及びY軸を含む平面内における移動距離と移動方向を把握することが可能となる。
次に、移動ベクトル検出装置1は、図16に示すように、移動ベクトルVXY4〜VXY7の交点P(消失点)を演算する(ステップS9)。この演算された消失点Pを用いることにより、移動ベクトル検出装置1(撮像素子15)が搭載された車両等の移動体の進行方向を推定することが可能となる。
次に、移動ベクトル検出装置1は、Z軸方向(奥行き方向)の移動ベクトル及び2次元方向(X軸及びY軸方向)の移動ベクトルを成分とする3次元ベクトルを抽出する(ステップS10)。
この3次元ベクトルを用いることにより、従来のように2次元方向(X軸及びY軸方向)の移動ベクトルのみ用いていた場合と比べて、各種処理(例えば消失点の演算処理)の精度を向上させることが可能となる。また、この3次元ベクトルを用いることにより、時間変化後の距離情報を把握することが可能であるため、移動ベクトル検出装置1(撮像素子15)が搭載された車両等の移動体との相対速度を検出することが可能となる。また、この3次元ベクトルを用いることで、物体B1が今後どのような動きをするかを推定することが可能となる。
以後、移動ベクトル検出装置1は、3次元ベクトルの取得を続ける場合(ステップS11:Yes)、以上のステップS1〜S10の処理を繰り返し実行する。
以上説明したように、本実施形態の移動ベクトル検出装置1によれば、距離画像生成部17により異なるタイミング(時間t−dt、時間t)で生成された二枚の距離画像それぞれに含まれる特定の測距対象物(例えば、物体B1〜B3、又は、物体B4〜B7)までの距離値及び特定の測距対象物の二枚の距離画像中それぞれの位置(例えば、図12に示す特徴量b1〜b3、又は、図22に示す特徴量b4〜b7)に基づいて、特定の測距対象物の奥行き方向の移動ベクトル(例えば、図12に示す移動ベクトルVZ1、VZ2、又は、図22に示す移動ベクトルVZ4〜VZ7)を算出することが可能となる。この算出された特定の測距対象物の奥行き方向の移動ベクトル(例えば、図12に示す移動ベクトルVZ1、VZ2、又は、図22に示す移動ベクトルVZ4〜VZ7)を用いることで、例えば、測距対象物(例えば、物体B1〜B3、又は、物体B4〜B7)の奥行き方向の移動距離や移動方向等を把握することが可能となる。
また、本実施形態の移動ベクトル検出装置1によれば、特定の測距対象物の3次元の移動ベクトル(特定の測距対象物の奥行き方向の移動ベクトルVZ1、VZ2、VZ4〜VZ7及び特定の測距対象物の通常画像面内の移動ベクトルVXY1等を成分とする三次元ベクトル)を得ることが可能となる。
この3次元ベクトル等を用いることにより、従来のように2次元方向(X軸及びY軸方向)の移動ベクトルのみ用いていた場合と比べて、各種処理(例えば消失点Pの演算処理、物体B1〜B7等の動き推定)の精度を向上させることが可能となる。また、この3次元ベクトル等を用いることにより、時間変化後の距離情報を把握することが可能であるため、移動ベクトル検出装置1又は移動ベクトル検出装置1が搭載された車両等の移動体との相対速度を検出することが可能となる。また、この3次元ベクトルVXY1等を用いることで、測距対象物(物体B1〜B7等)が今後どのような動きをするかを推定することが可能となる。
また、従来技術によれば、通常画像のみを用いて動きベクトルを検出しているため、エッジ検出等により画像から特徴量の抽出が何らかの原因でできなかった場合(例えば、光が当たっていた物体に光が当たらなくなった、一つの物体の濃淡の差が大きく一つの物体と認識されない、均一なテクスチャ又は均一な色(例えば白い壁の前に白い物体)である、物体の大きさ自体が変化する等)、動き推定ができなくなる。
しかし、本実施形態の移動ベクトル検出装置1によれば、仮に、何らかの原因で通常画像から特徴量の抽出ができなくなったとしても、距離画像を用いて動きベクトルVZ1、VZ2、VZ4〜VZ7を検出することが可能であるため、測距対象物(物体B1〜B7)が今後どのような動きをするかを推定することが可能となる。
上記実施形態はあらゆる点で単なる例示にすぎない。これらの記載によって本発明は限定的に解釈されるものではない。本発明はその精神または主要な特徴から逸脱することなく他の様々な形で実施することができる。
1…移動ベクトル検出装置、10…光飛行時間型距離画像センサ(距離画像センサ)、11…光源、14…入射光、15…撮像素子、16…制御部、17…距離画像生成部、18…通常画像生成部、B1〜B7…物体、b1〜b7…特徴量、φ…位相
Claims (3)
- 距離画像を用いて移動ベクトルを検出する移動ベクトル検出装置において、
撮像素子を用いて、所定タイミングごとに、画素値が測距対象物までの距離値である距離画像を生成する距離画像生成手段と、
前記距離画像生成手段により異なるタイミングで生成された二枚の距離画像それぞれに含まれる特定の測距対象物までの距離値及び前記特定の測距対象物の前記二枚の距離画像中それぞれの位置に基づいて、前記特定の測距対象物の奥行き方向の移動ベクトルを算出する第1ベクトル算出手段と、
を備えることを特徴とする移動ベクトル検出装置。 - 撮像素子を用いて、所定タイミングごとに、画素値が輝度値である通常画像を生成する通常画像生成手段と、
前記通常画像生成手段により異なるタイミングで生成された二枚の通常画像に含まれる前記特定の測距対象物の前記通常画像面内の移動ベクトルを算出する第2ベクトル算出手段と、
を備えることを特徴とする請求項1に記載の移動ベクトル検出装置。 - 対象空間に変調光を照射する光源をさらに備え、
前記撮像素子は、前記光源から照射され対象空間内の測距対象物で反射した反射光を受光して電荷に変換する複数の光電変換素子、前記光電変換素子ごとに設けられた複数の電荷蓄積部、及び、前記光源の変調に同期して、前記光電変換素子により変換された電荷を前記複数の電荷蓄積部に振り分ける手段を備えていることを特徴とする請求項1又は2に記載の移動ベクトル検出装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008162024A JP2010002326A (ja) | 2008-06-20 | 2008-06-20 | 移動ベクトル検出装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008162024A JP2010002326A (ja) | 2008-06-20 | 2008-06-20 | 移動ベクトル検出装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010002326A true JP2010002326A (ja) | 2010-01-07 |
Family
ID=41584173
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008162024A Pending JP2010002326A (ja) | 2008-06-20 | 2008-06-20 | 移動ベクトル検出装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010002326A (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012173098A (ja) * | 2011-02-21 | 2012-09-10 | Stanley Electric Co Ltd | 指示位置検出装置 |
WO2014132767A1 (ja) * | 2013-02-28 | 2014-09-04 | 株式会社テクノロジーハブ | 距離画像センサ |
JP2018194501A (ja) * | 2017-05-19 | 2018-12-06 | 株式会社デンソー | 測距装置 |
JP2019144261A (ja) * | 2013-06-06 | 2019-08-29 | ヘプタゴン・マイクロ・オプティクス・プライベート・リミテッドHeptagon Micro Optics Pte. Ltd. | 撮像システムおよびそれを動作させる方法 |
JP2022515166A (ja) * | 2018-12-20 | 2022-02-17 | ツェットエフ、フリードリッヒスハーフェン、アクチエンゲゼルシャフト | 高更新率を有するカメラシステム |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000222585A (ja) * | 1999-02-01 | 2000-08-11 | Toshiba Corp | 動き検出方法および動き検出装置および動き認識方法および動き認識装置および記録媒体 |
JP2000266539A (ja) * | 1999-03-15 | 2000-09-29 | Nissan Motor Co Ltd | 車間距離計測装置 |
JP2000517427A (ja) * | 1996-09-05 | 2000-12-26 | ルドルフ シュヴァルト | 電磁波の位相情報および/または振幅情報を調べるための方法と装置 |
JP2001034388A (ja) * | 1999-07-23 | 2001-02-09 | Matsushita Electric Ind Co Ltd | 機器制御装置およびナビゲーション装置 |
JP2001195698A (ja) * | 2000-01-07 | 2001-07-19 | Nissan Motor Co Ltd | 歩行者検知装置 |
JP2006105694A (ja) * | 2004-10-01 | 2006-04-20 | Matsushita Electric Works Ltd | 距離画像センサ |
JP2006318062A (ja) * | 2005-05-10 | 2006-11-24 | Olympus Corp | 画像処理装置、画像処理方法、および画像処理用プログラム |
JP2007256091A (ja) * | 2006-03-23 | 2007-10-04 | Space Vision:Kk | レンジファインダ校正方法及び装置 |
JP2008098976A (ja) * | 2006-10-12 | 2008-04-24 | Stanley Electric Co Ltd | 固体撮像素子 |
-
2008
- 2008-06-20 JP JP2008162024A patent/JP2010002326A/ja active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000517427A (ja) * | 1996-09-05 | 2000-12-26 | ルドルフ シュヴァルト | 電磁波の位相情報および/または振幅情報を調べるための方法と装置 |
JP2000222585A (ja) * | 1999-02-01 | 2000-08-11 | Toshiba Corp | 動き検出方法および動き検出装置および動き認識方法および動き認識装置および記録媒体 |
JP2000266539A (ja) * | 1999-03-15 | 2000-09-29 | Nissan Motor Co Ltd | 車間距離計測装置 |
JP2001034388A (ja) * | 1999-07-23 | 2001-02-09 | Matsushita Electric Ind Co Ltd | 機器制御装置およびナビゲーション装置 |
JP2001195698A (ja) * | 2000-01-07 | 2001-07-19 | Nissan Motor Co Ltd | 歩行者検知装置 |
JP2006105694A (ja) * | 2004-10-01 | 2006-04-20 | Matsushita Electric Works Ltd | 距離画像センサ |
JP2006318062A (ja) * | 2005-05-10 | 2006-11-24 | Olympus Corp | 画像処理装置、画像処理方法、および画像処理用プログラム |
JP2007256091A (ja) * | 2006-03-23 | 2007-10-04 | Space Vision:Kk | レンジファインダ校正方法及び装置 |
JP2008098976A (ja) * | 2006-10-12 | 2008-04-24 | Stanley Electric Co Ltd | 固体撮像素子 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012173098A (ja) * | 2011-02-21 | 2012-09-10 | Stanley Electric Co Ltd | 指示位置検出装置 |
WO2014132767A1 (ja) * | 2013-02-28 | 2014-09-04 | 株式会社テクノロジーハブ | 距離画像センサ |
JP6025081B2 (ja) * | 2013-02-28 | 2016-11-16 | 株式会社テクノロジーハブ | 距離画像センサ |
JPWO2014132767A1 (ja) * | 2013-02-28 | 2017-02-02 | 株式会社テクノロジーハブ | 距離画像センサ |
JP2019144261A (ja) * | 2013-06-06 | 2019-08-29 | ヘプタゴン・マイクロ・オプティクス・プライベート・リミテッドHeptagon Micro Optics Pte. Ltd. | 撮像システムおよびそれを動作させる方法 |
JP2018194501A (ja) * | 2017-05-19 | 2018-12-06 | 株式会社デンソー | 測距装置 |
JP2022515166A (ja) * | 2018-12-20 | 2022-02-17 | ツェットエフ、フリードリッヒスハーフェン、アクチエンゲゼルシャフト | 高更新率を有するカメラシステム |
JP7489389B2 (ja) | 2018-12-20 | 2024-05-23 | ツェットエフ、フリードリッヒスハーフェン、アクチエンゲゼルシャフト | 高更新率を有するカメラシステム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10501059B2 (en) | Stereo camera device | |
EP3754295B1 (en) | Three-dimensional measuring system and three-dimensional measuring method | |
JP5145986B2 (ja) | 物体検出装置及び測距方法 | |
CN111492265A (zh) | 基于3d激光雷达测量的多分辨率、同时定位和地图绘制 | |
JP4687563B2 (ja) | 車両用レーンマーク認識装置 | |
EP4296721A2 (en) | Generating 3-dimensional maps of a scene using passive and active measurements | |
JP4691701B2 (ja) | 人数検出装置及び方法 | |
JP6727539B2 (ja) | 距離センサ、走行体、ロボット及び3次元計測装置 | |
KR20130099735A (ko) | 원거리 획득이 가능한 tof카메라와 스테레오 카메라의 합성 시스템 및 방법 | |
KR101964100B1 (ko) | 신경망 학습 기반의 객체 검출 장치 및 방법 | |
CN113160327A (zh) | 一种点云补全的实现方法和系统 | |
US10984263B2 (en) | Detection and validation of objects from sequential images of a camera by using homographies | |
JP6782433B2 (ja) | 画像認識装置 | |
JP2010002326A (ja) | 移動ベクトル検出装置 | |
US20160223667A1 (en) | A method and a device for detecting an all-round view | |
WO2015098222A1 (ja) | 情報処理装置及び情報処理方法及びプログラム | |
CN109085603A (zh) | 光学三维成像系统和彩色三维图像成像方法 | |
CN106707295A (zh) | 基于时间关联的三维成像装置和成像方法 | |
JP2015206768A (ja) | 前景領域抽出装置、前景領域抽出方法及びプログラム | |
JP2010074362A (ja) | 距離画像生成装置 | |
WO2021111747A1 (ja) | 画像処理装置、監視システム、及び画像処理方法 | |
JP2013205867A (ja) | 情報処理装置及び方法、並びにプログラム | |
JP6699323B2 (ja) | 電車設備の三次元計測装置及び三次元計測方法 | |
JPWO2019210360A5 (ja) | ||
Loktev et al. | Image Blur Simulation for the Estimation of the Behavior of Real Objects by Monitoring Systems. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110609 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121024 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121024 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130304 |