JP4269781B2 - Optical flow detection system, detection method and detection program - Google Patents
Optical flow detection system, detection method and detection program Download PDFInfo
- Publication number
- JP4269781B2 JP4269781B2 JP2003148765A JP2003148765A JP4269781B2 JP 4269781 B2 JP4269781 B2 JP 4269781B2 JP 2003148765 A JP2003148765 A JP 2003148765A JP 2003148765 A JP2003148765 A JP 2003148765A JP 4269781 B2 JP4269781 B2 JP 4269781B2
- Authority
- JP
- Japan
- Prior art keywords
- optical flow
- past
- frame
- image
- evaluation amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Analysis (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、動画像における物体または画素の動きを示すベクトルであるオプティカルフローを検出するオプティカルフロー検出システム、検出方法および検出プログラムに関する。
【0002】
【従来の技術】
近年、撮像装置で撮影された画像から、撮像装置が設置された車両等の周囲の物体の動き等を把握する方法が提案されている。その方法は、動画像のフレーム間でオプティカルフローを測定することにより、写っている物体の動きを把握するものである。
【0003】
オプティカルフローは、画像の各フレームに特徴照合法(パターンマッチング)や、時空間勾配法等を用いることにより求められる。
【0004】
現時刻の画像フレームと過去の画像フレームと間の時間間隔が短すぎるためにオプティカルフローが小さすぎて高精度の検出が困難である場合に、現時刻との時間間隔の長い過去の画像フレームと現時刻の画像フレームとを用いることにより、オプティカルフローを高精度で検出することができる方法が提案されている(例えば、特許文献1参照。)。
【0005】
【特許文献1】
特開2003−44861号公報 (第4−7頁、第1図)
【0006】
【発明が解決しようとする課題】
しかし、特許文献1に記載されている方法では、大きさの小さなオプティカルフローを高精度に検出するために、各座標について、現フレームとの時間間隔が異なる複数の過去の画像フレームを用いてオプティカルフローを検出する。そのため、オプティカルフローを検出するためのデータ処理量が多いという問題がある。
【0007】
そこで、本発明は、大きさの小さなオプティカルフローを、少ないデータ処理量で高精度に検出することができるオプティカルフロー検出システム、検出方法および検出プログラムを提供することを目的とする。
【0008】
【課題を解決するための手段】
本発明によるオプティカルフロー検出システムは、複数の過去フレームを記憶する画像蓄積手段と、オプティカルフローの大きさに対応する数値である評価量を画面内の画素毎に算出する評価量計算手段と、評価量計算手段が算出した評価量にもとづいて、画像蓄積手段に記憶されている過去フレームのうちいずれの過去フレームを用いるのかを画面内の画素毎に決定する過去フレーム選択手段とを備えたことを特徴とする。
【0009】
評価量計算手段は、物体の画像フレーム上の座標位置にもとづいて、オプティカルフローの大きさに対応する評価量を算出してもよい。そのような構成によれば、画像フレームから得られる情報にもとづいてオプティカルフローの検出に用いる過去の画像フレームを特定することができるため、オプティカルフロー検出システムの構成を複雑にすることなくオプティカルフローを検出することができる。
【0010】
評価量計算手段が算出する評価量は、物体の画像フレームにおける垂直方向座標値であってもよい。道路画像等の画像フレームでは、上方の物体は遠方の物体であると考えられるためオプティカルフローが小さいと考えられ、下方の物体は近傍の物体であると考えられるためオプティカルフローが大きいと考えられる。従って、道路画像等の画像フレームでは、垂直方向座標値という取得が容易な情報を用いて評価量を算出することができる。
【0011】
評価量計算手段は、過去に検出したオプティカルフローの大きさにもとづいて、オプティカルフローの大きさに対応する評価量を算出してもよい。そのような構成によれば、画像フレームから新たに評価量を抽出する必要が無くなるため、より高速に評価量を算出することができる。
【0012】
本発明による他の態様のオプティカルフロー検出システムは、複数の過去フレームを記憶する画像蓄積手段と、現フレームに現れる物体と撮影位置との間の距離を画面内の画素毎に計測する距離計測手段と、距離計測手段が計測した距離にもとづいて、画像蓄積手段に記憶されている過去フレームのうちいずれの過去フレームを用いるのかを画面内の画素毎に決定する過去フレーム選択手段とを備えたことを特徴とする。そのような構成によれば、画像に含まれる物体と撮影位置との距離にもとづいて評価量を算出するため、オプティカルフローが小さいと考えられる距離の遠い物体の座標のオプティカルフローの検出には現在時刻との時間間隔の長い過去の画像フレームを選択することにより、高精度にオプティカルフローを検出することができる。また、オプティカルフローが大きいと考えられる距離の近い物体の座標のオプティカルフローの検出には現在時刻との時間間隔の短い過去の画像フレームを選択することにより、対応点を探索する領域を現在時刻の画像フレームにおける物体の位置の周辺に狭められ、高速にオプティカルフローを検出することができる。
【0013】
検出したオプティカルフローにもとづいて、画像上の物体の領域を検出する領域検出手段を備えてもよい。そのような構成によれば、画像上を移動する物体を監視したり追跡したりすることができる。
【0014】
入力される動画像は、走行中の車両から外部を撮影した映像であってもよく、領域検出手段は、他の車両または障害物を検出してもよい。そのような構成によれば、画像上を移動する物体の領域を抽出することができるため、例えば、走行中の車両が撮影した動画像から他の車両の領域を抽出した場合、車両の運転手に警告する等を行って、衝突を防止することができる効果がある。
【0015】
【発明の実施の形態】
実施の形態1.
図1は、本発明によるオプティカルフロー検出システムを含む画像領域検出システムの第1の実施の形態を示すブロック図である。図1に示す画像領域検出システムは、動画像を入力する画像入力装置110と画像領域検出装置100とを含む。
【0016】
画像領域検出装置100は、入力された動画像を蓄積する画像蓄積手段101と、オプティカルフローを検出する座標を設定する処理対象座標設定手段102と、オプティカルフローを検出する座標の評価量を算出する評価量計算手段103と、算出した評価量にもとづいてオプティカルフローの算出に用いる画像フレームを特定する過去フレーム選択手段104と、現フレームの一の点に対応する過去の画像フレームの点である対応点を特定する対応点探索手段105と、現フレームが撮影された時刻である現時刻と過去フレームが撮影された時刻との時間間隔、現フレームの画像フレームの一の点、および対応点にもとづいてオプティカルフローを算出するオプティカルフロー計算手段106と、算出したオプティカルフローを表示装置(図示せず。)等に出力するオプティカルフロー出力手段107と、オプティカルフローの向きと大きさとにもとづいて画像フレーム中で物体の像の領域を検出する領域検出手段108とを含む。
【0017】
なお、オプティカルフロー検出システムは、図1に示す構成では、画像領域検出装置100におけるオプティカルフロー出力手段107および領域検出手段108を除く部分に相当するが、オプティカルフロー出力手段107および領域検出手段108を含めたシステムをオプティカルフロー検出システムと捉えてもよい。また、画像領域検出装置100は、コンピュータなどのデータ処理装置で実現される。
【0018】
すなわち、処理対象座標設定手段102、評価量計算手段103、過去フレーム選択手段104、対応点探索手段105、オプティカルフロー計算手段106、オプティカルフロー出力手段107および領域検出手段108は、記憶装置に記憶されているプログラムにもとづいてコンピュータが動作することによって実現される。従って、以下に説明する処理対象座標設定手段102、評価量計算手段103、過去フレーム選択手段104、対応点探索手段105、オプティカルフロー計算手段106、オプティカルフロー出力手段107および領域検出手段108の処理は、コンピュータがが実行するプログラムで実現される。画像蓄積手段101は、例えばコンピュータが内蔵する、またはコンピュータに接続されるハードディスク等の記憶装置で実現される。画像入力装置110は、ビデオカメラや、赤外線カメラ、暗視カメラ等の動画撮影機器や、レーダや超音波送受信装置等の距離計測機器等を1台または複数台を組み合わせて実現され、物体の特徴量の2次元的または3次元的な分布を得る機器によって実現される。
【0019】
画像入力装置110は、動画像を撮影し、撮影した動画像を画像フレーム毎に画像蓄積手段101および処理対象座標設定手段102に入力する。画像蓄積手段101は入力された画像フレームを過去フレームとして蓄積する。処理対象座標設定手段102は、現フレーム(最新フレームすなわち現時刻の画像フレーム)におけるオプティカルフローを検出する座標を設定し、現フレームを評価量計算手段103と対応点探索手段105とに出力する。処理対象座標設定手段102は、例えば、映像に対してラスタスキャンを行う場合の順に座標を設定する。
【0020】
評価量計算手段103は、オプティカルフローを検出する座標に設定された処理対象座標の評価量を算出する。評価量は、オプティカルフローの大きさと関係づけられる量である。例えば、図2に示すような走行中の車両の後方を撮影した白黒画像の画像フレームが入力された場合には、y座標値が小さい範囲の像の物体は、撮影位置から遠方にある物体であると考えられ、オプティカルフローの大きさが小さくなると考えられる。また、y座標値が大きい範囲の像の物体は、撮影位置の近傍にある物体であると考えられ、オプティカルフローの大きさが大きくなると考えられる。そこで、道路画像などが入力される場合には、y座標値を評価量とすることができる。
【0021】
なお、評価量の他の例として、オプティカルフローを検出する座標あるいはその座標の周辺で過去に算出したオプティカルフローの大きさを評価量として用いてもよいし、オプティカルフロー検出システムの利用者の事前知識にもとづいて利用者が評価量を設定してもよいし、また、これらの方法で求めた評価量を組み合わせて、新たな評価量を算出してもよい。評価量は、以上に述べた方法により求められる量に限定されるものではなく、オプティカルフローの大きさに関連する量であればよい。評価量計算手段103は、算出した評価量を過去フレーム選択手段104に出力する。
【0022】
過去フレーム選択手段104は、評価量にもとづいて、画像蓄積手段101が蓄積している過去の画像フレームのうち、オプティカルフローの検出に用いる画像フレームを特定する。例えば、評価量があらかじめ決められた閾値未満である場合には、現在時刻の画像フレームの2つ前の画像フレームをオプティカルフローの検出に用いる画像フレームと特定し、評価量があらかじめ決められた閾値以上である場合は、現在時刻の画像フレームの1つ前の画像フレームをオプティカルフローの検出に用いる画像フレームと特定する。以下、過去フレーム選択手段104が特定した画像フレームを過去画像フレームと記す。過去フレーム選択手段104は、画像蓄積手段101が蓄積している動画像のうち、過去画像フレームを読み込んで対応点探索手段105に出力する。
【0023】
対応点探索手段105は、現フレームのオプティカルフローを検出する座標に対応する過去画像フレームの座標である対応点を特定し、特定した対応点の位置の情報をオプティカルフロー計算手段106に出力する。対応点の特定方法については、後述する。
【0024】
オプティカルフロー計算手段106は、オプティカルフローを検出する座標、対応点の座標、および現フレームが撮影された時刻と過去画像フレームが撮影された時刻との差である時間間隔にもとづいてオプティカルフローを算出する。オプティカルフローは、オプティカルフローを検出する座標と対応点との差のベクトルを、時間間隔で割った商として算出される。そして、オプティカルフロー計算手段106は、算出したオプティカルフローを保持するとともに、オプティカルフロー出力手段107に出力する。オプティカルフローの保持は、コンピュータが搭載しているメモリ等の一時記憶手段に記憶させることによって実現される。オプティカルフロー出力手段107は、入力されたオプティカルフローを領域検出手段108に出力する。領域検出手段108は、入力されたオプティカルフローにもとづいて、同一物体が存在すると考えられる領域を検出する。
【0025】
次に、この実施の形態の動作について説明する。図3は、この実施の形態の動作を説明するフローチャートである。
【0026】
画像入力装置110から画像領域検出装置100に画像フレーム毎に入力される動画像は、画像領域検出装置100において、画像蓄積手段101および処理対象座標設定手段102に入力される(ステップS101)。画像蓄積手段101は、入力された画像フレームを過去フレームとして蓄積する(ステップS102)。処理対象座標設定手段102は、オプティカルフローを検出する領域に含まれる座標の全てについてオプティカルフローを検出する処理を行ったか否かを判断する(ステップS103)。オプティカルフローを検出するべき座標が残っていると判断した場合には、処理対象座標設定手段102は、現フレームにおけるオプティカルフローを検出する処理対象座標を設定する(ステップS104)。すなわち、処理済みの座標の次の座標を処理対象座標とする。そして、処理対象座標を評価量計算手段103および対応点探索手段105に出力する。評価量計算手段103は、オプティカルフローを検出する処理対象座標の評価量を算出する(ステップS105)。
【0027】
過去フレーム選択手段104は、評価量にもとづいて、画像蓄積手段101が蓄積している過去の画像フレームのうち、オプティカルフローの検出に用いる画像フレームを特定する(ステップS106)。そして、対応点探索手段105は、あらかじめ定められた探索範囲から、現フレームにおけるオプティカルフローを検出する座標に対応する過去画像フレームの座標である対応点を特定し、特定した対応点の位置の情報をオプティカルフロー計算手段106に出力する(ステップS107)。オプティカルフロー計算手段106は、オプティカルフローを検出する座標、対応点の座標、および現在フレームが撮影された時刻と過去画像フレームが撮影された時刻との差にもとづいてオプティカルフローを算出する(ステップS108)。オプティカルフロー計算手段106は、算出したオプティカルフローを保持する(ステップS109)。
【0028】
そして、処理対象座標設定手段102は、オプティカルフローを検出する領域に含まれる座標の全てについてオプティカルフローを検出する処理を行ったか否かを判断する(ステップS103)。オプティカルフローを検出するべき座標が残っていないと判断した場合には、処理対象座標設定手段102は、オプティカルフロー計算手段106が保持しているオプティカルフローをオプティカルフロー出力手段107に出力する(ステップS110)。オプティカルフロー出力手段107は、入力されたオプティカルフローを領域検出手段108に出力する。領域検出手段108は、入力されたオプティカルフローにもとづいて、同一物体の像が存在していると思われる領域を検出する(ステップS111)。
【0029】
ステップS107において、対応点探索手段105が画像フレームの対応点を特定する際の動作について説明する。この実施の形態では、対応点を探索する際に、現フレームと過去画像フレームとの類似性の評価に、領域間の各画素の差の絶対値の総和(以下、SAD(Sum of Absolute Differences)と記す。)を用いる。なお、現フレームと過去画像フレームとの類似性の評価は、SADを用いた方法に限定されるものではなく、領域間の各画素の差の2乗の総和(SSD(Sum of Square Differences))を用いる方法等、領域間の相関値や、領域間の正規化相関値等の処理に用いられる類似性の評価値を用いてもよい。
【0030】
図4は、対応点探索手段105が特定点を特定する際の動作を説明するフローチャートである。対応点探索手段105は、現フレームにおけるオプティカルフローを検出する処理対象座標の周辺(例えば、処理対象座標を中心とした縦横5画素の矩形領域)の画素値である輝度と画像濃度とを抽出する(ステップS201)。次に、適当な値を最小SADとしてセットする(ステップS202)。ここでセットされる最小SADは比較的大きな値であり、例えば、画像の種類(カラー画像または2値画像の別)や階調に応じて、一般に、それよりも値が小さいと類似度が高いと判定される値よりも大きな値に設定される。
【0031】
対応点探索手段105は、あらかじめ決められている探索範囲において、全ての画素について対応点の探索を行ったか否かを判断する(ステップS203)。探索範囲は、例えば、過去画像フレームにおいて、現フレームにおける処理対象座標と同じ座標を中心とした縦横31画素の範囲である。ただし、この範囲は単なる一例であって、画像の解像度等、状況に応じて適切な値に設定される。探索範囲において、対応点であるか否かの判定を行っていない画素が存在する場合には、対応点探索手段105は、過去画像フレームにおける処理対象座標(対応点候補座標とする。)として、処理の済んだ座標の次の座標に設定する(ステップS204)。なお、探索は、探索範囲において例えば左上端からラスタスキャン方向に実行され、例えばステップS202の処理終了後に、対応点候補座標として、探索範囲における左上端の直前の画素の座標に設定されている。そして、対応点探索手段105は、対応点候補座標の周辺(例えば、対応点候補座標を中心とした縦横5画素の矩形領域)の画素値を過去画像フレームから抽出する(ステップS205)。
【0032】
対応点探索手段105は、現フレームにおける処理対象座標の周辺の画素値と対応点候補座標の周辺の画素値とについてSADを算出する(ステップS206)。対応点探索手段105は、算出したSADが最小SADとして設定されている値より小さいか否かを判定する(ステップS207)。算出したSADが最小SADとして設定されている値未満の場合には、対応点探索手段105は、算出されたSADを新たに最小SADとして設定し、対応点候補座標を対応点座標とする(ステップS208)。ステップS207で算出したSADが最小SADとして設定されている値以上の場合、およびステップS208の処理が終了した場合には、ステップS203の処理に戻る。
【0033】
そして、対応点探索手段105は、利用者が特定した領域内の全ての画素について対応点の探索を行ったか否かを判断する(ステップS203)。利用者が特定した領域内の全ての画素について対応点の探索を行った場合には、対応点探索手段105は、対応点座標の画素を対応点と特定し、特定した対応点の位置の情報をオプティカルフロー計算手段106に出力する(ステップS209)。
【0034】
次に、走行中の車両の後方を撮影して得られた動画像を例に、この実施の形態の動作について説明する。図2は、そのようにして得られた動画像の画像フレームの1つである。ここで、走行中の車両の後方を撮影した場合、画像の風景部分のオプティカルフローは撮影位置から遠ざかる方向であるのに対して、撮影を行っている車両を追い抜く車両の部分のオプティカルフローは、撮影位置に近づいてくる方向である。また、画像中の道路部分のうち上方部分の像の物体は、遠方の物体であると考えられ、オプティカルフローの大きさが小さくなると考えられる。そして、画像中の道路部分のうち下方部分の像の物体は、撮影位置の近傍の物体であると考えられ、オプティカルフローの大きさが大きくなると考えられる。これらの性質を利用して、追い抜き車両の検出や、対応点の探索を行う。
【0035】
図5は、具体例を用いてこの実施の形態の動作を説明するフローチャートである。画像入力装置110は、例えば、道路を走行中の車両から後方を、256階調の白黒画像で撮影する(ステップS301)。従って、画像入力装置110が出力する動画像は、走行中の車両から外部を撮影した映像である。画像入力装置110は、撮影した動画像(道路画像)を画像フレーム毎に画像蓄積手段101および処理対象座標設定手段102に入力する。画像蓄積手段101は、入力された道路画像を過去フレームとして蓄積する(ステップS302)。処理対象座標設定手段102は、まず、オプティカルフローの検出を行う領域を定める。ここでは、図4に示すラインLpから下の領域をオプティカルフローの検出を行う領域と特定したとする。処理対象座標設定手段102は、例えば、y座標値が所定値以下である領域を除外することによってラインLpを定めたり、利用者から指定を受けることによってラインLpを定めたりする。
【0036】
処理対象座標設定手段102は、オプティカルフローを検出する領域に含まれる処理対象座標の全てについてオプティカルフローを検出する処理を行ったか否かを判断する(ステップS303)。オプティカルフローを検出するべき処理対象座標が残っていると判断した場合には、処理対象座標設定手段102は、動画像中のオプティカルフローを検出する座標を設定する(ステップS304)。すなわち、処理済みの座標の次の座標を処理対象座標とする。なお、オプティカルフローを検出する処理対象座標として、Lpの下の領域について、左上端から右下端までラスタスキャンの方向の順に座標が設定される。
【0037】
評価量計算手段103は、オプティカルフローを検出する処理の対象とする座標の評価量をy座標値とする(ステップS305)。y座標値が閾値Sy以上であれば現フレームの1つ前の過去画像フレームを用いてオプティカルフローの検出を行い、y座標値が閾値Sy未満であれば現フレームの2つ前の過去画像フレームを用いてオプティカルフローの検出を行う(ステップS306、307、308)。すなわち、図24に示すSyから下の領域が、現フレームの1つ前の過去画像フレームを用いてオプティカルフローの検出を行う領域とされ、Syから上の領域が、現フレームから2つ前の過去画像フレームを用いてオプティカルフローの検出を行う領域とされる。
【0038】
現在時刻の画像フレームから1つ前の過去画像フレームを用いてオプティカルフローの検出を行う場合に、対応点探索手段105が、現在時刻の画像フレームから1つ前の過去画像フレームにおける対応点の検出を行う(ステップS309)。そして、検出した対応点の位置の情報をオプティカルフロー計算手段106に出力する。オプティカルフロー計算手段106は、現フレームにおけるオプティカルフローを検出する処理の対象とする座標と、対応点の座標との差のベクトルをオプティカルフローとする(ステップS311)。
【0039】
現在時刻の画像フレームから2つ前の過去画像フレームを用いてオプティカルフローの検出を行う場合、対応点探索手段105が、現フレームから2つ前の過去画像フレームにおける対応点の検出を行う(ステップS310)。そして、検出した対応点の位置の情報をオプティカルフロー計算手段106に出力する。オプティカルフロー計算手段106は、現フレームにおけるオプティカルフローを検出する処理の対象とする座標と、対応点の座標との差のベクトルに1/2を乗じたものをオプティカルフローとする(ステップS312)。なお、nフレーム前の過去フレームを用いた場合には、差のベクトルを(1/n)してオプティカルフローとする。
【0040】
オプティカルフロー計算手段106は、算出したオプティカルフローを保持する(ステップS313)。そして、処理対象座標設定手段102は、オプティカルフローを検出する領域に含まれる座標の全てに、オプティカルフローを検出する処理を行ったか否かを判断する(ステップS303)。処理対象座標設定手段102がオプティカルフローを検出するべき処理対象座標が残っていないと判断した場合には、オプティカルフロー計算手段106は、保持しているオプティカルフローを、オプティカルフロー出力手段107に出力する(ステップS314)。オプティカルフロー出力手段107は、入力されたオプティカルフローを領域検出手段108に出力する。
【0041】
領域検出手段108は、オプティカルフローが、画像領域検出装置100を搭載されている車両に近づく方向を持つ画素の領域を、追い抜き車両の領域として抽出して表示手段等に出力することができる(ステップS315)。このとき、追い抜き車両の領域を監視したり、追跡したりしてもよい。
【0042】
この実施の形態によれば、画像フレームにおける各座標に応じて対応点を探索する過去画像フレームを選択するように構成したので、オプティカルフローの小さな画素には現時刻との時間間隔が長い過去の画像フレームを選択することにより高精度にオプティカルフローを検出することができ、オプティカルフローの大きな画素には時間間隔の短い過去の画像フレームを選択することにより、対応点を探索する領域を狭められ、高速にオプティカルフローを検出することができる。
【0043】
なお、この実施の形態では、現フレームよりも1つ前の過去画像フレームを用いる場合と、現フレームよりも2つ前の過去画像フレームを用いる場合との2つに場合分けしたが、現フレームよりも3つ前以上の過去画像フレームを用いるようにして、より多くの場合に場合分けしてもよい。
【0044】
また、この実施の形態では、領域検出手段108は、オプティカルフローにもとづいて他の車両のが存在する領域を検出することができるが、例えば、画像領域検出装置100を搭載されている車両が近づいていく障害物等が存在する領域を検出することもできる。
【0045】
さらに、この実施の形態では、道路画像が入力される場合を例にしたので評価量としてy座標値を用いたが、評価量は、y座標値に限定されるわけではなく、オプティカルフローの大きさに関連する量であれば他の量を用いてもよい。例えば、オプティカルフローを検出する座標あるいはその座標の周辺で過去に算出したオプティカルフローの大きさを評価量として用いてもよいし、オプティカルフロー検出システムの利用者の事前知識にもとづいて利用者が評価量を設定してもよいし、また、これらの方法で求めた評価量を組み合わせて、新たな評価量を算出してもよい。
【0046】
実施の形態2.
図6は、本発明によるオプティカルフロー検出システムを含む画像領域検出システムの第2の実施の形態を示すブロック図である。図6に示す画像領域検出システムは、動画像を入力する画像入力装置110、画像領域検出装置200および距離計測装置300を含む。第1の実施の形態における画像領域検出装置100とは異なり、画像領域検出装置200には評価量計算手段103が含まれていない。また、過去フレーム選択手段201の動作は、第1の実施の形態における過去フレーム選択手段104の動作とは異なる。
【0047】
距離計測装置300は、画像入力装置110が撮影した動画像に含まれる物体と撮影位置との間の距離(実距離)を計測する。過去フレーム選択手段201は、距離計測装置300が計測した撮影位置と物体との間の距離にもとづいてオプティカルフローの算出に用いる過去画像フレームを特定する。距離計測装置300は、例えば、レーダや、ステレオカメラ、超音波送受信装置等の距離計測機器によって実現される。
【0048】
次に、この実施の形態の動作について説明する。図7は、この実施の形態の動作を説明するフローチャートである。
【0049】
画像入力装置110から画像領域検出装置200に画像フレーム毎に入力される動画像は、画像領域検出装置200において、画像蓄積手段101および処理対象座標設定手段102に入力される(ステップS401)。画像蓄積手段101は、入力された画像フレームを過去フレームとして蓄積する(ステップS402)。処理対象座標設定手段102は、オプティカルフローを検出する領域に含まれる座標の全てについてオプティカルフローを検出する処理を行ったか否かを判断する(ステップS403)。オプティカルフローを検出するべき座標が残っていると判断した場合には、処理対象座標設定手段102は、現フレームにおけるオプティカルフローを検出する処理対象座標を設定する(ステップS404)。すなわち、処理済みの座標の次の座標を処理対象座標とする。そして、現フレームを過去フレーム選択手段201および対応点探索手段105に出力する。距離計測装置300は、現フレーム内に存在する物体と画像領域検出装置200の設置位置との間の距離(実距離)を計測する(ステップS405)。なお、距離計測装置300は、画像領域検出装置200の近傍に設置されているとする。
【0050】
距離計測装置300は、例えば、画像領域検出装置200から、距離計測装置300の計測視野における処理対象座標に対応する方向の情報の供給を受ける。そして、供給された情報にもとづいて計測方向を定め、現フレーム内に存在する物体との間の距離を計測する。なお、距離計測装置300は、例えば、過去フレーム選択手段を実現するソフトウェアの指示に応じて距離を計測する。
【0051】
過去フレーム選択手段201は、物体との間の距離にもとづいて、画像蓄積手段101が蓄積している過去の画像フレームのうち、オプティカルフローの検出に用いる画像フレームを特定する(ステップS406)。そして、対応点探索手段105は、現フレームのオプティカルフローを検出する座標に対応する過去画像フレームの座標である対応点を、予め定められた探索領域内を探索して特定し、特定した対応点の位置の情報をオプティカルフロー計算手段106に出力する(ステップS407)。オプティカルフロー計算手段106は、オプティカルフローを検出する処理対象座標、対応点の座標、および現フレームが撮影された時刻と過去画像フレームが撮影された時刻とにもとづいてオプティカルフローを算出する(ステップS408)。オプティカルフロー計算手段106は、算出したオプティカルフローを保持する(ステップS409)。
【0052】
そして、処理対象座標設定手段102は、オプティカルフローを検出する座標を全て設定したか否かを判断する(ステップS403)。処理対象座標設定手段102がオプティカルフローを検出するべき座標が残っていないと判断した場合には、オプティカルフロー計算手段106は、保持しているオプティカルフローを、オプティカルフロー出力手段107に対して出力する(ステップS410)。オプティカルフロー出力手段107は、入力されたオプティカルフローを領域検出手段108に出力する。領域検出手段108は、入力されたオプティカルフローにもとづいて、同一の物体の像を含むと考えられる領域を抽出する(ステップS411)。
【0053】
次に、走行中の車両の後方を撮影して得られた動画像を例に、この実施の形態の動作について説明する。図2は、そのようにして得られた動画像の画像フレームである。
【0054】
図7は、具体例を用いてこの実施の形態の動作を説明するフローチャートである。画像入力装置110は、例えば、道路を走行中の車両から後方を、256階調の白黒画像で撮影する(ステップS501)。画像入力装置110は、撮影した動画像(道路画像)を画像フレーム毎に画像蓄積手段101および処理対象座標設定手段102に入力する。画像蓄積手段101は、入力された道路画像を過去フレームとして蓄積する(ステップS502)。処理対象座標設定手段102は、まず、オプティカルフローの検出を行う領域を定める。ここでは、図4に示すラインLpから下の領域をオプティカルフローの検出を行う領域と特定したとする。処理対象座標設定手段102は、例えば、y座標値が所定値以下である領域を除外することによってラインLpを定めたり、利用者から指定を受けることによってラインLpを定めたりする。
【0055】
処理対象座標設定手段102は、オプティカルフローを検出する領域に含まれる座標の全てについてオプティカルフローを検出する処理を行ったか否かを判断する(ステップS503)。オプティカルフローを検出するべき処理対象座標が残っていると判断した場合には、処理対象座標設定手段102は、動画像中のオプティカルフローを検出する座標を設定する(ステップS504)。すなわち、処理済みの座標の次の座標を処理対象座標とする。なお、オプティカルフローを検出する処理対象座標として、Lpの下の領域について、左上端から右下端までラスタスキャンの方向の順に座標が設定される。
【0056】
距離計測装置300は、処理対象座標に対応する実距離を計測する(ステップS505)。そして、例えば30mを閾値として、撮影位置と物体との間の距離が30m未満であった場合には、現在時刻の画像フレームから1つ前の過去画像フレームを用いてオプティカルフローの検出を行い、撮影位置と物体との間の距離が30m以上であった場合には、現在時刻の画像フレームから2つ前の過去画像フレームを用いてオプティカルフローの検出を行うことに決定する(ステップS506、507、508)。なお、キーボードやマウス等の入力手段を介して、利用者による距離の閾値の入力を受け付けてもよい。
【0057】
現在時刻の画像フレームから1つ前の過去画像フレームを用いてオプティカルフローの検出を行う場合、対応点探索手段105が、現在時刻の画像フレームから1つ前の過去画像フレームにおける対応点の検出を行う(ステップS509)。そして、検出した対応点の位置の情報をオプティカルフロー計算手段106に出力する。オプティカルフロー計算手段106は、現在時刻の画像フレームにおけるオプティカルフローを検出する処理の対象とする座標と、対応点の座標との差のベクトルをオプティカルフローとする(ステップS511)。
【0058】
現在時刻の画像フレームから2つ前の過去画像フレームを用いてオプティカルフローの検出を行う場合、対応点探索手段105が、現在時刻の画像フレームから2つ前の過去画像フレームにおける対応点の検出を行う(ステップS510)。そして、検出した対応点の位置の情報をオプティカルフロー計算手段106に出力する。オプティカルフロー計算手段106は、現在時刻の画像フレームにおけるオプティカルフローを検出する処理の対象とする座標と、対応点の座標との差のベクトルに1/2を乗じたものをオプティカルフローとする(ステップS512)。
【0059】
オプティカルフロー計算手段106は、算出したオプティカルフローを保持する(ステップS513)。そして、処理対象座標設定手段102は、オプティカルフローを検出する領域に含まれる座標の全てに、オプティカルフローを検出する処理を行ったか否かを判断する(ステップS503)。処理対象座標設定手段102がオプティカルフローを検出するべき座標が残っていないと判断した場合には、オプティカルフロー計算手段106は、保持しているオプティカルフローを、オプティカルフロー出力手段107を介して領域検出手段108に出力する(ステップS514)。
【0060】
領域検出手段108は、オプティカルフローが撮影している車両に近づく方向を持つ画素の領域を、追い抜き車両の領域として表示手段等に出力する(ステップS515)。このとき、追い抜き車両の領域を監視したり、追跡したりしてもよい。
【0061】
この実施の形態によれば、画像に含まれる物体との距離に応じてオプティカルフローの検出に用いる過去画像フレームを選択するため、オプティカルフローが小さいと考えられる距離の遠い物体の座標のオプティカルフローの検出には時間間隔の大きい過去画像フレームを選択することにより、高精度にオプティカルフローを検出することができる。また、オプティカルフローが大きいと考えられる距離の近い物体の座標のオプティカルフローの検出には時間間隔の小さい過去画像フレームを選択することにより、対応点を探索する領域を狭められ、高速にオプティカルフローを検出することができる。
【0062】
また、この実施の形態によれば、画像に含まれる物体との距離に応じてオプティカルフローの検出に用いる過去画像フレームを選択するため、事前にオプティカルフローの大きさの予測をする必要が無く、オプティカルフローの大きさの予測が困難な場合にも適用することができる。
【0063】
【発明の効果】
以上のように、本発明によれば、オプティカルフローの検出に用いる過去の画像フレームを、オプティカルフローの大きさに対応する数値である評価量にもとづいて決定しているため、大きさの小さなオプティカルフローを高精度に、かつ、高速に検出することができる効果がある。
【図面の簡単な説明】
【図1】 本発明の第1の実施の形態を示すブロック図である。
【図2】 画像入力装置に入力された動画像の画像フレームの一例を示す図である。
【図3】 本発明の第1の実施の形態の動作を説明するフローチャートである。
【図4】 本発明の対応点探索手段の動作を説明するフローチャートである。
【図5】 具体例を用いて第1の実施の形態の動作を説明するフローチャートである。
【図6】 本発明の第2の実施の形態を示すブロック図である。
【図7】 本発明の第2の実施の形態の動作を説明するフローチャートである。
【図8】 具体例を用いて第2の実施の形態の動作を説明するフローチャートである。
【符号の説明】
100 コンピュータ
101 画像蓄積手段
102 処理対象座標設定手段
103 評価量計算手段
104 過去フレーム選択手段
105 対応点探索手段
106 オプティカルフロー計算手段
107 オプティカルフロー出力手段
108 領域検出手段
110 画像入力装置
300 距離計測装置[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an optical flow detection system, a detection method, and a detection program for detecting an optical flow that is a vector indicating a motion of an object or a pixel in a moving image.
[0002]
[Prior art]
2. Description of the Related Art In recent years, methods have been proposed for grasping movements of surrounding objects such as a vehicle in which an imaging device is installed from an image taken by the imaging device. In this method, the movement of an object being captured is grasped by measuring an optical flow between frames of a moving image.
[0003]
The optical flow is obtained by using a feature matching method (pattern matching), a spatiotemporal gradient method, or the like for each frame of an image.
[0004]
If the optical flow is too small and high-precision detection is difficult because the time interval between the current time image frame and the past image frame is too short, the past image frame with a long time interval from the current time There has been proposed a method capable of detecting an optical flow with high accuracy by using an image frame at the current time (see, for example, Patent Document 1).
[0005]
[Patent Document 1]
JP 2003-44861 A (page 4-7, FIG. 1)
[0006]
[Problems to be solved by the invention]
However, in the method described in Patent Document 1, in order to detect an optical flow having a small size with high accuracy, an optical frame is used by using a plurality of past image frames having different time intervals from the current frame for each coordinate. Detect the flow. Therefore, there is a problem that the amount of data processing for detecting an optical flow is large.
[0007]
Therefore, an object of the present invention is to provide an optical flow detection system, a detection method, and a detection program capable of detecting a small-sized optical flow with high accuracy with a small amount of data processing.
[0008]
[Means for Solving the Problems]
An optical flow detection system according to the present invention includes an image storage unit that stores a plurality of past frames, and an evaluation amount that is a numerical value corresponding to the magnitude of the optical flow. For each pixel in the screen Based on the evaluation amount calculation means to be calculated and the evaluation amount calculated by the evaluation amount calculation means, which of the past frames stored in the image storage means is to be used. For each pixel in the screen And a past frame selecting means for determining.
[0009]
The evaluation amount calculation means may calculate an evaluation amount corresponding to the magnitude of the optical flow based on the coordinate position of the object on the image frame. According to such a configuration, it is possible to identify a past image frame used for optical flow detection based on information obtained from the image frame, so that the optical flow can be performed without complicating the configuration of the optical flow detection system. Can be detected.
[0010]
The evaluation amount calculated by the evaluation amount calculation means may be a vertical coordinate value in the image frame of the object. In an image frame such as a road image, the upper object is considered to be a distant object, so the optical flow is considered to be small, and the lower object is considered to be a nearby object, so the optical flow is considered to be large. Therefore, in an image frame such as a road image, the evaluation amount can be calculated using information that can be easily acquired, such as a vertical coordinate value.
[0011]
The evaluation amount calculation means may calculate an evaluation amount corresponding to the magnitude of the optical flow based on the magnitude of the optical flow detected in the past. According to such a configuration, it is not necessary to newly extract an evaluation amount from the image frame, and thus the evaluation amount can be calculated at a higher speed.
[0012]
According to another aspect of the present invention, there is provided an optical flow detection system comprising: an image storage unit that stores a plurality of past frames; an object that appears in a current frame; Shooting position and The distance between For each pixel in the screen Based on the distance measurement means to be measured and the distance measured by the distance measurement means, which past frame of the past frames stored in the image storage means is to be used is determined. For each pixel in the screen And a past frame selecting means for determining. According to such a configuration, the object included in the image and Shooting position and In order to calculate the evaluation amount based on the distance of the optical flow, by selecting a past image frame having a long time interval with the current time for detecting the optical flow of the coordinates of a distant object whose optical flow is considered to be small, Optical flow can be detected with high accuracy. In addition, for detection of the optical flow of the coordinates of an object with a close distance where the optical flow is considered to be large, by selecting a past image frame with a short time interval from the current time, the region for searching for the corresponding point is set to the current time. It is narrowed around the position of the object in the image frame, and the optical flow can be detected at high speed.
[0013]
An area detecting unit that detects an area of an object on the image based on the detected optical flow may be provided. According to such a configuration, it is possible to monitor or track an object moving on the image.
[0014]
The input moving image may be an image obtained by photographing the outside from a running vehicle, and the area detection unit may detect another vehicle or an obstacle. According to such a configuration, it is possible to extract a region of an object moving on the image. For example, when a region of another vehicle is extracted from a moving image captured by a traveling vehicle, the driver of the vehicle It is possible to prevent a collision by giving a warning or the like.
[0015]
DETAILED DESCRIPTION OF THE INVENTION
Embodiment 1 FIG.
FIG. 1 is a block diagram showing a first embodiment of an image area detection system including an optical flow detection system according to the present invention. The image region detection system shown in FIG. 1 includes an
[0016]
The image
[0017]
In the configuration shown in FIG. 1, the optical flow detection system corresponds to a portion excluding the optical flow output means 107 and the area detection means 108 in the image
[0018]
That is, the processing target coordinate setting
[0019]
The
[0020]
The evaluation
[0021]
In addition, as another example of the evaluation amount, the coordinates for detecting the optical flow or the size of the optical flow calculated in the past around the coordinates may be used as the evaluation amount, or the user of the optical flow detection system in advance. The user may set the evaluation amount based on knowledge, or a new evaluation amount may be calculated by combining the evaluation amounts obtained by these methods. The evaluation amount is not limited to the amount obtained by the method described above, and may be an amount related to the size of the optical flow. The evaluation
[0022]
Based on the evaluation amount, the past
[0023]
Corresponding point search means 105 identifies corresponding points that are the coordinates of the past image frame corresponding to the coordinates for detecting the optical flow of the current frame, and outputs information on the position of the identified corresponding points to optical flow calculation means 106. A method for identifying the corresponding points will be described later.
[0024]
The optical flow calculation means 106 calculates the optical flow based on the coordinates for detecting the optical flow, the coordinates of the corresponding points, and the time interval that is the difference between the time when the current frame was taken and the time when the past image frame was taken. To do. The optical flow is calculated as a quotient obtained by dividing the vector of the difference between the coordinates for detecting the optical flow and the corresponding point by the time interval. Then, the optical
[0025]
Next, the operation of this embodiment will be described. FIG. 3 is a flowchart for explaining the operation of this embodiment.
[0026]
The moving image input for each image frame from the
[0027]
Based on the evaluation amount, the past
[0028]
Then, the processing target coordinate setting
[0029]
The operation when the corresponding
[0030]
FIG. 4 is a flowchart for explaining the operation when the corresponding point searching means 105 specifies a specific point. Corresponding point search means 105 extracts brightness and image density that are pixel values around the processing target coordinates for detecting the optical flow in the current frame (for example, a rectangular area of 5 pixels in the vertical and horizontal directions centering on the processing target coordinates). (Step S201). Next, an appropriate value is set as the minimum SAD (step S202). The minimum SAD set here is a relatively large value. For example, depending on the type of image (color image or binary image) and gradation, generally, the smaller the value, the higher the degree of similarity. It is set to a value larger than the value determined as.
[0031]
Corresponding point search means 105 determines whether corresponding points have been searched for all pixels in a predetermined search range (step S203). The search range is, for example, a range of 31 pixels in the past image frame centered on the same coordinates as the processing target coordinates in the current frame. However, this range is merely an example, and an appropriate value is set according to the situation such as the resolution of the image. If there is a pixel that has not been determined whether or not it is a corresponding point in the search range, the corresponding point search means 105 will be used as processing target coordinates (corresponding point candidate coordinates) in the past image frame. The next coordinate after the processed coordinate is set (step S204). The search is executed in the raster scan direction from the upper left end in the search range, for example, and after the process in step S202, for example, the coordinates of the pixel immediately before the upper left end in the search range are set as the corresponding point candidate coordinates. Then, the corresponding
[0032]
The corresponding
[0033]
Then, the corresponding
[0034]
Next, the operation of this embodiment will be described by taking as an example a moving image obtained by photographing the rear side of the traveling vehicle. FIG. 2 shows one of the image frames of the moving image thus obtained. Here, when shooting the back of a running vehicle, the optical flow of the landscape portion of the image is away from the shooting position, whereas the optical flow of the portion of the vehicle that overtakes the shooting vehicle is This is the direction approaching the shooting position. In addition, the object in the upper portion of the road portion in the image is considered to be a distant object, and the size of the optical flow is considered to be small. And the object of the image of the lower part among the road parts in an image is considered to be an object in the vicinity of the photographing position, and the magnitude of the optical flow is considered to increase. Using these properties, a passing vehicle is detected and corresponding points are searched.
[0035]
FIG. 5 is a flowchart for explaining the operation of this embodiment using a specific example. For example, the
[0036]
The processing target coordinate setting
[0037]
The evaluation
[0038]
When the optical flow is detected using the previous image frame immediately before the image frame at the current time, the corresponding
[0039]
When the optical flow is detected using the past image frame two previous from the image frame at the current time, the corresponding point searching means 105 detects the corresponding point in the past image frame two previous from the current frame (step S310). Then, information on the position of the detected corresponding point is output to the optical flow calculation means 106. The optical flow calculation means 106 sets the optical flow by multiplying a vector of the difference between the coordinates of the process for detecting the optical flow in the current frame and the coordinates of the corresponding points by 1/2 (step S312). When a past frame n frames before is used, the difference vector is (1 / n) to obtain an optical flow.
[0040]
The optical
[0041]
The area detection means 108 can extract an area of pixels having an optical flow in a direction approaching the vehicle on which the image
[0042]
According to this embodiment, since the past image frame for searching for the corresponding point is selected according to each coordinate in the image frame, a pixel with a small optical flow has a long time interval from the current time. By selecting an image frame, it is possible to detect an optical flow with high accuracy, and by selecting a past image frame with a short time interval for pixels with a large optical flow, a region for searching for corresponding points can be narrowed. Optical flow can be detected at high speed.
[0043]
In this embodiment, the case where the past image frame one before the current frame is used and the case where the past image frame two times before the current frame is used are divided into two cases. The past image frames may be used in more cases by using three or more past image frames.
[0044]
In this embodiment, the area detection unit 108 can detect an area where another vehicle exists based on the optical flow. For example, a vehicle on which the image
[0045]
Furthermore, in this embodiment, since the case where a road image is input is taken as an example, the y coordinate value is used as the evaluation amount. However, the evaluation amount is not limited to the y coordinate value, and the magnitude of the optical flow is not limited. Other amounts may be used as long as they are related to the length. For example, the coordinates for detecting the optical flow or the optical flow size calculated in the past around the coordinates may be used as the evaluation amount, or the evaluation is performed by the user based on the prior knowledge of the user of the optical flow detection system. The amount may be set, or a new evaluation amount may be calculated by combining the evaluation amounts obtained by these methods.
[0046]
Embodiment 2. FIG.
FIG. 6 is a block diagram showing a second embodiment of an image area detection system including an optical flow detection system according to the present invention. The image region detection system shown in FIG. 6 includes an
[0047]
The
[0048]
Next, the operation of this embodiment will be described. FIG. 7 is a flowchart for explaining the operation of this embodiment.
[0049]
A moving image input from the
[0050]
The
[0051]
The past
[0052]
Then, the processing target coordinate setting
[0053]
Next, the operation of this embodiment will be described by taking as an example a moving image obtained by photographing the rear side of the traveling vehicle. FIG. 2 is an image frame of a moving image obtained in this way.
[0054]
FIG. 7 is a flowchart for explaining the operation of this embodiment using a specific example. For example, the
[0055]
The processing target coordinate setting
[0056]
The
[0057]
When the optical flow is detected using the previous image frame immediately before the image frame at the current time, the corresponding
[0058]
When the optical flow is detected using the past image frame two previous from the image frame at the current time, the corresponding
[0059]
The optical
[0060]
The area detection means 108 outputs the area of the pixel having the direction in which the optical flow approaches the vehicle being photographed to the display means or the like as the area of the overtaking vehicle (step S515). At this time, the area of the overtaking vehicle may be monitored or tracked.
[0061]
According to this embodiment, since the past image frame used for optical flow detection is selected according to the distance to the object included in the image, the optical flow of the coordinates of the object at a distant distance where the optical flow is considered to be small is selected. For detection, an optical flow can be detected with high accuracy by selecting a past image frame having a large time interval. In addition, for detecting the optical flow of the coordinates of an object that is considered to have a large optical flow, by selecting a past image frame with a small time interval, the search area for the corresponding points can be narrowed, and the optical flow can be performed at high speed. Can be detected.
[0062]
Further, according to this embodiment, since the past image frame used for optical flow detection is selected according to the distance from the object included in the image, there is no need to predict the size of the optical flow in advance. The present invention can also be applied when it is difficult to predict the size of the optical flow.
[0063]
【The invention's effect】
As described above, according to the present invention, a past image frame used for optical flow detection is determined based on an evaluation amount that is a numerical value corresponding to the magnitude of the optical flow. There is an effect that the flow can be detected with high accuracy and at high speed.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a first embodiment of the present invention.
FIG. 2 is a diagram illustrating an example of an image frame of a moving image input to the image input device.
FIG. 3 is a flowchart for explaining the operation of the first exemplary embodiment of the present invention.
FIG. 4 is a flowchart for explaining the operation of corresponding point search means of the present invention.
FIG. 5 is a flowchart for explaining the operation of the first exemplary embodiment using a specific example;
FIG. 6 is a block diagram showing a second embodiment of the present invention.
FIG. 7 is a flowchart illustrating the operation of the second exemplary embodiment of the present invention.
FIG. 8 is a flowchart for explaining the operation of the second exemplary embodiment using a specific example;
[Explanation of symbols]
100 computers
101 Image storage means
102 processing target coordinate setting means
103 Evaluation amount calculation means
104 Past frame selection means
105 Corresponding point search means
106 Optical flow calculation means
107 Optical flow output means
108 Area detection means
110 Image input device
300 Distance measuring device
Claims (11)
複数の過去フレームを記憶する画像蓄積手段と、
オプティカルフローの大きさに対応する数値である評価量を画面内の画素毎に算出する評価量計算手段と、
前記評価量計算手段が算出した前記評価量にもとづいて、前記画像蓄積手段に記憶されている過去フレームのうちいずれの過去フレームを用いるのかを画面内の画素毎に決定する過去フレーム選択手段と
を備えたことを特徴とするオプティカルフロー検出システム。An optical flow detection system that detects an optical flow using a current frame and a past frame in an input moving image,
Image storage means for storing a plurality of past frames;
An evaluation amount calculation means for calculating an evaluation amount that is a numerical value corresponding to the magnitude of the optical flow for each pixel in the screen ;
Past frame selection means for determining, for each pixel in the screen, which past frame of the past frames stored in the image storage means is to be used based on the evaluation amount calculated by the evaluation amount calculation means. An optical flow detection system characterized by comprising.
請求項1に記載のオプティカルフロー検出システム。The optical flow detection system according to claim 1, wherein the evaluation amount calculation unit calculates an evaluation amount corresponding to the magnitude of the optical flow based on the coordinate position of the object on the image frame.
請求項2に記載のオプティカルフロー検出システム。The optical flow detection system according to claim 2, wherein the evaluation amount calculated by the evaluation amount calculation means is a vertical coordinate value in the image frame of the object.
請求項1に記載のオプティカルフロー検出システム。The optical flow detection system according to claim 1, wherein the evaluation amount calculation unit calculates an evaluation amount corresponding to the magnitude of the optical flow based on the magnitude of the optical flow detected in the past.
複数の過去フレームを記憶する画像蓄積手段と、
現フレームに現れる物体と撮影位置との間の距離を画面内の画素毎に計測する距離計測手段と、
前記距離計測手段が計測した距離にもとづいて、前記画像蓄積手段に記憶されている過去フレームのうちいずれの過去フレームを用いるのかを画面内の画素毎に決定する過去フレーム選択手段と
を備えたことを特徴とするオプティカルフロー検出システム。An optical flow detection system that detects an optical flow using a current frame and a past frame in an input moving image,
Image storage means for storing a plurality of past frames;
Distance measuring means for measuring the distance between the object appearing in the current frame and the shooting position for each pixel in the screen ;
Past frame selection means for determining, for each pixel in the screen, which past frame of the past frames stored in the image storage means is to be used based on the distance measured by the distance measurement means. Optical flow detection system.
請求項1から請求項5のうちいずれか1項に記載のオプティカルフロー検出システム。The optical flow detection system according to any one of claims 1 to 5, further comprising region detection means for detecting a region of an object on an image based on the detected optical flow.
領域検出手段は、他の車両または障害物を検出する
請求項6に記載のオプティカルフロー検出システム。The input moving image is an image of the outside taken from a running vehicle,
The optical flow detection system according to claim 6, wherein the area detection unit detects another vehicle or an obstacle.
複数の過去フレームを記憶し、
オプティカルフローの大きさに対応する数値である評価量を画面内の画素毎に算出し、
算出した前記評価量にもとづいて、記憶されている過去フレームのうちいずれの過去フレームを用いるのかを画面内の画素毎に決定する
ことを特徴とするオプティカルフロー検出方法。An optical flow detection method for detecting an optical flow using a current frame and a past frame in an input moving image,
Memorize multiple past frames,
Calculate the evaluation value, which is a numerical value corresponding to the size of the optical flow, for each pixel in the screen ,
An optical flow detection method, wherein, based on the calculated evaluation amount, which past frame of stored past frames is used is determined for each pixel in the screen .
複数の過去フレームを記憶し、
現フレームに現れる物体と撮影位置との間の距離を画面内の画素毎に計測し、
計測した距離にもとづいて、記憶されている過去フレームのうちいずれの過去フレームを用いるのかを画面内の画素毎に決定する
ことを特徴とするオプティカルフロー検出方法。An optical flow detection method for detecting an optical flow using a current frame and a past frame in an input moving image,
Memorize multiple past frames,
Measure the distance between the object appearing in the current frame and the shooting position for each pixel in the screen ,
An optical flow detection method , comprising: determining, based on a measured distance, which past frame among stored past frames is to be used for each pixel in a screen .
コンピュータに、
複数の過去フレームを記憶させる処理と、
オプティカルフローの大きさに対応する数値である評価量を画面内の画素毎に算出する処理と、
算出した前記評価量にもとづいて、記憶されている過去フレームのうちいずれの過去フレームを用いるのかを画面内の画素毎に決定する処理とを実行させる
オプティカルフロー検出プログラム。An optical flow program for executing processing for detecting an optical flow using a current frame and a past frame in an input moving image,
On the computer,
A process of storing a plurality of past frames;
Processing for calculating an evaluation amount, which is a numerical value corresponding to the size of the optical flow, for each pixel in the screen ;
An optical flow detection program for executing processing for determining, for each pixel in a screen, which past frame of stored past frames is to be used based on the calculated evaluation amount.
コンピュータに、
複数の過去フレームを記憶させる処理と、
現フレームに現れる物体と撮影位置との間の距離を画面内の画素毎に計測させる処理と、
計測された距離にもとづいて、記憶されている過去フレームのうちいずれの過去フレームを用いるのかを画面内の画素毎に決定する処理とを実行させる
オプティカルフロー検出プログラム。An optical flow program for executing processing for detecting an optical flow using a current frame and a past frame in an input moving image,
On the computer,
A process of storing a plurality of past frames;
Processing to measure the distance between the object appearing in the current frame and the shooting position for each pixel in the screen ;
An optical flow detection program that executes a process of determining, for each pixel in a screen, which past frame of stored past frames is to be used based on a measured distance.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003148765A JP4269781B2 (en) | 2003-05-27 | 2003-05-27 | Optical flow detection system, detection method and detection program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003148765A JP4269781B2 (en) | 2003-05-27 | 2003-05-27 | Optical flow detection system, detection method and detection program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004355082A JP2004355082A (en) | 2004-12-16 |
JP4269781B2 true JP4269781B2 (en) | 2009-05-27 |
Family
ID=34045049
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003148765A Expired - Fee Related JP4269781B2 (en) | 2003-05-27 | 2003-05-27 | Optical flow detection system, detection method and detection program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4269781B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4847779B2 (en) * | 2006-04-13 | 2011-12-28 | 株式会社日立製作所 | In-vehicle information processing method, in-vehicle information processing program, in-vehicle information processing apparatus, and in-vehicle information processing system |
US8509480B2 (en) | 2007-03-22 | 2013-08-13 | Nec Corporation | Mobile detector, mobile detecting program, and mobile detecting method |
JP2010204805A (en) * | 2009-03-02 | 2010-09-16 | Konica Minolta Holdings Inc | Periphery-monitoring device and method |
JP5353455B2 (en) * | 2009-06-09 | 2013-11-27 | コニカミノルタ株式会社 | Perimeter monitoring device |
DE102018221617A1 (en) | 2018-12-13 | 2020-06-18 | Robert Bosch Gmbh | Method for determining a relative movement using a digital image sequence |
-
2003
- 2003-05-27 JP JP2003148765A patent/JP4269781B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2004355082A (en) | 2004-12-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6700752B2 (en) | Position detecting device, position detecting method and program | |
US7769227B2 (en) | Object detector | |
KR920001616B1 (en) | Method and apparatus for detecting objects | |
EP0878965A2 (en) | Method for tracking entering object and apparatus for tracking and monitoring entering object | |
GB2557465A (en) | Method for calibrating a camera and calibration system | |
EP3104329A1 (en) | Image processing device and image processing method | |
JP6566768B2 (en) | Information processing apparatus, information processing method, and program | |
JP2006105661A (en) | Method for estimating plane by stereo image | |
JP3388087B2 (en) | Object detection device | |
JPH09226490A (en) | Detector for crossing object | |
KR20140056790A (en) | Apparatus for image recognition and method thereof | |
JP2016004446A (en) | Motion estimation device | |
CN116778094B (en) | Building deformation monitoring method and device based on optimal viewing angle shooting | |
JP2006226965A (en) | Image processing system, computer program and image processing method | |
CN111382637A (en) | Pedestrian detection tracking method, device, terminal equipment and medium | |
JP2019029935A (en) | Image processing system and control method thereof | |
JP2001351193A (en) | Device for detecting passenger | |
JP2800530B2 (en) | Inter-vehicle distance detection device | |
JP3988574B2 (en) | Image processing device | |
JPH1144533A (en) | Preceding vehicle detector | |
JP4269781B2 (en) | Optical flow detection system, detection method and detection program | |
JP6602286B2 (en) | Image processing apparatus, image processing method, and program | |
CN111368883A (en) | Obstacle avoidance method based on monocular camera, computing device and storage device | |
JP3994954B2 (en) | Object detection apparatus and object detection method | |
JP2005084012A (en) | Skin shape measuring method and skin shape measuring device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20051117 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20051117 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051213 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20081028 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081104 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090203 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090216 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120306 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4269781 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120306 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130306 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130306 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140306 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |