JP3626210B2 - 動画像に基づくカメラの3次元運動検出方法およびその装置 - Google Patents
動画像に基づくカメラの3次元運動検出方法およびその装置 Download PDFInfo
- Publication number
- JP3626210B2 JP3626210B2 JP29931991A JP29931991A JP3626210B2 JP 3626210 B2 JP3626210 B2 JP 3626210B2 JP 29931991 A JP29931991 A JP 29931991A JP 29931991 A JP29931991 A JP 29931991A JP 3626210 B2 JP3626210 B2 JP 3626210B2
- Authority
- JP
- Japan
- Prior art keywords
- angle
- camera
- pitching
- yawing
- calculated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
【産業上の利用分野】
この発明は動画像に基づくカメラの3次元運動検出方法およびその装置に関し、さらに詳細にいえば、ビディオカメラ等により動画像を撮影した場合に、得られた動画像に基づいてビディオカメラ等の運動量を検出するための方法およびその装置に関する。
【0002】
【従来の技術】
従来から、時々刻々と変化する画像を対象とする動画像処理、動画像解析をコンピュータを用いて行なうことが各種の分野で盛んになってきつつある。
この動画像は静止画像と異なり、画像がある速度で移動するという特質を持っているため、動画像上の見かけの速度であるオプティカル・フローを算出することが動画像処理、動画像解析のために必須となる。そして、オプティカル・フローを算出するための方法として、時空間微分フィルタを用いる方法および特徴点を用いる方法が知られている。また、これらの方法により算出されたオプティカル・フローに基づいてビディオカメラ等の3次元運動量を算出する方法が知られている。
【0003】
この3次元運動量算出方法を簡単に説明する。但し、原点をビディオカメラ等のレンズの中心とし、Z軸方向を視線方向としている。
基準位置において図9(A1)に示す画像が得られている場合において、ビディオカメラがZ軸方向に前進すれば図9(A2)に示すように画像中の対象物のサイズが均等に大きくなるとともに対象物同士の間隔が均等に拡がる。またZ軸に対して所定の角度でビディオカメラが前進すれば図9(A3)に示すように画像中の対象物のサイズが不均等に大きくなるとともに対象物同士の間隔が不均等に拡がる。さらにビディオカメラ等がY軸を中心として回転すれば図9(A4)に示すように画像中の対象物のサイズは変化せず、対象物同士の間隔も変化しない。
【0004】
したがって、ビディオカメラ等の運動と画像中の対象物の移動との上記関係を考慮すれば、オプティカル・フローに基づいてビディオカメラ等の3次元運動量を算出できる。具体的には、図10に示すように、XY平面に平行に原点から距離Fのところに画像面をとれば、点P(X,Y,Z)と画像面の投影像点p(x,y)との関係は、
(x,y)=(XF/Z,YF/Z)
となる。ここでビディオカメラ等を固定し、点pの運動が平行移動成分のみであると仮定すれば、時間tだけ経過した時点の位置P´(X´,Y´,Z´)の投影像点p´(x´,y´)は数1となる。
【0005】
【数1】
【0006】
但し、Uはx軸方向の移動速度、VはY軸方向の移動速度、WはZ軸方向の移動速度である。
また、点Pがビディオカメラ等から遠ざかって行けば、ついには点になり画面から消え去ってしまう。この点P∞は数1のtを∞とすれば数2となる。
【0007】
【数2】
【0008】
したがって、点Pの位置とは無関係に運動方向によって定まる、投影面のある1点に収束する(図9(A2)(A3)中P∞参照)。即ち、点P∞を算出できれば、ビディオカメラ等に対するシーンの速度比(U/W,V/W)が得られる。また、既知の点が存在すれば、数2で得られる速度比を数1に代入して平行移動成分を一意に決定できる。
【0009】
また、点Pの動きが回転成分α,β,γだけの場合には、画面上での速度成分が画面上の位置によって唯一に定まり、数3のとおりになる。
【0010】
【数3】
【0011】
動画像に基づいて算出されるオプティカル・フローはこれら平行移動成分および回転成分の和であるから、複数の点に基づいてそれぞれオプティカル・フローを得ておくことにより、ビディオカメラ等の運動量を算出する。
【0012】
【発明が解決しようとする課題】
上述のビディオカメラ等の運動量算出方法は誤差を含まない理想的なオプティカル・フローが得られた場合に有効であっても、実際に動画像に基づいて算出したオプティカル・フローに適用することは殆ど不可能であるという不都合がある。さらに詳細に説明すると、ビディオカメラ等により得られた動画像は量子化誤差等を含んでいる関係上、オプティカル・フローを算出するための基準点および基準点に対応する点の位置が必然的に誤差を含むことになる。この場合には、数1から数3を充足しなくなるのであるから、これらの式を充足することを前提とする上記方法によりビディオカメラ等の運動量を算出することは殆ど不可能になってしまう。
【0013】
この不都合を解消すべく本願発明者らはビディオカメラ等のローリングを完全に防止できると仮定するとともに(γ=0)、点P∞の近傍を推定し、その点のオプティカル・フローに基づいて先ず回転成分α,βを決定し、次いで、決定された回転成分に基づく補正を行なうことにより平行移動成分を算出する方法を考えた。
【0014】
しかし、ビディオカメラ等のローリングを完全に防止できる状況は非常に特殊であり、一般的にはこのような状況は存在しないのであるから、回転成分の算出精度が低下し、しかも回転成分に基づく補正結果を用いて算出される平行移動成分の算出精度も低下してしまうという不都合がある。
この結果、例えば、ビディオカメラ等の3次元運動量を考慮して動画像に他のモデル図形等を合成する場合に合成画像の品質を余り高めることができないのみならず、ビディオカメラ等の3次元運動量を考慮して動画像のブレを除去する場合に十分なブレ除去効果を達成できないという不都合がある。
【0015】
【発明の目的】
この発明は上記の問題点に鑑みてなされたものであり、ビディオカメラ等により得られた動画像に基づいてビディオカメラ等の3次元運動を高精度に検出できる、動画像に基づくカメラの3次元運動検出方法およびその装置を提供することを目的としている。
【0016】
【課題を解決するための手段】
上記の目的を達成するための、請求項1の動画像に基づくカメラの3次元運動検出方法は、動画像の基準フレームと参照フレームとに基づいて、参照フレームを画像中心に関して画面内において順次所定角度ずつ回転させて対応するオプティカル・フローを算出し、カメラから遠距離にある特徴点に基づいてカメラのピッチング角度およびヨーイング角度を算出し、算出されたピッチング角度およびヨーイング角度に基づいて参照フレームの特徴点を補正してカメラの平行移動成分を算出し、少なくとも算出されたピッチング角度およびヨーイング角度に基づく補正が施された特徴点に基づいてオプティカル・フローの収束度を算出し、オプティカル・フローの収束度が最大になる回転角度をローリング角度として選択するとともに、対応するピッチング角度、ヨーイング角度および平行移動成分を選択する方法である。
【0017】
請求項2の動画像に基づくカメラの3次元運動検出装置は、動画像の基準フレームと参照フレームとに基づいて、参照フレームの特徴点を画像中心に関して画面内において順次所定角度ずつ回転させて対応するオプティカル・フローを算出する回転処理手段と、カメラから遠距離にある特徴点に基づいてカメラのピッチング角度およびヨーイング角度を算出するピッチング・ヨーイング角度算出手段と、算出されたピッチング角度およびヨーイング角度に基づいて参照フレームの特徴点を補正してカメラの平行移動成分を算出する平行移動成分算出手段と、少なくともピッチング角度およびヨーイング角度に基づく補正が施された特徴点に基づいて収束度を算出する収束度算出手段と、収束度が最大の回転角度、収束度が最大の回転角度に対応するピッチング角度、ヨーイング角度および平行移動成分をカメラの3次元運動の各成分として選択する選択手段とを含んでいる。
【0018】
【作用】
請求項1の動画像に基づくカメラの3次元運動検出方法であれば、動画像の基準フレームと参照フレームとに基づいて、参照フレームの特徴点を画像中心に関して画面内において順次所定角度ずつ回転させて対応するオプティカル・フローを算出し、カメラから遠距離にある特徴点に基づいてカメラのピッチング角度およびヨーイング角度を算出し、算出されたピッチング角度およびヨーイング角度に基づいて第2参照フレームの特徴点を補正してカメラの平行移動成分を算出する。即ち、ビディオカメラ等により実際に得られた動画像に基づいて得られるオプティカル・フローが一般的に誤差を含んでおり、理論どおりの適用が不可能であるにも拘らず、仮のローリング角度を先ず選択し、次いで選択されたローリング角度に基づく補正が施された画像のうち遠距離にある特徴点に基づいて仮のピッチング角度およびヨーイング角度を算出し、最後に仮の平行移動成分を算出する。そして、少なくともピッチング角度およびヨーイング角度による補正が施された特徴点に基づいて複数のオプティカル・フローを算出し、順次算出される複数のオプティカル・フローの収束度を算出し、オプティカル・フローが最大になる回転角度をローリング角度として選択するとともに、選択されたローリング角度に対応するピッチング角度、ヨーイング角度および平行移動成分を選択することによりカメラの3次元運動を高精度に検出できる。
【0019】
請求項2の動画像に基づくカメラの3次元運動検出装置であれば、動画像の基準フレームと参照フレームとに基づいて、回転処理手段により、参照フレームの特徴点を画像中心に関して画面内において順次所定角度ずつ回転させて対応するオプティカル・フローを算出し、カメラから遠距離にある特徴点に基づいてピッチング・ヨーイング角度算出手段によりカメラの仮のピッチング角度および仮のヨーイング角度を算出し、平行移動成分算出手段により、算出された仮のピッチング角度および仮のヨーイング角度に基づいて参照フレームの特徴点を補正してカメラの仮の平行移動成分を算出する。そして、少なくとも仮のピッチング角度および仮のヨーイング角度に基づく補正が施された特徴点に基づいて収束度算出手段により収束度を算出する。以上の一連の処理を所定角度範囲内において順次行なって、選択手段により、収束度が最大の回転角度、収束度が最大の回転角度に対応するピッチング角度、ヨーイング角度および平行移動成分をカメラの3次元運動の各成分として選択する。
したがって、ビディオカメラ等により実際に得られた動画像に基づいて得られるオプティカル・フローが一般的に誤差を含んでおり、理論どおりの適用が不可能であるにも拘らず、収束度が最大のローリング角度およびこのローリング角度に対応するピッチング角度、ヨーイング角度および平行移動成分を算出することによりカメラの3次元運動を高精度に検出できる。
【0020】
【実施例】
以下、実施例を示す添付図面によって詳細に説明する。
図1はこの発明の動画像に基づくカメラの3次元運動検出方法の一実施例を説明するフローチャートであり、ステップSP1において1の画像を基準画像として選択し、ステップSP2において基準画像の次の画像を参照画像として選択し、ステップSP3において基準画像および参照画像に基づいて複数のオプティカル・フローを算出し、ステップSP4においてローリングが生じているか否かを判別する。そして、ステップSP4においてローリングが生じていると判別された場合には、ステップSP5において第1参照画像中の特徴点を画面内において画面中心に関して所定角度だけ回転させ、ステップSP6において再びオプティカル・フローを算出し、ステップSP7において遠距離の特徴点のオプティカル・フローに基づいてピッチング角度およびヨーイング角度を算出し、ステップSP8において参照画像中の特徴点をさらにピッチング角度およびヨーイング角度に基づいて補正し、ステップSP9において再びオプティカル・フローを算出し、ステップSP10において複数の特徴点のオプティカル・フローに基づいて平行移動成分を算出し、ステップSP11において、少なくともピッチング角度およびヨーイング角度に基づいて補正が施された特徴点に基づくオブティカル・フローの収束度を例えば分散等に基づいて算出し、ステップSP12において予め設定された所定の限界角度まで特徴点の回転が行なわれたか否かを判別し、所定の限界角度に達していなければ再びステップSP5の処理を行なう。上記ステップSP12において所定の限界角度に達したと判別された場合には、ステップSP13において収束度が最大になる回転角度をローリング角度として選択するとともに、対応するピッチング角度、ヨーイング角度および平行移動成分をカメラの3次元運動の各成分として選択し、ステップSP14において全ての画像に基づく処理が行なわれたか否かを判別し、処理が行なわれていない画像が存在していると判別された場合には、ステップSP15において参照画像を新たな基準画像とし、再びステップSP2の処理を行なう。また、ステップSP14において全ての画像に基づく処理が行なわれたと判別された場合にはそのまま一連の処理を終了する。さらに、上記ステップSP4において複数のオプティカル・フローが1点に収束すると判別された場合には、回転の現在角度を回転限界角度に設定してステップSP7の処理を行なう。
【0021】
即ち、動画像に基づいて算出されたオプティカル・フローはそれ自体誤差を含んでおり、殆どの場合に1点に収束することはないのであるが、所定角度範囲内の各ローリング角度に対応してピッチング角度、ヨーイング角度および平行移動成分を算出しておき、例えば分散に基づいて最大の収束度に対応するローリング角度を選択し、選択されたローリング角度に対応するピッチング角度、ヨーイング角度および平行移動成分を選択するのであるから、最終的に高精度にビディオカメラ等の3次元運動量を検出できる。
【0022】
さらに詳細に説明すると、図2(A)に示すように、動画像中において例えば垂直な相対位置関係となるべき特徴点に基づいて両点を結ぶ線分が垂直であるか否かを判別することによりローリングが生じていないか、ローリングが生じているかを判別する。但し、全てのオプティカル・フローが1点に収束するか否かに基づいてローリングが生じていないか生じているかを判別するようにしてもよい。そして、ローリングが生じていると判別された場合には、図2(B)に示すように動画像に基づいて算出された複数のオプティカル・フロー同士の交点の分散を算出する。そして、予め設定した所定角度、例えば0.5°だけ参照画像中の特徴点を回転させ、回転された特徴点(平行移動によっては殆ど影響を受けない遠距離の特徴点)に基づくオプティカル・フロー(図2(C)参照)に基づいてピッチング角度およびヨーイング角度を算出し、さらにピッチング角度、ヨーイング角度に基づく補正が施された特徴点(比較的近距離の特徴点)により定まるオプティカル・フロー(図2(D)参照)に基づいて平行移動成分を算出する。また、得られたオプティカル・フローに基づいて分散を算出する。以下、回転角度が所定の限界角度に達するまで回転処理および分散算出処理を行ない、分散が最小となる回転角度を収束度が最大のローリング角度として選択する。また、少なくともピッチング角度およびヨーイング角度に基づく補正が施された特徴点により定まるオプティカル・フローに基づいて収束度を算出する。
【0023】
所定角度範囲内において上記一連の処理が反復された後は、収束度が最大になる回転角度をローリング角度として選択し、対応するピッチング角度、ヨーイング角度および平行移動成分を選択する。
したがって、以上のようにして選択されたローシング角度、ピッチング角度、ヨーイング角度および平行移動成分によりビディオカメラ等の3次元運動量を得ることができる。そして、ビディオカメラ等の3次元運動量が得られれば、コンピュータを用いて作成したモデル等を合成した合成画像を得ることができ、しかも合成画像のリアルさを著しく高めることができる。また、動画像がブレを含んでいる場合には、ビディオカメラ等の3次元運動量に基づく補正を施すことによりブレを除去することもできる。
【0024】
但し、ビディオカメラ等により撮影を行なう場合にローリングが全く生じない状態は殆ど存在しないのであるから、ステップSP4の判別を省略しても特に不都合は生じない。
図3は図1のフローチャートのステップSP3の処理を詳細に説明するフローチャートであり、ステップSP1において基準となる画像における所定の対象画像の少なくとも一部を含む所定領域を基準領域として設定し、ステップSP2において、設定された基準領域に含まれる全ての格子点の明度情報を算出し、ステップSP3において参照画像における、予め定められた広さの探索領域を設定し、ステップSP4において、基準領域と等しいサイズの候補領域を探索領域の中から選択し、ステップSP5において候補領域に含まれる全ての格子点の明度情報を算出し、ステップSP6において候補領域の各格子点の明度情報と基準領域の対応画素の明度情報との差の二乗の総和を算出し、ステップSP7において探索領域に含まれる全ての候補領域に対するステップSP5,SP6の処理が完了したか否かを判別し、完了していないと判別された場合には、再びステップSP4の処理を行なう。逆に、全ての候補領域に対する処理が完了したと判別された場合には、ステップSP8において、算出された全ての総和に基づいて近似曲面を作成し、ステップSP9において近似曲面の最小点を抽出し、ステップSP10において、抽出された最小点および基準領域の中心点に基づいて座標変化量を算出し、ステップSP11において座標変化量と画像間の時間間隔とに基づいて速度ベクトルを算出し、ステップSP12において対応領域を新たな基準領域に設定し、再びステップSP2の処理を行なう。
【0025】
したがって、離散的な値に基づいて近似曲面を作成し、近似曲面の最小点と基準領域の中心点とに基づいてオプティカル・フローを算出することによりオプティカル・フローの算出精度を高めることができ、ひいてはビディオカメラ等の3次元運動量の検出精度を高めることができる。
図4および図5は図1のフローチャートのステップSP3の処理の他の例を詳細に説明するフローチャートであり、図3のフローチャートと異なる点は、ステップSP12の処理とステップSP2の処理との間に、新たな基準領域の中心点が格子点と一致しているか否かを判別するステップSP12aと、中心点が格子点と一致していない場合に中心点の周囲の格子点を抽出するステップSP12bと、中心点と抽出された格子点との相対位置に基づいて重み付け係数を算出するステップSP12cと、抽出された何れかの格子点を中心とする仮の基準領域を設定するステップSP12dとを含み、中心点と格子点とが一致している場合にステップSP12bからステップSP12dの処理を省略するようにした点、ステップSP11の処理とステップSP12の処理との間に、抽出された全ての格子点に基づく処理が行なわれたか否かを判別するステップSP11aと、抽出された全ての格子点に基づく処理が行なわれた場合に、対応する全ての速度ベクトルに基づいて重み付け係数に基づく重み付け平均処理を施して真のオプティカル・フローを算出するステップSP11bとを含み、抽出された一部の格子点について処理が行なわれていない場合に直ちにステップSP12dの処理を行なうようにした点のみである。
【0026】
したがって、この実施例の場合には、図3のフローチャートに基づく処理を1回だけ行なうことにより得られた新たな基準領域の中心点Cが、図6に示すように格子点と一致しない場合には、図6にA1,A2,A3,A4で示す4つの格子点を選択し、各格子点を中心とする仮の基準領域を設定する(図7中破線参照)。また、この場合には、格子点A1,A2,A3,A4で定まる小領域を中心点Cを通る直線で区画することにより得られる領域R1,R2,R3,R4の面積を重み付け係数として設定する。
【0027】
そして、各仮の基準領域に基づいて図3のフローチャートに基づく処理を行なって仮の速度ベクトルを算出し、設定された重み付け係数に基づいて算出された4つの速度ベクトルを重み付け平均することにより真のオプティカル・フローを算出することができる。
以上の説明から明らかなように、新たな基準領域が格子点上で設定されないような場合であっても、格子点上の仮の基準領域に基づく速度ベクトルの算出を行ない、最終的に重み付け平均処理を施すことにより高精度にオプティカル・フローを算出できる。この結果、オプティカル・フローに基づくビディオカメラ等の3次元運動量の検出精度を一層高めることができる。
【0028】
【実施例2】
図8はこの発明の動画像に基づくカメラの3次元運動検出装置の一実施例を示すブロック図であり、1の画像を基準画像として選択する基準画像選択部1と、基準画像の次の画像を参照画像として選択する参照画像選択部2と、基準画像および参照画像に基づいて複数のオプティカル・フローを算出する第1オプティカル・フロー算出部3と、ローリングが生じているか否かを判別するローリング判別部4と、ローリングが生じていることを示すローリング判別部4からの判別結果に応答して参照画像中の特徴点を画面中心に関して所定角度だけ回転させる回転処理部5と、ローリング補正が施された特徴点に基づいてオプティカル・フローを算出する第2オプティカル・フロー算出部6と、遠距離の特徴点のオプティカル・フローに基づいてピッチング角度およびヨーイング角度を算出するピッチング・ヨーイング角度算出部7と、参照画像中の特徴点をさらにピッチング角度およびヨーイング角度に基づいて補正するピッチング・ヨーイング補正部8と、ピッチング・ヨーイング補正が施された特徴点に基づいてオプティカル・フローを算出する第3オプティカル・フロー算出部9と、複数の特徴点のオプティカル・フローに基づいて平行移動成分を算出する平行移動成分算出部10と、少なくともピッチング角度およびヨーイング角度だけ回転された特徴点に基づくオプティカル・フローの収束度を例えば分散等に基づいて算出する収束度算出部11と、予め設定された所定の限界角度に達するまで回転処理部5、オプティカル・フロー算出部6,9、ピッチング・ヨーイング角度算出部7、ピッチング・ヨーイング補正部8、平行移動成分算出部10および収束度算出部11を反復動作させる第1反復制御部12と、収束度が最大の回転角度をローリング角度として選択するとともに、対応するピッチング角度、ヨーイング角度および平行移動成分をビディオカメラ等の3次元運動成分として選択する選択部13と、全ての画像に基づく処理が行なわれるまで参照画像を新たな基準画像として設定する基準画像更新部14と、新たな基準画面が設定されたことに応答して参照画像選択部2を反復動作させる第2反復制御部15とを有している。
【0029】
尚、上記構成各部は、上記実施例のフローチャートの対応するステップと同様の作用を達成するものである。
上記構成の動画像に基づくカメラの3次元運動検出装置の作用は次のとおりである。
ビディオカメラ等により得られた動画像のうち最初の画像を、基準画像選択部1により基準画像として選択し、参照画像選択部2により基準画像の次の画像を参照画像として選択する。そして、基準画像および参照画像に基づいて第1オプティカル・フロー算出部により複数のオプティカル・フローを算出する。具体的には、図3または図5、図6に示すフローチャートと同様の処理を行なうことにより特徴点を抽出し、抽出された特徴点に基づいてオプティカル・フローを算出する。
【0030】
また、ローリング判別部4により、ローリングが生じているか否かを判別する。具体的には、例えば相対位置関係が互に垂直になるべき1対の特徴点を選択し、選択された1対の特徴点の相対位置関係が垂直でないか垂直であるかに基づいてローリングが生じているか否かを判別する。そして、ローリングが生じていると判別されたことに応答して回転処理部5により特徴点を画面中心に関して所定角度だけ回転させ、回転された特徴点に基づいて第2オプティカル・フロー算出部6によりオプティカル・フローを算出する。尚、この場合には既に特徴点が得られているのであるから、得られている特徴点に基づいて簡単にオプティカル・フローを算出できる。そして、遠距離の特徴点のオプティカル・フローに基づいてピッチング・ヨーイング角度算出部7によりピッチング角度およびヨーイング角度を算出する。その後、ピッチング・ヨーイング補正部8により、参照画像中の特徴点をさらにピッチング角度およびヨーイング角度に基づいて補正して、第3オプティカル・フロー算出部9によりピッチング・ヨーイング補正が施された特徴点に基づいてオプティカル・フローを算出する。そして、平行移動成分算出部10により、複数の特徴点のオプティカル・フローに基づいて平行移動成分を算出する。また、少なくともピッチング角度およびヨーイング角度に基づく補正が施された状態のオプティカル・フローに基づいて収束度算出部11によりオブティカル・フローの収束度を例えば分散等に基づいて算出する。この回転処理部5による回転処理から収束度算出部11による収束度の算出までの一連の処理を、第1反復制御部12により、予め設定された所定の限界角度に達するまで反復させ、選択部13により収束度が最大になる回転角度をローリング角度として選択するとともに、対応するピッチング角度、ヨーイング角度および平行移動成分をビディオカメラ等の3次元運動の各成分として選択する。
【0031】
また、処理が行なわれていない画像が存在している場合には、基準画像更新部14により参照画像を新たな基準画像として設定し、第2反復制御部15により参照画像選択部2を反復動作させて3次元運動の各成分であるローリング角度、ピッチング角度、ヨーイング角度および平行移動成分を順次算出する。
以上の説明から明らかなように、動画像に基づいて算出されたオプティカル・フローはそれ自体誤差を含んでおり、殆どの場合に1点に収束することはないのであるが、例えば分散に基づいて最大の収束度に対応するローリング角度を選択し、次いでローリング角度に基づく補正を行なった状態でピッチング角度およびヨーイング角度を算出し、最後にピッチング角度、ヨーイング角度に基づく補正をさらに行なった状態で平行移動成分を算出するのであるから、最終的に高精度にビディオカメラ等の3次元運動量を検出できる。
【0032】
但し、ビディオカメラ等による撮影を行なう間にローリングが全く生じないことは殆どないのであるから、ローリング判別部4を省略してもよい。
尚、この発明は上記の実施例に限定されるものではなく、例えば、分散に基づいてローリング角度を選択する代わりにオプティカル・フロー同士の交点の最大値、最小値の差が最小になる回転角度をローリング角度として選択することが可能であるほか、従来法により算出されたオプティカル・フローに基づいてビディオカメラ等の3次元運動量を算出することが可能であり、その他、この発明の要旨を変更しない範囲内において種々の設計変更を施すことが可能である。
【0033】
【発明の効果】
以上のように請求項1の発明は、ビディオカメラ等により実際に得られた動画像に基づいて得られるオプティカル・フローが一般的に誤差を含んでおり、理論どおりの適用が不可能であるにも拘らず、画像を所定角度ずつ回転させ、各回転状態に基づいてピッチング角度、ヨーイング角度および平行移動成分を算出し、少なくともピッチング角度およびヨーイング角度に基づく補正が施されたオプティカル・フローの収束度が最大である回転角度をローリング角度として選択し、対応するピッチング角度、ヨーイング角度および平行移動成分を3次元運動の各成分として選択することによりカメラの3次元運動を高精度に検出できるという特有の効果を奏する。
【0034】
請求項2の発明も、ビディオカメラ等により実際に得られた動画像に基づいて得られるオプティカル・フローが一般的に誤差を含んでおり、理論どおりの適用が不可能であるにも拘らず、画像を所定角度ずつ回転させ、各回転状態に基づいてピッチング角度、ヨーイング角度および平行移動成分を算出し、少なくともピッチング角度およびヨーイング角度に基づく補正が施されたオプティカル・フローの収束度が最大である回転角度をローリング角度として選択し、対応するピッチング角度、ヨーイング角度および平行移動成分を3次元運動の各成分として選択することによりカメラの3次元運動を高精度に検出できるという特有の効果を奏する。
【図面の簡単な説明】
【図1】この発明の動画像に基づくカメラの3次元運動検出方法の一実施例を説明するフローチャートである。
【図2】カメラの3次元運動検出方法を詳細に説明する図である。
【図3】図1のフローチャートのステップSP3の処理を詳細に説明するフローチャートである。
【図4】図1のフローチャートのステップSP3の処理の他の例の要部を詳細に説明するフローチャートである。
【図5】図1のフローチャートのステップSP3の処理の他の例の残部を詳細に説明するフローチャートである。
【図6】新たな基準領域の中心と抽出される格子点との関係を示す概略図である。
【図7】中心点と抽出された格子点に基づく重み付け係数の算出を説明する概略図である。
【図8】この発明の動画像に基づくカメラの3次元運動検出装置の一実施例を示すブロック図である。
【図9】理想的なオプティカル・フローに基づくカメラの3次元運動検出方法を説明する図である。
【図10】カメラと画像面と実在の点との関係を説明する図である。
【符号の説明】
3 第1オプティカル・フロー算出部 5 回転処理部
6 第2オプティカル・フロー算出部
7 ピッチング・ヨーイング角度算出部
8 ピッチング・ヨーイング補正部
9 第3オプティカル・フロー算出部 10 平行移動成分算出部
11 収束度算出部 12 第1反復制御部 13 選択部
Claims (2)
- 動画像の基準フレームと参照フレームとに基づいて、参照フレームを画像中心に関して画面内において順次所定角度ずつ回転させて対応するオプティカル・フローを算出し、カメラから遠距離にある特徴点に基づいてカメラのピッチング角度およびヨーイング角度を算出し、算出されたピッチング角度およびヨーイング角度に基づいて参照フレームの特徴点を補正してカメラの平行移動成分を算出し、少なくとも算出されたピッチング角度およびヨーイング角度に基づく補正が施された特徴点に基づいてオプティカル・フローの収束度を算出し、オプティカル・フローの収束度が最大になる回転角度をローリング角度として選択するとともに、対応するピッチング角度、ヨーイング角度および平行移動成分を選択することを特徴とする動画像に基づくカメラの3次元運動検出方法。
- 動画像の基準フレームと参照フレームとに基づいて、参照フレームの特徴点を画像中心に関して画面内において順次所定角度ずつ回転させて対応するオプティカル・フローを算出する回転処理手段(5)(6)(7)と、カメラから遠距離にある特徴点に基づいてカメラのピッチング角度およびヨーイング角度を算出するピッチング・ヨーイング角度算出手段(9)(10)(11)と、算出されたピッチング角度およびヨーイング角度に基づいて参照フレームの特徴点を補正してカメラの平行移動成分を算出する平行移動成分算出手段(12)(13)(14)と、少なくともピッチング角度およびヨーイング角度に基づく補正が施された特徴点に基づいて収束度を算出する収束度算出手段と、収束度が最大の回転角度、収束度が最大の回転角度に対応するピッチング角度、ヨーイング角度および平行移動成分をカメラの3次元運動の各成分として選択する選択手段とを含むことを特徴とする動画像に基づくカメラの3次元運動検出装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP29931991A JP3626210B2 (ja) | 1991-11-14 | 1991-11-14 | 動画像に基づくカメラの3次元運動検出方法およびその装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP29931991A JP3626210B2 (ja) | 1991-11-14 | 1991-11-14 | 動画像に基づくカメラの3次元運動検出方法およびその装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH05137049A JPH05137049A (ja) | 1993-06-01 |
JP3626210B2 true JP3626210B2 (ja) | 2005-03-02 |
Family
ID=17871004
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP29931991A Expired - Fee Related JP3626210B2 (ja) | 1991-11-14 | 1991-11-14 | 動画像に基づくカメラの3次元運動検出方法およびその装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3626210B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100461212C (zh) | 2004-06-04 | 2009-02-11 | 松下电器产业株式会社 | 显示控制方法及装置以及便携设备 |
JP5044922B2 (ja) * | 2005-11-08 | 2012-10-10 | カシオ計算機株式会社 | 撮像装置及びプログラム |
KR101313307B1 (ko) * | 2011-10-31 | 2013-09-30 | (주)컨벡스 | 영상보정방법 및 장치 |
-
1991
- 1991-11-14 JP JP29931991A patent/JP3626210B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH05137049A (ja) | 1993-06-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110288657B (zh) | 一种基于Kinect的增强现实三维注册方法 | |
JP3253962B2 (ja) | センサの動きとシーン構造を決定する方法及びイメージ処理システム | |
Wei et al. | Fisheye video correction | |
EP3296952B1 (en) | Method and device for blurring a virtual object in a video | |
US9940725B2 (en) | Method for estimating the speed of movement of a camera | |
JP5388932B2 (ja) | 情報処理装置およびその制御方法 | |
Lee et al. | Simultaneous localization, mapping and deblurring | |
US20060078214A1 (en) | Image processing based on direction of gravity | |
US20060078215A1 (en) | Image processing based on direction of gravity | |
KR20170077223A (ko) | 자동차 카메라 시스템의 온라인 교정 | |
US11082633B2 (en) | Method of estimating the speed of displacement of a camera | |
JPH0935061A (ja) | 画像処理方法 | |
CN109029425B (zh) | 一种采用区域滤波的模糊星图复原方法 | |
CN114727081B (zh) | 投影仪投影校正方法、装置及投影仪 | |
CN111798373A (zh) | 一种基于局部平面假设及六自由度位姿优化的快速无人机图像拼接方法 | |
WO2008114264A2 (en) | A method and apparatus for video image stabilization | |
CN110375765B (zh) | 基于直接法的视觉里程计方法、系统及存储介质 | |
CN113686314B (zh) | 船载摄像头的单目水面目标分割及单目测距方法 | |
CN109741399A (zh) | 基于旋转拍摄的预计算相机标定方法 | |
CN113345032B (zh) | 一种基于广角相机大畸变图的初始化建图方法及系统 | |
CN114913308A (zh) | 摄像机跟踪方法、装置、设备及存储介质 | |
JP3626210B2 (ja) | 動画像に基づくカメラの3次元運動検出方法およびその装置 | |
JP7427467B2 (ja) | 画像処理装置、画像処理方法、学習済みモデルの生成方法、およびプログラム | |
JP2002163647A (ja) | レンズ歪み係数算出装置および算出方法、レンズ歪み係数算出プログラムを記録したコンピュータ読み取り可能な記録媒体 | |
JP2005157924A (ja) | 画像の動き検出装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20041202 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081210 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091210 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091210 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101210 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |