JP2007257287A - 画像レジストレーション方法 - Google Patents

画像レジストレーション方法 Download PDF

Info

Publication number
JP2007257287A
JP2007257287A JP2006080784A JP2006080784A JP2007257287A JP 2007257287 A JP2007257287 A JP 2007257287A JP 2006080784 A JP2006080784 A JP 2006080784A JP 2006080784 A JP2006080784 A JP 2006080784A JP 2007257287 A JP2007257287 A JP 2007257287A
Authority
JP
Japan
Prior art keywords
image
registration
area
mask image
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006080784A
Other languages
English (en)
Inventor
Masatoshi Okutomi
正敏 奥富
Masao Shimizu
雅夫 清水
Soonkeun Chang
馴槿 張
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Institute of Technology NUC
Original Assignee
Tokyo Institute of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Institute of Technology NUC filed Critical Tokyo Institute of Technology NUC
Priority to JP2006080784A priority Critical patent/JP2007257287A/ja
Priority to US12/293,442 priority patent/US20090245692A1/en
Priority to EP07740449A priority patent/EP2006805A2/en
Priority to CNA2007800101759A priority patent/CN101405768A/zh
Priority to PCT/JP2007/057011 priority patent/WO2007108563A1/ja
Publication of JP2007257287A publication Critical patent/JP2007257287A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/32Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods

Abstract

【課題】時系列画像中における注目画像と参照画像との間のモーションを推定するための領域選択型レジストレーション方法であって、あらゆる形状を有する対象のレジストレーションに適用でき、照明変化やオクルージョンにロバストで且つ高精度な画像レジストレーションを行い得る画像レジストレーション方法を提供する。
【解決手段】対象を撮影した時系列画像中の参照画像と注目画像との間に高精度なレジストレーションを行う画像レジストレーション方法であって、参照画像上の所定の領域を注目領域に設定し、レジストレーションを行う際に、設定された注目領域内で、平面射影変換によって正確にレジストレーションできる領域を表すマスク画像の画素に基づき、モーションパラメータを推定する。画像間の類似度評価を利用することによって、マスク画像を生成する。
【選択図】図2

Description

本発明は、画像レジストレーション方法に関し、特に、時系列画像中における注目画像と参照画像との間のモーションを推定する画像レジストレーション方法に関する。
画像レジストレーションとは、二枚の画像(即ち、参照画像と注目画像)を重ねた時、画像が一致する変換パラメータを推定することを意味し、つまり、注目画像と参照画像との間のモーションを推定することを意味する。
画像レジストレーション、即ち、注目画像と参照画像との間のモーション推定は、超解像処理、画像モザイキング、3次元再構成、ステレオビジョン、奥行き推定、画像計測やマシンビジョンなど、多くの画像処理において、最も基本的かつ重要な処理である(非特許文献1、非特許文献2を参照)。
画像レジストレーションを行うために、つまり、時系列画像中における注目画像と参照画像との間のモーションパラメータを推定するために、平面射影変換で近似されることが多い。レジストレーション対象(以下、単に、対象とも称する)の平面領域だけを注目領域(ROI:Region of Interest)に設定できれば、正確なモーションパラメータを求めることができる。
しかし、注目領域内には平面(平面領域)だけが存在するとは限らないため、レジストレーション対象の実際のモーションは、平面射影変換モデルに基づいて推定されたモーションと、異なっていることが多い。しかも、照明変化やオクルージョンなどが原因で、モーションパラメータの推定に失敗することも多い。
このような問題に対して、従来、例えば、照明変化を表す基底画像を利用する手法(非特許文献3、非特許文献4を参照)、複数の領域に分割する手法(非特許文献5、非特許文献6を参照)、対象形状を2次曲面でモデリングする手法(非特許文献7を参照)、顔のような複雑な形状をモデリングする手法(非特許文献8を参照)、モーションセグメンテーションを利用する手法(非特許文献9、非特許文献10を参照)、モーション分布をモデリングする手法(非特許文献11を参照)、モーション推定に適切な領域を選択して利用する手法(非特許文献12、非特許文献13を参照)などの数多くの方法が提案されてきた。
そのうち、例えば、モーション推定に適切な領域を選択して利用する手法(以下、単に領域選択型手法とも呼ぶ)において、非特許文献12に開示された方法では、空間方向に対する濃度勾配の大きさで重み付けした残差モーション(この残差モーションをノーマルフロー(normal flow)とも呼ばれる)を求め、求めた残差モーションの大きさが小さい領域は、正確にレジストレーションができたと判断するようにしている。
しかし、このノーマルフローは、画像に含まれるノイズの影響を受けやすいため、正確にレジストレーションできた領域を抽出するためには、複数画像からの結果を重み付け平均する(非特許文献12を参照)、確率モデルを利用する(非特許文献14を参照)、などの後処理が必要であったという問題が存在する。
また、領域選択型手法に属する非特許文献13に開示された方法では、推定したモーションで変形した画像と参照画像との間で、注目領域内における各画素の画素値の相違に基づき重みを小さくするようにしているため、対象の照明変化によっても重みが小さくなり、レジストレーションに失敗する可能性があるという問題がある。
ここで、平面射影変換を利用した従来の画像レジストレーション方法について説明する。つまり、画像レジストレーションを行う際に、画像間のモーションは、即ち、時系列画像中の入力画像(注目画像)と参照画像の間のモーションは、平面射影変換モデルを用いて推定される。
この平面射影変換モデルを表すパラメータ、即ち、参照画像に対する注目画像のモーションパラメータ(変換パラメータ)を推定するために、下記数1で表す目的関数を定義する。
Figure 2007257287
ただし、
Figure 2007257287
は時系列画像中の入力画像を、

Figure 2007257287
は参照画像を、ROIは注目領域を、それぞれ表す。また、
Figure 2007257287
は同次座標系で表した画像上の位置を表す。
Figure 2007257287
は平面射影変換を表す8個のパラメータである。
Figure 2007257287
は、参照画像に対する注目画像のモーションを表し、即ち、平面射影変換を表す。
注目領域(ROI)としては、任意の領域を用いることができるが、参照画像上での矩形領域を用いることが多い。上記数1の目的関数を最小化するときには、この注目領域ROI内部の画素値を全て利用する。
上記数1を最小化する変換パラメータ
Figure 2007257287
を推定するためには、例えば、勾配法(非特許文献15、非特許文献16、非特許文献17及び非特許文献18を参照)、繰り返し計算を利用しない超平面交差法(非特許文献19を参照)、非特許文献19に開示された超平面交差法の高速化手法(非特許文献20を参照)などの方法を利用することができる。
上述したような注目領域内の画素値をそのまま利用する領域ベース手法に属する従来の画像レジストレーション方法によって、剛体と考えられる対象を撮影した画像間のレジストレーションを行うときに、次のような要因で失敗する可能性がある。
つまり、領域ベース手法に属する従来の平面射影変換を利用した画像レジストレーション方法を用いて行ったレジストレーションの失敗要因は、次のようなものがある。

失敗要因その1:対象の形状
3次元空間内で任意に位置と方向を変えるカメラを用いて、平面を撮影したときに、平面射影変換モデルを用いて、画像間の変形を表すことができる。ここで、カメラのレンズ歪みは、無視できるほど小さいか、また、別途補正するものとする。対象の形状が平面でないときには、当然のことながら、対象の見え方の変化を平面射影変換モデルでは完全に表現できず、数1の目的関数の最小値が大きくなる。このため、正解モーションパラメータとは異なる極小位置に落ち込み、レジストレーションに失敗する可能性がある。

失敗要因その2:対象の表面反射特性
平面に対してカメラの位置と方向が変化すると、カメラが平面を見る角度やカメラと平面との距離も変化する。平面の表面反射特性が均等拡散であれば、平面を見る角度や距離によって平面の明るさは変化しない。しかし、実際には、平面の形状を有する対象が完全な均等拡散面であることは少ないため、対象(平面)に対するカメラの位置や方向によって、対象(平面)の輝度が変化する。従って、対象(平面)の輝度が変化すると、即ち、画像間の明るさが変化すると、数1の目的関数値も変化し、目的関数の最小値が大きくなり、レジストレーションに失敗する可能性がある。

失敗要因その3:対象までの距離変化
時系列画像に撮影された対象を順次にレジストレーションするときに、対象までの距離が変化すると、次のことが原因で、レジストレーションに失敗する可能性がある。
第1に、撮影カメラのレンズがピンホールレンズで近似できる場合、つまり、対象までの距離が変化しても常にピントが合っている時系列画像を撮影できる場合に、対象との距離が次第に大きくなるときに、このような問題が発生する。参照画像には対象が大きく撮影されているが、時間の経過とともに撮影された時系列画像(つまり、入力画像として使用される画像)上には対象が次第に小さくなる。参照画像上に設定した注目領域に対して、入力画像を変形してレジストレーションを行うためには、入力画像を拡大する必要がある。画像の拡大に伴い、画像は必ずぼける。結局、参照画像に対して入力画像のレジストレーションを行うことは、ぼけの異なる画像間でレジストレーションを行うことになり、最終的にレジストレーションに失敗する。
第2に、撮影カメラのレンズが薄肉レンズで近似できる場合、つまり、対象が一定の距離範囲に存在するときだけにピントが合っている時系列画像を撮影できる場合に、対象に対するピントの合い方が変化するときに、第1の原因で生じた問題と同様の問題が生じてしまう。

失敗要因その4:照明変化
上記数1の目的関数は、画像間の画素値の差の2乗和を表している。このため、もちろん画像間の形状の変化によって目的関数値が変化するが、画像の明るさの変化によっても目的関数値が変化する。照明変化によって対象の明るさが変化するが、対象の明るさの変化が画像上の位置によって異なるときには、レジストレーションにとってより大きな障害となる。

失敗要因その5:オクルージョン
注目領域内でレジストレーション対象(対象物体、つまり、対象)と他の物体とのオクルージョンがあると、レジストレーションにとって大きな障害となる。特に、対象物体を遮るように出現した他の物体表面におけるテクスチャの密度やコントラストが、対象表面のテクスチャよりも高いときには、数1の目的関数を最小化するモーションパラメータ
Figure 2007257287
が、他の物体の位置の影響を強く受け、対象の位置や姿勢とは異なるレジストレーション結果になる可能性がある。また、対象の形状と光源位置によっては対象自身の影が生じ、その影が変化することがあるが、この影は対象の明るさの変化として、レジストレーション結果に影響するという問題もある。
エル. ジー. ブラウン(L. G. Brown)著,「アー サーベイ オフ レジストレーション テクニック(A Survey of Image Registration Techniques)」,ACM コンピューティング サーベイズ(ACM Computing Surveys),1992年12月,第24巻,第4号,p.325-376 ビー. ジトバ(B. Zitova)、ジェイ. フラッシャー(J. Flusser)共著,「イメージ レジストレーション メソッド: アー サーベイ(Image Registration Methods: A Survey)」,イメージ アンド ビジョン コンピューティング(Image and Vision Computing),2003年10月,第21巻,第11号,p.977-1000 エム. ブラック(M. Black)、エイ. ジェプソン(A. Jepson)共著,「アイゲンートラッキング: ロバスト マッチング アンド トラッキング オフ アーティキュレイテッド オブジェクト ユージング ビューーベースド リプリゼンテーション(Eigen-Tracking:Robust Matching and Tracking of Articulated Objects using a View-Based Representation)」,インターナショナル ジャーナル オフ コンピュータ ビジョン(International Journal of Computer Vision),1998年,第26巻,第1号,p.63-84 ジー. デー. ハーガー(G. D. Hager)、ピー. エヌ. ベルヒュムール(P. N. Belhumeur)共著,「エフィシャント リージョン トラッキング ウィズ パラメトリック モデルズ オフ ジオメトリー アンド イルミネーション(Efficient Region Tracking with Parametric Models of Geometry and Illumination)」,IEEE トランス. オン パターン アナリシス アンド マシーン インテリジェンス(IEEE Trans. On Pattern Analysis and Machine Intelligence),1998年10月,第20巻,第10号,p.1025-1039 ティー. イシカワ(T. Ishikawa)、アイ. マシューズ(I. Matthews)、エス. ベイカー(S. Baker)共著,「エフィシャント イメージ アライメント ウィズ アウトライアー リジェクション(Efficient Image Alignment with Outlier Rejection)」,テク レポート CMU−RI−TR−02−27(Tech. Report CMU-RI-TR-02-27),ロボティクス インスティチュート(Robotics Institute),カーネギー メロン ユニバーシティー(Carnegie Mellon University),2002年10月 エフ. ジュリュー(F. Jurie)、エム. ドーム(M. Dhome)共著,「リアル タイム ロバスト テンプレート マッチング(Real Time Robust Template Matching)」、イン プロック オフ ブリティッシュ マシーン ビジョン カンファレンス(In Proc. Of British Machine Vision Conference),2002年9月,p.123-132 エイ. シャシュア(A. Shashua)、ワイ. ウェクスラー(Y. Wexler)共著,「Qーワーピング: ダイレクト コンピューテーション オフ クォードラティック リファレンス サーフィス(Q-Warping: Direct Computation of Quadratic Reference Surfaces)」,IEEE トランス. オン パターン アナリシス アンド マシーン インテリジェンス(IEEE Trans. On Pattern Analysis and Machine Intelligence),2001年8月,第23巻,第8号,p.920-925 ティー. エフ. クーツ(T. F. Cootes)、ジェイ. エドワーズ(J. Edwards)、シー. ジェイ. テーラ(C. J. Taylor)共著,「アクティブ アピアランス モデルズ(Active Appearance Models)」、IEEE トランス. オン パターン アナリシス アンド マシーン インテリジェンス(IEEE Trans. On Pattern Analysis and Machine Intelligence),2001年6月,第23巻,第6号,p.681-685 ピー. ブースマイ(P. Bouthemy)、イー. フランコイス(E. Francois)共著,「モーション セグメンテーション アンド クォリテイティブ ダイナミック シーン アナリシス フロム イメージ シーケンス(Motion Segmentation and Qualitative Dynamic Scene Analysis from an Image Sequence)」,インターナショナル ジャーナル オフ コンピュータ ビジョン(International Journal of Computer Vision,),1993年,第10巻,第2号,p.157-182 アイ. パトラス(I. Patras)、イー. エイ. ヘンドリクス(E. A. Hendriks)、アール. エル. ラジェンダイク(R. L. Lagendijk)共著,「アン インターレイティブ モーション エスティメイションーセグメンテーション メソッド ユージング ウォーターシェッド セグメンツ(An Iterative Motion Estimation-Segmentation Method using Watershed Segments)」,イン プロック インターナショナル カンファレンス オン イメージ プロセッシング(In Proc. Of IEEE International Conference on Image Processing),1998年10月,第2巻,p.642-646 エム. エム. チャン(M. M. Chang)、エイ. エム. テカルプ(A. M. Tekalp)、エム. アイ. セザン(M. I. Sezan)共著,「サイマルテイニアス モーション エスティメーション アンド セグメンテーション(Simultaneous Motion Estimation and Segmentation)」,IEEE トランス. オン イメージ プロセッシング(IEEE Trans. On Image Processing),1997年9月,第6巻,第9号,p.1326-1333 エム. イラニ(M. Irani)、ビー. ルーソス(B. Rousso)、エス. ペレグ(S. Peleg)共著,「コンピューティング オキュリューディング アンド トランスペアレント モーション(Computing Occluding and Transparent Motions)」,インターナショナル ジャーナル オフ コンピュータ ビジョン(International Journal of Computer Vision),1994年2月,第12巻,第1号 深尾隆則・金出武雄共著,「オクルージョンに対してロバストな2段階特徴点追従アルゴリズム」,情報処理学会,2003年11月,CVIM-141,p.111-118 アール. ファブレット(R. Fablet)、ピー. ブースマイ(P. Bouthemy)共著,「モーション レコグニション ユージング ノンパラメトリック イメージ モーション モデルズ エスティメーティド フロム テンポラル アンド マルチスケール コーオカレンス スタスティクス(Motion Recognition Using Nonparametric Image Motion Models Estimated from Temporal and Multiscale Co-Occurrence Statistics)」,IEEE トランス. オン パターン アナリシス アンド マシーン インテリジェンス(IEEE Trans. On Pattern Analysis and Machine Intelligence),2003年12月,第25巻,第12号 エス. バーカー(S. Baker)、アイ. マシューズ(I. Matthews)共著,「ルーカスーカナデ 20 イアーズ オン: アー ユニファイング フレームワーク(Lucas-Kanade 20 Years On: A Unifying Framework)」,インターナショナル ジャーナル オフ コンピュータ ビジョン(International Journal of Computer Vision),2004年3月,第56巻,第3号,p.221-255 エム. レイシェール(M. Gleicher)著,「プロジェクティブ レジストレーション ウィズ ディファレンス デコンポジション(Projective Registration with Difference Decomposition)」、プロック オフ IEEE インターナショナル カンファレンス オン コンピュータ ビジョン アンド パターン レコグニション(Proc. Of IEEE International Conference on Computer Vision and Pattern Recognition),サンファン, アメリカ自治領プエルト リコ(San Juan, Puerto Rico),1997年6月,p.331-337 ビー. ルーカス(B. Lucas)、ティー. カナデ(T. Kanade)共著,「アン イタレーティブ イメージ レジストレーション テクニック ウィズ アン アプリケーション トゥー ステレオ ビジョン(An Iterative Image Registration Technique with an Application to Stereo Vision)」,プロック オフ インターナショナル ジョイント カンファレンス オン アーティフィシャル インテリジェンス(Proc. Of International Joint Conference on Artificial Intelligence),バンクーバ カナダ(Vancouver, Canada),1981年4月,p.674-679 エイチ. ワイ. シューム(H. Y. Shum)、アール. セーリスキー(R. Szeliski)共著,「コンストラクション オフ パノラミック モザイク ウィズ グローバル アンド ローカル アライメント(Construction of Panoramic Mosaics with Global and Local Alignment)」,インターナショナル ジャーナル オフ コンピュータ ビジョン(International Journal of Computer Vision),2002年7月,第48巻,第2号,p.151-152 エム. シミズ(M. Shimizu)、エム. オクトミ(M. Okutomi)共著,「マルチーパラメータ シミュレーション エスティメーション オン エリアーベースド マッチング(Multi-Parameter Simultaneous Estimation on Area-Based Matching)」,インターナショナル ジャーナル オフ コンピュータ ビジョン(International of Computer Vision)、2006年 張馴槿・清水雅夫・奥富正敏共著,「画像のレジストレーションにおける超平面交差法の高速化手法」,電子情報通信学会論文誌,2006年2月,第J89-D巻,第2号,p.332-343 ティー. カナデ(T. Kanade)、エム. オクトミ(M. Okutomi)共著,「アー ステレオ マッチング アルゴリズム ウィズ アン アダプティブ ウィンドウ: シオリー アンド エクスペリメント(A Stereo Matching Algorithm with an Adaptive Window: Theory and Experiment)」,IEEE トランス. オン パターン アナリシス アンド マシーン インテリジェンス(IEEE Trans. On Pattern Analysis and Machine Intelligence),1994年9月,第16巻,第9号,p.920-932 エム. オクトミ(M. Okutomi)、ティー. カナデ(T. Kanade)共著,「アー マルチプル ベースライン ステレオ(A Multiple Baseline Stereo)」,IEEE トランス. オン パターン アナリシス アンド マシーン インテリジェンス(IEEE Trans. On Pattern Analysis and Machine Intelligence),1993年4月,第15巻,第4号,p.353-363 ジェイ. アール. ベルゲン(J. R. Bergen)、ピー. アナンダン(P. Anandan)、ケイ.ジェイ. ハンナ(K. J. Hanna)、アール. ヒンゴラニー(R. Hingorani)共著,「ハイエラーチカル モデルーベースド モーション エスティメーション(Hierarchical Model-Based Motion Estimation)」,イン プロック オフ ヨーロピアン カンファレンス オン コンピュータ ビジョン(In Proc. Of European Conference on Computer Vision),イタリア共和国,サンタ マルゲリータ リギュエール(Santa Margherita Liguere),1992年,p.237-252
従来、上述したようなレジストレーション失敗要因に対する対策として、多くの工夫が成されてきた。主な対策として、次に示すようなものがある。

対策その1:画像のエッジ情報を使う
具体的に、例えば、画像のラプラシアンやLoG(Laplacian of Gaussian)を使うことによって、対象の明るさの変化の影響を低減することができる。また、対象のぼやけ方の変化をもある程度吸収することができる。しかし、この対策は、平面以外の対象形状やオクルージョンに対応できないという問題点がある。

対策その2:画素値を正規化する
注目領域内の画素値を正規化してから、数1の目的関数を最小化することによって、対象の明るさの変化の影響を低減することができる。モーションが平行移動に限定されているときには、正規化相互相関を利用すればよい。モーションが平面射影変換のときにも、正規化相互相関を利用できる手法も提案されている(非特許文献19及び非特許文献20を参照)。しかし、この対策も平面以外の対象形状やオクルージョンに対応できないという問題点がある。

対策その3:隣接フレーム間モーションの積算を使う
この対策は、時間的に近接した隣接フレーム間では、対象の見え方の変化が小さいことを利用する。具体的に、まず、隣接フレーム間モーションパラメータ
Figure 2007257287
を逐次に求める。そして、参照画像に対する平面射影変換
Figure 2007257287
を隣接フレーム間の平面射影変換の積
Figure 2007257287
として求める。しかし、この対策は、次第にレジストレーション誤差が蓄積して位置がずれてしまう問題がある。

対策その4:参照画像を更新する
数1の最小値などの指標を用いて、入力画像が参照画像から大きく変化してしまう前に、参照画像を更新するという対策を利用する。しかし、対策その3(つまり、隣接フレーム間モーションの積算を使う手法)ほどではないが、この対策も、次第にレジストレーション誤差が蓄積して位置がずれてしまう問題がある。

本発明は、上述のような事情から成されたものであり、本発明の目的は、時系列画像中における注目画像と参照画像との間のモーションを推定するための領域選択型レジストレーション方法であって、あらゆる形状を有する対象のレジストレーションに適用でき、照明変化やオクルージョンにロバストで且つ高精度な画像レジストレーションを行い得る画像レジストレーション方法を提供することにある。
本発明は、対象を撮影した時系列画像中の参照画像と注目画像との間に高精度なレジストレーションを行う画像レジストレーション方法に関し、本発明の上記目的は、前記参照画像上の所定の領域を注目領域に設定し、前記レジストレーションを行う際に、設定された前記注目領域内で、所定の変換によって正確にレジストレーションできる領域を表すマスク画像の画素に基づき、モーションパラメータを推定することにより、或いは、画像間の類似度評価を利用することによって、前記マスク画像を生成することにより、或いは、前記所定の変換として、平面射影変換、アフィン変換、スケール変換、回転変換、平行移動、又はこれらの組み合わせによる変換を用いることによって達成される。
また、本発明の上記目的は、ROIは前記注目領域を表し、また、画像
Figure 2007257287
を、ある変換パラメータ
Figure 2007257287
で変形することで、画像
Figure 2007257287
におおよそレジストレーションできているとした場合に、次の数式が成立し、
Figure 2007257287
このとき、前記注目領域内の画素
Figure 2007257287
を中心とする小領域に対する、画像
Figure 2007257287
と前記画像
Figure 2007257287
の間のSSDを、次のように定義し、

Figure 2007257287
ただし、
Figure 2007257287
は画像間の平行移動を表すベクトルであり、Patchは前記小領域を表し、前記SSDが次の3つの条件を全て満たすときに、前記注目領域内の画素
Figure 2007257287
に対応する前記マスク画像の画素値を1とし、それ以外の場合には0とすることによって、より効果的に達成される。
条件1:
前記SSDは平行移動に関するサブピクセル位置ずれが0.5[画素]より小さいこと。
条件2:
前記SSDの最小値が十分に小さいこと。
条件3:
前記SSDの最小値を中心とするパラボラフィッティングをしたときの、水平方向と垂直方向に対する2次の係数のいずれかが閾値よりも大きいこと。
更に、本発明の上記目的は、前記レジストレーションを、隣接フレーム間での変化のない画素を表すトラッキング用マスク画像を生成するとともに、隣接フレーム間のモーションパラメータを推定するという第1段階レジストレーションと、前記第1段階レジストレーションで推定したモーションパラメータで変形した注目画像と参照画像との間に、参照画像によく対応する注目画像中の画素を表す誤差補正用マスク画像を生成し、生成した誤差補正用マスク画像を使って、参照画像に対する注目画像のモーションパラメータを推定し直すという第2段階レジストレーションとで構成することによってより効果的に達成される。
本発明に係る画像レジストレーション方法は、平面射影変換モデルで高精度に近似できる領域を表すマスク画像を使った、領域選択型画像レジストレーション方法である。
本発明に係る画像レジストレーション方法では、変換パラメータ(モーションパラメータ)を推定するときに、平面射影変換によって正確にレジストレーションされている領域を表すマスク画像を利用することを特徴としている。
実際に、本発明に係る画像レジストレーション方法を用いてレジストレーションを行う際に、照明変化やオクルージョンなどにロバストなレジストレーションを実現するために、トラッキング用マスク画像を生成するとともに、隣接フレーム間モーションを基にしたレジストレーションを行う第1段階レジストレーションと、第1段階レジストレーションで推定したモーションパラメータに含まれる積算誤差を補償するために、つまり、高精度なレジストレーションを実現するために、第1段階レジストレーションで推定したモーションパラメータで変形した注目フレーム(注目画像)と参照フレーム(参照画像)との間で、再度モーションパラメータを推定し、同時にそれに対する誤差補正用マスク画像を生成する第2段階レジストレーションとを行うことが大きな特徴である。
上述した特徴を有する本発明の画像レジストレーション方法によれば、注目画像と参照画像の間のレジストレーションは、このような2段階のレジストレーションを行うことによって行われるので、平面の対象だけでなく、あらゆる形状を有する対象に対して、照明変化やオクルージョンにロバストで且つ高精度な画像レジストレーションを実現することができるといった本発明独自な優れた効果を奏する。
一般的に、画像レジストレーション方法(以下、単に、モーション推定方法とも称する)は、特徴ベース方法と領域ベース方法とに大きく分類することができる。
本発明の画像レジストレーション方法は、領域ベース方法に属し、平面形状の対象に限らず、あらゆる形状を有する対象のレジストレーションに適用でき、照明変化やオクルージョンにロバストで且つ高精度な画像レジストレーションを行うことができる画像レジストレーション方法である。
つまり、本発明は、平面射影変換モデルで高精度に近似できる領域を表すマスク画像を使った、領域選択型画像レジストレーション方法である。本発明の画像レジストレーション方法は、2段階で画像レジストレーションを行うようにしているので、以下、本発明の画像レジストレーション方法を、単に領域選択2段階レジストレーション方法とも称する。
本発明の第1段階においては、照明変化やオクルージョンなどにロバストなレジストレーションを実現するために、隣接フレーム間のモーションを基にしたレジストレーションを行う。このとき、マスク画像(以下、このマスク画像をトラッキング用マスク画像)を同時に利用する。また、注目領域の形状を一定にするために、推定したモーションパラメータを使って、注目フレーム(以下、単に注目画像とも呼ぶ)を参照フレーム(以下、単に参照画像とも呼ぶ)に合わせて変形した上で、モーション推定を行う。
そして、本発明の第2段階においては、第1段階で推定したモーションパラメータに含まれる積算誤差を補償するために、つまり、高精度なレジストレーションを実現するために、第1段階で推定したモーションパラメータで変形した注目フレームと、参照フレームとの間で、再度モーションパラメータを推定し、同時にそれに対するマスク画像(以下、このマスク画像を誤差補正用マスク画像と称する)を生成する。
本発明の画像レジストレーション方法では、このような2段階レジストレーションを行うことによって、あらゆる形状を有する対象のレジストレーションに適用でき、照明変化やオクルージョンにロバストでしかも高精度な画像レジストレーションを実現することを可能にした。
背景技術で既に述べたように、従来の領域ベース方法を使ったレジストレーションを失敗させる原因として、注目領域内の画素値を全て同等に利用している点であった。
本発明では、従来の領域ベース方法のように注目領域内の画素値を全て同等に利用することをせず、注目領域内で、参照画像に対する形状や明るさが変化していない画素だけ(つまり、平面射影変換によって正確にレジストレーションできる領域を表すマスク画像の画素)を使ってモーションパラメータを推定するようにすれば、このような形状や明るさの変化に対する影響を原理的に受けないことを着眼点とした。
また、本発明では、領域選択とモーションパラメータ推定とを繰り返し交互に行うことで、高精度な画像レジストレーションを実現するようにしている。
実際に、本発明の画像レジストレーション方法を用いて、参照画像に対して入力画像のレジストレーションを行うときに、次の2つの段階に沿って行う。
第1段階とは、時刻tにおけるマスク画像
Figure 2007257287
と、マスク画像
Figure 2007257287
を使った隣接フレーム間の変換パラメータ

Figure 2007257287
とを繰り返し計算で同時に推定する段階である。
第2段階とは、平面射影変換
Figure 2007257287
で変換した入力画像と、参照画像との間で、時刻tにおけるマスク画像
Figure 2007257287
を求め、求めた
Figure 2007257287
を使って参照画像に対する入力画像の変換パラメータ

Figure 2007257287
を推定し直す段階である。
上述したように、本発明の画像レジストレーション方法では、
Figure 2007257287
の2種類のマスク画像を利用している。マスク画像
Figure 2007257287
は、隣接フレーム間での変化のない画素を表し、以降、トラッキング用マスク画像とも呼ぶ。また、マスク画像
Figure 2007257287
は、参照画像によく対応する入力画像中の画素を表し、以降、誤差補正用マスク画像とも呼ぶ。なお、トラッキング用マスク画像も誤差補正用マスク画像も、注目領域と同様に、参照画像上の座標系で表す。
以下、本発明の画像レジストレーション方法について、図を参照しながらより詳細に説明する。
<1>マスク画像の生成方法
図1(A)に示すように、画像
Figure 2007257287
を、ある変換パラメータ
Figure 2007257287
で変形することで、画像

Figure 2007257287
におおよそレジストレーションできているとする。
Figure 2007257287
このとき、注目領域(ROI)内の画素
Figure 2007257287
を中心とする小領域(Patch)に対する、画像
Figure 2007257287
の間のSSD(Sum of Squared Difference)を、下記数3のように定義する。
Figure 2007257287
ただし、
Figure 2007257287
は画像間の平行移動を表すベクトルである。
次の3つの条件を全て満たすときに、注目領域内の位置
Figure 2007257287
、即ち、画素

Figure 2007257287
に対応する2値のトラッキング用マスク画像
Figure 2007257287
を1とし、それ以外の場合には0とする。また、誤差補正用マスク画像
Figure 2007257287
の場合も、トラッキング用マスク画像
Figure 2007257287
と同様にする。

条件1:
平行移動に関するサブピクセル位置ずれが0.5[画素]より小さいこと(図1(B)及び図1(C)を参照)。図1(B)はSSDサンプルを示し、図1(C)はSSDサンプルに2次曲線をフィッティング(parabola fitting)したときの様子を示す。条件1を数式で表すと、下記数4になる。
Figure 2007257287

条件2:
誤対応ではないこと。即ち、SSDの最小値
Figure 2007257287
が十分に小さいこと(非特許文献21、非特許文献22を参照)。条件2を数式で表すと、下記数5になる。
Figure 2007257287
ただし、Sは小領域(Patch)の面積で、
Figure 2007257287
は画像に含まれる正規白色雑音の分散で、

Figure 2007257287
は調整パラメータである。ちなみに、後述する本発明を用いて行った実験では、Sは9[画素]×9[画素]である小領域(Patch)を使った。また、
Figure 2007257287
というパラメータは、撮影に使用するカメラやゲインなどの設定ごとに異なり、例えば、PointGrey社製DragonFly(単板カラーVGAカメラ)を使用する場合に、σ=3.5とし、SONY社製VX2000を使用する場合に、σ=4.5とした。

条件3:
テクスチャがあること。即ち、SSD最小値を中心とするパラボラフィッティングをしたときの、水平方向と垂直方向に対する2次の係数(R()の記述を省略する。R(−1)、R(0)、R(1)に
Figure 2007257287
をフィッティングすると、
Figure 2007257287
のいずれかが閾値よりも大きい。条件3を数式で表すと、下記数6になる。
Figure 2007257287
ただし、
Figure 2007257287
は、実験を通して決定した調整パラメータである。

<2>第1段階レジストレーション
第1段階レジストレーション(以下、単に、ロバストレジストレーションとも呼ぶ)の目的は、できるだけ長時間にわたって対象のトラッキングを継続することである。
図2に示すように、第1段階レジストレーションでは、隣接フレーム間の平面射影変換
Figure 2007257287
と、前時刻t−1で既に求まっている参照画像に対する平面射影変換
Figure 2007257287
との積として、時刻tの入力画像に対する変換パラメータを求める。
隣接フレーム間では画像の変化が少ないので、第1段階レジストレーションが大きく失敗することはない。このため、対象の明るさや形状が参照画像に対して次第に変化しても、ロバストなレジストレーションを行うことができる。
要するに、第1段階レジストレーションでは、下記数7で表す目的関数を最小化するモーションパラメータ
Figure 2007257287
とトラッキング用マスク画像
Figure 2007257287
を求める。
Figure 2007257287
ただし、
Figure 2007257287
は前フレームに対して既に求まっているモーションパラメータで、つまり、参照フレーム(参照画像)に対するt−1番目フレーム(時刻t−1の入力画像)のモーションパラメータである。
Figure 2007257287
は隣接フレーム間モーションパラメータで、つまり、t番目フレーム(時刻tの入力画像)とt−1番目フレーム(時刻t−1の入力画像)の間のモーションパラメータである。
Figure 2007257287
は、それぞれ時刻tおよび時刻t−1の入力画像である。
トラッキング用マスク画像
Figure 2007257287
が参照画像上に定義されているため、既に求まったモーションパラメータを用いて、入力画像を参照画像に合わせるように変形した上で、隣接フレーム間モーションパラメータを求める。
具体的に、隣接フレーム間モーションパラメータとトラッキング用マスク画像を、ステップ1からステップ4までの手順で、繰り返し交互に求める。

ステップ1:
繰り返し回数を表すインデックスiを初期化し、つまり、i=0とする。時刻t−1で既に求まっているトラッキング用マスク画像
Figure 2007257287
を、時刻tの初期マスク画像
Figure 2007257287
とする。

ステップ2:
トラッキング用マスク画像
Figure 2007257287
を使って、数7を最小化する隣接フレーム間モーションパラメータ
Figure 2007257287
を求める。

ステップ3:
まず、ステップ2で求めた隣接フレーム間モーションパラメータ
Figure 2007257287
を使って、平面射影変換した画像
Figure 2007257287
を生成する。そして、生成した画像
Figure 2007257287
と画像
Figure 2007257287
との間で、前記<1>で述べたマスク画像の生成方法を用いて、トラッキング用マスク画像
Figure 2007257287
を生成する。

ステップ4:
隣接フレーム間モーションパラメータの変化が一定値以下になったか否かを判断する。隣接フレーム間モーションパラメータの変化が一定値以下になった場合に、隣接フレーム間モーションパラメータが収束したと判断し、隣接フレーム間モーションパラメータとして
Figure 2007257287
を出力し、第1段階レジストレーション処理を終了する。一方、隣接フレーム間モーションパラメータの変化が一定値以下になっていない場合には、即ち、
Figure 2007257287
(Tはステップ4で言う一定値を表す)のときには、隣接フレーム間モーションパラメータがまだ収束していないと判断し、i←i+1としてから、ステップ2に戻る。

<3>第2段階レジストレーション
第2段階レジストレーション(以下、単に、積算誤差補正レジストレーションとも呼ぶ)の目的は、第1段階レジストレーションで生じたレジストレーション誤差を補正することである。
図3に示すように、第2段階レジストレーションでは、第1段階レジストレーションで求めた画像
Figure 2007257287
、つまり、平面射影変換
Figure 2007257287
で変換した時刻tの入力画像と参照画像との間で、時刻tにおける誤差補正用マスク画像
Figure 2007257287
を求め、求めた
Figure 2007257287
を使って、参照画像に対する時刻tの入力画像のモーションパラメータ
Figure 2007257287
を推定し直すことにより、レジストレーション誤差を補正する。
トラッキング用マスク画像
Figure 2007257287
は、隣接フレーム間でのレジストレーションに利用できる画素を表している。隣接フレーム間の変化は一般に小さいので、トラッキング用マスク画像
Figure 2007257287
の面積はあまり小さくなることはない。これに対して、参照画像に対して入力画像が次第に変化すると、誤差補正用マスク画像
Figure 2007257287
の面積は次第に小さくなる。
第2段階レジストレーションでは、誤差補正用マスク画像
Figure 2007257287
の領域を使うので、安定な結果を得るためには、誤差補正用マスク画像
Figure 2007257287
の領域がある程度以上に大きい必要がある。従って、誤差補正用マスク画像
Figure 2007257287
の領域が小さいとき(つまり、誤差補正用マスク画像
Figure 2007257287
の面積が所定の閾値未満の場合)には、第2段階レジストレーションを行わずに、第1段階レジストレーションで求めたモーションパラメータをそのまま使用する。
要するに、第2段階レジストレーションでは、下記数8で表す目的関数を最小化するモーションパラメータ
Figure 2007257287
と誤差補正用マスク画像
Figure 2007257287
を求める。
Figure 2007257287
ただし、平面射影変換
Figure 2007257287
の初期値
Figure 2007257287
として、第1段階レジストレーションで求めた平面射影変換
Figure 2007257287
を使う。
具体的に、モーションパラメータ
Figure 2007257287
(つまり、参照画像に対する時刻tの入力画像の変換パラメータ)と誤差補正用マスク画像を、ステップ5からステップ9までの手順で求める。第1段階レジストレーションと違って、第2段階レジストレーションでは、ステップ5からステップ9までの手順を繰り返し行わない。

ステップ5:
第1段階レジストレーションで求めた平面射影変換
Figure 2007257287
を平面射影変換
Figure 2007257287
の初期値
Figure 2007257287
とする。

ステップ6:
平面射影変換
Figure 2007257287
で変換した時刻tの入力画像、即ち、画像
Figure 2007257287
と参照画像
Figure 2007257287
との間で、前記<1>で述べたマスク画像の生成方法を用いて、誤差補正用マスク画像
Figure 2007257287
を生成する。

ステップ7:
ステップ6で生成した誤差補正用マスク画像
Figure 2007257287
の面積が所定の閾値未満か否かを判断する。誤差補正用マスク画像
Figure 2007257287
の面積が所定の閾値未満の場合には、モーションパラメータとして
Figure 2007257287
を出力し、第2段階レジストレーション処理を終了する。これで、時刻tの入力画像に対するレジストレーション処理が全て終了する。ここで、時系列画像のモーションの特性、注目領域中でのマスク領域の重心位置、マスク領域の分布などによって、所定の閾値を調整する必要がある。なお、後述する本発明を用いて行ったレジストレーション実験では、所定の閾値を20[画素]×20[画素]に設定した。

ステップ8:
一方、誤差補正用マスク画像
Figure 2007257287
の面積が所定の閾値以上の場合には、ステップ6で生成した誤差補正用マスク画像
Figure 2007257287
を使って、数8を最小化する
Figure 2007257287
を求めてモーションパラメータとして出力し、第2段階レジストレーション処理を終了する。これで、時刻tの入力画像に対するレジストレーション処理が全て終了する。

ステップ9:
最後、確認用に、画像
Figure 2007257287
と参照画像
Figure 2007257287
との間で、前記<1>で述べたマスク画像の生成方法を用いて、誤差補正用マスク画像
Figure 2007257287
を生成する。

<4>初期値推定
後述する本発明を用いて行ったレジストレーション実験では、第1段階レジストレーションで求める隣接フレーム間モーションパラメータの初期値を推定するために、次のような階層化探索法(非特許文献23を参照)を利用した。ただし、縮小画像における注目領域の面積が25[画素]×25[画素]よりも小さくならないように、階層を制限した。

<5>繰り返し計算の高速化
本発明の画像レジストレーション方法において、まず、第1段階レジストレーションでは、繰り返し計算(繰り返し回数をiとする)を利用した勾配法を使ったモーションパラメータ推定を行い、また、トラッキング用マスク画像
Figure 2007257287
との同時推定のための繰り返し(この繰り返し回数をiとする)だけを行う必要もある。そして、第2段階レジストレーションでは、1回だけ勾配法(この繰り返し回数もiとする)を行う必要がある。
初期の勾配法では、入力画像のHessian行列を繰り返しごとに計算する必要があった。このため、本発明では、各フレーム画像に対して、(i×i+i)回だけHessian行列を求める必要があり、領域選択を行わない通常の勾配法と比較して計算量が大きく増加する。
ところで、入力画像のHessian行列を繰り返しごとに計算する代わりに、参照画像のHessian行列を1回だけ計算して利用する高速化手法(非特許文献15を参照)が提案されている。本発明では、非特許文献15に開示されたこの高速化手法を利用することによって、第1段階レジストレーションでは、Hessian行列の計算は各フレーム画像に対して1回で済み、そして、第2段階レジストレーションでは、前処理で予め計算しておくことができるため、計算の大幅な高速化が可能である。

<6>本発明で行ったレジストレーション実験結果
以下では、本発明の画像レジストレーション方法(以下、単に本発明とも呼ぶ)を使用し、実画像を用いて、幾つかのレジストレーション実験を行い、本発明の有効性を確認した。つまり、平面だけでなく、あらゆる形状を有する対象にも適用が可能であること、照明変化やオクルージョンに対するロバスト性、レジストレーションの高精度性といった本発明の独自な優れた効果を、後述するレジストレーション実験によって確認した。
後述するレジストレーション実験には、PointGray社製DragonFlyという単板カラーVGAカメラ(30FPS)を固定して利用した。レジストレーションには、デモザイキング処理の後に、変換した輝度成分を利用した。

実験1(従来手法との比較実験):
まず、本発明と従来の画像レジストレーション方法(以下、単に従来手法とも呼ぶ)とを比較するレジストレーション実験を行った。
実験1では、300フレームで構成される時系列画像を使用し、注目領域(ROI)のサイズは、200[画素]×200[画素]である。また、トラッキング対象は、固定された平面に貼り付けた航空写真のポスターである。照明変化とオクルージョンを作るために、ポスター上で手を移動させた。手の影は照明変化に相当し、手の部分はオクルージョンになる。
実験1では、カメラを固定した状態で、移動せず固定された平面形状の対象(航空写真のポスター)を撮影しているので、正解となるモーションパラメータは、対象の位置が変化しないため、当然、単位行列となる。
実験1を通して、照明変化やオクルージョンがある場合に、従来手法ではレジストレーションが失敗するような状況でも、本発明を使うことで、失敗すること無く高精度にレジストレーションが可能であることを確認した。
図4に、実験1のレジストレーション結果を示す。図4に示されるように、実験1で利用された時系列画像中の一部の画像(即ち、第1フレーム、第72フレーム、第150フレーム、第240フレーム)に対するレジストレーション結果を示す。
具体的に、図4(A)は、参照画像(先頭フレームである第1フレーム)で設定された注目領域(ROI)のトラッキング結果を示す。そして、図4(B)は、注目領域(ROI)に対して、推定されたモーションパラメータで入力画像全体を平面射影変換した画像を示す。モーションパラメータが正確に推定されていれば、注目領域が静止して表示されるはずである。なお、図4(B)では、トラッキング用マスク画像を薄い青で示してある。
図4(C)には、注目領域(ROI)におけるトラッキング用マスク画像
Figure 2007257287
を示す。図4(D)には、注目領域(ROI)における誤差補正用マスク画像
Figure 2007257287
を示す。図4(C)及び図4(D)から分かるように、手の影による照明変化や手によるオクルージョンがあると、参照画像に対する誤差補正用マスク画像
Figure 2007257287
の面積は小さくなるが、トラッキング用マスク画像
Figure 2007257287
はそれほど影響を受けないため、トラッキングは継続して行うことができる。一方、手の影による照明変化や手によるオクルージョンが取り除かれると、参照画像に対する誤差補正用マスク画像
Figure 2007257287
の面積も増加する。
図5(A)には、実験1で使用されたトラッキング用マスク画像
Figure 2007257287
及び誤差補正用マスク画像
Figure 2007257287
の面積の変化を示す。図5(A)から分かるように、点線で示されたトラッキング用マスク画像
Figure 2007257287
の面積は、手によるオクルージョンがある期間に、減少するが、全フレームを通して、トラッキングを行うのに十分な面積が確保されている。
図5(B)に、実験1において、点線で示された第1段階のレジストレーション後と、実線で示された第2段階のレジストレーション後の平均SSDを示す。ここで言う平均SSDとは、勾配法による繰り返しが収束したと判断したときの画像間のSSD(最小SSD)を、マスク画像の面積で割ったものである。
図5(B)から分かるように、第1段階レジストレーションでは、平均SSDは、常に低い値となり、安定にかつ高精度にレジストレーションができていることを示している。一方、第2段階レジストレーションでは、参照画像に対して入力画像が変化するに従い、平均SSDも増加する。図5(B)において、第2段階のレジストレーション後の平均SSDを示す実線がとぎれている区間は、図5(A)における実線で示された誤差補正用マスク画像
Figure 2007257287
の面積が小さくなったために、第2段階レジストレーションを行わなかったフレームを表す。
図5(C)に、実験1において、従来のレジストレーション方法を用いた結果を示し、つまり、注目領域内の画素を全て利用して階層化探索法と勾配法によるレジストレーション後の平均SSDを示す。図5(C)から分かるように、注目領域そのまま利用し、領域選択を行わない従来のレジストレーション方法では、注目領域内の照明変化やオクルージョンがあると、単純にこの平均SSDは大きくなり、やがてレジストレーションが失敗してしまう。図5(C)における平均SSDの大きさは、図5(B)の本発明のマスク画像を利用した場合の平均SSDに対して、2桁ほども大きな値である。図5(C)の平均SSDが非常に大きいということは、レジストレーションが不安定になる可能性を示すだけでなく、不正確であることをも示している。
実験1では、モーションが事前に既知なので、つまり、正解となるモーションパラメータは単位行列であるため、推定したモーションパラメータによる位置の誤差でモーション推定精度を評価した(非特許文献15を参照)。図6に、実験1において、注目領域内に設定した200×200ヶ所の位置を使った、推定したモーションパラメータによる正解位置からの距離のRMSE(Root Mean Square Error;二乗平均誤差)を示す。
具体的に、図6では、(4)で示す実線で表された本発明の領域選択2段階レジストレーション方法によるレジストレーションを、(1)で示す実線で表された従来のレジストレーション方法(つまり、注目領域を全て利用して階層化探索法と勾配法)による入力画像と参照画像との直接レジストレーション、(2)で示す点線で表された従来のレジストレーション方法(つまり、注目領域を全て利用して階層化探索法と勾配法)による隣接フレーム間モーションの積算であるレジストレーション、(3)で示す点線で表された本発明の第1段階レジストレーションのみによるレジストレーション、と比較した。
図6から分かるように、(1)と(2)の従来のレジストレーション方法は、72フレーム付近でトラッキングに失敗しているが、(3)の本発明の第1段階レジストレーションと(4)の本発明の領域選択2段階レジストレーション方法は、最終フレームまでトラッキングに成功している。また、(3)の本発明の第1段階レジストレーション手法では、時間の経過とともに位置誤差が大きくなるが、(4)の本発明の領域選択2段階レジストレーション方法では、第2段階レジストレーションが再開される186フレーム付近から、再び高精度なトラッキングを再開する。

実験2(非平面対象のロバストトラッキング実験):

実験2では、トラッキング対象は直径約14[cm]の地球儀で、手でゆっくりと左右に回転させており、トラッキング対象である地球儀を撮影した300フレームで構成される時系列画像を使用し、注目領域(ROI)のサイズは100[画素]×100[画素]である。
実験2を通して、トラッキング対象が非平面の形状を有しても、本発明の領域選択2段階レジストレーション方法によって、ロバストトラッキングが可能なことを確認した。
図7に、実験2のレジストレーション結果を示す。図7に示されるように、実験2で利用された時系列画像中の一部の画像(即ち、第1フレーム、第104フレーム、第187フレーム、第283フレーム)に対するレジストレーション結果を示す。
具体的に、図7(A)は、参照画像(先頭フレームである第1フレーム)で設定された注目領域(ROI)のトラッキング結果を示す。そして、図7(B)は、注目領域(ROI)に対して、推定されたモーションパラメータで入力画像全体を平面射影変換した画像を示す。なお、図7(B)では、トラッキング用マスク画像を薄い青で示してある。図7(C)には、注目領域(ROI)におけるトラッキング用マスク画像
Figure 2007257287
を示す。図7(D)には、注目領域(ROI)における誤差補正用マスク画像
Figure 2007257287
を示す。
図8(A)には、実験2で使用されたトラッキング用マスク画像
Figure 2007257287
及び誤差補正用マスク画像
Figure 2007257287
の面積の変化を示す。図8(B)に、実験2において、点線で示された第1段階のレジストレーション後と、実線で示された第2段階のレジストレーション後の平均SSDを示す。また、図8(C)に、実験2において、従来のレジストレーション方法を用いた結果を示し、つまり、注目領域内の画素を全て利用して階層化探索法と勾配法によるレジストレーション後の平均SSDを示す。
図8から分かるように、本発明のトラッキング用マスク画像
Figure 2007257287
の面積が大きく保たれること(図8(A)の点線を参照)と、注目領域を全て利用する従来のレジストレーション方法(図8(C)を参照)と比較して平均SSDが小さな値のままで推移する(図8(B)の点線を参照)ために、トラッキング対象が非平面であるにも関わらず、本発明を用いれば、良好にトラッキングができた。
また、図8から、注目領域の照明変化のために、本発明の誤差補正用マスク画像
Figure 2007257287
がいったん消失して、第2段階レジストレーションを行わない期間がある(図8(B)の実線を参照)が、トラッキング対象である地球儀の回転角度が元に戻ると、誤差補正用マスク画像
Figure 2007257287
が復活して、第2段階レジストレーションによって積算誤差が補正されることが分かる。

実験3(顔のロバストトラッキング実験):
実験2では、トラッキング対象は室内で撮影した人物の顔で、固定した室内照明下で顔の向きを変化させているために、照明変化がある。また、顔は非平面であるだけでなく、形状もわずかではあるが変化する。実験3では、トラッキング対象である顔を撮影した600フレームで構成された時系列画像を使用し、注目領域(ROI)のサイズは90[画素]×100[画素]である。
実験3を通して、通常では従来の領域ベースレジストレーション方法を用いないようなトラッキング対象であっても、本発明の領域選択2段階レジストレーション方法によって、ロバストトラッキングが可能であることを確認した。
図9に、実験3のレジストレーション結果を示す。図9に示されるように、実験3で利用された時系列画像中の一部の画像(即ち、第1フレーム、第104フレーム、第460フレーム、第555フレーム)に対するレジストレーション結果を示す。
具体的に、図9(A)は、参照画像(先頭フレームである第1フレーム)で設定された注目領域(ROI)のトラッキング結果を示す。そして、図9(B)は、注目領域(ROI)に対して、推定されたモーションパラメータで入力画像全体を平面射影変換した画像を示す。なお、図9(B)では、トラッキング用マスク画像を薄い青で示してある。図9(C)には、注目領域(ROI)におけるトラッキング用マスク画像
Figure 2007257287
を示す。図9(D)には、注目領域(ROI)における誤差補正用マスク画像
Figure 2007257287
を示す。
図10(A)には、実験3で使用されたトラッキング用マスク画像
Figure 2007257287
及び誤差補正用マスク画像
Figure 2007257287
の面積の変化を示す。図10(B)に、実験3において、点線で示された第1段階のレジストレーション後と、実線で示された第2段階のレジストレーション後の平均SSDを示す。また、図8(C)に、実験3において、従来のレジストレーション方法を用いた結果を示し、つまり、注目領域内の画素を全て利用して階層化探索法と勾配法によるレジストレーション後の平均SSDを示す。
図10から分かるように、実験3で使用された時系列画像では、参照画像に対する入力画像の変化が多いため、本発明の第2段階レジストレーションは、初期期間まで、つまり25フレームまで、しか行われていない。
しかし、図10から、本発明のトラッキング用マスク画像
Figure 2007257287
の面積が大きく保たれること(図10(A)の点線を参照)と、注目領域を全て利用する従来のレジストレーション方法(図10(C)を参照)と比較して平均SSDが小さな値のままで推移する(図10(B)の点線を参照)ために、人物の顔であるような非平面で形状も変化するトラッキング対象であっても、本発明を用いれば、例え第2段階レジストレーションによって積算誤差の補正が行われなくても、良好なトラッキングが継続していること(図9(B)を参照)が分かる。

なお、上述した本発明の実施形態において、画像レジストレーションを行う際に、平面射影変換に基づいて画像の変形を行ったが、本発明でいう平面射影変換は、平面射影変換だけでなく、平面射影変換の特殊な場合として、アフィン変換、スケール変換、回転変換、平行変換、及びこれらの組み合わせによる変換をも含む。
本発明におけるマスク画像の生成方法を説明するための模式図である。 本発明における第1段階レジストレーションを説明するための模式図である。 本発明における第2段階レジストレーションを説明するための模式図である。 本発明の画像レジストレーション方法による実験1のレジストレーション結果を示す。図である。 実験1において、本発明のトラッキング用マスク画像と誤差補正用マスク画像の面積の変化、本発明の第1段階、第2段階のレジストレーション後の平均SSD、従来のレジストレーション方法によるレジストレーション後の平均SSDをそれぞれ示す図である。 実験1において、推定したモーションパラメータによる正解位置からの距離のRMSEを示す図である。 本発明の画像レジストレーション方法による実験2のレジストレーション結果を示す。図である。 実験2において、本発明のトラッキング用マスク画像と誤差補正用マスク画像の面積の変化、本発明の第1段階、第2段階のレジストレーション後の平均SSD、従来のレジストレーション方法によるレジストレーション後の平均SSDをそれぞれ示す図である。 本発明の画像レジストレーション方法による実験3のレジストレーション結果を示す。図である。 実験3において、本発明のトラッキング用マスク画像と誤差補正用マスク画像の面積の変化、本発明の第1段階、第2段階のレジストレーション後の平均SSD、従来のレジストレーション方法によるレジストレーション後の平均SSDをそれぞれ示す図である。

Claims (5)

  1. 対象を撮影した時系列画像中の参照画像と注目画像との間に高精度なレジストレーションを行う画像レジストレーション方法であって、
    前記参照画像上の所定の領域を注目領域に設定し、
    前記レジストレーションを行う際に、設定された前記注目領域内で、所定の変換によって正確にレジストレーションできる領域を表すマスク画像の画素に基づき、モーションパラメータを推定することを特徴とする画像レジストレーション方法。
  2. 画像間の類似度評価を利用することによって、前記マスク画像を生成する請求項1に記載の画像レジストレーション方法。
  3. 前記所定の変換は、平面射影変換、アフィン変換、スケール変換、回転変換、平行移動、又はこれらの組み合わせによる変換である請求項2に記載の画像レジストレーション方法。
  4. ROIは前記注目領域を表し、また、画像
    Figure 2007257287
    を、ある変換パラメータ
    Figure 2007257287
    で変形することで、画像
    Figure 2007257287
    におおよそレジストレーションできているとした場合に、次の数式が成立し、
    Figure 2007257287
    このとき、前記注目領域内の画素

    Figure 2007257287
    を中心とする小領域に対する、画像
    Figure 2007257287
    と前記画像
    Figure 2007257287
    の間のSSDを、次のように定義し、
    Figure 2007257287
    ただし、
    Figure 2007257287
    は画像間の平行移動を表すベクトルであり、Patchは前記小領域を表し、
    前記SSDが次の3つの条件を全て満たすときに、前記注目領域内の画素
    Figure 2007257287
    に対応する前記マスク画像の画素値を1とし、それ以外の場合には0とする請求項3に記載の画像レジストレーション方法。
    条件1:
    前記SSDは平行移動に関するサブピクセル位置ずれが0.5[画素]より小さいこと。
    条件2:
    前記SSDの最小値が十分に小さいこと。
    条件3:
    前記SSDの最小値を中心とするパラボラフィッティングをしたときの、水平方向と垂直方向に対する2次の係数のいずれかが閾値よりも大きいこと。
  5. 前記レジストレーションは、
    隣接フレーム間での変化のない画素を表すトラッキング用マスク画像を生成するとともに、隣接フレーム間のモーションパラメータを推定するという第1段階レジストレーションと、
    前記第1段階レジストレーションで推定したモーションパラメータで変形した注目画像と参照画像との間に、参照画像によく対応する注目画像中の画素を表す誤差補正用マスク画像を生成し、生成した誤差補正用マスク画像を使って、参照画像に対する注目画像のモーションパラメータを推定し直すという第2段階レジストレーションと、
    から構成される請求項4に記載の画像レジストレーション方法。
JP2006080784A 2006-03-23 2006-03-23 画像レジストレーション方法 Pending JP2007257287A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2006080784A JP2007257287A (ja) 2006-03-23 2006-03-23 画像レジストレーション方法
US12/293,442 US20090245692A1 (en) 2006-03-23 2007-03-23 Image registration method
EP07740449A EP2006805A2 (en) 2006-03-23 2007-03-23 Image registration method
CNA2007800101759A CN101405768A (zh) 2006-03-23 2007-03-23 图像配准方法
PCT/JP2007/057011 WO2007108563A1 (ja) 2006-03-23 2007-03-23 画像レジストレーション方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006080784A JP2007257287A (ja) 2006-03-23 2006-03-23 画像レジストレーション方法

Publications (1)

Publication Number Publication Date
JP2007257287A true JP2007257287A (ja) 2007-10-04

Family

ID=38522584

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006080784A Pending JP2007257287A (ja) 2006-03-23 2006-03-23 画像レジストレーション方法

Country Status (5)

Country Link
US (1) US20090245692A1 (ja)
EP (1) EP2006805A2 (ja)
JP (1) JP2007257287A (ja)
CN (1) CN101405768A (ja)
WO (1) WO2007108563A1 (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009232450A (ja) * 2008-03-24 2009-10-08 Fujitsu Ltd 画像処理方法、画像処理装置及び透かし検出システム
WO2009150882A1 (ja) * 2008-06-10 2009-12-17 国立大学法人東京工業大学 画像位置合わせ処理装置、領域拡張処理装置及び画質改善処理装置
US8233736B2 (en) 2007-11-16 2012-07-31 Samsung Electronics Co., Ltd. Digital photographing apparatus, method of controlling the same, and recording medium having recorded thereon program for executing the method
US8350955B2 (en) 2008-02-18 2013-01-08 Samsung Electronics Co., Ltd. Digital photographing apparatus, method of controlling the digital photographing apparatus, and recording medium having recorded thereon a program for executing the method
JP2013508849A (ja) * 2009-10-22 2013-03-07 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 標本からの画像の順位付けされたスタックの整列
WO2013133368A1 (ja) 2012-03-07 2013-09-12 オリンパス株式会社 画像処理装置、プログラム及び画像処理方法
WO2013157354A1 (ja) 2012-04-18 2013-10-24 オリンパス株式会社 画像処理装置、プログラム及び画像処理方法
WO2014103903A1 (ja) 2012-12-28 2014-07-03 オリンパス株式会社 画像処理装置、画像処理方法及びプログラム
JP2014143702A (ja) * 2007-11-12 2014-08-07 Qualcomm Incorporated ブロックベースの画像安定化
WO2015015869A1 (ja) 2013-08-02 2015-02-05 オリンパス株式会社 画像処理装置、画像処理方法及びプログラム
WO2016013470A1 (ja) * 2014-07-22 2016-01-28 オリンパス株式会社 画像処理装置、画像処理方法、画像処理プログラム、及び撮像システム
US9547794B2 (en) 2012-03-08 2017-01-17 Olympus Corporation Image processing device, information storage device, and image processing method
WO2017126036A1 (ja) * 2016-01-19 2017-07-27 オリンパス株式会社 画像処理装置、画像処理方法および画像処理プログラム
US10078906B2 (en) 2016-03-15 2018-09-18 Fujifilm Corporation Device and method for image registration, and non-transitory recording medium
WO2020144760A1 (ja) * 2019-01-09 2020-07-16 オリンパス株式会社 画像処理装置、画像処理方法および画像処理プログラム

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ATE396461T1 (de) * 2005-07-13 2008-06-15 Lasersoft Imaging Ag Bereitstellung einer digitalen kopie eines quellbildes
WO2010092772A1 (ja) * 2009-02-12 2010-08-19 日本電信電話株式会社 多視点画像符号化方法、多視点画像復号方法、多視点画像符号化装置、多視点画像復号装置、多視点画像符号化プログラムおよび多視点画像復号プログラム
WO2010095471A1 (ja) * 2009-02-23 2010-08-26 日本電信電話株式会社 多視点画像符号化方法、多視点画像復号方法、多視点画像符号化装置、多視点画像復号装置、多視点画像符号化プログラムおよび多視点画像復号プログラム
US8958484B2 (en) * 2009-08-11 2015-02-17 Google Inc. Enhanced image and video super-resolution processing
US8867836B2 (en) 2009-09-01 2014-10-21 Children's Medical Center Corporation Image registration methods and apparatus using random projections
JP2012068380A (ja) * 2010-09-22 2012-04-05 Sony Corp 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
US9147251B2 (en) 2012-08-03 2015-09-29 Flyby Media, Inc. Systems and methods for efficient 3D tracking of weakly textured planar surfaces for augmented reality applications
US8860825B2 (en) * 2012-09-12 2014-10-14 Google Inc. Methods and systems for removal of rolling shutter effects
US10015527B1 (en) * 2013-12-16 2018-07-03 Amazon Technologies, Inc. Panoramic video distribution and viewing
CN104182771B (zh) * 2014-07-30 2017-04-05 北京航空航天大学 基于带丢包自动编码技术的时间序列数据图形化分析方法
CN104851100B (zh) * 2015-05-22 2018-01-16 清华大学深圳研究生院 可变光源下的双目视图立体匹配方法
US9940731B2 (en) * 2015-09-04 2018-04-10 International Business Machines Corporation Unsupervised asymmetry detection
CN106023187B (zh) * 2016-05-17 2019-04-19 西北工业大学 一种基于sift特征和角度相对距离的图像配准方法
US11074672B2 (en) * 2017-04-19 2021-07-27 Capsovision Inc. Method of image processing and display for images captured by a capsule camera
CN108765476B (zh) * 2018-06-05 2021-04-20 安徽大学 一种偏振图像配准方法
CN109472817B (zh) * 2018-09-27 2021-08-03 浙江工业大学 一种基于循环生成对抗网络的多序列磁共振图像配准方法
CN111161329B (zh) * 2019-09-10 2023-06-20 沈阳工业大学 利用联合配准改善图像人脸个体配准性能方法及系统
CN112561850A (zh) * 2019-09-26 2021-03-26 上海汽车集团股份有限公司 一种汽车涂胶检测方法、设备及存储介质
JP2021152798A (ja) * 2020-03-24 2021-09-30 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
CN113724300A (zh) * 2020-05-25 2021-11-30 北京达佳互联信息技术有限公司 图像配准方法、装置、电子设备及存储介质
CN112348861B (zh) * 2020-11-02 2023-04-28 上海联影医疗科技股份有限公司 图像处理方法、装置、设备及存储介质
CN113298856B (zh) * 2021-05-28 2023-10-20 上海联影医疗科技股份有限公司 一种图像配准方法、装置、设备和介质
CN113409373B (zh) * 2021-06-25 2023-04-07 浙江商汤科技开发有限公司 图像处理方法及相关终端、设备和存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04281688A (ja) * 1990-09-07 1992-10-07 Philips Gloeilampenfab:Nv 3次元対象物のトラッキング方法及び装置
JPH08335269A (ja) * 1995-06-07 1996-12-17 Sony Corp 配列の誤差評価方法及び動きベクトル推定方法
JP2003281548A (ja) * 2002-03-26 2003-10-03 Toshiba Corp 映像編集方法及びプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6741725B2 (en) * 1999-05-26 2004-05-25 Princeton Video Image, Inc. Motion tracking using image-texture templates

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04281688A (ja) * 1990-09-07 1992-10-07 Philips Gloeilampenfab:Nv 3次元対象物のトラッキング方法及び装置
JPH08335269A (ja) * 1995-06-07 1996-12-17 Sony Corp 配列の誤差評価方法及び動きベクトル推定方法
JP2003281548A (ja) * 2002-03-26 2003-10-03 Toshiba Corp 映像編集方法及びプログラム

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014143702A (ja) * 2007-11-12 2014-08-07 Qualcomm Incorporated ブロックベースの画像安定化
US8233736B2 (en) 2007-11-16 2012-07-31 Samsung Electronics Co., Ltd. Digital photographing apparatus, method of controlling the same, and recording medium having recorded thereon program for executing the method
US8350955B2 (en) 2008-02-18 2013-01-08 Samsung Electronics Co., Ltd. Digital photographing apparatus, method of controlling the digital photographing apparatus, and recording medium having recorded thereon a program for executing the method
JP2009232450A (ja) * 2008-03-24 2009-10-08 Fujitsu Ltd 画像処理方法、画像処理装置及び透かし検出システム
JP5294343B2 (ja) * 2008-06-10 2013-09-18 国立大学法人東京工業大学 画像位置合わせ処理装置、領域拡張処理装置及び画質改善処理装置
WO2009150882A1 (ja) * 2008-06-10 2009-12-17 国立大学法人東京工業大学 画像位置合わせ処理装置、領域拡張処理装置及び画質改善処理装置
JP2013508849A (ja) * 2009-10-22 2013-03-07 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 標本からの画像の順位付けされたスタックの整列
WO2013133368A1 (ja) 2012-03-07 2013-09-12 オリンパス株式会社 画像処理装置、プログラム及び画像処理方法
US9576362B2 (en) 2012-03-07 2017-02-21 Olympus Corporation Image processing device, information storage device, and processing method to acquire a summary image sequence
US9672619B2 (en) 2012-03-08 2017-06-06 Olympus Corporation Image processing device, information storage device, and image processing method
US9547794B2 (en) 2012-03-08 2017-01-17 Olympus Corporation Image processing device, information storage device, and image processing method
WO2013157354A1 (ja) 2012-04-18 2013-10-24 オリンパス株式会社 画像処理装置、プログラム及び画像処理方法
US10037468B2 (en) 2012-04-18 2018-07-31 Olympus Corporation Image processing device, information storage device, and image processing method
US9740939B2 (en) 2012-04-18 2017-08-22 Olympus Corporation Image processing device, information storage device, and image processing method
US9349159B2 (en) 2012-12-28 2016-05-24 Olympus Corporation Image processing device, image processing method, and information storage device
JP2014128390A (ja) * 2012-12-28 2014-07-10 Olympus Corp 画像処理装置、画像処理方法及びプログラム
WO2014103903A1 (ja) 2012-12-28 2014-07-03 オリンパス株式会社 画像処理装置、画像処理方法及びプログラム
EP2940652A4 (en) * 2012-12-28 2016-10-12 Olympus Corp IMAGE PROCESSING PROGRAM, METHOD, AND DEVICE
US9898664B2 (en) 2013-08-02 2018-02-20 Olympus Corporation Image processing device, image processing method, and information storage device
WO2015015869A1 (ja) 2013-08-02 2015-02-05 オリンパス株式会社 画像処理装置、画像処理方法及びプログラム
WO2016013470A1 (ja) * 2014-07-22 2016-01-28 オリンパス株式会社 画像処理装置、画像処理方法、画像処理プログラム、及び撮像システム
JP2016025530A (ja) * 2014-07-22 2016-02-08 オリンパス株式会社 画像処理装置、画像処理方法、画像処理プログラム、及び撮像システム
US10089768B2 (en) 2014-07-22 2018-10-02 Olympus Corporation Image processing device, image processing method, image processing program, and imaging system
WO2017126036A1 (ja) * 2016-01-19 2017-07-27 オリンパス株式会社 画像処理装置、画像処理方法および画像処理プログラム
JPWO2017126036A1 (ja) * 2016-01-19 2018-11-08 オリンパス株式会社 画像処理装置、画像処理方法および画像処理プログラム
US10078906B2 (en) 2016-03-15 2018-09-18 Fujifilm Corporation Device and method for image registration, and non-transitory recording medium
WO2020144760A1 (ja) * 2019-01-09 2020-07-16 オリンパス株式会社 画像処理装置、画像処理方法および画像処理プログラム
JPWO2020144760A1 (ja) * 2019-01-09 2021-11-18 オリンパス株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP7110397B2 (ja) 2019-01-09 2022-08-01 オリンパス株式会社 画像処理装置、画像処理方法および画像処理プログラム
US11948328B2 (en) 2019-01-09 2024-04-02 Olympus Corporation Image-processing device, image-processing method, and image-processing program

Also Published As

Publication number Publication date
CN101405768A (zh) 2009-04-08
EP2006805A9 (en) 2009-07-29
EP2006805A2 (en) 2008-12-24
US20090245692A1 (en) 2009-10-01
WO2007108563A1 (ja) 2007-09-27

Similar Documents

Publication Publication Date Title
JP2007257287A (ja) 画像レジストレーション方法
Ha et al. High-quality depth from uncalibrated small motion clip
Rhodin et al. General automatic human shape and motion capture using volumetric contour cues
Kawai et al. Diminished reality based on image inpainting considering background geometry
KR101175097B1 (ko) 파노라마 영상 생성 방법
US5963664A (en) Method and system for image combination using a parallax-based technique
JP5294343B2 (ja) 画像位置合わせ処理装置、領域拡張処理装置及び画質改善処理装置
Sato et al. High-resolution video mosaicing for documents and photos by estimating camera motion
Senst et al. Robust local optical flow: Long-range motions and varying illuminations
JP3557168B2 (ja) レンズ歪み係数算出装置および算出方法、レンズ歪み係数算出プログラムを記録したコンピュータ読み取り可能な記録媒体
RU2384882C1 (ru) Способ автоматической компоновки ландшафтных панорамных изображений
Favorskaya et al. Warping techniques in video stabilization
Inzerillo Super-resolution images on mobile smartphone aimed at 3D modeling
Robinault et al. Real Time Foreground Object Detection using PTZ Camera.
Cao et al. Video synchronization and its application to object transfer
Vivet et al. Dlig: Direct local indirect global alignment for video mosaicing
Ye Image registration and super-resolution mosaicing
Nebel et al. Range flow from stereo-temporal matching: application to skinning
Cao et al. Constructing big panorama from video sequence based on deep local feature
Gao et al. Multi-frame super-resolution reconstruction based on global motion estimation using a novel CNN descriptor
Shimizu et al. Robust and accurate image registration with pixel selection
Cheng et al. Image-based three-dimensional model reconstruction for Chinese treasure—Jadeite Cabbage with Insects
Ma et al. Deformable surface 3D reconstruction from a single image by linear programming.
Schreiber Incorporating symmetry into the Lucas–Kanade framework
Xue et al. Image Stitching via Augmentation Selection and Comprehensive Optimization of Homography Models

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100406

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101130