JP3548071B2 - Intermediate image synthesizing method, intermediate image synthesizing device, recording medium storing intermediate image synthesizing program - Google Patents

Intermediate image synthesizing method, intermediate image synthesizing device, recording medium storing intermediate image synthesizing program Download PDF

Info

Publication number
JP3548071B2
JP3548071B2 JP2000030394A JP2000030394A JP3548071B2 JP 3548071 B2 JP3548071 B2 JP 3548071B2 JP 2000030394 A JP2000030394 A JP 2000030394A JP 2000030394 A JP2000030394 A JP 2000030394A JP 3548071 B2 JP3548071 B2 JP 3548071B2
Authority
JP
Japan
Prior art keywords
image
coefficient
intermediate image
geometric transformation
pixel value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000030394A
Other languages
Japanese (ja)
Other versions
JP2001222707A (en
Inventor
直樹 千葉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2000030394A priority Critical patent/JP3548071B2/en
Publication of JP2001222707A publication Critical patent/JP2001222707A/en
Application granted granted Critical
Publication of JP3548071B2 publication Critical patent/JP3548071B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、中間画像合成方法、中間画像合成装置、中間画像合成プログラムを記録した記録媒体に関する。
【0002】
【従来の技術】
2枚の画像からオプティカルフローを計算し、得られたオプティカルフローに基づいて、2枚の画像間での位置合わせを行う技術が知られている。従来のオプテカルフローの算出方法について説明する。
【0003】
(1)Lucas−Kanade法
従来から、動画像における運動物体の見かけの速度場(オプティカルフロー)を計算する手法が数多く提案されている。中でも局所勾配法であるLucas−Kanade法は、最も良い手法の一つである。その理由は、処理が高速、実装が容易、結果が信頼度を持つことである。
【0004】
Lucas−Kanade法の詳細については、文献: B.Lucas and T.Kanade,”An Iterative Image Registration Technique with an Application to Stereo Vision,”In Seventh International Joint Conference on Artificial Intelligence(IJCAI−81), pp. 674−979, 1981を参照のこと。
【0005】
以下に、Lucas−Kanade法の概要を述べる。
ある時刻tの画像座標p=(x,y)の濃淡パターンI(x,y,t)が、ある微小時間後(δt)に座標(x+δx,y+δy)に、その濃淡分布を一定に保ったまま移動した時、次のオプティカルフロー拘束式1が成り立つ。
【0006】
【数1】

Figure 0003548071
【0007】
2次元画像でオプティカルフロー{v=(δx/δt,δy/δt)=(u,v)}を計算するには、未知パラメータ数が2個であるので、もう一個拘束式が必要である。Lucas とKanade( 金出) は、同一物体の局所領域では、同一のオプティカルフローを持つと仮定した。
【0008】
例えば、画像上の局所領域ω内で、オプティカルフローが一定であるとすると、最小化したい濃淡パターンの二乗誤差Eは、
(p)=I(x,y,t),
(p+v)=I(x+u,y+v,t+δt)
と書き改めると、次式2で定義できる。
【0009】
【数2】
Figure 0003548071
【0010】
ここで、vが微少な場合には、テーラー展開の2次以上の項を無視できるので、次式3の関係が成り立つ。
【0011】
【数3】
Figure 0003548071
【0012】
ここで、g(p)は、I(p)の一次微分である。
【0013】
誤差Eが最小になるのは、Eのvに対する微分値が0の時であるので、次式4の関係が成り立つ。
【0014】
【数4】
Figure 0003548071
【0015】
故にオプティカルフローvは次式5で求められる。
【0016】
【数5】
Figure 0003548071
【0017】
更に、次式6に示すように、ニュートン・ラフソン的な反復演算によって精度良く求めることができる。
【0018】
【数6】
Figure 0003548071
【0019】
(2)階層的推定法
Lucas−Kanade法を含む勾配法の最も大きな問題点は、良好な初期値が必要なために、大きな動きに対しては適用できないことである。そこで、従来からピラミッド階層構造型に数段回の解像度の異なる画像を作成して解決する方法が提案されている。
【0020】
これは、まず、2枚の連続した画像から、予めそれぞれの画像の数段階の解像度の異なる画像を作成する。次に、最も解像度の低い画像間において、おおまかなオプティカルフローを計算する。そして、この結果を参考にして、一段解像度の高い画像間においてより精密なオプティカルフローを計算する。この処理を最も解像度の高い画像間まで順次繰り返す。
【0021】
図4は原画像を、図3は図4の原画像より解像度の低い画像を、図2は図3の低解像度画像より解像度の低い画像を、図1は図2の低解像度画像より解像度の低い画像を、それぞれ示している。図1〜図4において、Sは、1つのパッチを示している。
【0022】
図1の画像(階層1の画像)、図2の画像(階層2の画像)、図3の画像(階層3の画像)および図4の画像(階層4の画像)の順番で段階的にオプティカルフローが求められる。図1〜図4において矢印は、パッチ毎に求められたオプティカルフローベクトルを示している。
【0023】
しかしながら、ここでの問題点は、実画像では、十分な模様(テクスチャ)を含む領域が少なく、信頼性のあるオプティカルフローが得られないことにある。
【0024】
ところで、周辺環境を画像に記録し、表示するために動画像が利用されるが、データ量が多いという問題がある。また、動画像は撮像された順にしか表示できないため、対話的な表示方法ができない。そこで、遠隔地の実画像を蓄積し、その3次元空間をウォークスルーするような人工現実感システムが開発されている。
【0025】
これは、複数の静止画を蓄積し、ユーザの位置とその視線方向に応じて画像を提示するものである。しかしながら、従来の技術では、視線を徐々に変えた際に、動作が不連続になるという問題がある。なぜなら、画像を提示する際に、ユーザの位置とその視線方向に応じて、幾何学的に最近傍の静止画像を選択するため、画像の切り替え時に静止画像間で差異が生じ、結果として、ユーザは不連続にウォークスルーしている印象を受ける。
【0026】
この差異を少なくするために、密に静止画像を撮像すると、データ量が増える。あるいは、その差異を目立たなくするために、ユーザの位置や視線方向に応じて提示する画像の画素値を各静止画像の重みを変えて、単純に合成することが考えられるが、撮像された対象物が二重に表示されるなど、合成精度が良くない。
【0027】
【発明が解決しようとする課題】
この発明の目的は、2つの静止画像の中間画像を精度良く合成することができる中間画像合成方法、中間画像合成装置、中間画像合成プログラムを記録した記録媒体を提供することにある。
【0028】
【課題を解決するための手段】
この発明による第1の中間画像合成方法は、第1画像と第2画像との中間画像を合成する中間画像合成方法であって、第1画像と第2画像との間の幾何変換係数を算出する第1ステップ、第1画像と第2画像との間の幾何変換係数と所与の内分比とに基づいて、各画像を中間画像に変換するための幾何変換係数をそれぞれ求める第2ステップ、および各画像を中間画像に変換するための幾何変換係数にもとづいて、第1画像と第2画像との中間画像を生成する第3ステップを備えていることを特徴とする。
【0029】
第1ステップは、たとえば、第1画像と第2画像との重なり部を抽出するステップ、一方の画像における他方の画像との重なり部分から、両画像間のオプティカルフローによる追跡に有効な複数の部分画像を特徴点として抽出するステップ、上記一方の画像上の各特徴点に対応する上記他方の画像上の点を、両画像間のオプティカルフローに基づいて追跡するステップ、および上記追跡結果に基づいて、第1画像と第2画像との間の幾何変換係数を算出するステップを備えている。
【0030】
この発明による第2の中間画像合成方法は、第1画像と第2画像との中間画像を合成する中間画像合成方法であって、第1画像と第2画像との間の幾何変換係数を算出する第1ステップ、第1画像と第2画像との間の幾何変換係数と所与の内分比とに基づいて、各画像を中間画像に変換するための幾何変換係数をそれぞれ求める第2ステップ、第1画像と第2画像との重なり部の画素値を調合するための画素値調合係数を算出する第3ステップ、および各画像を中間画像に変換するための幾何変換係数および画素値調合係数に基づいて、第1画像と第2画像との中間画像を生成する第4ステップを備えていることを特徴とする。
【0031】
第1ステップは、たとえば、第1画像と第2画像との重なり部を抽出するステップ、一方の画像における他方の画像との重なり部分から、両画像間のオプティカルフローによる追跡に有効な複数の部分画像を特徴点として抽出するステップ、上記一方の画像上の各特徴点に対応する上記他方の画像上の点を、両画像間のオプティカルフローに基づいて追跡するステップ、および上記追跡結果に基づいて、第1画像と第2画像との間の幾何変換係数を算出するステップを備えている。
【0032】
画素値調合係数は、たとえば、中間画像合成後の各画像の重心から画素値調合対象画素までの距離に基づいて算出される。画素値調合係数は、たとえば、内分比に基づいて算出される。
【0033】
この発明による第1の中間画像合成装置は、第1画像と第2画像との中間画像を合成する中間画像合成装置であって、第1画像と第2画像との間の幾何変換係数を算出する第1手段、第1画像と第2画像との間の幾何変換係数と所与の内分比とに基づいて、各画像を中間画像に変換するための幾何変換係数をそれぞれ求める第2手段、および各画像を中間画像に変換するための幾何変換係数にもとづいて、第1画像と第2画像との中間画像を生成する第3手段を備えていることを特徴とする。
【0034】
第1手段としては、たとえば、第1画像と第2画像との重なり部を抽出する手段、一方の画像における他方の画像との重なり部分から、両画像間のオプティカルフローによる追跡に有効な複数の部分画像を特徴点として抽出する手段、上記一方の画像上の各特徴点に対応する上記他方の画像上の点を、両画像間のオプティカルフローに基づいて追跡する手段、および上記追跡結果に基づいて、第1画像と第2画像との間の幾何変換係数を算出する手段を備えているものが用いられる。
【0035】
この発明による第2の中間画像合成装置は、第1画像と第2画像との中間画像を合成する中間画像合成装置であって、第1画像と第2画像との間の幾何変換係数を算出する第1手段、第1画像と第2画像との間の幾何変換係数と所与の内分比とに基づいて、各画像を中間画像に変換するための幾何変換係数をそれぞれ求める第2手段、第1画像と第2画像との重なり部の画素値を調合するための画素値調合係数を算出する第3手段、および各画像を中間画像に変換するための幾何変換係数および画素値調合係数に基づいて、第1画像と第2画像との中間画像を生成する第4手段を備えていることを特徴とする。
【0036】
第1手段としては、たとえば、第1画像と第2画像との重なり部を抽出する手段、一方の画像における他方の画像との重なり部分から、両画像間のオプティカルフローによる追跡に有効な複数の部分画像を特徴点として抽出する手段、上記一方の画像上の各特徴点に対応する上記他方の画像上の点を、両画像間のオプティカルフローに基づいて追跡する手段、および上記追跡結果に基づいて、第1画像と第2画像との間の幾何変換係数を算出する手段を備えているものが用いられる。
【0037】
画素値調合係数は、たとえば、中間画像合成後の各画像の重心から画素値調合対象画素までの距離に基づいて算出される。画素値調合係数は、たとえば、内分比に基づいて算出される。
【0038】
この発明による第1の中間画像合成プログラムを記録したコンピュータ読み取り可能な記録媒体は、第1画像と第2画像との中間画像を合成する中間画像合成プログラムを記録したコンピュータ読み取り可能な記録媒体であって、第1画像と第2画像との間の幾何変換係数を算出する第1ステップ、第1画像と第2画像との間の幾何変換係数と所与の内分比とに基づいて、各画像を中間画像に変換するための幾何変換係数をそれぞれ求める第2ステップ、および各画像を中間画像に変換するための幾何変換係数にもとづいて、第1画像と第2画像との中間画像を生成する第3ステップをコンピュータに実行させるための中間画像合成プログラムを記録していることを特徴とする。
【0039】
第1ステップは、たとえば、第1画像と第2画像との重なり部を抽出するステップ、一方の画像における他方の画像との重なり部分から、両画像間のオプティカルフローによる追跡に有効な複数の部分画像を特徴点として抽出するステップ、上記一方の画像上の各特徴点に対応する上記他方の画像上の点を、両画像間のオプティカルフローに基づいて追跡するステップ、および上記追跡結果に基づいて、第1画像と第2画像との間の幾何変換係数を算出するステップを備えている。
【0040】
この発明による第2の中間画像合成プログラムを記録したコンピュータ読み取り可能な記録媒体は、第1画像と第2画像との中間画像を合成する中間画像合成プログラムを記録したコンピュータ読み取り可能な記録媒体であって、第1画像と第2画像との間の幾何変換係数を算出する第1ステップ、第1画像と第2画像との間の幾何変換係数と所与の内分比とに基づいて、各画像を中間画像に変換するための幾何変換係数をそれぞれ求める第2ステップ、第1画像と第2画像との重なり部の画素値を調合するための画素値調合係数を算出する第3ステップ、および各画像を中間画像に変換するための幾何変換係数および画素値調合係数に基づいて、第1画像と第2画像との中間画像を生成する第4ステップをコンピュータに実行させるための中間画像合成プログラムを記録していることを特徴とする。
【0041】
第1ステップは、たとえば、第1画像と第2画像との重なり部を抽出するステップ、一方の画像における他方の画像との重なり部分から、両画像間のオプティカルフローによる追跡に有効な複数の部分画像を特徴点として抽出するステップ、上記一方の画像上の各特徴点に対応する上記他方の画像上の点を、両画像間のオプティカルフローに基づいて追跡するステップ、および上記追跡結果に基づいて、第1画像と第2画像との間の幾何変換係数を算出するステップを備えている。
【0042】
画素値調合係数は、たとえば、中間画像合成後の各画像の重心から画素値調合対象画素までの距離に基づいて算出される。画素値調合係数は、たとえば、内分比に基づいて算出される。
【0043】
【発明の実施の形態】
以下、この発明の実施の形態について説明する。
【0044】
中間画像の合成方法を説明する前に、中間画像の合成方法において採用されるオプティカルフロー推定方法について説明しておく。
【0045】
〔1〕オプティカルフロー推定方法についての説明。
【0046】
この実施例で採用されるオプティカルフロー推定方法は、ピラミッド階層型に数段回の解像度の異なる画像を作成して、オプティカルフローを段階的に計算する階層的推定を前提としている。オプティカルフローの計算方法は、Lucas−Kanade法等の勾配法に従う。つまり、階層構造化した勾配法によるオプティカルフロー推定法を前提としている。ここでは、勾配法としてLucas−Kanade法が用いられている。
【0047】
この実施例で採用されるオプティカルフロー推定方法の特徴は、階層構造化したLucas−Kanade法によるオプティカルフロー推定法の各段階において得られたオプティカルフローを、膨張処理によって補完することにある。以下、これについて詳しく説明する。
【0048】
Lucas−Kanade法の長所の一つは、追跡結果が信頼性を持つことである。Tomasiと Kanade とは、ある領域の追跡可能性が、以下のように微分画像から算出できることを示した(C.Tomasi and T.Kanade,”Shape and Motion from Image Streams: a Factorization method−Part 3 Detection and Tracking of Point Features ,”CMU−CS−91−132, Carnegie Mellon University, 1991.) 。
【0049】
ある領域画像ωの垂直・水平方向の微分の2乗を要素に持つ次式7の2×2の係数行列Gから、その固有値を計算することで、その領域の追跡可能性を決定することができる。
【0050】
【数7】
Figure 0003548071
【0051】
この行列Gの固有値が両方とも大きい場合には、その領域は直交方向に変化を持ち、一意の位置決めが可能である。従って、小さい方の固有値λmin と、追跡後の領域間の濃淡残差Eから、追跡結果の信頼度γを次式8によって得ることができる。
【0052】
【数8】
Figure 0003548071
【0053】
本発明者らは、オプティカルフローの同一階層内で信頼度の高い結果を用いて、信頼度の低い領域を補間する方法を開発した。これは、一段階粗い階層での結果を、追跡の初期値だけに用いて、着目している現段階の階層の結果には何も利用しない。代わりに、テクスチャの少ない領域のオプティカルフローはその周囲のオプティカルフローに近い値を持つと仮定し、モルフォロジー処理によりフロー場を補完するものである。
【0054】
図5にフローベクトルの膨張処理の様子を示す。
【0055】
左図は、フローベクトルの信頼度のマップを濃淡で表したものである。ここで、黒ければ黒い程信頼度が高いとする。
【0056】
まず、得られたフローをしきい値処理する。白い部分は、結果の信頼度が低いために、しきい値処理されたものである。
【0057】
次に、2値画像でのモルフォロジー演算による穴埋め処理を模して、フロー場において結果の膨張処理を次のように行う。ある領域i,jのフローベクトルu(i,j)は、その4近傍のフローベクトルから信頼度γに応じて重み付けを行って次式9のように計算できる。
【0058】
【数9】
Figure 0003548071
【0059】
この処理を、しきい値処理されたすべての信頼度の低い領域が埋まるまで、繰り返す。この補完処理を、各階層において行う。なお、ある領域i,jのフローベクトルu(i,j)を、その8近傍のフローベクトルから信頼度γに応じて重み付けを行って算出するようにしてもよい。
【0060】
図6(a)は、ある階層の画像に対してしきい値処理されたオプティカルフローを示し、図6(b)は補完後のオプティカルフローを示している。図6(a)において、矢印はしきい値処理によって信頼度が高いと判定されたオプティカルフローベクトルであり、×印は信頼度が低いとされた部分を示している。
【0061】
〔2〕中間画像合成装置の説明
【0062】
以下、図7または図8に示すように、第1画像A1と第2画像A2とから、中間画像A12を生成するための中間画像合成装置について説明する。
【0063】
図7の第1画像A1と第2画像A2とは、ユーザ(撮像者)の位置を固定して、ユーザの視線方向のみを変化させた場合に得られた画像である。図8の第1画像A1と第2画像A2とは、ユーザ(撮像者)の視線方向を固定して、ユーザの位置を視線方向に対して平行に前進または後退させることにより得られた画像である。
【0064】
図9は、中間画像合成装置の構成を示している。
【0065】
パーソナルコンピュータ10には、ディスプレイ21、マウス22およびキーボード23が接続されている。パーソナルコンピュータ10は、CPU11、メモリ12、ハードディスク13、CD−ROMのようなリムーバブルディスクのドライブ(ディスクドライブ)14を備えている。
【0066】
ハードディスク13には、OS(オペレーティングシステム)等の他、中間画像合成プログラムが格納されている。中間画像合成プログラムは、それが格納されたCD−ROM20を用いて、ハードディスク13にインストールされる。また、ハードディスク13には、中間画像を合成するための2つの静止画像が予め格納されているものとする。
【0067】
図10は、中間画像合成プログラムが起動せしめられた場合にCPU11によって行われる中間画像合成処理手順を示している。
【0068】
(I) まず、ユーザによって指定された2枚の画像(第1画像A1及び第2画像A2)がメモリ12に読み込まれる(ステップ1)。
【0069】
(II)次に、第1画像A1と第2画像A2との重なり部の抽出処理が行われる(ステップ2)。この重なり部の抽出処理は、たとえば、SSD法(Sum of Squared
Difference)、正規化相互相関法に基づいて行われる。
【0070】
(a)SSD法の説明
SSD法では、まず、重なり部を抽出すべき2枚の画像A1、A2それぞれについて、原画像より解像度の低い画像I,Iが生成される。2枚の低解像度画像I,Iの重なり部分ω(サイズ:M×N)が、次式10に示すように画素あたりの2乗誤差Eを用いて求められる。画像間の移動量(d)が可能な範囲で変化せしめられ、Eが最も小さい移動量(d)から、重なり部が抽出される。
【0071】
【数10】
Figure 0003548071
【0072】
(b)正規化相互相関法の説明
正規化相互相関法では、まず、重なり部を抽出すべき2枚の画像A1、A2それぞれについて、原画像より解像度の低い画像I,Iが生成される。2枚の低解像度画像I,Iの重なり部分ω(サイズ:M×N)が、次式11に示すように正規化相互相関係数Cを用いて求められる。画像間の移動量(d)が可能な範囲で変化せしめられ、Cが最も大きな移動量(d)から、重なり部が抽出される。
【0073】
【数11】
Figure 0003548071
【0074】
式11において、I ̄、I ̄は、第1画像を固定させ、第2画像をdだけ移動させたときの、両画像の重なり部における各画像それぞれの濃淡値の平均である。また、σ、σは、第1画像Iを固定させ、第2画像Iをdだけ移動させたときの、両画像の重なり部における各画像それぞれの濃淡値の分散である。
【0075】
(III) 次に、特徴点抽出処理が行われる(ステップ3)。つまり、第1画像A1における第2画像A2との重なり部分から、追跡に有効な複数の部分画像(矩形領域)が特徴点として抽出される。ただし、各特徴点は互いに重ならないように抽出される。具体的には、上述した固有値λmin (式8参照)の高い部分が特徴点として抽出される。
【0076】
(IV)次に、特徴点追跡処理が行われる(ステップ4)。つまり、抽出された第1画像A1上の特徴点に対する第2画像A2上の位置が追跡される。
【0077】
具体的には、まず、〔1〕で説明したオプティカルフロー推定方法で、適当なサイズ(例えば、13×13)のパッチ毎のオプティカルフローベクトルが求められる。第1画像A1上の特徴点に対応する第2画像A2上の位置は、第1画像A1上の特徴点の4近傍のパッチのフローベクトルから線形補間により画素単位以下で求められる。これにより、第1画像A1と第2画像A2との重なり部において、両画像の対応点の座標が得られる。
【0078】
(V) 次に、上記ステップ4で求められた第1画像A1と第2画像A2との対応点の座標に基づいて、第2画像A2内の各画素を第1画像A1に変換するための幾何変換行列(幾何変換係数)H21と、第1画像A1内の各画素を第2画像A2に変換するための幾何変換行列(幾何変換係数)H12とを算出する(ステップ5)。
【0079】
幾何変換行列としては、平面射影変換行列、アフィン変換行列等が用いられる。第1の画像A1上の点Iと、点Iに対応する第2の画像A2上の点Iとの関係は、幾何変換行列H21、H12を用いて、次式12で表される。
【0080】
【数12】
Figure 0003548071
【0081】
ここで、=は、射影的に等しいことを表す。また、H12は、H21の逆行列である。
【0082】
平面射影変換行列は次の数式13で表される。
【0083】
【数13】
Figure 0003548071
【0084】
平面射影変換行列Hの未知パラメータ数は、8個であるので、4組以上の対応点があれば、最小2乗法によりこの行列Hを求めることができる。
【0085】
アフィン変換行列は次の数式14で表される。
【0086】
【数14】
Figure 0003548071
【0087】
アフィン変換行列の未知パラメータ数は、6個であるので、3組以上の対応点があれば、最小2乗法によりこの行列Hを求めることができる。
【0088】
(VI) 次に、第1画像および第2画像を中間画像に変換するため変換行列(幾何変換係数)を算出する(ステップ6)。
【0089】
まず、第1画像Iを中間画像Iに変換するための変換行列H1iを、パーソナルコンピュータ10に入力された内分比x:yを用いて次式15により算出する。内分比x:yは、キーボード23上の矢印キーの操作、マウス22の操作、あるいは位置移動や視線変化を抽出する他の装置からパーソナルコンピュータ10に入力される。
【0090】
【数15】
Figure 0003548071
【0091】
次に、第2画像Iを中間画像Iに変換するための変換行列H2iを、変換行列H1iを用いて次式16により算出する。
【0092】
【数16】
Figure 0003548071
【0093】
なお、まず、次式17により、第2画像Iを中間画像Iに変換するための変換行列H2iを求めた後、次式18により、第1画像Iを中間画像Iに変換するための変換行列H1iを求めてもよい。
【0094】
【数17】
Figure 0003548071
【0095】
【数18】
Figure 0003548071
【0096】
この段階では、中間画像への変換は行なわないが、第1画像Iの中間画像I’への変換式は次式19で表され、第2画像Iの中間画像I’への変換式は次式20で表される。
【0097】
【数19】
Figure 0003548071
【0098】
【数20】
Figure 0003548071
【0099】
(VII) 次に、画素値調合の重み(画素値調合係数)を算出する(ステップ7)。
【0100】
カメラを移動させて複数の画像を撮像した場合、自動露出調整機能が動作することにより、画像間の明るさが異なってしまう。そこで、次式21に示すように、中間画像Iの画素値Pを、第1画像Iの画素値Pと、第2画像Iの画素値Pとの単なる画素値の平均で算出することが考えられるが、このようにすると、つなぎ目が目立ってしまう。
【0101】
【数21】
Figure 0003548071
【0102】
そこで、第1画像と第2画像とが重なる領域では、各画像の画素値を調合する処理を後処理として行なう。画素値調合処理は、両画像の重なり領域の画素値を画像間で滑らかに変化させることにより、明るさの差異を目立たなくさせる処理である。また、この処理は、同時に、幾何学変換による合成誤差も目立たなくさせることができる。
【0103】
この実施の形態では、人工現実感システムにおけるユーザの視線や位置が変化する方向に応じて、以下の2つの画素値調合方法のいずれかが自動的に選択される。一方の画素値調合方法は各画像の重心からの距離に基づいて両画像の重なり領域の画素値を調合する方法であり、他方の画素値調合方法は画像間の内分比に基づいて両画像の重なり領域の画素値を調合する方法である。
【0104】
(a)各画像の重心からの距離に基づいて両画像の重なり領域の画素値を調合する方法
【0105】
図7に示すように、第1画像A1と第2画像A2とが、ユーザ(撮像者)の位置を固定して、ユーザの視線方向のみを変化させた場合に得られた画像である場合には、各画像の重心からの距離に基づいて両画像の重なり領域の画素値を調合する。
【0106】
まず、第1画像Iおよび第2画像Iの重心の位置G、Gをそれぞれ求める。第1画像Iの重心位置Gの中間画像上での位置G’を、上記式19に基づいて求める。同様に、第2画像Iの重心位置Gの中間画像上での位置G’を、上記式20に基づいて求める。
【0107】
次に、第1画像Iの4頂点(4隅)の中間画像上での位置を上記式19に基づいてそれぞれ求める。同様に、第2画像Iの4頂点の中間画像上での位置を上記式20に基づいてそれぞれ求める。これにより、中間画像上における第1画像I’の4頂点の位置および第2画像I’の4頂点の位置が分かるので、中間画像上において第1画像I’と第2画像I’との重なり領域を抽出する。
【0108】
中間画像での第1画像I’と第2画像I’との重なり領域内の各画素(画素値調合対象画素)から第1画像I’と第2画像I’のそれぞれの画像の重心位置G’、G’までの距離に応じて、当該画素値調合対象画素の画素値の重みを決定する。この重みは、画素値調合対象画素から重心までの距離が近い方の画像の画素値を大きくするように決定する。
【0109】
つまり、中間画像に幾何学変換された第1画像I’と第2画像I’との重なり領域内の画素値調合対象画素の座標から、中間画像に幾何学変換された第1画像I’の重心位置G’までのユークリッド距離をd、中間画像に幾何学変換された第2画像I’の重心位置G’までのユークリッド距離をdとすると、画素値調合対象画素における第1画像I’の画素値に対する重みwおよび第2画像I’の画素値に対する重みwは、次式22で表される。
【0110】
【数22】
Figure 0003548071
【0111】
各画素値調合対象画素に対して式22に基づいて重みwおよびwを算出し、画素値調合対象画素に対する重みwおよびwのテーブル(重みテーブル)を作成する。
【0112】
(b)画像間の内分比に基づいて両画像の重なり領域の画素値を調合する方法
一方、図8に示すように、第1画像A1と第2画像A2とが、ユーザ(撮像者)の視線方向を固定して、ユーザの位置を視線方向に対して平行に前進または後退させることにより得られた画像である場合には、画像間の内分比(x:y)に基づいて両画像の重なり領域の画素値を調合する。
【0113】
まず、第1画像Iの4頂点の中間画像上での位置を上記式19に基づいてそれぞれ求める。同様に、第2画像Iの4頂点の中間画像上での位置を上記式20に基づいてそれぞれ求める。これにより、中間画像上における第1画像I’の4頂点の位置および第2画像I’の4頂点の位置が分かるので、中間画像上において第1画像I’と第2画像I’との重なり領域を抽出する。
【0114】
中間画像に幾何学変換された第1画像I’と第2画像I’との重なり領域内の各画素(各画素値調合対象画素)における第1画像I’の画素値に対する重みwおよび第2画像I’の画素値に対する重みwを、次式23によって求め、各画素値調合対象画素に対する重みwおよびwのテーブル(重みテーブル)を作成する。
【0115】
【数23】
Figure 0003548071
【0116】
(VIII) 次に、中間画像を合成する(ステップ8)。
【0117】
まず、上記式19を用いて第1画像Iを中間画像の座標系に描画する。同様に、上記式20を用いて第2画像Iを中間画像の座標系に描画する。
【0118】
この際、ステップ7で得られた重みテーブルに基づいて、中間画像に幾何学変換された第1画像I’と第2画像I’の重なり領域の画素値P’、P’を画素調合する。すなわち、次式24により、各画素値調合対象画素の画素値Pを算出する。
【0119】
【数24】
Figure 0003548071
【0120】
【発明の効果】
この発明によれば、2つの静止画像の中間画像を精度良く合成することができるようになる。
【図面の簡単な説明】
【図1】図1は、階層的推定法を説明するための図であって、階層1の画像を示す模式図である。
【図2】図2は、階層的推定法を説明するための図であって、階層2の画像を示す模式図である。
【図3】図3は、階層的推定法を説明するための図であって、階層3の画像を示す模式図である。
【図4】図4は、階層的推定法を説明するための図であって、階層4の画像を示す模式図である。
【図5】図5は、実施例で採用されたオプティカルフロー推定方法において行われる膨張処理を説明するための模式図である。
【図6】図6(a)は、ある階層の画像に対してしきい値処理されたオプティカルフローの例を示す模式図であり、図6(b)は、補完後のオプティカルフローを示す模式図である。
【図7】第1画像、第2画像およびこれらの中間合成画像の一例を示す模式図である。
【図8】第1画像、第2画像およびこれらの中間合成画像の他の例を示す模式図である。
【図9】中間画像合成装置の構成を示すブロック図である。
【図10】中間画像合成処理手順を示すフローチャートである。
【符号の説明】
10 パーソナルコンピュータ
11 CPU
12 メモリ
13 ハードディスク
14 ディスクドライブ[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an intermediate image synthesizing method, an intermediate image synthesizing device, and a recording medium on which an intermediate image synthesizing program is recorded.
[0002]
[Prior art]
There is known a technique of calculating an optical flow from two images and performing position alignment between the two images based on the obtained optical flow. A conventional method of calculating an optical flow will be described.
[0003]
(1) Lucas-Kanade Method Conventionally, many methods for calculating an apparent velocity field (optical flow) of a moving object in a moving image have been proposed. Among them, the Lucas-Kanade method, which is a local gradient method, is one of the best methods. The reason is that processing is fast, easy to implement, and the results are reliable.
[0004]
For details of the Lucas-Kanade method, see the literature: Lucas and T.C. Kanade, "An Iterative Image Registration Technology with an Application to Stereo Vision," In Seventh International Joint Ionization International Artifaction Artifact. See 674-979, 1981.
[0005]
The outline of the Lucas-Kanade method is described below.
The grayscale pattern I (x, y, t) of the image coordinates p = (x, y) at a certain time t maintains its grayscale distribution constant at a coordinate (x + δx, y + δy) after a certain short time (δt). When it moves as it is, the following optical flow constraint equation 1 holds.
[0006]
(Equation 1)
Figure 0003548071
[0007]
In order to calculate the optical flow {v = (δx / δt, δy / δt) = (u, v)} using a two-dimensional image, the number of unknown parameters is two, so another constraint equation is required. Lucas and Kanade assumed that they had the same optical flow in the local area of the same object.
[0008]
For example, assuming that the optical flow is constant in the local region ω on the image, the square error E of the grayscale pattern to be minimized is
I 0 (p) = I (x, y, t),
I 1 (p + v) = I (x + u, y + v, t + δt)
Can be defined by the following equation (2).
[0009]
(Equation 2)
Figure 0003548071
[0010]
Here, when v is small, the second-order or higher-order term of the Taylor expansion can be neglected, so that the following equation 3 holds.
[0011]
[Equation 3]
Figure 0003548071
[0012]
Here, g (p) is the first derivative of I 1 (p).
[0013]
Since the error E is minimized when the differential value of E with respect to v is 0, the following equation 4 holds.
[0014]
(Equation 4)
Figure 0003548071
[0015]
Therefore, the optical flow v is obtained by the following equation (5).
[0016]
(Equation 5)
Figure 0003548071
[0017]
Further, as shown in the following equation 6, the value can be accurately obtained by a Newton-Raphson-like iterative operation.
[0018]
(Equation 6)
Figure 0003548071
[0019]
(2) Hierarchical estimation method The biggest problem of the gradient method including the Lucas-Kanade method is that it cannot be applied to a large motion because a good initial value is required. In view of the above, a method has been proposed in which an image having different resolutions is generated several times in a pyramid hierarchical structure type to solve the problem.
[0020]
In this method, first, from two consecutive images, images having different resolutions in several stages of each image are created in advance. Next, a rough optical flow is calculated between the images having the lowest resolution. Then, by referring to the result, a more precise optical flow is calculated between the images having a higher resolution. This processing is sequentially repeated up to the image with the highest resolution.
[0021]
4 is an original image, FIG. 3 is an image having a lower resolution than the original image of FIG. 4, FIG. 2 is an image having a lower resolution than the low-resolution image of FIG. 3, and FIG. Low images are shown, respectively. In FIGS. 1 to 4, S indicates one patch.
[0022]
The image of FIG. 1 (the image of the layer 1), the image of FIG. 2 (the image of the layer 2), the image of FIG. 3 (the image of the layer 3), and the image of FIG. A flow is required. Arrows in FIGS. 1 to 4 indicate optical flow vectors obtained for each patch.
[0023]
However, the problem here is that in an actual image, there are few regions including a sufficient pattern (texture), and a reliable optical flow cannot be obtained.
[0024]
By the way, a moving image is used to record and display the surrounding environment on an image, but there is a problem that the data amount is large. In addition, since moving images can be displayed only in the order in which they were captured, an interactive display method cannot be used. Therefore, an artificial reality system has been developed which accumulates a real image of a remote place and walks through the three-dimensional space.
[0025]
This accumulates a plurality of still images and presents the images according to the position of the user and the gaze direction thereof. However, the conventional technique has a problem that the operation is discontinuous when the line of sight is gradually changed. This is because when presenting an image, a still image that is geometrically closest is selected according to the position of the user and the line of sight of the user. Has the impression of walking through discontinuously.
[0026]
If still images are taken densely in order to reduce this difference, the data amount increases. Alternatively, in order to make the difference inconspicuous, it is conceivable to simply combine pixel values of an image to be presented according to the user's position and gaze direction by changing the weight of each still image. Composition accuracy is not good, for example, objects are displayed twice.
[0027]
[Problems to be solved by the invention]
An object of the present invention is to provide an intermediate image synthesizing method, an intermediate image synthesizing apparatus, and a recording medium on which an intermediate image synthesizing program is recorded, which can synthesize an intermediate image of two still images with high accuracy.
[0028]
[Means for Solving the Problems]
A first intermediate image synthesizing method according to the present invention is an intermediate image synthesizing method for synthesizing an intermediate image between a first image and a second image, wherein a geometric transformation coefficient between the first image and the second image is calculated. A first step of obtaining a geometric transformation coefficient for transforming each image into an intermediate image based on a geometric transformation coefficient between the first image and the second image and a given internal division ratio. , And a third step of generating an intermediate image between the first image and the second image based on a geometric conversion coefficient for converting each image into an intermediate image.
[0029]
The first step is, for example, a step of extracting an overlapping portion between the first image and the second image. From the overlapping portion of one image with the other image, a plurality of portions effective for tracking by an optical flow between the two images Extracting an image as a feature point, tracking the point on the other image corresponding to each feature point on the one image based on an optical flow between the two images, and based on the tracking result , Calculating a geometric transformation coefficient between the first image and the second image.
[0030]
A second intermediate image synthesizing method according to the present invention is an intermediate image synthesizing method for synthesizing an intermediate image between a first image and a second image, and calculates a geometric transformation coefficient between the first image and the second image. A first step of obtaining a geometric transformation coefficient for transforming each image into an intermediate image based on a geometric transformation coefficient between the first image and the second image and a given internal division ratio. A third step of calculating a pixel value blending coefficient for blending a pixel value of an overlapping portion between the first image and the second image, and a geometric transformation coefficient and a pixel value blending coefficient for transforming each image into an intermediate image And a fourth step of generating an intermediate image between the first image and the second image based on the first and second images.
[0031]
The first step is, for example, a step of extracting an overlapping portion between the first image and the second image. From the overlapping portion of one image with the other image, a plurality of portions effective for tracking by an optical flow between the two images Extracting an image as a feature point, tracking the point on the other image corresponding to each feature point on the one image based on an optical flow between the two images, and based on the tracking result , Calculating a geometric transformation coefficient between the first image and the second image.
[0032]
The pixel value blending coefficient is calculated based on, for example, the distance from the center of gravity of each image after the synthesis of the intermediate image to the pixel value blending target pixel. The pixel value mixing coefficient is calculated based on, for example, the internal division ratio.
[0033]
A first intermediate image synthesizing device according to the present invention is an intermediate image synthesizing device for synthesizing an intermediate image between a first image and a second image, and calculates a geometric transformation coefficient between the first image and the second image. A first means for calculating a geometric transformation coefficient for transforming each image into an intermediate image based on a geometric transformation coefficient between the first image and the second image and a given internal division ratio. And a third means for generating an intermediate image between the first image and the second image based on a geometric transformation coefficient for converting each image into an intermediate image.
[0034]
As the first means, for example, a means for extracting an overlapping portion between the first image and the second image, a plurality of effective portions for tracking by an optical flow between the two images based on an overlapping portion of one image with the other image. Means for extracting a partial image as a feature point, means for tracking a point on the other image corresponding to each feature point on the one image based on an optical flow between the two images, and based on the tracking result For this purpose, an apparatus having means for calculating a geometric conversion coefficient between the first image and the second image is used.
[0035]
A second intermediate image synthesizing device according to the present invention is an intermediate image synthesizing device for synthesizing an intermediate image between a first image and a second image, and calculates a geometric transformation coefficient between the first image and the second image. A first means for calculating a geometric transformation coefficient for transforming each image into an intermediate image based on a geometric transformation coefficient between the first image and the second image and a given internal division ratio. Third means for calculating a pixel value blending coefficient for blending a pixel value of an overlapping portion between the first image and the second image, and a geometric transformation coefficient and a pixel value blending coefficient for transforming each image into an intermediate image And a fourth means for generating an intermediate image between the first image and the second image based on the first and second images.
[0036]
As the first means, for example, a means for extracting an overlapping portion between the first image and the second image, a plurality of effective portions for tracking by an optical flow between the two images based on an overlapping portion of one image with the other image. Means for extracting a partial image as a feature point, means for tracking a point on the other image corresponding to each feature point on the one image based on an optical flow between the two images, and based on the tracking result For this purpose, an apparatus having means for calculating a geometric conversion coefficient between the first image and the second image is used.
[0037]
The pixel value blending coefficient is calculated based on, for example, the distance from the center of gravity of each image after the synthesis of the intermediate image to the pixel value blending target pixel. The pixel value mixing coefficient is calculated based on, for example, the internal division ratio.
[0038]
The computer-readable recording medium storing the first intermediate image synthesizing program according to the present invention is a computer-readable recording medium storing an intermediate image synthesizing program for synthesizing an intermediate image between the first image and the second image. A first step of calculating a geometric transformation coefficient between the first image and the second image, based on the geometric transformation coefficient between the first image and the second image and a given internal division ratio, Generating an intermediate image between the first image and the second image based on a second step of obtaining a geometric conversion coefficient for converting the image into an intermediate image and a geometric conversion coefficient for converting each image into an intermediate image; And recording an intermediate image synthesizing program for causing a computer to execute the third step.
[0039]
The first step is, for example, a step of extracting an overlapping portion between the first image and the second image. From the overlapping portion of one image with the other image, a plurality of portions effective for tracking by an optical flow between the two images Extracting an image as a feature point, tracking the point on the other image corresponding to each feature point on the one image based on an optical flow between the two images, and based on the tracking result , Calculating a geometric transformation coefficient between the first image and the second image.
[0040]
The computer-readable recording medium storing the second intermediate image synthesizing program according to the present invention is a computer-readable recording medium storing an intermediate image synthesizing program for synthesizing an intermediate image between the first image and the second image. A first step of calculating a geometric transformation coefficient between the first image and the second image, based on the geometric transformation coefficient between the first image and the second image and a given internal division ratio, A second step of calculating a geometric transformation coefficient for converting the image into an intermediate image, a third step of calculating a pixel value blending coefficient for blending a pixel value of an overlapping portion between the first image and the second image, and A fourth step for causing a computer to execute a fourth step of generating an intermediate image between the first image and the second image based on a geometric conversion coefficient and a pixel value blending coefficient for converting each image into an intermediate image. Characterized in that it is recorded between image synthesizing program.
[0041]
The first step is, for example, a step of extracting an overlapping portion between the first image and the second image. From the overlapping portion of one image with the other image, a plurality of portions effective for tracking by an optical flow between the two images Extracting an image as a feature point, tracking the point on the other image corresponding to each feature point on the one image based on an optical flow between the two images, and based on the tracking result , Calculating a geometric transformation coefficient between the first image and the second image.
[0042]
The pixel value blending coefficient is calculated based on, for example, the distance from the center of gravity of each image after the synthesis of the intermediate image to the pixel value blending target pixel. The pixel value mixing coefficient is calculated based on, for example, the internal division ratio.
[0043]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described.
[0044]
Before describing the method for synthesizing an intermediate image, an optical flow estimation method employed in the method for synthesizing an intermediate image will be described.
[0045]
[1] Description of Optical Flow Estimation Method
[0046]
The optical flow estimating method employed in this embodiment is based on a hierarchical estimation in which images having different resolutions are generated several times in a pyramid hierarchy and the optical flow is calculated in stages. The optical flow is calculated according to a gradient method such as the Lucas-Kanade method. That is, the optical flow estimation method based on the hierarchically structured gradient method is assumed. Here, the Lucas-Kanade method is used as the gradient method.
[0047]
The feature of the optical flow estimating method employed in this embodiment is that the optical flow obtained in each stage of the optical flow estimating method using the hierarchically structured Lucas-Kanade method is complemented by dilation processing. Hereinafter, this will be described in detail.
[0048]
One of the advantages of the Lucas-Kanade method is that the tracking results are reliable. Tomasi and Kanade have shown that the traceability of a certain area can be calculated from a differential image as follows (C. Tomasi and T. Kanade, "Shape and Motion from Image Streams: a Factorization Dimension Animation: and Tracking of Point Features, "CMU-CS-91-132, Carnegie Mellon University, 1991.).
[0049]
By calculating the eigenvalue from a 2 × 2 coefficient matrix G of the following equation 7 having the square of the vertical and horizontal derivatives of an area image ω as an element, it is possible to determine the traceability of the area. it can.
[0050]
(Equation 7)
Figure 0003548071
[0051]
If the eigenvalues of the matrix G are both large, the area has a change in the orthogonal direction, and unique positioning is possible. Therefore, the reliability γ of the tracking result can be obtained by the following equation 8 from the smaller eigenvalue λ min and the grayscale residual E between the areas after tracking.
[0052]
(Equation 8)
Figure 0003548071
[0053]
The present inventors have developed a method for interpolating a region having low reliability using a result having high reliability in the same layer of an optical flow. In this method, the result of the one-stage coarse hierarchy is used only for the initial value of tracking, and nothing is used for the result of the current stage of interest. Instead, it is assumed that the optical flow in an area with a small texture has a value close to the optical flow around the area, and the flow field is complemented by morphological processing.
[0054]
FIG. 5 shows how the flow vector is expanded.
[0055]
The figure on the left shows a map of the reliability of the flow vector in shades. Here, it is assumed that the darker the black, the higher the reliability.
[0056]
First, threshold processing is performed on the obtained flow. The white part has been subjected to threshold processing because the reliability of the result is low.
[0057]
Next, in order to simulate the filling process by the morphology operation in the binary image, the expansion process of the result is performed in the flow field as follows. The flow vector u (i, j) of a certain area i, j can be calculated as in the following equation 9 by weighting the flow vectors in the vicinity of the four in accordance with the reliability γ.
[0058]
(Equation 9)
Figure 0003548071
[0059]
This process is repeated until all the low-reliability areas subjected to the threshold processing are filled. This complementing process is performed in each layer. Note that the flow vector u (i, j) of a certain region i, j may be calculated by weighting the flow vectors in the vicinity of the eight in accordance with the reliability γ.
[0060]
FIG. 6A shows an optical flow obtained by performing threshold processing on an image of a certain hierarchy, and FIG. 6B shows an optical flow after interpolation. In FIG. 6A, an arrow is an optical flow vector determined to have high reliability by the threshold processing, and a cross mark indicates a portion having low reliability.
[0061]
[2] Description of Intermediate Image Compositing Apparatus
Hereinafter, an intermediate image synthesizing device for generating an intermediate image A12 from the first image A1 and the second image A2 as shown in FIG. 7 or FIG. 8 will be described.
[0063]
The first image A1 and the second image A2 in FIG. 7 are images obtained when the position of the user (image capture person) is fixed and only the user's line of sight is changed. The first image A1 and the second image A2 in FIG. 8 are images obtained by fixing the line of sight of the user (imager) and moving the user forward or backward in parallel with the line of sight. is there.
[0064]
FIG. 9 shows the configuration of the intermediate image synthesizing device.
[0065]
A display 21, a mouse 22, and a keyboard 23 are connected to the personal computer 10. The personal computer 10 includes a CPU 11, a memory 12, a hard disk 13, and a drive (disk drive) 14 of a removable disk such as a CD-ROM.
[0066]
The hard disk 13 stores an intermediate image synthesis program in addition to an OS (operating system). The intermediate image synthesizing program is installed on the hard disk 13 using the CD-ROM 20 in which the intermediate image synthesizing program is stored. It is assumed that two still images for synthesizing the intermediate image are stored in the hard disk 13 in advance.
[0067]
FIG. 10 shows the procedure of the intermediate image synthesizing process performed by the CPU 11 when the intermediate image synthesizing program is activated.
[0068]
(I) First, two images (first image A1 and second image A2) specified by the user are read into the memory 12 (step 1).
[0069]
(II) Next, a process of extracting an overlapping portion between the first image A1 and the second image A2 is performed (Step 2). The extraction process of the overlapping portion is performed by, for example, the SSD method (Sum of Squared).
Difference), based on the normalized cross-correlation method.
[0070]
(A) Description of SSD Method In the SSD method, first, images I 1 and I 2 having lower resolution than the original image are generated for each of two images A1 and A2 from which an overlapping portion is to be extracted. An overlapping portion ω (size: M × N) of the two low-resolution images I 1 and I 2 is obtained by using a square error E per pixel as shown in the following Expression 10. The moving amount (d) between the images is changed within a possible range, and the overlapping portion is extracted from the moving amount (d) where E is the smallest.
[0071]
(Equation 10)
Figure 0003548071
[0072]
(B) Description of Normalized Cross-Correlation Method In the normalized cross-correlation method, first, images I 1 and I 2 having lower resolution than the original image are generated for each of two images A1 and A2 from which an overlapped portion is to be extracted. You. The overlapping portion ω (size: M × N) of the two low-resolution images I 1 and I 2 is obtained using the normalized cross-correlation coefficient C as shown in the following Expression 11. The moving amount (d) between the images is changed within a possible range, and the overlapping portion is extracted from the moving amount (d) where C is the largest.
[0073]
(Equation 11)
Figure 0003548071
[0074]
In Expression 11, I 1  ̄ and I 2で are the average of the grayscale values of the respective images in the overlapping portion of the two images when the first image is fixed and the second image is moved by d. Further, sigma 1, sigma 2 causes the fixing of the first image I 1, when the second image I 2 are moved by d, the variance of each image the respective gray value in the overlap portion of both images.
[0075]
(III) Next, feature point extraction processing is performed (step 3). That is, a plurality of partial images (rectangular regions) effective for tracking are extracted as feature points from the overlapping portion of the first image A1 with the second image A2. However, each feature point is extracted so as not to overlap each other. Specifically, a portion having a high eigenvalue λ min (see Expression 8) is extracted as a feature point.
[0076]
(IV) Next, a feature point tracking process is performed (step 4). That is, the position on the second image A2 with respect to the extracted feature point on the first image A1 is tracked.
[0077]
Specifically, first, an optical flow vector for each patch of an appropriate size (for example, 13 × 13) is obtained by the optical flow estimation method described in [1]. The position on the second image A2 corresponding to the feature point on the first image A1 is obtained in units of pixels or less by linear interpolation from the flow vectors of the patches near the four feature points on the first image A1. As a result, in the overlapping portion between the first image A1 and the second image A2, the coordinates of the corresponding points of the two images are obtained.
[0078]
(V) Next, for converting each pixel in the second image A2 into the first image A1 based on the coordinates of the corresponding point between the first image A1 and the second image A2 obtained in step 4 described above. calculated geometric transformation matrix (the geometric conversion coefficient) H 21, a geometric transformation matrix (geometric conversion coefficient) H 12 for converting each pixel in the first image A1 to the second image A2 (step 5).
[0079]
As the geometric transformation matrix, a plane projection transformation matrix, an affine transformation matrix, or the like is used. The point I 1 on the first image A1, the relationship between the points I 2 on the second image A2 that corresponds to the point I 1, using a geometric transformation matrix H 21, H 12, Table by the following equation 12 Is done.
[0080]
(Equation 12)
Figure 0003548071
[0081]
Here, = indicates that they are projectively equal. Also, H 12 is the inverse matrix of H 21.
[0082]
The plane projection transformation matrix is represented by the following Expression 13.
[0083]
(Equation 13)
Figure 0003548071
[0084]
Since the number of unknown parameters of the plane projection transformation matrix H is eight, if there are four or more corresponding points, this matrix H can be obtained by the least squares method.
[0085]
The affine transformation matrix is represented by the following Expression 14.
[0086]
[Equation 14]
Figure 0003548071
[0087]
Since the number of unknown parameters in the affine transformation matrix is 6, if there are three or more corresponding points, this matrix H can be obtained by the least squares method.
[0088]
(VI) Next, a conversion matrix (geometric conversion coefficient) for converting the first image and the second image into an intermediate image is calculated (Step 6).
[0089]
First, a conversion matrix H 1i for converting the first image I 1 into the intermediate image I i is calculated by the following equation 15 using the internal division ratio x: y input to the personal computer 10. The internal division ratio x: y is input to the personal computer 10 from an operation of an arrow key on the keyboard 23, an operation of the mouse 22, or another device that extracts a position shift or a line-of-sight change.
[0090]
(Equation 15)
Figure 0003548071
[0091]
Next, a conversion matrix H 2i for converting the second image I 2 into the intermediate image I i is calculated by the following equation 16 using the conversion matrix H 1i .
[0092]
(Equation 16)
Figure 0003548071
[0093]
First, a conversion matrix H 2i for converting the second image I 2 to the intermediate image I i is obtained by the following equation 17, and then the first image I 1 is converted to the intermediate image I i by the following equation 18. A conversion matrix H 1i for performing the conversion may be obtained.
[0094]
[Equation 17]
Figure 0003548071
[0095]
(Equation 18)
Figure 0003548071
[0096]
At this stage, the conversion to the intermediate image is not performed, but the conversion formula of the first image I 1 to the intermediate image I 1 ′ is represented by the following Expression 19, and the conversion of the second image I 2 to the intermediate image I 2 ′ The conversion equation is represented by the following equation 20.
[0097]
[Equation 19]
Figure 0003548071
[0098]
(Equation 20)
Figure 0003548071
[0099]
(VII) Next, the weight of the pixel value preparation (pixel value preparation coefficient) is calculated (step 7).
[0100]
When a plurality of images are captured by moving the camera, the brightness between the images differs due to the operation of the automatic exposure adjustment function. Therefore, as shown in the following equation 21, the pixel value P i of the intermediate image I i, the pixel value P 1 of the first image I 1, the average of just pixel values of the pixel value P 2 of the second image I 2 Although it is conceivable to calculate by the following formula, the joint becomes conspicuous.
[0101]
(Equation 21)
Figure 0003548071
[0102]
Therefore, in a region where the first image and the second image overlap, processing for blending pixel values of each image is performed as post-processing. The pixel value blending process is a process for making the difference in brightness inconspicuous by smoothly changing the pixel value of the overlapping area between the two images between the images. In addition, this processing can also make the synthesis error due to the geometric transformation inconspicuous.
[0103]
In this embodiment, one of the following two pixel value adjustment methods is automatically selected according to the direction in which the user's line of sight or position in the virtual reality system changes. One pixel value blending method is a method of blending the pixel values of the overlapping area of both images based on the distance from the center of gravity of each image, and the other pixel value blending method is a method of blending the two images based on the internal division ratio between the images. Is a method of blending the pixel values of the overlapping region of.
[0104]
(A) Method of Formulating Pixel Values of Overlapping Region of Both Images Based on Distance from Center of Gravity of Each Image
As shown in FIG. 7, when the first image A1 and the second image A2 are images obtained when the position of the user (image capture person) is fixed and only the user's line of sight is changed. Blends the pixel values of the overlap region of both images based on the distance from the center of gravity of each image.
[0106]
First, the positions G 1 and G 2 of the centers of gravity of the first image I 1 and the second image I 2 are obtained. The position G 1 ′ on the intermediate image of the center of gravity position G 1 of the first image I 1 is obtained based on the above equation (19). Similarly, the position G 2 'on the second image I 2 of the intermediate image of the center of gravity position G 2, obtained based on the equation 20.
[0107]
Then, the position on the intermediate image of the first four vertices of the image I 1 (4 corners) respectively obtained based on the equation 19. Likewise, the position on the four vertexes of the intermediate image of the second image I 2 respectively obtained based on the equation 20. With this, the positions of the four vertices of the first image I 1 ′ and the positions of the four vertices of the second image I 2 ′ on the intermediate image are known, so that the first image I 1 ′ and the second image I 2 on the intermediate image. 'And the overlapping area is extracted.
[0108]
From each pixel (pixel value adjustment target pixel) in the overlapping area of the first image I 1 ′ and the second image I 2 ′ in the intermediate image, respective images of the first image I 1 ′ and the second image I 2 ′ The weight of the pixel value of the pixel value adjustment target pixel is determined according to the distance to the center of gravity G 1 ′, G 2 ′. This weight is determined so as to increase the pixel value of the image whose distance from the pixel value preparation target pixel to the center of gravity is shorter.
[0109]
That is, from the coordinates of the pixel value adjustment target pixel in the overlapping area of the first image I 1 ′ and the second image I 2 ′ geometrically transformed to the intermediate image, the first image I geometrically transformed to the intermediate image d 1 Euclidean distance to the 'center of gravity position G 1' 1, the Euclidean distance to the 'center of gravity position G 2' of the second image I 2 which is geometrically converted to an intermediate image When d 2, pixel values formulated target weight w 2 with respect to the pixel values of the 'weights w 1 and the second image I 2 to the pixel value of the' first image I 1 in the pixel is expressed by the following equation 22.
[0110]
(Equation 22)
Figure 0003548071
[0111]
It calculates the weights w 1 and w 2 based on Equation 22 with respect to each pixel value Formulation target pixel, creating a table (weight table) of the weight w 1 and w 2 with respect to the pixel value Formulation target pixel.
[0112]
(B) Method of Formulating Pixel Values of Overlapping Region of Both Images Based on Internal Division Ratio between Images On the other hand, as shown in FIG. 8, the first image A1 and the second image A2 correspond to the user (photographer) Is fixed and the user's position is moved forward or backward parallel to the direction of the line of sight, the image is obtained based on the internal division ratio (x: y) between the images. Mix the pixel values of the overlapping areas of the images.
[0113]
First, the position on the four vertexes of the intermediate image of the first image I 1 respectively obtained based on the equation 19. Likewise, the position on the four vertexes of the intermediate image of the second image I 2 respectively obtained based on the equation 20. With this, the positions of the four vertices of the first image I 1 ′ and the positions of the four vertices of the second image I 2 ′ on the intermediate image are known, so that the first image I 1 ′ and the second image I 2 on the intermediate image. 'And the overlapping area is extracted.
[0114]
The weight w for the pixel value of the first image I 1 ′ in each pixel (each pixel value adjustment target pixel) in the overlap region between the first image I 1 ′ and the second image I 2 ′ geometrically transformed into the intermediate image 1 and the weight w 2 with respect to pixel values of the second image I 2 ', calculated by the following equation 23, creates a table (weight table) of the weight w 1 and w 2 with respect to each pixel value formulation target pixel.
[0115]
(Equation 23)
Figure 0003548071
[0116]
(VIII) Next, an intermediate image is synthesized (step 8).
[0117]
First, draw the first image I 1 by using the above equation 19 in the coordinate system of the intermediate image. Likewise, to draw a second image I 2 into the coordinate system of the intermediate image by using the above equation 20.
[0118]
At this time, based on the weight table obtained in step 7, the pixel values P 1 ′, P 2 ′ of the overlapping area of the first image I 1 ′ and the second image I 2 ′ geometrically transformed into the intermediate image are obtained. Mix the pixels. That is, the following equation 24 to calculate the pixel value P i of each pixel value Formulation target pixel.
[0119]
(Equation 24)
Figure 0003548071
[0120]
【The invention's effect】
According to the present invention, an intermediate image between two still images can be accurately synthesized.
[Brief description of the drawings]
FIG. 1 is a diagram for explaining a hierarchical estimation method, and is a schematic diagram illustrating an image of a hierarchy 1;
FIG. 2 is a diagram for explaining a hierarchical estimation method, and is a schematic diagram illustrating an image of a hierarchy 2;
FIG. 3 is a diagram for explaining a hierarchical estimation method, and is a schematic diagram illustrating an image of a hierarchy 3;
FIG. 4 is a diagram for explaining a hierarchical estimation method, and is a schematic diagram illustrating an image of a hierarchy 4;
FIG. 5 is a schematic diagram for explaining an expansion process performed in the optical flow estimation method employed in the embodiment;
FIG. 6A is a schematic diagram illustrating an example of an optical flow obtained by performing threshold processing on an image of a certain hierarchy, and FIG. 6B is a schematic diagram illustrating an optical flow after interpolation; FIG.
FIG. 7 is a schematic diagram illustrating an example of a first image, a second image, and an intermediate composite image thereof.
FIG. 8 is a schematic diagram illustrating another example of a first image, a second image, and an intermediate composite image thereof.
FIG. 9 is a block diagram illustrating a configuration of an intermediate image combining device.
FIG. 10 is a flowchart illustrating an intermediate image synthesis processing procedure.
[Explanation of symbols]
10 Personal computer 11 CPU
12 memory 13 hard disk 14 disk drive

Claims (12)

第1画像と第2画像との中間画像を合成する中間画像合成方法であって、
第1画像と第2画像との間の幾何変換係数を算出する第1ステップ、
第1画像と第2画像との間の幾何変換係数と所与の内分比とに基づいて、各画像を中間画像に変換するための幾何変換係数をそれぞれ求める第2ステップ、および
各画像を中間画像に変換するための幾何変換係数にもとづいて、第1画像と第2画像との中間画像を生成する第3ステップ、を備え、
第1ステップは、
第1画像と第2画像との重なり部を抽出するステップ、
一方の画像における他方の画像との重なり部分から、両画像間のオプティカルフローによる追跡に有効な複数の部分画像を特徴点として抽出するステップ、
上記一方の画像上の各特徴点に対応する上記他方の画像上の点を、両画像間のオプティカルフローに基づいて追跡するステップ、および
上記追跡結果に基づいて、第1画像と第2画像との間の幾何変換係数を算出するステップ、
を備えていることを特徴とする画像合成方法。
An intermediate image synthesizing method for synthesizing an intermediate image between a first image and a second image,
A first step of calculating a geometric transformation coefficient between the first image and the second image;
A second step of determining a geometric transformation coefficient for transforming each image into an intermediate image based on a geometric transformation coefficient between the first image and the second image and a given internal division ratio; A third step of generating an intermediate image between the first image and the second image based on a geometric conversion coefficient for converting into an intermediate image ,
The first step is
Extracting an overlapping portion between the first image and the second image;
Extracting a plurality of partial images effective for tracking by an optical flow between the two images as feature points from an overlapping portion of the one image with the other image,
Tracking points on the other image corresponding to each feature point on the one image based on an optical flow between the two images; and
Calculating a geometric transformation coefficient between the first image and the second image based on the tracking result;
An image synthesizing method, comprising:
第1画像と第2画像との中間画像を合成する中間画像合成方法であって、
第1画像と第2画像との間の幾何変換係数を算出する第1ステップ、
第1画像と第2画像との間の幾何変換係数と所与の内分比とに基づいて、各画像を中間画像に変換するための幾何変換係数をそれぞれ求める第2ステップ、
第1画像と第2画像との重なり部の画素値を調合するための画素値調合係数を算出する第3ステップ、および
各画像を中間画像に変換するための幾何変換係数および画素値調合係数に基づいて、第1画像と第2画像との中間画像を生成する第4ステップ、を備え、
第1ステップは、
第1画像と第2画像との重なり部を抽出するステップ、
一方の画像における他方の画像との重なり部分から、両画像間のオプティカルフローによる追跡に有効な複数の部分画像を特徴点として抽出するステップ、
上記一方の画像上の各特徴点に対応する上記他方の画像上の点を、両画像間のオプティカルフローに基づいて追跡するステップ、および
上記追跡結果に基づいて、第1画像と第2画像との間の幾何変換係数を算出するステップ、
を備えていることを特徴とする画像合成方法。
An intermediate image synthesizing method for synthesizing an intermediate image between a first image and a second image,
A first step of calculating a geometric transformation coefficient between the first image and the second image;
A second step of determining a geometric transformation coefficient for transforming each image into an intermediate image based on a geometric transformation coefficient between the first image and the second image and a given internal division ratio,
A third step of calculating a pixel value blending coefficient for blending a pixel value of an overlapping portion between the first image and the second image; and
A fourth step of generating an intermediate image between the first image and the second image based on a geometric conversion coefficient and a pixel value blending coefficient for converting each image into an intermediate image,
The first step is
Extracting an overlapping portion between the first image and the second image;
Extracting a plurality of partial images effective for tracking by an optical flow between the two images as feature points from an overlapping portion of the one image with the other image,
Tracking points on the other image corresponding to each feature point on the one image based on an optical flow between the two images; and
Calculating a geometric transformation coefficient between the first image and the second image based on the tracking result;
An image synthesizing method, comprising:
画素値調合係数が、中間画像合成後の各画像の重心から画素値調合対象画素までの距離に基づいて算出される請求項2に記載の画像合成方法。 3. The image synthesizing method according to claim 2, wherein the pixel value mixing coefficient is calculated based on a distance from a center of gravity of each image after the synthesis of the intermediate image to a pixel value mixing target pixel . 画素値調合係数が、内分比に基づいて算出される請求項2および3のいずれかに記載の画像合成方法。 4. The image synthesizing method according to claim 2, wherein the pixel value blending coefficient is calculated based on an internal division ratio . 第1画像と第2画像との中間画像を合成する中間画像合成装置であって、An intermediate image synthesizing device that synthesizes an intermediate image between a first image and a second image,
第1画像と第2画像との間の幾何変換係数を算出する第1手段、First means for calculating a geometric transformation coefficient between the first image and the second image;
第1画像と第2画像との間の幾何変換係数と所与の内分比とに基づいて、各画像を中間画像に変換するための幾何変換係数をそれぞれ求める第2手段、およびSecond means for respectively determining a geometric transformation coefficient for transforming each image into an intermediate image based on a geometric transformation coefficient between the first image and the second image and a given internal division ratio; and
各画像を中間画像に変換するための幾何変換係数にもとづいて、第1画像と第2画像との中間画像を生成する第3手段、  Third means for generating an intermediate image between the first image and the second image based on a geometric conversion coefficient for converting each image into an intermediate image;
を備え、With
第1手段は、The first means is
第1画像と第2画像との重なり部を抽出する手段、Means for extracting an overlapping portion between the first image and the second image;
一方の画像における他方の画像との重なり部分から、両画像間のオプティカルフローにFrom the overlap between one image and the other, the optical flow between the two images よる追跡に有効な複数の部分画像を特徴点として抽出する手段、Means for extracting, as feature points, a plurality of partial images effective for tracking by
上記一方の画像上の各特徴点に対応する上記他方の画像上の点を、両画像間のオプティカルフローに基づいて追跡する手段、およびMeans for tracking a point on the other image corresponding to each feature point on the one image based on an optical flow between the two images; and
上記追跡結果に基づいて、第1画像と第2画像との間の幾何変換係数を算出する手段、Means for calculating a geometric transformation coefficient between the first image and the second image based on the tracking result;
を備えていることを特徴とする画像合成装置。An image synthesizing device, comprising:
第1画像と第2画像との中間画像を合成する中間画像合成装置であって、An intermediate image synthesizing device that synthesizes an intermediate image between a first image and a second image,
第1画像と第2画像との間の幾何変換係数を算出する第1手段、First means for calculating a geometric transformation coefficient between the first image and the second image;
第1画像と第2画像との間の幾何変換係数と所与の内分比とに基づいて、各画像を中間画像に変換するための幾何変換係数をそれぞれ求める第2手段、Second means for respectively determining a geometric transformation coefficient for transforming each image into an intermediate image based on a geometric transformation coefficient between the first image and the second image and a given internal division ratio;
第1画像と第2画像との重なり部の画素値を調合するための画素値調合係数を算出する第3手段、およびThird means for calculating a pixel value blending coefficient for blending a pixel value of an overlapping portion between the first image and the second image, and
各画像を中間画像に変換するための幾何変換係数および画素値調合係数に基づいて、第1画像と第2画像との中間画像を生成する第4手段、を備え、Fourth means for generating an intermediate image between the first image and the second image based on a geometric conversion coefficient and a pixel value blending coefficient for converting each image into an intermediate image,
第1手段は、The first means is
第1画像と第2画像との重なり部を抽出する手段、Means for extracting an overlapping portion between the first image and the second image;
一方の画像における他方の画像との重なり部分から、両画像間のオプティカルフローによる追跡に有効な複数の部分画像を特徴点として抽出する手段、Means for extracting a plurality of partial images effective for tracking by an optical flow between the two images as feature points from an overlapping portion of the one image and the other image,
上記一方の画像上の各特徴点に対応する上記他方の画像上の点を、両画像間のオプティカルフローに基づいて追跡する手段、およびMeans for tracking a point on the other image corresponding to each feature point on the one image based on an optical flow between the two images; and
上記追跡結果に基づいて、第1画像と第2画像との間の幾何変換係数を算出する手段、Means for calculating a geometric transformation coefficient between the first image and the second image based on the tracking result;
を備えていることを特徴とする画像合成装置。An image synthesizing device, comprising:
画素値調合係数が、中間画像合成後の各画像の重心から画素値調合対象画素までの距離に基づいて算出される請求項6に記載の画像合成装置。The image synthesizing apparatus according to claim 6, wherein the pixel value mixing coefficient is calculated based on a distance from the center of gravity of each image after the intermediate image synthesis to the pixel value adjustment target pixel. 画素値調合係数が、内分比に基づいて算出される請求項6および7のいずれかに記載の画像合成装置。The image synthesizing device according to claim 6, wherein the pixel value mixing coefficient is calculated based on an internal division ratio. 第1画像と第2画像との中間画像を合成する中間画像合成プログラムを記録したコンピュータ読み取り可能な記録媒体であって、A computer-readable recording medium recording an intermediate image synthesizing program for synthesizing an intermediate image between a first image and a second image,
第1画像と第2画像との間の幾何変換係数を算出する第1ステップ、A first step of calculating a geometric transformation coefficient between the first image and the second image;
第1画像と第2画像との間の幾何変換係数と所与の内分比とに基づいて、各画像を中間画像に変換するための幾何変換係数をそれぞれ求める第2ステップ、およびA second step of determining a geometric transformation coefficient for transforming each image into an intermediate image based on the geometric transformation coefficient between the first image and the second image and a given internal division ratio; and
各画像を中間画像に変換するための幾何変換係数にもとづいて、第1画像と第2画像との中間画像を生成する第3ステップをコンピュータに実行させ、Causing the computer to execute a third step of generating an intermediate image between the first image and the second image based on a geometric conversion coefficient for converting each image into an intermediate image;
第1ステップは、The first step is
第1画像と第2画像との重なり部を抽出するステップ、Extracting an overlapping portion between the first image and the second image;
一方の画像における他方の画像との重なり部分から、両画像間のオプティカルフローによる追跡に有効な複数の部分画像を特徴点として抽出するステップ、Extracting a plurality of partial images effective for tracking by an optical flow between the two images as feature points from an overlapping portion of the one image with the other image,
上記一方の画像上の各特徴点に対応する上記他方の画像上の点を、両画像間のオプティカルフローに基づいて追跡するステップ、およびTracking points on the other image corresponding to each feature point on the one image based on an optical flow between the two images; and
上記追跡結果に基づいて、第1画像と第2画像との間の幾何変換係数を算出するステップ、Calculating a geometric transformation coefficient between the first image and the second image based on the tracking result;
を備えていることを特徴とする中間画像合成プログラムを記録したコンピュータ読み取り可能な記録媒体。A computer-readable recording medium on which an intermediate image synthesizing program is recorded.
第1画像と第2画像との中間画像を合成する中間画像合成プログラムを記録したコンピュータ読み取り可能な記録媒体であって、
第1画像と第2画像との間の幾何変換係数を算出する第1ステップ、
第1画像と第2画像との間の幾何変換係数と所与の内分比とに基づいて、各画像を中間画像に変換するための幾何変換係数をそれぞれ求める第2ステップ、
第1画像と第2画像との重なり部の画素値を調合するための画素値調合係数を算出する第3ステップ、および
各画像を中間画像に変換するための幾何変換係数および画素値調合係数に基づいて、第1画像と第2画像との中間画像を生成する第4ステップをコンピュータに実行させ
第1ステップは、
第1画像と第2画像との重なり部を抽出するステップ、
一方の画像における他方の画像との重なり部分から、両画像間のオプティカルフローによる追跡に有効な複数の部分画像を特徴点として抽出するステップ、
上記一方の画像上の各特徴点に対応する上記他方の画像上の点を、両画像間のオプティカルフローに基づいて追跡するステップ、および
上記追跡結果に基づいて、第1画像と第2画像との間の幾何変換係数を算出するステップ、
を備えていることを特徴とする中間画像合成プログラムを記録したコンピュータ読み取り可能な記録媒体。
A computer-readable recording medium recording an intermediate image synthesizing program for synthesizing an intermediate image between a first image and a second image,
A first step of calculating a geometric transformation coefficient between the first image and the second image;
A second step of determining a geometric transformation coefficient for transforming each image into an intermediate image based on a geometric transformation coefficient between the first image and the second image and a given internal division ratio,
A third step of calculating a pixel value blending coefficient for blending a pixel value of an overlapping portion between the first image and the second image; and
Causing the computer to execute a fourth step of generating an intermediate image between the first image and the second image based on a geometric conversion coefficient and a pixel value blending coefficient for converting each image into an intermediate image ;
The first step is
Extracting an overlapping portion between the first image and the second image;
Extracting a plurality of partial images effective for tracking by an optical flow between the two images as feature points from an overlapping portion of the one image with the other image,
Tracking points on the other image corresponding to each feature point on the one image based on an optical flow between the two images; and
Calculating a geometric transformation coefficient between the first image and the second image based on the tracking result;
A computer-readable recording medium on which an intermediate image synthesizing program is recorded.
画素値調合係数が、中間画像合成後の各画像の重心から画素値調合対象画素までの距離に基づいて算出される請求項10に記載の中間画像合成プログラムを記録したコンピュータ読み取り可能な記録媒体。The computer-readable recording medium recording the intermediate image synthesizing program according to claim 10, wherein the pixel value mixing coefficient is calculated based on a distance from the center of gravity of each image after the intermediate image synthesis to the pixel value adjustment target pixel. 画素値調合係数が、内分比に基づいて算出される請求項10および11のいずれかに記載の中間画像合成プログラムを記録したコンピュータ読み取り可能な記録媒体。12. A computer-readable recording medium recording the intermediate image synthesizing program according to claim 10, wherein the pixel value mixing coefficient is calculated based on an internal division ratio.
JP2000030394A 2000-02-08 2000-02-08 Intermediate image synthesizing method, intermediate image synthesizing device, recording medium storing intermediate image synthesizing program Expired - Fee Related JP3548071B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000030394A JP3548071B2 (en) 2000-02-08 2000-02-08 Intermediate image synthesizing method, intermediate image synthesizing device, recording medium storing intermediate image synthesizing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000030394A JP3548071B2 (en) 2000-02-08 2000-02-08 Intermediate image synthesizing method, intermediate image synthesizing device, recording medium storing intermediate image synthesizing program

Publications (2)

Publication Number Publication Date
JP2001222707A JP2001222707A (en) 2001-08-17
JP3548071B2 true JP3548071B2 (en) 2004-07-28

Family

ID=18555414

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000030394A Expired - Fee Related JP3548071B2 (en) 2000-02-08 2000-02-08 Intermediate image synthesizing method, intermediate image synthesizing device, recording medium storing intermediate image synthesizing program

Country Status (1)

Country Link
JP (1) JP3548071B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8280170B2 (en) 2009-05-01 2012-10-02 Fujifilm Corporation Intermediate image generating apparatus and method of controlling operation of same
KR101784316B1 (en) * 2011-05-31 2017-10-12 삼성전자주식회사 Method for providing multi-angle broadcast service and display apparatus, mobile device using the same

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4128123B2 (en) 2003-09-19 2008-07-30 三洋電機株式会社 Camera shake correction device, camera shake correction method, and computer-readable recording medium recording camera shake correction program
JP5011504B2 (en) * 2005-07-22 2012-08-29 カシオ計算機株式会社 Image composition apparatus, image composition method, and program
JP4807194B2 (en) * 2006-09-06 2011-11-02 カシオ計算機株式会社 Image processing apparatus and program
KR101269302B1 (en) * 2006-12-26 2013-05-29 삼성전자주식회사 Intermediate view reconstruction method in stereo image
KR101498532B1 (en) * 2008-10-15 2015-03-04 스피넬라 아이피 홀딩스, 인코포레이티드 Digital processing method and system for determination of optical flow

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8280170B2 (en) 2009-05-01 2012-10-02 Fujifilm Corporation Intermediate image generating apparatus and method of controlling operation of same
KR101784316B1 (en) * 2011-05-31 2017-10-12 삼성전자주식회사 Method for providing multi-angle broadcast service and display apparatus, mobile device using the same

Also Published As

Publication number Publication date
JP2001222707A (en) 2001-08-17

Similar Documents

Publication Publication Date Title
JP3435084B2 (en) Optical flow estimation method and image composition method
Kawai et al. Diminished reality based on image inpainting considering background geometry
CN108711185B (en) Three-dimensional reconstruction method and device combining rigid motion and non-rigid deformation
JP4473754B2 (en) Virtual fitting device
Huang et al. Leveraging motion capture and 3d scanning for high-fidelity facial performance acquisition
KR101195942B1 (en) Camera calibration method and 3D object reconstruction method using the same
CN106846467B (en) Entity scene modeling method and system based on optimization of position of each camera
US20060083440A1 (en) System and method
US6473536B1 (en) Image synthesis method, image synthesizer, and recording medium on which image synthesis program is recorded
JP7058277B2 (en) Reconstruction method and reconfiguration device
JP2007257287A (en) Image registration method
US6326972B1 (en) 3D stroke-based character modeling suitable for efficiently rendering large crowds
JP2007000205A (en) Image processing apparatus, image processing method, and image processing program
JP2004246729A (en) Figure motion picture creating system
JP3557168B2 (en) Lens distortion coefficient calculation device and calculation method, computer-readable recording medium storing lens distortion coefficient calculation program
Hilsmann et al. Realistic cloth augmentation in single view video under occlusions
JP2001274973A (en) Device and method for synthesizing microscopic image and computer-readable recording medium with microscopic image synthesizing processing program recorded thereon
JP3548071B2 (en) Intermediate image synthesizing method, intermediate image synthesizing device, recording medium storing intermediate image synthesizing program
Dellaert et al. Super-resolved texture tracking of planar surface patches
JP2000155831A (en) Method and device for image composition and recording medium storing image composition program
JP6555755B2 (en) Image processing apparatus, image processing method, and image processing program
Saito et al. View interpolation of multiple cameras based on projective geometry
JP2003087549A (en) Device and method for compositing image and computer readable recording medium having image composite processing program recorded thereon
US20200195904A1 (en) Depth Based 3D Reconstruction using an A-Priori Depth Scene
JP3540696B2 (en) Image synthesizing method, image synthesizing device, recording medium storing image synthesizing program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040323

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040415

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090423

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees