JP2004362572A - 較正された多視点画像シーケンスの圧縮のための動き推定 - Google Patents

較正された多視点画像シーケンスの圧縮のための動き推定 Download PDF

Info

Publication number
JP2004362572A
JP2004362572A JP2004161282A JP2004161282A JP2004362572A JP 2004362572 A JP2004362572 A JP 2004362572A JP 2004161282 A JP2004161282 A JP 2004161282A JP 2004161282 A JP2004161282 A JP 2004161282A JP 2004362572 A JP2004362572 A JP 2004362572A
Authority
JP
Japan
Prior art keywords
tessel
image
depth
reference image
estimating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004161282A
Other languages
English (en)
Other versions
JP4323380B2 (ja
Inventor
Niranjan Damera-Venkata
ニランジャン・ダメラ−ベンカタ
Nelson Liang An Chang
ネルソン・リャン・アン・チャン
Debargha Mukherjee
デバーガ・マクハージー
Mai Chen
メイ・チェン
Ken K Lin
ケン・ケー・リン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hewlett Packard Development Co LP
Original Assignee
Hewlett Packard Development Co LP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hewlett Packard Development Co LP filed Critical Hewlett Packard Development Co LP
Publication of JP2004362572A publication Critical patent/JP2004362572A/ja
Application granted granted Critical
Publication of JP4323380B2 publication Critical patent/JP4323380B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】 較正された多視点画像シーケンスの圧縮のための動き推定を行う。
【解決手段】 本発明は、基準画像に対する中間画像の複数のテッセルのそれぞれの動きを推定する方法を包含し、この方法は、基準画像を探索することであって、それによって、結果が最良マッチング形状になるテッセルの左上の頂点および右下の頂点にそれぞれ対応する基準画像のエピポーラ線に沿って位置する点を検出する基準画像を探索することと、テッセルの頂点の少なくとも2つのそれぞれの奥行きを推定することと、テッセルの少なくとも2つの頂点の奥行きの推定を使用することであって、それによって、最良マッチング形状に対するテッセルの動きを推定するテッセルの少なくとも2つの頂点の奥行きの推定を使用することとを含む。
【選択図】図1

Description

較正された多視点画像シーケンスの圧縮のための動き推定に関する。
ビデオシーケンスの動き推定は、通常、ブロック動きモデルを使用して行われる。
ほとんどのビデオの規格は、平行移動ブロック動きモデル(translational block motion model)を使用する。
このモデルでは、現フレームのブロックが、そのブロックの可能な平行移動位置に対応する次フレームのピクセルと相関される。
次フレームにおける最良のマッチングブロックの探索が行われる。
現フレームにおいて対応するブロックの位置に対する、次フレームにおいて特定された最良のマッチングブロックのベクトル移動は、ブロックの動きを表す。
平行移動ブロック動きモデル以外のブロック動きモデルが、フレーム間のオブジェクトの回転および透視効果を補償するために提案されている。
これらの他のブロック動きモデルは、より大きなパラメータ空間を探索して、ブロックの平行移動に加えてブロックの形状の変化を説明するので、平行移動ブロック動きモデルよりも正確である。
その変換パラメータは、(ブロック予測誤差を最小にする点で)最良のマッチング形状から直接得られる。
しかしながら、これらの他のブロック動きモデルには、2つのパラメータだけを必要とする単純な平行移動ブロック動きモデルと比較して、より多くのパラメータが必要とされる。
パラメトリックブロックマッチングによると、基準フレームの形状歪みは、現フレームでマッチングされるブロックとパラメータ変換により関係付けられる。
しかしながら、パラメトリックブロックマッチング動き推定方法は、較正された多視点画像シーケンスの場合に存在する幾何学的関係を無視する。
較正された多視点画像シーケンスの例は、回転するターンテーブル上に固定されたオブジェクトを、事前に較正された1台のカメラにより取り込んだ画像シーケンスである。
別の例は、同じ静的シーンを複数台の較正されたカメラにより取り込んだ画像シーケンスである。
これらの画像シーケンスは、オブジェクト/カメラ/画像が既知の幾何学的配列によって関係付けられている点で、一般のビデオシーケンスとは異なる。
多視点画像シーケンスの既知の幾何学的関係を利用して補償性能の改善を達成するために、パラメトリックブロック探索によらない動き推定方法が考案されている。
これらの方法は、内部カメラパラメータおよび外部カメラパラメータが判明すると、ある視点から次の視点への点の移動が、その奥行きのみに依存することを利用する。
これらの方法は、通常、予測されるフレームを正方形ブロックに分割する。
中間視点のブロックが、一定の奥行きZblockを有すると仮定すると、Zblockを変化させることにより、基準視点内の所与のブロックの移動位置が得られる。
なお、形状間の空間変換を計算する既知の技法は、非特許文献1に開示されている。
また、内部カメラパラメータおよび/または外部カメラパラメータが事前に判明していていない場合にパラメータを推定する技法は、非特許文献2に開示されている。
「Digital Video Processing (A. Murat Tekalp著, 1995)」 「Multiple view geometry in computer vision (Cambridge Univ. Press, R. HartleyおよびA. Zisserman著, 2001)」
最良のマッチングをもたらす奥行きパラメータZblockは、そのブロックの動き記述子(motion descriptor)として選択される。
しかしながら、ブロック内のすべてのピクセルが、同じ奥行きを有するとの仮定は、モデルの確度を制限する。
本発明は一つの態様において、基準画像に対する中間画像の複数のテッセルのそれぞれの動きを推定する方法を包含し、この方法は、基準画像を探索することであって、それによって、結果が最良マッチング形状になる、テッセルの左上の頂点および右下の頂点にそれぞれ対応する基準画像のエピポーラ線に沿って位置する点を検出する、基準画像を探索すること、テッセルの頂点の少なくとも2つのそれぞれの奥行きを推定すること、テッセルの少なくとも2つの頂点の奥行きの推定を使用することであって、それによって、最良マッチング形状に対するテッセルの動きを推定する、テッセルの少なくとも2つの頂点の奥行きの推定を使用すること、とを含む。
本発明の他の態様および利点は、本発明の原理を例によって示す添付図面と共に行われる以下の詳細な説明から明らかになるであろう。
一般に、較正された多数の視点画像(「多視点画像」)の場合、内部カメラパラメータ(例えば、焦点距離、センサのアスペクト比、焦点面のスキュー、およびラジアルレンズ歪み(radial lens distortion))と、外部動きパラメータ(例えば、基準カメラ位置に対する回転および平行移動)とが、一般に、高精度および高確度で判明しているか、または、一般に容易に得られる。
一般性を失うことなく、基準カメラによって得られる静的シーンの視点と、この基準カメラに対して回転R1および平行移動t1を受けた別のカメラとによって得られる静的シーンの視点との2つの視点の場合について考える。
それぞれのカメラの内部パラメータをK0およびK1で表すと、双方のカメラを通じて見えるワールド点X = (X,Y,Z,1)の画像は、以下の方程式(1)によって関係付けられる。
(1) x1 = K1R1K0 -1x0+(K1t1)/Z
上記方程式(1)において、x0は、基準カメラによって形成された画像におけるワールド点Xの投影であり、x1は、別のカメラによって形成された画像におけるワールド点Xの投影である。
すべての画像が、カメラの較正に基づいてレンズ歪みの補正を受けているか、または、適用される補正が、較正データから計算可能であると仮定されるので、内部パラメータ行列K0およびK1は、非線形レンズ歪みを説明しない。
単に簡略にするためだけの理由から、レンズ歪みは、方程式(1)では考慮されていない。
次に図1を参照して、本発明の画像符号化/復号方法の現在考えられる好ましい実施の形態の方法は、(画像較正後の)4つの基本段階からなる。
これらの4つの段階は、ブロック10、20、30、40/50でそれぞれ示され、以下において、それぞれローマ数字I〜IVによって特定される個別の見出しの後に解説される。
回転するターンテーブル上のオブジェクトの場合、3つの視点のみを較正する必要があることに留意すべきである。
これらの3つの視点とは、すなわち、汎用的な基準視点と同じだけ遠く離れて間隔を置いて配置された2つの視点、および、第1の基準視点からの最小の増分視点(incremental view)を表す1つの中間視点である。
それ以外のすべての視点の回転および平行移動は、この較正から推測することができる。
すべての視点が、同じカメラで撮影される場合、内部カメラパラメータは、すべての視点について同じである。
I.前処理
図1に示す方法の第1の段階10は、本明細書では「前処理」と呼ばれ、以下のステップを含む。
1)基準フレームの組が、すべての視点から選択される。
この選択は、視点の組を一様にサンプリングすることによるか、または、視点の組を非一様にサンプリングすることにより行うことができる。
非一様なサンプリングの場合、すべての視点を分析し、例えば、中間視点の個数、または、信頼性のある奥行き推定が得られた視点の個数を最大にする一方で、オクルージョンの結合最小化(joint minimization)を行うような基準に基づいて視点を選び、基準フレームとして使用することにより、基準視点を得ることができる。
2)1つの中間視点Iを基準視点R0に関係付ける基本行列F1 Tが、以下の方程式(2)に従って、基準視点R0に対するカメラの光学的中心に対応するワールド原点を用いて既知の較正データから計算される。
(2) F1 T = K1 -T[t1xR1K0 -1
3)この中間視点Ik(予測される)が、テッセレート(tesselate)される。
最も簡単な正方形のテッセレーション(tesselation)が使用される場合、画像Iは、単純に、正方形のテッセル(tessel)に分割される。
中間視点Iのそれぞれのバーテックスポイントx1に対して、対応する点x0が基準視点R0におけるエピポーラ線I0 = F1x1に沿って探索される。
点x1は、エピポーラ線I0を全面的にトラバースすることによるか、または、x1の近傍のエピポーラ線セグメントを単にトラバースすることにより、マッチングさせることができる。
後者の手法により、マッチングの複雑度が低減される。
近傍の情報は、局所的な滑らかさを実現するために使用できるが、実際のマッチング自体は、エピポーラ線に沿って行われる。
4)点の対応付けおよび較正データから、画像化されたx0およびx1に対応するワールド点Xの奥行きが、方程式(1)から求められる。
この奥行きが、XのZ成分である。
正方形テッセルを使用するのではなく、他の任意のテッセレーション方式を使用することができる。
例えば、良好な点の一致が基準フレームで得られる点に基づいて、中間フレームをテッセレートすることができる。
これらの点は、奥行き推定が最も信頼性を有する点である。
この場合のテッセルは、奥行き推定が信頼性を有する点としての頂点を有するポリゴンである。
II.動き推定
図1に示す方法の第2の段階20は、本明細書では「動き推定」と呼ばれ、以下のステップを含む。
1)図2に示すように、中間視点Ikの各テッセルは、変換され、その変換されたテッセルの頂点ピクセルの位置を、最良のマッチング形状になる基準フレーム(複数可)R0、R1のそれぞれの頂点ピクセルの位置にマッピングすることにより、一般化された形状にされる。
これらのテッセレーションのそれぞれを一般化された形状へどのようにマッピングするかは、各テッセルについて最良の空間変換を単に計算することにより決定することができる。
したがって、あらゆる合成された視点に対して任意の形状内で滑らかさを保証することができる。
この空間変換は、テッセルの頂点またはバーテックスポイントの推定された奥行きZの関数である。
中間視点Iと基準視点R0との間のテッセル変換用の空間変換パラメータが判明すると、中間視点Ikと基準視点R0との間の空間変換を計算することができる。
形状間の空間変換を計算する既知の技法は、1995年にPrentice Hallによって出版されたA. Murat Tekalp著の「Digital Video Processing」という題名の書籍に記載されている。
上述したように、すべてのフレームについての内部カメラパラメータおよび外部カメラパラメータは、事前に判明している。
しかしながら、内部カメラパラメータおよび/または外部カメラパラメータが事前に判明していていない場合には、例えば、2001年のCambridge Univ. PressのR. HartleyおよびA. Zisserman著の「Multiple view geometry in computer vision」に記載された技法を使用して、それらのパラメータを推定することができる。
その後、中間フレームIのテッセルの少なくとも2つの頂点の奥行き推定を使用して、そのテッセル内のピクセルの動きを補間することができる。
あるいは、空間変換を明示的に計算することなく、バーテックスポイント(頂点)の奥行き/動きから、テッセル内のピクセルの動きを補間してもよい。
以下に説明するように、静止カメラおよび回転するターンテーブルを使用して取り込まれた画像シーケンスの例示的な実施の形態は、この後者の手法を利用する。
2)変換されたピクセル位置を使用して、当業者に既知の方法で、移動フレーム差分(displaced frame difference)が計算される。
III.圧縮
2つ以上の基準フレーム(例えば、基準フレームR0およびR1)を、中間フレームIのテッセルの動き推定に使用することができる。
これは、MPEGの双方向動き推定に類似している。
図1に示す方法の第3の段階30は、本明細書では「圧縮」と呼ばれる。
中間フレームIkの動きが、基準フレーム(複数可)R0、(R1)に対して予測されるので、移動フレーム差分を符号化するのに費やされるビットは、別の方法として中間フレームIkを独立に符号化するのに費やされるビットよりも少なくなる。
それによって、符号化が効率的になる。
疎な奥行き推定が行われる場合、符号化のオーバーヘッドは、移動フレーム差分、基準フレーム(複数可)、および較正データを符号化するのに費やされるビットのほかに、テッセレーション(オプション)を符号化するために使用されるビットと、テッセレーションのそれぞれについての空間変換パラメータを符号化するために費やされるビットとを構成する。
移動フレーム差分の圧縮は、既知の画像圧縮アルゴリズム、例えば「Digital Video Processing」という題名の書籍に記載されたアルゴリズムを使用して行うことができ、それによって、圧縮ビットストリームが生成される。
IV.伸張
図1に示す方法の第4の段階40は、本明細書では「伸張」と呼ばれ、以下のステップを含む。
1)第1に、圧縮ビットストリームを伸張するために、基準画像が、テッセレーションデータ(疎な奥行き推定の場合)、および較正データと共に伸張される。
2)第2に、中間フレームIkを得るために、中間フレームIkの移動フレーム差分および空間変換パラメータが伸張される。
3)そして、適切な空間変換が適用されて、現テッセルを予測する基準フレームのピクセルが求められ、その結果の値が、移動フレーム差分に追加される。
次に図3を参照して、較正された静止カメラの前に配置された回転式ターンテーブル上で回転するオブジェクトの複数の画像を取り込む場合について、本発明の例示的な実施の形態を以下に説明する。
概観すると、この例示的な実施の形態によれば、予測符号化される中間画像Iを、例えば8×8ブロックまたは16×16ブロックの複数の小さな正方形画像テッセル60に分割するために、簡単な正方形テッセレーションが使用される。
それぞれの画像テッセル60について、基準画像(複数可)が探索され、結果が最良マッチング形状(複数可)になる、そのテッセル60の左上の頂点および右下の頂点にそれぞれ対応する基準画像(複数可)のエピポーラ線(複数可)またはエピポーラ線セグメント(複数可)に沿って位置する点が検出される。
図3に示す例では、基準フレームR0において検出される最良マッチング形状は、長方形ブロック72である。
この基準フレームR0の長方形ブロック72は、予測符号化される現画像のテッセル60と同じ大きさでなくてもよい。
したがって、予測符号化される現画像のテッセル60の予測値は、基準フレームR0における長方形ブロック72の隣接するピクセル値から補間することによって得られる。
基準フレームR0において特定された最良マッチング形状に対する、予測符号化される現画像のテッセル60の左上の頂点V1および右下の頂点V2の動き(および、したがって暗黙的には奥行きZ)が、計算される。
予測符号化される現テッセル60の左上の頂点の元の位置および右下の頂点の元の位置をそれぞれxLおよびxRと表し、基準画像R0内の対応する位置をそれぞれxL'およびxR'と表すと、対応する動きベクトルのx成分は、ΔxL = xL-xL'およびΔxR = xR-xR'となる。
予測符号化されるテッセル60内のピクセルxの動きは、Δx = ΔxL+(ΔxR-ΔxL)*(x-xL)/(xR-xL)とする直線補間を使用して補間される。
この動き予測/推定モデルは、多視点シーケンスの画像間の既知の幾何学的関係、および、画像とカメラとの既知の幾何学的関係により可能となる。
上述したように、較正されたカメラの内部パラメータおよび外部パラメータは、事前に判明している。
撮影と撮影の間(画像と画像の間)のターンテーブルの回転角θも判明している。
オブジェクトの回転は、x軸方向に沿った画像の移動(すなわち水平方向の移動)のみを引き起こすものと仮定する。
しかしながら、数学的関係の同様の組を使用して、垂直方向の移動も同様に考慮できることが分かる。
次に図4を参照して、回転式ターンテーブル84上に設置されたオブジェクト82の画像80のシーケンスを見ることができる。
画像80のそれぞれは、ターンテーブル82が回転角θずつ回転した後に、較正された静止カメラ(図示せず)によって取り込まれた同じオブジェクト82の異なる視点を構成する。
ここで、θ = 360°/Nであり、Nは、カメラによって取り込まれる異なる画像/視点の個数を表す。
図3に示す例示的な場合では、Nは8であり、したがってθ = 45°である。
したがって、連続したそれぞれの画像80は、前の画像80で取り込まれたオブジェクト82の視点から45°離れた視点からオブジェクト82を取り込んだものである。
換言すると、多視点画像シーケンスの連続画像80は、静止カメラに対する、ターンテーブル84の連続的にインデックスされた(角度)位置に対応するオブジェクト82の視点に対応する。
次に図5を参照して、図4に示す多視点画像シーケンスを取り込むのに使用されたカメラ−ターンテーブルの配置に関して存在する幾何学的関係を示す図を見ることができる。
図5において、Dは、オブジェクト82とカメラとの間の距離を表す。
fは、カメラレンズの焦点距離を表す。
R1は、対象となる点P1とターンテーブル84の中心Cとの間の距離を表す。
θ1は、P1の角度位置を表す。
θ1+Δθは、オブジェクト82が回転角Δθだけ回転した後の同じ対象となる点P1'の角度位置を表す。
Δθ = 2π/Nであり、一定である。
この画像平面では、P1のxの投影位置は、(D>>R1と仮定すると)以下の方程式(3)によって求められる。
(3) x1 = f/D*(-R1*cosθ1-B)
ターンテーブル84が回転角Δθを回転した後、対象となる点P1のxの新しい投影位置x1'は、以下の式(4)によって求められる。
(4) x1' = f/D*(-R1*cos(θ1+Δθ)-B)
P1の動きベクトルのx成分は、以下の式(5)によって求められる。
(5) Δx1 = x1'-x1 = f/D*R1*2*sin(Δθ/2)*sin(θ1+Δθ/2)
考察中の例示的な実施の形態において、予測符号化される各画像テッセル用の2つの動きベクトルは伝送される。
一方の動きベクトルは、テッセルの左端用であり、他方の動きベクトルは、テッセルの右端用である。
テッセルは正方形であるので、各テッセルの左上の頂点および右下の頂点の反対側の端に対応する2つの動きベクトルを生成するには、各テッセルの左上の頂点および右下の頂点の動き(および、したがって奥行きZ)を決定することだけが必要とされる。
P1およびP3が、θで取り込まれた画像またはフレームにおいて予測符号化される所与のテッセルの左上の頂点(端点)および右下の頂点(端点)を表すものと仮定し、P2が、P1とP3との間の点またはピクセルであると仮定すると、これら3つの点の動きベクトルのx成分は、以下の方程式(6)に従って関係付けられる。
(6) (Δx2-Δx1)/(Δx3-Δx1) =
(R2*sin(θ2+Δθ/2)-R1*sin(θ1+Δθ/2))/(R3*sin(θ3+Δθ/2)-R1*sin(θ1+Δθ/2))
テッセル内の任意のピクセルの動きベクトルを計算するために直線補間を使用する場合、Δx2を求めるための以下の方程式(7)が得られる。
(7) Δx2 = Δx1+(Δx3-Δx1)*(x2-x1)/(x3-x1)
数式(x2-x1)/(x3-x1)は、以下の方程式(8)によって求めることができる。
(8) (x2-x1)/(x3-x1) = (R2*cosθ2-R1*cosθ1)/(R3*cosθ3-R1*cosθ1)
換言すると、上記方程式(7)は、以下の方程式(9)によって表される仮定に基づいている。
(9) (R2*sin(θ2+Δθ/2)-R1*sin(θ1+Δθ/2))/(R3*sin(θ3+Δθ/2)-R1*sin(θ1+Δθ/2)) = (R2*cosθ2-R1*cosθ1)/(R3*cosθ3-R1*cosθ1)
小さな角度差分Δθ/2を無視すると、上記方程式(9)は、P2が直線P1P3上に位置することを意味している。
このことは、3つのすべての点P1、P2、およびP3が、画像平面から等距離(すなわち、同じ奥行きZ)にあるとの仮定よりもはるかに良い近似である。
なお、この仮定は、従来の平行移動のみの動きモデル(すなわち、Δx2 = Δx1 = Δx3)を正当化するためになされる仮定である。
換言すると、2つの動きベクトルが、画像テッセルの左上の頂点および右下の頂点(コーナピクセルまたは端点ピクセル)の奥行きの推定に基づいてその画像テッセルを予測符号化するのに使用される場合、そのテッセルの表面は、1次近似されるのに対して、平行移動のみの動きモデルによると、テッセルの表面は、0次近似しかされない。
テッセルの頂点が、同じ奥行きZに実際に位置する場合を除くすべての場合において、1次の動き予測/推定モデルは、0次の動き予測/推定モデルよりも正確である。
本発明により、正方形テッセルよりも一般的なテッセレーションが可能になり、多視点画像シーケンスの画像のテッセルの動き/奥行きを、予測符号化されるテッセルの3つ以上の頂点の動き/奥行きの推定に基づいて予測することが可能になる。
本発明の方法は、ソフトウェア、ファームウェア、および/またはハードウェアで実施することができる。
例えば、この方法は、ホストコンピュータのプロセッサ、および/または、レーザプリンタもしくはレーザ印刷システムのような画像形成デバイスのプロセッサにインストールまたはインスタンス化されるソフトウェア(実行可能コード)で実施することができる。
あるいは、この方法は、ASIC(特定用途向け集積回路)またはマイクロコントローラのような専用論理デバイスまたは特別にプログラミングされた論理デバイスで実施することができる。
図6を参照して、この図は、上述した方法を実施する例示的なマシン610を示ししている。
このマシン610は、プロセッサ612およびメモリ614を含む。
メモリ614は、プロセッサにこの方法を実行するように命令するコード616を収容する。
マシン610は、コンピュータ、カメラ、プリンタなどであることができる。
本発明は、その最も広い態様においては、いかなる特定の状況にもいかなる特定の用途にも限定されず、逆に、例えば、コンピュータシステム、コンピュータソフトウェア、コーデック、イメージキャプチャシステムなどのあらゆる画像処理の用途に広く適用することができる。
本発明のさまざまな例示の実施の形態を本明細書で説明してきたが、一般に、当業者には理解できる本発明の多くの変形形態、変更形態、および代替的な実施の形態が、特許請求の範囲によって画定されるように本発明に包含されることが理解されるべきである。
本発明による例示的な実施の形態の方法を示すフローチャート図である。 中間フレームを基準フレームの一般化された形状へ空間変換する様子を図的に示す図である。 中間画像の正方形ブロックに対する最良マッチングブロックを求めて、基準画像の長方形探索領域を探索する様子を図的に示す図である。 回転式ターンテーブルの前に配置された静止カメラによって取り込まれる、回転式ターンテーブル上に設置されたオブジェクトの多視点画像シーケンスの図である。 図4に示す多視点画像シーケンスを取り込むのに使用されたカメラ−ターンテーブルの配置に関して存在する幾何学的関係を示す図である。 本発明の一実施の形態による装置の図である。
符号の説明
60・・・正方形画像テッセル、
72・・・長方形ブロック、
82・・・オブジェクト、
84・・・回転式ターンテーブル、
610・・・マシン、
612・・・プロセッサ、
614・・・メモリ、

Claims (9)

  1. 基準画像に対する中間画像の複数のテッセルのそれぞれの動きを推定する方法であって、
    前記基準画像を探索することであって、それによって、結果が最良マッチング形状になる、前記テッセルの左上の頂点および右下の頂点にそれぞれ対応する前記基準画像のエピポーラ線に沿って位置する点を検出する前記基準画像を探索すること(20)と、
    前記テッセルの前記頂点の少なくとも2つのそれぞれの奥行きを推定すること(20)と、
    前記テッセルの前記少なくとも2つの頂点の前記奥行きの推定を使用することであって、それによって、前記最良マッチング形状に対する前記テッセルの動きを推定する前記テッセルの前記少なくとも2つの頂点の前記奥行きの推定を使用すること(20)と
    とを含む方法。
  2. 前記基準画像および前記中間画像は、少なくとも1つの内部パラメータを有するカメラによって取り込まれ、
    前記テッセルの前記頂点の少なくとも2つのそれぞれの奥行きを推定することは、前記カメラの前記少なくとも1つの内部パラメータを使用して行われる
    請求項1に記載の方法。
  3. 前記画像は、回転角θごとに分離され、
    前記基準画像に対する前記中間画像の回転および平行移動は外部パラメータ
    を含む
    請求項1に記載の方法。
  4. 前記テッセルの前記頂点の少なくとも2つのそれぞれの奥行きを推定することは、前記基準画像と前記中間画像との間の幾何学的関係に基づいて行われる
    請求項1に記載の方法。
  5. 前記中間画像および前記基準画像は、カメラによって取り込まれて、ターンテーブル上に設置されたオブジェクトを表し、
    該ターンテーブルおよび該カメラは、連続した画像の取り込みの間にθの相対的回転を受ける
    請求項1に記載の方法。
  6. 前記基準画像に対する前記中間画像の前記複数のテッセルのそれぞれの動きを推定することは、
    空間変換を使用することであって、それによって、前記テッセルの少なくとも2つの頂点を前記最良マッチング形状の形の対応する点にマッピングする空間変換を使用すること
    をさらに含む
    請求項1に記載の方法。
  7. 前記基準画像に対する前記中間画像の前記複数のテッセルのそれぞれの動きを推定することは、
    空間変換を使用することであって、それによって、前記テッセルの形状を前記最良マッチング形状の形に変換する空間変換を使用すること
    をさらに含む
    請求項1に記載の方法。
  8. 前記基準画像に対する前記中間画像の前記複数のテッセルのそれぞれの動きを推定することは、
    空間変換を使用することであって、それによって、前記テッセルを一般化された形状に変換する、空間変換を使用すること
    をさらに含む
    請求項1に記載の方法。
  9. 前記テッセルの前記少なくとも2つの頂点の対応する奥行きの前記奥行き推定に基づいて、少なくとも2つの動きベクトルを生成すること
    をさらに含む請求項1に記載の方法。
JP2004161282A 2003-06-07 2004-05-31 較正された多視点画像シーケンスの圧縮のための動き推定 Expired - Fee Related JP4323380B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US10/456,379 US7286689B2 (en) 2003-06-07 2003-06-07 Motion estimation for compression of calibrated multi-view image sequences

Publications (2)

Publication Number Publication Date
JP2004362572A true JP2004362572A (ja) 2004-12-24
JP4323380B2 JP4323380B2 (ja) 2009-09-02

Family

ID=33490161

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004161282A Expired - Fee Related JP4323380B2 (ja) 2003-06-07 2004-05-31 較正された多視点画像シーケンスの圧縮のための動き推定

Country Status (2)

Country Link
US (1) US7286689B2 (ja)
JP (1) JP4323380B2 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7463778B2 (en) * 2004-01-30 2008-12-09 Hewlett-Packard Development Company, L.P Motion estimation for compressing multiple view images
US7983835B2 (en) 2004-11-03 2011-07-19 Lagassey Paul J Modular intelligent transportation system
KR101244911B1 (ko) * 2005-10-11 2013-03-18 삼성전자주식회사 카메라 파라미터를 이용한 다시점 동영상 부호화 및 복호화장치 및 방법과 이를 수행하기 위한 프로그램이 기록된기록매체
US20070177671A1 (en) * 2006-01-12 2007-08-02 Lg Electronics Inc. Processing multiview video
KR100953646B1 (ko) * 2006-01-12 2010-04-21 엘지전자 주식회사 다시점 비디오의 처리 방법 및 장치
KR101276847B1 (ko) 2006-01-12 2013-06-18 엘지전자 주식회사 다시점 비디오의 처리
WO2008007917A1 (en) 2006-07-12 2008-01-17 Lg Electronics, Inc. A method and apparatus for processing a signal
KR101533740B1 (ko) 2006-10-30 2015-07-03 니폰덴신뎅와 가부시키가이샤 동영상 부호화 방법 및 복호방법, 그들의 장치 및 그들의 프로그램과 프로그램을 기록한 기억매체
US8351646B2 (en) * 2006-12-21 2013-01-08 Honda Motor Co., Ltd. Human pose estimation and tracking using label assignment
US7822280B2 (en) * 2007-01-16 2010-10-26 Microsoft Corporation Epipolar geometry-based motion estimation for multi-view image and video coding
TWI355205B (en) * 2007-01-24 2011-12-21 Lg Electronics Inc A method and an apparatus for processing a video s
WO2011053300A1 (en) * 2009-10-29 2011-05-05 Hewlett-Packard Development Company, L.P. Joint image compression method and apparatus
US9177381B2 (en) 2010-12-22 2015-11-03 Nani Holdings IP, LLC Depth estimate determination, systems and methods
EP2742688A1 (en) * 2011-08-12 2014-06-18 Telefonaktiebolaget LM Ericsson (PUBL) Signaling of camera and/or depth parameters
RU2550544C1 (ru) * 2013-12-16 2015-05-10 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Тульский государственный университет" (ТулГУ) Способ компенсации движения в цифровых динамических стереовидеоизображениях
WO2016048402A2 (en) 2014-09-26 2016-03-31 Reald Multiscopic image capture system
FR3083352B1 (fr) * 2018-06-29 2020-06-05 Continental Automotive France Procede et dispositif de detection rapide de structures repetitives dans l'image d'une scene routiere
CN112507926B (zh) * 2020-12-16 2022-07-01 电子科技大学 一种基于视频图像分析的围棋复盘方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6327381B1 (en) * 1994-12-29 2001-12-04 Worldscape, Llc Image transformation and synthesis methods
US6101276A (en) * 1996-06-21 2000-08-08 Compaq Computer Corporation Method and apparatus for performing two pass quality video compression through pipelining and buffer management
EP0931420A4 (en) * 1996-10-11 2002-06-26 Sarnoff Corp METHOD AND DEVICE FOR CODING AND DECODING STEREOSCOPIC VIDEO SIGNALS
JP4013286B2 (ja) * 1997-01-22 2007-11-28 松下電器産業株式会社 画像符号化装置と画像復号化装置
US6584226B1 (en) * 1997-03-14 2003-06-24 Microsoft Corporation Method and apparatus for implementing motion estimation in video compression
JP3077745B2 (ja) * 1997-07-31 2000-08-14 日本電気株式会社 データ処理方法および装置、情報記憶媒体
US6205241B1 (en) * 1998-06-01 2001-03-20 Canon Kabushiki Kaisha Compression of stereoscopic images
JP4151149B2 (ja) * 1999-03-12 2008-09-17 富士ゼロックス株式会社 画像形成装置
DE60124604T2 (de) * 2000-03-30 2007-09-13 Kabushiki Kaisha Topcon Stereobildmessvorrichtung
US7120195B2 (en) * 2002-10-28 2006-10-10 Hewlett-Packard Development Company, L.P. System and method for estimating motion between images
US7164800B2 (en) * 2003-02-19 2007-01-16 Eastman Kodak Company Method and system for constraint-consistent motion estimation

Also Published As

Publication number Publication date
US7286689B2 (en) 2007-10-23
JP4323380B2 (ja) 2009-09-02
US20040247159A1 (en) 2004-12-09

Similar Documents

Publication Publication Date Title
JP4323380B2 (ja) 較正された多視点画像シーケンスの圧縮のための動き推定
US9693028B2 (en) Projection system, semiconductor integrated circuit, and image correction method
CN110115037B (zh) 球面投影运动估计/补偿和模式决策
JP4999854B2 (ja) 画像符号化方法及び復号方法、それらの装置、及びそれらのプログラム並びにプログラムを記録した記憶媒体
KR101131756B1 (ko) 도메인 변환을 이용한 메시 기반 비디오 압축
CN102326391B (zh) 多视点图像编码装置及方法、多视点图像译码装置及方法
US7463778B2 (en) Motion estimation for compressing multiple view images
US6236682B1 (en) Video motion vector detection including rotation and/or zoom vector generation
JP2007336188A (ja) 多視点画像圧縮符号化方法、装置及びプログラム
WO2008035654A1 (fr) Procédés et dispositifs de codage et de décodage d'image, dispositif et programmes de décodage d'image, et support de stockage desdits programmes
US20150172715A1 (en) Picture encoding method, picture decoding method, picture encoding apparatus, picture decoding apparatus, picture encoding program, picture decoding program, and recording media
JP5219199B2 (ja) 多視点画像符号化方法,復号方法,符号化装置,復号装置,符号化プログラム,復号プログラムおよびコンピュータ読み取り可能な記録媒体
RU2729966C1 (ru) Способы, устройства и машиносчитываемый носитель для кодирования и декодирования видеосигнала
Eichenseer et al. Motion estimation for fisheye video with an application to temporal resolution enhancement
JP4605716B2 (ja) 多視点画像圧縮符号化方法、装置及びプログラム
JP2009164865A (ja) 映像符号化方法,復号方法,符号化装置,復号装置,それらのプログラムおよびコンピュータ読み取り可能な記録媒体
Vishwanath et al. Motion compensated prediction for translational camera motion in spherical video coding
WO2015056712A1 (ja) 動画像符号化方法、動画像復号方法、動画像符号化装置、動画像復号装置、動画像符号化プログラム、及び動画像復号プログラム
JP6905184B2 (ja) 画像圧縮プログラム、画像圧縮装置、及び画像圧縮方法
KR100490730B1 (ko) 비디오 영상 압축 시스템에서의 적응적 패턴을 이용한움직임 예측 장치 및 방법
JP7161736B2 (ja) 符号化方法、符号化装置及びプログラム
Farin et al. Enabling arbitrary rotational camera motion using multisprites with minimum coding cost
JP4219726B2 (ja) 3次元形状計測方法、3次元形状計測装置、プログラム、および記録媒体
JP2616552B2 (ja) 動画像の符号化・復号化装置
JP5531282B2 (ja) 多視点画像符号化方法,復号方法,符号化装置,復号装置,符号化プログラム,復号プログラムおよびコンピュータ読み取り可能な記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061128

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090501

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090604

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120612

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130612

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees