JP2007141228A - 自由視点におけるバーチャルビューの特定および合成 - Google Patents

自由視点におけるバーチャルビューの特定および合成 Download PDF

Info

Publication number
JP2007141228A
JP2007141228A JP2006297848A JP2006297848A JP2007141228A JP 2007141228 A JP2007141228 A JP 2007141228A JP 2006297848 A JP2006297848 A JP 2006297848A JP 2006297848 A JP2006297848 A JP 2006297848A JP 2007141228 A JP2007141228 A JP 2007141228A
Authority
JP
Japan
Prior art keywords
viewpoint
viewer
views
camera
view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006297848A
Other languages
English (en)
Inventor
Baoxin Li
リー バオシン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Publication of JP2007141228A publication Critical patent/JP2007141228A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20088Trinocular vision calculations; trifocal tensor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Generation (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】自由視点テレビにおいて画像に基づくレンダリングを可能にする。
【解決手段】第1視点を有するシーンの第1ビデオストリームおよび第2視点を有するシーンの第2ビデオストリームを受信するシステムであり、第1視点と第2視点との間のカメラ較正量は未知である。視者は、一般に第1視点と第2視点の間の視者視点を選択し、システムは第1ビデオストリームおよび第2ビデオストリームに基づき、視者視点を合成するようになっている。
【選択図】図1

Description

本発明は、バーチャルビューポイントを決定することに関する。
テレビは、過去何十年間における最も重要な視覚情報システムとなる可能性が高く、現代生活の必需品となっている。従来のテレビでは、特定の映像に対するビューアー(視者)の視点は、情報収集カメラの視点によって決定され、固定されている。最近の新技術により、テレビを見ることに革新をもたらすことを約束する自由視点テレビ(FTV)が出現した。FTVの前提は、一組のカメラが捕えた多数の映像ストリームを提供することにより、映像を見るための自らの視点を選択できる自由度を視者に提供できることである。家庭用娯楽のほかにFTVの概念は、他の関連する領域、例えばゲームおよび教育でも使用できる。視者が選択する視点はデータ収集カメラの視点と一致しなくてもよい。従って、FTVは(2〜3のプリセットされた映像に対してDVDで可能なように)、カメラを切り換えることにより単純に映像を変更するにすぎないというものではない。FTV技術はデータ収集ハードウェア、符号化技術、バンド幅管理技術、相互作動性のための標準化などにわたる全範囲の技術を必要とする。FTVを実現するための特定の技術の1つとして、バーチャルビュー合成がある。
バーチャルビュー合成の本質は、異なる視点から取得したように見える新しい画像を構成するために、異なる視点から取得した所定の一組の画像(または映像)を含む。このマルチ画像変更は画像に基づくレンダリング(IBR)とも時々称される。
FTVアプリケーションでは、カメラ較正情報を利用できる可能性は低い(例えば移動するごとに較正しなければならない多数のカメラで映画を撮影することを想像されたい)。このことによってほとんどのケースでフルカメラ較正を必要とするIBR方法が一般に使用できないものとなっている。更に、バーチャルビュー合成の前に、バーチャルビューを特定しなければならない。既存のIBR技術はこれを達成するために種々の方法を使用している。例えば設定全体が完全に較正されるならバーチャルビューの特定は簡単に出来るかもしれない。例えば、バーチャルビューの特定は、バーチャルカメラの中心の射影を含む一部のポイントを選択するユーザマニュアルに基づいて行うことができる。通常のユーザが、所望する(バーチャルな)視点を特定する直感的な方法を必要とする場合、較正されていないカメラを使用するFTVアプリケーションに対しこれらアプローチのいずれも容易に使用できるものではない。
望まれているものは、IBRに基づくFTVにおけるレンダリング問題に対する枠組みである。このアプローチは入力信号としての較正されていないカメラからの多数の画像を含むことが望ましい。更に、バーチャルビューは主に視者が選択した2つの基本的ビューから合成されるが、画質を改善するために他のビューを使うこともできる。2つの最適な(ユーザが選択した)ビューでスタートすることにより、必要なビューの数を少なくすることにも寄与できる。更に、較正されていないカメラでバーチャルビューを特定するための技術は望ましいものであり、完全なカメラの較正または複雑なユーザとのやりとり、これらはいずれもFTVにとって非実用的である、を要することなくFTVアプリケーションにおけるビューの特定に対する実用的な解決案を提供するものである。
上記課題を解決するために、本発明は、(a)第1の視点を有するシーンの第1のビデオストリームを受信するステップと;(b)第2の視点を有する第2のビデオストリームを受信し、前記第1の視点と前記第2の視点との間のカメラ較正量が未知であるステップと;(c)視者が一般に前記第1の視点と前記第2の視点の間の視者視点を選択するステップと;(d)前記第1のビデオストリームおよび前記第2のビデオストリームに基づき、前記視者視点を合成するステップとを備えたことを特徴としたものである。
添付図面を参照し、次の詳細な説明を検討すれば、本発明の上記およびそれ以外の目的、特徴および利点がより容易に理解できよう。
レンダリング解決案に対する好ましい実施例は、数学的なレンダリング技術を必要とするだけでなく、(理想的に)カメラをどのように位置決めすべきかおよびユーザがどのようにレンダリングシステムとインタラクトすべきかを含め、FTVアプリケーションがどのようにシステム全体を構成すべきかを見通せるようにモデル化しなければならない。
ほとんどのケースでは、一組に固定されているが較正されていないカメラにより、同一シーンの多数の同期化したビューを撮映する。実際に、全てのフレームに対する較正が少ないなら、カメラを移動することは理論的には問題がない。実際には、少なくとも映像を撮る間はカメラは固定されているから、各ショットに対しわずかな較正だけでよいと考えられる。大概の場合は、視者は多数のビデオストリームを利用できる。視者はバーチャルな視点を指定し、システムがその視点に対応するバーチャルな映像を発生することを求める。
代表的なIBRアプローチでは、はっきりとした3Dの再構成および再射影を実行しないので、一般的には、物理的に同じ点では、オクルージョンを考えないとしても、バーチャルビューでは所定のビューのうちのいずれかとは異なる色になることがある。異なるビュー間の差は視角、照明および反射モデルなどに応じてほとんど差がない状態から、ドラマチックな差がある状態までの範囲となり得る。従って、IBRでは、バーチャルビューが所定のビューから過度に離間してはならないという制限を含むべきであることが好ましく、そうでない場合、非現実的な色が生じる可能性がある。
このようなことを考えて、FTVプログラム内で使用されるカメラは最も関心があると思われる視点が所定のビュー間にくるように、戦略的に配置されていると推測することができる。視者の便宜のために、このことを次のように簡略化できる。すなわちバーチャルビューは所定の多数のビュー(2つ以上)からユーザが選択した任意の2つ(またはそれ以上)のビューの間のビューとして定義される。これら2つのビューの選択は実際には極めて直感的で明白である。例えば、ビュー1が所望するよりも左側に過度に離れ過ぎており、ビュー2が所望するよりも右側に離れ過ぎていると視者が感じた場合、所望するバーチャルビューは、一般にビュー1とビュー2の間のどこかになければならない。
従って、システムはFTVアプリケーションをサポートするために、次の2つの特徴を解決できる。すなわち(1)較正されていないカメラからのマルチビデオストリーム、および任意の2つ(またはそれ以上)のユーザが選択したビューが与えられた場合に、一般に2つ(またはそれ以上)のビュー間のバーチャルビューを合成すること、および(2)利用できる所定のビューに対するバーチャルな視点を特定する直感的な方法を視者に提供することである。
上記のように、ユーザが所望する視点に最も近い2つのビューを有する一組のビデオストリームを有することができる。較正されていないシステムでは、最も近いとはどういうことかを正確に定義できないので、ユーザはビューのペアを選択するかもしれない。他のビュー(ユーザが選択したビューか、または選択していないビュー)を同じように利用できるけれども、2つの特定されたビューを最大限活用することが望ましい。識別目的のためにユーザが選択した2つのビューを基準ビューとすることができる。これら基準ビューは特別に配置されたカメラに特に基づくものではなく、ユーザの選択に基づき、ダイナミックに選択される。
バーチャルビュー合成に対する特に好ましいアプローチは次のステップからなる。
1.視者が選択できる任意のペアを潜在的にサポートするために、すべてのビューをペア状にわずかに較正すること。この較正は、一部のビューを除外できる可能性がある。特に1つのビューが他のビューのペア間にある場合である。
2.他のビューを検討する場合、もし必要なら、2つの基準ビューをカラーセグメント化に基づいて対応させること。
3.ディスパリティマップにより基準ビューからバーチャルビューへ前方方向にワーピングすること。
4.満たされていないピクセルに対し、補助ビュー上で後方サーチを行うためのアルゴリズムを使用し、圧倒的で、かつディスパリティが一貫するカラーを探すこと。
少ない較正によるバーチャルビューの合成
図1に示すように、システムは、システム内でn個のカメラを使用することに基づくことができる。基準ビューは、基準カメラ1および基準カメラ2と表示できる。残りのビューは補助カメラk(3〜n)と表示できる。基準カメラと補助カメラの間の基本マトリックスを特徴検出器およびF13、F23...F1n、F2nと表示されるランダムサンプルコンセンサス(すなわちRANSAC)アルゴリズムで計算する。基準カメラ間の基本マトリックスはF12である。カメラを移動しない限り、基本マトリックスの計算は1回行うだけでよい。基準ビューとバーチャルビューとの間の基本マトリックスは、それぞれF10およびF20と表示される。
基本マトリックスが決まると、カメラ1内の任意のポイントxに対するカメラ2内の対応するポイントx’は、ディスパリティdを探すのを容易にするために使用できる基本マトリックスを介してx’T12x=0により拘束される。補助カメラk内の対応する第3のポイントはxkによって表示され、このxはx T1kx=0およびxk T2kx’=0から決定される。xとx’との間の対応が一旦決定されると、前方向マッピングによりバーチャルビューピクセルx”を決定できる。この場合、x”はx”T10x=0およびx”T20x’=0の双方を満足する。図1にこれら関係が示されている。
セグメント化に基づく対応
エピポーラ拘束の場合でも、所定のポイントxに対するディスパリティをエピポーラ線に沿ってサーチすることがまだ望ましい。xとx’との間の対応を確立するために、最初に基準ビューの各々をセグメント化するためのグラフカットに基づくセグメント化が利用される。各セグメント内のすべてのピクセルに対し、これらピクセルは同じディスパリティを有する、すなわち同じフロントパラレル平面にあると推測される。より正確なモデル化に対しては過剰なセグメント化が好ましく、各セグメントは縦,横とも15ピクセル以下になるように制限される。これは、画素解像度が720×480である従来のNTSC TVフレームに対して妥当な値である。
上記エピポーラ拘束によって、各セグメントを別の画像にワープすることができる(図1も参照)。一致スコアとして、SSD(sum−of−squared−difference)またはSAD(sum−of−absolute−difference)基準を使用する代わりに(絶対値に対する)相対的な差が0.2未満(すなわち|R1−R2|/R<0.2、GおよびBに対しても同様)である対応するピクセルペアの数をカウントすることのほうが簡単である。セグメント内のピクセルの数によって正規化されるこの数はマッチングスコアとして使用され、このマッチングスコアは基準画像iにおける可能なdおよびj番目のセグメントに対して、mij(d)と表示される。この尺度は照明条件に対してロバストであることが判っている。
他の基準画像からのマッチングスコアを使用することに加え、次のような、ディスパリティdを有する基準画像iにおけるセグメントsjに対する最終マッチングスコア(sijと表示)を次式のように計算することによって、すべての補助画像を組み込むことができる。
Figure 2007141228
ここで、mijk(d)は、他の基準または補助カメラkにおけるセグメントSijのマッチングスコアである。dは基準ビューに対する値であり、他の補助画像内のサーチは、図1に示す関係のビュー間の最大のカラーの一貫性をどのdが生じさせることができるかをチェックすることと等価である。
更に、上記マッチングスコアに基づき1つのdを決定する代わりに、次の繰り返し最適化手順においてそのスコアを使用することができる。基本的な技術は、ディスパリティスムーズネスを強めるために、隣接する類似したカラーのセグメントに基づき、各カラーセグメントのマッチングスコアを更新することである。
Figure 2007141228
ここで、φは類似するカラー(所定のスレッショルド下のユークリッドカラー距離によって定義される)を有する隣接セグメントの組であり、βは収束速度を制御する禁止定数(計算を簡潔にするために、2にセットされる)であり、kは繰り返し回数である。このシステムは次の停止基準を利用できる。すなわち任意のdに対し、Sijが閾値を越えた場合に、任意の繰り返しkにおいて、このセグメントに対する更新プロセスは次の繰り返し時に停止する。この全手順は収束する(すなわちセグメントを更新する必要がなくなる)までに終了する。この技術は一般に10回繰り返した後に収束するので、繰り返し回数を10に固定する。
双方の基準ビューに対し上記手順を実行し、更に左右一貫性チェックによりディスパリティマップを検証し、バーチャルビューを合成するのに一貫した結果を有するセグメントだけを使用する(従って、一部のセグメントを使用しないことがあるので、その結果、ディスパリティマップが不完全となることがある)。図2では、その結果生じるディスパリティマップと共にカラーセグメント化の結果の2つの例が示されている。
前方ワーピング
検証されたディスプレイマップおよび2つの基準ビューを使用すると、前方ワーピングによりバーチャルビューの初期推定を合成できる。基準ビュー1内のピクセルxおよび基準ビュー2内のx’に対し、バーチャルビュー上のそれぞれに対応するピクセルはx”となり、そのカラーは次のように計算される。
Figure 2007141228
ここで、αは基準ビューの寄与分を制御する係数(この係数は他の場所で定義される同じαにセットすることができる)である。前方ワーピングはテクスチャーの詳細を良好に保存でき、このワーピングはリアルタイムのレンダリングをより容易にするよう、ハードウェアで容易に実現できる。図3は、前方ワーピング後に得られる中間画像を示す。
後方サーチおよびプロパゲーション
前方ワーピングによって与えられる初期バーチャルビューでは、「ブラックホール」と呼ばれることがある、多くのカバーされていないピクセルを見ることは、一般的でないとは言えない。これらブラックホールは不完全なディスパリティマップ、例えばオクルージョンに起因するものである。各ブラックホールピクセルに対し、初期合成からのカラー値が割り当てられたピクセルに対する隣接ピクセルがチェックされる。次に、その画像における後方サーチを行うためにそのピクセルのディスパリティを使用する。ディスパリティ空間全体にわたって徹底的なサーチを行う他の類似したディスパリティ、あるいはデプスサーチアルゴリズムとは異なり、好ましいシステムは(割り当てられたカラーを有する)有効な隣接ピクセルのディスパリティ内の限られた範囲内でサーチを行う。このサーチ目標関数は次のように定義される。
Figure 2007141228
ここで、dnは有効隣接ピクセルのディスパリティであり、pdnはそのカラーであり、p-={p,p}はdに対応する2つの基準ビューからのカラーであり、DistdispおよびDistcolorはディスパリティおよびカラーで定義される2つの距離関数であり、λは重さ係数である。カラーとディスパリティの差の組み合わせはテクスチャー(カラー)およびデプスの双方のスムーズネスのためのものである。実際に、F(d)は有効なすべての隣接ピクセルから得られる最小値として設定される。この結果得られるF(d)が所定の値を下回るときにしか、新しいディスパリティが受け入れられない。すべての有効な隣接ピクセル上で、すべての可能なdが検査された後にサーチに失敗した場合、他のピクセルからのプロパゲーションが到着するまで、対応するピクセルはからのままに残される。そうでない場合、式(3)のブレンド方法に基づき、そのピクセルには1つのカラーが割り当てられ、有効であると表示される。それから、他のブラックホールピクセルに対して新しいサーチが続く。
サーチおよびプロパゲーションプロセス後でもそのポイントが双方の基準カメラにおいてみあたらないときは、「ブラックホール」が残されたままとなることがあり得る。このことを解決するために、上記のように同じサーチおよびプロパゲーション方法を使用するが、この場合、p-={pi},i≠1,2である。このことは、(例えば)ビューのいずれかまたは双方でピクセルがオクルードされ、よってビューの双方が排除されると推測できることを意味する。しかし、他のビューから情報を得ることができうる。補助ビューのいずれかを優先するための情報はないので、ブラックホールを満たすのにビューから見つけられた主要カラーが取り込まれる。ビューの数nが大きい場合、多数の画像内でサーチを行うことは、計算上費用がかかるように見えるが、前のステップの後ではカバーされていないピクセルの数が比較的少ないことを考えると、このサーチは実際には極めて高速である。
上記手順により、すべてのピクセルをカバーできるという保証はないことに留意すべきである。例えば、数個のアイソレートされたノイズの多いピクセルによって問題が生じたり、またはすべてのカメラによってシーンがカバーされないことがあるからである。線形補間方法は、前者の状況を取り扱うことができ、一方、後者の状況は、好ましい推測の既に一部となっている自由な視点範囲を拘束することによって軽減できる(すなわちバーチャルビューは常に2つのビューの間にあり、カメラは戦略的に位置決めされる)。
視点の特定
図4には、好ましいプロセス全体に従ったことによって得られる完全なバーチャルビューが示されている。較正されていないビューのみに基づくバーチャルビューを特定するための直感的方法が望ましい。本質的には、この技術は任意の選択された2つのビューの間でバーチャルビューを徐々に変えることができる能力を視者に提供するものである。従って、例えばリモコンボタンによりテレビ画像のカラーやコントラストを制御するのと同じように、望ましい視点が示されるまで、便宜的に±ボタン(または同様なボタン)を押すことにより、バーチャルビューを決定できる(同様に、実現のためにリモコンまたはゲームコンソール上のジョイスティックも使用できる)。
所定のビューの位置および方向を決定するために、その所定のビューに対する並進ベクトルおよび回転マトリックスにより視点を特定できる。しかしながら、テレビ視者にこれを行うことを求めることは現実的ではない。実用的な方法は、実際のビューでスタートし、そのビューを基準として望ましい視点まで視者を移動させることである。このような相対的視点移動は、インタラクティブなやり方でやればユーザに対してより便利である。従って、システムは、あるビューから別のビューへの連続的なバーチャルビューの解釈を可能にすべきである。1つのパラメータαによって補間を制御できる。α=0のとき、基準ビュー1はそのときのビューであり、αが1まで増加した場合、視点は徐々に別のビュー2まで変化する。説明のために、図5にはモックアップユーザインターフェイスが示されており、ここでは左、右の矢印ボタンが2つの基準ビューからの視点の変化を制御し、視者への視覚的なフィードバックとしてスクリーンに即座にその結果が示される。このシステムは、スクリーン上に同じように2つの基準ビューをディスプレイすることもできる。上下の矢印ボタンは、後述するように、2つの基準ビューの間のパスに沿ったビューの可変性を増すことができる。
較正された画像撮映による視点の補間
最終目標は、較正されたケースを取り扱うことであるが、説明のためのものとして較正されたケースでスタートする。直感的なバーチャルビューの特定をサポートするために、好ましいインターフェイスは図5に示されたインターフェイスに類似している。それぞれ2つの基準ビューに対して、2つのカメラマトリックスを有すると仮定する。
Figure 2007141228
この場合、1つは、2つのビューの間の相対関係にしか関係しない。射影マトリックスの各々に対し、次のようなホモグラフィ変換、すなわち
Figure 2007141228
を適用することにより、カメラを次のような標準形に変換する。
Figure 2007141228
すなわち第1カメラの中心が原点であり、カメラ2は回転R2および並進C2’によりカメラ2と関連している。
標準形に基づき、バーチャルビューを特定することができる。バーチャルビューに対するカメラマトリックスは次のように示されると仮定する。
Figure 2007141228
基準ビュー1と2との間のパスをパラメータ化するのにαを使用できる。式(8)は次のようになる。
Figure 2007141228
カメラの固有マトリックスに対し、ビュー1からビュー2への漸次変化は、カメラ1がその焦点および基本ポイントをカメラ2のそれらに徐々に変えて行くことによって見ることができる(2つのカメラが同一の場合、所望するような任意の効果は生じない)。従って、固有マトリックスを補間し、次のようなkν’(α)を得ることができる。
Figure 2007141228
0’(α)に対して次の式を仮定する。
Figure 2007141228
ここでri、siおよびtiはそれぞれx軸、y軸およびz軸を示す。R’(α)=[r(α),s(α),t(α)]を次のように構成できる。
Figure 2007141228
式(12)における第1ステップは、2つの元のz軸の補間として新しいx軸を構成することである。次に、一時的なy軸をs’として補間する。s’は新しいz軸に垂直とならないことがあることに留意されたい。この場合、新しいz軸および一時的なy軸により、新しいx軸(r0(α))を構成できる。最後に、新しいz軸とx軸との外積として新しいy軸を構成する。
最後に、次の線形補間を使って新しいカメラの中心を構成できる。
Figure 2007141228
式(13)から、新しいカメラの中心は2つのカメラの中心を接続するライン上にあり、その結果、エピポーラ拘束に対する縮退が生じるので、バーチャルビュー合成に対してこれを使用してはならない(図1参照)。拘束から派生される利益を維持することが好ましいので、基本マトリックスに基づく方法を依然として適用できるように、この縮退を回避したい。従って、2つのビューの間の正しいラインからパスを離間させなければならない。このことは、式(13)から計算されたバーチャルカメラの中心のy成分を若干大きくすることによって達成できる。実現に際し、y成分を増減することにより、第1方向に垂直に視点を変える効果を更に得ることができる。Cν(α)=[xν,yν,zν]を仮定すると、次のように新しいCν’(α)を得る。
Figure 2007141228
図6には、この全プロセスが示されている。補間されたP0を用い、バーチャルビュー合成のために、対応する基本マトリックスを計算し、使用することができる。
較正されない画像撮映による視点の補間
次に、較正されないケースを検討する。すなわち基本マトリックスのみからどのように同様な結果を得ることができるかを検討する。基本マトリックスF12を仮定した場合、対応する標準形カメラマトリックスは次のとおりとなる。
Figure 2007141228
ここで、e’はF12 Te’=0の場合の画像2上のエピポールであり、νを任意の3ベクトルとすることができ、λは0でないスカラーである。再構成されたP2は射影変換に対するものであることに留意されたい。おそらく、基本マトリックスがランダムに選択されるνによって定義されるP2に基づくものである場合、ランダムに選択されるνが妥当なバーチャルビューを結果として生じさせるとは期待できない。近似的に算出された本質的マトリックスからPを得ることが望ましい。まず、簡単な近似方法により本質的マトリックスを推定する。このエッセンシャルマトリックスは、次のような形式を有する。
Figure 2007141228
未知のカメラマトリックスKに対し、自動較正は面倒な計算をすることによって焦点距離を回復できるが、FTVアプリケーションに対し、このことは実用的な選択ではない(取得段階で情報が得られない場合には)。近似として、次のように画像の幅wおよび高さhに基づき、カメラマトリックスのパラメータを設定する。
Figure 2007141228
更に、双方のカメラは同様な構成を有し、エッセンシャルマトリックスE12を得るのに同一のKを使用すると仮定する。エッセンシャルマトリックスを次のように歪対称マトリックスおよび回転マトリックスに分解できる。
Figure 2007141228
ここで、Rおよびtはカメラ1に対するカメラ2の相対的回転および並進マトリックスと見なすことができる。次に、次の式が得られる。
Figure 2007141228
このように、対応する基本マトリックスが復元される。実際のカメラの内部マトリックスを知らなくても、式(16)内で推定値を有するだけでも、この方法は多数のデータセットによって有効であると証明された。
エッセンシャルマトリックスを推定することにより、較正されたケースに戻っているように見えるが、この方法は真に完全な較正とは全く異なるものである。その理由は、較正されたケースのようにバーチャルビューを特定するのに必要とされる真の回転および並進を推定するのに、式(16)の近似を使用することを期待できないからである。しかしながら、式(12)および(13)に示されるような補間方式において近似を使用することが妥当である。
図7には、カメラ67から74まで放物線を通って、断片的な直線に従いカメラ80まで続く視点移動を伴うパスとして、データを使用することによりシミュレートされた自由視点移動パスを示す図が示されている。一例として、図8(左)は、2つの基準ビューおよび合成された画像の2つの例を示す。図8(右)にはこれらの結果が示されている。好ましい方法は、予備的較正情報を使用しないで、較正されていないビューから純粋に作用することができ、実用的なFTVのための有効な方法としてこのアプローチをレンダリングできる。
これまで明細書で用いた用語および表現は、本明細書では発明を説明する用語として用いたものであり、発明を限定するものとして用いたものではない。これら用語および表現の使用に当たり、図示し、記述した特徴またはその一部の均等物を排除する意図はなく、発明の範囲は特許請求の範囲のみによって特定されるのである。
関連出願
本願は、2005年11月15日に出願された米国仮特許出願第60/737,076号に基づく利益を主張するものである。
カメラのレイアウトを示す図である。 カラーセグメント化およびディスパリティマップを示す図である。 前方方向のワーピング後のバーチャルビューを示す図である。 処理後のバーチャルビューを示す図である。 インターフェイスを示す図である。 基準ビューの関数としてバーチャルビューを示す図である。 シミュレートされたバーチャル視点を示す図である。 合成されたビューおよび基準ビューを示す図である。
符号の説明
1、2…基準カメラ、3〜n…補助カメラ。

Claims (11)

  1. (a)第1の視点を有するシーンの第1のビデオストリームを受信するステップと;
    (b)第2の視点を有する第2のビデオストリームを受信し、前記第1の視点と前記第2の視点との間のカメラ較正量が未知であるステップと;
    (c)視者が一般に前記第1の視点と前記第2の視点の間の視者視点を選択するステップと;
    (d)前記第1のビデオストリームおよび前記第2のビデオストリームに基づき、前記視者視点を合成するステップとを備えたことを特徴とする、視点を合成するための方法。
  2. 前記視者が、各々が異なる視点を有する3つ以上のビデオストリームのグループから、前記第1の視点および前記第2の視点を選択することを特徴とする、請求項1記載の方法。
  3. 第3の視点を有する第3のビデオストリームを受信するステップを更に備え、前記第1の視点、第2の視点および第3の視点の各ペアに対し、ペア状の較正を決定することを特徴とする、請求項1記載の方法。
  4. 前記視点のうちの1つの前記較正を選択的に排除するステップを更に含むことを特徴とする、請求項3記載の方法。
  5. 前記第1の視点と前記第2の視点との間のカラーに基づき、セグメント化するステップを更に含むことを特徴とする、請求項1記載の方法。
  6. ディスパリティマップに基づき、前記第1の視点および前記第2の視点からバーチャルビューまで、前方方向にワーピングするステップを更に含むことを特徴とする、請求項1記載の方法。
  7. 主要なディスパリティの一貫したカラーを探すために、第3の視点に基づき、後方へのサーチを使用するステップを更に含むことを特徴とする、請求項6記載の方法。
  8. 特徴検出器およびランダムサンプルコンセンサスに基づき、前記第1の視点と第2の視点との間の関係を決定することを特徴とする、請求項1記載の方法。
  9. 前記ディスパリティがエピポーラ拘束に基づくものであることを特徴とする、請求項6記載の方法。
  10. 前記視者視点を並進および回転によって特定することを特徴とする、請求項1記載の方法。
  11. 前記視者視点がユーザにより複数の潜在的視点から選択可能であることを特徴とする、請求項1記載の方法。
JP2006297848A 2005-11-15 2006-11-01 自由視点におけるバーチャルビューの特定および合成 Pending JP2007141228A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US73707605P 2005-11-15 2005-11-15
US11/462,327 US7471292B2 (en) 2005-11-15 2006-08-03 Virtual view specification and synthesis in free viewpoint

Publications (1)

Publication Number Publication Date
JP2007141228A true JP2007141228A (ja) 2007-06-07

Family

ID=37622322

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006297848A Pending JP2007141228A (ja) 2005-11-15 2006-11-01 自由視点におけるバーチャルビューの特定および合成

Country Status (5)

Country Link
US (1) US7471292B2 (ja)
EP (1) EP1785941B1 (ja)
JP (1) JP2007141228A (ja)
DE (1) DE602006020534D1 (ja)
WO (1) WO2007061495A2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2375746A1 (en) 2010-03-31 2011-10-12 Deutsche Telekom AG Method for encoding texture data of free viewpoint television signals, corresponding method for decoding and texture encoder and decoder
KR101221540B1 (ko) 2011-02-25 2013-01-11 주식회사 틴로봇 인터랙티브 미디어 매핑 시스템 및 그 방법

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7471292B2 (en) 2005-11-15 2008-12-30 Sharp Laboratories Of America, Inc. Virtual view specification and synthesis in free viewpoint
US8277316B2 (en) * 2006-09-14 2012-10-02 Nintendo Co., Ltd. Method and apparatus for using a common pointing input to control 3D viewpoint and object targeting
US8740693B2 (en) 2007-02-02 2014-06-03 Wms Gaming Inc. Gaming systems having multi-output displays
TWI366181B (en) * 2007-06-12 2012-06-11 Au Optronics Corp Method and apparatus for image enlargement and enhancement
JP4947593B2 (ja) * 2007-07-31 2012-06-06 Kddi株式会社 局所領域分割による自由視点画像の生成装置およびプログラム
GB2462095A (en) * 2008-07-23 2010-01-27 Snell & Wilcox Ltd Processing of images to represent a transition in viewpoint
US20110157229A1 (en) * 2008-08-29 2011-06-30 Zefeng Ni View synthesis with heuristic view blending
WO2010050728A2 (ko) * 2008-10-27 2010-05-06 엘지전자 주식회사 가상 뷰 이미지 합성 방법 및 장치
US8330802B2 (en) * 2008-12-09 2012-12-11 Microsoft Corp. Stereo movie editing
US8395642B2 (en) * 2009-03-17 2013-03-12 Mitsubishi Electric Research Laboratories, Inc. Method for virtual image synthesis
JP4831223B2 (ja) * 2009-09-29 2011-12-07 カシオ計算機株式会社 画像表示装置及び方法並びにプログラム
US8643701B2 (en) 2009-11-18 2014-02-04 University Of Illinois At Urbana-Champaign System for executing 3D propagation for depth image-based rendering
IL202460A (en) 2009-12-01 2013-08-29 Rafael Advanced Defense Sys Method and system for creating a 3D view of real arena for military planning and operations
JP2011151773A (ja) * 2009-12-21 2011-08-04 Canon Inc 映像処理装置及び制御方法
TWI601280B (zh) * 2010-07-19 2017-10-01 晶元光電股份有限公司 發光裝置
US8655093B2 (en) * 2010-09-02 2014-02-18 Edge 3 Technologies, Inc. Method and apparatus for performing segmentation of an image
EP2426929A1 (en) 2010-09-06 2012-03-07 Telefonaktiebolaget L M Ericsson AB (Publ) Viewpoint navigation
US20120206440A1 (en) * 2011-02-14 2012-08-16 Dong Tian Method for Generating Virtual Images of Scenes Using Trellis Structures
US9300946B2 (en) 2011-07-08 2016-03-29 Personify, Inc. System and method for generating a depth map and fusing images from a camera array
WO2013068493A1 (en) 2011-11-11 2013-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multi-view coding with effective handling of renderable portions
EP3462742A1 (en) * 2011-11-11 2019-04-03 GE Video Compression, LLC Multi-view coding with exploitation of renderable portions
US9237330B2 (en) * 2012-02-21 2016-01-12 Intellectual Ventures Fund 83 Llc Forming a stereoscopic video
US8666655B2 (en) 2012-07-30 2014-03-04 Aleksandr Shtukater Systems and methods for navigation
US9175975B2 (en) 2012-07-30 2015-11-03 RaayonNova LLC Systems and methods for navigation
US9392248B2 (en) 2013-06-11 2016-07-12 Google Inc. Dynamic POV composite 3D video system
EP3036901B1 (en) * 2013-08-19 2019-01-30 Nokia Technologies OY Method, apparatus and computer program product for object detection and segmentation
JP6306952B2 (ja) * 2014-06-23 2018-04-04 日本電信電話株式会社 中間視点画像生成装置、中間視点画像生成方法及びコンピュータプログラム
US9286680B1 (en) * 2014-12-23 2016-03-15 Futurewei Technologies, Inc. Computational multi-camera adjustment for smooth view switching and zooming
EP3099055A1 (en) 2015-05-29 2016-11-30 Thomson Licensing Method and apparatus for displaying a light field based image on a user's device, and corresponding computer program product
US9679413B2 (en) 2015-08-13 2017-06-13 Google Inc. Systems and methods to transition between viewpoints in a three-dimensional environment
US10136116B2 (en) * 2016-03-07 2018-11-20 Ricoh Company, Ltd. Object segmentation from light field data
US10410060B2 (en) * 2017-12-14 2019-09-10 Google Llc Generating synthesis videos
CN108346164B (zh) * 2018-01-09 2022-05-20 云南大学 利用本质矩阵的性质标定锥镜面折反射摄像机的方法
US20200288099A1 (en) * 2019-03-07 2020-09-10 Alibaba Group Holding Limited Video generating method, apparatus, medium, and terminal
CN113837978B (zh) * 2021-09-28 2024-04-05 北京奇艺世纪科技有限公司 图像合成方法、装置、终端设备以及可读存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002511617A (ja) * 1998-04-13 2002-04-16 アイマティック・インターフェイシズ・インコーポレイテッド ビデオ画像からの顔認識
JP2004514205A (ja) * 2000-11-07 2004-05-13 ザクセル システムズ インク インタネット仮想テレプレゼンスシステム
JP2004525437A (ja) * 2000-12-01 2004-08-19 サーノフ コーポレイション 一群の実際のビデオおよび/または静止画像から新規ビデオおよび/または静止画像を合成する方法および装置
JP2004537082A (ja) * 2001-01-26 2004-12-09 ザクセル システムズ インコーポレイテッド 仮想現実環境における実時間バーチャル・ビューポイント

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5963664A (en) * 1995-06-22 1999-10-05 Sarnoff Corporation Method and system for image combination using a parallax-based technique
US6266068B1 (en) * 1998-03-13 2001-07-24 Compaq Computer Corporation Multi-layer image-based rendering for video synthesis
US6571024B1 (en) * 1999-06-18 2003-05-27 Sarnoff Corporation Method and apparatus for multi-view three dimensional estimation
US6353678B1 (en) * 1999-07-14 2002-03-05 Sarnoff Corporation Method and apparatus for detecting independent motion in three-dimensional scenes
US7015954B1 (en) * 1999-08-09 2006-03-21 Fuji Xerox Co., Ltd. Automatic video system using multiple cameras
US6992702B1 (en) * 1999-09-07 2006-01-31 Fuji Xerox Co., Ltd System for controlling video and motion picture cameras
US6668080B1 (en) * 1999-09-21 2003-12-23 Microsoft Corporation Automated layer extraction and pixel assignment from image sequences
US20020012459A1 (en) * 2000-06-22 2002-01-31 Chips Brain Co. Ltd. Method and apparatus for detecting stereo disparity in sequential parallel processing mode
US20030030638A1 (en) * 2001-06-07 2003-02-13 Karl Astrom Method and apparatus for extracting information from a target area within a two-dimensional graphical object in an image
EP1410621A1 (en) * 2001-06-28 2004-04-21 Omnivee Inc. Method and apparatus for control and processing of video images
US6803912B1 (en) * 2001-08-02 2004-10-12 Mark Resources, Llc Real time three-dimensional multiple display imaging system
GB0125774D0 (en) * 2001-10-26 2001-12-19 Cableform Ltd Method and apparatus for image matching
JP2003141562A (ja) * 2001-10-29 2003-05-16 Sony Corp 非平面画像の画像処理装置及び画像処理方法、記憶媒体、並びにコンピュータ・プログラム
US7054491B2 (en) * 2001-11-16 2006-05-30 Stmicroelectronics, Inc. Scalable architecture for corresponding multiple video streams at frame rate
US6771303B2 (en) * 2002-04-23 2004-08-03 Microsoft Corporation Video-teleconferencing system with eye-gaze correction
US6853398B2 (en) * 2002-06-21 2005-02-08 Hewlett-Packard Development Company, L.P. Method and system for real-time video communication within a virtual environment
US7489342B2 (en) * 2004-12-17 2009-02-10 Mitsubishi Electric Research Laboratories, Inc. Method and system for managing reference pictures in multiview videos
US20050185711A1 (en) * 2004-02-20 2005-08-25 Hanspeter Pfister 3D television system and method
US7330593B2 (en) * 2004-06-25 2008-02-12 Stmicroelectronics, Inc. Segment based image matching method and system
GB2418314A (en) * 2004-09-16 2006-03-22 Sharp Kk A system for combining multiple disparity maps
CA2511040A1 (en) * 2004-09-23 2006-03-23 The Governors Of The University Of Alberta Method and system for real time image rendering
US7710462B2 (en) * 2004-12-17 2010-05-04 Mitsubishi Electric Research Laboratories, Inc. Method for randomly accessing multiview videos
US7728877B2 (en) * 2004-12-17 2010-06-01 Mitsubishi Electric Research Laboratories, Inc. Method and system for synthesizing multiview videos
US7471292B2 (en) 2005-11-15 2008-12-30 Sharp Laboratories Of America, Inc. Virtual view specification and synthesis in free viewpoint

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002511617A (ja) * 1998-04-13 2002-04-16 アイマティック・インターフェイシズ・インコーポレイテッド ビデオ画像からの顔認識
JP2004514205A (ja) * 2000-11-07 2004-05-13 ザクセル システムズ インク インタネット仮想テレプレゼンスシステム
JP2004525437A (ja) * 2000-12-01 2004-08-19 サーノフ コーポレイション 一群の実際のビデオおよび/または静止画像から新規ビデオおよび/または静止画像を合成する方法および装置
JP2004537082A (ja) * 2001-01-26 2004-12-09 ザクセル システムズ インコーポレイテッド 仮想現実環境における実時間バーチャル・ビューポイント

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
伊藤洋輔, 外1名: ""未校正多視点可動カメラを用いた高精細な自由視点画像生成"", 情報処理学会研究報告, vol. 第2004巻, 第40号, JPN6009035969, 7 May 2004 (2004-05-07), JP, pages 141 - 148, ISSN: 0001372841 *
伊藤洋輔, 外1名: ""未校正多視点可動カメラを用いた高精細な自由視点画像生成"", 電子情報通信学会2004年総合大会講演論文集 情報・システム2, JPN6009035966, 8 March 2004 (2004-03-08), JP, pages 337, ISSN: 0001372844 *
大田友一, 外5名: ""仮想化現実技術による自由視点映像スタジアムの構築"", 映像情報メディア学会技術報告, vol. 第25巻, 第76号, JPN6009035965, 20 November 2001 (2001-11-20), JP, pages 57 - 62, ISSN: 0001372845 *
木村健二, 外1名: ""テニスの多視点画像からのプレイヤー視点映像の生成法"", 電子情報通信学会2004年総合大会講演論文集 情報・システム2, JPN6009035967, 8 March 2004 (2004-03-08), JP, pages 338, ISSN: 0001372843 *
石川寛享, 外2名: ""大規模空間の多視点映像を用いた運動視差の再現可能な自由視点映像提示"", 電子情報通信学会技術研究報告, vol. 第100巻, 第633号, JPN6009035964, 15 February 2001 (2001-02-15), JP, pages 31 - 38, ISSN: 0001372846 *
谷本正幸: ""自由視点テレビと光線信号処理"", 電子情報通信学会2005年基礎・境界ソサイエティ大会講演論文集, JPN6009035968, 7 September 2005 (2005-09-07), JP, pages 9 - 10, ISSN: 0001372842 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2375746A1 (en) 2010-03-31 2011-10-12 Deutsche Telekom AG Method for encoding texture data of free viewpoint television signals, corresponding method for decoding and texture encoder and decoder
KR101221540B1 (ko) 2011-02-25 2013-01-11 주식회사 틴로봇 인터랙티브 미디어 매핑 시스템 및 그 방법

Also Published As

Publication number Publication date
EP1785941A1 (en) 2007-05-16
US7471292B2 (en) 2008-12-30
EP1785941B1 (en) 2011-03-09
US20070109300A1 (en) 2007-05-17
WO2007061495A2 (en) 2007-05-31
WO2007061495A3 (en) 2007-12-27
DE602006020534D1 (de) 2011-04-21

Similar Documents

Publication Publication Date Title
JP2007141228A (ja) 自由視点におけるバーチャルビューの特定および合成
KR102013978B1 (ko) 이미지들의 융합을 위한 방법 및 장치
JP4328311B2 (ja) 三次元画像表示用多視点画像の作成方法およびプログラム
US20080253685A1 (en) Image and video stitching and viewing method and system
US20070247518A1 (en) System and method for video processing and display
JP3749227B2 (ja) 立体画像処理方法および装置
JP3857988B2 (ja) 立体画像処理方法および装置
CN109074624A (zh) 三维重建方法
JP2003187261A (ja) 3次元画像生成装置、3次元画像生成方法、立体画像処理装置、立体画像撮影表示システム、立体画像処理方法及び記憶媒体
CN102724398B (zh) 图像数据提供方法、组合方法及呈现方法
JP7196421B2 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP7480163B2 (ja) 画像の奥行きマップの処理
BR112019027824A2 (pt) aparelho e método para gerar uma imagem, e produto de programa de computador
Zilly et al. Real-time generation of multi-view video plus depth content using mixed narrow and wide baseline
BR112021000289A2 (pt) Aparelho para gerar imagens de uma cena, método para gerar imagens de uma cena, e produto de programa de computador
CN110730340B (zh) 基于镜头变换的虚拟观众席展示方法、系统及存储介质
Inamoto et al. Immersive evaluation of virtualized soccer match at real stadium model
JP4118146B2 (ja) 立体画像処理装置
JP5279078B2 (ja) 画像撮影・表示方法、画像撮影・表示装置、およびプログラム
BR112021014627A2 (pt) Aparelho e método para renderizar imagens a partir de um sinal de imagem que representa uma cena, aparelho e método para gerar um sinal de imagem que representa uma cena, produto de programa de computador, e sinal de imagem
BR112021014724A2 (pt) Aparelho para renderizar imagens, aparelho para gerar um sinal de imagem, método para renderizar imagens, método para gerar um sinal de imagem e produto de programa de computador
EP4114008A1 (en) Image generation
JP7447403B2 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
Li et al. Virtual view specification and synthesis in free viewpoint television application
CN108933939A (zh) 用于确定显示设备的特性的方法和设备

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090721

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20091208