JP2006012161A - 対話式視点ビデオシステムおよびプロセス - Google Patents

対話式視点ビデオシステムおよびプロセス Download PDF

Info

Publication number
JP2006012161A
JP2006012161A JP2005179122A JP2005179122A JP2006012161A JP 2006012161 A JP2006012161 A JP 2006012161A JP 2005179122 A JP2005179122 A JP 2005179122A JP 2005179122 A JP2005179122 A JP 2005179122A JP 2006012161 A JP2006012161 A JP 2006012161A
Authority
JP
Japan
Prior art keywords
video
frame
viewpoint
frames
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005179122A
Other languages
English (en)
Other versions
JP4783588B2 (ja
Inventor
Charles Zitnick Iii
ジトニック ザ サード チャールズ
Matthew Uyttendaele
ウィッテンダール マシュー
Richard Szeliski
ゼリスキー リチャード
Simon Winder
ウィンダー シモン
Sing Bing Kang
ビング カン シング
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2006012161A publication Critical patent/JP2006012161A/ja
Application granted granted Critical
Publication of JP4783588B2 publication Critical patent/JP4783588B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2625Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of images from a temporal image sequence, e.g. for a stroboscopic effect
    • H04N5/2627Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of images from a temporal image sequence, e.g. for a stroboscopic effect for providing spin image effect, 3D stop motion effect or temporal freeze effect
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • G06T7/596Depth or shape recovery from multiple images from stereo images from three or more stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

【課題】 ユーザが、時間を操作(フリーズする、速度を遅くする、またはリバース)し、意のままに視点を変化させながら、動的なシーンを見ることができる対話式視点ビデオを生成し、次いでレンダリングし表示するためのシステムおよび方法を提供すること。
【解決手段】 一般に、本対話式視点ビデオは、複数のビデオストリームをキャプチャするのに少数のカメラを用いて生成される。マルチビューの3次元再構成およびマッティング技法は、ビデオフレームのレイヤ化された表示を作成するために使用され、それにより、キャプチャされた動的なシーンの効率的な圧縮と対話式再生を共に可能にし、同時に実時間レンダリングが可能になる。
【選択図】 図3

Description

本発明は、ビデオの生成およびレンダリングに関し、より詳細には、ユーザが意のままに視点を変えながら動的なシーンを見ることのできる対話式視点ビデオを生成し、またレンダリングするためのシステムおよびプロセスに関する。
ここ数年の間、テレビコマーシャルや長編映画の視聴者は、時間を停止させ、またカメラの視点を変化させる錯覚(illusion)を作るために使用する「コマ止め(freeze frame)」効果を見ている。初期のコマーシャルでは、停止した1片の時間を介して移動する錯覚を与えるために、レールに沿って配列された異なる静止画カメラの間を速やかに切り替えるフィルムベースのシステムを使用することによって作成された。
初めてそれが出現したとき、その効果は新鮮で壮観なものであり、すぐに多くの作品で模倣された。その最も有名なものはおそらく、「マトリクス」という表題の映画に見られる「ブレットタイム(bullet time)」効果である。残念ながら、その効果は、一時的なものであり、事前に計画されたものである。視点の軌跡は事前に計画されており、所望の補間されたビューを作成するためには多くの工数が費やされる。それより新しいシステムでは、ビデオカメラ列に基づいているが、ソフトウェアによるビュー補間を回避するために、やはり多数のカメラを使用することに依存している。
したがって、既存のシステムでは、ユーザは動的なイメージベースのシーンを見ながら、対話式に所望する任意の視点に変更することができない。過去のイメージベースレンダリング(IBR:image−based rendering)に対する作業の大部分は、2つの最もよく知られた技法、すなわち光線空間レンダリング(Light Field Rendering)(非特許文献12)およびルミグラフ(Lumigraph)(非特許文献8)を用いた静的シーンのレンダリングを含む。それらの高品質レンダリングの成功は、多数のサンプリング画像を用いることによって生じたものであり、それにより、この分野における多くの一連の作品が生まれることとなった。この革新的な作品の可能な1つの刺激的な拡張には、ビデオを見ながら視点を対話式に制御することが含まれる。ユーザがビデオの視点を対話式に制御できるようになると、ビューイング体験を大幅に高めることになり、新しい視点での即時再生など多様な用途を可能にし、ドラマ中に視点を変化させ、また「コマ止め」視覚効果を意のままに作成できるようになる。
しかし、IBRを動的なシーンに拡張することは、非常に多くのカメラの同期をとることならびに画像を取得し記憶することの困難さ(およびコスト)のため簡単なものではない。複数の視点から動的なシーンをキャプチャし、表示し、レンダリングすることを克服するのには重大なハードルがあるだけでなく、それを対話式に行えるようにするには、さらに大幅な複雑さを生むことになる。現段階では、その目的を実現する試みはまだ満足できるものではない。
対話式視点ビデオシステムのビデオベースのレンダリング側面に関して、動的なシーンをキャプチャしレンダリングする初期の試みの1つは、金出(Kanade)他の仮想化現実システム(Virtualized Reality system)(非特許文献11)であり、それは、5メートルの測地線ドームの周りに配置した51台のカメラを含む。各カメラの解像度は512×512であり、キャプチャレートは、30fpsである。それによると、シーンフローの式(scene flow equation)(非特許文献18)に基づくボクセルカラリング(voxel coloring)(非特許文献15)の形式を用いて、各時間フレームのグローバル表面表示を抽出する。残念ながら、低解像度、マッチングエラー、およびオブジェクト境界の不適切な処理のため、その結果は非現実的なものに見える。
Carranza他(非特許文献3)は、3次元で人間の動作をキャプチャするために、部屋の周りにその中心に向けて分散させ同期させた7台のカメラを使用した。各カメラは、CIF解像度(320×240)であり、15fpsでキャプチャする。それは、3次元人間モデルを、各時間フレームにおける3次元形状を計算するためのプライア(prior)として使用する。
Yang他(非特許文献21)は、動的なシーンをキャプチャするために8×8台のカメラ(各320×240)の格子を設計した。データを記憶しレンダリングするのではなく、それは、所望の仮想ビューを構成するために必要な光線を送信するだけである。そのシステムでは、カメラはゲンロックされていない。その代わりに、6台のPCにわたる内部クロックを利用する。カメラのキャプチャレートは15fpsであり,対話式ビューイングレートは18fpsである。
動的な光線空間を記憶するための概念の証明として、Wilburn他(非特許文献20)は、6台のカメラ(30fpsで640×480)を同期させ、すべての画像データを実時間で圧縮し記憶することが可能であることを示した。彼らはその後、128台のカメラを接続している。
シーンのジオメトリがまだ未知であり、あるいは大まかな近似だけが知られている場合、リアリスティックなレンダリングをするためには多くの画像が必要である。ジオメトリが正確にわかっている場合、イメージに対する要件は大幅に削減することができる(非特許文献8)。シーンのジオメトリを抽出する1つの実際的な方法は、ステレオ(stereo)によるものであり、多くのステレオアルゴリズムが静的なシーンに対して提案されている(非特許文献14)。しかし、動的なシーンにステレオ技法を使用する試みはわずかしかない。仮想化現実の研究(非特許文献11)の部分として、Vedula他(非特許文献18)は、2次元オプティカルフローおよび3次元シーン形状を用いて3次元動き(すなわち、時間に対するシーン形状間の対応関係)を抽出するためのアルゴリズムを提案した。その手法では、ボクセルカラリング(非特許文献15)に類似した投票方式を使用し、いかに仮説を立てたボクセル位置がその3次元フローの式によく合っているかという測定基準が使用される。
ZhangとKambhamettu(非特許文献22)はまた、3次元シーンフローと、そのフレームワークにおける構造を統合した。その3次元アフィン動きモデルは空間正規化を用いて局所的に使用され、不連続性は、カラーセグメンテーションを用いて維持される。Tao他(非特許文献17)は、シーンは区分的に平面であると仮定する。さらに、動的な深さマップ推定を制限するために各平面パッチに対して一定速度であると仮定する。
より野心的な努力としては、CarceroniとKutulakos(非特許文献2)は、既知のライティング位置を有する非剛性動きの下で、区分的に連続のジオメトリおよび反射率を復元している(Phongのモデル)。彼らは、空間を表面要素(「サーフェル(surfels)」に分離し、観察されたイメージとの一致を最大化するように、位置、方向、および反射率パラメータにわたって検索を実施する。
従来の局所的なウィンドウマッチングに対する興味深い工夫では、Zhang他(非特許文献23)は、時間と空間にまたがるウィンドウのマッチングを使用する。この方法の利点は、時間経過に対して明度が一定であることへの依存度が低いことである。
アクティブな距離測定技法も動きのあるシーンに適用されている。Hall−HoltとRusinkiewicz(非特許文献9)は、時間に対して変化する投影され境界符号化されたストライプパターンを用いる。イスラエルの3DV Systems社によるZCam(商標)と呼ばれる市販のコマーシャルシステムもある。それは、放送用ビデオカメラと共に使用されるアドオンのレンジセンシングビデオカメラである。しかし、それは高価なシステムで、また単一の視点深さだけを提供するものであり、複数の視点ビデオにはあまり適していない。
Buehler, C., Bosse, M., Mcmillan, L., Gortler, S. J., and Cohen, M. F. 2001. Unstructured lumigraph rendering. Proceeding of SIGGRAPH 2001(August), 425-432 Carceroni, R. L., and Kutulakos, K. N. 2001. Multi-view scene capture by surfel sampling: From video streams to non-rigid 3D motion, shape and reflectance. In Eighth International Confer-ence on Computer Vision (ICCV 2001), mol. II, 60-67 Carranza, J., Theobalt, C., Magnor, M. A., and Seidel, H.-P. 2003. Free-viewpoint video of human actors. ACM Transactions on Graphics 22, 3 (July), 569-577 Chang, C.-L., et al. 2003. Inter-view wavelet compression of light fields with disparity-compensated lifting. In Visual Communication and image Processing (VCIP 2003) Chuang, Y.Y., et al. 2001. A Bayesian approach to digital mat-ting. In conference on Computer Vision and Pattern Recognition (CVPR'2001), vol. II, 264-271 Debevevec, P. E., Taylor, C. J., and Makik, J. 1996. Modeking and rendering architecture from photographs: A hybrid geometry and image-based approach. Computer Graphics (SIGGRAPH'96) (August), 11-20 Debecec, P. E., Yu, Y., and Borshukov, G. D. 1998. Efficient view-dependent image- based rendering with projective texture-mapping. Eurographics Rendering Workshop 1998, 105-116 Gortler, S. J., Grazeszczuk, R. Szliski, R. and Cohen, M. F. 1996. The Lumigraph. In Computer Graphics (SIGGRAPH'96) Pro-ceedings, ACM SIGGRAPH, 43-54 Hall-Holt, O., and Rusinkiewicz, S. 2001. Stripe boundary codes for real-time structured-light range scanning of moving objects. In Eighth international Conference on Computer Vision (ICCV 2001), vol. II, 359-366 Heigl, B., et al. 1999. Plenoptic modeling and rendering from image sequences taken by hand-held camera. In DAGM'99, 94-101 Kanede, T., Rander, P. W., and Narayanan, P.J 1997. Virtualized reality: constructing virtual worlds from real sense. IEEE Mul-tiMedia Magazine 1,1 (Jan-March), 34-47 Levoy, M., and Hanrahan, P. 1996. Light field rendering. In Computer Graphics SSIGGRAPH'96) Proceedings, ACM SIG-GRAPH, 31-42 Pulli, K., et al. 1997. View-based rendering: Visualizing real objects from scanned range and color data. In Proceedings of the 8-th Eurographics Workshop on Rendering Scharstein, D., and Szeliski, R. 2002. A taxonomy and evaluation of dense two-frame stereo correspondence algorithms. International Journal of Computer Vision 47, 1 (May), 7-42 Seitz, S. M., and Dyer, C. M. 1997. Photorealistic scene reconstruction by voxel coloring. In Conference on Computer Vision and Pattern Recognition (CVPR'97), 1067-1073 Shade, J., Gortler, S., He, L.-W., and Szeliskli, R. 1998. Layered depth images. In Computer Graphics (SIGGRAPH'98) Proceed-ings, ACM SIGGTAPH, Orlando, 231-242 Tao, H., Sawhney, H., and Kumar, R. 2001. A global matching framework for stereo computation. In Eighth International Con-ference on Computer Vision (ICCV 2001), vol. I, 532-598 Vedula, S., Baler, S., Seitz, S., and Kanade, T. 2000. Shape and motion carving in 6D. In Conference on Computer Vision and Pattern Recognition (CVPR'2000), vol. II, 592-539 Wexler, Y., Fitzgibbon, A., and Zisserman, A. 2002. Bayesian estimation of layers from multiple images. In Seventh European Conference on Computer Vision (ECCV 2002), vol. III, 487-501 Wiburn, B., Smulski, M., Lee, H. H. K., and Horowitz, M. 2002. The light field video camera. In SPIE Electonic Imaging: Media Processors, vol. 4674, 29-36 Yang, Jl. C., Everett, M., Buehler, C., and McMillan, L. 2002. A real-time distributed light field camera. In Eurographics Workshop on Rendering, P. Debevec and S. Gibson, Eds., 77-85 Zhang, Y., and Kambhamettu, C. 2001. On 3D scene flow and structure estimation. In Conference on Computer Vision and Pattern Recognition (CVPR'52001), vol. II, 778-785 Zhang, L., Curless, B., and Seitz, S. M. 2003. Spacetime stereo: Shape recovery for dynamic scenes. In Conference on Computer Vision and Pattern Recognition, 367-374 Zhang, Z. 2000. A flexible new technique for camera calibration. IEEE Transactions on Pattern Analysis and Machine Intelligence 22, 11, 1330-1334
しかし、ステレオおよびイメージベースのレンダリングにおけるあらゆる進歩にもかかわらず、動的なシーンの高品質、高解像度のビューを対話式にレンダリングすることはやはり非常に困難である。本発明は、コスト効率のよい方式でこの問題に取り組む。
本発明は、ユーザが、意のままに時間を操作(停止し、速度を落とし、またはリバース)し、また視点を変化させながら動的なシーンを見ることのできる対話式視点ビデオを、まず生成し、次いでレンダリングし表示するためのシステムおよびプロセスを対象とする。時空間を介して様々な軌跡をとることができるので、2つのビューイング体験が同じである必要はない。一般に、それは、シーンの複数の高品質なビデオストリームをキャプチャするのに少数のカメラを用いたシステムおよびプロセスによって達成される。それによると、様々な視点からのシーンをレンダリングするために必要なビデオストリームをキャプチャするための関連コストが既存方法に対して削減されるだけではなく、キャプチャシステムが可搬型になるのでさらに有利である。次に、マルチビュー3次元再構成およびマッティング(matting)技法が使用されて、ビデオフレームからレイヤ化された表示を作成し、それにより、キャプチャした動的なシーンの効率的な圧縮と対話式再生を共に可能にし、同時に実時間レンダリングも可能にする。
より具体的には、対話式視点ビデオ生成システムは、複数のビデオストリームをキャプチャするためのカメラ列、およびそのビデオストリームを同期させるための同期化装置を含むビデオキャプチャサブシステムを有する。ビデオストリームは、集合的に、それぞれがシーンの異なる視点を表す同時にキャプチャされたビデオフレームの連続的なグループとして特徴付けることができる。キャプチャサブシステムはまた、処理前にビデオストリームを記憶するための記憶装置を含むことができる。
ビデオカメラは、各カメラがシーンを異なる視点から見るように並んで配置される。各カメラの視野は、任意の隣接するカメラの視野と所定量だけ重なる(例えば、2つの隣接するカメラ間の相対回転角が4〜8度で、カメラごとの水平視野を30度とするなど)。そのシーンにおけるターゲットオブジェクトまたは領域に対する各カメラ視点の距離、高さ、水平位置は、カメラの視点を結ぶ所望の経路を形成するように設定される。その経路は、例えば、水平または垂直の弧とすることができ、あるいは一方の端部から他方の端部まで上方または外側にスイープする弧とすることもできる。その経路の重要性は、対話式視点ビデオを見ているユーザが、キャプチャされたシーンをその経路に沿った任意の場所で見るための視点を、それがカメラ位置の1つに一致しない場合であっても選択可能なことにある。
生成される対話式視点ビデオの品質が改善されるので、ビデオカメラを高解像度カメラとすることができる。さらに、そのカメラは、ビデオストリームの同期をとりやすくするためにゲンロック機能を有することができる。さらに、カメラは、生成された各ビデオフレームにメタデータを追加できる場合、ビデオストリームの処理が容易となり有利になるはずである。そのメタデータは、例えば、現在のカメラの設定、露光レベル、およびタイムスタンプなどを含む。
カメラおよび同期化装置に加えて、キャプチャサブシステムは、各ビデオストリームと関連する幾何パラメータ、測光パラメータを計算するためのカメラ較正プログラムを実行するコンピューティング装置を含む。さらに、ビデオカメラは、コンピュータによって制御可能なタイプでよい。その場合、前述のコンピューティング装置はまた、事前に設定したメニューに基づき、あるいはユーザ入力に応答して、複数のカメラを同時にオンまたはオフし、またその設定を調整するビデオキャプチャプログラムを実行するために使用することができる。
対話式視点ビデオ生成システムはまた、ビデオ生成プログラムを実行するために前述のコンピューティング装置または別のコンピューティング装置を使用する。一般に、その生成プログラムは、まず、同期化されたビデオストリームから同時に取得されたフレームの各グループ中に示されるシーンの3次元再構成を作成するのに用いられる。本生成プログラムのテストされた実施形態では、この目的のためにセグメンテーションベースの再構成技法が使用された。同時に取得されたフレームのグループごとに、得られた再構成は、そのグループ中のフレームごとに視差マップを計算するのに使用される。再構成はまた、そのグループフレーム中のすべてのカメラビューにわたる対応関係を計算するために使用することができる。次いで、その対応関係は、特に、グループ中のフレーム間の測光パラメータをバランスさせるために使用することができる。さらに、検討中のグループのフレームごとに、視差マップに基づいて、大幅な深さ不連続の領域が識別される。その領域内で、前景情報および背景情報が計算される。その情報を用いて、個々の主レイヤと境界レイヤがフレームごとに設定される。主レイヤは、所定の閾値を超える深さの不連続を示さない視差値を有するピクセルと、深さの不連続部を囲む領域からの背景情報とから構成される。境界レイヤは、閾値を超える深さの不連続部に近い領域またはそれを有する領域中の前景情報から構成される。このようにして、各フレームのレイヤ化された表示が作成される。主レイヤは、レイヤ中の各ピクセルのカラーおよび深さによって特徴付けられる。しかし、境界レイヤは、各ピクセルのカラーおよび深さによって特徴付けられるだけではなく、レイヤ中のピクセルごとの不透明度値によっても特徴付けられる。本ビデオ生成プログラムのテストされた実施形態では、境界レイヤは、閾値を超える深さの不連続を示すピクセルに隣接する所定数のピクセルを含めるように拡張されていることに留意されたい。それは、後で簡単に説明するレンダリング手順中に生ずる「クラック(crack)」を防止するために行われたものである。
対話式視点ビデオ生成プログラムはさらに、ビデオの転送および/または記憶を容易にするために、前述のレイヤ化された表示の圧縮を行うことを含むことができる。その圧縮は、時間的または空間的圧縮技法、あるいはテストされた実施形態のように組み合わせた時間および空間圧縮手法を使用することができる。さらに、生成プログラムは、対話式視点ビデオフレームのレイヤ化された表示および前に計算された較正データを含むファイルを作成するためのファイル生成プログラムモジュールを有することができる。
ビデオ生成プログラムはまた、実際のビデオカメラからキャプチャされたフレームからではなく、コンピュータ生成ビデオストリームから、対話式視点ビデオを作成するのに使用できることに留意されたい。その場合、較正データは、生成プログラムから直接提供されることになる。
対話式視点ビデオを再生するのに使用される前述のレンダリングおよび表示システムは、ユーザの視点選択を入力し、レンダリングされた視点ビデオフレームをユーザに表示するためのユーザインターフェースサブシステムを有する。そのために、システムは、ユーザが継続して視点の選択を入力するために使用するある種の入力装置と、ユーザにレンダリングされた対話式視点ビデオフレームを表示するために使用する表示装置とを含む。さらに、ユーザインターフェースサブシステムは、ユーザが入力装置を介して視点をグラフィカルに示すことができるグラフィックユーザインターフェースを含むことができる。
レンダリングおよび表示システムはさらに、レンダリングプログラムが実行されるコンピューティング装置を含む。そのレンダリングプログラムは、対話式視点ビデオの各フレームをレンダリングするのに使用される。一般に、レンダリングされるフレームごとに、それは、まず、ユーザに指定された現在の視点を識別することを含む。再生されているビデオの現在の時間部分に関連する同時に取得されたフレームのグループから、識別された視点からの対話式視点ビデオの現在のフレームをレンダリングするために必要なフレームまたは複数のフレームが識別される。それは、一般に、現在のグループ中の各フレームに関連する視点を決定するために較正データを使用すること、ならびにユーザにより選択された現在の視点がフレーム視点のうちの1つに一致するのか、または2つのフレームの間に含まれるのかを判定することが必要である。識別された視点が、ビデオフレームのうちの1つの視点と一致するとき、そのフレームはシーンをレンダリングするのに必要なフレームとして識別される。しかし、識別された視点が2つのビデオフレームの視点の間に含まれるとき、これらのフレームは共に、シーンをレンダリングするのに必要なフレームとして識別される。
必要なフレームまたは複数のフレームが識別された後、それらのフレームに対応するレイヤ化された表示が得られる。そのためには、少なくとも必要なフレームデータを対話式視点ビデオデータから抽出することが必要である。上記のように、ビデオデータがファイル中に含まれている場合、通常、復号化される必要がある。レンダリングプログラムの選択的復号モジュールをその目的に使用することができる。さらに、レイヤ化されたフレームデータが圧縮されている場合、その復号モジュールは、所望の視点からシーンをレンダリングするために必要な特定のフレームを復元するために必要なビデオデータの部分の圧縮解除を行う。
復号化されたフレームデータは、ユーザによって現在指定されている視点からの対話式視点ビデオの次のフレームをレンダリングするために使用される。指定された視点が、復号化されたフレームに関連する視点と一致する場合、それは単純なプロセスである。しかし、所望の視点が2つのフレームの間に含まれる場合は、レンダリングプロセスがさらに必要となる。レンダリングプロセスの一実施形態では、2つの入力フレームのそれぞれに対して順番に、まず、考慮中の入力フレームの主レイヤを、ユーザに指定された現在の視点に対応する仮想ビューに投影し、次いで、考慮中の入力フレームの境界レイヤを仮想ビューに投影することが必要となる。投影された境界レイヤと主レイヤは、混合されて対話式視点ビデオの最終化(finalize)されたフレームを作成する。投影されたレイヤの混合は、そのレイヤに関連する視点が、ユーザ指定の現在の視点にいかに近いかに直接比例させて各レイヤに重み付けすることを含むことに留意されたい。
レンダリングプロセスはさらに、入力されレイヤ化されたフレーム表示中に存在しないオブジェクトを、レンダリングされるフレームに挿入することを含むことができることに留意されたい。そのオブジェクトは、コンピュータ生成またはイメージベースとすることができる。
ここで説明した利点に加えて、本発明の他の利点が、添付の図面と共に以下の詳細な説明を参照することにより明らかとなろう。
本発明の特有の機能、態様および利点は、以下の説明、添付の特許請求の範囲、添付の図面から理解されよう。
本発明の好ましい諸実施形態の以下の説明では、本明細書の一部を形成し、本発明が実施できる特有の実施形態を例示のため示した添付の図面への参照が行われる。他の諸実施形態を利用することも可能であり、本発明の範囲を逸脱することなく構造的な変更を実施できることを理解されたい。
1.0 対話式視点ビデオ
ビデオを見ながら対話的に視点を制御できることは、イメージベースのレンダリングに対する刺激的な新しい用途である。本システムおよびプロセスは、新規なイメージベースのモデリングおよびレンダリング技法を組み合わせた複数の同期化されたビデオストリームを使用する対話式視点制御を使用し、動的なシーンをレンダリングすることによってその機能を提供する。時空間操作に対する可能性を有しており、任意の中間のビューをいつでも合成できるため、本手法は対話式視点ビデオと呼ばれている。
本対話式視点ビデオシステムおよびプロセスの主な利点は、視聴されているシーンをキャプチャするために比較的少数のカメラが用いられたとしても、可能な最高品質のビュー補間されたフレームが提供されて視聴体験を高められることである。それは簡単に達成されるものではない。光線空間レンダリングの論文(非特許文献12)で示唆するように、1つの手法は、入力および仮想カメラの相対位置にだけ基づいて光線を再サンプリングすることである。しかし、ルミグラフ(非特許文献8)およびその後の研究で示されるように、シーンジオメトリのために3次元インポスタ(impostor)またはプロキシを使用することにより、補間されたビューの品質を非常に改善することができる。他の手法は、テクスチャマップされた単一の3次元モデル(非特許文献11)を作成することであるが、それは一般に、複数の参照ビューを用いるよりも劣った結果となる。
本システムおよびプロセスは、3次元プロキシを必要とするジオメトリ支援のイメージベースのレンダリング手法を使用する。1つの可能性は、ルミグラフおよび非構造化ルミグラフの論文(非特許文献1)におけるように、単一のグローバル多面体モデルを使用することである。他の可能性は、レイヤ化された深さイメージ(非特許文献16)、ファサード(Facade)におけるオフセット深さマップ(非特許文献6)、または深さを有するスプライト(sprite)(非特許文献16)におけるようにピクセル単位の深さを使用することである。一般に、参照ビューごとに異なる局所的な幾何プロキシを使用する(非特許文献7、10、13)ことは、より高い品質結果が得られ、したがって、その手法を適用する。
固定された数の入力イメージに対して可能な最高品質を取得するために、ピクセルごとの深さマップを使用する。その深さマップは、後で簡単に説明する新規の3次元再構成技法で生成される。しかし、複数の深さマップであってもやはり、新規のビューを生成するとき、レンダリングアーティファクトを生ずることになる。すなわち、それは、前景から背景への急激な変化の性質によるエイリアス(ジャギー)、および混合されたピクセルによる汚染されたカラーであり、新規の背景またはオブジェクトの上に合成したときに見えるようになる。
これらの問題には、独特の2レイヤ表示を用いて対処する。その表示は、まず、深さマップdi中の深さの不連続部を突き止めることにより生成される。本発明の一実施形態では、ピクセルの周囲に境界ストリップ(strip)を作成する。次いで、Bayesianマッティングの変形(非特許文献5)が境界および主レイヤのカラー、深さ、および不透明度(opacity)(アルファ値)を推定するために使用される。データサイズを小さくするために、複数のアルファマットされた(alpha−matted)深さイメージを圧縮することができる。それも後で簡単に説明する。
レンダリング時に、仮想ビューに最も近い2つの参照ビューが選択される。各ビューは、関連する深さマップを使用し、境界レイヤを主レイヤの上に合成して、その2つのレイヤのそれぞれをワープさせることによって個々にレンダリングされる。次いで、2つのワープされたビューは、新規のビューに対する近接度に基づいて混合される。あるいは、各ビューからの主レイヤおよび境界レイヤが個々にレンダリングされ、次いで一緒に混合することもできる。このプロセスのより詳細な説明も後で行う。
以下のセクションは、本対話式視点ビデオシステムおよびプロセスの詳細な説明を提示する。最初に、本システムのプログラム的な部分を実施するのに適したコンピューティング環境を提示する。その後に、複数のビデオをキャプチャし同期させるために使用される対話式視点ビデオキャプチャサブシステムの説明を行う。次いで、対話式視点ビデオシステムプログラムの説明を提示する。
1.1 コンピューティング環境
本発明の好ましい諸実施形態を説明する前に、本発明の部分が実装可能な適切な環境の一般的な説明を簡単に行う。図1は、適切なコンピューティングシステム環境100の一実施例を示す。コンピューティングシステム環境100は、適切なコンピューティング環境の一実施例に過ぎないが、本発明の使用法または機能の範囲に関する何らかの制限を示唆するものではない。コンピューティング環境100は、例示的な動作環境100に示された構成要素のうちのいずれかまたはその組合せに関して、何らかの依存性または何らかの要件を有するものと解釈すべきではない。
本発明は、他の数多くの汎用または特殊目的コンピューティングシステム環境またはコンフィギュレーションで動作可能である。本発明で使用するのに適切であり得る周知のコンピューティングシステム、環境、および/またはコンフィギュレーションの実施例は、それに限るものではないが、パーソナルコンピュータ、サーバコンピュータ、ハンドヘルドまたはラップトップ装置、マルチプロセッサシステム、マイクロプロセッサベースのシステム、セットトップボックス、プログラム可能な家庭用電子機器、ネットワークPC、ミニコンピュータ、メインフレームコンピュータ、上記システムもしくは装置のいずれかを含む分散型コンピューティング環境などを含む。
本発明は、コンピュータによって実行されるプログラムモジュールなど、コンピュータ実行可能命令の一般的なコンテキストで記述することができる。一般に、プログラムモジュールは、特定のタスクまたは特定の抽象データ型を実施するルーチン、プログラム、オブジェクト、構成要素、データ構造などを含む。本発明はまた、タスクが、通信ネットワークを介してリンクされた遠隔処理装置によって実施される分散型コンピューティング環境中で実施することもできる。分散型コンピューティング環境では、プログラムモジュールは、メモリストレージ装置を含むローカルと遠隔のコンピュータ記憶媒体の両方に位置することができる。
図1を参照すると、本発明を実施するための例示的なシステムは、コンピュータ110の形の汎用コンピューティング装置を含む。コンピュータ110の構成要素は、それに限るものではないが、処置装置120、システムメモリ130、およびシステムメモリを含む様々なシステム構成要素を処理装置120に結合するシステムバス121を含むことができる。システムバス121は、様々なバスアーキテクチャのいずれかを用いる、メモリバスもしくはメモリコントローラ、周辺バス、およびローカルバスを含む複数のタイプのバス構造のいずれかとすることができる。例のためであり、限定するものではないが、このようなアーキテクチャには、ISA(Industry Standard Architecture)バス、MCA(Micro Channel Architecture)バス、EISA(Enhanced EISA)バス、VESA(Video Electronics Standards Association)ローカルバス、およびMezzanineバスとしても知られるPCI(周辺コンポーネント相互接続)バスが含まれる。
コンピュータ110は、通常、様々なコンピュータ可読媒体を含む。コンピュータ可読媒体は、コンピュータ110によってアクセス可能な任意の利用可能な媒体とすることができ、また揮発性と不揮発性媒体、取外し可能と取外し不能媒体を共に含む。例のためであり、限定するものではないが、コンピュータ可読媒体は、コンピュータ記憶媒体および通信媒体を含むことができる。コンピュータ記憶媒体は、コンピュータ可読命令、データ構造、プログラムモジュールまたは他のデータなどの情報を記憶するための方法または技術で実施される揮発性と不揮発性媒体、取外し可能と取外し不能媒体を共に含む。コンピュータ記憶媒体は、それに限定するものではないが、RAM、ROM、EEPROM、フラッシュメモリ、もしくは他のメモリ技術、CD−ROM、DVD(digital versatile disks)、もしくは他の光ディスクストレージ、磁気カセット、磁気テープ、磁気ディスクストレージもしくは他の磁気記憶装置、あるいは所望の情報を記憶するのに使用することができ、コンピュータ110によってアクセスできる任意の他の媒体を含む。通信媒体は、通常、コンピュータ可読命令、データ構造、プログラムモジュール、または他のデータを、搬送波または他の移送機構などの変調されたデータ信号で実施し、また任意の情報送達媒体を含む。用語「変調されたデータ信号」とは情報を信号中に符号化するように設定されたまたは変更された1つまたは複数のその特性を有する信号を意味する。例示のためであり、限定するものではないが、通信媒体は、有線ネットワークや直接有線接続などの有線媒体、および音響、高周波、赤外線、他の無線媒体などの無線媒体を含む。上記のいずれの組合せも、コンピュータ可読媒体の範囲に含まれる。
システムメモリ130は、ROM(読取り専用メモリ)131やRAM(ランダムアクセスメモリ)132などの揮発性および/または不揮発性メモリの形のコンピュータ記憶媒体を含む。起動中などに、コンピュータ110内のエレメント間で情報を転送できるようにする基本ルーチンを含むBIOS(基本入出力システム)133が、通常、ROM131に記憶されている。RAM132は、通常、処理装置120により、すぐそれにアクセス可能であり、かつ/またはそれに対して現在操作されているデータおよび/またはプログラムモジュールを含む。例のためであり、限定するものではないが、図1は、オペレーティングシステム134、アプリケーションプログラム135、他のプログラムモジュール136、およびプログラムデータ137を示す。
コンピュータ110はまた、他の取外し可能/取外し不能、揮発性/不揮発性コンピュータ記憶媒体を含む。例示のためだけであるが、図1は、取外し不能、不揮発性磁気媒体から読み取りまたは書き込むハードディスクドライブ141と、取外し可能、不揮発性磁気ディスク152から読み取りまたは書き込む磁気ディスクドライブ151と、CD−ROMまたは他の光媒体などの取外し可能、不揮発性光ディスク156から読み取りまたは書き込む光ディスクドライブ155とを示す。例示的な操作環境で使用することができる、他の取外し可能/取外し不能、揮発性/不揮発性コンピュータ記憶媒体は、それに限定するものではないが、磁気テープカセット、フラッシュメモリカード、DVD、デジタルビデオテープ、固体RAM、固体ROMなどを含む。ハードディスクドライブ141は、通常、インターフェース140などの取外し不能メモリインターフェースを介してシステムバス121に接続され、磁気ディスクドライブ151および光ディスクドライブ155は、通常、インターフェース150などの取外し可能メモリインターフェースにより、システムバス121に接続されている。
上記の、また図1に示すドライブおよびその関連するコンピュータ記憶媒体は、コンピュータ可読命令、データ構造、プログラムモジュール、およびコンピュータ110のための他のデータのストレージを提供する。図1で、例えば、ハードディスクドライブ141は、オペレーティングシステム144、アプリケーションプログラム145、他のプログラムモジュール146、およびプログラムデータ147を記憶するものとして示されている。これらの構成要素は、オペレーティングシステム134、アプリケーションプログラム135、他のプログラムモジュール136、およびプログラムデータ137と同じものであり、あるいは異なるものであり得ることに留意されたい。オペレーティングシステム144、アプリケーションプログラム145、他のプログラムモジュール146、およびプログラムデータ147は、少なくとも、それは異なるコピーであることを示すために、ここでは異なる数字を与えている。ユーザは、キーボード162や、マウス、トラックボール、またはタッチパッドと普通呼ばれるポインティング装置161などの入力装置を介してコンピュータ110にコマンドおよび情報を入力することができる。他の入力装置(図示せず)は、マイクロフォン、ジョイスティック、ゲームパッド、サテライトディッシュ、スキャナなどを含むことができる。これらのおよび他の入力装置は、システムバス121に結合されているユーザ入力インターフェース160を介して処理装置120に接続されることが多いが、パラレルポート、ゲームポート、USB(universal serial bus)など、他のインターフェースおよびバス構造によって接続することもできる。モニタ191または他のタイプの表示装置がまた、ビデオインターフェース190などのインターフェースを介してシステムバス121に接続されている。そのモニタに加えて、コンピュータはまた、スピーカ197やプリンタ196など他の周辺出力装置を含むことができ、それは、出力周辺装置インターフェース195を介して接続することができる。イメージ193のシーケンスをキャプチャすることができる(デジタル/電子式の静止画もしくはビデオカメラ、またはフィルム/写真スキャナなどの)カメラ192を、パーソナルコンピュータ110への入力装置としても含めることができる。さらに、1台のカメラだけが図示されているが、複数のカメラがパーソナルコンピュータ110への入力装置として含むこともできる。1つまたは複数のカメラからのイメージ193は、適切なカメラインターフェース194を介してコンピュータ110に入力される。そのインターフェース194は、システムバス121に接続され、それにより、イメージが、RAM132、またはコンピュータ110に関連する他のデータ記憶装置の1つへ送られ、記憶され得る。しかし、イメージデータは、カメラ192を使用する必要なしに、任意の前述のコンピュータ可読媒体からコンピュータ110に入力することもできることに留意されたい。
コンピュータ110は、遠隔コンピュータ180などの1つまたは複数の遠隔コンピュータへの論理接続を用いて、ネットワーク化された環境中で動作することができる。遠隔コンピュータ180は、パーソナルコンピュータ、サーバ、ルータ、ネットワークPC、同位(peer)装置、または他の共通ネットワークノードとすることができ、図1にメモリ記憶装置181だけが示されているが、通常、コンピュータ110に関して上記で述べたエレメントの多くまたはすべてを含む。図1に示す論理接続は、LAN(ローカルエリアネットワーク)171、およびWAN(広域ネットワーク)173を含むが、他のネットワークも含むことができる。このようなネットワーク化環境は、オフィスや企業規模のコンピュータネットワーク、イントラネット、およびインターネットにおいて普通のものである。
LANネットワーク化環境で使用されるとき、コンピュータ110は、ネットワークインターフェースもしくはアダプタ170を介してLAN171に接続される。WANネットワーク化環境で使用されるときは、コンピュータ110は、通常、インターネットなどのWAN173を介して通信を確立するためのモデム172または他の手段を含む。モデム172は、内部または外部のものとすることができるが、ユーザ入力インターフェース160、または他の適切な機構を介してシステムバス121に接続することができる。ネットワーク化環境では、コンピュータ110、またはその部分に関して図示されたプログラムモジュールは、遠隔メモリ記憶装置に記憶することができる。例のためだけであり、限定するものではないが、図1は、メモリ装置181上に常駐する遠隔アプリケーションプログラム185を示す。図示されたネットワーク接続は例示的なものであり、コンピュータ間で通信リンクを確立するための他の手段を使用することもできることを理解されたい。
例示的な動作環境をここで論じてきたので、この説明のセクションの残りの部分は、専ら対話式視点ビデオシステムのハードウェア、プログラムモジュールのアーキテクチャ、およびモジュールそれ自体の説明を行うものとする。
1.2 対話式視点ビデオキャプチャシステム
一般に、対話式視点ビデオキャプチャシステムは、前述の複数のビデオストリームをキャプチャするのに必要なハードウェアおよびそれをサポートするソフトウェアを含む。キャプチャシステムのハードウェアは、並んで配置されたビデオカメラ列を含む。さらに、カメラは、各カメラの視野が、隣接するカメラまたは複数のカメラの視野と所定の量(例えば30度)重なり合うようにして、それぞれが全体的に、シーン中の同じターゲットオブジェクトまたは領域の方向を指すような収束的構成を有している。ターゲットオブジェクトまたは領域に関するカメラの方向は、所望される結果に応じて変化することができる。言い換えると、各カメラの距離は、ターゲットオブジェクトまたは領域から離れており、ターゲットに対するその高さおよび/または水平の配置を変化させることができる。例えば、1つの有益な配置は、図2に示すように、カメラを水平の弧中に配置することである。そのようにすると、ユーザが、カメラを結ぶ水平の弧に沿った任意の適切な視点(vantage point)からシーンを見ることができるようになる。したがって、ユーザには、ターゲットの周りの弧中で水平に移動することが可能であるかのように見えるはずである。カメラの列が実施できる他の構成は、垂直の弧である。そのようにすると、ユーザは、ターゲットオブジェクトまたは領域の上に昇っていくように見える適切な視点からシーンを眺めることが可能になる。カメラは、すべて水平または垂直な平面に1列に並ぶ必要はない。例えば、カメラは、斜めに横切って配置することができる。すなわち、全体的に水平な構成であるが、一方の端から他方の端まで上方にスイープするものである。こうすると、見る人にオブジェクトの周りを回って移動すると共に、その上方に昇るようにオブジェクトを見ることが可能になるという印象を与えるはずである。一般に、所望の経路に沿ってカメラを並べることにより、任意のビューイング経路を作成することができる。
カメラは、適切な任意のビデオカメラとすることができるが、デジタルビデオカメラが好ましい。デジタルカメラを使用しない場合、この後のセクションで述べるさらなる処理を実施する前に、各ビデオフレームをデジタル化する必要がある。さらに、そのビデオカメラは、高解像度カメラである必要はないが、得られる対話式視点ビデオの品質は、かかるカメラを用いた場合高められる。さらに、ビデオストリームの同期化を支援するために、カメラがコンピュータを介して遠隔的に制御されスタート/ストップし、カメラの設定を調整することができるタイプのものである場合有利である。それによって、ユーザは、コンピュータを介してすべてのカメラを同時に制御することができる。さらに、ゲンロック機能付きのカメラは、そのビデオの送りを容易に同期させるので望ましい。各カメラがまた、生成された各ビデオフレームに現在のカメラ設定および露光、ならびにタイムスタンプを示すメタデータを追加する場合、今後の処理のために有利である。
図2を再度参照すると、本ビデオキャプチャリングシステムのハードウェアの例示的な構成が示されている。その実施例では、8台のカメラ200が水平の弧に沿って配置されている。高解像度(例えば、1024×768)カラーカメラが、約30度の水平視野となる8mmレンズを使用し、15fpsでビデオをキャプチャするのに使用されている。
本ビデオキャプチャシステムの他の主要な特徴は、カメラから同期化されたビデオストリームを実時間で取得することである。そのタスクを達成するために、カメラからの個々の送りを受信し同期させることのできる装置が、同期化されたビデオストリームデータを記憶するための装置であると有利である。図2に示す例示的な構成では、すべての入力ビデオの実時間の同期化および記憶が2つの集線ユニット202およびハードドライブ列204によって処理される。各集線装置(concentrator)202は、4台のカメラからの送りを同期させ、4つの非圧縮ビデオストリームを光ファイバケーブルを介してハードドライブ列204にパイプ接続する。2つの集線装置202は、FireWireケーブルを介して同期化され、確実に8つのビデオ送りがすべて同期するようにする。システムの代替的な実施形態においては、各カメラは、DVテープ、VHSテープなどの記録装置をそれ自体に有することもできる。この場合、ビデオは、記録後ハードディスクに転送することができる。
前述のコンピュータ206は、複数のカメラを制御するよう設計されたビデオキャプチャプログラムを実行する。本質的には、ビデオキャプチャプログラムは、複数のビデオカメラを同時にオン/オフし、また各カメラの設定(例えば、特に、露光、ホワイトバランス、焦点)を調節することができる従来の任意のプログラムとすることができる。実際には、キャプチャセッションの前に、標準の方法を用いて適切なカメラ設定が決定され、ビデオキャプチャプログラムがその設定に合わせてすべてのカメラを調整するために使用されることになる。キャプチャプログラムはまた、事前に設定された時間に、またはスタートさせるユーザコマンド入力があるとすべてのカメラが同時にスタートする。さらに、キャプチャプログラムは、事前に設定された時間に、またはユーザコマンド入力があるとすべてのカメラを同時に停止させる。
ビデオストリームのキャプチャおよび記憶に加えて、対話式視点ビデオキャプチャシステムはまた、カメラの較正プログラムを含み、それはカメラを制御するのに使用される同じコンピュータ、または異なるコンピュータ上で動作することができる。カメラは、すべてのキャプチャセッションの前に較正されて3次元再構成のために必要なすべてのカメラ属性を取得する。その属性は、幾何パラメータ(例えば、固有のおよび外因性のカメラパラメータ)と測光パラメータ(例えば、露光、ホワイトバランス、ビネット(vignetting))を含む。テストされた実施形態では、幾何的なカメラパラメータは、Zhang(非特許文献24)の較正技法を用いて取得された。その手順は、一般に、各カメラの前の平坦な表面上に設けられた較正パターンを移動させることを含む。各カメラによって生成された、較正パターンを表すビデオストリームは、次いで、前述のカメラ属性を復帰させるために分析される。そのカメラパラメータは、記憶され、ビデオストリームと共に、この後で簡単に説明する対話式視点ビデオ生成プログラムに供給される。
1.3 対話式視点ビデオシステムプログラム
対話式視点ビデオシステムはまた、対話式視点ビデオを生成するためのコンピュータプログラムと、ユーザに再生するためにそれをレンダリングするためのコンピュータプログラムとを含む。そのアーキテクチャおよびその各プログラムを構成するプログラムモジュールを次に説明する。
1.3.1 対話式視点ビデオ生成プログラムアーキテクチャ
図3を参照すると、前述のビデオキャプチャシステムによって生成されたビデオストリーム312、およびカメラ較正データ314が処理のために、まず3次元再構成モジュール300に送られる。3次元再構成モジュール300の目的は、すべてのカメラビューにわたって、高品質なフォトコンシステント(photo−consistent)の対応関係を生成し、また同時にキャプチャされたビデオフレームの各グループ中のフレームごとに視差(disparity)マップを生成することである。さらに、再構成モジュール300は、対応関係が分った後、各フレームグループの測光パラメータをバランスさせることができる。
生成された各視差マップは、マッティング(matting)モジュール302によって処理される。一般に、マッティングモジュール302は、その視差マップに基づいてフレームにおける大幅な深さの不連続領域を識別することを担当する。次いで、その情報は、レイヤ化表示モジュール304に提供され、本システムの一実施形態では、その表示モジュール304は、大幅な深さの不連続を示さないフレーム中の領域に関連するピクセル、および深さの不連続部の周囲領域からの背景情報とで構成される主レイヤと、大幅な深さの不連続部を有する領域に関連するピクセルからの前景情報から構成される境界レイヤとを生成する。したがって、2レイヤ表示が、各カメラからのビデオストリームのフレームごとに作成される。
2レイヤのビデオフレーム表示は、次に任意選択的に圧縮モジュール306に提供される。データ圧縮は任意選択であるが、前述のカメラ列における各カメラによって生成される各フレームに対する2レイヤは、(例えば、8台のカメラで15fpsの速度で1秒間記録した場合、非圧縮で800MBのオーダの)大量のデータを表すことになることに留意されたい。したがって、データのどんな圧縮もその伝送および/または記憶に役立つことになる。図3では、モジュールの任意選択性を、破線のボックスを使用して示す。
2レイヤビデオフレーム表示は、圧縮の有無にかかわらず、次にファイル生成モジュール308に渡される。さらに、前に取得したカメラ較正データ314がファイル生成モジュール308に提供される。本質的には、ファイル生成モジュール308は、2レイヤビデオフレーム表示および較正データを符号化して、処理のために前述の対話式視点ビデオレンダリングプログラムに直接送信する、あるいは将来レンダリングプログラムに送信するために記憶する。本発明の一実施形態では、カメラ較正データ314は、ビデオファイルのヘッダ中に配置される。
上記の対話式視点ビデオ生成プログラムの好ましい動作モードは、キャプチャされたシーンのイメージベース表示を用いているが、3次元コンピュータ生成画像をその代わりに使用して、本システムおよびプロセスを実施することもやはり可能であることに留意されたい。この代替の実施形態では、3次元再構成モジュールは除かれ、その代わりにコンピュータ生成ビデオフレームが3次元コンピュータ生成画像モジュール310を介してマッティングモジュール302に入力される。したがって、前に説明したキャプチャリングシステムもまた、必要がなくなる。図3で、ここでもまた、画像モジュール310の任意選択性を破線のボックスを使用することにより示す。
カメラでキャプチャされたフレームの代わりの合成フレーム入力は、実際のビデオストリームの説明に関して前に述べたものとすべて同じ属性をやはり表すことになる。さらに、仮想カメラパラメータ情報が、実際のカメラ較正データの代わりに、合成されたビデオストリームごとにファイル生成モジュールに入力されることになる。次いで、合成されたフレームおよびカメラパラメータのデータは、イメージベースのデータと同じように処理されるはずである。したがって、本発明の残りの説明では、レイヤ化表示モジュールに提供されるフレームデータがイメージベースであろうと合成であろうと区別を行わないものとする。さらに、カメラが実際のものであろうと仮想のものであろうと、またカメラパラメータが計算されたものであろうと合成されたものであろうと区別を行わないものとする。
1.3.1.1 3次元再構成モジュール
ビュー補間に使用するためのステレオビジョンプロセスを開発する場合、正確さに対する要件は、3次元再構成に使用される標準のステレオアルゴリズムの要件とは異なる。具体的には、視差におけるエラーは、補間されたイメージに対する明度のエラーほど問題になることはない。例えば、白い壁など、低いテクスチャ領域におけるマルチピクセル視差エラーは、大幅にテクスチャ化された領域中の同じ視差エラーよりも、補間されたイメージ中の明度エラーが大幅に低減される。特に、シーン中のエッジおよび直線が正しくレンダリングされる必要がある。
従来のステレオアルゴリズムは、視差の不連続部の周囲で誤った結果を生む傾向がある。残念ながら、このようなエラーは、視差の不連続部が、通常、明度エッジと一致するので、補間されたシーン中にいくつかの最も目に付きやすいアーティファクトを作成することになる。この理由のため、ビュー補間のためのステレオアルゴリズムは、視差の不連続部を含む明度エッジの周囲にピクセルを正しくマッチさせなければならない。
最近、セグメンテーションベースのステレオと呼ばれるステレオ視への新規な手法が提案されている。その方法は、ステレオ計算の前に、類似のまたはスムーズな視差を有する可能性の高い領域にイメージを区分する。次いで、スムーズさの制約をセグメントごとに実施する。Tao他(非特許文献17)は、平面制約を使用し、ZhangとKambhamettu(非特許文献22)は局所サポートのためにセグメントを使用している。それらの方法は、視差の不連続部を正確に処理する点で非常に有望な結果を示している。
上記のセグメンテーションベースのステレオ技法を3次元再構成タスクを達成するのに使用することができるが、テストした本発明の実施形態は、新規のセグメンテーションベースの手法を使用した。その新規な手法は、本出願の発明者による、本出願の譲受人に譲渡された「Color Segmentation-Based Stereo Reconstruction System And Process」と題する同時係属出願の主題である。
1.3.1.2 マッティングモジュール
ステレオ計算中は、各ピクセルが一意的な視差を有しているものと仮定する。一般に、オブジェクトの境界に沿っていくつかのピクセルが背景領域と前景領域から共に影響を受ける場合はそうではない。しかし、元の混合されたピクセルカラーがイメージベースのレンダリング中に使用された場合、視認できるアーティファクトが生ずる。
その問題を解決するために、深さの不連続部の近傍において、λピクセル(例えば、4ピクセル)より大きい視差ジャンプとして決定される小領域を識別する。より具体的には、その領域内のピクセルごとに前景と背景を見つけるためにマッティングが使用される。前景情報は、境界レイヤ内に記憶され、背景情報および深さの不連続がλピクセル以内ではないピクセルからの情報が主レイヤ中に記憶される。後に説明するレンダリング手順中にクラックを生ずるのを防ぐために、境界マットを(前景ピクセル領域の内側に向けて1ピクセル)拡張する。次いで、そのピクセルラベル情報は、レイヤ化表示モジュールに渡される。
上記のマッティングタスクは、適切な任意の従来のマッティング技法を使用して実施することができるが、テストした本発明の実施形態は新規の手法を使用した。その新規な手法は、本出願の発明者による、本出願の譲受人に譲渡された「A System And Process For Generating A Two-Layer, 3D Representation Of A Scene」と題する同時係属出願の主題である。
1.3.1.3 レイヤ化表示モジュール
レイヤ化表示モジュールは、各フレームに関連するデータ、ならびにマッティングモジュールによって生成されたピクセルラベル情報を取り込み、境界マットのためのカラー、深さ、および不透明度(例えば、アルファ値)を推定する。それは、例えば、ベイジアン(Bayesian)イメージマッティング(非特許文献5)などのマッティング技法を用いて実施することができる。(非特許文献5)は、深さを推定するものではなく、カラーと不透明度だけを推定することに留意されたい。深さは、前景および背景ピクセル領域における近くの深さのアルファで重み付けされた平均を用いて推定することができる。得られた前景ピクセルデータは、処理されるフレームに対する境界レイヤとして指定される。次に、境界マット内に存在しない残りのピクセルからのピクセルデータと共に背景ピクセルデータが、フレームの主レイヤを構成するのに使用される。
したがって、レイヤ化表示モジュールの出力は、前述の各カメラからのビデオストリームのフレームごとの境界レイヤであり、それは、レイヤ中のピクセルごとに、ピクセルカラーBC、深さBD、不透明度αを識別する。さらに、主レイヤは、フレームごとに出力され、それは、そのレイヤ中のピクセルごとに、ピクセルのカラーMC、深さMDを識別する。
上記のレイヤ化タスクは、適切な任意の従来のレイヤ化技法を用いて実施することができるが、テストした本発明の実施形態は、新規な手法を使用した。その新規な手法は、「A System And Process For Generating A Two-Layer, 3D Representation Of A Scene」と題する前述の同時係属出願の主題である。
1.3.1.4 圧縮モジュール
圧縮は、本発明に関連する大量のデータセットを管理可能なサイズに削減し、かつより速い再生をサポートするために任意選択で使用することができる。従来の時間ベースの圧縮方式、例えば、MPEG−4(ISO/IEC14496)は、本発明で使用することが可能であり有利である。しかし、各カメラは、同じシーンの部分をキャプチャしているので、カメラ間(すなわち、空間的な)冗長性を利用することによってデータを圧縮できる見込みがある。時間予測は、先行フレームからの動き補償予測を使用し、空間予測は、基準カメラのテクスチャ、および圧縮の基準として空間的に隣接するカメラの視点に変形される視差マップを使用する。例えば、MPEG−4は、隣接する視点の類似性を利用した立体視データの圧縮のための標準を含む。したがって、一般に、時間的または空間的な冗長性を利用するコーデックはこのタスクに適切である。しかし、最大の圧縮は、その2つの圧縮方式を組み合わせることによって達成することができる。
上記の組み合わせた圧縮方式は、既存の時間的および空間的技法を用いて実施することができるが、テストした本発明の実施形態は、新規の統合された手法を使用した。その新規の手法は、本出願の発明者による、本出願の譲受人に譲渡された「A System And Process For Compressing And Decompressing Multiple, Layered, Video Streams Employing Spatial And Temporal Encoding」と題する同時係属出願の主題である。
1.3.2 対話式視点ビデオ生成プロセス
図4A〜図4Bに示す本発明の一実施形態における対話式視点ビデオを生成するために、以下のプロセスを実施する上記のプログラムアーキテクチャを使用することができる。まず、同期化されたビデオストリームが前述のビデオキャプチャシステムから入力される(プロセスアクション400)。次いで、3次元再構成が実施されて、すべてのカメラビューにわたる対応関係と、入力ビデオストリームから同時にキャプチャされたビデオフレームの各グループ中のフレームごとに視差マップとを計算する(プロセスアクション402)。さらに、対応関係が分った後に、各フレームグループの測光パラメータをバランスさせる(プロセスアクション404)。
次に、各フレームは、所定の順序で選択される(プロセスアクション406)。より具体的には、同時にキャプチャされたビデオフレームの着信する各グループ中のフレームを(所望の任意の順序で)それぞれ選択し、次いで、次のフレームグループに対しても同じことを実施し、以下同様に行う。選択されたフレームごとに、大幅な深さの不連続領域がその視差マップに基づいて識別される(プロセスアクション408)。その情報は、大幅な深さの不連続部を有する領域に関連するピクセルからの前景情報で構成される境界レイヤと、残りの情報からなる主レイヤとを生成するのに使用される(プロセスアクション410)。次いで、処理すべきフレームで前に未選択のままになっているものがあるかどうか判定される(プロセスアクション412)。残っている場合、すべてのフレームが処理されるまでプロセスアクション406から412までが繰り返される。したがって、2レイヤ表示が完全にフレームごとに作成される。選択すべきフレームが残っていない場合、生成プロセスは進み、ビデオフレームデータを任意選択で圧縮する(プロセスアクション414)。それは、例えば、時間的(すなわち、同時にキャプチャされたフレームのグループ間)および空間的(すなわち、同じグループのフレーム間)圧縮技法を使用して行うことができる。この最後のアクションの任意選択的な性質は、図4Aで破線のボックスを用いて示されていることに留意されたい。フレームデータが、圧縮されようとされまいと、次のプロセスアクション416は、レイヤ化されたビデオフレーム表示、およびビデオキャプチャシステムから提供されたカメラ較正データを含む対話式視点ビデオファイルを生成する。
上記の対話式視点ビデオ生成プロセスにおいて、ビデオキャプチャシステムからのイメージベースビデオストリーム入力を、前に述べたようにコンピュータ生成ビデオデータと置き換えることができることに留意されたい。このような場合、カメラ較正データはまた、同種の仮想データと置き換えられるはずである。
1.3.3 対話式視点ビデオレンダリングプログラムのアーキテクチャ
図5を参照すると、前述のファイル生成モジュールによって生成された対話式視点ビデオファイル504が、まず選択的復号モジュール500に送られる。一般に、選択的復号モジュール500は、ユーザがビデオを見ることにより選択された適切な視点からのビデオの現在のフレームをレンダリングするのに必要となる着信するファイルのその部分を復号化する。より具体的には、モジュール500は、レンダリングモジュール502(後で簡単に説明する)によって識別されたファイルの部分を復号して、所望の視点からシーンをレンダリングするのに必要な特定のビデオフレームに関連するレイヤ化されたビデオフレームデータを復元する。したがって、可能な最小のデータ量が復号化されるはずであり、それによって、このプロセスが高速化され、実時間レンダリング機能が提供される。
復号化されレイヤ化されたフレームデータは、レンダリングモジュール502に送られる。一般に、そのモジュール502は、フレームデータを取得し、ユーザによって指定された適切な視点からユーザから見たビデオの現在の部分に対するシーンのビューをレンダリングする。それは、まず現在のユーザ入力506を取得し、次いで所望のビューを生成することを含む。
1.3.3.1 選択的復号モジュール
選択的復号モジュールの目的は、現在のユーザが選択した適切な視点からのビデオ中でキャプチャされたシーンをレンダリングするのに必要な情報だけを復号化することである。本質的には、それは、表示されているビデオ中の現在の時間的位置に関連する同時にキャプチャされたフレームグループからのフレームまたは複数のフレームを復号する必要があり、そのフレームは、特定のユーザが選択した適切な視点からのビデオの現在の部分に表されているシーンのビューをレンダリングするのに必要なレイヤ化されたビデオフレームデータを取得するために復号化が必要となる。その適切な視点がカメラのうちの1つによってキャプチャされたシーンのビューに一致する場合、そのフレームに関連するデータだけを復号化する必要がある。しかし、所望の視点が2つのカメラビューの間のいずれかに含まれる場合、その隣接するカメラの両方に関連するフレームデータが、所望の視点からのシーンをレンダリングするために復号化されなければならない。
所望の適切な視点からシーンをレンダリングするのに必要な特定のフレームまたは複数のフレームが、(次に説明する)レンダリングモジュールによって識別される。識別された後、識別されたフレームまたは複数のフレームに関連するレイヤ化されたビデオフレームデータが、前述の圧縮およびファイル生成モジュールで使用された圧縮タイプおよび符号化方式に適用可能な適切な復号技法を用いて復号化される。前述の統合された手法がテストした本発明の諸実施形態で使用される場合では、「A System And Process For Compressing And Decompressing Multiple, Layered, Video Streams Employing Spatial And Temporal Encoding」と題する同時係属出願に記載のように実施される。
対話式視点ビデオファイルからのフレームデータの復号に加えて、復号モジュールはまた、前述のカメラ較正データも復号化する。前に示したように、そのデータはファイルのヘッダ中に、またはメタデータとして存在することができる。
1.3.3.2 レンダリングモジュール
シーンをレンダリングすることが望まれる視点に関するユーザ入力をまず処理し、その所望のビューをレンダリングするために必要な、表示されているビデオの現在の時間部分に関連する同時にキャプチャされたフレームのグループからフレームまたは複数のフレームを識別することがレンダリングモジュールの仕事である。そのタスクを実施するために、レンダリングモジュールは、対話式視点ビデオファイルに含まれている前述のカメラ較正データを用いて初期化される。その較正データは、視聴されるビデオに関連するシーンをキャプチャするために使用されるビデオカメラごとの位置および視点情報を含む。この情報が与えられると、レンダリングモジュールは、カメラの視点位置を計算する。前述のように、ユーザは、カメラの視点を結ぶ経路に沿って任意の視点を指定することができる。2台の外側のカメラは、可能な視点選択の終点を表す。前に論じたように、選択された視点は、カメラのうちの1つによってキャプチャされたシーンのビュー(あるいは、代替的に、仮想カメラ位置から合成されたビュー)に一致することができる。このような場合、そのカメラに関連する「現在の」フレームだけが所望のビューをレンダリングするのに必要なものとして識別される。しかし、普通の場合は、視点は2つの隣接するカメラの視点の間に含まれる。後者の場合、レンダリングモジュールが、その隣接するカメラの両方に関連する現在のフレームを識別する。
ユーザ入力については、その情報は、ユーザによる視点の選択を入力し処理するのに用いられるある種のユーザインターフェースを介するなど、適切な任意の従来方式で取得することができる。例えば、そのインターフェースは、表示装置(例えば、特に、コンピュータモニタ、表示画面、3次元ゴーグル)上でユーザに提示されるGUI(グラフィックスユーザインターフェース)を含むことができる。そのGUIは、レンダリングされるビデオの現在の部分に対するビデオ中のキャプチャされたシーンを見ることを望む可能な視点の中から、ユーザが視点を指示することが可能な何らかのグラフィック構成を含むことになる。ユーザは、さらに、ビデオの再生時に所望の視点を変更することもできる。その選択は、任意の標準の入力装置(例えば、特に、マウス、ジョイスティック、視標追跡)を有するGUIを用いたユーザインターフェースによって行われる。
所望のビューをレンダリングするために必要なフレームが識別された後、レンダリングモジュールは、必要なフレームデータを復号化するよう選択的復号モジュールに指示する。選択的復号モジュールのフレームデータ出力は、提供されたフレームごとに5つのデータ平面、すなわち、主レイヤカラー、主レイヤ深さ、境界レイヤアルファマット、境界レイヤカラー、および境界レイヤ深さからなる。所望の視点がカメラ視点のうちの1つに一致する場合、そのカメラの主レイヤおよび境界レイヤデータ平面だけが、そのシーンを再構成するために使用される。しかし、所望の視点が2つのカメラ視点の間に含まれる場合はレンダリングプロセスがさらに必要となる。ユーザに指定された視点からのシーンのビューをレンダリングするために、2つのカメラ視点からのデータが必要となる本レンダリングモジュールの一実施形態では、各カメラからの主および境界レイヤデータが所望の視点に投影される。それは、従来のレンダリング方式、および対話式視点ビデオファイル中で提供されるカメラ較正データを用いて実施することができる。次いで、投影された主および境界レイヤは、最終フレームを生成するために混合される。この場合もまた、各レイヤの最終ビューへの影響度が、所望の視点からそれに関連するカメラ視点までの近さに比例して重み付けされる従来の混合方式が用いられる。言い換えると、所望の視点がカメラ視点のうちの一方に他方よりも近い場合、そのカメラの最初のものに関連する投影されたレイヤが他方のものより重要であるとして重み付けされる。
従来のビュー投影およびレンダリング技法を上記のレンダリングタスクを実施するのに使用することができるが、テストした本発明の実施形態は新しい手法を使用した。その新しい手法は、本出願の発明者による、本出願の譲受人に譲渡された「An Interactive, Real-Time Rendering System And Process For Virtual Viewpoint Video」と題する同時係属出願の主題である。前述のレンダリングプロセスは、グラフィックス処理装置、ソフトウェアレンダリング技法、またはその両方を用いて実施できることにさらに留意されたい。図6(a)から図6(c)は、上記のレンダリングプロセスの結果の一実施例を示す。図6(a)および図6(c)は、異なる視点に位置する2つの隣接するビデオカメラから同時にキャプチャされたフレームを示す。図6(b)は、ユーザに指定された視点が図6(a)および図6(c)の画像に関連する視点の間にあるときにレンダリングされたフレームの一実施例である。
前に示したように、上記の対話式視点ビデオ生成プログラムの好ましい動作モードは、キャプチャされたシーンのイメージベース表示を用いることである。しかし、合成されたエレメントをレンダリングされたシーンに追加的に導入することは、本発明の範囲を逸脱するものではない。したがって、レンダリングモジュールの一実施形態では(図5に示すように)、現在レンダリングされているフレーム中に組み込むために、3次元オブジェクトデータ508がレンダリングモジュールに入力される。一実施形態では、その入力は、動画的なオブジェクトもしくは選択された視点に対応する視点からのオブジェクトを、レンダリングするのに必要なデータと、レンダリングされるフレーム内の事前設定された位置におけるオブジェクトを組み込むための位置決め情報とを含むことになる。そのオブジェクト(または複数のオブジェクト)は、時間と共に形状を変化させる(すなわち、レンダリングされたフレームの様々なフレームで異なる外観を有するようにする)ことも、静的な外観を有することもできる。さらに、オブジェクト(または複数のオブジェクト)が組み込まれるレンダリングされたフレーム中の位置は、時間と共に変化する(すなわち、レンダリングされたフレームの様々なフレームで異なる位置を有する)ことも、各連続するレンダリングされたフレーム中の同じ場所に位置することもできる。
レンダリングプロセス中に、イメージベースのオブジェクトをシーンに挿入することもできる。例えば、図7は、本発明に従って作成された対話式視点ビデオからのフレームを示しており、そのフレームに、別のブレークダンサのコピーが挿入されている。この効果は、まず、深さ閾値を用いてダンサのマットを「抽出(pulling)」し、次いで抽出したスプライトを元のビデオにzバッファ法を用いて挿入することによって達成される。
1.3.4 対話式視点ビデオレンダリングプロセス
図8に示すように、上記のレンダリングプログラムのアーキテクチャは、本発明の一実施形態における対話式視点ビデオをレンダリングするための以下のプロセスを実施するために使用することができる。一般に、レンダリングされるビデオのフレームごとに、まず、ユーザに指定された現在の視点が入力される(プロセスアクション800)。しかし、ビデオの新しいフレームがレンダリングされるごとに視点を入力するのではなく、指定された視点の変化だけを入力することもできることに留意されたい。その場合、視点の変化を受信していない場合は、最後に指定された視点がなお有効であるものと仮定し、ビデオの現在のフレームをレンダリングするのにその視点を使用することになる。
ユーザに指定された視点が設定された後、次のプロセスアクション802で、所望のビューを生成するために必要となる、表示されているビデオの現在のフレームに関連する同時にキャプチャされた入力フレームのグループからフレームまたは複数のフレームを識別する。次いで、識別されたフレームまたは複数のフレームは復号化される(プロセスアクション804)。
次に、対話式視点ビデオの現在のフレームが復号化されたビデオデータを用いてレンダリングされる(プロセスアクション806)。そのフレームは、ユーザによって現在指定されている視点から見たビデオの現在の時間部分に関連するシーンを表すことになる。それは、所望の視点が、シーンをキャプチャするのに使用される2つの隣接するカメラの視点の間に含まれる場合、フレームを合成することが必要となる。前述のように、レンダリングプロセス中にコンピュータ生成またはイメージベースのオブジェクトをシーンに挿入するように、上記のプロセスを任意選択で変更することも可能であることに留意されたい。ただし、図8にそのアクションを示していない。
2.0 可能性のある用途(Potential Applications)
対話式視点ビデオシステムおよびプロセスは、様々な興味のある用途に使用することができる。その基本的なレベルでは、ユーザは、ビデオを再生し、見ながらその視点を連続して変更することができる。したがって、対話式視点ビデオにより、ユーザが対話式3次元媒体としてビデオを体験できるようになる。それは、動的なイベントを見る方法を変更し、かつゲームの現実性を高めることに高い可能性を有する。当該動的イベントの実施例には、スポーツイベント(野球、バスケットボール、スケートボード、テニスなど)、教育用ビデオ(ゴルフのハウツービデオ、武道など)、およびパフォーマンス(シルクドゥソレイユ(Cirque de Soleil)、バレエ、モダンダンスなど)がある。さらに、十分な帯域が利用可能な場合、そのビデオは、ブロードキャストまたはマルチキャストすることも可能であり、したがって3次元テレビジョンと呼ぶことができる視聴体験を提供することもできる。
しかし、本発明は、ビデオを見ながら視点を変化させることに限定されない。それはまた、空間/時間操作などの様々な特殊な効果を作成するのに使用することもできる。例えば、ユーザは、ビデオをフリーズし、様々な視点から表されたシーンを見ることができる。ユーザはまた、1つまたは複数の視点から表されたシーンを見ながらビデオを再生し、次いでビデオをリバースし、シーンを様々な視点から見ることもできる。さらに、所望のように視点を変えながら、ビデオを任意の速度で前後に再生することもできる。
対話式視点の上記の機能は、一般の視聴者(casual viewer)にとって興味があるだけではなく、テレビジョンおよび映画業界に特に有益であろう。最も望ましいショットを撮り損なうことを恐れながら、前もって、シーンのどの部分を、どの視点からキャプチャすべきかを決定する苦労の多いプロセスの代わりに、本発明のシステムおよびプロセスを使用することができる。例えば、あるシーンをまず対話式視点ビデオとしてキャプチャする。次いで、映画制作者は、そのビデオを見て、ショットごとに(さらに細かく1フレームごとに)最終のフィルムに対して所望する視点を選択する。さらに、前述のオブジェクト挿入機能はまた、映画制作者にとって有利となり得るツールである。したがって、ここに提示した技法により、イメージベース(およびビデオベース)レンダリングを将来のメディア構築および配信を統合するコンポーネントとすることに1ステップ近づくことができる。
本発明を実施するための例示的なシステムを構成する汎用コンピューティング装置を示す図である。 本発明による対話式視点ビデオキャプチャシステムのハードウェア構成の例示的な実施形態を示す図である。 本発明による対話式視点ビデオ生成プログラムの一実施形態のための一般的なコンピュータプログラムモジュールのアーキテクチャを示すブロック図である。 本発明による対話式視点ビデオ生成プロセスの一実施形態を図式化した流れ図である。 本発明による対話式視点ビデオ生成プロセスの一実施形態を図式化した流れ図である。 本発明による対話式視点ビデオレンダリングプログラムの一実施形態のための一般的なコンピュータプログラムモジュールのアーキテクチャを示すブロック図である。 (a)は、本発明による対話式視点ビデオレンダリングプロセスの結果の一実施例を示すイメージを示す図であり、異なる視点に位置する2つの隣接するビデオカメラから、同時にキャプチャされたフレームを示す図であり、(b)は、本発明による対話式視点ビデオレンダリングプロセスの結果の一実施例を示すイメージを示す図であり、ユーザに指定された視点が、図6(a)および図6(c)のイメージに関連する視点の間に含まれるときにレンダリングされたフレームの一実施例を示す図であり、(c)は、本発明による対話式視点ビデオレンダリングプロセスの結果の一実施例を示すイメージを示す図であり、異なる視点に位置する2つの隣接するビデオカメラから、同時にキャプチャされたフレームを示す図である。 別のブレークダンサのコピーが挿入された、本発明に従がって作成された対話式視点ビデオからのフレームを示したイメージを示す図である。 本発明による対話式視点ビデオレンダリングプロセスの一実施形態を図式化した流れ図である。
符号の説明
120 処理装置
121 システムバス
130 システムメモリ
134 オペレーティングシステム
135 アプリケーションプログラム
136 他のプログラムモジュール
137 プログラムデータ
140 取外し不能、不揮発性メモリインターフェース
144 オペレーティングシステム
145 アプリケーションプログラム
146 他のプログラムモジュール
147 プログラムデータ
150 取外し可能、不揮発性メモリインターフェース
160 ユーザ入力インターフェース
161 マウス
162 キーボード
170 ネットワークインターフェース
171 ローカルエリアネットワーク
172 モデム
173 広域ネットワーク
180 遠隔コンピュータ
185 遠隔アプリケーションプログラム
190 ビデオインターフェース
191 モニタ
192 カメラ
194 カメラインターフェース
195 出力周辺装置インターフェース
196 プリンタ
197 スピーカ
200 カメラ
202 集線装置
204 ハードディスク列
206 制御ラップトップ
300 3次元再構成モジュール
302 マッティングモジュール
304 レイヤ化表示モジュール
306 圧縮モジュール
308 ファイル生成モジュール
310 3次元コンピュータ生成画像モジュール
312 ビデオストリーム
314 較正データ
500 選択的復号モジュール
502 レンダリングモジュール
504 ビデオファイル
506 ユーザ入力
508 3次元オブジェクトデータ


Claims (37)

  1. 対話式視点ビデオを生成するためにコンピュータで実施されるプロセスであって、
    それぞれが同じシーンの一部分を表す複数の同期化されたビデオストリーム、および各ビデオストリームに関連する幾何パラメータおよび測光パラメータを定義する較正データを入力するプロセスアクションと、
    前記同期化されたビデオストリームから同時に取得されたフレームグループごとに、
    シーンの3次元再構成を生成するプロセスアクションと、
    前記再構成を用いて、前記同時に取得されたフレームグループ中のフレームごとに視差マップを計算するプロセスアクションと、
    前記同時に取得されたフレームグループ中のフレームごとに、
    その視差マップに基づいて大幅な深さの不連続領域を識別するプロセスアクションと、
    考慮中の前記フレームに対するレイヤ化された表示を作成するために、所定の閾値を超える深さの不連続を示さないフレーム中の領域に関連するピクセル情報、および前記閾値を超える深さの不連続部を有する領域からの背景ピクセル情報を含む主レイヤ、および前記閾値を超える深さの不連続部を有する領域に関連する前景ピクセル情報を含む境界レイヤを生成するプロセスアクションと
    をコンピュータを用いて実施することを含むことを特徴とするプロセス。
  2. 前記再構成を用いて、すべてのカメラビューにわたる対応関係を計算するプロセスアクションと、
    前記対応関係が計算された後、各フレームグループの前記測光パラメータをバランスさせるプロセスアクションと
    をさらに含むことを特徴とする請求項1に記載のプロセス。
  3. 前記ビデオの転送および/または記憶を容易にするために、前記対話式視点ビデオの前記フレームに対して生成される前記レイヤ化された表示を圧縮するプロセスアクションをさらに含むことを特徴とする請求項1に記載のプロセス。
  4. 前記レイヤ化された表示を圧縮する前記プロセスアクションは、対話式視点ビデオフレームの前記同時に取得されたグループの間で時間的な圧縮技法を使用することを含むことを特徴とする請求項3に記載のプロセス。
  5. 前記レイヤ化された表示を圧縮する前記プロセスアクションは、同じ前記同時に取得されたフレームグループにおける前記対話式視点ビデオフレーム間で空間的な圧縮技法を用いることを含むことを特徴とする請求項4に記載のプロセス。
  6. 前記レイヤ化された表示を圧縮する前記プロセスアクションは、同じ同時に取得されたフレームグループにおける前記対話式視点ビデオフレーム間で空間的な圧縮技法を用いることを含むことを特徴とする請求項3に記載のプロセス。
  7. 前記入力されたビデオストリームのフレームから生成された前記レイヤ化された表示および前記較正データを含む対話式視点ビデオファイルを生成するプロセスアクションをさらに含むことを特徴とする請求項1に記載のプロセス。
  8. 前記複数の同期化されたビデオストリームおよび較正データは、複数のビデオカメラによってキャプチャされたイメージフレームから取得されることを特徴とする請求項1に記載のプロセス。
  9. 前記複数の同期化されたビデオストリームおよび較正データは、コンピュータ生成であることを特徴とする請求項1に記載のプロセス。
  10. 前記シーンの3次元再構成を生成する前記プロセスアクションは、セグメンテーションベースの再構成技法を用いるアクションを含むことを特徴とする請求項1に記載のプロセス。
  11. 前記主レイヤを生成する前記プロセスアクションは、前記レイヤ中の各ピクセルのカラーおよび深さを設定するアクションを含み、前記境界レイヤを生成する前記プロセスアクションは、前記レイヤ中の各ピクセルのカラー、深さ、および不透明度を設定するアクションを含むことを特徴とする請求項1に記載のプロセス。
  12. 前記境界レイヤを生成する前記プロセスアクションは、前記閾値を超える深さの不連続を示す前記ピクセルに隣接する所定数のピクセルを含むように前記レイヤを拡張するアクションを含むことを特徴とする請求項1に記載のプロセス。
  13. 請求項1に記載のプロセスアクションを実施するためのコンピュータ実行可能命令を有することを特徴とするコンピュータ可読媒体。
  14. 対話式視点ビデオを生成するためのシステムであって、
    複数のビデオストリームをキャプチャするための複数のビデオカメラ、および
    それぞれが一部の同じシーンを表している同時にキャプチャされたビデオフレームの1連のグループを作成するために前記ビデオストリームの同期をとるための同期化装置を含むビデオキャプチャサブシステムと、
    1つまたは複数の汎用コンピューティング装置と、
    前記1つまたは複数の汎用コンピューティング装置のうちの少なくとも1つによって実行可能なプログラムモジュールを有する第1のコンピュータプログラムであり、前記モジュールは、
    各ビデオストリームに関連する幾何パラメータおよび測光パラメータを計算するためのカメラ較正モジュールを含む第1のコンピュータプログラムと、
    前記1つまたは複数の汎用コンピューティング装置のうちの少なくとも1つによって実行可能なプログラムモジュールを有する第2のコンピュータプログラムであり、前記モジュールは、
    前記同期化されたビデオストリームから同時に取得された各フレームグループ中に示される前記シーンの3次元再構成を生成し、また前記再構成を使用して前記同時に取得されたフレームグループ中のフレームごとに視差マップを計算する3次元再構成モジュール、
    同時に取得された各フレームグループ中のフレームごとに、前記フレームの視差マップに基づいて大幅な深さの不連続領域を識別するマッティングモジュール、ならびに
    考慮中の前記フレームに対してレイヤ化された表示を作成するために、同時に取得された各フレームグループにおけるフレームごとに、所定の閾値を超える深さの不連続を示さないフレーム中の領域に関連するピクセル情報、および前記閾値を超える深さの不連続部を有する領域中のピクセルからの背景ピクセル情報を含む主レイヤ、および前記閾値を超える深さの不連続部を有する領域に関連する前景ピクセル情報を含む境界レイヤを生成するレイヤ化表示モジュール
    を含む第2のコンピュータプログラムと
    を含むことを特徴とするシステム。
  15. 前記複数のビデオカメラは、各カメラが異なる視点からシーンを見るように並んで配置されることを特徴とする請求項14に記載のシステム。
  16. 各カメラの視野は、任意の隣接するカメラの視野と所定量だけ重なり合うことを特徴とする請求項15に記載のシステム。
  17. 前記シーンのターゲットオブジェクトまたは領域に対する各カメラの視点の距離、高さ、および水平位置は、前記カメラの前記視点を結ぶ所定の経路を形成するように設定されることを特徴とする請求項15に記載のシステム。
  18. 前記所定の経路は、実質的に水平の弧であることを特徴とする請求項17に記載のシステム。
  19. 前記所定の経路は、実質的に垂直の弧であることを特徴とする請求項17に記載のシステム。
  20. 前記所定の経路は、一方の端から他方の端まで上方にスイープする実質的に水平の弧であることを特徴とする請求項17に記載のシステム。
  21. 1つまたは複数の前記ビデオカメラは高解像度カメラであることを特徴とする請求項14に記載のシステム。
  22. 前記ビデオカメラはゲンロック機能を含むことを特徴とする請求項14に記載のシステム。
  23. 各ビデオカメラは、それが生成する各ビデオフレームに、現在のカメラ設定および前記カメラの露光レベル、およびタイムスタンプを含むメタデータを加えることを特徴とする請求項14に記載のシステム。
  24. 前記カメラは、前記1つまたは複数のコンピューティング装置を介して遠隔制御されるタイプのものであり、前記システムがさらに、前記1つまたは複数の汎用コンピューティング装置の少なくとも1つによって実行可能なプログラムモジュールを有する第3のコンピュータプログラムを含み、前記モジュールは、前記複数のビデオカメラを同時にオン/オフし、そのカメラ設定を調整するよう制御するためのビデオキャプチャプログラムモジュールを含むことを特徴とする請求項14に記載のシステム。
  25. 前記ビデオキャプチャサブシステムはさらに、処理の前に前記ビデオストリームを記憶するための記憶装置を含むことを特徴とする請求項14に記載のシステム。
  26. 前記第2のコンピュータプログラムはさらに、前記ビデオの転送および/または記憶を容易にするために、前記対話式視点ビデオの前記フレームに対して生成された前記レイヤ化された表示を圧縮するための圧縮プログラムモジュールを含むことを特徴とする請求項14に記載のシステム。
  27. 前記第2のコンピュータプログラムはさらに、前記入力されたビデオストリームのフレームから生成される前記レイヤ化された表示および較正モジュールの前記出力を含むファイルを作成するための対話式視点ビデオファイル生成プログラムモジュールを含むことを特徴とする請求項14に記載のシステム。
  28. それぞれが同じシーンの一部分を表している同時にキャプチャされたビデオフレームの連続的なグループから生成されたビデオフレームのレイヤ化された表示を含むデータ、および各ビデオフレームの前記キャプチャに関連する幾何パラメータを含む較正データを含むデータから、対話的な視点ビデオをレンダリングするためのコンピュータで実施されるプロセスであって、
    ユーザに指定された現在の視点を識別するプロセスアクションと、
    表示されている前記ビデオの現在の時間部分に対応する同時にキャプチャされたフレームグループから、前記識別された視点からそこに示された前記シーンをレンダリングするのに必要な前記フレームまたは複数のフレームを識別するプロセスアクションと、
    前記識別されたビデオフレームの前記レイヤ化された表示を入力するプロセスアクションと、
    前記入力されたレイヤ化フレーム表示を用いて、前記ユーザにより現在指定されている前記視点から前記対話式視点ビデオの前記フレームをレンダリングするプロセスアクションと
    を、レンダリングされる前記対話式視点ビデオのフレームごとにコンピュータを用いて実施することを含むことを特徴とするプロセス。
  29. 前記ビデオフレームデータは圧縮されており、前記識別されたビデオフレームまたは複数のフレームの前記レイヤ化された表示を入力するプロセスアクションは、前記識別されたビデオフレームまたは複数のビデオフレームの前記レイヤ化された表示を取得するために必要な前記ビデオフレームデータの前記部分を復号化するアクションを含むことを特徴とする請求項28に記載のプロセス。
  30. 表示されている前記ビデオの現在の時間部分に対応する同時にキャプチャされたフレームグループから、前記識別された視点からそこに示された前記シーンをレンダリングするために必要な前記フレームまたは複数のフレームを識別する前記プロセスアクションは、
    前記較正データを使用して、前記レイヤ化された表示がそれから生成される前記ビデオフレームのそれぞれに関連する前記視点を決定するアクションと、
    前記識別された視点が、前記レイヤ化された表示がそれから生成される前記ビデオフレームの視点の1つに一致するとき、前記フレームを、前記シーンをレンダリングするために必要な唯一のフレームとして識別するアクションと、
    前記識別された視点が、前記レイヤ化された表示がそれから生成される2つのビデオフレームの視点の間に含まれるとき、両方のフレームを、前記シーンをレンダリングするのに必要なフレームとして識別するアクションと
    を含むことを特徴とする請求項28に記載のプロセス。
  31. 前記対話式視点ビデオの前記フレームをレンダリングする前記プロセスアクションは、前記識別された視点が前記2つの入力フレームに関連する前記視点の間に含まれるとき、それに関連する前記較正データを用いて、表示されている前記ビデオの現在の時間部分に対応する前記同時に取得されたフレームグループのうちの2つの入力フレームから対話式視点ビデオフレームを生成するアクションを含むことを特徴とする請求項28に記載のプロセス。
  32. 各入力フレームの前記レイヤ化された表示は、所定の閾値を超える深さの不連続を示さないフレーム中の領域に関連するピクセル情報、および前記閾値を超える深さの不連続領域からの背景ピクセル情報を含む主レイヤ、および前記閾値を超える深さの不連続部を有する領域に関連する前景ピクセル情報を含む境界レイヤを含み、表示されている前記ビデオの現在の時間部分に対応する前記同時にキャプチャされたフレームグループのうちの2つの入力フレームから対話式視点ビデオフレームを生成する前記アクションは、
    前記2つの入力フレームごとに順番に、
    ユーザに指定された前記現在の視点に対応するビューに、考慮中の前記入力フレームの前記主レイヤを投影するアクションと、
    ユーザに指定された前記現在の視点に対応する前記ビューに、考慮中の前記入力フレームの前記境界レイヤを投影するアクションと
    を含み、さらに、
    投影されたレイヤの前記2つの得られた組を混合して前記対話式視点ビデオの最終化フレームを作成するアクション
    を含むことを特徴とする請求項31に記載のプロセス。
  33. 投影されたレイヤの前記2つの得られた組を混合する前記プロセスアクションは、前記投影されたレイヤを作成するのに用いられる前記入力レイヤに関連する前記視点が、いかにユーザに指定された前記現在の視点に近いかに直接比例して重み付けがそれぞれ与えられるように、前記投影されたレイヤを混合するアクションを含むことを特徴とする請求項32に記載のプロセス。
  34. 前記対話式視点ビデオの前記フレームをレンダリングする前記プロセスアクションはさらに、前記入力されたレイヤ化フレーム表示中に存在しないオブジェクトを、レンダリングされる前記フレーム中に挿入することを含むことを特徴とする請求項28に記載のプロセス。
  35. 請求項28に記載のプロセスアクションを実施するためのコンピュータ実行可能命令を有することを特徴とするコンピュータ可読媒体。
  36. それぞれが同じシーンの一部分を示している同時にキャプチャされたビデオフレームの連続的なグループから生成されたビデオフレームのレイヤ化された表示を含むデータ、および各ビデオフレームのキャプチャに関連する幾何パラメータを定義する較正データを含むデータを用いて、対話式視点ビデオをレンダリングし表示するためのシステムであって、
    ユーザの視点選択を入力し、レンダリングされた対話式視点ビデオフレームを前記ユーザに表示するためのユーザインターフェースサブシステムであり、
    視点選択を入力するために前記ユーザによって使用される入力装置、および
    前記ユーザに、前記レンダリングされた対話式視点ビデオフレームを表示するための表示装置を備えるユーザインターフェースサブシステムと、
    汎用コンピューティング装置と、
    レンダリングおよび表示すべき前記対話式視点ビデオのフレームごとに、ビデオフレームの前記レイヤ化された表示に関連する指定されたデータを復号化する選択的復号モジュール、および
    レンダリングされ表示される前記対話式視点ビデオのフレームごとに、
    ユーザに選択された前記現在の視点を識別し、
    表示されている前記ビデオの現在の時間部分に対応する同時にキャプチャされたフレームグループから、どのフレームまたは複数のフレームが、そこに示された前記シーンを前記識別された視点からレンダリングするために必要であるかを前記選択的復号モジュールに指定し、
    前記選択的復号モジュールから前記復号されたフレームデータを取得し、
    前記復号されたフレームデータを用いて、前記ユーザによって現在選択されている前記視点からの前記対話式視点ビデオのフレームをレンダリングするレンダリングモジュール
    を含む、前記汎用コンピューティング装置によって実行可能なプログラムモジュールを有するコンピュータプログラムと
    を含むことを特徴とするシステム。
  37. 前記ユーザインターフェースサブシステムはさらに、前記ユーザが、可能な視点の中から、前記シーンをそれから見ることが望ましい前記視点をグラフィカルに指示することができるグラフィックユーザインターフェースを含むことを特徴とする請求項36に記載のシステム。
JP2005179122A 2004-06-28 2005-06-20 対話式視点ビデオシステムおよびプロセス Expired - Fee Related JP4783588B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/880,774 US7292257B2 (en) 2004-06-28 2004-06-28 Interactive viewpoint video system and process
US10/880,774 2004-06-28

Publications (2)

Publication Number Publication Date
JP2006012161A true JP2006012161A (ja) 2006-01-12
JP4783588B2 JP4783588B2 (ja) 2011-09-28

Family

ID=34940171

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005179122A Expired - Fee Related JP4783588B2 (ja) 2004-06-28 2005-06-20 対話式視点ビデオシステムおよびプロセス

Country Status (6)

Country Link
US (2) US7292257B2 (ja)
EP (1) EP1612732B1 (ja)
JP (1) JP4783588B2 (ja)
KR (1) KR101203243B1 (ja)
CN (1) CN1717064B (ja)
ES (1) ES2619934T3 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007257623A (ja) * 2006-03-24 2007-10-04 Mitsubishi Electric Research Laboratories Inc あるシーンについて取得されたビデオのアルファマットを求める方法およびシステム
JP2012141975A (ja) * 2011-01-03 2012-07-26 Samsung Electronics Co Ltd 3dディスプレイのためのマルチビュー画像の生成方法および装置
WO2012117729A1 (ja) * 2011-03-03 2012-09-07 パナソニック株式会社 追体験映像を提供することができる映像提供装置、映像提供方法、映像提供プログラム
JP2014503084A (ja) * 2010-07-27 2014-02-06 テルコーディア テクノロジーズ インコーポレイテッド 3次元形状のファセット上の関連メディアセグメントの対話型の投影および再生
KR101468267B1 (ko) * 2008-10-02 2014-12-15 프라운호퍼-게젤샤프트 추르 푀르데룽 데어 안제반텐 포르슝 에 파우 중간 뷰 합성 및 멀티-뷰 데이터 신호 추출
JP2017518556A (ja) * 2015-03-31 2017-07-06 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド 画像表示方法及び装置
JP2022536009A (ja) * 2020-05-14 2022-08-12 グーグル エルエルシー 動的コンポーネントを有するビデオのレンダリング

Families Citing this family (167)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100064596A1 (en) * 2000-07-31 2010-03-18 Bowsher M William Three-Dimensional Documentation Lab Chamber
US20040162637A1 (en) 2002-07-25 2004-08-19 Yulun Wang Medical tele-robotic system with a master remote station with an arbitrator
US7813836B2 (en) 2003-12-09 2010-10-12 Intouch Technologies, Inc. Protocol for a remotely controlled videoconferencing robot
US8077963B2 (en) 2004-07-13 2011-12-13 Yulun Wang Mobile robot with a head-based movement mapping scheme
US7561620B2 (en) * 2004-08-03 2009-07-14 Microsoft Corporation System and process for compressing and decompressing multiple, layered, video streams employing spatial and temporal encoding
JP4562774B2 (ja) * 2004-10-12 2010-10-13 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート 映像合成基盤の多視点動映像の符号化及び復号化を行うための方法及び装置
KR100603601B1 (ko) * 2004-11-08 2006-07-24 한국전자통신연구원 다시점 콘텐츠 생성 장치 및 그 방법
WO2006137000A1 (en) * 2005-06-23 2006-12-28 Koninklijke Philips Electronics N.V. Combined exchange of image and related data
US8189908B2 (en) * 2005-09-02 2012-05-29 Adobe Systems, Inc. System and method for compressing video data and alpha channel data using a single stream
US9198728B2 (en) 2005-09-30 2015-12-01 Intouch Technologies, Inc. Multi-camera mobile teleconferencing platform
KR100724426B1 (ko) * 2005-10-11 2007-06-04 엘지전자 주식회사 영상촬영 장치 및 방법
US8493387B2 (en) * 2005-11-23 2013-07-23 Pixar Accelerated statistical rendering methods and apparatus
KR101225062B1 (ko) * 2006-03-10 2013-01-23 삼성전자주식회사 이미지 프레임의 선택적 출력 장치 및 방법
GB0608841D0 (en) * 2006-05-04 2006-06-14 Isis Innovation Scanner system and method for scanning
US7593020B2 (en) * 2006-05-30 2009-09-22 Microsoft Corporation Image editing using image-wide matting
US7630541B2 (en) * 2006-05-30 2009-12-08 Microsoft Corporation Image-wide matting
US8849679B2 (en) 2006-06-15 2014-09-30 Intouch Technologies, Inc. Remote controlled robot system that provides medical images
US7847808B2 (en) * 2006-07-19 2010-12-07 World Golf Tour, Inc. Photographic mapping in a simulation
US20100138745A1 (en) * 2006-11-15 2010-06-03 Depth Analysis Pty Ltd. Systems and methods for managing the production of a free-viewpoint and video-based animation
EP1931150A1 (en) * 2006-12-04 2008-06-11 Koninklijke Philips Electronics N.V. Image processing system for processing combined image data and depth data
US9160783B2 (en) 2007-05-09 2015-10-13 Intouch Technologies, Inc. Robot system that operates through a network firewall
US20080295035A1 (en) * 2007-05-25 2008-11-27 Nokia Corporation Projection of visual elements and graphical elements in a 3D UI
JP2008310095A (ja) * 2007-06-15 2008-12-25 Canon Inc レンズシステム
US7932902B2 (en) * 2007-09-25 2011-04-26 Microsoft Corporation Emitting raster and vector content from a single software component
EP2215849A2 (en) * 2007-11-02 2010-08-11 Nxp B.V. Acquiring images within a 3-dimensional room
WO2009091563A1 (en) * 2008-01-18 2009-07-23 Thomson Licensing Depth-image-based rendering
US10875182B2 (en) 2008-03-20 2020-12-29 Teladoc Health, Inc. Remote presence system mounted to operating room hardware
US8179418B2 (en) 2008-04-14 2012-05-15 Intouch Technologies, Inc. Robotic based health care system
US8170241B2 (en) 2008-04-17 2012-05-01 Intouch Technologies, Inc. Mobile tele-presence system with a microphone system
WO2009131703A2 (en) * 2008-04-25 2009-10-29 Thomson Licensing Coding of depth signal
US8737721B2 (en) 2008-05-07 2014-05-27 Microsoft Corporation Procedural authoring
US8204299B2 (en) * 2008-06-12 2012-06-19 Microsoft Corporation 3D content aggregation built into devices
WO2010002921A1 (en) * 2008-07-01 2010-01-07 Yoostar Entertainment Group, Inc. Interactive systems and methods for video compositing
KR100963005B1 (ko) 2008-07-09 2010-06-10 한국전자통신연구원 자유시점 av 서비스에 따른 파일 생성 방법
US9193065B2 (en) 2008-07-10 2015-11-24 Intouch Technologies, Inc. Docking system for a tele-presence robot
US9842192B2 (en) 2008-07-11 2017-12-12 Intouch Technologies, Inc. Tele-presence robot system with multi-cast features
WO2010021666A1 (en) 2008-08-20 2010-02-25 Thomson Licensing Refined depth map
EP2321974A1 (en) * 2008-08-29 2011-05-18 Thomson Licensing View synthesis with heuristic view merging
US8386560B2 (en) * 2008-09-08 2013-02-26 Microsoft Corporation Pipeline for network based server-side 3D image rendering
US8340819B2 (en) 2008-09-18 2012-12-25 Intouch Technologies, Inc. Mobile videoconferencing robot system with network adaptive driving
JP5035195B2 (ja) * 2008-09-25 2012-09-26 Kddi株式会社 画像生成装置及びプログラム
US8866809B2 (en) 2008-09-30 2014-10-21 Apple Inc. System and method for rendering dynamic three-dimensional appearing imagery on a two-dimensional user interface
US9138891B2 (en) 2008-11-25 2015-09-22 Intouch Technologies, Inc. Server connectivity control for tele-presence robot
US8463435B2 (en) 2008-11-25 2013-06-11 Intouch Technologies, Inc. Server connectivity control for tele-presence robot
US9013551B2 (en) * 2008-12-01 2015-04-21 Imax Corporation Methods and systems for presenting three-dimensional motion pictures with content adaptive information
WO2010080639A2 (en) * 2008-12-18 2010-07-15 Band Crashers, Llc Media systems and methods for providing synchronized multiple streaming camera signals of an event
CN102265617A (zh) * 2008-12-26 2011-11-30 日本胜利株式会社 图像编码装置、图像编码方法及其程序、以及图像解码装置、图像解码方法及其程序
KR20110126103A (ko) 2009-01-07 2011-11-22 톰슨 라이센싱 조인트 깊이 추정
WO2010083238A1 (en) 2009-01-13 2010-07-22 Futurewei Technologies, Inc. Method and system for image processing to classify an object in an image
CA2749065C (en) 2009-01-28 2017-01-17 Lg Electronics Inc. Broadcast receiver and video data processing method thereof
US8849680B2 (en) 2009-01-29 2014-09-30 Intouch Technologies, Inc. Documentation through a remote presence robot
US8457387B2 (en) * 2009-03-13 2013-06-04 Disney Enterprises, Inc. System and method for interactive environments presented by video playback devices
US8164617B2 (en) 2009-03-25 2012-04-24 Cisco Technology, Inc. Combining views of a plurality of cameras for a video conferencing endpoint with a display wall
JP5249114B2 (ja) * 2009-04-03 2013-07-31 Kddi株式会社 画像生成装置、方法及びプログラム
EP2417559A4 (en) * 2009-04-08 2015-06-24 Stergen Hi Tech Ltd METHOD AND SYSTEM FOR CREATING THREE-DIMENSIONAL VISUALIZABLE VIDEO FROM A SINGLE VIDEO STREAM
US20100259595A1 (en) * 2009-04-10 2010-10-14 Nokia Corporation Methods and Apparatuses for Efficient Streaming of Free View Point Video
US8897920B2 (en) 2009-04-17 2014-11-25 Intouch Technologies, Inc. Tele-presence robot system with software modularity, projector and laser pointer
EP2249312A1 (en) * 2009-05-06 2010-11-10 Thomson Licensing Layered-depth generation of images for 3D multiview display devices
US8384755B2 (en) 2009-08-26 2013-02-26 Intouch Technologies, Inc. Portable remote presence robot
US11399153B2 (en) 2009-08-26 2022-07-26 Teladoc Health, Inc. Portable telepresence apparatus
CN102598646B (zh) * 2009-11-13 2014-05-07 皇家飞利浦电子股份有限公司 3d视频中深度过渡的有效编码
US20110122224A1 (en) * 2009-11-20 2011-05-26 Wang-He Lou Adaptive compression of background image (acbi) based on segmentation of three dimentional objects
IL202460A (en) 2009-12-01 2013-08-29 Rafael Advanced Defense Sys Method and system for creating a 3D view of real arena for military planning and operations
US20110169818A1 (en) * 2010-01-13 2011-07-14 Sharp Laboratories Of America, Inc. Reducing viewing discomfort
US11154981B2 (en) 2010-02-04 2021-10-26 Teladoc Health, Inc. Robot user interface for telepresence robot system
US8670017B2 (en) 2010-03-04 2014-03-11 Intouch Technologies, Inc. Remote presence system including a cart that supports a robot face and an overhead camera
US20110222757A1 (en) 2010-03-10 2011-09-15 Gbo 3D Technology Pte. Ltd. Systems and methods for 2D image and spatial data capture for 3D stereo imaging
PL2559246T3 (pl) 2010-04-13 2017-02-28 Ge Video Compression Llc Łączenie obszarów próbek
CN108471537B (zh) * 2010-04-13 2022-05-17 Ge视频压缩有限责任公司 解码变换系数块的装置、方法、编码变换系数块的装置
KR102388012B1 (ko) * 2010-04-13 2022-04-18 지이 비디오 컴프레션, 엘엘씨 샘플 배열 멀티트리 세부분할에서 계승
KR101874272B1 (ko) 2010-04-13 2018-07-03 지이 비디오 컴프레션, 엘엘씨 평면 간 예측
BR122020007669B1 (pt) 2010-04-13 2022-07-12 Ge Video Compression, Llc Codificação de uma amostragem espacial de um sinal de informação bidimensional usando subdivisão
KR20110116525A (ko) * 2010-04-19 2011-10-26 엘지전자 주식회사 3d 오브젝트를 제공하는 영상표시장치, 그 시스템 및 그 동작 제어방법
US8890941B2 (en) 2010-04-29 2014-11-18 Virginia Venture Industries, Llc Methods and apparatuses for viewing three dimensional images
US9393694B2 (en) 2010-05-14 2016-07-19 Cognex Corporation System and method for robust calibration between a machine vision system and a robot
US10343283B2 (en) 2010-05-24 2019-07-09 Intouch Technologies, Inc. Telepresence robot system that can be accessed by a cellular phone
US10808882B2 (en) 2010-05-26 2020-10-20 Intouch Technologies, Inc. Tele-robotic system with a robot face placed on a chair
WO2011149558A2 (en) 2010-05-28 2011-12-01 Abelow Daniel H Reality alternate
JP5236039B2 (ja) * 2010-06-01 2013-07-17 キヤノン株式会社 映像処理装置及びその制御方法
CN101930614B (zh) * 2010-08-10 2012-11-28 西安交通大学 基于视频分层的绘画渲染方法
JP5549476B2 (ja) * 2010-08-24 2014-07-16 ソニー株式会社 画像処理装置と画像処理方法
US8649592B2 (en) * 2010-08-30 2014-02-11 University Of Illinois At Urbana-Champaign System for background subtraction with 3D camera
EP2461587A1 (en) * 2010-12-01 2012-06-06 Alcatel Lucent Method and devices for transmitting 3D video information from a server to a client
US9264664B2 (en) 2010-12-03 2016-02-16 Intouch Technologies, Inc. Systems and methods for dynamic bandwidth allocation
US8670630B1 (en) 2010-12-09 2014-03-11 Google Inc. Fast randomized multi-scale energy minimization for image processing
US20120162412A1 (en) * 2010-12-22 2012-06-28 Electronics And Telecommunications Research Institute Image matting apparatus using multiple cameras and method of generating alpha maps
KR101960852B1 (ko) * 2011-01-13 2019-03-22 삼성전자주식회사 배경 픽셀 확장 및 배경 우선 패치 매칭을 사용하는 멀티 뷰 렌더링 장치 및 방법
US9323250B2 (en) 2011-01-28 2016-04-26 Intouch Technologies, Inc. Time-dependent navigation of telepresence robots
US8718837B2 (en) 2011-01-28 2014-05-06 Intouch Technologies Interfacing with a mobile telepresence robot
US10769739B2 (en) 2011-04-25 2020-09-08 Intouch Technologies, Inc. Systems and methods for management of information among medical providers and facilities
US9098611B2 (en) 2012-11-26 2015-08-04 Intouch Technologies, Inc. Enhanced video interaction for a user interface of a telepresence network
US20140139616A1 (en) 2012-01-27 2014-05-22 Intouch Technologies, Inc. Enhanced Diagnostics for a Telepresence Robot
US9390752B1 (en) * 2011-09-06 2016-07-12 Avid Technology, Inc. Multi-channel video editing
JP5352869B2 (ja) * 2011-09-07 2013-11-27 シャープ株式会社 立体画像処理装置、立体画像処理方法、及びプログラム
CN103828359B (zh) * 2011-09-29 2016-06-22 杜比实验室特许公司 用于产生场景的视图的方法、编码系统以及解码系统
US8836751B2 (en) 2011-11-08 2014-09-16 Intouch Technologies, Inc. Tele-presence system with a user interface that displays different communication links
ES2895454T3 (es) * 2011-11-09 2022-02-21 Abyssal S A Sistema y método de operación para vehículos operados de manera remota con imágenes en 3D superpuestas
CN103493093B (zh) * 2011-11-17 2017-07-18 松下知识产权经营株式会社 图像处理装置、摄像装置及图像处理方法
US8854724B2 (en) 2012-03-27 2014-10-07 Ostendo Technologies, Inc. Spatio-temporal directional light modulator
US8928969B2 (en) 2011-12-06 2015-01-06 Ostendo Technologies, Inc. Spatio-optical directional light modulator
US9237330B2 (en) * 2012-02-21 2016-01-12 Intellectual Ventures Fund 83 Llc Forming a stereoscopic video
US9251313B2 (en) 2012-04-11 2016-02-02 Intouch Technologies, Inc. Systems and methods for visualizing and managing telepresence devices in healthcare networks
US8902278B2 (en) 2012-04-11 2014-12-02 Intouch Technologies, Inc. Systems and methods for visualizing and managing telepresence devices in healthcare networks
EP2852475A4 (en) 2012-05-22 2016-01-20 Intouch Technologies Inc SOCIAL BEHAVIOR OF A MEDICAL TELEPRESCENT ROBOT
US9361021B2 (en) 2012-05-22 2016-06-07 Irobot Corporation Graphical user interfaces including touchpad driving interfaces for telemedicine devices
US9767598B2 (en) 2012-05-31 2017-09-19 Microsoft Technology Licensing, Llc Smoothing and robust normal estimation for 3D point clouds
US20130321564A1 (en) 2012-05-31 2013-12-05 Microsoft Corporation Perspective-correct communication window with motion parallax
US9846960B2 (en) * 2012-05-31 2017-12-19 Microsoft Technology Licensing, Llc Automated camera array calibration
US9179126B2 (en) 2012-06-01 2015-11-03 Ostendo Technologies, Inc. Spatio-temporal light field cameras
US9106908B2 (en) * 2012-07-30 2015-08-11 Intel Corporation Video communication with three dimensional perception
US8976224B2 (en) 2012-10-10 2015-03-10 Microsoft Technology Licensing, Llc Controlled three-dimensional communication endpoint
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
US20140320592A1 (en) * 2013-04-30 2014-10-30 Microsoft Corporation Virtual Video Camera
JP6187811B2 (ja) * 2013-09-09 2017-08-30 ソニー株式会社 画像処理装置、画像処理方法、及び、プログラム
JP6434034B2 (ja) 2013-09-13 2018-12-05 インテル コーポレイション 映像生成物共有装置及び方法
KR101586249B1 (ko) * 2013-12-24 2016-01-18 (주)에프엑스기어 광 시야각 영상 처리 장치 및 방법
KR101669926B1 (ko) 2014-02-03 2016-11-09 (주)에프엑스기어 사용자 시점 연동형 영상 처리 장치 및 그 방법
CN103986874A (zh) * 2014-05-29 2014-08-13 宇龙计算机通信科技(深圳)有限公司 一种图像获取装置、图像获取方法及终端
US10178325B2 (en) 2015-01-19 2019-01-08 Oy Vulcan Vision Corporation Method and system for managing video of camera setup having multiple cameras
EP3059949A1 (en) * 2015-02-23 2016-08-24 Thomson Licensing Method and apparatus for generating lens-related metadata
US9626770B2 (en) * 2015-04-10 2017-04-18 Apple Inc. Generating synthetic video frames using optical flow
US10127644B2 (en) 2015-04-10 2018-11-13 Apple Inc. Generating synthetic video frames using optical flow
US10701282B2 (en) 2015-06-24 2020-06-30 Intel Corporation View interpolation for visual storytelling
EP3113159A1 (en) * 2015-06-30 2017-01-04 Thomson Licensing Method and device for processing a part of an immersive video content according to the position of reference parts
TWI552591B (zh) * 2015-08-24 2016-10-01 晶睿通訊股份有限公司 標記視頻中物件的方法、裝置及電腦可讀取記錄媒體
EP3369073A4 (en) 2015-10-29 2019-06-26 OY Vulcan Vision Corporation VIDEO PICTURE OF A ZONE OF INTEREST USING NETWORKED CAMERAS
US9875548B2 (en) * 2015-12-18 2018-01-23 Ricoh Co., Ltd. Candidate list generation
EP3193211B1 (en) * 2016-01-14 2018-12-26 Shanghai Xiaoyi Technology Co., Ltd. System and method for bullet-time photography
CN105681656B (zh) 2016-01-14 2020-03-03 上海小蚁科技有限公司 用于子弹时间拍摄的系统和方法
CN109076148B (zh) * 2016-04-12 2021-02-05 奎蒂安特有限公司 日常场景重建引擎
EP3252713A1 (en) * 2016-06-01 2017-12-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for performing 3d estimation based on locally determined 3d information hypotheses
EP3264360A1 (en) * 2016-06-28 2018-01-03 Dassault Systèmes Dynamical camera calibration
EP3264359A1 (en) 2016-06-28 2018-01-03 Dassault Systèmes A computer-implemented method of calibrating a camera
US10477178B2 (en) * 2016-06-30 2019-11-12 Massachusetts Institute Of Technology High-speed and tunable scene reconstruction systems and methods using stereo imagery
CN105979159B (zh) * 2016-07-21 2019-01-25 上海小蚁科技有限公司 设备的同步方法和同步系统
US10025165B2 (en) 2016-08-30 2018-07-17 Freedom360 Llc Camera mount
USD824990S1 (en) 2016-08-30 2018-08-07 Freedom360 Llc Camera mount
JP6918455B2 (ja) * 2016-09-01 2021-08-11 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US11317028B2 (en) * 2017-01-06 2022-04-26 Appsure Inc. Capture and display device
JP6824579B2 (ja) * 2017-02-17 2021-02-03 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
US11184599B2 (en) 2017-03-15 2021-11-23 Pcms Holdings, Inc. Enabling motion parallax with multilayer 360-degree video
US11862302B2 (en) 2017-04-24 2024-01-02 Teladoc Health, Inc. Automated transcription and documentation of tele-health encounters
US10776992B2 (en) * 2017-07-05 2020-09-15 Qualcomm Incorporated Asynchronous time warp with depth data
US10483007B2 (en) 2017-07-25 2019-11-19 Intouch Technologies, Inc. Modular telehealth cart with thermal imaging and touch screen user interface
US11636944B2 (en) 2017-08-25 2023-04-25 Teladoc Health, Inc. Connectivity infrastructure for a telehealth platform
JP7041494B2 (ja) * 2017-11-06 2022-03-24 キヤノン株式会社 画像処理装置および画像処理方法
JP6980031B2 (ja) * 2017-12-19 2021-12-15 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
JP6427258B1 (ja) * 2017-12-21 2018-11-21 キヤノン株式会社 表示制御装置、表示制御方法
US10504274B2 (en) * 2018-01-05 2019-12-10 Microsoft Technology Licensing, Llc Fusing, texturing, and rendering views of dynamic three-dimensional models
US10617299B2 (en) 2018-04-27 2020-04-14 Intouch Technologies, Inc. Telehealth cart that supports a removable tablet with seamless audio/video switching
CA3097202A1 (en) 2018-05-02 2019-11-07 Quidient, Llc A codec for processing scenes of almost unlimited detail
CN108632538B (zh) * 2018-05-22 2020-07-03 长沙全度影像科技有限公司 一种cg动画和相机阵列相结合的子弹时间拍摄系统及方法
US11087549B2 (en) 2018-10-15 2021-08-10 University Of Maryland, College Park Methods and apparatuses for dynamic navigable 360 degree environments
KR20200071293A (ko) * 2018-12-11 2020-06-19 삼성전자주식회사 3차원 컬러 맵 기반의 측위 방법 및 장치
WO2020132631A1 (en) * 2018-12-20 2020-06-25 Sony Corporation Photo-video based spatial-temporal volumetric capture system
US11176704B2 (en) 2019-01-22 2021-11-16 Fyusion, Inc. Object pose estimation in visual data
US11783443B2 (en) 2019-01-22 2023-10-10 Fyusion, Inc. Extraction of standardized images from a single view or multi-view capture
US10887582B2 (en) 2019-01-22 2021-01-05 Fyusion, Inc. Object damage aggregation
WO2020206672A1 (en) * 2019-04-12 2020-10-15 Intel Corporation Technology to automatically identify the frontal body orientation of individuals in real-time multi-camera video feeds
US11776142B2 (en) 2020-01-16 2023-10-03 Fyusion, Inc. Structuring visual data
US11562474B2 (en) * 2020-01-16 2023-01-24 Fyusion, Inc. Mobile multi-camera multi-view capture
US20210274091A1 (en) * 2020-02-28 2021-09-02 Weta Digital Limited Reconstruction of obscured views of captured imagery using arbitrary captured inputs
CN114007059A (zh) * 2020-07-28 2022-02-01 阿里巴巴集团控股有限公司 视频压缩方法、解压方法、装置、电子设备及存储介质
US11605151B2 (en) 2021-03-02 2023-03-14 Fyusion, Inc. Vehicle undercarriage imaging
CN115150563A (zh) * 2021-03-31 2022-10-04 华为技术有限公司 一种视频制作方法及系统
CA3240901A1 (en) * 2021-12-13 2023-06-22 Isaac Louis Gold BERMAN System and method for defining a virtual data capture point

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08147497A (ja) * 1994-11-25 1996-06-07 Canon Inc 画像処理方法及びその装置
JPH09218954A (ja) * 1996-02-14 1997-08-19 Nippon Telegr & Teleph Corp <Ntt> 画像生成方法
JPH1079029A (ja) * 1996-09-02 1998-03-24 Canon Inc 立体情報検出方法及びその装置
JP2000057350A (ja) * 1998-08-10 2000-02-25 Toshiba Corp 画像処理装置と方法及び画像送信装置と方法
JP2000236535A (ja) * 1999-02-15 2000-08-29 P I Ii:Kk 動画像情報処理方法および装置ならびに動画像情報配信方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3355596B2 (ja) * 1995-06-06 2002-12-09 インターナショナル・ビジネス・マシーンズ・コーポレーション グラフィックス装置および表示方法
US6266068B1 (en) * 1998-03-13 2001-07-24 Compaq Computer Corporation Multi-layer image-based rendering for video synthesis
US6348918B1 (en) * 1998-03-20 2002-02-19 Microsoft Corporation Stereo reconstruction employing a layered approach
US6320978B1 (en) * 1998-03-20 2001-11-20 Microsoft Corporation Stereo reconstruction employing a layered approach and layer refinement techniques
US7015954B1 (en) * 1999-08-09 2006-03-21 Fuji Xerox Co., Ltd. Automatic video system using multiple cameras
US6788809B1 (en) * 2000-06-30 2004-09-07 Intel Corporation System and method for gesture recognition in three dimensions using stereo imaging and color vision
US7085409B2 (en) * 2000-10-18 2006-08-01 Sarnoff Corporation Method and apparatus for synthesizing new video and/or still imagery from a collection of real video and/or still imagery
RU2216781C2 (ru) * 2001-06-29 2003-11-20 Самсунг Электроникс Ко., Лтд Основанные на изображениях способ представления и визуализации трехмерного объекта и способ представления и визуализации анимированного объекта
JP2003018604A (ja) * 2001-07-04 2003-01-17 Matsushita Electric Ind Co Ltd 画像信号符号化方法、画像信号符号化装置および記録媒体
US7015926B2 (en) * 2004-06-28 2006-03-21 Microsoft Corporation System and process for generating a two-layer, 3D representation of a scene
US7142209B2 (en) * 2004-08-03 2006-11-28 Microsoft Corporation Real-time rendering system and process for interactive viewpoint video that was generated using overlapping images of a scene captured from viewpoints forming a grid

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08147497A (ja) * 1994-11-25 1996-06-07 Canon Inc 画像処理方法及びその装置
JPH09218954A (ja) * 1996-02-14 1997-08-19 Nippon Telegr & Teleph Corp <Ntt> 画像生成方法
JPH1079029A (ja) * 1996-09-02 1998-03-24 Canon Inc 立体情報検出方法及びその装置
JP2000057350A (ja) * 1998-08-10 2000-02-25 Toshiba Corp 画像処理装置と方法及び画像送信装置と方法
JP2000236535A (ja) * 1999-02-15 2000-08-29 P I Ii:Kk 動画像情報処理方法および装置ならびに動画像情報配信方法

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007257623A (ja) * 2006-03-24 2007-10-04 Mitsubishi Electric Research Laboratories Inc あるシーンについて取得されたビデオのアルファマットを求める方法およびシステム
US9214040B2 (en) 2008-10-02 2015-12-15 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Intermediate view synthesis and multi-view data signal extraction
KR101468267B1 (ko) * 2008-10-02 2014-12-15 프라운호퍼-게젤샤프트 추르 푀르데룽 데어 안제반텐 포르슝 에 파우 중간 뷰 합성 및 멀티-뷰 데이터 신호 추출
JP2014503084A (ja) * 2010-07-27 2014-02-06 テルコーディア テクノロジーズ インコーポレイテッド 3次元形状のファセット上の関連メディアセグメントの対話型の投影および再生
JP2012141975A (ja) * 2011-01-03 2012-07-26 Samsung Electronics Co Ltd 3dディスプレイのためのマルチビュー画像の生成方法および装置
US9445071B2 (en) 2011-01-03 2016-09-13 Samsung Electronics Co., Ltd. Method and apparatus generating multi-view images for three-dimensional display
WO2012117729A1 (ja) * 2011-03-03 2012-09-07 パナソニック株式会社 追体験映像を提供することができる映像提供装置、映像提供方法、映像提供プログラム
US9020241B2 (en) 2011-03-03 2015-04-28 Panasonic Intellectual Property Management Co., Ltd. Image providing device, image providing method, and image providing program for providing past-experience images
JP5891425B2 (ja) * 2011-03-03 2016-03-23 パナソニックIpマネジメント株式会社 追体験映像を提供することができる映像提供装置、映像提供方法、映像提供プログラム
JP2017518556A (ja) * 2015-03-31 2017-07-06 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド 画像表示方法及び装置
KR101820349B1 (ko) 2015-03-31 2018-01-19 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 화상 표시 방법 및 장치
JP2022536009A (ja) * 2020-05-14 2022-08-12 グーグル エルエルシー 動的コンポーネントを有するビデオのレンダリング
JP7248802B2 (ja) 2020-05-14 2023-03-29 グーグル エルエルシー 動的コンポーネントを有するビデオのレンダリング

Also Published As

Publication number Publication date
JP4783588B2 (ja) 2011-09-28
US7286143B2 (en) 2007-10-23
EP1612732B1 (en) 2017-01-04
ES2619934T3 (es) 2017-06-27
EP1612732A3 (en) 2006-12-06
KR20060048551A (ko) 2006-05-18
KR101203243B1 (ko) 2012-11-20
EP1612732A2 (en) 2006-01-04
CN1717064A (zh) 2006-01-04
US20050286759A1 (en) 2005-12-29
US20050285875A1 (en) 2005-12-29
CN1717064B (zh) 2010-11-03
US7292257B2 (en) 2007-11-06

Similar Documents

Publication Publication Date Title
JP4783588B2 (ja) 対話式視点ビデオシステムおよびプロセス
US7142209B2 (en) Real-time rendering system and process for interactive viewpoint video that was generated using overlapping images of a scene captured from viewpoints forming a grid
US7221366B2 (en) Real-time rendering system and process for interactive viewpoint video
Zitnick et al. High-quality video view interpolation using a layered representation
KR100888537B1 (ko) 이미지의 2 계층이며, 삼차원인 표현을 생성하기 위한 컴퓨터 구현 방법, 시스템 및 컴퓨터―판독가능 매체
Shum et al. Image-based rendering
Ballan et al. Unstructured video-based rendering: Interactive exploration of casually captured videos
Koyama et al. Live mixed-reality 3d video in soccer stadium
Magnor et al. Video-based rendering
Linz et al. Space-time visual effects as a post-production process
Li et al. Online accelerated rendering of visual hulls in real scenes
Wang et al. Space-time light field rendering
Grau Studio production system for dynamic 3D content
Kang Interactive viewpoint video system and process
Lipski Virtual video camera: a system for free viewpoint video of arbitrary dynamic scenes
Taneja et al. 3D reconstruction and video-based rendering of casually captured videos
Magnor et al. Capturing the shape of a dynamic world-fast!
Theobalt et al. 3D video: being part of the movie
Edling et al. IBR camera system for live TV production
Szeliski Image-based modeling and rendering
Lipski et al. The virtual video camera: Simplified 3DTV acquisition and processing
Zitnick High-quality video view interpolation
Shum et al. Rendering Dynamic Scenes
IL182006A (en) Method and system for spatio-temporal video warping

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080620

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20090901

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20091008

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101101

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110201

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110502

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110616

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110711

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140715

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4783588

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees