JP2006067571A - 空間および時間符号化を使用して複数の階層化ビデオ・ストリームの圧縮および圧縮解除を行うためのシステムおよびプロセス - Google Patents

空間および時間符号化を使用して複数の階層化ビデオ・ストリームの圧縮および圧縮解除を行うためのシステムおよびプロセス Download PDF

Info

Publication number
JP2006067571A
JP2006067571A JP2005222022A JP2005222022A JP2006067571A JP 2006067571 A JP2006067571 A JP 2006067571A JP 2005222022 A JP2005222022 A JP 2005222022A JP 2005222022 A JP2005222022 A JP 2005222022A JP 2006067571 A JP2006067571 A JP 2006067571A
Authority
JP
Japan
Prior art keywords
frame
block
pixel
action
key frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005222022A
Other languages
English (en)
Other versions
JP4878451B2 (ja
Inventor
Charles Lawrence Zitnick Iii
ローレンス ジートニック ザ サード チャールズ
Matthew T Uyttendaele
ティー.オイテンダール マシュー
Richard Szeliski
セリスキー リチャード
Simon Winder
ウィンダー シモン
Sing Bing Kang
ビン カン シン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2006067571A publication Critical patent/JP2006067571A/ja
Application granted granted Critical
Publication of JP4878451B2 publication Critical patent/JP4878451B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4347Demultiplexing of several video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • H04N19/21Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding with binary alpha-plane coding for video objects, e.g. context-based arithmetic encoding [CAE]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/39Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability involving multiple description coding [MDC], i.e. with separate layers being structured as independently decodable descriptions of input picture data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2365Multiplexing of several video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】実質的に同じ動的シーンを異なる視点から表す複数のビデオ・ストリームの圧縮および圧縮解除するためのシステムおよびプロセスを提供すること。
【解決手段】複数のストリームの同時発生の複数のビデオ・フレームからなる各集合内の各フレームは、少なくとも2つの層−主層および境界層−により表される。主層の圧縮は、最初に同時発生の複数のフレームからなる各集合内のそれらの層の1つまたは複数をキー・フレームとして指定することを伴う。時間系列順序の同時発生の複数のフレームからなる各集合について、各キー・フレームの主層は、フレーム間圧縮法を使用して圧縮される。さらに、考察対象のフレーム集合内の各非キー・フレームの主層は、空間予測圧縮法を使用して圧縮される。最後に、現在のフレーム集合内の各フレームの境界層は、フレーム内圧縮法を使用してそれぞれ圧縮される。圧縮解除は、一般に、圧縮プロセスの逆である。
【選択図】図3

Description

本発明は、ビデオの圧縮および圧縮解除に関するものであり、より具体的には、空間および時間符号化を使用して複数の階層化ビデオ・ストリームの圧縮および圧縮解除を行うためのシステムおよびプロセスに関するものである。
ここ数年間、TVコマーシャルおよび長編映画の視聴者は、時間を止めてカメラ視点を変えたと錯覚させるために使用される「フリーズ・フレーム」効果を見てきた。最初期のコマーシャルは、フィルムをベースにしたシステムを使用して制作されており、レールにそって配列された異なるスチル・カメラ間を素早くジャンプし、フリーズされた細切れの時間を通して動きの錯覚を与えていた。
それが、最初に出現したとき、この効果は斬新であり、目を見張らせるようなものであって、すぐに、多くの作品に模倣されたが、そのうちの最も有名なものは、おそらく映画「マトリックス(The Matrix)」で見られた「マシンガン撮影(bullet time)」効果であろう。残念なことに、この効果は1回限りの予め計画が立てられたものである。視点の軌跡は、前もって計画され、所望の補間された光景を作り出すのに多くの工数が費やされる。新しいシステムほど、ビデオ・カメラ配列に基づいているが、それでも、ソフトウェアによる光景補間を回避するために何台ものカメラが用意されることに依存している。
そのため、既存のシステムでは、ユーザが動的な画像ベースのシーン(dynamic image-based scene)を見ながら所望の視点に対話形式で変更することができない。過去の画像ベース・レンダリング(IBR)に関する作業のほとんどは、光線空間法[5]およびルミグラフ法[3]の最もよく知られている2つ手法を使用する、静的シーンのレンダリングを含んでいる。多数のサンプリング画像を使用する高品質レンダリングの成功は、この分野における大きな一連の作品の創作意欲をかきたてた。この画期的な作品の刺激的な潜在的拡張の1つは、ビデオを見ながら対話形式で視点を操作することを含んでいる。ユーザがビデオの視点を対話形式で制御する能力は、視覚体験を大幅に拡張し、新視点瞬時ビデオ再生(new viewpoint instant replays)、ドラマにおける視点を切り替え、「フリーズ・フレーム」の視覚効果を思いのままに生成する、などの多様な応用を可能にする。
しかし、IBRを動的シーンに拡張することは、とりわけ、それだけたくさんのカメラを同期させて画像を取得するのが困難である(さらにコストもかかる)ために、自明なことではない。動的シーンをキャプチャする最初期の試みの1つは、Kanadeらの仮想化現実システム(Virtualized Reality system)[4]であったが、これはメートルのジオデシック・ドーム(5-meter geodesic dome)の周囲に配列された51台のカメラを必要とした。Carranzaら[1]は、3Dの人体の動きをキャプチャするために、部屋の周りに中心を向くように分散させた7台の同期カメラを使用した。Yangら[7]は、動的シーンをキャプチャするために、8×8グリッドのカメラ(それぞれ320×240)を設計した。
ビデオ・データを伝送または格納用に使用可能なサイズに圧縮すること、その後、その圧縮されたデータを、満足できる品質で効率よく、短時間で圧縮解除するということ、も難題である。ビデオ・データのキャプチャにカメラを数台しか使用しない場合でも、データ量は極めて大きいため、圧縮は必要である(例えば、15fpsの速度の8台のカメラで毎秒800MBのオーダーである)。本質的に、関係するデータ量が大きすぎて、現在の標準的な帯域幅の資源では、コンピュータ・ネットワーク経由で効率よく送信することはできない。さらに、データの格納は、現在普及している記憶媒体を使用した場合には問題がある。例えば、現行のDVDの格納能力は簡単に超えられることであろう。そこで、配信を実用的なものとするために、ビデオ・データの圧縮が必要である。さらに、この圧縮スキームは、視聴者選択視点からキャプチャされたシーンのレンダリングをサポートするために、そのデータが、実質的にリアルタイムでデータを復元されることを可能にしなければならない。現在のビデオ圧縮法を採用できるが、ビデオ・データの配信またはその実質的にリアルタイムの圧縮解除を容易にするために必要な圧縮比を得るには効率はまだ十分でない。複数のカメラからのビデオ・ストリームを圧縮する最近の試みの1つは、動的光照射野(dynamic light fields)を格納するための概念実証(proofing of concept)に関連している。つまり、Wilburnら[6]では、6台のビデオ・カメラを同期させ、すべての画像データをリアルタイムで圧縮し格納することが可能であることを実証した。Wilburnらはその後128台のカメラを連結した。Changら[2]は、光照射野符号化方式(light field encoding approach)を使用して複数のカメラからのビデオ・ストリームを圧縮するもう1つの例である。他の試みでは、Zieglerら[8]は、特にストリーム間と同じ動的シーンを表す複数のビデオ・ストリームに固有の高い冗長度を利用して、テキスト・ドメイン方式を使用してデータを圧縮した。
前の段落では、本明細書の残り部分とともに、説明の中で、角括弧内に示されている数値指示子により識別される様々な個別の刊行物を引用していることに留意されたい。例えば、このような引用は、「参照[1]」または単に「[1]」と引用することにより識別することができる。それぞれの指示子に対応する刊行物を含む参考文献の一覧は、「発明を実施するための最良の形態」の節の末尾に記載されている。
米国特許出願10/880,774号 米国特許出願10/879,327号 米国特許出願10/879,235号 米国特許出願10/910,088号 Buehler, C., M. Bosse, L. McMillan, S. Gortler, and M. Cohen, Unstructured lumigraph rendering, Proceedings of SIGGRAPH 2001, pp. 425-432. Carceroni, R. L., and K. Kutulakos, Multi-view scene capture by surfel sampling: From video streams to non-rigid 3D motion, shape and reflectance, Eighth International Conference on Computer Vision, vol. II, pp. 60-67. Carranza, J., C. Theobalt, M. Magnor, and H.-P. Seidel, Free-viewpoint video of human actors, ACM Transactions on Graphics, vol. 22, no. 3, pp. 569-577. Chang, C.-L., X. Zhu, P. Ramanathan, and B. Girod, Inter-view wavelet compression of light fields with disparity-compensated lifting, SPIE Visual Communications and Image Processing, 2003, Invited Paper. Chuang, Y. -Y., B. Curless, D. Salesin, and R. Szeliski, A Bayesian approach to digital matting, Conf on Comp. Vision and Pattern Recognition, 2001, vol. II, pp. 264-271. Debevec, P.E., C. J. Taylor, and J. Malik, Modeling and rendering architecture from photographs: A hybrid geometry- and image-based approach, Computer Graphics (SIGGRAPH' 96), August 1996, pp. 11-20. Debevec, P.E., Y. Yu, and G. Borshukov, Efficient view dependent image-based rendering with projective texture mapping, Ninth Eurographics Rendering Workshop, Vienna, Austria, June 1998. Gortler, S.J., R. Grzeszczuk, R. Szeliski, and M. F. Cohen, The lumigraph, ACMSIGGRAPH Comp. Graphics Proceedings, Annual Conference Series, pages 43-54. Hall-Holt, 0., and S. Rusinkiewic4 Stripe boundary codes for real-time structured-light range scanning of moving objects, Eighth Int'l. Conff on Comp. Vision, vol. II, pp. 359-366. Heigl, B., R. Koch, M. Pollefeys, J. Denzler, L. Van Gool, Plenoptic modeling and rendering from image sequences taken by hand-held camera, DAGM'99, pp. 94-101. Kanade, T., P. W. Rander, and P. J. Narayanan, Virtualized reality: constructing virtual worlds from real scenes, IEEE MultiMedia Magazine, Jan-March 1997, vol. 1, no. 1, pp. 34-47. Levoy, M. and P. Hanrahan, Light field rendering, ACMSIGGRAPHComp. Graphics Proceedings, Annual Conference Series, August 1996, pages 31-42. Pulli, K., M. Cohen, T. Duchamp, H. Hoppe, L. Shapiro, and W. Stuetzle, View-based rendering, Eurographics Workshop on Rendering, 1997, pp. 23-34. Scharstein, D., and R. Szeliski, A taxonomy and evaluation of dense two-frame stereo correspondence algorithms, Int'l. J. of Comp. Vision, vol. 47, no. 1, pp. 7-42. Seitz, S. M., and C. M. Dyer, Photorealistic scene reconstruction by voxel coloring, CVPR'97, June 1997, pp. 1067-1073. Shade, J., S. Gortler, L.-W. He, and R. Szeliski, Layered depth images, Comp. Graphics (SIGGRAPH' 98) Proceedings, July 1998, pp. 231-242. Tao, H., H. Sawhney, and R. Kumar, A global matching framework for stereo computation, Eighth Int'l. Conff on Comp. Vision, vol I, pp. 532-539. Vedula, S., S. Baker, S. Seitz and T. Kanade, Shape and motion carving in 6D, Conff on Comp. Vision and Patten Recognition, vol. II, pp. 592-598. Wexler, Y., A. Fitzgibbon, and A. Zisserman, Bayesian estimation of layers from multiple images, Seventh European Conf on Comp. Vision, vol. III, pp.487-501. Wilburn, B., M. Smulski, H. K. Lee and M. Horowitz, The light field video camera, SPIE Electronic Imaging: Media Processors, vol. 4674, pp. 29-36. Yang, J. C., M. Everett, C. Buehler, and L. McMillan, A real-time distributed light field camera, Thirteenth Eurographics Workshop on Rendering, 2002, pp. 77-85. Zhang, L., B. Curless, and S. M. Seitz, Spacetime stereo: Shape recovery for dynamic scenes, Conf on Comp. Vision and Pattern Recognition, 2003, pp. 367-374. Zhang, Y., and C. Kambhamettu, On 3D scene flow and structure estimation, Conf on Comp. Vision and Pattern Recognition, 2001, vol. II, pp. 778-785. Zhang, Z. A flexible new technique for camera calibration, Technical Report: MSR-TR-98-71, Microsoft Research, Redmond, WA. Ziegler, G., H. Lensch, N. Ahmed, M. Magnor, and H.-P. Seidel, Multi-video compression in texture space, IEEE International Conference on Image Processing (ICIP' 04), 2004, (accepted for publication). Ziegler, G., H. Lensch, M. Magnor, and H.-P. Seidel, Multi-video compression in texture space using 4D SPIHT, IEEE Int'l. Workshop on Multimedia and Signal Processing, (MMSP'04), 2004, (accepted for publication).
本発明では、同じ動的シーンの複数のビデオ・ストリームを圧縮し、圧縮解除するこの問題に別の効率的な方法で取り組む。
本発明は、実質的に同じ動的シーンを描写する複数のビデオ・ストリームを圧縮し、圧縮解除するシステムおよびプロセスを対象とする。本発明のシステムおよびプロセスの説明をわかりやすくするために、複数のビデオ・ストリームを、同時発生の複数のビデオ・フレームからなる順次集合から構成されるビデオ・データであるとして特徴付けることができる。ひとつの集合内のそれぞれのフレームは、実質的に同じシーンを描写するが、異なる複数の視点からのシーンを描写する。さらに、それぞれのフレームは、少なくとも2つの層により表される。本発明のシステムおよびプロセスの一実施形態では、主層および境界層を使用して、ビデオ・データのそれぞれのフレームを表す。主層は、境界層に比べてピクセル・データが著しく多い。その結果、これらの層は、異なるやり方で圧縮および圧縮解除される。
概略的には、各フレームの主層の圧縮では、まず、同時発生の複数のフレームからなるそれぞれの集合内のフレームの主層の1つまたは複数を、キー・フレームとして指定ことを含む。キー・フレームは、同時発生の複数のフレームからなるどれか1つの集合内の各キー・フレームが、同時発生の複数のフレームからなる他のすべての集合内の指定されたキー・フレームと同じである視点を持つように選択される。本発明の一実施形態では、キー・フレームは、さらに、同時発生の複数のフレームからなる集合内のどのフレームも、指定されたキー・フレームの視点から所定の個数を超える視点分だけ離れている視点を持たないように選択される。これから簡単に説明するが、キー・フレームの圧縮は、非キー・フレームよりもより多くのデータビットを包含し、必要とする。したがって、1つの集合当たりのそのデータビット数を最小にしなければならない。しかし、それと同時に、簡単に説明すると、非キー・フレームは、すぐ近くのキー・フレームを基準(reference)として使用することにより圧縮される。そのため、キー・フレームの数が少なく、すぐ近くのキー・フレームと共通点がなさすぎると、リストアされたフレームの品質に悪影響が出るので、そうならないようにすべきである。テストされた実施形態では、非キー・フレームとキー・フレームとの間に置ける視点の前述の所定の個数が2であるように十分な数のキー・フレームが選択された。
キー・フレームが指定されると、圧縮は以下のように続く。時間系列順序の同時発生の複数のフレームからなる各集合について、考察対象の集合内の各キー・フレームの主層は、フレーム間圧縮法を使用して圧縮される。さらに、考察対象のフレーム集合内の各非キー・フレームの主層は、空間予測圧縮法を使用して圧縮される。最後に、現在のフレーム集合内の各フレームの境界層は、フレーム内圧縮法を使用して圧縮される。
本発明の一実施形態では、主層ピクセルは、少なくともピクセル色値およびピクセル・ディスパリティ(pixel disparity)または深度値により特徴付けられ、境界層ピクセルは、少なくともピクセル色値、ピクセル・アルファ値、およびピクセル・ディスパリティ(ピクセル視差)または深度値(depth:距離)により特徴付けられることに留意されたい。こうすると、フレーム間手法を使用する各キー・フレームの主層の圧縮は、非予測フレーム内(Iフレーム)圧縮法を使用するキー・フレーム主層を圧縮することを伴うことが可能であり、この非予測フレーム内(Iフレーム)圧縮法は、所定の周期ベースで第1のビデオ・フレーム集合および他の後続のフレーム集合について、最低でもピクセル色値を、ピクセル・ディスパリティまたは深度値とともに符号化する。これらのキー・フレームは、フレーム間圧縮法のIフレームに対応する。さらに、Iフレームに対応していないフレーム(例えば、InterまたはPフレーム)の集合内の各キー・フレームの主層は、先行するIフレーム集合内の同じ視点を示すキー・フレームの主層に基づいて、時間予測圧縮法を使用して圧縮される。ここで、時間予測法は、最低でも、ピクセル色値とともにピクセル・ディスパリティまたは深度値を符号化するように設計されている。同時発生の複数のフレームからなる各集合内の各非キー・フレームの主層の圧縮に関して、これは、最低でもピクセル色値とともにピクセル・ディスパリティまたは深度値を符号化する空間予測圧縮法を使用することを伴う。圧縮される非キー・フレーム層から前述の所定の個数以下の視点分だけ離れているキー・フレームの主層は、空間予測圧縮法の基準フレーム(reference frame)として使用される。そして最後に、フレーム内圧縮法を使用して各フレームの境界層を圧縮することに関して、これは、最低でもピクセル色値、ピクセル・ディスパリティまたは深度値、およびピクセル・アルファ値を符号化する非予測Iフレーム圧縮法を使用することを伴う。
上述のように圧縮されたビデオ・データの圧縮解除は、本質的に、圧縮プロセスの逆プロセスである。そのため、各フレームの境界層は、各フレーム集合内で次々に、フレーム内圧縮解除法を使用して圧縮解除される。さらに、各キー・フレームの主層は、同時発生の複数のフレームからなる各集合内で次々に、フレーム間圧縮解除法を使用して圧縮解除される。そして最後に、各非キー・フレームの主層は、同時発生の複数のフレームからなる各集合内で次々に、空間予測圧縮解除法を使用して圧縮解除される。
主層ピクセルが少なくともピクセル色値およびピクセル・ディスパリティまたは深度値により特徴付けられ、境界層ピクセルが少なくともピクセル色値、ピクセル・アルファ値、およびピクセル・ディスパリティまたは深度値により特徴付けられる実施形態では、圧縮解除は、一般的に以下のように実行される。フレーム間手法を使用して各キー・フレームの主層を圧縮解除は、最低でも、Iフレームに関連付けられたフレーム集合について最低でも元のピクセルカラー値およびピクセル・ディスパリティまたは深度値の近似を復元する非予測Iフレーム圧縮法を使用してキー・フレーム主層を圧縮解除することを伴う。Iフレームに対応しないフレームの集合内の各キー・フレームの主層は、同じフレーム集合内の同じ視点を示すキー・フレームの主層に基づいて、時間予測圧縮解除法を使用して圧縮解除される。これは、さらに、最低でも元のピクセル色値およびピクセル・ディスパリティまたは深度値の近似を復元する。同時発生の複数のフレームからなる各集合内の各非キー・フレームの主層に関して、これらは、最低でもピクセル色値とともにピクセル・ディスパリティまたは深度値の近似を復元する空間予測圧縮解除法を使用して圧縮解除される。圧縮段階と同様に、この非キー・フレーム主層圧縮解除は、圧縮解除される主層から所定の個数の以下の視点分だけ離れているキー・フレームの主層を空間予測圧縮解除法用の基準フレームとして使用することを伴う。最後に、フレーム内圧縮解除法を使用して各フレーム集合内の各フレームの境界層を圧縮解除することは、最低でも元のピクセル色値、ピクセル・ディスパリティまたは深度値、およびピクセル・アルファ値の近似を復元する非予測Iフレーム圧縮解除法を使用することを伴う。
説明されたばかりの利点に加えて、本発明の他の利点は、付属する図面とともに、これ以降の詳細な説明を読むことで、明らかになるであろう。
本発明の特定の機能、態様、および利点は、以下の説明、付属の請求項、および添付の図面を参照するとさらによく理解できるであろう。
本発明の好ましい実施形態の以下の説明では、その一部をなし、本発明を実施できる特定の実施形態が図で示されている、付属の図面を参照する。他の実施形態を利用し、本発明の範囲および精神から逸脱することなく構造上の変更を加えることができることは理解される。
1.0 インターラクティブ視点ビデオ(Interactive Viewpoint Video)
本発明のシステムおよびプロセスは、インターラクティブ視点ビデオ・データ、または同じビデオ・フレーム形式を持つ他のデータの圧縮および圧縮解除を行うために使用される。一般に、インターラクティブ視点ビデオは、ユーザが思いのままに時間を操作し(フリーズ、スローダウン、または反転)、視点を変更しながら、動的シーンを見ることができるビデオである。このビデオを生成するには、比較的少ない台数のカメラを使用して、異なる視点からシーンの複数のビューを同時にキャプチャし、ビデオの同時発生の複数のフレームからなる集合を作成する。これは継続的に実行され、これらのフレーム集合からなるシーケンスを生成し、その後、一意的な2層フレーム表現を使用してそれらを特徴付け、ビデオを形成する。インターラクティブ視点ビデオの生成は本発明のシステムおよびプロセスの範囲を超えているが、これは、 年 月 日に出願され、シリアル番号 を割り当てられた「Interactive Viewpoint Video System And Process」という表題の同時係属出願の主題である。
各フレームの前記の2層表現は、主層および境界層を含む。主層は、表現されるフレームの深度不連続領域の対応する形で配置されているピクセルに関連付けられた背景色および背景ディスパリティを示すピクセルを有するとともに、それらの深度不連続領域内に見つからないフレームの対応する形で配置されているピクセルに関連付けられた色およびディスパリティを示すピクセルを持つ。境界層は、フレーム内の深度不連続領域の対応する形で配置されているピクセルに関連付けられた前景色、前景ディスパリティ、およびアルファ値からなる。深度不連続領域は、フレーム内に見つかった深度不連続部分を囲む所定のサイズの領域に対応する。本発明では、この2層フレーム・データが時間と空間を合わせた方法での圧縮および圧縮解除に使用する。
以下の節では、本発明の圧縮および圧縮解除(コーデック)システムおよびプロセスの詳細を示す。本発明を実装するのに好適なコンピューティング環境をまず提示する。この後に、コーデック自体の説明が続く。
1.1 コンピューティング環境
本発明の好ましい実施形態の説明を行う前に、本発明の一部を実装できる好適なコンピューティング環境の概要について簡単に説明する。図1は、好適なコンピューティング・システム環境100の一実施例を示している。コンピューティング・システム環境100は、好適なコンピューティング環境の一例にすぎず、本発明の用途または機能性の範囲に関する制限を示唆する意図はない。コンピューティング環境100は、典型的な動作環境100に例示されている1つのコンポーネントまたはその組合せに関係する何らかの依存関係または要求条件がその環境にあるものと解釈すべきでない。
本発明は、他の数多くの汎用または専用コンピューティング・システム環境または構成で動作する。本発明とともに使用するのに適していると思われるよく知られているコンピューティング・システム、環境、および/または構成の例として、限定はしないが、パーソナル・コンピュータ、サーバ・コンピュータ、ハンドヘルドまたはラップトップ・デバイス、マルチ・プロセッサ・システム、マイクロ・プロセッサ・ベースのシステム、セットトップボックス、プログラム可能な家電製品、ネットワークPC、ミニ・コンピュータ、メインフレーム・コンピュータ、上記システムまたはデバイスを含む分散コンピューティング環境などがある。
本発明は、コンピュータによって実行される、プログラム・モジュールなどのコンピュータ実行可能命令の一般的なコンテクストで説明することができる。一般に、プログラム・モジュールは、特定のタスクを実行する、または特定の抽象データ型を実装するルーチン、プログラム、オブジェクト、コンポーネント、データ構造などを含む。また、本発明は、通信ネットワークを通じてリンクされているリモート処理装置によりタスクが実行される分散コンピューティング環境で実施することもできる。分散コンピューティング環境では、プログラム・モジュールをメモリ記憶デバイスなどのローカルとリモートの両方のコンピュータ記憶媒体に配置できる。
図1では、本発明を実装する典型的なシステムは、コンピュータ110の形態の汎用コンピューティング・デバイスを備える。コンピュータ110が備えるコンポーネントとしては、限定はしないが、演算処理装置120、システム・メモリ130、およびシステム・メモリを備える様々なシステム・コンポーネントを演算処理装置120に結合するシステム・バス121などがある。システム・バス121は、メモリ・バスまたはメモリ・コントローラ、周辺機器バス、および様々なバス・アーキテクチャを使用するローカル・バスを含む数種類のバス構造のうちのいずれでもよい。例えば、限定はしないが、このようなアーキテクチャとしては、Industry Standard Architecture(ISA)バス、Micro Channel Architecture(MCA)バス、Enhanced ISA(EISA)バス、Video Electronics Standards Association(VESA)ローカル・バス、およびMezzanineバスとも呼ばれるPeripheral Component Interconnect(PCI)バスがある。
コンピュータ110は、通常、様々なコンピュータ可読媒体を含む。コンピュータ可読媒体は、コンピュータ110によってアクセスされることができる媒体であればどのような媒体でも使用可能であり、揮発性および不揮発性媒体、取り外し可能および取り外し不可能媒体を含む。例えば、限定はしないが、コンピュータ可読媒体は、コンピュータ記憶媒体および通信媒体を含むことができる。コンピュータ記憶媒体は、コンピュータ可読命令、データ構造体、プログラム・モジュール、またはその他のデータなどの情報を格納する方法または技術で実装される揮発性および不揮発性、取り外し可能および取り外し不可能媒体を含む。コンピュータ記憶媒体としては、限定はしないが、RAM、ROM、EEPROM、フラッシュ・メモリまたはその他のメモリ技術、CD−ROM、デジタル多目的ディスク(DVD)またはその他の光ディスク記憶装置、磁気カセット、磁気テープ、磁気ディスク記憶装置またはその他の磁気記憶デバイス、または所望の情報を格納するために使用することができ、しかもコンピュータ110によりアクセスできるその他の媒体がある。通信媒体は、通常、コンピュータ可読命令、データ構造体、プログラム・モジュール、または搬送波もしくはその他のトランスポート・メカニズムなどの変調データ信号によるその他のデータを具現するものであり、任意の情報配信媒体を含む。「変調データ信号」という用語は、信号内に情報を符号化するような方法で特性のうちの1つまたは複数が設定または変更された信号を意味する。例えば、限定はしないが、通信媒体としては、有線ネットワークまたは直接配線接続などの有線媒体、ならびに、音響、RF、赤外線、およびその他の無線媒体などの無線媒体がある。上記のいずれの組合せもコンピュータ可読媒体の範囲に収まらなければならない。
システム・メモリ130は、読み取り専用メモリ(ROM)131およびランダム・アクセス・メモリ(RAM)132などの揮発性および/または不揮発性メモリの形態のコンピュータ記憶媒体を含む。起動時などにコンピュータ110内の要素間の情報伝送を助ける基本ルーチンを含む基本入出力システム133(BIOS)は、通常、ROM 131に格納される。通常、RAM 132は、演算処理装置120に直接アクセス可能な、および/または演算処理装置120によって現在操作されているデータおよび/またはプログラム・モジュールを格納する。例えば、限定はしないが、図1は、オペレーティング・システム134、アプリケーション・プログラム135、その他のプログラム・モジュール136、およびプログラム・データ137を例示している。
コンピュータ110はさらに、その他の取り外し可能/取り外し不可能な揮発性/不揮発性コンピュータ記憶媒体を備えることもできる。例えば、図1は、取り外し不可能な不揮発性磁気媒体の読み出しまたは書き込みを行うハードディスク・ドライブ141、取り外し可能な不揮発性磁気ディスク152の読み出しまたは書き込みを行う磁気ディスク・ドライブ151、およびCD ROMまたはその他の光媒体などの取り外し可能な不揮発性光ディスク156の読み出しまたは書き込みを行う光ディスク・ドライブ155を例示している。動作環境の実施例で使用できる他の取り外し可能/取り外し不可能な揮発性/不揮発性コンピュータ記憶媒体としては、限定はしないが、磁気テープ・カセット、フラッシュ・メモリ・カード、デジタル多目的ディスク、デジタル・ビデオ・テープ、ソリッドステートRAM、ソリッドステートROMなどがある。ハードディスク・ドライブ141は、通常、インターフェース140などの取り外し不可能なメモリ・インターフェースを介してシステム・バス121に接続され、磁気ディスク・ドライブ151および光ディスク・ドライブ155は、通常、インターフェース150などの取り外し可能なメモリ・インターフェースによりシステム・バス121に接続される。
図1に例示されている上記のドライブおよび関連コンピュータ記憶媒体は、コンピュータ110用のコンピュータ可読命令、データ構造体、プログラム・モジュール、およびその他のデータを格納する機能を備える。例えば、図1では、ハードディスク・ドライブ141は、オペレーティング・システム144、アプリケーション・プログラム145、その他のプログラム・モジュール146、およびプログラム・データ147を格納するものとして例示されている。これらのコンポーネントは、オペレーティング・システム134、アプリケーション・プログラム135、その他のプログラム・モジュール136、およびプログラム・データ137と同じである場合もあれば異なる場合もあることに留意されたい。オペレーティング・システム144、アプリケーション・プログラム145、その他のプログラム・モジュール146、およびプログラム・データ147に対しては、ここで、異なる番号を割り当てて、最低でも、それらが異なるコピーであることを示している。ユーザは、キーボード162、およびマウス、トラックボール、またはタッチパッドと一般に呼ばれるポインティング・デバイス161などの入力デバイスを介してコンピュータ110にコマンドおよび情報を入力できる。他の入力装置(図に示されていない)としては、マイク、ジョイスティック、ゲームパッド、衛星放送受信アンテナ、スキャナなどがある。これらの入力デバイスおよびその他の入力デバイスは、システム・バス121に結合されているユーザ入力インターフェース160を通じて演算処理装置120に接続されることが多いが、パラレル・ポート、ゲームポート、またはユニバーサル・シリアル・バス(USB)などの他のインターフェースおよびバス構造により接続されることも可能である。モニタ191またはその他の種類の表示デバイスも、ビデオ・インターフェース190などのインターフェースを介してシステム・バス121に接続される。モニタのほかに、コンピュータはさらにスピーカ197およびプリンタ196などの他の周辺出力デバイスも備えることができ、これらは出力周辺機器インターフェース195を介して接続することができる。一連の画像193をキャプチャすることができるカメラ192(デジタル/電子スチルまたはビデオ・カメラ、またはフィルム/写真スキャナなど)も、パーソナル・コンピュータ110への入力デバイスとして含めることもできる。さらに、ただ1台のカメラが示されているが、複数のカメラをパーソナル・コンピュータ110への入力デバイスとして含めることが可能である。1つまたは複数のカメラから得られる画像193は、適切なカメラ・インターフェース194を介してコンピュータ110に入力される。このインターフェース194は、システム・バス121に接続され、それによって、画像をRAM 132、またはコンピュータ110に関連付けられた他のデータ記憶デバイスのうちの1つに転送して格納することができる。しかし、画像データは、さらに、カメラ192を使用せずに、上述のコンピュータ可読媒体のどれかからコンピュータ110に入力できることに留意されたい。
コンピュータ110は、リモート・コンピュータ180などの1つまたは複数のリモート・コンピュータへの論理接続を使用してネットワーク接続環境で動作することができる。リモート・コンピュータ180は、パーソナル・コンピュータ、サーバ、ルータ、ネットワークPC、ピア・デバイス、またはその他の共通ネットワーク・ノードでもよく、通常は、コンピュータ110に関係する上述の要素の多くまたはすべてを含むが、メモリ記憶デバイス181だけが図1に例示されている。図1に示されている論理接続は、ローカル・エリア・ネットワーク(LAN)171およびワイド・エリア・ネットワーク(WAN)173を含むが、他のネットワークを含むこともできる。このようなネット・ワーキング環境は、オフィス、企業全体にわたるコンピュータ・ネットワーク、イントラネット、およびインターネットでは一般的である。
LANネット・ワーキング環境で使用される場合、コンピュータ110は、ネットワーク・インターフェースまたはアダプタ170を介してLAN 171に接続される。WANネット・ワーキング環境で使用される場合、コンピュータ110は、通常、インターネットなどのWAN 173上で通信を確立するためモデム172またはその他の手段を備える。モデム172は、内蔵でも外付けでもよいが、ユーザ入力インターフェース160またはその他の適切なメカニズムを介してシステム・バス121に接続されうる。ネットワーク接続環境では、コンピュータ110またはその一部に関して示されているプログラム・モジュールは、リモート・メモリ記憶デバイスに格納されうる。例えば、限定はしないが、図1はリモート・アプリケーション・プログラム185をメモリ・デバイス181に置かれているものとして例示している。図に示されているネットワーク接続は実施例であり、コンピュータ間の通信リンクを確立するのに他の手段が使用可能であることは理解されるであろう。
典型的な動作環境について説明したが、この説明の節の残りの部分は、インターラクティブ視点ビデオ・システムのハードウェア、プログラム・モジュールのアーキテクチャ、およびモジュールそれ自体の説明に専念する。
1.2.1 圧縮
すでに説明した2層フレーム・データは、大量のデータ(例えば、8台のカメラを使用し15fpsの速さで1秒間記録した、未圧縮800MBのオーダーの)を表す。本発明による圧縮スキームはこの大量のデータを管理可能なサイズに縮小するのに使用され、圧縮解除は高速再生をサポートするように設計される。それぞれのカメラは、同じシーンの部分をキャプチャしているため、カメラ間(つまり空間)冗長性とともに、連続するフレーム集合の間で時間的に有効に活用することによって、データを圧縮する機会が存在する。一般に、時間圧縮態様では、先行するフレームからの動き補償推定結果を使用する時間予測を含むが、空間圧縮態様では、空間的に隣接するカメラの視点内に変換された基準カメラのテクスチャおよびディスパリティ・マップ(disparity maps)を使用する空間予測を含む。その後、テクスチャおよびディスパリティ/深度データを同時に処理できる新規性のある変換ベースの圧縮スキームを使用して、予測されたフレームと実際のフレームとの差分が符号化される。
より具体的には、本発明のコーデックは、各フレームの主層に対するRGBDデータ(RGBは従来のように各ピクセルの赤色、緑色、および青色の強さの値を指し、Dはピクセル・ディスパリティまたは深度である)とフレームの境界層に対するRGBADアルファ・マット・データ(Aはピクセル・アルファ値である)の2種類の情報を圧縮する。前者については、非予測圧縮(Iフレームの場合)と予測圧縮(Pフレームの場合)の両方が使用されるが、後者については、境界層データは、そのまばらな(sparseness)せいで極めて十分に圧縮すること、また視点間のこの境界データの変化が大きいので予測符号化を採用することが困難であること、のために、非予測Iフレームが使用される。
図2は、典型的なカメラ8台のセットアップを示している。異なる視点からシーンを撮像するこれら8台のカメラ200はビデオ・データをキャプチャするために使用される。図3は、主層の符号化方法を例示しており、また本発明の時間と空間のハイブリッド予測スキームを説明している。8つのカメラ視点のうち2つのキー・フレーム・カメラ視野300が選択される。本発明の圧縮法のテストされた実施形態では、非キー・フレーム・カメラ視野302がキー・フレーム・カメラからカメラ・ポジション2つ分を超えて離れないように、キー・フレーム・カメラ視野300が選択される。さらに、キー・フレーム300が選択された後、特定の非キー・フレーム302を2つのキー・フレームのうちのいずれか一方に関連付けることができ、それでもキー・フレームからの離れ具合がカメラ・ポジションの所定の個数分の範囲内であれば、より近いキー・フレームが非キー・フレームに関連付けられる。同じ状況が存在し、いずれかのキー・フレーム300が同じ距離だけ離れている場合、任意のルールが、非キー・フレーム302を近隣のキー・フレームの1つに関連付けるために確定される。従って、8台のカメラの実施例では、この結果が得られるように一列のカメラ群の一端から3番目のカメラ、他端から2番目のカメラがキー・フレーム300として選択されており、隣接する複数の非キー・フレーム302は、それらのうちの1つと、それらを連結する曲線304により図3に示されているように関連付けられている。
キー・フレームを圧縮する際に、隣接する非基準カメラ視野と比較して異なる圧縮手続きが、使用される。図3を再び参照すると、キー・フレーム300に関して、テクスチャ(RGB)およびディスパリティ(D)データは、すでに示されているように、前述の非予測Iフレーム圧縮法を使用して最初に圧縮される。非キー・フレーム・カメラ視野302(Ps)は、近隣の基準視野からの空間予測を使用して圧縮される。このスキームが選択されたのは、新しい視野を合成するために隣接カメラ・ペアからのデータが選択的に圧縮解除される場合に復号化されなければならない情報の量をそれが最小にするからである。時間的に次のフレーム集合では、動き補償が使用され、変換ベースの手法を用いて誤差信号が符号化され、各Iフレームに対して時間予測フレーム306(Pt)を得られる。さらに、前述の予測空間圧縮が使用されて、すぐ近くのPtフレーム306の復号化バージョンに基づいて、考察対象の新しいフレーム内のそれぞれの非キー・フレーム視野302を符号化する。この結果、復号化時に、Ptフレーム306を最初に復号化し、その後、そのPtフレームを使用して同じフレーム集合内のPs302フレームを復号化することができる。
前述の圧縮スキームは、高速の復号化および圧縮解除を可能にする。例えば、任意のフレーム・ペアに対する主層データを得るために、せいぜい2つの時間復号化ステップと2つの空間復号化ステップが必要とされることになる。この最大値は、所望の視野をレンダリングするために2つの隣接フレームが必要であり、両方とも異なるPtフレームに基づいて符号化されたPsフレームである場合にのみ、生じる。必要な2つの視野が同じPtフレームに基づいて符号化されたPsフレームであった場合、フレーム層データを得るために1つの時間復号化ステップと2つの空間復号化ステップのみが必要である。さらに、所望の視野をレンダリングするために必要な2つの視野のうちの1つがPtフレームである場合、1つの時間復号化ステップと1つの空間復号化ステップのみが必要である。同様に、ユーザ指定視点から表現されるシーンをレンダリングするために必要な視野がカメラ視野の1つと一致した場合、その視野がPsフレームであったとしても、1つの時間復号化ステップと1つの空間復号化ステップのみが必要である。最高速のシナリオとなるのは、必要な1つの視野がPtフレームと一致した場合である。この最後の場合には、必要なフレーム層データを得るために、1つの時間復号化ステップのみが必要である。
次に、前述の様々な圧縮スキームのさらに詳しい説明を示す。
1.2.1.1 Iフレームを使用する、キー・フレームの主層の圧縮
前述のように、インターラクティブ視点ビデオ・データの「フレーム」を構成する同時にキャプチャされたフレームの各集合内の各構成要素フレームは、RGBDピクセル値を含む主層と、RGBADピクセル値を含む境界層とにより表される。さらに、キー・フレームの主層は、最初に、またそれ以降周期的に、非予測Iフレーム法を使用して圧縮される。この節では、その手法について説明する。
図4A〜4Bを参照すると、非予測Iフレーム圧縮プロセス内の第1のアクション400は、キー・フレームの主層のこれまで未選択のブロックをラスター順に選択することである。このプロセスのテストされた実施形態では、16×16ピクセル・ブロックが使用されている。しかし、他のブロックサイズも同様に使用可能である。また、テストされた実施形態ではラスター順が使用されたが、代わりに他のブロック選択順を使用することも可能であることに留意されたい。
現在選択されているブロックのRGBD値が入力され(プロセス・アクション402)、標準の方法を使用してYuvD値に変換される(プロセス・アクション404)。さらに、選択されたブロックのuおよびvプレーンがダウン・サンプリングされ、所定のサイズのサブブロックが出力される(プロセス・アクション406)。テストされた実施形態では、uおよびvプレーンは、2の因数でダウン・サンプリングされ、8×8ピクセルのuサブブロックおよび8×8ピクセルのvサブブロックが出力された。さらに、選択されたブロックのYおよびDプレーンは、uおよびvサブブロックと同じサイズである複数のサブブロックに分割される(プロセス・アクション408)。テストされた実施形態では、これらのプレーンは、4つの8×8象限サブブロックに分割された。
Y、u、v、およびDサブブロックのそれぞれは、所定のパターンを介して順序番号を割り当てられる(プロセス・アクション410)。テストされた実施形態では、所定のパターンは、Yプレーンから開始し、順序番号1から4をそれぞれYサブブロックにラスター順序で割り当てる必要があった。uサブブロックは、数5を割り当てられ、vサブブロックは、数6を割り当てられる。最後に、Dプレーンのサブブロックは、ラスター順序で順序番号7〜10を割り当てられる。他の順序付けパターンを使用できるが、上述のパターンにより圧縮解除が高速化されると考えられる。
Y、u、v、およびDサブブロックのそれぞれは、次に離散コサイン変換(DCT)領域に変換される(プロセス・アクション412)。テストされた実施形態では、DCT法の整数近似を使用して、変換を実行した。変換の結果は、複数の周波数成分からなる一8×8ブロックのシーケンスである。DC成分予測法がそれぞれの周波数ブロックに適用される(プロセス・アクション414)。これは、各周波数ブロック内のDC成分を予測されたDC成分値と実際の値との差を表す値で置き換えることを含む。このDC予測は、テストされた実施形態では、定義済み固定量子化レベルが使用されていることを除き、MPEG4規格で規定されているのと類似している交換DC予測法(switched DC prediction technique)を使用して、遂行された。採用された特定の量子化レベルは、アプリケーション特有であり、圧縮解除されたフレームの品質とそれを表すために必要なビットの個数とを両立させるように選択される。DC予測アクションの目的は、同じプレーンの隣接する周波数ブロックのDC値が同じオリジナル値に近い場合に、通常であれば符号化するのに多くのビットを必要とする比較的大きなDC成分値であったであろう値をほぼゼロである値に変換することである。
次に、プロセス・アクション416で、それぞれの周波数ブロックの周波数成分(DC成分を除く)を量子化し、小さなノイズ・レベルの値を排除し、符号化に必要なデータの量を減らす。テストされた実施形態では、ITU−Tビデオ符号化規格H.263の量子化方式が採用された。その後、標準の可変長符号化法を使用して、すでに割り当てられているブロック順序に従って各周波数ブロックが符号化される(プロセス・アクション418)。テストされた実施形態では、これは、最初に、標準のジグザグ走査パターンを使用して各ブロックの成分を順序付けし、MPEG4 Huffman符号化手続きなどの標準のIブロック可変長符号化法を使用して符号化することを含んだ。
周波数ブロックの符号化された周波数値からビットストリームが生成される(プロセス・アクション420)。テストされた実施形態では、MPEG4符号化ブロック・パターン(CBP)データ構造の修正バージョンがこの目的のために採用された。より具体的には、4つのセクション−つまり、CBPY、CBPu、CBPv、およびCBPDセクション−を含むようにCBPヘッダ・フィールドが形成される。これらのセクションは、Y、u、v、およびDプレーンをそれぞれ表す符号化されたデータの部分に対応する。本質的に、それぞれのCBP「x」セクションは、プレーンのサブブロックを表す周波数ブロックがゼロでないAC周波数成分を持つかどうかをデコーダに示すものである。CBP「x」符号化は、CBPY、CBPu、CBPvセクションについてMPEG4で使用されているのと同じである。本発明に特有のものであるCBPDセクションの場合のように、CBPYセクションに対し採用されている符号化が採用される。CBPヘッダの後に符号化された周波数成分が続くが、ただし、周波数ブロックのすべてのAC成分がゼロである場合には、DC差分値のみが含まれることを除く。その結果、デコーダでは、CBPヘッダの適切なCBP「x」セクションを使用して、そのデータに含まれる特定のブロックに対する符号化されたAC周波数成分が含まれるかどうかを判別することができる。
次に、圧縮されるフレームのすべてのブロックが処理されたかどうかが判別される(プロセス・アクション422)。そうでない場合、プロセス・アクション400から422が、すべてのブロックが符号化されるまで繰り返され、符号化されると、圧縮プロセスはそのフレームについて終了する。前述のプロセス・アクションのそれぞれは、ブロック毎にすべてのアクションを完了するのではなく、次のアクションに進む前に圧縮されるフレームの各ブロックに対し交互に実行されることが可能であることに留意されたい。
前述のプロセスを介して符号化されたキー・フレームの主層を復号化することに関連する圧縮解除プロセスについては、この説明の後のほうの圧縮解除の節で説明する。
1.2.1.2 Pフレームを使用するキー・フレームの主層の圧縮
上述の各Iフレームの間に入る同時発生の複数のフレームからなる集合内のキー・フレームの主層に対し、従来のフレーム間圧縮法の予測フェーズが使用される。例えば、テストされた実施形態では、MPEG4規格のPフレーム生成方式を使用した。この方式に対する唯一の修正は、ディスパリティ値(D)の追加であり、その理由は、このデータを主フレーム・ピクセル・データが含むからである。Dデータは、Yデータとまったく同じようにして処理されるという点で前述のIフレーム手続きの場合と同じ方法で、追加される。
1.2.1.3 非キー・フレームの主層の圧縮
キー・フレームとして選択されないそれぞれの同時発生の複数のフレームからなる集合内のフレームの主層に対し、空間予測圧縮法を使用して、それらを前記のように圧縮する。一般に、空間予測を実行するために、近隣のキー・フレームからのディスパリティ・データを使用して、テクスチャ・データおよびディスパリティ・データの両方を、圧縮される非キー・フレームの視点に変換する。この結果、非キー・フレームのデータが近似され、その後、圧縮された差分情報を送信することにより補正される。そのため、キー・フレームは、隣接する非キー・フレームを圧縮するための基準視野(reference views)として機能する。カメラ視野変換時に作成されたオクルージョン・ホール(手前にある物体が背後にある物体を隠す部分)は、別々に取り扱われ、欠損テクスチャは、アルファ・マスクを使用して予測なしで符号化される。これは、従来のブロック・ベースのPフレーム・コーデックだと得られない、クリーンな結果が得られる。
次に空間圧縮手続きについては、同時発生の複数のフレームからなる前述の集合のそれぞれの中の各非キー・フレーム画像に関係しているので、さらに詳しく説明する。図5A〜Bを参照すると、圧縮される非キー・フレームから所定の視点数分の範囲内にあるキー・フレーム識別され、YuvD形式のそのピクセル・データが入力される(プロセス・アクション500)。次に、識別されているキー・フレームのディスパリティ・データ(D)と、びキー・フレームおよび圧縮される非キー・フレームをキャプチャするために使用されるカメラのカメラ・パラメータとを使用して、テクスチャ・データおよびディスパリティ・データ(YuvD)の両方を、圧縮される非キー・フレームの視点に変換する(プロセス・アクション502)。カメラ・パラメータ・データは、同時発生の複数のフレームからなる順次的集合を生成するために使用される複数のビデオ・ストリームの取得の一環として計算され、および本発明の圧縮モジュールとともに、圧縮解除およびレンダリング・モジュールにより使用するために格納されることを留意されたい。キー・フレームの主層を圧縮される非キー・フレームの視点に「ワープ」するために使用されるプロセスは、従来の方法を使用して実行される。しかし、本発明のテストされた実施形態では、 年 月 日に出願され、シリアル番号 を割り当てられた「A Real-Time Rendering System And Process For Interactive Viewpoint Video」という表題の同時係属出願で説明されているワーピング手続きがこの目的のために採用された。
また、キー・フレーム画像をワープする際に、非キー・フレーム画像の視点から見えるシーンのいくつかの部分がキー・フレーム画像の視点からは見えない場合も多いということに留意されたい。その状況であれば、ワープされたキー・フレーム画像は、閉塞穴(オクルージョン・ホール)、つまり、使用可能なYuvD値がないピクセルを示すことになる。符号化されたフレームがオクルージョン・ホールを示さないようにするために、以下の手順が使用される。プロセス・アクション504で、YuvD値を持たないワープされたキー・フレームのピクセルは、識別され、バイナリ・マスクが生成され、これはピクセル位置毎に、YuvDピクセル値が使用可能であれば1つの2進値(例えば、1)を持ち、YuvD値が存在しなければ他の2進値(例えば、0)を持つ。プロセス・アクション506で、使用可能なYuvD値がないことを示すバイナリ・マスクの領域が、所定のピクセルの個数分だけ(例えば、テストされた実施形態では1)拡張される。これは、そうしないとオクルージョン・ホールを圧縮されたフレーム内に残してしまうおそれのあるワーピング・プロセスにおけるノイズの補償のため行われる。次に、バイナリ・マスクは、所定のサイズのブロックからなるグリッドに分割される(プロセス・アクション508)。テストされた実施形態では、16×16ピクセル・ブロックが採用された。その後、ブロック毎にモード指定が確立されるが、これは、そのブロック内のバイナリ・マスク「ピクセル」のどれかがオクルージョン・ホールに関連付けられた第2の2進値を持つかどうかを示す(プロセス・アクション510)。テストされた実施形態では、第1の2進値(例えば、1)を使用して、ブロックがその中にオクルージョン・ホール・ピクセルを持つことを示し、第2の2進値(例えば、0)を使用して、オクルージョン・ホール・ピクセルがないことを示した。
その一方で、ワープされたキー・フレーム画像のそれぞれのピクセルのピクセル値は、圧縮される非キー・フレーム画像の対応するピクセルの類似の型の値から差し引かれ、それによって差分画像が出力される(プロセス・アクション512)。その後、その非キー・フレーム画像および差分画像は、バイナリ・マスクを分けるために使用されるのと同じサイズの複数のブロックにセグメント化され(プロセス・アクション514)、所定の順序で(例えば、テストされた実施形態ではラスター順序で)、それぞれの画像のそれぞれのブロックが圧縮される。より具体的には、非キー・フレーム画像の未選択のブロックは、所定の順序で選択される(プロセス・アクション516)。さらに、差分画像のそれに対応して配置されたブロックが選択される(プロセス・アクション518)。その後、選択されたブロックがオクルージョン・ホール・ピクセルを含むかどうかを、そのブロックに対しすでに確定されている指定モードを使用して、判別する(プロセス・アクション520)。差分画像の選択されたブロックは、そのブロックがオクルージョン・ホール・ピクセルを含まないものとして指定されていることがわかっている場合に、特定のキー・フレームの圧縮に関して前述のIフレーム圧縮法の修正バージョンを使用して符号化される(プロセス・アクション522)。これらの修正は、差分画像のDC成分がとにかく小さくなるのでDC予測ステップをスキップすることを含む。さらに、標準の符号化テーブルを使用してDC成分を符号化する(MPEG4 Huffmann DC周波数成分テーブルなど)代わりに、AC周波数成分を符号化するための符号化テーブルが使用される。これらの変更以外、手順は同じである。
それとは別に、ブロックがオクルージョン・ホール・ピクセルを含むものとして指定されていることがわかっている場合、非キー・フレーム画像の選択されたブロックは、キー・フレームの圧縮に関して前述のIフレーム圧縮法の修正バージョンを使用して符号化される(プロセス・アクション524)。この場合の修正は、圧縮プロセスのDC予測ステップを変更することを含む。非キー・フレームが上述の方法で圧縮された場合、復号化された画像は、近隣のキー・フレームから予測されずに、非キー・フレーム画像から直接取り出されたいくつかのブロックを含む可能性がある。これらの直接(取り出された)ブロックは、オクルージョン・ホールがワープされたキー・フレーム画像内に存在するブロックである。簡単に説明すると、直接ブロックに対する復号化プロセスは、逆DC周波数成分予測ステップを伴う。いくつかのキー・フレームを圧縮することに関してすでに説明されているように、DC周波数成分予測は、隣接ブロックからのDC成分値を使用してDC成分の代わりをする差分値を作成することを含む。逆ステップでは、先行するブロックのリストアされたDC成分を使用して、復号化されるブロックのDC成分をリストアする。しかし、非キー・フレーム画像に対する上述の圧縮シナリオでは、先行するブロックは、オクルージョン・ホール・ピクセルを含んでいなかったため、差分画像から生成された可能性がある。その状況であれば、リストアされるときに、周波数ブロックは、変換された差分画像に関連付けられた小さなDC周波数成分を持つことになる。そのため、非キー・フレーム画像から直接ブロックを圧縮する場合に、変換された差分画像ブロックに関連付けられた小さなDC周波数成分をDC予測ステップで効果的に使用できないという問題が生じる。さらに、非キー・フレーム画像内の隣接ブロックは、ワープされたキー・フレーム内のオクルージョン・ホールに関連付けることができず、したがって、圧縮された画像内には存在しないことになるのでDC成分予測目的には使用できない。これを解決するために、前述のIフレーム圧縮法を修正し、圧縮される非キー・フレーム画像から直接取り出したブロックを使用するときに、中間範囲のDC周波数成分値が、DC成分予測ステップを実行する場合に隣接ブロックからの実際のDC成分の代わりに使用されるようにする。これは、隣接ブロックがまた直接ブロックでない場合である。それが直接ブロックである場合は、そのリストアされたDC成分を、通常その圧縮手続きであるかのように、使用することができる。この結果、後で説明するように、圧縮された非キー・フレーム画像を圧縮解除する場合、これは、圧縮されたデータに含まれるモード指定を使用して、どのブロックが直接ブロックであるかを識別することができる。直接ブロックに対して、修正されたIフレーム圧縮解除を採用し、これは、この手続きに必要な隣接ブロックが直接ブロックでない場合に、逆DC成分予測ステップにおいて所定の中間範囲DC周波数成分値を使用する。
圧縮されたブロックが、プロセス・アクション526で、直接ブロックまたは差分画像ブロックから生成されたかどうかに関係なく、適切なブロック・モード指定が圧縮ブロック・データに付加される。その後、圧縮される非キー・フレームのすべてのブロックが処理されたかどうかが判別される(プロセス・アクション528)。そうでない場合、プロセス・アクション516から528が、すべてのブロックが符号化されるまで繰り返され、すべてのブロックが符号化されると、圧縮プロセスは考察対象のキー・フレームについて終了する。
1.2.1.4 境界層データの圧縮
前述のように、インターラクティブ視点ビデオ・データの「フレーム」を構成する同時にキャプチャされたフレームの各集合内の各構成要素フレームは、さらに、割り当てられたRGBAD値を持つピクセルを含む境界層により表される。これらの境界層は、非予測Iフレーム法であるが、Aプレーンに関連付けられたサブブロックがそのプロセスに追加され、非透明ピクセルを持つブロックが符号化されることを除き、主層キー・フレームの圧縮に関して上述したのに似た非予測Iフレーム法、を使用して圧縮される。構成要素フレームに関連付けられた境界層データに適用されるときのこの圧縮法について詳細に説明することにする。
図6A〜Cを参照すると、境界層圧縮プロセスは、所定のサイズのどのブロックがすべて透明(T)、すべて不透明(O)、または部分的に透明、部分的に不透明(これ以降、部分ブロック(P)と呼ぶ)であるピクセルを含むかを指定するデータを符号化する手順から始まる。この目的のために、プロセス・アクション600で、圧縮される境界層フレームのRGBADピクセル・データが入力される。その後、画像のそれぞれの所定のサイズのブロック(例えば、テストされた実施形態では8×8)は、それぞれのピクセルを固定しきい値と比較してA値に基づき透明(transparent)、不透明(opaque)、または部分的(partial)として分類される(プロセス・アクション602)。その後、このカテゴリ・データは符号化される(プロセス・アクション604)。テストされた実施形態では、この符号化は、四分木&Huffman可変長符号化法を使用することを伴う。
四分木手続きに関して、これは、ルート・レベルでフレーム全体から開始する必要があり、以下を行う。
(a)カテゴリを示すコードを生成する(ルート・レベルの場合、部分ブロックとなる)。テストされた実施形態では、部分的として分類されたブロックは、使用される最小のコード数で表される(例えば、0)。
(b)生成された最後のコードが部分ブロックに対するものであれば、フレームは4つの四分木表現サブブロックに分割される。
(c)それらのサブブロックは、次に、ラスター順序で順次選択され、それぞれについて、カテゴリを示すコード(つまり、T、O、P)が生成される。
(d)サブブロックが部分ブロックであると判明した場合、次のサブブロックに進む前に、ステップ(b)から(d)が、サブブロックが所定の最小サイズ(つまり、テストされた実施形態では8×8)でない限り、考察対象のサブブロック(全体としてフレームではなく)について繰り返される。
符号化された四分木データは、画像データおよび次に説明するその他のデータとともに、圧縮された境界層フレームの一部となる。しかし、この他のデータを生成するためには前述のブロックの分類が必要であり、したがって、その目的のために保持されることに留意されたい。
ブロック分類データが符号化された後、圧縮プロセスは、定義済み順序でフレームのこれまで未選択の所定のサイズのブロックの選択を続ける(プロセス・アクション606)。テストされた実施形態では、16×16ピクセル・ブロックが採用され、ラスター順序で選択された。現在選択されているフレーム・ブロックは、所定の数のサブブロックに分割され、これらは、すでに分類されているブロックのサイズおよび位置に対応する(プロセス・アクション608)。テストされた実施形態では、フレーム・ブロックは、4つの8×8ピクセル象限サブブロックに分割される。
次に、選択されたフレーム・ブロックのすべてのサブブロックが透明であるとして分類されるかどうかを判別する(プロセス・アクション610)。そうであれば、コードは生成されず、プロセス・アクション606から610は、次のフレーム・ブロックについて繰り返される。サブブロックのどれかが透明でない場合、サブブロックはどれかが部分ブロックとして分類されるかどうかを判別する(プロセス・アクション612)。そうであれば、それらのうちこれまで未選択のものが選択される(プロセス・アクション614)。選択された部分サブブロックについてバイナリ・マスクが生成され、符号化される(プロセス・アクション616)。このバイナリ・マスクは、まず、小さな所定のサブブロック・レベルに縮小することを除き、すでに説明されている四分木手続きを実行することで生成される。テストされた実施形態では、この最低の所定のレベルは2×2ピクセル・サブブロックである。しかし、最低レベルのサブブロックを部分的であるとして符号化するのではなく、そのようなブロックは、代わりにどのピクセルが不透明であり、どのピクセルが透明であるかを示すように符号化される。そこで、一方の2進値を使用して、不透明ピクセルを指示し、他方の2進値を使用して、透明ピクセルを指示する。テストされた実施形態では、前述の最低レベルの部分サブブロック符号化は、ラスター順序を使用して生成される4ビットコードである。そうして、本発明のテストされた実施形態で使用されるMPEG4 Huffmann可変長符号化法などの適切な圧縮手続きを使用して、その結果得られる四分木を符号化する。選択された部分サブブロックの符号化されたバイナリ・マスク・データも、図6Cに示されているように圧縮されたフレームの一部となる。
次に、符号化手続きを手短に説明しやすくするために、選択された部分サブブロックの透明ピクセルが「フィル・イン」される(プロセス・アクション618)。これは、例えば、MPEG4規格の繰り返しパディング法を使用して、または非透明なピクセルに基づいて平均値をフィル・インすることにより、行うことができる。その後、選択されたフレーム・ブロック内にまだ選択されていない部分サブブロックが残っていないか判別される。もし残っていれば、プロセス・アクション614から620が、残っている部分サブブロックのそれぞれについて繰り返される。残っていなければ、圧縮プロセスは以下のように続く。
次に、選択されたフレーム・ブロックが符号化される。本質的に、これは、Aプレーン・データが追加され、非透明サブブロックのみが符号化されることを除き、Iフレームの主層の符号化に関してすでに説明されているのと同じ方法で実行される。そこで、選択されたフレーム・ブロックのRGB値が、Yuv値に変換され(プロセス・アクション622)、uおよびvプレーンはダウン・サンプリングされ、uおよびvサブブロックが出力される(プロセス・アクション624)。さらに、Y、D、およびAプレーンが、uおよびvサブブロックと同じサイズである複数のサブブロックに分割される(プロセス・アクション626)。この時点で、Y、A、またはDサブブロックのどれかが透明ピクセルのみを含むかどうかが判別される(プロセス・アクション628)。サブブロックサイズは、フレームを分類するために使用されるサイズと同じであり、この分類データは、前述の判別を行うために直接使用することができる。透明サブブロックは、プロセス・アクション630では考察対象から外される。考察されるフレーム・ブロックは少なくとも1つの不透明または部分サブブロックを含むので、またuおよびvサブブロックはフレーム・ブロックのダウン・サンプリング・バージョンであるので、これらは自動的に、非透明サブブロックであるとしてみなされることに留意されたい。
次に、残りのサブブロック(uおよびvサブブロックを含む)は、所定のパターンで順序付けされる(プロセス・アクション632)。テストされた実施形態では、順序付けは、順序番号(例えば、1、2、3、...)を、ラスター順序で非透明Yサブブロックから始まり、その後にuおよびvサブブロックが続くそれぞれのサブブロックに割り当てることを伴っていた。非透明Aサブブロックは、次に順序番号を割り当てられ、その後に非透明Dサブブロックが、それぞれラスター順序で続く。
その後、符号化は、キー・フレームの主層の符号化に関して説明されているように進行する。つまり、順序付けられたサブブロックに対し、DCT(プロセス・アクション634)、DC成分予測、および差分計算(プロセス・アクション636)、量子化(プロセス・アクション638)、符号化(プロセス・アクション640)、およびビットストリーム生成(プロセス・アクション642)が適用される。しかし、この手順は、非透明Aサブブロック・データが処理に含まれ、CBPヘッダがCBPYおよびCBPDセクションと同じように符号化されたCBPAセクションを含むように拡張されるという点で修正されている。さらに、CBPY、CBPA、およびCBPDセクションは、データ内に見つかっていたであろうサブブロックが、透明であるため排除されたかどうか、を示す。DC予測アクションで必要とされる隣接サブブロックの一部が、排除された透明サブブロックである場合があるため、アプリケーションに適した中間範囲のDC成分値が、欠損しているサブブロックのDC成分の代わりに使用されることに留意されたい。
その結果符号化されたY、u、v、A、およびDデータは、このデータを圧縮されたフレーム・データとして指定することにより、図6Cに示されているように、符号化された分類データおよびバイナリ・マスク・データとともに圧縮された境界層フレームの一部となる(プロセス・アクション644)。
次に、未選択のフレーム・ブロックが残っているかどうかが判別される(プロセス・アクション646)。残っていれば、プロセス・アクション606から646が、残りのブロックについて繰り返され、残りがなくなったら、プロセスは終了する。
1.2.2 圧縮解除
すでに示されているように、インターラクティブ視点ビデオにより、ユーザは、自分がビデオの現在の部分に示されているシーンを見るために使用したい視点を選択することができる。このユーザ選択視点は、カメラ視野の1つと一致している場合もあれば、あるいは2つのカメラ視野の間に入る可能性も高い。そこで、選択された視点から示されているシーンの画像を生成するために、ビデオの各時間フレーム集合を構成する複数の同時にキャプチャされたフレームに関連付けられている限られた量のデータのみが必要である。これにより、ビデオ・データを選択的に復号化し、圧縮解除することができる。一般に、ビデオを見るユーザによって選択された有利な地点からビデオの現在のフレームをレンダリングするために必要な受信ビデオ・データの一部だけが復号化される。このようにして、可能な最低量のデータが処理されなければならず、それによってプロセスがスピードアップし、レンダリング機能が高速化される。
必要なビデオ・データが得られたら、復号化される。一般に、前述の圧縮プロセスを介して符号化された構成要素フレームの主層および境界層データを復号化することに関連付けられた圧縮解除プロセスは、それらのプロセスの逆プロセスにすぎない。しかし、圧縮解除プロセスの一部は、一意的なアクションを含む。次に圧縮解除プロセスについて説明する。
1.2.2.1 キー・フレームの主層の圧縮解除
前述の非予測Iフレーム法を使用して圧縮された符号化キー・フレームの主層の圧縮解除は、大半が、いくつか例外はあるが、圧縮の逆である。この圧縮解除プロセスは、一般的に、符号化された所定の順序で、復号化されるフレームの所定のサイズのブロック(例えば、テストされた実施形態のように16×16)に対応する圧縮プロセス内で生成されたデータ・ストリームの各部分を取得し、その後各データ・ストリーム部分を圧縮解除することにより、実行される。
より具体的には、図7を参照すると、フレームの前述のブロックに対応するデータ・ストリームの部分毎に、その部分が拡大され、排除されたAC周波数成分をリストアすることが示されている(プロセス・アクション700)。これは、複数のゼロ(例えば、8×8周波数ブロックの場合には63個のゼロ)を、ゼロ値のAC成分が符号化された周波数ブロック・データから削除されていることをCBPヘッダが示す場所のデータ・ストリームに、追加することを伴う。その後、拡大されたデータ・ストリーム部分は、符号化したのと同じ方法に関連付けられている特定の復号化手続きを使用して復号化される(プロセス・アクション702)。例えば、MPEG4可変長Huffman符号化スキームが採用された場合、MPEG4 Huffman復号化手続きが、データ・ストリームの復号化に使用されるであろう。次に、各周波数ブロック(もしあれば)の周波数成分を順序付けする圧縮プロセスで採用されている走査パターンの逆が適用され、それらの成分は元の順序にリストアされる(プロセス・アクション704)。例えば、ジグザグ・パターンが本発明のテストされた実施形態の場合のように採用されると、逆ジグザグ走査パターンを使用して、元の成分順序をリストアする。
次に、逆DC成分予測および量子化手続きが、リストアされた周波数ブロックのそれぞれで実行される(プロセス・アクション706)。テストされた実施形態では、これは、逆交換DC予測法および逆量子化法を(MPEG−4と似た方法で)使用して実行される。このアクションの結果として、元のDC成分がそれぞれの周波数ブロックにリストアされる。次に、元のY、u、v、およびDサブブロックに対し実行されるDCTの逆がリストアされた周波数ブロックに適用され、これらのサブブロックの元のY、u、v、およびD値の近似が得られる(プロセス・アクション708)。その結果得られるuおよびvサブブロックは、アップ・サンプリングされ、プロセス・アクション710において、元のプレーン・サイズ(例えば、テストされた実施形態では16×16)に戻される。さらに、プロセス・アクション712で、YおよびDサブブロックは、圧縮時に元のプレーンを分割するために使用された順序(例えば、テストされた実施形態ではラスター順序)で結合され、元のサイズ(例えば、テストされた実施形態では16×16)のYおよびDプレーンを形成する。
最後に、Y、u、およびvピクセル値は、標準の方法を使用してRGB値に変換して戻され(プロセス・アクション714)、圧縮解除プロセスは終了する。この結果が、所定のサイズ(例えば、16×16)のピクセルのリストアされたブロックであり、それぞれのピクセルはR、G、B、およびD値を割り当てられている。
1.2.2.2 Pフレームを使用するキー・フレームの主層の圧縮解除
前述のPフレーム手続きを使用して圧縮された各同時発生の複数のフレームからなる集合内のキー・フレームの主層の圧縮解除が、従来のフレーム間圧縮解放法を使用して実行される。テストされた実施形態では、これは、MPEG4規格のPフレーム復元方式を使用することを含む。この方式に対する唯一の修正は、ディスパリティ値(D)の復元であり、これは主フレーム・ピクセル・データにこのデータが含まれているためである。Dデータは、で前述のIフレーム圧縮解除手続きの場合と同じ方法で復元され、ここでは、このデータはYデータの復元とまったく同じようにして処理される。
1.2.2.3 非キー・フレームの主層の圧縮解除
次に、前述の空間予測圧縮法を使用して圧縮された非キー・フレームの符号化された主層の圧縮解除について説明する。すでに説明したように、同時発生の複数のフレームからなる各集合の非キー・フレーム画像は、考察対象の非キー・フレーム画像を圧縮する際に基準フレームとして採用された、集合内の圧縮解除されたキー・フレームを使用して、圧縮解除される。特に、図8A〜Bを参照すると、同時発生の複数のフレームからなる各集合内のそれぞれの非キー・フレームについて、まず、その基準フレームとしてその集合内のどのキーフレーム(複数ある場合)が使用されたかが判別される(プロセス・アクション800)。これは、圧縮解除モジュールをキー・フレーム選択および関連付けルールを使用して事前プログラムすることにより実行され、これらは、キー・フレームに関連付けられているすべての非キー・フレームを識別するために使用することができる。次に、このキー・フレームの圧縮解除バージョンをYuvD形式でピクセル・データとともに入力する(プロセス・アクション802)。次に、キー・フレームのディスパリティ・データ(D)と、キー・フレームおよび圧縮解除される非キー・フレームをキャプチャするために使用されるカメラのカメラ・パラメータ(圧縮ビデオ・データに含まれている)とを使用して、そのテクスチャ・データおよびディスパリティ・データ(YuvD)の両方を圧縮解除される非キー・フレームの視点に変換する(プロセス・アクション804)。非キー・フレーム画像の圧縮の場合のように、キー・フレームの主層を圧縮解除される非キー・フレームの視点に「ワープ」するために使用されるプロセスは、従来の方法を使用して実行される。
その一方で、圧縮解除される非キー・フレームに関連付けられている圧縮された非キー・フレーム画像データが入力される(プロセス・アクション806)。非キー・フレーム・データの圧縮に関して説明されているように、画像のそれぞれの所定のサイズのブロックに対するブロック・モード指定子は、非キー・フレーム・データ内に含まれる。その後、圧縮解除される非キー・フレームのこれまで未選択のブロックは、ブロックが圧縮された順序と一致する所定の順序で選択される(プロセス・アクション808)。テストされた実施形態では、ラスター順序が使用された。次に、ブロック・データ内に含まれるブロック・モード指定子を使用して、選択されたブロックが直接ブロックであるか差分画像ブロックであるかが判別される(プロセス・アクション810)。選択されたブロックが差分画像ブロックであることがわかった場合、これは、いくつかのキー・フレームの圧縮解除に関してすでに説明されているIフレーム圧縮解除法の修正バージョンを使用して復号化される。これらの修正は、予測手続きがデータ圧縮時に実行されなかったときに逆DC予測ステップをスキップすることを伴う。さらに、標準の復号化テーブルを使用してDC成分を復号化する(MPEG4 Huffmann DC周波数成分テーブルなど)代わりに、AC周波数成分を復号化するための復号化テーブルが使用される。これらの変更以外、圧縮解除手続きは同じである。
復号化された後、差分ブロックの各ピクセルのピクセル値が、復号化されワープされたキー・フレーム画像のそれに対応して配置されたブロックの対応するピクセル値に加えられる(プロセス・アクション814)。この最後のアクションの結果は、非キー・フレーム画像の選択されたブロックのリストアされた近似である。その後、このリストアされたブロックは、そのブロックの割り当てられた位置で構成される圧縮解除フレーム内に挿入される(プロセス・アクション816)。この位置は、ブロックが圧縮された順序で決定することができる。
しかし、選択されたブロックが直接ブロックであることがわかった場合、Iフレーム圧縮解除法の別の修正バージョンを使用して復号化される(プロセス・アクション818)。この場合の修正は、圧縮解除プロセスの逆DC予測ステップを変更することを含む。より具体的には、逆DC周波数成分予測ステップを実行する際に、まず、圧縮解除される直接ブロックのDC周波数成分をリストアするために使用される隣接ブロックのそれぞれが直接ブロックであるか、または差分ブロックであるかをそれぞれ判別する。隣接ブロックが直接ブロックの場合、そのDC周波数成分は、逆DC周波数成分予測ステップで通常実行されるように使用される。しかし、隣接ブロックが差分ブロックの場合、そのDC成分は無視され、その代わりに、逆ステップでは所定の中間範囲DC周波数成分値が採用される。選択された直接ブロックが復号化された後、これは、圧縮解除される非キー・フレーム画像の一部を構成するために使用される。より具体的には、プロセス・アクション820で、復号化されたブロックが、そのブロックの割り当てられた位置に構成される圧縮解除されたフレーム内に挿入される(ブロックが圧縮された順序−テストされた実施形態でのラスター順序など−で決定できる)。
次に、圧縮解除される非キー・フレームのすべてのブロックが処理されたかどうかが判別される(プロセス・アクション822)。そうでない場合、プロセス・アクション808から822が、すべてのブロックが復号化されるまで繰り返され、復号化されると、圧縮解除プロセスは終了する。その結果は、元の非キー・フレーム画像のリストアされた近似である。
1.2.2.4 境界層データの圧縮解除
次に、前述の非予測Iフレーム方式を使用して圧縮され符号化された境界層の圧縮解除について説明する。図9A〜Cを参照すると、圧縮解除プロセスは、圧縮されたフレーム・データに含まれる分類データを復号化することから始まる(プロセス・アクション900)。これは、分類データを圧縮するために使用される手続きに適用可能な特定の復号化手続きを適用し(例えば、テストされた実施形態ではHuffmann符号化法)、その後、圧縮プロセスで使用される所定のサイズのブロック(例えば、テストされた実施形態では8×8)のそれぞれに割り当てられたカテゴリ(つまり、T、O、またはP)を取得するために逆四分木手続きを実行することを含む。
上述のように、境界層フレームの圧縮は、符号化の前に透明サブブロックを排除することを含んでいる。復号化された分類データを使用して、最終的にリストアされるようにそれらの排除されたサブブロックを識別し、サブブロックが符号化されたYuvADデータ内に見つかる順序を識別する。この目的のために、プロセス・アクション902で、圧縮プロセスで採用されている同じサイズのこれまで未選択であるフレーム・ブロックが、圧縮で使用される所定の順序で選択される。テストされた実施形態では、フレーム・ブロックは、それぞれ、16×16ピクセルであり、ラスター順序が使用された。その後、分類データから、選択されたブロックに含まれる圧縮プロセスで使用されるサイズの非透明サブブロックがあるかどうかが判別される(プロセス・アクション904)。テストされた実施形態では、サブブロックは8×8象限ブロックであった。非透明サブブロックが見つからない場合、プロセス・アクション902および904は繰り返される。非透明サブブロックを持つフレーム・ブロックが見つかった場合、(複数の)非透明サブブロックのうちこれまで未選択であったものが1つ選択され、複数ある場合には圧縮で使用される順序(例えば、テストされた実施形態ではラスター順序)となる。その後、選択されたサブブロックに対応する圧縮されたYuvADデータの部分は、考察対象のフレーム・ブロックのCBPヘッダを使用して識別される(プロセス・アクション908)。
このときに、圧縮解除手続きは、非予測Iフレーム法を使用して圧縮されたキー・フレームの主層を復号化するために使用される手続きと類似の手続きとなる。より具体的には、考察対象のフレーム・ブロックに関連付けられたCBPヘッダが、選択されたサブブロックに関連付けられた符号化された周波数ブロック・データからゼロ値AC成分が削除されたことを示す場合に、必ず、圧縮データの識別された部分は、最初に、ゼロを加えることにより拡大される(プロセス・アクション910)。拡大されたデータは、その後、プロセス・アクション912で、使用される符号化の種類(例えば、テストされた実施形態ではHuffmann符号化)に適した特定の復号化手続きを使用して復号化される。圧縮プロセスで使用される走査パターンの逆(例えば、テストされた実施形態では逆ジグザグ)を使用して、復号化された周波数成分を順序付けし、元の周波数ブロックを再現する(プロセス・アクション914)。その後、逆DC成分予測および逆量子化手続きが実行され(プロセス・アクション916)、選択された周波数ブロックの元のDC成分が出力される。次に、逆DCTが実行され、選択されたサブブロックの元のY、u、v、A、およびD値の近似が出力される(プロセス・アクション918)。その結果得られるuおよびvサブブロック・プレーンは、アップ・サンプリングされ、プロセス・アクション920において、元のサイズ(例えば、16×16)に戻される。次に、選択されたサブブロックに対応するアップ・サンプリングされたuおよびvプレーンの象限は、そのサブブロックに対するuおよびvプレーンとして指定される(プロセス・アクション922)。この結果、圧縮解除プロセスのその時点では、選択されたサブブロックの各ピクセルについて復号化されたY、u、v、A、およびD値が存在する。
次に、選択されたサブブロックのYuvピクセル値は、RGB値に変換されて戻され(プロセス・アクション924)、RGBAD値はそのサブブロックのピクセル毎に指定される。その後、選択されたサブブロックが部分ブロックとして分類されるかどうかが判定される(プロセス・アクション926)。境界層データを圧縮する際に、部分サブブロックは前述のように繰り返しパディング法を適用されている。この無関係のデータを除去するために、そのサブブロックについて生成され、圧縮フレーム・データに含まれる、バイナリ・マスクが、圧縮プロセスで使用された符号化の種類(例えば、テストされた実施形態ではHuffmann符号化)に適した復号化手続きとその後に続く逆四分木手続きを使用して、再現される(プロセス・アクション928)。その後、復号化されたマスクは、選択された部分サブブロックに適用され、すべての非不透明ピクセルは透明にされる(プロセス・アクション930)。
その後、選択されたフレーム・ブロックのすべての非透明サブブロックが処理されたかどうかが判別される(プロセス・アクション932)。処理されていなければ、プロセス・アクション906から932が、残っている非透明サブブロックのそれぞれについて繰り返される。この時点で、選択されたフレーム・ブロックのすべての非透明サブブロックは圧縮解除されている。フレーム・ブロックの他のサブブロックは完全に透明であることが知られているので、プロセス・アクション934で、すべての透明ピクセルを持つサブブロックが追加される。その後、圧縮解除される境界層フレームのすべてのフレーム・ブロックが処理されたかどうかが判別される(プロセス・アクション936)。処理されていなければ、プロセス・アクション902から936が、すべてのフレーム・ブロックが検討されるまで繰り返される。こうして、圧縮解除プロセスは終了する。
2.0 参考文献
Figure 2006067571
本発明を実装するための典型的なシステムを構成する汎用コンピューティング・デバイスを示す図である。 本発明により圧縮および圧縮解除が行われる複数のビデオ・ストリームをキャプチャするために複数のビデオ・カメラを使用する典型的なビデオ・キャプチャシ・ステムを示す図である。 本発明によりマルチ・ストリーム・ビデオ・データの同時にキャプチャされたフレームの各集合の主層が時間および空間のハイブリッド圧縮スキームを使用してどのように符号化されるかを例示するブロック図である。 本発明による非予測Iフレーム圧縮法を使用してキー・フレームの主層を圧縮するプロセスを表す流れ図である。 本発明による非予測Iフレーム圧縮法を使用してキー・フレームの主層を圧縮するプロセスを表す流れ図である。 本発明による予測空間圧縮法を使用して非キー・フレームの主層画像を圧縮するプロセスを表す流れ図である。 本発明による予測空間圧縮法を使用して非キー・フレームの主層画像を圧縮するプロセスを表す流れ図である。 本発明による非予測Iフレーム圧縮法を使用して境界層データを圧縮するプロセスを表す流れ図である。 本発明による非予測Iフレーム圧縮法を使用して境界層データを圧縮するプロセスを表す流れ図である。 本発明による非予測Iフレーム圧縮法を使用して境界層データを圧縮するプロセスを表す流れ図である。 本発明によるIフレーム圧縮解除法を使用してキー・フレームの主層を圧縮解除するプロセスを表す流れ図である。 本発明による空間圧縮解除法を使用して非キー・フレームの主層画像を圧縮解除するプロセスを表す流れ図である。 本発明による空間圧縮解除法を使用して非キー・フレームの主層画像を圧縮解除するプロセスを表す流れ図である。 本発明によるIフレーム圧縮法を使用して境界層データを圧縮解除するプロセスを表す流れ図である。 本発明によるIフレーム圧縮法を使用して境界層データを圧縮解除するプロセスを表す流れ図である。 本発明によるIフレーム圧縮法を使用して境界層データを圧縮解除するプロセスを表す流れ図である。
符号の説明
100 コンピューティング・システム環境
110 コンピュータ
120 演算処理装置
121 システム・バス
130 システム・メモリ
134 オペレーティング・システム
135 アプリケーション・プログラム
136 その他のプログラム・モジュール
137 プログラム・データ
140 取り外し不可能不揮発性メモリ・インターフェース
141 ハードディスク・ドライブ
144 オペレーティング・システム
145 アプリケーション・プログラム
146 その他のプログラム・モジュール
147 プログラム・データ
150 取り外し可能不揮発性メモリ・インターフェース
151 磁気ディスク・ドライブ
152 磁気ディスク
155 光ディスク・ドライブ
156 光ディスク
160 ユーザ入力インターフェース
161 マウス
162 キーボード
170 ネットワーク・インターフェース
171 ローカル・エリア・ネットワーク
172 モデム
173 ワイド・エリア・ネットワーク
180 リモート・コンピュータ
181 メモリ記憶デバイス
185 リモート・アプリケーション・プログラム
190 ビデオ・インターフェース
191 モニタ
192 カメラ
193 画像シーケンス
194 カメラ・インターフェース
195 出力周辺インターフェース
196 プリンタ
197 スピーカ
200 カメラ
300 キー・フレーム・カメラ視野
302 特定の非キー・フレーム
304 曲線
306 時間予測フレーム

Claims (40)

  1. 同時発生の複数のビデオ・フレームからなる順次的な複数の集合であって、1つの集合内の前記複数のビデオ・フレームは、異なる視点からの実質的に同じシーンを表し、そのそれぞれのフレームは少なくとも主層および境界層により表される、複数の集合を含むビデオ・データを圧縮するコンピュータにより実装されるプロセスであって、前記プロセスはコンピュータを使用して、
    同時発生の複数フレームからなる各集合に対し1つまたは複数のキー・フレームを指定するプロセス・アクションであって、同時発生の複数フレームからなるどれか1つの集合内のそれぞれの指定されたキー・フレームが、同時発生の複数フレームからなる前記他のすべての集合内の指定されたキー・フレームと同じである視点を持つように、指定するプロセス・アクションと、
    時間系列順序で同時発生の複数のビデオ・フレームからなる集合毎に、
    フレーム間圧縮手法を使用して各キー・フレームの前記主層を圧縮するプロセス・アクションと、
    空間予測圧縮手法を使用して各非キー・フレームの前記主層を圧縮プロセス・アクションと、
    フレーム内圧縮手法を使用して各フレームの前記境界層を圧縮するプロセス・アクションと
    を実行するプロセス・アクションと、
    を備えることを特徴とするコンピュータにより実装されるプロセス。
  2. 同時発生の複数フレームからなる各集合の各フレームは、そのピクセルがピクセル色値およびピクセル・ディスパリティまたは深度値により特徴付けられる前記主層と、そのピクセルがピクセル色値、ピクセル・アルファ値およびピクセル・ディスパリティまたは深度値により特徴付けられる前記境界層とにより表され、フレーム間圧縮法を使用して同時発生の複数フレームからなる各集合内の各キー・フレームの前記主層を圧縮する前記プロセス・アクションは、
    所定の周期をベースにして、前記第1のビデオ・フレーム集合および他の後続のフレーム集合に対し、最低でもピクセル色値、さらにはピクセル・ディスパリティまたは深度値を符号化する非予測Iフレーム圧縮法を使用して、各キー・フレームの前記主層を圧縮するアクションと、
    前記非予測Iフレーム圧縮法を使用して圧縮されない1つまたは複数のキー・フレームを含む各フレーム集合について、先行するフレーム集合内の同じ視点を示す前記キー・フレームの前記主層に基づき、最低でもピクセル色値、さらにはピクセル・ディスパリティまたは深度値を符号化する、時間予測圧縮法を使用して各キー・フレームの前記主層を圧縮するアクションと
    を備えることを特徴とする請求項1に記載のプロセス。
  3. 同時発生の複数フレームからなる各集合内の各非キー・フレームの前記主層を圧縮する前記プロセス・アクションは、最低でもピクセル色値、さらにはピクセル・ディスパリティまたは深度値を符号化する空間予測圧縮法を使用して、同時発生の複数フレームからなる各集合内の各非キー・フレームの前記主層を圧縮するアクションを備えることを特徴とする請求項2に記載のプロセス。
  4. 同時発生の複数フレームからなる各集合について1つまたは複数のキー・フレームを指定する前記プロセス・アクションは、集合内のどのフレームも指定されたキー・フレームの視点から所定の視点個数分を超えて離れないように前記1つまたは複数のキー・フレームを指定するアクションを含み、同時発生の複数フレームからなる各集合内の各非キー・フレームの前記主層を圧縮する前記プロセス・アクションは、圧縮される前記主層から前記所定の視点個数以下の個数分だけ離れているキー・フレーム位置のフレームの前記主層を前記空間予測圧縮法の基準フレームとして使用するアクションを備えることを特徴とする請求項3に記載のプロセス。
  5. 前記キー・フレームの可能な最低数が指定されることを特徴とする請求項4に記載のプロセス。
  6. 前記所定の視点個数は2であることを特徴とする請求項4に記載のプロセス。
  7. 各フレーム集合内の各フレームの前記境界層を圧縮する前記プロセス・アクションは、最低でもピクセル色値、ピクセル・ディスパリティまたは深度値、およびピクセル・アルファ値を符号化する非予測Iフレーム圧縮法を使用して、各フレーム集合内の各フレームの前記境界層を圧縮するアクションを備えることを特徴とする請求項2に記載のプロセス。
  8. 前記ピクセル色値は、RGB値であり、前記第1のビデオ・フレーム集合および他の後続のフレーム集合に対し非予測Iフレーム圧縮法を使用して各キー・フレームの前記主層を圧縮する前記プロセス・アクションは、ブロック毎に実行され、所定のサイズのフレーム・ブロック毎に、
    考察対象の前記フレーム・ブロックの前記RGB値をYuv値に変換するアクションと、
    前記フレーム・ブロックの前記uおよびvプレーンをダウン・サンプリングして、所定のサイズのサブブロックを生成するアクションと、
    前記フレーム・ブロックの前記Yおよびピクセル・ディスパリティまたは深度(D)プレーンを前記所定のサイズのサブブロックに分割するアクションと、
    前記Y、u、v、およびDサブブロックのそれぞれに、所定のパターンを介して順序番号を割り当てるアクションと、
    前記Y、u、v、およびDサブブロックのそれぞれをDCT領域に変換し、前記サブブロックと同じサイズの周波数ブロックを生成するアクションと、
    DC成分予測法を各周波数ブロックに適用し、各周波数ブロック内の前記DC成分を、隣接周波数ブロックに基づいて予測されたDC成分値と前記実際の値との前記差分を表す値で置き換えるアクションと、
    各周波数ブロックの前記AC周波数成分を量子化するアクションと、
    前記すでに割り当てられているブロック番号の順序で各周波数ブロックを符号化する符号化アクションであって、前記符号化は、所定のパターンを使用して各ブロックの前記周波数成分を順序付けし、その後Iフレーム可変長符号化法を使用して前記順序付けされた成分を符号化する、符号化アクションと、
    前記周波数ブロックの前記符号化された周波数値から、それらが符号化されている前記順序で、ビットストリームを生成するアクションと
    を含む複数のアクションを備えることを特徴とする請求項2に記載のプロセス。
  9. 各フレーム・ブロックは、サイズが16×16ピクセルであり、ラスター順序で符号化されることを特徴とする請求項8に記載のプロセス。
  10. 前記周波数成分を順序付けするために使用される前記所定のパターンは、ジグザグ・パターンであり、前記Iフレーム可変長符号化法は、MPEG4 Huffman符号化法であることを特徴とする請求項8に記載のプロセス。
  11. 前記周波数ブロックの前記符号化された周波数値からビットストリームを生成する前記プロセス・アクションは、
    データ構造体を含む各周波数ブロックに対するビットストリームを生成するアクションを備え、
    前記データ構造体は、
    Y、u v、およびDサブブロックを表す前記周波数ブロックがそれぞれ、非ゼロのAC周波数成分を持つかどうかを示すCBPY、CBPu、CBPv、およびCBPDセクションを備えるCBPヘッダ・フィールドと、
    周波数ブロックのすべての前記AC成分がゼロである場合には必ずDC差分値のみが含まれることを除き、前記周波数ブロックの前記符号化された周波数値を符号化される順序で備える符号化された周波数成分フィールドと
    を備えることを特徴とする請求項8に記載のプロセス。
  12. 前記CBPヘッダの前記CBPY、CBPu、CBPvセクションは、MPEG4に従って符号化され、前記ヘッダの前記CBPDセクションは、前記CBPYセクションの前記MPEG4符号化と同じやり方で符号化されることを特徴とする請求項11に記載のプロセス。
  13. 前記非予測Iフレーム圧縮法を使用して圧縮されない1つまたは複数のキー・フレームを含む各フレーム集合に対し、時間予測圧縮法を使用して各キー・フレームの前記主層を圧縮する前記プロセス・アクションは、前記ピクセル・ディスパリティまたは深度値を含むように修正された前記MPEG4規格のPフレーム生成方式を使用するアクションを備えることを特徴とする請求項2に記載のプロセス。
  14. 空間予測圧縮法を使用して、同時発生の複数フレームからなる各集合内の各非キー・フレームの前記主層を圧縮する前記プロセス・アクションは、
    圧縮される前記非キー・フレームから所定の視点個数分の範囲内にあるキー・フレームを識別するアクションと、
    前記識別されたキー・フレームの前記ピクセル・データを入力するアクションと、
    前記識別されたキー・フレームの前記ピクセル色値をYuv値に変換するアクションと、
    前記識別されたキー・フレームおよび圧縮される前記非キー・フレームをキャプチャするために使用されるカメラの位置、向き、およびカメラ属性を示すカメラ・パラメータを入力するアクションと、
    前記識別されたキー・フレームの深度値(D)の前記ディスパリティと、前記キー・フレームおよび圧縮解除される前記非キー・フレームをキャプチャするために使用される前記カメラの前記カメラ・パラメータとを使用して、圧縮解除される前記非キー・フレームの前記視点に前記識別されたキー・フレームをワープするアクションと、
    YuvD値を持たない前記ワープされたキー・フレームのピクセルを識別するアクションと、
    前記ワープされたキー・フレームのピクセル位置毎にYuvDピクセル値が使用可能である場合に一方の2進値を、YuvD値が存在しない場合に他方の2進値を持つバイナリ・マスクを生成するアクションと、
    所定のピクセル数だけの使用可能なYuvD値がないことを示す前記バイナリ・マスクの前記領域を拡張するアクションと、
    前記バイナリ・マスクを所定のサイズのブロックのグリッドに分割するアクションと、
    ブロック毎に、そのブロック内の前記バイナリ・マスク・ピクセルのどれもが、YuvD値が存在しない領域に関連付けられた前記第2の2進値を持つかどうかを示す、モード指定を確立するアクションと、
    前記ワープされたキー・フレームの各ピクセルの前記ピクセル値を、圧縮される前記非キー・フレーム画像の前記対応するピクセルの類似の型の値から差し引き、差分画像を出力するアクションと、
    前記非キー・フレームおよび前記差分画像を、前記バイナリ・マスクを分割するために使用されるサイズと同じサイズのブロックに、セグメント分割するアクションと、
    前記非キー・フレームおよび差分画像の対応する配置のブロック毎に、所定の順序で考察して、
    前記ブロックが、前記ブロックの前記モード指定を使用してYuvD値を持たないピクセルを備える前記ワープされたキー・フレームの領域に関連付けられているかどうかを判別し、
    前記ブロックが、YuvD値を持たないピクセルを備える前記ワープされたキー・フレームの領域に関連付けられていると判明した場合に必ず、隣接するブロックのピクセルがすべてYuvD値を持つ場合に必ず前記隣接ブロックに関連付けられる実際の値の代わりに、DC周波数成分予測フェーズで所定の中間範囲DC周波数成分値を使用するIフレーム圧縮法のあるバージョンを使用して、前記非キー・フレームの前記ブロックを符号化し、
    前記ブロックが、すべてYuvD値を持つピクセルを含む前記ワープされたキー・フレームの領域に関連付けられていると判明した場合に必ず、DC周波数成分予測フェーズがスキップされ、前記DC周波数成分を符号化するためにAC周波数成分符号化テーブルが使用されるIフレーム圧縮法のあるバージョンを使用して、前記差分画像の前記ブロックを符号化し、
    前記ブロックの前記モード指定を前記符号化された前記ブロック・データに付加する
    アクションと
    を備えることを特徴とする請求項3に記載のプロセス。
  15. 前記ピクセル色値は、RGB値であり、最低でもピクセル色値、ピクセル・ディスパリティまたは深度値、およびピクセル・アルファ値を符号化する非予測Iフレーム圧縮法を使用して各フレーム集合内の各フレームの前記境界層を圧縮する前記プロセス・アクションは、
    圧縮される前記境界層フレームの前記RGBピクセル色、ピクセル・アルファ(A)、およびピクセル・ディスパリティまたは深度(D)データを入力するアクションと、
    前記フレームの所定のサイズのカテゴリ・ブロック毎に、前記ブロックを、A値に基づいて透明、不透明、または部分的に透明で部分的に不透明(部分ブロック)と分類するアクションと、
    前記分類を符号化し、前記符号化された分類を前記圧縮された境界層データの一部として指定するアクションと、
    所定のサイズの境界層フレーム・ブロック毎に、所定の順序で
    前記カテゴリ・ブロックに対応する所定の個数の対応するサブブロックに、前記フレーム・ブロックを分割し、
    サブブロックが、透明であると分類されているカテゴリ・ブロックに対応する場合に必ず、どのようなコードも生成せず、
    サブブロックが、部分ブロックであると分類されているカテゴリ・ブロックに対応する場合に必ず、
    前記部分サブブロックに対して、不透明または透明であるかをピクセル毎に指定するバイナリ・マスクを生成し、
    前記バイナリ・マスクを符号化し、
    前記符号化されたバイナリ・マスクを前記圧縮された境界層データの一部であるとして指定し、
    前記部分サブブロックの前記透明ピクセルをフィル・インし、
    考察対象の前記フレーム・ブロックの前記RGB値をYuv値に変換し、
    前記フレーム・ブロックの前記uおよびvプレーンをダウン・サンプリングして、所定のサイズのサブブロックを生成し、
    前記フレーム・ブロックの前記Y、A、およびDプレーンを前記所定のサイズのサブブロックに分割し、
    前記Y、A、またはDサブブロックのどれかが透明ピクセルのみを含むかどうかを判別し、もしそうであれば、それらを排除し、
    前記残りのY、u、v、A、およびDサブブロックのそれぞれに、所定のパターンを介して順序番号を割り当て、
    前記Y、u、v、A、およびDサブブロックのそれぞれを前記DCT領域に変換して前記サブブロックと同じサイズの周波数ブロックを生成し、
    DC成分予測法を各周波数ブロックに適用し、各周波数ブロック内の前記DC成分を、隣接周波数ブロックに基づいて予測されたDC成分値と前記実際の値との前記差分を表す値で置き換え、
    各周波数ブロックの前記AC周波数成分を量子化し、
    前記すでに割り当てられているブロック番号の順序で各周波数ブロックを、所定のパターンを使用して各ブロックの前記周波数成分を順序付けすること、その後前記順序付けされた成分を、Iフレーム可変長符号化法を使用して符号化することを備えた符号化を実行し、
    前記周波数ブロックの前記符号化された周波数値からビットストリームをそれが符号化される順序で生成し、前記符号化された周波数値を前記圧縮された境界層データの一部であるとして指定するアクションと
    を備えることを特徴とする請求項7に記載のプロセス。
  16. 前記フレームの前記所定のサイズのカテゴリ・ブロックは8×8ピクセル・ブロックであることを特徴とする請求項15に記載のプロセス。
  17. 前記分類を符号化する前記プロセス・アクションは、
    四分木手法を適用して前記分類を符号化するアクションと、
    可変長符号化手法を使用して前記符号化された分類を圧縮するアクションと
    を備えることを特徴とする請求項15に記載のプロセス。
  18. 前記バイナリ・マスクを符号化する前記プロセス・アクションは、可変長符号化手法を使用して前記バイナリ・マスク・データを圧縮するアクションを備えることを特徴とする請求項15に記載のプロセス。
  19. 各フレーム・ブロックは、サイズが16×16ピクセルであり、ラスター順序で符号化されることを特徴とする請求項15に記載のプロセス。
  20. 前記周波数成分を順序付けするために使用される前記所定のパターンは、ジグザグ・パターンであり、前記Iフレーム可変長符号化法は、MPEG4 Huffman符号化法であることを特徴とする請求項15に記載のプロセス。
  21. 前記周波数ブロックの前記符号化された周波数値からビットストリームを生成する前記プロセス・アクションは、
    データ構造体を含む各周波数ブロックに対するビットストリームを生成するアクションを備え、前記データ構造体は、
    Y、u v、A、およびDサブブロックを表す前記周波数ブロックがそれぞれ、非ゼロのAC周波数成分を持つかどうかを示すCBPY、CBPu、CBPv、CBPA、およびCBPDセクションを備えるCBPヘッダ・フィールドと、
    周波数ブロックのすべての前記AC成分がゼロである場合には必ずDC差分値のみが含まれることを除き、前記周波数ブロックの前記符号化された周波数値を符号化される順序で備える符号化された周波数成分フィールドと
    を備えることを特徴とする請求項15に記載のプロセス。
  22. 前記CBPヘッダの前記CBPY、CBPu、CBPvセクションは、MPEG4に従って符号化され、前記ヘッダの前記CBPAおよびCBPDセクションは、前記CBPYセクションの前記MPEG4符号化と同じやり方で符号化されることを特徴とする請求項21に記載のプロセス。
  23. 請求項1に記載のプロセス・アクションを実行するためのコンピュータ実行可能命令を備えることを特徴とするコンピュータ可読媒体。
  24. 同時発生の複数ビデオ・フレームからなる順次的な複数の集合であって、1つの集合内の前記複数のビデオ・フレームは、異なる視点からの実質的に同じシーンを表し、そのそれぞれのフレームは、ピクセルがピクセル色値およびピクセル・ディスパリティまたは深度値により特徴付けられる主層およびピクセルがピクセル色値、ピクセル・アルファ値およびピクセル・ディスパリティまたは深度値により特徴付けられる境界層により表される、複数の集合を含むビデオ・データを圧縮するシステムであって、
    汎用コンピューティング・デバイスと、
    前記汎用コンピューティング・デバイスにより実行可能なプログラム・モジュールを含むコンピュータ・プログラムであって、前記コンピューティング・デバイスに、前記コンピュータ・プログラムの前記プログラム・モジュールは、
    前記ビデオ・フレーム集合のすべてに共通の1つまたは複数のキー・フレーム位置を、集合内のどのフレームも、指定されたキー・フレーム位置から所定の視点個数分を超えて離れないように指定し、
    所定の周期をベースにして、前記第1のビデオ・フレーム集合および他の後続のフレーム集合に対し、最低でもピクセル色値、さらにはピクセル・ディスパリティまたは深度値を符号化する非予測Iフレーム圧縮法を使用して、キー・フレーム位置視点を示す各フレームの前記主層を圧縮し、
    圧縮される前記主層から前記所定の視点個数以下の個数分だけ離れているキー・フレーム位置のフレームの前記主層を基準フレームとして使用し、最低でもピクセル色値、さらにはピクセル・ディスパリティまたは深度値を符号化する、空間予測圧縮法を使用してキー・フレーム位置視点を示さない各フレームの前記主層を圧縮し、
    前記非予測Iフレーム圧縮法を使用して圧縮されない1つまたは複数のキー・フレーム位置フレームを含む各フレーム集合について、先行するフレーム集合内の同じ視点を示す前記フレームの前記主層からの動き補償推定に基づき、最低でもピクセル色値、さらにはピクセル・ディスパリティまたは深度値を符号化する、時間予測圧縮法を使用してキー・フレーム位置視点を示す各フレームの前記主層を圧縮し、
    最低でもピクセル色値、ピクセル・ディスパリティまたは深度値、およびピクセル・アルファ値を符号化する非予測Iフレーム圧縮法を使用して各フレーム集合内の各フレームの前記境界層を圧縮する
    ように指令するコンピュータ・プログラムと
    を備えることを特徴とするシステム。
  25. 同時発生の複数のビデオ・フレームからなる順次的な複数の集合であって、1つの集合内の前記ビデオ・フレームは、異なる視点からの実質的に同じシーンを表し、そのそれぞれのフレームは少なくとも主層および境界層により表される、複数の集合を含むビデオ・データを圧縮解除するコンピュータにより実装されるプロセスであって、
    前記ビデオ・データは、
    同時発生の複数のフレームからなる各集合に対し1つまたは複数のキー・フレームを、同時発生の複数のフレームからなるどれか1つの集合内のそれぞれの指定されたキー・フレームが、同時発生の複数のフレームからなる前記他のすべての集合内の指定されたキー・フレームと同じである視点を持つように、指定すること、
    フレーム間圧縮手法を使用して、同時発生の複数のフレームからなる各集合内の各キー・フレームの前記主層を圧縮すること、
    空間予測圧縮手法を使用して同時発生の複数のフレームからなる各集合内の各非キー・フレームの前記主層を圧縮すること、および
    フレーム内圧縮手法を使用して各フレーム集合内の各フレームの前記境界層を圧縮すること
    により圧縮されているビデオ・データであり、
    前記プロセスは、コンピュータを使用して、
    フレーム内圧縮解除手法を使用して各フレーム集合内の各フレームの前記境界層を圧縮解除するプロセス・アクションと、
    フレーム間圧縮解除手法を使用して同時発生の複数のフレームからなる各集合内の各キー・フレームの前記主層を圧縮解除するプロセス・アクションと、
    空間予測圧縮解除手法を使用して同時発生の複数のフレームからなる各集合内の各非キー・フレームの前記主層を圧縮解除するプロセス・アクションと
    を実行することを備えることを特徴とするコンピュータにより実装されるプロセス。
  26. 同時発生の複数のフレームからなる各集合の各フレームは、そのピクセルがピクセル色値およびピクセル・ディスパリティ値により特徴付けられる前記主層と、およびそのピクセルがピクセル色値、ピクセル・アルファ値およびピクセル・ディスパリティ値により特徴付けられる前記境界層とにより表され、フレーム間圧縮解除法を使用して同時発生の複数のフレームからなる各集合内の各キー・フレームの前記主層を圧縮解除する前記プロセス・アクションは、
    所定の周期をベースにして、前記第1のビデオ・フレーム集合および他の後続のフレーム集合に対し、最低でも前記元のピクセル色値、さらにはピクセル・ディスパリティまたは深度値の近似を復元する非予測Iフレーム圧縮法を使用して、各キー・フレームの前記主層を圧縮解除するアクションと、
    前記非予測Iフレーム圧縮法を使用して圧縮されない1つまたは複数のキー・フレームを含む各フレーム集合について、他のフレーム集合内の同じ視点を示す前記キー・フレームの前記主層に基づき、最低でも前記元のピクセル色値、さらにはピクセル・ディスパリティまたは深度値の近似を復元する、時間予測圧縮解除法を使用して各キー・フレームの前記主層を圧縮解除するアクションと
    を備えることを特徴とする請求項25に記載のプロセス。
  27. 空間予測圧縮解除法を使用して同時発生の複数のフレームからなる各集合内の各非キー・フレームの前記主層を圧縮解除する前記プロセス・アクションは、最低でも前記元のピクセル色値、さらにはピクセル・ディスパリティまたは深度値の近似を復元する空間予測圧縮解除法を使用して同時発生の複数のフレームからなる各集合内の各非キー・フレームの前記主層を圧縮解除するアクションを備えることを特徴とする請求項26に記載のプロセス。
  28. 同時発生の複数のフレームからなる各集合について指定される前記1つまたは複数のキー・フレームは、集合内のどのフレームも指定されたキー・フレームの視点から所定の視点個数分を超えて離れないように指定され、同時発生の複数のフレームからなる各集合内の各非キー・フレームの前記主層を圧縮解除する前記プロセス・アクションは、圧縮解除される前記主層から前記所定の視点個数以下の個数分だけ離れているキー・フレーム位置のフレームの前記主層を前記空間予測圧縮解除法の基準フレームとして使用するアクションを備えることを特徴とする請求項27に記載のプロセス。
  29. フレーム内圧縮解除法を使用して各フレーム集合内の各フレームの前記境界層を圧縮解除する前記プロセス・アクションは、最低でも前記元のピクセル色値、ピクセル・ディスパリティまたは深度値、およびピクセル・アルファ値の近似を復元する非予測Iフレーム圧縮解除法を使用して各フレーム集合内の各フレームの前記境界層を圧縮解除するアクションを備えることを特徴とする請求項26に記載のプロセス。
  30. 所定の周期をベースにして、前記第1のビデオ・フレーム集合および他の後続のフレーム集合に対し、非予測Iフレーム圧縮法を使用して各キー・フレームの前記主層を圧縮解除する前記プロセス・アクションは、
    考察対象の前記キー・フレームの前記主層の圧縮時に生成されたデータ・ストリームを入力するアクションと、
    前記キー・フレームの所定のサイズのフレーム・ブロックに対応する前記データ・ストリームの部分毎に、所定の順序で考察して、
    ゼロを加えて圧縮時に削除されたゼロ値AC成分を置き換えることにより考察対象の前記データ・ストリーム部分を拡大し、
    前記拡大されたデータ・ストリーム部分を復号化して、所定のサイズの複数の周波数ブロックからなる順序付けされたバージョンであって、前記周波数ブロックと同じサイズであるYuv値の形式のピクセル色値、およびピクセル・ディスパリティまたは深度値(D)により特徴付けられたピクセルの符号化されたサブブロックを表すバージョンをリストアし、
    圧縮で使用された順序付けパターンの逆を使用して、各周波数ブロックの前記周波数成分を、圧縮前のその順序にリストアし、
    前記リストアされた周波数ブロックのそれぞれに対し逆DC成分予測手続きを実行して、各周波数ブロックの前記元のDC成分の量子化バージョンをリストアし、
    前記量子化された周波数ブロックのそれぞれに対し逆量子化手続きを実行して、各周波数ブロックの前記元のDC成分を実質的にリストアし、
    圧縮時に前記Y、u、v、およびDサブブロックに対し実行されたDCTの逆を実行して、前記周波数ブロックを出力し、前記サブブロックの前記Y、u、v、およびD値の近似をリストアし、
    圧縮時にダウン・サンプリングされたのと同じ倍率で前記uおよびvサブブロックをアップ・サンプリングし、それらを元の所定のプレーン・サイズに戻し、
    圧縮時に前記元のYプレーンを分割するために使用されたのと同じ順序で前記Yサブブロックを結合して、リストアされたYプレーンを形成し、
    圧縮時に前記元のDプレーンを分割するために使用されたのと同じ順序で前記Dサブブロックを結合して、リストアされたDプレーンを形成し、
    前記Y、u、およびvピクセル値をRGB値に変換し、
    考察対象の前記キー・フレームのリストアされたフレーム・ブロックとして、前記リストアされたRGBおよびD値から形成されたピクセルの前記ブロックを指定する
    複数のアクションとを備えることを特徴とする請求項26に記載のプロセス。
  31. 前記所定のサイズのフレーム・ブロックだけでなく、前記リストアされたフレーム・ブロック、元のuおよびvプレーン、YプレーンおよびDプレーンは、すべて16×16ピクセル・ブロックであり、前記所定の順序は、ラスター順序であることを特徴とする請求項30に記載のプロセス。
  32. 前記キー・フレームの前記所定のサイズのフレーム・ブロックに対応する前記データ・ストリームの各部は、圧縮時において、前記Y、u v、およびDサブブロックを表す前記周波数ブロックがそれぞれ、非ゼロAC周波数成分を持つかどうかを示すCBPY、CBPu、CBPv、およびCBPDセクションを備えるCBPヘッダ・フィールドと、周波数ブロックの前記すべてのAC成分がゼロである場合に必ずDC差分値のみが含まれることを除き、前記周波数ブロックの前記符号化された周波数値を符号化された順序で含む符号化された周波数成分フィールドとを持つデータ構造を形成することを備えて生成されており、圧縮時に削除されたゼロ値AC成分を、ゼロを加えて置き換えることにより考察対象の前記データ・ストリーム部分を拡大する前記プロセス・アクションは、ゼロ値AC成分が前記符号化された周波数ブロックから削除されていることを前記CBPヘッダが示す場所の周波数ブロックに割り当てられたAC成分の個数に等しくするために必要な個数のゼロを加えるアクションを備えることを特徴とする請求項30に記載のプロセス。
  33. 前記周波数ブロックおよび前記サブブロックは、8×8ピクセル・ブロックであることを特徴とする請求項30に記載のプロセス。
  34. 前記非予測Iフレーム圧縮法を使用して圧縮されない1つまたは複数のキー・フレームを含む各フレーム集合に対し時間予測圧縮解除法を使用して各キー・フレームの前記主層を圧縮解除する前記プロセス・アクションは、ピクセル・ディスパリティまたは深度値を前記復元することを含むように修正された前記MPEG4規格のPフレーム圧縮解除方式を使用するアクションを備えることを特徴とする請求項26に記載のプロセス。
  35. 空間予測圧縮解除法を使用して同時発生の複数のフレームからなる各集合内の各非キー・フレームの前記主層を圧縮解除する前記プロセス・アクションは、
    圧縮解除される前記非キー・フレームの前記圧縮時に基準フレームとして使用された同時発生の複数のフレームからなる前記集合内のキー・フレームを識別するアクションと、
    YuvD形式のピクセル・データを持つ前記識別されたキー・フレームの圧縮解除バージョンを入力するアクションと、
    前記識別されたキー・フレームおよび圧縮解除される前記非キー・フレームをキャプチャするために使用される前記カメラの位置、向き、およびカメラ属性を示すカメラ・パラメータを入力するアクションと、
    前記識別されたキー・フレームの深度値(D)の前記ディスパリティと、前記キー・フレームおよび圧縮解除される前記非キー・フレームをキャプチャするために使用される前記カメラの前記カメラ・パラメータとを使用して、圧縮解除される前記非キー・フレームの前記視点に前記識別されたキー・フレームをワープするアクションと、
    前記ワープされたキー・フレームの対応する配置のブロック内の前記ピクセルのどれもyuv値を持たないかを示す、前記非キー・フレームのそれぞれの所定のサイズのブロックに対する、モード指定子を備える圧縮解除される前記非キー・フレームに関連付けられている圧縮データを入力するアクションと、
    圧縮解除される前記非キー・フレームのブロック毎に、前記ブロックが圧縮された前記順序と一致する所定の順序で考察して、
    前記ワープされたキー・フレームの前記対応する配置のブロックが、すべてのピクセルについてYuvD値を持つことを前記ブロックの前記モード指定子が示す場合に必ず、逆DC周波数成分予測ステップがスキップされ、前記DC周波数成分を復号化するためにAC周波数成分復号化テーブルが使用されるIフレーム圧縮解除法の修正バージョンを使用して前記ブロックを復号化し、その後、前記復号化されたブロックの各ピクセルの前記ピクセル値を、前記ワープされたキー・フレームの対応する配置のブロックの対応するピクセル値に加え、
    前記ワープされたキー・フレームの前記対応する配置のブロックがYuvD値を持たないピクセルを含むことを前記ブロックの前記モード指定子が示している場合には必ず、DC周波数成分予測フェーズは隣接ブロックのピクセルがすべてYuvD値を持つ場合に前記隣接ブロックに関連付けられる実際の値の代わりに、所定の中間範囲DC周波数成分値を使用するIフレーム圧縮解除法の異なる修正バージョンを使用して、前記ブロックを復号し、
    前記復号化されたブロックを前記元の非キー・フレーム内のその位置に対応する前記圧縮解除された非キー・フレーム内の位置に割り当てる
    アクションと
    を備えることを特徴とする請求項27に記載のプロセス。
  36. 非予測Iフレーム圧縮解除法を使用して各フレーム集合内の各フレームの前記境界層を圧縮解除する前記プロセス・アクションは、
    前記境界層の圧縮時に生成されたデータ・ストリームを入力するアクションと、
    前記データ・ストリームに含まれる分類データを復号化するアクションと、
    前記境界層の所定のサイズのフレーム・ブロックに対応する前記データ・ストリームの部分毎に、所定の順序で考察して、
    前記分類データから、考察対象の前記フレーム・ブロック内に含まれる非透明の所定のサイズのサブブロックがあるかどうかを判別し、
    前記フレーム・ブロック内に非透明サブブロックがあると判明した場合には必ず、
    (a)前記フレーム・ブロックのこれまで未選択の非透明サブブロックを所定の順序で選択し、
    (b)前記選択された非透明サブブロックに対応する圧縮されたDCT周波数ブロック・データを含むデータ・ストリームの一部分を識別し、
    (c)ゼロを加えて圧縮時に削除されたゼロ値AC周波数成分を置き換ることにより前記圧縮されたDCT周波数ブロック・データの前記現在識別されている部分を拡大し、
    (d)前記拡大された周波数ブロック・データを復号化して、所定のサイズの複数の周波数ブロックの順序付けされたバージョンであって、前記周波数ブロックと同じサイズであるYuv値の形式のピクセル色値、ピクセル・アルファ値(A)、およびピクセル・ディスパリティまたは深度値(D)により特徴付けられたピクセルの符号化されたサブブロックを表すバージョンをリストアし、
    (e)圧縮で使用された順序付けパターンの逆を使用して、各周波数ブロックの前記周波数成分を圧縮前のその順序にリストアし、
    (f)前記リストアされた周波数ブロックのそれぞれに対し逆DC成分予測手続きを実行して各周波数ブロックの前記元のDC成分の量子化バージョンにリストアし、
    (g)前記量子化された周波数ブロックのそれぞれに対し逆量子化手続きを実行して各周波数ブロックの前記元のDC成分に実質的にリストアし、
    (h)圧縮時に前記選択されたサブブロックのY、u、v、A、およびDプレーンに対し実行されたDCTの逆を実行して、前記それらの周波数ブロックを出力し、前記プレーンの前記Y、u、v、A、およびD値の近似をリストアし、
    (i)圧縮時にダウン・サンプリングされたのと同じ倍率で前記uおよびvプレーンをアップ・サンプリングし、それらを元の所定のプレーン・サイズに戻し、
    (j)そのサブブロックに対する前記uおよびvプレーンとして前記選択されたサブブロックに対応する前記アップ・サンプリングされたuおよびvプレーンの前記象限を指定し、
    (k)前記選択されたサブブロックの前記Y、u、およびvピクセル値をRGB値に変換し、
    (l)前記選択されたサブブロックが部分ブロックとして分類されているかどうかを判別し、
    (m)前記選択されたサブブロックが部分ブロックであると判断された場合には必ず、前記サブブロックについて生成され、前記データ・ストリームに含まれる前記圧縮されたバイナリ・マスクを復号化し、前記マスクを前記サブブロックに適用して、前記すべての非不透明ピクセルを透明にし、
    (n)考察対象の前記フレーム・ブロック内の前記すべての非透明サブブロックが選択され、処理されるまでアクション(a)から(n)を繰り返し、
    すべての透明ピクセルを持つサブブロックを、非透明サブブロックにより占有されていない位置にある考察対象の前記フレーム・ブロックに追加するアクションと
    を備えることを特徴とする請求項29に記載のプロセス。
  37. 分類データを復号化する前記プロセス・アクションは、
    圧縮時に前記分類データを圧縮するために使用される前記手続きに適用可能な復号化手続きを適用するアクションと、
    逆四分木手続きを実行して、前記境界層の各所定のサイズのブロックに割り当てられた前記カテゴリを取得するアクションとを備えることを特徴とする請求項36に記載のプロセス。
  38. 圧縮されたバイナリ・マスクを復号化する前記プロセス・アクションは、
    圧縮時に前記分類データを圧縮するために使用される前記手続きに適用可能な復号化手続きを適用するアクションと、
    逆四分木手続きを実行するアクションと
    を備えることを特徴とする請求項36に記載のプロセス。
  39. 請求項25に記載のプロセス・アクションを実行するためのコンピュータ実行可能命令を備えることを特徴とするコンピュータ可読媒体。
  40. 同時発生の複数のビデオ・フレームからなる順次集合であって、一つの集合内の前記ビデオ・フレームは、異なる視点から実質的に同じシーンを表し、その各フレームは、ピクセルがピクセル色値およびピクセル・ディスパリティまたは深度値により特徴付けられる主層と、ピクセルがピクセル色値、ピクセル・アルファ値およびピクセル・ディスパリティまたは深度値により特徴付けられる境界層とにより表される順次集合を含むビデオ・データを圧縮解除するシステムであって、前記ビデオ・データは、
    前記ビデオ・フレーム集合すべてに共通の1つまたは複数のキー・フレーム位置を、集合内のどのフレームも、指定されたキー・フレーム位置から所定の視点個数分を超えて離れていないように、指定すること、
    所定の周期をベースにして、前記第1のビデオ・フレーム集合および他の後続のフレーム集合に対し、最低でもピクセル色値、さらにはピクセル・ディスパリティまたは深度値を符号化する非予測Iフレーム圧縮法を使用して、キー・フレーム位置視点を示す各フレームの前記主層を圧縮すること、
    圧縮される前記主層から前記所定の視点個数以下の個数分だけ離れているキー・フレーム位置フレームの前記主層を基準フレームとして使用し、最低でもピクセル色値、さらにはピクセル・ディスパリティまたは深度値を符号化する空間予測圧縮法を使用して、キー・フレーム位置視点を示さない各フレームの前記主層を圧縮すること、
    前記非予測Iフレーム圧縮法を使用して1つまたは複数のキー・フレーム位置フレームが圧縮される各フレーム集合について、先行するフレーム集合内の同じ視点を示す前記フレームの前記主層からの動き補償推定に基づき、最低でもピクセル色値、さらにはピクセル・ディスパリティまたは深度値を符号化する時間予測法を使用して、キー・フレーム位置視点を示す各フレームの前記主層を圧縮すること、および
    最低でもピクセル色値、ピクセル・ディスパリティまたは深度値、およびピクセル・アルファ値を符号化する非予測Iフレーム圧縮法を使用して、各フレーム集合内の各フレームの前記境界層を圧縮すること
    により圧縮されており、
    前記システムは、
    汎用コンピューティング・デバイスと、
    前記汎用コンピューティング・デバイスにより実行可能なプログラム・モジュールを含むコンピュータ・プログラムであって、前記コンピューティング・デバイスに、前記コンピュータ・プログラムの前記プログラム・モジュールは、
    最低でも前記元のピクセル色値、ピクセル・ディスパリティまたは深度値、およびピクセル・アルファ値の近似を復元する非予測Iフレーム圧縮解除法を使用して、各フレーム集合内の各フレームの前記境界層を圧縮解除し、
    前記第1のビデオ・フレーム集合および他の周期的な後続のフレーム集合に対し、最低でも前記元のピクセル色値、さらにはピクセル・ディスパリティまたは深度値の近似を復元する非予測Iフレーム圧縮解除法を使用して、キー・フレーム位置視点を示す各フレームの前記主層を圧縮解除し、
    圧縮解除される前記主層から前記所定の視点個数以下の個数分だけ離れているキー・フレーム位置フレームの前記主層を、基準フレームとして使用し、最低でも前記元のピクセル色値およびピクセル・ディスパリティまたは深度値の近似を復元する空間予測圧縮解除法を使用して、キー・フレーム位置視点を示さない各フレームの前記主層を圧縮解除し、
    前記非予測Iフレーム圧縮法を使用して圧縮されない1つまたは複数のキー・フレーム位置フレームを含む各フレーム集合について、先行するフレーム集合内の同じ視点を示す前記フレームの前記主層からの動き補償推定を採用し、最低でも前記元のピクセル色値およびピクセル・ディスパリティまたは深度値の近似を復元する、時間予測圧縮解除法を使用して、キー・フレーム位置視点を示す各フレームの前記主層を圧縮解除する
    よう指令するコンピュータ・プログラムと
    を備えることを特徴とするシステム。
JP2005222022A 2004-08-03 2005-07-29 空間および時間符号化を使用して複数の階層化ビデオ・ストリームの圧縮および圧縮解除を行うためのシステムおよびプロセス Active JP4878451B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/910,077 US7561620B2 (en) 2004-08-03 2004-08-03 System and process for compressing and decompressing multiple, layered, video streams employing spatial and temporal encoding
US10/910,077 2004-08-03

Publications (2)

Publication Number Publication Date
JP2006067571A true JP2006067571A (ja) 2006-03-09
JP4878451B2 JP4878451B2 (ja) 2012-02-15

Family

ID=35203351

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005222022A Active JP4878451B2 (ja) 2004-08-03 2005-07-29 空間および時間符号化を使用して複数の階層化ビデオ・ストリームの圧縮および圧縮解除を行うためのシステムおよびプロセス

Country Status (3)

Country Link
US (4) US7561620B2 (ja)
EP (1) EP1624675B1 (ja)
JP (1) JP4878451B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100803862B1 (ko) 2006-09-29 2008-02-14 주식회사 팬택앤큐리텔 이종 네트워크 환경에서 수직적 핸드오프시의 비디오 전송중단을 방지하기 위한 비디오 전송방법
KR101452862B1 (ko) * 2013-04-02 2014-10-23 삼성전자주식회사 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
US8953682B2 (en) 2009-08-14 2015-02-10 Samsung Electronics Co., Ltd. Method and apparatus for encoding video, and method and apparatus for decoding video
JP2015521445A (ja) * 2012-06-01 2015-07-27 アルカテル−ルーセント ビデオストリームを符号化するための方法および装置
JP2016519501A (ja) * 2013-04-05 2016-06-30 ブリティッシュ・ブロードキャスティング・コーポレーションBritish Broadcasting Corporation 合成画像の送信および受信

Families Citing this family (92)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4501631B2 (ja) * 2004-10-26 2010-07-14 日本電気株式会社 画像符号化装置及び方法、画像符号化装置のコンピュータ・プログラム、並びに携帯端末
WO2006067731A1 (en) * 2004-12-22 2006-06-29 Koninklijke Philips Electronics N.V. Video stream modifier
KR100779875B1 (ko) * 2005-01-14 2007-11-27 주식회사 휴맥스 다-시점 코딩을 위한 참조 프레임 순서 설정 방법 및 그방법을 기록한 기록매체
EP1900216A2 (en) * 2005-05-12 2008-03-19 Tenebraex Corporation Improved methods of creating a virtual window
US8189908B2 (en) * 2005-09-02 2012-05-29 Adobe Systems, Inc. System and method for compressing video data and alpha channel data using a single stream
WO2007081713A1 (en) * 2006-01-09 2007-07-19 Thomson Licensing Method and apparatus for providing reduced resolution update mode for multi-view video coding
KR100754205B1 (ko) * 2006-02-07 2007-09-03 삼성전자주식회사 다시점 동영상 부호화 장치 및 방법
US8295349B2 (en) * 2006-05-23 2012-10-23 Flextronics Ap, Llc Methods and apparatuses for video compression intra prediction mode determination
KR101311403B1 (ko) * 2006-07-04 2013-09-25 삼성전자주식회사 영상의 부호화 방법 및 장치, 복호화 방법 및 장치
US8446509B2 (en) * 2006-08-09 2013-05-21 Tenebraex Corporation Methods of creating a virtual window
US8582658B2 (en) * 2007-05-11 2013-11-12 Raritan Americas, Inc. Methods for adaptive video quality enhancement
US20080316221A1 (en) * 2007-06-19 2008-12-25 Aas Eric F Down-sampled image display
US8266251B2 (en) * 2007-07-30 2012-09-11 Nec Corporation Communication terminal, distribution system, method for conversion and program
US20090060043A1 (en) * 2007-08-29 2009-03-05 Geert Nuyttens Multiviewer based on merging of output streams of spatio scalable codecs in a compressed domain
TW200910937A (en) * 2007-08-29 2009-03-01 Imagia Technologies Co Ltd The generation device of continuous crisscross scenes
US8127233B2 (en) * 2007-09-24 2012-02-28 Microsoft Corporation Remote user interface updates using difference and motion encoding
US20090290033A1 (en) * 2007-11-16 2009-11-26 Tenebraex Corporation Systems and methods of creating a virtual window
WO2009064504A1 (en) * 2007-11-16 2009-05-22 Tenebraex Corporation Systems and methods of creating a virtual window
US8791984B2 (en) * 2007-11-16 2014-07-29 Scallop Imaging, Llc Digital security camera
WO2009108028A1 (ko) * 2008-02-28 2009-09-03 엘지전자(주) 자유시점 영상 복호화 방법 및 장치
EP2266322A2 (en) * 2008-04-25 2010-12-29 Thomson Licensing Coding of depth signal
WO2009139569A2 (ko) * 2008-05-13 2009-11-19 엘지전자(주) 비디오 신호 디코딩 방법 및 장치
KR101591085B1 (ko) * 2008-05-19 2016-02-02 삼성전자주식회사 영상 파일 생성 및 재생 장치 및 방법
FR2933565A1 (fr) * 2008-07-01 2010-01-08 France Telecom Procede et dispositif de codage d'une sequence d'images mettant en oeuvre une prediction temporelle, signal, support de donnees, procede et dispositif de decodage, et produit programme d'ordinateur correspondants
CN102124742B (zh) 2008-08-20 2013-09-11 汤姆逊许可公司 精制深度图
EP2348733A4 (en) * 2008-10-27 2012-09-12 Lg Electronics Inc METHOD AND APPARATUS FOR THE SYNTHESIS OF VIRTUAL VISUALIZATION IMAGES
US8125524B2 (en) * 2008-12-12 2012-02-28 Nxp B.V. System and method for the detection of de-interlacing of scaled video
CN102272778B (zh) 2009-01-07 2015-05-20 汤姆森特许公司 联合深度估计
WO2010092740A1 (ja) * 2009-02-10 2010-08-19 パナソニック株式会社 画像処理装置、画像処理方法、プログラムおよび集積回路
US8164617B2 (en) * 2009-03-25 2012-04-24 Cisco Technology, Inc. Combining views of a plurality of cameras for a video conferencing endpoint with a display wall
US8761268B2 (en) * 2009-04-06 2014-06-24 Intel Corporation Selective local adaptive wiener filter for video coding and decoding
US20110069148A1 (en) * 2009-09-22 2011-03-24 Tenebraex Corporation Systems and methods for correcting images in a multi-sensor system
KR101365329B1 (ko) * 2009-11-23 2014-03-14 제너럴 인스트루먼트 코포레이션 비디오 시퀀스로의 추가 채널로서의 깊이 코딩
KR20110064722A (ko) * 2009-12-08 2011-06-15 한국전자통신연구원 영상 처리 정보와 컬러 정보의 동시 전송을 위한 코딩 장치 및 방법
US9253447B2 (en) * 2009-12-29 2016-02-02 Kodak Alaris Inc. Method for group interactivity
KR101628383B1 (ko) * 2010-02-26 2016-06-21 연세대학교 산학협력단 영상 처리 장치 및 방법
US8601056B2 (en) * 2010-03-09 2013-12-03 Avistar Communications Corporation Scalable high-performance interactive real-time media architectures for virtual desktop environments
KR101289269B1 (ko) * 2010-03-23 2013-07-24 한국전자통신연구원 영상 시스템에서 영상 디스플레이 장치 및 방법
US8538177B2 (en) 2010-07-30 2013-09-17 Microsoft Corporation Line and pixel based methods for intra frame coding
CN103636228A (zh) * 2011-04-28 2014-03-12 三星电子株式会社 用于调整无线通信系统中的数据发送速率的方法和设备
KR101569602B1 (ko) * 2011-05-05 2015-11-16 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 렌즈형 지향성 디스플레이
US9460551B2 (en) * 2011-08-10 2016-10-04 Telefonaktiebolaget Lm Ericsson (Publ) Method and apparatus for creating a disocclusion map used for coding a three-dimensional video
CN104883576B (zh) * 2011-08-29 2017-11-14 苗太平洋控股有限公司 以amvp模式产生预测区块的方法
US8872895B2 (en) * 2011-09-30 2014-10-28 Deutsche Telekom Ag Real-time video coding using graphics rendering contexts
US8928969B2 (en) 2011-12-06 2015-01-06 Ostendo Technologies, Inc. Spatio-optical directional light modulator
US8854724B2 (en) 2012-03-27 2014-10-07 Ostendo Technologies, Inc. Spatio-temporal directional light modulator
KR20130074383A (ko) * 2011-12-26 2013-07-04 삼성전자주식회사 다중-레이어 표현을 사용하는 영상 처리 방법 및 장치
US9152303B2 (en) 2012-03-01 2015-10-06 Harris Corporation Systems and methods for efficient video analysis
US9311518B2 (en) 2012-03-01 2016-04-12 Harris Corporation Systems and methods for efficient comparative non-spatial image data analysis
US9135338B2 (en) 2012-03-01 2015-09-15 Harris Corporation Systems and methods for efficient feature based image and video analysis
US20130271565A1 (en) * 2012-04-16 2013-10-17 Qualcomm Incorporated View synthesis based on asymmetric texture and depth resolutions
US9860555B2 (en) * 2012-05-22 2018-01-02 Lg Electronics Inc. Method and apparatus for processing video signal
US9448064B2 (en) 2012-05-24 2016-09-20 Qualcomm Incorporated Reception of affine-invariant spatial mask for active depth sensing
US9767598B2 (en) 2012-05-31 2017-09-19 Microsoft Technology Licensing, Llc Smoothing and robust normal estimation for 3D point clouds
US9846960B2 (en) 2012-05-31 2017-12-19 Microsoft Technology Licensing, Llc Automated camera array calibration
US20130321564A1 (en) 2012-05-31 2013-12-05 Microsoft Corporation Perspective-correct communication window with motion parallax
US9179126B2 (en) 2012-06-01 2015-11-03 Ostendo Technologies, Inc. Spatio-temporal light field cameras
US9979960B2 (en) 2012-10-01 2018-05-22 Microsoft Technology Licensing, Llc Frame packing and unpacking between frames of chroma sampling formats with different chroma resolutions
US8976224B2 (en) 2012-10-10 2015-03-10 Microsoft Technology Licensing, Llc Controlled three-dimensional communication endpoint
KR20140121315A (ko) 2013-04-04 2014-10-15 한국전자통신연구원 참조 픽처 리스트를 이용한 다 계층 기반의 영상 부호화/복호화 방법 및 그 장치
RU2652099C2 (ru) 2013-07-05 2018-04-25 Сони Корпорейшн Устройство передачи, способ передачи, устройство приема и способ приема
US9418469B1 (en) * 2013-07-19 2016-08-16 Outward, Inc. Generating video content
US9392293B2 (en) * 2014-05-21 2016-07-12 Alcatel Lucent Accelerated image processing
KR20160031717A (ko) * 2014-09-15 2016-03-23 삼성전자주식회사 전면 송풍방식 공기조화장치
US10521472B2 (en) * 2015-02-27 2019-12-31 Realnetworks, Inc. Composing media stories method and system
US10204449B2 (en) * 2015-09-01 2019-02-12 Siemens Healthcare Gmbh Video-based interactive viewing along a path in medical imaging
US10045023B2 (en) * 2015-10-09 2018-08-07 Telefonaktiebolaget Lm Ericsson (Publ) Cross component prediction in video coding
US10277921B2 (en) * 2015-11-20 2019-04-30 Nvidia Corporation Hybrid parallel decoder techniques
EP3273686A1 (en) 2016-07-21 2018-01-24 Thomson Licensing A method for generating layered depth data of a scene
JP6894687B2 (ja) * 2016-10-11 2021-06-30 キヤノン株式会社 画像処理システム、画像処理装置、制御方法、及び、プログラム
US10368080B2 (en) 2016-10-21 2019-07-30 Microsoft Technology Licensing, Llc Selective upsampling or refresh of chroma sample values
CN109348226B (zh) * 2017-04-08 2022-11-11 腾讯科技(深圳)有限公司 一种图片文件处理方法及智能终端
US10636201B2 (en) * 2017-05-05 2020-04-28 Disney Enterprises, Inc. Real-time rendering with compressed animated light fields
CN108121973A (zh) * 2017-12-25 2018-06-05 江苏易乐网络科技有限公司 基于主成分分析的运动捕捉数据关键帧提取方法
US10417806B2 (en) * 2018-02-15 2019-09-17 JJK Holdings, LLC Dynamic local temporal-consistent textured mesh compression
EP3756163B1 (en) * 2018-02-23 2022-06-01 Sony Group Corporation Methods, devices, and computer program products for gradient based depth reconstructions with robust statistics
CN110881140B (zh) * 2018-09-05 2022-01-21 北京高德云图科技有限公司 从视频中截取图片的方法、装置及嵌入式设备、存储介质
WO2020072665A1 (en) * 2018-10-02 2020-04-09 Futurewei Technologies, Inc. Hierarchical tree attribute coding in point cloud coding
US11228790B2 (en) * 2018-11-30 2022-01-18 Kt Corporation Providing time slice video
US10896523B2 (en) * 2019-04-01 2021-01-19 Microsoft Technology Licensing, Llc Depth image compression
EP3745706B1 (en) 2019-05-29 2021-06-30 Axis AB System and method for video processing with picture stabilization and predictive compression
KR102680385B1 (ko) * 2019-10-30 2024-07-02 삼성전자주식회사 멀티 렌즈 영상 복원 장치 및 방법
CN111246217B (zh) * 2020-01-19 2022-02-01 中国石油大学(华东) 基于八度卷积的压缩视频动作识别方法
CN111654706B (zh) * 2020-05-06 2022-06-28 山东浪潮科学研究院有限公司 一种视频压缩方法、装置、设备及介质
US11941752B2 (en) * 2020-07-21 2024-03-26 Nvidia Corporation Streaming a compressed light field
CN111800653B (zh) * 2020-07-29 2021-06-11 北京大学深圳研究生院 视频解码方法、系统、设备及计算机可读存储介质
CN112040248B (zh) * 2020-08-31 2022-04-29 重庆锐明信息技术有限公司 视频压缩方法、系统、终端设备及存储介质
US11501467B2 (en) * 2020-11-03 2022-11-15 Nvidia Corporation Streaming a light field compressed utilizing lossless or lossy compression
CN112104869B (zh) * 2020-11-10 2021-02-02 光谷技术有限公司 一种视频大数据存储及转码优化系统
WO2022109916A1 (zh) * 2020-11-26 2022-06-02 深圳市大疆创新科技有限公司 图像编码方法、解码方法、装置、图像处理系统、可移动平台、图传系统及存储介质
CN115037936A (zh) * 2021-03-04 2022-09-09 华为技术有限公司 视频编解码方法及装置
CN115134629B (zh) * 2022-05-23 2023-10-31 阿里巴巴(中国)有限公司 视频传输方法、系统、设备及存储介质

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09182083A (ja) * 1995-12-27 1997-07-11 Matsushita Electric Ind Co Ltd ビデオ画像符号化方法及び復号化方法とその装置
IT1313382B1 (it) * 1999-03-18 2002-07-23 St Microelectronics Srl Stima del moto ricorsiva spazio temporale con sottocampionamento ad 1/2 di macroblocco e ad 1/4 di pixel
US7050503B2 (en) * 1999-04-17 2006-05-23 Pts Corporation Segment-based encoding system using residue coding by basis function coefficients
US6700933B1 (en) * 2000-02-15 2004-03-02 Microsoft Corporation System and method with advance predicted bit-plane coding for progressive fine-granularity scalable (PFGS) video coding
US6693964B1 (en) * 2000-03-24 2004-02-17 Microsoft Corporation Methods and arrangements for compressing image based rendering data using multiple reference frame prediction techniques that support just-in-time rendering of an image
GB2364459B (en) * 2000-06-30 2004-03-31 Nokia Mobile Phones Ltd Video error resilience
CN1992895B (zh) * 2002-04-19 2010-12-08 松下电器产业株式会社 图像编码方法及图像编码装置
US7418190B2 (en) * 2002-08-22 2008-08-26 Microsoft Corporation Accelerated access to frames from a compressed digital video stream without keyframes
US7426306B1 (en) * 2002-10-24 2008-09-16 Altera Corporation Efficient use of keyframes in video compression
US20050185711A1 (en) * 2004-02-20 2005-08-25 Hanspeter Pfister 3D television system and method
US7292257B2 (en) * 2004-06-28 2007-11-06 Microsoft Corporation Interactive viewpoint video system and process

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100803862B1 (ko) 2006-09-29 2008-02-14 주식회사 팬택앤큐리텔 이종 네트워크 환경에서 수직적 핸드오프시의 비디오 전송중단을 방지하기 위한 비디오 전송방법
US8953682B2 (en) 2009-08-14 2015-02-10 Samsung Electronics Co., Ltd. Method and apparatus for encoding video, and method and apparatus for decoding video
US9307238B2 (en) 2009-08-14 2016-04-05 Samsung Electronics Co., Ltd. Method and apparatus for encoding video, and method and apparatus for decoding video
US9313490B2 (en) 2009-08-14 2016-04-12 Samsung Electronics Co., Ltd. Method and apparatus for encoding video, and method and apparatus for decoding video
US9313489B2 (en) 2009-08-14 2016-04-12 Samsung Electronics Co., Ltd. Method and apparatus for encoding video, and method and apparatus for decoding video
US9374579B2 (en) 2009-08-14 2016-06-21 Samsung Electronics Co., Ltd. Method and apparatus for encoding video, and method and apparatus for decoding video
JP2015521445A (ja) * 2012-06-01 2015-07-27 アルカテル−ルーセント ビデオストリームを符号化するための方法および装置
KR101452862B1 (ko) * 2013-04-02 2014-10-23 삼성전자주식회사 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
JP2016519501A (ja) * 2013-04-05 2016-06-30 ブリティッシュ・ブロードキャスティング・コーポレーションBritish Broadcasting Corporation 合成画像の送信および受信

Also Published As

Publication number Publication date
US7702016B2 (en) 2010-04-20
EP1624675B1 (en) 2020-04-22
US20060031915A1 (en) 2006-02-09
JP4878451B2 (ja) 2012-02-15
US8774274B2 (en) 2014-07-08
EP1624675A1 (en) 2006-02-08
US7561620B2 (en) 2009-07-14
US20120114037A1 (en) 2012-05-10
US8098728B2 (en) 2012-01-17
US20060029134A1 (en) 2006-02-09
US20060031917A1 (en) 2006-02-09

Similar Documents

Publication Publication Date Title
JP4878451B2 (ja) 空間および時間符号化を使用して複数の階層化ビデオ・ストリームの圧縮および圧縮解除を行うためのシステムおよびプロセス
Smolic et al. Coding algorithms for 3DTV—a survey
Shum et al. Survey of image-based representations and compression techniques
US7324594B2 (en) Method for encoding and decoding free viewpoint videos
Pavez et al. Dynamic polygon clouds: representation and compression for VR/AR
JPH10271511A (ja) 画像符号化装置と画像復号化装置
Chou et al. Dynamic polygon clouds: Representation and compression for VR/AR
US20240040101A1 (en) Method and device for compressing data representative of a volumetric three-dimensional scene with a view to real-time decompression for online viewing
Muller et al. Compressing time-varying visual content
Shum et al. Virtual reality using the concentric mosaic: Construction, rendering and data compression
Ng et al. A multi-camera approach to image-based rendering and 3-D/multiview display of ancient chinese artifacts
CN117242480A (zh) 使用几何信息和语义信息的曼哈顿布局估计
Chai et al. A depth map representation for real-time transmission and view-based rendering of a dynamic 3D scene
CA3232434A1 (en) Point cloud data frames compression
Chen et al. patchVVC: A real-time compression framework for streaming volumetric videos
JP2000285260A (ja) 多視点画像の符号化方法及び任意視点画像の生成方法
Naik et al. Surface lightfield support in video-based point cloud coding
CN112806015A (zh) 全向视频的编码和解码
Park et al. Efficient depth compression based on partial surface for 3-D object represented by layered depth image
Kauff et al. Data format and coding for free viewpoint video
Pratapa et al. RLFC: Random access light field compression using key views
Yoon et al. Inter-camera coding of multi-view video using layered depth image representation
Park et al. Depth compression of 3D object represented by layered depth image
Würmlin et al. Dynamic point samples for free-viewpoint video
Yoon et al. Color data coding for three-dimensional mesh models considering connectivity and geometry information

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110415

RD13 Notification of appointment of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7433

Effective date: 20110602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20110602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110805

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111031

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111122

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111128

R150 Certificate of patent or registration of utility model

Ref document number: 4878451

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141209

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250