JP5738590B2 - The methods and apparatus of the encoder and decoder to support single-loop decoding of multi-view coded video - Google Patents

The methods and apparatus of the encoder and decoder to support single-loop decoding of multi-view coded video Download PDF

Info

Publication number
JP5738590B2
JP5738590B2 JP2010514791A JP2010514791A JP5738590B2 JP 5738590 B2 JP5738590 B2 JP 5738590B2 JP 2010514791 A JP2010514791 A JP 2010514791A JP 2010514791 A JP2010514791 A JP 2010514791A JP 5738590 B2 JP5738590 B2 JP 5738590B2
Authority
JP
Japan
Prior art keywords
view
multi
decoding
loop
single
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010514791A
Other languages
Japanese (ja)
Other versions
JP2010531623A (en
Inventor
パンディット,パーヴィン,ビバス
イン,ペン
Original Assignee
トムソン ライセンシングThomson Licensing
トムソン ライセンシングThomson Licensing
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to US94693207P priority Critical
Priority to US60/946,932 priority
Application filed by トムソン ライセンシングThomson Licensing, トムソン ライセンシングThomson Licensing filed Critical トムソン ライセンシングThomson Licensing
Priority to PCT/US2008/007894 priority patent/WO2009005658A2/en
Publication of JP2010531623A publication Critical patent/JP2010531623A/en
Application granted granted Critical
Publication of JP5738590B2 publication Critical patent/JP5738590B2/en
Application status is Active legal-status Critical
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Description

本発明は、映像符号化及び復号化に関し、より詳細には、多視点符号化映像のシングルループ復号化を支援するエンコーダ及びデコーダでの方法及び装置に関する。 The present invention relates to video encoding and decoding and, more particularly, to a method and apparatus for an encoder and decoder to support single-loop decoding of multi-view coded video.

本出願は、2007年6月28日に提出された米国特許仮出願第60/946,932号の利益を特許請求するものであり、この仮出願は、完全な形で本明細書において引用により盛り込まれる。 The present application is claimed the benefit of the submitted U.S. Provisional Patent Application No. 60 / 946,932 on June 28, 2007, the provisional application is incorporated by reference herein in its complete form . さらに、本出願は、同一出願人によるものであって、本出願と同時に提出される“METHODS AND APPARATUS AT AN ENCODER AND DECODER FOR SUPPORTING SINGLE LOOP DECODING OF MULTI-VIEW CODED VIDEO”と題された代理人番号PU080067の非仮出願に関するものであり、この仮出願は、本明細書において引用において盛り込まれる。 Furthermore, the present application are due to the same applicant, simultaneously submitted by the applicant as "METHODS AND APPARATUS AT AN ENCODER AND DECODER FOR SUPPORTING SINGLE LOOP DECODING OF MULTI-VIEW CODED VIDEO" and entitled Attorney Docket No. relates non provisional application PU080067, this provisional application is incorporated in reference herein.

多視点映像符号化(MVC: Multi-view Video Coding)は、自由視点及び3次元(3D)ビデオアプリケーション、ホームエンターテイメント及び調査を含む多様な用途に機能する。 Multi-view video coding (MVC: Multi-view Video Coding), the free viewpoint and 3-dimensional (3D) video applications, functions in a variety of applications, including home entertainment and investigation. それら多視点の用途では、関与するビデオデータの量は膨大である。 In those multi-view applications, the amount of the involved video data is enormous.

多視点映像源は同じ又は類似のシーンの多数のビューを含むので、多数のビューの画像間で高い程度の相関が存在する。 Multi-view video source because it contains a number of views of the same or similar scenes, correlation high degree between the images of a number of views exist. したがって、時間的な冗長度に加えてビューの冗長度を利用することができ、同じ又は類似のシーンの異なるビューにわたりビューの予測を行うことで達成される。 Thus is accomplished by performing a temporal addition to redundancy can utilize the redundancy of view, the prediction of view over different views of the same or similar scene.

第一の従来技術のアプローチでは、MVCの符号化効率を改善するため、モーションスキップモードが提案される。 In the approach of the first prior art, to improve the MVC coding efficiency, motion skip mode is proposed. 第一の従来技術のアプローチは、2つの隣接するビュー間の動きの関して類似性が存在するという考えから生じている。 Approach of the first prior art, regarding the motion between two adjacent views are generated from the idea that similarity exists.

モーションスキップモードは、同じ時間的な瞬間での隣接するビューにおける対応するマクロブロックから直接的に、マクロブロックタイプ、動きベクトル、及びリファレンスインデックスのような動き情報を推測する。 Motion skip mode, directly from the corresponding macroblock in adjacent views at the same temporal moments, macroblock type, to infer motion information such as motion vectors, and reference index. この方法は、2つの以下のステージに分解される。 This method is decomposed into the following two stages. (1)対応するマクロブロックのサーチ、及び(2)動き情報の導出。 (1) Search for the corresponding macroblock, and (2) deriving the motion information. 第一のステージでは、隣接するビューのピクチャにおける対応する位置(マクロブロック)を示すため、グローバルディスパリティベクトル(GDV)が使用される。 In the first stage, to indicate the corresponding position in the picture of the adjacent views (macroblock), a global disparity vector (GDV) is used. グローバルディスパリティベクトルは、現在のピクチャと隣接するビューのピクチャとの間のマクロブロックサイズのユニットにより測定される。 Global disparity vector is determined by the unit of macroblock sizes between pictures of the view that are adjacent to the current picture. グローバルディスパリティベクトルは、たとえばアンカーピクチャ毎にといった周期的に予測及び復号化することができる。 Global disparity vector can be periodically predicted and decoded, eg every anchor picture. 係るケースでは、ノン・アンカーピクチャのグローバルディスパリティベクトルは、アンカーピクチャから最近のグローバルディスパリティベクトルを使用して補間される。 In such a case, the global disparity vector of a non-anchor picture is interpolated using the recent global disparity vector from the anchor picture. 第二のステージでは、動き情報は、隣接するビューのピクチャにおける対応するマクロブロックから導出され、動き情報は、現在のマクロブロックに適用される。 In a second stage, the motion information is derived from the corresponding macroblock in the picture of adjacent views, the motion information is applied to the current macroblock. モーションスキップモードは、現在のマクロブロックがベースビューのピクチャにあるか、又はJMVM(Joint Multi-view Video Model)で定義されるアンカーピクチャにある場合にディスエーブルにされる。 Motion skip mode, the current macroblock is disabled when in the anchor picture is defined by whether the picture of the base view, or JMVM (Joint Multi-view Video Model). これは、第一の従来技術のアプローチの提案される方法は、インター予測プロセスの別のやり方を与えるため、隣接するビューからのピクチャを利用するためである。 This proposed method of approach of the first prior art, to provide a different way of inter prediction process is to use a picture from adjacent views.

デコーダにモーションスキップモードの使用を通知するため、motion_skip_flagが多視点映像符号化のマクロブロックレイヤのシンタックスエレメントのヘッドに含まれる。 For notifying the use of the motion skip mode to the decoder, motion_skip_flag is included in the head of the syntax element in the macroblock layer of the multi-view video coding. motion_skip_flagがイネーブルにされた場合、現在のマクロブロックは、隣接するビューにおける対応するマクロブロックから、マクロブロックタイプ、動きベクトル及びリファレンスインデックスを導出する。 If motion_skip_flag is enabled, the current macroblock is derived from a corresponding macroblock in adjacent views, macroblock type, the motion vectors and reference indices.

しかし、実際のシナリオでは、多数のカメラを含む多視点映像システムは、異機種のカメラ、又は完全に較正されていないカメラを使用して構築される。 However, in a real-world scenario, multi-view video system including a plurality of cameras are built using uncalibrated cameras heterogeneous cameras, or completely. 多くのカメラにより、複雑度と同様にデコーダのメモリの要件は、著しく増加する。 A number of cameras, the complexity as well as the memory of the decoder requirements, significantly increased. さらに、所定の用途は、あるビューのセットから幾つかのビューを復号化することのみを必要とする場合がある。 Moreover, certain applications may require only decoding the several views from one set of views. 結果として、出力のために必要とされないビューを完全に再構成する必要がない場合がある。 As a result, it may not be necessary to completely reconstruct the views that are not required for the output.

従来技術のこれらの課題及び問題点並びに他の課題及び問題点は、本発明により対処され、本発明は、多視点符号化映像のシングルループの復号化をサポートするエンコーダ及びデコーダでの方法及び装置に向けられる。 These challenges and problems and other problems and disadvantages of the prior art are addressed by the present invention, the present invention provides a method and apparatus for an encoder and decoder that supports single loop decoding of multi-view coded video It is directed to.

本発明の態様によれば、装置が提供される。 According to an aspect of the present invention, an apparatus is provided. 本装置は、多視点映像のコンテンツがビュー間予測を使用して符号化されるとき、多視点映像コンテンツのシングルループの復号化をイネーブルにするため、多視点映像コンテンツを符号化するエンコーダを含む。 This device, when the content of the multi-view video is encoded using inter-view prediction, to enable single loop decoding of multi-view video content, comprising an encoder for encoding a multi-view video content .

本発明の別の態様によれば、方法が提供される。 According to another aspect of the present invention, a method is provided. 本方法は、多視点映像のコンテンツがビュー間予測を使用して符号化されるとき、多視点映像コンテンツのシングルループの復号化をサポートするため、多視点映像コンテンツを符号化するステップを含む。 The method, when the content of the multi-view video is encoded using inter-view prediction, for supporting single loop decoding of multi-view video content, comprising the step of encoding the multi-view video content.

本発明の更に別の態様によれば、装置が提供される。 According to yet another aspect of the present invention, an apparatus is provided. 本装置は、多視点映像のコンテンツがビュー間予測を使用して符号化されるとき、シングルループの復号化を使用して多視点映像コンテンツを復号化するデコーダを含む。 This device, when the content of the multi-view video is encoded using inter-view prediction, a decoder for decoding multi-view video content using single loop decoding.

本発明の更なる態様によれば、方法が提供される。 According to a further aspect of the present invention, a method is provided. 本方法は、多視点映像のコンテンツがビュー間予測を使用して符号化されるとき、シングルループの復号化を使用して多視点映像コンテンツを復号化するステップを含む。 The method, when the content of the multi-view video is encoded using inter-view prediction, comprising the steps of decoding a multi-view video content using single loop decoding.

本発明のこれらの態様、特徴及び利点、並びに他の態様、特徴及び利点は、添付図面と共に読まれる、例示的な実施の形態の以下の詳細な説明から明らかとなるであろう。 These aspects, features and advantages of the present invention as well as other aspects, features and advantages, may be read in conjunction with the accompanying drawings, will become apparent from the following detailed description of exemplary embodiments.

本発明は、以下の例示的な図面に従って良好に理解されるであろう。 The present invention will be better understood in accordance with the following exemplary drawings.
本発明の実施の形態に係る、本発明が適用される場合がある例示的な多視点映像符号化(MVC)エンコーダのブロック図である。 According to an embodiment of the present invention, it is a block diagram for an exemplary Multi-view Video Coding (MVC) encoder to which the case is that the present invention is applied. 本発明の実施の形態に係る、本発明が適用される場合がある例示的な多視点映像符号化(MVC)デコーダのブロック図である。 According to an embodiment of the present invention, it is a block diagram of an exemplary Multi-view Video Coding (MVC) decoder if there is the present invention is applied. 本発明の実施の形態に係る、本発明が適用される場合がある例示的なMVCシステムの符号化構造の図である。 According to an embodiment of the present invention, it is a diagram of a coding structure of an exemplary MVC system if there is the present invention is applied. 本発明の実施の形態に係る、シングルループの復号化を支援する、多視点映像コンテンツを符号化する例示的な方法のフローダイアグラムである。 According to an embodiment of the present invention, to support the single loop decoding, the multi-view video content is a flow diagram for an exemplary method for encoding. 本発明の実施の形態に係る、多視点映像コンテンツのシングルループの復号化の例示的な方法のフローダイアグラムである。 According to an embodiment of the present invention, it is a flow diagram for an exemplary method for single loop decoding of multi-view video content. 本発明の実施の形態に係る、シングルループの復号化を支援する、多視点映像コンテンツを符号化する別の例示的な方法のフローダイアグラムである。 According to an embodiment of the present invention, to support the single loop decoding, the multi-view video content is a flow diagram of another exemplary method for encoding. 本発明の実施の形態に係る、多視点映像コンテンツのシングルループの復号化の別の例示的な方法のフローダイアグラムである。 According to an embodiment of the present invention, it is a flow diagram of another exemplary method single loop decoding of multi-view video content.

本発明は、多視点符号化映像のシングルループの復号化を支援するエンコーダ及びデコーダでの方法及び装置に向けられる。 The present invention is directed to a method and apparatus for an encoder and decoder to support the single loop decoding of multi-view coded video.

本実施の形態の記載は、本発明を例示するものである。 Description of the present embodiment is intended to illustrate the present invention. したがって、当業者であれば、本実施の形態において明示的に記載又は図示されていないが、本発明を実施し、且つ本発明の精神及び範囲に含まれる様々なアレンジメントを創作することができることを理解されたい。 Thus, those skilled in the art, although not explicitly described or shown in this embodiment, that can be created various arrangements included within the spirit and scope of the present invention carried out, and the present invention It is to be understood.

本実施の形態で引用される全ての例及び条件付き言語は、本発明の原理及び当該技術分野を促進するために本発明者により寄与される概念の理解において読者を支援する教育的な目的が意図されており、係る引用される例及び条件に限定されないものとして解釈されるべきである。 All examples and conditional language recited in the present embodiment, the educational purposes to aid the reader in understanding the concepts contributed by the inventor to facilitate the principles and the art of the present invention are intended, should be construed as being without limitation to examples and conditions according quoted.

さらに、本発明の原理、態様及び実施の形態を引用する全ての説明は、その特定の例と同様に、本発明の構造的に等価な概念と機能的な等価な概念の両者を包含することが意図される。 Moreover, all statements herein cited principles of the present invention, aspects and embodiment, that the similar to the specific example, to include both structurally equivalent concepts and functional equivalent concept of the present invention There is intended. さらに、係る等価な概念は、現在公知の等価な概念と同様に、将来的に開発される等価な概念、すなわち構造に係らず、同じ機能を実行する開発されたエレメントの両者を含むことが意図される。 Furthermore, the equivalent concept of, as in the presently known equivalent concept intended to include equivalent concepts developed in the future, i.e., regardless of the structure, both elements developed that perform the same function It is.

したがって、たとえば、本実施の形態で表されるブロック図は、本発明の原理を実施する例示的な回路の概念図を表すことを当業者により理解されるであろう。 Thus, for example, a block diagram is represented in this embodiment, would that represent conceptual views of illustrative circuitry embodying the principles of the present invention be understood by those skilled in the art. 同様に、任意のフローチャート、フローダイアグラム、状態遷移図、擬似コード等は、コンピュータ読取可能なメディアで実質的に表される様々なプロセスであって、コンピュータ又はプロセッサが明示的に示されるか否かに係らず、コンピュータ又はプロセッサにより実行される様々なプロセスを表すことが理解されるべきである。 Similarly, any flow charts, flow diagrams, state transition diagrams, pseudocode, a variety of processes substantially represented in a computer-readable media, whether the computer or processor is explicitly shown regardless, it should be understood that represent various processes performed by a computer or processor.

図示される様々なエレメントの機能は、適切なソフトウェアに関連してソフトウェアを実行可能なハードウェアと同様に、専用ハードウェアの使用を通して提供される場合がある。 The functions of the various elements shown, as well as hardware capable of executing software in association with appropriate software, which may be provided through the use of dedicated hardware. プロセッサにより提供されたとき、機能は、1つの専用プロセッサにより、1つの共有プロセッサにより、又はそのうちの幾つかが共有される複数の個々のプロセッサにより提供される場合がある。 When provided by a processor, the functions may by a single dedicated processor, by a single shared processor, or may be provided by a plurality of individual processors, some of which may be shared. さらに、用語「プロセッサ」又は「コントローラ」の明示的な使用は、ソフトウェアを実行可能なハードウェアを排他的に示すように解釈されるべきではなく、限定されるものではないが、デジタルシグナルプロセッサ(DSP)ハードウェア、ソフトウェアを記憶するリードオンリメモリ(ROM)、ランダムアクセスメモリ(RAM)、及び不揮発性ストレージを暗黙的に含む。 Furthermore, the term explicit use of "processor" or "controller" should not be construed to indicate a possible hardware executing software exclusively, but are not limited to, a digital signal processor ( read-only memory for storing DSP) hardware, software (ROM), a random access memory (RAM), and non-volatile storage.

コンベンショナル及び/又はカスタムである他のハードウェアも含まれる場合がある。 There may also be included other hardware is conventional and / or custom. 同様に、図示される任意のスイッチは、概念的なものである。 Similarly, any switches shown in the figures are conceptual only. その機能は、プログラムロジックの動作を通して、専用ロジックを通して、プログラム制御と専用ロジックのインタラクションを通して、又は更には手動で実行される場合があり、特定の技術は、文脈から更に詳細に理解されるように実現者により選択可能である。 Its function is through the operation of program logic, through dedicated logic, through the program control and dedicated logic interaction, or even may be performed manually, the particular technique, as will be understood in more detail from the context It can be selected by the implementer.

本発明の特許請求の範囲では、ある特定の機能を実行する手段として表現されるエレメントは、たとえば、a)その機能を実行する回路エレメントの組み合わせ、又はb)その機能を実行するソフトウェアを実行する適切な回路と結合される、ファームウェア、マイクロコード等を含む任意の形式のソフトウェアを含む、その機能を実行する任意のやり方を包含することが意図される。 In the claims of the present invention, elements that are expressed as a means for performing a certain function, for example, a) a combination of circuit elements that performs that function or b) executing software to perform its function a combination of circuit, firmware, including any form of software containing the micro-code, etc., is intended to encompass any way of performing that function. 係る請求項により定義される発明は、様々な引用される手段により提供される機能は結合され、請求項が要求するやり方で纏められるという事実にある。 Invention as defined by the claims according, the functions provided by means of the various recited coupled lies in the fact that are summarized in the manner which the claims call for. したがって、それらの機能を提供する任意の手段は、本実施の形態に示される機能に等価であるものとみなされる。 Therefore, any means that can provide those functionalities are considered to be equivalent to the functions shown in the present embodiment.

本発明の「1実施の形態」又は「実施の形態」への明細書における参照は、実施の形態と共に記載される特定の特徴、構造、特性等は、本発明の少なくとも1つの実施の形態に含まれることを意味する。 Reference in the specification to "one embodiment" or "an embodiment" of the present invention, the specific features described in conjunction with the embodiments, the structure, properties, etc., in at least one embodiment of the present invention It is meant to be included. したがって、明細書を通して様々な位置に現れるフレーズ「1実施の形態では」又は「実施の形態では」の出現は、必ずしも同じ実施の形態を全て参照するものではない。 Thus, the appearances of the various appearing phrases "in one embodiment" in position or "in an embodiment" throughout the specification are not necessarily all referring to the same embodiment. さらに、フレーズ「別の実施の形態では」は、記載される実施の形態の対象が別の実施の形態と全体的に又は部分的に結合されることから排除しない。 Further, the phrase "in another embodiment" are not excluded from the target of the embodiments described is totally or partially bound with another embodiment.

たとえば、「A及び/又はB」及び「A及びBの少なくとも1つ」の場合における用語「及び/又は」及び「少なくとも1つ」の使用は、最初に列挙されたオプション(A)のみの選択、又は第二の列挙されたオプション(B)のみの選択、又は両方のオプションA及びBの選択を包含することが意図される。 For example, use of the term "and / or" and "at least one" in the case of "at least one of A and B", "A and / or B" and the selection of the first listed option (A) only , or the second listed option (B) only, or the selection of or both to encompass the selection of options a and B of the intended. 更なる例として、「A,B及び/又はC」及び「A,B及びCの少なくとも1つ」の場合では、係るフレーズは、最初に列挙されたオプション(A)のみの選択、第二に列挙されたオプション(B)のみの選択、又は、第三の列挙されたオプション(C)のみの選択、或いは、第一及び第二の列挙されたオプション(A及びB)の選択、或いは、第一及び第三の列挙されたオプション(A及びC)のみの選択、或いは、第二及び第三の列挙されたオプション(B及びC)のみの選択、或いは、全ての3つのオプション(A及びB及びC)の選択を包含する。 As a further example, "A, B and / or C" and in the case "A, B and C at least one" of phrasing, the selection of the first listed option (A) only, the second selection of only listed option (B), or, the third listed option (C) only, or the selection of or selection of the first and the second listed options (a and B), or the selection of only the first and third listed options (a and C), or selection of only the second and third listed options (B and C), or all three options (a and B and including selection of C). これは、当業者により容易に明らかであるように、列挙される多数のアイテムについて拡張される場合がある。 This, as will be readily apparent to those skilled in the art and may be extended for as many items listed.

本実施の形態で使用されるように、「多視点映像系列(Multi-view video sequence)」は、異なる視点から同じシーンを捕捉する2以上の映像系列のセットを示す。 As used in the present embodiment, "multi-view video sequence (Multi-view video sequence)" indicates a set of two or more video sequences that capture the same scene from different viewpoints.

さらに、本実施の形態において交換可能に使用されるように、「クロスビュー(cross view)」及び「インタービュー(inter-view)」の両者は、現在のビュー以外のビューに属するピクチャを示す。 Further, as interchangeably used in this embodiment, both the "cross-view (cross view)" and "interview (inter-view)" indicates a picture that belongs to a view other than the current view.

さらに、本実施の形態で使用されるように、フレーズ「完全な再構成がない(without complete reconstruction)」とは、符号化又は復号化ループにおいて動き補償が実行されない場合を示す。 Furthermore, as used in the present embodiment, the phrase "there is no perfect reconstruction (without complete reconstruction)" shows a case where motion compensation is not performed in the encoding or decoding loop.

さらに、本発明はMPEG-4 AVC標準の多視点映像符号化の拡張に関して本実施の形態で記載されるが、本発明はこの標準及び対応する拡張にのみ限定されるものではなく、本発明の精神を維持しつつ、多視点映像符号化に関連する他のビデオ符号化標準、勧告、及びその拡張に関して利用される場合がある。 Furthermore, the present invention is described in the present embodiment with respect to expansion of the multi-view video coding of the MPEG-4 AVC standard, the present invention is not limited only to this standard and the corresponding extension, of the present invention while maintaining the spirit, other video coding standards relevant to multi-view video coding, recommendations, and in some cases are used for that extension.

図1を参照して、例示的な多視点映像符号化(MVC)エンコーダは、参照符号100により示される。 Referring to FIG. 1, an exemplary Multi-view Video Coding (MVC) encoder is indicated generally by the reference numeral 100. エンコーダ100は、変換器110の入力と信号通信で接続される出力を有する結合手段105を有する。 The encoder 100 includes a coupling means 105 having an output connected in signal communication with an input of the transducer 110. 変換器100の出力は、量子化器115の入力と信号通信で接続される。 The output of converter 100 is connected in signal communication with an input of the quantizer 115. 量子化器115の出力は、エントロピーコーダ120の入力及び逆量子化器125の入力と信号通信で接続される。 The output of the quantizer 115 is connected in signal communication with an input of the input and the inverse quantizer 125 of the entropy coder 120. 逆量子化器125の出力は、逆変換器130の入力と信号通信で接続される。 The output of the inverse quantizer 125 is connected in signal communication with an input of the inverse transformer 130. 逆変換器130の出力は、結合器135の第一の非反転入力と信号通信で接続される。 The output of the inverse transformer 130 is connected in a first non-inverting input signal communication with coupler 135. 結合器135の出力は、イントラ予測器145の入力とデブロッキングフィルタ150の入力と信号通信で接続される。 The output of the combiner 135 is connected in signal communication with an input of the input and the deblocking filter 150 of the intra-predictor 145. デブロッキングフィルタ150の出力は、(ビューi用の)参照画像ストア155の入力と信号通信で接続される。 The output of the deblocking filter 150 is connected in signal communication with an input of a reference picture store 155 (for view i). 参照画像ストア155の出力は、動き補償器175の第一の入力と動き予測器180の第一の入力と信号通信で接続される。 An output of the reference picture store 155 is connected in signal communication with a first input of a first input motion estimator 180 of the motion compensator 175. 動き予測器180の出力は、動き補償器175の第二の入力と信号通信で接続される。 The output of the motion estimator 180 is connected in the second input signal communication with a motion compensator 175.

(他のビュー用の)参照画像ストア160の出力は、ディスパリティ/イルミネーション予測器170の第一の入力とディスパリティ/イルミネーション補償器165の第一の入力と信号通信で接続される。 The output of the (other for views) reference picture store 160 is connected in signal communication with a first input of a first input disparity / illumination compensator 165 disparity / illumination estimator 170. ディスパリティ/イルミネーション予測器170の出力は、ディスパリティ/イルミネーション補償器165の第二の入力と信号通信で接続される。 The output of the disparity / illumination estimator 170 is connected in the second input signal communication with a disparity / illumination compensator 165.

エントロピーデコーダ120の出力は、エンコーダ100の出力として利用可能である。 The output of the entropy decoder 120 is available as an output of the encoder 100. 結合器105の非反転入力は、エンコーダ100の入力として利用可能であり、ディスパリティ/イルミネーション予測器170の第二の入力と動き予測器180の第二の入力と信号通信で接続される。 The non-inverting input of the combiner 105 is available as an input of the encoder 100 is connected in the second input signal communication with a second input of the motion estimator 180 of the disparity / illumination estimator 170. スイッチ185の出力は、結合器135の第二の非反転入力と結合器105の反転入力と信号通信で接続される。 The output of the switch 185 is connected in signal communication with an inverting input of the second non-inverting input and the combiner 105 of the combiner 135. スイッチ185は、動き補償器175の出力と信号通信で接続される第一の入力、ディスパリティ/イルミネーション補償器165の出力と信号通信で接続される第二の入力、及びイントラ予測器145の出力と信号通信で接続される第三の入力を含む。 Switch 185, a second input coupled first input connected in signal communication with an output of the motion compensator 175, in signal communication with an output of the disparity / illumination compensator 165, and an output of the intra predictor 145 It includes a third input connected in signal communication.

モード判定モジュール140は、どの入力がスイッチ185により選択されるかを制御するスイッチ185に接続される出力を有する。 Mode determination module 140 has an output which input is connected to a switch 185 that controls whether selected by the switch 185.

図2を参照して、例示的な多視点映像符号化(MVC)デコーダは、参照符号200により示される。 Referring to FIG. 2, an exemplary Multi-view Video Coding (MVC) decoder is indicated generally by the reference numeral 200. デコーダ200は、逆量子化器210の入力と信号通信で接続される出力を有するエントロピーデコーダ205を含む。 The decoder 200 includes an entropy decoder 205 having an output connected in signal communication with an input of an inverse quantizer 210. 逆量子化器の出力は、逆変換器215の入力と信号通信で接続される。 The output of the inverse quantizer is connected in signal communication with an input of the inverse transformer 215. 逆変換器215の出力は、結合器220の第一の非反転入力と信号通信で接続される。 The output of the inverse transformer 215 is connected in a first non-inverting input signal communication with coupler 220. 結合器220の出力は、デブロッキングフィルタ225の入力及びイントラ予測器230の入力と信号通信で接続される。 The output of the combiner 220 is connected in signal communication with an input of the input and the intra predictor 230 of the deblocking filter 225. デブロッキングフィルタ225の出力は、(ビューi用の)参照画像ストア240の入力と信号通信で接続される。 The output of the deblocking filter 225 is connected in signal communication with an input of a reference picture store 240 (for view i). 参照画像ストア240の出力は、動き補償器235の第一の入力と信号通信で接続される。 An output of the reference picture store 240 is connected in signal communication with a first input of a motion compensator 235.

(他のビュー用の)参照画像ストア245の出力は、ディスパリティ/イルミネーション補償器250の第一の入力と信号通信で接続される。 The output of the (other for views) reference picture store 245 is connected in signal communication with a first input of a disparity / illumination compensator 250.

エントロピーコーダ205の入力は、残差のビットストリームを受信するため、デコーダ200の入力として利用可能である。 Input of the entropy coder 205 for receiving the bit stream of the residual, is available as an input of the decoder 200. さらに、モードモジュール260の入力は、どの入力がスイッチ255により選択されるかを制御する制御シンタックスを受信するため、デコーダ200の入力として利用可能である。 Moreover, an input of a mode module 260, since which input is receiving control syntax to control which is selected by the switch 255, is available as an input of the decoder 200. さらに、動き補償器235の第二の入力は、動きベクトルを受信するため、デコーダ200の入力として利用可能である。 Furthermore, the second input of the motion compensator 235, for receiving motion vectors, is available as an input of the decoder 200. また、ディスパリティ/イルミネーション補償器250の第二の入力は、ディスパリティベクトル及びイルミネーション補償シンタックスを受信するため、デコーダ200への入力として利用可能である。 The second input of the disparity / illumination compensator 250, for receiving disparity vectors and illumination compensation syntax, is available as an input to the decoder 200.

スイッチ255の出力は、結合手段220の第二の非反転入力と信号通信で接続される。 The output of the switch 255 is connected in the second non-inverting input of the signal communication of the coupling means 220. スイッチ255の第一の入力は、ディスパリティ/イルミネーション補償器250の出力と信号通信で接続される。 The first input of the switch 255 is connected in signal communication with an output of the disparity / illumination compensator 250. スイッチ255の第二の入力は、動き補償器235の出力と信号通信で接続される。 The second input of the switch 255 is connected at the output of the motion compensator 235 and the signal communication. スイッチ255の第三の入力は、イントラ予測器230の出力と信号通信で接続される。 A third input of the switch 255 is connected in signal communication with an output of the intra predictor 230. モードモジュール260の出力は、どの入力がスイッチ255により選択されるかを制御するため、スイッチ255と信号通信で接続される。 Output mode module 260, which input is to control either selected by the switch 255 is connected by the switch 255 and the signal communication. デブロッキングフィルタ225の出力は、デコーダの出力として利用可能である。 The output of the deblocking filter 225 is available as an output of the decoder.

上述されたように、本発明は、多視点符号化映像のシングルループの復号化をサポートするエンコーダ及びデコーダでの方法及び装置に向けられる。 As described above, the present invention is directed to a method and apparatus for an encoder and decoder that supports single loop decoding of multi-view coded video.

本発明は、多視点映像コンテンツのうちの所定のビューのみが復号化される場合に特に適する。 The present invention is particularly suitable for the case where only a predetermined view among the multi-view video content is decoded. 係る応用は、参照ビュー(すなわち画素データ)を完全に再構成することを含まない。 Application does not involve completely reconstructing the reference view (i.e. pixel data) according. 実施の形態では、それらのビューからの所定のエレメントは、他のビューについて推定及び使用され、したがって金と時間が節約される。 In embodiments, the predetermined elements from those views are estimated and used for other views, hence money and time are saved.

現在の多視点映像符号化の仕様は、全てのビューが完全に再構成されることを要求する。 Specifications of the current multi-view video coding requires that all views are fully reconstructed. 次いで、再構成されたビューは、ビュー間の参照として使用される。 Then, the reconstructed view is used as a reference for inter-view. 図3を参照して、8つのビューをもつ例示的なMVCシステムの符号化構造は、参照符号300により示される。 Referring to FIG 3, the coding structure of the exemplary MVC system with eight views is indicated generally by the reference numeral 300.

再構成されたビューがビュー間の参照として使用された事実の結果として、それぞれのビューは、たとえそれぞれのビューが出力されない場合があるとしても、完全に復号化され、メモリ記憶される必要がある。 As a result of the fact that reconstructed view is used as a reference for inter-view, each view, even though there are cases where even each view is not output, is completely decoded, it is necessary to be memory storage . これは、係る出力されないビューを復号化するプロセッサの時間を費やし、係る出力されたビューの復号化画像を記憶するメモリを費やす必要があるので、メモリ及びプロセッサの利用の観点で非常に効率的ではない。 It relates the output does not view spend time processor for decoding, since it is necessary to spend a memory for storing the decoded image of the output views according, very efficient in terms of memory and processor utilization Absent.

したがって、本発明によれば、多視点符号化系列のシングルループの復号化をサポートする方法及び装置を提案する。 Therefore, according to the present invention proposes a method and apparatus for supporting single loop decoding of multi-view coding sequence. 上述されたように、本実施の形態で提供される例はMPEG-4AVC標準の多視点映像符号化の拡張に関して記載されるが、本実施の形態で提供される本発明の教示が与えられると、本発明の精神を維持しつつ、当業者により任意の多視点映像符号化システムに本発明が容易に適用される場合があることを理解されるであろう。 As described above, the examples provided in the present embodiment is described with respect to an extension of the multi-view video coding of the MPEG-4AVC standard, the teachings of the invention provided in this embodiment is provided , while maintaining the spirit of the present invention, it will be appreciated that there is a case where the present invention is easily applied to any multi-view video coding system by those skilled in the art.

シングルループの復号化の1実施の形態では、アンカーピクチャのみがリファレンスととして完全に再構成されたピクチャを使用し、ノン・アンカーピクチャは、リファレンスとして完全に再構成されたピクチャを使用しない。 In one embodiment of the single loop decoding, only the anchor picture using fully reconstructed picture as a reference, the non-anchor pictures are not used completely reconstructed picture as a reference. ノン・アンカーピクチャの符号化効率を改善するため、ビュー間予測によって、隣接するビューを完全に再構成する必要なしに、隣接するビューから所定のデータが推定されるように、ビュー間予測が使用されることが提案される。 To improve the coding efficiency of non-anchor picture, the inter-view prediction, without the need to completely reconstruct the adjacent views, as predetermined data from adjacent views is estimated, using the inter-view prediction is it is being proposed. 隣接する参照ビューは、表1に示されるシーケンスパラメータセットにより示される。 Referring view adjacent, indicated by the sequence parameter set as shown in Table 1. 表1は、本発明の実施の形態に係る、MPEG-4 AVC標準の多視点映像符号化の拡張のシーケンスパラメータセット(SPS: Sequence Parameter Set)シンタックスを示す。 Table 1, according to an embodiment of the present invention, MPEG-4 AVC standard multi-view video coding extension of the sequence parameter set (SPS: Sequence Parameter Set) indicating the syntax.

完全な再構成なしに隣接する参照ビューから推定することができる情報は、以下の1以上の組み合わせである。 Information can be estimated from a reference view adjacent without perfect reconstruction is one or more of the following combinations. (1)動き及びモード情報、(2)残差予測、(3)イントラ予測モード、(4)イルミネーション補償オフセット、(5)深度情報、及び(6)デブロッキング強度。 (1) motion and mode information, (2) residual prediction, (3) intra prediction mode, (4) illumination compensation offset, (5) the depth information, and (6) deblocking strength. 先行するタイプの情報は例示的なものであって、本発明は、完全な再構成なしに隣接するビューから推定することができる情報に関して先行するタイプの情報のみに限定されない。 Preceding types of information are exemplary, the invention is not limited only to the type of information preceding for information that can be estimated from a view that is adjacent without complete reconstruction. たとえば、ピクチャ又はピクチャ部分の符号化及び/又は復号化に関連する任意のタイプの情報を含めて、隣接するビューからピクチャの少なくとも1部の特性に関連する任意のタイプの情報は、本発明の精神を維持しつつ、本発明に従って使用される場合があることを理解されたい。 For example, including any type of information related to the encoding and / or decoding of the picture or picture portion, any type of information relating to characteristics of at least a portion of the picture from adjacent views, the present invention while maintaining the spirit, it is to be understood that it may be used in accordance with the present invention. さらに、係る情報は、本発明の精神を維持しつつ、シンタックス及び/又は他のソースから推定される場合がある。 Furthermore, information relating while maintaining the spirit of the present invention, it may be estimated from the syntax and / or other sources.

動き及びモード情報に関して、これは、動きベクトル、モード及び参照インデックス情報が隣接するビューから推定することができる現在の多視点映像符号化の仕様におけるモーションスキップモードに類似する。 Respect motion and mode information, which is similar to the motion skip mode for the current multi-view video coding specifications may be estimated from the view of the motion vectors, mode and reference index information are adjacent. さらに、推定される動き情報は、更なるデータを送出することでリファインすることができる。 Furthermore, the motion information estimated can be refined by sending further data. さらに、ディスパリティ情報も推定される。 Furthermore, disparity information is also estimated.

残差予測に関して、隣接するビューからの残差データは、現在のマクロブロックの残差の予測データとして使用される。 Respect residual prediction residual data from adjacent views are used as prediction data of the residual of the current macroblock. この残差データは、現在のマクロブロックについて更なるデータを送出することで更にリファインされる。 The residual data is further refined by sending additional data for the current macroblock.

イントラ予測モードに関して、係るモードを推定することもできる。 Respect intra prediction modes, it is also possible to estimate the mode according. 再構成されたイントラマクロブロックの何れかは、予測データとして直接に使用することができるか、又は、イントラ予測モードは、現在のマクロブロックについて直接に使用することができる。 Any of intra-macro block reconstructed, it can be directly used as the prediction data, or the intra prediction mode may be used directly for the current macroblock.

イルミネーション補償オフセットに関して、イルミネーション補償オフセット値を推定することができ、更にリファインすることができる。 Respect illumination compensation offset, it is possible to estimate the illumination compensation offset value can be further refined.
深さ情報に関して、深さ情報を推定することができる。 Respect depth information, it is possible to estimate the depth information.

多視点映像符号化系列がシングルループの復号化をサポートするかを判定するため、ハイレベルのシンタックスは、以下の1以上で存在することができる。 Since the multi-view video coding sequence is to determine whether to support the single loop decoding, the syntax of a high level may be present in the following 1 or more. シーケンスパラメータセット(SPS)、ピクチャパラメータセット(PPS)、ネットワーク抽象レイヤ(NAL)ユニットヘッダ、スライスヘッダ、及び補足的な付加情報(SEI)メッセージ。 Sequence parameter set (SPS), picture parameter set (PPS), network abstraction layer (NAL) unit header, a slice header, and a supplemental enhancement information (SEI) message. シングルループの多視点映像復号化は、プロファイルとして規定することもできる。 Multi-view video decoding in single loop can also be defined as a profile.

表2は、本実施の形態に係る、non_anchor_single_loop_decoding_flagシンタックスエレメントを含む、MPEG-4 AVC標準の多視点映像符号化の拡張について提案されるシーケンスパラメータセット(SPS)のシンタックスを示す。 Table 2, according to the present embodiment includes a non_anchor_single_loop_decoding_flag syntax element indicates the syntax of the MPEG-4 AVC standard multi-view video coding proposed sequence parameter set for the extension (SPS). non_anchor_single_loop_decoding_flagは、ノン・アンカーピクチャの参照を示すループに加えられる付加的なシンタックスエレメントである。 non_anchor_single_loop_decoding_flag is an additional syntax element to be added to the loop that indicates the reference of the non-anchor pictures. non_anchor_single_loop_decoding_flagシンタックスエレメントは、ビュー“i”のノン・アンカーピクチャの参照がビュー“i”を復号化するために完全に復号化されるべきか否かを示すために加えられる。 non_anchor_single_loop_decoding_flag syntax element is added in order to see the non-anchor pictures of views "i" indicates whether to be fully decoded to decode the view "i". non_anchor_single_loop_decoding_flagシンタックスエレメントは、以下のシンタックスを有する。 non_anchor_single_loop_decoding_flag syntax element has the following syntax.

1に等しいnon_anchor_single_loop_decoding_flag[i]は、view_id[i]に等しいビューidをもつビューのノン・アンカーピクチャの参照ビューは、そのビューを復号化するために完全に再構成される必要がないことを示す。 Equal to 1 non_anchor_single_loop_decoding_flag [i], see view of the non-anchor pictures of views with equal view id to view_id [i] indicates the complete absence needs to be reconfigured to decode the view . 0に等しいnon_anchor_single_loop_decoding_flag[i]は、view_id[i]に等しいビューidをもつビューのノン・アンカーピクチャの参照ビューは、そのビューを復号化するために完全に再構成されるべきであることを示す。 0 equal non_anchor_single_loop_decoding_flag [i], see view of the non-anchor pictures of views with equal view id to view_id [i] shows completely that it should be reconfigured to decode the view .

表3は、別の実施の形態に係る、non_anchor_single_loop_decoding_flagシンタックスエレメントを含む、MPEG-4 AVC標準の多視点映像符号化の拡張について提案されるシーケンスパラメータセット(SPS)のシンタックスを示す。 Table 3, according to another embodiment, including non_anchor_single_loop_decoding_flag syntax element indicates the syntax of the MPEG-4 AVC standard multi-view video coding proposed sequence parameter set for the extension (SPS). non_anchor_single_loop_decoding_flagシンタックスエレメントは、全体のシーケンスについて、全てのノン・アンカーピクチャは、参照ビューを完全に再構成することなしに復号化することができることを示すために使用される。 non_anchor_single_loop_decoding_flag syntax element, for the entire sequence, all non-anchor picture is used to indicate that it is possible to decode the reference view without completely reconstructed. non_anchor_single_loop_decoding_flagシンタックスエレメントは、以下のセマンティクスを有する。 non_anchor_single_loop_decoding_flag syntax element has the following semantics.

1に等しいnon_anchor_single_loop_decoding_flagは、全てのビューの全てのノン・アンカーピクチャは、対応する参照ビューのピクチャを完全に再構成することなしに復号化することができることを示す。 non_anchor_single_loop_decoding_flag equal to 1, all non-anchor pictures of all the views show that can be decoded without completely reconstructing the picture of the corresponding reference view.

シングルループの復号化の別の実施の形態では、アンカーピクチャは、シングルループの復号化に関してイネーブルにされる。 In another embodiment of the single loop decoding, the anchor pictures are enabled with respect to single loop decoding. 表4は、別の実施の形態に係る、anchor_single_loop_decoding_flagシンタックスエレメントを含む、MPEG-4 AVC標準の多視点映像符号化の拡張について提案されるシーケンスパラメータセット(SPS)のシンタックスを示す。 Table 4, according to another embodiment, including anchor_single_loop_decoding_flag syntax element indicates the syntax of the MPEG-4 AVC standard multi-view video coding proposed sequence parameter set for the extension (SPS). anchor_single_loop_decoding_flagシンタックスエレメントは、シーケンスパラメータセットにおけるアンカーピクチャ依存ループに存在することができる。 anchor_single_loop_decoding_flag syntax element may be present in the anchor picture dependency loops in the sequence parameter set. anchor_single_loop_decoding_flagシンタックスエレメントは、以下のセマンティクスを有する。 anchor_single_loop_decoding_flag syntax element has the following semantics.

1に等しいanchor_single_loop_decoding_flag[i]は、view_id[i]に等しいビューidをもつビューのアンカーピクチャの参照ビューは、そのビューを復号化するために完全に再構成される必要がないことを示す。 Equal to 1 anchor_single_loop_decoding_flag [i], see view of the anchor pictures of views with equal view id to view_id [i] indicates the complete absence needs to be reconfigured to decode the view. 0に等しいanchor_single_loop_decoding_flag[i]は、view_id[i]に等しいビューidをもつビューのアンカーピクチャの参照ビューは、そのビューを復号化するために完全に再構成されるべきであることを示す。 Equal to 0 anchor_single_loop_decoding_flag [i], see view of the anchor pictures of views with equal view id to view_id [i] shows completely that it should be reconfigured to decode the view.

表5は、別の実施の形態に係る、anchor_single_loop_decoding_flagシンタックスエレメントを含む、MPEG-4 AVC標準の多視点映像符号化の拡張について提案されるシーケンスパラメータセット(SPS)のシンタックスを示す。 Table 5, according to another embodiment, including anchor_single_loop_decoding_flag syntax element indicates the syntax of the MPEG-4 AVC standard multi-view video coding proposed sequence parameter set for the extension (SPS). anchor_single_loop_decoding_flagシンタックスエレメントは、以下のセマンティクスを有する。 anchor_single_loop_decoding_flag syntax element has the following semantics.

1に等しいanchor_single_loop_decoding_flagは、全てのビューの全てのアンカーピクチャは、対応する参照ビューのピクチャを完全に再構成することなしに復号化することができることを示す。 anchor_single_loop_decoding_flag equal to 1, all of the anchor pictures of all the views show that can be decoded without completely reconstructing the picture of the corresponding reference view.

図4を参照して、シングルループの復号化のサポートにおける多視点映像コンテンツを符号化する例示的な方法は、参照符号400により示される。 Referring to FIG. 4, an exemplary method for encoding multi-view video content in support single loop decoding is indicated by reference numeral 400.

本方法400は、開始ブロック405を含み、この開始ブロックは、機能ブロック410に制御を移す。 The method 400 includes a start block 405, the start block that passes control to a function block 410. 機能ブロック410は、エンコーダのコンフィギュレーションファイルを分析し、制御を判定ブロック415に移す。 Function block 410 analyzes the configuration file of the encoder, and passes control to a decision block 415. 判定ブロック415は、変数iが符号化されるべきビューの数未満であるか否かを判定する。 Decision block 415, the variable i is equal to or less than the number of views to be encoded. 変数iが符号化されるべきビューの数未満である場合、制御を判定ブロック420に移す。 When the variable i is less than the number of views to be encoded, and passes control to a decision block 420. さもなければ、制御を終了ブロック499に移す。 Otherwise, control is passed to an end block 499.

判定ブロック420は、シングルループの符号化がビューiのアンカーピクチャについてイネーブルにされるか否かを判定する。 Decision block 420 determines whether or not the encoding of the single loop is enabled for anchor pictures of the view i. シングルループの符号化がビューiのアンカーピクチャについてイネーブルにされる場合、制御を機能ブロック425に移す。 If the sign of the single loop is enabled for anchor pictures of views i, and passes control to a function block 425. さもなければ、制御を機能ブロック460に移す。 Otherwise, control is passed to a function block 460.

機能ブロック425は、anchor_single_loop_decoding_flag[i]を1に等しく設定し、制御を判定ブロック430に移す。 Function block 425 sets equal anchor_single_loop_decoding_flag [i] to 1, and passes control to a decision block 430. 判定ブロック430は、シングルループの符号化がビューiのノン・アンカーピクチャについてイネーブルにされるか否かを判定する。 Decision block 430 determines whether or not the encoding of the single loop is enabled for non-anchor pictures of views i. シングルループの符号化がビューiのノン・アンカーピクチャについてイネーブルにされる場合、制御を機能ブロック435に移す。 If the encoded single loop is enabled for non-anchor pictures of views i, and passes control to a function block 435. さもなければ、制御を機能ブロック465に移す。 Otherwise, control is passed to a function block 465.

機能ブロック435は、non_anchor_single_loop_decoding_flag[i]を1に等しく設定し、制御を機能ブロック440に移す。 Function block 435, set equal to 1 non_anchor_single_loop_decoding_flag [i], and passes control to a function block 440.

機能ブロック440は、anchor_single_loop_decoding_flag[i]及びnon_anchor_single_loop_decoding_flag[i]をビューiのシーケンスパラメータセット(SPS)及びピクチャパラメータセット(PPS)、ネットワーク抽象レイヤ(NAL)ユニットヘッダ及び/又はスライスヘッダに書き込み、制御を機能ブロック445に移す。 Function block 440 writes the anchor_single_loop_decoding_flag [i] and non_anchor_single_loop_decoding_flag [i] a view i of the sequence parameter set (SPS) and Picture Parameter Set (PPS), network abstraction layer (NAL) unit header, and / or slice header, control the transferred to function block 445. 機能ブロック445は、インター予測が含まれないとき、あるビューのマクロブロックを符号化する間、SPSからのビュー間の依存を考慮し、制御を機能ブロック450に移す。 Function block 445, when not included inter prediction, while encoding a macroblock of a view, taking into account the dependencies between views from SPS, and passes control to a function block 450. 機能ブロック450は、動き情報、インター予測モード、残差データ、ディスパリティデータ、イントラ予測モード、及びシングルループの符号化の深度情報の組み合わせを推定し、制御を機能ブロック455に移す。 Function block 450 estimates the combination of motion information, inter prediction mode, residual data, disparity data, the depth information of the encoding of the intra prediction mode, and single-loop, and passes control to a function block 455. 機能ブロック455は、1だけ変数iをインクリメントし、制御を判定ブロック415にリターンする。 Function block 455 increments the 1 only variable i, returns control to decision block 415.

機能ブロック460は、anchor_single_loop_decoding_flag[i]をゼロに設定し、制御を判定ブロック430に移す。 Function block 460 sets the anchor_single_loop_decoding_flag [i] to zero, and passes control to a decision block 430.

機能ブロック465は、non_anchor_single_loop_decoding_flag[i]をゼロに等しく設定し、制御を機能ブロック440に移す。 Function block 465 sets equal non_anchor_single_loop_decoding_flag [i] to zero, and passes control to a function block 440.

図5を参照して、多視点映像コンテンツのシングルループの復号化の例示的な方法は、参照符号500により示される。 Referring to FIG. 5, an exemplary method for single loop decoding of multi-view video content is indicated generally by the reference numeral 500.

本方法500は、開始ブロック505を含み、この開始ブロックは、制御を機能ブロック510に移す。 The method 500 includes a start block 505, the start block that passes control to a function block 510. 機能ブロック510は、anchor_single_loop_decoding_flag[i]及びnon_anchor_single_loop_decoding_flag[i]をビューiのシーケンスパラメータセット(SPS)、ピクチャパラメータセット(PPS)、ネットワーク抽象レイヤ(NAL)ユニットヘッダ、又はスライスヘッダから読取り、制御を判定ブロック515に移す。 Function block 510, anchor_single_loop_decoding_flag [i] and non_anchor_single_loop_decoding_flag [i] a view i of the sequence parameter set (SPS), the picture parameter set (PPS), reads from the network abstraction layer (NAL) unit header, or a slice header, determines control transfer to block 515. 判定ブロック515は、変数iが復号化されるべきビュー数未満であるか否かを判定する。 Decision block 515 determines whether or not the view less than the number to the variable i is decoded. 変数iが復号化されるべきビュー数未満である場合、制御を判定ブロック520に移す。 When the variable i is the view less than the number to be decoded, and passes control to a decision block 520. さもなければ、制御を終了ブロック599に移す。 Otherwise, control is passed to an end block 599.

判定ブロック520は、現在のピクチャがアンカーピクチャであるか否かを判定する。 Decision block 520, the current picture is determined whether or not an anchor picture. 現在のピクチャがアンカーピクチャである場合、制御を判定ブロック525に移す。 If the current picture is an anchor picture, and passes control to a decision block 525. さもなければ、制御を判定ブロック575に移す。 Otherwise, control is passed to a decision block 575.

判定ブロック525は、anchor_single_loop_decoding_flag[i]が1に等しいか否かを判定する。 Decision block 525 determines whether or not anchor_single_loop_decoding_flag [i] is equal to 1. anchor_single_loop_decoding_flag[i]が1に等しい場合、制御を機能ブロック530に移す。 If anchor_single_loop_decoding_flag [i] is equal to 1, and passes control to a function block 530. さもなければ、制御を機能ブロック540に移す。 Otherwise, control is passed to a function block 540.

機能ブロック530は、インター予測が含まれないとき、ビューiのマクロブロックを復号化するとき、シーケンスパラメータセット(SPS)からのビュー間の依存度を考慮し、制御を機能ブロック535に移す。 Function block 530, when not included inter prediction, when decoding a macroblock of view i, considering the dependency between views from sequence parameter set (SPS), and passes control to a function block 535. 機能ブロック535は、動き情報、インター予測モード、残差データ、ディスパリティデータ、イントラ予測モード、モーションスキップマクロブロックの深さ情報の組み合わせを推定し、制御を機能ブロック570に移す。 Function block 535, motion information, inter prediction mode, residual data, disparity data, intra prediction mode, estimates the combination of depth information of motion skip macroblock, and passes control to a function block 570.

機能ブロック570は、1だけ変数iをインクリメントし、制御を判定ブロック515に移す。 Function block 570 increments the 1 only variable i, and passes control to a decision block 515.

判定ブロック540は、インター予測が含まれるとき、ビューiのマクロブロックを復号化する間、シーケンスパラメータセット(SPS)からビュー間の依存度を考慮し、制御を機能ブロック545に移す。 Decision block 540, when included inter prediction considering during the dependency between views from a sequence parameter set (SPS) for decoding a macroblock of view i, and passes control to a function block 545. 機能ブロック545は、動き情報、インター予測モード、残差データ、ディスパリティデータ、イントラ予測モード、及び深さ情報の組み合わせを推定し、制御を機能ブロック570に移す。 Function block 545, motion information, estimates the combination of inter-prediction mode, residual data, disparity data, intra prediction modes, and depth information, and passes control to a function block 570.

判定ブロック575は、anchor_single_loop_decoding_flag[i]が1に等しいか否かを判定する。 Decision block 575 determines whether or not anchor_single_loop_decoding_flag [i] is equal to 1. anchor_single_loop_decoding_flag[i]が1に等しい場合、制御を機能ブロック550に移す。 If anchor_single_loop_decoding_flag [i] is equal to 1, and passes control to a function block 550. さもなければ、制御を機能ブロック560に移す。 Otherwise, control is passed to a function block 560.

機能ブロック550は、ビュー間予測が含まれないとき、ビューiのマクロブロックを復号化する間、シーケンスパラメータセット(SPS)からのビュー間の依存度を考慮し、制御を機能ブロック555に移す。 Function block 550, when not included inter-view prediction, while decoding a macroblock of view i, considering the dependency between views from sequence parameter set (SPS), and passes control to a function block 555. 機能ブロック555は、動き情報、インター予測モード、残差データ、ディスパリティデータ、イントラ予測モード、及びモーションスキップマクロブロックの深度情報の組み合わせを推定する。 Function block 555, motion information, inter prediction mode, residual data, disparity data, intra prediction mode, and estimates the combination of the depth information for motion skip macroblock.

機能ブロック560は、インター予測が含まれるとき、ビューiのマクロブロックを復号化する間、シーケンスパラメータセット(SPS)からのビュー間の依存度を考慮し、制御を機能ブロック565に移す。 Function block 560, when included inter prediction, while decoding a macroblock of view i, considering the dependency between views from sequence parameter set (SPS), and passes control to a function block 565. 機能ブロック565は、動き情報、インター予測モード、残差データ、ディスパリティデータ、イントラ予測モード、及び深さデータの組み合わせを推定し、制御を機能ブロック570に移す。 Function block 565, motion information, inter prediction mode, residual data, disparity data, estimates an intra prediction mode, and a combination of depth data, and passes control to a function block 570.

図6を参照して、シングルループの復号化のサポートにおける多視点映像コンテンツを符号化する別の例示的な方法は、参照符号600により示される。 6, another exemplary method for encoding multi-view video content in support single loop decoding is indicated by reference numeral 600.

本方法600は、開始ブロック605を含み、この開始ブロックは、制御を機能ブロック610に移す。 The method 600 includes a start block 605, the start block that passes control to a function block 610. 機能ブロック610は、エンコーダのコンフィギュレーションファイルを分析し、制御を判定ブロック615に移す。 Function block 610 analyzes the configuration file of the encoder, and passes control to a decision block 615. 判定ブロック615は、それぞれのビューについて全てのアンカーピクチャについてシングルループの符号化がイネーブルにされるか否かを判定する。 Decision block 615, for all the anchor picture for each view is determined whether encoding of single loop is enabled. シングルループの符号化がイネーブルにされる場合、制御を機能ブロック620に移す。 If the sign of the single loop is enabled, and passes control to a function block 620. さもなければ、制御を機能ブロック665に移す。 Otherwise, control is passed to a function block 665.

機能ブロック620は、anchor_single_loop_decoding_flagを1に等しく設定し、制御を判定ブロック625に移す。 Function block 620 sets equal anchor_single_loop_decoding_flag to 1, and passes control to a decision block 625. 判定ブロック625は、それぞれの全てのノン・アンカーピクチャについてシングルループの符号化がイネーブルにされるか否かを判定する。 Decision block 625 determines whether or not the encoding of the single loop is enabled for all non-anchor pictures, respectively. シングルループの符号化がイネーブルにされる場合、制御を機能ブロック630に移す。 If the sign of the single loop is enabled, and passes control to a function block 630. さもなければ、制御を機能ブロック660に移す。 Otherwise, control is passed to a function block 660.

機能ブロック630は、non_anchor_single_loop_decoding_flagを1に等しく設定し、制御を機能ブロック635に移す。 Function block 630 sets equal non_anchor_single_loop_decoding_flag to 1, and passes control to a function block 635. 機能ブロック635は、anchor_single_loop_decoding_flagを、シーケンスパラメータセット(SPS)、ピクチャパラメータセット(PPS)、ネットワーク抽象レイヤ(NAL)ユニットヘッダ及び/又はスライスヘッダに書込み、制御を判定ブロック640に移す。 Function block 635, the anchor_single_loop_decoding_flag, sequence parameter set (SPS), picture parameter set (PPS), transferred write to the network abstraction layer (NAL) unit header, and / or slice header, control to decision block 640. 判定ブロック640は、変数iが符号化されるべきビューの数未満であるか否かを判定する。 Decision block 640, the variable i is equal to or less than the number of views to be encoded. 変数iが符号化されるべきビューの数未満である場合、制御を機能ブロック645に移す。 When the variable i is less than the number of views to be encoded, and passes control to a function block 645. さもなければ、制御を終了ブロック699に移す。 Otherwise, control is passed to an end block 699.

機能ブロック645は、ビュー間予測が含まれないとき、あるビューのマクロブロックを符号化する間、SPSからのビュー間の依存度を考慮し、制御を機能ブロック650に移す。 Function block 645, when not included inter-view prediction, while encoding a macroblock of a view, taking into account the dependency between views from SPS, and passes control to a function block 650. 機能ブロック650は、動き情報、インター予測モード、残差データ、ディスパリティデータ、イントラ予測モード、シングルループ符号化の深さ情報の組み合わせを推定し、制御を機能ブロック655に移す。 Function block 650 estimates the combination of motion information, inter prediction mode, residual data, disparity data, intra prediction mode, the depth information of the single-loop encoding, and passes control to a function block 655. 機能ブロック655は、変数iを1だけインクリメントし、制御を判定ブロック640に移す。 Function block 655 increments the variable i by 1, and passes control to a decision block 640.

機能ブロック665は、anchor_single_loop_decoding_flagをゼロに等しく設定し、制御を判定ブロック625に移す。 Function block 665 sets equal anchor_single_loop_decoding_flag to zero, and passes control to a decision block 625.

機能ブロック660は、non_anchor_single_loop_decoding_flagをゼロに等しく設定し、制御を機能ブロック635に移す。 Function block 660 sets equal non_anchor_single_loop_decoding_flag to zero, and passes control to a function block 635.

図7を参照して、多視点映像コンテンツのシングルループの復号化の別の例示的な方法は、参照符号700により示される。 Referring to FIG. 7, another exemplary method for single loop decoding of multi-view video content is indicated generally by the reference numeral 700.

本方法700は、開始ブロック705を含み、この開始ブロックは、制御を機能ブロック710に移す。 The method 700 includes a start block 705, the start block that passes control to a function block 710. 機能ブロック710は、anchor_single_loop_decoding_flag及びnon_anchor_single_loop_decoding_flagを、ビューiのシーケンスパラメータセット(SPS)、ピクチャパラメータセット(PPS)、ネットワーク抽象レイヤ(NAL)ユニットヘッダ、スライスヘッダから読み出し、制御を判定ブロック715に移す。 Function block 710, the anchor_single_loop_decoding_flag and non_anchor_single_loop_decoding_flag, view i of the sequence parameter set (SPS), the picture parameter set (PPS), network abstraction layer (NAL) unit header, read from the slice header, and passes control to a decision block 715. 判定ブロック715は、変数iが復号化されるべきビューの数未満であるか否かを判定する。 Decision block 715 determines whether or not less than the number of views to the variable i is decoded. 変数iが復号化されるべきビューの数未満である場合、制御を判定ブロック720に移す。 When the variable i is less than the number of views to be decoded, and passes control to a decision block 720. さもなければ、制御を終了ブロック799に移す。 Otherwise, control is passed to an end block 799.

判定ブロック720は、現在のピクチャがアンカーピクチャであるか否かを判定する。 Decision block 720, the current picture is determined whether or not an anchor picture. 現在のピクチャがアンカーピクチャである場合、制御を判定ブロック725に移す。 If the current picture is an anchor picture, and passes control to a decision block 725. さもなければ、制御を判定ブロック775に移す。 Otherwise, control is passed to a decision block 775.

判定ブロック725は、anchor_single_loop_decoding_flagが1に等しいか否かを判定する。 Decision block 725 determines whether or not anchor_single_loop_decoding_flag equals 1. anchor_single_loop_decoding_flagが1に等しい場合、制御を機能ブロック730に移す。 If anchor_single_loop_decoding_flag equals 1, and passes control to a function block 730. さもなければ、制御を機能ブロック740に移す。 Otherwise, control is passed to a function block 740.

機能ブロック730は、インター予測が含まれないとき、ビューiのマクロブロックを復号化するとき、シーケンスパラメータセット(SPS)からのビュー間の依存度を考慮し、制御を機能ブロック735に移す。 Function block 730, when not included inter prediction, when decoding a macroblock of view i, considering the dependency between views from sequence parameter set (SPS), and passes control to a function block 735. 機能ブロック735は、動き情報、インター予測モード、残差データ、ディスパリティデータ、イントラ予測モード、モーションスキップマクロブロックの深度情報の組み合わせを推定し、制御を機能ブロック770に移す。 Function block 735, motion information, inter prediction mode, residual data, disparity data, intra prediction mode, estimates the combination of the depth information for motion skip macroblock, and passes control to a function block 770.

機能ブロック770は、変数iを1だけインクリメントし、制御を判定ブロック715に移す。 Function block 770 increments the variable i by 1, and passes control to a decision block 715.

機能ブロック740は、インター予測が含まれるとき、ビューiのマクロブロックを復号化する間、シーケンスパラメータセット(SPS)からのビュー間の依存度を考慮し、制御を機能ブロック745に移す。 Function block 740, when included inter prediction, while decoding a macroblock of view i, considering the dependency between views from sequence parameter set (SPS), and passes control to a function block 745. 機能ブロック745は、動き情報、インター予測モード、残差データ、ディスパリティデータ、イントラ予測モード、深度情報の組み合わせを推定し、制御を機能ブロック770に移す。 Function block 745, motion information, inter prediction mode, residual data, disparity data, intra prediction mode, estimates the combination of depth information, and passes control to a function block 770.

判定ブロック775は、non_anchor_single_loop_decoding_flagが1に等しいか否かを判定する。 Decision block 775 determines whether or not non_anchor_single_loop_decoding_flag equals 1. non_anchor_single_loop_decoding_flagが1に等しい場合、制御を機能ブロック750に移す。 If non_anchor_single_loop_decoding_flag equals 1, and passes control to a function block 750. さもなければ、制御を機能ブロック760に移す。 Otherwise, control is passed to a function block 760.

機能ブロック750は、ビュー間予測が含まれないとき、ビューiのマクロブロックを復号化する間、シーケンスパラメータセット(SPS)からのビュー間の依存度を考慮し、制御を機能ブロック755に移す。 Function block 750, when not included inter-view prediction, while decoding a macroblock of view i, considering the dependency between views from sequence parameter set (SPS), and passes control to a function block 755. 機能ブロック755は、動き情報、インター予測モード、残差データ、ディスパリティデータ、イントラ予測モード、及びモーションスキップマクロブロックの深度情報の組み合わせを推定し、制御を機能ブロック770に移す。 Function block 755, motion information, inter prediction mode, residual data, disparity data, intra prediction mode, and estimates the combination of the depth information for motion skip macroblock, and passes control to a function block 770.

機能ブロック760は、インター予測が含まれるとき、ビューiのマクロブロックを復号化する間、シーケンスパラメータセット(SPS)からのビュー間の依存度を考慮し、制御を機能ブロック765に移す。 Function block 760, when included inter prediction, while decoding a macroblock of view i, considering the dependency between views from sequence parameter set (SPS), and passes control to a function block 765. 機能ブロック765は、動き情報、インター予測モード、残差データ、ディスパリティデータ、イントラ予測モード、及び深さ情報の組み合わせを推定し、制御を機能ブロック770に移す。 Function block 765, motion information, estimates the combination of inter-prediction mode, residual data, disparity data, intra prediction modes, and depth information, and passes control to a function block 770.

本発明の多数の付随する利点/特徴のうちの幾つかの説明が与えられ、そのうちの幾つかは、先に記載された。 Some description is given of the many attendant advantages / features of the present invention, some of which have been described previously. たとえば、1つの利点/特徴は、多視点映像コンテンツがビュー間予測を使用して符号化されるとき、多視点映像コンテンツのシングルループの復号化をイネーブルにするため、多視点映像コンテンツを符号化するエンコーダを有する装置である。 For example, one advantage / feature is when a multi-view video content is encoded using inter-view prediction, to enable single loop decoding of multi-view video content, encoded multi-view video content an apparatus having an encoder for.

別の利点/特徴は、上述されたエンコーダを有する装置であり、多視点映像コンテンツは、参照ビュー及び他のビューを含む。 Another advantage / feature is the apparatus having the encoder as described above, the multi-view video content includes a reference view and other views. 他のビューは、参照ビューの完全な再構成なしに再構成可能である。 Other views is reconfigurable without full reconstruction of the reference view.

更に別の利点/特徴は、上述されたようなエンコーダを有する装置であり、ビュー間予測は、多視点映像コンテンツの参照ビューからの動き情報、インター予測モード、イントラ予測モード、参照インデックス、残差データ、深度情報、イルミネーション補償オフセット、デブロッキング強度、及びディスパリティデータの少なくとも1つを推定する。 Yet another advantage / feature is the apparatus having the encoder as described above, the inter-view prediction, the motion information from the reference view of the multi-view video content, the inter prediction mode, the intra prediction mode, the reference index, residual data, depth information is estimated illumination compensation offset, deblocking strength, and at least one of the disparity data.

更に別の利点/特徴は、上述されたエンコーダを有する装置であり、ビュー間予測は、所与のビューに関して多視点映像コンテンツの参照ビューからの少なくとも1つのピクチャの少なくとも1部に関連する特性から多視点コンテンツの所与のビューの情報を推定し、少なくとも1つのピクチャの少なくとも1部に関する情報を復号化することを含む。 Yet another advantage / feature is the apparatus having the encoder as described above, inter-view prediction from characteristics associated with at least a portion of at least one picture from a reference view of the multi-view video content for a given view It estimates the information of the given views of multi-view content, includes decoding information about at least part of at least one picture.

さらに、別の利点/特徴は、上述されたエンコーダを有する装置であり、ハイレベルシンタックスエレメントは、シングルループの複合化が多視点映像コンテンツについてイネーブルにされたことを示すために使用される。 Moreover, another advantage / feature is the apparatus having the encoder as described above, high level syntax element is used to indicate that the conjugation of the single loop is enabled for multi-view video content.

さらに、別の利点/特徴は、記載されたハイレベルシンタックスを使用するエンコーダを有する装置であり、ハイレベルシンタックスエレメントは、個々に、多視点映像コンテンツにおけるアンカーピクチャ及びノン・アンカーピクチャについてシングルループの復号化がイネーブルにされたかを示し、シングルループの復号化がイネーブルにされたかをビュー毎に示し、シングルループの復号化がイネーブルにされたかをシーケンス毎に示し、多視点映像コンテンツにおけるノン・アンカーピクチャのみについてシングルループの復号化がイネーブルにされたことを示す。 Moreover, another advantage / feature is the apparatus having the encoder that uses the high level syntax as described, a high level syntax element is individually single for anchor pictures and non-anchor pictures in the multi-view video content indicates decoding loop is enabled, indicates whether single loop decoding is enabled for each view, indicates whether single loop decoding is enabled for each sequence, the non in multi-view video content anchor picture only indicates that the single loop decoding is enabled.

本発明のこれらの特徴及び利点、並びに他の特徴及び利点は、本実施の形態における教示に基づいて当業者により容易に確認される場合がある。 These features and advantages of the present invention and other features and advantages, may be readily ascertained by those skilled in the art based on the teachings herein. 本発明の教示は、ハードウェア、ソフトウェア、ファームウェア、特定用途向けプロセッサ、又はその組み合わせで実現される場合があることを理解されたい。 The teachings of the present invention, like hardware, software, firmware, be understood that it may be implemented special purpose processors, or a combination thereof.

最も好ましくは、本発明の教示は、ハードウェアとソフトウェアの組み合わせとして実現される。 Most preferably, the teachings of the present invention are implemented as a combination of hardware and software. さらに、ソフトウェアは、プログラムストレージユニットで実施されるアプリケーションプログラムとして実現される場合がある。 Moreover, the software may be implemented as an application program tangibly embodied on a program storage unit. アプリケーションプログラムは、適切なアーキテクチャを有するコンピュータにアップロードされるか、該コンピュータにより実行される場合がある。 The application program may either be uploaded to a computer with a suitable architecture, and executed by, a computer. 好ましくは、コンピュータは、1以上の中央処理装置(CPU)、ランダムアクセスメモリ(RAM)及び入力/出力(I/O)インタフェースのようなコンピュータプラットフォームで実現される。 Preferably, the computer, one or more central processing unit (CPU), a is implemented by a random access memory (RAM) and input / output (I / O) the computer platform such as an interface. また、コンピュータプラットフォームは、オペレーティングシステム及びマイクロ命令コードを含む場合がある。 The computer platform may also include an operating system and microinstruction code. 本実施の形態で記載される様々なプロセス及び機能は、CPUにより実行されるマイクロ命令コードの一部又はアプリケーションプログラムの一部であるか、或いはそれらの組み合わせである場合がある。 The various processes and functions described in this embodiment may be part of a part or the application program of the micro instruction code to be executed by the CPU, or a combination thereof. さらに、様々な他の周辺装置は、更なるデータストレージユニット及びプリンティングユニットのようなコンピュータプラットフォームに接続される場合がある。 In addition, various other peripheral devices may be connected to the computer platform such as an additional data storage unit and a printing unit.

さらに、記憶媒体で符号化された映像信号データを有する記憶媒体への引用は、明細書で引用されるか、請求項で引用されるかに係らず、係るデータは記録される任意のタイプのコンピュータ読取可能な記憶媒体を含むことが理解される。 Furthermore, references to storage media having video signal data encoded in the storage medium, or are cited herein, regardless of whether cited claims, any type of data to be recorded according it is understood that includes a computer readable storage medium.

添付図面で示されるシステム構成要素及び方法の幾つかはソフトウェアで実現されることが好ましいため、システム構成要素又はプロセス機能ブロック間の実際の接続は、本発明がプログラムされるやり方に依存して異なる場合があることを理解されたい。 For some of the constituent system components and methods may be implemented in software preferably represented in the accompanying drawings, the actual connections between the system components or the process function blocks may differ depending upon the manner in which the present invention is programmed it is to be understood that if there is. 本実施の形態の教示が与えられると、当業者であれば、本発明のこれら及び類似の実現又はコンフィギュレーションを創作することができるであろう。 When the teachings of the present embodiment can be applied, those skilled in the art will be able to work these and similar implementations or configurations of the present invention.

例示的な実施の形態は添付図面を参照して記載されたが、本発明はそれら正確な実施の形態に限定されず、様々な変形及び変更は本発明の範囲又は精神から逸脱することなしに当業者により実施される場合がある。 Although the illustrative embodiments have been described with reference to the accompanying drawings, the present invention is not limited to those precise embodiments, various changes and modifications without departing from the scope or spirit of the present invention which may be made by those skilled in the art. 全ての係る変形及び変更は、特許請求の範囲で述べられる本発明の範囲に含まれることが意図される。 All such changes and modifications are intended to be included within the scope of the invention as set forth in the appended claims.

Claims (4)

  1. 視点間予測を使用して多視点映像コンテンツを符号化するように構成されたエンコーダを有する装置であって、 The multi-view video content using inter-view prediction apparatus having an encoder configured to encode,
    前記視点間予測は、 ビューを復号するのに、隣接する参照ビューを完全に再構成する必要がないとの表示に基づき、少なくとも前記隣接する参照ビューのデータを推定し、 The interview prediction is to decode the view, based on the display of that it is not necessary to completely reconstruct the reference view adjacent to estimate the data of the reference view that at least the adjacent,
    前記推定されるデータは、イルミネーション補償オフセットに関する、 Data the estimated relates illumination compensation offset,
    装置。 apparatus.
  2. 前記視点間予測は、所与のビューに関して前記多視点映像コンテンツの前記参照ビューからの少なくとも1つのピクチャの少なくとも1部に関連する特性から前記多視点映像コンテンツの前記所与のビューの符号化及び復号に関連する情報を推定すること、及び前記少なくとも1つのピクチャの少なくとも1部に関連する符号化情報を復号することを含む、 The interview prediction, the encoding of the given view of the at least one of said multi-view video content from the associated properties to at least a portion of the picture from the reference view of the multi-view video content and for a given view estimating information relating to decrypt, and the includes decoding the marks Goka information that are related to at least a portion of at least one picture,
    請求項1記載の装置。 The apparatus of claim 1, wherein.
  3. 視点間予測を使用して多視点映像コンテンツを符号化するステップを含む方法であって、 A method comprising the step of encoding the multi-view video content using inter-view prediction,
    前記符号化するステップは、ビューを復号するのに、隣接する参照ビューを完全に再構成する必要がないとの表示に基づき、少なくとも前記隣接する参照ビューのデータを推定するステップを含み、 Wherein the step of encoding, for decoding the view, based on the display of that it is not necessary to completely reconstruct the reference view adjacent, comprising the steps of estimating the data of the reference view that at least the adjacent,
    前記推定されるデータは、イルミネーション補償オフセットに関する、 Data the estimated relates illumination compensation offset,
    方法。 Method.
  4. 前記視点間予測は、所与のビューに関して前記多視点映像コンテンツの前記参照ビューからの少なくとも1つのピクチャの少なくとも1部に関連する特性から前記多視点映像コンテンツの前記所与のビューの符号化及び復号に関連する情報を推定すること、及び前記少なくとも1つのピクチャの少なくとも1部に関連する符号化情報を復号することを含む、 The interview prediction, the encoding of the given view of the at least one of said multi-view video content from the associated properties to at least a portion of the picture from the reference view of the multi-view video content and for a given view estimating information relating to decrypt, and the includes decoding the marks Goka information that are related to at least a portion of at least one picture,
    請求項3記載の方法。 The method of claim 3, wherein.
JP2010514791A 2007-06-28 2008-06-24 The methods and apparatus of the encoder and decoder to support single-loop decoding of multi-view coded video Active JP5738590B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US94693207P true 2007-06-28 2007-06-28
US60/946,932 2007-06-28
PCT/US2008/007894 WO2009005658A2 (en) 2007-06-28 2008-06-24 Single loop decoding of multi-vieuw coded video

Publications (2)

Publication Number Publication Date
JP2010531623A JP2010531623A (en) 2010-09-24
JP5738590B2 true JP5738590B2 (en) 2015-06-24

Family

ID=40040168

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2010514791A Active JP5738590B2 (en) 2007-06-28 2008-06-24 The methods and apparatus of the encoder and decoder to support single-loop decoding of multi-view coded video
JP2010514775A Active JP5583578B2 (en) 2007-06-28 2008-06-24 The methods and apparatus of the encoder and decoder to support single-loop decoding of multi-view coded video

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2010514775A Active JP5583578B2 (en) 2007-06-28 2008-06-24 The methods and apparatus of the encoder and decoder to support single-loop decoding of multi-view coded video

Country Status (7)

Country Link
US (2) US20100135388A1 (en)
EP (2) EP2168380A2 (en)
JP (2) JP5738590B2 (en)
KR (2) KR101548717B1 (en)
CN (2) CN101690231A (en)
BR (2) BRPI0811458A2 (en)
WO (2) WO2009005658A2 (en)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7817866B2 (en) 2006-01-12 2010-10-19 Lg Electronics Inc. Processing multiview video
KR101276847B1 (en) 2006-01-12 2013-06-18 엘지전자 주식회사 Processing multiview video
US20070177671A1 (en) * 2006-01-12 2007-08-02 Lg Electronics Inc. Processing multiview video
TWI344792B (en) 2006-07-12 2011-07-01 Lg Electronics Inc A method and apparatus for processing a signal
KR101366092B1 (en) 2006-10-13 2014-02-21 삼성전자주식회사 Method and apparatus for encoding and decoding multi-view image
US8548261B2 (en) 2007-04-11 2013-10-01 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding multi-view image
RU2010120518A (en) * 2007-10-15 2011-11-27 Нокиа Корпорейшн (Fi) Skipping a traffic information and single-cycle encoding for multi-angle video
CN101540652B (en) 2009-04-09 2011-11-16 上海交通大学 Terminal heterogeneous self-matching transmission method of multi-angle video Flow
KR101691572B1 (en) * 2009-05-01 2017-01-02 톰슨 라이센싱 Inter-layer dependency information for 3dv
KR20110007928A (en) * 2009-07-17 2011-01-25 삼성전자주식회사 Method and apparatus for encoding/decoding multi-view picture
KR101054875B1 (en) 2009-08-20 2011-08-05 광주과학기술원 Bi-directional prediction method and apparatus for encoding of depth images
KR101289269B1 (en) * 2010-03-23 2013-07-24 한국전자통신연구원 An apparatus and method for displaying image data in image system
WO2012036901A1 (en) 2010-09-14 2012-03-22 Thomson Licensing Compression methods and apparatus for occlusion data
RU2480941C2 (en) 2011-01-20 2013-04-27 Корпорация "Самсунг Электроникс Ко., Лтд" Method of adaptive frame prediction for multiview video sequence coding
KR101626683B1 (en) 2011-08-30 2016-06-01 인텔 코포레이션 Multiview video coding schemes
AU2012323631B2 (en) * 2011-10-11 2015-09-17 Mediatek Inc. Method and apparatus of motion and disparity vector derivation for 3D video coding and HEVC
BR112014011425A2 (en) 2011-11-11 2017-05-16 Faunhofer-Gesellschaft Zur Förderung Der Angewandten Forschung E V efficient multi-view coding using estimation and update map for depth
EP2842334B1 (en) * 2012-07-05 2019-02-20 MediaTek Inc. Method and apparatus of unified disparity vector derivation for 3d video coding
WO2014023024A1 (en) * 2012-08-10 2014-02-13 Mediatek Singapore Pte. Ltd. Methods for disparity vector derivation
CN103686165B (en) * 2012-09-05 2018-01-09 乐金电子(中国)研究开发中心有限公司 Intra depth image encoding and decoding method and video codecs
US9554146B2 (en) * 2012-09-21 2017-01-24 Qualcomm Incorporated Indication and activation of parameter sets for video coding
KR20140048783A (en) 2012-10-09 2014-04-24 한국전자통신연구원 A method and apparatus to share the information depth value for deriving the motion information
EP2919463A4 (en) * 2012-11-07 2016-04-20 Lg Electronics Inc Method and apparatus for processing multiview video signal
EP2919464A4 (en) * 2012-11-07 2016-05-11 Lg Electronics Inc Method and apparatus for processing video signals
US9357212B2 (en) 2012-12-07 2016-05-31 Qualcomm Incorporated Advanced residual prediction in scalable and multi-view video coding
CN107770555A (en) 2012-12-10 2018-03-06 Lg 电子株式会社 Method for decoding image and apparatus using same
WO2014104242A1 (en) * 2012-12-28 2014-07-03 シャープ株式会社 Image decoding device and image encoding device
US9516306B2 (en) * 2013-03-27 2016-12-06 Qualcomm Incorporated Depth coding modes signaling of depth data for 3D-HEVC
WO2015006922A1 (en) * 2013-07-16 2015-01-22 Mediatek Singapore Pte. Ltd. Methods for residual prediction
WO2015139187A1 (en) * 2014-03-17 2015-09-24 Mediatek Inc. Low latency encoder decision making for illumination compensation and depth look-up table transmission in video coding
KR20160118363A (en) * 2014-03-20 2016-10-11 니폰 덴신 덴와 가부시끼가이샤 Image encoding device and method, image decoding device and method, and programs therefor

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3055438B2 (en) * 1995-09-27 2000-06-26 日本電気株式会社 3-dimensional image coding apparatus
US7924923B2 (en) * 2004-11-30 2011-04-12 Humax Co., Ltd. Motion estimation and compensation method and device adaptive to change in illumination
US7903737B2 (en) * 2005-11-30 2011-03-08 Mitsubishi Electric Research Laboratories, Inc. Method and system for randomly accessing multiview videos with known prediction dependency
KR101199498B1 (en) * 2005-03-31 2012-11-09 삼성전자주식회사 Apparatus for encoding or generation of multi-view video by using a camera parameter, and a method thereof, and a recording medium having a program to implement thereof
KR100732961B1 (en) * 2005-04-01 2007-06-27 경희대학교 산학협력단 Multiview scalable image encoding, decoding method and its apparatus
US8228994B2 (en) * 2005-05-20 2012-07-24 Microsoft Corporation Multi-view video coding based on temporal and view decomposition
JP4414379B2 (en) * 2005-07-28 2010-02-10 日本電信電話株式会社 Video encoding method, video decoding method, video encoding program, video decoding program and computer-readable recording medium those programs
US8559515B2 (en) * 2005-09-21 2013-10-15 Samsung Electronics Co., Ltd. Apparatus and method for encoding and decoding multi-view video
US8644386B2 (en) * 2005-09-22 2014-02-04 Samsung Electronics Co., Ltd. Method of estimating disparity vector, and method and apparatus for encoding and decoding multi-view moving picture using the disparity vector estimation method
KR101276720B1 (en) * 2005-09-29 2013-06-19 삼성전자주식회사 Method for predicting disparity vector using camera parameter, apparatus for encoding and decoding muti-view image using method thereof, and a recording medium having a program to implement thereof
KR101244911B1 (en) * 2005-10-11 2013-03-18 삼성전자주식회사 Apparatus for encoding and decoding muti-view image by using camera parameter, and method thereof, a recording medium having a program to implement thereof
KR100763194B1 (en) * 2005-10-14 2007-10-04 삼성전자주식회사 Intra base prediction method satisfying single loop decoding condition, video coding method and apparatus using the prediction method
JP4570159B2 (en) * 2006-01-06 2010-10-27 Kddi株式会社 Multi-view video encoding method, apparatus and program
US20070160137A1 (en) * 2006-01-09 2007-07-12 Nokia Corporation Error resilient mode decision in scalable video coding
US8315308B2 (en) * 2006-01-11 2012-11-20 Qualcomm Incorporated Video coding with fine granularity spatial scalability
US7817866B2 (en) * 2006-01-12 2010-10-19 Lg Electronics Inc. Processing multiview video
KR100772873B1 (en) * 2006-01-12 2007-11-02 삼성전자주식회사 Video encoding method, video decoding method, video encoder, and video decoder, which use smoothing prediction
KR100754205B1 (en) * 2006-02-07 2007-09-03 삼성전자주식회사 Multi-view video encoding apparatus and method
US8170116B2 (en) * 2006-03-27 2012-05-01 Nokia Corporation Reference picture marking in scalable video encoding and decoding
US8699583B2 (en) * 2006-07-11 2014-04-15 Nokia Corporation Scalable video coding and decoding
WO2008023968A1 (en) * 2006-08-25 2008-02-28 Lg Electronics Inc A method and apparatus for decoding/encoding a video signal
JP4793366B2 (en) * 2006-10-13 2011-10-12 日本ビクター株式会社 Multi-view image encoding apparatus, the multi-view image encoding method, the multi-view image encoding program, a multi-viewpoint image decoding apparatus, the multi-view image decoding method, and multi-view image decoding program
FR2907575B1 (en) * 2006-10-18 2009-02-13 Canon Res Ct France Soc Par Ac Method and image coding device representative views of a same scene
EP2080382B1 (en) * 2006-10-20 2016-07-20 Nokia Technologies Oy System and method for implementing low-complexity multi-view video coding
JP5475464B2 (en) 2007-01-17 2014-04-16 エルジー エレクトロニクス インコーポレイティド Video signal processing method and apparatus
US8548261B2 (en) * 2007-04-11 2013-10-01 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding multi-view image
CN101690220B (en) * 2007-04-25 2013-09-25 Lg电子株式会社 A method and an apparatus for decoding/encoding a video signal

Also Published As

Publication number Publication date
EP2168383A2 (en) 2010-03-31
WO2009005626A2 (en) 2009-01-08
KR20100032390A (en) 2010-03-25
BRPI0811469A2 (en) 2014-11-04
WO2009005626A3 (en) 2009-05-22
KR101395659B1 (en) 2014-05-19
BRPI0811458A2 (en) 2014-11-04
JP5583578B2 (en) 2014-09-03
JP2010531622A (en) 2010-09-24
JP2010531623A (en) 2010-09-24
WO2009005658A2 (en) 2009-01-08
US20100118942A1 (en) 2010-05-13
KR101548717B1 (en) 2015-09-01
CN101690231A (en) 2010-03-31
KR20100030625A (en) 2010-03-18
CN101690230A (en) 2010-03-31
EP2168380A2 (en) 2010-03-31
US20100135388A1 (en) 2010-06-03
WO2009005658A3 (en) 2009-05-14
BRPI0811469A8 (en) 2019-01-22

Similar Documents

Publication Publication Date Title
KR101299848B1 (en) Method and apparatus for weighted prediction for scalable video coding
JP6163674B2 (en) Content adaptive bidirectional or functional prediction multipath picture for efficient next generation video coding
JP5474546B2 (en) Reduced resolution of the division methods and apparatus
AU2007205007B2 (en) Methods and apparatuses for multi-view video coding
DK2103136T3 (en) Methods and apparatus for improved signaling using high level syntax for multi-view video encoding and decoding
JP6492119B2 (en) Method and apparatus for separating frame number and / or picture order count (POC) for multi-view video encoding and decoding
JP5411147B2 (en) Method and apparatus for artifact removal for bit depth scalability
EP2418853A2 (en) Picture identification for multi-view video coding
CN101416519B (en) Methods and apparatus for use in a multi-view video coding system
CN101785317B (en) Methods and apparatus for motion skip mode in multi-view coded video using regional disparity vectors
KR101727311B1 (en) Multi-view video coding with disparity estimation based on depth information
KR101366918B1 (en) Methods and apparatus for weighted prediction in scalable video encoding and decoding
RU2417546C2 (en) Method and device for video signal scalable coding and decoding
CN102761744B (en) For multi-view video coding syntax reference picture list management
JP5124583B2 (en) Method and apparatus for local illumination and color compensation without explicit signaling
CN101491099B (en) Methods and apparatus using virtual reference pictures
US10298952B2 (en) Methods and apparatus for motion skip move with multiple inter-view reference pictures
JP5666293B2 (en) Method and apparatus for merging that depends on the context of the skip / direct mode for video encoding, and decoding
KR101375666B1 (en) Method and apparatus for encoding and decoding multi-view image based on global disparity vector
KR101492781B1 (en) Slice header three-dimensional video extension for slice header prediction
RU2502217C2 (en) Image processing device, image processing method and programme
JP5346108B2 (en) Method and apparatus for providing a low resolution update mode for Multi-view Video Coding
JP5924823B2 (en) A plurality of adjacent methods and apparatus for determining the quantization parameter predictor from the quantized parameters
JP5922579B2 (en) Adaptive coding method and apparatus for motion information
JP5467637B2 (en) Method and apparatus for reducing coding artifacts for illumination compensation and / or color compensation in multi-view coded video

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110613

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110613

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130326

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130625

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130702

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140325

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140624

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140701

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150324

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150422

R150 Certificate of patent or registration of utility model

Ref document number: 5738590

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360