JP2013042521A - 多視点映像符号化のための画像の管理 - Google Patents

多視点映像符号化のための画像の管理 Download PDF

Info

Publication number
JP2013042521A
JP2013042521A JP2012220165A JP2012220165A JP2013042521A JP 2013042521 A JP2013042521 A JP 2013042521A JP 2012220165 A JP2012220165 A JP 2012220165A JP 2012220165 A JP2012220165 A JP 2012220165A JP 2013042521 A JP2013042521 A JP 2013042521A
Authority
JP
Japan
Prior art keywords
image
viewpoint
viewpoints
dependency information
anchor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012220165A
Other languages
English (en)
Inventor
Pervin Bivas Panduit
パンディット,パーヴィン,ビバス
Yeping Su
スー,イェピン
Peng Yin
イン,ペン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2013042521A publication Critical patent/JP2013042521A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/58Motion compensation with long-term prediction, i.e. the reference frame for a current frame not being the temporally closest one
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】多視点映像符号化のデコーダにおいて、視点間参照ピクチャの視点間依存関係を用いることで、参照ピクチャを保存するバッファサイズを小さくする。
【解決手段】デコーダは、第一の視点からの画像、第二の視点からの画像及び依存情報がアクセスされる。依存情報は、第一の視点からの画像について1以上の視点間の依存関係を示す。依存情報に基づいて、第一の視点からの画像が第二の視点からの画像の参照画像であるかが判定される。1つの応用は、デコードされたピクチャのバッファにおける画像が未だデコードされていない画像の参照画像であるかを判定することを含む。バッファにおける画像は、視点間の参照画像として必要とされ続けるかを示すために記録される。
【選択図】図10

Description

本発明は、ビデオ符号化及び復号化全般に関する。
本出願は、(1)2006年10月24日に提出された“Decoded reference Picture Management for MVC”と題された米国仮出願60/853932号、及び(2)2006年11月21日に提出された“Inter−View and Temporal Reference Picture Identification for MVC”と題された米国特許出願60/860367号のそれぞれの利益を特許請求するものである。これら2つの優先権出願のそれぞれは、その完全な形で本明細書に盛り込まれる。
ビデオデコーダは、画像をデコードし、デコードされた画像がもはや必要とされないことをデコーダが確認するまで、画像をメモリに記憶する。たとえばデコードされた画像に基づいてエンコードされた後続する画像をデコードするため、様々なシステムでは、画像がエンコードされる。「参照画像」と呼ばれる前の画像からの差として、かかるデコードされた画像は必要とされ、デコードされた参照画像は、参照画像を使用した全ての後続する画像もデコードされるまで、デコーダに記憶される。参照画像を記憶することは、デコーダでの有益なメモリを消費する。
一般的な態様によれば、第一の視点からの画像と、第二の視点からの画像と、依存情報とが共にアクセスされる。依存情報は、第一の視点からの画像について1以上の視点間の依存の関係(inter−view dependency relationship)を記述する。依存情報に基づいて、第一の視点からの画像が第二の視点からの画像の参照画像であるかが判定される。
1以上の実現の詳細は、以下の添付図面及び説明で述べられる。1つの特定のやり方で記載された場合、様々なやり方で実現が構成又は実施される場合がある。たとえば、実現は、方法として実行されるか、動作のセットを実行するために構成される装置として実施されるか、動作のセットを実行するための命令を記憶する装置として実施されるか、或いは信号で実施される場合がある。他の態様及び特徴は、添付図面及び請求項と共に考慮される以下の詳細な説明から明らかとなるであろう。
例示的なエンコーダのブロック図である。 例示的なデコーダのブロック図である。 8つの視点を有し、MPEG−4AVC標準に基づいた例示的な視点間−時間(inter−view−temporal)予測構造の図である。 参照画像の管理データを符号化する例示的な方法のフローチャートである。 参照画像の管理データを復号化する例示的な方法のフローチャートである。 視点間の依存度を決定する例示的な方法の図である。 視点間の依存度を決定する別の例示的な方法の図である。 例示的なエンコーダの高水準のブロック図である。 例示的なデコーダの高水準のブロック図である。 依存度を決定する方法の実現のためのフローチャートである。 記憶された画像を除く方法の実現のためのフローチャートである。
本実施の形態で記載される少なくとも1つの実現は、ビデオエンコーダ及び/ビデオデコーダを提供するものであり、このビデオデコーダは、視点間の依存情報に基づいて、メモリから所与のデコードされた画像を除く。視点間の依存情報は、所与のデコードされた画像について1以上の視点間の依存の関係を記述する。したがって、たとえば参照画像として所与のデコードされた画像に依存する全ての後続する画像を記述する情報にアクセスすることで、(たとえば)ビデオデコーダは、全てのそれら後続する画像をデコードした後に、所与のデコードされた画像を除く。更なる実現は、所与のデコードされた画像を即座に除くことなしに、全てのそれら後続する画像がデコードされた後に、所与のデコードされた画像を記録する。依存情報は、たとえばMPEG−4AVC標準に基づくMVC(以下に定義される)の高水準のシンタックスでエンコードされる場合がある。
ISO/IEC(International Organization for Standardization/International Electrotechnical Commission) MPEG−4(Moving Picture Experts Group−4)Part10 AVC(Advanced Video Coding)標準/ITU−T(International Telecommunication Union, Telecommunication Sector) H.264勧告(以下、MPEG−4AVC標準)に基づいた多視点符号化(MVC:Multi View Coding)の実現では、参照ソフトウェアは、1つのエンコーダによりそれぞれの視点をエンコードし、クロスビュー参照(cross−view reference)を考慮することで、多視点の予測を達成する。MPEG−4AVC標準に基づくMVC(以下、「MPEG−4AVC標準ベースのMVC」)の現在の実現は、異なる視点間でフレーム/ピクチャ数(frame_num)及びピクチャオーダカウント(POC)を分離し、これにより同じframe_num及びPOCをもつ画像は、デコードされたピクチャのバッファ(DPB)に存在することができる。これらの画像は、それらに関連される視点識別子(view_id)を使用して識別される。
デコードされたピクチャのバッファを管理するため、MPEG−4AVC標準ベースのMVCは、MPEG−4AVCに互換性のあるメモリ管理制御動作(MMCO)コマンドを使用する。これらMMCOコマンドは、これらMMCOコマンドを実行するために使用されるものと同じview_idをもつ画像でのみ動作する。
これは、余りに制限的であり、さらに、効率的ではない。これは、それ自身とは異なるview_idをもつ画像をMMCOコマンドがマークするのを可能にしないことで、必要とされるデコードされる画像のバッファサイズが典型的に大きくなるからである。したがって、デコードされた画像の小さなバッファサイズを可能にするため(したがってメモリを使用しない)、更に効率的なやり方で画像を管理するべきある。
MPEG−4標準によれば、エンコード又はデコードされた画像であって、参照のために利用可能なピクチャは、デコードされたピクチャのバッファに記憶される。次いで、画像は、(a)短期の参照画像又は(b)長期の参照画像として記録される。短期の参照画像は、その後になって、LongTermPicNumが割り当てられる(及び長期の参照画像に「変化される」)場合がある。この記録プロセスは、表1で示されるようにMMCOコマンドを使用して行われる。表1は、デコードされた参照画像のマーキングシンタックスを示す。効率的なデコードされたピクチャのバッファの管理は、MMCOコマンドを使用して達成することができる。
Figure 2013042521
適応的な参照画像の管理とスライディングウィンドウの記録との間の選択は、スライスヘッダに存在するadaptive_ref_marking_mode_flagを使用して行われる。adaptive_ref_pic_marking_mode_flagの解釈は、表2で示される。
Figure 2013042521
それぞれのメモリ管理制御動作コマンドの解釈は、表3に示される。表3は、メモリ管理制御動作(memory_management_control_operation)値を示す。
Figure 2013042521
多視点映像符号化の1つのMPEG−4AVC標準に互換性のあるソリューションでは、全てのビデオ系列は、1つの系列にインタリーブされる。この1つのインタリーブされた系列は、MPEG−4AVC標準に互換性のあるエンコーダに供給され、MPEG−4AVC標準に互換性のあるビットストリームが生成される。
これはMPEG−4AVC標準に互換性のある実現であるので、ピクチャがどの視点に属するかを識別する方法がない。フレーム数(frame_num)及びピクチャオーダカウントは、これを考慮することなしに割り当てられるので、MPEG−4AVC標準に互換性のあるMMCOコマンドは、効率的なデコードされたピクチャのバッファサイズの管理を達成する。
MPEG−4AVC標準ベースのMVCでは、更なるシンタックスは、クロスビューの参照を示すため、表4に示されるようにSPS(Sequence Parameter Set)に付加される。表4は、SPSの多視点映像符号化の拡張シンタックスを示す。このシンタックスは、以下のやり方でアンカーピクチャ(anchor picture)とノンアンカーピクチャ(non−anchor picture)のために使用されるクロスビューの参照を示すために使用される。
Figure 2013042521
以下の手順は、現在の視点とは異なる視点からの参照画像を参照予測リストに配置するために行われる。
現在のピクチャがアンカーピクチャ又はV−IDRピクチャである場合、0からnum_anchor_refs_IX−1までのそれぞれのiの値について、anchor_ref_IX[i]に等しいview_idを持つ画像及び1に等しいinter_view_flagを持つ画像及び現在の画像と同じPicOrderCnt()をもつ画像は、RefPicListXに添付される。
さもなければ(現在の画像がアンカーピクチャではなく、V−IDRピクチャではない場合)、0からnum_non_anchor_refs_IX−1までのそれぞれのiの値について、non_anchor_ref_IX[i]に等しいview_idを持つ画像及び1に等しいinter_view_flagを持つ画像及び現在の画像と同じPicOrderCnt()をもつ画像は、RefPicListXに添付される。
この実現において、メモリ管理制御動作コマンドは、個々の視点のみと関連付けされ、他の視点における画像を記録することができない。直接の結果として、クロスビューの参照画像は、必要よりも長いデコードされたピクチャのバッファにとどまる。これは、所与のクロスビューの参照画像は、ビットストリームにおいて後にそれ自身の視点の画像により「参照のために使用されずに」記録される。
MPEG−4AVC標準ベースのMVCでは、(表5で示される)以下のケースをどのように区別するかが特定されない。視点間の参照のみのために画像が使用される。時間的な参照のみのために画像が使用される。視点間の参照と時間的な参照の両者のために画像が使用される。参照のために画像が使用されない。表5は、時間の参照(temporal reference)及び視点間の参照(inter−view reference)について、参照画像のケースを示す。
Figure 2013042521
結合多視点映像モデル(JMVM: Joint Multi−view Video Model)の実現は、所定の条件下で「参照のために使用されない」として記録されるべき現在の視点以外の視点に存在する画像の条件を規定する。これらの条件は、以下のとおりである。
現在の画像がアンカーピクチャである場合、以下の条件を満たす全ての参照画像は、「参照のために使用されない」として記録される。
参照画像は、現在の画像と同じPicOrderCnt()を有する。
参照画像は、anchor_ref_IX(Xは0又は1)により示されるのと異なる視点から、デコーディング順序で後続する画像をデコードする必要がない。
参照画像は、それ自身の視点で後続する画像をデコードする必要がない。
現在の画像がアンカーピクチャでない場合、以下の条件を満たす全ての参照画像は、「参照のために使用されない」として記録される。
参照画像は、現在の画像と同じPicOrderCnt()を有する。
参照画像は、non_anchor_ref_IX(Xは0又は1)により示されるのと異なる視点から、デコーディング順序で後続する画像をデコードする必要がない。
参照画像は、それ自身の視点で後続する画像をデコードする必要がない。
上記条件を満たす画像の記録は、「暗黙の記録」と呼ばれる。より一般的に、暗黙の記録は、更なる明示的なシグナリングを使用することなしに、既存のシンタックスを使用して実行される記録を示す。上述された暗黙の記録を使用した効率的なデコードされたピクチャのバッファの管理のため、表5に示されたケースを区別することが重要である。この区別がどのように達成されるかは、MPEG−4AVC標準ベースのMVCで明確に規定されていない。
表4で示される多視点映像符号化の拡張のシーケンスパラメータセットは、所定の視点についてどの視点が参照として使用されるかに関する情報を含む。この情報は、どの視点が視点間の参照として使用されるか、どの視点が使用されないかを示すため、参照テーブル又は他のデータ構造を生成するために使用することができる。さらに、この情報は、アンカーピクチャ及びノンアンカーピクチャについて個別に知ることができる。
別のアプローチでは、新たなフラグは、あるピクチャが視点間の予測の参照のために使用されるかを示す。これは、スケーラブルビデオ符号化/多視点映像符号化の拡張のためにNAL(Network Abstraction Layer)ユニットヘッダで示唆され、シンタックスエレメントnal_ref_idcは、あるピクチャがインター予測(「時間“temporal”」とも呼ばれる)の参照のために使用されるかのみを示す。nal_ref_idcは、表6で示されるNAL(Network Abstraction Layer)ユニットのシンタックスで示唆される。
Figure 2013042521
nal_ref_idcは、以下の意味で現在のところ定義される
0に等しくないnal_ref_idcは、NALユニットの内容が、シーケンスパラメータセット又はピクチャパラメータセット、又は、リファレンスピクチャのスライス、参照画像のスライスデータのパーティションを含むことを規定する。
スライス又はスライスデータのパーティションを含むNALユニットについて0に等しいnal_ref_idcは、スライス又はスライスデータのパーティションが非参照画像の一部であることを示す。
nal_ref_idcは、シーケンスパラメータセット又はシーケンスパラメータセットの拡張又はピクチャパラメータセットのNALユニットについて0に等しくない。nal_ref_idcが特定の画像の1つのスライス又はスライスデータパーティションのNALユニットについて0に等しいとき、その画像の全てのスライス及びスライスデータパーティションのNALユニットについて0に等しい。
nal_ref_idcは、IDR NALユニット、すなわち5に等しいnal_unit_typeをもつNALユニットについて0に等しくない。
nal_ref_idcは、6,9,10,11又は12に等しいnal_unit_typeを有する全てのNALユニットについて0に等しい。
シンタックスの変更は、以下の表7で示される。表7は、NAL(Network Abstraction Layer)SVC(Scalable Video Coding)多視点映像符号化の拡張のシンタックスを示す。
Figure 2013042521
inter_view_reference_flagの意味は、以下のように規定される。
0に等しいinter_view_reference_flagは、現在の画像が視点間の予測の参照のために使用されないことを示す。1に等しいinter_view_reference_flagは、現在の画像が視点間の予測の参照のために使用されることを示す。
したがって、nal_ref_idc及びinter_view_reference_flagの組み合わせを見ることで、所与の参照画像のタイプを判定することができる。表8は、参照画像のタイプに関してnal_ref_idc及びinter_view_reference_flagを示す。
Figure 2013042521
この方法は、明らかであるように、更なるシンタックスを使用する。
本実施の形態の記載は、本発明の原理を説明する。したがって、当業者であれば、明示的に記載又は図示されていないが、本発明の原理を実施し、本発明の精神及び範囲に含まれる様々なアレンジメントを考案することができることを理解されたい。
本明細書に記載される全ての例及び条件付言語は、本発明の原理、及び当該技術分野を促進するために本発明者により寄与される概念の理解において読者を支援する教育の目的が意図され、係る特に引用される例及び条件に限定されないとして解釈される。さらに、係る等価な構成は、現在知られている等価な構成と同様に、将来的に開発される等価な構成、すなわち構造に関わらず、同じ機能を実行する開発されたエレメントを含む。
したがって、たとえば、本実施の形態で与えられるブロック図は、本発明の原理を実施する例示的な回路の概念を表すことが当業者により理解されるであろう。同様に、フローチャート、フローダイアグラム、状態遷移図、擬似コード等は、コンピュータ読み取り可能な媒体で実質的に表現され、コンピュータ又はプロセッサが明示的に示されているか否かに関わらず、コンピュータ又はプロセッサにより実行される様々なプロセスを表すことが理解されるであろう。
図面に示される様々なエレメントの機能は、適切なソフトウェアに関連するソフトウェアを実行可能なハードウェアと同様に、専用のハードウェアの使用を通して提供される。プロセッサにより提供されたとき、機能は、1つの専用のプロセッサにより提供され、1つの共有のプロセッサにより提供され、又は、そのうちの幾つかが共有される複数の個々のプロセッサにより提供される。さらに、用語「プロセッサ」又は「コントローラ」の明示的な使用は、ソフトウェアを実行可能なハードウェアを排他的に示すことが解釈されず、制限することなしに、デジタルシグナルプロセッサ(DSP)ハードウェア、ソフトウェアを記憶するリードオンリメモリ(ROM)、ランダムアクセスメモリ(RAM)、及び不揮発性ストレージを暗黙的に含む。
他のハードウェア、コンベンショナル及び/又はカスタムもまた含まれる場合がある。同様に、図示される任意のスイッチは、概念的なものである。それらの機能は、プログラムロジックの動作を通して、専用ロジックを通して、プログラム制御及び専用ロジックのインタラクションを通して、或いは手動的に実行され、特定の技術は、文脈からより詳細に理解されるように、実現者により選択可能である。
本発明の請求項では、特定の機能を実行する手段として表現されるエレメントは、たとえばa)その機能を実行する回路素子の組み合わせ、又はb)その機能を実行するソフトウェアを実行する適切な回路と結合される、ファームウェア、マイクロコード等を含む任意の形式でのソフトウェアを含む機能を実行する任意の方法を包含することが意図される。係る請求項により定義される本発明の原理は、様々な引用される手段により提供される機能が結合され、請求項が求めるやり方で纏められる事実において存在する。したがって、それらの機能を提供する任意の手段は本実施の形態に示されるものに等価であるとみなされる。
本発明の原理の「1つの実施の形態」(又は「1つの実現」)又は「ある実施の形態」(又は「ある実現」)は、本実施の形態に関連して記載される特定の特徴、構造、特性が本発明の原理の少なくとも1つの実施の形態に含まれることを意味する。したがって、明細書全体を通して様々な位置に現れる「1つの実施の形態において」又は「ある実施の形態において」というフレーズの出現は、必ずしも同じ実施の形態を全て示すものではない。
たとえば「A及び/又はB」の場合に、用語「及び/又は」の使用は、最初に列挙されたオプション(A)の選択、第二に列挙されたオプション(B)の選択、又は両方のオプション(A及びB)の選択を包含することが意図されることを理解されたい。更なる例として、「A,B及び/又はC」の場合、係るフレーズは、第一の列挙されたオプション(A)の選択、第二の列挙されたオプション(C)の選択、第一及び第二の列挙されたオプション(A及びB)の選択、第一及び第三の列挙されたオプション(A及びC)の選択、第二及び第三のオプション(B及びC)の選択、又は全ての3つのオプションの選択(A及びB及びC)の選択を包含することが意図される。これは、列挙される多数のアイテムについて、当該及び関連する技術分野で当業者により容易に明らかであるように拡張される。
本実施の形態で使用されるように、「高水準のシンタックス」は、マクロブロックレイヤ上の階層にあるビットストリームに存在するシンタックスを示す。たとえば、本実施の形態で使用されるように、ハイレベルシンタックスは、限定されるものではないが、スライスヘッダレベル、SEI(Supplemental Enhancement Information)レベル、PPS(Picture Parameter Set)レベル、SPS(Sequence Parameter Set)レベル、及びNAL(Network Abstraction Layer)ユニットヘッダレベルを示す。
さらに、本発明の1以上の実施の形態は、MPEG−4AVC標準に関して記載されるが、本発明は、この標準又は何れかの標準のみに限定されないことを理解されたい。したがって、本発明は、他のビデオ符号化標準、勧告、及び、MPEG−4AVC標準の拡張を含む拡張を含めて、他のビデオ符号化の実現及びシステムに関して利用される。
図1を参照して、例示的なMVCエンコーダは、参照符号100により示される。エンコーダ100は、変換器110の入力と信号通信で接続される出力を有する結合器105を含む。変換器110の出力は、量子化器115の入力と信号通信で接続される。量子化器115の出力は、エントロピーエンコーダ120の入力及び逆量子化器125の入力と信号通信で接続される。逆量子化器125の出力は、逆変換器130の入力と信号通信で接続される。逆変換器130の出力は、結合器135の第一の非反転入力と信号通信で接続される。結合器135の出力は、イントラ予測器145の入力及びデブロッキングフィルタ150の入力と信号通信で接続される。デブロッキングフィルタ150の出力は、(視点i向け)参照画像ストア155の入力と信号通信で接続される。参照画像ストア155の出力は、動き補償器175の第一の入力及び動き予測器180の第一の入力と信号通信で接続される。動き予測器180の出力は、動き補償器175の第二の入力と信号通信で接続される。
(他の視点向け)参照画像ストア160の出力は、ディスパリティ予測器170の第一の入力及びディスパリティ補償器165の第一の入力と信号通信で接続される。ディスパリティ予測器170の出力は、ディスパリティ補償器165の第二の入力と信号通信で接続される。
エントロピーエンコーダ120の出力は、エンコーダ100の出力として利用可能である。結合器105の非反転入力は、エンコーダ100の入力として利用可能であり、ディスパリティ予測器170の第二の入力及び動き予測器180の第二の入力と信号通信で接続される。スイッチ185の出力は、結合器135の第二の非反転入力及び結合器105の反転入力と信号通信で接続される。スイッチ185は、動き補償器175の出力と信号通信で接続される第一の入力、ディスパリティ補償器165の出力と信号通信で接続される第二の入力、及びイントラ予測器145の出力と信号通信で接続される第三の入力を含む。
図2を参照して、例示的なMVCデコーダは、参照符号200により示される。なお、エンコーダ100及びデコーダ200は、この開示を通して示される様々な方法を実行するために構成される。さらに、エンコーダ100は、再構成プロセスの間に、様々なマーキング及び/又は取り除き機能を実行する。たとえば、エンコーダ100は、期待されるデコーダのアクションを反映するように、デコードされたピクチャのバッファの現在の状態を維持する。結果的に、エンコーダ100は、デコーダ200により実行される全ての動作を実質的に実行する。
デコーダ200は、逆量子化器210の入力と信号通信で接続される出力を有するエントロピーデコーダ205を含む。逆量子化器の出力は、逆変換器215の入力と信号通信で接続される。逆変換器215の出力は、結合器220の第一の非反転入力と信号通信で接続される。結合器220の出力は、デブロッキングブロッキングフィルタ225の入力及びイントラ予測器230の入力と信号通信で接続される。デブロッキングフィルタ225の出力は、(視点i向け)参照画像ストア240の入力と信号通信で接続される。参照画像ストア240の出力は、動き補償器235の第一の入力と信号通信で接続される。
(他の視点向け)参照画像ストア245の出力は、ディスパリティ補償器250の第一の入力と信号通信で接続される。
エントロピーデコーダ205の入力は、残差のビットストリームを受けるため、デコーダ200への入力として利用可能である。さらに、モードモジュール260の入力は、どの入力がスイッチ255により選択されるかを制御するコントロールシンタックスを受けるため、デコーダ200への入力として利用可能である。さらに、動き補償器235の第二の入力は、動きベクトルを受けるため、デコーダ200の入力として利用可能である。また、ディスパリティ補償器250の第二の入力は、ディスパリティベクトルを受けるため、デコーダ200への入力として利用可能である。
スイッチ255の出力は、結合器220の第二の非反転入力との信号通信で接続される。スイッチ255の第一の入力は、ディスパリティ補償器250の出力との信号通信で接続される。スイッチ255の第二の入力は、動き補償器235の出力との信号通信で接続される。スイッチ255の第三の入力は、イントラ予測器230の出力と信号通信で接続される。モードモジュール260の出力は、どの入力がスイッチ255により選択されるかを制御するため、スイッチ255と信号通信で接続される。デブロッキングフィルタ225の出力は、デコーダの出力として利用可能である。
1以上の実施の形態は、効果的なデコードされた参照画像の管理のため、MPEG−4AVC標準の多視点映像符号化の拡張向けの暗黙的な参照画像の記録プロセスを提供する。暗黙のデコードされた参照画像の記録は、明示的な記録コマンドのシグナリングなしに、デコーダサイドで利用可能な情報に基づいて導出される。提案される暗黙の記録プロセスは、高水準のシンタックスにより可能にされる。
また、依存情報に基づいて、係る依存の情報の明示的なシグナリングなしに、メモリからデコードされた画像を除く1以上の実現が提供される。係る除去は、記録と共に行われるか、記録なしで行われる場合がある。
MPEG−4AVC標準に基づいた多視点映像符号化の現在の実現では、参照ソフトウェアは、1つのエンコーダでそれぞれの視点をエンコードし、クロスビューの参照を考慮することで、多視点の予測を達成する。さらに、多視点映像符号化の実現により、異なる視点間でフレーム数(frame_num)及びピクチャオーダカウント(POC)が分離され、これにより同じframe_num及びPOCをもつ画像がデコードされたピクチャのバッファ(DPB)に存在することが可能である。これらのピクチャは、これに関連されるview_idを使用して識別される。
図3を参照して、8つの視点(S0〜S7)を有し、MPEG−4AVCに基づいた視点間と時間の予測構造は、参照符号300により示される。図3では、視点S0における画像T0〜T11は、視点S1及びS2のためにのみ必要とされ、したがって、それらの画像は、視点S1及びS2がデコードされた後に必要とされない。したがって、MPEG−4AVC標準ベースの多視点映像符号化(MVC)の実現では、これらの画像は、参照のために使用されるとして記録され、したがって大容量のデコードされたピクチャのバッファを必要とする。これらの画像は、その視点の次のグループオブピクチャ(GOP)における最初のピクチャに(参照のために使用されていないとして)記録することができる。したがって、MPEG−4AVC標準ベースのMVCの実現は、デコードされたピクチャのバッファを効率的に管理しない。
デコードされたピクチャのバッファを管理するため、MPEG−4AVC標準に互換性のあるMMCOコマンドが実現において使用される。これらMMCOコマンドは、これらMMCOコマンドを保持するために使用されるものと同じview_idをもつ画像でのみ動作する。
多視点映像符号化では、視点のセットを符号化するために異なる方法が存在する。1つのやり方は、タイムファースト符号化(time−first coding)と呼ばれる。これは、同じ時間の瞬間でサンプリングされた全ての視点から全てのピクチャを最初に符号化するものとして説明される。図3を参照して、これは、T0でサンプルされるS0〜S7を符号化し、続いて、T8でサンプルされるS0〜S7を符号化し、T4でサンプルされるS0〜S7を符号化することを含む。
別のやり方は、ビューファースト符号化(view−first coding)と呼ばれる。これは、異なる時間の瞬間でサンプルされた1つの視点からの画像のセットをはじめに符号化し、続いて、別の視点からの画像のセットを符号化するものとして記載される。
デコードされた参照画像の管理を効率的なものとするため、少なくとも1つの実現は、記録コマンドの明示的なシグナリングなしに、現在の視点とは異なるview_idをもつデコードされた参照画像を(参照画像として必要とされないとして)記録することを提供する。クロスビューの参照のために使用される画像であって、時間の参照のために使用されない画像について、クロスビューの参照として画像を示す全ての画像をデコードした後に、デコーダは画像を「参照のために使用されない」として記録することができる。
本実施の形態で提供される本発明の原理の教示が与えられると、当該技術分野において通常の知識を有するものは、本発明の原理の精神を維持しつつ、「長期の参照画像として記録」のような他の記録のコマンドに、暗黙のデコードされた参照の記録に関する提案された考えを容易に拡張することができることを理解されたい。
SPS(Sequence Parameter Set)は、異なる視点間の依存の構造を記述するシンタックスを定義する。これは、表4に示される。表4から、暗黙の記録プロセスは、その視点の完全な依存を示す依存マップ/グラフを導出する。したがって、所与の時間で、この導出されたマップ/グラフは、ある視点からのどの画像が「参照として使用されない」として記録されるかを判定するために調べることができる。
簡単な例として、図3の視点間の依存情報は、表4における情報から生成される。図3で想定される実現について、視点の数が既知である。さらに、所与の視点(view_id[i])について、(1)全ての視点間の参照は、それぞれのアンカータイム(anchor time)について同じであり、(2)全ての視点間の参照は、それぞれの非アンカータイムについて同じである。
次いで、所与の視点について、視点間のアンカーリファレンスの数は、(たとえばj1の値を有する)num_anchor_refsI0[i]及び(たとえばj2の値を有する)num_anchor_refs_I1[i]の総和により示される。所与の視点“i”の個々のアンカーリファレンスは、(たとえばj=1〜j1)anchor_refsI0[i][j]及び(たとえばj=1〜j2)anchor_refs_I1[i][j]の総和により示される。
同様に、所与の視点について、視点間のノンアンカーリファレンスの数は、(たとえばj1の値を有する)num_non_anchor_refsI0[i]及び(たとえばj2の値を有する)num_non_anchor_refs_I1[i]の総和により示される。所与の視点“i”の個々のノンアンカーリファレンスは、(たとえばj=1〜j1)non_anchor_refsI0[i][j]及び(たとえばj=1〜j2)non_anchor_refs_I1[i][j]の総和により示される。
時間参照のためにある画像が必要とされるかに関する状態は、多数のやり方で指示される。たとえば、状態は、NALユニットヘッダにおけるnal_ref_idcシンタックスで指示される。さらに、係る情報が時間スケーラビリティについて存在する場合、状態は、時間レベルで示すことができる。係るケースでは、最も高いtemporal_levelをもつ画像は、時間参照のために使用されない。さらに、状態は、たとえば画像が時間参照のためにのみ使用されることを明示的に示すシンタックスのような、他の高水準のシンタックスにより示される。
以下は、暗黙のデコードされた参照の記録を実行するための1つの実施の形態である。ある画像は時間参照のために使用されず、クロスビュー参照のために使用される場合、デコーダは、その画像を、以下の条件が満たされたときに「参照のために使用されない」として記録する。クロスビューの参照画像として現在の画像を使用する全ての画像が符号化されている。
暗黙の参照画像の記録を可能にすることで、既存の記録プロセスを変えることなしに、及びMPEG−4AVC標準におけるシンタックスを変えることなしに、クロスビューの参照画像を効率的に管理することができる。
多視点映像符号化系列をタイムファーストで符号化すべきか、又はビューファーストで符号化すべきかを判定することは、エンコーダの選択である。この情報は、正しい暗黙の記録が導出されるように、デコーダに伝達される必要がある。したがって、符号化スキームのタイプを指示するため、高水準のシンタックスとしてフラグを含むことが提案される。このフラグをmvc_coding_mode_flagと呼ぶ。1実施の形態では、このフラグは、表9に示されるようにSPS(Sequence Parameter Set)で指示される。表9は、SPS(Sequence Parameter Set)MVC(multi−view video coding)の拡張シンタックスを示す。このフラグの意味は、以下のように記載される。
mvc_coding_mode_flagは、MVC系列がタイムファースト符号化のスキームを使用するか、又はビューファースト符号化のスキームを使用するかを示す。mvc_coding_mode_flagが1に等しいとき、MVC系列は、タイムファーストとしてエンコードされる。mvc_coding_mode_flagが0に等しいとき、MVC系列は、ビューファーストとしてエンコードされる。
Figure 2013042521
多視点映像符号化系列を符号化する方法がタイムファーストであること仮定する。図3から、クロスビュー(「視点間」とも呼ばれる)参照としてのみ使用され、時間参照として使用されない偶数の視点(S0,S2,...)における所定の画像(T1,T3...)が存在することがわかる。これらの画像は、最も高い時間レベルを有する。係る画像は、クロスビュー画像であることを示すため、ビットストリームにおける特別のフラグにより識別される。ひとたび、これらの画像がクロスビュー参照として使用されると、これらの画像は、もはや必要とされず、時間参照又はクロスビュー参照の何れかについて不使用として記録される。たとえば、ひとたび、(S1,T1)が(S0,T1)を参照すると、(S0,T1)は必要とされない。
さらに、時間又はクロスビューでの参照のために使用されない奇数の視点(S1,S3,...)における画像(T1,T3...)が存在する。かかる画像は、最も高い時間レベルを有し、非参照画像である。暗黙の記録を使用して、これらの画像を(時間又は視点間)参照のために使用されないとして記録する。
実施の形態では、この暗黙の記録プロセスをイネーブル又はディスエーブルにする高水準のシンタックスとしてフラグを導入することが提案される。このフラグをimplicit_markingと呼ぶ。1実施の形態では、このフラグは、表9に示されるSPS(Sequence Parameter Set)で指示される。
また、implicit_markingフラグは、使用される符号化スキームに関して調整される。たとえば、implicit_markingフラグは、符号化スキームがタイムファースト符号化であるときにのみ使用される。このことは、図10に示される。表10は、SPS(Sequence Parameter Set)MVC(Multi−view Video Coding)の拡張シンタックスを示す。
implicit_markingは、暗黙の記録プロセスが「参照のために使用されない」として画像を記録するために使用されるかを示す。implicit_markingが1に等しいとき、暗黙の記録がイネーブルにされる。implicit_markingが0に等しいとき、暗黙の記録がディスエーブルにされる。
Figure 2013042521
1以上の実施の形態によれば、参照画像のタイプに関する情報を暗黙的に導出するアプローチが提案される。このアプローチは、更なるシンタックスを必要とせず、JMVM(Joint Multi−view Video Model)の実現において既存のシンタックスを使用する。JMVM(Joint Multi−view Video Model)の実現は、ある視点について視点間の参照を示すため、SPS(Sequence Parameter Set)において高水準のシンタックスを含む。この実現は、リファレンスビューの識別子を個別に送出することで、アンカーピクチャとノンアンカーピクチャの依存を識別する。これは表4に示されており、この表は、所定の視点の参照としてどの視点が使用されるかに関する情報を含む。視点間の参照としてどの視点が使用され、どの視点が使用されないかを示すため、この情報が使用され、参照テーブル又は他のデータ構造が生成される。さらに、この情報は、アンカーピクチャ及びノンアンカーピクチャについて個別に知ることができる。結果として、SPS(Sequence Parameter Set)におけるリファレンスビュー情報を利用することで、ある画像が視点間の予測のために必要とされるかを導出することができる。
MPEG−4AVC標準では、NAL(Network Abstraction Layer)ユニットヘッダに存在するnal_ref_idcを使用して、ある画像が参照画像として識別される。多視点映像符号化の環境で、画像が時間参照(すなわちそれ自身の視点のための参照)のために使用されるかを示すためにのみ、nal_ref_idcが使用される。
JMVM(Joint Multi−view Video Model)の実現のSPS(Sequence Parameter Set)からの情報及びNAL(Network Abstraction Layer)ユニットヘッダに存在するnal_ref_idc(図7)を使用して、表5に示されるケースを区別することが可能である。したがって、SPS(Sequence Parameter Set)からのリファレンスビュー情報と共にnal_ref_idcの値を使用して、表5の組み合わせの全てに対処することができる。
たとえば、図3を参照して、以下の異なるケースを考慮する。視点S0がview_id=0を有し、S1がview_id=1を有し、S2がview_id=2を有するものとする。
S0について:
SPSシンタックスは、以下の値を有しており、“i”はS0に対応する値を有する。
num_anchor_refs_I0[i],
num_anchor_refs_I1[i],
num_non_anchor_refs_I0[i]及び
num_non_anchor_refs_I1[i]は、全て0に等しい。
S1について:
SPSシンタックスは、以下の値を有しており、“i”はS1に対応する値を有し、j=0である。
num_anchor_refs_I0[i]=1,
num_anchor_refs_I1[i]=1,
num_non_anchor_refs_I0[i]=1及び
num_non_anchor_refs_I1[i]=1。
anchor_ref_I0[i][j]=0,
anchor_ref_I1[i][j]=2,
non_anchor_ref_I0[i][j]=0及び
non_anchor_ref_I1[i][j]=2
S2について:
SPSシンタックスは、以下の値を有しており、これらの値は、この視点がアンカーピクチャについて視点間の参照を使用することを示す。このインデックスは、S2に対応する値を有する“i”、及びj=0に設定される。
num_anchor_refs_I0[i]=1,
num_anchor_refs_I1[i]=0,
num_non_anchor_refs_I0[i]=1,
num_non_anchor_refs_I1[i]=0及び
anchor_ref_I0[i][j]=0
S3〜S7についても同様である。
全ての視点について、時間T1及びT3での画像は、0に等しいnal_ref_idcを有する。さらに、時間T0/T2/T4での画像は、0に等しいnal_ref_idcを有する。
先の情報を使用して、表11に示される以下の情報が導出されることがわかる。なお、4つのカテゴリのそれぞれについて1つのみの例が提供されたが、全ての視点からの全ての画像は、先の方法論を使用してカテゴリ化される。
Figure 2013042521
したがって、表5における条件について区別されるのを必要とする画像を識別する更なるシグナリングが必要とされない。
この導出された情報の1つのアプリケーションは、上述された暗黙の記録プロセスである。勿論、本発明の原理は、上述された暗黙の記録プロセスを含む応用のみに制限されず、当業者であれば、本発明の精神を保持しつつ、本発明の原理が適用されるこの応用及び他の応用を考案されるであろう。
また、先の方法論は、ある画像をメモリ(たとえばデコードされたピクチャのバッファ)から何時除くかを判定するため、使用することもできる。なお、記録が実行される必要はないが、実行される場合がある。例として、視点間の参照のみである画像S2,T1を考える。タイムファースト符号化を使用する実現を想定し、(この実現にとって同じピクチャオーダカウントを有することと等価である)所与の時間での視点は、以下の順序でエンコードされる。S0,S2,S1,S4,S3,S6,S5及びS7。1つの実現は、以下のアルゴリズムを使用してデコードされたピクチャのバッファからS2,T1を除く。
T1(たとえばS1,T1)においてある画像をデコードした後、デコードされたピクチャのバッファに記憶されているT1からの他の画像が存在するかが判定される。これにより、S2,T1はデコードされたピクチャのバッファに記憶されることが明らかとなる。
係る他の画像が存在する場合、視点間の参照のみであるかが判定される。これにより、S2,T1は視点間の参照のみの画像であることが明らかとなる。
視点間の参照のみであるそれぞれの係る画像について、デコードされるために残されているT1での全ての視点を考え、それらの視点の何れかが記憶されているピクチャを参照するかが判定される。たとえば、残りの視点がS2を参照するかが判定される。
全ての残りの視点を考慮する最後のステップは、アンカーピクチャ及びノンアンカーピクチャについて個別に実行される。すなわち、アンカーピクチャとノンアンカーピクチャについて異なるシンタックスが評価される。たとえば、S2,T1は、ノンアンカーピクチャであり、したがって、全ての後続する視点“i”について以下のシンタックスが潜在的に評価される。num_non_anchor_refs_I0[i], num_non_anchor_refsI1[i], non_anchor_ref_I0[i][j]及びnon_anchor_ref_I1[i][j]。S1(現在デコードされた視点)に後続する視点は、S4,S3,S6,S5及びS7である。これらの視点のシンタックスは、S3がS2に依存することを明らかにする。したがって、S2は除かれない。しかし、S3をデコードした後、先のアルゴリズムは、記憶されたS2画像を再び考慮し、残りの視点(S6,S5及びS7)のいずれもがS2を参照しないことを明らかにする。したがって、S3をデコードした後、S2は、デコードされたピクチャのバッファから除かれる。これは、S0,S2,S1,S4及びS3をデコードした後に生じる。
図4を参照して、多視点映像符号化の参照画像の管理データをエンコードする例示的な方法は、参照符号400により示される。
本方法400は、開始ブロック402を含み、このブロックは、制御を機能ブロック404に移す。機能ブロック404は、エンコーダのコンフィギュレーションファイルを読み取り、制御を機能ブロック406に移す。機能ブロック406は、SPS(Sequence Parameter Set)の拡張においてアンカー及びノンアンカーピクチャの参照を設定し、制御を機能ブロック408に移す。機能ブロック408は、タイムファースト又はビューファースト符号化を示すため、mvc_coding_modeを設定し、制御を判定ブロック410に移す。判定ブロック410は、mvc_coding_modeが1に等しいか否かを判定する。mvc_coding_modeが1に等しい場合、制御は機能ブロック412に移される。さもなければ、制御は機能ブロック414に移される。機能ブロック412は、implicit_markingを1又は0に設定し、制御を機能ブロック414に移す。
機能ブロック414は、視点の数を変数Nに等しくし、変数i及び変数jを共に0に初期化し、制御を判定ブロック416に移す。判定ブロック416は、変数iが変数Nよりも少ないか否かを判定する。変数iが変数Nよりも少ない場合、制御は、判定ブロック418に移される。さもなければ、制御は、判定ブロック442に移される。
判定ブロック418は、変数jが視点iにおいて画像の数よりも少ないか否かを判定する。変数jが視点iにおいて画像の数よりも少ない場合、制御は機能ブロック420に通過される。さもなければ、制御は機能ブロック440に通過される。図4の実現は、ビューファーストの符号化の実現であることがわかる。図4は、タイムファーストの符号化を実行する類似のプロセスを提供するために適合される。
機能ブロック420は、視点iにおける画像の現在のマクロブロックのエンコードを開始し、制御を機能ブロック422に移す。機能ブロック422は、マクロブロックモードを選択し、制御を機能ブロック424に移す。機能ブロック424は、マクロブロックをエンコードし、制御を判定ブロック426に移す。判定ブロック426は、全てのマクロブロックがエンコードされたか否かを判定する。全てのマクロブロックがエンコードされた場合、制御を機能ブロック428に移す。さもなければ、制御は機能ブロック420に戻される。
機能ブロック428は、変数jをインクリメントし、制御を機能ブロック430に移す。機能ブロック430は、frame_num及びPOC(Picture Order Count)をインクリメントし、制御を判定ブロック432に移す。判定ブロック432は、implicit_markingが1に等しいか否かを判定する。implicit_markingが1に等しい場合、制御を機能ブロック434に移す。さもなければ、制御は判定ブロック418に移される。
判定ブロック434は、(この実現では)高水準で示された依存情報に基づいて、(現在評価された)リファレンスビューが将来の視点の参照として必要とされるか否かを判定する。リファレンスビューが将来の視点の参照として必要とされる場合、制御は判定ブロック418に戻される。さもなければ、制御は機能ブロック436に移される。
機能ブロック440は、変数iをインクリメントし、frame_num、POC及び変数jをリセットし、制御を判定ブロック416に戻す。
機能ブロック436は、リファレンスビューの画像を「参照のために使用されない」として記録し、制御を判定ブロック418に戻す。
判定ブロック442は、SPS(Sequence Parameter Set)、PPS(Picture parameter Set)、VPS(View Parameter Set)を帯域内で指示するか否かを判定する。SPS、PPS及びVPSを帯域内で指示する場合、制御を機能ブロック444に移す。さもなければ、制御を機能ブロック446に移す。
機能ブロック444は、SPS,PPS及びVPSを帯域内で送出し、制御を機能ブロック448に移す。
機能ブロック446は、SPS,PPS及びVPSを帯域外で送出し、制御を機能ブロック448に移す。
機能ブロック448は、ビットストリームをファイルに書き込むか、又はビットストリームをネットワークを通してストリーミングし、制御を終了ブロック499に移す。SPS、PPS又はVPSが帯域内でシグナリングされた場合、係るシグナリングは、ビデオデータストリームで送出されることが理解される。
図5を参照して、多視点映像符号化向けの参照画像の管理データをデコードする例示的な方法は、参照符号500により示される。
本方法500は、開始ブロック502を含み、このブロックは、制御を機能ブロック504に移す。機能ブロック504は、SPS(Sequence Parameter Set)、PPS(Picture parameter Set)、VPS(View Parameter Set)、スライスヘッダ又はNAL(Network Abstraction Layer)ユニットヘッダからのview_idを分析し、制御を機能ブロック506に移す。機能ブロック506は、SPS、PPS、NALユニットヘッダ、スライスヘッダ又はSEI(Supplemental Enhancement Information)メッセージからタイムファースト又はビューファースト符号化を示すためにmvc_coding_modeを分析し、制御を機能ブロック508に移す。機能ブロック508は、他のSPSパラメータを分析し、制御を判定ブロック510に移す。判定ブロック510は、mvc_coding_modeが1に等しいか否かを判定する。mvc_coding_modeが1に等しい場合、制御は機能ブロック512に移る。さもなければ、制御は判定ブロック514に移る。
機能ブロック512は、implicit_markingを分析し、制御を判定ブロック514に移す。判定ブロック514は、現在の画像がデコードを必要とするか否かを判定する。現在のピクチャがデコードを必要とする場合、制御を機能ブロック528に移す。さもなければ、制御を機能ブロック546に移す。
機能ブロック528は、スライスヘッダを分析し、制御を機能ブロック530に移す。機能ブロック530は、マクロブロックモード、動きベクトルおよびref_idxを分析し、制御を機能ブロック532に制御する。機能ブロック532は、現在のマクロブロック(MB)をデコードし、制御を判定ブロック534に移す。判定ブロック534は、全てのマクロブロックが行われたかを判定する。全てのマクロブロックが行われた場合、制御を機能ブロック536に移す。さもなければ、制御は機能ブロック530に戻される。
機能ブロック536は、デコードされたピクチャのバッファ(DPB)に現在のピクチャを挿入し、制御を判定ブロック538に移す。判定ブロック538は、暗黙の記録が1に等しいか否かを判定する。暗黙の記録が1に等しい場合、制御を判定ブロック540に移す。さもなければ、制御を判定ブロック544に移す。
判定ブロック540は、高水準で示された依存情報に基づいて、現在のリファレンスビューが将来の視点の参照として必要とされるか否かを判定する。現在のリファレンスビューが将来の視点の参照として必要とされる場合、制御を判定ブロック544に移す。さもなければ、制御を機能ブロック542に移す。
判定ブロック544は、全ての画像がデコードされているか否かを判定する。全ての画像がデコードされている場合、制御を終了ブロック599に移す。さもなければ、制御は機能ブロック546に戻される。
機能ブロック546は、次の画像を取得し、制御を判定ブロック514に戻す。
図5は、ビューファーストの符号化データとタイムファーストの符号化データの両方で使用される場合があるデコーダの実現を提供する。
図6を参照して、多視点映像コンテンツの視点間の依存を判定する例示的な方法は、参照符号600により示される。実施の形態では、本方法600は、たとえば図1のエンコーダ100のようなエンコーダにより実施される。
本方法600は、開始ブロック602を含み、このブロックは、制御を機能ブロック604に移す。機能ブロック604は、エンコーダコンフィギュレーションファイルを読み取り、制御を機能ブロック606に移す。機能ブロック606は、SPS(Sequence Parameter Set)の拡張におけるアンカー及びノンアンカーピクチャの参照を設定し、機能ブロック608に制御を移す。機能ブロック608は、エンコーダコンフィギュレーションファイルに基づいて他のSPSパラメータを設定し、制御を判定ブロック610に移す。判定ブロック610は、現在の(アンカー/ノンアンカー)ピクチャが時間参照であるか否かを判定する。現在の(アンカー/ノンアンカー)ピクチャが時間参照である場合、制御を機能ブロック612に移す。さもなければ、制御を機能ブロック624に移す。
機能ブロック612は、nal_ref_idcを1に等しく設定し、制御を判定ブロック614に移す。判定ブロック614は、SPSシンタックスに基づいて、現在の視点が他の視点の参照として使用されるか否かを判定する。現在の視点が他の視点の参照として使用される場合、制御を機能ブロック616に移す。さもなければ、制御を機能ブロック626に移す。
機能ブロック616は、現在の画像を視点間の参照画像として記録し、制御を判定ブロック618に制御する。判定ブロック618は、nal_ref_idcが0に等しいか否かを判定する。nal_ref_idcが0に等しい場合、制御を判定ブロック620に移す。さもなければ、制御を判定ブロック630に移す。
判定ブロック620は、現在の画像が視点間の参照画像であるか否かを判定する。現在の画像が視点間の参照画像である場合、制御を機能ブロック622に移す。さもなければ、制御を機能ブロック628に移す。
機能ブロック622は、現在の画像を視点間の参照画像のみの画像として設定し、制御を終了ブロック699に移す。
機能ブロック624は、nal_ref_idcを0に設定し、制御を判定ブロック614に移す。
機能ブロック626は、現在の画像を視点間の参照画像のために使用されないとして記録し、制御を判定ブロック618に移す。
機能ブロック628は、現在の画像を参照のために使用されないとして設定し、制御を終了ブロック699に移す。
判定ブロック630は、現在の画像が視点間の参照画像であるか否かを判定する。現在の画像が視点間の参照画像である場合、制御を機能ブロック632に移す。さもなければ、制御を機能ブロック634に移す。
機能ブロック632は、現在の画像を時間及び視点間の参照画像として設定し、制御を終了ブロック699に移す。
機能ブロック634は、現在の画像を時間のみの参照として設定し、制御を終了ブロック699に移す。
図7を参照して、多視点映像コンテンツの視点間の依存を判定する例示的な方法は、参照符号700により示される。実施の形態では、本方法700は、図2のデコーダ200のようなデコーダにより実施される。
本方法700は、開始ブロック702を含む、このブロックは、制御を機能ブロック704に移す。機能ブロック704は、SPS(Sequence Parameter Set)(視点依存構造を読み取る)、PPS(Picture parameter Set)、NAL(Network Abstraction Layer)ユニットヘッダ、及びスライスヘッダを読み取り、制御を機能ブロック706に移す。判定ブロック706は、SPSシンタックスに基づいて、現在の視点が他の視点について参照として使用されるか否かを判定する。現在の視点が他の視点の参照として使用される場合、制御を機能ブロック708に移される。さもなければ、制御を機能ブロック716に移す。
機能ブロック708は、現在の画像を視点間の参照画像として記録し、制御を判定ブロック710に移す。判定ブロック710は、nal_ref_idcが0に等しいか否かを判定する。nal_ref_idcが0に等しい場合、制御を判定ブロック712に移す。さもなければ、制御を判定ブロック720に移す。
判定ブロック712は、現在の画像が視点間の参照画像であるか否かを判定する。現在の画像が視点間の参照画像である場合、制御を機能ブロック714に移す。さもなければ、制御を機能ブロック718に移す。
機能ブロック714は、現在の画像を視点間のみの参照画像として設定し、制御を終了ブロック799に移す。
機能ブロック718は、現在の画像を参照のために使用されないとして設定し、制御を終了ブロック799に移す。
ステップ716は、現在の画像を視点間の参照画像のために使用されないとして記録し、制御を判定ブロック710に移す。
判定ブロック720は、現在の画像が視点間の参照画像であるか否かを判定する。現在の画像が視点間の参照画像である場合、制御を機能ブロック722に移す。さもなければ、制御を機能ブロック724に移す。
機能ブロック722は、現在の画像を時間及び視点間の参照画像として設定し、制御を終了ブロック799に移す。
機能ブロック724は、時間のみの参照として現在の画像を設定し、制御を終了ブロック799に移す。
図8を参照して、本発明の原理が適用される例示的なエンコーダの高水準のダイアグラムは、参照符号800により示される。
エンコーダ800は、ビデオデータエンコーダ820の入力と信号通信する出力を有する高水準のシンタックスジェネレータ810を含む。ビデオデータエンコーダ820の出力は、ビットストリーム及び、任意に、ビットストリームと帯域内の1以上のハイレベルシンタックスエレメントを出力するため、エンコーダ800の出力として利用可能である。高水準のシンタックスのジェネレータ810の出力は、ビットストリームに関して帯域外の1以上の高水準のシンタックスエレメントを出力するため、エンコーダ800の出力として利用可能である。ビデオデータエンコーダの入力及び高水準のシンタックスジェネレータ810の入力は、入力ビデオデータを受信するため、エンコーダ800の入力として利用可能である。
高水準のシンタックスジェネレータ810は、1以上の高水準のシンタックスエレメントを発生する。先に述べたように、本実施の形態で使用されるように、「高水準のシンタックス」は、マクロブロックレイヤよりも上の階層にあるビットストリームに存在するシンタックスを示す。たとえば、本実施の形態で使用される高水準のシンタックスは、限定されるものではないが、スライスヘッダレベル、SEI(Supplemental Enhancement Information)レベル、PPS(Picture Parameter Set)レベル、SPS(Sequence Parameter Set)レベル及びNAL(Network Abstraction Layer)ユニットヘッダレベルにあるシンタックスを示す。ビデオデータエンコーダ820は、ビデオデータをエンコードする。
図9を参照して、本発明の原理が適用される例示的なデコーダの高水準のダイアグラムは、参照符号900により示される。
デコーダ900は、ビデオデータエンコーダ920の入力と信号通信する出力を有する高水準のシンタックスリーダ910を含む。ビデオデータデコーダ920の出力は、画像を出力するため、デコーダ900の出力として利用可能である。ビデオデータデコーダ920の出力は、画像を出力するため、デコーダ900の出力として利用可能である。ビデオデータデコーダ920の入力は、ビットストリームを受信するため、デコーダ900の入力として利用可能である。高水準のシンタックスジェネレータ910の入力は、ビットストリームに関して帯域外の1以上の高水準のシンタックスエレメントを任意に受信するため、デコーダ900の入力として利用可能である。
ビデオデータデコーダ920は、高水準のシンタックスを読み取ることを含めて、ビデオデータをデコードする。したがって、帯域内のシンタックスがビットストリームで受信された場合、ビデオデータデコーダ920は、高水準のシンタックスを読み取ることを含めて、データを完全にデコードする。帯域外の高水準のシンタックスが送出された場合、係るシンタックスは、高水準のシンタックスリーダ910により(又はビデオデータデコーダ920により直接的に)受信される。
図10を参照して、プロセス1000が示される。プロセス1000は、データにアクセスし(1010)、アクセスされたデータに基づいて依存度が決定される(1020)。1つの特定の実現では、アクセスされたデータ(1010)は、第一の視点からの画像、第二の視点からの画像、及び依存情報を含む。依存情報は、第一の視点からの画像の1以上の視点間の依存の関係を記述する。たとえば、依存情報は、第一の視点からの画像が第二の視点からの画像の参照画像であることを記述する。特定の実現では、決定された依存度(1020)は、第一の視点からの画像が第二の視点からの参照画像であるかに関する判定を含む。
図11を参照して、プロセス1100が示される。プロセス1100は、データにアクセスし(1110)、画像をデコードし(1120)、デコードされた画像を記憶し(1130)、記憶された画像を除く(1140)ことを含む。1つの特定の実現では、アクセスされたデータ(1110)は、第一の視点からの画像及び依存情報を含む。依存情報は、第一の視点からの画像の1以上の視点間の依存関係を記述する。たとえば、依存情報は、第一の視点からの画像が未だデコードされていない同じピクチャオーダカウントをもつ画像の参照画像ではないことを記述する。特定の実現では、第一の視点からの画像は、動作1120でデコードされ、動作1130でメモリに記憶される。特定の実現では、記憶されたデコードされた画像は、依存情報(1140)に基づいてメモリから除かれる。たとえば、依存情報は、第一の視点からの画像が未だデコードされていない同じピクチャオーダカウントをもつ画像の参照画像ではないことを示す。係るケースでは、第一の視点からの画像は、参照画像としてもはや必要とされず、メモリから除かれる。
なお、別の実現では、動作1110〜1130は任意であって、含まれない。すなわち、実現は、動作1140を実行することからなる。代替的に、動作1110〜1130は、1つの装置により実行され、動作1140は、個別の装置により実行される場合がある。
用語「エンコーダ」及び「デコーダ」は一般的な構造を暗示し、特定の機能又は特徴に限定されない。たとえば、デコーダは、エンコードされたビットストリームを搬送する変調波を受信し、ビットストリームをデコードするのと同様に、エンコードされたビットストリームを復調する。
さらに、幾つかの実現において所定の情報を送出する高水準のシンタックスの使用は参照されている。しかし、他の実現は、下位レベルのシンタックス、又は同じ情報(又はその情報のバリエーション)を提供するために(たとえばエンコードされたデータの一部としての情報を送出するような)他のメカニズムを使用することを理解されたい。
さらに、幾つかの実現は、メモリから画像を「除く」として記載された。用語「除く」は、たとえば画像の除去、削除、デリスティング又はデリファレンシング、又は画像を使用不可能にすること、アクセス不可能にすることといった作用を有する様々なアクションの何れかを包含する。例として、画像は、画像に関連されるメモリの割り当てを解除し、そのメモリをオペレーティングシステムに与えることで、又はメモリをメモリプールに与えることで「除かれる」場合がある。
様々な実現は、ある画像が別の画像(参照画像)に依存する場合があることを記述する。係る依存度は、「参照画像」の幾つかのバリエーションのうちの1つに基づく場合がある。たとえば、画像は、画像と符号化されていないオリジナルの参照画像又はデコードされた参照画像との間の差として形成される場合がある。さらに、どの参照画像のバリエーションが所与の画像をエンコードする基礎として使用されるかに関わらず、デコーダは、実際に利用可能なバリエーションを使用する場合がある。たとえば、デコーダは、不完全にデコードされた参照画像へのアクセスのみを有する場合がある。用語「参照画像」は、存在する多数の可能性を包含することが意図される。
本明細書で記載される実現は、たとえば方法又はプロセス、装置、或いはソフトウェアプログラムで実現される。(たとえば方法としてのみ説明される)実現の1つの形式の文脈でのみ説明されたとしても、説明された特徴の実現は、(たとえば装置又はプログラムといった)他の形式でも実現される場合がある。装置は、たとえば適切なハードウェア、ソフトウェア及びファームウェアで実現される。本方法は、たとえばプロセッサのような装置で実現され、このプロセッサは、たとえばコンピュータ、マイクロプロセッサ、集積回路、又はプログラマブルロジックデバイスを含む処理装置を示す。また、処理装置は、たとえばコンピュータ、携帯電話、ポータブル/パーソナルデジタルアシスタント(PDA)のような通信装置、及び、エンドユーザ間の情報の通信を容易にする他の装置を含む。
本実施の形態で記載される様々なプロセス及び特徴は、特に、たとえばデータエンコーディング及びデコーディングに関連する機器又はアプリケーションといった様々な異なる機器又はアプリケーションで実施される場合がある。機器の例は、ビデオコーダ、ビデオデコーダ、ビデオコーデック、ウェブサーバ、セットトップボックス、ラップトップ、パーソナルコンピュータ、携帯電話、PDA、及び他の通信装置を含む。明らかであるように、機器は、移動体装置であり、更に、自動車に装備される場合がある。
さらに、本方法は、プロセッサにより実行された命令により実現され、係る命令は、たとえば集積回路、ソフトウェアキャリア、又は、たとえばハードディスク、コンパクトディスク、ランダムアクセスメモリ(RAM)、又はリードオンリメモリ(ROM)のような他のストレージ装置のようなプロセッサ読み取り可能な媒体に記憶される。命令は、プロセッサ読み取り可能な媒体で実施されるアプリケーションプログラムを形成する場合がある。明らかであるように、プロセッサは、たとえばプロセスを実行する命令を有するプロセッサ読み取り可能な媒体を含む。係るアプリケーションプログラムは、適切なアーキテクチャを有するコンピュータにアップロードされ、コンピュータにより実行される場合がある。好ましくは、コンピュータは、1以上の中央処理装置(CPU)、ランダムアクセスメモリ(RAM)、入力/出力(I/O)インタフェースのようなハードウェアを有するコンピュータプラットフォームで実現される。また、コンピュータプラットフォームは、オペレーティングシステム及びマイクロ命令コードを含む。本実施の形態で記載される様々なプロセス及び機能は、CPUにより実行される、マイクロ命令コードの一部又はアプリケーションプログラムの一部、或いはその組み合わせである。さらに、様々な他の周辺装置は、更なるデータストレージユニット及びプリンティングユニットのようなコンピュータプラットフォームに接続される。
当業者にとって明らかであるように、実現は、たとえば記憶されるか送信される情報を搬送するためにフォーマットされる信号を生成する。この情報は、たとえば方法を実行する命令、又は記載された実現のうちの1つにより生成されるデータを含む。係る信号は、たとえば電磁波として(たとえばスペクトルの無線周波部分を使用して)又はベースバンド信号としてフォーマットされる場合がある。フォーマッティングは、たとえばデータストリームをエンコードし、シンタックスを生成し、搬送波をエンコードされたデータストリーム及びシンタックスで変調することを含む。信号が搬送する情報は、たとえばアナログ又はデジタル情報である場合がある。信号は、知られているように、様々な異なる有線又は無線リンクを通して転送される。
添付図面に示されるシステム構成要素及び方法の幾つかはソフトウェアで実現されることが好ましいため、システム構成要素又はプロセス機能ブロック間の実際の接続は、本発明の原理がプログラムされるやり方に依存して異なる場合がある。本実施の形態の教示が与えられると、当業者であれば、本発明の原理のこれらの実現又はコンフィギュレーション及び類似の実現又はコンフィギュレーションを考案することができる。
多数の実現が記載される。しかしながら、様々な変更が行われる場合があることを理解されたい。たとえば、異なる実現のエレメントは、他の実現を生成するため、結合、補充、変更、又は除去される場合がある。さらに、当業者であれば、他の構造及びプロセスは、開示されたものについて置き換えられ、結果的に得られる実現は、開示された実現と少なくとも実質的に同じ結果を達成するため、少なくとも実質的に同じやり方で、少なくとも実質的に同じ機能を実行する。特に、例示された実施の形態は、添付図面を参照して本明細書で記載されたが、本発明の原理は、それら正確な実施の形態に限定されるものではなく、本発明の原理の範囲又は精神から逸脱することなしに、当業者により、様々な変形及び変更が行われる場合があることを理解されたい。したがって、これらの実現及び他の実現は、本出願により考案され、以下の特許請求の範囲にある。

Claims (24)

  1. 第一の視点からの画像、第二の視点からの画像、及び前記第一の視点からの画像について1以上の視点間の依存の関係を示す依存情報にアクセスし、
    前記依存情報に基づいて、前記第一の視点からの画像が前記第二の視点からの画像の参照画像であるかを判定する、
    ために構成される装置。
  2. 当該装置はエンコーダを有し、
    前記アクセスは、前記第一の視点からの画像、前記第二の視点からの画像をエンコードすること、及び前記依存情報をフォーマット化することを含む、
    請求項1記載の装置。
  3. 当該装置はデコーダを有し、
    前記アクセスは、前記第一の視点からの画像、前記第二の視点からの画像及び前記依存情報を受信することを含む、
    請求項1記載の装置。
  4. 第一の視点からの画像、第二の視点からの画像、及び前記第一の視点からの画像について1以上の視点間の依存関係を示す依存情報にアクセスするステップと、
    前記依存情報に基づいて、前記第一の視点からの画像が前記第二の視点からの画像の参照画像であるかを判定するステップと、
    を含むことを特徴とする方法。
  5. 前記アクセスするステップは、前記第一の視点からの画像、前記第二の視点からの画像をエンコードするステップ、及び前記依存情報をフォーマット化するステップを含む、
    請求項4記載の方法。
  6. 前記判定するステップは、エンコーダにより実行される再構成プロセスの間に前記エンコーダにより実行される、
    請求項4記載の方法。
  7. 前記アクセスするステップは、前記第一の視点からの画像、前記第二の視点からの画像及び前記依存情報を受信するステップを含む、
    請求項4記載の方法。
  8. 前記依存情報は、ハイレベルシンタックスエレメントを含む、
    請求項4記載の方法。
  9. 前記高水準のシンタックスエレメントは、シーケンスパラメータセットデータを含み、
    前記第一の視点からの画像が参照画像であるかを判定するステップは、前記シーケンスパラメータセットデータを評価するステップを含む、
    請求項8記載の方法。
  10. 前記第一の視点からの画像の依存情報は、(1)前記第一の視点からの画像のアンカーリファレンスの数、(2)前記第一の視点からの画像のノンアンカーリファレンスの数、(3)前記第一の視点からの画像の前記アンカーリファレンスの視点の数、及び(4)前記第一の視点からの画像のノンアンカーリファレンスの視点の数、を示すシンタックスエレメントに含まれる、
    請求項4記載の方法。
  11. 前記第一の視点からの画像が前記第一の視点からの別の画像の参照画像であるかを判定するステップを更に含む、
    請求項4記載の方法。
  12. 前記依存情報に基づいて、前記第一の視点からの画像がデコーダで未だデコードされていない別の視点からの画像の参照画像であるかを判定するステップを更に含む、
    請求項4記載の方法。
  13. 前記第一の視点からの画像が、未だデコードされていない別の視点からの画像の参照画像ではないと判定され、
    当該方法は、前記第一の視点からの画像を視点間の参照画像として必要とされないとして記録するステップを含む、
    請求項12記載の方法。
  14. 前記記録するステップに基づいて前記第一の視点から画像を除くステップを更に含む、
    請求項13記載の方法。
  15. 前記依存情報に基づいて前記第一の視点からの画像を記録するステップを更に含む、
    請求項4記載の方法。
  16. 前記記録するステップに基づいて前記第一のビューから画像を除くステップを更に含む、
    請求項15記載の方法。
  17. 前記第一の視点からの画像は、アンカーピクチャ及びノンアンカーピクチャの何れかである、
    請求項4記載の方法。
  18. 前記高水準のシンタックスエレメントは、既存のビデオ符号化標準又は既存のビデオ符号化勧告の拡張における既存の高水準のシンタックスエレメントである、
    請求項8記載の方法。
  19. 前記高水準のシンタックスエレメントは、International Organization of Standardization/International Electrotechnical Commission Moving Picture Experts Group−4 Part 10 Advanced Video Coding standard/International Telecommunication Union, Telecommunication Sector H.264 recommendationの拡張における既存の高水準のシンタックスエレメントである、
    請求項8記載の方法。
  20. 前記第一の視点からの画像が、視点間の参照のみに使用されるか、時間参照のみに使用されるか、視点間の参照と時間参照の両者のために使用されるか、又は、視点間の参照及び時間参照の何れにも使用されないかを判定するため、前記依存情報が使用される、
    請求項4記載の方法。
  21. 前記依存情報は、シーケンスパラメータセット及びnal_ref_idcシンタックスエレメントにおける視点間の参照の示唆インデックスを含み、前記シーケンスパラメータセット及び前記nal_ref_idcシンタックスエレメントは、前記第一の視点からの画像が、視点間の参照のみに使用されるか、時間参照のみに使用されるか、視点間の参照と時間参照の両者のために使用されるか、又は、視点間の参照及び時間参照の何れにも使用されないかを判定するために結合される、
    請求項4記載の方法。
  22. 第一の視点からの画像、第二の視点からの画像、及び前記第一の視点からの画像について1以上の視点間の依存関係を示す依存情報にアクセスする手段と、
    前記依存情報に基づいて、前記第一の視点からの画像が前記第二の視点からの画像の参照画像であるかを判定する手段と、
    を有することを特徴とする装置。
  23. 前記第一の視点からの画像、前記第二の視点からの画像、又は前記高水準のシンタックスエレメントのうちの少なくとも1つを記憶する手段を更に有する、
    請求項22記載の装置。
  24. 第一の視点からの画像、第二の視点からの画像、及び前記第一の視点からの画像について1以上の視点間の依存関係を示す依存情報にアクセスし、
    前記依存情報に基づいて、前記第一の視点からの画像が前記第二の視点からの画像の参照画像であるかを判定する、
    処理を実行するためにコンピュータ読み取り可能な記録媒体に記憶される命令を含むコンピュータ読み取り可能な記録媒体を含む装置。
JP2012220165A 2006-10-24 2012-10-02 多視点映像符号化のための画像の管理 Pending JP2013042521A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US85393206P 2006-10-24 2006-10-24
US60/853,932 2006-10-24
US86036706P 2006-11-21 2006-11-21
US60/860,367 2006-11-21

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2009534585A Division JP2010507974A (ja) 2006-10-24 2007-10-11 多視点映像符号化のための画像の管理

Publications (1)

Publication Number Publication Date
JP2013042521A true JP2013042521A (ja) 2013-02-28

Family

ID=39227066

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2009534585A Pending JP2010507974A (ja) 2006-10-24 2007-10-11 多視点映像符号化のための画像の管理
JP2009534586A Withdrawn JP2010507975A (ja) 2006-10-24 2007-10-11 多視点映像符号化のための画像の管理
JP2012220165A Pending JP2013042521A (ja) 2006-10-24 2012-10-02 多視点映像符号化のための画像の管理

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2009534585A Pending JP2010507974A (ja) 2006-10-24 2007-10-11 多視点映像符号化のための画像の管理
JP2009534586A Withdrawn JP2010507975A (ja) 2006-10-24 2007-10-11 多視点映像符号化のための画像の管理

Country Status (10)

Country Link
US (2) US20100034258A1 (ja)
EP (4) EP2080380A2 (ja)
JP (3) JP2010507974A (ja)
KR (1) KR20090085581A (ja)
AU (1) AU2007309634A1 (ja)
BR (1) BRPI0718421A2 (ja)
MX (1) MX2009004352A (ja)
RU (1) RU2009119523A (ja)
TW (4) TW201246936A (ja)
WO (2) WO2008051380A2 (ja)

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8289370B2 (en) 2005-07-20 2012-10-16 Vidyo, Inc. System and method for scalable and low-delay videoconferencing using scalable video coding
KR100966567B1 (ko) 2006-03-30 2010-06-29 엘지전자 주식회사 비디오 신호를 디코딩/인코딩하기 위한 방법 및 장치
TWI375469B (en) 2006-08-25 2012-10-21 Lg Electronics Inc A method and apparatus for decoding/encoding a video signal
JP5298201B2 (ja) * 2008-10-07 2013-09-25 テレフオンアクチーボラゲット エル エム エリクソン(パブル) メディアコンテナファイル
WO2010086500A1 (en) 2009-01-28 2010-08-05 Nokia Corporation Method and apparatus for video coding and decoding
CN102047670B (zh) * 2009-03-26 2014-03-12 松下电器产业株式会社 编码装置及方法、错误检测装置及方法、解码装置及方法
US8397056B1 (en) 2009-04-21 2013-03-12 Jackbe Corporation Method and apparatus to apply an attribute based dynamic policy for mashup resources
US8458596B1 (en) 2009-04-21 2013-06-04 Jackbe Corporation Method and apparatus for a mashup dashboard
CN102577375B (zh) 2009-05-01 2016-08-17 汤姆森特许公司 用于三维视频的层间依赖性信息
US9110577B1 (en) * 2009-09-30 2015-08-18 Software AG USA Inc. Method and system for capturing, inferring, and/or navigating dependencies between mashups and their data sources and consumers
US9367595B1 (en) 2010-06-04 2016-06-14 Software AG USA Inc. Method and system for visual wiring tool to interconnect apps
AU2011302448A1 (en) 2010-09-14 2013-03-21 Thomson Licensing Compression methods and apparatus for occlusion data
US20120230409A1 (en) * 2011-03-07 2012-09-13 Qualcomm Incorporated Decoded picture buffer management
CA2829493A1 (en) * 2011-03-10 2012-09-13 Vidyo, Inc. Dependency parameter set for scalable video coding
US9247249B2 (en) 2011-04-20 2016-01-26 Qualcomm Incorporated Motion vector prediction in video coding
CN105100808B (zh) * 2011-06-28 2018-06-15 三星电子株式会社 用于使用帧内预测进行图像编码和解码的方法和设备
CN107105302B (zh) 2011-08-25 2019-12-10 太阳专利托管公司 视频编码装置及视频编码方法
MX2013008692A (es) 2011-09-07 2013-08-21 Panasonic Corp Metodo de codificacion de imagenes, metodo de decodificacion de imagenes, aparato de codificacion de imagenes, aparato de decodificacion de imagenes y aparato de codificacion y decodificacion de imagenes.
ES2844148T3 (es) 2011-09-19 2021-07-21 Sun Patent Trust Procedimiento de descodificación de imágenes, dispositivo de descodificación de imágenes
US9106927B2 (en) 2011-09-23 2015-08-11 Qualcomm Incorporated Video coding with subsets of a reference picture set
CA2850598C (en) 2011-10-19 2018-09-18 Panasonic Corporation Image coding method, image decoding method, image coding apparatus, image decoding apparatus, and image coding and decoding apparatus
RU2619267C1 (ru) * 2011-10-28 2017-05-15 Самсунг Электроникс Ко., Лтд. Способ и устройство для внутреннего предсказания видео
ES2898887T3 (es) 2011-11-08 2022-03-09 Nokia Technologies Oy Manejo de imágenes de referencia
US10154276B2 (en) 2011-11-30 2018-12-11 Qualcomm Incorporated Nested SEI messages for multiview video coding (MVC) compatible three-dimensional video coding (3DVC)
US8867852B2 (en) * 2012-01-19 2014-10-21 Sharp Kabushiki Kaisha Decoding a picture based on a reference picture set on an electronic device
US9503720B2 (en) * 2012-03-16 2016-11-22 Qualcomm Incorporated Motion vector coding and bi-prediction in HEVC and its extensions
US10200709B2 (en) * 2012-03-16 2019-02-05 Qualcomm Incorporated High-level syntax extensions for high efficiency video coding
KR20130116782A (ko) * 2012-04-16 2013-10-24 한국전자통신연구원 계층적 비디오 부호화에서의 계층정보 표현방식
US9762903B2 (en) * 2012-06-01 2017-09-12 Qualcomm Incorporated External pictures in video coding
US9313486B2 (en) 2012-06-20 2016-04-12 Vidyo, Inc. Hybrid video coding techniques
US9225978B2 (en) * 2012-06-28 2015-12-29 Qualcomm Incorporated Streaming adaption based on clean random access (CRA) pictures
US20140010277A1 (en) * 2012-07-09 2014-01-09 Qualcomm, Incorporated Supplemental enhancement information (sei) messages having a fixed-length coded video parameter set (vps) id
US9426462B2 (en) * 2012-09-21 2016-08-23 Qualcomm Incorporated Indication and activation of parameter sets for video coding
US20150288970A1 (en) * 2012-09-28 2015-10-08 Samsung Electronics Co., Ltd. Video encoding method and apparatus for parallel processing using reference picture information, and video decoding method and apparatus for parallel processing using reference picture information
EP2904804A1 (en) 2012-10-04 2015-08-12 VID SCALE, Inc. Reference picture set mapping for standard scalable video coding
US9854234B2 (en) * 2012-10-25 2017-12-26 Qualcomm Incorporated Reference picture status for video coding
US9357212B2 (en) 2012-12-07 2016-05-31 Qualcomm Incorporated Advanced residual prediction in scalable and multi-view video coding
KR20150095625A (ko) 2012-12-14 2015-08-21 엘지전자 주식회사 비디오 인코딩 방법 및 비디오 디코딩 방법과 이를 이용하는 장치
US9674542B2 (en) * 2013-01-02 2017-06-06 Qualcomm Incorporated Motion vector prediction for video coding
US10349074B2 (en) 2013-04-05 2019-07-09 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding multi-layer video using decoded picture buffers which operate identically
AU2013387114B2 (en) * 2013-04-17 2018-02-22 Interdigital Vc Holdings, Inc. Method and apparatus for packet header compression
US9774879B2 (en) * 2013-08-16 2017-09-26 Sony Corporation Intra-block copying enhancements for HEVC in-range-extension (RExt)
US20150103925A1 (en) * 2013-10-15 2015-04-16 Qualcomm Incorporated Parallel extensions of parameter sets
EP3078195A4 (en) * 2013-12-02 2017-08-09 Nokia Technologies OY Video encoding and decoding
CN106105210B (zh) * 2014-01-03 2019-04-26 三星电子株式会社 管理用于对多层视频进行编码和解码的缓冲器的方法和设备
JP5886341B2 (ja) 2014-03-07 2016-03-16 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
CN105338281B (zh) * 2014-06-27 2018-07-31 阿里巴巴集团控股有限公司 一种视频显示方法和装置
US20170006303A1 (en) * 2015-06-30 2017-01-05 Intel Corporation Method and system of adaptive reference frame caching for video coding
US9591047B1 (en) * 2016-04-11 2017-03-07 Level 3 Communications, Llc Invalidation in a content delivery network (CDN)
US10547879B2 (en) * 2016-07-14 2020-01-28 Mediatek Inc. Method and apparatus for streaming video content
TWI595771B (zh) * 2016-10-20 2017-08-11 聚晶半導體股份有限公司 影像深度資訊的優化方法與影像處理裝置
TWI610559B (zh) * 2016-10-27 2018-01-01 Chunghwa Telecom Co Ltd 最佳化視訊轉碼的方法與裝置
US10560678B2 (en) * 2016-11-09 2020-02-11 Mediatek Inc. Method and apparatus having video encoding function with syntax element signaling of rotation information of content-oriented rotation applied to 360-degree image content or 360-degree video content represented in projection format and associated method and apparatus having video decoding function

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4355156B2 (ja) * 2002-04-16 2009-10-28 パナソニック株式会社 画像復号化方法及び画像復号化装置
US7489342B2 (en) * 2004-12-17 2009-02-10 Mitsubishi Electric Research Laboratories, Inc. Method and system for managing reference pictures in multiview videos
WO2005022923A2 (en) * 2003-08-26 2005-03-10 Thomson Licensing S.A. Method and apparatus for minimizing number of reference pictures used for inter-coding
US7515759B2 (en) * 2004-07-14 2009-04-07 Sharp Laboratories Of America, Inc. 3D video coding using sub-sequences
US20060083298A1 (en) * 2004-10-14 2006-04-20 Nokia Corporation Reference picture management in video coding
JP4480156B2 (ja) * 2005-02-02 2010-06-16 キヤノン株式会社 画像処理装置及び方法
US9049449B2 (en) * 2005-04-13 2015-06-02 Nokia Corporation Coding of frame number in scalable video coding
US20070086521A1 (en) * 2005-10-11 2007-04-19 Nokia Corporation Efficient decoded picture buffer management for scalable video coding
US7903737B2 (en) * 2005-11-30 2011-03-08 Mitsubishi Electric Research Laboratories, Inc. Method and system for randomly accessing multiview videos with known prediction dependency
EP1982517A4 (en) * 2006-01-12 2010-06-16 Lg Electronics Inc MULTIVATE VIDEO PROCESSING
KR100966567B1 (ko) * 2006-03-30 2010-06-29 엘지전자 주식회사 비디오 신호를 디코딩/인코딩하기 위한 방법 및 장치
JP4793366B2 (ja) * 2006-10-13 2011-10-12 日本ビクター株式会社 多視点画像符号化装置、多視点画像符号化方法、多視点画像符号化プログラム、多視点画像復号装置、多視点画像復号方法、及び多視点画像復号プログラム
ES2492923T3 (es) * 2006-10-16 2014-09-10 Nokia Corporation Sistema y procedimiento para implementar una administración eficiente de memoria intermedia decodificada en codificación de video de vistas múltiples
US20080174808A1 (en) * 2007-01-24 2008-07-24 Harpreet Singh System and method for job submission to an unspecified document processing device

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JPN6012019630; Purvin Pandit, Yeping Su, Peng Yin, Cristina Gomila, Anthony Vetro, Emin Martinian: MVC high-level syntax for random access , 20060715, Joint Video Team (JVT) of ISO/IEC MPEG & ITU-T VCE *
JPN6012019633; Anthony Vetro, Sehoon Yea: Comments on MVC reference picture management , 20061022, Joint Video Team (JVT) of ISO/IEC MPEG & ITU-T VCE *
JPN6012066771; Ye-Kui Wang, Ying Chen, and Miska M. Hannuksela: Comments to JMVM 1.0 , 20061020, Joint Video Team (JVT) of ISO/IEC MPEG & ITU-T VCE *

Also Published As

Publication number Publication date
TW201244487A (en) 2012-11-01
TW201246936A (en) 2012-11-16
WO2008051380B1 (en) 2008-12-24
EP2418853A3 (en) 2012-06-06
KR20090085581A (ko) 2009-08-07
US20100027615A1 (en) 2010-02-04
WO2008051381A4 (en) 2008-12-31
BRPI0718421A2 (pt) 2013-11-12
AU2007309634A1 (en) 2008-05-02
EP2418854A3 (en) 2012-06-06
US20100034258A1 (en) 2010-02-11
WO2008051380A3 (en) 2008-10-30
EP2080380A2 (en) 2009-07-22
WO2008051381A3 (en) 2008-11-06
EP2087737A2 (en) 2009-08-12
TW200843512A (en) 2008-11-01
WO2008051380A2 (en) 2008-05-02
MX2009004352A (es) 2009-05-05
EP2418854A2 (en) 2012-02-15
JP2010507974A (ja) 2010-03-11
WO2008051381A2 (en) 2008-05-02
TW200838313A (en) 2008-09-16
RU2009119523A (ru) 2010-11-27
EP2418853A2 (en) 2012-02-15
JP2010507975A (ja) 2010-03-11

Similar Documents

Publication Publication Date Title
JP2013042521A (ja) 多視点映像符号化のための画像の管理
JP6395667B2 (ja) 多視点映像符号化及び復号化用の、ハイレベルシンタックスを使用した改善されたシグナリングのための方法及び装置
JP5845299B2 (ja) マルチビュービデオ復号方法及びその装置
KR101378185B1 (ko) 가상 참조 픽처를 사용하는 방법 및 장치
JP5738590B2 (ja) 多視点符号化映像のシングルループ復号化を支援するエンコーダ及びデコーダでの方法及び装置
EP2044777A2 (en) Method and apparatus for signaling view scalability in multi-view video coding
JP2010516098A (ja) マルチ・ビュー符号化ビデオにおいて高レベル・シンタックス参照ビューを用いてエラー隠蔽を行う方法および装置
JP2010516102A (ja) マルチビュー符号化ビデオにおいてビデオ・エラー補正を行う方法および装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131031

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140409

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150226