JP2015508580A - 映像符号化システム及び映像符号化システム動作方法 - Google Patents

映像符号化システム及び映像符号化システム動作方法 Download PDF

Info

Publication number
JP2015508580A
JP2015508580A JP2014541197A JP2014541197A JP2015508580A JP 2015508580 A JP2015508580 A JP 2015508580A JP 2014541197 A JP2014541197 A JP 2014541197A JP 2014541197 A JP2014541197 A JP 2014541197A JP 2015508580 A JP2015508580 A JP 2015508580A
Authority
JP
Japan
Prior art keywords
video
syntax
vui
bitstream
extension
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014541197A
Other languages
English (en)
Inventor
ムンシ ハクエ
ムンシ ハクエ
アリ タバタバイ
アリ タバタバイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JP2015508580A publication Critical patent/JP2015508580A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

映像符号化システム(100)の動作方法(1200)は、ビデオビットストリーム(110)を受信する段階と、該ビデオビットストリーム(110)のシンタックスタイプ(132)を識別する段階と、該シンタックスタイプ(132)に関するビデオビットストリーム(110)からビデオシンタックス(114)を抽出する段階と、該ビデオシンタックス(114)に基づいてビデオストリーム(112)を生成してデバイス(102)上に表示する段階と、を含む。【選択図】図11

Description

関連出願の相互参照
本出願は、2011年11月8日出願の米国仮特許出願番号61/557,275、2012年4月16日出願の米国仮特許出願番号61/624,714、及び2012年11月6日出願の米国仮特許出願番号13/670,176の優先権を主張するものであり、それらの開示内容全体は、引用により明示的に本明細書に組み込まれる。
本発明は、概してビデオシステムに関し、より詳細には、映像符号化のためのシステムに関する。
スマートフォン、高精細テレビ、自動車情報システム、及び画面を有する他のビデオデバイスへの高品質ビデオの展開が、近年、非常に増加している。ビデオコンテンツに対応している広範囲の様々な情報デバイスは、多くの種類のビデオコンテンツを、種々の大きさ、品質、及び接続能力を有するデバイスに提供することを必要としている。
ビデオは、2次元単一視点ビデオから、高解像度3次元画像を有する多視点ビデオに展開している。ビデオをより効率的に伝達するために、種々の映像符号化及び圧縮方式により、最小限のデータ量から最良の画像を得ることが試行されている。動画像符号化専門家グループ(MPEG)が、規格化されたデータシーケンス及びアルゴリズムに基づく高品質ビデオを可能にする規格を開発した。H.264(MPEG4パート10)/Advanced Video Coding(高度動画像圧縮符号化標準)設計では、従来のMPEG−2フォーマットの概して2倍の符号化効率の改良が行われた。ビデオ品質は、ビデオ内のデータの操作及び圧縮に依存している。使用される様々な帯域幅に適合するようにビデオを変更して、様々な解像度及び機能セットを有するディスプレイデバイスにビデオを送信することができる。しかしながら、より大型で高品質なビデオ又はより複雑なビデオ機能を配信することには、帯域幅を追加すること及びビデオ圧縮を改良することが必要とされる。
B. Boss、W. Han、J Ohm、G. Sullivan、T. Wieg著 「WD4 Working Draft 4 of High−Efficiency Video Coding」 JCTVC−F803 d1 2011年7月(Torino) M. Haque、A. Tabatabai、T. Suzuki著 「On VUI syntax parameters」 JCTVC−F289 2011年7月(Torino) M. Haque、K. Sato、A. Tabatabai、T. Suzuki著 「HEVC VUI Parameters with Extension Hooks」 JCTVC−J0270 2011年7月(Stockholm) M. Haque、K. Sato、A. Tabatabai、T. Suzuki著 「Simplifications of HRD parameters for Temporal Scalability」 JCTVC−J0272 2011年7月(Stockholm) M. Haque、K. Sato、A. Tabatabai、T. Suzuki著 「A simple ordering issue for VUI parameters syntax」 JCTVC−J0273 2011年7月(Stockholm) B. Boss、W. Han、J Ohm、G. Sullivan、T. Wiegand著 「High−Efficiency Video Coding (HEVC) text specification draft 8」 JCTVC−J1003 d7 2011年7月(Stockholm)
このように、様々な大きさ、解像度、及び接続性を有するデバイスの広範囲にわたって高品質画像及び高度な画像機能を提供できる映像符号化システムに関する必要性が依然として残されている。範囲が拡大している高機能デバイスにビデオを提供する要求が増加していることを考慮すると、これらの課題に関する解決方法が発見されることが増々重要になっている。商業上の競争圧力が常に増加していることを考慮すると、消費者の期待が高まっていること及び市場での有意な製品差別化の機会が減少していることと併せて、これらの課題に関する解決方法が発見されることが重要になっている。追加的に、経費を節減し、効率性及び業績を高め、競争圧力に対処する必要性から、より一層緊急に、これらの課題に関する解決方法を発見することが必要で重要になっている。
これらの課題に関する解決方法は、長期にわたって探求されてきたが、従来の成果は、解決方法を教示又は提案するものではなく、従って、これらの課題は、長い間当業者に回避されてきた。
本発明は、映像符号化システムの動作方法を提供し、該方法は、ビデオビットストリームを受信する段階と、該ビデオビットストリームのシンタックスタイプを識別する段階と、該シンタックスタイプに関するビデオビットストリームからビデオシンタックスを抽出する段階と、該ビデオシンタックスに基づいてビデオストリームを生成してデバイス上に表示する段階と、を含む。
本発明は、映像符号化システムを提供し、該システムは、ビデオビットストリームを受信するための受信モジュールと、該受信モジュールと接続し、該ビデオビットストリームのシンタックスタイプを識別するためのタイプ取得モジュールと、該タイプ取得モジュールと接続し、該シンタックスタイプに関するビデオビットストリームからビデオシンタックスを抽出するためのシンタックス取得モジュールと、シンタックス取得モジュールと接続し、ビデオシンタックス及びビデオビットストリームに基づいてビデオストリームを生成してデバイス上に表示するための復号モジュールと、を含む。
本発明の幾つかの実施形態は、前述の態様に加えて又はその代わりに別の態様を有する。これらの態様は、添付図面を参照して以下の詳細な説明を読むことにより、当業者に明らかになるであろう。
本発明の一実施形態での映像符号化システム100のブロック図である。 Advanced Video Coding(AVC)ビデオ表示情報(video usability information)(VUI)シンタックスの実施例である。 スケーラブル映像符号化(Scalable Video Coding)(SVC)VUIシンタックスの実施例である。 SVC VUIシンタックス拡張部の実施例である。 多視点映像符号化(Multiview Video Coding)(MVC)VUIシンタックスの実施例である。 MVC VUIシンタックス拡張部の実施例である。 多視点映像プラス奥行き(Multiview Video plus Depth)(MVD)VUIシンタックスの実施例である。 MVD VUIシンタックス拡張部の実施例である。 立体的ビデオ(Stereoscopic Video)(SSV)VUIシンタックス拡張部の実施例である。 映像符号化システムの機能ブロック図である。 映像符号化システムの制御フローである。 本発明の別の実施形態での映像符号化システムの動作方法のフローチャートである。
以下の実施形態は、当業者が本発明を実施及び利用することができる程度に詳細に説明される。本開示に基づき別の実施形態が明らかであること、及び本発明の範囲から逸脱することなくプロセス又は機構の変更を行うことができるということを理解されたい。
以下の説明において、本発明を完全に理解できるように多くの具体的な詳細が与えられる。しかしながら、本発明はこれらの具体的な詳細がなくとも実行できることは明らかである。本発明を不明瞭にすることを回避するために、一部の公知の回路、システム構成、及びプロセスステップは、詳細に説明しない。
同様に、システムの実施形態を示す図面は、概略的なものであり、縮尺通りではなく、特に、一部の寸法は、表現を明確にするためのものであり、図面内で非常に強調されて示されている。例示、説明、及びその理解を明確及び容易にするために、一部の機能が共通する複数の実施形態を開示及び説明するが、一般的に、同様の符号を用いて互いに類似及び同様の特徴部を説明する。
「シンタックス」という用語は、データ構造を表す一組の要素を意味する。本明細書で用いられる「モジュール」という用語は、使用される文脈により、本発明におけるソフトウェア、ハードウェア、又はそれらの組み合わせを含むことができる。
図1を参照すると、本発明の一実施形態での映像符号化システム100のブロック図が示される。ビデオエンコーダ102は、ビデオコンテンツ108を受信し、ビデオビットストリーム110を復号用のビデオデコーダ104に送信して、ディスプレイインタフェース120上に表示させることができる。
ビデオエンコーダ102は、ビデオコンテンツ108を受信し符号化することができる。ビデオエンコーダ102は、ビデオコンテンツ108を種々の形式に符号化するためのユニットである。ビデオコンテンツ108は、対象物のシーンの視覚表現として規定される。
符号化処理は、ビデオコンテンツ108をコンピュータにより種々の形式に変更することとして規定される。例えば、符号化処理は、ビデオコンテンツ108をビデオビットストリーム110に圧縮して、ビデオビットストリーム110を送信するのに必要なデータ量を減少させることができる。
別の実施例では、ビデオコンテンツ108は、圧縮されることによって符号化されること、視覚的に拡張されること、1つ又はそれ以上のビューに分割されること、解像度が変更されること、アスペクト比が変更されること、又はそれらの組み合わせが可能である。別の例示的な実施例では、ビデオコンテンツ108は、高効率映像符号化(High−Efficiency Video Coding)(HEVC)/H.265により符号化することができる。
ビデオエンコーダ102は、ビデオコンテンツ108を符号化してビデオビットストリーム110を生成することができる。ビデオビットストリーム110は、ビデオコンテンツ108に関連する情報を表すビット列として規定される。ビデオビットストリーム110は、例えば、ビデオコンテンツ108の圧縮インスタンスを表すビット列とすることができる。
ビデオエンコーダ102は、シーンに関するビデオコンテンツ108を様々な方法で受け取ることができる。例えば、実在の対象物を表すビデオコンテンツ108は、ビデオカメラ、複数のカメラで撮影されること、コンピュータで生成されること、ファイルとして提供されること、又はそれらの組み合わせが可能である。
ビデオコンテンツ108は、様々なビデオ機能に対応することができる。例えば、ビデオコンテンツ108は、単一視点ビデオ、多視点ビデオ、立体的ビデオ、又はそれらの組み合わせを含むことができる。別の実施例では、ビデオコンテンツ108は、3Dグラスを用いずに3次元(3D)ビデオ表示に対応するための4つ又はそれより多いカメラの多視点ビデオとすることができる。
ビデオエンコーダ102は、ビデオシンタックス114を使用してビデオコンテンツ108を符号化して、ビデオビットストリーム110を生成することができる。ビデオシンタックス114は、ビデオコンテンツ108を符号化及び復号するための符号化方法を表す一組の情報要素として規定される。ビデオビットストリーム110は、高効率映像符号化/H.265規格などのビデオシンタックス114に準拠し、HEVCビデオビットストリーム、スーパーハイビジョンビデオビットストリーム、又はそれらの組み合わせを含むことができる。
ビデオビットストリーム110は、ビデオコンテンツ108の画像、及びビデオコンテンツ108の符号化に関する関連制御情報を表す情報を含むことができる。例えば、ビデオビットストリーム110は、ビデオシンタックス114のインスタンス及びビデオコンテンツ108のインスタンスを含むことができる。
映像符号化システム100は、ビデオビットストリーム110を復号するためのビデオデコーダ104を含むことができる。ビデオデコーダ104は、ビデオビットストリーム110を受信しビデオビットストリーム110を変更して、ビデオストリーム112を生成するためのユニットとして規定される。
ビデオデコーダ104は、ビデオビットストリーム110を復号し、ビデオシンタックス114を使用してビデオストリーム112を生成することができる。復号処理は、ビデオビットストリーム110をコンピュータにより変更してビデオストリーム112を生成することとして規定される。例えば、復号処理は、ビデオビットストリーム110を解凍して、スマートフォンディスプレイ上に表示するための形式で構成されたビデオストリーム112を生成することができる。
ビデオストリーム112は、ビデオコンテンツ108のコンピュータにより変更されたバージョンとして規定される。例えば、ビデオストリーム112は、種々の特性情報を有するビデオコンテンツ108を変更したインスタンスを含むことができる。ビデオストリーム112は、ビデオコンテンツ108から切り取って復号した画像を含むことができる。
別の実施例では、ビデオストリーム112は、ビデオコンテンツ108と比べて、異なる解像度、異なるアスペクト比、異なるフレームレート、異なる立体的表示、異なる表示順序、又はそれらの組み合わせを有することができる。ビデオストリーム112は、種々の色パラメータ、色平面、コントラスト、色相、又はそれらの組み合わせを含む様々な視覚的特性情報を有することができる。
映像符号化システム100は、ディスプレイプロセッサ118を含むことができる。ディスプレイプロセッサ118は、ディスプレイインタフェース120上で表示するためにビデオデコーダ104からビデオストリーム112を受信することができる。ディスプレイインタフェース120は、ビデオストリーム112の視覚的表現を提示することができるユニットである。ディスプレイインタフェース120は、例えば、スマートフォンディスプレイ、デジタルプロジェクタ、DVDプレーヤディスプレイ、又はそれらの組み合わせを含むことができる。
ビデオエンコーダ102は、通信経路106を通じてビデオビットストリーム110をビデオデコーダ104に送信することができる。通信経路106は、様々なネットワークとすることができる。
例えば、通信経路106は、無線通信、有線通信、光、超音波、又はそれらの組み合わせを含むことができる。通信経路106に含むことができる無線通信の実施例は、衛星通信、セルラ通信、ブルートゥース、赤外線データ協会規格(IrDA)、ワイヤレスフィデリティ(WiFi)、及びワールドワイド・インターオペラビリティ・フォー・マイクロウェーブ・アクセス(WiMAX)である。通信経路106に含むことができる有線通信の実施例は、イーサネット、デジタル加入者線(DSL)、ファイバー・トゥ・ザ・ホーム(FTTH)、及び基本電話サービス(POTS)である。
映像符号化システム100は、様々な映像符号化規格を用いることができる。映像符号化システム100は、例えば、高効率映像符号化/H.265ワーキングドラフトバージョンを使用してビデオ情報を符号化及び復号することができる。HEVCドラフトバージョンは、引用により本明細書に組み込まれる文書で説明される。引用により本明細書に組み込まれる文書は、
B. Boss、W. Han、J Ohm、G. Sullivan、T. Wieg著 「WD4 Working Draft 4 of High−Efficiency Video Coding」 JCTVC−F803 d1 2011年7月(Torino)と、
M. Haque、A. Tabatabai、T. Suzuki著 「On VUI syntax parameters」 JCTVC−F289 2011年7月(Torino)と、
M. Haque、K. Sato、A. Tabatabai、T. Suzuki著 「HEVC VUI Parameters with Extension Hooks」 JCTVC−J0270 2011年7月(Stockholm)と、
M. Haque、K. Sato、A. Tabatabai、T. Suzuki著 「Simplifications of HRD parameters for Temporal Scalability」 JCTVC−J0272 2011年7月(Stockholm)と、
M. Haque、K. Sato、A. Tabatabai、T. Suzuki著 「A simple ordering issue for VUI parameters syntax」 JCTVC−J0273 2011年7月(Stockholm)と、
B. Boss、W. Han、J Ohm、G. Sullivan、T. Wiegand著 「High−Efficiency Video Coding (HEVC) text specification draft 8」 JCTVC−J1003 d7 2011年7月(Stockholm)と、を含む。
ビデオビットストリーム110は、シンタックスタイプ132で示される様々なビデオタイプを含むことができる。シンタックスタイプ132は、ビデオビットストリーム110を符号化及び復号するために使用される映像符号化の識別子として規定される。例えば、ビデオコンテンツ108は、Advanced Video Coding122、スケーラブル映像符号化124、多視点映像符号化126、多視点映像プラス奥行きビデオ128、及び立体的ビデオ130に関するシンタックスタイプ132を含むことができる。
Advanced Video Coding及びスケーラブル映像符号化を使用して、単一視点ベースビデオを符号化してビデオビットストリーム110を生成することができる。単一視点ベースビデオは、単一のカメラにより生成されるビデオコンテンツ108を含むことができる。
多視点映像符号化、多視点映像プラス奥行き、及び立体的ビデオを使用して、2つ又はそれより多いビューを有するビデオコンテンツ108を符号化することができる。多視点ビデオは、例えば、複数のカメラからのビデオコンテンツ108を含むことができる。
ビデオシンタックス114は、エントリ識別子134を含むことができる。エントリ識別子134は、複数の符号化されたビデオシーケンスを区別するための値である。符号化されたビデオシーケンスは、様々なビットレート、フレームレート、解像度、或いは単一視点ビデオ、多視点ビデオ、又は立体的ビデオに関するスケーラブルレイヤを有するビデオコンテンツ108のインスタンスを含むことができる。
ビデオシンタックス114は、ビデオコンテンツ108内の各フレームに関連するエントリ数を識別するためのエントリカウント136を含むことができる。エントリカウント136は、ビデオコンテンツ108内で表されるエントリの最大数である。
ビデオシンタックス114は、繰り返し識別子138を含むことができる。繰り返し識別子138は、ビデオコンテンツ108の個々の繰り返しを区別するための値である。
ビデオシンタックス114は、繰り返しカウント140を含むことができる。繰り返しカウント140は、ビデオコンテンツ108の最大繰り返し回数を示す値である。
スケーラブル映像符号化に関しては、この繰り返しカウントを使用して、スケーラブル映像符号化の場合の種々のスケーラブルビデオレイヤに関連する情報エントリの数を示すことができる。多視点映像符号化に関しては、繰り返しカウントを使用して、ビデオコンテンツ108のビューの数に関連する操作ポイントの数を示すことができる。
例えば、スケーラブル映像符号化では、追加的な拡張レイヤを有するベースレイヤを含むビデオコンテンツ108を符号化して、ビデオビットストリーム110のマルチレイヤインスタンスを生成することができる。ベースレイヤは、最低の解像度、フレームレート、又は品質を有することができる。
拡張レイヤは、ビデオ品質を高めるために使用される追加的な予備情報を有する段階的な改良点を含むことができる。スケーラブルビデオレイヤ拡張部は、拡張してスケーラブル映像符号化を包含できるHEVC新規ベースライン規格を含むことができる。
ビデオシンタックス114は、操作識別子142を含むことができる。操作識別子142は、ビデオコンテンツ108の個々の操作ポイントを区別するための値である。操作ポイントは、多視点映像符号化に関して存在する情報エントリ、例えば、タイミング情報、ネットワーク抽象レイヤ(NAL)仮想参照デコーダ(HRD)パラメータ、ビデオ符号化レイヤ(VCL)HRDパラメータ、pic_struct_present_flag要素、又はそれらの組み合わせである。
ビデオシンタックス114は、操作カウント144を含むことができる。操作カウント144は、ビデオコンテンツ108の操作ポイントの最大数を示す値である。
操作ポイントは、多視点及び3Dビデオに関して、種々のカメラで生成されるビューなどの種々のビューからの符号化ビデオシーケンスの生成に関連する。多視点映像符号化に関して、操作ポイントは、出力対象ビューと出力対象ビューに依存する別のビューとを有するビデオビットストリーム110のサブセットに関連する。別のビューは、それらが下位ビットストリーム抽出プロセスを使用して得られる場合、出力対象ビューに依存する。1つより多い操作ポイントが、ビデオビットストリーム110の同じサブセットに関連することができる。例えば、操作ポイントを復号することは、操作ポイントと出力対象ビューの次の出力とに対応するビデオビットストリームのサブセットを、デバイス102上に表示するためのビデオストリーム112の一部分として復号することに言及するものである。
ビデオシンタックス114は、ビュー識別子146を含むことができる。ビュー識別子146は、ビデオコンテンツ108の個々のビューを区別するための値である。
ビデオシンタックス114は、ビューカウント148を含むことができる。ビューカウント148は、ビデオコンテンツ108のビューの最大数を示す値である。
例えば、単一視点ビデオは、単一のカメラで生成されたビデオとすることができる。多視点ビデオは、様々な位置及び距離に配置された複数のカメラによって、シーン内で視認される対象物から生成することができる。
ビデオコンテンツ108は、様々なビデオ特性情報を含むことができる。例えば、ビデオコンテンツ108は、スーパーハイビジョンビデオなどの高解像度ビデオとすることができる。ビデオコンテンツ108は、7680×4320、8K×2K、4K×2K、又はそれらの組み合わせの解像度を含む、3840×2160又はそれ以上の解像度を有することができる。ビデオコンテンツ108は、高解像度ビデオに対応しているが、ビデオコンテンツ108はさらに、高精細(HD)ビデオなどの低解像度に対応できるということを理解されたい。ビデオシンタックス114は、ビデオコンテンツ108の解像度に対応することができる。
ビデオコンテンツ108は、24フレームパーセコンド(fps)、25fps、50fps、60fps、及び120fpsを含む、様々なフレームレートに対応することができる。個々のフレームレートを説明したが、ビデオコンテンツ108は、ゼロフレームパーセコンド及びそれ以上の固定及び可変の有理数のフレームレートに対応することができることを理解されたい。ビデオシンタックス114は、ビデオコンテンツ108のフレームレートに対応することができる。
ここで図2を参照すると、Advanced Video Coding(AVC)ビデオ表示情報(VUI)シンタックス202の実施例が示されている。AVC VUIシンタックス202は、HEVCに関する図1のビデオシンタックス114の構成要素を表す。
AVC VUIシンタックス202は、図2のAVC VUIシンタックス表に記載された要素を含む。AVC VUIシンタックス202の要素は、図2のAVC VUIシンタックス表に記載された階層構造で整列する。
AVC VUIシンタックス202は、HEVCに関するビデオ表示情報の処理に対応する種々の要素を含む。処理は、ビデオシンタックス114に基づいてビデオ情報を変更することとして規定される。処理は、例えば、図1のビデオコンテンツ108及び図1のビデオビットストリーム110それぞれを符号化又は復号することを含むことができる。
AVC VUIシンタックス202は、vui_parameters要素などのAVC VUIシンタックスヘッダ部204を含む。AVC VUIシンタックスヘッダ部204は、AVC VUIシンタックス202を識別するための記述子である。AVC VUIシンタックス202を使用して、AVCに関するビデオビットストリーム110を符号化及び復号する。
AVC VUIシンタックスは、符号化ユニットごとの最大ビット数を示すために、max_bits_per_cu_denom要素などの符号化ユニット206を含むことができる。符号化ユニット206は、ビデオコンテンツ108の1つの画像の矩形領域であり、この矩形領域は、ビデオビットストリーム110を圧縮するために使用される。max_bits_per_cu_denomメッセージは、AVC VUIでは、max_bits_per_mb_denomメッセージに置き換えることができる。
AVC VUIシンタックス202を使用してビデオコンテンツ108を符号化及び復号することにより、ビデオビットストリーム110のサイズを減少させビデオバッファリングの必要性を低減できることが分かっている。ビデオビットストリーム110のサイズを減少させることにより、機能性が増し、図1のビデオストリーム120のディスプレイの性能が高まる。
ここで図3を参照すると、スケーラブル映像符号化(SVC)VUIシンタックス302の実施例が示されている。SVC VUIシンタックス302により、図1のビデオビットストリーム110のインスタンスは、様々なフレームレート、空間解像度、又は品質水準で使用することができる。
SVC VUIシンタックス302は、図3のSVC VUIシンタックス表に記載された要素を含む。SVC VUIシンタックス302の要素は、図3の表に記載された階層構造で整列する。
SVC VUIシンタックス302は、svc_vui_parameters_extensions要素などのSVC VUIシンタックスヘッダ部304を含む。SVC VUIシンタックスヘッダ部304は、SVC VUIシンタックス302を識別するための記述子である。SVC VUIシンタックス302を使用して、SVCに関するビデオビットストリーム110を符号化及び復号する。
SVC VUIシンタックス302は、符号化ユニットごとの最大ビット数を示すために、図2の符号化ユニット206、例えばmax_bits_per_cu_denom要素を含むことができる。max_bits_per_cu_denomメッセージは、ADC VUIでは、max_bits_per_mb_denomメッセージに置き換えることができる。
SVC VUIシンタックス302は、要素[i]などのエントリ識別子134を含むことができる。SVC VUIシンタックス302は、図1のビデオコンテンツ108内の各フレームに関連するエントリ数を識別するために、vui_ext_num_entries_minus1要素などのエントリカウント136を含むことができる。エントリカウント136は、1を減算したエントリ数を示し、エントリカウント136を0からエントリ数マイナス1の数までにマッピングする。
SVC VUIシンタックス302は、vui_ext_num_entries_minus1要素によって定められる各エントリに関するvui_ext_dependency_id要素、vui_ext_quality_id要素、及びvui_temporal_id要素を含むことによってビデオスケーラビリティを可能にすることが分かっている。空間スケーラビリティ、時間スケーラビリティ、及び品質スケーラビリティは、各エントリに関する要素の値に基づいて実装することができる。
SVC VUIシンタックス302を使用してビデオコンテンツ108を符号化及び復号することにより、ビデオビットストリーム110のサイズを減少させ、ビデオバッファリングの必要性を低減できることが分かっている。ビデオビットストリーム110のサイズを減少させることにより、機能性が増し、図1のビデオストリーム112のディスプレイの性能が高まる。
ここで図4を参照すると、SVC VUIシンタックス拡張部402の実施例が示されている。SVC VUIシンタックス拡張部402は、HEVCに関するAdvanced Video Coding及びスケーラブル映像符号化に関する記述的ビデオ情報を含む。
SVC VUIシンタックス拡張部402は、図4のSVC VUIシンタックス拡張部表に記載された要素を含む。SVC VUIシンタックス拡張部402の要素は、図4のSVC VUIシンタックス拡張部表に記載された階層構造で整列する。
SVC VUIシンタックス拡張部402は、vui_parameters要素などのSVC VUIシンタックス拡張部ヘッダ部404を含む。SVC VUIシンタックス拡張部ヘッダ部404は、SVC VUIシンタックス拡張部402を識別するための記述子である。SVC VUIシンタックス拡張部402を使用して、SVCに関して図1のビデオビットストリーム110を符号化及び復号する。
SVC VUIシンタックス拡張部402は、ビデオビットストリーム110に関して使用される符号化のタイプを識別するためのタイプ識別子406、例えばsvc_mvc_flag要素を含むことができる。例えば、タイプ識別子406は、AVCを示すために0を使用する符号化タイプ、及びSVCを示すために1を使用する符号化タイプを表すことができる。
SVC VUIシンタックス拡張部402は、図1のビデオコンテンツ108内の各フレームに関連するエントリ数を識別するために、図1のエントリカウント136、例えばnum_entries_minus1要素を含むことができる。エントリカウント136は、1を減算したエントリ数を示し、エントリカウント136を0からエントリ数マイナス1の数までにマッピングする。
例えば、エントリカウント136は、ビデオコンテンツ108の立体的インスタンスに関連するエントリ数を表すことができる。エントリカウント136は、2つの画像が各フレームに関連することを示すための値1、及びフレームごとに単一の画像を有するビデオビットストリーム110を表すための値0を有することができる。
SVC VUIシンタックス拡張部402は、ビデオコンテンツ108内の時間レイヤの最大数を示すために、temporal_id要素などの時間識別子410を含むことができる。SVC VUIシンタックス拡張部402は、画像間の空間的依存性を示すために、dependency_id要素などの空間識別子412を含むことができる。SVC VUIシンタックス拡張部402は、品質水準識別子を示すために、quality_id要素などの品質識別子414を含むことができる。
dependency_id要素及びquality_id要素は、HEVCに関して、SVC VUIシンタックス拡張部402内の符号化されたビデオシーケンスの各サブセットに関する、DQIDの最大値、データ品質識別子を示すために互いに連結することができる。DQIDの最大値は、dependency_id要素及びquality_id要素を加算することによって計算される。
SVC VUIシンタックス拡張部402を使用してビデオビットストリーム110を符号化及び復号することにより、ビデオディスプレイの品質、スケーラビリティ、及び信頼性が高まることが分かっている。temporal_id、dependency_id、及びquality_idを使用して複数の画像を識別及び連結することにより、画像間の関係が規定され、ビデオディスプレイの品質が高まる。
SVC VUIシンタックス拡張部402を使用してビデオコンテンツ108を符号化及び復号することにより、ビデオビットストリーム110のサイズを減少させ、ビデオバッファリングの必要性を低減できることが分かっている。ビデオビットストリーム110のサイズを減少させることにより、機能性が増し、図1のビデオストリーム120のディスプレイの性能が高まる。
ここで図5を参照すると、多視点映像符号化(MVC)VUIシンタックス502の実施例が示されている。MVC VUIシンタックス502は、多視点ビデオ情報を有する図1のビデオコンテンツ108を符号化及び復号するための記述的情報を含む。
MVC VUIシンタックス502は、図5のMVC VUIシンタックス表に記載された要素を含む。MVC VUIシンタックス502の要素は、図5のMVC VUIシンタックス表に記載された階層構造で整列する。
MVC VUIシンタックス502は、mvc_vui_parameters_extension要素などのMVC VUIシンタックスヘッダ部504を含む。MVC VUIシンタックスヘッダ部504は、HEVCに関するMVC VUIシンタックス502を識別するための記述子である。MVC VUIシンタックス502を使用して、MVCに関して図1のビデオビットストリーム110を符号化及び復号する。
多視点映像符号化は、ビデオビットストリーム110の単一の圧縮インスタンス内の複数のビデオシーケンスを効率的に符号化及び復号することを可能にするためのものである。MVCを使用して立体的ビデオ、並びに他の種類の3次元(3D)ビデオを符号化することができる。
MVC VUIシンタックス502は、ビデオビットストリーム110内の操作ポイントの全体数を識別するために、図1の操作カウント144、例えばvui_mvc_num_ops_minus1要素を含むことができる。vui_mvc_num_ops_minus1は、多視点映像符号化に関して存在する情報エントリ、例えば、タイミング情報、NAL HRDパラメータ、VCL HRDパラメータ、pic_struct_present_flag要素、又はそれらの組み合わせを特定する。MVC VUIシンタックス502は、図1の操作識別子142、例えばカウンタ[i]を含むことができる。
MVC VUIシンタックス502を使用してビデオコンテンツ108を符号化及び復号することにより、ビデオビットストリーム110のサイズを減少させ、ビデオバッファリングの必要性を低減できることが分かっている。ビデオビットストリーム110のサイズを減少させることにより、機能性が増し、図1のビデオストリーム112のディスプレイの性能が高まる。
ここで図6を参照すると、MVC VUIシンタックス拡張部602の実施例が示されている。MVC VUIシンタックス拡張部602は、Advanced Video Coding、スケーラブル映像符号化、及び多視点映像符号化要素の組み合わせである。
MVC VUIシンタックス拡張部602は、図6のMVC VUIシンタックス拡張部表で表された要素を含む。MVC VUIシンタックス拡張部602の要素は、図6のMVC VUIシンタックス拡張部表に記載された階層構造で整列する。
MVC VUIシンタックス拡張部602は、vui_parameters要素などのMVC拡張部ヘッダ部604を含む。MVC VUIシンタックス拡張部602は、HEVCに関するMVC VUIシンタック拡張部602を識別するための記述子である。MVC VUIシンタックス拡張部602を使用して、AVC、SVC、及びMVCビデオに関して図1のビデオビットストリーム110を符号化及び復号する。
MVC VUIシンタックス拡張部602は、ビデオビットストリーム110に関して使用される符号化のタイプを識別するために、図4のタイプ識別子406、例えばsvc_mvc_flag要素を含むことができる。例えば、タイプ識別子406は、AVCを示すための値0、SVCを示すための値1、及びMVCを示すための値2を使用する符号化タイプを表すことがきる。
MVC VUIシンタックス拡張部602は、符号化された複数のビデオシーケンスを区別するために、繰り返し識別子138を含むことができる。MVC VUIシンタックス拡張部602は、図1のビデオコンテンツ108内の各フレームに関連する繰り返し回数を識別するために、num_iterations_minus1要素などの繰り返しカウント140を含むことができる。繰り返しの各々は、複数のスケーラブルビデオレイヤ拡張部の1つを表すことができる。繰り返しカウント140は、1を減算した繰り返し回数を示し、繰り返し範囲を0から繰り返し回数マイナス1の数までにマッピングする。
SVCビデオに関して、num_iterations_minus1要素は、複数のスケーラブルビデオレイヤ拡張部に関する複数の繰り返しを示す。MVCビデオに関して、num_iterations_minus1要素は、多視点ビデオに関する複数の操作ポイントを示す。
MVC VUIシンタックス拡張部602は、view_id要素などのビュー識別子146を含むことができる。ビュー識別子146は、ビデオコンテンツ108を表示するための多視点構成内のビューを識別する値である。
MVC VUIシンタックス拡張部602を使用してビデオビットストリーム110を符号化及び復号することにより、ビデオディスプレイの品質、スケーラビリティ、及び信頼性が高まることが分かっている。temporal_id、dependency_id、及びquality_idを使用して複数のビューからの複数の画像を識別及び連結することにより、画像間の関係が規定され、ビデオディスプレイの品質が高まる。
MVC VUIシンタックス拡張部602を使用してビデオコンテンツ108を符号化及び復号することにより、ビデオビットストリーム110のサイズを減少させ、ビデオバッファリングの必要性を低減できることが分かっている。ビデオビットストリーム110のサイズを減少させることにより、機能性が増し、図1のビデオストリーム112のディスプレイの性能が高まる。
ここで図7を参照すると、多視点映像プラス奥行き(MVD)VUIシンタックス702の実施例が示されている。MVD VUIシンタックス702は、3次元ビデオ(3DV)情報及びスケーラブル映像符号化情報を有する図1のビデオコンテンツ108を符号化及び復号するための記述的情報を含む。
MVD VUIシンタックス702は、図7のMVD VUIシンタックス表に記載された要素を含む。MVD VUIシンタックス702の要素は、図7のMVD VUIシンタックス拡張部表に記載された階層構造で整列する。
MVD VUIシンタックス702は、mvd_vui_parameters_extension要素などのMVDヘッダ部704を含む。MVDヘッダ部704は、HEVCに関するMVD VUIシンタック702を識別するための記述子である。MVD VUIシンタックス702を使用して、図1のビデオビットストリーム110を符号化及び復号する。
MVD VUIシンタックス702は、ビデオビットストリーム110内の操作ポイントの全体数を識別するために、図1の操作カウント144、例えばvui_mvd_num_ops_minus1要素を含むことができる。MVD VUIシンタックス702は、図1の操作識別子142、例えばカウンタ[i]を含むことができる。
MVD VUIシンタックス702は、多視点構成内のビューを識別するためのビューカウント148、例えばvui_mvd_num_target_output_views_minus1要素を含むことができる。MVD VUIシンタックス702は、vui_mvd_view_id要素などのビュー識別子146を含むことができる。
MVD VUIシンタックス702は、1つより多いビューを同時に表示する多視点構成内に図1のビデオストリーム112を表示することを可能にすることによって、機能性を高め性能を向上できることが分かっている。MVD VUIシンタックス702は、ビューカウント148のビューの多視点構成内のビューに関するビュー識別子146を識別することによって、オーバヘッドが小さい多視点機能を可能にする。
MVD VUIシンタックス702を使用してビデオコンテンツ108を符号化及び復号することにより、ビデオビットストリーム110のサイズを減少させ、ビデオバッファリングの必要性を低減できることが分かっている。ビデオビットストリーム110のサイズを減少させることにより、機能性が増し、図1のビデオストリーム112のディスプレイの性能が高まる。
ここで図8を参照すると、MVD VUIシンタックス拡張部802の実施例が示されている。MVD VUIシンタックス拡張部802は、Advanced Video Coding、スケーラブル映像符号化、多視点映像符号化、及び多視点映像プラス奥行き要素の組み合わせである。
MVD VUIシンタックス拡張部802は、図8のMVD VUIシンタックス拡張部表で表された要素を含む。MVD VUIシンタックス拡張部802の要素は、図8のMVD VUIシンタックス拡張部表に記載された階層構造で整列する。
MVD VUIシンタックス拡張部802は、vui_parameters要素などのMVD拡張部ヘッダ部804を含む。MVD拡張部ヘッダ部804は、HEVCに関するMVD VUIシンタック拡張部802を識別するための記述子である。MVD VUIシンタックス拡張部802を使用して、AVC、SVC、MVC、及びMVDビデオに関して図1のビデオビットストリーム110を符号化及び復号する。
MVD VUIシンタックス拡張部802は、ビデオビットストリーム110に関して使用される符号化のタイプを識別するために、図4のタイプ識別子406、例えばsvc_mvc_flag要素を含むことができる。例えば、タイプ識別子406は、AVCを示すための値0、SVCを示すための値1、MVCを示すための値2、及びMVDを示すための値3を使用する符号化タイプを表すことができる。
MVD VUIシンタックス拡張部802は、図1の繰り返し識別子138を含むことができる。MVD VUIシンタックス拡張部802は、ビデオビットストリーム110に関連する繰り返し回数を識別するために、num_iterations_minus1要素などの繰り返しカウント140を含むことができる。num_iterations_minus1要素は、別の符号化シンタックス内の別の要素に関する置換要素、例えば、SVCに関してはvui_ext_num_entries_minus1、MVCに関してはvui_mvc_num_ops_minus1、及びMVDに関してはvui_mvd_num_ops_minus1とすることができる。
繰り返しカウント140は、1を減算した繰り返し回数復号し、繰り返し範囲を0から繰り返し回数マイナス1の数までにマッピングする。例えば、MVCビデオに関しては、繰り返しカウント140が、多視点及び奥行きビデオに関する複数の操作ポイントを示す。
MVD VUIシンタックス拡張部802は、多視点構成内の繰り返しごとのビューを識別するために、図1のビューカウント148、例えばnum_target_output_views_minus1要素を含むことができる。MVD VUIシンタックス拡張部802は、多視点ビデオ情報内の各ビューを識別するために、図1のビュー識別子146、例えばview_id要素を含むことができる。
MVD VUIシンタックス拡張部802を使用してビデオビットストリーム110を符号化及び復号することにより、ビデオディスプレイの品質、スケーラビリティ、及び信頼性が高まることが分かっている。temporal_id、dependency_id、及びquality_idを使用して複数のビューからの複数の画像を識別及び連結することにより、画像間の関係が規定され、ビデオディスプレイの品質が高まる。
図6のMVC VUIシンタックス拡張部602を使用して図1のビデオコンテンツ108を符号化及び復号することにより、ビデオビットストリーム110のサイズを減少させ、ビデオバッファリングの必要性を低減できることが分かっている。ビデオビットストリーム110のサイズを減少させることにより、機能性が増し、図1のビデオストリーム112のディスプレイの性能が高まる。
ここで図9を参照すると、立体的ビデオ(SSV)VUIシンタックス拡張部902の実施例が示されている。SSV VUIシンタックス拡張部902は、Advanced Video Coding、スケーラブル映像符号化、多視点映像符号化、及び立体的ビデオ要素の組み合わせである。SSV VUIシンタックス拡張部902を使用して、左右立体的ビュービデオを符号化及び復号することができる。
SSV VUIシンタックス拡張部902は、図9のSSV VUIシンタックス拡張部表に記載された要素を含む。SSV VUIシンタックス拡張部902の要素は、図9のSSV VUIシンタックス拡張部表に記載された階層構造で整列する。
SSV VUIシンタックス拡張部902は、vui_parameters要素などのSSV VUI拡張部ヘッダ部904を含む。SSV拡張部ヘッダ部904は、HEVCに関するSSV VUIシンタック拡張部902を識別するための記述子である。SSV VUIシンタックス拡張部902を使用して、SSVビデオに関して図1のビデオビットストリーム110を符号化及び復号する。
SSV VUIシンタックス拡張部902は、ビデオビットストリーム110に関して使用される符号化のタイプを識別するために、図4のタイプ識別子406、例えばsvc_mvc_flag要素を含むことができる。例えば、タイプ識別子406は、AVCを示すための値0、及びSSVを示すための値1を使用する符号化タイプを表すことができる。
SSV VUIシンタックス拡張部902は、param_one_id要素などの第1のコンテキスト識別子906、及びparam_two_id要素などの第2のコンテキスト識別子908を含むことができる。第1の及び第2のという用語は、コンテキスト識別子を区別するために使用され、順序付け、順位付け、重要度、又は他の特性情報を意味するものではない。
第1のコンテキスト識別子906は、実行される映像符号化のタイプに応じて種々の情報を含むことができる。例えば、param_one_id要素は、SVCに関してはdependency_idを、SSVに関してはleft_view_id要素を表すことができる。
第2のコンテキスト識別子908は、実行される映像符号化のタイプに応じて種々のタイプの情報を含むことができる。例えば、param_two_id要素は、SVCに関してはquality_id要素を、SSVに関してはright_view_id要素を表すことができる。
SSV VUIシンタックス拡張部902を使用してビデオビットストリーム110を符号化及び復号することにより、立体的ビデオに関する、ビデオディスプレイの品質、スケーラビリティ、及び信頼性が高まることが分かっている。第1のコンテキスト識別子906及び第2のコンテキスト識別子908を使用して立体的ビデオに関するスケーラビリティ因子を識別することにより、ビデオビットストリーム110の品質が高まる。
SSV VUIシンタックス902を使用して図1のビデオコンテンツ108を符号化及び復号することにより、ビデオビットストリーム110のサイズを減少させ、ビデオバッファリングの必要性を低減できることが分かっている。ビデオビットストリーム110のサイズを減少させることにより、機能性が増し、図1のビデオストリーム112のディスプレイの性能が高まる。
ここで図10を参照すると、映像符号化システム100の機能ブロック図が示されている。映像符号化システム100は、第1のデバイス102、第2のデバイス104、及び通信経路106を含むことができる。
第1のデバイス102は、通信経路106を通じて第2のデバイス104と通信することができる。第1のデバイス102は、第1のデバイスの送信器1032において、通信経路106を通じて情報を第2のデバイス104に送信することができる。第2のデバイス104は、第2のデバイスの送信器1034において、通信経路106を通じて情報を第1のデバイス104に送信することができる。
例示目的で、クライアントデバイスとして第1のデバイス102を含む映像符号化システム100を示しているが、映像符号化システム100は、種々の種類のデバイスとして第1のデバイス102を有することができることを理解されたい。例えば、第1のデバイスはサーバとすることができる。別の実施例では、第1のデバイス102は、ビデオエンコーダ102、ビデオデコーダ104、又はそれらの組み合わせとすることができる。
さらに、例示目的で、サーバとして第2のデバイス104を含む映像符号化システム100を示しているが、映像符号化システム100は、種々の種類のデバイスとして第2のデバイス104を有することができることを理解されたい。例えば、第2のデバイス104はクライアントデバイスとすることができる。別の実施例では、第2のデバイス104は、ビデオエンコーダ102、ビデオデコーダ104、又はそれらの組み合わせとすることができる。
本発明のこの実施形態の説明を簡潔にするために、第1のデバイス102は、ビデオカメラ、スマートフォン、又はそれらの組み合わせなどのクライアントデバイスとして示される。本発明は、この、デバイスの種類に関する選択を限定するものではない。この選択は、本発明の一例である。
第1のデバイス102は、第1の制御ユニット1008を含むことができる。第1の制御ユニット1008は、第1の制御インタフェース1014を含むことができる。第1の制御ユニット1008は、映像符号化システム100のインテリジェンスを提供するための第1のソフトウェア1012を実行できる。
第1の制御ユニット1008は、複数の異なる方法で実装できる。例えば、第1の制御ユニット1008は、プロセッサ、組み込みプロセッサ、マイクロプロセッサ、ハードウェア制御ロジック、ハードウェア有限状態機械(FSM)、デジタルシグナルプロセッサ(DSP)、又はその他の組み合わせとすることができる。
第1の制御インタフェース1014は、第1の制御ユニット1008と第1のデバイス102内の別の機能ユニットとの間の通信のために使用することができる。第1の制御インタフェース1014はさらに、第1のデバイス102の外部との通信のために使用することができる。
第1の制御インタフェース1014は、別の機能ユニット又は外部の情報源から情報を受信すること、或いは別の機能ユニット又は外部の送信先に情報を送信することができる。外部の情報源及び外部の送信先は、第1のデバイス102の外部の情報源及び送信先に言及するものである。
第1の制御インタフェース1014は、様々な方法で実装することができ、どの機能ユニット又は外部ユニットが第1の制御インタフェース1014に接続されているかに応じて様々な実施形態を含むことができる。例えば、第1の制御インタフェース1014は、電気回路、微小電気機械システム(MEMS)、光学的回路、無線回路、有線回路、又はそれらの組み合わせで実装できる。
第1のデバイス102は、第1の記憶ユニット1004を含むことができる。第1の記憶ユニット1004は、第1のソフトウェアと1012を格納することができる。第1の記憶ユニット1004はさらに、画像、シンタックス情報、ビデオ、地図、特性情報、表示設定、センサデータ、又はそれらの任意の組み合わせなどの関連情報を格納することができる。
第1の記憶ユニット1004は、揮発性メモリ、不揮発性メモリ、内部メモリ、外部メモリ、又はそれらの組み合わせとすることができる。第1の記憶ユニット1004は、例えば、不揮発性ランダムアクセスメモリ(NVRAM)、フラッシュメモリ、ディスクストレージなどの不揮発性ストレージ、又はスタティックランダムアクセスメモリ(SRAM)などの揮発性ストレージとすることができる。
第1の記憶ユニット1004は、第1の記憶インタフェース1018を含むことができる。第1の記憶インタフェース1018は、第1の記憶ユニット1004と第1のデバイス102内の別の機能ユニットとの間の通信用に使用することができる。第1の記憶インタフェース1018はさらに、第1のデバイス102の外部との通信用に使用することができる。
第1のデバイス102は、第1の画像化ユニット1006を含むことができる。第1の画像化ユニット1006は、現実世界からビデオコンテンツ108を撮影することができる。第1の画像化ユニット1006は、デジタルカメラ、ビデオカメラ、光センサ、又はそれらの組み合わせを含むことができる。
第1の画像化ユニット1006は、第1の画像化インタフェース1016を含むことができる。第1の画像化インタフェース1016は、第1の画像化ユニット1006と第1のデバイス102内の別の機能ユニットとの間の通信用に使用することができる。
第1の画像化インタフェース1016は、別の機能ユニット又は外部の情報源から情報を受信すること、或いは別の機能ユニット又は外部の送信先に情報を送信することができる。外部の情報源及び外部の送信先は、第1のデバイス102の外部の情報源及び送信先に言及するものである。
第1の画像化インタフェース1016は、どの機能ユニット又は外部ユニットが第1の画像化ユニット1006に接続されているかに応じて様々な実施形態を含むことができる。第1の画像化インタフェース1016は、第1の制御インタフェース1014の実施形態と同様な技術及び技法で実装することができる。
第1の記憶インタフェース1018は、別の機能ユニット又は外部の情報源から情報を受信すること、或いは別の機能ユニット又は外部の送信先に情報を送信することができる。外部の情報源及び外部の送信先は、第1のデバイス102の外部の情報源及び送信先に言及するものである。
第1の記憶インタフェース1018は、どの機能ユニット又は外部ユニットが第1の記憶ユニット1004に接続されているかに応じて様々な実施形態を含むことができる。第1の記憶インタフェース1018は、第1の制御インタフェース1014の実施形態と同様な技術及び技法で実装することができる。
第1のデバイス102は、第1の通信ユニット1010を含むことができる。第1の通信ユニット1010は、第1のデバイス102への及びそれからの外部通信を可能にするためのものとすることができる。例えば、第1の通信ユニット1010は、第1のデバイス102が、第2のデバイス104、周辺デバイス又はデスクトップコンピュータなどの付属装置、及び通信経路106との通信を可能にすることができる。
第1の通信ユニット1010はさらに、第1のデバイス102が、通信経路106の一部分として機能すること、及び通信経路106へのエンドポイント又は終端ユニットに限定されないことを可能にするように構成された通信ハブとして機能することができる。第1の通信ユニット1010は、通信経路106との通信用の能動素子及び受動素子、例えば、マイクロエレクトロニクス又はアンテナを含むことができる。
第1の通信ユニット1010は、第1の通信インタフェース1020を含むことができる。第1の通信インタフェース1020は、第1の通信ユニット1010と第1のデバイス102内の別の機能ユニットとの間の通信用に使用することができる。第1の通信インタフェース1020は、別の機能ユニットから情報を受信すること、或いは別の機能ユニットに情報を送信することができる。
第1の通信インタフェース1020は、どの機能ユニットが第1の通信ユニット1010に接続されているかに応じて様々な実施形態を含むことができる。第1の通信インタフェース1020は、第1の制御インタフェース1014の実施形態と同様な技術及び技法で実装することができる。
第1のデバイス102は、第1のユーザインタフェース1002を含むことができる。第1のユーザインタフェース1002は、ユーザ(図示せず)が第1のデバイス102と連携及び対話することを可能にする。第1のユーザインタフェース1002は、第1のユーザ入力(図示せず)を含むことができる。第1のユーザ入力は、タッチスクリーン、ジェスチャ、動き検出、ボタン、スライダ、ノブ、仮想ボタン、音声認識制御、又はそれらの組み合わせを含むことができる。
第1のユーザインタフェース1002は、第1のディスプレイインタフェース120を含むことができる。第1のディスプレイインタフェース120は、ユーザが第1のユーザインタフェース1002と対話することを可能にする。第1のディスプレイインタフェース120は、ディスプレイ、ビデオスクリーン、スピーカ、又はそれらの組み合わせを含むことができる。
第1の制御ユニット1008は、第1のユーザインタフェース1002と連携して、映像符号化システム100によって生成されたビデオ情報を第1のディスプレイインタフェース120上に表示させることができる。第1の制御ユニット1008はさらに、第1の記憶ユニット1004からビデオ情報を受信して第1のディスプレイインタフェース120上に表示させることを含む、映像符号化システム100の別の機能に関する第1のソフトウェア1012を実行することができる。第1の制御ユニット1008はさらに、第1の通信ユニット1010経由で通信経路106と通信するための第1のソフトウェア1012を実行することができる。
例示目的で、第1のデバイス102は、第1のユーザインタフェース1002、第1の記憶ユニット1004、第1の制御ユニット1008、及び第1の通信ユニット1010を有して分割することができるが、第1のデバイス102は、様々に分割できることを理解されたい。例えば、第1のソフトウェア1012は、その機能の一部又は全てが、第1の制御ユニット1008及び第1の通信ユニット1010内に含まれるように別様に分割することができる。さらに、第1のデバイス102は、明確にするために図10に示していない他の機能ユニットを含むことができる。
映像符号化システム100は、第2のデバイス104を含むことができる。第2のデバイス104は、第1のデバイス102を含む複数デバイスの実施形態で本発明を実施するように最適化することができる。第2のデバイス104は、第1のデバイス102と比べて追加的な又は高い性能の処理能力を提供することができる。
第2のデバイス104は、第2の制御ユニット1048を含むことができる。第2の制御ユニット1048は、第2の制御インタフェース1054を含むことができる。第2の制御ユニット1048は、映像符号化システム100のインテリジェンスを提供するための第2のソフトウェア1052を実行できる。
第2の制御ユニット1048は、複数の異なる方法で実装できる。例えば、第2の制御ユニット1048は、プロセッサ、組み込みプロセッサ、マイクロプロセッサ、ハードウェア制御ロジック、ハードウェア有限状態機械(FSM)、デジタルシグナルプロセッサ(DSP)、又はその他の組み合わせとすることができる。
第2の制御インタフェース1054は、第2の制御ユニット1048と第2のデバイス104内の別の機能ユニットとの間の通信のために使用することができる。第2の制御インタフェース1054はさらに、第2のデバイス104の外部との通信用に使用することができる。
第2の制御インタフェース1054は、別の機能ユニット又は外部の情報源から情報を受信すること、或いは別の機能ユニット又は外部の送信先に情報を送信することができる。外部の情報源及び外部の送信先は、第2のデバイス104の外部の情報源及び送信先に言及するものである。
第2の制御インタフェース1054は、どの機能ユニット又は外部ユニットが第2の制御インタフェース1054に接続されているかに応じて様々な実施形態を含むことができる。例えば、第2の制御インタフェース1054は、電気回路、微小電気機械システム(MEMS)、光学的回路、無線回路、有線回路、又はそれらの組み合わせで実装できる。
第2のデバイス104は、第2の記憶ユニット1044を含むことができる。第2の記憶ユニット1044は、第2のソフトウェア1052を格納することができる。第2の記憶ユニット1044はさらに、画像、シンタックス情報、ビデオ、地図、特性情報、表示設定、センサデータ、又はそれらの任意の組み合わせなどの関連情報を格納することができる。
第2の記憶ユニット1044は、揮発性メモリ、不揮発性メモリ、内部メモリ、外部メモリ、又はそれらの組み合わせとすることができる。第2の記憶ユニット1044は、例えば、不揮発性ランダムアクセスメモリ(NVRAM)、フラッシュメモリ、ディスクストレージなどの不揮発性ストレージ、又はスタティックランダムアクセスメモリ(SRAM)などの揮発性ストレージとすることができる。
第2の記憶ユニット1044は、第2の記憶インタフェース1058を含むことができる。第2の記憶インタフェース1058は、第2の記憶ユニット1044と第2のデバイス104内の別の機能ユニットとの間の通信用に使用することができる。第2の記憶インタフェース1058はさらに、第2のデバイス104の外部との通信用に使用することができる。
第2の記憶インタフェース1058は、別の機能ユニット又は外部の情報源から情報を受信すること、或いは別の機能ユニット又は外部の送信先に情報を送信することができる。外部の情報源及び外部の送信先は、第2のデバイス104の外部の情報源及び送信先に言及するものである。
第2の記憶インタフェース1058は、どの機能ユニット又は外部ユニットが第2の記憶ユニット1044に接続されているかに応じて様々な実施形態を含むことができる。第2の記憶インタフェース1058は、第2の制御インタフェース1054の実施形態と同様な技術及び技法で実装することができる。
第2のデバイス104は、第2の画像化ユニット1046を含むことができる。第2の画像化ユニット1046は、現実世界から図1のビデオコンテンツ108を撮影することができる。第1の画像化ユニット1006は、デジタルカメラ、ビデオカメラ、光センサ、又はそれらの組み合わせを含むことができる。
第2の画像化ユニット1046は、第2の画像化インタフェース1056を含むことができる。第2の画像化インタフェース1056は、第2の画像化ユニット1046と第2のデバイス104内の別の機能ユニットとの間の通信用に使用することができる。
第2の画像化インタフェース1056は、別の機能ユニット又は外部の情報源から情報を受信すること、或いは別の機能ユニット又は外部の送信先に情報を送信することができる。外部の情報源及び外部の送信先は、第2のデバイス104の外部の情報源及び送信先に言及するものである。
第2の画像化インタフェース1056は、どの機能ユニット又は外部ユニットが第2の画像化ユニット1046に接続されているかに応じて様々な実施形態を含むことができる。第2の画像化インタフェース1056は、第1の制御インタフェース1014の実施形態と同様な技術及び技法で実装することができる。
第2のデバイス104は、第2の通信ユニット1050を含むことができる。第2の通信ユニット1050は、第2のデバイス104との及びそれからの外部通信を可能にすることができる。例えば、第2の通信ユニット1050は、第2のデバイス104が、第1のデバイス102、周辺デバイス又はデスクトップコンピュータなどの付属装置、及び通信経路106との通信を可能にすることができる。
第2の通信ユニット1050はさらに、第2のデバイス104が、通信経路106の一部分として機能すること、及び通信経路106へのエンドポイント又は終端ユニットに限定されないことを可能にするように構成された通信ハブとして機能することができる。第2の通信ユニット1050は、通信経路106との通信用の能動素子及び受動素子、例えば、マイクロエレクトロニクス又はアンテナを含むことができる。
第2の通信ユニット1050は、第2の通信インタフェース1060を含むことができる。第2の通信インタフェース1060は、第2の通信ユニット1050と第2のデバイス104内の別の機能ユニットとの間の通信用に使用することができる。第2の通信インタフェース1060は、別の機能ユニットから情報を受信すること、或いは別の機能ユニットに情報を送信することができる。
第2の通信インタフェース1060は、どの機能ユニットが第2の通信ユニット1050に接続されているかに応じて様々な実施形態を含むことができる。第2の通信インタフェース1060は、第2の制御インタフェース1054の実施形態と同様な技術及び技法で実装することができる。
第2のデバイス104は、第2のユーザインタフェース1042を含むことができる。第2のユーザインタフェース1042は、ユーザ(図示せず)が第2のデバイス104と連携及び対話することを可能にする。第2のユーザインタフェース1042は、第2のユーザ入力(図示せず)を含むことができる。第2のユーザ入力は、タッチスクリーン、ジェスチャ、動き検出、ボタン、スライダ、ノブ、仮想ボタン、音声認識制御、又はそれらの組み合わせを含むことができる。
第2のユーザインタフェース1042は、第2のディスプレイインタフェース1043を含むことができる。第2のディスプレイインタフェース1043は、ユーザが第2のユーザインタフェース1042と対話することを可能にする。第2のディスプレイインタフェース1043は、ディスプレイ、ビデオスクリーン、スピーカ、又はそれらの組み合わせを含むことができる。
第2の制御ユニット1048は、第2のユーザインタフェース1042と連携して、映像符号化システム100によって生成されたビデオ情報を第2のディスプレイインタフェース1043上に表示させることができる。第2の制御ユニット1048はさらに、第2の記憶ユニット1044からディスプレイ情報を受信して第2のディスプレイインタフェース1043上に表示させることを含む、映像符号化システム100の別の機能に関する第2のソフトウェア1052を実行することができる。第2の制御ユニット1048はさらに、第2の通信ユニット1050経由で通信経路106と通信するための第2のソフトウェア1052を実行することができる。
例示目的で、第2のデバイス104は、第2のユーザインタフェース1042、第2の記憶ユニット1044、第2の制御ユニット1048、及び第2の通信ユニット1050を有して分割することができるが、第2のデバイス102は、様々に分割することができることを理解されたい。例えば、第2のソフトウェア1052は、その機能の一部又は全てが、第2の制御ユニット1048及び第2の通信ユニット1050内に含まれるように別様に分割することができる。さらに、第2のデバイス104は、明確にするために図10に示していない他の機能ユニットを含むことができる。
第1の通信ユニット1010は、通信経路106と接続して、第1のデバイスの送信器1032において情報を第2のデバイス104に送信することができる。第2のデバイス104は、第2の通信ユニット1050において、通信経路106の第1のデバイスの送信器1032から情報を受信することができる。
第2の通信ユニット1050は、通信経路106と接続して、第2のデバイスの送信器1034においてビデオ情報を第1のデバイス102に送信することができる。第1のデバイス102は、第1の通信ユニット1010において、通信経路106の第2のデバイスの送信器1034からビデオ情報を受信することができる。映像符号化システム100は、第1の制御ユニット1008、第2の制御ユニット1048、又はそれらの組み合わせによって実行することができる。
第1のデバイス102内の機能ユニットは、他の機能ユニットとは別個に及び無関係に動作することができる。例示目的で、映像符号化システム100は、第1のデバイス102の動作によって説明される。第1のデバイス102は、映像符号化システム100の任意のモジュール及び機能を実行できることを理解されたい。例えば、第1のデバイス102は、第1の制御ユニット1008を動作させるように規定することができる。
第2のデバイス104内の機能ユニットは、他の機能ユニットとは別個に及び無関係に動作することができる。例示目的で、映像符号化システム100は、第2のデバイス104の動作によって説明される。第2のデバイス104は、映像符号化システム100の任意のモジュール及び機能を実行できることを理解されたい。例えば、第2のデバイス104は、第2の制御ユニット1048を動作させるように規定することができる。
例示目的で、映像符号化システム100は、第1のデバイス102及び第2のデバイス104の動作によって説明される。第1のデバイス102及び第2のデバイス104は、映像符号化システム100の任意のモジュール及び機能を実行できることを理解されたい。例えば、第1のデバイス102は、第1の制御ユニット1008を動作させるように説明しているが、さらに第2のデバイス104が、第1の制御ユニット1008を動作させることができることを理解されたい。
ここで図11を参照すると、図1の映像符号化システム100の制御フロー1100が示されている。制御フロー1100は、ビデオビットストリーム110を受信し、図1のビデオシンタックス114を抽出し、ビデオビットストリーム110を復号し、図1のビデオストリーム112を表示することによって図1のビデオビットストリーム110を復号することを示している。
映像符号化システム100は、受信モジュール1102を含むことができる。受信モジュール1102は、図1のビデオエンコーダ102によって符号化されたビデオビットストリーム110を受信することができる。
ビデオビットストリーム110は、様々な方法で受信することができる。例えば、ビデオビットストリーム110は、事前に符号化されたビデオファイル(図示せず)として、図1の通信経路106を通じたデジタルメッセージ(図示せず)内で、又はそれらの組み合わせで図1のビデオエンコーダ102から受信することができる。
映像符号化システム100は、タイプ取得モジュール1104を含むことができる。タイプ取得モジュール1104は、図1のシンタックスタイプ132を抽出することによって、ビデオビットストリーム110を符号化及び復号するために使用される映像符号化タイプを識別することができる。
タイプ取得モジュール1104は、様々な方法でシンタックスタイプ132を検出することができる。タイプ取得モジュール1104は、図4のタイプ識別子406、例えばsvc_mvc_flag要素をビデオビットストリーム110から構文解析することによってシンタックスタイプ132を特定することができる。別の実施例では、タイプ取得モジュール1104は、デマルチプレクサ(図示せず)を使用してビデオビットストリーム110のビデオ画像データからビデオシンタックス114を分離させてビデオビットストリーム110からタイプ識別子406を抽出することによってビデオシンタックス114からシンタックスタイプ132を抽出することができる。
例示的な実施例では、svc_mvc_flagが値0を有する場合に、タイプ識別子406内のタイプは、AVCに設定される。svc_mvc_flagが値1を有する場合に、タイプ識別子406は、SVCに設定される。svc_mvc_flag要素が値2を有する場合に、タイプ識別子406は、MVCに設定される。
svc_mvc_flag要素が値3を有する場合に、タイプ識別子406は、MVDに設定される。svc_mvc_flag要素が値4を有する場合に、タイプ識別子406は、SSVに設定される。シンタックスタイプ132は、ビデオビットストリーム110から抽出されたタイプ識別子406の値に割り当てられる。
映像符号化システム100は、シンタックス取得モジュール1106を含むことができる。シンタックス取得モジュール1106は、ビデオビットストリーム110内に組み込まれたビデオシンタックス114を識別及び抽出することができる。
例えば、ビデオシンタックス114は、ビデオシンタックス114の存在を示すビデオ表示情報ヘッダ部に関してビデオビットストリーム110を検索することによって抽出することができる。さらに別の実施例では、ビデオシンタックス114は、デマルチプレクサ(図示せず)を使用してビデオビットストリーム110のビデオ画像データからビデオシンタックス114を分離させてビデオビットストリーム110から抽出することができる。さらに別の実施例では、ビデオシンタックス114は、シーケンスパラメータセットであるローバイトシーケンスペイロード(Raw Byte Sequence Payload (RBSP))シンタックスを抽出することによってビデオビットストリーム110から抽出することができる。シーケンスパラメータセットRBSPは、ネットワーク抽象レイヤユニット内にカプセル化された整数のバイトを含むシンタックス構造体である。RBSPは、空とすること、又はシンタックス要素と、その後に続くRBSPストップビットと、その後に続く、0に等しくゼロ又はそれより多い付加ビットを含むデータビット列の形式を有することの何れかとすることができる。
別の実施例では、ビデオビットストリーム110をファイル内で受け取る場合には、ビデオシンタックス114は、ビデオビットストリーム110を含むファイルのファイル拡張子を調査することによって検出することができる。さらに別の実施例では、図1の通信経路106を通じてデジタルメッセージとしてビデオビットストリーム110を受信する場合には、ビデオシンタックス114は、デジタルメッセージ構成の一部分として提供することができる。
シンタックス取得モジュール1106は、シンタックスタイプ132に基づいてビデオシンタックス114の個々の要素を抽出することができる。シンタックス取得モジュール1106は、シンタックスタイプ132に基づいてビデオシンタックス114の要素を取得するための、AVCモジュール1108、SVCモジュール1110、MVCモジュール1112、MVDモジュール1114、及びSSVモジュール1116を含むことができる。
シンタックスタイプ132がAVC符号化を示す場合には、制御フローは、AVCモジュール1108を通過することができる。AVCモジュール1108は、ビデオシンタックス114から図2のAVC VUIシンタックス202を抽出することができる。AVC VUIシンタックス202の要素は、図2の表内のAVC VUIシンタックス202の要素の定義によりビデオシンタックス114から抽出することができる。
AVC VUIシンタックス202を使用することにより、信頼性が増し、AVC VUIシンタックス202のビデオ表示情報の縮小したデータフットプリントにより図1のビデオコンテンツ108を符号化及び復号することによって、オーバヘッドが減少することが分かっている。ビデオビットストリーム110を規定するのに必要なデータ量を減少させることにより、信頼性が増し、データオーバヘッドが減少する。
シンタックスタイプ132がSVC符号化を示す場合には、制御フローは、SVCモジュール1110を通過することができる。SVCモジュール1110は、ビデオシンタックス114から図4のSVC VUIシンタックス拡張部402を抽出することができる。SVC VUIシンタックス拡張部402の要素は、図4の表内のSVC VUIシンタックス拡張部402の要素の定義によりビデオシンタックス114から抽出することができる。
SVC VUIシンタックス拡張部402を使用することにより、信頼性が増し、SVC VUIシンタックス拡張部402のビデオ表示情報の縮小したデータフットプリントによりビデオコンテンツ108を符号化及び復号することによって、オーバヘッドが減少することが分かっている。ビデオビットストリーム110を規定するのに必要なデータ量を減少させることにより、信頼性が増し、データオーバヘッドが減少する。
シンタックスタイプ132がMVC符号化を示す場合には、制御フローは、MVCモジュール1112を通過することができる。MVCモジュール1112は、ビデオシンタックス114から図6のMVC VUIシンタックス拡張部602を抽出することができる。MVC VUIシンタックス拡張部602の要素は、図6の表内のMVC VUIシンタックス拡張部602の要素の定義によりビデオシンタックス114から抽出することができる。
MVC VUIシンタックス拡張部602を使用することにより、信頼性が増し、MVC VUIシンタックス拡張部602のビデオ表示情報の縮小したデータフットプリントによりビデオコンテンツ108を符号化及び復号することによって、オーバヘッドが減少することが分かっている。ビデオビットストリーム110を規定するのに必要なデータ量を減少させることにより、信頼性が増し、多視点映像プラス奥行き符号化に関するデータオーバヘッドが減少する。
シンタックスタイプ132がMVD符号化を示す場合には、制御フローは、MVDモジュール1114を通過することができる。MVDモジュール1114は、ビデオシンタックス114から図8のMVD VUIシンタックス拡張部802を抽出することができる。MVD VUIシンタックス拡張部802の要素は、図8の表内のMVD VUIシンタックス802の要素の定義によりビデオシンタックス114から抽出することができる。
MVD VUIシンタックス拡張部802を使用することにより、信頼性が増し、MVD VUIシンタックス拡張部802のビデオ表示情報の縮小したデータフットプリントによりビデオコンテンツ108を符号化及び復号することによって、オーバヘッドが減少することが分かっている。ビデオビットストリーム110を規定するのに必要なデータ量を減少させることにより、信頼性が増し、MVD符号化に関するデータオーバヘッドが減少する。
シンタックスタイプ132がSSV符号化を示す場合には、制御フローは、SSVモジュール1116を通過することができる。SSVモジュール1116は、ビデオシンタックス114から図9のSSV VUIシンタックス拡張部902を抽出することができる。SSV VUIシンタックス拡張部902の要素は、図9の表内のSSV VUIシンタックス拡張部902の要素の定義によりビデオシンタックス114から抽出することができる。
SSV VUIシンタックス拡張部902を使用することにより、信頼性が増し、SSV VUIシンタックス拡張部902のビデオ表示情報の縮小したデータフットプリントによりビデオコンテンツ108を符号化及び復号することによって、オーバヘッドが減少することが分かっている。ビデオビットストリーム110を規定するのに必要なデータ量を減少させることにより、信頼性が増し、立体的ビデオに関するデータオーバヘッドが減少する。
映像符号化システム100は、復号モジュール1118を含むことができる。復号モジュール1118は、シンタックスタイプ132の抽出されたインスタンスに関するビデオシンタックス114の要素を使用してビデオビットストリーム110を復号してビデオストリーム112を生成することができる。
復号モジュール1118は、シンタックスタイプ132を使用して、使用される映像符号化のタイプを特定してビデオビットストリーム110を復号して、ビデオビットストリーム110を生成することができる。シンタックスタイプ132がAdvanced Video Codingを示す場合には、復号モジュール1118は、AVC VUIシンタックス202を使用してビデオビットストリーム110を復号することができる。
シンタックスタイプ132がスケーラブル映像符号化を示す場合には、復号モジュール1118は、SVC VUIシンタックス拡張部402を使用してビデオビットストリーム110を復号することができる。SVC VUIシンタックス拡張部402は、エントリカウント136で示される配列サイズを有するスケーラビリティ要素の配列を含むことができる。例えば、SVC VUIシンタックス拡張部402は、[i]がエントリカウント136の最大値を有する、temporal_id[i]、dependency_id[i]、及びquality_id[i]の配列を含むことができる。
シンタックスタイプ132が多視点映像符号化を示す場合には、復号モジュール1118は、MVC VUIシンタックス拡張部602を使用してビデオビットストリーム110を復号することができる。シンタックスタイプ132がMVCを示す場合には、MVC VUIシンタックス拡張部602は、[i]がエントリカウント136の最大値を有し、[j]が図1のビューカウント148の最大値を有する、view_id[i][j]の配列を含むことができる。
シンタックスタイプ132が多視点映像プラス奥行きを示す場合には、復号モジュール1118は、MVD VUIシンタックス拡張部802を使用してビデオビットストリーム110を復号することができる。シンタックスタイプ132が多視点映像プラス奥行きを示す場合には、復号モジュール1118は、MVD VUIシンタックス拡張部802を使用してビデオビットストリーム110を復号することができる。シンタックスタイプ132がMVDを示す場合には、MVD VUIシンタックス拡張部802は、[i]がエントリカウント136の最大値を有し、[j]がビューカウント148の最大値を有する、view_id[i][j]の配列を含むことができる。
シンタックスタイプ132がSSV符号化を示す場合には、復号モジュール1118は、SSV VUIシンタックス拡張部902を使用してビデオビットストリーム110を復号することができる。SSV VUIシンタックス拡張部902は、エントリカウント136で示される配列サイズを有するスケーラビリティ要素の配列を含むことができる。例えば、SSV VUIシンタックス拡張部902は、[i]がエントリカウント136の最大値を有する、temporal_id[i]、param_one_id[i]、及びparam_two_id[i]の配列を含むことができる。
映像符号化システム100は、ディスプレイモジュール1120を含むことができる。ディスプレイモジュール1120は、復号モジュール1118からビデオストリーム112を受信し、図1のディスプレイインタフェース120上に表示することができる。
ビデオコンテンツ108の物理的対象物の光学的画像から図1のビデオデコーダ104のディスプレイインタフェース120の画素要素上にビデオストリーム112を表示することへの物理的な変換は、物理的世界におけるディスプレイインタフェース120の画素要素に対する物理的変化、例えば画素要素の電気的な状態の変化を引き起こし、これは、映像符号化システム100の動作に基づく。ビデオコンテンツ108で撮影された対象物の動きなどの物理的世界における変化が生じるときに、その動き自体により、ビデオコンテンツ108の更新などの追加情報が生成され、この追加情報は、映像符号化システム100の継続動作に関してディスプレイインタフェース120の画素要素における変化に戻して変換される。
第1のデバイス102の図10の第1のソフトウェア1012は、映像符号化システム100を含むことができる。例えば、第1のソフトウェア1012は、受信モジュール1102、タイプ取得モジュール1104、シンタックス取得モジュール1106、復号モジュール1118、及びディスプレイモジュール1120を含むことができる。
図10の第1の制御ユニット1008は、ビデオビットストリーム110を受信するための受信モジュール1102に関して第1のソフトウェア1012を実行することができる。第1の制御ユニット1008は、ビデオビットストリーム110に関するシンタックスタイプ132を特定するためのタイプ取得モジュール1104に関して第1のソフトウェア1012を実行することができる。第1の制御ユニット1008は、ビデオビットストリーム110からのビデオシンタックス114を識別及び抽出するためのシンタックス取得モジュール1106に関して第1のソフトウェア1012を実行することができる。第1の制御ユニット1008は、ビデオストリーム112を生成するための復号モジュール1118に関して第1のソフトウェア1012を実行することができる。第1の制御ユニット1008は、ビデオストリーム112を表示するためのディスプレイモジュール1120に関して第1のソフトウェア1012を実行することができる。
第2のデバイス104の図10の第2のソフトウェア1052は、映像符号化システム100を含むことができる。第2のソフトウェア1052は、例えば、受信モジュール1102、タイプ取得モジュール1104、シンタックス取得モジュール1106、及び復号モジュール1118を含むことができる。
図10の第2の制御ユニット1048は、ビデオビットストリーム110を受信するための受信モジュール1102に関して第2のソフトウェア1052を実行することができる。第2の制御ユニット1048は、ビデオビットストリーム110に関するシンタックスタイプ132を特定するためのタイプ取得モジュール1104に関して第2のソフトウェア1052を実行することができる。第2の制御ユニット1048は、ビデオビットストリーム110からのビデオシンタックス114を識別及び抽出するためのシンタックス取得モジュール1106に関して第2のソフトウェア1052を実行することができる。第2の制御ユニット1048は、図1のビデオストリーム112を生成するための復号モジュール1118に関して第2のソフトウェア1052を実行することができる。第2の制御ユニット1048は、ビデオストリーム112を表示するためのディスプレイモジュール1120に関して第2のソフトウェアを実行することができる。
映像符号化システム100は、第1のソフトウェア1012と第2のソフトウェア1052とに分割することができる。例えば、第2のソフトウェア1052は、シンタックス取得モジュール1106、復号モジュール1118、及びディスプレイモジュール1120を含むことができる。第2の制御ユニット1048は、前述した第2のソフトウェア1052に対して分割されたモジュールを実行することができる。
第1のソフトウェア1012は、受信モジュール1102及びタイプ取得モジュール1104を含むことができる。図10の第1の記憶ユニット1004のサイズに応じて、第1のソフトウェア1012は、映像符号化システム100の追加のモジュールを含むことができる。第1の制御ユニット1008は、前述した第1のソフトウェア1012に対して分割されたモジュールを実行することができる。
第1の制御ユニット1008は、第2のデバイス104にビデオビットストリーム110を送信するための図10の第1の通信ユニット1010を動作させることができる。第1の制御ユニット1008は、図10の第1の画像化ユニット1006を動作させるための第1のソフトウェア1012を動作させることができる。図10の第2の通信ユニット1050は、通信経路106を通じて第1のデバイス102にビデオストリーム112を送信することができる。
映像符号化システム100は、一例としてのモジュール機能又は種類で説明している。モジュールは様々に分割することができる。例えば、タイプ取得モジュール1104、シンタックス取得モジュール1106、及び復号モジュール1118を組み合わせることができる。各モジュールは、他のモジュールとは別個に及び無関係に動作することができる。
さらに、1つのモジュールで生成されたデータは、互いに直接接続することなく別のモジュールで使用することができる。例えば、シンタックス取得モジュール1106は、受信モジュール1102からビデオビットストリーム110を受信することができる。
モジュールは、様々な方法で実装することができる。受信モジュール1102、タイプ取得モジュール1104、シンタックス取得モジュール1106、復号モジュール1118、及びディスプレイモジュール1120は、第1の制御ユニット1008又は第2の制御ユニット1048内のハードウェアアクセラレータ(図示せず)において実装すること、或いは第1の制御ユニット1008又は第2の制御ユニット1048の外部で第1のデバイス102又は第2のデバイス104内のハードウェアアクセラレータ(図示せず)において実装することができる。
ここで図12を参照すると、本発明の別の実施形態での図1の映像符号化システム100の動作方法1200のフローチャートが示されている。方法1200は、ブロック1202においてビデオビットストリームを受信する段階と、ブロック1204においてビデオビットストリームのシンタックスタイプを識別する段階と、ブロック1206においてシンタックスタイプに関するビデオビットストリームからビデオシンタックスを抽出する段階と、ブロック1208においてビデオシンタックスに基づいてビデオストリームを生成してデバイス上に表示する段階とを含む。
このように、本発明は多くの態様を有することが分かっている。本発明は、経費を削減すること、システムを簡略化すること、及び性能を向上させることの歴史的な動向に効果的に対応し、その要求に応えている。結果的に、本発明のこれらの及び他の効果的な態様により、本技術の状況が少なくとも次の水準に進展する。
従って、本発明の映像符号化システムは、高精細アプリケーション用のビデオコンテンツを効率的に符号化及び復号することに関して、重要で従来は未知かつ利用不可能な解決方法、機能、及び機能形態を提供することが分かっている。もたらされるプロセス及び構成は、端的な、費用効率が高い、複雑でない、非常に汎用的な、及び効率的なものであり、驚いたことに、かつ自明ではなく、公知の技術を適応させることによって実装することができ、従来の製造プロセス及び技術と完全に互換性がある映像符号化デバイスを、効率的に経済性を高めて製造するのに容易に適合する。もたらされるプロセス及び構成は、端的な、費用効率が高い、複雑でない、非常に汎用的な、正確な、精度が高い、及び効率的なものであり、容易に、効率的に、経済性を高めて製造、応用、及び利用するために公知の構成要素を適応させることによって実装することができる。
本発明は、特定の最良の形態と併せて説明しているが、当業者であれば、前述の説明を考慮すると多くの代替例、修正例、及び変更例が明らかであることを理解されたい。従って、このような、本出願に含まれる特許請求の範囲の範囲内にある全ての代替例、修正例、変更例を包含することが意図されている。これまで本明細書に記載した又は添付図面に示した全ての事項は、例示的かつ非限定的な意味で解釈されたい。
1102 受信モジュール
1104 タイプ取得モジュール
1106 シンタックス取得モジュール
1108 AVC
1110 SVC
1112 MVC
1114 MVD
1116 SSV
1118 復号モジュール
1120 ディスプレイモジュール

Claims (10)

  1. ビデオビットストリーム(110)を受信する段階と、
    前記ビデオビットストリーム(110)のシンタックスタイプ(132)を識別する段階と、
    前記シンタックスタイプ(132)に関するビデオビットストリーム(110)からビデオシンタックス(114)を抽出する段階と、
    前記ビデオシンタックス(114)に基づいてビデオストリーム(112)を生成してデバイス(102)上に表示する段階と、
    を含む、映像符号化システム(100)動作方法(1200)。
  2. 前記ビデオシンタックス(114)を抽出する段階は、スケーラブル映像符号化のビデオ表示情報シンタックス拡張部(402)に関して前記ビデオビットストリーム(110)に関するシンタックスタイプ(132)を識別する段階を含む、請求項1に記載の方法(1200)。
  3. 前記ビデオシンタックス(114)を抽出する段階は、多視点映像符号化のビデオ表示情報シンタックス拡張部(602)に関して前記ビデオビットストリーム(110)に関するシンタックスタイプ(132)を識別する段階を含む、請求項1に記載の方法(1200)。
  4. 前記ビデオシンタックス(114)を抽出する段階は、多視点映像プラス奥行きのビデオ表示情報シンタックス拡張部(802)に関して前記ビデオビットストリーム(110)に関するシンタックスタイプ(132)を識別する段階を含む、請求項1に記載の方法(1200)。
  5. 前記ビデオシンタックス(114)を抽出する段階は、立体的ビデオのビデオ表示情報シンタックス拡張部(902)に関して前記ビデオビットストリーム(110)に関するシンタックスタイプ(132)を識別する段階を含む、請求項1に記載の方法(1200)。
  6. ビデオビットストリーム(110)を受信するための受信モジュール(1102)と、
    前記受信モジュール(1102)と接続し、前記ビデオビットストリーム(110)のシンタックスタイプ(132)を識別するためのタイプ取得モジュール(1104)と、
    前記タイプ取得モジュール(1104)と接続し、前記シンタックスタイプ(132)に関するビデオビットストリーム(110)からビデオシンタックス(114)を抽出するためのシンタックス取得モジュール(1106)と、
    前記シンタックス取得モジュール(1106)と接続し、前記ビデオシンタックス(114)及び前記ビデオビットストリーム(110)に基づいてビデオストリーム(112)を生成してデバイス(102)上に表示するための復号モジュール(1118)と、
    を含む、映像符号化システム(100)。
  7. 前記復号モジュール(1118)は、スケーラブル映像符号化のビデオ表示情報シンタックス拡張部(402)に関して前記ビデオビットストリーム(110)に関するシンタックスタイプ(132)を識別するためのモジュールである、請求項6に記載のシステム(100)。
  8. 前記復号モジュール(1118)は、多視点映像符号化のビデオ表示情報シンタックス拡張部(602)に関して前記ビデオビットストリーム(110)に関するシンタックスタイプ(132)を識別するためのモジュールである、請求項6に記載のシステム(100)。
  9. 前記復号モジュール(1118)は、多視点映像プラス奥行きのビデオ表示情報シンタックス拡張部(802)に関して前記ビデオビットストリーム(110)に関するシンタックスタイプ(132)を識別するためのモジュールである、請求項6に記載のシステム(100)。
  10. 前記復号モジュール(1118)は、立体的ビデオのビデオ表示情報シンタックス拡張部(902)に関して前記ビデオビットストリーム(110)に関するシンタックスタイプ(132)を識別するためのモジュールである、請求項6に記載のシステム(100)。
JP2014541197A 2011-11-08 2012-11-07 映像符号化システム及び映像符号化システム動作方法 Pending JP2015508580A (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201161557275P 2011-11-08 2011-11-08
US61/557,275 2011-11-08
US201261624714P 2012-04-16 2012-04-16
US61/624,714 2012-04-16
US13/670,176 US20130113882A1 (en) 2011-11-08 2012-11-06 Video coding system and method of operation thereof
US13/670,176 2012-11-06
PCT/US2012/063920 WO2013070746A2 (en) 2011-11-08 2012-11-07 Video coding system and method of operation thereof

Publications (1)

Publication Number Publication Date
JP2015508580A true JP2015508580A (ja) 2015-03-19

Family

ID=48223426

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014541197A Pending JP2015508580A (ja) 2011-11-08 2012-11-07 映像符号化システム及び映像符号化システム動作方法

Country Status (8)

Country Link
US (1) US20130113882A1 (ja)
EP (1) EP2777277A4 (ja)
JP (1) JP2015508580A (ja)
KR (1) KR20140071496A (ja)
CN (1) CN104255034A (ja)
BR (1) BR112014011039A2 (ja)
CA (1) CA2854888A1 (ja)
WO (1) WO2013070746A2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10110890B2 (en) 2012-07-02 2018-10-23 Sony Corporation Video coding system with low delay and method of operation thereof
US9479779B2 (en) 2012-10-01 2016-10-25 Qualcomm Incorporated Sub-bitstream extraction for multiview, three-dimensional (3D) and scalable media bitstreams
US9584792B2 (en) 2013-01-04 2017-02-28 Qualcomm Incorporated Indication of current view dependency on reference view in multiview coding file format
US20150016547A1 (en) * 2013-07-15 2015-01-15 Sony Corporation Layer based hrd buffer management for scalable hevc
KR20150043218A (ko) * 2013-10-12 2015-04-22 삼성전자주식회사 부가 영상을 부호화하기 위한 스케일러블 비디오 부호화 방법 및 장치, 부가 영상을 복호화하기 위한 스케일러블 비디오 복호화 방법 및 장치
WO2017039021A1 (ko) * 2015-08-28 2017-03-09 전자부품연구원 스케일러블 인코딩을 지원하는 컨텐츠 전송 방법 및 이를 위한 스트리밍 서버
CN110574381B (zh) * 2017-04-25 2023-06-20 夏普株式会社 解析全向视频质量信息语法元素的方法及设备
WO2021216736A1 (en) * 2020-04-21 2021-10-28 Dolby Laboratories Licensing Corporation Semantics for constrained processing and conformance testing in video coding

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009532934A (ja) * 2006-03-30 2009-09-10 エルジー エレクトロニクス インコーポレイティド ビデオ信号のデコーディング/エンコーディング方法及び装置
WO2010126613A2 (en) * 2009-05-01 2010-11-04 Thomson Licensing Inter-layer dependency information for 3dv

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000046995A1 (en) * 1999-02-05 2000-08-10 Sony Corporation Encoding system, encoding method, decoding system, decoding method, multiplexing device, multiplexing method, display system and display method
EP1069779B1 (en) * 1999-02-09 2016-04-13 Sony Corporation Coding system and its method
US20090273540A1 (en) * 2005-12-16 2009-11-05 Mark Alan Schultz System and Method for Providing Uniform Brightness in Seam Portions of Tiled Images
BRPI0713348A2 (pt) * 2006-07-05 2012-03-06 Thomson Licensing Método e aparelho para codificação e decodificação de vídeo multivisualização
US20100142613A1 (en) * 2007-04-18 2010-06-10 Lihua Zhu Method for encoding video data in a scalable manner
WO2008140190A1 (en) * 2007-05-14 2008-11-20 Samsung Electronics Co, . Ltd. Method and apparatus for encoding and decoding multi-view image
KR101381601B1 (ko) * 2007-05-14 2014-04-15 삼성전자주식회사 다시점 영상 부호화 및 복호화 장치
US8948241B2 (en) * 2009-08-07 2015-02-03 Qualcomm Incorporated Signaling characteristics of an MVC operation point
KR101712098B1 (ko) * 2009-09-04 2017-03-03 삼성전자 주식회사 구문 요소에 기초한 비트스트림 생성 방법 및 장치
KR101355296B1 (ko) * 2010-08-09 2014-01-27 파나소닉 주식회사 화상 부호화 방법, 화상 복호 방법, 화상 부호화 장치 및 화상 복호 장치
US9532059B2 (en) * 2010-10-05 2016-12-27 Google Technology Holdings LLC Method and apparatus for spatial scalability for video coding
JP5833682B2 (ja) * 2011-03-10 2015-12-16 ヴィディオ・インコーポレーテッド スケーラブルなビデオ符号化のための依存性パラメータセット
US9565449B2 (en) * 2011-03-10 2017-02-07 Qualcomm Incorporated Coding multiview video plus depth content
US9124895B2 (en) * 2011-11-04 2015-09-01 Qualcomm Incorporated Video coding with network abstraction layer units that include multiple encoded picture partitions

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009532934A (ja) * 2006-03-30 2009-09-10 エルジー エレクトロニクス インコーポレイティド ビデオ信号のデコーディング/エンコーディング方法及び装置
WO2010126613A2 (en) * 2009-05-01 2010-11-04 Thomson Licensing Inter-layer dependency information for 3dv

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"H.264(03/2009)", JPN6015033333, March 2009 (2009-03-01), pages 42 - 62, ISSN: 0003138720 *

Also Published As

Publication number Publication date
US20130113882A1 (en) 2013-05-09
CA2854888A1 (en) 2013-05-16
EP2777277A4 (en) 2015-10-21
KR20140071496A (ko) 2014-06-11
WO2013070746A2 (en) 2013-05-16
EP2777277A2 (en) 2014-09-17
WO2013070746A3 (en) 2014-12-04
CN104255034A (zh) 2014-12-31
BR112014011039A2 (pt) 2017-05-02

Similar Documents

Publication Publication Date Title
JP6606048B2 (ja) 符号化装置及び符号化方法
JP6390775B2 (ja) 復号装置及び復号方法
JP6128261B2 (ja) 符号化装置、方法及びプログラム
JP2015508580A (ja) 映像符号化システム及び映像符号化システム動作方法
US20140269934A1 (en) Video coding system with multiple scalability and method of operation thereof

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150819

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20151216