JP2008524932A - コンテキストベースのパラメータバッファを備える画像デコーダ - Google Patents

コンテキストベースのパラメータバッファを備える画像デコーダ Download PDF

Info

Publication number
JP2008524932A
JP2008524932A JP2007546992A JP2007546992A JP2008524932A JP 2008524932 A JP2008524932 A JP 2008524932A JP 2007546992 A JP2007546992 A JP 2007546992A JP 2007546992 A JP2007546992 A JP 2007546992A JP 2008524932 A JP2008524932 A JP 2008524932A
Authority
JP
Japan
Prior art keywords
macroblock
sub
context
parameter type
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007546992A
Other languages
English (en)
Inventor
サクセナ、ラーフル
ハク、ムンシ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of JP2008524932A publication Critical patent/JP2008524932A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • H04N19/426Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements using memory downsizing methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

いくつかの実施例によれば、第1パラメータタイプの第1値は、画像の一部を表すマクロブロックに関連して受け取られる。マクロブロックは第1セットのサブ部分に分割され、第1パラメータタイプの異なる値は第1セットの異なるサブ部分に関連付けられる。
そして、第1値はコンテキストバッファ内に格納される。コンテキストバッファは、第1パラメータタイプに関連付けられた第1コンテキスト領域および第2パラメータタイプに関連付けられた第2コンテキスト領域を含む。例えば、第1コンテキストエリアは、第2コンテキスト領域と比べて少ない個数の値を各パラメータタイプに対して格納するように適合される。
【選択図】図24

Description

メディアプレーヤはディスプレイ装置に動画像を出力する。例えば、メディアプレーヤはローカルに格納された画像情報を取り出し、または、メディアサーバから画像情報のストリームを受け取る(例えば、コンテンツプロバイダは、高精細画像フレームを含むストリームをテレビジョン、セットトップボックスまたはデジタルビデオレコーダにケーブルまたは衛星ネットワークを介して送信する)。いくつかの場合には、画像情報は、画像を表すために使用されるデータ量を低減するためにエンコードされる。例えば、画像はマクロブロックのような小さな画像部分に分割され、1つの画像部分に対してエンコードされた情報が別の画像部分に対して繰り返される必要がなくなる(例えば、隣接する画像部分は類似の色特性および輝度特性を有することがほとんどだからである)。その結果、隣接する画像部分に関する情報はローカルに格納されてメディアプレーヤによってアクセスされる際に特定の画像部分がデコードされる必要がある。しかし、画像部分の大きさおよび形状は複雑になるので、こうした隣接画像情報に関する情報を格納するためには、著しい量の格納スペースを必要とし、さもなければ非実用的となる。
メディアプレーヤは画像情報を受け取り、その情報をデコードし、および、信号をディスプレイ装置に出力する。例えば、デジタルビデオレコーダ(DVR)はローカルに格納された画像情報を取り出し、または、セットトップボックスは遠隔装置から画像情報のストリームを受け取る(例えば、コンテンツプロバイダは、高精細画像フレームを含むストリームをセットトップボックスにケーブルまたは衛星ネットワークを介して送信する)。図1は、遠隔メディアプレーヤ120に通信ネットワーク130を介して画像情報を与えるメディアサーバ110を含むメディアシステム100のブロック図である。
エンコーダ114は、画像コンテンツ112を表すために使用されるデータの量を、データがトランスミッタ116によって画像情報のストリームとして送信される前に低減する。本明細書で用いられる限り、情報は、いくつかの異なるプロトコルのいずれかに応じてエンコードおよび/またはデコードされる。例えば、画像情報は、「ジェネリックオーディオビジュアルサービスのためのアドバンストビデオコーディング」(2004)というタイトルの国際電気通信連合−電気通信標準化部門(ITU−T)勧告H.264、または、「アドバンストビデオコーディング(パート10)」(2004)というタイトルの国際標準化機構(ISO)/国際エンジニアリングコンソーシアム(IEC)モーションピクチャエキスパーツグループ(MPEG)規格に関連して処理される。他の例として、画像情報は、「MPEG−4インフォメーションテクノロジ−オーディオ−ビジュアルオブジェクトのコーディング」(2001)というタイトルのISO/IEC文献第14496号、または、「インフォメーションテクノロジ−ムービングピクチャおよび関連オーディオインフォメーションのジェネリックコーディング」(2000)というタイトルのISO/IEC文献第13818−1号によって定義されるMPEG2プロトコルに応じて処理される。
画像は小さな画像部分に分割され、1つの画像部分に対してエンコードされた情報は別の画像部分に対して再使用される。その結果、メディアプレーヤ120における出力エンジン122は、受け取られた画像情報のストリームをデコードしている間に、ブロックベースのパラメータバッファ124の中に隣接部分に関する情報を格納し、ブロックベースのパラメータバッファ124からのその情報にアクセスする。ブロックベースのパラメータバッファ124は、例えば、出力エンジン122のローカルにまたはその外部に配置されるメモリ構造を含む。
例えば、H.264画像情報を考える。図2に示すように、ディスプレイ画像200はいくつかの「マクロブロック」210に分割される。また、1つのマクロブロック210に関する情報は、(例えば、隣接マクロブロック210は類似した特徴を有することが多いので、)隣接するマクロブロックを使用してエンコードされる。
したがって、特定のマクロブロック210がデコードおよび/または圧縮解除されている際、そのマクロブロック210に関する情報は1つ以上の隣接ブロックからの予測値を使用して得られる。予測パラメータが1つの隣接ブロックのパラメータから得られる場合もあれば、複数の隣接ブロックに関連付けられたパラメータから得られる場合もある。予測値と実際値との差異は、受け取られた画像情報のストリームから決定され、その後オリジナル画像コンテンツ112を表す出力を生成するべく出力エンジン122によって使用される。
その結果、隣接マクロブロックに関する情報は、特定のマクロブロック210がデコードされている間に格納およびアクセスされる。しかし、マクロブロックのサイズおよびパーティション化は複雑になるので、隣接マクロブロックに関する情報を格納するためには、著しい量の格納スペースが必要になり、さもなければ非実用的となる。
例えば、図3はディスプレイ300を示す。この場合、実質的に類似する(例えばバックグラウンド領域)ディスプレイ300の部分は、マクロブロック310としてエンコードされる。しかし、より詳細な画像情報を含むその他の部分は、図4から図7に関連して記載されるように、マクロブロックパーティション320およびサブマクロブロック330にさらに分割される。また、ディスプレイ300は、画像が変化すると異なる方法で分割される。パーティション化におけるこの柔軟性は圧縮および/または視聴者に提示される画質を改善するが、ディスプレイ300の隣接領域に関する情報を格納およびアクセスすることは複雑となる。また、これは、隣接パラメータ値を格納するために必要なオンチップ格納構造(例えばバッファ)の量を実質的に増加させる。
図4は、16×16の画像情報サンプル(例えばトータルで256のピクチャサンプルまたはピクセル)のセットを表す1つのマクロブロック400を示す。各マクロブロック400はさらに、マクロブロックパーティションに分割される。例えば、図5に示すように、1つのマクロブロック500は、第1マクロブロックパーティション510(例えば、マクロブロック500の上半分の16×8のサンプルを表す)および第2マクロブロックパーティション520(マクロブロック500の下半分の16×8のサンプルを表す)に分割される。H.264に従うと、第1マクロブロックパーティション510には「0」が付される一方で、第2マクロブロックパーティション520には「1」が付される。
その代わりに、マクロブロックはオリジナル画像に応じて、図6に示すようにパーティション化されてもよい。この場合、マクロブロック600は、第1マクロブロックパーティション610(例えば、マクロブロック600の左半分における8×16のサンプルを表す)および第2マクロブロックパーティション620(例えば、マクロブロック600の右半分における8×16のサンプルを表す)に分割される。前と同様、第1マクロブロックパーティション610には「0」のラベルが付される一方で、第2マクロブロックパーティション620には「1」のラベルが付される。
ディスプレイの複雑な領域は、図7に示すようにさらにサブマクロブロックに分割される。この場合、マクロブロック700は、(i)「0」がナンバリングされた第1サブマクロブロック(例えば、マクロブロック700の左上四分領域における8×8のサンプルを表す)、(ii)「1」がナンバリングされた第2サブマクロブロック(例えば、マクロブロック700の右上四分領域における8×8のサンプルを表す)、(iii)「2」がナンバリングされた第3サブマクロブロックパーティション(例えば、マクロブロック700の左下四分領域における8×8のサンプルを表す)、および(iv)「3」がナンバリングされた第4サブマクロブロックパーティション(例えばマクロブロック700の右下四分領域における8×8のサンプルを表す)に分割される。
これらのサブマクロブロックの各々は、図8に示すようにさらに分割できる。ここで、1つのマクロブロック800は、図7に関連して説明されたように4個のサブマクロブロック810、820、830、840に分割されている。さらに、第2サブマクロブロック820は、各々が8×4のサンプルのセットを表す2つのサブマクロブロックパーティションに分割されている。同様に、第3サブマクロブロック830は、各々が4×8のサンプルのセットを表す2つのサブマクロブロックパーティションに分割されている。最後に、第4サブマクロブロック840は、各々がオリジナルのマクロブロック800からの4×4のサンプルのセットを表す4個のサブマクロブロックパーティションに分割されている。前と同様、H.264に応じた番号が与えられてこれらのサブマクロブロックパーティションにラベルとして付される。
なお、異なるタイプの画像パラメータは、マクロブロックの異なるサイズの領域に対して定義される。例えば、いくつかのタイプの画像パラメータは常にマクロブロック全体に当てはまり、他のタイプは特定のサブマクロブロック(またはマクロブロックパーティション)に当てはまり、さらに他のタイプはサブマクロブロックパーティションに当てはまる。
図9は、いくつかの実施例に係る装置900のブロック図である。装置900は、例えば、メディアプレーヤ、テレビジョン、パーソナルコンピュータ(PC)、ゲーム装置、DVR,および/またはセットトップボックスに関連付けられる。装置900は出力エンジン910を含む。出力エンジン910は、例えば、画像情報のストリームをデコードし、ディスプレイ装置に与えられるための出力を生成する。
画像情報をデコードするために、出力エンジン910は、ローカルのコンテキストバッファ内に情報を格納および/またはそこからの情報にアクセスする。例えば、コンテキストバッファは、現在デコードされているマクロブロック*に隣接するマクロブロックA、B、CおよびDに関連付けられたH.264パラメータを格納する。コンテキストバッファはまた、付加的なマクロブロックに関する情報も格納する(例えば、マクロブロック情報の行全体がコンテキストバッファに格納される)。いくつかの実施例によれば、コンテキストバッファは出力エンジン910と同じダイ(die)上に形成される。出力エンジン910の外部にあるメモリユニット920も与えられて、本明細書に記載の実施例のいずれにも係る情報を格納する。外部メモリユニット920は、例えば、ダブルデータレート(DDR)シンクロナスダイナミックランダムアクセスメモリ(SDRAM)ユニットである。
いくつかの実施例によれば、コンテキストバッファおよび/または外部メモリユニット920は、第1タイプのパラメータに関連付けられた第1コンテキスト領域921を含む。具体的には、デコード中のマクロブロックは第1セットのサブ部分に潜在的に分割可能である。第1パラメータタイプの異なる値は第1セットの異なるサブ部分に関連付けられる。例えば、サブマクロブロックレベル(例えば特定の8×8サンプル領域)に対して特定可能なパラメータは、第1コンテキストエリア921に格納される。
同様に、コンテキストバッファおよび/または外部メモリユニット920は、そのマクロブロックのための第2タイプのパラメータに関連付けられた第2コンテキスト領域922を含む。この場合、マクロブロックはまた、第2セットのサブ部分にも分割できる。ここで、第2パラメータタイプの異なる値は第2セットの異なるサブ部分に関連付けられる。また、第2セット中のサブ部分の数は、第1セット中のサブ部分の数よりも大きい。例えば、特定のサブマクロブロックレベル(例えば特定の4×4サンプル領域)に対して特定可能なパラメータは、第2コンテキストエリア922に格納される。なお、図9には2つのコンテキスト領域921、922を示すが、実施例は、2つよりも多いコンテキスト領域に関連付けられてよい(例えば、3つのコンテキスト領域がH.264情報を格納するべく与えられる)。また、図9にはマクロブロックAに対する1セットのコンテキスト領域921、922を示すが、同様のコンテキスト領域は、コンテキストバッファおよび/または外部メモリユニット920内に与えられることも留意されたい。
また、コンテキスト領域921、922は連続するわけではない。例えば、第1コンテキスト領域921は、第2コンテキスト領域922の部分同士間で物理的に格納される。また、1つのマクロブロックの第1コンテキスト領域は、別のマクロブロックの第1コンテキスト領域から遠隔したところに物理的に格納されてもよい。
そして、出力エンジン910は、受け取られた画像情報(例えば、遠隔メディアサーバまたはローカル格納装置から受け取る)を、コンテキストバッファ内の情報に応じて(例えば隣接マクロブロックのコンテキスト領域からのパラメータ値に部分的に基づいて)デコードする。いくつかの実施例によれば、コンテキストバッファは出力エンジン910と同じダイ上に配置される。
図10は、いくつかの実施例に係る方法を説明するフロー図である。方法は、例えば図9の出力エンジン910によって実行される。本明細書に記載のフローチャートは、必ずしも動作に対して固定された順序を暗示するわけではない。実施例は実用的な任意の順序で行われる。なお、本明細書に記載の方法のいずれも、ハードウェア、ソフトウェア(マイクロコードを含む)、ファームウェア、またはこれらのアプローチの任意の組み合わせによって行われてよい。例えば、格納媒体は、機械によって実行される際に本明細書に記載の実施例のいずれかにかかる性能を生じさせる命令を格納する。
1002において、第1パラメータタイプの第1値が受け取られる。第1パラメータタイプは、例えば、画像の一部を表すマクロブロックに関連付けられる。また、マクロブロックは、第1セットのサブ部分(例えばサブマクロブロック)に分割可能であり、第1パラメータタイプの異なる値が第1セットの異なるサブ部分に関連付けられてよい。
1004において、第2パラメータタイプの第2値はマクロブロックのために受け取られる。マクロブロックはまた、第2セットのサブ部分(例えばサブマクロブロックパーティション)に分割可能であり、第2パラメータタイプの異なる値が第2セットの異なるサブ部分に関連付けられてよい。さらに、第1セットのサブ部分は、第2セットのサブ部分と比べて大きな画像領域を表す。
1006において、第1および第2パラメータタイプは、コンテキストバッファ内にマッピングされる。具体的には、コンテキストバッファは、第1パラメータタイプに関連付けられた第1コンテキスト領域、および第2パラメータタイプに関連付けられた第2コンテキスト領域を有する。また、第1コンテキスト領域は、第2コンテキスト領域と比べて各パラメータタイプに対して少ない個数の値を格納するように適合される。
そして、1008において、マッピングに基づき第1値は第1コンテキスト領域内に格納され、第2値は第2コンテキスト領域内に格納される。いくつかの実施例によれば、コンテキストバッファ内の情報はその後マクロブロックをデコードするため、および画像に関連付けられた出力を生成するためにに使用される。
図11は、いくつかの実施例に係るマクロブロックのためのパラメータを格納するために使用されるコンテキストバッファ1100の一部を示す。具体的には、コンテキストバッファ1100は、3つの異なるタイプのパラメータを格納するように適合される。以下これらの番号は、マクロブロック、マクロブロックパーティションおよび/またはサブマクロブロックに基づいて、グループIIのパラメータ値をコンテキストバッファ領域に付番および/またはマッピングするために使用される。なお、コンテキストバッファ1100は、複数のマクロブロックに対しては図11に示す情報を格納する。
コンテキストバッファ1100内の第1タイプのパラメータは、本明細書では「グループI」パラメータと称する。グループIパラメータは、例えば、マクロブロックに基づいてのみ定義可能なパラメータである。すなわち、そのパラメータの1つの値は常にマクロブロック全体に当てはまる。その結果、このタイプのパラメータの各々に対する1つの値または「コンテキスト」のみが、コンテキストバッファ1100内に格納される必要がある。H.264デコードに関しては、グループIパラメータの例には、SKIPMB(例えば、マクロブロックはスキップされることになる)、PMODE(例えば、イントラまたはインター予測モード情報)および/またはINTRLCMB(例えば、マクロブロックに関連付けられたフレームまたはフィールドモード情報)が含まれる。
コンテキストバッファ1100内に格納される第2タイプのパラメータは、本明細書においては「グループII」パラメータと称する。グループIIパラメータは、例えば、実際のマクロブロックのパーティション化に関係なく8×8領域にマッピングするサンプルに当てはめることができるパラメータである。すなわち、このタイプのパラメータに対しては4個の異なる値まではマクロブロックに当てはめることができる。したがって、これらのパラメータの各々に対する4個の値または「コンテキスト」がコンテキストバッファ1100内に格納される(例えば、cntx_0からcntx_3)。H.264デコードに関しては、グループIIパラメータの例には、参照インデクスおよび/または推論フラグ(inference flag)が含まれる。
コンテキストバッファ1100内に格納される第3タイプのパラメータは、本明細書においては「グループIII」パラメータと称する。グループIIIパラメータは、例えば、実際のマクロブロックのパーティション化に関係なく4×4領域にマッピングするサンプルに当てはめることができるパラメータである。すなわち、このパラメータに対しては16個の値まではマクロブロックに当てはめることができる。したがって、これらのパラメータの各々に対する16個の値または「コンテキスト」がコンテキストバッファ1100内に格納される(例えば、cntx_0からcntx_15)。H.264デコードに関しては、グループIIIパラメータの例には、xまたはy方向の動きベクトル、イントラ予測モード情報および/または符号化ビットフラグが含まれる。
この方法でパラメータまたはコンテキストバッファ1100をパーティション化することによって、実施例はデコードを容易にするために使用される格納構造の量を低減することができる。パラメータ値をコンテキストバッファ1100内および外にマッピングするためのいくつかの方法を、図12〜図22に関連して説明する。
図12は、いくつかの実施例に係るグループIIパラメータに対するコンテキストマップナンバリング1200を示す。具体的には、マクロブロック内の4個の潜在的サブマクロブロックの各々は「0」から「3」までナンバリングされる。
グループIIパラメータの4個の異なる値は、潜在的には1つのマクロブロックに当てはまるかもしれないが、いくつかの場合には1つの値がマクロブロック全体に当てはまる(例えば、マクロブロックが画像のバックグラウンド領域に関連付けられ大きなパーティションが選択された場合)。この場合、コンテキストバッファ内の4個のコンテキストすべてに1つの値が格納される(例えば、図13に示すマッピング1300において「(1−3)」で示すように)。例えば、その値は、そのパラメータに対して確保されたコンテキストバッファの一部の中のcntx_0からcntx_3に書き込まれる。また、この4個の値のセットは、マクロブロックの左上角の下のサブマクロブロックのラベルに基づいて(図12に定義されているように)「0」が付される。
同様に、1つのグループIIパラメータ値はマクロブロックパーティション全体に当てはまる。例えば、マクロブロックが2つの水平方向のパーティション0および2(マクロブロックパーティションの左上角の下のサブマクロブロックのラベルに基づいて再び付される)に分割されている場合のマッピング1400を示す図14を考える。この場合、マクロブロックパーティション0の値はコンテキスト0および1にマッピングされ、マクロブロックパーティション2の値はコンテキスト2および3にマッピングされる。なお、1つのグループIIパラメータ値は複数のコンテキストにマッピングされかつ格納される。
図15は、2つのパーティション0および1(マクロブロックパーティションの左上角の下のサブマクロブロックのラベルに基づいて再び付される)に垂直方向に分割されている場合のマッピング1500を示す。この場合、マクロブロックパーティション0の値はコンテキスト0および2にマッピングされ、マクロブロックパーティション1の値はコンテキスト1および3にマッピングされる。
マクロブロックが4個の異なるサブマクロブロックに分割される場合、グループIIパラメータに対する4個のコンテキストの各々は異なる値を格納する。例えば、図16は、コンテキスト0がサブマクロブロック0のための値を格納し、コンテキスト1がサブマクロブロック1のための値を格納し、コンテキスト2がサブマクロブロック2のための値を格納し、および、コンテキスト3がサブマクロブロック3のための値を格納するようなマッピング1600を示す。
図17は、マクロブロックの異なる部分が異なる方法でパーティション化される場合のマッピング1700を示す。具体的には、左上および左下のサブマクロブロックが各々コンテキスト0および2にマッピングされる。2つの右のマクロブロックはパーティション0を形成し、パーティション0の値はコンテキスト0および2にマッピングされる。
図18は、いくつかの実施例に係るグループIIIパラメータに対するコンテキストマップナンバリング1800を示す。具体的には、マクロブロック内の16個の潜在的なサブマクロブロックパーティションの各々は、「0」から「15」までナンバリングされる。以下これらの番号は、マクロブロック、マクロブロックパーティション、サブマクロブロックおよび/またはサブマクロブロックパーティションに基づいて、グループIIIパラメータ値をコンテキストバッファ領域内に付番するおよび/またはマッピングするために使用される。
グループIIIパラメータに対する16個の異なる値が1つのマクロブロックに潜在的に割り当てられるかもしれないが、いくつかの場合には、マクロブロック全体に対して1つの値が割り当てられる(例えば、マクロブロックが画像のバックグラウンド領域に関連付けられた場合)。この場合、コンテキストバッファ内の16個のコンテキストすべてに1つの値が格納される(例えば、図19に示すマッピング1900における「(1−15)」によって示されるように)。また、16個の値のこのセットはには、マクロブロックの左上角の下のサブマクロブロックパーティション(図18に定義されるように)のラベルに基づいて「0」が付される。
同様に、1つのグループIIIパラメータ値がマクロブロックパーティション全体に割り当てられてもよい。例えば、マクロブロックが2つの水平方向のパーティション0および8(マクロブロックパーティションの左上角の下のサブマクロブロックのラベルに基づいて再び付される)に分割されている場合のマッピング2000を示す図20を考える。この場合、マクロブロックパーティション0の値は、コンテキスト0から7にマッピングされ、マクロブロックパーティション8の値はコンテキスト8から15にマッピングされる。なお、1つのグループIIIパラメータは複数のコンテキストにマッピングされかつ格納される。
図21は、2つのパーティション0および4(マクロブロックパーティションの左上角の下のサブマクロブロックパーティションのラベルに基づいて再び付される)に垂直方向に分割されている場合のマッピング2100を示す。この場合、マクロブロックパーティション0の値はコンテキスト0から3および8から11にマッピングされ、マクロブロックパーティション4の値はコンテキスト4から7および12から15にマッピングされる。
グループIIIパラメータはまた、サブマクロブロックに対して定義されてもよい。この場合、図22のマッピング2200に示すように、サブマクロブロック0はコンテキスト0から3へマッピングし、サブマクロブロック4はコンテキスト4から7へマッピングし、サブマクロブロック8はコンテキスト8から11へマッピングし、サブマクロブロック12はコンテキスト12から15へマッピングする。
最後に、図23は、マクロブロック内の異なるサブマクロブロックが異なる方法でパーティション化される場合のマッピング2300を示す。具体的には、左上のサブマクロブロックはパーティション化されていないので、コンテキスト0から3へマッピングされる。右上のサブマクロブロックは、サブマクロブロックパーティション4(コンテキスト4および5にマッピング)およびサブマクロブロックパーティション6(コンテキスト6および7にマッピング)にパーティション化されている。
左下のサブマクロブロックは、サブマクロブロックパーティション8(コンテキスト8および10にマッピング)およびサブマクロブロックパーティション9(コンテキスト9および11にマッピング)にパーティション化されている。右下のサブマクロブロックは、4個のサブマクロブロックパーティション12から15にパーティション化され、その各々は関連付けられたコンテキストに格納される。最悪の場合、1つのグループIIIパラメータが16個の異なる値(図23には示さず)に関連付けられる。この場合、各値は異なるコンテキスト内に格納される。
なお、図11から図23に関して説明されたマッピングは、コンテキストバッファ内に情報を格納するか、またはコンテキストバッファから情報を取り出すかのいずれかを目的として使用される。また、いくつかの実施例によれば、マッピングスキームを実行するために表および/またはロジック回路を使用することもできる。
図24は、いくつかの実施例に係るシステム2400のブロック図である。システム2400は、例えば、デジタルディスプレイ装置、高精細テレビジョン(HDTV)ユニット、DVR、ゲームコンソール、PCもしくはラップトップコンピュータ、および/またはセットトップボックス(例えばケーブルまたは衛星デコーダ)に関連付けられる。
システム2400は、本明細書に記載の実施例のいずれかに応じて動作する、オンチップバッファまたは外部SDRAMユニットのようなデータ格納装置2420を含む。例えば、データ格納装置2420は、動画像領域(例えばマクロブロック)のための全体領域パラメータタイプに関連付けられた全体領域格納部を含む。ここで、全体領域パラメータタイプの1つの値は画像領域に関連付けられる。全体領域格納部は、例えば、本明細書に記載のグループIのH.264パラメータ値を格納するために使用されてよい。
データ格納装置2420はまた、画像領域のための第1パラメータタイプに関連付けられた第1格納部を含んでよい。画像領域は第1セットのサブ領域に潜在的に分割可能である。なお、第1パラメータタイプの異なる値は、第1セットの異なるサブ領域に関連づけられてよい。第1格納部は、例えば、本明細書に記載のグループIIのH.264パラメータ値(例えば、サブマクロブロックに当てはめ可能な)を格納するために使用されてよい。データ格納装置2420はさらに、画像領域のための第2パラメータタイプに関連付けられた第2格納部を含んでよい。画像領域は第2セットのサブ領域に潜在的に分割可能である。また、第2パラメータタイプの異なる値が、第2セットの異なるサブ領域に関連付けられてもよい。なお、第2セットのサブ領域の数は、第1セットのサブ領域の数とはことなる。第2格納部は、例えば、本明細書に記載のグループIIIのH.264パラメータ値(例えば、サブマクロブロックパーティションに当てはめ可能な)を格納するために使用されてよい。データ格納装置は、複数のマクロブロック(例えば、現在構成中のマクロブロック、隣接するマクロブロックおよび/または付加的なマクロブロック)に対して図24に示す第1部分、第2部分および第3部分を格納する。
システム2400は、受け取られた画像情報のストリームをデータ格納装置2420内の情報に応じてデコードするH.264デコーダのような出力エンジン2410をさらに含む。例えば、出力エンジン2410は、ディスプレイの隣接領域に関連付けられたパラメータに少なくとも部分的に基づいて、H.264マクロブロックまたはH.264マクロブロックの一部をデコードする。いくつかの実施例によれば、出力エンジン2410は、デジタル出力2430を介してディスプレイ装置に与えられる情報を生成する。
様々な付加的な実施例を以下に示す。これらは、すべての可能な実施例の定義を構成するわけではなく、当業者には他の多くの実施例が可能であることが理解される。さらに、以下の実施例は明確さを目的として簡潔に説明するが、当業者には、これらおよびその他の実施例および用途を必要に応じて上記説明に適合させるべく任意の変更を行う方法が理解される。
例えば、特定のコンテキストバッファナンバリングおよびマッピングのスキームが本明細書で説明されているが、実施例は他のいずれのタイプのバッファナンバリングおよびマッピング技術に関連付けられてよい。例えば、特定のデコード方法は、本明細書に記載された例とは異なるサイズの画像情報のブロックを含んでよい。
また、本明細書においては具体的な画像処理プロトコルおよびネットワークが例として使用されたが(例えばH.264およびMPEG4)、実施例は、地上デジタルテレビジョン放送(DTTB)およびコミュニティアクセステレビジョン(CATV)システムのようなたの任意のタイプの画像処理プロトコルまたはネットワークに関連して使用されてよい。
本明細書に記載のいくつかの実施例は、説明を目的とするものにすぎない。当業者であれば、請求項によってのみ限定される修正例および変形例によって実行できる他の実施例が本説明からわかるだろう。
メディアシステムのブロック図である。 マクロブロックに分割されたディスプレイを示す。 マクロブロック、マクロブロックパーティションおよびサブマクロブロックに分割されたディスプレイを示す。 1つのマクロブロックを示す。 2つのマクロブロックパーティションに分割されたマクロブロックを示す。 2つのマクロブロックパーティションに分割されたマクロブロックを示す。 4個のサブマクロブロックに分割されたマクロブロックを示す。 サブマクロブロックパーティションに分割されたサブマクロブロックを示す。 いくつかの実施例に係る装置のブロック図である。 いくつかの実施例に係る方法を示すフロー図である。 いくつかの実施例に係るコンテキストバッファの一部を示す。 いくつかの実施例に係るグループIIのパラメータに対するコンテキストマップのナンバリングを示す。 いくつかの実施例に係るマクロブロック、マクロブロックパーティションおよびサブマクロブロックに関してグループIIのパラメータに対するコンテキストマッピングを示す。 いくつかの実施例に係るマクロブロック、マクロブロックパーティションおよびサブマクロブロックに関してグループIIのパラメータに対するコンテキストマッピングを示す。 いくつかの実施例に係るマクロブロック、マクロブロックパーティションおよびサブマクロブロックに関してグループIIのパラメータに対するコンテキストマッピングを示す。 いくつかの実施例に係るマクロブロック、マクロブロックパーティションおよびサブマクロブロックに関してグループIIのパラメータに対するコンテキストマッピングを示す。 いくつかの実施例に係るマクロブロック、マクロブロックパーティションおよびサブマクロブロックに関してグループIIのパラメータに対するコンテキストマッピングを示す。 いくつかの実施例にかかるグループIIIのパラメータに対するコンテキストマップのナンバリングを示す。 いくつかの実施例にかかるマクロブロック、マクロブロックパーティション、サブマクロブロックおよびサブマクロブロックパーティションに関してグループIIIのパラメータに対するコンテキストマッピングを示す。 いくつかの実施例にかかるマクロブロック、マクロブロックパーティション、サブマクロブロックおよびサブマクロブロックパーティションに関してグループIIIのパラメータに対するコンテキストマッピングを示す。 いくつかの実施例にかかるマクロブロック、マクロブロックパーティション、サブマクロブロックおよびサブマクロブロックパーティションに関してグループIIIのパラメータに対するコンテキストマッピングを示す。 いくつかの実施例にかかるマクロブロック、マクロブロックパーティション、サブマクロブロックおよびサブマクロブロックパーティションに関してグループIIIのパラメータに対するコンテキストマッピングを示す。 いくつかの実施例にかかるマクロブロック、マクロブロックパーティション、サブマクロブロックおよびサブマクロブロックパーティションに関してグループIIIのパラメータに対するコンテキストマッピングを示す。 いくつかの実施例に係るシステムのブロック図である。

Claims (21)

  1. 画像の一部を表すマクロブロックに関連付けられた第1パラメータタイプの第1値を受け取ることと、
    コンテキストバッファ内に前記第1値を格納することと
    を含み、
    前記マクロブロックは第1セットのサブ部分に潜在的に分割可能であり、
    前記第1パラメータタイプの異なる値は前記第1セットの異なるサブ部分に関連付けられ、
    前記コンテキストバッファは、前記第1パラメータタイプに関連付けられた第1コンテキスト領域、および第2パラメータタイプに関連付けられた第2コンテキスト領域を含み、
    前記第1コンテキスト領域は、前記第2コンテキスト領域と比べて少ない個数の値を各パラメータタイプに対して格納するように適合される方法。
  2. 前記マクロブロックに関連付けられた第2パラメータタイプの第2値を受け取ることと、
    前記コンテキストバッファ内に前記第2値を格納することと
    をさらに含み、
    前記マクロブロックはさらに、第2セットのサブ部分に潜在的に分割可能であり、
    前記第2パラメータの異なる値は、前記第2セットの異なるサブ部分に関連付けられ、
    第1セットのサブ部分は、前記第2セットのサブ部分と比べて大きな画像領域を表す、請求項1に記載の方法。
  3. 前記マクロブロック全体に関連付けられた第3パラメータタイプの第3値を受け取ることと、
    前記コンテキストバッファの第3コンテキスト領域内に前記第3値を格納することと
    をさらに含み、
    前記第3コンテキスト領域は、各パラメータタイプに対して1つの値を格納するように適合される、請求項2に記載の方法。
  4. 前記第1パラメータタイプおよび前記第2パラメータタイプを前記コンテキストバッファにマッピングすることと、
    前記マッピングに応じて前記コンテキストバッファの前記第1コンテキスト領域に前記第1値を、および前記第2コンテキスト領域に前記第2値を格納することと
    をさらに含む、請求項2に記載の方法。
  5. 前記マッピングは、前記第1セットの複数のサブ部分に関連付けられた前記第1コンテキストの領域に前記第1値をマッピングすることを含む、請求項4に記載の方法。
  6. 前記マッピングは、前記第2セットの複数のサブ部分に関連付けられた前記第2コンテキストの領域に前記第2値をマッピングすることを含む、請求項4に記載の方法。
  7. 前記マクロブロックは、(i)H.264情報、(ii)モーションピクチャエキスパーツグループ2情報または(iii)モーションピクチャエキスパーツグループ4情報の少なくとも1つに関連づけられる、請求項1に記載の方法。
  8. 前記マクロブロックはH.264マクロブロックであり、前記第1セットのサブ部分の各々は8×8ピクチャサンプルのサブマクロブロックを表す、請求項1に記載の方法。
  9. 前記第2セットのサブ部分の各々は4×4ピクチャサンプルおよび関連するクロマサンプルのサブマクロブロックパーティションを表す、請求項8に記載の方法。
  10. 前記受け取ることは、(i)デジタルディスプレイ装置、(ii)テレビジョン、(iii)デジタルビデオレコーダ、(iv)ゲーム装置、(v)パーソナルコンピュータまたは(vi)セットトップボックスの少なくとも1つに関連付けられる、請求項1に記載の方法。
  11. コンテキストバッファを含む装置であって、
    前記コンテキストバッファは、
    画像の一部を表すマクロブロックに対する第1パラメータタイプに関連付けられた第1コンテキスト領域と、
    前記マクロブロックに対する第2パラメータタイプに関連付けられた第コンテキスト領域と、
    受け取られた画像情報のストリームを前記コンテキストバッファ内の情報に応じてデコードする出力エンジンと
    を含み、
    前記マクロブロックは第1セットのサブ部分に潜在的に分割可能であり、
    前記第1パラメータタイプの異なる値が前記第1セットの異なるサブ部分に関連付けられ、
    前記マクロブロックは第2セットのサブ部分に潜在的に分割可能であり、
    前記第2パラメータタイプの異なる値が前記第2セットの異なるサブ部分に関連付けられ、および、
    前記第1セットのサブ部分の数は前記第2セットのサブ部分の数よりも小さい装置。
  12. 前記コンテキストバッファは、(i)前記出力エンジンと同じダイ上に配置される、または(ii)前記出力エンジンの外部に配置される、の少なくとも1つである、請求項11に記載の装置。
  13. 前記出力エンジンはデコードエンジンを含む、請求項11に記載の装置。
  14. 機械によって実行されると以下の結果を生じる命令が格納された格納媒体を含む装置であって、
    画像の一部を表すH.264マクロブロックに関連付けられた第1パラメータタイプの第1値を受け取ることと、
    前記マクロブロックに関連付けられた第2パラメータタイプの第2値を受け取ることと、
    コンテキストバッファ内に前記第1値および第2値を格納することと
    を含み、
    前記マクロブロックは4個のサブマクロブロックに潜在的に分割可能であり、
    前記マクロブロックはさらに、16個のサブマクロブロックパーティションに潜在的に分割可能であり、
    前記第1パラメータタイプの異なる値は異なるサブマクロブロックに関連付けられ、
    前記第2パラメータタイプの異なる値は異なるサブマクロブロックパーティションに関連付けられ、
    前記コンテキストバッファは、前記第1パラメータタイプに関連付けられた第1コンテキスト領域、および前記第2パラメータタイプに関連付けられた第2コンテキスト領域を含み、
    前記第1コンテキスト領域は前記第1パラメータタイプの4個の値に対して適合され、前記第2コンテキスト領域は前記第2パラメータタイプの16個の値を格納するように適合される装置。
  15. 前記命令を実行することは、
    前記コンテキストバッファ内に第1パラメータタイプおよび第2パラメータタイプをマッピングすることと、
    前記マッピングに応じて前記コンテキストバッファの前記第1コンテキスト領域内に前記第1値を、および前記第2コンテキスト領域内に第2値を格納することと
    をさらに結果として生じる、請求項14に記載の装置。
  16. 前記第1パラメータタイプは、(i)参照インデクスまたは(ii)推論フラグの少なくとも1つに関連付けられる、請求項15に記載の装置。
  17. 前記第2パラメータタイプは、(i)x方向動きベクトル、(ii)y方向動きベクトル、(iii)イントラ予測モードまたは(iv)符号化ビットフラグの少なくとも1つに関連付けられる、請求項16に記載の装置。
  18. データ格納装置を含むシステムであって、
    前記データ格納装置は、
    動画像領域に対する全体領域パラメータタイプに関連付けられた全体領域格納部と、
    第1セットのサブ領域に潜在的に分割可能な前記画像領域に対する第1パラメータタイプに関連付けられた第1格納部と、
    第2セットのサブ領域に潜在的に分割可能な前記画像領域に対する第2パラメータタイプに関連付けられた第2格納部と、
    受け取られた画像情報のストリームを前記データ格納装置内の情報に応じてデコードする出力エンジンと、
    前記出力エンジンからデジタルディスプレイ装置へデジタル信号を与えるデジタル出力と
    を含み、
    前記全体領域パラメータタイプの1つの値は前記画像領域に関連付けられ、
    前記第1パラメータタイプの異なる値は前記第1セットの異なるサブ領域に関連付けられ、
    前記第2パラメータタイプの異なる値は前記第2セットの異なるサブ領域に関連付けられ、
    前記第2セットのサブ領域の数は前記第1セットのサブ領域の数とは異なるシステム。
  19. 前記データ格納ユニットはダブルデータレートランダムアクセスメモリユニットである、請求項18に記載のシステム。
  20. 前記データ格納ユニットは前記出力エンジンの一部である、請求項18に記載のシステム。
  21. 前記システムは、(i)デジタルディスプレイ装置、(ii)テレビジョン、(iii)デジタルビデオレコーダ、(iv)ゲーム装置、(v)パーソナルコンピュータまたは(vi)セットトップボックスの少なくとも1つに関連付けられる、請求項18に記載のシステム。
JP2007546992A 2004-12-17 2005-12-16 コンテキストベースのパラメータバッファを備える画像デコーダ Pending JP2008524932A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/015,776 US20060133494A1 (en) 2004-12-17 2004-12-17 Image decoder with context-based parameter buffer
PCT/US2005/045873 WO2006066179A1 (en) 2004-12-17 2005-12-16 Image decoder with context-based parameter buffer

Publications (1)

Publication Number Publication Date
JP2008524932A true JP2008524932A (ja) 2008-07-10

Family

ID=36168562

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007546992A Pending JP2008524932A (ja) 2004-12-17 2005-12-16 コンテキストベースのパラメータバッファを備える画像デコーダ

Country Status (7)

Country Link
US (1) US20060133494A1 (ja)
EP (1) EP1832121A1 (ja)
JP (1) JP2008524932A (ja)
KR (1) KR20070088738A (ja)
CN (1) CN101080932A (ja)
TW (1) TW200629904A (ja)
WO (1) WO2006066179A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4515922B2 (ja) * 2005-01-11 2010-08-04 パナソニック株式会社 データ保持装置、画像符号化装置および画像復号化装置
US7864864B2 (en) * 2005-06-27 2011-01-04 Intel Corporation Context buffer address determination using a plurality of modular indexes
US20070258346A1 (en) * 2006-05-02 2007-11-08 Zing Systems, Inc. Pc peripheral devices used with mobile media devices
US8243798B2 (en) * 2006-12-20 2012-08-14 Intel Corporation Methods and apparatus for scalable video bitstreams
TWI364222B (en) * 2007-09-05 2012-05-11 Via Tech Inc Method and device for generating prediction mode parameter
US8964851B2 (en) * 2009-06-09 2015-02-24 Sony Corporation Dual-mode compression of images and videos for reliable real-time transmission
US8457425B2 (en) * 2009-06-09 2013-06-04 Sony Corporation Embedded graphics coding for images with sparse histograms
CN103327316B (zh) * 2012-03-22 2016-08-10 上海算芯微电子有限公司 视频宏块的上下文信息存取方法和系统
US10602178B1 (en) * 2017-12-21 2020-03-24 Mozilla Corporation Systems and methods for frame context selection
CN109242758A (zh) * 2018-09-18 2019-01-18 珠海金山网络游戏科技有限公司 一种材质参数存储、材质参数获取方法及装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004064255A2 (en) * 2003-01-07 2004-07-29 Thomson Licensing S.A. Mixed inter/intra video coding of macroblock partitions

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6970504B1 (en) * 1996-12-18 2005-11-29 Thomson Licensing Parallel decoding of interleaved data streams within an MPEG decoder
US6836838B1 (en) * 1998-06-29 2004-12-28 Cisco Technology, Inc. Architecture for a processor complex of an arrayed pipelined processing engine
US6189714B1 (en) * 1998-10-19 2001-02-20 Westinghouse Air Brake Company Apparatus for connecting a device into a brake pipe hose connection between railway cars and/or locomotives
US6700893B1 (en) * 1999-11-15 2004-03-02 Koninklijke Philips Electronics N.V. System and method for controlling the delay budget of a decoder buffer in a streaming data receiver
US7164844B1 (en) * 2000-03-02 2007-01-16 The Directv Group, Inc. Method and apparatus for facilitating reverse playback
SE0004736D0 (sv) * 2000-12-20 2000-12-20 Ericsson Telefon Ab L M Mapping system and method
US7428023B2 (en) * 2001-04-19 2008-09-23 Digeo, Inc. Remote control device with integrated display screen for controlling a digital video recorder
US7646816B2 (en) * 2001-09-19 2010-01-12 Microsoft Corporation Generalized reference decoder for image or video processing
US6980596B2 (en) * 2001-11-27 2005-12-27 General Instrument Corporation Macroblock level adaptive frame/field coding for digital video content
JP2003319391A (ja) * 2002-04-26 2003-11-07 Sony Corp 符号化装置および方法、復号装置および方法、記録媒体、並びにプログラム
KR20050045746A (ko) * 2003-11-12 2005-05-17 삼성전자주식회사 계층 구조의 가변 블록 크기를 이용한 움직임 추정 방법및 장치
US7469070B2 (en) * 2004-02-09 2008-12-23 Lsi Corporation Method for selection of contexts for arithmetic coding of reference picture and motion vector residual bitstream syntax elements

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004064255A2 (en) * 2003-01-07 2004-07-29 Thomson Licensing S.A. Mixed inter/intra video coding of macroblock partitions

Also Published As

Publication number Publication date
CN101080932A (zh) 2007-11-28
KR20070088738A (ko) 2007-08-29
WO2006066179A1 (en) 2006-06-22
TW200629904A (en) 2006-08-16
EP1832121A1 (en) 2007-09-12
US20060133494A1 (en) 2006-06-22

Similar Documents

Publication Publication Date Title
US9172969B2 (en) Local macroblock information buffer
JP2008524932A (ja) コンテキストベースのパラメータバッファを備える画像デコーダ
CN110460858B (zh) 信息处理装置和方法
TW201911863A (zh) 用於360度視訊寫碼之參考圖推導及動作補償
US8126046B2 (en) Flexible macroblock ordering and arbitrary slice ordering apparatus, system, and method
CN1141838C (zh) 用于提供屏幕显示数据的方法和装置
JPH08237662A (ja) ビデオ・デコンプレッション・プロセッサのための画素内挿フィルタ
WO2017101350A1 (zh) 变分辨率的编码模式预测方法及装置
US20080158601A1 (en) Image memory tiling
EP1147671B1 (en) Method and apparatus for performing motion compensation in a texture mapping engine
JPWO2011089798A1 (ja) 動画像符号化方法、動画像復号化方法、動画像符号化装置および動画像復号化装置
JP6209026B2 (ja) 画像符号化装置及びその制御方法
US7864864B2 (en) Context buffer address determination using a plurality of modular indexes
KR100264639B1 (ko) 디지탈 영상의 온-스크린 표시를 위한 색 제어
JPH07298264A (ja) 画像データの処理方法およびそれに用いる記憶装置ならびに画像データの処理装置
US20140140392A1 (en) Video processing system with prediction mechanism and method of operation thereof
US8265169B2 (en) Video block memory read request translation and tagging
KR100556341B1 (ko) 메모리 대역폭이 감소된 비디오 디코더 시스템
US20050025240A1 (en) Method for performing predictive picture decoding
KR100417131B1 (ko) 매크로블록의합병과패딩을이용한모양적응영상부호화장치
JPH07240919A (ja) データ処理装置
WO2009140072A1 (en) Object-based video coding with intra-object or inter-object intra-frame prediction
KR19980020063A (ko) 매크로 블록의 합병을 이용한 모양 적응 부호화 시스템
KR20070011341A (ko) 입체적 3d-비디오 이미지 디지털 디코딩 시스템 및 방법

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100706

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101130