JP5280530B2 - ビデオコーディングのための時間圧縮での断片化参照 - Google Patents

ビデオコーディングのための時間圧縮での断片化参照 Download PDF

Info

Publication number
JP5280530B2
JP5280530B2 JP2011516618A JP2011516618A JP5280530B2 JP 5280530 B2 JP5280530 B2 JP 5280530B2 JP 2011516618 A JP2011516618 A JP 2011516618A JP 2011516618 A JP2011516618 A JP 2011516618A JP 5280530 B2 JP5280530 B2 JP 5280530B2
Authority
JP
Japan
Prior art keywords
tile
video frame
current
fragment
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011516618A
Other languages
English (en)
Other versions
JP2011526460A (ja
Inventor
ラビーンドラン、ビジャヤラクシュミ・アール.
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2011526460A publication Critical patent/JP2011526460A/ja
Application granted granted Critical
Publication of JP5280530B2 publication Critical patent/JP5280530B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • H04N19/426Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements using memory downsizing methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本開示は、マルチメディア信号処理に関し、より具体的には、ビデオ符号化および復号に関する。
ディジタルマルチメディア機能を、ディジタルテレビジョン、ディジタル直接放送システム、無線通信デバイス、無線放送システム、携帯情報端末(「PDA」)、ラップトップコンピュータもしくはデスクトップコンピュータ、ディジタルカメラ、ディジタル記録デバイス、ビデオゲーミングデバイス、ビデオゲーム機、セル電話もしくは衛星無線電話、および類似物を含む広範囲のデバイスに組み込むことができる。ディジタルマルチメディアデバイスは、ビデオデータをより効率的に伝送し、受信するために、MPEG−2、MPEG−4、または国際電気通信連合H.264/MPEG−4、Part 10、AVC(Advanced Video Coding)標準規格によって定義される技法などのビデオコーディング技法を実施することができる。ビデオコーディング技法は、ビデオシーケンスに固有の冗長性を減らすか除去するために、空間予測および時間予測を介するビデオ圧縮を実行することができる。
時間予測を介するビデオ圧縮を実行するために、ビデオ符号器は、動き補償プロセスを使用することができる。動き補償プロセスでは、ビデオ符号器は、現行ビデオフレームをマクロブロックの組に分割する。次に、現行ビデオフレームのマクロブロックごとに、ビデオ符号器は、現行ビデオフレーム内のマクロブロックとほぼ同一のデータを含む1つまたは複数の参照フレーム内の1つまたは複数のマクロブロックを識別することを試みる。ビデオ符号器が、参照フレーム内のそのようなマクロブロックを成功して識別する場合に、ビデオ符号器は、参照フレーム内の識別されたマクロブロックと現行フレーム内のマクロブロックとの間の置き換え(displacement)を示す動きベクトルを生成することができる。ビデオ符号器が、参照フレーム内のそのようなマクロブロックを成功して識別しない場合に、ビデオ符号器は、置き換え無しを示す動きベクトルを生成することができる。次に、ビデオ符号器は、識別されたマクロブロックを参照フレーム内の位置から動きベクトルによって示される位置へ「移動する」ことによって、予測フレームを生成することができる。予測フレームを生成した後に、ビデオ符号器は、マクロブロックごとに、対応するブロックの間の残差を示すために、現行フレームから予測フレームを減算することによって残差フレーム(residual frame)を生成することができる。次に、ビデオ符号器は、残差フレームを、それに関連する動きベクトルと一緒に符号化することができる。次に、ビデオ符号器は、復号器による使用のために、符号化された残差フレームおよび関連する動きベクトルを出力することができる。
動き補償プロセスを使用して符号化されたビデオフレームを復号するために、ビデオ復号器は、動きベクトルによって示された参照フレームを取り出すことができる。次に、ビデオ復号器は、動きベクトルによって示された参照フレームのマクロブロックを動きベクトルによって示された位置に「移動する」ことができる。参照フレームのマクロブロックの移動の結果として、ビデオ復号器は、予測フレームを生成する。次に、ビデオ復号器は、受け取られた残差フレームの復号バージョンに予測フレームを加算することによって、再構成されたビデオフレームを生成することができる。
一般に、本開示は、断片参照ピクチャ(fragmentary reference picture)を使用してビデオフレームのシーケンスを符号化し、復号する技法を説明する。本開示は、完全な参照ピクチャではなく断片化された参照に基づく変更された時間圧縮のビデオ符号化技法およびビデオ復号技法を提示する。ビデオフレームの通常のシーケンスでは、各フレームの部分(すなわち、タイル)だけが、動く物体を含む。さらに、各フレーム内で、動く物体は、ビデオフレームのシーケンス内の各フレームの間で共通する特定の区域に閉じこめられる傾向がある。本明細書で説明するように、動きのそのような共通の区域が、識別される。次に、ピクチャが、ビデオフレームの識別された区域から抽出される。これらのピクチャは、フレームの部分だけを表す可能性があるので、本開示は、これらのピクチャを「断片」と称する。次に、動き補償プロセス中に予測フレームを生成するための参照ピクチャとして使用されるのは、フレーム全体ではなくこれらの断片である。
一例では、方法は、ビデオフレームのシーケンス内のビデオフレームのタイルの組に関連するビデオデータを備える参照断片を格納することを備える。タイルの組内の各タイルは、それぞれのビデオフレームのパーティションの部分集合を表す。この方法は、参照断片のうちの1つまたは複数に基づいて現行ビデオフレームの現行タイルについて動き補償を実行することをも備える。
別の例では、デバイスは、ビデオフレームのシーケンス内のビデオフレームのタイルの組に関連するビデオデータを備える参照断片を格納する参照バッファを備える。タイルの組内の各タイルは、それぞれのビデオフレームのパーティションの部分集合を表す。このデバイスは、参照断片のうちの1つまたは複数に基づいて現行ビデオフレームの現行タイルについて動き補償を実行する動き補償ユニットをも備える。
別の例では、デバイスは、ビデオフレームのシーケンス内のビデオフレームのタイルの組に関連するビデオデータを備える参照断片を格納するための手段を備える。タイルの組内の各タイルは、それぞれのビデオフレームのパーティションの部分集合を表す。このデバイスは、参照断片のうちの1つまたは複数に基づいて現行ビデオフレームの現行タイルについて動き補償を実行するための手段をも備える。
別の例では、集積回路は、ビデオフレームのシーケンス内のビデオフレームのタイルの組に関連するビデオデータを備える参照断片を格納する回路網を備える。タイルの組内の各タイルは、それぞれのビデオフレームのパーティションの部分集合を表す。さらに、この集積回路は、参照断片のうちの1つまたは複数に基づいて現行ビデオフレームの現行タイルについて動き補償を実行する回路網を備える。
本開示で説明される技法を、ハードウェア、ソフトウェア、ファームウェア、またはその任意の組合せで実施することができる。ソフトウェアで実施される場合に、ソフトウェアを、マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、またはディジタル信号プロセッサ(DSP)など、1つまたは複数のプロセッサを使用して実行することができる。本技法を実行するソフトウェアを、当初にコンピュータ可読媒体に格納し、プロセッサを使用してロードし、実行することができる。
したがって、本開示は、実行可能命令を備えるコンピュータ可読媒体をも企図する。1つまたは複数のプロセッサによって実行される時に、この命令は、1つまたは複数のプロセッサに、ビデオフレームのシーケンス内のビデオフレームのタイルの組に関連するビデオデータを備える参照断片を格納させる。タイルの組内の各タイルは、それぞれのビデオフレームのパーティションの部分集合を表す。また、この命令は、1つまたは複数のプロセッサに、参照断片のうちの1つまたは複数に基づいて現行ビデオフレームの現行タイルについて動き補償を実行させる。
いくつかの場合に、コンピュータ可読媒体は、販売され得、かつ/またはビデオコーディングデバイス内で使用され得るコンピュータプログラム製品の少なくとも一部を形成することができる。コンピュータプログラム製品は、コンピュータ可読媒体を含むことができ、いくつかの場合に、パッケージング材料をも含むことができる。
断片参照ピクチャを使用するビデオフレームのシーケンスの符号化および復号の技法を、主に、動き補償コーディング技法の背景で説明する。しかし、断片参照ピクチャの使用は、本明細書で説明するように、スケーリング、エッジ強調、または類似物など、他のコーディング背景でも使用され得る。
1つまたは複数の例の詳細を、添付図面および下の説明で示す。他の特徴、目的、および利益は、この説明および図面、ならびに特許請求の範囲から明白になる。
例示的なビデオ符号化復号システムを示すブロック図。 図1に提示された符号器の例示的な詳細を示すブロック図。 図2に提示されたタイル識別モジュールの例示的な詳細を示すブロック図。 ビデオフレームの例示的なシーケンスと、アクティブパーティションを黒いブロックとして示すパーティションマップの対応する組とを示す図。 例示的なコンポジットパーティションアクティビティマップ(composite partition activity map)を示す図。 例示的なコンポジットパーティションアクティビティマップを示す図。 例示的なコンポジットパーティションアクティビティマップを示す図。 パーティションアクティビティマップに対するモード平滑化(mode smoothing)の効果を示す図。 図2に提示された符号器の例示的な動作を示す図。 図2に提示された符号器の例示的な動作を示す図。 図1に提示された復号器の例示的な詳細を示すブロック図。 図7に提示された復号器内のモジュールの例示的な動作を示す流れ図。 図7に提示された復号器内のモジュールの例示的な動作を示す流れ図。 図1に提示されたプリプロセッサの例示的な詳細を示すブロック図。 図9に提示されたプリプロセッサの例示的な動作を示す流れ図。 図1に提示された復号器の例示的な詳細の代替の組を示すブロック図。 図11に提示された復号器の代替実施態様の例示的な動作を示す流れ図。 図1に提示されたディスプレイバッファに断片を格納するためのバッファ充てんモジュールの例示的な動作を示す流れ図。
図1は、例示的なビデオ符号化復号システム2を示すブロック図である。図1の例に示されているように、システム2は、符号化デバイス4および復号デバイス6を含む。一般的な用語で、符号化デバイス4は、ビデオデータを符号化することができ、復号デバイス6は、符号化デバイス4または他の符号化デバイスによって符号化されたビデオデータを復号することができる。符号化デバイス4および復号デバイス6は、さまざまなデバイスのいずれとすることもできる。たとえば、符号化デバイス4および復号デバイス6を、パーソナルコンピュータ、ネットワークサーバ、携帯情報端末(「PDA」)、ビデオゲームデバイス、パーソナルメディアプレイヤ、携帯電話、ディジタルカメラ、ディジタルカムコーダ、または他のタイプのデバイスとすることができる。その代わりに、単一のデバイスが、符号化デバイス4の機能性および/または復号デバイス6の機能性を組み込むことができる。
図1に示されているように、符号化デバイス4は、メディアソース8を含む。メディアソース8は、非符号化ビデオデータ(すなわち、本明細書で説明される符号化プロセスを使用して符号化されてはいないビデオデータ)を出力する。メディアソース8は、非符号化ビデオデータを出力するさまざまなソフトウェアユニットおよび/またはハードウェアユニットのいずれとすることもできる。たとえば、メディアソース8を、ディジタルビデオカメラ、ディジタルスチールカメラ、非符号化ビデオデータを格納するメモリモジュール、ケーブルテレビジョンプロバイダ、地上波テレビジョンプロバイダ、もしくは衛星テレビジョンプロバイダから非符号化ビデオデータを受信するインターフェース、または非符号化ビデオデータを出力する他のタイプのソフトウェアユニットおよび/もしくはハードウェアユニットとすることができる。さらに、メディアソース8を、1つまたは複数の有線接続または無線接続を介して符号化デバイス4に通信で結合することができる。メディアソース8は、非符号化ビデオデータをプリプロセッサ10に供給することができる。
さらに、図1の例では、符号化デバイス4は、トランスコーダ12を含むことができる。一般に、トランスコーダ12は、ビットストリームソース14によって出力されたビデオデータを受け取る。ビットストリームソース14によって出力されたビデオデータは、第1フォーマットで符号化されたものとすることができる。たとえば、ビットストリームソース14は、シリアルディジタルインターフェースフォーマットでフォーマットされたビデオデータを出力することができる。トランスコーダ12が、ビットストリームソース14によって出力されたビデオデータを受け取る時に、トランスコーダ12内の復号器13は、トランスコーダ12から受け取られたビデオデータを復号することができ、これによって、ビデオフレームの非圧縮シーケンスを生成する。復号器13がビデオデータを復号した後に、復号器13は、復号されたビデオデータを、復号されたビデオデータに対して1つまたは複数のビデオ前処理動作を実行するプリプロセッサ10に供給することができる。次に、トランスコーダ12内の符号器16は、前処理されたビデオデータを第1フォーマットとは異なる第2フォーマットで符号化することができる。本開示で使用されるときに、用語「フォーマット」は、データ符号化フォーマットまたはデータプレゼンテーションフォーマットを指す場合がある。この形で、トランスコーダ12は、ビットストリームソース14によって生成されたビデオを第1フォーマットから第2フォーマットにトランスコーディングする。たとえば、トランスコーダ12は、ビットストリームソース14によって生成されたビデオをH.263標準規格からH.264標準規格にトランスコーディングすることができる。別の例では、トランスコーダ12は、ビットストリームソース14によって生成されたビデオを第1解像度(たとえば、H.264 SD)から第2解像度(H.264 QVGA)にトランスコーディングすることができる。
プリプロセッサ10は、非符号化ビデオデータに対してさまざまなビデオ前処理動作を実行することができる。たとえば、プリプロセッサ10は、インタレーシング動作、デインタレーシング動作、コントラスト調整動作、ノイズリダクション動作、および/または他のタイプのビデオ前処理動作を非符号化ビデオデータに対して実行することができる。
プリプロセッサ10が、非符号化ビデオデータに対して1つまたは複数のビデオ前処理動作を実行した後に、プリプロセッサ10は、前処理されたビデオデータを符号器16に供給することができる。符号器16は、前処理されたビデオデータを符号化し、これによって、符号化されたビデオデータを作成する。符号器16が、前処理されたビデオデータを符号化した後に、符号化デバイス4は、符号化されたビデオデータに対してさまざまなことを行うことができる。1つの例では、符号化デバイス4は、符号化されたビデオデータをメディアファイルまたは他のタイプのメディアオブジェクトとして、ランダムアクセスメモリ、光ディスク、磁気ディスク、フラッシュメモリ、電気的消去可能プログラム可能読取り専用メモリ、または他のタイプのメモリモジュールなどの記憶媒体(図示せず)に格納することができる。別の例では、符号化デバイス4は、符号化されたビデオデータを複数の異なるタイプのメディアオブジェクトのうちの1つとして出力することができる。たとえば、符号化デバイス4は、符号化されたビデオデータをオーディオ/ビデオデータのライブストリームとして出力することができる。別の例では、符号化デバイス4は、符号化されたビデオデータをプログレッシブ再生(progressive playback)が可能であってもなくてもよいメディアファイルとして出力することができる。符号化デバイス4が、符号化されたビデオデータを出力する時に、符号化デバイス4は、コンピュータネットワーク、無線放送送信機、同軸ケーブル、光ファイバケーブル、または別のタイプの通信機構を使用して、符号化されたビデオデータを伝送することができる。
復号デバイス6内の復号器18は、符号化デバイス4によって符号化されたビデオデータを復号することができる。一般に、復号器18は、符号器16がビデオデータに適用した符号化プロセスを逆処理する。復号器18がビデオデータを復号した後に、復号デバイス6内のポストプロセッサ20は、復号されたビデオデータに対して1つまたは複数の後処理動作を実行する。たとえば、ポストプロセッサ20は、ガンマ補正動作、鮮鋭化動作、および他の後処理動作を含む後処理動作を実行することができる。ポストプロセッサ20が、ビデオデータに対して後処理動作を実行した後に、復号デバイス6内のバッファ充てんモジュール22は、1つまたは複数のディスプレイバッファ24の組にビデオデータを格納することができる。たとえば、バッファ充てんモジュール22は、後処理されたビデオデータの個々のフレームをディスプレイバッファ24の個々の1つに格納することができる。ディスプレイバッファ24を、1つまたは複数のコンピュータ可読媒体(たとえば、ランダムアクセスメモリ、フラッシュメモリユニット、または他のタイプのコンピュータ可読媒体)として実施することができる。
復号デバイス6内のディスプレイユニット26は、ディスプレイバッファ24内のビデオデータを表示することができる。ディスプレイユニット26を、さまざまなタイプのディスプレイユニットのうちの1つまたは複数とすることができる。たとえば、ディスプレイユニット26を、陰極線管(「CRT」)モニタもしくはテレビジョンセット、液晶ディスプレイ(「LCD」)、有機発光ダイオード(「OLED」)ディスプレイ、従来の発光ダイオードディスプレイ、プラズマディスプレイ、または別のタイプのディスプレイとすることができる。図1の例では復号デバイス6内に含まれるものとして図示されているが、ディスプレイユニット26を、復号デバイス6の外部とすることができる。たとえば、ディスプレイユニット26を、1つもしくは複数のケーブルおよび/または1つもしくは複数の無線リンクを介して復号デバイス6に接続することができる。
本明細書で説明するように、プリプロセッサ10、符号器16、復号器18、およびポストプロセッサ20は、独立にまたは関連して、ビデオフレームの組内のビデオフレームの間の時間冗長性を減らすか復元するのにビデオタイル識別技法を使用することができる。一般に、これらのビデオタイル識別技法は、ビデオフレームのシーケンス内のビデオフレームのタイルの1つまたは複数の組の識別を伴う。タイルは、ビデオフレームの一区域である。たとえば、タイルは、幅20画素、高さ30画素であるビデオフレームの長方形区域とすることができ、ビデオフレームの左エッジから5列、ビデオフレームの上エッジから70行である左上画素を有することができる(すなわち、左上画素は、座標(5,70)を有する)。タイルの組のうちの少なくとも1つに含まれるタイルは、ビデオフレーム全体を含んでも含まなくてもよいビデオフレームの領域である。
タイルを識別した後に、断片を、ビデオフレームのそれぞれから抽出することができる。本開示で使用されるときに、「断片」は、ビデオフレームのタイル内に含まれるピクチャである。たとえば、ビデオフレームのタイルが、幅20画素、高さ30画素であるビデオフレームの長方形区域であるものとする。この領域の左上画素は、座標(5,70)を有する。この例では、このタイルから抽出される断片は、幅20画素、高さ30画素の独立ピクチャである。さらに、この例では、断片の左上画素(すなわち、座標(0,0)を有する断片の画素)は、座標(5,70)を有するビデオフレームの画素と同一の画素値を有する。同様に、座標(1,0)を有する断片の画素は、座標(6,70)を有するビデオフレームの画素と同一の画素値を有し、以下同様である。
断片が、ビデオフレームから抽出された時に、ビデオフレームに関する動作を、断片だけに関して実行することができる。たとえば、ビデオフレームに関する前処理動作を実行する時に、プリプロセッサ10は、断片に対してのみ、その前処理動作を実行することができる。別の例では、符号器16および復号器18は、動き補償動作中に参照として断片を使用することができる。動作が実行された後に、処理された断片を以前に復号された完全なビデオフレームに合成することによって、フレームを再組立する(すなわち、レンダリングする)ことができる。これが可能であるのは、識別されたタイルのうちの1つに含まれないフレームのすべての部分を、識別されたタイルのうちの1つに含まれない以前に復号された完全なビデオフレームの部分と同一であると仮定できるからである。
図2は、符号器16(図1)の例示的な詳細を示すブロック図である。図2の例では、プリプロセッサ10または別のハードウェアユニットおよび/もしくはソフトウェアユニットが、符号器16内のフレームバッファ30内に非符号化ビデオフレームのシーケンスを格納することができる。フレームバッファ30は、符号器16のメインメモリとは別々またはその一部とすることができるメモリのユニットとすることができる。ビデオフレームのこのシーケンスは、可変個数のビデオフレームを含むことができる。たとえば、ビデオフレームの第1シーケンスが、5つのビデオフレームを含むことができ、ビデオフレームの第2シーケンスが、16個のビデオフレームを含むことができ、ビデオフレームの第3シーケンスが、300個のビデオフレームを含むことができる。別の例では、ビデオフレームのシーケンスが、1つまたは複数のグループオブピクチャ(「GOP」)を形成することができる。
ビデオフレームのシーケンスがフレームバッファ30に格納される時に、符号器16内の動き推定(予測)ユニット32は、ビデオフレームのシーケンス内の各ビデオフレーム内のパーティションごとに動きデータを生成することができる。本開示で使用されるときに、「パーティション」は、画素の連続するグループである。たとえば、パーティションを、画素の16×16個のグループとすることができる。この例では、用語「パーティション」は、MPEGおよびH.26xビデオコーディング標準規格の語法で使用される用語「マクロブロック」または「ブロック」と同義とすることができる。しかし、より一般的な例では、パーティションは、任意の形状(たとえば、三角形、台形、円形、長方形など)の画素のグループとすることができる。
動き推定(予測)ユニット32によって生成される動きデータは、現行フレームがどのように符号化されるのかに依存して変化する可能性がある。たとえば、フレームが、予測フレーム(「Pフレーム」)としてインターコーディングされる場合には、動き推定ユニット32は、フレームのパーティションごとに動きベクトルを生成することができる。動き推定ユニット32によって生成される各動きベクトルは、1つまたは複数の参照フレーム内の位置からPフレーム内の位置への1つまたは複数のパーティションの変位値を指定することができる。たとえば、あるパーティションの動きベクトルは、1つまたは複数の参照フレーム、識別されたパーティションの水平変位、および識別されたパーティションの垂直変位を指定することができる。この例では、現行フレームの動きベクトル内で指定される参照フレームは、現行フレームの直前または直後のフレームである必要はない。たとえば、H.264標準規格では、参照フレームを、現行フレームから16フレームまで離れたフレームとすることができる。フレームが、両方向予測フレーム(「Bフレーム」)としてインターコーディングされる場合には、動き推定ユニット32は、フレームのパーティションごとに、参照フレームインデックス値のリストの組を生成することができる。復号中に、フレームインデックス値のリストを、Bフレーム内のパーティションの位置を補間するのに使用することができる。フレームが、イントラコーディングされるフレーム(「Iフレーム」)として符号化される場合には、動き推定ユニット32は、動きデータを生成しなくてもよく、あるいは、Iフレームに関してアクションを実行しなくてもよい。
動き推定ユニット32が、ビデオフレームのシーケンス内の各ビデオフレーム内のパーティションごとに動きデータを生成した後に、モード判断モジュール34は、パーティションごとにパーティション符号化モードを選択することができる。たとえば、H.264/AVC標準規格では、モード判断モジュール34は、パーティションごとに、イントラフレームのパーティションをIntra_4x4コーディングモードまたはIntra_16x16コーディングモードのどちらを使用して符号化すべきかを判定することができる。さらに、H.264/AVC標準規格では、モード判断モジュール34は、パーティションごとに、Pフレームのパーティションを「スキップ」モードを使用して符号化すべきなのか、あるいは動き補償を使用して符号化すべきなのかを判定することができる。「スキップ」モードでは、パーティションは、参照フレーム内の同等に配置されたパーティションと同一の画素データを格納すると解釈される。
ビデオフレームのシーケンスの各ビデオフレーム内のパーティションごとに符号化モードを選択することに加えて、モード判断モジュール34は、パーティションに対して「モード平滑化」動作を実行することができる。一般に、モード判断モジュール34がモード平滑化動作を実行する時には、モード判断モジュール34は、第1モードの分離されたパーティションを第2モードのパーティションとして再分類する。たとえば、ビデオフレームのシーケンス内で、単一のパーティションが、それ以外の点では静的な背景にまたがって移動する場合がある。この例では、静的な背景のパーティションを、「スキップ」モードパーティションとすることができ、動くパーティションを、別のモードに従って符号化することができる。モード平滑化動作は、このパーティションをスキップモードパーティションとして再分類することができる。頻繁に、そのような分離された動くパーティションは、視覚的雑音であり、不必要かつ視覚的に気を散らせるものである可能性がある。パーティションに対してモード平滑化動作を実行することによって、モード判断モジュール34は、視覚的雑音を減らすと同時に、効果的にスキップモードパーティションの数を増やすことができる。
モード判断モジュール34が、パーティションごとにパーティション符号化モードを判定した後に、符号器16内のパーティションマップモジュール36は、ビデオフレームのシーケンスのビデオフレームごとにパーティションマップを生成することができる。ビデオフレームのパーティションマップを生成した後に、パーティションマップモジュール36は、パーティションマップをマップバッファ38に格納することができる。マップバッファ38は、別々のメモリユニット、符号化デバイス4のメインメモリ内の区域、または符号器16によってアクセス可能な任意の適切なメモリユニットとすることができる。
ビデオフレームのパーティションマップは、そのビデオフレームのパーティションごとにデータ構造を含むことができる。ビデオフレームのパーティションのデータ構造は、タイルを識別するのに必要な、パーティションに関する情報を指定する。たとえば、パーティションのデータ構造は、パーティションの符号化モードを指定することができ、パーティションが均一な動きの区域内にあるかどうかを指定することができ、かつ/またはパーティションに関する他の情報を指定することができる。別の例では、パーティションのデータ構造は、パーティションのルマ(luma)情報、パーティションのクロマパレット(たとえば、白黒、セピアなど)、パーティションが均一な動きの区域内にあるかどうか、パーティションが加速する動きの区域内にあるかどうか、パーティションが変形する動き(たとえば、ズームイン/ズームアウト)の区域内にあるかどうか、および/またはパーティションに関する他の情報を指定することができる。
符号器16内のタイル識別モジュール40(「TILE ID.MODULE」)は、ビデオフレームのシーケンス内のビデオフレームのタイルの1つまたは複数の組を識別するのに、マップバッファ38内のパーティションマップを使用することができる。タイル識別モジュール40は、さまざまな形でビデオフレームのシーケンス内のビデオフレームのタイルの1つまたは複数の組を識別することができる。たとえば、図3は、タイル識別モジュール40が、同一位置に置かれたタイルの組をどのようにして識別できるのかに関する例示的な詳細を提供する。その代わりに、タイル識別モジュール40が、オーバーラップするが厳密には同一位置に置かれていないビデオフレームのタイルの組を識別することができる。タイルの組を識別することに加えて、タイル識別モジュール40は、タイルの識別された組のそれぞれのタイル記述情報を生成することができる。タイルの組のタイル記述情報は、タイルの組を参照するのに使用できるタイル組インデックス番号、タイルの組の位置および形状を示す情報、ならびにおそらくは他の属性を示すことができる。
次に、符号器16内の断片抽出モジュール42が、ビデオフレームから断片を抽出することができる。本明細書で使用されるときに、「断片」は、ビデオフレームのタイル内のピクチャである。たとえば、タイル識別モジュール40が、ビデオフレームの画素(5,5)の左上座標およびそのビデオフレームの(10,10)の右下座標を有するそのビデオフレームの長方形タイルを識別した場合に、断片抽出モジュール42は、(5,5)の左上座標および(10,10)の右下座標を有するそのフレームの長方形ピクチャ内のパーティションの組をそのビデオフレームから抽出することができる。パーティションのこの組が、断片である。別の例では、イントラコーディングされるビデオフレーム(「Iフレーム」)についてそうである場合があるように、タイル識別モジュール40が、ビデオフレームの画素(0,0)の左上座標およびそのビデオフレームの右下角の右下座標を有する、そのビデオフレームの長方形タイルを識別する場合に、断片抽出モジュール42は、そのフレームのすべてのパーティションを含むパーティションの組をそのフレームから抽出することができる。
断片および関連する動きデータを抽出した後に、断片抽出モジュール42は、断片および関連する動きベクトルを断片バッファ44に格納することができる。断片バッファ44は、別々のメモリユニット、符号化デバイス4のメインメモリ内の区域、または他の形とすることができる。
断片抽出モジュール42が、断片および関連する動きデータを抽出した後に、断片抽出モジュール42は、断片のピクチャ識別情報を生成することができる。断片の断片識別情報は、断片抽出モジュール42がそこから断片を抽出したフレームのインデックス番号を示すことができる。さらに、断片の断片識別情報は、断片に関連するタイルの組のインデックス番号を示すことができる。上で説明したように、タイルの組のインデックス番号を、タイルの組のタイル記述情報によって示すことができる。この形で、断片の断片識別情報は、断片とビデオフレームとの間の関係を識別する。たとえば、断片の断片識別情報は、断片がフレーム「5」から抽出され、タイルの組「3」に関連することを示すことができる。
その後、断片バッファ44は、断片のうちの1つの断片のパーティションに関連する動きデータの組を符号器16内の動き補償ユニット46(「MOTION COMP.UNIT」)に送ることができる。説明のために、断片のうちのこの1つの断片を、本明細書では「現行断片」と称する。動き補償ユニット46が、現行断片のパーティションに関連する動きデータの組を受け取る時に、動き補償ユニット46は、現行断片がPフレーム、Bフレーム、またはIフレームのどれとして符号化されるのかを判定することができる。
現行断片がPフレームとして符号化されようとしている場合には、現行断片に関連する動きデータは、現行断片のパーティションごとに1つまたは複数の動きベクトルおよび1つまたは複数のフレームインデックス値を指定することができる。動き補償ユニット46は、指定されたフレームインデックス値に関連し、現行断片の断片識別情報によって指定されるタイル組インデックス値にも関連する各参照断片を参照バッファ48から取り出し( retrieve )することができる。
参照断片を参照バッファ48から取り出した後に、動き補償ユニット46は、現行断片のパーティションごとに、取り出された1つまたは複数の参照断片のパーティションを識別するのにパーティションの動きベクトルを使用し、その後、識別されたパーティションを現行断片のパーティションに配置することができる。たとえば、現行断片のパーティションの動きベクトルは、現行断片のパーティションと取り出された参照断片のパーティションとの間の水平変位および垂直変位を指定することによって、取り出された参照断片のうちの1つの参照断片のパーティションを示すことができる。この場合に、動き補償ユニット46は、現行断片の断片の画素データとして、取り出された参照断片の示された断片の画素データを使用することができる。この形で、動き補償ユニット46は、参照断片からのパーティションを現行断片に関連する予測断片内の適当な位置に「移動する」。
現行断片が、それがそこから抽出されたビデオフレームより小さいときには、現行断片は、そのビデオフレームより少数のパーティションを含む。現行断片がビデオフレームより少数のパーティションを含むので、動き補償ユニット46は、動き補償ユニット46がそのビデオフレームに対して動き補償動作を実行できるのよりすばやく、より効率的に(計算の複雑さおよびハードウェアの複雑さに関して)現行断片に対して動き補償動作を実行することができる。
現行断片が、Bフレームとして符号化されようとしている場合には、現行断片に関連する動きデータは、現行断片のパーティションごとに複数のリストを指定することができる。1つの例示的実施態様では、パーティションのリストの最初の1つ(すなわち、リスト0)は、現行フレームがそこから抽出されたフレームの前に発生するフレームの0個以上のフレームインデックス値を指定することができる。パーティションのリストの第2の1つ(すなわち、リスト1)は、現行フレームがそこから抽出されたフレームの後に発生するフレームの0個以上のフレームインデックス値を指定することができる。動き補償ユニット46は、複数のリストで指定されるフレームインデックスに関連し、現行断片のタイル組インデックス値にも関連する各参照断片を参照バッファ48から取り出すことができる。参照断片を参照バッファ48から取り出した後に、動き補償ユニット46は、現行断片のパーティションごとに、パーティションの内容を補間することができる。
現行断片が、Iフレームとして符号化される場合には、動き補償ユニット46は、すべて0である予測断片を識別することができる。その予測断片は、すべて0なので、符号器16内の残差生成モジュール50が現行断片に予測断片の負の版を加算する時に、結果の残差断片は、現行断片と同一になる。代替実施態様では、現行断片がIフレームとして符号化される時に、動き補償ユニット46および残差生成モジュール50を完全にバイパスすることができる。言い換えると、現行断片を、符号器16内のブロック変換ユニット52に直接に供給することができる。
前の段落で触れたように、動き補償ユニット46が予測断片を生成した後に、残差生成モジュール50は、予測断片の負バージョンと断片バッファ44に格納された対応するオリジナル断片とを加算することによって、残差断片を生成することができる。より一般的には、残差生成モジュール50は、予測断片と対応するオリジナル断片との間の差を表す残差断片を生成することができる。次に、ブロック変換ユニット52は、残差断片に対して変換プロセスを実行することによって、係数の組を生成することができる。たとえば、ブロック変換ユニット52は、残差断片内の画素のブロックのそれぞれに対して2次元離散コサイン変換を実行することによって、残差ピクチャ内の画素のブロックごとに係数の行列を生成することができる。ブロック変換ユニット52が係数の組を生成した後に、符号器16内の量子化モジュール54(「QUANTIZ.MODULE」)は、係数の組の係数を量子化することによって、量子化された係数の組を生成することができる。たとえば、量子化モジュール54は、係数の各行列内の係数を量子化するのに量子化行列を使用することができる。
次に、符号器16内のエントロピコーディングユニット106は、量子化された係数の組に対してエントロピ符号化動作を実行することができる。たとえば、エントロピコーディングユニット106は、量子化された係数の組に対してCAVLC(context−adaptive variable length coding)動作を実行することができる。さらに、エントロピコーディングユニット106は、現行断片に関連する動きデータの組に対してエントロピ符号化動作を実行することができる。たとえば、エントロピコーディングユニット106は、現行断片に関連する動きデータに対して指数ゴロムコーディング動作を実行することができる。上で述べたように、現行断片がpフレームとして符号化されようとしている場合には、現行断片に関連する動きデータは、現行断片のパーティションの動きベクトルの組を備えることができる。現行断片がbフレームとして符号化されようとしている場合には、現行断片に関連する動きデータは、スキップモードパーティションを示すフラグ、現行断片内のパーティションの内容をそれらから補間できる断片識別子のリストを備えることができる。
エントロピコーディングユニット106が、量子化された係数の組および対応する動きデータに対してエントロピ符号化動作を実行した後に、符号器16内の出力モジュール58は、現行断片に関連するエントロピ符号化された量子化された係数および対応する動きベクトルを出力することができる。ビデオフレームの断片が、ビデオフレームのすべてを含んではいない場合があるので、出力モジュール58は、出力モジュール58が完全なビデオフレームを出力していた場合より少ないデータを出力する可能性がある。
出力モジュール58は、現行フレームに関連するタイル記述情報および断片識別情報を出力することができる。出力モジュール58は、さまざまな形で断片識別情報およびタイル記述情報を出力することができる。第1の例では、出力モジュール58が、H.264標準規格に従って符号化された断片を出力している場合に、出力モジュール58は、各符号化された断片をH.264ストリーム内の異なるフレームにマッピングすることができる。さらに、この第1の例では、出力モジュール58は、断片識別情報およびタイル記述情報を示すSEI(supplemental enhancement information)を出力することができる。第2の例では、出力モジュール58が、H.264標準規格に従って符号化された断片を出力している場合に、出力モジュール58は、あるフレームに関連する符号化された断片をH.264標準規格のFMO(flexible macroblock ordering)能力に従って異なるスライスグループにマッピングすることができる。この第2の例では、異なるスライスグループの位置を記述する機構が、H.264標準規格に既に含まれる。第3の例では、復号器/受話器および送信機/符号器がお互いの能力を知っているクローズドアプリケーションの場合など、標準規格への準拠がクリティカルではない場合に、新しい構文/セマンティックスまたはフォーマットを、この情報を通信するのに使用することができ、このフォーマットを、先験的に復号器でプログラムすることができる。
さらに、量子化モジュール54が、現行断片に関連する量子化された係数の組を生成する時に、符号器16内の逆量子化ユニット60(「INVERSE QUANTIZ.MODULE」)は、量子化された係数の組に対して逆量子化動作を実行することによって、現行断片に関連する逆量子化された係数の組を生成することができる。逆量子化ユニット60は、量子化モジュール54によって使用される量子化行列に対応する逆量子化行列を使用して、逆量子化動作を実行することができる。逆量子化ユニット60が、逆量子化された係数の組を生成した後に、符号器16内の逆変換ユニット62は、ブロック変換ユニット52によって適用された変換の逆を逆量子化された係数の組に適用することによって、現行断片に関連する復号された残差ピクチャを生成することができる。たとえば、ブロック変換ユニット52が、2次元離散コサイン変換を適用した場合に、逆変換ユニット62は、2次元逆離散コサイン変換を適用することができる。
符号器16内の断片再構成モジュール64(「FRAGMENT RECONST.MODULE 64」)は、現行断片に関連する復号された残差ピクチャと現行断片に関連する予測ピクチャとを加算することによって、現行断片に関連する再構成された断片を生成することができる。図2の例の符号器16は、再構成された断片を生成するのに加算器を使用するが、他のタイプのハードウェアモジュールまたはソフトウェアモジュールが、断片再構成モジュール64の機能性を実行できることを了解されたい。断片再構成モジュール64が、再構成された断片を生成する時に、断片再構成モジュール64は、参照断片としての後続使用のために、再構成されたピクチャを参照バッファ48に格納することができる。参照断片は、完全なビデオフレームより少数のビットを含む場合があるので、参照バッファ48を、参照バッファ48が完全なビデオフレームを格納しなければならない場合より小さくすることができる。さらに、参照断片は、完全なビデオフレームより少数のビットを含む場合があるので、メモリ転送トラヒック要件を下げることができる。より少ないメモリ転送トラヒックの結果として、参照断片を参照バッファ48に書き込むことが、より短い時間およびより少ない電力を必要とする可能性がある。参照バッファ48が、再構成されたピクチャを格納した後に、動き補償ユニット46は、断片バッファ44から動きデータの別の組を受け取ることができ、このプロセスは、断片バッファ44内の別の断片に関してもう一度発生し得る。さらに、このプロセスは、断片バッファ44内のすべての断片が処理済みになるまで継続され得る。
図3は、タイル識別モジュール40の例示的な詳細を示すブロック図である。図3の例では、タイル識別モジュール40は、ビデオシーケンスのコンポジットパーティションアクティビティマップを作成するのにパーティションマップモジュール36によって生成されたパーティションマップを使用するパーティションアクティビティモジュール70を含む。ビデオフレームのパーティションアクティビティマップは、ビデオフレームのどのパーティションが「アクティブ」であるのか、およびフレームのどのパーティションが「インアクティブ」であるのかを示す。たとえば、パーティションアクティビティマップは、アクティブモードパーティションを示す「真」値およびインアクティブパーティションを示す「偽」値を有するブール(Boolean)値の配列とすることができる。所与のビデオフレームのパーティションは、そのパーティションの動きベクトルが、そのパーティションが基準フレーム内のパーティションに対する相対的な変位を有しないことを示す時、およびそのパーティションが参照フレーム内の同一位置のパーティションと比べた残差値を有しない時に、インアクティブパーティションである。逆に、所与のフレームのパーティションは、そのパーティションの動きベクトルが、そのパーティションが参照フレーム内のパーティションに対する少なくともある変位を有することを示す時、そのパーティションが参照フレーム内の同一位置のパーティションと比べて非0の残差値を有する時、またはそのパーティションが参照フレーム内の同一位置のパーティションと比べて非0の残差値を有し、参照フレーム内のパーティションに対する少なくともある変位を有する時に、「アクティブ」である。
コンポジットパーティションアクティビティマップを生成するために、パーティションアクティビティモジュール70内のマップモジュール71は、実質的に均一の動きを有するフレーム内のパーティションのグループを識別することによって、ビデオフレームの1つまたは複数のパーティションアクティビティマップを生成することができる。実質的に均一の動きを有するパーティションのグループを識別するために、マップモジュール71は、パーティションの動きベクトルの水平次元に対応する成分によって示される水平変位にメディアン(移動中央値)フィルタを適用し、パーティションの動きベクトルの垂直次元に対応する成分によって示される垂直変位にメディアン(移動中央値)フィルタを適用することができる。メディアン(移動中央値)フィルタは、効果的に、雑音または変位の間の他の重要ではない差を除去する。メディアン(移動中央値)フィルタは、点(たとえば、変位値)の組をとり、フィルタのスパンを与えられて、xを中心とするこれらの点の部分集合をとり、その部分集合の中央値を返す。たとえば、1、1、1、1、5、4、4、1、9、4が、水平変位値または垂直変位値であり、フィルタのスパンが5であると仮定する。この例では、それぞれが次の中央値を有する、10個の部分集合がありえる。
部分集合1: 1 −− 中央値=1
部分集合2: 1,1 −− 中央値=1
部分集合3: 1,1,1 −− 中央値=1
部分集合4: 1,1,1,1 −− 中央値=1
部分集合5: 1,1,1,1,5 −− 中央値=1
部分集合6: 1,1,1,5,4 −− 中央値=1
部分集合7: 1,1,5,4,4 −− 中央値=4
部分集合8: 1,5,4,4,1 −− 中央値=4
部分集合9: 5,4,4,1,9 −− 中央値=4
部分集合10: 4,4,1,9,4 −− 中央値=4
この例では、移動中央値フィルタの出力は、1、1、1、1、1、1、4、4、4、4である。移動中央値フィルタが、「5」および「9」の値をどのように除去するのかに留意されたい。移動中央値フィルタを適用した後に、マップモジュール71は、同一の値を有する連続するフィルタリングされた変位値のグループを識別することができる。たとえば、マップモジュール71は、連続するフィルタリングされた変位値の第1グループとして1、1、1、1、1、1というグループを、連続するフィルタリングされた変位値の第2グループとして4、4、4、4というグループを識別することができる。次に、マップモジュール71は、アクティブパーティションとして、非0のフィルタリングされた変位値のグループに関連するパーティションを示すことができる。たとえば、フィルタリングされた変位値の次の表が、これを示すことができる。
Figure 0005280530
表1では、各セルは、パーティションを表し、セル内の第1の数は、そのパーティションのフィルタリングされた水平変位値を表し、セル内の第2の数は、そのパーティションのフィルタリングされた垂直変位値を表す。表1を使用して、マップモジュール71は、左上角の4つのパーティションをアクティブパーティションとして示し、右下角の4つのパーティションをアクティブパーティションとして示すことができる。残りのパーティションは、そのフィルタリングされた変位値が0なので、インアクティブパーティションである。
マップモジュール71がパーティションアクティビティマップをどのように生成できるのかの別の例では、マップモジュール71は、動きベクトル変位値ではなく、パーティション符号化モードを使用することができる。これを示すために、下の表2を検討されたい。
Figure 0005280530
表2では、各セルは、パーティションを表し、セルの内部の単語は、そのセルによって表されるパーティションを符号化するのに使用された符号化モードを示す。表2を使用して、マップモジュール71は、右上の4つのパーティションをアクティブパーティションとして表し、左下の4つのパーティションをアクティブパーティションとして表すことができる。
図4に、ビデオフレームの例示的なシーケンス80と、アクティブパーティションを黒いブロックとして示すパーティションマップの対応する組82とを示す。図4の例に示されているように、ビデオフレームのシーケンス80は、フレーム80A、フレーム80B、フレーム80C、およびフレーム80Dを含む。図4の例では、フレーム80Aは、イントラフレームである。タイル識別モジュール40が、シーケンス80のタイルを識別しつつある時に、マップモジュール71は、パーティションアクティビティマップの組82を生成することができる。パーティションアクティビティマップの組82は、マップ82A、マップ82B、マップ82C、およびマップ82Dを含む。マップ82Aは、フレーム80Aに対応し、マップ82Bは、フレーム80Bに対応し、マップ82Cは、フレーム80Cに対応し、マップ82Dは、フレーム80Dに対応する。
ビデオフレーム80のそれぞれは、砂漠の背景の前に立っている人の表現である。たとえば、この人は、遠隔ニュース放送を送達している可能性がある。ビデオフレーム80から明白であるように、砂漠の背景は、ビデオフレーム80中に大きくは動かず、変化しない。そうではなく、ビデオフレーム80内の動きおよび変化のすべては、人の頭の周囲に集中している。ビデオフレーム80の動きおよび変化が人の頭の周囲に集中しているので、人の頭の周囲の領域内に配置されたビデオフレーム80のパーティションは、アクティブパーティションである傾向があるが、背景に関連するビデオフレーム80のパーティションは、インアクティブパーティションである。その結果、マップ82B、マップ82C、およびマップ82Dは、人の頭の周囲の領域内のアクティブパーティションを示す黒いブロックを含む。マップ82Aは、フレーム80AがIフレームであり、Iフレームが他のフレームを参照して構成はされないので、アクティブモードパーティションを全く含まない。
もう一度図3を参照すると、タイル識別モジュール40は、ビデオフレームのシーケンス内のビデオフレームのタイルの1つまたは複数の組を識別するのに、パーティションアクティビティマップを使用することができる。タイル識別モジュール40は、ビデオフレームのシーケンス内のビデオフレームのタイルの組を識別するのに、さまざまな技法を使用することができる。図3の例では、パーティションアクティビティモジュール70は、コンポジットパーティションアクティビティマップを生成するのにマップモジュール71によって生成されたパーティションアクティビティマップを使用するコンポジットマップモジュール72を含むことができる。本開示で使用されるときに、パーティションアクティビティマップは、ソースパーティションアクティビティマップのうちの1つのすべてのアクティブパーティションについて、パーティションアクティビティマップ内の一所に置かれたパーティションがアクティブパーティションである場合、およびアクティビティマップのすべてのインアクティブパーティションについて、アクティブパーティションであるソースパーティションアクティビティマップの一所に置かれたパーティションがない場合に、複数のソースパーティションアクティビティマップの合成物である。ソースパーティションアクティビティマップは、Iフレーム、Pフレーム、Bフレーム、または他のものに関連するパーティションアクティビティマップを含むことができる。コンポジットマップモジュール72は、パーティションアクティビティマップのそれぞれに対して論理「or」演算を実行することによって、コンポジットパーティションアクティビティマップを生成することができる。この形で、コンポジットパーティションアクティビティマップ内のパーティションは、フレームのうちの1つまたは複数内の1つまたは複数の同一位置のパーティションがアクティブであるときに、アクティブである。図5A、5B、および5Cに、例示的なコンポジットパーティションアクティビティマップ90を示す。コンポジットパーティションアクティビティマップ90は、パーティションアクティビティマップ82Aから82D(図4)のコンポジットパーティションアクティビティマップである。言い換えると、コンポジットパーティションアクティビティマップ90は、パーティションアクティビティマップ82Aから82Dに対して論理「or」演算を実行した結果を表すことができる。
コンポジットパーティションアクティビティマップ90を生成した後に、タイル識別モジュール40内のタイル構成モジュール73は、コンポジットパーティションアクティビティマップ90内のインアクティブパーティションのパーセンテージが所与のコンポジットパーティションアクティビティしきい値を超えるかどうかを判定するのにコンポジットパーティションアクティビティマップ90を使用することができる。コンポジットパーティションアクティビティしきい値は、たとえば20%以上からの範囲にわたる、さまざまな異なる値を有することができる。全体的なパーティションアクティビティマップ内のインアクティブパーティションのパーセンテージが、コンポジットパーティションアクティビティしきい値を超えない場合には、タイル構成モジュール73は、タイルの単一の組を識別することができる。タイルのこの組に含まれる各タイルは、ビデオフレームのシーケンス内のビデオフレームの区域全体を含む。タイル識別モジュール40は、計算負荷および/または電力消費に関してタイルまたはビデオフレーム全体のどちらに基づいてビデオフレームを符号化することがより効率的であるのかを査定するために、コンポジットパーティションアクティビティマップ90内のインアクティブパーティションのパーセンテージがコンポジットパーティションアクティビティしきい値を超えるかどうかを評価することができる。言い換えると、コンポジットパーティションアクティビティマップ90内のインアクティブパーティションのパーセンテージが、コンポジットパーティションアクティビティしきい値未満であるときには、ビデオフレームのタイルではなくビデオフレーム全体を符号化することがより効率的である可能性がある。
その一方で、コンポジットパーティションアクティビティマップ90内のインアクティブパーティションのパーセンテージがしきい値を超える場合には、タイル構成モジュール73は、アクティブパーティションを含む、コンポジットパーティションアクティビティマップ90の1つまたは複数のタイルを識別することができる。コンポジットパーティションアクティビティマップ90のタイルは、ビデオフレームのシーケンス内の均一な動きの別個の区域を表すことができる。図5Aの例に示されているように、タイル構成モジュール73は、コンポジットパーティションアクティビティマップ90内のアクティブモードパーティションの上側グループの周囲の長方形区域を含むタイル92を識別し、コンポジットパーティションアクティビティマップ90内のアクティブモードパーティションの下側グループの周囲の長方形区域を含むタイル94を識別している。タイル92は、ビデオフレーム80内の人の頭の周囲のアクティブパーティションに対応し、タイル94は、ビデオフレーム80内のテキストに対応する。図5Bの例は、タイル構成モジュール73がこの同一のコンポジットパーティションアクティビティマップ90を使用して識別した代替領域を示す。図5Bの例に示されているように、タイル構成モジュール73は、コンポジットパーティションアクティビティマップ100内のアクティブモードパーティションの上側グループを含む第1の多角形タイル102を識別している。さらに、タイル構成モジュール73は、コンポジットパーティションアクティビティマップ100内のアクティブモードパーティションの下側グループを含む第2の多角形タイル104を識別している。
図5Cの例は、タイル構成モジュール73がコンポジットパーティションアクティビティマップ90を使用して識別できる追加の代替のタイルを示す。コンポジットパーティションアクティビティマップ90を使用して、タイル構成モジュール73は、アクティブモードパーティションの上側グループを含む第1の予備タイル112を識別し、アクティブモードパーティションの下側グループを含む第2の予備タイル114を識別している。予備タイル112は、図5Aのタイル92と同一であってもなくてもよく、予備タイル114は、図5Aのタイル94と同一であってもなくてもよい。しかし、図5Cの例では、タイル構成モジュール73は、予備タイル112内にあるパーティションおよび予備タイル112から各方向に所与の個数の画素だけ延びるパーティションを含むタイル116をも識別している。さらに、図5Cの例では、タイル構成モジュール73は、予備タイル114内にあるパーティションおよび予備タイル114から各方向に所与の個数の画素だけ延びるパーティションを含むタイル118を識別している。画素のこの所与の個数は、予備タイル112および114内のパーティションのすべての動きベクトルがそれぞれタイル116および118内にある区域を示すようになるものとすることができる。図5Cに示されているように、この余分の区域は、斜線を用いて示されている。
コンポジットパーティションアクティビティマップのタイルを識別した後に、タイル構成モジュール73は、コンポジットパーティションアクティビティマップの識別されたタイルと同一位置に置かれたビデオフレームのシーケンス内の各ビデオフレームのタイルを識別することができる。言い換えると、タイル構成モジュール73は、パーティションがコンポジットパーティションアクティビティマップの識別されたタイルに含まれるパーティションの位置に対応するビデオフレームの位置にある場合に限って、タイルがビデオフレームのそのパーティションを含むようになる、ビデオフレームのタイルを識別する。この形で、タイル構成モジュール73は、ビデオフレームのシーケンス内のビデオフレームの同一位置に置かれたタイルの組を識別する。
ある情況の下では、図5Aまたは図5Bの例に示されたタイル92、94、102、および104ではなく、図5Cのタイル116およびタイル118を使用することが有利である場合がある。たとえば、上で説明したように、符号器16内の動き補償ユニット46は、参照バッファ48から参照断片を取り出す。参照バッファ48は、符号化デバイス4のメインメモリの区域である場合があるので、参照バッファ48からの参照ピクチャの取出しが、時間がかかり電力を消費するプロセスになる場合がある。さらに、動き補償ユニット46が参照バッファ48から参照断片を取り出す時に、動き補償ユニット46は、その参照断片を動き補償ユニット46にローカルなメモリユニットに格納することができる。タイル116および118の延ばされた区域に起因して、いくつかのパーティションが、参照断片の間で共用される。いくつかのパーティションが参照断片の間で共用されるので、動き補償ユニット46がこれらの共用されるパーティションを2回取り出すことが、必要ではない場合がある。共用されるパーティションを2回取り出す必要がないことは、時間および電力を節約することができる。類似する情況が、復号器18内の動き補償ユニットに関してあてはまる場合がある。
コンポジットパーティションアクティビティマップの1つまたは複数のタイルを実際に識別するために、タイル構成モジュール73は、さまざまな異なる動作を実行することができる。たとえば、タイル構成モジュール73は、アクティブパーティションだけが残るまでコンポジットパーティションアクティビティマップのインアクティブパーティションを「除去処理(pruning)する」ことによって、コンポジットパーティションアクティビティマップ内のアクティブパーティションの接続された組を識別することができる。この例では、その後、タイル構成モジュール73は、タイルを長方形にするために、インアクティブパーティションをタイルに戻して追加することによって、長方形タイル(たとえば、図5Aのタイル92および94ならびに図5Cのタイル112および114)を識別することができる。別の例では、タイル構成モジュール73は、コンポジットパーティションアクティビティマップの第1のアクティブモードパーティションを識別することと、その後、この第1のアクティブモードパーティションに隣接するコンポジットパーティションアクティビティマップのアクティブモードパーティションを識別することと、その後、これらのアクティブモードパーティションに隣接するアクティブモードパーティションを識別することなどによって、コンポジットパーティションアクティビティマップのアクティブパーティションの連続する組を識別することができる。
さらに、タイル構成モジュール73は、識別されたタイルに基づいてタイルに関連する断片を時間効率および/または電力効率のよい形でメモリから取り出すことができる形で、コンポジットパーティションアクティビティマップのタイルを識別することができる。たとえば、タイル構成モジュール73は、タイルに基づいてタイルに関連する断片を完全に単一のメモリページ内に格納できるように、コンポジットパーティションアクティビティマップのタイルを識別することができる。この例では、断片全体が単一のメモリページ内に格納される時に、断片を取り出すのにより短い時間および/またはより少ない電力を要する可能性がある。対照的に、完全なビデオフレームは、断片より大きい可能性がある。完全なビデオフレームが断片より大きい可能性があるので、完全なビデオフレームを単一のメモリページ内に格納することが可能ではない場合がある。
タイル構成モジュール73が、コンポジットパーティションアクティビティマップのタイルを識別する時に、タイル構成モジュール73は、ビデオフレームのそれぞれのタイルを識別することができる。ビデオフレームの識別されたタイルは、コンポジットパーティションアクティビティマップのタイルと同一位置に置かれているものとすることができる。これらの識別されたタイルは、タイルの組を構成する。タイル構成モジュール73は、コンポジットパーティションアクティビティマップ内のアクティブパーティションの接続された組ごとに、タイルのそのような組を識別することができる。
タイル構成モジュール73が、タイルの組を識別した後に、タイル識別モジュール40内のタイル記述モジュール74は、タイルの識別された組のそれぞれのタイル記述情報を作成することができる。タイルの組のタイル記述情報は、タイルの識別された組の中で一意であるタイルインデックス値を示すことができる。タイルインデックス値は、タイルの識別された組の中で一意なので、タイルの組のタイルインデックス値を、タイルのその組のタイル記述情報にアクセスするのに使用することができる。さらに、タイルの組のタイル記述情報は、タイルの組内のタイルの形状およびビデオフレーム内のタイルの組内のタイルの位置を示すことができる。たとえば、同一位置に置かれたタイルの組のタイル記述情報は、同一位置に置かれたタイルの組の各タイルが、長方形であり、ビデオフレームの画素(27,32)の左上角およびビデオフレームの画素(63,82)の右下角を有することを示すことができる。代替の例では、同一位置に置かれたタイルのタイル記述情報は、同一位置に置かれたタイルの組のタイルに含まれるビデオフレームのパーティションの識別子をリストすることができる。さらに、タイルの組内のタイルが同一位置に置かれていない場合には、タイルの組のタイル記述情報は、タイルの組内のタイルのそれぞれの位置を示すことができる。
図5Dに、パーティションアクティビティマップ120に対するモード平滑化の効果を示す。図5Dの例に示されているように、パーティションアクティビティマップ120は、連続するアクティブパーティションの第1の組121および連続するアクティブパーティションの第2の組122を含む。組121および組122内のパーティションを、「直接モード」パーティションとして符号化することができ、「DCモード」パーティションとして符号化することができ、あるいは、別のタイプの非スキップパーティションとして符号化することができる。組121および組122に加えて、パーティションアクティビティマップ120は、2つの分離されたアクティブパーティション123を含む。
図5Dのパーティションアクティビティマップ124は、パーティションアクティビティマップ120にモード平滑化を適用することから生じるパーティションアクティビティマップである。上で述べたように、モード平滑化は、分離されたアクティブパーティションをスキップモードパーティションとして符号化することを強制することができる。分離されたアクティブパーティションがスキップモードパーティションになることを強制することは、タイルの個数を減らし、したがって符号器16によって達成される圧縮を増補することができる。パーティションアクティビティマップ124が、組121および組122を含むことに留意されたい。パーティションアクティビティマップ124は、組121および組122が「平滑化によって除去され」ない(すなわち、スキップモードになることを強制されない)のに十分に大きいので、組121および組122を含む。しかし、パーティションアクティビティマップ124は、分離されたアクティブパーティション123を含まない。
図6Aおよび6Bに、図2に提示された符号器16の例示的な動作を示す。図6Aに示された例示的な動作によれば、非符号化ビデオフレームのシーケンスが、フレームバッファ30に格納される(130)。次に、符号器16内の動き推定ユニット32は、非符号化ビデオフレームのシーケンス内のビデオフレームのパーティションの動きデータを識別することができる(132)。動き推定ユニット32が、非符号化ビデオフレームのシーケンス内のビデオフレームのパーティションの動きデータを識別した後に、符号器16内のモード判断モジュール34は、ビデオフレームのシーケンス内のビデオフレームのそれぞれのパーティションごとにパーティションモードを識別することができる(134)。さらに、モード判断モジュール34は、ビデオフレームのシーケンス内のビデオフレームのそれぞれのパーティションに対してモード平滑化動作を実行することができる(136)。図5Dに関して上で説明したように、モード平滑化は、分離されたアクティブパーティションをスキップモードパーティションとして符号化することを強制し、これによって、タイル識別モジュール40が最終的に識別するタイルの潜在的な個数を減らすことができる。
次に、パーティションマップモジュール36は、ビデオフレームのシーケンス内のビデオフレームごとにパーティションアクティビティマップを生成することができる(138)。上で説明したように、ビデオフレームのパーティションアクティビティマップは、ビデオフレームのタイルの組を識別するのに使用できる情報を格納する。次に、タイル識別モジュール40は、コンポジットパーティションアクティビティマップを生成するのにこれらのパーティションアクティビティマップを使用することができる(140)。たとえば、図4のパーティションアクティビティマップ32を与えられて、タイル識別モジュール40は、図5A〜5Cに示されているコンポジットパーティションアクティビティマップ90、100、および110を生成することができる。次に、タイル識別モジュール40は、コンポジットパーティションアクティビティマップ内のインアクティブパーティションのパーセンテージが所与のしきい値を超えるかどうかを判定することができる(140)。
コンポジットパーティションアクティビティマップ内のインアクティブパーティションのパーセンテージがしきい値を超えない場合には(142の「NO」)、タイル識別モジュール40は、ビデオフレームのタイルの組を識別することができ、ここで、タイルのそれぞれは、ビデオフレームのシーケンス内の各ビデオフレームの全パーティションを含む(144)。代替実施態様では、コンポジットパーティションアクティビティマップ内のインアクティブパーティションのパーセンテージがしきい値を超えない場合には(142の「NO」)、符号器16は、伝統的なパーティションベースの符号化を実行することができる。
その一方で、コンポジットパーティションアクティビティマップ内のインアクティブパーティションのパーセンテージがしきい値以上である場合には(142の「YES」)、タイル識別モジュール40は、ビデオフレームのシーケンスのビデオフレームのタイルの1つまたは複数の組を識別することができる(146)。たとえば、タイル識別モジュール40は、PフレームおよびBフレーム内のタイルの組を識別することができる。さらに、この例では、タイル識別モジュール40は、Iフレームのすべてを含む各Iフレーム内のタイルを識別することができる。別の例では、タイル識別モジュール40は、Iフレームの1つの部分が同一Iフレームのタイル/断片の別の部分を「参照」できるようになる、Iフレーム内のタイルを識別することができる。この形で、Iフレーム内で識別される少数の参照タイルがあるものとすることができ、Iフレームの残りは、この参照に基づいて予測され得る。
タイル識別モジュール40が、タイルの組を識別した後(すなわち、144の後または148の後)に、タイル識別モジュール40は、タイルの組のそれぞれのタイル記述情報を生成することができる(150)。次に、断片抽出モジュール42は、識別されたタイルに関連する断片をビデオフレームから抽出することができる(152)。さらに、断片抽出モジュール42は、抽出された断片のそれぞれのピクチャ識別情報を生成することができる(154)。次に、断片抽出モジュール42は、断片、断片に関連する動きデータ、および断片識別情報を断片バッファ44に格納することができる(156)。
次に、符号器16は、図6Bの例に示された動作を実行することができる。図6A内では、図6Bの例に示された動作が、「B」として示されている。図6Bの例に示された動作を実行した後に、符号器16は、ループバックし、ビデオフレームの別のシーケンスをフレームバッファ30に格納することができる(130)。
図6Bの例に示された動作によれば、符号器16内の動き補償ユニット46は、断片バッファ44内に未処理のピクチャがあるかどうかを判定することができる(170)。動き補償ユニット46が、断片バッファ44内に未処理の断片があると判定する場合には(170の「YES」)、動き補償ユニット46は、断片バッファ44内の未処理の断片(すなわち、現行断片)をインターモードまたはイントラモードのどちらで符号化するのかを判定することができる(171)。動き補償ユニット46が、現行断片をインターモードで符号化しないと判定する場合には(171の「NO」)、動き補償ユニット46は、現行断片に関連する予測断片を識別するのに、断片バッファ44内の最初の未処理の断片(すなわち、現行断片)に関連する動きデータによって示される参照バッファ48内の参照断片を使用することができる(172)。
次に、残差生成モジュール50は、現行断片に関連する予測断片の負のバージョン(版)とオリジナルの現行断片とを加算することによって残差断片を生成することができる(174)。この形で、現行断片の画素値は、残差画素値になる。残差生成モジュール50が現行断片を変換した後、または動き補償ユニット46が現行断片をインターモードで符号化すると判定した後(171の「YES」)に、ブロック変換ユニット52は、現行断片に関連する残差断片を変換することによって現行断片に関連する係数の組を生成することができる(176)。次に、量子化モジュール54は、現行断片に関連する係数の組に量子化動作を適用することによって、現行断片に関連する関連する量子化された係数の組を生成することができる(178)。
その後、エントロピ符号化ユニット56は、現行ピクチャに関連する量子化された係数の組、現行断片のパーティションに関連する動きデータ、および現行断片に関連するピクチャ識別情報を符号化するために、エントロピ符号化動作を適用することができる(180)。エントロピ符号化動作を適用した後に、出力モジュール58は、現行断片に関連するエントロピ符号化されたデータを出力することができる(182)。エントロピ符号化ユニット56が、現行断片に関連するエントロピ符号化されたデータを出力する時に、エントロピ符号化ユニット56は、タイル識別モジュール40によって生成されたタイル記述情報を出力することもできる。
次に、逆量子化ユニット60は、現行断片に関連する量子化された係数の組に対して逆量子化動作を実行することによって、現行断片に関連する逆量子化された係数の組を生成することができる(184)。次に、逆変換ユニット62は、現行ピクチャに関連する逆量子化された係数の組に対して逆変換動作を実行することによって、現行断片に関連する復号された残差断片を生成することができる(186)。
逆変換モジュール110が、復号された残差ピクチャを生成した後に、加算器112は、現行断片に関連する復号された残差ピクチャを現行断片について動き補償ユニット46によって生成された予測ピクチャと加算することによって、現行断片に関連する再構成された断片を生成することができる(188)。次に、参照バッファ48は、現行断片に関連する再構成された断片を格納することができる(190)。
参照バッファ48が再構成された断片を格納した後に、動き補償ユニット46は、断片バッファ94内に未処理の断片があるかどうかをもう一度判定することができる(170)。動き補償ユニット46が、断片バッファ94内に未処理の断片がないと判定する場合には(170の「NO」)、フレームバッファ30は、ビデオフレームのシーケンスをもう一度受け取ることができる(130)(図6A)。
図7は、復号器18(図1)の例示的な詳細を示すブロック図である。図7の例に示されているように、復号器18は、エントロピ復号ユニット150を含む。エントロピ復号ユニット150が、断片に関連する量子化された係数の符号化された組および現行断片のパーティションに関連する動きデータを含むメディアオブジェクトを受け取る時に、エントロピ復号ユニット150は、符号化された量子化された係数および動きデータに対してエントロピ復号動作を実行することによって、現行断片に関連する量子化された係数の組および関連する動きデータを復号する。次に、エントロピ復号ユニット150は、現行断片に関連する復号された量子化された係数を復号器18内の逆量子化モジュール152に供給することができ、現行断片に関連する復号された動きデータを復号器18内の動き補償ユニット154に供給することができる。
さらに、エントロピ復号ユニット150は、断片識別情報およびタイル記述情報を復号することができる。たとえば、エントロピ復号ユニット150は、断片識別情報およびタイル記述情報を示す符号化されたSEIメッセージを受け取ることができる。上で述べたように、あるピクチャの断片識別情報は、断片に関連するフレームおよび断片に関連するタイルの組を示すことができる。タイルのタイル記述情報は、タイルの位置を示す。エントロピ復号ユニット150が、断片識別情報およびタイル記述情報を復号する時に、エントロピ復号ユニット150は、復号された断片識別情報および復号されたタイル識別情報を復号器18内の参照バッファ158に格納することができる。
逆量子化モジュール152が、現行断片に関連する量子化された係数の組を受け取る時に、逆量子化モジュール152は、量子化された係数の組に対して逆量子化動作を実行することによって、現行断片に関連する逆量子化された係数の組を生成する。次に、復号器18内の逆変換モジュール156は、現行断片に関連する逆量子化された係数に対して逆変換動作を実行することによって、現行断片に関連する残差断片を生成する。動き補償ユニット154が、現行断片に関連する動きデータの組を受け取る時に、動き補償ユニット154は、動きデータの組内の動きデータによって示される参照断片を参照バッファ158から取り出すことができる。たとえば、動き補償ユニット154は、現行断片のタイル組インデックス値にも関連する動きデータによって指定されるフレームインデックス番号に関連する参照バッファ158内の各断片を取り出すことができる。次に、動き補償ユニット154は、現行断片に関連する予測断片を生成するのに、取り出された参照断片を使用することができる。動き補償ユニット154は、たとえば上で動き補償ユニット46に関して説明した技法を使用して、予測断片を生成することができる。動き補償ユニット154が、現行断片に関連する予測ピクチャを生成し、逆変換モジュール156が、現行フレームに関連する残差ピクチャを生成した後に、復号器18内の断片再構成モジュール160は、予測断片と残差断片とを加算することによって、現行フレームに関連する再構成された断片を生成する。図7の例の復号器18は、再構成された断片を生成するのに加算器を使用するが、他のタイプのハードウェアモジュールまたはソフトウェアモジュールが、断片再構成モジュール160の機能性を実行できることを了解されたい。
断片再構成モジュール160が再構成された断片を生成した後に、断片再構成モジュール160は、再構成された断片が参照断片として使用可能であるかどうかを判定することができる。たとえば、1つの方式では、再構成された断片がBフレームとして符号化された場合に、再構成された断片が、参照断片として使用可能ではない場合がある。断片再構成モジュール160が、再構成された断片が参照断片として使用可能であると判定する場合には、断片再構成モジュール160は、参照断片としての後続使用のために、再構成された断片を参照バッファ158に格納することができる。さらに、断片再構成モジュール160が、再構成された断片が参照フレームとして使用可能であると判定する場合には、断片再構成モジュール160は、再構成された断片を復号器18内のフレーム再組立モジュール162に供給することができる。そうではなく、断片再構成モジュール160が、再構成された断片が参照フレームとして使用可能ではないと判定する場合には、断片再構成モジュール160は、再構成された断片を参照バッファ158に格納せずに、再構成された断片をフレーム再組立モジュール162に直接に供給することができる。
フレーム再組立モジュール162は、完全なビデオフレームを再組立する。ビデオフレームを再組立するために、フレーム再組立モジュール162は、再構成された断片を断片再構成モジュール160から受け取ることができる。フレーム再組立モジュール162の背景では、まだ復号器18によって出力されていない最も古いフレームを、「現行フレーム」と称する。フレーム再組立モジュール162が、現行フレームに関連する断片(すなわち、「現行断片」)を受け取る時に、フレーム再組立モジュール162は、現行断片に関連するタイルを識別するのに、現行断片に関連する断片識別情報を使用することができる。次に、フレーム再組立モジュール162は、タイルの位置を識別するのに、識別されたタイルに関連するタイル記述情報を使用することができる。次に、フレーム再組立モジュール162は、現行断片を、フレーム再組立バッファ164内の現行フレームの識別された位置にコピーする。フレーム再組立バッファ164は、再組立のさまざまな状態で1つまたは複数のフレームを格納することができる。
上で述べたように、現行フレームがIフレームである場合には、現行フレームに関連する断片が1つだけある場合がある。さらに、現行フレームがIフレームである場合には、現行フレームに関連する断片が、フレーム全体を占める場合がある。その一方で、現行フレームがPフレームまたはBフレームである場合には、現行フレームに関連する複数のフレームがある場合がある。現行断片を現行フレーム内の識別された位置にコピーすることは、効果的に、タイルの識別された組に関連する位置にある、現行フレームの部分を更新する。現行フレーム内の識別された位置に現行断片をコピーすることは、識別されたタイルの外側に含まれるフレーム再組立バッファ164内のパーティションを変更しない。あるフレームに関連するすべての断片をそのフレームの適当な位置にコピーすることによって、フレーム再組立モジュール162は、効果的に、現行フレームの情報のすべてを含むようにフレームを更新する。
フレーム再組立モジュール162が、現行フレームの識別された位置に現行断片をコピーした後に、フレーム再組立モジュール162は、現行フレームに関連するすべての断片が現行フレームにコピーされたかどうかを判定することができる。現行フレームに関連するすべての断片が現行フレームにコピーされている場合には、フレーム再組立モジュール162は、複数の断片が出会う現行フレーム内の画素に平滑化フィルタを適用することができる。これらの画素に対する平滑化の適用は、異なる断片からの画素の間の視覚的不連続性を減らすことができる。したがって、平滑化フィルタは、別々のブロックとしての異なる断片の可能な外見を効果的に減らすことができる。平滑化フィルタを適用した後に、フレーム再組立モジュール162は、現行フレームを出力することができる。そうではなく、現行フレームに関連するすべての断片が現行フレームにコピーされてはいない場合には、フレーム再組立モジュール162は、別の再構成された断片を受け取ることができる。
復号器18の他の実施態様は、フレーム再組立モジュール162またはフレーム再組立バッファ164を含まなくてもよい。これらの実施態様では、ポストプロセッサ20が、完全なビデオフレームではなく参照バッファ158に格納された断片に対して後処理動作を実行することができる。たとえば、ポストプロセッサ20は、断片に対してデブロッキング動作を実行することができる。さらに、これらの実施態様では、ポストプロセッサ20は、断片を完全なビデオフレームに再組立することができる。たとえば、ポストプロセッサ20は、フレームレートアップコンバージョンを実行するのに断片を使用することができる。フレームレートアップコンバージョンでは、ポストプロセッサ20は、フレームのシーケンス内の各既存フレームの間に1つまたは複数のフレームを追加することができ、これによって、フレームのシーケンスのフレームレートを増やすことができる。複数の既存フレームの間にフレームを追加するために、ポストプロセッサ20は、断片に基づいて既存フレームの間のフレーム内のタイルについて動き補償を実行することができる。たとえば、ポストプロセッサ20は、生成されるフレーム(すなわち、現行フレーム)の断片内でパーティションが有するはずの位置を識別するのに、生成されるフレームに続くフレーム(すなわち、後続フレーム)の断片内のパーティションの動きベクトルを使用することができる。現行フレームの断片は、後続フレームの断片のすべてのパーティションに関してそのような動き補償を実行することから生じるものとすることができる。その後、ポストプロセッサ20は、現行フレームに先行するフレーム(すなわち、先行フレーム)に断片を加算することによって、現行フレームを完成させることができる。さらに、いくつかの情況で、このフレームレートアップコンバージョン技法を、伝統的な符号化および復号の方法論の背景で実践できることを了解されたい。これらの情況では、ポストプロセッサ20は、フレームのシーケンス内の追加フレームを生成するために、復号器から完全な復号されたビデオフレームを受け取り、ビデオフレーム内のタイルを識別し、タイルに基づいて断片を抽出し、その後、断片に対してフレームレートアップ動作を実行することができる。さらに、バッファ充てんモジュール22も、断片をビデオフレームに再組立することができる。下で詳細に説明するように、図13は、バッファ充てんモジュール22が断片を完全なビデオフレームに再組立するのに使用できる例示的動作を示す。
図8Aおよび8Bは、復号器18(図7)内のモジュールの例示的な動作を示す流れ図である。当初に、図8Aの例の動作では、エントロピ復号ユニット150は、現行断片に関連する量子化された係数の符号化された組、現行断片のパーティションに関連する動きデータの符号化された組、断片識別情報、およびタイル記述情報を含むメディアオブジェクトを受け取ることができる(180)。量子化された係数の符号化された組および動きデータの符号化された組を受け取った後に、エントロピ復号ユニット150は、量子化された係数の符号化された組、動きデータの符号化された組、断片識別情報、およびタイル記述情報を復号することができる(182)。
その後、逆量子化モジュール152は、現行断片に関連する量子化された係数の復号された組に対して逆量子化動作を実行することができる(184)。量子化された係数の復号された組に対する逆量子化動作の実行は、現行断片に関連する係数の逆量子化された組をもたらす。次に、逆変換モジュール156は、現行断片に関連する係数の逆量子化された組に対して逆変換動作を実行することができる(186)。係数の逆量子化された組に対する逆変換動作の実行は、現行断片に関連する残差ピクチャをもたらす。
逆変換モジュール156が逆変換動作を実行した後に、あるいは逆量子化モジュール152が逆量子化動作を実行しつつある間または逆変換モジュール156が逆変換動作を実行しつつある間に、動き補償ユニット154は、現行断片に関連する予測断片を識別するのに動きデータの復号された組を使用する(188)。次に、断片再構成モジュール160は、現行断片に関連する予測ピクチャと現行断片に関連する残差ピクチャとを加算することによって、現行断片に関連する再構成された断片を生成する(190)。断片再構成モジュール160が再構成された断片を生成した後に、断片再構成モジュール160は、再構成された断片が参照断片として使用可能であるかどうかを判定することができる(191)。断片再構成モジュール160が、再構成された断片が参照断片として使用可能であると判定する場合には(191の「YES」)、断片再構成モジュール160は、再構成された断片を参照バッファ158に格納することができる(192)。断片再構成モジュール160が再構成された断片を参照バッファ158に格納した後に、断片再構成モジュール160は、再構成された断片をフレーム再組立モジュール162に供給することができる(194)。その一方で、断片再構成モジュール160が、再構成された断片が参照断片として使用可能ではないと判定する場合には(191の「NO」)、断片再構成モジュール160は、再構成された断片をフレーム再組立モジュール162に直接に供給することができる(194)。断片再構成モジュール160が再構成された断片をフレーム再組立モジュール162に供給した後に、エントロピ復号ユニット150は、量子化された係数の別の符号化された組および動きデータの別の符号化された組を復号することができる(182)。
図8Bは、フレーム再組立モジュール162の例示的な動作を示す流れ図である。当初に、フレーム再組立モジュール162は、現行フレームに関連する断片を断片再構成モジュール160から受け取る(200)。説明のために、この受け取られる断片を、本明細書では「現行断片」と称する。現行断片を受け取った後に、フレーム再組立モジュール162は、現行断片に関連するタイルを識別する(202)。現行断片に関連するタイルを識別した後に、フレーム再組立モジュール162は、識別されたタイルに関連する現行フレーム内の位置に現行断片を格納する(204)。現行フレーム内の位置への現行断片の格納は、効果的に、現行断片を現行フレームに「はめ込む」ことができる。
フレーム再組立モジュール162が、タイルの識別された組に関連する現行フレーム内の位置に現行断片を格納した時に、フレーム再組立モジュール162は、現行フレームに関連するすべての断片が現行フレームにコピーされたかどうかを判定することができる(206)。現行フレームに関連するすべての断片が現行フレームにコピーされている場合には(206の「YES」)、フレーム再組立バッファ164は、現行フレームを出力することができる(208)。現行フレームを出力した後に、フレーム再組立モジュール162は、ループバックし、現行フレームの断片をもう一度受け取ることができる(200)。そうではなく、現行フレームに関連するすべての断片が現行フレームにコピーされてはいない場合には(206の「NO」)、フレーム再組立モジュール162は、ループバックし、別の断片を受け取ることができる(200)。
図9は、プリプロセッサ10(図1)の例示的な詳細を示すブロック図である。図9の例では、プリプロセッサ10は、フレーム入力バッファ220を含む。フレーム入力バッファ220は、ビデオフレームの1つまたは複数の非符号化シーケンスを受け取り、格納することができる。さらに、プリプロセッサ10は、デインタレーシング動き推定モジュール(「DIMEM」)221を含むことができる。DIMEM 221を、インタレース式ビデオフレームをデインターフェースするプロセスの一部として使用することができる。たとえば、偶数番号のフレームは、偶数番号の行のビデオデータを含むことができ、奇数番号のフレームは、奇数番号の行のビデオデータを含むことができる。この例では、DIMEM 221は、現行偶数番号フレームに続く奇数番号インタレース式フレーム内のブロックごとに次のステップを実行することによって、デインタレースされた偶数番号のフレームについてデインタレーシング動き推定動作を実行することができる。
(1)現行ブロックを近似するブロックについて、現行ブロックに伴う先行する奇数番号のインタレース式フレーム内のブロックの周囲の先行する奇数番号のインタレース式フレームの区域を探索し、
(2)そのようなブロックが見つかる場合には、識別されたブロックと現行ブロックとの間の変位を示す動きベクトルを生成する。
同様に、この例では、DIMEM 221は、現行奇数番号フレームに続く偶数番号フレーム内のブロックごとに次のステップを実行することによって、デインタレースされた奇数番号のフレームについてデインタレーシング動き推定動作を実行することができる。
(1)現行ブロックを近似するブロックについて現行ブロックに伴う先行する偶数番号のフレーム内のブロックの周囲の先行する偶数番号のフレームの区域を探索し、
(2)そのようなブロックが見つかる場合には、識別されたブロックと現行ブロックとの間の変位を示す動きベクトルを生成する。
プリプロセッサ10内のタイル識別モジュール222は、フレーム入力バッファ220に格納されたビデオフレームのシーケンス内のビデオフレームのタイルの組を識別するのに、DIMEM 221によって生成された動きベクトルを使用することができる。タイル識別モジュール190に似て、タイル識別モジュール222は、ビデオフレームのシーケンス内のビデオフレームのタイルの組を識別するのにさまざまな技法を使用することができる。たとえば、タイル識別モジュール222は、ビデオフレームのシーケンス内のビデオフレームごとにパーティションアクティビティマップを生成することができる。この例では、その後、タイル識別モジュール222は、コンポジットパーティションアクティビティマップを生成するのにパーティションアクティビティマップを使用することができる。次に、タイル識別モジュール222は、pフレームまたはbフレームとして符号化されるべきビデオフレームのそれぞれのタイルの1つまたは複数の組を識別するのに、コンポジットパーティションアクティビティマップを使用することができる。タイル識別モジュール222は、タイル識別モジュール190に似た形で、タイルの1つまたは複数の組を識別するのにコンポジットパーティションアクティビティマップを使用することができる。タイル識別モジュール222がタイルの組を識別する時に、タイル識別モジュール222は、タイルの組のタイル記述情報を生成することができる。タイル記述情報は、タイル組インデックス値、フレーム内のタイルの組の位置、およびタイルの形状を示すことができる。
タイル識別モジュール222が、フレームのタイルの組を識別し、関連するタイル記述情報を生成した後に、プリプロセッサ10内の断片抽出モジュール224は、各フレームから、識別されたタイルに関連する断片を抽出することができる。断片抽出モジュール224が、タイルの識別された組のうちの1つに含まれるタイルに関連する断片を抽出する時に、断片抽出モジュール224は、その断片の断片識別情報を生成することができる。断片の断片識別情報は、断片がそこから抽出されたフレーム番号と、断片に関連するタイルがそのメンバであるタイルの組に関連するタイル組インデックス値とを指定することができる。次に、断片抽出モジュール224は、抽出された断片およびタイル識別情報を断片バッファ226に格納することができる。
断片抽出モジュール224が、抽出された断片を断片バッファ226に格納した後に、一連の前処理動作モジュール228Aから228N(集合的に「前処理動作モジュール228」)は、抽出された断片に対してビデオ前処理動作を実行することができる。たとえば、前処理動作モジュール228Aは、コントラスト調整動作を実行することができ、前処理動作モジュール228Bは、ノイズリダクション動作を実行することができ、前処理動作モジュール228のうちの他のものは、他のビデオ前処理動作を実行することができる。前処理動作モジュール228のうちの最後の1つが断片に対して最後のビデオ前処理動作を実行した後に、前処理動作モジュール228のうちのこの最後の1つは、結果の断片を、結果の断片に関連する断片識別情報と一緒に前処理済み断片バッファ230に格納することができる。
前処理動作モジュール228のうちの最後の1つが結果の断片を前処理済み断片バッファ230に格納した後に、デインタレーシング動き補償モジュール(DIMCM)229は、断片をデインタレースする動作を実行することができる。たとえば、結果の断片が偶数番号のフレームに関連する場合に、DIMCM 229は、偶数番号のフレームに関連するデインタレースされた断片を生成するために、断片の各パーティションに対して次のステップを実行することができる。
(1)前処理済み断片バッファ230に格納された断片のパーティションを識別するのに現行パーティションの動きベクトルを使用し、
(2)現行パーティションの動きベクトルに沿った中間点を判定し、
(3)識別された中間点に最も近い奇数番号の線上の位置にある現行偶数番号断片に現行パーティションの動きベクトルによって識別されるパーティションを加算し、
(4)現行パーティションが動きベクトルを有しない場合には、現行パーティションの現行位置にある現行偶数番号フレームの奇数番号線に現行パーティションをコピーする。
同様に、結果の断片が奇数番号のフレームに関連する場合に、DIMCM 229は、奇数番号のフレームに関連するデインタレースされた断片を生成するために、断片の各パーティションに対して次のステップを実行することができる。
(1)前処理済み断片バッファ230に格納された断片のパーティションを識別するのに現行パーティションの動きベクトルを使用し、
(2)現行パーティションに関連する動きベクトルに沿った中間点を判定し、
(3)識別された中間点に最も近い偶数番号の線上の位置の中間点にある現行奇数番号フレームに現行パーティションに関連する動きベクトルによって示されるパーティションを加算し、
(4)現行パーティションが動きベクトルを有しない場合には、現行断片の現行位置にある現行断片の偶数番号線に現行パーティションをコピーする。
これらのステップに対する多数の変形形態が可能であることを了解されたい。このプロセスの終りに、DIMCM 229は、デインタレースされた断片の組を生成し終える。
図9の例に示されているように、プリプロセッサ10は、フレーム再組立モジュール232をも含むことができる。フレーム再組立モジュール232は、前処理済みピクチャバッファ230内のデインタレースされた断片を完全なデインタレースされたビデオフレームに再組立する。フレーム再組立モジュール232は、図8Bに示されたフレーム再組立モジュール162の例示的動作と同一またはこれに似た動作を使用して、前処理済みピクチャバッファ230内の断片を再組立することができる。フレーム再組立モジュール232が前処理済みピクチャバッファ230内のデインタレースされた断片を完全なデインタレースされたビデオフレーム/スライスに再組立した後に、フレーム再組立モジュール232は、完全なデインタレースされたビデオフレーム/スライスを符号器16に出力することができる。
いくつかの実施態様では、プリプロセッサ10は、フレーム再組立モジュール232を含まない。そうではなく、DIMCM 229がデインタレースされた断片を生成する時に、DIMCM 229は、結果の断片ならびに関連する断片識別情報およびタイル識別情報を符号器16に直接に出力することができる。さらに、これらの実施態様では、符号器16は、パーティションマップモジュール36、マップバッファ38、タイル識別モジュール40、または断片抽出モジュール42を含まないものとすることができる。これらの実施態様では、符号器16は、従来の符号器として動作し、プリプロセッサ10によって供給される各断片を別々の従来のビデオフレームとして符号化することができる。しかし、これらの実施態様では、出力モジュール58が断片の1つに関連する符号化されたデータを出力する時に、出力モジュール58は、断片のその1つに関するプリプロセッサ10によって生成された断片識別情報を出力することができる。さらに、出力モジュール58は、プリプロセッサ10によって生成されたタイル記述情報を出力することができる。
図10は、プリプロセッサ10(図9)の例示的な動作を示す流れ図である。当初に、プリプロセッサ10は、ビデオフレームのシーケンスを受け取る(250)。プリプロセッサ10が、インタレース式ビデオフレームのシーケンスを受け取る時に、プリプロセッサ10は、インタレース式ビデオフレームのシーケンスをフレーム入力バッファ220に格納することができる(252)。次に、DIMEM 221は、デインタレーシング動き推定動作を実行することができる(253)。DIMEM 221がデインタレーシング動き推定動作を実行する時に、DIMEM 221は、動きベクトルを生成することができる。タイル識別モジュール222は、ビデオフレームのシーケンス内のビデオフレームのタイルの組を識別するのに動きベクトルを使用することができる(254)。タイル識別モジュール222がビデオフレームのシーケンスのタイルの組を識別した後に、タイル識別モジュール222は、タイルの組のそれぞれのタイル記述情報を生成することができる(255)。
次に、断片抽出モジュール224は、識別されたタイルに関連する断片をビデオフレームのシーケンス内の各ビデオフレームから抽出することができる(256)。断片を抽出した後に、断片抽出モジュール224は、抽出された断片のそれぞれの断片識別情報を生成することができる(258)。次に、断片抽出モジュール224は、抽出された断片を断片バッファ226に格納することができる(260)。
断片抽出モジュール224が抽出された断片を断片バッファ226に格納した後に、前処理動作モジュール228は、断片に対して1つまたは複数の前処理動作を実行することができる(262)。次に、前処理動作モジュール228のうちの最後の1つは、結果の前処理された断片を前処理済み断片バッファ230に格納することができる(263)。次に、DIMCM 229は、前処理済み断片バッファ230に格納された参照断片に基づいて、現行ビデオフレームのタイルに関するデインタレーシング動き補償動作を実行することができる(264)。デインタレーシング動き補償動作の結果として、DIMCM 229によって作られる断片は、デインタレースされる。次に、フレーム再組立モジュール232は、前処理済みピクチャバッファ230内のデインタレースされた前処理された断片を完全なビデオフレーム/スライスに再組立することができる(266)。いくつかの実施態様では、ステップ266を省略できることを理解されたい。
図11は、復号器18(図1)の例示的な詳細の代替の組を示すブロック図である。図11の例では、復号器18は、完全なビデオフレームを含むメディアオブジェクトを受け取る。たとえば、復号器18は、伝統的に符号化されたH.264/AVCデータ、MPEG−4、または別のメディアコーディング標準規格を含むメディア流れまたはメディアファイルを受け取ることができる。図2に示された符号器16の例示的な詳細は、ビデオフレームの断片を含むメディアオブジェクトを出力するので、図11に示された復号器18の例示的詳細は、図2に示された符号器16の例示的詳細と互換でない場合がある。
図11の例では、復号器18がメディアオブジェクトを受け取る時に、エントロピ復号ユニット150は、メディアオブジェクト内で符号化されたビデオフレームのタイルの1つまたは複数の組に関連するメディアオブジェクトの諸部分を識別するのに1つまたは複数の動作を実行することができる。メディアオブジェクトのこれらの部分を識別した後に、エントロピ復号ユニット150は、メディアオブジェクトの識別された部分を復号することができる。この形で、エントロピ復号ユニット150は、ビデオフレームおよび動きデータの残りの部分を符号化されたままにしながら、断片の組およびそれらの断片に関連する動きデータを復号することができる。
受け取られたメディアオブジェクトの符号化フォーマットおよびおそらくは他の要因に応じて、エントロピ復号ユニット150は、さまざまな形でこれらの動作を実行することができる。たとえば、メディアオブジェクトは、そのメディアオブジェクトに関する全般的情報(たとえば、フレームレート、フレームのサイズなど)を示す符号化されたシーケンスヘッダを含むことができる。さらに、この例では、メディアオブジェクトは、ビデオデータの特定のスライスに関する情報(たとえば、スライスの位置、スライス内のパーティションの個数など)を示す符号化されたスライスヘッダを含むことができる。メディアオブジェクトは、特定のパーティションに関する情報(たとえば、動きデータ、パーティションに関連する量子化された係数の符号化された組内のデータのビット数など)を示す符号化されたパーティションヘッダをも含むことができる。図11の例に示されているように、エントロピ復号ユニット150は、シーケンスヘッダ復号モジュール280を含むことができる。シーケンスヘッダ復号モジュール280は、メディアオブジェクト内のシーケンスヘッダに対してエントロピ復号動作を実行することができる。次に、スライスヘッダ復号モジュール284は、符号化されたスライスヘッダを表すメディアオブジェクトの部分を識別するのに、復号されたシーケンスヘッダのうちの1つまたは複数を使用する。符号化されたスライスヘッダを表すメディアオブジェクトの部分を識別した後に、スライスヘッダ復号モジュール284は、入力メディアオブジェクトの符号化されたスライスヘッダに対してエントロピ復号動作を実行する。パーティションヘッダ復号モジュール286は、符号化されたパーティションヘッダを表すメディアオブジェクトの部分を識別するのに、復号されたスライスヘッダを使用する。符号化されたパーティションヘッダを表すメディアオブジェクトの部分を識別した後に、パーティションヘッダ復号モジュール286は、入力メディア流れの符号化されたパーティションヘッダに対してエントロピ復号動作を実行する。
前の段落の例を続けると、次に、エントロピ復号ユニット150内のタイル識別モジュール288は、タイルに関連する符号化されたビデオフレームの符号化されたパーティションを識別するのに、復号されたパーティションヘッダを使用することができる。たとえば、タイル識別モジュール288は、メディアオブジェクト内のビデオフレームのシーケンス内のビデオフレームのパーティションアクティビティマップを生成するのに、パーティションヘッダ内で示される動きデータを使用することができる。次に、タイル識別モジュール288は、コンポジットパーティションアクティビティマップを生成するのにパーティションアクティビティマップを使用することができる。次に、タイル識別モジュール288は、タイル識別モジュール90およびタイル識別モジュール222に関して上で説明した形で、PフレームまたはBフレームとして復号されるビデオフレームのシーケンス内のビデオフレームのタイルの1つまたは複数の組を識別するのにコンポジットパーティションアクティビティマップを使用することができる。タイル識別モジュール288がタイルの組を識別した後に、タイル識別モジュール288は、タイルの組のタイル記述情報を生成することができる。前に言及したタイル記述情報に似て、タイル識別モジュール288によって生成されるタイル記述情報は、タイル組インデックス値、タイルの位置などを示すことができる。
タイル識別モジュール288が、タイルの1つまたは複数の組を識別した時に、パーティションデータ復号モジュール290は、フレームごとに、タイルの識別された組のうちの1つの組のタイル内にある各符号化されたパーティションにエントロピ復号動作を適用することができる。この例では、パーティション復号モジュール290は、タイル内にあるのではない符号化されたパーティションにはエントロピ復号動作を適用しない。この形で、パーティションデータ復号モジュール290は、各フレーム内のタイルごとに量子化された係数の組を復号する。「断片」は、1つのタイル内に含まれるピクチャなので、パーティションデータ復号モジュール290は、効果的に、異なる断片に関連する量子化された係数の組を復号する。パーティションデータ復号モジュール290が、断片に関連する量子化された係数の組を復号した後に、パーティション復号モジュール290は、断片の断片識別情報の組を生成する。前に言及した断片識別情報に似て、パーティションデータ復号モジュール290によって生成される断片識別情報は、断片が示されたフレームから抽出されたことを示すフレームインデックス値と、断片がタイルの特定の組のタイル内に含まれるピクチャであることを示すタイル組インデックス値とを示すことができる。
図11の例では、逆量子化モジュール292は、現行断片に関連する量子化された係数の組に対して逆量子化動作を実行することによって、逆量子化された係数の組を生成することができる。次に、逆変換モジュール294は、現行断片に関連する逆量子化された係数の組に対して逆変換動作を実行することによって、現行断片に関連する復号された残差ピクチャを生成することができる。さらに、動き補償ユニット296は、参照バッファ298内の参照断片と現行断片に関連する動きデータとを使用して、現行断片に関連する予測断片を生成することができる。動き補償ユニット296が、現行断片に関連する予測断片を生成し、逆変換モジュール294が、現行断片に関連する復号された残差断片を生成した後に、断片再構成モジュール300は、予測断片および復号された残差断片を加算することによって、現行断片に関連する再構成された断片を生成することができる。次に、断片再構成モジュール300は、再構成された断片を参照バッファ298に格納することができる。
図11の例には示されていないが、復号器18は、参照バッファ298に格納された断片から完全なフレームを再構成するフレーム再構成モジュールを含むことができる。このフレーム再構成モジュールは、参照バッファ298に格納された断片から完全なフレームを再構成するのに、図8Bに示された例示的な動作を使用することができる。
図12は、図11に提示された復号器18の代替実施態様の例示的な動作を示す流れ図である。当初に、エントロピ復号ユニット150は、ビデオフレームの符号化されたシーケンスを含むを含むメディアオブジェクトを受け取る(310)。次に、エントロピ復号ユニット150内のシーケンスヘッダ復号モジュール280は、メディアオブジェクト内のシーケンスヘッダに対してエントロピ復号動作を実行する(312)。次に、スライスヘッダ復号モジュール284は、メディアオブジェクト内のスライスヘッダの位置を識別するのに、復号されたパーティションヘッダを使用することができる(314)。次に、スライスヘッダ復号モジュール284は、識別されたスライスヘッダを復号することができる(316)。次に、パーティションヘッダ復号モジュール286は、メディアオブジェクト内のパーティションヘッダの位置を識別するのに、復号されたスライスヘッダを使用することができる(318)。次に、パーティションヘッダ復号モジュール286は、識別されたパーティションヘッダを復号することができる(320)。
パーティションヘッダ復号モジュール286が、識別されたパーティションヘッダを復号した後に、タイル識別モジュール288は、ビデオフレームのシーケンス内のビデオフレームのタイルの組を識別するのに、復号されたパーティションヘッダを使用する(322)。上で述べたように、タイル識別モジュール288は、ビデオフレームのシーケンスのビデオフレームのタイルの組を識別するのに、さまざまな異なる技法を使用することができる。代替実施態様では、タイル識別モジュール288は、メディアオブジェクトは別々の、タイルの組を示すデータを受け取ることができる。タイル識別モジュール288は、ビデオフレームのシーケンス内のビデオフレームのタイルの組を識別するのに、このデータを使用することができる。タイル識別モジュール288が、タイルの組を識別した後に、タイル識別モジュール288は、タイルの識別された組のそれぞれのタイル記述情報を生成することができる(324)。
次に、パーティションデータ復号モジュール290は、識別されたタイル内にあるパーティションの符号化された版を復号する(326)。パーティションの符号化された版の復号の結果として、パーティションデータ復号モジュール290は、異なる断片に関連する量子化された係数の組を生成している。パーティションデータ復号モジュール290が、パーティションの符号化された版を復号した後に、パーティションデータ復号モジュール290は、復号されたパーティションデータ、動きデータ、ピクチャ識別情報(「PII」)、およびタイル記述情報(「TDI」)を出力することができる(330)。
図13は、ディスプレイバッファ24に断片を格納するためのバッファ充てんモジュール22(図1)の例示的な動作を示す流れ図である。この動作を実行する時に、バッファ充てんモジュール22は、効果的にフレーム再組立モジュールとして働く。
図13の例の動作によれば、ディスプレイバッファ24は、3つのバッファすなわちB0、B1、およびB2を含む。この3つのバッファの使用は、バッファ充てんモジュール22が、ディスプレイバッファB0、B1、およびB2内で完全なフレームを再構成することを可能にすることができる。したがって、バッファ充てんモジュール22が、図13の例示的動作を使用する時には、復号モジュール18がフレーム再組立モジュール162を含むかこれを使用することが不必要である場合がある。
当初に、バッファ充てんモジュール22は、フレームFXに関連する断片の組を断片バッファから取り出す(350)。フレームFXに関連する断片の組を取り出した後に、バッファ充てんモジュール22は、フレームFXがビデオフレームのシーケンスの最初のフレームであるかどうかを判定する(352)。
バッファ充てんモジュール22が、FXがビデオフレームのシーケンスの最初のフレームであると判定する場合には(352の「YES」)、バッファ充てんモジュール22は、フレームFXに関連する断片のそれぞれをバッファB(X mod 3)に書き込む(354)。フレームFXに関連する断片のそれぞれをバッファB(X mod 3)内の適当な位置に書き込むために、バッファ充てんモジュール22は、断片に関連するタイル記述情報を識別するのに、断片に関連する断片識別情報を使用することができる。次に、バッファ充てんモジュール22は、バッファB(X mod 3)内の適当な位置を識別するのにタイル記述情報内で示される位置を使用することができる。
次に、バッファ充てんモジュール22は、バッファB(X mod 3)の内容をバッファB((X+1) mod 3)にコピーする(356)。バッファ充てんモジュール22が、バッファB(X mod 3)の内容をバッファB((X+1) mod 3)にコピーした後に、ディスプレイユニット26は、バッファB((X+2) mod 3)の内容を表示することができる(358)。ディスプレイユニット26が、バッファB((X+2) mod 3)の内容を表示した後に、バッファ充てんモジュール22は、Xの値をインクリメントすることができる(360)。その後、バッファ充てんモジュール22は、ループバックし、フレームFXに関連する断片を取り出すことができる(350)。バッファ充てんモジュール22は、Xをインクリメントしたので、バッファ充てんモジュール22は、バッファ充てんモジュール22が前にディスプレイバッファ24に追加したフレームに続くフレームに関連する断片を取り出す。
その一方で、バッファ充てんモジュール22が、フレームFXがビデオフレームのシーケンスの最初のフレームではないと判定する場合には(352の「NO」)、バッファ充てんモジュール22は、フレームFXに関連する断片のそれぞれをバッファB(X mod 2)内の適当な位置に書き込む(362)。バッファ充てんモジュール22が、フレームFXに関連する断片のそれぞれをバッファB(X mod 2)内の適当な位置に書き込んだ後に、ディスプレイユニット26は、バッファB((X+1) mod 2)の内容を表示することができる(364)。ディスプレイユニット26が、バッファB((X+1) mod 2)の内容を表示した後に、バッファ充てんモジュール22は、Xの値をインクリメントすることができる(360)。その後、バッファ充てんモジュール22は、ループバックし、フレームFXに関連するピクチャを取り出すことができる(350)。
本開示は、3つのバッファを参照して図13を説明するが、より多数のバッファを用いる動作が存在し得ることに留意されたい。
本明細書で説明された技法を、ハードウェア、ソフトウェア、ファームウェア、またはその任意の組合せで実施することができる。モジュールまたはコンポーネントとして説明されたすべての特徴を、一体化された論理デバイス内で一緒にまたは別個だがインターオペラブルな論理デバイスとして別々に実施することができる。ソフトウェアで実施される場合に、本技法を、実行された時に上で説明した方法のうちの1つまたは複数を実行する命令を備えるコンピュータ可読媒体によって少なくとも部分的に実現することができる。コンピュータ可読媒体は、パッケージング材料を含むことができるコンピュータプログラム製品の一部を形成することができる。コンピュータ可読媒体は、シンクロナスダイナミックランダムアクセスメモリ(SDRAM)などのランダムアクセスメモリ(RAM)、読取り専用メモリ(ROM)、不揮発性ランダムアクセスメモリ(NVRAM)、電気的消去可能プログラマブル読取り専用メモリ(EEPROM)、フラッシュメモリ、磁気または光のデータ記憶媒体、および類似物を備えることができる。本技法を、それに加えてまたはその代わりに、命令またはデータ構造の形のコードを担持するか通信し、コンピュータによってアクセスし、読み取り、かつ/または実行することのできる、コンピュータ可読通信媒体によって少なくとも部分的に実現することができる。
コードを、1つまたは複数のディジタル信号プロセッサ(DSP)、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、または他の同等の集積回路もしくはディスクリート論理回路など、1つまたは複数のプロセッサによって実行することができる。したがって、用語「プロセッサ」は、本明細書で使用される時に、本明細書で説明される技法の実施態様に適切な、前述の構造または任意の他の構造のいずれをも指すことができる。さらに、いくつかの態様では、本明細書で説明した機能性を、符号化および復号のために構成され、または組み合わされたビデオ符号器−復号器(コーデック)内に組み込まれる、専用のソフトウェアモジュールまたはハードウェアモジュール内で提供することができる。
さまざまな実施態様を説明した。たとえば、実施態様を、ビデオフレームに関して説明した。しかし、前述の説明および後続の特許請求の範囲は、ビデオスライスまたは任意のキャプチャレートでスチールカメラから来る時の連続イメージの組に適用可能とすることもできる。さらに、断片参照ピクチャを使用するビデオフレームの符号化および復号の技法を、主に動き補償コーディング技法の背景で説明した。しかし、本明細書で説明された断片参照ピクチャの使用は、スケーリング、エッジ強調、または類似物など、他の処理またはコーディングの背景でも使用され得る。したがって、参照断片のうちの1つまたは複数に基づく現行ビデオフレームの現行タイルの動き補償の実行として本明細書で説明されたユニット、モジュール、または回路網を、その代わりに、参照断片のうちの1つまたは複数に基づいて現行ビデオフレームの現行タイルのスケーリングまたはエッジ強調(またはおそらくは別のビデオ処理技法)を実行するユニット、モジュール、または回路網とすることができる。上記および他の実施態様は、特許請求の範囲に含まれる。
以下は、出願当初に記載されていた請求項を付記したものである。
(1)
ビデオフレームのシーケンス内のビデオフレームのタイルの組に関連するビデオデータを備える参照断片、ここでタイルの前記組内の各タイルはそれぞれのビデオフレームのパーティションの部分集合を表す、を格納することと、
前記参照断片のうちの1つまたは複数に基づいて現行ビデオフレームの現行タイルについて動き補償を実行することと
を備える方法。
(2)
前記現行タイルは、タイルの前記組内の前記タイルと同一位置に置かれ、
前記方法は、タイルの前記組を自動的に識別することをさらに備え、
タイルの前記組を自動的に識別することは、
前記ビデオフレームのそれぞれ内のアクティブパーティションの組を識別することと、
前記ビデオフレームのうちの各所与の1つについて、前記ビデオフレームのうちの前記所与の1つのタイルであって、前記ビデオフレームのうちの前記所与の1つのアクティブパーティションの前記識別された組を含む、タイルと、前記ビデオフレームのうちの他の1つのアクティブパーティションの前記識別された組内のアクティブパーティションと同一位置に置かれる前記ビデオフレームの前記所与の1つのパーティションと、を識別することと
を備える
(1)の方法。
(3)
動き補償の実行は、前記現行ビデオフレームの前記現行タイルに関連する予測断片を生成することを備え、
前記方法は、
前記現行ビデオフレームから前記現行タイルに関連する断片を抽出することと、
前記現行ビデオフレームの前記現行タイルに関連する残差断片を生成するのに、前記抽出された断片および前記予測断片を使用することと、
係数の組を生成するために前記残差断片に対して変換を実行することと、
係数の前記組を量子化し、それによって、量子化された係数の組を生成することと、
量子化された係数の前記組をエントロピ符号化することと、
量子化された係数の前記エントロピ符号化された組をメディアオブジェクトの一部として出力することと、
量子化された係数の前記組を逆量子化し、それによって、係数の逆量子化された組を生成することと、
復号された残差断片を生成するために、係数の前記逆量子化された組に対して前記変換の逆を実行することと、
前記予測断片および前記復号された残差断片を使用して、再構成された断片を生成することと、
参照断片としての使用のために前記再構成された断片を格納することと
をさらに備える
(1)の方法。
(4)
動き補償を実行することは、前記現行ビデオフレームの前記現行タイルに関連する予測断片を生成することを備え、
前記方法は、
前記現行ビデオフレームの前記現行タイルに関連するデータの組を含むメディアオブジェクトを受け取ることと、
データの前記組に基づいて残差断片を生成することと、
前記現行ビデオフレームの前記現行タイルに関連する再構成された断片を生成するのに前記予測断片および前記残差断片を使用することと、
前記現行ビデオフレームを再構成するのに前記再構成された断片を使用することと
をさらに備える
(1)の方法。
(5)
前記現行ビデオフレームを再構成するのに前記再構成された断片を使用することは、前記再構成された断片が、前記現行ビデオフレームの前記現行タイルと同一位置に置かれた以前に復号された完全なビデオフレームのタイル内に指定されるように、前記以前に復号された完全なビデオフレームを変更することを備える、(4)の方法。
(6)
前記参照断片は、インタレース式であり、
前記現行タイルについて動き補償を実行することは、前記参照断片のうちの1つまたは複数に基づいて前記現行タイルについてデインタレーシング動き補償を実行することを備える
(1)の方法。
(7)
ビデオフレームの前記シーケンスのフレームレートを増やす動作の一部としてビデオフレームの前記シーケンス内の2つのビデオフレームの間に前記現行ビデオフレームを追加することをさらに備える、(1)の方法。
(8)
ビデオフレームのシーケンス内のビデオフレームのタイルの組に関連するビデオデータを備える参照断片、ここでタイルの前記組内の各タイルはそれぞれのビデオフレームのパーティションの部分集合を表す、を格納する参照バッファと、
前記参照断片のうちの1つまたは複数に基づいて現行ビデオフレームの現行タイルについて動き補償を実行する動き補償ユニットと
を備えるデバイス。
(9)
前記現行タイルは、タイルの前記組内の前記タイルと同一位置に置かれ、
前記デバイスは、タイルの前記組を自動的に識別するタイル識別モジュールをさらに備え、
前記タイル識別モジュールは、
前記ビデオフレームのそれぞれ内のアクティブパーティションの組を識別するパーティションアクティビティモジュールと、
前記ビデオフレームのうちの各所与の1つについて、前記ビデオフレームのうちの前記所与の1つのタイルであって、前記ビデオフレームのうちの前記所与の1つのアクティブパーティションの前記識別された組を含む、タイルと、前記ビデオフレームのうちの他の1つのアクティブパーティションの前記識別された組内のアクティブパーティションと同一位置に置かれる前記ビデオフレームの前記所与の1つのパーティションとを識別するタイル構成モジュールと
を備える
(8)のデバイス。
(10)
前記動き補償ユニットが前記現行タイルについて動き補償を実行する時に、前記動き補償ユニットは、前記現行ビデオフレームの前記現行タイルに関連する予測断片を生成し、
前記デバイスは、
前記現行ビデオフレームから前記現行タイルに関連する断片を抽出する断片抽出モジュールと、
前記現行ビデオフレームの前記現行タイルに関連する残差断片を生成するのに、前記抽出された断片および前記予測断片を使用するモジュールと、
係数の組を生成するために前記残差断片に対して変換を実行するブロック変換ユニットと、
係数の前記組を量子化し、それによって、量子化された係数の組を生成する量子化モジュールと、
量子化された係数の前記組をエントロピ符号化するエントロピ符号化ユニットと、
量子化された係数の前記エントロピ符号化された組をメディアオブジェクトの一部として出力する出力モジュールと、
量子化された係数の前記組を逆量子化し、それによって、係数の逆量子化された組を生成する逆量子化モジュールと、
復号された残差断片を生成するために、係数の前記逆量子化された組に対して前記変換の逆を実行する逆変換ユニットと、
前記予測断片および前記復号された残差断片を使用して、再構成された断片を生成するモジュールと
をさらに備え、
前記参照バッファは、参照断片としての使用のために前記再構成された断片を格納する
(8)のデバイス。
(11)
前記動き補償ユニットが前記現行タイルについて動き補償を実行する時に、前記動き補償ユニットは、前記現行ビデオフレームの前記現行タイルに関連する予測断片を生成し、
前記デバイスは、前記現行ビデオフレームの前記現行タイルに関連するデータの組を含むメディアオブジェクトを受け取り、
前記デバイスは、
データの前記組に基づいて残差断片を生成する復号器と、
前記現行ビデオフレームの前記現行タイルに関連する再構成された断片を生成するのに前記予測断片および前記残差断片を使用するモジュールと、
前記現行ビデオフレームを再構成するのに前記再構成された断片を使用するフレーム再組立モジュールと
をさらに備える
(8)のデバイス。
(12)
前記フレーム再組立モジュールは、前記再構成された断片が前記現行ビデオフレームの前記現行タイルと同一位置に置かれた以前に復号された完全なビデオフレームのタイル内に指定されるように、前記以前に復号された完全なビデオフレームを変更する、(11)のデバイス。
(13)
前記参照断片は、インタレース式であり、
前記動き補償ユニットは、前記参照断片のうちの1つまたは複数に基づいて前記現行タイルについてデインタレーシング動き補償を実行することによって、前記現行タイルについて前記動き補償を実行する
(8)のデバイス。
(14)
ビデオフレームの前記シーケンスのフレームレートを増やす動作の一部としてビデオフレームの前記シーケンス内の2つのビデオフレームの間に前記現行ビデオフレームを追加するポストプロセッサをさらに備える、(8)のデバイス。
(15)
ビデオフレームのシーケンス内のビデオフレームのタイルの組に関連するビデオデータを備える参照断片、ここでタイルの前記組内の各タイルはそれぞれのビデオフレームのパーティションの部分集合を表す、を格納するための手段と、
前記参照断片のうちの1つまたは複数に基づいて現行ビデオフレームの現行タイルについて動き補償を実行するための手段と
を備えるデバイス。
(16)
前記デバイスは、タイルの前記組を自動的に識別するための手段をさらに備え、
タイルの前記組を自動的に識別するための前記手段は、
前記ビデオフレームのそれぞれ内のアクティブパーティションの組を識別するための手段と、
前記ビデオフレームのうちの各所与の1つについて、前記ビデオフレームのうちの前記所与の1つのタイルであって、前記ビデオフレームのうちの前記所与の1つのアクティブパーティションの前記識別された組を含む、タイルと、前記ビデオフレームのうちの他の1つのアクティブパーティションの前記識別された組内のアクティブパーティションと同一位置に置かれる前記ビデオフレームの前記所与の1つのパーティションとを識別するための手段と
を備え、
前記現行タイルは、タイルの前記組内の前記タイルと同一位置に置かれる
(15)のデバイス。
(17)
動き補償を実行するための前記手段が、前記現行タイルに関する動き補償を実行する時に、動き補償を実行するための前記手段は、前記現行ビデオフレームの前記現行タイルに関連する予測断片を生成し、
前記デバイスは、
前記現行ビデオフレームから前記現行タイルに関連する断片を抽出するための手段と、
前記現行ビデオフレームの前記現行タイルに関連する残差断片を生成するのに、前記抽出された断片および前記予測断片を使用するための手段と、
係数の組を生成するために前記残差断片に対して変換を実行するための手段と、
係数の前記組を量子化し、それによって、量子化された係数の組を生成するための手段と、
量子化された係数の前記組をエントロピ符号化するための手段と、
量子化された係数の前記エントロピ符号化された組をメディアオブジェクトの一部として出力するための手段と、
量子化された係数の前記組を逆量子化し、それによって、係数の逆量子化された組を生成するための手段と、
復号された残差断片を生成するために、係数の前記逆量子化された組に対して前記変換の逆を実行するための手段と、
前記予測断片および前記復号された残差断片を使用して、再構成された断片を生成するための手段と、
をさらに備え、
断片の前記組を格納するための前記手段は、参照断片としての使用のために前記再構成された断片を格納する
(15)のデバイス。
(18)
動き補償を実行するための前記手段が、前記現行タイルに関する動き補償を実行する時に、動き補償を実行するための前記手段は、前記現行ビデオフレームの前記現行タイルに関連する予測断片を生成し、
前記デバイスは、前記現行ビデオフレームの前記現行タイルに関連するデータの組を含むメディアオブジェクトを受け取り、
前記デバイスは、
データの前記組に基づいて残差断片を生成するための手段と、
前記現行ビデオフレームの前記現行タイルに関連する再構成された断片を生成するのに、前記現行ビデオフレームの前記現行タイルに関連する前記予測断片および前記残差断片を使用するための手段と、
前記現行ビデオフレームを再構成するのに前記再構成された断片を使用するための手段と
をさらに備える
(15)のデバイス。
(19)
前記現行ビデオフレームを再構成するのに前記再構成された断片を使用するための前記手段は、前記再構成された断片が前記現行ビデオフレームの前記現行タイルと同一位置に置かれた以前に復号された完全なビデオフレームのタイル内で指定されるように、前記以前に復号された完全なビデオフレームを変更する、(18)のデバイス。
(20)
前記参照断片は、インタレース式であり、
動き補償を実行するための前記手段は、前記参照断片のうちの1つまたは複数に基づいて前記現行タイルについてデインタレーシング動き補償を実行することによって、前記現行タイルについて前記動き補償を実行する
(15)のデバイス。
(21)
ビデオフレームの前記シーケンスのフレームレートを増やす動作の一部としてビデオフレームの前記シーケンス内の2つのビデオフレームの間に前記現行ビデオフレームを追加するための手段をさらに備える、(15)のデバイス。
(22)
1つまたは複数のプロセッサによって実行される時に、1つまたは複数のプロセッサに、
ビデオフレームのシーケンス内のビデオフレームのタイルの組に関連するビデオデータを備える参照断片、ここでタイルの前記組内の各タイルは、それぞれのビデオフレームのパーティションの部分集合を表す、を格納することと、
前記参照断片のうちの1つまたは複数に基づいて現行ビデオフレームの現行タイルについて動き補償を実行することと
を行わせる実行可能命令を備えるコンピュータ可読媒体。
(23)
前記命令は、さらに、前記1つまたは複数のプロセッサに、タイルの前記組を自動的に識別させ、
前記命令は、少なくとも部分的に、前記1つまたは複数のプロセッサに、
前記ビデオフレームのそれぞれ内のアクティブパーティションの組を識別することと、
前記ビデオフレームのうちの各所与の1つについて、前記ビデオフレームのうちの前記所与の1つのタイルであって、前記ビデオフレームのうちの前記所与の1つのアクティブパーティションの前記識別された組を含む、タイルと、前記ビデオフレームのうちの他の1つのアクティブパーティションの前記識別された組内のアクティブパーティションと同一位置に置かれる前記ビデオフレームの前記所与の1つのパーティションとを識別することと
を行わせることによって、前記1つまたは複数のプロセッサにタイルの前記組を自動的に識別させ、
前記現行タイルは、タイルの前記組内の前記タイルと同一位置に置かれる
(22)のコンピュータ可読媒体。
(24)
前記命令は、少なくとも部分的に、前記1つまたは複数のプロセッサに前記現行ビデオフレームの前記現行タイルに関連する予測断片を生成させることによって、前記1つまたは複数のプロセッサに動き補償を実行させ、
前記命令はさらに、前記1つまたは複数のプロセッサに
前記現行ビデオフレームから前記現行タイルに関連する断片を抽出することと、
残差断片を生成するのに、前記抽出された断片および前記予測断片を使用することと、
係数の組を生成するために前記残差断片に対して変換を実行することと、
係数の前記組を量子化し、それによって、量子化された係数の組を生成することと、
量子化された係数の前記組をエントロピ符号化することと、
量子化された係数の前記エントロピ符号化された組をメディアオブジェクトの一部として出力することと、
量子化された係数の前記組を逆量子化し、それによって、係数の逆量子化された組を生成することと、
復号された残差断片を生成するために、係数の前記逆量子化された組に対して前記変換の逆を実行することと、
前記予測断片および前記復号された残差断片を使用して、再構成された断片を生成することと、
参照断片としての使用のために前記再構成された断片を格納することと
を行わせる
(22)のコンピュータ可読媒体。
(25)
前記命令は、少なくとも部分的に、前記1つまたは複数のプロセッサに前記現行ビデオフレームの前記現行タイルに関連する予測断片を生成させることによって、前記1つまたは複数のプロセッサに動き補償を実行させ、
前記命令はさらに、前記1つまたは複数のプロセッサに
前記現行ビデオフレームの前記現行タイルに関連するデータの組を含むメディアオブジェクトを受け取ることと、
データの前記組に基づいて残差断片を生成することと、
前記現行フレームに関連する再構成された断片を生成するのに、前記現行ビデオフレームの前記タイルに関連する前記予測断片および前記残差断片を使用することと、
前記現行ビデオフレームを再構成するのに前記再構成された断片を使用することと
を行わせる
(22)のコンピュータ可読媒体。
(26)
前記命令は、少なくとも部分的に、前記1つまたは複数のプロセッサに前記再構成された断片が前記現行ビデオフレームの前記現行タイルと同一位置に置かれた以前に復号された完全なビデオフレームのタイル内で指定されるように、前記以前に復号された完全なビデオフレームを変更させることによって、前記1つまたは複数のプロセッサに、前記現行ビデオフレームを再構成するのに前記再構成された断片を使用させる、(25)のコンピュータ可読媒体。
(27)
前記参照断片は、インタレース式であり、
前記現行タイルについて動き補償を実行することは、前記参照断片のうちの1つまたは複数に基づいて前記現行タイルについてデインタレーシング動き補償を実行することを備える
(22)のコンピュータ可読媒体。
(28)
前記命令はさらに、前記1つまたは複数のプロセッサに、ビデオフレームの前記シーケンスのフレームレートを増やす動作の一部としてビデオフレームの前記シーケンス内の2つのビデオフレームの間に前記現行ビデオフレームを追加させる、(22)のコンピュータ可読媒体。
(29)
ビデオフレームのシーケンス内のビデオフレームのタイルの組に関連するビデオデータを備える参照断片、タイルの前記組内の各タイルは、それぞれのビデオフレームのパーティションの部分集合を表す、を格納する回路網と、
前記参照断片のうちの1つまたは複数に基づいて現行ビデオフレームの現行タイルについて動き補償を実行する回路網と
を備える集積回路。
(30)
前記集積回路は、タイルの前記組を自動的に識別する回路網をさらに備え、
タイルの前記組を自動的に識別する前記回路網は、
前記ビデオフレームのそれぞれ内のアクティブパーティションの組を識別する回路網と、
前記ビデオフレームのうちの各所与の1つについて、前記ビデオフレームのうちの前記所与の1つのタイルであって、前記ビデオフレームのうちの前記所与の1つのアクティブパーティションの前記識別された組を含む、タイルと、前記ビデオフレームのうちの他の1つのアクティブパーティションの前記識別された組内のアクティブパーティションと同一位置に置かれる前記ビデオフレームの前記所与の1つのパーティションとを識別する回路網と
を備え、
前記現行タイルは、タイルの前記組内の前記タイルと同一位置に置かれる
(29)の集積回路。
(31)
動き補償を実行する前記回路網が前記現行タイルについて動き補償を実行する時に、動き補償を実行する前記回路網は、前記現行ビデオフレームの前記現行タイルに関連する予測断片を生成し、
前記集積回路は、
前記現行ビデオフレームから前記現行タイルに関連する断片を抽出する回路網と、
前記現行ビデオフレームの前記現行タイルに関連する残差断片を生成するのに、前記抽出された断片および前記予測断片を使用する回路網と、
係数の組を生成するために前記残差断片に対して変換を実行する回路網と、
係数の前記組を量子化し、それによって、量子化された係数の組を生成する回路網と、
量子化された係数の前記組をエントロピ符号化する回路網と、
量子化された係数の前記エントロピ符号化された組をメディアオブジェクトの一部として出力する回路網と、
量子化された係数の前記組を逆量子化し、それによって、係数の逆量子化された組を生成する回路網と、
復号された残差断片を生成するために、係数の前記逆量子化された組に対して前記変換の逆を実行する回路網と、
前記予測断片および前記復号された残差断片を使用して、再構成された断片を生成する回路網と
をさらに備え、
断片の前記組を格納する前記回路網は、参照断片としての使用のために前記再構成された断片を格納する
(29)の集積回路。
(32)
動き補償を実行する前記回路網が前記現行タイルについて動き補償を実行する時に、動き補償を実行する前記回路網は、前記現行ビデオフレームの前記現行タイルに関連する予測断片を生成し、
前記集積回路は、前記現行ビデオフレームの前記現行タイルに関連するデータの組を含むメディアオブジェクトを受け取り、
前記集積回路は、
データの前記組に基づいて残差断片を生成する回路網と、
前記現行ビデオフレームの前記現行タイルに関連する再構成された断片を生成するのに、前記現行ビデオフレームの前記現行タイルに関連する前記予測断片および前記残差断片を使用する回路網と、
前記現行ビデオフレームを再構成するのに前記再構成された断片を使用する回路網と
をさらに備える
(29)の集積回路。
(33)
前記現行ビデオフレームを再構成するのに前記再構成された断片を使用する前記回路網は、前記再構成された断片が前記現行ビデオフレームの前記現行タイルと同一位置に置かれた以前に復号された完全なビデオフレームのタイル内で指定されるように、前記以前に復号された完全なビデオフレームを変更する、(32)の集積回路。
(34)
前記参照断片は、インタレース式であり、
動き補償を実行する前記回路網は、前記参照断片のうちの1つまたは複数に基づいて前記現行タイルについてデインタレーシング動き補償を実行することによって、前記現行タイルについて前記動き補償を実行する
(29)の集積回路。
(35)
ビデオフレームの前記シーケンスのフレームレートを増やす動作の一部としてビデオフレームの前記シーケンス内の2つのビデオフレームの間に前記現行ビデオフレームを追加する回路網をさらに備える、(29)の集積回路。
(36)
ビデオフレームのシーケンス内のビデオフレームのタイルの組に関連するビデオデータを備える参照断片、ここでタイルの前記組内の各タイルは、それぞれのビデオフレームのパーティションの部分集合を表す、を格納することと、
前記参照断片のうちの1つまたは複数に基づいて現行ビデオフレームの現行タイルについてビデオ処理技法を実行することと
を備える方法。
(37)
前記ビデオ処理技法を実行することは、
前記参照断片のうちの1つまたは複数に基づいて現行ビデオフレームの現行タイルについて動き補償を実行することと、
前記参照断片のうちの1つまたは複数に基づいて現行ビデオフレームの現行タイルについてスケーリングを実行することと、
前記参照断片のうちの1つまたは複数に基づいて現行ビデオフレームの現行タイルについてエッジ強調を実行することと
のうちの1つを備える、(36)の方法。
(38)
ビデオフレームのシーケンス内のビデオフレームのタイルの組に関連するビデオデータを備える参照断片、ここでタイルの前記組内の各タイルはそれぞれのビデオフレームのパーティションの部分集合を表す、を格納する参照バッファと、
前記参照断片のうちの1つまたは複数に基づいて現行ビデオフレームの現行タイルについてビデオ処理技法を実行するユニットと
を備えるデバイス。
(39)
前記ビデオ処理技法を実行する前記ユニットは、
前記参照断片のうちの1つまたは複数に基づいて現行ビデオフレームの現行タイルについて動き補償を実行する動き補償ユニットと、
前記参照断片のうちの1つまたは複数に基づいて現行ビデオフレームの現行タイルについてスケーリングを実行するスケーリングユニットと、
前記参照断片のうちの1つまたは複数に基づいて現行ビデオフレームの現行タイルについてエッジ強調を実行するエッジ強調ユニットと
のうちの1つを備える、(38)のデバイス。
(40)
ビデオフレームのシーケンス内のビデオフレームのタイルの組に関連するビデオデータを備える参照断片、ここでタイルの前記組内の各タイルはそれぞれのビデオフレームのパーティションの部分集合を表す、を格納するための手段と、
前記参照断片のうちの1つまたは複数に基づいて現行ビデオフレームの現行タイルについてビデオ処理技法を実行するための手段と
を備えるデバイス。
(41)
前記ビデオ処理技法を実行するための手段は、
前記参照断片のうちの1つまたは複数に基づいて現行ビデオフレームの現行タイルについて動き補償を実行するための手段と、
前記参照断片のうちの1つまたは複数に基づいて現行ビデオフレームの現行タイルについてスケーリングを実行するための手段と、
前記参照断片のうちの1つまたは複数に基づいて現行ビデオフレームの現行タイルについてエッジ強調を実行するための手段と
のうちの1つを備える、(40)のデバイス。
(42)
1つまたは複数のプロセッサによって実行される時に、1つまたは複数のプロセッサに、
ビデオフレームのシーケンス内のビデオフレームのタイルの組に関連するビデオデータを備える参照断片、ここでタイルの前記組内の各タイルはそれぞれのビデオフレームのパーティションの部分集合を表す、を格納することと、
前記参照断片のうちの1つまたは複数に基づいて現行ビデオフレームの現行タイルについてビデオ処理技法を実行することと
を行わせる実行可能命令を備えるコンピュータ可読媒体。
(43)
前記命令は、
前記参照断片のうちの1つまたは複数に基づく現行ビデオフレームの現行タイルに関する動き補償と、
前記参照断片のうちの1つまたは複数に基づく現行ビデオフレームの現行タイルに関するスケーリングと、
前記参照断片のうちの1つまたは複数に基づく現行ビデオフレームの現行タイルに関するエッジ強調と
のうちの1つを実行することによって、前記1つまたは複数のプロセッサに前記ビデオ処理技法を実行させる、(42)のコンピュータ可読媒体。
(44)
ビデオフレームのシーケンス内のビデオフレームのタイルの組に関連するビデオデータを備える参照断片、ここでタイルの前記組内の各タイルはそれぞれのビデオフレームのパーティションの部分集合を表す、を格納する回路網と、
前記参照断片のうちの1つまたは複数に基づいて現行ビデオフレームの現行タイルについてビデオ処理技法を実行する回路網と
を備える集積回路。
(45)
ビデオ処理技法を実行する前記回路網は、
前記参照断片のうちの1つまたは複数に基づいて現行ビデオフレームの現行タイルについて動き補償を実行する回路網と、
前記参照断片のうちの1つまたは複数に基づいて現行ビデオフレームの現行タイルについてスケーリングを実行する回路網と、
前記参照断片のうちの1つまたは複数に基づいて現行ビデオフレームの現行タイルについてエッジ強調を実行する回路網と
のうちの1つを備える、(44)の集積回路。

Claims (28)

  1. ビデオ符号器が実行するビデオ符号化方法であって、
    ビデオフレームシーケンス内の複数ビデオフレームのタイル組に関連するビデオデータを備える複数の参照断片を格納することと、ここで前記タイル組内の各タイルはそれぞれのビデオフレームのパーティションの部分集合を表しており、
    前記ビデオフレームシーケンス内の1つまたは複数の他のフレームからの前記複数の参照断片のうちの1つまたは複数の参照断片に基づいて現行ビデオフレームの現行タイルについて動き補償を行うビデオ処理技法を実行することと、を備え、
    前記現行タイルは、前記タイル組の前記タイルと同一位置であり、
    前記方法は、前記タイル組を自動的に識別することをさらに備え、
    前記タイル組を自動的に識別することは、
    前記複数ビデオフレームの各ビデオフレーム内でアクティブパーティションの組を識別することであり、
    ここでそれぞれの前記アクティブパーティションは、少なくとも、
    前記複数の参照断片のあるビデオフレームのパーティションに関する変位を示す動きベクトルと、
    前記複数の参照断片のあるビデオフレームの同一位置のパーティションに相対して非0の残差値とのうちの1つを備え、そして、
    前記複数ビデオフレームのうちの各所与の1つのビデオフレームに関して、前記複数のビデオフレームのうちの前記所与の1つのビデオフレームのタイルを識別することを備えるもので、
    前記タイルが、前記複数ビデオフレームのうちの前記所与の1つのビデオフレームのアクティブパーティションの前記識別された組と、前記複数ビデオフレームのうちの他のビデオフレームのアクティブパーティションの前記識別された組におけるアクティブパーティションと同一位置に置かれる前記所与の1つのビデオフレームの複数パーティションとを含む、
    方法。
  2. 動き補償の実行は、前記現行ビデオフレームの前記現行タイルに関連する予測断片を生成することを備え、
    前記ビデオ符号器が実行する方法は、
    前記現行ビデオフレームから前記現行タイルに関連する断片を抽出することと、
    前記現行ビデオフレームの前記現行タイルに関連する残差断片を生成するのに、前記抽出された断片および前記予測断片を使用することと、
    係数の組を生成するために前記残差断片に対して変換を実行することと、
    係数の前記組を量子化し、それによって、量子化された係数の組を生成することと、
    量子化された係数の前記組をエントロピ符号化することと、
    量子化された係数の前記エントロピ符号化された組をメディアオブジェクトの一部として出力することと、
    量子化された係数の前記組を逆量子化し、それによって、係数の逆量子化された組を生成することと、
    復号された残差断片を生成するために、係数の前記逆量子化された組に対して前記変換の逆を実行することと、
    前記予測断片および前記復号された残差断片を使用して、再構成された断片を生成することと、
    参照断片としての使用のために前記再構成された断片を格納することと
    をさらに備える
    請求項1に記載の方法。
  3. 動き補償を実行することは、前記現行ビデオフレームの前記現行タイルに関連する予測断片を生成することを備え、
    前記ビデオ符号器が実行する方法は、
    前記現行ビデオフレームの前記現行タイルに関連するデータの組を含むメディアオブジェクトを受け取ることと、
    データの前記組に基づいて残差断片を生成することと、
    前記現行ビデオフレームの前記現行タイルに関連する再構成された断片を生成するのに前記予測断片および前記残差断片を使用することと、
    前記現行ビデオフレームを再構成するのに前記再構成された断片を使用することと
    をさらに備える
    請求項1に記載の方法。
  4. 前記現行ビデオフレームを再構成するのに前記再構成された断片を使用することは、前記再構成された断片が、前記現行ビデオフレームの前記現行タイルと同一位置に置かれた以前に復号された完全なビデオフレームのタイル内に指定されるように、前記以前に復号された完全なビデオフレームを変更することを備える、請求項3に記載の方法。
  5. 前記参照断片は、インタレース式であり、
    前記現行タイルについて動き補償を実行することは、前記参照断片のうちの1つまたは複数に基づいて前記現行タイルについてデインタレーシング動き補償を実行することを備える
    請求項1に記載の方法。
  6. ビデオフレームの前記シーケンスのフレームレートを増やす動作の一部としてビデオフレームの前記シーケンス内の2つのビデオフレームの間に前記現行ビデオフレームを追加することをさらに備える、請求項1に記載の方法。
  7. ビデオデータを符号化するデバイスであって、
    ビデオフレームシーケンス内の複数ビデオフレームのタイル組に関連するビデオデータを備える複数の参照断片を格納するための手段と、ここで前記タイル組内の各タイルはそれぞれのビデオフレームのパーティションの部分集合を表しており、
    前記ビデオフレームシーケンス内の1つまたは複数の他のフレームからの前記複数の参照断片のうちの1つまたは複数の参照断片に基づいて現行ビデオフレームの現行タイルについて動き補償を行うビデオ処理技法を実行する手段と、を備え、
    前記現行タイルは、前記タイル組の前記タイルと同一位置であり、
    前記デバイスは、前記タイル組を自動的に識別する手段をさらに備え、
    前記タイル組を自動的に識別する該手段は、
    前記複数ビデオフレームの各ビデオフレーム内でアクティブパーティションの組を識別することであり、
    ここでそれぞれの前記アクティブパーティションは、少なくとも、
    前記複数の参照断片のあるビデオフレームのパーティションに関する変位を示す動きベクトルと、
    前記複数の参照断片のあるビデオフレームの同一位置のパーティションに対する非0の残差値とのうちの1つを備え、そして、
    前記複数ビデオフレームのうちの各所与の1つのビデオフレームに関して、前記複数のビデオフレームのうちの前記所与の1つのビデオフレームのタイルを識別する手段を備えるもので、
    この手段は、前記タイルが、前記複数ビデオフレームのうちの前記所与の1つのビデオフレームのアクティブパーティションの前記識別された組と、前記複数ビデオフレームのうちの他のビデオフレームのアクティブパーティションの前記識別された組におけるアクティブパーティションと同一位置に置かれる前記所与の1つのビデオフレームの複数パーティションとを含むようにしている、
    デバイス
  8. 動き補償を実行するための前記手段が、前記現行タイルに関する動き補償を実行する時に、動き補償を実行するための前記手段は、前記現行ビデオフレームの前記現行タイルに関連する予測断片を生成し、
    前記デバイスは、
    前記現行ビデオフレームから前記現行タイルに関連する断片を抽出するための手段と、
    前記現行ビデオフレームの前記現行タイルに関連する残差断片を生成するのに、前記抽出された断片および前記予測断片を使用するための手段と、
    係数の組を生成するために前記残差断片に対して変換を実行するための手段と、
    係数の前記組を量子化し、それによって、量子化された係数の組を生成するための手段と、
    量子化された係数の前記組をエントロピ符号化するための手段と、
    量子化された係数の前記エントロピ符号化された組をメディアオブジェクトの一部として出力するための手段と、
    量子化された係数の前記組を逆量子化し、それによって、係数の逆量子化された組を生成するための手段と、
    復号された残差断片を生成するために、係数の前記逆量子化された組に対して前記変換の逆を実行するための手段と、
    前記予測断片および前記復号された残差断片を使用して、再構成された断片を生成するための手段と、
    をさらに備え、
    断片の前記組を格納するための前記手段は、参照断片としての使用のために前記再構成された断片を格納する
    請求項7に記載のデバイス。
  9. 動き補償を実行するための前記手段が、前記現行タイルに関する動き補償を実行する時に、動き補償を実行するための前記手段は、前記現行ビデオフレームの前記現行タイルに関連する予測断片を生成し、
    前記デバイスは、前記現行ビデオフレームの前記現行タイルに関連するデータの組を含むメディアオブジェクトを受け取り、
    前記デバイスは、
    データの前記組に基づいて残差断片を生成するための手段と、
    前記現行ビデオフレームの前記現行タイルに関連する再構成された断片を生成するのに、前記現行ビデオフレームの前記現行タイルに関連する前記予測断片および前記残差断片を使用するための手段と、
    前記現行ビデオフレームを再構成するのに前記再構成された断片を使用するための手段と
    をさらに備える
    請求項7に記載のデバイス。
  10. 前記現行ビデオフレームを再構成するのに前記再構成された断片を使用するための前記手段は、前記再構成された断片が前記現行ビデオフレームの前記現行タイルと同一位置に置かれた以前に復号された完全なビデオフレームのタイル内で指定されるように、前記以前に復号された完全なビデオフレームを変更する、請求項9に記載のデバイス。
  11. 前記参照断片は、インタレース式であり、
    動き補償を実行するための前記手段は、前記参照断片のうちの1つまたは複数に基づいて前記現行タイルについてデインタレーシング動き補償を実行することによって、前記現行タイルについて前記動き補償を実行する
    請求項7に記載のデバイス。
  12. ビデオフレームの前記シーケンスのフレームレートを増やす動作の一部としてビデオフレームの前記シーケンス内の2つのビデオフレームの間に前記現行ビデオフレームを追加するための手段をさらに備える、請求項7に記載のデバイス。
  13. 1つ又は複数のプロセッサにより実行可能なインストラクションを格納するコンピュータ読み取り可能な格納媒体であって、1つ又は複数のプロセッサを実行させる該インストラクションが、該1つまたは複数のプロセッサによって実行される時に、該1つまたは複数のプロセッサに生じさせることが、
    ビデオフレームシーケンス内の複数ビデオフレームのタイル組に関連するビデオデータを備える複数の参照断片を格納すること、ここで前記タイル組内の各タイルはそれぞれのビデオフレームのパーティションの部分集合を表しており、
    前記ビデオフレームシーケンス内の1つまたは複数の他のフレームからの前記複数の参照断片のうちの1つまたは複数の参照断片に基づいて現行ビデオフレームの現行タイルについて動き補償を行うビデオ処理技法を実行すること、であり、
    前記現行タイルは、前記タイル組の前記タイルと同一位置であり、
    前記インストラクションは、前記タイル組を自動的に識別させることをさらに生じさせ、
    前記タイル組を自動的に識別させるための該インストラクションは、
    前記複数ビデオフレームの各ビデオフレーム内でアクティブパーティションの組を識別させることであり、
    ここでそれぞれの前記アクティブパーティションは、少なくとも、
    前記複数の参照断片のあるビデオフレームのパーティションに関する変位を示す動きベクトルと、
    前記複数の参照断片のあるビデオフレームの同一位置のパーティションに対する非0の残差値とのうちの1つを備え、そして、
    前記複数ビデオフレームのうちの各所与の1つのビデオフレームに関して、前記複数のビデオフレームのうちの前記所与の1つのビデオフレームのタイルを識別させるもので、
    この識別では、前記タイルが、前記複数ビデオフレームのうちの前記所与の1つのビデオフレームのアクティブパーティションの前記識別された組と、前記複数ビデオフレームのうちの他のビデオフレームのアクティブパーティションの前記識別された組におけるアクティブパーティションと同一位置に置かれる前記所与の1つのビデオフレームの複数パーティションとを含むようにしている、
    コンピュータ読み取り可能な格納媒体。
  14. 前記命令は、少なくとも部分的に、前記1つまたは複数のプロセッサに前記現行ビデオフレームの前記現行タイルに関連する予測断片を生成させることによって、前記1つまたは複数のプロセッサに動き補償を実行させ、
    前記命令はさらに、前記1つまたは複数のプロセッサに
    前記現行ビデオフレームから前記現行タイルに関連する断片を抽出することと、
    残差断片を生成するのに、前記抽出された断片および前記予測断片を使用することと、
    係数の組を生成するために前記残差断片に対して変換を実行することと、
    係数の前記組を量子化し、それによって、量子化された係数の組を生成することと、
    量子化された係数の前記組をエントロピ符号化することと、
    量子化された係数の前記エントロピ符号化された組をメディアオブジェクトの一部として出力することと、
    量子化された係数の前記組を逆量子化し、それによって、係数の逆量子化された組を生成することと、
    復号された残差断片を生成するために、係数の前記逆量子化された組に対して前記変換の逆を実行することと、
    前記予測断片および前記復号された残差断片を使用して、再構成された断片を生成することと、
    参照断片としての使用のために前記再構成された断片を格納することと
    を行わせる
    請求項13に記載のコンピュータ読み取り可能な格納媒体。
  15. 前記命令は、少なくとも部分的に、前記1つまたは複数のプロセッサに前記現行ビデオフレームの前記現行タイルに関連する予測断片を生成させることによって、前記1つまたは複数のプロセッサに動き補償を実行させ、
    前記命令はさらに、前記1つまたは複数のプロセッサに
    前記現行ビデオフレームの前記現行タイルに関連するデータの組を含むメディアオブジェクトを受け取ることと、
    データの前記組に基づいて残差断片を生成することと、
    前記現行フレームに関連する再構成された断片を生成するのに、前記現行ビデオフレームの前記タイルに関連する前記予測断片および前記残差断片を使用することと、
    前記現行ビデオフレームを再構成するのに前記再構成された断片を使用することと
    を行わせる
    請求項13に記載のコンピュータ読み取り可能な格納媒体。
  16. 前記命令は、少なくとも部分的に、前記1つまたは複数のプロセッサに前記再構成された断片が前記現行ビデオフレームの前記現行タイルと同一位置に置かれた以前に復号された完全なビデオフレームのタイル内で指定されるように、前記以前に復号された完全なビデオフレームを変更させることによって、前記1つまたは複数のプロセッサに、前記現行ビデオフレームを再構成するのに前記再構成された断片を使用させる、請求項15に記載のコンピュータ読み取り可能な格納媒体。
  17. 前記参照断片は、インタレース式であり、
    前記現行タイルについて動き補償を実行することは、前記参照断片のうちの1つまたは複数に基づいて前記現行タイルについてデインタレーシング動き補償を実行することを備える
    請求項13に記載のコンピュータ読み取り可能な格納媒体。
  18. 前記命令はさらに、前記1つまたは複数のプロセッサに、ビデオフレームの前記シーケンスのフレームレートを増やす動作の一部としてビデオフレームの前記シーケンス内の2つのビデオフレームの間に前記現行ビデオフレームを追加させる、請求項13に記載のコンピュータ読み取り可能な格納媒体。
  19. 請求項7,又は8,又は9,又は10,又は11,又は12に記載のデバイスにおいて、前記手段は、1つ或いは複数の集積回路を備えるデバイス
  20. ビデオ符号器が実行するビデオ符号化方法であって、
    ビデオフレームシーケンス内の複数ビデオフレーム内でタイル組を識別することと、ここで前記タイル組内の各タイルはそれぞれのビデオフレームのパーティションの部分集合を表しており、
    ビデオフレームシーケンス内の複数ビデオフレーム内の前記タイル組に関するビデオデータを備える複数の参照断片を格納することと、
    前記複数の参照断片の1つまたは複数に基づいて現行ビデオフレームの現行タイルについて動き補償を行うビデオ処理技法を実行することと、を備え、
    ここで前記現行タイルは、前記タイル組の前記タイルと同一位置であり、
    前記方法は、前記タイル組を自動的に識別することをさらに備え、
    前記タイル組を自動的に識別することは、
    前記複数ビデオフレームの各ビデオフレーム内でアクティブパーティションの組を識別することであり、
    ここでそれぞれの前記アクティブパーティションは、少なくとも、
    前記複数の参照断片のあるビデオフレームのパーティションに関する変位を示す動きベクトルと、
    前記複数の参照断片のあるビデオフレームの同一位置のパーティションに相対して非0の残差値とのうちの1つを備え、そして、
    前記複数ビデオフレームのうちの各所与の1つのビデオフレームに関して、前記複数のビデオフレームのうちの前記所与の1つのビデオフレームのタイルを識別することを備えるもので、
    前記タイルが、前記複数ビデオフレームのうちの前記所与の1つのビデオフレームのアクティブパーティションの前記識別された組と、前記複数ビデオフレームのうちの他のビデオフレームのアクティブパーティションの前記識別された組におけるアクティブパーティションと同一位置に置かれる前記所与の1つのビデオフレームの複数パーティションとを含む、
    方法。
  21. 前記ビデオ処理技法を実行することは、
    前記参照断片のうちの1つまたは複数に基づいて現行ビデオフレームの現行タイルについて動き補償を実行することと、
    前記参照断片のうちの1つまたは複数に基づいて現行ビデオフレームの現行タイルについてスケーリングを実行することと、
    前記参照断片のうちの1つまたは複数に基づいて現行ビデオフレームの現行タイルについてエッジ強調を実行することと
    のうちの1つを備える、請求項20に記載の方法。
  22. ビデオデータを符号化するためのデバイスであって、
    ビデオフレームのシーケンス内のビデオフレームのタイルの組に関連するビデオデータを備える複数の参照断片、ここでタイルの前記組内の各タイルはそれぞれのビデオフレームのパーティションの部分集合を表す、を格納する参照バッファと、
    前記複数の参照断片のうちの1つまたは複数に基づいて現行ビデオフレームの現行タイルについてビデオ処理技法を実行するユニットと、を備え、
    ここで前記現行タイルは、前記タイル組の前記タイルと同一位置であり、
    前記デバイスは、前記タイル組を自動的に識別するタイル識別モジュールをさらに備え、
    前記タイル組を自動的に識別する該タイル識別モジュールは、
    前記複数ビデオフレームの各ビデオフレーム内でアクティブパーティションの組を識別するアクティブパーティション識別モジュールを備え、
    ここでそれぞれの前記アクティブパーティションは、少なくとも、
    前記複数の参照断片のあるビデオフレームのパーティションに関する変位を示す動きベクトルと、
    前記複数の参照断片のあるビデオフレームの同一位置のパーティションに対する非0の残差値のうちの1つを備え、そして、
    前記複数ビデオフレームのうちの各所与の1つのビデオフレームに関して、前記複数のビデオフレームのうちの前記所与の1つのビデオフレームのタイルを識別するタイル構成モジュールを備えるもので、
    このタイル構成モジュールは、前記タイルが、前記複数ビデオフレームのうちの前記所与の1つのビデオフレームのアクティブパーティションの前記識別された組と、前記複数ビデオフレームのうちの他のビデオフレームのアクティブパーティションの前記識別された組におけるアクティブパーティションと同一位置に置かれる前記所与の1つのビデオフレームの複数パーティションとを含むようにしている、
    デバイス。
  23. 前記ビデオ処理技法を実行する前記ユニットは、
    前記参照断片のうちの1つまたは複数に基づいて現行ビデオフレームの現行タイルについて動き補償を実行する動き補償ユニットと、
    前記参照断片のうちの1つまたは複数に基づいて現行ビデオフレームの現行タイルについてスケーリングを実行するスケーリングユニットと、
    前記参照断片のうちの1つまたは複数に基づいて現行ビデオフレームの現行タイルについてエッジ強調を実行するエッジ強調ユニットと
    のうちの1つを備える、請求項22に記載のデバイス。
  24. ビデオデータを符号化するためのデバイスであって、
    ビデオフレームシーケンス内の複数ビデオフレーム内でタイル組を識別する手段と、ここで前記タイル組内の各タイルはそれぞれのビデオフレームのパーティションの部分集合を表しており、
    ビデオフレームシーケンス内の複数ビデオフレーム内の前記タイル組に関するビデオデータを備える複数の参照断片を格納する手段と、
    前記複数の参照断片の1つまたは複数に基づいて現行ビデオフレームの現行タイルについて動き補償を行うビデオ処理技法を実行する手段と、を備え、
    ここで前記現行タイルは、前記タイル組の前記タイルと同一位置であり、
    前記デバイスは、前記タイル組を自動的に識別する手段をさらに備え、
    前記タイル組を自動的に識別する手段は、
    前記複数ビデオフレームの各ビデオフレーム内でアクティブパーティションの組を識別する手段と、
    ここでそれぞれの前記アクティブパーティションは、少なくとも、
    前記複数の参照断片のあるビデオフレームのパーティションに関する変位を示す動きベクトルと、
    前記複数の参照断片のあるビデオフレームの同一位置のパーティションに相対して非0の残差値とのうちの1つを備え、そして、
    前記複数ビデオフレームのうちの各所与の1つのビデオフレームに関して、前記複数のビデオフレームのうちの前記所与の1つのビデオフレームのタイルを識別する手段とを備えるもので、
    前記タイルが、前記複数ビデオフレームのうちの前記所与の1つのビデオフレームのアクティブパーティションの前記識別された組と、前記複数ビデオフレームのうちの他のビデオフレームのアクティブパーティションの前記識別された組におけるアクティブパーティションと同一位置に置かれる前記所与の1つのビデオフレームの複数パーティションとを含む、
    デバイス。
  25. 前記ビデオ処理技法を実行するための手段は、
    前記参照断片のうちの1つまたは複数に基づいて現行ビデオフレームの現行タイルについて動き補償を実行するための手段と、
    前記参照断片のうちの1つまたは複数に基づいて現行ビデオフレームの現行タイルについてスケーリングを実行するための手段と、
    前記参照断片のうちの1つまたは複数に基づいて現行ビデオフレームの現行タイルについてエッジ強調を実行するための手段と
    のうちの1つを備える、請求項24に記載のデバイス。
  26. 請求項24又は25記載のデバイスにおいて、前記手段は、1つ又は複数の集積回路を備えるデバイス。
  27. 1つ又は複数のプロセッサにより実行可能なインストラクションを格納するコンピュータ読み取り可能な格納媒体であって、1つ又は複数のプロセッサを実行させる該インストラクションが、該1つまたは複数のプロセッサによって実行される時に、該1つまたは複数のプロセッサに生じさせることが、
    ビデオフレームシーケンス内の複数ビデオフレーム内でタイル組を識別させることと、ここで前記タイル組内の各タイルはそれぞれのビデオフレームのパーティションの部分集合を表しており、
    ビデオフレームシーケンス内の複数ビデオフレーム内の前記タイル組に関するビデオデータを備える複数の参照断片を格納させることと、
    前記複数の参照断片の1つまたは複数に基づいて現行ビデオフレームの現行タイルについて動き補償を行うビデオ処理技法を実行させることと、を備え、
    ここで前記インストラクションは、前記1つ又は複数のプロセッサに前記タイル組を自動的に識別させることをさらに生じさせ、
    前記タイル組を前記1つ又は複数のプロセッサに自動的に識別させるための該インストラクションは、
    前記複数ビデオフレームの各ビデオフレーム内でアクティブパーティションの組を識別させることであり、
    ここでそれぞれの前記アクティブパーティションは、少なくとも、
    前記複数の参照断片のあるビデオフレームのパーティションに関する変位を示す動きベクトルと、
    前記複数の参照断片のあるビデオフレームの同一位置のパーティションに対する非0の残差値とのうちの1つを備え、そして、
    前記複数ビデオフレームのうちの各所与の1つのビデオフレームに関して、前記複数のビデオフレームのうちの前記所与の1つのビデオフレームのタイルを識別させるもので、
    この識別では、前記タイルが、前記複数ビデオフレームのうちの前記所与の1つのビデオフレームのアクティブパーティションの前記識別された組と、前記複数ビデオフレームのうちの他のビデオフレームのアクティブパーティションの前記識別された組におけるアクティブパーティションと同一位置に置かれる前記所与の1つのビデオフレームの複数パーティションとを含むようにしている、
    コンピュータ読み取り可能な格納媒体。
  28. 前記命令は、
    前記参照断片のうちの1つまたは複数に基づく現行ビデオフレームの現行タイルに関する動き補償と、
    前記参照断片のうちの1つまたは複数に基づく現行ビデオフレームの現行タイルに関するスケーリングと、
    前記参照断片のうちの1つまたは複数に基づく現行ビデオフレームの現行タイルに関するエッジ強調と
    のうちの1つを実行することによって、前記1つまたは複数のプロセッサに前記ビデオ処理技法を実行させる、請求項27に記載のコンピュータ読み取り可能な格納媒体。
JP2011516618A 2008-06-25 2009-06-24 ビデオコーディングのための時間圧縮での断片化参照 Expired - Fee Related JP5280530B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/145,900 2008-06-25
US12/145,900 US8908763B2 (en) 2008-06-25 2008-06-25 Fragmented reference in temporal compression for video coding
PCT/US2009/048506 WO2009158428A1 (en) 2008-06-25 2009-06-24 Fragmented reference in temporal compression for video coding

Publications (2)

Publication Number Publication Date
JP2011526460A JP2011526460A (ja) 2011-10-06
JP5280530B2 true JP5280530B2 (ja) 2013-09-04

Family

ID=41258406

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011516618A Expired - Fee Related JP5280530B2 (ja) 2008-06-25 2009-06-24 ビデオコーディングのための時間圧縮での断片化参照

Country Status (10)

Country Link
US (1) US8908763B2 (ja)
EP (1) EP2308234A1 (ja)
JP (1) JP5280530B2 (ja)
KR (1) KR101202630B1 (ja)
CN (1) CN102067608B (ja)
BR (1) BRPI0914601A2 (ja)
CA (1) CA2726480C (ja)
RU (1) RU2485712C2 (ja)
TW (1) TWI444048B (ja)
WO (1) WO2009158428A1 (ja)

Families Citing this family (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8599921B2 (en) * 2009-03-27 2013-12-03 Vixs Systems, Inc Adaptive partition subset selection module and method for use therewith
US8948270B2 (en) * 2008-08-19 2015-02-03 Qualcomm Incorporated Power and computational load management techniques in video processing
US8964828B2 (en) 2008-08-19 2015-02-24 Qualcomm Incorporated Power and computational load management techniques in video processing
US8385404B2 (en) * 2008-09-11 2013-02-26 Google Inc. System and method for video encoding using constructed reference frame
US8787447B2 (en) * 2008-10-30 2014-07-22 Vixs Systems, Inc Video transcoding system with drastic scene change detection and method for use therewith
US20100111181A1 (en) * 2008-11-06 2010-05-06 Mediatek Inc. Video processing apparatus and methods
KR101094304B1 (ko) * 2010-02-23 2011-12-19 삼성모바일디스플레이주식회사 표시 장치 및 그의 영상 처리 방법
US9426477B2 (en) * 2010-02-25 2016-08-23 International Business Machines Corporation Method and apparatus for encoding surveillance video
US20110216829A1 (en) * 2010-03-02 2011-09-08 Qualcomm Incorporated Enabling delta compression and modification of motion estimation and metadata for rendering images to a remote display
KR101500914B1 (ko) 2010-04-09 2015-03-10 미쓰비시덴키 가부시키가이샤 동화상 복호 장치
US8837592B2 (en) * 2010-04-14 2014-09-16 Mediatek Inc. Method for performing local motion vector derivation during video coding of a coding unit, and associated apparatus
US8411743B2 (en) * 2010-04-30 2013-04-02 Hewlett-Packard Development Company, L.P. Encoding/decoding system using feedback
TWI485634B (zh) * 2010-11-30 2015-05-21 Hon Hai Prec Ind Co Ltd 差異影像自動識別系統及方法
US10244239B2 (en) 2010-12-28 2019-03-26 Dolby Laboratories Licensing Corporation Parameter set for picture segmentation
WO2012091519A1 (ko) * 2010-12-31 2012-07-05 한국전자통신연구원 영상 정보 부호화 방법 및 복호화 방법과 이를 이용한 장치
US20120230399A1 (en) * 2011-03-10 2012-09-13 Christopher Andrew Segall Video decoder parallelization including a bitstream signal
US20120230398A1 (en) * 2011-03-10 2012-09-13 Christopher Andrew Segall Video decoder parallelization including slices
US9154804B2 (en) * 2011-06-04 2015-10-06 Apple Inc. Hint based adaptive encoding
KR101799978B1 (ko) 2011-06-17 2017-11-22 삼성전자주식회사 타일 근접성을 사용하는 타일 기반 렌더링 방법 및 장치
US9854275B2 (en) 2011-06-25 2017-12-26 Qualcomm Incorporated Quantization in video coding
US9398307B2 (en) * 2011-07-11 2016-07-19 Sharp Kabushiki Kaisha Video decoder for tiles
US8767824B2 (en) 2011-07-11 2014-07-01 Sharp Kabushiki Kaisha Video decoder parallelization for tiles
US9584819B2 (en) * 2011-10-24 2017-02-28 Qualcomm Incorporated Grouping of tiles for video coding
US8891630B2 (en) 2011-10-24 2014-11-18 Blackberry Limited Significance map encoding and decoding using partition set based context assignment
US9432704B2 (en) * 2011-11-06 2016-08-30 Akamai Technologies Inc. Segmented parallel encoding with frame-aware, variable-size chunking
WO2013077236A1 (en) * 2011-11-21 2013-05-30 Canon Kabushiki Kaisha Image coding apparatus, image coding method, image decoding apparatus, image decoding method, and storage medium
US9363513B2 (en) 2011-12-14 2016-06-07 Intel Corporation Methods, systems, and computer program products for assessing a macroblock candidate for conversion to a skipped macroblock
US9491458B2 (en) 2012-04-12 2016-11-08 Qualcomm Incorporated Scalable video coding prediction with non-causal information
US9420285B2 (en) * 2012-04-12 2016-08-16 Qualcomm Incorporated Inter-layer mode derivation for prediction in scalable video coding
SG11201406493RA (en) 2012-04-13 2014-11-27 Ge Video Compression Llc Low delay picture coding
IL305350B1 (en) 2012-06-29 2024-05-01 Ge Video Compression Llc Video data stream concept
JP2014082541A (ja) * 2012-10-12 2014-05-08 National Institute Of Information & Communication Technology 互いに類似した情報を含む複数画像のデータサイズを低減する方法、プログラムおよび装置
ITTO20120901A1 (it) * 2012-10-15 2014-04-16 Rai Radiotelevisione Italiana Procedimento di codifica e decodifica di un video digitale e relativi dispositivi di codifica e decodifica
US20140177729A1 (en) * 2012-12-21 2014-06-26 Ati Technologies Ulc Method and apparatus for transcoding video data
US9177245B2 (en) 2013-02-08 2015-11-03 Qualcomm Technologies Inc. Spiking network apparatus and method with bimodal spike-timing dependent plasticity
KR101444655B1 (ko) * 2013-04-05 2014-11-03 국방과학연구소 파티션 컴퓨팅을 위한 tmo 확장 모델이 저장된 기록매체, 그리고 tmo 확장 모델의 2단계 스케줄링 구현 방법 및 그 방법을 기록한 컴퓨터로 읽을 수 있는 기록매체
JP6202912B2 (ja) * 2013-07-12 2017-09-27 キヤノン株式会社 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム
WO2015009676A1 (en) * 2013-07-15 2015-01-22 Sony Corporation Extensions of motion-constrained tile sets sei message for interactivity
EP3069514B1 (en) * 2013-11-14 2021-01-06 HFI Innovation Inc. Method of video coding using prediction based on intra picture block copy
US20150262404A1 (en) * 2014-03-13 2015-09-17 Huawei Technologies Co., Ltd. Screen Content And Mixed Content Coding
GB2524726B (en) * 2014-03-25 2018-05-23 Canon Kk Image data encapsulation with tile support
US9940686B2 (en) * 2014-05-14 2018-04-10 Intel Corporation Exploiting frame to frame coherency in a sort-middle architecture
US9939253B2 (en) 2014-05-22 2018-04-10 Brain Corporation Apparatus and methods for distance estimation using multiple image sensors
US9713982B2 (en) 2014-05-22 2017-07-25 Brain Corporation Apparatus and methods for robotic operation using video imagery
US10194163B2 (en) * 2014-05-22 2019-01-29 Brain Corporation Apparatus and methods for real time estimation of differential motion in live video
US10382749B2 (en) * 2014-05-23 2019-08-13 Qualcomm Incorporated Coding run values based on palette index in palette-based video coding
US9848112B2 (en) 2014-07-01 2017-12-19 Brain Corporation Optical detection apparatus and methods
US10057593B2 (en) 2014-07-08 2018-08-21 Brain Corporation Apparatus and methods for distance estimation using stereo imagery
US9870617B2 (en) 2014-09-19 2018-01-16 Brain Corporation Apparatus and methods for saliency detection based on color occurrence analysis
US10197664B2 (en) 2015-07-20 2019-02-05 Brain Corporation Apparatus and methods for detection of objects using broadband signals
US10567461B2 (en) * 2016-08-04 2020-02-18 Twitter, Inc. Low-latency HTTP live streaming
CN106507106B (zh) * 2016-11-08 2018-03-06 中国科学技术大学 基于参考片的视频帧间预测编码方法
EP3535974A4 (en) * 2016-12-08 2019-09-11 Zhejiang Dahua Technology Co., Ltd METHODS AND SYSTEMS FOR VIDEO SYNOPSIS
US10375430B2 (en) * 2017-08-24 2019-08-06 Skitter, Inc. Method for synchronizing GOPs and IDR-frames on multiple encoders without communication
US10878028B1 (en) 2017-11-22 2020-12-29 Amazon Technologies, Inc. Replicating and indexing fragments of time-associated data streams
US11025691B1 (en) * 2017-11-22 2021-06-01 Amazon Technologies, Inc. Consuming fragments of time-associated data streams
US10944804B1 (en) 2017-11-22 2021-03-09 Amazon Technologies, Inc. Fragmentation of time-associated data streams
CN108989849B (zh) * 2018-08-01 2021-01-29 广州长嘉电子有限公司 一种dvb-t2+s2电视信号处理方法及系统
EP3939319B1 (en) * 2019-03-11 2023-07-05 Telefonaktiebolaget LM Ericsson (publ) Video coding comprising rectangular tile group signaling
CN113747162B (zh) * 2020-05-29 2023-09-29 北京金山云网络技术有限公司 视频处理方法和装置、存储介质和电子装置
CN111985456B (zh) * 2020-09-10 2022-08-30 上海交通大学 视频实时识别分割及检测架构

Family Cites Families (81)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2881065B2 (ja) 1992-03-19 1999-04-12 富士通株式会社 モデム装置
US5655009A (en) * 1992-03-19 1997-08-05 Fujitsu Limited Modem unit
EP0888012B1 (en) * 1993-03-25 2005-06-01 Sony Corporation Moving picture coding and decoding
US5535401A (en) 1994-04-05 1996-07-09 International Business Machines Corporation Method and system of power and thermal management for a data processing system using object-oriented program design
JP3263807B2 (ja) 1996-09-09 2002-03-11 ソニー株式会社 画像符号化装置および画像符号化方法
US6633611B2 (en) * 1997-04-24 2003-10-14 Mitsubishi Denki Kabushiki Kaisha Method and apparatus for region-based moving image encoding and decoding
US7068991B2 (en) * 1997-05-09 2006-06-27 Parise Ronald J Remote power recharge for electronic equipment
SG116400A1 (en) 1997-10-24 2005-11-28 Matsushita Electric Ind Co Ltd A method for computational graceful degradation inan audiovisual compression system.
EP1578136A3 (en) 1998-01-27 2005-10-19 AT&T Corp. Method and apparatus for encoding video shape and texture information
DE69920460T2 (de) 1999-10-25 2005-01-20 Texas Instruments Inc., Dallas Intelligente Leistungssteuerung in verteilten Verarbeitungssystemen
JP3957937B2 (ja) * 1999-12-21 2007-08-15 キヤノン株式会社 画像処理装置及び方法並びに記憶媒体
US6507618B1 (en) * 2000-04-25 2003-01-14 Hewlett-Packard Company Compressed video signal including independently coded regions
JP2004507957A (ja) 2000-08-29 2004-03-11 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ アルゴリズムを実行する方法と、拡張性のあるプログラマブル処理装置
JP4552296B2 (ja) * 2000-09-08 2010-09-29 ソニー株式会社 情報処理装置および情報処理方法、並びに記録媒体
US6931520B2 (en) 2001-05-17 2005-08-16 International Business Machines Corporation Power management delay system using mouse pointer indicator to indicate power-up delay during powering up a powered down disk device
US6704362B2 (en) 2001-07-06 2004-03-09 Koninklijke Philips Electronics N.V. Resource scalable decoding
JP3876687B2 (ja) 2001-10-30 2007-02-07 ソニー株式会社 通信処理装置、および通信処理方法、並びにコンピュータ・プログラム
JP2005528670A (ja) 2001-12-12 2005-09-22 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ メディアシステム上のメディア信号の処理
JP3779215B2 (ja) * 2002-01-28 2006-05-24 富士通株式会社 携帯型情報処理装置
US6968441B1 (en) * 2002-04-12 2005-11-22 Barsa Consulting Group, Llc Method and system for managing interdependent resources of a computer system
US7287170B2 (en) * 2002-05-14 2007-10-23 Ati Technologies Inc. Method and apparatus for power management using system and request tokens
US6710578B1 (en) * 2002-08-27 2004-03-23 Motorola, Inc. Power resource management in a portable communication device
US7450963B2 (en) 2002-08-27 2008-11-11 Qualcomm Incorporated Low power dual processor architecture for multi mode devices
JP3504256B1 (ja) 2002-12-10 2004-03-08 株式会社エヌ・ティ・ティ・ドコモ 動画像符号化方法、動画像復号方法、動画像符号化装置、及び動画像復号装置
US20040158878A1 (en) 2003-02-07 2004-08-12 Viresh Ratnakar Power scalable digital video decoding
RU2305377C2 (ru) 2003-05-20 2007-08-27 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." Способ уменьшения искажения сжатого видеоизображения и устройство для его реализации
US7366462B2 (en) 2003-10-24 2008-04-29 Qualcomm Incorporated Method and apparatus for seamlessly switching reception between multimedia streams in a wireless communication system
GB2408657B (en) * 2003-11-28 2006-04-12 Motorola Inc Radio resource management
US20050136961A1 (en) * 2003-12-17 2005-06-23 Telefonaktiebolaget Lm Ericsson (Publ), Power control method
GB0400658D0 (en) * 2004-01-13 2004-02-11 Koninkl Philips Electronics Nv Portable device for receiving media content
US7885926B2 (en) * 2004-01-21 2011-02-08 GM Global Technology Operations LLC System and apparatus for wireless synchronization of multimedia content
JP2005300943A (ja) 2004-04-13 2005-10-27 Canon Inc 情報表示位置制御方法及び装置
JP2005303738A (ja) 2004-04-13 2005-10-27 Canon Inc 画像処理装置
KR101099884B1 (ko) * 2004-04-23 2011-12-28 히또시 기야 동화상데이터의 부호화방법, 복호화방법, 이들을 실행하는단말장치, 및 쌍방향 대화형 시스템
WO2005124664A2 (en) * 2004-06-14 2005-12-29 Precoad, Inc. Image clean-up and pre-coding
JP2006014086A (ja) 2004-06-28 2006-01-12 Canon Inc 動画像符号化装置及び動画像符号化方法
JP2006101322A (ja) 2004-09-30 2006-04-13 Toshiba Corp 情報処理装置および同装置で用いられるプログラム
JP2006113767A (ja) 2004-10-14 2006-04-27 Sony Corp 情報処理システム、および、情報処理方法、並びに、プログラム
US8356327B2 (en) * 2004-10-30 2013-01-15 Sharp Laboratories Of America, Inc. Wireless video transmission system
US20060133495A1 (en) 2004-12-22 2006-06-22 Yan Ye Temporal error concealment for video communications
US8041967B2 (en) * 2005-02-15 2011-10-18 Hewlett-Packard Development Company, L.P. System and method for controlling power to resources based on historical utilization data
WO2006109985A1 (en) 2005-04-13 2006-10-19 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding video signals in intra-base-layer prediction mode by selectively applying intra-coding
US7920584B2 (en) * 2005-05-04 2011-04-05 Arm Limited Data processing system
US7721011B1 (en) * 2005-05-09 2010-05-18 Oracle America, Inc. Method and apparatus for reordering memory accesses to reduce power consumption in computer systems
JP2007013315A (ja) 2005-06-28 2007-01-18 Toshiba Corp 情報処理装置および動画像再生方法
JP2009501482A (ja) * 2005-07-14 2009-01-15 エヌエックスピー ビー ヴィ 履歴負荷特性を用いてハンドヘルド・マルチメディア装置のプロセッサコアの動作周波数及び利用可能な電力を動的に調整する方法
US20070021140A1 (en) * 2005-07-22 2007-01-25 Keyes Marion A Iv Wireless power transmission systems and methods
US7529948B2 (en) * 2005-08-25 2009-05-05 Apple Inc. Methods and apparatuses for dynamic power estimation
US7337339B1 (en) * 2005-09-15 2008-02-26 Azul Systems, Inc. Multi-level power monitoring, filtering and throttling at local blocks and globally
US8780997B2 (en) * 2005-11-18 2014-07-15 Apple Inc. Regulation of decode-side processing based on perceptual masking
JP4654300B2 (ja) 2005-12-16 2011-03-16 インターデイジタル テクノロジー コーポレーション マルチ無線アクセス技術機器用のモビリティミドルウェアアーキテクチャ
WO2007078663A2 (en) 2005-12-16 2007-07-12 Interdigital Technology Corporation Mobility middleware architecture for multiple radio access technology apparatus
TW200805047A (en) 2005-12-23 2008-01-16 Koninkl Philips Electronics Nv Performance analysis based system level power management
US7484110B2 (en) * 2006-03-16 2009-01-27 Microsoft Corporation Adaptive power management
US7770040B2 (en) * 2006-03-24 2010-08-03 Qualcomm Incorporated Method and apparatus for reducing power consumption of a co-processor by switching to low power dedicated memory in which image data is periodically updated
US8848789B2 (en) 2006-03-27 2014-09-30 Qualcomm Incorporated Method and system for coding and decoding information associated with video compression
US8750387B2 (en) 2006-04-04 2014-06-10 Qualcomm Incorporated Adaptive encoder-assisted frame rate up conversion
JP2007328461A (ja) 2006-06-06 2007-12-20 Matsushita Electric Ind Co Ltd 非対称マルチプロセッサ
US8379723B2 (en) * 2006-06-27 2013-02-19 Intel Corporation Chroma motion vector processing apparatus, system, and method
US7827425B2 (en) 2006-06-29 2010-11-02 Intel Corporation Method and apparatus to dynamically adjust resource power usage in a distributed system
US7836320B2 (en) * 2006-07-07 2010-11-16 Arm Limited Power management in a data processing apparatus having a plurality of domains in which devices of the data processing apparatus can operate
JP2008042566A (ja) 2006-08-07 2008-02-21 Toshiba Corp 情報処理装置および情報処理装置のデコード制御方法
JP2008067194A (ja) 2006-09-08 2008-03-21 Toshiba Corp フレーム補間回路、フレーム補間方法、表示装置
JP4775210B2 (ja) * 2006-09-26 2011-09-21 株式会社日立製作所 画像信号処理装置、画像高解像度化方法、画像表示装置、記録再生装置
US9883202B2 (en) * 2006-10-06 2018-01-30 Nxp Usa, Inc. Scaling video processing complexity based on power savings factor
US8126461B2 (en) * 2006-11-01 2012-02-28 Snrlabs Corporation System, method, and computer-readable medium for user equipment managing multiple radio networks for handover and low-power operations
JP2008124646A (ja) 2006-11-09 2008-05-29 Orion Denki Kk ビデオデコーダ及び該ビデオデコーダを備えた携帯型デジタル放送受信機
JP4201809B2 (ja) * 2006-11-13 2008-12-24 三洋電機株式会社 手ぶれ補正装置及び方法並びに撮像装置
US7961756B1 (en) * 2006-11-21 2011-06-14 Picomobile Networks, Inc. Integrated multimedia system
US8125936B2 (en) * 2007-03-08 2012-02-28 Marvell International Ltd. Low power data streaming
US8493966B2 (en) * 2007-03-13 2013-07-23 Marvell International Ltd. Optimized packet processing architecture for battery powered mobile communication device
KR100866230B1 (ko) * 2007-04-12 2008-10-30 삼성전자주식회사 파노라마 사진 촬영 방법
US20080307240A1 (en) * 2007-06-08 2008-12-11 Texas Instruments Incorporated Power management electronic circuits, systems, and methods and processes of manufacture
JP2009033581A (ja) * 2007-07-30 2009-02-12 Hitachi Ltd 画像信号記録再生装置
US8089557B2 (en) * 2007-10-04 2012-01-03 Hitachi, Ltd. Video signal processing apparatus, video signal processing method and video display apparatus
US8948822B2 (en) * 2008-04-23 2015-02-03 Qualcomm Incorporated Coordinating power management functions in a multi-media device
US8165211B2 (en) * 2008-05-30 2012-04-24 Hong Kong Applied Science and Technology Research Institute Company Limited Method and apparatus of de-interlacing video
US20100011012A1 (en) * 2008-07-09 2010-01-14 Rawson Andrew R Selective Compression Based on Data Type and Client Capability
US8159520B1 (en) * 2008-07-11 2012-04-17 Sprint Communications Company L.P. Ensuring quality of a video stream through a telecommunications network
US8948270B2 (en) * 2008-08-19 2015-02-03 Qualcomm Incorporated Power and computational load management techniques in video processing
US8964828B2 (en) * 2008-08-19 2015-02-24 Qualcomm Incorporated Power and computational load management techniques in video processing

Also Published As

Publication number Publication date
CA2726480A1 (en) 2009-12-30
WO2009158428A1 (en) 2009-12-30
CN102067608A (zh) 2011-05-18
US8908763B2 (en) 2014-12-09
KR20110022080A (ko) 2011-03-04
RU2011102574A (ru) 2012-07-27
CA2726480C (en) 2013-04-30
RU2485712C2 (ru) 2013-06-20
CN102067608B (zh) 2013-12-04
KR101202630B1 (ko) 2012-11-19
JP2011526460A (ja) 2011-10-06
EP2308234A1 (en) 2011-04-13
TW201008289A (en) 2010-02-16
BRPI0914601A2 (pt) 2020-08-18
TWI444048B (zh) 2014-07-01
US20090323809A1 (en) 2009-12-31

Similar Documents

Publication Publication Date Title
JP5280530B2 (ja) ビデオコーディングのための時間圧縮での断片化参照
US11770554B2 (en) Conditional signalling of reference picture list modification information
US10575016B2 (en) Apparatus and method for encoding and decoding moving picture using adaptive scanning
JP7164728B2 (ja) 参照画像リサンプリングのためのシグナリング
US9967577B2 (en) Acceleration interface for video decoding
US11095877B2 (en) Local hash-based motion estimation for screen remoting scenarios
US10390039B2 (en) Motion estimation for screen remoting scenarios
RU2648592C2 (ru) Управляющие данные для набора мозаичных фрагментов с ограничениями движения
AU2013403225B2 (en) Features of base color index map mode for video and image coding and decoding
JP2016539545A (ja) ビデオ情報のスケーラブルコーディングのためのデバイスおよび方法
US9762912B2 (en) Gradual updating using transform coefficients for encoding and decoding
KR20160129076A (ko) 스크린 컨텐츠의 딕셔너리 인코딩 및 디코딩
JP2023508364A (ja) コンテキスト適応変換セット
JP2023171607A (ja) 参照ピクチャー再サンプリングがある場合のラップアラウンド動き補償に関する方法、装置、コンピュータ・プログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120605

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120904

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120911

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130423

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130522

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5280530

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees