JP2013529875A - 圧縮ビットストリームへの交換補間フィルタ係数の組み込み - Google Patents

圧縮ビットストリームへの交換補間フィルタ係数の組み込み Download PDF

Info

Publication number
JP2013529875A
JP2013529875A JP2013516836A JP2013516836A JP2013529875A JP 2013529875 A JP2013529875 A JP 2013529875A JP 2013516836 A JP2013516836 A JP 2013516836A JP 2013516836 A JP2013516836 A JP 2013516836A JP 2013529875 A JP2013529875 A JP 2013529875A
Authority
JP
Japan
Prior art keywords
video
reference video
subunit
syntax element
interpolation filters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013516836A
Other languages
English (en)
Other versions
JP5632079B2 (ja
Inventor
ジョシ、ランジャン・エル.
カークゼウィックズ、マルタ
パンチャル、ラーフル・ピー.
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2013529875A publication Critical patent/JP2013529875A/ja
Application granted granted Critical
Publication of JP5632079B2 publication Critical patent/JP5632079B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/523Motion estimation or motion compensation with sub-pixel accuracy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

1つの例において、符号器は、複数の異なる補間された予測データを生成するために、予め定義された複数の補間フィルタを、基準ビデオのフレームのようなビデオデータのユニットに適用しうる。符号器は、さらに、時々、ビデオ圧縮を改善するか、再構築された画像品質を改善することによって、新しい補間フィルタまたは補間フィルタのセットがコーディング品質を改善しうることを決定しうる。符号器は、さらに、予め定義された補間フィルタのうちの1つが使用されたか、補間フィルタの新しいセットが使用されたかを、ビデオ復号器にシグナリングしうる。符号器は、さらに、補間フィルタの新しいセットの使用を継続するか否か、そうでなければ、予め定義された補間フィルタのセットの使用に戻るか否か、ビデオ復号器にシグナリングしうる。ビデオ復号器は、ビデオ符号器から受信されたデータに基づいてビデオデータを復号することができる。

Description

本願は、2010年6月25日に出願された米国仮出願61/358,590号、および、2010年7月9日に出願された米国仮出願61/363,175号の利益を主張し、全てのコンテンツは、それぞれが、参照により本明細書に組み込まれる。
本開示は、ビデオ圧縮に関し、さらに詳細には、ビデオシーケンスビットストリームの符号化および復号の際に補間フィルタリングを使用することに関する。
デジタルビデオ機能は、デジタルテレビジョン、デジタルダイレクトブロードキャストシステム、無線ブロードキャストシステム、携帯情報端末(PDA)、ラップトップまたはデスクトップコンピュータ、タブレットコンピュータ、デジタルカメラ、デジタル記録デバイス、ビデオゲームデバイス、ビデオゲームコンソール、セルラまたは衛星ラジオ電話、スマートフォンなどを含む広範囲のデバイスに組み込まれうる。デジタルビデオデバイスは、MPEG−2、MPEG−4、または、ITU−T H.264/MPEG−4、パート10、AVC(Advanced Video Coding)のようなビデオ圧縮技術を実施して、より効率的にデジタルビデオ情報を送信および受信しうる。ビデオ圧縮技術は、ビデオシーケンスに固有の冗長を削減または除去するために空間予測および/または時間予測を実行しうる。MPEGおよびITU−Tの合作である、「JCTVC(Joint Collaborative Team−Video Coding)」によって開発されたHEVC標準のような新しいビデオ標準は、出現かつ進化し続ける。この新しい標準は、時々、H.265と呼ばれる。
ブロックベースのインターコーディングは、ビデオシーケンスの連続コード化ユニットのビデオブロック間の時間的冗長を削減または除去するために時間予測に依存する非常に有益なコーディング技術である。コード化ユニットは、ビデオフレーム、ビデオフレームのスライス、ピクチャのグループ、または、定義されたビデオブロックの別のユニットを備えうる。インターコーディングについて、ビデオ符号器は、2つ以上の隣接したコード化ユニットの対応ビデオブロックの動きを追跡するために動き推定および動き補償を実行する。動き推定は、1または複数の基準フレームまたは別のコード化ユニット内の対応予測ビデオブロックに対するビデオブロックの変位を示す動きベクトルを生成する。動き補償は、動きベクトルを使用して、基準フレームまたは別のコード化ユニットから予測ビデオブロックを生成する。動き補償の後、コード化されている最初のビデオブロックから予測ビデオブロックを差し引くことで、残余ビデオブロックが形成される。
ビデオ符号器は、さらに、変換、量子化、および、エントロピーコーディングプロセスを適用して、残余ブロックの通信に関連付けられたビットレートをさらに削減しうる。変換技術は、離散コサイン変換(DCT)または概念的に類似したプロセスを備えうる。あるいは、ウェーブレット変換、整数変換、または、別のタイプの変換が使用されうる。DCTプロセスにおいて、例として、ピクセル値のセットが、周波数ドメインにおいてピクセル値のエネルギーを表しうる変換係数に変換される。量子化は、変換係数に対して適用され、一般的に、あらゆる所与の変換係数に関連付けられたビット数を制限するプロセスを含む。エントロピーコーディングは、量子化変換係数のシーケンスを集合的に圧縮する1または複数のプロセスを備える。エントロピーコーディングの例は、コンテンツ適応可変長コーディング(CAVLC)およびコンテキスト適応バイナリ算術コーディング(CABAC)を含むが、それに制限されるわけではない。
コード化ビデオブロックは、予測ブロックの作成または識別に使用されうる予測情報と、コード化されているブロックと予測ブロックとの差を示すデータの残余ブロックとで表されうる。予測情報は、データの予測ブロックを識別するために使用される1または複数の動きベクトルを備えうる。動きベクトルを仮定すれば、復号器は、残余をコード化するために使用された予測ブロックを再構築することができる。よって、残余ブロックのセットおよび動きベクトルのセット(および、恐らくは、いくつかのさらなるシンタックス)を仮定した場合、復号器は、最初に符号化されたビデオフレームを再構築することができる。連続ビデオフレームまたは別のタイプのコード化ユニットは非常に類似することが多いため、動き推定および動き補償に基づくインターコーディングは、非常に良い圧縮を達成することができる。符号化ビデオシーケンスは、残余データのブロック、動きベクトル、および、恐らくは、他のタイプのシンタックスを備えうる。
補間技術は、インターコーディングにおいて達成されうる圧縮レベルを改善するために開発されている。このケースにおいて、ビデオブロックをコード化するために使用される、動き補償中に生成された予測データは、ビデオフレームのビデオブロックのピクセル、または、動き推定に使用される他のコード化ユニットから補間されうる。補間は、予測1/2ピクセル値(half-pel)および予測1/4ピクセル値(quarter-pel)を生成するために実行されることが多い。そのような補間は、予測フレームの実際のビデオブロック、あるいは、ビデオコーディングで使用された他のコード化ユニットよりもいっそう、コード化されているビデオブロックに類似した予測ブロックを生成することが多い。
一般的に、本開示は、ビデオコーディングの動き補償プロセスの間に符号器および復号器によって実行される補間技術を記述する。本開示の技術にしたがって、符号器は、複数の異なる補間された予測データを生成するために、予め定義された複数の補間フィルタを、基準ビデオのフレームのようなビデオデータのユニットに適用しうる。符号器は、さらに、時々、新しい補間フィルタまたは補間フィルタのセットが、ビデオ圧縮を改善するか、再構築された画像品質を改善するかのいずれかによって、コーディング品質を改善しうることを決定しる。本開示は、予め定義された補間フィルタのうちの1つが使用されたか、補間フィルタの新しいセットが使用されたかをビデオ復号器にシグナリングするための技術を記述する。本開示は、さらに、補間フィルタの新しいセットの使用を継続するか否か、そうでなければ、予め定義された補間フィルタのセットの使用に戻るか否かを、ビデオ復号器にシグナリングするための技術を記述する。
1つの例において、本開示は、ビデオデータを符号化する方法を記述する。方法は、基準ビデオの第1のサブユニットの第1のピクセル値を補間して、第1の予測データを生成することと、ここにおいて、第1のピクセル値を補間することは、補間フィルタの第1のセットに基づく;補間フィルタの第1のセットが、基準ビデオの第1のサブユニットを備える基準ビデオのユニットに関連付けられたシンタックスエレメントにおいて定義されたことを示すために、基準ビデオの第1のサブユニットに関連付けられた第1のシンタックスエレメント生成することと;第1の予測データに基づいてビデオデータを符号化することと;符号化ビデオデータおよび第1のシンタックスエレメントを含む、符号化されたビットストリームを生成することとを備える。
別の例において、本開示は、ビデオデータを復号する方法を記述する。方法は、ビデオビットストリームにおいて、基準ビデオのユニットを受信することと、ここにおいて、基準ビデオのユニットは、複数のサブユニットを備える;基準ビデオのユニットにおいて、第1のシンタックスエレメントを識別することと、ここにおいて、第1のシンタックスエレメントは、複数のサブユニットのうちの第1のサブユニットに関連付けられ、第1のシンタックスエレメントは、補間フィルタの第1のセットが、基準ビデオのユニットに関連付けられたシンタックスエレメントで定義されることを表す;補間フィルタの第1のセットを使用して第1の予測データを生成するために、基準ビデオのユニットの第1のサブユニットに対して第1のピクセル値を補間することと;第1の予測データに少なくとも部分的に基づいてビデオデータを復号することとを備える。
別の例において、本開示は、ビデオデータを符号化する装置を記述する。装置は、基準ビデオの第1のサブユニットに対して第1のピクセル値を補間して、第1の予測データを生成し、ここにおいて、第1のピクセル値を補間することは、補間フィルタの第1のセットに基づく;基準ビデオの第1のサブユニットを備える基準ビデオのユニットに関連付けられたシンタックスエレメントにおいて補間フィルタの第1のセットが定義されることを示すために、基準ビデオの第1のサブユニットに関連付けられた第1のシンタックスエレメントを生成し;第1の予測データに基づいてビデオデータを符号化し;符号化ビデオデータおよび第1のシンタックスエレメントを含む符号化ビットストリームを生成するように構成されたビデオ符号器を備える。
別の例において、本開示は、ビデオデータを復号する装置を記述する。装置は、ビデオビットストリームにおいて、基準ビデオのユニットを受信し、ここにおいて、基準ビデオのユニットは、複数のサブユニットを備える;基準ビデオのユニットにおいて、第1のシンタックスエレメントを識別し、ここにおいて、第1のシンタックスエレメントは、複数のサブユニットの第1のサブユニットに関連付けられ、第1のシンタックスエレメントは、補間フィルタの第1のセットが、基準ビデオのユニットに関連付けられたシンタックスエレメントにおいて定義されることを表す;補間フィルタの第1のセットを使用して第1の予測データを生成するために、基準ビデオのユニットの第1のサブユニットに対して第1のピクセル値を補間し;第1の予測データに基づいて復号されたビデオデータを生成するように構成されたビデオ復号器を備える。
別の例において、本開示は、プロセッサにおいて実行されると、プロセッサに対して、第1の予測データを生成するために基準ビデオの第1のサブユニットに対して第1のピクセル値を補間させ、ここにおいて、第1のピクセル値を補間することは、補間フィルタの第1のセットに基づく;基準ビデオの第1のサブユニットを備える基準ビデオのユニットに関連付けられたシンタックスエレメントにおいて補間フィルタの第1のセットが定義されることを示すために、基準ビデオの第1のサブユニットに関連付けられた第1のシンタックスエレメントを生成させ;第1の予測データに基づいてビデオデータを符号化させ;符号化ビデオデータおよび第1のシンタックスエレメントを含む符号化ビットストリーム生成させる命令を備えるコンピュータ読取可能な記憶媒体を記述する。
別の例において、本開示は、プロセッサにおいて実行されると、プロセッサに対して、ビデオビットストリームにおいて、基準ビデオのユニットを受信させ、ここにおいて、基準ビデオのユニットは、複数のサブユニットを備える;基準ビデオのユニットにおいて、第1のシンタックスエレメントを識別させ、ここにおいて、第1のシンタックスエレメントは、複数のサブユニットの第1のサブユニットに関連付けられ、第1のシンタックスエレメントは、補間フィルタの第1のセットが、基準ビデオのユニットに関連付けられたシンタックスエレメントで定義されることを表す;補間フィルタの第1のセットを使用して第1の予測データを生成するために、基準ビデオのユニットの第1のサブユニットに対して第1のピクセル値を補間させ;第1の予測データに少なくとも部分的に基づいてビデオデータを復号させる命令を備えるコンピュータ読取可能な記憶媒体を記述する。
別の例において、本開示は、ビデオデータを符号化するためのデバイスを記述する。デバイスは、第1の予測データを生成するために基準ビデオの第1のサブユニットに対して第1のピクセル値を補間するための手段と、ここにおいて、第1のピクセル値を補間することは、補間フィルタの第1のセットに基づく;基準ビデオの第1のサブユニットを備える基準ビデオのユニットに関連付けられたシンタックスエレメントにおいて補間フィルタの第1のセットが定義されることを示すために、基準ビデオの第1のサブユニットに関連付けられた第1のシンタックスエレメントを生成するための手段と;第1の予測データに基づいてビデオデータを符号化するための手段と;符号化ビデオデータおよび第1のシンタックスエレメントを含む符号化ビットストリームを生成するための手段とを備える。
別の例において、本開示は、ビデオデータを復号するためのデバイスを記述する。デバイスは、ビデオビットストリームにおいて、基準ビデオのユニットを受信するための手段と、ここにおいて、基準ビデオのユニットは、複数のサブユニットを備える;基準ビデオのユニットにおいて、第1のシンタックスエレメントを識別するための手段と、ここにおいて、第1のシンタックスエレメントは、複数のサブユニットの第1のサブユニットに関連付けられ、第1のシンタックスエレメントは、補間フィルタの第1のセットが、基準ビデオのユニットに関連付けられたシンタックスエレメントで定義されることを表す;補間フィルタの第1のセットを使用して第1の予測データを生成するために、基準ビデオのユニットの第1のサブユニットに対して第1のピクセル値を補間するための手段と;第1の予測データに少なくとも部分的に基づいてビデオデータを復号するための手段とを備える。
本開示の1または複数の態様の詳細は、添付の図および以下の記述に示される。本開示に記述された技術の他の特徴、目的、利点は、記述および図面から、並びに、請求項から明白になるであろう。
図1は、本開示と一致するビデオ符号化および復号システムを示す例示的なブロック図である。 図2は、本開示と一致するビデオ符号器の例を示すブロック図である。 図3は、本開示と一致するビデオ復号器の例を示すブロック図である。 図4Aは、予測ビデオブロックのピクセルを備えうる補間ピクセルおよび整数ピクセルを示す概念図である。 図4Bは、予測ビデオブロックのピクセルを備えうる補間ピクセルおよび整数ピクセルを示す概念図である。 図4Cは、予測ビデオブロックのピクセルを備えうる補間ピクセルおよび整数ピクセルを示す概念図である。 図4Dは、予測ビデオブロックのピクセルを備えうる補間ピクセルおよび整数ピクセルを示す概念図である。 図5は、本開示と一致するデータのユニットの概念的な例である。 図6は、本開示と一致する技術を示すフロー図である。 図7は、本開示と一致する技術を示すフロー図である。 図8は、本開示と一致する技術を示すフロー図である。 図9は、本開示と一致する技術を示すフロー図である。
本開示は、ビデオコーディングの動き補償プロセスの間に符号器または復号器によって実行されうる補間技術を記述する。本開示の技術にしたがって、符号器は、複数の異なる補間された予測データを生成するために、予め定義された複数の補間フィルタを、基準ビデオのフレームのようなビデオのユニットに適用しうる。符号器は、さらに、時々、ビデオ圧縮を改善するか、再構築された画像品質を改善するかのいずれかによって、新しい補間フィルタまたは補間フィルタのセットがコーディング品質を改善しうることを決定しる。本開示は、予め定義された補間フィルタのうちの1つが使用されたか、補間フィルタの新しいセットが使用されたかをビデオ復号器にシグナリングするための技術を記述する。本開示は、さらに、補間フィルタの新しいセットの使用を継続するか否か、そうでなければ、予め定義された補間フィルタのセットの使用に戻るか否かを、ビデオ復号器にシグナリングするための技術を記述する。
図1は、本開示の技術を実施しうる1つの例示的なビデオ符号化および復号システム110を示すブロック図である。図1に示されるように、システム110は、通信チャネル115を介して、宛先デバイス116に符号化されたビデオを送信するソースデバイス112を含む。ソースデバイス112および宛先デバイス116は、任意の広範囲のデバイスを備えうる。いくつかのケースにおいて、ソースデバイス112および宛先デバイス116は、無線ハンドセットのような無線通信デバイス、いわゆるセルラまたは衛星ラジオ電話、あるいは、通信チャネル115を通してビデオ情報を通信することができるあらゆる無線デバイスを備える。この場合、通信チャネル115は、無線である。しかしながら、動き補償された補間に関係のある本開示の技術は、必ずしも、無線アプリケーションまたはセッティングに限定されるわけではない。
図1の例において、ソースデバイス112は、ビデオソース120、ビデオ符号器122、変調器/復調器(モデム)123、および、送信機124を含みうる。宛先デバイス116は、受信機126、モデム127、ビデオ復号器128、および、ディスプレイデバイス130を含みうる。本開示にしたがって、ソースデバイス112のビデオ符号器122は、本開示の補間技術のうちの1または複数を、ビデオ符号化プロセスの一部として適用するように構成されうる。同様に、宛先デバイス116のビデオ復号器128は、本開示の補間技術のうちの1または複数を、ビデオ復号プロセスの一部として適用するように構成されうる。
図1に示されるシステム110は、本開示の技術が実施されうる単なる例示的なシステムである。本開示の補間技術は、サブピクセル解像度への動き補償された補間をサポートする任意の符号化デバイスによって実行されうる。ソースデバイス112および宛先デバイス116は、そのようなコーディングデバイスの単なる例である。このケースにおいて、ソースデバイス112は、宛先デバイス116への送信のために、コード化ビデオデータを生成する。デバイス112および116は、デバイス112および116の各々が、例えば、結合符号器/復号器(CODEC)に、ビデオ符号化および復号コンポーネントを含むように、実質的に対称的な方式で動作しうる。このように、システム110は、例えば、ビデオストリーミング、ビデオ再生、ビデオブロードキャスト、または、ビデオ電話のために、ビデオデバイス112および116の間での一方向または双方向のビデオ送信をサポートしうる。
ソースデバイス112のビデオソース120は、ビデオカメラ、以前キャプチャされたビデオを含むビデオアーカイブのようなビデオキャプチャデバイス、または、ビデオコンテンツプロバイダのビデオフィードを含みうる。さらなる代替として、ビデオソース120は、ソースビデオ、すなわち、ライブビデオ、アーカイブビデオ、および、コンピュータ生成ビデオの組み合わせとして、コンピュータグラフィックベースのデータを生成しうる。いくつかのケースにおいて、ビデオソース120がビデオカメラである場合、ソースデバイス112および宛先デバイス116は、いわゆる、カメラ電話またはビデオ電話を形成しうる。各ケースにおいて、キャプチャされたビデオ、事前にキャプチャされたビデオ、あるいは、コンピュータ生成されたビデオは、ビデオ符号器122によって符号化されうる。次に、符号化されたビデオ情報は、例えば、符号分割多元接続(CDMA)のような通信標準、あるいは、別の通信標準にしたがってモデム123によって変調され、送信機124を介して宛先デバイス116に送信されうる。モデム123は、様々なミキサ、フィルタ、増幅器、または、信号変調のために設計された他のコンポーネントを含みうる。無線アプリケーションについて、送信機124は、増幅器、フィルタ、および、1または複数のアンテナを含む、データを送信するように設計された回路を含みうる。
宛先デバイス116の受信機126は、チャネル15を通して情報を受信し、モデム127は、情報を復調する。この場合も同様に、ビデオ符号化プロセスは、本明細書に記述される技術のうちの1または複数を実施して、動き補償の間の補間を改善しうる。ビデオ復号器128によって実行されるビデオ復号プロセスは、さらに、復号プロセスのその動き補償ステージの間、補間を実行しうる。ディスプレイデバイス130は、復号されたビデオデータをユーザに表示し、それは、ブラウン管、液晶ディスプレイ(LCD)、プラズマディスプレイ、有機発光ダイオード(OLED)ディスプレイのような任意の様々なディスプレイデバイス、または、別のタイプのディスプレイデバイスを備えうる。
図1の例において、通信チャネル115は、ラジオ周波数(RF)スペクトルのような任意の無線または有線の通信媒体、または、1または複数の物理送信回線、あるいは、無線または有線媒体のあらゆる組み合わせを備えうる。通信チャネル115は、ローカルエリアネットワーク、広域ネットワーク、あるいは、インターネットなどのグローバルネットワークのようなパケットベースのネットワークの一部を形成しうる。通信チャネル115は、一般的に、ソースデバイス112から宛先デバイス116にビデオデータを送信するための、任意の適切な通信媒体、または、異なる通信媒体の集合体を表す。
ビデオ符号器122およびビデオ復号器128は、代替的にMPEG4、パート10、AVC(Advanced Video Coding)と記述されるITU−T H.264標準などのビデオ圧縮標準にしたがって動作しうる。しかしながら、本開示の技術は、あらゆる特定のコーディング標準に限定されない。図1には示されていないが、いくつかの態様において、ビデオ符号器122およびビデオ復号器128は、それぞれ、オーディオ符号器および復号器に統合され、共通データストリームまたは個別データストリームにおいてオーディオおよびビデオの両方の符号化を処理するために、適切なMUX−DEMUXユニット、あるいは、他のハードウェアおよびソフトウェアを含みうる。適用可能な場合、MUX−DEMUXユニットは、ITU H.233マルチプレクサプロトコル、あるいは、ユーザダイアグラムプロトコル(UDP)のような他のプロトコルに準拠しうる。
ITU−T H.264/MPEG−4(AVC)標準は、例えば、JVT(Joint Video Team)として知られている共同パートナーシップの製品として、ISO/IEC MPEG(Moving Picture Experts Group)と共にITU−T VCEG(Video Coding Experts Group)によって公式化された。いくつかの態様において、本開示に記述される技術は、一般的に、H.264標準に準拠したデバイスに適用されうる。H.264標準は、現在、一般的に使用されているビデオコーディング標準であり、そういうものとして、本開示はH.264標準の態様を使用し、実際の実世界の例を用いて様々なコンセプトを説明する手伝いをする。しかしながら、本開示の技術は、決して、H.264標準に限定されるわけではない。要するに、JVT(Joint Video Team)および他のグループは、H.264/MPEG−4 AVCへの拡張および新しい標準の両方に取り組み続けており、本開示の技術がそれらのH.264の拡張と、新生のHEVC標準を含む次世代のコーディング標準との両方にも適用されうることは企図される。
ビデオ符号器122およびビデオ復号器128は、各々、1または複数のマイクロプロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、書替え可能ゲートアレイ(FPGA)、ディスクリート論理、ソフトウェア、ハードウェア、ファームウェア、または、それらの任意の組み合わせとして実施されうる。ビデオ符号器122およびビデオ復号器128の各々は、1または複数の符号器または復号器に含まれ、そのどちらもが、結合CODECの一部として、それぞれのモバイルデバイス、加入者デバイス、ブロードキャストデバイス、サーバ等に統合されうる。
ビデオシーケンスは、典型的に、一連のビデオフレームを含む。ビデオ符号器122は、ビデオデータを符号化するために個々のビデオフレーム内のビデオブロック上で動作する。ビデオブロックは、固定または可変のサイズを有し、特定のコーディング標準にしたがってサイズが異なりうる。各ビデオフレームは、一連のスライスを含む。各スライスは、サブブロックに配列されうる一連のマクロブロックを含みうる。例として、ITU−T H.264標準は、輝度コンポーネントに対して16×16、8×8、または4×4、色度コンポーネントに対して8×8のような様々なブロックサイズでイントラ予測を、同様に、輝度コンポーネントに対して16×16、16×8、8×16、8×8、8×4、4×8または4×4、色度コンポーネントに対して対応するスケーリング済みのサイズのような様々なブロックサイズでインター予測をサポートする。ビデオブロックは、例えば、離散コサイン変換のような変換プロセスまたは概念的に類似した変換プロセスの後に、ピクセルデータのブロックまたは変換係数のブロックを備えうる。新生のビデオ標準は、32×16ブロック、32×32ブロック、64×32ブロック、および、64×64ブロックなど、より大きいブロックを含む、他のサイズのビデオブロックをサポートしうる。
より小さいビデオブロックは、より良い解像度を提供し、高いレベルの詳細を含むビデオフレームのロケーションに対して使用されうる。一般的に、マクロブロック(MB)および様々なサブブロックは、ビデオブロックであるとみなされうる。加えて、スライスは、MBおよび/またはサブブロックのような一連のビデオブロックであるとみなされうる。各スライスは、ビデオフレームの独立して復号可能なユニットでありうる。ビデオ符号器122およびビデオ復号器128は、予測基準データを生成することと、コード化されるべきビデオブロックを予測基準データから差し引いて、残余データを生成することとを含むインターベースの予測コーディングを実行し、それは、次に、変換、量子化、エントロピーコード化されうる。インターベースの予測コーディングは、本開示にしたがい予測データの補間を含みうる。
インターベースの予測コーディング(本開示の補間技術を含む)に続いて、および、任意の変換(4×4または8×8の整数変換または離散コサイン変換DCTのような)に続いて、量子化が実行されうる。量子化は、一般的に、係数を表すために使用されるデータ量をできる限り削減するために係数が量子化されるプロセスを指す。量子化プロセスは、係数のうちのいくつかあるいは全部に関連付けられたビット深度(bit depth)を削減しうる。例えば、16ビット値は、量子化の間に15ビット値へと端数が切り捨てられうる。量子化に続いて、エントロピーコーディングが、例えば、コンテンツ適応可変長コーディング(CAVLC)、コンテンツ適応バイナリ算術コーディング(CABAC)、あるいは、別のエントロピーコーディング方法にしたがって実行されうる。
本開示の技術にしたがって、ビデオ符号器122は、一連のビデオフレームを含むビデオシーケンスをビデオ復号器128に送信しうる。ビデオフレームのシーケンスは、シーケンスヘッダを含み、シーケンス内の各フレームは、フレームヘッダを含むことができる。ビデオ符号器122は、複数の異なる補間予測データを生成するために、予め定義された複数の交換補間フィルタ(SIF)を、シーケンス内のビデオの1または複数のフレームに適用しうる。予め定義された交換補間フィルタは、ビデオ符号器122およびビデオ復号器128の両方で定義され、本開示において、固定SIFセットと呼ばれるであろう。本開示の技術にしたがって、ビデオ符号器122は、さらに、時々、ビデオ圧縮を改善するか、再構築された画像の品質を改善するかのいずれかによって、固定SIFセットと比較して、新しい補間フィルタまたは補間フィルタのセットがコーディング品質を改善しうると決定しうる。新しい補間フィルタは、例えば、分析的に導き出された適応フィルタ係数を含みうるか、あるいは、高解像度ビデオデータからダウンサンプリングされた低解像度ビデオデータのような、特定のタイプのビデオデータにうまく働きかけることが知られた補間フィルタのセットでありうる。例えば、高解像度データをダウンサンプリングするために使用されるフィルタが知られている場合、最初の高解像度データと、より低い解像度データから生成された高解像度データとの間の二乗平均誤差が低くなる補間フィルタを決定することが可能でありうる。同様に、ビデオ符号器は、ビデオデータを符号化するための2つのパスを使用しうる。ここで、第1のパスの間、特定のシーンに最適な補間フィルタを決定するために、シーンの変化に対してビデオが分析されうる。
本開示は、ビデオ符号器122が、固定SIFのフィルタを使用したか、補間フィルタの新しいセットのフィルタを使用したかを、補間シンタックスを介してビデオ復号器128にシグナリングする技術を記述する。本開示で使用される場合、補間シンタックスとは、一般的に、どの補間フィルタまたは補間フィルタのセットを動き補償に使用するか決定するためにビデオ復号器128によって使用されるコード化ビットストリームに含まれる、1または複数のシンタックスエレメントの形態の任意の情報を指す。補間シンタックスは、必ずしも、ビットストリームの特定の部分内のデータの別々の断片(piece)に限定されるわけではなく、代わりに、集合的に、コード化ビットストリームの複数の部分に位置づけされたデータの複数の断片を指しうる。例えば、シーケンスヘッダ内のフラッグおよびフレームヘッダ(あるいは、ビットストリームの他のロケーション)内のさらなるフラッグは、集合的に、本開示において、補間シンタックスと呼ばれうる。補間フィルタの特定のセットを識別するデータを含むことに加えて、補間シンタックスは、補間フィルタのセットからの特定の補間フィルタを識別するシンタックスエレメントを含みうる。例えば、固定SIFセットが、サブピクセルロケーションごとに4つの補間フィルタを含む場合、補間シンタックス内のシンタックスエレメントは、4つの補間フィルタのうちのどれが特定のサブピクセルロケーションに対して使用されたかを識別しうる。
本開示の技術が補間シンタックスをどのように使用するかを示す例として、ビデオ符号器122は、シーケンスのフレームが固定SIFセットを使用してコード化されたか、補間フィルタの新しいセットを使用してコード化されたかをビデオ復号器128にシグナリングするために、フラッグのようなシンタックスエレメントを、シーケンスヘッダに挿入しうる。ビデオ符号器122が補間フィルタの新しいセットを使用したことをフラッグがシグナリングした場合、シーケンスヘッダ内の後続のデータは、フィルタの新しいセットをビデオ復号器128に送信することができる。ビデオ符号器122が固定SIFセットを使用したことをフラッグが示した場合、フィルタ係数を記述する後続のデータがシーケンスヘッダに含まれる必要はない可能性がある。各フレームは、さらに、ビデオ符号器122が前のフレームの際と同じ補間フィルタのセットを使用してフレームをコード化したか否か、ここで、補間フィルタのセットは、シーケンスヘッダで識別され、それは、固定SIFセットか新しいセットかのいずれかでありうる、そうでなければ、ビデオ符号器122がフレーム固有の補間フィルタのセットを使用してフレームをコード化したか否かを、ビデオ復号器128にシグナリングするフラッグをフレームヘッダに含む。ビデオ符号器122が、フレーム固有補間フィルタを使用してフレームをコード化した場合、フレーム固有補間フィルタの係数は、フレームヘッダに含まれうる。
本開示は、ビデオシーケンスおよびビデオフレームに関する所与の例を示すが、そのシーケンスおよびフレーム以外の様々なタイプのコーディングユニットも使用されうる。例えば、本開示に記述される技術は、さらに、シーケンスおよびフレームとは対照的に、シーケンスおよびフレームのグループ、あるいは、シーケンスおよびスライスを使用して実施されうる。記述される技術は、一般的に、第1のコーディングユニットレベルで補間フィルタの新しいセットをシグナリングすることと、次に、より低いコーディングユニットレベル(例えば、フレームのグループ、フレーム、またはスライス)で、補間フィルタに関するさらなる情報をシグナリングすることとを含む。
図2は、本開示と一致する動き補償された補間を実行しうるビデオ符号器250の例を示すブロック図である。ビデオ符号器250は、デバイス112のビデオ符号器122、または、異なるデバイスのビデオ符号器に対応しうる。イントラコーディングは示されていないが、ビデオ符号器250は、ビデオフレーム内のブロックのイントラコーディングおよびインターコーディングを実行しうる。イントラコーディングは、空間予測に依存して、所与のビデオフレーム内のビデオにおける空間的冗長を削減または除去しうる。インターコーディングは、時間予測に依存して、ビデオシーケンスの隣接フレーム内のビデオにおける時間的冗長を削減または除去しうる。イントラモード(Iモード)は、空間ベースの圧縮モードを指し、予測(Pモード)あるいは双方向(Bモード)のようなインターモードは、時間ベースの圧縮モードを指しうる。本開示の技術は、典型的に、インターコーディングの間に適用され、そのため、空間予測ユニットのようなイントラコーディングユニットは、例示を簡潔かつ簡単にするために、図2に示されない。
図2に示されるように、ビデオ符号器250は、符号化されるべきビデオフレーム内の現在のビデオブロックを受信する。図2の例において、ビデオ符号器250は、動き推定ユニット232、動き補償ユニット235、メモリ234、加算器248、変換ユニット238、量子化ユニット240、および、エントロピーコーディングユニット246を含む。ビデオブロック再構築について、ビデオ符号器250は、さらに、逆量子化ユニット242、逆変換ユニット244、および、加算器251も含む。ブロック境界をフィルタリングするためにブロック解除フィルタ(deblocking filter)(示されない)がさらに含まれ、再構築されたビデオから塊状のアーティファクトを除去しうる。望まれる場合、ブロック解除フィルタは、典型的に、加算器251の出力をフィルタリングしうる。加えて、ビデオ品質を改善するために、さらなるフィルタ(ループ後フィルタまたはループ内フィルタなど)も使用されうる。
符号化プロセスの間、ビデオ符号器250は、コード化されるべきビデオブロックを受信し、動き推定ユニット232および動き補償ユニット235は、インター予測コーディングを実行する。動き推定ユニット232および動き補償ユニット235は、高度に統合されうるが、概念的な目的のために、個別に例示される。動き推定は、典型的に、ビデオブロックに対する動きを推定する、動きベクトルを生成するプロセスであるとみなされる。例えば、動きベクトルは、現在のフレーム(または他のコード化ユニット)内のコード化されている現在のブロックに対する予測フレーム(または他のコード化ユニット)内の予測ブロックの変位を示しうる。動き補償は、典型的に、動き推定によって決定された動きベクトルに基づいて予測ブロックを取り出すまたは生成するプロセスであるとみなされる。この場合も、動き推定ユニット232および動き補償ユニット235は、機能的に統合されうる。本開示に記述された補間技術は、動き補償ユニット235によって実行されるものとして記述される。しかしながら、補間は、最良の動きベクトルの選択を容易にするために、動き推定の間に実行されうる。
本開示にしたがって、動き推定ユニット232は、ビデオブロックを、予測コード化ユニット(例えば、前のフレーム)のビデオブロックと比較することによって、コード化されるべきビデオブロックに対して適切な動きベクトルを選択する。現時点では、動き補償ユニット235は、サブピクセル解像度で予測データを生成するために、補間を実行しうる。いくつかのケースでは、動き推定の間、補間は、固定補間フィルタに基づきうる。他のケースでは、動き補償の間に適用される異なる補間フィルタが、動きベクトル選択という目的のために、動き推定プロセスの間にも使用されうる。
動き推定ユニット232が、コード化されるべきビデオブロックに対して動きベクトルを選択すると、動き補償ユニット235は、その動きベクトルに関連付けられた予測ビデオブロックを生成する。しかしながら、本開示にしたがって、動き補償ユニット235は、サブピクセル解像度を有する任意の予測ビデオブロックのいくつかのバージョンを考慮しうる。このケースにおいて、動き補償ユニット235は、コード化されるべきビデオブロックに対して複数の異なる補間予測データを生成するために、複数の予め定義された補間フィルタ(固定SIFセット)を適用しうる。動き補償ユニット235は、さらに、固定SIFセット以外のフィルタを適用しうる。例として、特定のダウンサンプリングフィルタを使用して、高解像度シーケンスから特定の低解像度シーケンスが生成された場合、特定のシーケンスに対して新しい補間フィルタのセットを使用することが望まれうる。そのようなケースにおいて、動き補償ユニット235が、低解像度シーケンスを符号化すると、その分数ピクセル位置に対応する新しい補間フィルタのセットが、ダウンサンプリングフィルタについての知識に基づいて導き出されうる。
次に、動き補償ユニット235は、最大レベルの圧縮を達成する補間予測データ(例えば、補間フィルタのうちの1つに関連付けられた補間ビデオブロック)を選択する。補間データを生成するために使用された補間フィルタは、補間シンタックスとしてコード化され、コーディングビットストリームに組み込むために、エントロピーコード化ユニット246に通信されうる。より詳細に以下に論述される本開示の技術は、動き補償ユニット235が、ビデオデータを、固定SIFセットのフィルタを使用してコード化したか、補間フィルタの新しいセットのフィルタを使用してコード化したかを、補間シンタックスを使用してシグナリングすることを含む。動き補償ユニット235が最良の補間フィルタを選択し、適用すると、動き補償ユニット235は、その補間フィルタを使用して予測データを生成し、ビデオ符号器は、加算器248を適用して、コード化されているビデオブロックからその予測データを差し引いて、残余データを生成する。
述べられたように、動き補償ユニット235が予測データ(例えば、補間予測ビデオブロック)を生成すると、ビデオ符号器250は、コード化されている最初のビデオブロックから予測データを差し引くことによって、残余ビデオブロックを形成する。加算器248は、この減算演算を実行する1つのコンポーネントまたは複数のコンポーネントを表す。変換ユニット238は、離散コサイン変換(DCT)のような変換、または、概念的に類似した変換を残余ブロックに適用し、残余変換ブロック係数を備えるビデオブロックを生成する。変換ユニット238は、例えば、DCTに概念的に類似した、H.264またはHEVC標準によって定義された変換のような他の変換を実行しうる。ウェーブレット変換、整数変換、サブ帯域変換、あるいは、他のタイプの変換も使用されうる。いずれのケースにおいても、変換ユニット238は、残余ブロックに変換を適用し、残余変換係数のブロックを生成する。この変換は、残余情報をピクセルドメインから周波数ドメインへと変換しうる。
量子化ユニット240は、ビットレートをさらに削減するために残余変換係数を量子化する。量子化プロセスは、係数のうちのいくつかあるいは全部に関連付けられたビット深度を削減しうる。例えば、16ビット値は、量子化の間に15ビット値へと端数が切り捨てられうる。量子化に続いて、エントロピーコーディングユニット246は、量子化された変換係数をエントロピーコード化する。例えば、エントロピーコーディングユニット246は、コンテンツ適応可変長コーディング(CAVLC)、コンテキスト適応バイナリ算術コーディング(CABAC)、あるいは、別のエントロピーコーディング方法を実行しうる。エントロピーコーディングユニット246によるエントロピーコーディングに続いて、符号化ビデオは、別のデバイスに送信されるか、あるいは、後の送信または検索のためにアーカイブされうる。コード化ビットストリームは、エントロピーコード化された残余ブロック、そのようなブロックに対する動きベクトル、および、動き補償ユニット235によって適用された補間フィルタを識別する補間シンタックスを含む他のシンタックスを含みうる。
逆量子化ユニット242および逆変換ユニット244は、それぞれ、逆量子化および逆変換を適用して、例えば、基準ブロックを後で使用するために、ピクセルドメインで残余ブロックを再構築しうる。加算器251は、再構築された残余ブロックを、動き補償ユニット235によって生成された動き補償済み予測ブロックに加え、メモリ234に記憶するための再構築ビデオブロックを生成する。再構築ビデオブロックは、基準ブロックとして、動き推定ユニット232および動き補償ユニット235によって使用され、後続のビデオフレーム内のブロックをインター符号化しうる。
図3は、本明細書に記述された方法で符号化されたビデオシーケンスを復号するビデオ復号器360の例を示すブロック図である。ビデオ復号器360は、復号するために本開示の補間技術を実行する動き補償ユニット355を含む。特に、復号する側では、動き補償ユニット355は、補間シンタックスから、ビデオシーケンスのフレームが、固定SIFセットのフィルタを使用してコード化されたか、補間フィルタの新しいセットのフィルタを使用してコード化されたかを識別する、エントロピー復号ユニット352からのシンタックスエレメントを受信しうる。新しいフィルタのセットが使用された場合、シーケンスヘッダは、さらに、補間フィルタの新しいセットを定義するさらなるデータを含みうる。動き補償ユニット355は、補間シンタックスによって識別された補間フィルタのセットに基づいて、基準ビデオデータのピクセル値を補間することを含む予測データを生成しうる。特に、動き補償ユニット355は、エントロピー復号ユニット352から受信された動きベクトルおよびシンタックスエレメントによって定義された補間(図3において補間シンタックスとラベル付されている)に基づいて、予測データを生成しうる。この補間予測データに基づいて、ビデオデータ(例えば、再構築された残余ビデオブロック)は、復号されうる。
エントロピー復号ユニット352は、量子化係数およびシンタックス(例えば、動き補間ユニット355に送られた補間シンタックスおよび動きベクトル)を生成するために、受信ビットストリームをエントロピー復号する。逆量子化ユニット356は、量子化されたブロック係数を逆量子化する、すなわち、脱量子化(de quantize)する。逆量子化プロセスは、H.264復号によって定義されているような従来のプロセスでありうる。逆変換ユニット358は、例えば、逆DCTのような逆変換、または概念的に類似した逆変換プロセスを変換係数に適用し、ピクセルドメインにおいて残余ブロックを生成する。動き補償ユニット355は、例えば、シンタックスエレメント(すなわち、補間シンタックス)によって識別された補間フィルタの係数のセットに基づいた補間を含む、本明細書に記述された方法で動き補償されたブロックを生成する。
加算器364は、残余ブロックを、動き補償ユニット355によって生成された対応予測ブロックと合計することによって残余ブロックを復号し、復号ブロックを形成する。望まれる場合、さらに、復号ブロックをフィルタリングするためのブロック解除フィルタが適用され、塊状のアーティファクトを除去する。次に、復号ビデオブロックは、後続の動き補償のために基準ブロックを提供し、さらに、ドライブディスプレイデバイス(図1のデバイス130のような)への復号ビデオを生成する記憶エレメントであるメモリ362に記憶される。
この場合も、本開示の技術は、予測ビデオブロックのピクセル値がサブピクセル解像度に補間される動き補償済み補間に関与している。符号器は、本開示の技術を使用して、ビデオフレームのシーケンスが、固定SIFセットのフィルタを使用して符号化されたか、補間フィルタの新しいセットのフィルタを使用して符号化されたかを識別する。異なるフィルタは、固定SIFセットの一部であろうと、新しいセットの一部であろうと、異なるセットのフィルタ係数、異なる数のフィルタ係数、または、異なるフィルタタイプによって特徴付けられうる。復号器は、符号器から送られたシンタックスエレメントを解釈し、符号器によって使用された補間フィルタの係数の同一の望まれるセットを識別する。
図4A〜4Dは、予測ビデオブロックのピクセルを備えうる補間ピクセルおよび整数ピクセルを示す概念図である。図4の概念的な例示において、異なるボックスはピクセルを表す。大文字(太い線のボックス内の)は、整数ピクセルのロケーションを表し、小文字(点線のボックス内の)は、補間ピクセルのロケーションを表す。文字入りのラベルは、本明細書において、ピクセルロケーション、すなわちピクセル位置を記述するために使用されうるか、あるいは、様々なロケーションに関連付けられたピクセル値を指しうる。ピクセルロケーション「aa」、「bb」、「cc」、「dd」、「ee」、「ff」、「gg」、「hh」、「ii」、「jj」は、ピクセルロケーション「C3」に関連付けられた様々な分数ロケーションの分数補間において使用される1/2ピクセルロケーションである。
全てのピクセルロケーションは、例えば、ITU H.264/AVC標準に準拠する補間にしたがって、関連する15個の異なる分数ロケーションを有しうるか、あるいは、新生のHEVC標準にしたがって、関連する63個の分数ロケーションを有しうる。図4A〜4Dの例において、ピクセル「C3」に関連付けられた、これら15個の異なる分数ロケーションは、サブピクセルロケーションa〜oとして示される。例示を簡潔かつ簡単にするために、他の分数ロケーションの大部分は示されない(上述されたもの以外であって、それは、ピクセル「C3」に関連付けられた15個の異なる分数ロケーションのうちの1または複数を生成するために使用される)。説明を簡略化するために、図4A〜4Dの例は、15個の異なる分数ロケーションしか示さないが、本開示の技術は、63個の異なる分数のロケーションまたは他の分数ピクセル精度に容易に拡張されうる。
ITU H.264/AVC標準において、1/2ピクセル位置で輝度信号を取得するために、係数[1、−5、20、20、−5、1]を有する6タップのウィーナフィルタが典型的に使用される。次に、1/4ピクセルロケーションで輝度信号を取得するために、双一次フィルタが使用される。双一次フィルタは、さらに、H.264/AVCにおいて最大で1/8ピクセル精度を有しうる色度コンポーネントに対して分数ピクセル補間で使用されうる。
ピクセルロケーション「b」および「h」の1/2ピクセル補間が、図4Bにおいて、それぞれ、水平方向および垂直方向に論証される。このケースにおいて、ピクセルロケーション「b」は、整数ピクセル「C1」、「C2」、「C3」、「C4」、「C5」、「C6」に基づいて補間されうる。同様に、ピクセルロケーション「h」は、整数ピクセル「A3」、「B3」、「C3」、「D3」、「E3」、「F3」に基づいて補間されうる。本明細書に記述されたように、ピクセルロケーション「b」および「h」の異なる補間値を生成するために、異なる補間フィルタ(例えば、フィルタタップの異なるセット)が適用されうる。図4Bにおいて、補間ピクセルロケーション「b」および「h」は、シェーディング(shading)で示され、整数ピクセルロケーション「C1」、「C2」、「C3」、「C4」、「C5」、「C6」、「A3」、「B3」、「C3」、「D3」、「E3」、「F3」はクロスハッシュ(cross-hash)で示される。
図4Cは、2つのレベルの補間を要求しうる1つの特別なケースを示す。特に、ピクセルロケーション「j」は、ピクセルロケーション「j」自体が、他の1/2ピクセル値に基づいて補間される限りにおいて、他の1/2ピクセルロケーションに類似していない。例えば、ピクセルロケーション「j」は、水平方向の1/2ピクセル補間値「cc」、「dd」、「h」、「ee」、「ff」、「gg」に基づいて補間されうる。代替的に、ピクセルロケーション「j」は、垂直方向の1/2ピクセル補間値「aa」、「bb」、「b」、「hh」、「ii」、「jj」に基づいて補間されうる。図4Cにおいて、補間ピクセルロケーション「j」は、シェーディングで示され、垂直方向の1/2ピクセル補間値「aa」、「bb」、「b」、「hh」、「ii」、「jj」は、右から左へのクロスハッシュで示され、1/2ピクセル補間値「cc」、「dd」、「h」、「ee」、「ff」、「gg」は、左から右へのクロスハッシュで示される。
図4Dは、1/4ピクセルロケーション「a」、「c」、「d」、「e」、「f」、「g」、「i」、「k」、「l」、「m」、「n」、「o」を、シェーディングで示し、そのような1/4ピクセル補間(例えば、「C3」、「b」、「C4」、「h」、「j」、「ee」、「D3」、「hh」、「D4」)に対して使用される整数および1/2ピクセルロケーションをクロスハッシュで示す。いくつかのコーディング標準において、1/4ピクセルロケーションおよび1/8ピクセルロケーションの両方を含む全ての分数位置は、マルチステップの補間フィルタリングとは対照的に、直接的なフィルタリングを使用して補間されうる。本開示の技術にしたがって、分数ピクセル位置の各々は、特定のフィルタが選択されうる補間フィルタの関連セット(すなわち、固定SIFセット)を有しうるか、あるいは、さらなる補間フィルタの関連セットを有しうる。
動き推定の後、所与のビデオブロックに対する最良の動きベクトルは、例えば、できる限り、コーディングレートおよび品質を平衡化するためのレート歪みモデルを使用して、識別されうる。次に、予測ビデオブロックは、最良の動きベクトルを使用して、動き補償の間に形成される。上に概要が記されたように、残余ビデオブロックは、予測ビデオブロックを最初のビデオブロックから差し引くことで形成される。次に、残余ブロックに対して変換が適用され、ビットレートをさらに削減するために、変換係数が量子化およびエントロピーコード化される。
この場合も、図4A〜4Dは、大文字を有する実線のボックスで整数ピクセルサンプル(フルピクセルとも呼ばれる)を示す。あらゆる所与の整数ピクセルサンプルについて、全部で15個のサブピクセル位置が存在し、それは、整数ピクセルサンプル「C3」について示され、図4A〜4Dにおいて、「a」〜「o」とラベル付される。H.264/AVCにおいて、まず、1次元の6タップのウィーナフィルタを用いて、1/2ピクセル位置「b」、「h」、「j」が計算されうる。記述されたように、1/2ピクセル位置「j」は、6タップのフィルタリングを使用して2つのレベルの補間を要求しうる。このケースにおいて、ピクセル位置「j」について、場合によっては、1次元の補間の後に、補間ピクセル値の中間の切り上げ機能を用いて、補間フィルタは、まず水平方向で、次に垂直方向で適用され、それによって、データが16ビットの記憶エレメントに記録されることを確実にする。次に、残りの1/4ピクセル位置は、双一次フィルタと、既に計算された1/2ピクセルサンプルとを使用するフィルタリングを介して補間される。
図5は、ビデオフレームのシーケンスあるいはピクチャのグループのような基準ビデオ510のコード化ユニットを表す。コード化ユニットは、シーケンスヘッダのようなユニットヘッダ511と、複数のフレームのような複数のサブユニット520、530、540とを含む。各サブユニット520、530、540は、フレームヘッダのようなサブユニットヘッダ521、531、541と、ペイロードデータ522、532、542とを含む。ペイロードデータは、一般的に、符号化された残余ビデオデータのようなあらゆるタイプのデータを含むことができる。上に紹介されたように、本開示の技術は、コード化ビットストリームで、ビデオ復号器128または360のようなビデオ復号器に補間シンタックスを送る、ビデオ符号器122または250のようなビデオ符号器を含む。補間シンタックスは、基準ビデオ510のユニットのユニットヘッダ511およびサブユニットヘッダ521、531、541全体に分散した複数のシンタックスエレメントを含むことができる。
補間シンタックスは、動き補償の間に、ビデオ符号器によって使用される1つの補間フィルタまたは補間フィルタのセットを、ビデオ復号器が決定することを可能にする複数のシンタックスエレメントを含む。1つの例において、ビデオ符号器は、サブユニット520、530、540が、固定SIFセットを使用してコード化されたか、新しい補間フィルタを使用してコード化されたかを示すフラッグをユニットヘッダ511に含む。フラッグは、例えば、単一のビットでありうる。ここで、0は、固定SIFセットを使用したビデオ符号器を表し、1は、新しい補間が使用されたことを表す。フラッグが0に設定され、固定SIFセットが使用された場合、ビデオ符号器は、新しいフィルタについてのさらなる情報をビデオ復号器に送信しない可能性がある。しかしながら、フラッグが1に設定され、新しい補間フィルタがビデオ符号器によって使用された場合、ビデオ符号器は、ユニットヘッダ511においてさらなる情報をビデオ復号器に送信し、それは、ビデオ復号器が、ビデオ符号器によって使用される新しい補間フィルタのセットを再構築することを可能にする。上に記述されたように、セット内の様々な補間フィルタに対して全てのフィルタ係数よりも少ない数のフィルタ係数を受信して、補間フィルタのフルセットをビデオ復号器が再構築することを可能にする様々な技術が存在する。
新しい補間フィルタが使用されたことを示す1にフラッグが設定された場合、それは、新しい1つの補間フィルタまたは補間フィルタのセットがサブピクセルロケーションに対しても使用されたことを必ずしも示すわけではない。いくつかの実施において、ビデオ符号器は、固定SIFセットに加えて新しい補間フィルタを使用することができ、それは、本質的に、固定SIFセットを拡張する。例えば、固定SIFセットが、サブピクセルロケーションごとに4つの補間フィルタを含み、新しい補間フィルタが使用されたことを示す1にフラッグが設定された場合、ビデオ符号器は、サブピクセルロケーションごとに2つの新しい補間フィルタをビデオ復号器に送信しうる。動き補償を実行する際、ビデオ符号器および復号器は、必ずしも、各サブピクセルロケーションに対して2つの新しい補間フィルタに限定されるわけではなく、代わりとして、サブピクセル位置に対して6つの補間フィルタから選択しうる。ここで、6つの補間フィルタのセットは、固定SIFセットの4つのフィルタと、2つの新しい補間フィルタとを含む。
単一の新しい補間フィルタが分数ピクセル位置の各々に対して使用される例において、分数ピクセル位置ごとに、ビデオ符号器は、ユニットヘッダ511においてフィルタ係数をビデオ復号器に送信することができる。いくつかの実施において、新しい補間フィルタで使用されるフィルタ係数の数は変数(variable)であり、このケースにおいて、ビデオ符号器は、係数自体に加え、フィルタ係数の数を示すシンタックスエレメントをユニットヘッダ511でビデオ復号器に送信する。分数ピクセル位置ごとの各補間フィルタに対する係数の数が同じである実施において、フィルタ係数の数を示す単一のシンタックスエレメントだけが、ユニットヘッダ511において、ビデオ符号器からビデオ復号器に送信される必要がある。各サブピクセルロケーションが異なる数のフィルタ係数を潜在的に使用する実施において、ビデオ符号器は、フィルタ係数の数を示すシンタックスエレメントをユニットヘッダに含みうる。1/2ピクセル位置および1/4ピクセル位置などのサブピクセルロケーションの異なるグループが、各々、異なる数の可能なフィルタ係数を有する実施において、フィルタ係数の数を示すシンタックスエレメントは、グループごとであり、ユニットヘッダ511に含まれうる。
ビデオ符号器およびビデオ復号器は、フィルタ係数内の様々な対称性を利用して、送信される必要のある、フィルタ係数の数を制限し、それによって、ビット数を制限するように構成されうる。残りの係数は、通信される係数に基づいて復号器で生成されることができる。特に、復号器は、対称性が適用されたかを知るようにプログラムされることができ、対称性は、通信された係数に基づいて任意の残りの係数をどのように生成するかを定義することができる。例えば、分数位置の各々に対する新しい補間フィルタが6つの係数を含むことを、ビデオ符号器がビデオ復号器にシグナリングした場合、ビデオ符号器は、1/2ピクセル位置「b」、「h」、「j」に対して3つの係数だけをビデオ復号器に送信し、それら3つの係数から、ビデオ復号器は、補間フィルタの6つの係数を再構築することができる。例えば、サブピクセルロケーション「b」について、ビデオ符号器が、係数X1、X2、X3を送信した場合、ビデオ復号器は、対称性を使用して、[X1×C1+X2×C2+X3×C3+X3×C4+X2×C5+X1×C6]に対応するであろう、補間フィルタの6つの係数を再構築することができる。いくつかのサブピクセルロケーションについて、ビデオ復号器は、第1のサブピクセルロケーションで補間フィルタに対して係数を再利用し、異なるサブピクセルロケーションで補間フィルタを再構築することができる。例えば、サブピクセル位置「a」に対するフィルタ係数がX1、X2、X3、X4、X5、X6である場合、ビデオ復号器は、それら6つの係数から、2つの補間フィルタを再構築することができる。サブピクセル「a」に対する補間フィルタは、[X1×C1+X2×C2+X3×C3+X4×C4+X5×C5+X6×C6]であり、サブピクセル「c」に対する補間フィルタは、[X6×C1+X5×C2+X4×C3+X3×C4+X2×C5+X1×C6]でありうる。
単一の新しいフィルタとは対照的に、新しいフィルタのセットが分数ピクセル位置ごとに使用される例において、分数ピクセル位置ごとに、ビデオ符号器は、新しい補間フィルタのセットに対する係数をビデオ復号器に送信しうる。いくつかの実施において、新しい可能なフィルタの数、および、各フィルタ内の係数の数の一方または両方は変化することができ、このケースにおいて、ビデオ符号器は、分数位置ごとに新しい補間フィルタの数を示すシンタックスエレメント、および/または、新しい補間フィルタごとにフィルタ係数の数を示すシンタックスエレメントをビデオ復号器に送信する。可能な新しい補間フィルタの数が全ての分数ピクセル位置に対して同じである場合、可能な新しい補間フィルタの数を示す単一のシンタックスエレメントは、ビデオ符号器からビデオ復号器に送信されることができる。しかしながら、各分数位置が、異なる可能な数の新しい補間フィルタを有することができる場合、分数ピクセル位置ごとに、新しい可能な補間フィルタの数を示すシンタックスエレメントは、ビデオ符号器からビデオ復号器に送られうる。
いくつかの実施において、新しい補間フィルタのセットは、いくつかの分数ピクセル位置に対して第1の数の新しい補間フィルタを、他の分数位置に対して異なる数の新しい補間フィルタを含みうる。例えば、補間フィルタの新しいセットは、1/2ピクセルロケーションb、h、jの各々に対して2つの新しい補間フィルタを、1/4ピクセルロケーションa、c、d、e、f、g、i、k、m、oの各々に対して4つの新しい補間を含みうる。そのような例において、ビデオ符号器は、1/2ピクセルロケーションに対する新しい可能な補間フィルタの数を示す第1のシンタックスエレメント、1/4ピクセルロケーションに対する可能な新しい補間フィルタの数を示す第2のシンタックスエレメントという、可能な新しい補間フィルタの数を示す2つのシンタックスエレメントをビデオ復号器に送信しうる。
上で論述されたように、いくつかの実施において、新しい補間フィルタで使用されるフィルタ係数の数も変数であり、このケースにおいて、ビデオ符号器は、各サブピクセルロケーションで、フィルタに対するフィルタ係数の数を示すシンタックスエレメントをビデオ復号器に送信しうる。各分数ピクセル位置に対する各フィルタが同じ数のフィルタ係数を使用する実施において、ビデオ符号器は、フィルタ係数の数を示す単一のシンタックスエレメントをビデオ復号器に送信するだけである。各サブピクセルロケーションが異なる数のフィルタ係数を潜在的に使用する実施において、フィルタ係数の数を示すシンタックスエレメントは、サブピクセル位置ごとにビデオ符号器からビデオ復号器に送られる。1/2ピクセル位置および1/4ピクセル位置などのサブピクセルロケーションの異なるグループが、各々、異なる数の可能なフィルタ係数を有する実施において、フィルタ係数の数を示すシンタックスエレメントは、グループごとにビデオ符号器からビデオ復号器に送られうる。より詳細に上に論述されたように、ビデオ符号器からビデオ復号器へのフィルタ係数の送信に必要とされるビット数は、フィルタ係数を再構築する際に、ビデオ復号器において対称性を使用することによって削減されうる。
固定SIFセット内の固定フィルタの数が変数「NumFixedFilters」で表されると仮定すると、シーケンスヘッダ内の1ビットのフラッグは、さらなるフィルタがビットストリームに含まれているか否かを示すために使用されうる。フラッグが1の場合、余分なフィルタの数もシグナリングされ、次に、バイト単位でフィルタ係数の精度および各フィルタの係数が続く。1/4、1/2、3/4ピクセル位置に対するフィルタが送られている場合、前に論述された様々な対称性により、それは、全ての分数ピクセル(1/4)位置で使用されるべきフィルタを指定する(タップの数/2×3)個の係数を送るのに十分である。よって、フラッグが1の場合、余分なフィルタの数(NumExtraFilters)がシグナリングされる。1つの例において、さらなるフィルタの最大数は、4に制限されうる。そのようなケースにおいて、余分なフィルタの数は、2ビットの(NumExtraFilters−1)を使用してシグナリングされることができる。当業者は、異なる最大を使用することができることを認識するであろう。各フィルタについて、フィルタ精度は、多数のバイトとしてシグナリングされうる。よって、フィルタ係数が、[−128,127]の範囲内である場合、1バイトだけが必要である。1つの例において、フィルタ精度に対して最大2バイトが可能でありうる。よって、それは、単一のビットを使用してシグナリングされうる。ここで、0は1バイトに対応し、1は2バイトに対応する。これの次に、((タップの数/2)−1)を送ることが続く。使用される補間フィルタは、一般的に、常に均等の長さであることに注意されたい。次に、(タップの数/2×3の)係数が、前に特定された精度を使用して送られる。これは、さらなるフィルタごとに繰り返される。この例は、1つのさらなるフィルタが、全ての分数ピクセル(1/4)位置に対する1つのさらなるフィルタを指すと仮定する。
つまり、全体で、さらなる補間フィルタを受信した後、合計でN個のフィルタが存在し、ここで、N=NumFixedFilters+NumExtraFiltersである。余分なフィルタが含まれない場合、NumExtraFilters=0である。
前の論述は、ビデオシーケンスヘッダのような第1のコーディングユニットのヘッダに含まれるシンタックスエレメントに焦点を当てている。さらなるシンタックスエレメントは、ビデオシーケンスのフレームに対するフレームヘッダ内など、そのコーディングユニットのサブユニットに対するヘッダに含まれうる。いくつかのケースにおいて、各フレームヘッダは、フレームが、前のフレームで使われていたものと同じ補間フィルタのセットを使用してコード化されたか否か、ここで、補間フィルタのセットはシーケンスヘッダにおいて識別され、それは、固定SIFセットか、あるいは、シーケンスヘッダに含まれる新しい補間フィルタのいずれかでありうる、そうでなければ、補間フィルタの別の新しいセットがフレームヘッダに含まれるか否かを示すシンタックスエレメントを含みうる。
1つの例において、単一ビットのシンタックスエレメントは、シーケンスの特定のフレームが、シーケンス内の前のフレーム(符号化オーダで)と補間フィルタの同じセットを使用しコード化されたか否かをビデオ復号器にシグナリングするために使用されうる。例えば、補間フィルタの同じセットが使用された場合、単一のビットは、0に設定され、補間フィルタの異なるセットが使用された場合、ビットは、1に設定されうる。ビットが、補間フィルタの異なるセットが使用されたことを示す1に設定された場合、第2のビットは、補間フィルタの異なるセットが、シーケンスヘッダにおいて識別された補間フィルタであるか否か、そうでなければ、補間フィルタの異なるセットが、フレームヘッダに含まれるか否かを示すために使用されうる。このように、フレームごとに、フレームヘッダ内のシンタックスエレメントは、次のように解釈されうる:0:前のフレーム(符号化オーダーで)の場合と同じ補間フィルタのセットが使用される。10:シーケンスヘッダからの補間フィルタのセットが使用される。このセットは、上に記述されたように、シーケンスヘッダで識別された固定SIFセット、または、補間フィルタの新しいセットである。11:補間フィルタの新しいセットがフレームヘッダに含まれる。
フレームヘッダのシンタックスエレメントが11に等しい場合、各サブピクセルロケーションに対するさらなるフィルタまたはフィルタセットが、さらなる補間フィルタをシーケンスヘッダに含むために、上に記述された同一の技術を使用してフレームヘッダに含まれうる。
図6は、本開示と一致するビデオ符号化の1または複数の態様と一致するフロー図である。図5は、図2に示されるビデオ符号器250の観点から論述されるであろう。特に、動き補償ユニット235は、予測データを生成し(601)、それは、固定SIFセットか、新しい補間フィルタのセットのいずれかの一部である補間フィルタに基づいて補間することを含む。次に、動き補償ユニット235は、補間フィルタの各々に関連付けられた予測データに基づいて、例えば、ビデオブロックなどのビデオデータを符号化する(602)。例えば、動き補償ユニット235は、加算器248を呼び出して、補間フィルタの各々に関連付けられた残余ブロックを生成し、それによって、最良の残余ブロックを見つけるために、異なる残余ブロックが互いに比較されうる。動き補償ユニット235は、最大レベルの圧縮を達成するビデオデータを選択する(603)。特に、選択されたビデオデータは、加算器248の「resid. block」出力として示され、それは、最終出力である。加算器248のこの最終出力は、変換ユニット238によって変換され、量子化ユニット240によって量子化され、エントロピーコーディングユニット246によってエントロピーコード化される。
動き補償ユニット235は、さらに、最大レベルの圧縮を達成する選択残余ビデオデータに関連付けられた特定の補間フィルタを識別する(604)。動き補償ユニット235は、補間シンタックスエレメントをエントロピーコーディングユニット246に転送する。補間シンタックスは、使用された特定の補間フィルタが、固定SIFセットからのものであったか、補間フィルタの新しいセットからのものであったかを識別する。使用された特定の補間フィルタが固定SIFセットからのものであった場合、動き補償ユニット235は、固定SIFセットのどのフィルタが、特定の補間フィルタに対応するか、並びに、使用された特定の補間フィルタが、新しい補間フィルタのセットからのものであったかを識別し、次に、動き補償ユニット235はデータを送信し、それによって、補間フィルタの新しいセットは、復号器において再構築されうる。図2の例において、エントロピーコーディングユニット246は、出力ビットストリームの一部を形成するために、補間シンタックスを符号化する(605)。しかしながら、別の例において、上に記述された0、10、11シンタックスエレメントのようなシンタックスエレメントは、エントロピーコーディングプロセスを経験することなく出力ビットストリームの一部を形成するために符号化されうる。出力ビットストリーム内の補間シンタックスエレメントを符号化することによって、ビデオ符号器250で使用される補間フィルタ(例えば、使用されるフィルタ係数、あるいは、他のフィルタ設計またはパラメータ)は、宛先デバイスに通信され、これにより、宛先デバイスは、ビデオ再構築の間に適切な補間フィルタリングを実行することができる。
図7は、本開示と一致するビデオ復号の1または複数の態様と一致するフロー図である。図7は、図3に示されるビデオ復号器360の観点から論述されるであろう。特に、ビデオ復号器360は、符号化ビデオデータを受信し(711)、符号化ビデオデータが固定SIFセットのフィルタを使用して符号化されたか、新しい補間フィルタを使用して符号化されたかを識別する補間シンタックスを受信する(712)。符号化ビットストリームは、符号化された残余ビデオデータと、符号器で使用された補間フィルタを識別する補間シンタックスエレメントとの両方を含みうる。例において、エントロピー復号ユニット352は、受信されたビットストリームをエントロピー復号して、逆量子化ユニット356および逆変換ユニット358に送られる、変換および量子化された残余ブロックを解析し、動き補償ユニット355に送られる補間シンタックスエレメントおよび動きベクトルを解析する。しかしながら、他の例において、補間シンタックスは、エントロピー復号される必要はない可能性がある。
動き補償ユニット355は、予測データを生成し(713)、それは、補間シンタックスエレメントによって識別された補間フィルタに基づく補間を含む。ビデオ復号器360は、予測データに基づいてビデオデータを復号する(714)。特に、動き補償ユニット355によって生成される予測データは、ピクセルドメインにおいてビデオデータを再構築するために、加算器364を介して残余データと結合されうる。次に、復号されたビデオは、後で予測に使用するためにメモリ362に記憶され、さらに、例えば、ディスプレイまたは他の出力デバイスを介して、ユーザに表示するために出力されうる。
図8は、本開示と一致するビデオ符号化の1または複数の態様を示すフロー図である。図8は、図2に示されるビデオ符号器250の観点から論述されるであろう。動き補償ユニット235は、補間フィルタの第1のセットに基づいて第1の予測データを生成するために、基準ビデオの第1のサブユニットに対して第1のピクセル値を補間する(801)。動き補償ユニット235は、例えば、複数の補間フィルタに関連付けられた残余ブロックを生成するために、加算器248を呼び出すことによって第1のピクセル値を補間し、最良の残余ブロックを見つけるために、異なる残余ブロックは互いに比較されることができる。動き補償ユニット235は、最大レベルの圧縮を達成するビデオデータを選択することができる。特に、選択されたビデオデータは、加算器248の「resid. block」出力として示され、それは、最終出力である。動き補償ユニット235は、さらに、補間フィルタの第1のセットが、基準ビデオの第1のサブユニットを備える基準ビデオのユニットに関連付けられたシンタックスエレメントにおいて定義されることを示すために、基準ビデオの第1のサブユニットに関連付けられた第1のシンタックスエレメントを生成する(802)。動き補償ユニット235は、第1の予測データに基づいてビデオデータを符号化し(803)、第1のシンタックスエレメントを符号化し(804)、補間フィルタの第1のセットに対する係数を符号化する(805)。
第1の予測データの符号化は、例えば、変換ユニット238によって変換され、量子化ユニット240によって量子化され、エントロピーコーディングユニット246によってエントロピーコード化されている加算器248の最終出力を含みうる。第1のシンタックスエレメントの符号化は、例えば、第1のシンタックスエレメントをエントロピーコーディングユニット246に転送する動き補償ユニット235と、出力ビットストリームの一部を形成するために第1のシンタックスエレメントを符号化するエントロピーコーディングユニット246とを含みうる。補間フィルタの第1のセットに対する係数の符号化は、例えば、フィルタ係数自体のうちのいくつかまたは全てに加えて、可能なフィルタの数および各フィルタの長さのようなフィルタ係数を記述する情報をエントロピーコーディングユニット246に転送する動き補償ユニット235と、出力ビットストリームの一部を形成するためにフィルタ係数およびフィルタ係数を記述する情報を符号化するエントロピーコーディングユニット246とを含みうる。この方法において、ビデオ符号器250で使用される補間フィルタ(例えば、使用されるフィルタ係数、あるいは、他のフィルタ設計またはパラメータ)は、宛先デバイスに通信され、これにより、宛先デバイスは、ビデオ再構築の間に適切な補間フィルタリングを実行することができる。
いくつかの例において、基準ビデオの第1のサブユニットは、基準ビデオの第1のフレームであり、基準ビデオのユニットは、基準ビデオの第1のフレームを含むフレームのシーケンスでありうる。そのような例において、第1のシンタックスエレメントは、フレームヘッダ(例えば、図5のサブユニットヘッダ521、531、541参照)に含まれることができ、係数の第1のセットは、シーケンスヘッダ(例えば、図5のユニットヘッダ511参照)に含まれることができる。
第1のピクセル値および第1のシンタックスエレメントについて上に記述されたものと同じ方式において、動き補償ユニット235は、さらに、補間フィルタの第2のセットに基づいて第2の予測データを生成するために、基準ビデオの第2のサブユニットに対して第2のピクセル値を補間し、補間フィルタの第2のセットが予め定義されることを示すために、基準ビデオの第2のサブユニットに関連付けられた第2のシンタックスエレメントを生成し、第2の予測データに基づいてビデオデータを符号化し、第2のシンタックスエレメントを符号化することができる。第2のサブユニットは、例えば、基準ビデオのフレームであり、第2のシンタックスエレメントは、基準ビデオのフレームのフレームヘッダに含まれうる。
第1のピクセル値および第1のシンタックスエレメントについて上に記述されたものと同じ方式において、動き補償ユニット235は、補間フィルタの第3のセットに基づいて第3の予測データを生成するために、基準ビデオの第3のサブユニットに対して第3のピクセル値を補間し、補間フィルタの第3のセットが基準ビデオの第3のサブユニットのヘッダ内で定義されるべきであることを識別するために基準ビデオの第3のサブユニットに関連付けられた第3のシンタックスエレメントを生成し、第3の予測データに基づいてビデオデータを符号化し、第3のシンタックスエレメントを符号化しうる。第3のサブユニットは、例えば、基準ビデオのフレームであり、第3のシンタックスエレメントは、基準ビデオのフレームのフレームヘッダに含まれうる。基準ビデオのフレームに対するフレームヘッダは、さらに、補間フィルタの第3のセットを含みうる。
第1のピクセル値および第1のシンタックスエレメントについて上に記述されたものと同じ方法において、動き補償ユニット235は、補間フィルタの第4のセットに基づいて第4の予測データを生成するために、基準ビデオの第4のサブユニットに対して第4のピクセル値を補間し、補間フィルタの第4のセットが、基準ビデオの前のサブユニットに基づいて定義されるべきであることを識別するために、基準ビデオの第4のサブユニットに関連付けられた第4のシンタックスエレメントを生成し、第4の予測データに基づいてビデオデータを符号化し、第4のシンタックスエレメントを符号化しうる。第4のサブユニットは、例えば、基準ビデオのフレームであり、前のサブユニットは、基準ビデオの前のフレームでありうる。第4のシンタックスエレメントは、基準ビデオのフレームのフレームヘッダに含まれうる。補間フィルタの第4のセットは、基準ビデオの前のフレームによって使用される補間フィルタの同じセットであり、基準ビデオの前のフレームのフレームヘッダ、スライスヘッダに含まれうる、または予め定義されたフィルタの一部に含まれうる。
図9は、本開示と一致するビデオ復号の1または複数の態様を示すフロー図である。図9は、図3に示されるビデオ復号器360の観点から論述されるであろう。特に、ビデオ復号器360は、ビデオビットストリームにおいて、複数のサブユニットを含む基準ビデオのユニットを受信する(901)。エントロピー復号ユニット352は、受信されたビットストリームをエントロピー復号して、逆変換量子化ユニット356および逆変換ユニット358に送られる、変換および量子化された残余ブロックを解析し、動き補償ユニット355に送られる補間シンタックスエレメントおよび動きベクトルを解析しうる。補間シンタックス内で、動き補償ユニット355は、複数のサブユニットのうちの第1のサブユニットに関連付けられた第1のシンタックスエレメントを識別することができる(902)。第1のシンタックスエレメントは、補間フィルタの第1のセットが、基準ビデオのユニットに関連付けられたシンタックスエレメントにおいて定義されることを動き補償ユニット355に示すことができる。基準ビデオのユニットに関連付けられたシンタックスエレメント内のデータから、動き補償ユニット355は、補間フィルタの第1のセットに対して、フィルタ係数を決定し、フィルタ係数の第1のセットを再構築することができる(903)。動き補償ユニット355は、補間フィルタの第1のセットを使用して、第1の予測データを生成するために、基準ビデオのユニットの第1のサブユニットに対して第1のピクセル値を補間し(904)、第1の予測データから、動き補償ユニット355は、復号ビデオを生成する(905)。特に、動き補償ユニット355によって生成される第1の予測データは、加算器364を介して残余データと結合され、ピクセルドメインにおいてビデオデータを再構築する。復号されたビデオは、次に、後で予測に使用するためにメモリ362に記憶され、さらに、例えば、ディスプレイまたは他の出力デバイスを介して、ユーザに表示するために出力されうる。いくつかの例において、基準ビデオの第1のサブユニットは、基準ビデオの第1のフレームであり、基準ビデオのユニットは、基準ビデオの第1のフレームを備えるフレームのシーケンスである。
第1のピクセル値および第1のシンタックスエレメントについて上述されたものと同じ方式において、動き補償ユニット355は、基準ビデオのユニットにおいて、複数のサブユニットのうちの第2のサブユニットに関連付けられ、補間フィルタの第2のセットが予め定義されることを表す第2のシンタックスエレメントを識別し、補間フィルタの第1のセットを使用して第2の予測データを生成するために、基準ビデオのユニットの第2のサブユニットに対して第2のピクセル値を補間し、第2の予測データに基づいて復号ビデオデータを生成しうる。
第1のピクセル値および第1のシンタックスエレメントについて上述されたものと同じ方式において、動き補償ユニット355は、基準ビデオのユニットにおいて、複数のサブユニットのうちの第3のサブユニットに関連付けられ、補間フィルタの第3のセットが、基準ビデオの第3のサブユニットのヘッダで定義されるべきであることを表す第3のシンタックスエレメントを識別し、補間フィルタの第3のセットを使用して第3の予測データを生成するために、基準ビデオのユニットの第3のサブユニットに対して第3のピクセル値を補間し、第3の予測データに基づいて復号ビデオデータを生成しうる。動き補償ユニット355は、さらに、基準ビデオの第3のサブユニットのヘッダに基づいて補間フィルタの第3のセットを再構築することができる。
第1のピクセル値および第1のシンタックスエレメントについて上述されたものと同じ方式において、動き補償ユニット355は、基準ビデオのユニットにおいて、複数のサブユニットのうちの第4のサブユニットに関連付けられ、補間フィルタの第4のセットが、基準ビデオの前のフレームに基づいて定義されるべきであることを表す第4のシンタックスエレメントを識別し、補間フィルタの第4のセットを使用して第4の予測データを生成するために、基準ビデオのユニットの第4のサブユニットに対して第4のピクセル値を補間し、第4の予測データに基づいて復号ビデオデータを生成する。
本開示の技術は、無線ハンドセット、および、集積回路(IC)またはICのセット(すなわち、チップセット)を含む広範囲のデバイスまたは装置に組み込まれうる。任意のコンポーネント、モジュールまたはユニットは、機能的な態様を強調するために提供され記述されるが、必ずしも、異なるハードウェアユニットなどによる実現を要求するわけではない。
結果として、本明細書に記述された技術は、ハードウェア、ソフトウェア、ファームウェアまたはそれらのあらゆる組み合わせに実施されうる。モジュールまたはコンポーネントとして記述された任意の特徴は、統合された論理デバイスで同時に、あるいは、離散的でありながらも相互作用する論理デバイスとして独立して実施されうる。ソフトウェアで実施された場合、本技術は、プロセッサにおいて実行されると、上に記述された方法のうちの1または複数を実行する命令を備えるコンピュータ読取可能な媒体によって少なくとも部分的に実現されうる。コンピュータ読取可能な媒体は、有形のコンピュータ読取可能な記憶媒体を備え、パッケージングマテリアルを含みうるコンピュータプログラムプロダクトの一部を形成しうる。コンピュータ読取可能な記憶媒体は、同期ダイナミックランダムアクセスメモリ(SDRAM)のようなランダムアクセスメモリ(RAM)、読取専用メモリ(ROM)、不揮発性ランダムアクセスメモリ(NVRAM)、電子的消去可能プログラマブル読取専用メモリ(EEPROM)、FLASHメモリ、磁気または光学データ記憶媒体などを備えうる。本技術は、付加的にまたは代替的に、コンピュータによってアクセス、読取、および/または実行されることができるコードを命令またはデータ構造の形態で搬送または通信するコンピュータ読取可能な通信媒体によって少なくとも部分的に実現されうる。
コードは、1または複数のデジタル信号プロセッサ(DSP)、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブル論理アレイ(FPGA)、または、他の同様の統合またはディスクリート論理回路のような1または複数のプロセッサによって実行されうる。結果として、「プロセッサ」という用語は、本明細書で使用される場合、前述の構造のいずれか、あるいは、本明細書に記述された技術の実施に適したあらゆる他の構造を指しうる。加えて、いくつかの態様において、本明細書に記述された機能性は、符号化および復号するように構成された専用のソフトウェアモジュールまたはハードウェアモジュール内に提供されうるか、あるいは、結合ビデオ符号器/復号器(CODEC)に組み込まれうる。さらに、本技術は、1または複数の回路または論理エレメントにおいて十分に実施されうる。
本開示の様々な態様が記述されている。これらの態様および他の態様は、以下の請求項の範囲内である。

Claims (56)

  1. ビデオデータを符号化するための方法であって、
    第1の予測データを生成するために、基準ビデオの第1のサブユニットに対して第1のピクセル値を補間することと、ここにおいて、前記第1のピクセル値を補間することは、補間フィルタの第1のセットに基づく、
    前記補間フィルタの第1のセットが、前記基準ビデオの第1のサブユニットを備える基準ビデオのユニットに関連付けられたシンタックスエレメントにおいて定義されることを示すために、前記基準ビデオの第1のサブユニットに関連付けられた第1のシンタックスエレメントを生成することと、
    前記第1の予測データに基づいて前記ビデオデータを符号化することと、
    前記符号化ビデオデータおよび前記第1のシンタックスエレメントを含む符号化されたビットストリームを生成することと
    を備える方法。
  2. 前記基準ビデオの第1のサブユニットは、前記基準ビデオの第1のフレームであり、前記基準ビデオのユニットは、前記基準ビデオの第1のフレームを備えるフレームのシーケンスである、請求項1に記載の方法。
  3. 前記符号化ビットストリームは、前記補間フィルタの第1のセットを再構築するためのデータをさらに含む、請求項1に記載の方法。
  4. 第2の予測データを生成するために、基準ビデオの第2のサブユニットに対して第2のピクセル値を補間することと、ここにおいて、前記第2のピクセル値を補間することは、補間フィルタの第2のセットに基づく、
    前記補間フィルタの第2のセットが予め定義されることを示すために、前記基準ビデオの第2のサブユニットに関連付けられた第2のシンタックスエレメントを生成することと、
    前記第2の予測データに基づいて前記ビデオデータを符号化することと、
    前記符号化ビデオデータおよび前記第2のシンタックスエレメントを含む符号化ビットストリームを生成することと
    をさらに備える、請求項1に記載の方法。
  5. 第2の予測データを生成するために、基準ビデオの第2のサブユニットに対して第2のピクセル値を補間することと、ここにおいて、前記第2のピクセル値を補間することは、補間フィルタの第2のセットに基づく、
    前記補間フィルタの第2のセットが前記基準ビデオの第2のサブユニットのヘッダで定義されるべきであることを識別するために、前記基準ビデオの第2のサブユニットに関連付けられた第2のシンタックスエレメントを生成することと、
    前記第2の予測データに基づいて前記ビデオデータを符号化することと、
    前記符号化ビデオデータおよび前記第2のシンタックスエレメントを含む符号化ビットストリームを生成することと
    をさらに備える、請求項1に記載の方法。
  6. 前記補間フィルタの第2のセットを再構築するためにデータを符号化することをさらに備える、請求項5に記載の方法。
  7. 第2の予測データを生成するために、基準ビデオの第2のサブユニットに対して第2のピクセル値を補間することと、ここにおいて、前記第2のピクセル値を補間することは、補間フィルタの第2のセットに基づく、
    前記補間フィルタの第2のセットが基準ビデオの前のサブユニットに基づいて定義されるべきであることを識別するために、前記基準ビデオの第2のサブユニットに関連付けられた第2のシンタックスエレメントを生成することと、
    前記第2の予測データに基づいて前記ビデオデータを符号化することと、
    前記符号化ビデオデータおよび前記第2のシンタックスエレメントを含む符号化ビットストリームを生成することと
    をさらに備える、請求項1に記載の方法。
  8. ビデオデータを復号するための方法であって、
    ビデオビットストリームにおいて、基準ビデオのユニットを受信することと、ここにおいて、前記基準ビデオのユニットは、複数のサブユニットを備える、
    前記基準ビデオのユニットにおいて、第1のシンタックスエレメントを識別することと、ここにおいて、前記第1のシンタックスエレメントは、前記複数のサブユニットの第1のサブユニットに関連付けられ、前記第1のシンタックスエレメントは、前記基準ビデオのユニットに関連付けられたシンタックスエレメントにおいて、補間フィルタの第1のセットが定義されることを表す、
    前記補間フィルタの第1のセットを使用して第1の予測データを生成するために、前記基準ビデオのユニットの前記第1のサブユニットに対して第1のピクセル値を補間することと、
    前記第1の予測データに少なくとも部分的に基づいて前記ビデオデータを復号することと
    を備える方法。
  9. 前記基準ビデオのユニットの第1のサブユニットは、基準ビデオの第1のフレームであり、前記基準ビデオのユニットは、前記基準ビデオの第1のフレームを備えるフレームのシーケンスである、請求項8に記載の方法。
  10. 前記基準ビデオのユニットに関連付けられた前記シンタックスエレメントに基づいて前記補間フィルタの第1のセットを再構築することをさらに備える、請求項8に記載の方法。
  11. 前記基準ビデオのユニットにおいて、第2のシンタックスエレメントを識別することと、ここにおいて、前記第2のシンタックスエレメントは、前記複数のサブユニットの第2のサブユニットに関連付けられ、前記第2のシンタックスエレメントは、補間フィルタの第2のセットが、予め定義されることを表す、
    前記補間フィルタの第2のセットを使用して第2の予測データを生成するために、前記基準ビデオのユニットの前記第2のサブユニットに対して第2のピクセル値を補間することと、
    前記第2の予測データに少なくとも部分的に基づいて前記ビデオデータを復号することと
    をさらに備える、請求項8に記載の方法。
  12. 前記基準ビデオのユニットにおいて、第2のシンタックスエレメントを識別することと、ここにおいて、前記第2のシンタックスエレメントは、前記複数のサブユニットの第2のサブユニットに関連付けられ、前記第2のシンタックスエレメントは、補間フィルタの第2のセットが、前記基準ビデオのユニットの前記第2のサブユニットのヘッダにおいて定義されるべきであることを表す、
    前記補間フィルタの第2のセットを使用して第2の予測データを生成するために、前記基準ビデオのユニットの前記第2のサブユニットに対して第2のピクセル値を補間することと、
    前記第2の予測データに少なくとも部分的に基づいて前記ビデオデータを復号することと
    をさらに備える、請求項8に記載の方法。
  13. 前記基準ビデオの第2のサブユニットの前記ヘッダに基づいて前記補間フィルタの第2のセットを再構築することをさらに備える、請求項12に記載の方法。
  14. 前記基準ビデオのユニットにおいて、第2のシンタックスエレメントを識別することと、ここにおいて、前記第2のシンタックスエレメントは、前記複数のサブユニットの第2のサブユニットに関連付けられ、前記第2のシンタックスエレメントは、補間フィルタの第2のセットが基準ビデオの前のフレームに基づいて定義されるべきであることを表す、
    前記補間フィルタの第2のセットを使用して第2の予測データを生成するために、前記基準ビデオのユニットの前記第2のサブユニットに対して第2のピクセル値を補間することと、
    前記第2の予測データに少なくとも部分的に基づいて前記ビデオデータを復号することと
    をさらに備える、請求項8に記載の方法。
  15. ビデオデータを符号化する装置であって、
    第1の予測データを生成するために、基準ビデオの第1のサブユニットに対して第1のピクセル値を補間し、ここにおいて、前記第1のピクセル値を補間することは、補間フィルタの第1のセットに基づく、
    前記基準ビデオの第1のサブユニットを備える基準ビデオのユニットに関連付けられたシンタックスエレメントにおいて、前記補間フィルタの第1のセットが定義されることを示すために、前記基準ビデオの第1のサブユニットに関連付けられた第1のシンタックスエレメントを生成し、
    前記第1の予測データに基づいて前記ビデオデータを符号化し、
    前記符号化ビデオデータおよび前記第1のシンタックスエレメントを含む符号化ビットストリームを生成する
    ように構成されたビデオ符号器を備える装置。
  16. 前記基準ビデオの第1のサブユニットは、前記基準ビデオの第1のフレームであり、前記基準ビデオのユニットは、前記基準ビデオの第1のフレームを備えるフレームのシーケンスである、請求項15記載の装置。
  17. 前記符号化ビットストリームは、前記補間フィルタの第1のセットを再構築するためのデータをさらに含む、請求項15に記載の装置。
  18. 前記ビデオ符号器は、さらに、
    第2の予測データを生成するために、基準ビデオの第2のサブユニットに対して第2のピクセル値を補間し、ここにおいて、前記第2のピクセル値を補間することは、補間フィルタの第2のセットに基づく、
    前記補間フィルタの第2のセットが予め定義されることを示すために、前記基準ビデオの第2のサブユニットに関連付けられた第2のシンタックスエレメントを生成し、
    前記第2の予測データに基づいて前記ビデオデータを符号化し、
    前記符号化ビデオデータおよび前記第2のシンタックスエレメントを含む符号化ビットストリームを生成する
    ように構成される、請求項15に記載の装置。
  19. 前記ビデオ符号器は、さらに、
    第2の予測データを生成するために、基準ビデオの第2のサブユニットに対して第2のピクセル値を補間し、ここにおいて、前記第2のピクセル値を補間することは、補間フィルタの第2のセットに基づく、
    前記補間フィルタの第2のセットが前記基準ビデオの第2のサブユニットのヘッダにおいて定義されるべきであることを識別するために、前記基準ビデオの第2のサブユニットに関連付けられた第2のシンタックスエレメントを生成し、
    前記第2の予測データに基づいて前記ビデオデータを符号化し、
    前記符号化ビデオデータおよび前記第2のシンタックスエレメントを含む符号化ビットストリームを生成する
    ように構成される、請求項15に記載の装置。
  20. 前記ビデオ符号器は、さらに、前記補間フィルタの第2のセットを再構築するためにデータを符号化するように構成される、請求項19に記載の装置。
  21. 前記ビデオ符号器は、さらに、
    第2の予測データを生成するために、基準ビデオの第2のサブユニットに対して第2のピクセル値を補間し、ここにおいて、前記第2のピクセル値を補間することは、補間フィルタの第2のセットに基づく、
    前記補間フィルタの第2のセットが基準ビデオの前のサブユニットに基づいて定義されるべきであることを識別するために、前記基準ビデオの第2のサブユニットに関連付けられた第2のシンタックスエレメントを生成し、
    前記第2の予測データに基づいて前記ビデオデータを符号化し、
    前記符号化ビデオデータおよび前記第2のシンタックスエレメントを含む符号化ビットストリームを生成する
    ように構成される、請求項15に記載の装置。
  22. ビデオデータを復号する装置であって、
    ビデオビットストリームにおいて、基準ビデオのユニットを受信し、ここにおいて、前記基準ビデオのユニットは、複数のサブユニットを備える、
    前記基準ビデオのユニットにおいて、第1のシンタックスエレメントを識別し、ここにおいて、前記第1のシンタックスエレメントは、前記複数のサブユニットの第1のサブユニットに関連付けられ、前記第1のシンタックスエレメントは、補間フィルタの第1のセットが、前記基準ビデオのユニットに関連付けられたシンタックスエレメントにおいて定義されることを表す、
    前記補間フィルタの第1のセットを使用して第1の予測データを生成するために、前記基準ビデオのユニットの前記第1のサブユニットに対して第1のピクセル値を補間し、
    前記第1の予測データに基づいて復号ビデオデータを生成する
    ように構成されたビデオ復号器を備える装置。
  23. 前記基準ビデオの第1のサブユニットは、前記基準ビデオの第1のフレームであり、前記基準ビデオのユニットは、前記基準ビデオの第1のフレームを備えるフレームのシーケンスである、請求項22記載の装置。
  24. 前記ビデオ復号器は、さらに、
    前記基準ビデオのユニットに関連付けられた前記シンタックスエレメントに基づいて前記補間フィルタの第1のセットを再構築する
    ように構成された、請求項22に記載の装置。
  25. 前記ビデオ復号器は、さらに、
    前記基準ビデオのユニットにおいて、第2のシンタックスエレメントを識別し、ここにおいて、第2のシンタックスエレメントは、前記複数のサブユニットの第2のサブユニットに関連付けられ、前記第2のシンタックスエレメントは、補間フィルタの第2のセットが予め定義されることを表す、
    前記補間フィルタの第2のセットを使用して第2の予測データを生成するために、前記基準ビデオのユニットの前記第2のサブユニットに対して第2のピクセル値を補間し、
    前記第2の予測データに基づいて復号ビデオデータを生成する
    ように構成される、請求項22に記載の装置。
  26. 前記ビデオ復号器は、さらに、
    前記基準ビデオのユニットにおいて、第2のシンタックスエレメントを識別し、ここにおいて、前記第2のシンタックスエレメントは、前記複数のサブユニットの第2のサブユニットに関連付けられ、前記第2のシンタックスエレメントは、補間フィルタの第2のセットが、前記基準ビデオの第2のサブユニットのヘッダにおいて定義されるべきであることを表す、
    前記補間フィルタの第2のセットを使用して第2の予測データを生成するために、前記基準ビデオのユニットの前記第2のサブユニットに対して第2のピクセル値を補間し、前記第2の予測データに基づいて復号ビデオデータを生成する、
    ように構成される、請求項22に記載の装置。
  27. 前記ビデオ復号器は、さらに、前記基準ビデオの第2のサブユニットの前記ヘッダに基づいて前記補間フィルタの第2のセットを再構築するように構成される、請求項26に記載の装置。
  28. 前記ビデオ復号器は、さらに、
    前記基準ビデオのユニットにおいて、第2のシンタックスエレメントを識別し、ここにおいて、前記第2のシンタックスエレメントは、前記複数のサブユニットの第2のサブユニットに関連付けられ、前記第2のシンタックスエレメントは、補間フィルタの第2のセットが、基準ビデオの前のフレームに基づいて定義されるべきであることを表す、
    前記補間フィルタの第2のセットを使用して第2の予測データを生成するために、前記基準ビデオのユニットの前記第2のサブユニットに対する第2のピクセル値を補間し、
    前記第2の予測データに基づいて復号ビデオデータを生成する
    ように構成される、請求項22に記載の装置。
  29. コンピュータ読取可能な記憶媒体であって、プロセッサにおいて実行されると、前記プロセッサに対して、
    第1の予測データを生成するために、基準ビデオの第1のサブユニットに対して第1のピクセル値を補間させ、ここにおいて、前記第1のピクセル値を補間することは、補間フィルタの第1のセットに基づく、
    前記基準ビデオの第1のサブユニットを備える基準ビデオのユニットに関連付けられたシンタックスエレメントにおいて、前記補間フィルタの第1のセットが定義されることを示すために、前記基準ビデオの第1のサブユニットに関連付けられた第1のシンタックスエレメントを生成させ、
    前記第1の予測データに基づいて前記ビデオデータを符号化させ、
    前記符号化ビデオデータおよび前記第1のシンタックスエレメントを含む符号化ビットストリームを生成させる
    命令を備えるコンピュータ読取可能な記憶媒体。
  30. 前記基準ビデオの第1のサブユニットは、前記基準ビデオの第1のフレームであり、前記基準ビデオのユニットは、前記基準ビデオの第1のフレームを備えるフレームのシーケンスである、請求項29記載のコンピュータ読取可能な記憶媒体。
  31. 前記符号化ビットストリームは、前記補間フィルタの第1のセットを再構築するためのデータをさらに含む、請求項29に記載のコンピュータ読取可能な記憶媒体。
  32. 前記プロセッサにおいて実行されると、前記プロセッサに対して、
    第2の予測データを生成するために、基準ビデオの第2のサブユニットに対して第2のピクセル値を補間させ、ここにおいて、前記第2のピクセル値を補間することは、補間フィルタの第2のセットに基づく、
    前記補間フィルタの第2のセットが予め定義されることを示すために、前記基準ビデオの第2のサブユニットに関連付けられた第2のシンタックスエレメントを生成させ、
    前記第2の予測データに基づいて前記ビデオデータを符号化させ、
    前記符号化ビデオデータおよび前記第2のシンタックスエレメントを含む符号化ビットストリームを生成させる
    命令をさらに備える、請求項29に記載のコンピュータ読取可能な記憶媒体。
  33. 前記プロセッサにおいて実行されると、前記プロセッサに対して、
    第2の予測データを生成するために、基準ビデオの第2のサブユニットに対して第2のピクセル値を補間させ、ここにおいて、前記第2のピクセル値を補間することは、補間フィルタの第2のセットに基づく、
    前記補間フィルタの第2のセットが、前記基準ビデオの第2のサブユニットのヘッダにおいて定義されるべきであることを識別するために、前記基準ビデオの第2のサブユニットに関連付けられた第2のシンタックスエレメントを生成させ、
    前記第2の予測データに基づいて前記ビデオデータを符号化させ、
    前記符号化ビデオデータおよび前記第2のシンタックスエレメントを含む符号化ビットストリームを生成させる
    命令をさらに備える、請求項29に記載のコンピュータ読取可能な記憶媒体。
  34. 前記プロセッサにおいて実行されると、前記プロセッサに対して、前記補間フィルタの第2のセットを再構築するためのデータを符号化させる命令をさらに備える、請求項33に記載のコンピュータ読取可能な記憶媒体。
  35. 前記プロセッサにおいて実行されると、前記プロセッサに対して、
    第2の予測データを生成するために、基準ビデオの第2のサブユニットに対して第2のピクセル値を補間させ、ここにおいて、前記第2のピクセル値を補間することは、補間フィルタの第2のセットに基づく、
    前記補間フィルタの第2のセットが基準ビデオの前のサブユニットに基づいて定義されるべきであることを識別するために、前記基準ビデオの第2のサブユニットに関連付けられた第2のシンタックスエレメントを生成させ、
    前記第2の予測データに基づいて前記ビデオデータを符号化させ、
    前記符号化ビデオデータおよび前記第2のシンタックスエレメントを含む符号化ビットストリームを生成させる
    命令をさらに備える、請求項29に記載のコンピュータ読取可能な記憶媒体。
  36. コンピュータ読取可能な記憶媒体であって、プロセッサにおいて実行されると、前記プロセッサに対して、
    ビデオビットストリームにおいて、基準ビデオのユニットを受信させ、ここにおいて、前記基準ビデオのユニットは、複数のサブユニットを備える、
    前記基準ビデオのユニットにおいて、第1のシンタックスエレメントを識別させ、ここにおいて、前記第1のシンタックスエレメントは、前記複数のサブユニットの第1のサブユニットに関連付けられ、前記第1のシンタックスエレメントは、補間フィルタの第1のセットが、前記基準ビデオのユニットに関連付けられたシンタックスエレメントにおいて定義されることを表す、
    前記補間フィルタの第1のセットを使用して第1の予測データを生成するために、前記基準ビデオのユニットの前記第1のサブユニットに対して第1のピクセル値を補間させ、
    前記第1の予測データに少なくとも部分的に基づいて前記ビデオデータを復号させる
    命令を備えるコンピュータ読取可能な記憶媒体。
  37. 前記基準ビデオのユニットの第1のサブユニットは、基準ビデオの第1のフレームであり、前記基準ビデオのユニットは、前記基準ビデオの第1のフレームを備えるフレームのシーケンスである、請求項36に記載の方法。
  38. 前記プロセッサにおいて実行されると、前記プロセッサに対して、前記基準ビデオのユニットに関連付けられた前記シンタックスエレメントに基づいて前記補間フィルタの第1のセットを再構築させる命令をさらに備える、請求項36に記載のコンピュータ読取可能な記憶媒体。
  39. 前記プロセッサにおいて実行されると、前記プロセッサに対して、
    前記基準ビデオのユニットにおいて、第2のシンタックスエレメントを識別させ、ここにおいて、前記第2のシンタックスエレメントは、前記複数のサブユニットの第2のサブユニットに関連付けられ、前記第2のシンタックスエレメントは、補間フィルタの第2のセットが予め定義されることを表す、
    前記補間フィルタの第2のセットを使用して第2の予測データを生成するために、前記基準ビデオのユニットの前記第2のサブユニットに対して第2のピクセル値を補間させ、
    前記第2の予測データに少なくとも部分的に基づいて前記ビデオデータを復号させる
    命令をさらに備える、請求項36に記載のコンピュータ読取可能な記憶媒体。
  40. 前記プロセッサにおいて実行されると、前記プロセッサに対して、
    前記基準ビデオのユニットにおいて、第2のシンタックスエレメントを識別させ、ここにおいて、前記第2のシンタックスエレメントは、前記複数のサブユニットの第2のサブユニットに関連付けられ、前記第2のシンタックスエレメントは、補間フィルタの第2のセットが、前記基準ビデオのユニットの前記第2のサブユニットのヘッダにおいて定義されるべきであることを表す、
    前記補間フィルタの第2のセットを使用して第2の予測データを生成するために、前記基準ビデオのユニットの前記第2のサブユニットに対して第2のピクセル値を補間させ、
    前記第2の予測データに少なくとも部分的に基づいて前記ビデオデータを復号させる
    命令をさらに備える、請求項36に記載のコンピュータ読取可能な記憶媒体。
  41. 前記プロセッサにおいて実行されると、前記プロセッサに対して、前記基準ビデオの第2のサブユニットの前記ヘッダに基づいて前記補間フィルタの第2のセットを再構築させる命令をさらに備える、請求項40に記載のコンピュータ読取可能な記憶媒体。
  42. 前記プロセッサにおいて実行されると、前記プロセッサに対して、
    前記基準ビデオのユニットにおいて、第2のシンタックスエレメントを識別させ、ここにおいて、前記第2のシンタックスエレメントは、前記複数のサブユニットの第2のサブユニットに関連付けられ、前記第2のシンタックスエレメントは、補間フィルタの第2のセットが基準ビデオの前のフレームに基づいて定義されるものであることを表す、
    前記補間フィルタの第2のセットを使用して第2の予測データを生成するために、前記基準ビデオのユニットの前記第2のサブユニットに対して第2のピクセル値を補間させ、
    前記第2の予測データに少なくとも部分的に基づいて前記ビデオデータを復号させる
    命令をさらに備える、請求項36に記載のコンピュータ読取可能な記憶媒体。
  43. ビデオデータを符号化するためのデバイスであって、
    第1の予測データを生成するために、基準ビデオの第1のサブユニットに対して第1のピクセル値を補間するための手段と、ここにおいて、前記第1のピクセル値を補間することは、補間フィルタの第1のセットに基づく、
    前記補間フィルタの第1のセットが、前記基準ビデオの第1のサブユニットを備える基準ビデオのユニットに関連付けられたシンタックスエレメントにおいて定義されることを示すために、前記基準ビデオの第1のサブユニットに関連付けられた第1のシンタックスエレメントを生成するための手段と、
    前記第1の予測データに基づいて前記ビデオデータを符号化するための手段と、
    前記符号化ビデオデータおよび前記第1のシンタックスエレメントを含む符号化ビットストリームを生成するための手段と
    を備えるデバイス。
  44. 前記基準ビデオの第1のサブユニットは、前記基準ビデオの第1のフレームであり、前記基準ビデオのユニットは、前記基準ビデオの第1のフレームを備えるフレームのシーケンスである、請求項43記載のデバイス。
  45. 前記符号化ビットストリームは、前記補間フィルタの第1のセットを再構築するためのデータをさらに含む、請求項43に記載のデバイス。
  46. 第2の予測データを生成するために、基準ビデオの第2のサブユニットに対して第2のピクセル値を補間するための手段と、ここにおいて、前記第2のピクセル値を補間することは、補間フィルタの第2のセットに基づく、
    前記補間フィルタの第2のセットが予め定義されることを示すために、前記基準ビデオの第2のサブユニットに関連付けられた第2のシンタックスエレメントを生成するための手段と、
    前記第2の予測データに基づいて前記ビデオデータを符号化するための手段と、
    前記符号化ビデオデータおよび前記第2のシンタックスエレメントを含む符号化ビットストリームを生成するための手段と
    をさらに備える、請求項43に記載のデバイス。
  47. 第2の予測データを生成するために、基準ビデオの第2のサブユニットに対して第2のピクセル値を補間するための手段と、ここにおいて、前記第2のピクセル値を補間することは、補間フィルタの第2のセットに基づく、
    前記補間フィルタの第2のセットが前記基準ビデオの第2のサブユニットのヘッダにおいて定義されるべきであることを識別するために、前記基準ビデオの第2のサブユニットに関連付けられた第2のシンタックスエレメントを生成するための手段と、
    前記第2の予測データに基づいて前記ビデオデータを符号化するための手段と、
    前記符号化ビデオデータおよび前記第2のシンタックスエレメントを含む符号化ビットストリームを生成するための手段と
    をさらに備える、請求項43に記載のデバイス。
  48. 前記補間フィルタの第2のセットを再構築するためにデータを符号化することをさらに備える、請求項47に記載のデバイス。
  49. 第2の予測データを生成するために、基準ビデオの第2のサブユニットに対して第2のピクセル値を補間するための手段と、ここにおいて、前記第2のピクセル値を補間することは、補間フィルタの第2のセットに基づく、
    前記補間フィルタの第2のセットが基準ビデオの前のサブユニットに基づいて定義されるべきでことを識別するために、前記基準ビデオの第2のサブユニットに関連付けられた第2のシンタックスエレメントを生成するための手段と、
    前記第2の予測データに基づいて前記ビデオデータを符号化するための手段と、
    前記符号化ビデオデータおよび前記第2のシンタックスエレメントを含む符号化ビットストリームを生成するための手段と
    をさらに備える、請求項43に記載のデバイス。
  50. ビデオデータを復号するためのデバイスであって、
    ビデオビットストリームにおいて、基準ビデオのユニットを受信するための手段と、ここにおいて、前記基準ビデオのユニットは、複数のサブユニットを備える、
    前記基準ビデオのユニットにおいて、第1のシンタックスエレメントを識別するための手段と、ここにおいて、前記第1のシンタックスエレメントは、前記複数のサブユニットの第1のサブユニットに関連付けられ、前記第1のシンタックスエレメントは、前記基準ビデオのユニットに関連付けられたシンタックスエレメントにおいて、補間フィルタの第1のセットが定義されることを表す、
    前記補間フィルタの第1のセットを使用して第1の予測データを生成するために、前記基準ビデオのユニットの前記第1のサブユニットに対して第1のピクセル値を補間するための手段と、
    前記第1の予測データに少なくとも部分的に基づいて前記ビデオデータを復号するための手段と
    を備えるデバイス。
  51. 前記基準ビデオのユニットの第1のサブユニットは、前記基準ビデオの第1のフレームであり、前記基準ビデオのユニットは、前記基準ビデオの第1のフレームを備えるフレームのシーケンスである、請求項50に記載のデバイス。
  52. 前記基準ビデオのユニットに関連付けられた前記シンタックスエレメントに基づいて、前記補間フィルタの第1のセットを再構築するための手段をさらに備える、請求項50に記載のデバイス。
  53. 前記基準ビデオのユニットにおいて、第2のシンタックスエレメントを識別するための手段と、ここにおいて、前記第2のシンタックスエレメントは、前記複数のサブユニットの第2のサブユニットに関連付けられ、前記第2のシンタックスエレメントは、補間フィルタの第2のセットが予め定義されることを表す、
    前記補間フィルタの第2のセットを使用して第2の予測データを生成するために、前記基準ビデオのユニットの前記第2のサブユニットに対する第2のピクセル値を補間するための手段と、
    前記第2の予測データに少なくとも部分的に基づいて前記ビデオデータを復号するための手段と
    をさらに備える、請求項50に記載のデバイス。
  54. 前記基準ビデオのユニットにおいて、第2のシンタックスエレメントを識別するための手段と、ここにおいて、前記第2のシンタックスエレメントは、前記複数のサブユニットの第2のサブユニットに関連付けられ、前記第2のシンタックスエレメントは、補間フィルタの第2のセットが前記基準ビデオのユニットの前記第2のサブユニットのヘッダにおいて定義されるべきであることを表す、
    前記補間フィルタの第2のセットを使用して第2の予測データを生成するために、前記基準ビデオのユニットの前記第2のサブユニットに対して第2のピクセル値を補間するための手段と、
    前記第2の予測データに少なくとも部分的に基づいて前記ビデオデータを復号するための手段と
    をさらに備える、請求項50に記載のデバイス。
  55. 前記基準ビデオの第2のサブユニットのヘッダに基づいて前記補間フィルタの第2のセットを再構築するための手段をさらに備える、請求項54に記載のデバイス。
  56. 前記基準ビデオのユニットにおいて、第2のシンタックスエレメントを識別するための手段と、ここにおいて、前記第2のシンタックスエレメントは、前記複数のサブユニットの第2のサブユニットに関連付けられ、前記第2のシンタックスエレメントは、補間フィルタの第2のセットが基準ビデオの前のフレームに基づいて定義されるべきであることを表す、
    前記補間フィルタの第2のセットを使用して第2の予測データを生成するために、前記基準ビデオのユニットの前記第2のサブユニットに対して第2のピクセル値を補間するための手段と、
    前記第2の予測データに少なくとも部分的に基づいて前記ビデオデータを復号するための手段と
    をさらに備える、請求項50に記載のデバイス。
JP2013516836A 2010-06-25 2011-06-24 圧縮ビットストリームへの交換補間フィルタ係数の組み込み Expired - Fee Related JP5632079B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US35859010P 2010-06-25 2010-06-25
US61/358,590 2010-06-25
US36317510P 2010-07-09 2010-07-09
US61/363,175 2010-07-09
US13/079,166 US9154807B2 (en) 2010-06-25 2011-04-04 Inclusion of switched interpolation filter coefficients in a compressed bit-stream
US13/079,166 2011-04-04
PCT/US2011/041892 WO2011163629A1 (en) 2010-06-25 2011-06-24 Inclusion of switched interpolation filter coefficients in a compressed bit-stream

Publications (2)

Publication Number Publication Date
JP2013529875A true JP2013529875A (ja) 2013-07-22
JP5632079B2 JP5632079B2 (ja) 2014-11-26

Family

ID=45352548

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013516836A Expired - Fee Related JP5632079B2 (ja) 2010-06-25 2011-06-24 圧縮ビットストリームへの交換補間フィルタ係数の組み込み

Country Status (6)

Country Link
US (1) US9154807B2 (ja)
EP (1) EP2586207B1 (ja)
JP (1) JP5632079B2 (ja)
CN (1) CN103004196B (ja)
TW (1) TW201210350A (ja)
WO (1) WO2011163629A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8767824B2 (en) 2011-07-11 2014-07-01 Sharp Kabushiki Kaisha Video decoder parallelization for tiles
TWI606718B (zh) 2012-01-03 2017-11-21 杜比實驗室特許公司 規定視覺動態範圍編碼操作及參數
US20150071351A1 (en) * 2012-04-15 2015-03-12 Samsung Electronics Co., Ltd. Inter prediction method in which reference picture lists can be changed and apparatus for the same
US11240515B2 (en) * 2012-09-10 2022-02-01 Apple Inc. Video display preference filtering
US11463689B2 (en) * 2015-06-18 2022-10-04 Qualcomm Incorporated Intra prediction and intra mode coding
EP3348058B1 (en) 2015-09-25 2021-09-15 Huawei Technologies Co., Ltd. Adaptive sharpening filter for predictive coding
MX2018003688A (es) 2015-09-25 2018-08-01 Huawei Tech Co Ltd Aparato y metodo para compensacion de movimiento de video.
CN108141603B (zh) 2015-09-25 2020-12-15 华为技术有限公司 视频编解码方法及视频编解码器
WO2017052409A1 (en) 2015-09-25 2017-03-30 Huawei Technologies Co., Ltd. Apparatus and method for video motion compensation with selectable interpolation filter
MY197611A (en) 2015-09-25 2023-06-28 Huawei Tech Co Ltd Apparatus and method for video motion compensation
US10425648B2 (en) * 2015-09-29 2019-09-24 Qualcomm Incorporated Video intra-prediction using position-dependent prediction combination for video coding
US11405611B2 (en) 2016-02-15 2022-08-02 Qualcomm Incorporated Predicting filter coefficients from fixed filters for video coding
US10341659B2 (en) * 2016-10-05 2019-07-02 Qualcomm Incorporated Systems and methods of switching interpolation filters
CN108111851B (zh) * 2016-11-25 2020-12-22 华为技术有限公司 一种去块滤波方法及终端
US10506230B2 (en) * 2017-01-04 2019-12-10 Qualcomm Incorporated Modified adaptive loop filter temporal prediction for temporal scalability support
EP3741126A1 (en) * 2018-03-02 2020-11-25 Huawei Technologies Co., Ltd. Apparatus and method for picture coding with selective loop-filtering

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008536414A (ja) * 2005-04-13 2008-09-04 ゴットフリート・ヴィルヘルム・ライプニッツ・ウニヴェルジテート・ハノーヴァー ビデオの拡張された符号化方法及び装置
WO2009047917A1 (ja) * 2007-10-11 2009-04-16 Panasonic Corporation 映像符号化方法及び映像復号方法
WO2010001614A1 (ja) * 2008-07-03 2010-01-07 パナソニック株式会社 動画像符号化方法、動画像復号方法、動画像符号化装置、動画像復号装置、プログラム、及び集積回路
WO2011111341A1 (ja) * 2010-03-09 2011-09-15 パナソニック株式会社 動画像復号装置、動画像符号化装置、動画像復号回路及び動画像復号方法
JP2012504904A (ja) * 2008-10-03 2012-02-23 クゥアルコム・インコーポレイテッド 補間フィルタおよびオフセットを用いたデジタルビデオコーディング

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BR0304545A (pt) 2002-01-14 2004-11-03 Nokia Corp Método de codificação das imagens em uma sequência de vìdeo digital para fornecer os dados de vìdeo codificados, codificador de vìdeo, método de decodificação dos dados indicativos de uma sequência de vìdeo digital, decodificador de vìdeo, e, sistema de decodificação de vìdeo
JP2005532725A (ja) 2002-07-09 2005-10-27 ノキア コーポレイション ビデオ符号化における内挿フィルタタイプの選択方法および選択システム
US7136417B2 (en) * 2002-07-15 2006-11-14 Scientific-Atlanta, Inc. Chroma conversion optimization
US7499495B2 (en) 2003-07-18 2009-03-03 Microsoft Corporation Extended range motion vectors
US20060153294A1 (en) 2005-01-12 2006-07-13 Nokia Corporation Inter-layer coefficient coding for scalable video coding
TWI311443B (en) 2006-07-12 2009-06-21 Novatek Microelectronics Corp Method of block coding of an image
KR101369746B1 (ko) 2007-01-22 2014-03-07 삼성전자주식회사 적응적 보간 필터를 이용한 영상 부호화, 복호화 방법 및장치
US8831086B2 (en) 2008-04-10 2014-09-09 Qualcomm Incorporated Prediction techniques for interpolation in video coding
US8811484B2 (en) 2008-07-07 2014-08-19 Qualcomm Incorporated Video encoding by filter selection
US8548041B2 (en) 2008-09-25 2013-10-01 Mediatek Inc. Adaptive filter
EP2262267A1 (en) * 2009-06-10 2010-12-15 Panasonic Corporation Filter coefficient coding scheme for video coding
JP5375358B2 (ja) 2009-06-19 2013-12-25 新日鐵住金株式会社 鉄鋼スラグ路盤材の製造方法
CN102714727B (zh) * 2010-01-14 2016-09-28 杜比实验室特许公司 缓冲的自适应滤波器

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008536414A (ja) * 2005-04-13 2008-09-04 ゴットフリート・ヴィルヘルム・ライプニッツ・ウニヴェルジテート・ハノーヴァー ビデオの拡張された符号化方法及び装置
WO2009047917A1 (ja) * 2007-10-11 2009-04-16 Panasonic Corporation 映像符号化方法及び映像復号方法
WO2010001614A1 (ja) * 2008-07-03 2010-01-07 パナソニック株式会社 動画像符号化方法、動画像復号方法、動画像符号化装置、動画像復号装置、プログラム、及び集積回路
JP2012504904A (ja) * 2008-10-03 2012-02-23 クゥアルコム・インコーポレイテッド 補間フィルタおよびオフセットを用いたデジタルビデオコーディング
WO2011111341A1 (ja) * 2010-03-09 2011-09-15 パナソニック株式会社 動画像復号装置、動画像符号化装置、動画像復号回路及び動画像復号方法

Non-Patent Citations (16)

* Cited by examiner, † Cited by third party
Title
JPN6013054976; Thomas Wedi: '"Advanced Motion Compensated Prediction Methods"' [online] Document: VCEG-X10, 20041029, ITU-T Video Coding Experts Group (ITU-T SG16 Q.6) *
JPN6013054978; Thomas Wedi: '"New Results on Adaptive Interpolation Filter"' [online] Document: JVT-C059, 20050117, Joint Video Team (JVT) of ISO/IEC MPEG & ITU-T VCE *
JPN6013054980; Thomas Wedi: '"Adaptive Interpolation Filter with Reduced Complexity"' [online] Document: JVT-D052, 20050117, Joint Video Team (JVT) of ISO/IEC MPEG & ITU-T VCE *
JPN6013054981; "wftp3.itu.int - /av-arch/video-site/0410_Pal/" , [online] *
JPN6013054982; "wftp3.itu.int - /av-arch/jvt-site/2002_05_Fairfax/" , [online] *
JPN6013054984; "wftp3.itu.int - /av-arch/jvt-site/2002_07_Klagenfurt/" , [online] *
JPN6014010657; Kei-ichi Chono, et.al.: '"Modified Adaptive Interpolation Filter"' [online] Document: JVT-D078, 20050117, Joint Video Team (JVT) of ISO/IEC MPEG & ITU-T VCE *
JPN6014010659; Kai Zhang, et.al.: '"Single-Pass Encoding Using Multiple Adaptive Interpolation Filters"' [online] Document: VCEG-AK26, 20090411, ITU - Telecommunications Standardization Sector ST *
JPN6014010662; Yu-Wen Huang, et.al.: '"A Technical Description of MediaTek's Proposal to the JCT-VC CfP"' [online] Document: JCTVC-A109, 20100423, Joint Collaborative Team on Video Coding (JCT-VC) *
JPN6014010664; 亀山渉(外1名)監修: 「インプレス標準教科書シリーズ IPTV時代のデジタル放送教科書」 初版, 20100401, 第102〜106頁, 株式会社インプレスR&D *
JPN6014010666; 大久保榮監修: 「インプレス標準教科書シリーズ 改訂三版 H.264/AVC教科書」 第1版, 20090101, 第99〜123頁, 株式会社インプレスR&D *
JPN6014010668; "wftp3.itu.int - /av-arch/jvt-site/2002_07_Klagenfurt/" , [online] *
JPN6014010669; "wftp3.itu.int - /av-arch/video-site/0904_Yok/" , [online] *
JPN6014010671; "Index of /jct/doc_end_user/documents/1_Dresden/wg11" , [online] *
JPN6014038101; Yuri Vatis, et.al.: '"Syntax of adaptive filter coefficients in the KTA reference model"' [online] Document: VCEG-AF09, 20070421, ITU - Telecommunications Standardization Sector ST *
JPN6014038102; Andrew Segall, et.al.: '"A Highly Efficient and Highly Parallel System for Video Coding"' [online] Document: JCTVC-A105, 20100423, 第1〜12頁, Joint Collaborative Team on Video Coding (JCT-VC) *

Also Published As

Publication number Publication date
CN103004196A (zh) 2013-03-27
US9154807B2 (en) 2015-10-06
WO2011163629A1 (en) 2011-12-29
TW201210350A (en) 2012-03-01
JP5632079B2 (ja) 2014-11-26
EP2586207A1 (en) 2013-05-01
CN103004196B (zh) 2016-08-24
US20110317764A1 (en) 2011-12-29
EP2586207B1 (en) 2017-09-06

Similar Documents

Publication Publication Date Title
JP5632079B2 (ja) 圧縮ビットストリームへの交換補間フィルタ係数の組み込み
KR101208384B1 (ko) 비디오 코딩에서 모션 보상을 위한 어드밴스드 보간 기술
KR101208383B1 (ko) 비디오 코딩에서 모션 보상을 위한 어드밴스드 보간 기술
JP5307253B2 (ja) ビデオ符号化における補間フィルタリング、ループ内フィルタリング、およびループ後フィルタリングのための複合スキーム
JP6301401B2 (ja) ビデオコード化のためのサブ画素の値を補間するための適応サポート
KR101242853B1 (ko) 서브-픽셀 해상도에서의 오프셋
JP5722468B2 (ja) ビデオコーディングにおける量子化パルスコード変調
JP5607236B2 (ja) 混合タップフィルタ
US20110249754A1 (en) Variable length coding of coded block pattern (cbp) in video compression
US8665959B2 (en) Block and partition signaling techniques for video coding
JP5766878B2 (ja) 低減解像度ピクセル補間
RU2481727C2 (ru) Усовершенствованные технологии интерполяции для компенсации движения при кодировании видео

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140318

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140527

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140603

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140909

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141008

R150 Certificate of patent or registration of utility model

Ref document number: 5632079

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees