JP5646668B2 - 切替え補間フィルタにおけるオフセット計算 - Google Patents
切替え補間フィルタにおけるオフセット計算 Download PDFInfo
- Publication number
- JP5646668B2 JP5646668B2 JP2013041958A JP2013041958A JP5646668B2 JP 5646668 B2 JP5646668 B2 JP 5646668B2 JP 2013041958 A JP2013041958 A JP 2013041958A JP 2013041958 A JP2013041958 A JP 2013041958A JP 5646668 B2 JP5646668 B2 JP 5646668B2
- Authority
- JP
- Japan
- Prior art keywords
- rate distortion
- offset
- path
- frame
- distortion characteristic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/523—Motion estimation or motion compensation with sub-pixel accuracy
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
POCパス:POC重み付け参照フレームに対してシーケンス・フィルタ、0個のサブピクセルおよび0個のフレーム・オフセットを使用することによって、フレームを符号化する。
以後、POC重み付け参照フレームを使用する。
他の場合
Best=パス1の結果
他の場合
Best=パス1の結果
c.現在のフレームに対してフレーム・フィルタ、サブピクセルおよびフレーム・オフセットを計算する。
Best=パス2の結果
パス3:量子化ステップを1だけ増加させ、フレーム・フィルタ、サブピクセルおよびフレーム・オフセットを使用することによってフレームを符号化する。
パス3:量子化ステップを1だけ増加させ、シーケンス・フィルタ、0個のサブピクセルおよび0個のフレーム・オフセットを使用することによってフレームを符号化する。
パス3符号化をビット・ストリームに加算する。
Bestにおける符号化をビット・ストリームに加算する。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[1] 現在のビデオ・ブロックを符号化するためのビデオ符号化方法であって、
エンコーダを介して、参照データの第1のリスト内の第1の参照ビデオ・ユニットに基づいてサブ整数ピクセル位置に関連する予測値の第1のブロックを補間し、参照データの第2のリスト内の第2の参照ビデオ・ユニットに基づいて前記サブ整数ピクセル位置に関連する予測値の第2のブロックを補間することと、
エンコーダを介して、サブ整数ピクセル位置について、予測値の前記第1のブロックと前記現在のビデオ・ブロックとに基づいて第1のオフセット値を計算し、前記第1のオフセット値と予測値の前記第2のブロックとに基づいて第2のオフセット値を計算することと、
エンコーダを介して、予測値の前記第1のブロックと予測値の前記第2のブロックと前記第1のオフセット値と前記第2のオフセット値とに基づいて、オフセット値の最終ブロックを判断することと、
エンコーダを介して、オフセット値の前記最終ブロックに基づいて前記現在のビデオ・ブロックを符号化することと、
を備えるビデオ符号化方法。
[2] 予測値の前記第1のブロックを補間し、予測値の前記第2のブロックを補間することが、固定補間フィルタによって実行される[1]に記載の方法。
[3] オフセット値の最終ブロックを判断することが、
前記第1のオフセット値および前記第2のオフセット値のうちの少なくとも1つに重みを適用すること、
を備える[1]に記載の方法。
[4] オフセット値の最終ブロックを判断することが、
オフセット予測和を生成するために、予測値の前記第1のブロックと予測値の前記第2のブロックと前記第1のオフセット値と前記第2のオフセット値とを合計することと、
予測誤差を生成するために前記オフセット予測和を2で除算することと、
各サブ整数ピクセル位置について前記予測誤差を累積することと、
各サブ整数ピクセル位置についての最終オフセット値を生成するために、各サブ整数ピクセル位置についての前記累積された予測誤差を前記予測誤差に対する寄与の数で除算することと、
を備える[1]に記載の方法。
[5] オフセット値の最終ブロックを判断することが、
第1のオフセット予測和を生成するために、予測値の前記第1のブロックと前記第1のオフセット値とを加算することと、
第2のオフセット予測和を生成するために、予測値の前記第2のブロックと前記第2のオフセット値とを加算することと、
第1の重み付けオフセット予測和を生成するために前記第1のオフセット予測和に第1の重みを乗算し、第2の重み付けオフセット予測和を生成するために前記第2のオフセット予測和に第2の重みを乗算することと、
最終重み付けオフセット予測和を生成するために、前記第1の重み付けオフセット予測和と前記第2の重み付けオフセット予測和とを加算することと、
予測誤差を生成するために前記最終重み付けオフセット予測和を正規化項で除算することと、
各サブ整数ピクセル位置について前記予測誤差を累積することと、
各サブ整数ピクセル位置についての最終オフセット値を生成するために、各サブ整数ピクセル位置についての前記累積された予測誤差を前記予測誤差に対する寄与の数で除算することと、
を備える[1]に記載の方法。
[6] 前記コーディングされた現在のビデオ・ブロックを含むコード化ビット・ストリームの一部としてオフセット値の前記最終ブロックを符号化することをさらに備える[1]に記載の方法。
[7] 前記コード化ビット・ストリームをソース・デバイスから宛先デバイスに送信することをさらに備える[6]に記載の方法。
[8] オフセット値の前記最終ブロックを符号化することが、オフセット値の前記最終ブロックのオフセット値の整数部分に第1のビット数を割り当てることと、オフセット値の前記最終ブロックの前記オフセット値の分数部分に第2のビット数を割り当てることとを備え、前記第1のビット数および前記第2のビット数が、前記整数部分の絶対値に基づいて判断される[6]に記載の方法。
[9] オフセット値の前記最終ブロックが、整数ピクセル・ロケーションについての1つのオフセット値と、異なるサブ整数ピクセル・ロケーションについてのいくつかのオフセット値とを含む[6]に記載の方法。
[10] オフセット値の前記最終ブロックが、15個の異なるサブ整数ピクセル・ロケーションについての15個の異なるオフセット値を含む[9]に記載の方法。
[11] ビデオデータを符号化する装置であって、
参照データの第1のリスト内の第1の参照ビデオ・ユニットに基づいてサブ整数ピクセル位置に関連する予測値の第1のブロックを補間し、参照データの第2のリスト内の第2の参照ビデオ・ユニットに基づいて前記サブ整数ピクセル位置に関連する予測値の第2のブロックを補間することと、
サブ整数ピクセル位置について、予測値の前記第1のブロックと前記現在のビデオ・ブロックとに基づいて第1のオフセット値を計算し、前記第1のオフセット値と予測値の前記第2のブロックとに基づいて第2のオフセット値を計算することと、
予測値の前記第1のブロックと予測値の前記第2のブロックと前記第1のオフセット値と前記第2のオフセット値とに基づいて、オフセット値の最終ブロックを判断することと、
オフセット値の前記最終ブロックに基づいて前記現在のビデオ・ブロックを符号化することと、
を行うビデオ・エンコーダを備える装置。
[12] 前記ビデオ・エンコーダが、予測値の前記第1のブロックと予測値の前記第2のブロックとを補間する少なくとも1つの固定補間フィルタを備える[11]に記載の装置。
[13] オフセット値の前記最終ブロックを判断するために、前記ビデオ・エンコーダが、前記第1のオフセット値および前記第2のオフセット値のうちの少なくとも1つに重みを適用する[11]に記載の装置。
[14] オフセット値の前記最終ブロックを判断するために、前記ビデオ・エンコーダが、オフセット予測和を生成するために予測値の前記第1のブロックと予測値の前記第2のブロックと前記第1のオフセット値と前記第2のオフセット値とを合計することと、予測誤差を生成するために前記オフセット予測和を2で除算することと、各サブ整数ピクセル位置について前記予測誤差を累積することと、各サブ整数ピクセル位置についての最終オフセット値を生成するために、各サブ整数ピクセル位置についての前記累積された予測誤差を前記予測誤差に対する寄与の数で除算することとを行う、[11]に記載の装置。
[15] オフセット値の前記最終ブロックを判断するために、前記ビデオ・エンコーダが、
第1のオフセット予測和を生成するために、予測値の前記第1のブロックと前記第1のオフセット値とを加算することと、
第2のオフセット予測和を生成するために、予測値の前記第2のブロックと前記第2のオフセット値とを加算することと、
第1の重み付けオフセット予測和を生成するために前記第1のオフセット予測和に第1の重みを乗算し、第2の重み付けオフセット予測和を生成するために前記第2のオフセット予測和に第2の重みを乗算することと、
最終重み付けオフセット予測和を生成するために、前記第1の重み付けオフセット予測和と前記第2の重み付けオフセット予測和とを加算することと、
予測誤差を生成するために前記最終重み付けオフセット予測和を正規化項で除算することと、
各サブ整数ピクセル位置について前記予測誤差を累積することと、
各サブ整数ピクセル位置についての最終オフセット値を生成するために、各サブ整数ピクセル位置についての前記累積された予測誤差を前記予測誤差に対する寄与の数で除算することと、
を行う、[11]に記載の装置。
[16] 前記ビデオ・エンコーダが、前記コーディングされた現在のビデオ・ブロックを含むコード化ビット・ストリームの一部としてオフセット値の前記最終ブロックを符号化する[11]に記載の装置。
[17] 前記ビデオ・エンコーダが、オフセット値の前記最終ブロックのオフセット値の整数部分に第1のビット数を割り当て、オフセット値の前記最終ブロックのオフセット値の分数部分に第2のビット数を割り当て、前記第1のビット数および前記第2のビット数が、前記整数部分の絶対値に基づいて判断される[16]に記載の装置。
[18] オフセット値の前記最終ブロックが、整数ピクセル・ロケーションについての1つのオフセット値と、異なるサブ整数ピクセル・ロケーションについてのいくつかのオフセット値とを含む[16]に記載の装置。
[19] オフセット値の前記最終ブロックが、15個の異なるサブ整数ピクセル・ロケーションについての15個の異なるオフセット値を含む[18]に記載の装置。
[20] 前記ビデオ・エンコーダがワイヤレス通信デバイスの一部を形成する[11]に記載の装置。
[21] 前記ビデオ・エンコーダが集積回路デバイスを備える[11]に記載の装置。
[22] 実行時に、ビデオ・エンコーダ内のプロセッサに、
参照データの第1のリスト内の第1の参照ビデオ・ユニットに基づいてサブ整数ピクセル位置に関連する予測値の第1のブロックを補間させ、参照データの第2のリスト内の第2の参照ビデオ・ユニットに基づいて前記サブ整数ピクセル位置に関連する予測値の第2のブロックを補間させ、
サブ整数ピクセル位置について、予測値の前記第1のブロックと前記現在のビデオ・ブロックとに基づいて第1のオフセット値を計算させ、前記第1のオフセット値と予測値の前記第2のブロックとに基づいて第2のオフセット値を計算させ、
予測値の前記第1のブロックと予測値の前記第2のブロックと前記第1のオフセット値と前記第2のオフセット値とに基づいて、オフセット値の最終ブロックを判断させ、
オフセット値の前記最終ブロックに基づいて前記現在のビデオ・ブロックを符号化させる、コンピュータ可読媒体上に符号化された命令を備えるコンピュータ可読媒体。
[23] 前記プロセッサに、予測値の前記第1のブロックと予測値の前記第2のブロックとを補間させる前記命令が、前記プロセッサに、固定補間フィルタのセットから補間フィルタのセットを選択させる命令を備える[22]に記載のコンピュータ可読媒体。
[24] プロセッサに、オフセット値の最終ブロックを判断させる前記命令が、プロセッサに、前記第1のオフセット値および前記第2のオフセット値のうちの少なくとも1つに重みを適用させる命令を備える[22]に記載のコンピュータ可読媒体。
[25] プロセッサに、オフセット値の最終ブロックを判断させる前記命令が、プロセッサに、
オフセット予測和を生成するために、予測値の前記第1のブロックと予測値の前記第2のブロックと前記第1のオフセット値と前記第2のオフセット値とを合計させ、
予測誤差を生成するために前記オフセット予測和を2で除算させ、
各サブ整数ピクセル位置について前記予測誤差を累積させ、
各サブ整数ピクセル位置についての最終オフセット値を生成するために、各サブ整数ピクセル位置についての前記累積された予測誤差を前記予測誤差に対する寄与の数で除算させる命令を備える[22]に記載のコンピュータ可読媒体。
[26] プロセッサに、オフセット値の最終ブロックを判断させる前記命令が、プロセッサに、
第1のオフセット予測和を生成するために、予測値の前記第1のブロックと前記第1のオフセット値とを加算させ、
第2のオフセット予測和を生成するために、予測値の前記第2のブロックと前記第2のオフセット値とを加算させ、
第1の重み付けオフセット予測和を生成するために前記第1のオフセット予測和に第1の重みを乗算させ、第2の重み付けオフセット予測和を生成するために前記第2のオフセット予測和に第2の重みを乗算させ、
最終重み付けオフセット予測和を生成するために、前記第1の重み付けオフセット予測和と前記第2の重み付けオフセット予測和とを加算させ、
予測誤差を生成するために前記最終重み付けオフセット予測和を正規化項で除算させ、
各サブ整数ピクセル位置について前記予測誤差を累積させ、
各サブ整数ピクセル位置についての最終オフセット値を生成するために、各サブ整数ピクセル位置についての前記累積された予測誤差を前記予測誤差に対する寄与の数で除算させる命令を備える[22]に記載のコンピュータ可読媒体。
[27] プロセッサに、オフセット値の最終ブロックを判断させる前記命令が、プロセッサに、
前記コーディングされた現在のビデオ・ブロックを含むコード化ビット・ストリームの一部として、オフセット値の前記最終ブロックを符号化させる命令を備える[22]に記載のコンピュータ可読媒体。
[28] ソース・デバイスから宛先デバイスへの前記コード化ビット・ストリームの送信を行わせる命令をさらに備える[27]に記載のコンピュータ可読媒体。
[29] プロセッサにオフセット値の前記最終ブロックを符号化させる前記命令が、プロセッサに、オフセット値の前記最終ブロックのオフセット値の整数部分に第1のビット数を割り当てさせ、オフセット値の前記最終ブロックの前記オフセット値の分数部分に第2のビット数を割り当てさせる命令を備え、前記第1のビット数および前記第2のビット数が、前記整数部分の絶対値に基づいて判断される[27]に記載のコンピュータ可読媒体。
[30] オフセット値の前記最終ブロックが、整数ピクセル・ロケーションについての1つのオフセット値と、異なるサブ整数ピクセル・ロケーションについてのいくつかのオフセット値とを含む[27]に記載のコンピュータ可読媒体。
[31] 少なくとも1つの最終オフセット値が、15個の異なるサブ整数ピクセル・ロケーションについての15個の異なるオフセット値を含む[30]に記載のコンピュータ可読媒体。
[32] ビデオデータを符号化する装置であって、
参照データの第1のリスト内の第1の参照ビデオ・ユニットに基づいてサブ整数ピクセル位置に関連する予測値の第1のブロックを補間し、参照データの第2のリスト内の第2の参照ビデオ・ユニットに基づいて前記サブ整数ピクセル位置に関連する予測値の第2のブロックを補間するための手段と、
サブ整数ピクセル位置について、予測値の前記第1のブロックと前記現在のビデオ・ブロックとに基づいて第1のオフセット値を計算し、前記第1のオフセット値と予測値の前記第2のブロックとに基づいて第2のオフセット値を計算するための手段と、
予測値の前記第1のブロックと予測値の前記第2のブロックと前記第1のオフセット値と前記第2のオフセット値とに基づいて、オフセット値の最終ブロックを判断するための手段と、
オフセット値の前記最終ブロックに基づいて前記現在のビデオ・ブロックを符号化するための手段と
を備える装置。
[33] 予測値の前記第1のブロックを補間し、予測値の前記第2のブロックを補間するための前記手段が、固定補間フィルタによって実行される[32]に記載の装置。
[34] オフセット値の最終ブロックを判断するための前記手段が、
前記第1のオフセット値および前記第2のオフセット値のうちの少なくとも1つに重みを適用するための手段
を備える[32]に記載の装置。
[35] オフセット値の最終ブロックを判断するための前記手段が、
オフセット予測和を生成するために、予測値の前記第1のブロックと予測値の前記第2のブロックと前記第1のオフセット値と前記第2のオフセット値とを合計するための手段と、
予測誤差を生成するために前記オフセット予測和を2で除算するための手段と、
各サブ整数ピクセル位置について前記予測誤差を累積するための手段と、
各サブ整数ピクセル位置についての最終オフセット値を生成するために、各サブ整数ピクセル位置についての前記累積された予測誤差を前記予測誤差に対する寄与の数で除算するための手段と
を備える[32]に記載の装置。
[36] オフセット値の最終ブロックを判断するための前記手段が、
第1のオフセット予測和を生成するために、予測値の前記第1のブロックと前記第1のオフセット値とを加算するための手段と、
第2のオフセット予測和を生成するために、予測値の前記第2のブロックと前記第2のオフセット値とを加算するための手段と、
第1の重み付けオフセット予測和を生成するために前記第1のオフセット予測和に第1の重みを乗算し、第2の重み付けオフセット予測和を生成するために前記第2のオフセット予測和に第2の重みを乗算するための手段と、
最終重み付けオフセット予測和を生成するために、前記第1の重み付けオフセット予測和と前記第2の重み付けオフセット予測和とを加算するための手段と、
予測誤差を生成するために前記最終重み付けオフセット予測和を正規化項で除算するための手段と、
各サブ整数ピクセル位置について前記予測誤差を累積するための手段と、
各サブ整数ピクセル位置についての最終オフセット値を生成するために、各サブ整数ピクセル位置についての前記累積された予測誤差を前記予測誤差に対する寄与の数で除算するための手段と、
を備える[32]に記載の装置。
[37] 前記コーディングされた現在のビデオ・ブロックを含むコード化ビット・ストリームの一部としてオフセット値の前記最終ブロックを符号化するための手段をさらに備える[32]に記載の装置。
[38] 前記コード化ビット・ストリームをソース・デバイスから宛先デバイスに送信するための手段をさらに備える[37]に記載の装置。
[39] オフセット値の前記最終ブロックを符号化するための前記手段が、オフセット値の前記最終ブロックのオフセット値の整数部分に第1のビット数を割り当て、オフセット値の前記最終ブロックの前記オフセット値の分数部分に第2のビット数を割り当てるための手段を備え、前記第1のビット数および前記第2のビット数が、前記整数部分の絶対値に基づいて判断される[37]に記載の装置。
[40] オフセット値の前記最終ブロックが、整数ピクセル・ロケーションについての1つのオフセット値と、異なるサブ整数ピクセル・ロケーションについてのいくつかのオフセット値とを含む[37]に記載の装置。
[41] オフセット値の前記最終ブロックが、15個の異なるサブ整数ピクセル・ロケーションについての15個の異なるオフセット値を含む[40]に記載の装置。
[42] ビデオ符号化方法であって、
エンコーダを介して、オフセットを使用せずに、シーケンス・フィルタを使用して現在のフレームを第1のパスとして符号化することと、
id=0をもつすべての参照フレームが前記現在のフレームから同数のフレームだけ分離されている場合、
エンコーダを介して、ピクチャ順序コンテンツ(POC)重み付け参照フレームに対して、オフセットを使用せずに、シーケンス・フィルタを使用して前記現在のフレームをPOCパスとして符号化することと、
前記POCパスのレートひずみ特性が前記第1のパスのレートひずみ特性よりも低いレートひずみコスト値を規定する場合、
符号化のために前記POC重み付け参照フレームを使用することと、
前記POCパスの前記レートひずみ特性を変数として記憶することと、
前記第1のパスの前記レートひずみ特性が、前記POCパスの前記レートひずみ特性よりも低いレートひずみコスト値を規定する場合、前記第1のパスの前記レートひずみ特性を前記変数として記憶することと、
id=0をもつすべての参照フレームが前記現在のフレームから同数のフレームだけ分離されていない場合、前記第1のパスの前記レートひずみ特性を前記変数として記憶することと、
エンコーダを介して、前記現在のフレームに対してフレーム・フィルタとオフセットとを計算することと、
エンコーダを介して、計算された前記フレーム・フィルタとオフセットとを使用して前記現在のフレームを第2のパスとして符号化することと、
前記第2のパスのレートひずみ特性が、前記変数に記憶された前記レートひずみ特性よりも低いレートひずみコスト値を規定する場合、
前記第2のパスの前記レートひずみ特性を前記変数として記憶することと、
量子化ステップを1だけ増加させ、計算された前記フレーム・フィルタとオフセットとを使用して、前記現在のフレームを第3のパスとして符号化することと、
前記第2のパスの前記レートひずみ特性が、前記変数に記憶された前記レートひずみ特性よりも低いレートひずみコスト値を規定しない場合、前記量子化ステップを1だけ増加させ、オフセットを使用せずに、前記シーケンス・フィルタを使用して前記現在のフレームを前記第3のパスとして符号化することと、
前記第3のパスのレートひずみ特性が、前記変数に記憶された前記レートひずみ特性よりも低いレートひずみコスト値を規定する場合、前記第3のパスの前記符号化を前記ビット・ストリームに加算することと、
前記第3のパスの前記レートひずみ特性が、前記変数に記憶された前記レートひずみ特性よりも低いレートひずみコスト値を規定しない場合、前記変数の前記符号化を前記ビット・ストリームに加算することと、
エンコーダを介して、次のフレームを符号化するためにシーケンス・フィルタを計算することと、
を備えるビデオ符号化方法。
[43] ビデオデータを符号化する装置であって、
オフセットを使用せずに、シーケンス・フィルタを使用して現在のフレームを第1のパスとして符号化することと、
id=0をもつすべての参照フレームが前記現在のフレームから同数のフレームだけ分離されている場合、
ピクチャ順序コンテンツ(POC)重み付け参照フレームに対して、オフセットを使用せずに、シーケンス・フィルタを使用して前記現在のフレームをPOCパスとして符号化することと、
前記POCパスのレートひずみ特性が前記第1のパスのレートひずみ特性よりも低いレートひずみコスト値を規定する場合、
符号化するために前記POC重み付け参照フレームを使用することと、
前記POCパスの前記レートひずみ特性を変数として記憶することと、
前記第1のパスの前記レートひずみ特性が、前記POCパスの前記レートひずみ特性よりも低いレートひずみコスト値を規定する場合、前記第1のパスの前記レートひずみ特性を前記変数として記憶することと、
id=0をもつすべての参照フレームが前記現在のフレームから同数のフレームだけ分離されていない場合、前記第1のパスの前記レートひずみ特性を前記変数として記憶することと、
前記現在のフレームに対してフレーム・フィルタとオフセットとを計算することと、
計算された前記フレーム・フィルタとオフセットとを使用して前記現在のフレームを第2のパスとして符号化することと、
前記第2のパスのレートひずみ特性が、前記変数に記憶された前記レートひずみ特性よりも低いレートひずみコスト値を規定する場合、
前記第2のパスの前記レートひずみ特性を前記変数として記憶することと、
量子化ステップを1だけ増加させ、計算された前記フレーム・フィルタとオフセットとを使用して、前記現在のフレームを第3のパスとして符号化することと、
前記第2のパスの前記レートひずみ特性が、前記変数に記憶された前記レートひずみ特性よりも低いレートひずみコスト値を規定しない場合、前記量子化ステップを1だけ増加させ、オフセットを使用せずに、前記シーケンス・フィルタを使用して前記現在のフレームを前記第3のパスとして符号化することと、
前記第3のパスのレートひずみ特性が、前記変数に記憶された前記レートひずみ特性よりも低いレートひずみコスト値を規定する場合、前記第3のパスの前記符号化を前記ビット・ストリームに加算することと、
前記第3のパスの前記レートひずみ特性が、前記変数に記憶された前記レートひずみ特性よりも低いレートひずみコスト値を規定しない場合、前記変数の前記符号化を前記ビット・ストリームに加算することと、
次のフレームを符号化するためにシーケンス・フィルタを計算することと、
を行うビデオ・エンコーダを備える装置。
[44] 実行時に、ビデオ・エンコーダ内のプロセッサに、
オフセットを使用せずに、シーケンス・フィルタを使用して現在のフレームを第1のパスとして符号化させ、
id=0をもつすべての参照フレームが前記現在のフレームから同数のフレームだけ分離されている場合、
ピクチャ順序コンテンツ(POC)重み付け参照フレームに対して、オフセットを使用せずに、シーケンス・フィルタを使用して前記現在のフレームをPOCパスとして符号化させ、
前記POCパスのレートひずみ特性が前記第1のパスのレートひずみ特性よりも低いレートひずみコスト値を規定する場合、
符号化するために前記POC重み付け参照フレームを使用させ、
前記POCパスの前記レートひずみ特性を変数として記憶させ、
前記第1のパスの前記レートひずみ特性が、前記POCパスの前記レートひずみ特性よりも低いレートひずみコスト値を規定する場合、前記第1のパスの前記レートひずみ特性を前記変数として記憶させ、
id=0をもつすべての参照フレームが前記現在のフレームから同数のフレームだけ分離されていない場合、前記第1のパスの前記レートひずみ特性を前記変数として記憶させ、
前記現在のフレームに対してフレーム・フィルタとオフセットとを計算させ、
計算された前記フレーム・フィルタとオフセットとを使用して前記現在のフレームを第2のパスとして符号化させ、
前記第2のパスのレートひずみ特性が、前記変数に記憶された前記レートひずみ特性よりも低いレートひずみコスト値を規定する場合、
前記第2のパスの前記レートひずみ特性を前記変数として記憶させ、
量子化ステップを1だけ増加させ、計算された前記フレーム・フィルタとオフセットとを使用して、前記現在のフレームを第3のパスとして符号化させ、
前記第2のパスの前記レートひずみ特性が、前記変数に記憶された前記レートひずみ特性よりも低いレートひずみコスト値を規定しない場合、前記量子化ステップを1だけ増加させ、オフセットを使用せずに、前記シーケンス・フィルタを使用して前記現在のフレームを前記第3のパスとして符号化させ、
前記第3のパスのレートひずみ特性が、前記変数に記憶された前記レートひずみ特性よりも低いレートひずみコスト値を規定する場合、前記第3のパスの前記符号化を前記ビット・ストリームに加算させ、
前記第3のパスの前記レートひずみ特性が、前記変数に記憶された前記レートひずみ特性よりも低いレートひずみコスト値を規定しない場合、前記変数の前記符号化を前記ビット・ストリームに加算させ、
次のフレームを符号化するためにシーケンス・フィルタを計算させる、コンピュータ可読媒体上に符号化された命令を備えるコンピュータ可読媒体。
[45] ビデオデータを符号化する装置であって、
エンコーダを介して、オフセットを使用せずに、シーケンス・フィルタを使用して現在のフレームを第1のパスとして符号化するための手段と、
id=0をもつすべての参照フレームが前記現在のフレームから同数のフレームだけ分離されている場合、
エンコーダを介して、ピクチャ順序コンテンツ(POC)重み付け参照フレームに対して、オフセットを使用せずに、シーケンス・フィルタを使用して前記現在のフレームをPOCパスとして符号化するための手段と、
前記POCパスのレートひずみ特性が前記第1のパスのレートひずみ特性よりも低いレートひずみコスト値を規定する場合、
符号化のために前記POC重み付け参照フレームを使用するための手段と、
前記POCパスの前記レートひずみ特性を変数として記憶するための手段と、
前記第1のパスの前記レートひずみ特性が、前記POCパスの前記レートひずみ特性よりも低いレートひずみコスト値を規定する場合、前記第1のパスの前記レートひずみ特性を前記変数として記憶するための手段と、
id=0をもつすべての参照フレームが前記現在のフレームから同数のフレームだけ分離されていない場合、前記第1のパスの前記レートひずみ特性を前記変数として記憶するための手段と、
エンコーダを介して、前記現在のフレームに対してフレーム・フィルタとオフセットとを計算するための手段と、
エンコーダを介して、計算された前記フレーム・フィルタとオフセットとを使用して前記現在のフレームを第2のパスとして符号化するための手段と、
前記第2のパスのレートひずみ特性が、前記変数に記憶された前記レートひずみ特性よりも低いレートひずみコスト値を規定する場合、
前記第2のパスの前記レートひずみ特性を前記変数として記憶するための手段と、
量子化ステップを1だけ増加させ、計算された前記フレーム・フィルタとオフセットとを使用して、前記現在のフレームを第3のパスとして符号化するための手段と、
前記第2のパスの前記レートひずみ特性が、前記変数に記憶された前記レートひずみ特性よりも低いレートひずみコスト値を規定しない場合、前記量子化ステップを1だけ増加させ、オフセットを使用せずに、前記シーケンス・フィルタを使用して前記現在のフレームを前記第3のパスとして符号化するための手段と、
前記第3のパスのレートひずみ特性が、前記変数に記憶された前記レートひずみ特性よりも低いレートひずみコスト値を規定する場合、前記第3のパスの前記符号化を前記ビット・ストリームに加算するための手段と、
前記第3のパスの前記レートひずみ特性が、前記変数に記憶された前記レートひずみ特性よりも低いレートひずみコスト値を規定しない場合、前記変数の前記符号化を前記ビット・ストリームに加算するための手段と、
エンコーダを介して、次のフレームを符号化するためにシーケンス・フィルタを計算するための手段と、
を備える装置。
Claims (4)
- ビデオ符号化方法であって、
エンコーダを介して、フレームに含まれるピクセル値をバイアスするためのオフセット値を適用せず、かつ、サブピクセルデータを発生させてデータを補間するためのシーケンス・フィルタを使用して現在のフレームを第1のパスとして符号化することと、
参照フレームリスト内のすべての参照フレームが前記現在のフレームから同数のフレームだけ離れている場合、
エンコーダを介して、ピクチャ順序コンテンツ(POC)重み付け参照フレームに対して、オフセット値を適用せず、かつ、前記シーケンス・フィルタを使用して前記現在のフレームをPOCパスとして符号化することと、
前記POCパスのレートひずみ特性が前記第1のパスのレートひずみ特性よりも低いレートひずみコスト値を規定する場合、
前記POCパスの前記レートひずみ特性を変数として記憶することと、
前記第1のパスの前記レートひずみ特性が、前記POCパスの前記レートひずみ特性よりも低いレートひずみコスト値を規定する場合、前記第1のパスの前記レートひずみ特性を前記変数として記憶することと、
参照フレームリスト内のすべての参照フレームが前記現在のフレームから同数のフレームだけ離れていない場合、前記第1のパスの前記レートひずみ特性を前記変数として記憶することと、
エンコーダを介して、前記参照フレームに基づいて、又は、前記POCパスのレートひずみ特性が前記第1のパスのレートひずみ特性よりも低いレートひずみコスト値を規定する場合には前記POC重み付け参照フレームに基づいて、前記現在のフレームに対してフレーム・フィルタとオフセット値とを計算することと、
エンコーダを介して、計算された前記フレーム・フィルタを使用し、かつ、前記計算されたオフセット値を適用して前記現在のフレームを第2のパスとして符号化することと、
前記第2のパスのレートひずみ特性が、前記変数に記憶された前記レートひずみ特性よりも低いレートひずみコスト値を規定する場合、
前記第2のパスの前記レートひずみ特性を前記変数として記憶することと、
量子化ステップを1だけ増加させ、計算された前記フレーム・フィルタを使用し、かつ、前記計算されたオフセット値を適用して、前記現在のフレームを第3のパスとして符号化することと、
前記第2のパスの前記レートひずみ特性が、前記変数に記憶された前記レートひずみ特性よりも低いレートひずみコスト値を規定しない場合、前記量子化ステップを1だけ増加させ、オフセット値を適用せず、かつ、前記シーケンス・フィルタを使用して前記現在のフレームを前記第3のパスとして符号化することと、
前記第3のパスのレートひずみ特性が、前記変数に記憶された前記レートひずみ特性よりも低いレートひずみコスト値を規定する場合、前記第3のパスにおいて使用されたフィルタ及びオフセット構成をビット・ストリームに加算することと、
前記第3のパスの前記レートひずみ特性が、前記変数に記憶された前記レートひずみ特性よりも低いレートひずみコスト値を規定しない場合、前記変数を生成するために使用されたフィルタ及びオフセット構成を前記ビット・ストリームに加算することと、
エンコーダを介して、次のフレームを符号化するために過去のフレームに基づいてシーケンス・フィルタを計算することと、
を備えるビデオ符号化方法。 - ビデオデータを符号化する装置であって、
フレームに含まれるピクセル値をバイアスするためのオフセット値を適用せず、かつ、サブピクセルデータを発生させてデータを補間するためのシーケンス・フィルタを使用して現在のフレームを第1のパスとして符号化することと、
参照フレームリスト内のすべての参照フレームが前記現在のフレームから同数のフレームだけ離れている場合、
ピクチャ順序コンテンツ(POC)重み付け参照フレームに対して、オフセット値を適用せず、かつ、前記シーケンス・フィルタを使用して前記現在のフレームをPOCパスとして符号化することと、
前記POCパスのレートひずみ特性が前記第1のパスのレートひずみ特性よりも低いレートひずみコスト値を規定する場合、
前記POCパスの前記レートひずみ特性を変数として記憶することと、
前記第1のパスの前記レートひずみ特性が、前記POCパスの前記レートひずみ特性よりも低いレートひずみコスト値を規定する場合、前記第1のパスの前記レートひずみ特性を前記変数として記憶することと、
参照フレームリスト内のすべての参照フレームが前記現在のフレームから同数のフレームだけ離れていない場合、前記第1のパスの前記レートひずみ特性を前記変数として記憶することと、
前記参照フレームに基づいて、又は、前記POCパスのレートひずみ特性が前記第1のパスのレートひずみ特性よりも低いレートひずみコスト値を規定する場合には前記POC重み付け参照フレームに基づいて、前記現在のフレームに対してフレーム・フィルタとオフセット値とを計算することと、
計算された前記フレーム・フィルタを使用し、かつ、前記計算されたオフセット値を適用して前記現在のフレームを第2のパスとして符号化することと、
前記第2のパスのレートひずみ特性が、前記変数に記憶された前記レートひずみ特性よりも低いレートひずみコスト値を規定する場合、
前記第2のパスの前記レートひずみ特性を前記変数として記憶することと、
量子化ステップを1だけ増加させ、計算された前記フレーム・フィルタを使用し、かつ、前記計算されたオフセット値を適用して、前記現在のフレームを第3のパスとして符号化することと、
前記第2のパスの前記レートひずみ特性が、前記変数に記憶された前記レートひずみ特性よりも低いレートひずみコスト値を規定しない場合、前記量子化ステップを1だけ増加させ、オフセット値を適用せず、かつ、前記シーケンス・フィルタを使用して前記現在のフレームを前記第3のパスとして符号化することと、
前記第3のパスのレートひずみ特性が、前記変数に記憶された前記レートひずみ特性よりも低いレートひずみコスト値を規定する場合、前記第3のパスにおいて使用されたフィルタ及びオフセット構成をビット・ストリームに加算することと、
前記第3のパスの前記レートひずみ特性が、前記変数に記憶された前記レートひずみ特性よりも低いレートひずみコスト値を規定しない場合、前記変数を生成するために使用されたフィルタ及びオフセット構成を前記ビット・ストリームに加算することと、
次のフレームを符号化するために過去のフレームに基づいてシーケンス・フィルタを計算することと、
を行うビデオ・エンコーダを備える装置。 - 実行時に、ビデオ・エンコーダ内のプロセッサに、
フレームに含まれるピクセル値をバイアスするためのオフセット値を適用せず、かつ、サブピクセルデータを発生させてデータを補間するためのシーケンス・フィルタを使用して現在のフレームを第1のパスとして符号化させ、
参照フレームリスト内のすべての参照フレームが前記現在のフレームから同数のフレームだけ離れている場合、
ピクチャ順序コンテンツ(POC)重み付け参照フレームに対して、オフセット値を適用せず、かつ、前記シーケンス・フィルタを使用して前記現在のフレームをPOCパスとして符号化させ、
前記POCパスのレートひずみ特性が前記第1のパスのレートひずみ特性よりも低いレートひずみコスト値を規定する場合、
前記POCパスの前記レートひずみ特性を変数として記憶させ、
前記第1のパスの前記レートひずみ特性が、前記POCパスの前記レートひずみ特性よりも低いレートひずみコスト値を規定する場合、前記第1のパスの前記レートひずみ特性を前記変数として記憶させ、
参照フレームリスト内のすべての参照フレームが前記現在のフレームから同数のフレームだけ離れていない場合、前記第1のパスの前記レートひずみ特性を前記変数として記憶させ、
前記参照フレームに基づいて、又は、前記POCパスのレートひずみ特性が前記第1のパスのレートひずみ特性よりも低いレートひずみコスト値を規定する場合には前記POC重み付け参照フレームに基づいて、前記現在のフレームに対してフレーム・フィルタとオフセット値とを計算させ、
計算された前記フレーム・フィルタを使用し、かつ、前記計算されたオフセット値を適用して前記現在のフレームを第2のパスとして符号化させ、
前記第2のパスのレートひずみ特性が、前記変数に記憶された前記レートひずみ特性よりも低いレートひずみコスト値を規定する場合、
前記第2のパスの前記レートひずみ特性を前記変数として記憶させ、
量子化ステップを1だけ増加させ、計算された前記フレーム・フィルタを使用し、かつ、前記計算されたオフセット値を適用して、前記現在のフレームを第3のパスとして符号化させ、
前記第2のパスの前記レートひずみ特性が、前記変数に記憶された前記レートひずみ特性よりも低いレートひずみコスト値を規定しない場合、前記量子化ステップを1だけ増加させ、オフセット値を適用せず、かつ、前記シーケンス・フィルタを使用して前記現在のフレームを前記第3のパスとして符号化させ、
前記第3のパスのレートひずみ特性が、前記変数に記憶された前記レートひずみ特性よりも低いレートひずみコスト値を規定する場合、前記第3のパスにおいて使用されたフィルタ及びオフセット構成をビット・ストリームに加算させ、
前記第3のパスの前記レートひずみ特性が、前記変数に記憶された前記レートひずみ特性よりも低いレートひずみコスト値を規定しない場合、前記変数を生成するために使用されたフィルタ及びオフセット構成を前記ビット・ストリームに加算させ、
次のフレームを符号化するために過去のフレームに基づいてシーケンス・フィルタを計算させる、コンピュータ可読媒体上に符号化された命令を備えるコンピュータ可読記録媒体。 - ビデオデータを符号化する装置であって、
エンコーダを介して、フレームに含まれるピクセル値をバイアスするためのオフセット値を適用せず、かつ、サブピクセルデータを発生させてデータを補間するためのシーケンス・フィルタを使用して現在のフレームを第1のパスとして符号化するための手段と、
参照フレームリスト内のすべての参照フレームが前記現在のフレームから同数のフレームだけ離れている場合、
エンコーダを介して、ピクチャ順序コンテンツ(POC)重み付け参照フレームに対して、オフセット値を適用せず、かつ、前記シーケンス・フィルタを使用して前記現在のフレームをPOCパスとして符号化するための手段と、
前記POCパスのレートひずみ特性が前記第1のパスのレートひずみ特性よりも低いレートひずみコスト値を規定する場合、
前記POCパスの前記レートひずみ特性を変数として記憶するための手段と、
前記第1のパスの前記レートひずみ特性が、前記POCパスの前記レートひずみ特性よりも低いレートひずみコスト値を規定する場合、前記第1のパスの前記レートひずみ特性を前記変数として記憶するための手段と、
参照フレームリスト内のすべての参照フレームが前記現在のフレームから同数のフレームだけ離れていない場合、前記第1のパスの前記レートひずみ特性を前記変数として記憶するための手段と、
エンコーダを介して、前記参照フレームに基づいて、又は、前記POCパスのレートひずみ特性が前記第1のパスのレートひずみ特性よりも低いレートひずみコスト値を規定する場合には前記POC重み付け参照フレームに基づいて、前記現在のフレームに対してフレーム・フィルタとオフセット値とを計算するための手段と、
エンコーダを介して、計算された前記フレーム・フィルタを使用し、かつ、前記計算されたオフセット値を適用して前記現在のフレームを第2のパスとして符号化するための手段と、
前記第2のパスのレートひずみ特性が、前記変数に記憶された前記レートひずみ特性よりも低いレートひずみコスト値を規定する場合、
前記第2のパスの前記レートひずみ特性を前記変数として記憶するための手段と、
量子化ステップを1だけ増加させ、計算された前記フレーム・フィルタを使用し、かつ、前記計算されたオフセット値を適用して、前記現在のフレームを第3のパスとして符号化するための手段と、
前記第2のパスの前記レートひずみ特性が、前記変数に記憶された前記レートひずみ特性よりも低いレートひずみコスト値を規定しない場合、前記量子化ステップを1だけ増加させ、オフセット値を適用せず、かつ、前記シーケンス・フィルタを使用して前記現在のフレームを前記第3のパスとして符号化するための手段と、
前記第3のパスのレートひずみ特性が、前記変数に記憶された前記レートひずみ特性よりも低いレートひずみコスト値を規定する場合、前記第3のパスにおいて使用されたフィルタ及びオフセット構成をビット・ストリームに加算するための手段と、
前記第3のパスの前記レートひずみ特性が、前記変数に記憶された前記レートひずみ特性よりも低いレートひずみコスト値を規定しない場合、前記変数を生成するために使用されたフィルタ及びオフセット構成を前記ビット・ストリームに加算するための手段と、
エンコーダを介して、次のフレームを符号化するために過去のフレームに基づいてシーケンス・フィルタを計算するための手段と、
を備える装置。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US9950908P | 2008-09-23 | 2008-09-23 | |
US61/099,509 | 2008-09-23 | ||
US12/509,235 | 2009-07-24 | ||
US12/509,235 US8750378B2 (en) | 2008-09-23 | 2009-07-24 | Offset calculation in switched interpolation filters |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011529159A Division JP5730770B2 (ja) | 2008-09-23 | 2009-09-22 | 切替え補間フィルタにおけるオフセット計算 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013168949A JP2013168949A (ja) | 2013-08-29 |
JP5646668B2 true JP5646668B2 (ja) | 2014-12-24 |
Family
ID=42037650
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011529159A Expired - Fee Related JP5730770B2 (ja) | 2008-09-23 | 2009-09-22 | 切替え補間フィルタにおけるオフセット計算 |
JP2013041958A Expired - Fee Related JP5646668B2 (ja) | 2008-09-23 | 2013-03-04 | 切替え補間フィルタにおけるオフセット計算 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011529159A Expired - Fee Related JP5730770B2 (ja) | 2008-09-23 | 2009-09-22 | 切替え補間フィルタにおけるオフセット計算 |
Country Status (7)
Country | Link |
---|---|
US (1) | US8750378B2 (ja) |
EP (1) | EP2342898A2 (ja) |
JP (2) | JP5730770B2 (ja) |
KR (1) | KR101313956B1 (ja) |
CN (1) | CN102265619B (ja) |
TW (1) | TW201026077A (ja) |
WO (1) | WO2010039492A2 (ja) |
Families Citing this family (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9654792B2 (en) | 2009-07-03 | 2017-05-16 | Intel Corporation | Methods and systems for motion vector derivation at a video decoder |
US20120300849A1 (en) * | 2010-01-12 | 2012-11-29 | Yukinobu Yasugi | Encoder apparatus, decoder apparatus, and data structure |
US9507827B1 (en) * | 2010-03-25 | 2016-11-29 | Excalibur Ip, Llc | Encoding and accessing position data |
KR101847072B1 (ko) * | 2010-04-05 | 2018-04-09 | 삼성전자주식회사 | 영상 부호화 방법 및 장치, 비디오 복호화 방법 및 장치 |
CN107071409A (zh) * | 2010-05-13 | 2017-08-18 | 夏普株式会社 | 预测图像生成装置 |
US8976856B2 (en) * | 2010-09-30 | 2015-03-10 | Apple Inc. | Optimized deblocking filters |
US9532059B2 (en) | 2010-10-05 | 2016-12-27 | Google Technology Holdings LLC | Method and apparatus for spatial scalability for video coding |
US20120134425A1 (en) * | 2010-11-29 | 2012-05-31 | Faouzi Kossentini | Method and System for Adaptive Interpolation in Digital Video Coding |
US10045046B2 (en) | 2010-12-10 | 2018-08-07 | Qualcomm Incorporated | Adaptive support for interpolating values of sub-pixels for video coding |
US20130287106A1 (en) * | 2011-01-07 | 2013-10-31 | Samsung Electronics Co., Ltd. | Video prediction method capable of performing bilateral prediction and unilateral prediction and a device thereof, video encoding method and device thereof, and video decoding method and device thereof |
CN103503458B (zh) | 2011-01-07 | 2017-09-22 | 诺基亚技术有限公司 | 视频编码中的运动预测 |
US8693547B2 (en) * | 2011-04-06 | 2014-04-08 | Google Inc. | Apparatus and method for coding using motion vector segmentation |
US9008170B2 (en) | 2011-05-10 | 2015-04-14 | Qualcomm Incorporated | Offset type and coefficients signaling method for sample adaptive offset |
JP5768491B2 (ja) * | 2011-05-17 | 2015-08-26 | ソニー株式会社 | 画像処理装置および方法、プログラム、並びに記録媒体 |
US8989256B2 (en) | 2011-05-25 | 2015-03-24 | Google Inc. | Method and apparatus for using segmentation-based coding of prediction information |
KR101826215B1 (ko) | 2011-06-23 | 2018-03-22 | 후아웨이 테크놀러지 컴퍼니 리미티드 | 오프셋 복호 장치, 오프셋 부호화 장치, 화상 필터 장치 및 데이터 구조 |
KR102001259B1 (ko) * | 2011-06-27 | 2019-07-17 | 선 페이턴트 트러스트 | 화상 부호화 방법, 화상 복호 방법, 화상 부호화 장치, 화상 복호 장치, 및 화상 부호화 복호 장치 |
CN108632608B (zh) | 2011-09-29 | 2022-07-29 | 夏普株式会社 | 图像解码装置、图像解码方法、图像编码装置及图像编码方法 |
JP5972888B2 (ja) | 2011-09-29 | 2016-08-17 | シャープ株式会社 | 画像復号装置、画像復号方法および画像符号化装置 |
RS61015B1 (sr) * | 2011-10-17 | 2020-11-30 | Toshiba Kk | Postupak kodiranja i dekodiranja |
US10027982B2 (en) * | 2011-10-19 | 2018-07-17 | Microsoft Technology Licensing, Llc | Segmented-block coding |
JP2013102297A (ja) | 2011-11-07 | 2013-05-23 | Canon Inc | 画像符号化方法、画像符号化装置及びプログラム、画像復号方法、画像復号装置及びプログラム |
JP5871628B2 (ja) * | 2011-11-07 | 2016-03-01 | キヤノン株式会社 | 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム |
US9247257B1 (en) | 2011-11-30 | 2016-01-26 | Google Inc. | Segmentation based entropy encoding and decoding |
JP6101709B2 (ja) * | 2012-01-18 | 2017-03-22 | エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute | 映像復号化装置 |
US9094681B1 (en) | 2012-02-28 | 2015-07-28 | Google Inc. | Adaptive segmentation |
US9332276B1 (en) | 2012-08-09 | 2016-05-03 | Google Inc. | Variable-sized super block based direct prediction mode |
US9380298B1 (en) | 2012-08-10 | 2016-06-28 | Google Inc. | Object-based intra-prediction |
US9571858B2 (en) * | 2013-07-19 | 2017-02-14 | Futurewei Technologies, Inc. | Method and apparatus of derivation for a binary partition pattern |
US20160373770A1 (en) * | 2015-06-18 | 2016-12-22 | Qualcomm Incorporated | Intra prediction and intra mode coding |
US10841593B2 (en) | 2015-06-18 | 2020-11-17 | Qualcomm Incorporated | Intra prediction and intra mode coding |
US11463689B2 (en) | 2015-06-18 | 2022-10-04 | Qualcomm Incorporated | Intra prediction and intra mode coding |
KR102402671B1 (ko) | 2015-09-09 | 2022-05-26 | 삼성전자주식회사 | 보간 필터의 연산 복잡도를 조절할 수 있는 영상 처리 장치, 영상 보간 방법 및 영상 부호화 방법 |
US10116957B2 (en) * | 2016-09-15 | 2018-10-30 | Google Inc. | Dual filter type for motion compensated prediction in video coding |
CN116193109A (zh) * | 2017-01-16 | 2023-05-30 | 世宗大学校产学协力团 | 影像编码/解码方法 |
US10455253B1 (en) * | 2017-02-28 | 2019-10-22 | Google Llc | Single direction long interpolation filter |
WO2019093916A1 (en) | 2017-11-07 | 2019-05-16 | Huawei Technologies Co., Ltd | Interpolation filter for an inter prediction apparatus and method for video coding |
US11277644B2 (en) | 2018-07-02 | 2022-03-15 | Qualcomm Incorporated | Combining mode dependent intra smoothing (MDIS) with intra interpolation filter switching |
US11303885B2 (en) | 2018-10-25 | 2022-04-12 | Qualcomm Incorporated | Wide-angle intra prediction smoothing and interpolation |
CN113056909A (zh) * | 2018-12-31 | 2021-06-29 | 松下电器(美国)知识产权公司 | 编码装置、解码装置、编码方法和解码方法 |
JP7176094B2 (ja) * | 2019-03-11 | 2022-11-21 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 符号化装置及び符号化方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0830030A3 (en) * | 1996-09-13 | 2002-01-30 | Nec Corporation | Video and audio data compression system |
US6950469B2 (en) * | 2001-09-17 | 2005-09-27 | Nokia Corporation | Method for sub-pixel value interpolation |
CA2491679A1 (en) * | 2002-07-09 | 2004-01-15 | Nokia Corporation | Method and system for selecting interpolation filter type in video coding |
US7496234B2 (en) * | 2003-06-20 | 2009-02-24 | Microsoft Corporation | System and method for seamless multiplexing of embedded bitstreams |
EP1636998A2 (en) * | 2003-06-25 | 2006-03-22 | Thomson Licensing | Method and apparatus for weighted prediction estimation using a displaced frame differential |
NO319629B1 (no) | 2003-11-28 | 2005-09-05 | Tandberg Telecom As | Fremgangsmate for korrigering av interpolerte pikselverdier |
NO320114B1 (no) | 2003-12-05 | 2005-10-24 | Tandberg Telecom As | Forbedret utregning av interpolerte pixelverdier |
FR2881898A1 (fr) * | 2005-02-10 | 2006-08-11 | Thomson Licensing Sa | Procede et dispositif de codage d'une image video en mode inter ou intra |
EP2127391A2 (en) * | 2007-01-09 | 2009-12-02 | Nokia Corporation | Adaptive interpolation filters for video coding |
US20080298702A1 (en) * | 2007-06-04 | 2008-12-04 | Aricent Inc. | Fixed rate JPEG encoding |
-
2009
- 2009-07-24 US US12/509,235 patent/US8750378B2/en not_active Expired - Fee Related
- 2009-09-22 EP EP09792842A patent/EP2342898A2/en not_active Ceased
- 2009-09-22 KR KR1020117009307A patent/KR101313956B1/ko not_active IP Right Cessation
- 2009-09-22 WO PCT/US2009/057831 patent/WO2010039492A2/en active Search and Examination
- 2009-09-22 JP JP2011529159A patent/JP5730770B2/ja not_active Expired - Fee Related
- 2009-09-22 CN CN200980137201.3A patent/CN102265619B/zh not_active Expired - Fee Related
- 2009-09-23 TW TW098132147A patent/TW201026077A/zh unknown
-
2013
- 2013-03-04 JP JP2013041958A patent/JP5646668B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
WO2010039492A3 (en) | 2011-12-22 |
US8750378B2 (en) | 2014-06-10 |
JP2012505565A (ja) | 2012-03-01 |
TW201026077A (en) | 2010-07-01 |
JP2013168949A (ja) | 2013-08-29 |
KR101313956B1 (ko) | 2013-10-01 |
US20100074332A1 (en) | 2010-03-25 |
WO2010039492A2 (en) | 2010-04-08 |
CN102265619B (zh) | 2014-06-18 |
CN102265619A (zh) | 2011-11-30 |
JP5730770B2 (ja) | 2015-06-10 |
EP2342898A2 (en) | 2011-07-13 |
KR20110074565A (ko) | 2011-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5646668B2 (ja) | 切替え補間フィルタにおけるオフセット計算 | |
US8804831B2 (en) | Offsets at sub-pixel resolution | |
JP5536034B2 (ja) | 固定フィルタまたは適応フィルタに基づくビデオ・コーディングのためのレートひずみ定義補間 | |
JP5619725B2 (ja) | ビデオコーディングにおけるサブピクセル解像度のための補間フィルタサポート | |
JP5547198B2 (ja) | 補間フィルタおよびオフセットを用いたデジタルビデオコーディング | |
JP5180366B2 (ja) | ビデオコーディングにおけるサブピクセル位置の補間フィルタリングに対する対称性 | |
JP5575747B2 (ja) | 動き補償プロセスにおいて予測ブロックを発生する方法、装置、およびコンピュータ可読記憶媒体 | |
JP2011517237A (ja) | ビデオ・コーディングにおける補間のための予測技法 | |
KR101469338B1 (ko) | 혼합된 탭 필터들 | |
WO2008149327A2 (en) | Method and apparatus for motion-compensated video signal prediction | |
RU2477576C2 (ru) | Поддержка интерполяционного фильтра для субпиксельного разрешения в видеокодировании |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140107 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20140314 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20140319 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140328 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140415 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20140715 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20140718 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20140815 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20140820 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140916 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20141007 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141105 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5646668 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |