JP2012505601A - 効率的な予測モード選択 - Google Patents
効率的な予測モード選択 Download PDFInfo
- Publication number
- JP2012505601A JP2012505601A JP2011531117A JP2011531117A JP2012505601A JP 2012505601 A JP2012505601 A JP 2012505601A JP 2011531117 A JP2011531117 A JP 2011531117A JP 2011531117 A JP2011531117 A JP 2011531117A JP 2012505601 A JP2012505601 A JP 2012505601A
- Authority
- JP
- Japan
- Prior art keywords
- video data
- version
- predicted
- data unit
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/109—Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/146—Data rate or code amount at the encoder output
- H04N19/147—Data rate or code amount at the encoder output according to rate distortion criteria
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/189—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
- H04N19/19—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding using optimisation based on Lagrange multipliers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/573—Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/142—Detection of scene cut or scene change
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/523—Motion estimation or motion compensation with sub-pixel accuracy
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
pred(i,j) = (pred0(i,j) + pred1(i,j)+1) >> 1 (1)
pred(i,j)は、予測フレーム、たとえば、Bフレームのi行j列のビデオブロックを表す予測データを指す。pred0(i,j)は、第1の参照フレームのi行j列のビデオブロックを表すデータを指し、ここで、第1の参照フレームはリスト0から選択される。pred1(i,j)は、第2の参照フレームのi行j列のビデオブロックを表すデータを指し、ここで、第1の参照フレームはリスト1から選択される。重みが等しいかまたはほぼ等しいので、式(1)において1を加算し、1ビットだけ右にシフトする(>>)ことは、pred0(i,j)+pred1(i,j)の和を2、たとえば、Bフレームの予測ビデオブロックを予測するために使用されるフレームまたはビデオブロックの総数で効果的に除算する。
pred(i,j)=(pred0(i,j)*w0+pred1(i,j)*w1+2r)>>(r+1)+ ((o1+o2+1)>>1) (2)
この場合も、pred(i,j)、pred0(i,j)およびpred1(i,j)の各々は、式(1)に関して上記で説明された同じ参照ビデオブロックを指す。重みが判断され、ほぼ等しくないことがあるので、式(2)は、それぞれpred0(i,j)およびpred1(i,j)に乗法的に適用される重みw0とw1とを含む。「r」変数は、重みw0およびw1が整数を生じることを保証するように選択された整数を表し得る。変数o1およびo2は、それぞれ丸めオフセットを表し、式(2)は、丸めオフセットと1を加算し、続いて、1だけ右にシフトすることによって、丸めオフセットo1とo2の平均を与える。ブロックの重み付き和はまた、Bフレームの予測ビデオブロックを予測するために使用される参照ビデオブロックの総数での適切な除算を保証するために、丸めオフセットの平均の加算より前にシフトされ得る。
pred(i,j) = (pred0(i,j)*w0+pred1(i,j)*w1+32)>>6 (3)
この場合も、pred(i,j)、pred0(i,j)およびpred1(i,j)の各々は、式(1)および式(2)に関して上記で説明された同じ参照ビデオブロックを指す。重みが判断され、ほぼ等しくないことがあるので、式(3)は、それぞれpred0(i,j)およびpred1(i,j)に乗法的に適用される重みw0とw1とを含む。値「32」は、重みw0およびw1が整数であることを保証するために使用される静的丸めオフセットを備え得、丸めオフセット32を仮定すれば、6だけ右にシフトすること(>>)は、総重み付きブロックの和をBフレームの予測ビデオブロックを予測するために使用されるフレームの総数で効果的に除算する除算を表し得る。
Fc = d + (λo * R) (4)
Fcは、コスト関数を表す変数を備える。文字「d」は、第1および第2のバージョンをそれぞれビデオの対応する部分と比較することによって計算される第1のひずみ値または第2のひずみ値のいずれかを表す変数を備える。動き補償ユニット35は、一般に、ピーク信号対雑音比(PSNR)を最大にするために、第1および第2のひずみを平均2乗誤差として計算または測定する。ラムダまたは「λo」は、特定の品質レベルのビットコストと品質との間の関係を表す値であるラグランジュ乗数を表す変数を備える。文字「R」は、ビデオが符号化されるビットレートを表す変数を備える。
Claims (39)
- それぞれの第1および第2の参照ビデオデータユニットをそれぞれ備える、ビデオデータの第1および第2の参照コード化ユニットを受信すること、
それぞれ時間的に前記予測コード化ユニットの前または後のいずれかに生じる、前記第1および第2の参照ビデオデータユニットから、前記ビデオデータの予測コード化ユニットの予測ビデオデータユニットの第1のバージョンを予測するために、デフォルト重み付け予測を実行すること、
前記予測ビデオデータユニットの前記第1のバージョンのオフセット値を計算すること、
前記計算されたオフセット値に基づいて暗黙的重み付け予測モードまたは明示的重み付け予測モードのいずれかを選択すること、
前記第1および第2の参照ビデオデータユニットから前記予測ビデオデータユニットの第2のバージョンを予測するために前記選択されたモードを実行すること、
前記第1のバージョンまたは前記第2のバージョンのいずれかとして前記予測ビデオデータユニットを符号化すること、
を備える、ビデオデータを符号化する方法。 - 前記オフセット値の絶対値を計算すること、および、
前記オフセット値の前記絶対値をしきい値と比較すること、
をさらに備え、
暗黙的重み付け予測モードまたは明示的重み付け予測モードのいずれかを選択することは、前記参照ビデオデータユニットから前記予測ビデオデータユニットの前記第2のバージョンを予測するために、前記比較に基づいて前記暗黙的重み付け予測モードまたは前記明示的重み付け予測モードのいずれかを選択することを備える、請求項1に記載の方法。 - いずれかの前記選択されたモードを実行することは、
前記オフセット値の前記絶対値が前記しきい値を超えるとき、前記参照ビデオデータユニットから前記予測ビデオデータユニットの前記第2のバージョンを予測するために明示的重み付け予測を実行すること、および、
前記オフセット値の前記絶対値が前記しきい値を超えないとき、前記参照ビデオデータユニットから前記予測ビデオデータユニットの前記第2のバージョンを予測するために暗黙的重み付け予測を実行すること、
を備える、請求項2に記載の方法。 - 前記予測ビデオデータユニットの前記第1のバージョンと前記第2のバージョンのどちらが前記ビデオデータをより適切に符号化するかを判断することをさらに備え、
前記第1のバージョンまたは前記第2のバージョンのいずれかとして前記予測ビデオデータユニットを符号化することは、前記判断に基づいて前記第1のバージョンまたは前記第2のバージョンのいずれかとして前記予測ビデオデータユニットを符号化することを備える、請求項1に記載の方法。 - 前記予測ビデオデータユニットの前記第1のバージョンと前記第2のバージョンのどちらが前記ビデオデータをより適切に符号化するかを判断することは、
それぞれ前記第1および第2のバージョンによって導入されるひずみの量を示す、第1および第2のひずみ値を判断するために、前記予測ビデオデータユニットの前記第1および第2のバージョンの各々を、前記ビデオデータの対応する部分と比較すること、
前記それぞれの第1および第2のひずみ値に基づいて前記予測ビデオデータユニットの前記第1および第2のバージョンの第1と第2のコストとを計算すること、
前記第1のコストと第2のコストのどちらがより低いかを判断するために前記第1のコストと第2のコストとを比較すること、および、
前記比較に基づいて前記第1のバージョンまたは前記第2のバージョンのいずれかを選択すること、
を備える、請求項4に記載の方法。 - 前記第1と前記第2のコストとを計算することは、以下のコスト関数:
Fc = d + (λo * R)
に従って、前記第1および第2のコストの各々を計算することを備え、ここで、Fcは、前記コスト関数を表す変数を備え、dは、前記第1のひずみ値または前記第2のひずみ値のいずれかを表す変数を備え、λoは、ラグランジアンを表す変数を備え、Rは、前記ビデオデータが符号化されるビットレートを表す変数を備える、請求項5に記載の方法。 - 前記第1の参照コード化ユニットは、時間的に前記予測コード化ユニットの前に生じ、
前記第2の参照コード化ユニットは、時間的に前記予測コード化ユニットの後に生じ、
前記予測コード化ユニットは、双方向予測フレーム(Bフレーム)を備え、かつ、
前記第1および第2のコード化ユニットは、独立コード化フレーム(Iフレーム)、予測フレーム(Pフレーム)、または別のBフレームのうちの1つをそれぞれ備える、請求項1に記載の方法。 - 前記第1および第2の参照コード化ユニットを受信することは、第1の参照ビデオブロックを含む第1の参照フレームと、第2の参照ビデオブロックを含む第2の参照フレームと、を受信することを備え、
前記デフォルト重み付け予測を実行することは、前記第1および第2の参照ビデオブロックから予測フレームの予測ビデオブロックの第1のバージョンを予測するために前記デフォルト重み付け予測を実行することを備え、前記第1および第2の参照フレームは、時間的に前記予測ビデオフレームの前または後のいずれかに生じ、
前記オフセット値を計算することは、前記予測フレームの前記予測ビデオブロックの前記第1のバージョンの前記オフセット値を計算することを備え、
前記計算されたオフセット値に基づいて前記暗黙的重み付け予測モードまたは前記明示的重み付け予測モードのいずれかを選択することは、前記計算されたオフセット値に基づいて前記暗黙的重み付け予測モードまたは前記明示的重み付け予測モードのいずれかを選択することを備え、
前記選択されたモードを実行することは、前記第1および第2の参照ビデオブロックから前記予測フレームの前記予測ビデオブロックの第2のバージョンを予測するために前記選択されたモードを実行することを備え、かつ、
前記予測ビデオデータユニットを符号化することは、前記第1のバージョンまたは前記第2のバージョンのいずれかとして前記予測フレームの前記予測ビデオブロックを符号化することを備える、請求項1に記載の方法。 - 前記予測ビデオデータユニットを符号化することは、前記予測ビデオデータユニットの前記第2のバージョンが前記明示的重み付け予測を使用して予測された前記第2のバージョンを備えるとき、前記予測ビデオデータユニットを前記予測ビデオデータユニットの前記第2のバージョンとして符号化することと、前記第2のバージョンに加えて前記オフセット値を符号化することと、を備える、請求項1に記載の方法。
- 前記方法は、ビデオエンコーダまたはビデオエンコーダ/デコーダ(CODEC)によって実行される、請求項1に記載の方法。
- 第1および第2の参照コード化ユニットを記憶するメモリであって、前記第1の参照コード化ユニットが第1の参照ビデオデータユニットを含み、前記第2の参照コード化ユニットが第2の参照ビデオデータユニットを含む、メモリ、および、
それぞれ時間的に前記予測コード化ユニットの前または後のいずれかに生じる、前記第1および第2の参照ビデオデータユニットから、前記ビデオデータの予測コード化ユニットの予測ビデオデータユニットの第1のバージョンを予測するために、デフォルト重み付け予測を実行し、前記予測ビデオデータユニットの前記第1のバージョンのオフセット値を計算し、前記計算されたオフセット値に基づいて暗黙的重み付け予測モードまたは明示的重み付け予測モードのいずれかを選択し、前記第1および第2の参照ビデオデータユニットから前記予測ビデオデータユニットの第2のバージョンを予測するために、前記選択されたモードを実行し、かつ、前記第1のバージョンまたは前記第2のバージョンのいずれかとして前記予測ビデオデータユニットを符号化する、動き補償ユニット、
を含むビデオエンコーダを備える、ビデオデータを符号化する装置。 - 前記動き補償ユニットは、
前記オフセット値の絶対値を計算するオフセット計算モジュール、および、
前記オフセット値の前記絶対値をしきい値と比較するコンパレータ、
を備え、
前記動き補償ユニットは、前記比較に基づいて前記暗黙的重み付け予測モードまたは前記明示的重み付け予測モードのいずれかを選択する、請求項11に記載の装置。 - 前記動き補償ユニットは、
前記オフセット値の前記絶対値が前記しきい値を超えるとき、前記参照ビデオデータユニットから前記予測ビデオデータユニットの前記第2のバージョンを予測するために明示的重み付け予測を実行する明示的予測モジュール、および、
前記オフセット値の前記絶対値が前記しきい値を超えないとき、前記参照ビデオデータユニットから前記予測ビデオデータユニットの前記第2のバージョンを予測するために暗黙的重み付け予測を実行する暗黙的予測モジュール、
を備える、請求項12に記載の装置。 - 前記動き補償ユニットは、前記予測ビデオデータユニットの前記第1のバージョンと前記第2のバージョンのどちらが前記ビデオデータをより適切に符号化するかを判断する分析モジュールを含み、
前記動き補償ユニットは、前記判断に基づいて前記第1のバージョンまたは前記第2のバージョンのいずれかとして前記予測ビデオデータユニットを符号化する、請求項11に記載の装置。 - 前記分析モジュールは、それぞれ前記第1および第2のバージョンによって導入されるひずみの量を示す、第1および第2のひずみ値を判断するために、前記予測ビデオデータユニットの前記第1および第2のバージョンの各々を、前記ビデオデータの対応する部分と比較し、前記それぞれの第1および第2のひずみ値に基づいて前記予測ビデオデータユニットの前記第1および第2のバージョンの第1と第2のコストとを計算し、前記第1のコストと第2のコストのどちらがより低いかを判断するために前記第1のコストと第2のコストとを比較し、かつ、前記比較に基づいて前記第1のバージョンまたは前記第2のバージョンのいずれかを選択する、レートひずみ(R−D)分析モジュールを備える、請求項14に記載の装置。
- 前記R−D分析モジュールは、以下のコスト関数:
Fc = d + (λo * R)
に従って、前記第1および第2のコストの各々を計算し、ここで、Fcは、前記コスト関数を表す変数を備え、dは、前記第1のひずみ値または前記第2のひずみ値のいずれかを表す変数を備え、λoは、ラグランジアンを表す変数を備え、Rは、前記ビデオデータが符号化されるビットレートを表す変数を備える、請求項15に記載の装置。 - 第1の参照コード化ユニットは、時間的に前記予測コード化ユニットの前に生じ、
第2の参照コード化ユニットは、時間的に前記予測コード化ユニットの後に生じ、
前記予測コード化ユニットは、双方向予測フレーム(Bフレーム)を備え、かつ、
前記第1および第2のコード化ユニットは、独立コード化フレーム(Iフレーム)、予測フレーム(Pフレーム)、または別のBフレームのうちの1つをそれぞれ備える、請求項11に記載の装置。 - 前記第1および第2のコード化ユニットは、それぞれ第1および第2の参照フレームを備え、
前記第1および第2の参照ビデオデータユニットは、それぞれ前記第1の参照フレームからの第1の参照ビデオブロックと前記第2の参照フレームからの第2の参照ビデオブロックと、を備え、
前記動き補償ユニットは、
前記第1および第2の参照ビデオブロックから予測フレームの予測ビデオブロックの第1のバージョンを予測するために前記デフォルト重み付け予測を実行するデフォルト予測モジュールであって、前記第1および第2の参照フレームが時間的に前記予測ビデオフレームの前または後のいずれかに生じる、デフォルト予測モジュール、
前記予測フレームの前記予測ビデオブロックの前記第1のバージョンの前記オフセット値を計算するオフセット計算モジュール、
前記暗黙的重み付け予測を実施する暗黙的予測モジュール、および、
前記明示的重み付け予測を実施する明示的予測モジュール、
を含み、前記計算されたオフセット値に基づいて、前記暗黙的予測モジュールまたは前記明示的予測モジュールのいずれかが、前記第1および第2の参照ビデオブロックから前記予測フレームの前記予測ビデオブロックの第2のバージョンを予測するために、前記暗黙的重み付け予測または前記明示的重み付け予測のいずれかを実行し、かつ、
前記動き補償ユニットは、前記第1のバージョンまたは前記第2のバージョンのいずれかとして前記予測フレームの前記予測ビデオブロックを符号化する、請求項11に記載の装置。 - 前記動き補償ユニットは、前記予測ビデオデータユニットの前記第2のバージョンが前記明示的重み付け予測を使用して予測された前記第2のバージョンを備えるとき、前記予測ビデオデータユニットを前記予測ビデオデータユニットの前記第2のバージョンとして符号化し、前記第2のバージョンに加えて前記オフセット値を符号化する、請求項11に記載の装置。
- 装置は、ビデオエンコーダハードウェアまたはビデオエンコーダ/デコーダ(CODEC)ハードウェアを備える、請求項11に記載の装置。
- ビデオデータの第1および第2の参照コード化ユニットを記憶するための手段であって、前記第1の参照コード化ユニットが第1の参照ビデオデータユニットを含み、前記第2の参照コード化ユニットが第2の参照ビデオデータユニットを含む、記憶するための手段、
それぞれ時間的に前記予測コード化ユニットの前または後のいずれかに生じる、前記第1および第2の参照ビデオデータユニットから、前記ビデオデータの予測コード化ユニットの予測ビデオデータユニットの第1のバージョンを予測するために、デフォルト重み付け予測を実行するための手段、
前記予測ビデオデータユニットの前記第1のバージョンのオフセット値を計算するための手段、
前記第1および第2の参照ビデオデータユニットから前記予測ビデオデータユニットの第2のバージョンを予測するために、前記計算されたオフセット値に基づいて暗黙的重み付け予測または明示的重み付け予測の両方ではなくいずれかを実行するための手段、および、
前記第1のバージョンまたは前記第2のバージョンのいずれかとして前記予測ビデオデータユニットを符号化するための手段、
を含む、ビデオデータを符号化するための手段
を備える、ビデオデータを符号化するデバイス。 - 計算するための前記手段は、
前記オフセット値の絶対値を計算するための手段、および、
前記オフセット値の前記絶対値をしきい値と比較するための手段、
をさらに備え、
前記暗黙的重み付け予測または前記明示的重み付け予測のいずれかを実行するための前記手段は、前記参照ビデオデータユニットから前記予測ビデオデータユニットの前記第2のバージョンを予測するために、前記比較に基づいて前記暗黙的重み付け予測または前記明示的重み付け予測のいずれかを実行する、請求項21に記載のデバイス。 - 前記暗黙的重み付け予測または前記明示的重み付け予測のいずれかを実行するための前記手段は、
前記オフセット値の前記絶対値が前記しきい値を超えるとき、前記参照ビデオデータユニットから前記予測ビデオデータユニットの前記第2のバージョンを予測するために明示的重み付け予測を実行するための手段、および、
前記オフセット値の前記絶対値が前記しきい値を超えないとき、前記参照ビデオデータユニットから前記予測ビデオデータユニットの前記第2のバージョンを予測するために前記暗黙的重み付け予測を実行するための手段、
を備える、請求項22に記載のデバイス。 - 前記予測ビデオデータユニットの前記第1のバージョンと前記第2のバージョンのどちらが前記ビデオデータをより適切に符号化するかを判断するための手段をさらに備え、
前記第1のバージョンまたは前記第2のバージョンのいずれかとして前記予測ビデオデータユニットを符号化するための前記手段は、前記判断に基づいて前記第1のバージョンまたは前記第2のバージョンのいずれかとして前記予測ビデオデータユニットを符号化する、請求項21に記載のデバイス。 - 前記予測ビデオデータユニットの前記第1のバージョンと前記第2のバージョンのどちらが前記ビデオデータをより適切に符号化するかを判断するための前記手段は、
それぞれ前記第1および第2のバージョンによって導入されるひずみの量を示す、第1および第2のひずみ値を判断するために、前記予測ビデオデータユニットの前記第1および第2のバージョンの各々を、前記ビデオデータの対応する部分と比較するための手段、
前記それぞれの第1および第2のひずみ値に基づいて前記予測ビデオデータユニットの前記第1および第2のバージョンの第1と第2のコストとを計算するための手段、
前記第1のコストと第2のコストのどちらがより低いかを判断するために前記第1のコストと第2のコストとを比較するための手段、および、
前記比較に基づいて前記第1のバージョンまたは前記第2のバージョンのいずれかを選択するための手段、
を備える、請求項24に記載のデバイス。 - 前記第1と前記第2のコストとを計算するための前記手段は、以下のコスト関数:
Fc = d + (λo * R)
に従って、前記第1および第2のコストの各々を計算し、ここで、Fcは、前記コスト関数を表す変数を備え、dは、前記第1のひずみ値または前記第2のひずみ値のいずれかを表す変数を備え、λoは、ラグランジアンを表す変数を備え、Rは、前記ビデオデータが符号化されるビットレートを表す変数を備える、請求項25に記載のデバイス。 - 前記第1の参照コード化ユニットは、時間的に前記予測コード化ユニットの前に生じ、
前記第2の参照コード化ユニットは、時間的に前記予測コード化ユニットの後に生じ、
前記予測コード化ユニットは、双方向予測フレーム(Bフレーム)を備え、かつ、
前記第1および第2のコード化ユニットは、独立コード化フレーム(Iフレーム)、予測フレーム(Pフレーム)、または別のBフレームのうちの1つをそれぞれ備える、請求項21に記載のデバイス。 - 前記第1および第2の異なる参照コード化ユニットを記憶するための前記手段は、第1の参照ビデオブロックを含む第1の参照フレームと、第2の参照ビデオブロックを含む第2の参照フレームと、を記憶し、
前記デフォルト重み付け予測を実行するための前記手段は、前記第1および第2の参照ビデオブロックから予測フレームの予測ビデオブロックの第1のバージョンを予測するために前記デフォルト重み付け予測を実行し、前記第1および第2の参照フレームが時間的に前記予測ビデオフレームの前または後のいずれかに生じ、
前記オフセット値を計算するための前記手段は、前記予測フレームの前記予測ビデオブロックの前記第1のバージョンの前記オフセット値を計算し、
前記計算されたオフセット値に基づいて前記暗黙的重み付け予測または前記明示的重み付け予測のいずれかを実行するための前記手段は、前記第1および第2の参照ビデオブロックから前記予測フレームの前記予測ビデオブロックの第2のバージョンを予測するために、前記計算されたオフセット値に基づいて、前記暗黙的重み付け予測または前記明示的重み付け予測のいずれかを実行し、かつ、
前記予測ビデオデータユニットを符号化するための前記手段は、前記第1のバージョンまたは前記第2のバージョンのいずれかとして前記予測フレームの前記予測ビデオブロックを符号化する、請求項21に記載のデバイス。 - 前記予測ビデオデータユニットを符号化するための前記手段は、前記予測ビデオデータユニットの前記第2のバージョンが前記明示的重み付け予測を使用して予測された前記第2のバージョンを備えるとき、前記予測ビデオデータユニットを前記予測ビデオデータユニットの前記第2のバージョンとして符号化し、前記第2のバージョンに加えて前記オフセット値を符号化する、請求項21に記載のデバイス。
- 前記デバイスは、ビデオエンコーダハードウェアまたはビデオエンコーダ/デコーダ(CODEC)ハードウェアによって実行される、請求項1に記載のデバイス。
- それぞれの第1および第2の参照ビデオデータユニットをそれぞれ備える、ビデオデータの第1および第2の参照コード化ユニットを受信すること、
それぞれ時間的に前記予測コード化ユニットの前または後のいずれかに生じる、前記第1および第2の参照ビデオデータユニットから、前記ビデオデータの予測コード化ユニットの予測ビデオデータユニットの第1のバージョンを予測するために、デフォルト重み付け予測を実行すること、
前記予測ビデオデータユニットの前記第1のバージョンのオフセット値を計算すること、
前記計算されたオフセット値に基づいて暗黙的重み付け予測モードまたは明示的重み付け予測モードのいずれかを選択すること、
前記第1および第2の参照ビデオデータユニットから前記予測ビデオデータユニットの第2のバージョンを予測するために前記選択されたモードを実行すること、および、
前記第1のバージョンまたは前記第2のバージョンのいずれかとして前記予測ビデオデータユニットを符号化すること、
をプログラマブルプロセッサに行わせるための命令を備えるコンピュータ可読媒体。 - 前記命令は、前記プログラマブルプロセッサに、
前記オフセット値の絶対値を計算すること、
前記オフセット値の前記絶対値をしきい値と比較すること、および、
前記比較に基づいて前記暗黙的重み付け予測モードまたは前記明示的重み付け予測モードのいずれかを選択すること、
をさらに行わせる、請求項31に記載のコンピュータ可読媒体。 - 前記命令は、前記プログラマブルプロセッサに、
前記オフセット値の前記絶対値が前記しきい値を超えるとき、前記参照ビデオデータユニットから前記予測ビデオデータユニットの前記第2のバージョンを予測するために前記明示的重み付け予測を実行すること、および、
前記オフセット値の前記絶対値が前記しきい値を超えないとき、前記参照ビデオデータユニットから前記予測ビデオデータユニットの前記第2のバージョンを予測するために前記暗黙的重み付け予測を実行すること、
を行わせる、請求項32に記載のコンピュータ可読媒体。 - 前記命令は、前記プログラマブルプロセッサに、前記予測ビデオデータユニットの前記第1のバージョンと前記第2のバージョンのどちらが前記ビデオデータをより適切に符号化するかを判断させ、
前記命令は、前記プログラマブルプロセッサに、前記判断に基づいて前記第1のバージョンまたは前記第2のバージョンのいずれかとして前記予測ビデオデータユニットを符号化させる、請求項31に記載のコンピュータ可読媒体。 - 前記命令は、前記プログラマブルプロセッサに、
それぞれ前記第1および第2のバージョンによって導入されるひずみの量を示す、第1および第2のひずみ値を判断するために、前記予測ビデオデータユニットの前記第1および第2のバージョンの各々を、前記ビデオデータの対応する部分と比較すること、
前記それぞれの第1および第2のひずみ値に基づいて前記予測ビデオデータユニットの前記第1および第2のバージョンの第1と第2のコストとを計算すること、
前記第1のコストと第2のコストのどちらがより低いかを判断するために前記第1のコストと第2のコストとを比較すること、および、
前記比較に基づいて前記第1のバージョンまたは前記第2のバージョンのいずれかを選択すること、
を行わせる、請求項34に記載のコンピュータ可読媒体。 - 前記命令は、前記プログラマブルプロセッサに、以下のコスト関数:
Fc = d + (λo * R)
に従って、前記第1および第2のコストの各々を計算させ、ここで、Fcは、前記コスト関数を表す変数を備え、dは、前記第1のひずみ値または前記第2のひずみ値のいずれかを表す変数を備え、λoは、ラグランジアンを表す変数を備え、Rは、前記ビデオデータが符号化されるビットレートを表す変数を備える、請求項35に記載のコンピュータ可読媒体。 - 前記第1の参照コード化ユニットは、時間的に前記予測コード化ユニットの前に生じ、
前記第2の参照コード化ユニットは、時間的に前記予測コード化ユニットの後に生じ、
前記予測コード化ユニットは、双方向予測フレーム(Bフレーム)を備え、かつ、
前記第1および第2のコード化ユニットは、独立コード化フレーム(Iフレーム)、予測フレーム(Pフレーム)、または別のBフレームのうちの1つをそれぞれ備える、請求項1に記載のコンピュータ可読媒体。 - 前記命令は、前記プログラマブルプロセッサに、
第1の参照ビデオブロックを含む第1の参照フレームと、第2の参照ビデオブロックを含む第2の参照フレームと、を受信すること、
前記第1および第2の参照ビデオブロックから予測フレームの予測ビデオブロックの第1のバージョンを予測するために前記デフォルト重み付け予測を実行することであって、前記第1および第2の参照フレームが時間的に前記予測ビデオフレームの前または後のいずれかに生じる、実行すること、
前記予測フレームの前記予測ビデオブロックの前記第1のバージョンの前記オフセット値を計算すること、
前記計算されたオフセット値に基づいて前記暗黙的重み付け予測モードまたは前記明示的重み付け予測モードのいずれかを選択すること、
前記第1および第2の参照ビデオブロックから前記予測フレームの前記予測ビデオブロックの第2のバージョンを予測するために前記選択されたモードを実行すること、および、
前記第1のバージョンまたは前記第2のバージョンのいずれかとして前記予測フレームの前記予測ビデオブロックを符号化すること、
を行わせる、請求項1に記載のコンピュータ可読媒体。 - 前記命令は、前記プログラマブルプロセッサに、前記予測ビデオデータユニットの前記第2のバージョンが前記明示的重み付け予測を使用して予測された前記第2のバージョンを備えるとき、前記予測ビデオデータユニットを前記予測ビデオデータユニットの前記第2のバージョンとして符号化させ、前記第2のバージョンに加えて前記オフセット値を符号化させる、請求項31に記載のコンピュータ可読媒体。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US10310008P | 2008-10-06 | 2008-10-06 | |
US61/103,100 | 2008-10-06 | ||
US12/424,472 | 2009-04-15 | ||
US12/424,472 US8831087B2 (en) | 2008-10-06 | 2009-04-15 | Efficient prediction mode selection |
PCT/US2009/059698 WO2010042518A1 (en) | 2008-10-06 | 2009-10-06 | Efficient prediction mode selection |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012505601A true JP2012505601A (ja) | 2012-03-01 |
JP5175397B2 JP5175397B2 (ja) | 2013-04-03 |
Family
ID=42075794
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011531117A Expired - Fee Related JP5175397B2 (ja) | 2008-10-06 | 2009-10-06 | 効率的な予測モード選択 |
Country Status (9)
Country | Link |
---|---|
US (1) | US8831087B2 (ja) |
EP (1) | EP2345255B1 (ja) |
JP (1) | JP5175397B2 (ja) |
KR (1) | KR101221247B1 (ja) |
CN (1) | CN102172027B (ja) |
ES (1) | ES2663691T3 (ja) |
HU (1) | HUE036438T2 (ja) |
TW (1) | TWI399098B (ja) |
WO (1) | WO2010042518A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020520174A (ja) * | 2017-05-10 | 2020-07-02 | 華為技術有限公司Huawei Technologies Co.,Ltd. | ビデオ圧縮における双方向予測 |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
MXPA05013727A (es) * | 2003-06-25 | 2006-07-06 | Thomson Licensing | Metodo y aparato para el calculo de prediccion ponderada con el uso de diferencial de cuadro desplazado. |
US8385404B2 (en) | 2008-09-11 | 2013-02-26 | Google Inc. | System and method for video encoding using constructed reference frame |
US9161057B2 (en) | 2009-07-09 | 2015-10-13 | Qualcomm Incorporated | Non-zero rounding and prediction mode selection techniques in video encoding |
US8995526B2 (en) * | 2009-07-09 | 2015-03-31 | Qualcomm Incorporated | Different weights for uni-directional prediction and bi-directional prediction in video coding |
US8711930B2 (en) * | 2009-07-09 | 2014-04-29 | Qualcomm Incorporated | Non-zero rounding and prediction mode selection techniques in video encoding |
KR101064883B1 (ko) * | 2009-10-06 | 2011-09-16 | 한국과학기술원 | 왜곡 측정 방법 |
CN102714731A (zh) * | 2009-12-22 | 2012-10-03 | 索尼公司 | 图像处理设备和方法及程序 |
US9521424B1 (en) * | 2010-10-29 | 2016-12-13 | Qualcomm Technologies, Inc. | Method, apparatus, and manufacture for local weighted prediction coefficients estimation for video encoding |
US8428375B2 (en) * | 2010-11-17 | 2013-04-23 | Via Technologies, Inc. | System and method for data compression and decompression in a graphics processing system |
US10045046B2 (en) | 2010-12-10 | 2018-08-07 | Qualcomm Incorporated | Adaptive support for interpolating values of sub-pixels for video coding |
US20120163460A1 (en) * | 2010-12-23 | 2012-06-28 | Qualcomm Incorporated | Sub-pixel interpolation for video coding |
JP2014506063A (ja) * | 2011-01-07 | 2014-03-06 | サムスン エレクトロニクス カンパニー リミテッド | 双方向予測及び単一方向予測が可能なビデオ予測方法及びその装置、ビデオ符号化方法及びその装置、並びにビデオ復号化方法及びその装置 |
EP2661892B1 (en) | 2011-01-07 | 2022-05-18 | Nokia Technologies Oy | Motion prediction in video coding |
US8548057B2 (en) * | 2011-01-25 | 2013-10-01 | Microsoft Corporation | Video coding redundancy reduction |
KR20120095611A (ko) * | 2011-02-21 | 2012-08-29 | 삼성전자주식회사 | 다시점 비디오 부호화/복호화 방법 및 장치 |
US9154799B2 (en) | 2011-04-07 | 2015-10-06 | Google Inc. | Encoding and decoding motion via image segmentation |
US8638854B1 (en) * | 2011-04-07 | 2014-01-28 | Google Inc. | Apparatus and method for creating an alternate reference frame for video compression using maximal differences |
JP5768491B2 (ja) * | 2011-05-17 | 2015-08-26 | ソニー株式会社 | 画像処理装置および方法、プログラム、並びに記録媒体 |
MX2014000159A (es) | 2011-07-02 | 2014-02-19 | Samsung Electronics Co Ltd | Metodo y aparato para la codificacion de video, y metodo y aparato para la decodificacion de video acompañada por inter prediccion utilizando imagen co-localizada. |
JP5766815B2 (ja) | 2011-11-08 | 2015-08-19 | 株式会社東芝 | 画像符号化方法、および画像符号化装置 |
US9237358B2 (en) | 2011-11-08 | 2016-01-12 | Qualcomm Incorporated | Context reduction for context adaptive binary arithmetic coding |
US20130182772A1 (en) * | 2012-01-13 | 2013-07-18 | Qualcomm Incorporated | Determining contexts for coding transform coefficient data in video coding |
JP6012014B2 (ja) * | 2012-03-30 | 2016-10-25 | サン パテント トラスト | 画像符号化方法および画像復号方法 |
US9609341B1 (en) | 2012-04-23 | 2017-03-28 | Google Inc. | Video data encoding and decoding using reference picture lists |
WO2013162980A2 (en) | 2012-04-23 | 2013-10-31 | Google Inc. | Managing multi-reference picture buffers for video data coding |
US9014266B1 (en) | 2012-06-05 | 2015-04-21 | Google Inc. | Decimated sliding windows for multi-reference prediction in video coding |
US9749645B2 (en) | 2012-06-22 | 2017-08-29 | Microsoft Technology Licensing, Llc | Coded-block-flag coding and derivation |
US9756331B1 (en) | 2013-06-17 | 2017-09-05 | Google Inc. | Advance coded reference prediction |
KR20170058838A (ko) | 2015-11-19 | 2017-05-29 | 한국전자통신연구원 | 화면간 예측 향상을 위한 부호화/복호화 방법 및 장치 |
CN107920254B (zh) * | 2016-10-11 | 2019-08-30 | 北京金山云网络技术有限公司 | 一种针对b帧的运动估计方法、装置及视频编码器 |
US11394989B2 (en) | 2018-12-10 | 2022-07-19 | Tencent America LLC | Method and apparatus for video coding |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008005145A (ja) * | 2006-06-21 | 2008-01-10 | Sony Corp | 画像処理システムおよび方法、復号装置および方法、符号化装置および方法、並びにプログラム |
JP2009525687A (ja) * | 2006-02-02 | 2009-07-09 | トムソン ライセンシング | 動き補償予測のための適応重み選択を行う方法および装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2003063502A1 (en) * | 2002-01-18 | 2003-07-31 | Kabushiki Kaisha Toshiba | Moving picture coding method and apparatus and decoding method and apparatus |
BRPI0719860B1 (pt) | 2006-10-18 | 2021-09-08 | Interdigital Vc Holdings, Inc. | Aparelhos, métodos e meio de armazenamento não transitório para compensação de iluminação e cor local sem sinalização explícita |
-
2009
- 2009-04-15 US US12/424,472 patent/US8831087B2/en active Active
- 2009-10-06 ES ES09736529.0T patent/ES2663691T3/es active Active
- 2009-10-06 TW TW098133859A patent/TWI399098B/zh not_active IP Right Cessation
- 2009-10-06 EP EP09736529.0A patent/EP2345255B1/en active Active
- 2009-10-06 WO PCT/US2009/059698 patent/WO2010042518A1/en active Application Filing
- 2009-10-06 CN CN200980139697.8A patent/CN102172027B/zh active Active
- 2009-10-06 HU HUE09736529A patent/HUE036438T2/hu unknown
- 2009-10-06 JP JP2011531117A patent/JP5175397B2/ja not_active Expired - Fee Related
- 2009-10-06 KR KR1020117010317A patent/KR101221247B1/ko active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009525687A (ja) * | 2006-02-02 | 2009-07-09 | トムソン ライセンシング | 動き補償予測のための適応重み選択を行う方法および装置 |
JP2008005145A (ja) * | 2006-06-21 | 2008-01-10 | Sony Corp | 画像処理システムおよび方法、復号装置および方法、符号化装置および方法、並びにプログラム |
Non-Patent Citations (7)
Title |
---|
CSNJ200810010024; 猪飼知宏(外1名): '「双予測の符号化効率向上に関する検討」' 画像符号化シンポジウム 第22回シンポジウム資料 , 20071031, 第47〜48頁, 電子情報通信学会画像工学研究専門委員会 * |
CSNJ200910017070; 早瀬和也(外4名): '「空間スケーラブル符号化におけるレイヤ間相関を利用した重み付き予測方式」' FIT2007 第6回情報科学技術フォーラム 情報科学技術レターズ 第6巻, 20070822, 第253〜256頁, 社団法人情報処理学会(外1名) * |
JPN6012062652; 猪飼知宏(外1名): '「双予測の符号化効率向上に関する検討」' 画像符号化シンポジウム 第22回シンポジウム資料 , 20071031, 第47〜48頁, 電子情報通信学会画像工学研究専門委員会 * |
JPN6012062654; 早瀬和也(外4名): '「空間スケーラブル符号化におけるレイヤ間相関を利用した重み付き予測方式」' FIT2007 第6回情報科学技術フォーラム 情報科学技術レターズ 第6巻, 20070822, 第253〜256頁, 社団法人情報処理学会(外1名) * |
JPN6012062655; Boyce, J.M.: '"WEIGHTED PREDICTION IN THE H.264/MPEG AVC VIDEO CODING STANDARD"' Proc. of the 2004 Int. Symp. on Circuits and Systems, 2004 (ISCAS '04) Vol.3, 200405, p.789-792 * |
JPN6012062657; Alexis Michael Tourapis, et.al.: '"Proposed Amended H.264/MPEG-4 AVC Reference Software Manual"' Document: JVT-N008 [online], 20050124, Joint Video Team (JVT) of ISO/IEC MPEG & ITU-T VCE * |
JPN6012062658; "wftp3.itu.int - /av-arch/jvt-site/2005_01_HongKong/" , 20121127, [online] * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020520174A (ja) * | 2017-05-10 | 2020-07-02 | 華為技術有限公司Huawei Technologies Co.,Ltd. | ビデオ圧縮における双方向予測 |
Also Published As
Publication number | Publication date |
---|---|
HUE036438T2 (hu) | 2018-07-30 |
TW201031220A (en) | 2010-08-16 |
WO2010042518A1 (en) | 2010-04-15 |
CN102172027B (zh) | 2014-03-12 |
KR20110063864A (ko) | 2011-06-14 |
EP2345255A1 (en) | 2011-07-20 |
CN102172027A (zh) | 2011-08-31 |
US20100086027A1 (en) | 2010-04-08 |
US8831087B2 (en) | 2014-09-09 |
EP2345255B1 (en) | 2018-01-24 |
JP5175397B2 (ja) | 2013-04-03 |
TWI399098B (zh) | 2013-06-11 |
ES2663691T3 (es) | 2018-04-16 |
KR101221247B1 (ko) | 2013-01-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5175397B2 (ja) | 効率的な予測モード選択 | |
KR101377883B1 (ko) | 비디오 인코딩에서 넌-제로 라운딩 및 예측 모드 선택 기법들 | |
JP5497169B2 (ja) | ビデオコーディングにおける単方向予測および双方向予測のための異なる重み付け | |
US8995527B2 (en) | Block type signalling in video coding | |
JP5784689B2 (ja) | ビデオ符号化における非ゼロ丸めおよび予測モード選択技法 | |
US8665964B2 (en) | Video coding based on first order prediction and pre-defined second order prediction mode | |
EP2704442A1 (en) | Template matching for video coding | |
US20150103909A1 (en) | Multi-threaded video encoder |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120821 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121004 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121204 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130104 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5175397 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |