JP2014530544A - ビデオコード化における短距離イントラ予測用ラインバッファの縮小 - Google Patents
ビデオコード化における短距離イントラ予測用ラインバッファの縮小 Download PDFInfo
- Publication number
- JP2014530544A JP2014530544A JP2014530833A JP2014530833A JP2014530544A JP 2014530544 A JP2014530544 A JP 2014530544A JP 2014530833 A JP2014530833 A JP 2014530833A JP 2014530833 A JP2014530833 A JP 2014530833A JP 2014530544 A JP2014530544 A JP 2014530544A
- Authority
- JP
- Japan
- Prior art keywords
- current
- video
- entropy coding
- syntax element
- sdip
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/13—Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
- H04N19/91—Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
本出願は、各々の内容全体が参照により本明細書に組み込まれている、2011年9月16日に出願した米国仮特許出願第61/535,797号、及び2011年11月3日に出願した米国仮特許出願第61/555,354号の利益を主張するものである。
以下に本件出願当初の特許請求の範囲に記載された発明を付記する。
[1] 現在ピクチャ内の現在コード化単位(CU)の上にあるいずれの隣接CUも参照せずに、1つ以上のエントロピーコード化コンテキストのセット内でエントロピーコード化コンテキストを識別することと、識別された前記エントロピーコード化コンテキストを使用して短距離イントラ予測(SDIP)シンタックス要素をエントロピーコード化することと、前記SDIPシンタックス要素は前記現在CUが1つ以上の予測単位(PU)のセットに区分されるモードを少なくとも部分的に規定する、を備える、ビデオコード化方法。
[2] 前記SDIPシンタックス要素をエントロピーコード化することが、識別された前記エントロピーコード化コンテキストを使用して、前記SDIPシンタックス要素に対してコンテキスト適応型バイナリ算術コード化(CABAC)を実行することを備える、[1]に記載のビデオコード化方法。
[3] 前記エントロピーコード化コンテキストを識別することが、以前にコード化されたCUからのSDIPシンタックス要素に基づいて前記エントロピーコード化コンテキストを識別することを備え、前記以前にコード化されたCUが前記現在ピクチャ内の前記現在CUの左側に位置し、前記以前にコード化されたCUからの前記SDIPシンタックス要素が、前記以前にコード化されたCUがPUに区分されるモードを少なくとも部分的に規定する、[1]に記載のビデオコード化方法。
[4] 前記以前にコード化されたCUが前記現在CUと同じサイズである、[3]に記載のビデオコード化方法。
[5] 2つ以上の以前にコード化されたCUが、前記現在ピクチャ内の前記現在CUの左側に位置し、前記エントロピーコード化コンテキストを識別することが、前記2つ以上の以前にコード化されたCUのSDIPシンタックス要素の関数に基づいて、前記エントロピーコード化コンテキストを識別することを備える[1]に記載のビデオコード化方法。
[6] 前記エントロピーコード化コンテキストを識別することが、前記2つ以上の以前にコード化されたCUの前記SDIPシンタックス要素の合計に基づいて、前記エントロピーコード化コンテキストを識別することを備える[5]に記載のビデオコード化方法。
[7] 前記エントロピーコード化コンテキストを識別することが、前記2つ以上の以前にコード化されたCUの前記SDIPシンタックス要素の平均に基づいて、前記エントロピーコード化コンテキストを識別することを備える[5]に記載のビデオコード化方法。
[8] 2つ以上の以前にコード化されたCUが、前記現在ピクチャ内の前記現在CUの左側に位置し、前記エントロピーコード化コンテキストを識別することが、前記2つ以上の以前にコード化されたCUのうちの最大のCUのSDIPシンタックス要素に基づいて、前記エントロピーコード化コンテキストを識別することを備える[1]に記載のビデオコード化方法。
[9] 2つ以上の以前にコード化されたCUが、前記現在ピクチャ内の前記現在CUの左側に位置し、前記エントロピーコード化コンテキストを識別することが、前記2つ以上の以前にコード化されたCUのうちの一番上のCUのSDIPシンタックス要素に基づいて、前記エントロピーコード化コンテキストを識別することを備える[1]に記載のビデオコード化方法。
[10] 2つ以上の以前にコード化されたCUが、前記現在ピクチャ内の前記現在CUの左側に位置し、前記エントロピーコード化コンテキストを識別することが、前記現在CUの左縁部の中心又はそのまわりに位置する、前記2つ以上の以前にコード化されたCUのうちの1つのSDIPシンタックス要素に基づいて、前記エントロピーコード化コンテキストを識別することを備える[1]に記載のビデオコード化方法。
[11] 前記エントロピーコード化コンテキストを識別することが、前記現在CUのサイズに基づいて、前記エントロピーコード化コンテキストを識別することを備える[1]に記載のビデオコード化方法。
[12] 前記エントロピーコード化コンテキストを識別することが、前記現在CUの深度に基づいて、前記エントロピーコード化コンテキストを識別することを備える[1]に記載のビデオコード化方法。
[13] 前記エントロピーコード化コンテキストを識別することが、前記現在CUの前記1つ以上のPUのうちの1つのイントラ予測モードに基づいて、前記エントロピーコード化コンテキストを識別することを備える[1]に記載のビデオコード化方法。
[14] 前記1つ以上のエントロピーコード化コンテキストのセットが、前記エントロピーコード化コンテキストだけを含む、[1]に記載のビデオコード化方法。
[15] 前記SDIPシンタックス要素をエントロピーコード化することが、前記SDIPシンタックス要素をエントロピー符号化することを備える、[1]に記載のビデオコード化方法。
[16] 前記方法が、前記現在CUが前記1つ以上のPUに区分される前記モードを選択することと、前記SDIPシンタックス要素を生成することと、イントラ予測を実行して、前記1つ以上のPUに対応する1つ以上の予測ビデオブロックを生成することと、前記予測ビデオブロックと前記現在CUのビデオブロックとに基づいて、前記現在CUの変換単位(TU)に対応する残差ビデオブロックを生成することと、1つ以上の変換を適用して、前記残差ビデオブロックを前記TUに対応する変換係数ブロックに変換することと、前記SDIPシンタックス要素と前記残差変換係数ブロックとをエントロピー符号化した後、前記SDIPシンタックス要素及び前記残差変換係数ブロックの符号化された表現を含むビットストリームを出力することと
をさらに備える、[15]に記載のビデオコード化方法。
[17] 前記SDIPシンタックス要素をエントロピーコード化することが、前記SDIPシンタックス要素をエントロピー復号することを備える、[1]に記載のビデオコード化方法。
[18] 前記方法が、前記SDIPシンタックス要素をエントロピー復号した後、前記SDIPシンタックス要素に少なくとも部分的に基づいて、前記現在CUが前記1つ以上のPUに区分されるモードを決定することと、1つ以上の変換を適用して、前記現在CUのTUに対応する変換係数ブロックを、前記現在CUの前記TUに対応する残差ビデオブロックに変換することと、イントラ予測を実行して、前記現在CUに関連付けられた前記1つ以上のPUに対応する予測ビデオブロックを生成することと、前記残差ビデオブロックと前記予測ビデオブロックとに基づいて、前記現在CUに対応するサンプルのブロックを生成することと、前記現在CUに対応するサンプルの前記ブロックを表示するために出力することと
をさらに備える、[1]に記載のビデオコード化方法。
[19] 前記SDIPシンタックス要素の第1の値が、前記現在CUが1つ以上の正方形PUに区分されることを示し、前記SDIPシンタックス要素の第2の値が、前記現在CUが複数の長方形PUに区分されることを示す[1]に記載のビデオコード化方法。
[20] 前記SDIPシンタックス要素の第1の値が、前記現在CUが複数の垂直面指向の長方形PUに区分されることを示し、前記SDIPシンタックス要素の第2の値が、前記現在CUが複数の水平面指向の長方形PUに区分されることを示す[1]に記載のビデオコード化方法。
[21] 現在ピクチャ内の現在コード化単位(CU)の上にあるいずれの隣接CUも参照せずに、1つ以上のエントロピーコード化コンテキストのセット内でエントロピーコード化コンテキストを識別することと、前記識別されたエントロピーコード化コンテキストを使用して短距離イントラ予測(SDIP)シンタックス要素をエントロピーコード化することと、前記SDIPシンタックス要素は、前記現在CUが1つ以上の予測単位(PU)のセットに区分されるモードを少なくとも部分的に規定する、を行うように構成された1つ以上のプロセッサを備える、ビデオコード化装置。
[22] 前記1つ以上のプロセッサが、識別された前記エントロピーコード化コンテキストを使用して、前記SDIPシンタックス要素に対してコンテキスト適応型バイナリ算術コード化(CABAC)を実行するように構成された、[21]に記載のビデオコード化装置。
[23] 前記1つ以上のプロセッサが、以前にコード化されたCUからのSDIPシンタックス要素に基づいて前記エントロピーコード化コンテキストを識別するように構成され、前記以前にコード化されたCUが前記現在ピクチャ内の前記現在CUの左側に位置し、前記以前にコード化されたCUからの前記SDIPシンタックス要素が、前記以前にコード化されたCUがPUに区分されるモードを少なくとも部分的に規定する、[21]に記載のビデオコード化装置。
[24] 前記以前にコード化されたCUが前記現在CUと同じサイズである、[21]に記載のビデオコード化装置。
[25] 2つ以上の以前にコード化されたCUが、前記現在ピクチャ内の前記現在CUの左側に位置し、前記1つ以上のプロセッサが、前記2つ以上の以前にコード化されたCUのSDIPシンタックス要素の関数に基づいて、前記エントロピーコード化コンテキストを識別するように構成された[21]に記載のビデオコード化装置。
[26] 前記1つ以上のプロセッサが、前記2つ以上の以前にコード化されたCUの前記SDIPシンタックス要素の合計に基づいて、前記エントロピーコード化コンテキストを識別するように構成された[25]に記載のビデオコード化装置。
[27] 前記1つ以上のプロセッサが、前記2つ以上の以前にコード化されたCUの前記SDIPシンタックス要素の平均に基づいて、前記エントロピーコード化コンテキストを識別するように構成された[25]に記載のビデオコード化装置。
[28] 2つ以上の以前にコード化されたCUが、前記現在ピクチャ内の前記現在CUの左側に位置し、前記1つ以上のプロセッサが、前記2つ以上の以前にコード化されたCUのうちの最大のCUのSDIPシンタックス要素に基づいて、前記エントロピーコード化コンテキストを識別するように構成された[21]に記載のビデオコード化装置。
[29] 2つ以上の以前にコード化されたCUが、前記現在ピクチャ内の前記現在CUの左側に位置し、前記1つ以上のプロセッサが、前記2つ以上の以前にコード化されたCUのうちの一番上のCUのSDIPシンタックス要素に基づいて、前記エントロピーコード化コンテキストを識別するように構成された[21]に記載のビデオコード化装置。
[30] 2つ以上の以前にコード化されたCUが、前記現在ピクチャ内の前記現在CUの左側に位置し、前記1つ以上のプロセッサが、前記現在CUの左縁部の中心又はそのまわりに位置する、前記2つ以上の以前にコード化されたCUのうちの1つのSDIPシンタックス要素に基づいて、前記エントロピーコード化コンテキストを識別するように構成された[21]に記載のビデオコード化装置。
[31] 前記1つ以上のプロセッサが、前記現在CUのサイズに基づいて、前記エントロピーコード化コンテキストを識別するように構成された[21]に記載のビデオコード化装置。
[32] 前記1つ以上のプロセッサが、前記現在CUの深度に基づいて、前記エントロピーコード化コンテキストを識別するように構成された[21]に記載のビデオコード化装置。
[33] 前記1つ以上のプロセッサが、前記現在CUの前記1つ以上のPUのうちの1つのイントラ予測モードに基づいて、前記エントロピーコード化コンテキストを識別するように構成された[21]に記載のビデオコード化装置。
[34] 前記1つ以上のエントロピーコード化コンテキストのセットが、前記エントロピーコード化コンテキストだけを含む、[21]に記載のビデオコード化装置。
[35] 前記1つ以上のプロセッサが、前記識別されたエントロピーコード化コンテキストを使用して、前記SDIPシンタックス要素をエントロピー符号化するように構成された、[21]に記載のビデオコード化装置。
[36] 前記1つ以上のプロセッサが、前記現在CUが前記1つ以上のPUに区分される前記モードを選択することと、前記SDIPシンタックス要素を生成することと、イントラ予測を実行して、前記1つ以上のPUに対応する1つ以上の予測ビデオブロックを生成することと、前記予測ビデオブロックと前記現在CUのビデオブロックとに基づいて、前記現在CUの変換単位(TU)に対応する残差ビデオブロックを生成することと、1つ以上の変換を適用して、前記残差ビデオブロックを前記TUに対応する変換係数ブロックに変換することと、前記SDIPシンタックス要素と前記残差変換係数ブロックとをエントロピー符号化した後、前記SDIPシンタックス要素及び前記残差変換係数ブロックの符号化された表現を含むビットストリームを出力することと
を行うように構成された、[35]に記載のビデオコード化装置。
[37] 前記1つ以上のプロセッサが、前記識別されたエントロピーコード化コンテキストを使用して、前記SDIPシンタックス要素をエントロピー復号するように構成された、[21]に記載のビデオコード化装置。
[38] 前記1つ以上のプロセッサが、前記SDIPシンタックス要素をエントロピー復号した後、前記SDIPシンタックス要素に少なくとも部分的に基づいて、前記現在CUが前記1つ以上のPUに区分されるモードを決定することと、1つ以上の変換を適用して、前記現在CUのTUに対応する変換係数ブロックを、前記現在CUの前記TUに対応する残差ビデオブロックに変換することと、イントラ予測を実行して、前記現在CUに関連付けられた前記1つ以上のPUに対応する予測ビデオブロックを生成することと、前記残差ビデオブロックと前記予測ビデオブロックとに基づいて、前記現在CUに対応するサンプルのブロックを生成することと、前記現在CUに対応するサンプルの前記ブロックを表示するために出力することと
を行うように構成された、[37]に記載のビデオコード化装置。
[39] 前記SDIPシンタックス要素の第1の値が、前記現在CUが1つ以上の正方形PUに区分されることを示し、前記SDIPシンタックス要素の第2の値が、前記現在CUが複数の長方形PUに区分されることを示す[21]に記載のビデオコード化装置。
[40] 前記SDIPシンタックス要素の第1の値が、前記現在CUが複数の垂直面指向の長方形PUに区分されることを示し、前記SDIPシンタックス要素の第2の値が、前記現在CUが複数の水平面指向の長方形PUに区分されることを示す[21]に記載のビデオコード化装置。
[41] 現在ピクチャ内の現在コード化単位(CU)の上にあるいずれの隣接CUも参照せずに、1つ以上のエントロピーコード化コンテキストのセット内でエントロピーコード化コンテキストを識別するための手段と、前記識別されたエントロピーコード化コンテキストを使用して短距離イントラ予測(SDIP)シンタックス要素をエントロピーコード化するための手段と、前記SDIP)シンタックス要素は、前記現在CUが1つ以上の予測単位(PU)のセットに区分されるモードを少なくとも部分的に規定するを備える、ビデオコード化装置。
[42] 前記エントロピーコード化コンテキストを識別するための前記手段が、以前にコード化されたCUからのSDIPシンタックス要素に基づいて前記エントロピーコード化コンテキストを識別するための手段を備え、前記以前にコード化されたCUが前記現在ピクチャ内の前記現在CUの左側に位置し、前記以前にコード化されたCUからの前記SDIPシンタックス要素が、前記以前にコード化されたCUがPUに区分されるモードを少なくとも部分的に規定する、[41]に記載のビデオコード化装置。
[43] 2つ以上の以前にコード化されたCUが、前記現在ピクチャ内の前記現在CUの左側に位置し、前記エントロピーコード化コンテキストを識別するための前記手段が、前記2つ以上の以前にコード化されたCUのSDIPシンタックス要素の関数に基づいて、前記エントロピーコード化コンテキストを識別するための手段を備える[41]に記載のビデオコード化装置。
[44] 前記エントロピーコード化コンテキストを識別するための前記手段が、前記現在CUのサイズに基づいて、前記エントロピーコード化コンテキストを識別するための手段を備える[41]に記載のビデオコード化装置。
[45] 前記エントロピーコード化コンテキストを識別するための前記手段が、前記現在CUの深度に基づいて、前記エントロピーコード化コンテキストを識別するための手段を備える[41]に記載のビデオコード化装置。
[46] 前記エントロピーコード化コンテキストを識別するための前記手段が、前記現在CUの前記1つ以上のPUのうちの1つのイントラ予測モードに基づいて、前記エントロピーコード化コンテキストを識別するための手段を備える[41]に記載のビデオコード化装置。
[47] 実行されたとき、ビデオコード化用の機器の1つ以上のプロセッサに、現在ピクチャ内の現在コード化単位(CU)の上にあるいずれの隣接CUも参照せずに、1つ以上のエントロピーコード化コンテキストのセット内でエントロピーコード化コンテキストを識別することと、前記識別されたエントロピーコード化コンテキストを使用して短距離イントラ予測(SDIP)シンタックス要素をエントロピーコード化することと、前記SDIP)シンタックス要素は、前記現在CUが1つ以上の予測単位(PU)のセットに区分されるモードを少なくとも部分的に規定するを行わせる命令を備える、コンピュータ可読記憶媒体。
[48] 前記命令が、前記1つ以上のプロセッサに、以前にコード化されたCUからのSDIPシンタックス要素に基づいて前記エントロピーコード化コンテキストを識別させ、前記以前にコード化されたCUが前記現在ピクチャ内の前記現在CUの左側に位置し、前記以前にコード化されたCUからの前記SDIPシンタックス要素が、前記以前にコード化されたCUがPUに区分されるモードを少なくとも部分的に規定する、[47]に記載のコンピュータ可読記憶媒体。
[49] 2つ以上の以前にコード化されたCUが、前記現在ピクチャ内の前記現在CUの左側に位置し、前記命令が、前記1つ以上のプロセッサに、前記2つ以上の以前にコード化されたCUのSDIPシンタックス要素の関数に基づいて、前記エントロピーコード化コンテキストを識別させる[47]に記載のコンピュータ可読記憶媒体。
[50] 前記命令が、前記1つ以上のプロセッサに、前記現在CUのサイズに基づいて、前記エントロピーコード化コンテキストを識別させる[47]に記載のコンピュータ可読記憶媒体。
[51] 前記命令が、前記1つ以上のプロセッサに、前記現在CUの深度に基づいて、前記エントロピーコード化コンテキストを識別させる[47]に記載のコンピュータ可読記憶媒体。
[52] 前記命令が、前記1つ以上のプロセッサに、前記現在CUの前記1つ以上のPUのうちの1つのイントラ予測モードに基づいて、前記エントロピーコード化コンテキストを識別させる[47]に記載のコンピュータ可読記憶媒体。
Claims (52)
- 現在ピクチャ内の現在コード化単位(CU)の上にあるいずれの隣接CUも参照せずに、1つ以上のエントロピーコード化コンテキストのセット内でエントロピーコード化コンテキストを識別することと、
識別された前記エントロピーコード化コンテキストを使用して短距離イントラ予測(SDIP)シンタックス要素をエントロピーコード化することと、前記SDIPシンタックス要素は前記現在CUが1つ以上の予測単位(PU)のセットに区分されるモードを少なくとも部分的に規定する、
を備える、ビデオコード化方法。 - 前記SDIPシンタックス要素をエントロピーコード化することが、識別された前記エントロピーコード化コンテキストを使用して、前記SDIPシンタックス要素に対してコンテキスト適応型バイナリ算術コード化(CABAC)を実行することを備える、請求項1に記載のビデオコード化方法。
- 前記エントロピーコード化コンテキストを識別することが、以前にコード化されたCUからのSDIPシンタックス要素に基づいて前記エントロピーコード化コンテキストを識別することを備え、前記以前にコード化されたCUが前記現在ピクチャ内の前記現在CUの左側に位置し、前記以前にコード化されたCUからの前記SDIPシンタックス要素が、前記以前にコード化されたCUがPUに区分されるモードを少なくとも部分的に規定する、請求項1に記載のビデオコード化方法。
- 前記以前にコード化されたCUが前記現在CUと同じサイズである、請求項3に記載のビデオコード化方法。
- 2つ以上の以前にコード化されたCUが、前記現在ピクチャ内の前記現在CUの左側に位置し、
前記エントロピーコード化コンテキストを識別することが、前記2つ以上の以前にコード化されたCUのSDIPシンタックス要素の関数に基づいて、前記エントロピーコード化コンテキストを識別することを備える、
請求項1に記載のビデオコード化方法。 - 前記エントロピーコード化コンテキストを識別することが、前記2つ以上の以前にコード化されたCUの前記SDIPシンタックス要素の合計に基づいて、前記エントロピーコード化コンテキストを識別することを備える、
請求項5に記載のビデオコード化方法。 - 前記エントロピーコード化コンテキストを識別することが、前記2つ以上の以前にコード化されたCUの前記SDIPシンタックス要素の平均に基づいて、前記エントロピーコード化コンテキストを識別することを備える、
請求項5に記載のビデオコード化方法。 - 2つ以上の以前にコード化されたCUが、前記現在ピクチャ内の前記現在CUの左側に位置し、
前記エントロピーコード化コンテキストを識別することが、前記2つ以上の以前にコード化されたCUのうちの最大のCUのSDIPシンタックス要素に基づいて、前記エントロピーコード化コンテキストを識別することを備える、
請求項1に記載のビデオコード化方法。 - 2つ以上の以前にコード化されたCUが、前記現在ピクチャ内の前記現在CUの左側に位置し、
前記エントロピーコード化コンテキストを識別することが、前記2つ以上の以前にコード化されたCUのうちの一番上のCUのSDIPシンタックス要素に基づいて、前記エントロピーコード化コンテキストを識別することを備える、
請求項1に記載のビデオコード化方法。 - 2つ以上の以前にコード化されたCUが、前記現在ピクチャ内の前記現在CUの左側に位置し、
前記エントロピーコード化コンテキストを識別することが、前記現在CUの左縁部の中心又はそのまわりに位置する、前記2つ以上の以前にコード化されたCUのうちの1つのSDIPシンタックス要素に基づいて、前記エントロピーコード化コンテキストを識別することを備える、
請求項1に記載のビデオコード化方法。 - 前記エントロピーコード化コンテキストを識別することが、前記現在CUのサイズに基づいて、前記エントロピーコード化コンテキストを識別することを備える、
請求項1に記載のビデオコード化方法。 - 前記エントロピーコード化コンテキストを識別することが、前記現在CUの深度に基づいて、前記エントロピーコード化コンテキストを識別することを備える、
請求項1に記載のビデオコード化方法。 - 前記エントロピーコード化コンテキストを識別することが、前記現在CUの前記1つ以上のPUのうちの1つのイントラ予測モードに基づいて、前記エントロピーコード化コンテキストを識別することを備える、
請求項1に記載のビデオコード化方法。 - 前記1つ以上のエントロピーコード化コンテキストのセットが、前記エントロピーコード化コンテキストだけを含む、請求項1に記載のビデオコード化方法。
- 前記SDIPシンタックス要素をエントロピーコード化することが、前記SDIPシンタックス要素をエントロピー符号化することを備える、請求項1に記載のビデオコード化方法。
- 前記方法が、
前記現在CUが前記1つ以上のPUに区分される前記モードを選択することと、
前記SDIPシンタックス要素を生成することと、
イントラ予測を実行して、前記1つ以上のPUに対応する1つ以上の予測ビデオブロックを生成することと、
前記予測ビデオブロックと前記現在CUのビデオブロックとに基づいて、前記現在CUの変換単位(TU)に対応する残差ビデオブロックを生成することと、
1つ以上の変換を適用して、前記残差ビデオブロックを前記TUに対応する変換係数ブロックに変換することと、
前記SDIPシンタックス要素と前記残差変換係数ブロックとをエントロピー符号化した後、前記SDIPシンタックス要素及び前記残差変換係数ブロックの符号化された表現を含むビットストリームを出力することと
をさらに備える、請求項15に記載のビデオコード化方法。 - 前記SDIPシンタックス要素をエントロピーコード化することが、前記SDIPシンタックス要素をエントロピー復号することを備える、請求項1に記載のビデオコード化方法。
- 前記方法が、
前記SDIPシンタックス要素をエントロピー復号した後、前記SDIPシンタックス要素に少なくとも部分的に基づいて、前記現在CUが前記1つ以上のPUに区分されるモードを決定することと、
1つ以上の変換を適用して、前記現在CUのTUに対応する変換係数ブロックを、前記現在CUの前記TUに対応する残差ビデオブロックに変換することと、
イントラ予測を実行して、前記現在CUに関連付けられた前記1つ以上のPUに対応する予測ビデオブロックを生成することと、
前記残差ビデオブロックと前記予測ビデオブロックとに基づいて、前記現在CUに対応するサンプルのブロックを生成することと、
前記現在CUに対応するサンプルの前記ブロックを表示するために出力することと
をさらに備える、請求項1に記載のビデオコード化方法。 - 前記SDIPシンタックス要素の第1の値が、前記現在CUが1つ以上の正方形PUに区分されることを示し、
前記SDIPシンタックス要素の第2の値が、前記現在CUが複数の長方形PUに区分されることを示す、
請求項1に記載のビデオコード化方法。 - 前記SDIPシンタックス要素の第1の値が、前記現在CUが複数の垂直面指向の長方形PUに区分されることを示し、
前記SDIPシンタックス要素の第2の値が、前記現在CUが複数の水平面指向の長方形PUに区分されることを示す、
請求項1に記載のビデオコード化方法。 - 現在ピクチャ内の現在コード化単位(CU)の上にあるいずれの隣接CUも参照せずに、1つ以上のエントロピーコード化コンテキストのセット内でエントロピーコード化コンテキストを識別することと、
前記識別されたエントロピーコード化コンテキストを使用して短距離イントラ予測(SDIP)シンタックス要素をエントロピーコード化することと、前記SDIPシンタックス要素は、前記現在CUが1つ以上の予測単位(PU)のセットに区分されるモードを少なくとも部分的に規定する、
を行うように構成された1つ以上のプロセッサを備える、ビデオコード化装置。 - 前記1つ以上のプロセッサが、識別された前記エントロピーコード化コンテキストを使用して、前記SDIPシンタックス要素に対してコンテキスト適応型バイナリ算術コード化(CABAC)を実行するように構成された、請求項21に記載のビデオコード化装置。
- 前記1つ以上のプロセッサが、以前にコード化されたCUからのSDIPシンタックス要素に基づいて前記エントロピーコード化コンテキストを識別するように構成され、前記以前にコード化されたCUが前記現在ピクチャ内の前記現在CUの左側に位置し、前記以前にコード化されたCUからの前記SDIPシンタックス要素が、前記以前にコード化されたCUがPUに区分されるモードを少なくとも部分的に規定する、請求項21に記載のビデオコード化装置。
- 前記以前にコード化されたCUが前記現在CUと同じサイズである、請求項21に記載のビデオコード化装置。
- 2つ以上の以前にコード化されたCUが、前記現在ピクチャ内の前記現在CUの左側に位置し、
前記1つ以上のプロセッサが、前記2つ以上の以前にコード化されたCUのSDIPシンタックス要素の関数に基づいて、前記エントロピーコード化コンテキストを識別するように構成された、
請求項21に記載のビデオコード化装置。 - 前記1つ以上のプロセッサが、前記2つ以上の以前にコード化されたCUの前記SDIPシンタックス要素の合計に基づいて、前記エントロピーコード化コンテキストを識別するように構成された、
請求項25に記載のビデオコード化装置。 - 前記1つ以上のプロセッサが、前記2つ以上の以前にコード化されたCUの前記SDIPシンタックス要素の平均に基づいて、前記エントロピーコード化コンテキストを識別するように構成された、
請求項25に記載のビデオコード化装置。 - 2つ以上の以前にコード化されたCUが、前記現在ピクチャ内の前記現在CUの左側に位置し、
前記1つ以上のプロセッサが、前記2つ以上の以前にコード化されたCUのうちの最大のCUのSDIPシンタックス要素に基づいて、前記エントロピーコード化コンテキストを識別するように構成された、
請求項21に記載のビデオコード化装置。 - 2つ以上の以前にコード化されたCUが、前記現在ピクチャ内の前記現在CUの左側に位置し、
前記1つ以上のプロセッサが、前記2つ以上の以前にコード化されたCUのうちの一番上のCUのSDIPシンタックス要素に基づいて、前記エントロピーコード化コンテキストを識別するように構成された、
請求項21に記載のビデオコード化装置。 - 2つ以上の以前にコード化されたCUが、前記現在ピクチャ内の前記現在CUの左側に位置し、
前記1つ以上のプロセッサが、前記現在CUの左縁部の中心又はそのまわりに位置する、前記2つ以上の以前にコード化されたCUのうちの1つのSDIPシンタックス要素に基づいて、前記エントロピーコード化コンテキストを識別するように構成された、
請求項21に記載のビデオコード化装置。 - 前記1つ以上のプロセッサが、前記現在CUのサイズに基づいて、前記エントロピーコード化コンテキストを識別するように構成された、
請求項21に記載のビデオコード化装置。 - 前記1つ以上のプロセッサが、前記現在CUの深度に基づいて、前記エントロピーコード化コンテキストを識別するように構成された、
請求項21に記載のビデオコード化装置。 - 前記1つ以上のプロセッサが、前記現在CUの前記1つ以上のPUのうちの1つのイントラ予測モードに基づいて、前記エントロピーコード化コンテキストを識別するように構成された、
請求項21に記載のビデオコード化装置。 - 前記1つ以上のエントロピーコード化コンテキストのセットが、前記エントロピーコード化コンテキストだけを含む、請求項21に記載のビデオコード化装置。
- 前記1つ以上のプロセッサが、前記識別されたエントロピーコード化コンテキストを使用して、前記SDIPシンタックス要素をエントロピー符号化するように構成された、請求項21に記載のビデオコード化装置。
- 前記1つ以上のプロセッサが、
前記現在CUが前記1つ以上のPUに区分される前記モードを選択することと、
前記SDIPシンタックス要素を生成することと、
イントラ予測を実行して、前記1つ以上のPUに対応する1つ以上の予測ビデオブロックを生成することと、
前記予測ビデオブロックと前記現在CUのビデオブロックとに基づいて、前記現在CUの変換単位(TU)に対応する残差ビデオブロックを生成することと、
1つ以上の変換を適用して、前記残差ビデオブロックを前記TUに対応する変換係数ブロックに変換することと、
前記SDIPシンタックス要素と前記残差変換係数ブロックとをエントロピー符号化した後、前記SDIPシンタックス要素及び前記残差変換係数ブロックの符号化された表現を含むビットストリームを出力することと
を行うように構成された、請求項35に記載のビデオコード化装置。 - 前記1つ以上のプロセッサが、前記識別されたエントロピーコード化コンテキストを使用して、前記SDIPシンタックス要素をエントロピー復号するように構成された、請求項21に記載のビデオコード化装置。
- 前記1つ以上のプロセッサが、
前記SDIPシンタックス要素をエントロピー復号した後、前記SDIPシンタックス要素に少なくとも部分的に基づいて、前記現在CUが前記1つ以上のPUに区分されるモードを決定することと、
1つ以上の変換を適用して、前記現在CUのTUに対応する変換係数ブロックを、前記現在CUの前記TUに対応する残差ビデオブロックに変換することと、
イントラ予測を実行して、前記現在CUに関連付けられた前記1つ以上のPUに対応する予測ビデオブロックを生成することと、
前記残差ビデオブロックと前記予測ビデオブロックとに基づいて、前記現在CUに対応するサンプルのブロックを生成することと、
前記現在CUに対応するサンプルの前記ブロックを表示するために出力することと
を行うように構成された、請求項37に記載のビデオコード化装置。 - 前記SDIPシンタックス要素の第1の値が、前記現在CUが1つ以上の正方形PUに区分されることを示し、
前記SDIPシンタックス要素の第2の値が、前記現在CUが複数の長方形PUに区分されることを示す、
請求項21に記載のビデオコード化装置。 - 前記SDIPシンタックス要素の第1の値が、前記現在CUが複数の垂直面指向の長方形PUに区分されることを示し、
前記SDIPシンタックス要素の第2の値が、前記現在CUが複数の水平面指向の長方形PUに区分されることを示す、
請求項21に記載のビデオコード化装置。 - 現在ピクチャ内の現在コード化単位(CU)の上にあるいずれの隣接CUも参照せずに、1つ以上のエントロピーコード化コンテキストのセット内でエントロピーコード化コンテキストを識別するための手段と、
前記識別されたエントロピーコード化コンテキストを使用して短距離イントラ予測(SDIP)シンタックス要素をエントロピーコード化するための手段と、前記SDIP)シンタックス要素は、前記現在CUが1つ以上の予測単位(PU)のセットに区分されるモードを少なくとも部分的に規定する、
を備える、ビデオコード化装置。 - 前記エントロピーコード化コンテキストを識別するための前記手段が、以前にコード化されたCUからのSDIPシンタックス要素に基づいて前記エントロピーコード化コンテキストを識別するための手段を備え、前記以前にコード化されたCUが前記現在ピクチャ内の前記現在CUの左側に位置し、前記以前にコード化されたCUからの前記SDIPシンタックス要素が、前記以前にコード化されたCUがPUに区分されるモードを少なくとも部分的に規定する、請求項41に記載のビデオコード化装置。
- 2つ以上の以前にコード化されたCUが、前記現在ピクチャ内の前記現在CUの左側に位置し、
前記エントロピーコード化コンテキストを識別するための前記手段が、前記2つ以上の以前にコード化されたCUのSDIPシンタックス要素の関数に基づいて、前記エントロピーコード化コンテキストを識別するための手段を備える、
請求項41に記載のビデオコード化装置。 - 前記エントロピーコード化コンテキストを識別するための前記手段が、前記現在CUのサイズに基づいて、前記エントロピーコード化コンテキストを識別するための手段を備える、
請求項41に記載のビデオコード化装置。 - 前記エントロピーコード化コンテキストを識別するための前記手段が、前記現在CUの深度に基づいて、前記エントロピーコード化コンテキストを識別するための手段を備える、
請求項41に記載のビデオコード化装置。 - 前記エントロピーコード化コンテキストを識別するための前記手段が、前記現在CUの前記1つ以上のPUのうちの1つのイントラ予測モードに基づいて、前記エントロピーコード化コンテキストを識別するための手段を備える、
請求項41に記載のビデオコード化装置。 - 実行されたとき、ビデオコード化用の機器の1つ以上のプロセッサに、
現在ピクチャ内の現在コード化単位(CU)の上にあるいずれの隣接CUも参照せずに、1つ以上のエントロピーコード化コンテキストのセット内でエントロピーコード化コンテキストを識別することと、
前記識別されたエントロピーコード化コンテキストを使用して短距離イントラ予測(SDIP)シンタックス要素をエントロピーコード化することと、前記SDIP)シンタックス要素は、前記現在CUが1つ以上の予測単位(PU)のセットに区分されるモードを少なくとも部分的に規定する、
を行わせる命令を備える、コンピュータ可読記憶媒体。 - 前記命令が、前記1つ以上のプロセッサに、以前にコード化されたCUからのSDIPシンタックス要素に基づいて前記エントロピーコード化コンテキストを識別させ、前記以前にコード化されたCUが前記現在ピクチャ内の前記現在CUの左側に位置し、前記以前にコード化されたCUからの前記SDIPシンタックス要素が、前記以前にコード化されたCUがPUに区分されるモードを少なくとも部分的に規定する、請求項47に記載のコンピュータ可読記憶媒体。
- 2つ以上の以前にコード化されたCUが、前記現在ピクチャ内の前記現在CUの左側に位置し、
前記命令が、前記1つ以上のプロセッサに、前記2つ以上の以前にコード化されたCUのSDIPシンタックス要素の関数に基づいて、前記エントロピーコード化コンテキストを識別させる、
請求項47に記載のコンピュータ可読記憶媒体。 - 前記命令が、前記1つ以上のプロセッサに、前記現在CUのサイズに基づいて、前記エントロピーコード化コンテキストを識別させる、
請求項47に記載のコンピュータ可読記憶媒体。 - 前記命令が、前記1つ以上のプロセッサに、前記現在CUの深度に基づいて、前記エントロピーコード化コンテキストを識別させる、
請求項47に記載のコンピュータ可読記憶媒体。 - 前記命令が、前記1つ以上のプロセッサに、前記現在CUの前記1つ以上のPUのうちの1つのイントラ予測モードに基づいて、前記エントロピーコード化コンテキストを識別させる、
請求項47に記載のコンピュータ可読記憶媒体。
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201161535797P | 2011-09-16 | 2011-09-16 | |
US61/535,797 | 2011-09-16 | ||
US201161555354P | 2011-11-03 | 2011-11-03 | |
US61/555,354 | 2011-11-03 | ||
US13/613,382 US9800870B2 (en) | 2011-09-16 | 2012-09-13 | Line buffer reduction for short distance intra-prediction |
US13/613,382 | 2012-09-13 | ||
PCT/US2012/055442 WO2013040370A1 (en) | 2011-09-16 | 2012-09-14 | Line buffer reduction for short distance intra - prediction in video coding |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014530544A true JP2014530544A (ja) | 2014-11-17 |
JP5815877B2 JP5815877B2 (ja) | 2015-11-17 |
Family
ID=47880650
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014530833A Expired - Fee Related JP5815877B2 (ja) | 2011-09-16 | 2012-09-14 | ビデオコード化における短距離イントラ予測用ラインバッファの縮小 |
Country Status (6)
Country | Link |
---|---|
US (1) | US9800870B2 (ja) |
EP (1) | EP2756677A1 (ja) |
JP (1) | JP5815877B2 (ja) |
KR (1) | KR101568626B1 (ja) |
CN (1) | CN103797802B (ja) |
WO (1) | WO2013040370A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021513296A (ja) * | 2018-02-09 | 2021-05-20 | フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン | パーティションベースのイントラ符号化概念 |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140169452A1 (en) * | 2012-12-14 | 2014-06-19 | Electronics And Telecommunications Research Institute | Video encoding method and apparatus using the same |
US20150124871A1 (en) * | 2013-11-06 | 2015-05-07 | Mitsubishi Electric Research Laboratories, Inc. | Visual Perceptual Transform Coding of Images and Videos |
WO2015085449A1 (en) | 2013-12-13 | 2015-06-18 | Qualcomm Incorporated | Signaling of simplified depth coding (sdc) for depth intra-and inter – prediction modes in 3d video coding |
KR20170135847A (ko) | 2015-04-08 | 2017-12-08 | 엘지전자 주식회사 | 비디오 신호의 인코딩/디코딩 방법 및 장치 |
US10212444B2 (en) * | 2016-01-15 | 2019-02-19 | Qualcomm Incorporated | Multi-type-tree framework for video coding |
CN117499650A (zh) * | 2016-04-29 | 2024-02-02 | 英迪股份有限公司 | 图像解码方法、图像编码方法和用于发送比特流的方法 |
CN116708776A (zh) * | 2016-07-18 | 2023-09-05 | 韩国电子通信研究院 | 图像编码/解码方法和装置以及存储比特流的记录介质 |
US10880564B2 (en) * | 2016-10-01 | 2020-12-29 | Qualcomm Incorporated | Transform selection for video coding |
EP3306927A1 (en) * | 2016-10-05 | 2018-04-11 | Thomson Licensing | Encoding and decoding methods and corresponding devices |
US11240526B2 (en) * | 2017-01-02 | 2022-02-01 | Industry-University Cooperation Foundation Hanyang University | Method and apparatus for decoding image using interpicture prediction |
US10506242B2 (en) * | 2018-01-30 | 2019-12-10 | Google Llc | Efficient context model computation design in transform coefficient coding |
US10869060B2 (en) * | 2018-01-30 | 2020-12-15 | Google Llc | Efficient context model computation design in transform coefficient coding |
TW202304207A (zh) * | 2018-07-13 | 2023-01-16 | 弗勞恩霍夫爾協會 | 分區框內寫碼技術 |
CN117651149A (zh) * | 2018-09-10 | 2024-03-05 | 华为技术有限公司 | 视频解码方法及视频解码器 |
US11178399B2 (en) * | 2019-03-12 | 2021-11-16 | Qualcomm Incorporated | Probability initialization for video coding |
KR20200145763A (ko) * | 2019-06-22 | 2020-12-30 | 주식회사 엑스리스 | 영상 신호 부호화/복호화 방법 및 이를 위한 장치 |
EP4346215A3 (en) * | 2019-10-09 | 2024-04-24 | Apple Inc. | Video signal encoding/decoding method and device therefor |
AU2020388606A1 (en) * | 2019-11-20 | 2022-04-21 | Xris Corporation | Image signal encoding/decoding method and apparatus therefor |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
HUP0301368A3 (en) | 2003-05-20 | 2005-09-28 | Amt Advanced Multimedia Techno | Method and equipment for compressing motion picture data |
CN100387063C (zh) | 2005-12-01 | 2008-05-07 | 西安交通大学 | 可伸缩视频编码中的三维码率控制方法 |
US8848789B2 (en) | 2006-03-27 | 2014-09-30 | Qualcomm Incorporated | Method and system for coding and decoding information associated with video compression |
JP2009231914A (ja) * | 2008-03-19 | 2009-10-08 | Sony Corp | 復号装置、復号処理方法およびプログラム |
KR101456498B1 (ko) | 2009-08-14 | 2014-10-31 | 삼성전자주식회사 | 계층적 부호화 단위의 스캔 순서를 고려한 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치 |
KR101457894B1 (ko) * | 2009-10-28 | 2014-11-05 | 삼성전자주식회사 | 영상 부호화 방법 및 장치, 복호화 방법 및 장치 |
KR101768207B1 (ko) | 2010-01-19 | 2017-08-16 | 삼성전자주식회사 | 축소된 예측 움직임 벡터의 후보들에 기초해 움직임 벡터를 부호화, 복호화하는 방법 및 장치 |
KR101495724B1 (ko) | 2010-02-02 | 2015-02-25 | 삼성전자주식회사 | 계층적 데이터 단위의 스캔 순서에 기반한 비디오 부호화 방법과 그 장치, 및 비디오 복호화 방법과 그 장치 |
US9369736B2 (en) | 2010-04-05 | 2016-06-14 | Samsung Electronics Co., Ltd. | Low complexity entropy-encoding/decoding method and apparatus |
CN102948144B (zh) * | 2010-04-26 | 2018-09-21 | 太阳专利托管公司 | 用于从周围块的统计推断出针对帧内预测的滤波模式 |
US9172968B2 (en) * | 2010-07-09 | 2015-10-27 | Qualcomm Incorporated | Video coding using directional transforms |
US8976861B2 (en) * | 2010-12-03 | 2015-03-10 | Qualcomm Incorporated | Separately coding the position of a last significant coefficient of a video block in video coding |
US20120163456A1 (en) * | 2010-12-22 | 2012-06-28 | Qualcomm Incorporated | Using a most probable scanning order to efficiently code scanning order information for a video block in video coding |
AU2012205077B2 (en) * | 2011-01-06 | 2016-04-07 | Samsung Electronics Co., Ltd. | Encoding method and device of video using data unit of hierarchical structure, and decoding method and device thereof |
US9066097B2 (en) * | 2011-02-01 | 2015-06-23 | Sony Corporation | Method to optimize the transforms and/or predictions in a video codec |
WO2012122495A1 (en) * | 2011-03-10 | 2012-09-13 | Huawei Technologies Co., Ltd. | Using multiple prediction sets to encode extended unified directional intra mode numbers for robustness |
US8494290B2 (en) * | 2011-05-05 | 2013-07-23 | Mitsubishi Electric Research Laboratories, Inc. | Method for coding pictures using hierarchical transform units |
KR101539312B1 (ko) * | 2011-05-27 | 2015-07-24 | 미디어텍 인크. | 비디오 프로세싱에 대한 라인 버퍼 감소를 위한 방법 및 장치 |
US9532058B2 (en) | 2011-06-03 | 2016-12-27 | Qualcomm Incorporated | Intra prediction mode coding with directional partitions |
EP2727363B1 (en) * | 2011-06-28 | 2020-11-18 | HFI Innovation Inc. | Method and apparatus of intra mode coding |
-
2012
- 2012-09-13 US US13/613,382 patent/US9800870B2/en active Active
- 2012-09-14 CN CN201280045204.6A patent/CN103797802B/zh not_active Expired - Fee Related
- 2012-09-14 WO PCT/US2012/055442 patent/WO2013040370A1/en active Application Filing
- 2012-09-14 EP EP12761700.9A patent/EP2756677A1/en not_active Withdrawn
- 2012-09-14 JP JP2014530833A patent/JP5815877B2/ja not_active Expired - Fee Related
- 2012-09-14 KR KR1020147009150A patent/KR101568626B1/ko not_active IP Right Cessation
Non-Patent Citations (7)
Title |
---|
JPN6015014254; JCTVC-E278_spec_text.doc pp.i-viii, pp.9-66, 201103 * |
JPN6015014255; Jianle Chen and Tammy Lee: 'Simplified context model selection for block level syntax coding' Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 JCTVC-F497, 201107, pp.1-6, 6th Meeting: Torino, IT * |
JPN6015014256; Hisao Sasai and Takahiro Nishi: 'Modified Context Derivation for Complexity reduction' Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 JCTVC-F429r1, 201107, pp.1-10, 6th Meeting: Torino, IT * |
JPN6015014257; Xiaoran Cao et al.: 'CE6.b1 Report on Short Distance Intra Prediction Method' Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 JCTVC-E278_r2, 201103, pp.1-7, 5th Meeting: Geneva * |
JPN6015014258; Jaehyun Lim and Byeongmoon Jeon: 'Intra prediction mode coding with CAVLC on SDIP' Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 JCTVC-F111_r2, 201107, pp.1-6, 6th Meeting: Torino, IT * |
JPN6015014259; Wei-Jung Chien et al.: 'Memory and Parsing Friendly CABAC Context' Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 JCTVC-F606_r2, 201107, pp.1-16, 6th Meeting: Torino, IT * |
JPN6015014260; Liwei Guo et al.: 'Non-CE6: Line buffer reduction for CABAC context of SDIP syntax' Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 JCTVC-G754, 201111, pp.1-7, 7th Meeting: Geneva * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021513296A (ja) * | 2018-02-09 | 2021-05-20 | フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン | パーティションベースのイントラ符号化概念 |
JP7187566B2 (ja) | 2018-02-09 | 2022-12-12 | フラウンホーファー-ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン | パーティションベースのイントラ符号化概念 |
US11956429B2 (en) | 2018-02-09 | 2024-04-09 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Partition-based intra-coding concept |
Also Published As
Publication number | Publication date |
---|---|
EP2756677A1 (en) | 2014-07-23 |
US9800870B2 (en) | 2017-10-24 |
WO2013040370A1 (en) | 2013-03-21 |
CN103797802A (zh) | 2014-05-14 |
KR101568626B1 (ko) | 2015-12-07 |
CN103797802B (zh) | 2017-02-15 |
KR20140071419A (ko) | 2014-06-11 |
US20130070848A1 (en) | 2013-03-21 |
JP5815877B2 (ja) | 2015-11-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5815877B2 (ja) | ビデオコード化における短距離イントラ予測用ラインバッファの縮小 | |
KR102546382B1 (ko) | 비디오 코딩을 위한 가변 수의 인트라 모드들 | |
CN111937394B (zh) | 用角度模式扩展的位置相关帧内预测组合 | |
US10298930B2 (en) | Contexts for large coding tree units | |
US9699472B2 (en) | Restriction of prediction units in B slices to uni-directional inter prediction | |
CN105144718B (zh) | 当跳过变换时用于有损译码的帧内预测模式 | |
US9948949B2 (en) | Intra block copy block vector signaling for video coding | |
JP6246920B2 (ja) | パレットベースのビデオコーディングにおけるパレット予測 | |
US9667994B2 (en) | Intra-coding for 4:2:2 sample format in video coding | |
US9426463B2 (en) | Restriction of prediction units in B slices to uni-directional inter prediction | |
US9077998B2 (en) | Padding of segments in coded slice NAL units | |
US20140198855A1 (en) | Square block prediction | |
US20130336395A1 (en) | Unification of signaling lossless coding mode and pulse code modulation (pcm) mode in video coding | |
KR20170097655A (ko) | 서브샘플링 포맷을 위한 팔레트 모드 | |
JP2015515824A (ja) | コード化ブロックフラグのコーディング | |
JP2014535218A (ja) | ビデオコーディング用の断片化されたパラメータセット | |
JP2017535134A (ja) | ビデオコーディングのためのパレットコーディングモードにおけるエスケープサンプル場所の明示的なシグナリング |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150406 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150414 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150713 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150825 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150924 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5815877 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |