JP6563079B2 - 符号化方法、復号方法、符号化装置、復号装置、及びプログラム - Google Patents
符号化方法、復号方法、符号化装置、復号装置、及びプログラム Download PDFInfo
- Publication number
- JP6563079B2 JP6563079B2 JP2018108460A JP2018108460A JP6563079B2 JP 6563079 B2 JP6563079 B2 JP 6563079B2 JP 2018108460 A JP2018108460 A JP 2018108460A JP 2018108460 A JP2018108460 A JP 2018108460A JP 6563079 B2 JP6563079 B2 JP 6563079B2
- Authority
- JP
- Japan
- Prior art keywords
- intra prediction
- angle
- prediction mode
- intra
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/186—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/11—Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
生成するビットストリームのカラーフォーマットが4:2:2のカラーフォーマットであるか判定し、4:2:2のカラーフォーマットであった場合に、他のカラーフォーマットの場合とは異なる所定の方法を用いて、前記色差チャネルのためのイントラ予測処理における角度であるIntraPredAngleを、イントラ予測モードを示す値 を用いて導出する導出工程と、
前記導出工程によって導出された角度を用いて、前記色差チャネルのイントラ予測処理を行う予測工程と
を有し、
前記 カラーフォーマットが前記他のカラーフォーマットであった場合、前記イントラ予測モードを示す値と、前記導出工程において導出される前記IntraPredAngleとは下記のような関係となり、
前記ビットストリームのカラーフォーマットが4:2:2のカラーフォーマットであるか判定し、4:2:2のカラーフォーマットであった場合に、他のカラーフォーマットの場合とは異なる所定の方法を用いて、前記色差チャネルのためのイントラ予測処理における角度であるIntraPredAngleを、イントラ予測モードを示す値を用いて導出する導出工程と、
前記導出工程によって導出された角度を用いて、前記色差チャネルのイントラ予測処理を行う予測工程と
を有し、
前記カラーフォーマットが前記他のカラーフォーマットであった場合、前記イントラ予測モードを示す値と、前記導出工程において導出される前記IntraPredAngleとは下記のような関係となり、
クロマチャネル用のイントラ予測モードからイントラ予測角度を決定することであって、前記イントラ予測モードは複数の水平イントラ予測モードのうちの1つである、決定することと、
4:2:2のクロマフォーマットに起因してイントラ予測角度を調整することと、
調整された角度が所定の値を超える場合、水平イントラ予測モードと垂直イントラ予測モードとの間の変化しきい値を修正することであって、前記修正された変化しきい値は、複数の水平イントラ予測モードのうちの1つから垂直イントラ予測モードに、調整されたイントラ予測角度を変換するために構成されている、修正することと、
調整されたイントラ予測角度および変化しきい値に従う垂直イントラ予測モードを使用して、イントラ予測されたサンプルを生成すること、
と、を含む。
データおよびコンピュータプログラムを記憶するためのメモリと、
前記コンピュータプログラムを実行するための、メモリに結合されたプロセッサと、を備え、前記コンピュータプログラムは、
クロマチャネル用のイントラ予測モードからイントラ予測角度を決定することであって、前記イントラ予測モードは複数の水平イントラ予測モードのうちの1つである、決定することと、
4:2:2のクロマフォーマットに起因してイントラ予測角度を調整することと、
調整された角度が所定の値を超える場合、水平イントラ予測モードと垂直イントラ予測モードとの間の変化しきい値を修正することであって、前記修正された変化しきい値は、複数の水平イントラ予測モードのうちの1つから垂直イントラ予測モードに、調整されたイントラ予測角度を変換するために構成されている、修正することと、
調整されたイントラ予測角度および変化しきい値による垂直イントラ予測モードを使用して、イントラ予測されたサンプルを生成すること、と
を行うための命令を備える。
クロマチャネル用のイントラ予測モードからイントラ予測角度を決定するための手段であって、前記イントラ予測モードは複数の水平イントラ予測モードのうちの1つである、手段と、
4:2:2のクロマフォーマットに起因してイントラ予測角度を調整するための手段と、
調整された角度が所定の値を超える場合、水平イントラ予測モードと垂直イントラ予測モードとの間の変化しきい値を修正するための手段であって、前記修正された変化しきい値は、複数の水平イントラ予測モードのうちの1つから垂直イントラ予測モードに、調整されたイントラ予測角度を変換するために構成されている、手段と、
調整されたイントラ予測角度および変化しきい値による垂直イントラ予測モードを使用して、イントラ予測されたサンプルを生成するための手段と
を備える。
クロマチャネル用のイントラ予測モードからイントラ予測角度を決定するためのコードであって、前記イントラ予測モードは複数の水平イントラ予測モードのうちの1つである、コードと、
4:2:2のクロマフォーマットに起因してイントラ予測角度を調整するためのコードと、
調整された角度が所定の値を超える場合、水平イントラ予測モードと垂直イントラ予測モードとの間の変化しきい値を修正するためのコードであって、前記修正された変化しきい値は、複数の水平イントラ予測モードのうちの1つから垂直イントラ予測モードに、調整されたイントラ予測角度を変換するために構成されている、コードと、
調整されたイントラ予測角度および変化しきい値による垂直イントラ予測モードを使用して、イントラ予測されたサンプルを生成するためのコード、と
を備える。
クロマチャネル用のイントラ予測モードからイントラ予測角度を決定することであって、前記イントラ予測モードは複数の水平イントラ予測モードのうちの1つである、決定することと、
4:2:2のクロマフォーマットに起因してイントラ予測角度を調整することと、
ビットストリームが4:2:2のクロマフォーマット用に構成されている場合、水平イントラ予測モードと垂直イントラ予測モードとの間の変化しきい値を修正することであって、前記修正された変化しきい値は、複数の水平イントラ予測モードのうちの1つから垂直イントラ予測モードに、調整されたイントラ予測角度を変換するために構成されている、修正することと、
調整されたイントラ予測角度および変化しきい値による垂直イントラ予測モードを使用して、イントラ予測されたサンプルを生成すること、と
を含む。
データおよびコンピュータプログラムを記憶するためのメモリと、
前記コンピュータプログラムを実行するための、メモリに結合されたプロセッサと、を備え、前記コンピュータプログラムは、
クロマチャネル用のイントラ予測モードからイントラ予測角度を決定することであって、前記イントラ予測モードは複数の水平イントラ予測モードのうちの1つである、決定することと、
4:2:2のクロマフォーマットに起因してイントラ予測角度を調整することと、
ビットストリームが4:2:2のクロマフォーマット用に構成されている場合、水平イントラ予測モードと垂直イントラ予測モードとの間の変化しきい値を修正することであって、前記修正された変化しきい値が、複数の水平イントラ予測モードのうちの1つから垂直イントラ予測モードに、調整されたイントラ予測角度を変換するために構成されている、修正することと、
調整されたイントラ予測角度および変化しきい値による垂直イントラ予測モードを使用して、イントラ予測されたサンプルを生成すること、と
を行うための命令を備える。
クロマチャネル用のイントラ予測モードからイントラ予測角度を決定するための手段であって、前記イントラ予測モードは複数の水平イントラ予測モードのうちの1つである、手段と、
4:2:2のクロマフォーマットに起因してイントラ予測角度を調整するための手段と、
ビットストリームが4:2:2のクロマフォーマット用に構成されている場合、水平イントラ予測モードと垂直イントラ予測モードとの間の変化しきい値を修正するための手段であって、前記修正された変化しきい値が、複数の水平イントラ予測モードのうちの1つから垂直イントラ予測モードに、調整されたイントラ予測角度を変換するために構成されている、手段と、
調整されたイントラ予測角度および変化しきい値による垂直イントラ予測モードを使用して、イントラ予測されたサンプルを生成するための手段と、
を備える。
クロマチャネル用のイントラ予測モードからイントラ予測角度を決定するためのコードであって、前記イントラ予測モードは複数の水平イントラ予測モードのうちの1つである、コードと、
4:2:2のクロマフォーマットに起因してイントラ予測角度を調整するためのコードと、
ビットストリームが4:2:2のクロマフォーマット用に構成されている場合、水平イントラ予測モードと垂直イントラ予測モードとの間の変化しきい値を修正するためのコードであって、前記修正された変化しきい値は、複数の水平イントラ予測モードのうちの1つから垂直イントラ予測モードに、調整されたイントラ予測角度を変換するために構成されている、コードと、
調整されたイントラ予測角度および変化しきい値による垂直イントラ予測モードを使用して、イントラ予測されたサンプルを生成するためのコードと、
を備える。
ビデオビットストリームのクロマフォーマットを復号することと、
角度パラメータを決定する前にイントラ予測モードを調整することであって、前記調整は復号されたクロマフォーマットに依存する、調整することと、
調整されたイントラ予測モードから角度パラメータを決定することと、
決定された角度パラメータを使用して参照サンプルを生成することと、
決定された角度パラメータおよび生成された参照サンプルを使用して、イントラ予測されたサンプルを生成すること、と
を含む。
データおよびコンピュータプログラムを記憶するためのメモリと、
前記コンピュータプログラムを実行するための、メモリに結合されたプロセッサと、を備え、前記コンピュータプログラムは、
ビデオビットストリームのクロマフォーマットを復号することと、
角度パラメータを決定する前にイントラ予測モードを調整することであって、前記調整が復号されたクロマフォーマットに依存する、調整することと、
調整されたイントラ予測モードから角度パラメータを決定することと、
決定された角度パラメータを使用して参照サンプルを生成することと、
決定された角度パラメータおよび生成された参照サンプルを使用して、イントラ予測されたサンプルを生成すること、と
を行うための命令を備える。
ビデオビットストリームのクロマフォーマットを復号するための手段と、
角度パラメータを決定する前にイントラ予測モードを調整するための手段であって、前記調整が復号されたクロマフォーマットに依存する、手段と、
前記調整されたイントラ予測モードから角度パラメータを決定するための手段と、
前記決定された角度パラメータを使用して参照サンプルを生成するための手段と、
決定された角度パラメータおよび生成された参照サンプルを使用して、イントラ予測されたサンプルを生成すること、と
を備える。
ビデオビットストリームのクロマフォーマットを復号するためのコードと、
角度パラメータを決定する前にイントラ予測モードを調整するためのコードであって、前記調整が復号されたクロマフォーマットに依存する、コードと、
調整されたイントラ予測モードから角度パラメータを決定するためのコードと、
決定された角度パラメータを使用して参照サンプルを生成するためのコードと、
決定された角度パラメータおよび生成された参照サンプルを使用して、イントラ予測されたサンプルを生成すること、と
を備える。
付録Bは、図13と合致する、イントラ予測されたサンプルを生成する方法の一例を示す。
付録Cは、図14と合致する、イントラ予測されたサンプルを生成する方法の一例を示す。
付録Dは、図15と合致する、イントラ予測されたサンプルを生成する方法の一例を示す。
(a)メモリロケーション228、229、230から命令231をフェッチする、すなわち読み取るフェッチ動作、
(b)どの命令がフェッチされたかを制御ユニット239が判定する復号動作、および
(c)制御ユニット239および/またはALU240が命令を実行する実行動作
その後、次の命令用のさらなるフェッチ、復号、および実行サイクルが実行されるであろう。同様に、それにより制御ユニット239がメモリロケーション232に値を記憶する、すなわち書き込む記憶サイクルが実行されるであろう。
開発中の高効率ビデオコーディング(HEVC)規格は、35個のイントラ予測モードを定義する。35個のイントラ予測モードのうち、1つのイントラ予測モードは「DC」モードとして知られ、1つは「平面」モード、33個は指向性モードとして知られる。
イントラ予測されたサンプルを生成する実装形態
8.4.4.2.6 INTRA_ANGULAR2〜INTRA_ANGULAR34の範囲のイントラ予測モードの仕様
このプロセスへの入力は、
−イントラ予測モードpredModeIntra
−隣接サンプルp[x][y]、x=−1、y=−1〜nTbS*2−1、およびx=0〜nTbS*2−1、y=−1
−変換ブロックサイズを指定する変数nTbS
−現在ブロックの色成分を指定する変数cIdx
である。
このプロセスの出力は、予測されたサンプルpredSamples[x][y]、x、y=0〜nTbS−1である。
図8−2は、合計33個のイントラ角度を示し、表8−4は、predModeIntraと角度パラメータintraPredAngleとの間のマッピングテーブルを指定する。
図8−2−イントラ予測角度定義(情報)
−以下が適用される:
ref[x]=p[−1+x][−1]、x=0〜nTbS (8−47)
−intraPredAngleが0より小さい場合、主要な参照サンプルアレイが以下のように拡張される:
−(nTbS*intraPredAngle)>>5が−1より小さいとき、
ref[x]=p[−1][−1+((x*invAngle+128)>>8)]、x=−1〜(nTbS*intraPredAngle)>>5 (8−48)
−そうでない場合、
ref[x]=p[−1+x][−1]、x=nTbS+1〜2*nTbS (8−49)
a.インデックス変数iIdxおよび倍率iFactが以下のように導出される:
iIdx=((y+1)*intraPredAngle)>>5 (8−50)
iFact=((y+1)*intraPredAngle)&31 (8−51)
b.iFactの値に応じて、以下が適用される:
−iFactが0に等しくない場合、予測サンプルpredSamples[x][y]の値が以下のように導出される:
predSamples[x][y]=((32−iFact)*ref[x+iIdx+1]+iFact*ref[x+iIdx+2]+16)>>5 (8−52)
−そうでない場合、予測サンプルpredSamples[x][y]の値が以下のように導出される:
predSamples[x][y]=ref[x+iIdx+1] (8−53)
c.predModeIntraが26に等しく(垂直)、cIdxが0に等しく、nTbSが32より小さい場合、x=0、y=0〜nTbS−1で以下のフィルタリングが適用される:
predSamples[x][y]=Clip1Y(p[x][−1]+((p[−1][y]−p[−1][−1])>>1)) (8−54)
−そうでない場合、以下の順序付けられたステップが適用される:
−以下が適用される:
ref[x]=p[−1][−1+x]、x=0〜nTbS (8−55)
−intraPredAngleが0より小さい場合、主要な参照サンプルアレイが以下のように拡張される:
−(nTbS*intraPredAngle)>>5が−1より小さいとき、
ref[x]=p[−1+((x*invAngle+128)>>8)][−1]、x=−1〜(nTbS*intraPredAngle)>>5 (8−56)
−そうでない場合、
ref[x]=p[−1][−1+x]、x=nTbS+1〜2*nTbS (8−57)
a.インデックス変数iIdxおよび倍率iFactが以下のように導出される:
iIdx=((x+1)*intraPredAngle)>>5 (8−58)
iFact=((x+1)*intraPredAngle)&31 (8−59)
b.iFactの値に応じて、以下が適用される:
−iFactが0に等しくない場合、予測サンプルpredSamples[x][y]の値が以下のように導出される:
predSamples[x][y]=((32−iFact)*ref[y+iIdx+1]+iFact*ref[y+iIdx+2]+16)>>5 (8−60)
−そうでない場合、予測サンプルpredSamples[x][y]の値が以下のように導出される:
predSamples[x][y]=ref[y+iIdx+1] (8−61)
c.predModeIntraが10に等しく(水平)、cIdxが0に等しく、nTbSが32より小さい場合、x=0〜nTbS−1、y=0で以下のフィルタリングが適用される:
predSamples[x][y]=Clip1Y(p[−1][y]+((p[x][−1]−p[−1][−1])>>1)) (8−62)
付録Aの終了
イントラ予測されたサンプルを生成する代替実装形態
8.4.4.2.6 INTRA_ANGULAR2〜INTRA_ANGULAR34の範囲のイントラ予測モードの仕様
このプロセスへの入力は、
−イントラ予測モードpredModeIntra
−隣接サンプルp[x][y]、x=−1、y=−1〜nTbS*2−1、およびx=0〜nTbS*2−1、y=−1
−変換ブロックサイズを指定する変数nTbS
−現在ブロックの色成分を指定する変数cIdx
である。
このプロセスの出力は、予測されたサンプルpredSamples[x][y]、x、y=0〜nTbS−1である。
図8−2は、合計33個のイントラ角度を示し、表8−4は、predModeIntraと角度パラメータintraPredAngleとの間のマッピングテーブルを指定する。
表8−5−invAngleの仕様
−以下が適用される:
ref[x]=p[−1+x][−1]、x=0〜nTbS (8−47)
−intraPredAngleが0より小さい場合、主要な参照サンプルアレイが以下のように拡張される:
−(nTbS*intraPredAngle)>>5が−1より小さいとき、
ref[x]=p[−1][−1+((x*invAngle+128)>>8)]、x=−1〜(nTbS*intraPredAngle)>>5 (8−48)
−そうでない場合、
ref[x]=p[−1+x][−1]、x=nTbS+1〜2*nTbS (8−49)
a.インデックス変数iIdxおよび倍率iFactが以下のように導出される:
iIdx=((y+1)*intraPredAngle)>>5 (8−50)
iFact=((y+1)*intraPredAngle)&31 (8−51)
b.iFactの値に応じて、以下が適用される:
−iFactが0に等しくない場合、予測サンプルpredSamples[x][y]の値が以下のように導出される:
predSamples[x][y]=((32−iFact)*ref[x+iIdx+1]+iFact*ref[x+iIdx+2]+16)>>5 (8−52)
−そうでない場合、予測サンプルpredSamples[x][y]の値が以下のように導出される:
predSamples[x][y]=ref[x+iIdx+1] (8−53)
c.predModeIntraが26に等しく(垂直)、cIdxが0に等しく、nTbSが32より小さい場合、x=0、y=0〜nTbS−1で以下のフィルタリングが適用される:
predSamples[x][y]=Clip1Y(p[x][−1]+((p[−1][y]−p[−1][−1])>>1)) (8−54)
−そうでない場合、以下の順序付けられたステップが適用される:
−以下が適用される:
ref[x]=p[−1][−1+x]、x=0〜nTbS (8−55)
−intraPredAngleが0より小さい場合、主要な参照サンプルアレイが以下のように拡張される:
−(nTbS*intraPredAngle)>>5が−1より小さいとき、
ref[x]=p[−1+((x*invAngle+128)>>8)][−1]、x=−1〜(nTbS*intraPredAngle)>>5 (8−56)
−そうでない場合、
ref[x]=p[−1][−1+x]、x=nTbS+1〜2*nTbS (8−57)
d.インデックス変数iIdxおよび倍率iFactが以下のように導出される:
iIdx=((x+1)*intraPredAngle)>>5 (8−58)
iFact=((x+1)*intraPredAngle)&31 (8−59)
e.iFactの値に応じて、以下が適用される:
−iFactが0に等しくない場合、予測サンプルpredSamples[x][y]の値が以下のように導出される:
predSamples[x][y]=((32−iFact)*ref[y+iIdx+1]+iFact*ref[y+iIdx+2]+16)>>5 (8−60)
−そうでない場合、予測サンプルpredSamples[x][y]の値が以下のように導出される:
predSamples[x][y]=ref[y+iIdx+1] (8−61)
f.predModeIntraが10に等しく(水平)、cIdxが0に等しく、nTbSが32より小さい場合、x=0〜nTbS−1、y=0で以下のフィルタリングが適用される:
predSamples[x][y]=Clip1Y(p[−1][y]+((p[x][−1]−p[−1][−1])>>1)) (8−62)
付録Bの終了
イントラ予測されたサンプルを生成する代替実装形態
8.4.4.2.6 INTRA_ANGULAR2〜INTRA_ANGULAR34の範囲のイントラ予測モードの仕様
このプロセスへの入力は、
−イントラ予測モードpredModeIntra
−隣接サンプルp[x][y]、x=−1、y=−1〜nTbS*2−1、およびx=0〜nTbS*2−1、y=−1
−変換ブロックサイズを指定する変数nTbS
−現在ブロックの色成分を指定する変数cIdx
である。
このプロセスの出力は、予測されたサンプルpredSamples[x][y]、x、y=0〜nTbS−1である。
図8−2は、合計33個のイントラ角度を示し、表8−4は、predModeIntraと角度パラメータintraPredAngleとの間のマッピングテーブルを指定する。
−以下が適用される:
ref[x]=p[−1+x][−1]、x=0〜nTbS (8−47)
−intraPredAngleが0より小さい場合、主要な参照サンプルアレイが以下のように拡張される:
−(nTbS*intraPredAngle)>>5が−1より小さいとき、
ref[x]=p[−1][−1+((x*invAngle+128)>>8)]、x=−1〜(nTbS*intraPredAngle)>>5 (8−48)
−そうでない場合、
ref[x]=p[−1+x][−1]、x=nTbS+1〜2*nTbS (8−49)
a.インデックス変数iIdxおよび倍率iFactが以下のように導出される:
iIdx=((y+1)*intraPredAngle)>>5 (8−50)
iFact=((y+1)*intraPredAngle)&31 (8−51)
b.iFactの値に応じて、以下が適用される:
−iFactが0に等しくない場合、予測サンプルpredSamples[x][y]の値が以下のように導出される:
predSamples[x][y]=((32−iFact)*ref[x+iIdx+1]+iFact*ref[x+iIdx+2]+16)>>5 (8−52)
−そうでない場合、予測サンプルpredSamples[x][y]の値が以下のように導出される:
predSamples[x][y]=ref[x+iIdx+1] (8−53)
c.predModeIntraが26に等しく(垂直)、cIdxが0に等しく、nTbSが32より小さい場合、x=0、y=0〜nTbS−1で以下のフィルタリングが適用される:
predSamples[x][y]=Clip1Y(p[x][−1]+((p[−1][y]−p[−1][−1])>>1)) (8−54)
−そうでない場合、以下の順序付けられたステップが適用される:
−以下が適用される:
ref[x]=p[−1][−1+x]、x=0〜nTbS (8−55)
−intraPredAngleが0より小さい場合、主要な参照サンプルアレイが以下のように拡張される:
−(nTbS*intraPredAngle)>>5が−1より小さいとき、
ref[x]=p[−1+((x*invAngle+128)>>8)][−1]、x=−1〜(nTbS*intraPredAngle)>>5 (8−56)
−そうでない場合、
ref[x]=p[−1][−1+x]、x=nTbS+1〜2*nTbS (8−57)
g.インデックス変数iIdxおよび倍率iFactが以下のように導出される:
iIdx=((x+1)*intraPredAngle)>>5 (8−58)
iFact=((x+1)*intraPredAngle)&31 (8−59)
h.iFactの値に応じて、以下が適用される:
−iFactが0に等しくない場合、予測サンプルpredSamples[x][y]の値が以下のように導出される:
predSamples[x][y]=((32−iFact)*ref[y+iIdx+1]+iFact*ref[y+iIdx+2]+16)>>5 (8−60)
−そうでない場合、予測サンプルpredSamples[x][y]の値が以下のように導出される:
predSamples[x][y]=ref[y+iIdx+1] (8−61)
i.predModeIntraが10に等しく(水平)、cIdxが0に等しく、nTbSが32より小さい場合、x=0〜nTbS−1、y=0で以下のフィルタリングが適用される:
predSamples[x][y]=Clip1Y(p[−1][y]+((p[x][−1]−p[−1][−1])>>1)) (8−62)
付録Cの終了
イントラ予測されたサンプルを生成する代替実装形態
8.4.4.2.6 INTRA_ANGULAR2〜INTRA_ANGULAR34の範囲のイントラ予測モードの仕様
このプロセスへの入力は、
−イントラ予測モードpredModeIntra
−隣接サンプルp[x][y]、x=−1、y=−1〜nTbS*2−1、およびx=0〜nTbS*2−1、y=−1
−変換ブロックサイズを指定する変数nTbS
−現在ブロックの色成分を指定する変数cIdx
である。
このプロセスの出力は、予測されたサンプルpredSamples[x][y]、x、y=0〜nTbS−1である。
図8−2は、合計33個のイントラ角度を示し、表8−4は、predModeIntraと角度パラメータintraPredAngleとの間のマッピングテーブルを指定する。
表8−5−invAngleの仕様
−以下が適用される:
ref[x]=p[−1+x][−1]、x=0〜nTbS (8−47)
−intraPredAngleが0より小さい場合、主要な参照サンプルアレイが以下のように拡張される:
−(nTbS*intraPredAngle)>>5が−1より小さいとき、
ref[x]=p[−1][−1+((x*invAngle+128)>>8)]、x=−1〜(nTbS*intraPredAngle)>>5 (8−48)
−そうでない場合、
ref[x]=p[−1+x][−1]、x=nTbS+1〜2*nTbS (8−49)
a.インデックス変数iIdxおよび倍率iFactが以下のように導出される:
iIdx=((y+1)*intraPredAngle)>>5 (8−50)
iFact=((y+1)*intraPredAngle)&31 (8−51)
b.iFactの値に応じて、以下が適用される:
−iFactが0に等しくない場合、予測サンプルpredSamples[x][y]の値が以下のように導出される:
predSamples[x][y]=((32−iFact)*ref[x+iIdx+1]+iFact*ref[x+iIdx+2]+16)>>5 (8−52)
−そうでない場合、予測サンプルpredSamples[x][y]の値が以下のように導出される:
predSamples[x][y]=ref[x+iIdx+1] (8−53)
c.predModeIntraが26に等しく(垂直)、cIdxが0に等しく、nTbSが32より小さい場合、x=0、y=0〜nTbS−1で以下のフィルタリングが適用される:
predSamples[x][y]=Clip1Y(p[x][−1]+((p[−1][y]−p[−1][−1])>>1)) (8−54)
−そうでない場合、以下の順序付けられたステップが適用される:
−以下が適用される:
ref[x]=p[−1][−1+x]、x=0〜nTbS (8−55)
−intraPredAngleが0より小さい場合、主要な参照サンプルアレイが以下のように拡張される:
−(nTbS*intraPredAngle)>>5が−1より小さいとき、
ref[x]=p[−1+((x*invAngle+128)>>8)][−1]、x=−1〜(nTbS*intraPredAngle)>>5 (8−56)
−そうでない場合、
ref[x]=p[−1][−1+x]、x=nTbS+1〜2*nTbS (8−57)
j.インデックス変数iIdxおよび倍率iFactが以下のように導出される:
iIdx=((x+1)*intraPredAngle)>>5 (8−58)
iFact=((x+1)*intraPredAngle)&31 (8−59)
k.iFactの値に応じて、以下が適用される:
−iFactが0に等しくない場合、予測サンプルpredSamples[x][y]の値が以下のように導出される:
predSamples[x][y]=((32−iFact)*ref[y+iIdx+1]+iFact*ref[y+iIdx+2]+16)>>5 (8−60)
−そうでない場合、予測サンプルpredSamples[x][y]の値が以下のように導出される:
predSamples[x][y]=ref[y+iIdx+1] (8−61)
l.predModeIntraが10に等しく(水平)、cIdxが0に等しく、nTbSが32より小さい場合、x=0〜nTbS−1、y=0で以下のフィルタリングが適用される:
predSamples[x][y]=Clip1Y(p[−1][y]+((p[x][−1]−p[−1][−1])>>1)) (8−62)
付録Dの終了
Claims (10)
- 色差チャネルのためのイントラ予測処理を行って、画像データに基づくビットストリームを生成する符号化方法であって、
生成するビットストリームのカラーフォーマットが4:2:2のカラーフォーマットであるか判定し、4:2:2のカラーフォーマットであった場合に、他のカラーフォーマットの場合とは異なる所定の方法を用いて、前記色差チャネルのためのイントラ予測処理における角度であるIntraPredAngleを、イントラ予測モードを示す値を用いて導出する導出工程と、
前記導出工程によって導出された角度を用いて、前記色差チャネルのイントラ予測処理を行う予測工程と
を有し、
前記 カラーフォーマットが前記他のカラーフォーマットであった場合、前記イントラ予測モードを示す値と、前記導出工程において導出される前記IntraPredAngleとは下記のような関係となり、
前記カラーフォーマットが前記4:2:2のカラーフォーマットであった場合、前記イントラ予測モードを示す値と、前記導出工程において導出される前記IntraPredAngleとは下記のような関係となり、
前記イントラ予測処理における予測ユニットとして、対応するコーディングユニットと同じ大きさの予測ユニット、及び、対応するコーディングユニットを4つに分割した予測ユニットを使用可能である
ことを特徴とする符号化方法。 - 前記4つに分割した予測ユニットは正方形である
ことを特徴とする請求項1記載の符号化方法。 - 対応するコーディングユニットと同じ大きさの予測ユニットを使用するか、又は、対応するコーディングユニットを4つに分割した予測ユニットを使用するかを示すpart_modeを前記ビットストリームにおいて符号化する符号化工程
を有することを特徴とする請求項1又は2に記載の符号化方法。 - 色差チャネルのためのイントラ予測処理を行って、ビットストリームから画像を復号する復号方法であって、
前記ビットストリームのカラーフォーマットが4:2:2のカラーフォーマットであるか判定し、4:2:2のカラーフォーマットであった場合に、他のカラーフォーマットの場合とは異なる所定の方法を用いて、前記色差チャネルのためのイントラ予測処理における角度であるIntraPredAngleを、イントラ予測モードを示す値を用いて導出する導出工程と、
前記導出工程によって導出された角度を用いて、前記色差チャネルのイントラ予測処理を行う予測工程と
を有し、
前記カラーフォーマットが前記他のカラーフォーマットであった場合、前記イントラ予測モードを示す値と、前記導出工程において導出される前記IntraPredAngleとは下記のような関係となり、
前記カラーフォーマットが前記4:2:2のカラーフォーマットであった場合、前記イントラ予測モードを示す値と、前記導出工程において導出される前記IntraPredAngleとは下記のような関係となり、
前記イントラ予測処理における予測ユニットとして、対応するコーディングユニットと同じ大きさの予測ユニット、及び、対応するコーディングユニットを4つに分割した予測ユニットを使用可能である
ことを特徴とする復号方法。 - 前記4つに分割した予測ユニットは正方形である
ことを特徴とする請求項4記載の復号方法。 - 対応するコーディングユニットと同じ大きさの予測ユニットを使用するか、又は、対応するコーディングユニットを4つに分割した予測ユニットを使用するかを示すpart_modeを前記ビットストリームから復号する復号工程
を有することを特徴とする請求項4又は5に記載の復号方法。 - 色差チャネルのためのイントラ予測処理を行って、画像データに基づくビットストリームを生成する符号化装置であって、
生成するビットストリームのカラーフォーマットが4:2:2のカラーフォーマットであるか判定し、4:2:2のカラーフォーマットであった場合に、他のカラーフォーマットの場合とは異なる所定の方法を用いて、前記色差チャネルのためのイントラ予測処理における角度であるIntraPredAngleを、イントラ予測モードを示す値を用いて導出する導出手段と、
前記導出手段によって導出された角度を用いて、前記色差チャネルのイントラ予測処理を行う予測手段と
を有し、
前記カラーフォーマットが前記他のカラーフォーマットであった場合、前記イントラ予測モードを示す値と、前記導出手段において導出される前記IntraPredAngleとは下記のような関係となり、
前記カラーフォーマットが前記4:2:2のカラーフォーマットであった場合、前記イントラ予測モードを示す値と、前記導出手段において導出される前記IntraPredAngleとは下記のような関係となり、
前記イントラ予測処理における予測ユニットとして、対応するコーディングユニットと同じ大きさの予測ユニット、及び、対応するコーディングユニットを4つに分割した予測ユニットを使用可能である
ことを特徴とする符号化装置。 - 色差チャネルのためのイントラ予測処理を行って、ビットストリームから画像を復号する復号装置であって、
前記ビットストリームのカラーフォーマットが4:2:2のカラーフォーマットであるか判定し、4:2:2のカラーフォーマットであった場合に、他のカラーフォーマットの場合とは異なる所定の方法を用いて、前記色差チャネルのためのイントラ予測処理における角度であるIntraPredAngleを、イントラ予測モードを示す値を用いて導出する導出手段と、
前記導出手段によって導出された角度を用いて、前記色差チャネルのイントラ予測処理を行う予測手段と
を有し、
前記カラーフォーマットが前記他のカラーフォーマットであった場合、前記イントラ予測モードを示す値と、前記導出手段において導出される前記IntraPredAngleとは下記のような関係となり、
前記カラーフォーマットが前記4:2:2のカラーフォーマットであった場合、前記イントラ予測モードを示す値と、前記導出手段において導出される前記IntraPredAngleとは下記のような関係となり、
前記イントラ予測処理における予測ユニットとして、対応するコーディングユニットと同じ大きさの予測ユニット、及び、対応するコーディングユニットを4つに分割した予測ユニットを使用可能である
ことを特徴とする復号装置。 - 請求項1〜3のいずれか1項に記載の符号化方法を、コンピュータに実行させることを特徴とするプログラム。
- 請求項4〜6のいずれか1項に記載の復号方法を、コンピュータに実行させることを特徴とするプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
AU2013202653 | 2013-04-05 | ||
AU2013202653A AU2013202653A1 (en) | 2013-04-05 | 2013-04-05 | Method, apparatus and system for generating intra-predicted samples |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016505654A Division JP6351706B2 (ja) | 2013-04-05 | 2014-04-04 | 方法、符号化方法、復号方法、装置、及びプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019136397A Division JP2019213206A (ja) | 2013-04-05 | 2019-07-24 | 符号化方法、復号方法、符号化装置、復号装置、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018157587A JP2018157587A (ja) | 2018-10-04 |
JP6563079B2 true JP6563079B2 (ja) | 2019-08-21 |
Family
ID=51657333
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016505654A Active JP6351706B2 (ja) | 2013-04-05 | 2014-04-04 | 方法、符号化方法、復号方法、装置、及びプログラム |
JP2018108460A Active JP6563079B2 (ja) | 2013-04-05 | 2018-06-06 | 符号化方法、復号方法、符号化装置、復号装置、及びプログラム |
JP2019136397A Ceased JP2019213206A (ja) | 2013-04-05 | 2019-07-24 | 符号化方法、復号方法、符号化装置、復号装置、及びプログラム |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016505654A Active JP6351706B2 (ja) | 2013-04-05 | 2014-04-04 | 方法、符号化方法、復号方法、装置、及びプログラム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019136397A Ceased JP2019213206A (ja) | 2013-04-05 | 2019-07-24 | 符号化方法、復号方法、符号化装置、復号装置、及びプログラム |
Country Status (7)
Country | Link |
---|---|
US (1) | US20160050422A1 (ja) |
EP (1) | EP2982108B1 (ja) |
JP (3) | JP6351706B2 (ja) |
KR (1) | KR20150135519A (ja) |
CN (1) | CN105264889B (ja) |
AU (2) | AU2013202653A1 (ja) |
WO (1) | WO2014161043A1 (ja) |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10715833B2 (en) * | 2014-05-28 | 2020-07-14 | Apple Inc. | Adaptive syntax grouping and compression in video data using a default value and an exception value |
US9762919B2 (en) * | 2014-08-28 | 2017-09-12 | Apple Inc. | Chroma cache architecture in block processing pipelines |
JP6747430B2 (ja) * | 2015-03-27 | 2020-08-26 | ソニー株式会社 | 画像処理装置、画像処理方法及びプログラム |
US11076153B2 (en) * | 2015-07-31 | 2021-07-27 | Stc.Unm | System and methods for joint and adaptive control of rate, quality, and computational complexity for video coding and video delivery |
WO2017155334A1 (ko) * | 2016-03-11 | 2017-09-14 | 디지털인사이트 주식회사 | 비디오 코딩 방법 및 장치 |
CN105681812B (zh) * | 2016-03-30 | 2019-11-19 | 腾讯科技(深圳)有限公司 | Hevc帧内编码处理方法和装置 |
CN113438477A (zh) * | 2016-04-06 | 2021-09-24 | 株式会社Kt | 对视频进行编码、解码的方法及存储压缩视频数据的设备 |
WO2018066980A1 (ko) * | 2016-10-04 | 2018-04-12 | 김기백 | 영상 데이터 부호화/복호화 방법 및 장치 |
JP6565885B2 (ja) * | 2016-12-06 | 2019-08-28 | 株式会社Jvcケンウッド | 画像符号化装置、画像符号化方法及び画像符号化プログラム、並びに画像復号化装置、画像復号化方法及び画像復号化プログラム |
JP6680260B2 (ja) | 2017-04-28 | 2020-04-15 | 株式会社Jvcケンウッド | 画像符号化装置、画像符号化方法及び画像符号化プログラム、並びに画像復号化装置、画像復号化方法及び画像復号化プログラム |
US10951908B2 (en) | 2017-05-24 | 2021-03-16 | Lg Electronics Inc. | Method and device for decoding image according to intra prediction in image coding system |
GB2567862A (en) * | 2017-10-27 | 2019-05-01 | Sony Corp | Image data encoding and decoding |
CN108337510A (zh) * | 2017-12-22 | 2018-07-27 | 西安思丹德信息技术有限公司 | 一种基于h264标准的低延时编解码方法及图像数据传输方法 |
GB2571313B (en) * | 2018-02-23 | 2022-09-21 | Canon Kk | New sample sets and new down-sampling schemes for linear component sample prediction |
WO2019212230A1 (ko) * | 2018-05-03 | 2019-11-07 | 엘지전자 주식회사 | 영상 코딩 시스템에서 블록 사이즈에 따른 변환을 사용하는 영상 디코딩 방법 및 그 장치 |
US10284844B1 (en) | 2018-07-02 | 2019-05-07 | Tencent America LLC | Method and apparatus for video coding |
US11128872B2 (en) * | 2018-07-16 | 2021-09-21 | Qualcomm Incorporated | Position dependent intra prediction combination with wide angle intra prediction |
JP7342118B2 (ja) * | 2018-10-12 | 2023-09-11 | ウィルス インスティテュート オブ スタンダーズ アンド テクノロジー インコーポレイティド | 多重仮定予測を用いるビデオ信号処理方法及び装置 |
CN109982075B (zh) * | 2019-03-21 | 2022-11-08 | 南京威翔科技有限公司 | 一种基于fpga的帧内预测通用角度方法 |
EP3888361B1 (en) | 2019-03-24 | 2024-04-24 | Huawei Technologies Co., Ltd. | Method and apparatus for chroma intra prediction in video coding |
WO2020216303A1 (en) | 2019-04-23 | 2020-10-29 | Beijing Bytedance Network Technology Co., Ltd. | Selective use of secondary transform in coded video |
US20220360774A1 (en) * | 2019-06-24 | 2022-11-10 | Sharp Kabushiki Kaisha | Systems and methods for performing intra prediction coding in video coding |
WO2020262408A1 (ja) * | 2019-06-25 | 2020-12-30 | 日本放送協会 | イントラ予測装置、画像復号装置、及びプログラム |
WO2021025508A1 (ko) * | 2019-08-06 | 2021-02-11 | 엘지전자 주식회사 | 컬러 포멧에 따라 결정된 예측 모드 타입에 기반하여 분할 모드를 결정하는 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법 |
US11432006B2 (en) * | 2020-08-14 | 2022-08-30 | Tencent America LLC | Chroma mode video coding |
US11140394B1 (en) * | 2020-08-27 | 2021-10-05 | Tencent America LLC | Adaptive chroma intra mode coding in video compression |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060013320A1 (en) * | 2004-07-15 | 2006-01-19 | Oguz Seyfullah H | Methods and apparatus for spatial error concealment |
US8331448B2 (en) * | 2006-12-22 | 2012-12-11 | Qualcomm Incorporated | Systems and methods for efficient spatial intra predictabilty determination (or assessment) |
US8094714B2 (en) * | 2008-07-16 | 2012-01-10 | Sony Corporation | Speculative start point selection for motion estimation iterative search |
US8144766B2 (en) * | 2008-07-16 | 2012-03-27 | Sony Corporation | Simple next search position selection for motion estimation iterative search |
KR101753551B1 (ko) * | 2011-06-20 | 2017-07-03 | 가부시키가이샤 제이브이씨 켄우드 | 화상 부호화 장치, 화상 부호화 방법 및 화상 부호화 프로그램을 저장한 기록매체 |
JP5614381B2 (ja) * | 2011-06-23 | 2014-10-29 | 株式会社Jvcケンウッド | 画像符号化装置、画像符号化方法、及び画像符号化プログラム、並びに、送信装置、送信方法、及び送信プログラム |
CN105791834B (zh) * | 2011-06-23 | 2018-01-02 | Jvc 建伍株式会社 | 图像解码装置和图像解码方法 |
JP5995448B2 (ja) * | 2012-01-19 | 2016-09-21 | シャープ株式会社 | 画像復号装置、および画像符号化装置 |
GB2501535A (en) * | 2012-04-26 | 2013-10-30 | Sony Corp | Chrominance Processing in High Efficiency Video Codecs |
US20140198855A1 (en) * | 2013-01-14 | 2014-07-17 | Qualcomm Incorporated | Square block prediction |
US9300964B2 (en) * | 2013-01-24 | 2016-03-29 | Sharp Kabushiki Kaisha | Image decoding apparatus and image coding apparatus |
EP3606074B1 (en) * | 2013-03-29 | 2020-12-30 | JVC KENWOOD Corporation | Image decoding device, image decoding method, and image decoding program |
US9774872B2 (en) * | 2013-04-05 | 2017-09-26 | Mitsubishi Electric Corporation | Color image encoding device, color image decoding device, color image encoding method, and color image decoding method |
-
2013
- 2013-04-05 AU AU2013202653A patent/AU2013202653A1/en not_active Abandoned
-
2014
- 2014-04-04 KR KR1020157031037A patent/KR20150135519A/ko not_active Application Discontinuation
- 2014-04-04 JP JP2016505654A patent/JP6351706B2/ja active Active
- 2014-04-04 US US14/782,268 patent/US20160050422A1/en not_active Abandoned
- 2014-04-04 WO PCT/AU2014/000367 patent/WO2014161043A1/en active Application Filing
- 2014-04-04 CN CN201480032315.2A patent/CN105264889B/zh active Active
- 2014-04-04 EP EP14780313.4A patent/EP2982108B1/en active Active
-
2015
- 2015-12-18 AU AU2015271953A patent/AU2015271953B2/en active Active
-
2018
- 2018-06-06 JP JP2018108460A patent/JP6563079B2/ja active Active
-
2019
- 2019-07-24 JP JP2019136397A patent/JP2019213206A/ja not_active Ceased
Also Published As
Publication number | Publication date |
---|---|
EP2982108A4 (en) | 2017-03-22 |
CN105264889B (zh) | 2018-09-11 |
WO2014161043A1 (en) | 2014-10-09 |
US20160050422A1 (en) | 2016-02-18 |
KR20150135519A (ko) | 2015-12-02 |
AU2015271953B2 (en) | 2017-10-19 |
CN105264889A (zh) | 2016-01-20 |
JP2019213206A (ja) | 2019-12-12 |
JP6351706B2 (ja) | 2018-07-04 |
AU2015271953A1 (en) | 2016-01-21 |
JP2016518761A (ja) | 2016-06-23 |
JP2018157587A (ja) | 2018-10-04 |
AU2013202653A1 (en) | 2014-10-23 |
EP2982108B1 (en) | 2019-02-06 |
EP2982108A1 (en) | 2016-02-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6563079B2 (ja) | 符号化方法、復号方法、符号化装置、復号装置、及びプログラム | |
JP7104827B2 (ja) | 映像サンプルのブロックをデブロックする方法 | |
US20190289332A1 (en) | Method, apparatus and system for de-blocking video data | |
AU2016203628B2 (en) | Method, apparatus and system for encoding and decoding video data | |
RU2604986C2 (ru) | Способ, устройство и система для кодирования и декодирования единиц преобразования единицы кодирования | |
US20230037302A1 (en) | Method, apparatus and system for encoding and decoding a coding tree unit | |
US20220394311A1 (en) | Method apparatus and system for encoding and decoding a coding tree unit | |
JP2023159400A (ja) | ビデオサンプルのブロックを符号化及び復号するための方法、装置、及びシステム | |
KR20220032620A (ko) | 비디오 샘플들의 블록을 인코딩 및 디코딩하기 위한 방법, 장치 및 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190322 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190409 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190607 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190625 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190723 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6563079 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |