JP7104178B2 - マルチラインフレーム内予測のための方法、装置、及びコンピュータプログラム - Google Patents
マルチラインフレーム内予測のための方法、装置、及びコンピュータプログラム Download PDFInfo
- Publication number
- JP7104178B2 JP7104178B2 JP2020560455A JP2020560455A JP7104178B2 JP 7104178 B2 JP7104178 B2 JP 7104178B2 JP 2020560455 A JP2020560455 A JP 2020560455A JP 2020560455 A JP2020560455 A JP 2020560455A JP 7104178 B2 JP7104178 B2 JP 7104178B2
- Authority
- JP
- Japan
- Prior art keywords
- reference line
- frame
- frame prediction
- reference lines
- pdpc
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 112
- 238000004590 computer program Methods 0.000 title claims description 7
- 238000009499 grossing Methods 0.000 claims description 72
- 230000001419 dependent effect Effects 0.000 claims description 4
- 230000011664 signaling Effects 0.000 claims description 4
- 230000000903 blocking effect Effects 0.000 claims 2
- 239000000523 sample Substances 0.000 description 81
- 239000013074 reference sample Substances 0.000 description 65
- 238000006243 chemical reaction Methods 0.000 description 46
- 230000008569 process Effects 0.000 description 44
- 230000033001 locomotion Effects 0.000 description 19
- 238000012545 processing Methods 0.000 description 18
- 230000006835 compression Effects 0.000 description 12
- 238000007906 compression Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 10
- 238000001914 filtration Methods 0.000 description 10
- 239000013598 vector Substances 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000002457 bidirectional effect Effects 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013139 quantization Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000013403 standard screening design Methods 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/11—Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/117—Filters, e.g. for pre-processing or post-processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
- H04N19/82—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Description
本出願は、2018年8月29日にて米国特許及び商標局に提出された米国仮特許出願番号第62/724.575号の優先権を主張し、その全ての内容は本明細書に援用される。
wT=32>>((y<<1)>> シフト)、wL=32>>((x<<1)>> シフト)
WTL=(wL>>4)+(wT>>4)、
(式2)
8.2.4.2.9位置関連のフレーム内予測の組み合わせ処理
該処理の入力は以下の通りであり、
-フレーム内予測モードPredModeIntra、
-変換ブロックの幅を指定するための変数nTbW、
-変換ブロックの高さを指定するための変数nTbH、
-参照サンプルの幅を指定するための変数refW、
-参照サンプルの高さを指定するための変数refH、
-予測のサンプルpredSamples[x][y]、ここで、x=0..nTbW-1及びy=0..nTbH-1)であり、
-隣接サンプルp[x][y]、ここで、x=-1、y=-1..refH-1であり、x=0..refW-1、y=-1)であり、
-現在ブロックの色成分を指定するための変数cldx。
該処理の出力は、補正された予測サンプルpredSamples[x][y]であり、ここで、x=0..nTbW-1、y=0..nTbH-1である。
cldxの値に依存して、関数cliplCmpは以下のように設定され、
-cldxが0に等しいと、cliplCmpはCliplYに等しく設定される。
-さもなければ、cliplCmpはCliplCに等しく設定される。
変数nScaleは、((Log2(nTbW)+Log2(nTbH)-2)>>2)であるように設定される。
以下のように、参照サンプルアレイmainRef[x]とsidRef[y]を取得し、ここで、x=0..refW及びy=0..refH)である。
-predModeIntraがINTRA_PLANAR、INTRA_DC、INTRA_ANGULAR18またはINTRA_ANGULAR50に等しいと、以下のように適用され、
-IntraPredModeに基づき、項目8.2.4.2.7に規定したinvAngleを利用して、変数dXPos[y]、dXFrac[y]、dXInt[y]及びdX[y]を取得し、
-IntraPredModeに基づき、項目8.2.4.2.7に規定したInvAngleを利用して変数dYPos[x]、dYFrac[x]、dYInt[x]及びdY[x]を取得し、
8.2.4.2.4 参照サンプルのフィルタリング処理
該処理の入力は以下の通りであり、
-(フィルタリングされていない)隣接サンプルrefUnfilt[x][y]、ここで、x=-1、y=-1..refH-1であり、x=0..refW-1、y=-1であり、
-変換ブロックの幅を指定するための変数nTbW、
-変換ブロックの高さを指定するための変数nTbH、
-参照サンプルの幅を指定するための変数refW、
-参照サンプルの高さを指定するための変数refH、
-現在ブロックの色成分を指定するための変数cIdx。
該処理の出力は参照サンプルp[x][y]であり、ここで、x=-1、y=-1..refH-1であり、及びx=0..refW-1、y=-1である。
変数nTbSは(Log2(nTbW)+Log2(nTbH))>>1に等しく設定される。
変数whRatioはmin(abs(Log2(nTbW/nTbH)),2)に等しく設定される。
以下のように変数wideAngleを取得し、
-以下の条件のうちの全ての条件がいずれも真であれば、wideAngleは1に等しく設定される。
-nTbWはnTbHより大きい
-predModeIntraは2以上である
-predModeIntraは(whRatio>1)?12:8より小さい
-さもなければ、以下の条件のうちの全ての条件がいずれも真であれば、wideAngleは1に等しく設定される。
-nTbHはnTbWより大きい
-predModeIntraは66以下である
-predModeIntraは(whRatio>1)?56:60より大きい
-さもなければ、wideAngleは0に設定される。
以下のように、変数filterFlagを取得し、
-以下の条件のうちの1つまたはより複数の条件が真であれば、filterFlagは0に等しく設定され、
-predModeIntraはINTRA_DCに等しく、
-cIdxは0に等しくない。
-さもなければ、以下のように適用され、
-変数minDistVerHorは、
Min(Abs(predModeIntra-50),Abs(predModeIntra-18))に等しく設定される。
-変数intraHorVerDistThres[nTbS]は、表8-4において詳しく規定される。
-以下のように、変数filterFlagを取得し、
-minDistVerHorがintraHorVerDistThres[nTbS]より大きく、またはwideAngleが1に等しいと、filterFlagは1に等しく設定される。
-さもなければ、filterFlagは0に等しく設定される。
表8-4:各種変換ブロックの大きさのためのintraHorVerDistThres[nTbS]の規定
-filterFlagが1に等しいと、以下のように、フィルタリングされたサンプル値p[x][y](ここで、x=-1、y=-1..refH-1であり、x=0..refW-1、y=-1である)を取得し、
8.2.4.2.1 一般的なフレーム内サンプル予測
該処理の入力は以下の通りであり、
-現在ピクチャの左上サンプルに対する現在変換ブロックの左上サンプルを指定するためのサンプル位置(xTbCmp、yTbCmp)
-フレーム内予測モードを指定するための変数predModeIntra、
-変換ブロックの幅を指定するための変数nTbW、
-変換ブロックの高さを指定するための変数nTbH、
-参照ラインインデックスを指定するための変数refLine、
-現在ブロックの色成分を指定するための変数cIdx。
該処理の出力は予測サンプルpredSamples[x][y]であり、ここで、x=0..nTbW-1、y=0..nTbH-1である。
変数whRatioは、min(abs(Log2(nTbW/nTbH)),2)に等しく設定される。
以下のように変数refWとrefHを取得し、
1.サンプル位置(xTbCmp、yTbCmp)、参照サンプルの幅refW、参照サンプルの高さrefH、色成分インデックスcIdxを入力とし、及び参照サンプルrefUnfilt[x][y](ここで、x=-1、y=-1..refH-1であり、x=0..refW-1、y=-1である)を出力とし、項目8.2.4.2.2に規定する参照サンプルの可用性マーキング処理を呼び出す。
2.少なくとも1つのサンプルrefUnfilt[x][y](ここで、x=-1、y=-1..refH-1であり、x=0..refW-1、y=-1である)は「フレーム内予測に利用不可」と標識されると、参照サンプルの幅refW、参照サンプルの高さrefH、参照サンプルrefUnfilt[x][y](ここで、x=-1、y=-1..refH-1であり、x=0..refW-1、y=-1である)、及び色成分インデックスcIdxを入力とし、補正後の参照サンプルrefUnfilt[x][y](ここで、x=-1、y=-1..refH-1であり、x=0..refW-1、y=-1である)を出力とし、項目8.2.4.2.3に規定する参照サンプルの置換処理を呼び出す。
3.フィルタリングされていないサンプルrefUnfilt[x][y](ここで、x=-1、y=-1..refH-1であり、x=0..refW-1、y=-1である)、変換ブロックの幅nTbW、変換ブロックの高さnTbH、参照サンプルの幅refW、参照サンプルの高さrefH、参照ラインインデックスrefLine、及び色成分インデックスcIdxを入力とし、参照サンプルp[x][y](ここで、x=-1、y=-1..refH-1であり、x=0..refW-1、y=-1である)を出力とし、項目8.2.4.2.4に規定する参照サンプルのフィルタリング処理を呼び出す。
predModeIntraのフレーム内サンプル予測処理に基づき、以下のように適用され、
-predModeIntraがINTRA_PLANARに等しいと、参照サンプルアレイp、変換ブロックの幅nTbW、及び変換ブロックの高さnTbHを入力とし、項目8.2.4.2.5に規定する、対応するフレーム内予測モード処理を呼び出し、出力は予測サンプルアレイpredSamplesである。
-さもなければ、predModeIntraがINTRA_DCに等しいと、変換ブロックの幅nTbW、変換ブロックの高さnTbH、及び参照サンプルアレイpを入力とし、項目8.2.4.2.6に規定する、対応するフレーム内予測モード処理を呼び出し、出力は予測サンプルアレイpredSamplesである。
-さもなければ、predModeIntraがINTRA_CCLMに等しいと、(xTbCmp、yTbCmp)に等しく設定されるサンプル位置(xTbC、yTbC)、予測ブロックの幅nTbW、及び予測ブロックの高さnTbH、参照サンプルアレイpを入力とし、項目8.2.4.2.8に規定する、対応するフレーム内予測モード処理を呼び出し、出力は予測サンプルアレイpredSampesである。
-さもなければ、フレーム内予測モードpredModeIntra、変換ブロックの幅nTbW、変換ブロックの高さnTbH、参照サンプルの幅refW、参照サンプルの高さrefH、及び参照サンプルアレイpを入力とし、補正されたフレーム内予測モードpredModeIntraと予測サンプルアレイpredSamplesを出力とし、項目8.2.4.2.7に規定する、対応するフレーム内予測モード処理を呼び出す。
以下の条件のうちの1つが真であれば、フレーム内予測モードpredModeIntra、変換ブロックの幅nTbW、変換ブロックの高さnTbH、予測サンプルpredSamples[x][y](ここで、x=0..nTbW-1、y=0..nTbH-1である)、参照サンプルの幅refW、参照サンプルの高さrefH、参照サンプルp[x][y](ここで、x=-1、y=-1..refH-1であり、及びx=0..refW-1、y=-1である)、及び色成分インデックスcIdxを入力とし、項目8.2.4.2.9に規定する位置依存予測の組み合わせ処理を呼び出し、出力は補正された予測サンプルアレイpredSamplesである。
-predModeIntraはINTRA_PLANARに等しい
-predModeIntraはINTRA_DCに等しい
-predModeIntraはINTRA_ANGULAR18に等しい
-predModeIntraはINTRA_ANGULAR50に等しい
-predModeIntraはINTRA_ANGULAR10の以下である
-predModeIntraはINTRA_ANGULAR58の以上である。
8.2.4.2.4 参照サンプルのフィルタリング処理
該処理の入力は以下の通りであり、
-(フィルタリングされていない)隣接サンプルrefUnfilt[x][y](ここで、x=-1、y=-1..refH-1であり、x=0..refW-1、y=-1である)、
-変換ブロックの幅を指定するための変数nTbW、
-変換ブロックの高さを指定するための変数nTbH、
-参照サンプルの幅を指定するための変数refW、
-参照サンプルの高さを指定するための変数refH、
-参照ラインインデックスを指定するための変数refLine、
-現在ブロックの色成分を指定するための変数cIdx。
該処理の出力は参照サンプルp[x][y]である(ここで、x=-1、y=-1..refH-1であり、x=0..refW-1、y=-1である)。
変数nTbSは(Log2(nTbW)+Log2(nTbH))>>1に等しく設定される。
変数whRatioはmin(abs(Log2(nTbW/nTbH)),2)に等しく設定される。
以下のように変数wideAngleを取得し、
-以下の条件のうちの全ての条件がいずれも真であれば、wideAngleは1に等しく設定される。
-nTbWはnTbHより大きい
-predModeIntraは2の以上である
-predModeIntraは(whRatio>1)?12:8より小さい
-さもなければ、以下の条件のうちの全ての条件がいずれも真であれば、wideAngleは1に等しく設定される。
-nTbHはnTbWより大きい
-predModeIntraは66の以下である
-predModeIntraは(whRatio>1)?56:60より大きい
-さもなければ、wideAngleは0に設定される。
以下のように変数filterFlagを取得し、
-以下の条件のうちの1つまたはより複数の条件が真であれば、filterFlagは0に等しく設定され、
-predModeIntraはINTRA_DCに等しい
-cIdxは0に等しくない。
-refLineは0に等しくない。
-さもなければ、以下のように適用され、
-変数minDistVerHorは
Min(Abs(predModeIntra-50),Abs(predModeIntra-18))に等しく設定される。
-変数intraHorVerDistThres[nTbS]は表8-4において、詳しく指定される。
-以下のように変数filterFlagを取得し、
-minDistVerHorがintraHorVerDistThres[nTbS]より大きく、またはwideAngleが1に等しいと、filterFlagは1に等しく設定される。
-さもなければ、filterFlagは0に等しく設定される。
表8-4は、各種の変換ブロックの大きさであるintraHorVerDistThres[nTbS]に対する規範である。
-filterFlagが1に等しいと、以下のようなフィルタリングされたサンプル値p[x][y]を取得する(ここで、x=-1、y=-1..refH-1であり、x=0..refW-1、y=-1である)。
8.2.4.2.1 一般的なフレーム内サンプル予測
該処理の入力は以下の通りであり、
-現在ピクチャの左上サンプルに対する現在変換ブロックの左上サンプルを指定するためのサンプル位置(xTbCmp、yTbCmp)、
-フレーム内予測モードを指定するための変数predModeIntra、
-変換ブロックの幅を指定するための変数nTbW、
-変換ブロックの高さを指定するための変数nTbH、
-参照ラインインデックスを指定するための変数refLine、
-現在ブロックの色成分を指定するための変数cIdx。
該処理の出力は予測サンプルpredSamples[x][y]である(ここで、x=0..nTbW-1、y=0..nTbH-1である)。
変数whRatioはmin(abs(Log2(nTbW/nTbH)),2)に等しく設定される。
以下のように変数refWとrefHを取得し、
4.サンプル位置(xTbCmp、yTbCmp)、参照サンプルの幅refW、参照サンプルの高さrefH、色成分インデックスcIdxを入力とし、参照サンプルrefUnfilt[x][y](ここで、x=-1、y=-1..refH-1であり、x=0..refW-1、y=-1である)を出力とし、項目8.2.4.2.2に規定する参照サンプルの可用性マーキング処理を呼び出す。
5.少なくとも1つのサンプルrefUnfilt[x][y](ここで、x=-1、y=-1..refH-1であり、x=0..refW-1、y=-1である)は「フレーム内予測に利用不可」と標識されると、参照サンプルの幅refW、参照サンプルの高さrefH、参照サンプルrefUnfilt[x][y](そのち、x=-1、y=-1..refH-1であり、x=0..refW-1、y=-1である)、及び色成分インデックスcIdxを入力とし、及び補正後の参照サンプルrefUnfihf[x][y](ここで、
x=-1、y=-1..refH-1であり、
x=0..refW-1、y=-1である)を出力とし、項目8.2.4.2.3に規定する参照サンプルの置換処理を呼び出す。
6.フィルタリングされていないサンプルrefUnfilt[x][y](ここで、x=-1、y=-1..refH-1であり、
x=0..refW-1、y=-1である)、変換ブロックの幅nTbW、変換ブロックの高さnTbH、参照サンプルの幅refW、参照サンプルの高さrefH、及び色成分インデックスcIdxを入力とし、及び参照サンプルp[x][y](ここで、x=-1、y=-1..refH-1であり、x=0..refW-1、y=-1である)を出力とし、項目8.2.4.2.4に規定する参照サンプルのフィルタリング処理を呼び出す。
predModeIntraのフレーム内サンプル予測処理に基づき、以下のように適用され、
-predModeIntraがINTRA_PLANARに等しいと、参照サンプルアレイp、変換ブロックの幅nTbW、及び変換ブロックの高さnTbHを入力とし、項目8.2.4.2.5に規定する、対応するフレーム内予測モード処理を呼び出し、出力は予測サンプルアレイpredSamplesである。
-さもなければ、predModeIntraがINTRA_DCに等しいと、変換ブロックの幅nTbW、変換ブロックの高さnTbH及び参照サンプルアレイpを入力とし、項目8.2.4.2.6に規定する、対応するフレーム内予測モード処理を呼び出すし、出力は予測サンプルアレイpredSamplesである。
-さもなければ、predModeIntraがINTRA_CCLMに等しいと、(xTbCmp、yTbCmp)に等しく設定されるサンプル位置(xTbC、yTbC)、予測ブロックの幅nTbWと高さnTbH、及び参照サンプルアレイpを入力とし、項目8.2.4.2.8に規定する、対応するフレーム内予測モード処理を呼び出し、出力は予測サンプルアレイpredSampesである。
-さもなければ、フレーム内予測モードpredModeIntra、変換ブロックの幅nTbW、変換ブロックの高さnTbH、参照サンプル幅refW、参照サンプル高さrefH、及び参照サンプルアレイpを入力とし、補正されたフレーム内予測モードpredModeIntraと予測サンプルアレイpredSamplesを出力とし、項目8.2.4.2.7に規定する、対応するフレーム内予測モード処理を呼び出す。
以下の条件のうちの1つが真であれば、フレーム内予測モードpredModeIntra、変換ブロックの幅nTbW、変換ブロックの高さnTbH、予測サンプルpredSamples[x][y](ここで、x=0..nTbW-1、y=0..nTbH-1である)、参照サンプルの幅refW、参照サンプルの高さrefH、参照サンプルp[x][y](ここで、x=-1、y=-1..refH-1、x=0..refW-1、y=-1である)、及び色成分インデックスcIdxを入力とし、項目8.2.4.2.9に規定する位置関連予測の組み合わせ処理を呼び出し、出力は補正された予測サンプルアレイpredSamplesであり、
-predModeIntraがINTRA_PLANARに等しい
-predModeIntraがINTRA_DCに等しい
-predModeIntraがINTRA_ANGULAR18に等しい
-predModeIntraがINTRA_ANGULAR50に等しい
-predModeIntraがINTRA_ANGULAR10の以下である
-predModeIntraがINTRA_ANGULAR58の以上である
refLineは0である。
Claims (13)
- 少なくとも1つのプロセッサが実行する、ビデオシーケンスの復号のための、フレーム内予測を制御する方法であって、
参照ラインインデックスに基づき、復号器に第1参照ラインをシグナリングし、前記第1参照ラインに対してフレーム内平滑化を適用するステップであって、複数の参照ラインが符号化ユニットに隣接しており、前記第1参照ラインは、前記複数の参照ラインに含まれる、ステップと、
前記第1参照ラインに適用される前記フレーム内平滑化に基づき、前記符号化ユニットに対してフレーム内予測を適用するステップと、
前記符号化ユニットに適用される前記フレーム内予測に基づき、前記第1参照ラインに対して位置依存フレーム内予測組み合わせ(PDPC)を適用するステップと、
前記複数の参照ラインのうちの前記第1の参照ライン以外の参照ラインに対して、前記PDPCを適用しないようにするステップと、
を含む方法。 - 前記方法はさらに、
前記複数の参照ラインのうちの、前記第1参照ライン以外の参照ラインに対して前記フレーム内平滑化を適用することを阻止するステップを含む請求項1に記載の方法。 - 前記方法はさらに、
前記複数の参照ラインのうち、一つだけの参照ラインを除く他の参照ラインに対して、前記フレーム内平滑化を適用することを阻止するステップを含む請求項1に記載の方法。 - 前記方法はさらに、
前記符号化ユニットに適用される前記フレーム内予測に基づき、前記複数の参照ラインのうち、一つだけの参照ラインを除く他の参照ラインに対して前記PDPCを適用することを阻止するステップを含む請求項1又は3に記載の方法。 - 前記方法はさらに、
ビデオシーケンスを復号するためのフレーム内予測モードに対応するフレーム内予測角度が、前記符号化ユニットの対角線方向に対応する所定の角度より大きいかどうかを決定するステップと、
前記フレーム内予測角度が前記所定の角度より大きいと決定されたことに基づき、前記複数の参照ラインのうちの前記第1参照ライン以外の参照ラインに対して、前記フレーム内平滑化の適用を阻止するステップと、
を含む請求項1に記載の方法。 - 前記方法はさらに、
ビデオシーケンスを復号するためのフレーム内予測モードに対応するフレーム内予測角度が、前記符号化ユニットの対角線方向に対応する所定の角度より大きいかどうかを決定するステップであって、前記フレーム内予測モードは前記ビデオシーケンスの復号に用いられる、ステップと、
前記フレーム内予測角度が前記所定の角度より大きいと決定されたことに基づき、前記複数の参照ラインのうちの前記第1参照ライン以外の参照ラインに対して前記PDPCの適用を阻止するステップと、
を含む請求項1に記載の方法。 - 前記方法はさらに、
前記ビデオシーケンスを復号するためのフレーム内予測モードと、少なくとも1つの参照ラインのインデックスに基づき、前記少なくとも1つの参照ラインに対して前記フレーム内平滑化を適用するステップを含み、前記少なくとも1つの参照ラインは前記複数の参照ラインのうちの前記第1参照ライン以外の参照ラインである請求項1に記載の方法。 - 前記方法はさらに、
前記複数の参照ラインのうちの特定のインデックス値以上のインデックス値範囲を閾値インデックス範囲として決定するステップであって、前記閾値インデックス範囲に対応する複数のフレーム内予測モードは前記符号化ユニットの水平方向に隣接する、ステップと、
前記ビデオシーケンスを復号するための現在フレーム内予測モードの現在インデックス値が前記閾値インデックス範囲内にあるかどうかを決定するステップと、
前記現在インデックス値が前記閾値インデックス範囲内にあると決定されたことに基づき、前記現在インデックス値に対応する第2参照ラインに対して前記フレーム内平滑化を適用することを阻止するステップとを含む請求項1に記載の方法。 - 前記方法はさらに、
前記複数の参照ラインのうちの特定のインデックス値以上のインデックス値範囲を閾値インデックス範囲として決定するステップであって、前記閾値インデックス範囲に対応する複数のフレーム内予測モードは前記符号化ユニットの垂直方向に隣接する、ステップと、
前記ビデオシーケンスを復号するための現在フレーム内予測モードの現在インデックス値が前記閾値インデックス範囲内にあるかどうかを決定するステップと、
前記現在インデックス値が前記閾値インデックス範囲内にあると決定されたことに基づき、前記現在インデックス値に対応する第2参照ラインに対して前記フレーム内平滑化を適用することを阻止するステップと、
を含む請求項1に記載の方法。 - 前記第1参照ラインは1つ以上の第1参照ラインを含み、
前記第1参照ラインに対してフレーム内平滑化を提供する前記ステップは、
前記複数の参照ラインのうちの、前記1つ以上の第1参照ラインに対して、フレーム内平滑化を適用し、同時に前記複数の参照ラインのうちの、前記1つ以上の第1参照ライン以外の1つ以上の第2参照ラインに対して、前記フレーム内平滑化の適用を阻止するステップを含み、
前記第1参照ラインに対して位置依存フレーム内予測組み合わせ(PDPC)を適用する前記ステップは、
前記複数の参照ラインのうちの、前記1つ以上の第1参照ラインに対して、前記PDPCを適用し、同時に前記複数の参照ラインのうちの、前記1つ以上の第1参照ライン以外の1つ以上の第3参照ラインに対して、前記PDPCの適用を阻止するステップを含む、
請求項1に記載の方法。 - ビデオシーケンスの復号のための、フレーム内予測を制御するための装置であって、
コンピュータプログラムコードを記憶した少なくとも1つのメモリと、
少なくとも1つのプロセッサとを含み、
前記コンピュータプログラムコードは、前記少なくとも1つのプロセッサに、請求項1から10の何れか一項に記載の方法を実行させる、
装置。 - コンピュータに請求項1から10の何れか一項に記載の方法を実行させるためのコンピュータプログラム。
- 符号器の少なくとも1つのプロセッサが実行する、ビデオシーケンスの復号のための、フレーム内予測を制御する方法であって、
参照ラインインデックスに基づき、復号器に第1参照ラインをシグナリングし、前記第1参照ラインに対してフレーム内平滑化を適用するステップであって、複数の参照ラインが符号化ユニットに隣接しており、前記第1参照ラインは、前記複数の参照ラインに含まれる、ステップと、
前記第1参照ラインに適用される前記フレーム内平滑化に基づき、前記符号化ユニットに対してフレーム内予測を適用するステップと、
前記符号化ユニットに適用される前記フレーム内予測に基づき、前記第1参照ラインに対して位置依存フレーム内予測組み合わせ(PDPC)を適用するステップと、
前記複数の参照ラインのうちの前記第1の参照ライン以外の参照ラインに対して、前記PDPCを適用しないようにするステップと、
を含む方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022109624A JP2022133427A (ja) | 2018-08-29 | 2022-07-07 | マルチラインフレーム内予測のための方法、装置、及びコンピュータプログラム |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862724575P | 2018-08-29 | 2018-08-29 | |
US62/724,575 | 2018-08-29 | ||
US16/199,891 | 2018-11-26 | ||
US16/199,891 US10491893B1 (en) | 2018-08-29 | 2018-11-26 | Method and apparatus for multi-line intra prediction |
PCT/US2019/043141 WO2020046496A1 (en) | 2018-08-29 | 2019-07-24 | Method and apparatus for multi-line intra prediction |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022109624A Division JP2022133427A (ja) | 2018-08-29 | 2022-07-07 | マルチラインフレーム内予測のための方法、装置、及びコンピュータプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021521721A JP2021521721A (ja) | 2021-08-26 |
JP7104178B2 true JP7104178B2 (ja) | 2022-07-20 |
Family
ID=68617931
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020560455A Active JP7104178B2 (ja) | 2018-08-29 | 2019-07-24 | マルチラインフレーム内予測のための方法、装置、及びコンピュータプログラム |
JP2022109624A Pending JP2022133427A (ja) | 2018-08-29 | 2022-07-07 | マルチラインフレーム内予測のための方法、装置、及びコンピュータプログラム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022109624A Pending JP2022133427A (ja) | 2018-08-29 | 2022-07-07 | マルチラインフレーム内予測のための方法、装置、及びコンピュータプログラム |
Country Status (6)
Country | Link |
---|---|
US (5) | US10491893B1 (ja) |
EP (1) | EP3844956A4 (ja) |
JP (2) | JP7104178B2 (ja) |
KR (2) | KR102423691B1 (ja) |
CN (2) | CN116320409A (ja) |
WO (1) | WO2020046496A1 (ja) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11128872B2 (en) * | 2018-07-16 | 2021-09-21 | Qualcomm Incorporated | Position dependent intra prediction combination with wide angle intra prediction |
US10491893B1 (en) * | 2018-08-29 | 2019-11-26 | Tencent America LLC | Method and apparatus for multi-line intra prediction |
KR20210084567A (ko) * | 2018-11-28 | 2021-07-07 | 주식회사 윌러스표준기술연구소 | 화면 내 예측 필터링을 이용한 비디오 신호 처리 방법 및 장치 |
US11032551B2 (en) | 2018-12-04 | 2021-06-08 | Tencent America LLC | Simplified most probable mode list generation scheme |
PT3881549T (pt) * | 2018-12-21 | 2024-05-20 | Huawei Tech Co Ltd | Método e aparelho de restrições ao nível do bloco dependente do modo e do tamanho |
BR112021006547A2 (pt) * | 2018-12-25 | 2021-07-06 | Guangdong Oppo Mobile Telecommunications Corp Ltd | método de previsão para decodificação, dispositivo de previsão para decodificação e mídia de armazenamento de computador que armazena um programa de previsão para decodificação |
BR112021012949A2 (pt) * | 2018-12-29 | 2021-09-14 | Huawei Technologies Co., Ltd. | Aparelho, método de predição intra de bloco de imagem, dispositivo para codificar ou decodificar imagem e gravação não transitória |
US11425374B2 (en) * | 2019-03-12 | 2022-08-23 | FG Innovation Company Limited | Device and method for coding video data |
CN113597761A (zh) * | 2019-03-21 | 2021-11-02 | 华为技术有限公司 | 帧内预测方法和装置 |
US20220166968A1 (en) * | 2019-03-22 | 2022-05-26 | Lg Electronics Inc. | Intra prediction method and apparatus based on multi-reference line in image coding system |
US11134275B2 (en) | 2019-06-04 | 2021-09-28 | Tencent America LLC | Method and apparatus for performing primary transform based on filtering of blocks |
US11432018B2 (en) | 2020-05-11 | 2022-08-30 | Tencent America LLC | Semi-decoupled partitioning for video coding |
US11259055B2 (en) | 2020-07-10 | 2022-02-22 | Tencent America LLC | Extended maximum coding unit size |
US11206428B1 (en) | 2020-07-14 | 2021-12-21 | Tencent America LLC | Method and apparatus for frequency-dependent joint component secondary transform |
US11432006B2 (en) | 2020-08-14 | 2022-08-30 | Tencent America LLC | Chroma mode video coding |
CN113313511A (zh) * | 2021-04-30 | 2021-08-27 | 北京奇艺世纪科技有限公司 | 一种视频流量预测方法、装置、电子设备及介质 |
CN117813816A (zh) * | 2021-08-19 | 2024-04-02 | 北京达佳互联信息技术有限公司 | 用于解码器侧帧内模式推导的方法和设备 |
WO2023128704A1 (ko) * | 2021-12-30 | 2023-07-06 | 엘지전자 주식회사 | Cclm(cross-component linear model) 인트라 예측에 기반한 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장하는 기록 매체 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019535211A (ja) | 2016-10-14 | 2019-12-05 | インダストリー アカデミー コーオペレイション ファウンデーション オブ セジョン ユニバーシティ | 画像の符号化/復号化方法及び装置 |
JP2020014198A (ja) | 2018-06-29 | 2020-01-23 | 財團法人工業技術研究院Industrial Technology Research Institute | ビデオコンテンツ符号化における複数参照ラインのイントラ予測に応用する適応フィルタリング方法、それを用いたビデオ符号化デバイスおよびビデオ復号化デバイス |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10425648B2 (en) * | 2015-09-29 | 2019-09-24 | Qualcomm Incorporated | Video intra-prediction using position-dependent prediction combination for video coding |
CN109076241B (zh) * | 2016-05-04 | 2023-06-23 | 微软技术许可有限责任公司 | 利用样本值的非相邻参考线进行帧内图片预测 |
US10645395B2 (en) * | 2016-05-25 | 2020-05-05 | Arris Enterprises Llc | Weighted angular prediction coding for intra coding |
US10484712B2 (en) * | 2016-06-08 | 2019-11-19 | Qualcomm Incorporated | Implicit coding of reference line index used in intra prediction |
EP4319162A3 (en) * | 2016-06-24 | 2024-04-10 | KT Corporation | Method and apparatus for processing video signal |
KR102416257B1 (ko) * | 2016-08-03 | 2022-07-04 | 주식회사 케이티 | 비디오 신호 처리 방법 및 장치 |
US10674165B2 (en) * | 2016-12-21 | 2020-06-02 | Arris Enterprises Llc | Constrained position dependent intra prediction combination (PDPC) |
US10542264B2 (en) * | 2017-04-04 | 2020-01-21 | Arris Enterprises Llc | Memory reduction implementation for weighted angular prediction |
US10742975B2 (en) * | 2017-05-09 | 2020-08-11 | Futurewei Technologies, Inc. | Intra-prediction with multiple reference lines |
US10805641B2 (en) * | 2017-06-15 | 2020-10-13 | Qualcomm Incorporated | Intra filtering applied together with transform processing in video coding |
US10491893B1 (en) * | 2018-08-29 | 2019-11-26 | Tencent America LLC | Method and apparatus for multi-line intra prediction |
-
2018
- 2018-11-26 US US16/199,891 patent/US10491893B1/en active Active
-
2019
- 2019-07-24 CN CN202310293889.6A patent/CN116320409A/zh active Pending
- 2019-07-24 EP EP19853798.7A patent/EP3844956A4/en active Pending
- 2019-07-24 WO PCT/US2019/043141 patent/WO2020046496A1/en unknown
- 2019-07-24 CN CN201980035894.9A patent/CN112997483B/zh active Active
- 2019-07-24 JP JP2020560455A patent/JP7104178B2/ja active Active
- 2019-07-24 KR KR1020207030970A patent/KR102423691B1/ko active IP Right Grant
- 2019-07-24 KR KR1020227024880A patent/KR102653789B1/ko active IP Right Grant
- 2019-10-24 US US16/662,958 patent/US10944964B2/en active Active
-
2021
- 2021-02-10 US US17/172,591 patent/US11418778B2/en active Active
-
2022
- 2022-06-10 US US17/837,805 patent/US11902514B2/en active Active
- 2022-07-07 JP JP2022109624A patent/JP2022133427A/ja active Pending
-
2024
- 2024-01-05 US US18/405,773 patent/US20240146911A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019535211A (ja) | 2016-10-14 | 2019-12-05 | インダストリー アカデミー コーオペレイション ファウンデーション オブ セジョン ユニバーシティ | 画像の符号化/復号化方法及び装置 |
JP2020014198A (ja) | 2018-06-29 | 2020-01-23 | 財團法人工業技術研究院Industrial Technology Research Institute | ビデオコンテンツ符号化における複数参照ラインのイントラ予測に応用する適応フィルタリング方法、それを用いたビデオ符号化デバイスおよびビデオ復号化デバイス |
Also Published As
Publication number | Publication date |
---|---|
KR20220104844A (ko) | 2022-07-26 |
CN112997483A (zh) | 2021-06-18 |
KR102653789B1 (ko) | 2024-04-03 |
CN112997483B (zh) | 2023-03-10 |
JP2022133427A (ja) | 2022-09-13 |
EP3844956A4 (en) | 2022-07-20 |
US10944964B2 (en) | 2021-03-09 |
US20220329790A1 (en) | 2022-10-13 |
JP2021521721A (ja) | 2021-08-26 |
US20200092548A1 (en) | 2020-03-19 |
US10491893B1 (en) | 2019-11-26 |
KR20200132993A (ko) | 2020-11-25 |
CN116320409A (zh) | 2023-06-23 |
EP3844956A1 (en) | 2021-07-07 |
US20210168361A1 (en) | 2021-06-03 |
US11902514B2 (en) | 2024-02-13 |
WO2020046496A1 (en) | 2020-03-05 |
KR102423691B1 (ko) | 2022-07-22 |
US20240146911A1 (en) | 2024-05-02 |
US11418778B2 (en) | 2022-08-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7104178B2 (ja) | マルチラインフレーム内予測のための方法、装置、及びコンピュータプログラム | |
JP2021518088A (ja) | 小ブロックの予測と変換のための方法、装置、及びプログラム | |
JP2021513826A (ja) | ビデオ圧縮における複数ラインのフレーム内予測のための方法および装置 | |
CN110784711B (zh) | 生成用于视频序列编码或解码的合并候选列表的方法、装置 | |
JP2022513715A (ja) | 無指向性媒体符号化及び復号のためのラップアラウンドパディングの方法 | |
JP7260561B2 (ja) | マルチラインイントラ予測のためのイントラ補間フィルタを選択する方法、装置、及びコンピュータプログラム | |
JP2021520749A (ja) | マルチラインイントラ予測に対するmpmリスト生成を実現するための方法、装置、及びコンピュータプログラム | |
JP2021521751A (ja) | ビデオ符号化において追加中間候補を有するマージモードの方法及び装置 | |
JP2022511851A (ja) | 最大変換サイズの制御 | |
JP2021520173A (ja) | ピクチャの復号のための方法、機器及びコンピュータプログラム | |
JP7066919B2 (ja) | 階層的タイル | |
JP7011735B2 (ja) | コーディングブロックフラグと予測モードの改善されたコンテキスト設計のための方法及び装置、並びにコンピュータプログラム | |
JP2021520150A (ja) | 予測モードおよび符号化ブロックフラグ(cbf)のコンテキスト設計を更に向上する方法および機器 | |
CN113711586A (zh) | 简化的最可能模式列表生成方案 | |
JP2022051929A (ja) | ビデオ符号化のための方法、及び装置 | |
JP2021521719A (ja) | 映像圧縮における複数ラインイントラ予測の方法、装置及びコンピュータ・プログラム | |
JP2023126585A (ja) | マルチラインイントラ予測のためのモードリストを生成する方法、並びにその装置及びコンピュータプログラム | |
JP7106661B2 (ja) | 映像圧縮におけるイントラ予測のための参照サンプルパディング及びフィルタリング | |
KR20210089756A (ko) | 개선된 최고 확률 모드 리스트 생성 스킴 | |
JP2022518894A (ja) | 点群符号化のためのパラメータセット設計の方法並びにその装置及びプログラム | |
JP7061680B2 (ja) | ビデオ符号化において縮減された前のラインバッファを使用するインター予測の方法及び装置 | |
CN113491128B (zh) | 已解码图片存储器管理的方法和相关装置 | |
JP2022520855A (ja) | Qt/bt/ttサイズの改善されたヘッダシンタックス | |
JP2021517394A5 (ja) | ||
JP2022526006A (ja) | 参照ピクチャー再サンプリングのための出力ピクチャー・サイズの信号伝達に関する方法、装置およびコンピュータ・プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201028 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220207 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220607 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220707 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7104178 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |