JP7383720B2 - 画像成分予測方法、エンコーダ、デコーダ及び記憶媒体 - Google Patents
画像成分予測方法、エンコーダ、デコーダ及び記憶媒体 Download PDFInfo
- Publication number
- JP7383720B2 JP7383720B2 JP2021551793A JP2021551793A JP7383720B2 JP 7383720 B2 JP7383720 B2 JP 7383720B2 JP 2021551793 A JP2021551793 A JP 2021551793A JP 2021551793 A JP2021551793 A JP 2021551793A JP 7383720 B2 JP7383720 B2 JP 7383720B2
- Authority
- JP
- Japan
- Prior art keywords
- current block
- adjacent
- prediction
- reference pixel
- pixels
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 102
- 238000012545 processing Methods 0.000 claims description 37
- 238000004364 calculation method Methods 0.000 claims description 23
- 238000010276 construction Methods 0.000 claims description 20
- 238000005070 sampling Methods 0.000 description 75
- 230000015654 memory Effects 0.000 description 50
- 230000002159 abnormal effect Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 13
- 238000004590 computer program Methods 0.000 description 10
- 238000001914 filtration Methods 0.000 description 10
- 238000013139 quantization Methods 0.000 description 7
- 238000012216 screening Methods 0.000 description 7
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000002547 anomalous effect Effects 0.000 description 4
- 230000001360 synchronised effect Effects 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 230000003044 adaptive effect Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 2
- 238000012217 deletion Methods 0.000 description 2
- 230000037430 deletion Effects 0.000 description 2
- 238000009795 derivation Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 241000023320 Luma <angiosperm> Species 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 201000001098 delayed sleep phase syndrome Diseases 0.000 description 1
- 208000033921 delayed sleep phase type circadian rhythm sleep disease Diseases 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/146—Data rate or code amount at the encoder output
- H04N19/149—Data rate or code amount at the encoder output by estimating the code amount by means of a model, e.g. mathematical model or statistical model
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/14—Coding unit complexity, e.g. amount of activity or edge presence estimation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/182—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/186—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/107—Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/117—Filters, e.g. for pre-processing or post-processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
- H04N19/82—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/85—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
- H04N19/86—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Algebra (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression Of Band Width Or Redundancy In Fax (AREA)
- Color Television Systems (AREA)
Description
画像における現在ブロックの隣接参照画素を決定することと、
前記隣接参照画素に基づいて隣接参照画素サブセットを構築し、前記隣接参照画素サブセットに前記隣接参照画素のうちの一部の画素が含まれることと、
前記隣接参照画素サブセットに基づいて予測モデルのモデルパラメータを計算し、前記予測モデルはN個の予測サブモデルを含み、N個の予測サブモデルはN組のモデルパラメータに対応し、前記予測サブモデルは対応のモデルパラメータによって予測対象画像成分に対して成分間予測処理を行うことに用いられ、Nが2以上の正の整数であることと、を含む。
画像における現在ブロックの第1画像成分の第1参照画素セットを決定し、前記第1参照画素セットには前記現在ブロックに隣接する画素が含まれることと、
第1参照画素セットを利用してN個の第1参照画素サブセットを構築し、前記第1参照画素サブセットに前記第1参照画素セットにおける一部の画素が含まれ、Nが予測モデルの数に等しいことと、
前記N個の第1参照画素サブセットを利用して、それぞれN個の予測モデルのモデルパラメータを計算し、前記予測モデルは前記現在ブロックの第1画像成分値を前記現在ブロックの第2画像成分の予測値にマッピングすることに用いられ、前記第2画像成分が前記第1画像成分と異なることと、を含む。
第1決定ユニットは、画像における現在ブロックの隣接参照画素を決定するように設定され、
第1構築ユニットは、前記隣接参照画素に基づいて隣接参照画素サブセットを構築するように設定され、隣接参照画素サブセットに前記隣接参照画素のうちの一部の画素が含まれ、
第1計算ユニットは、前記隣接参照画素サブセットに基づいて予測モデルのモデルパラメータを計算するように設定され、予測モデルはN個の予測サブモデルを含み、N個の予測サブモデルはN組のモデルパラメータに対応し、予測サブモデルは対応のモデルパラメータによって予測対象画像成分に対して成分間予測処理を行うことに用いられ、Nが2以上の正の整数である。
第1メモリは、前記第1プロセッサにおいて実行され得るコンピュータプログラムを記憶することに用いられ、
第1プロセッサは、前記コンピュータプログラムを実行するとき、第1態様又は第2態様に記載の方法を実行することに用いられる。
第2決定ユニットは、画像における現在ブロックの隣接参照画素を決定するように設定され、
第2構築ユニットは、前記隣接参照画素に基づいて隣接参照画素サブセットを構築するように設定され、隣接参照画素サブセットに前記隣接参照画素のうちの一部の画素が含まれ、
第2計算ユニットは、前記隣接参照画素サブセットに基づいて予測モデルのモデルパラメータを計算するように設定され、予測モデルはN個の予測サブモデルを含み、N個の予測サブモデルはN組のモデルパラメータに対応し、予測サブモデルは対応のモデルパラメータによって予測対象画像成分に対して成分間予測処理を行うことに用いられ、Nが2以上の正の整数である。
第2メモリは、前記第2プロセッサにおいて実行され得るコンピュータプログラムを記憶することに用いられ、
第2プロセッサは、前記コンピュータプログラムを実行するとき、第1態様又は第2態様に記載の方法を実行することに用いられる。
前記現在ブロックの少なくとも1つの辺に隣接する参照画素を取得し、前記現在ブロックの少なくとも1つの辺は上行、右上行、左列及び左下列のうちの少なくとも1つを含むことと、
取得された参照画素に基づいて、前記隣接参照画素を取得することと、を含んでもよい。
前記現在ブロックの少なくとも1つの辺に隣接する参照画素点を取得し、前記少なくとも1つの辺が前記現在ブロックの左側辺及び/又は前記現在ブロックの上側辺を含むことと、
取得された参照画素に基づいて、前記隣接参照画素を取得することと、を含んでもよい。
前記現在ブロックに隣接する参照行又は参照列の参照画素点を取得し、前記参照行が前記現在ブロックの上側辺及び右上側辺に隣接する行で構成され、前記参照列が前記現在ブロックの左側辺及び左下側辺に隣接する列で構成されることと、
取得された参照画素に基づいて、前記隣接参照画素を取得することと、を含んでもよい。
前記現在ブロックの少なくとも1つの辺に基づいて前記候補画素の候補位置を決定することと、
前記隣接参照画素から前記候補位置に対応する参照画素を選択し、選択された参照画素により前記隣接参照画素サブセットを構成することと、を含んでもよい。
前記現在ブロックの少なくとも1つの辺に隣接する参照画素に対応する画素位置に基づいて、前記候補位置を決定することを含んでもよい。
前記現在ブロックの少なくとも1つの辺に隣接する参照画素に対応する画像成分強度値に基づいて、前記候補位置を決定することを含んでもよい。
前記現在ブロックの少なくとも1つの辺に隣接する参照画素に対応する画素位置及び画像成分強度値に基づいて、前記候補位置を決定することを含んでもよい。
所定の候補画素数を決定し、前記所定の候補画素数は前記現在ブロックの少なくとも1つの辺に隣接する参照画素からサンプリングされた画素数を示すことと、
前記所定の候補画素数及び前記現在ブロックの少なくとも1つの辺の長さに基づいて、前記候補位置を決定し、前記現在ブロックの少なくとも1つの辺の長さは前記現在ブロックの少なくとも1つの辺に含まれる画素数に等しいことと、を含んでもよい。
前記所定の候補画素数及び前記現在ブロックの少なくとも1つの辺の長さに基づいて、第1サンプリング間隔を計算することと、
前記現在ブロックの少なくとも1つの辺から1つの基準点を決定し、前記第1サンプリング間隔に応じて前記候補位置を決定することと、を含んでもよい。
前記第1サンプリング間隔を調整して、第2サンプリング間隔を取得することと、
前記基準点に基づいて、前記第2サンプリング間隔に応じて前記候補位置を決定することと、を含んでもよい。
前記基準点に基づいて、前記第1サンプリング間隔に応じて前記基準点の片側に対応する候補位置を決定し、前記第2サンプリング間隔に応じて前記基準点の他側に対応する候補位置を決定することを含んでもよい。
前記現在ブロックの少なくとも1つの辺に対応する所定のスキップ画素数Kを決定し、Kが1以上の正の整数であることと、
前記現在ブロックの少なくとも1つの辺の開始位置及び/又は終了位置から、K個のスキップ対象画素点に対応する位置を決定することと、
前記K個のスキップ対象画素点に対応する位置に基づいて、前記現在ブロックの少なくとも1つの辺の開始位置及び/又は終了位置から、K個のスキップ対象画素点を連続的にスキップして、前記現在ブロックの少なくとも1つの新たな辺を取得することと、
前記現在ブロックの少なくとも1つの新たな辺及び前記所定の候補画素数に基づいて、前記候補位置を決定することと、を含んでもよい。
前記隣接参照画素サブセットに基づいてN個の第1隣接参照画素サブセットを構築することと、
前記N個の第1隣接参照画素サブセットに基づいて、前記N個の予測サブモデルに対応するN組のモデルパラメータを計算し、各予測サブモデルが1組のモデルパラメータに対応することと、を含んでもよい。
前記隣接参照画素サブセットに基づいて少なくとも1つの閾値を決定することと、
前記少なくとも1つの閾値に基づいて、前記隣接参照画素サブセットを前記N個の第1隣接参照画素サブセットに分割することと、を含んでもよい。
前記現在ブロックにおける各画素に対応する第1画像成分再設定値を決定することと、
前記N個の予測サブモデルから1つの予測サブモデルを選択することと、
選択された予測サブモデル及び前記現在ブロックにおける各画素に対応する第1画像成分再設定値に基づいて、前記現在ブロックにおける各画素に対応する第2画像成分予測値を計算し、前記予測対象画像成分が第2画像成分であることと、を含んでもよい。
前記現在ブロックにおける各画素に対応する第1画像成分再設定値と前記少なくとも1つの閾値とを比較することと、
比較結果に基づいて、前記N個の予測サブモデルから前記現在ブロックにおける各画素に対応する予測サブモデルを選択することと、を含んでもよい。
画像における現在ブロックの第1画像成分の第1参照画素セットを決定し、前記第1参照画素セットには前記現在ブロックに隣接する画素が含まれるS701と、
第1参照画素セットを利用してN個の第1参照画素サブセットを構築し、前記第1参照画素サブセットに前記第1参照画素セットにおける一部の画素が含まれ、Nが予測モデルの数に等しいS702と、
前記N個の第1参照画素サブセットを利用して、それぞれN個の予測モデルのモデルパラメータを計算し、前記予測モデルは前記現在ブロックの第1画像成分値を前記現在ブロックの第2画像成分の予測値にマッピングすることに用いられ、前記第2画像成分が前記第1画像成分と異なるS703と、を含んでもよい。
前記第1参照画素セットに基づいて少なくとも1つの閾値を決定することと、
前記少なくとも1つの閾値に基づいて、前記第1参照画素セットを前記N個の第1参照画素サブセットに分割することと、を含んでもよい。
前記現在ブロックの辺における一部又は全部の画素に基づいて、前記第1参照画素セットを取得し、前記現在ブロックの辺は上側隣接行、右上側隣接行、左側隣接列及び左下側隣接列のうちの少なくとも1つを含むことを含んでもよい。
前記現在ブロックの辺において前記候補画素の候補位置を決定することと、
前記候補位置の画素に基づいて前記第1参照画素セットを取得することと、を含んでもよい。
前記現在ブロックの辺における画素に対応する画素位置に基づいて、前記候補位置を決定することを含んでもよい。
前記現在ブロックの辺における画素に対応する第1画像成分値に基づいて、前記候補位置を決定することを含んでもよい。
前記現在ブロックの辺における画素に対応する画素位置、及び前記現在ブロックの辺における画素に対応する第1画像成分値に基づいて、前記候補位置を決定することを含んでもよい。
所定の候補画素数を決定し、前記所定の候補画素数は前記現在ブロックの辺から選択された画素数を示すことと、
前記所定の画素数及び前記現在ブロックの辺の長さに基づいて、前記候補位置を決定し、前記現在ブロックの辺の長さが前記現在ブロックの辺における画素数に等しいことと、を含んでもよい。
前記現在ブロックの辺の長さ及び前記所定の候補画素数に基づいて、第1サンプリング間隔を計算することを含んでもよい。
前記第1サンプリング間隔を調整して、第2サンプリング間隔を取得することを含んでもよい。
前記現在ブロックの辺において基準点を決定し、前記基準点から前記第1サンプリング間隔で前記候補位置を決定することを含んでもよい。
前記現在ブロックの辺において基準点を決定し、前記第1サンプリング間隔で前記基準点の両側の前記候補位置を決定することを含んでもよい。
前記現在ブロックの辺において基準点を決定し、前記基準点から前記第2サンプリング間隔で前記候補位置を決定することを含んでもよい。
前記現在ブロックの辺において基準点を決定し、前記第2サンプリング間隔で前記基準点の両側の前記候補位置を決定することを含んでもよい。
前記現在ブロックの辺において基準点を決定し、前記第1サンプリング間隔で前記基準点の片側に対応する候補位置を決定し、前記第2サンプリング間隔で前記基準点の他側に対応する候補位置を決定することを含んでもよい。
前記現在ブロックの辺の所定のスキップ画素数Kを決定し、Kが非負整数であることと、
前記現在ブロックの辺の端位置からK番目の画素位置を前記基準点として設定し、前記現在ブロックの辺の端位置が前記現在ブロックの辺の開始画素位置又は終了画素位置であることと、を含んでもよい。
前記現在ブロックにおける画素に対応する第1画像成分再設定値を決定することと、
前記N個の予測モデルから1つの予測モデルを選択することと、
選択された予測モデル及び前記現在ブロックにおける画素に対応する第1画像成分再設定値を利用して、前記現在ブロックにおける画素に対応する第2画像成分予測値を計算することと、を含んでもよい。
前記現在ブロックにおける画素に対応する第1画像成分再設定値と前記少なくとも1つの閾値とを比較することと、
比較結果に基づいて、前記N個の予測モデルから前記現在ブロックにおける画素が使用する予測モデルを選択することと、を含んでもよい。
前記第1決定ユニット801は、画像における現在ブロックの隣接参照画素を決定するように設定され、
前記第1構築ユニット802は、前記隣接参照画素に基づいて隣接参照画素サブセットを構築するように設定され、前記隣接参照画素サブセットに前記隣接参照画素のうちの一部の画素が含まれ、
前記第1計算ユニット803は、前記隣接参照画素サブセットに基づいて予測モデルのモデルパラメータを計算するように設定され、前記予測モデルはN個の予測サブモデルを含み、N個の予測サブモデルはN組のモデルパラメータに対応し、前記予測サブモデルは対応のモデルパラメータによって予測対象画像成分に対して成分間予測処理を行うことに用いられ、Nが2以上の正の整数である。
前記第1決定ユニット801は更に、前記現在ブロックの少なくとも1つの辺に基づいて前記候補画素の候補位置を決定するように設定され、
前記第1選択ユニット805は、前記隣接参照画素から前記候補位置に対応する参照画素を選択し、選択された参照画素により前記隣接参照画素サブセットを構成するように設定される。
前記第1決定ユニット801は更に、前記現在ブロックの少なくとも1つの辺から1つの基準点を決定し、前記第1サンプリング間隔に応じて前記候補位置を決定するように設定される。
前記第1決定ユニット801は更に、前記基準点に基づいて、前記第2サンプリング間隔に応じて前記候補位置を決定するように設定される。
前記第1計算ユニット803は、前記N個の第1隣接参照画素サブセットに基づいて、前記N個の予測サブモデルに対応するN組のモデルパラメータを計算するように設定され、各予測サブモデルは1組のモデルパラメータに対応する。
前記第1決定ユニット801は更に、前記隣接参照画素サブセットに基づいて少なくとも1つの閾値を決定するように設定され、
前記第1分割ユニット807は、前記少なくとも1つの閾値に基づいて、前記隣接参照画素サブセットを前記N個の第1隣接参照画素サブセットに分割するように設定される。
前記第1選択ユニット805は更に、前記N個の予測サブモデルから1つの予測サブモデルを選択するように設定され、
前記第1計算ユニット803は更に、選択された予測サブモデル及び前記現在ブロックにおける各画素に対応する第1画像成分再設定値に基づいて、前記現在ブロックにおける各画素に対応する第2画像成分予測値を計算するように設定され、前記予測対象画像成分は第2画像成分である。
前記第1選択ユニット805は更に、比較結果に基づいて、前記N個の予測サブモデルから前記現在ブロックにおける各画素に対応する予測サブモデルを選択するように設定される。
第1通信インターフェース901は、他の外部ネットワーク要素との情報送受信過程において、信号を送受信することに用いられ、
第1メモリ902は、第1プロセッサ903において実行され得るコンピュータプログラムを記憶することに用いられ、
第1プロセッサ903は、前記コンピュータプログラムを実行するとき、
画像における現在ブロックの隣接参照画素を決定することと、
前記隣接参照画素に基づいて、前記隣接参照画素のうちの一部の画素が含まれる隣接参照画素サブセットを構築することと、
前記隣接参照画素サブセットに基づいて予測モデルのモデルパラメータを計算し、前記予測モデルはN個の予測サブモデルを含み、N個の予測サブモデルはN組のモデルパラメータに対応し、前記予測サブモデルは対応のモデルパラメータによって予測対象画像成分に対して成分間予測処理を行うことに用いられ、Nが2以上の正の整数であることと、を実行することに用いられる。
前記第2決定ユニット1001は、画像における現在ブロックの隣接参照画素を決定するように設定され、
前記第2構築ユニット1002は、前記隣接参照画素に基づいて隣接参照画素サブセットを構築するように設定され、前記隣接参照画素サブセットに前記隣接参照画素のうちの一部の画素が含まれ、
前記第2計算ユニット1003は、前記隣接参照画素サブセットに基づいて予測モデルのモデルパラメータを計算するように設定され、前記予測モデルはN個の予測サブモデルを含み、N個の予測サブモデルはN組のモデルパラメータに対応し、前記予測サブモデルは対応のモデルパラメータによって予測対象画像成分に対して成分間予測処理を行うことに用いられ、Nが2以上の正の整数である。
前記第2決定ユニット1001は更に、前記現在ブロックの少なくとも1つの辺に基づいて前記候補画素の候補位置を決定するように設定され、
前記第2選択ユニット1005は、前記隣接参照画素から前記候補位置に対応する参照画素を選択し、選択された参照画素により前記隣接参照画素サブセットを構成するように設定される。
前記第2決定ユニット1001は更に、前記現在ブロックの少なくとも1つの辺から1つの基準点を決定し、前記第1サンプリング間隔に応じて前記候補位置を決定するように設定される。
前記第2決定ユニット1001は更に、前記基準点に基づいて、前記第2サンプリング間隔に応じて前記候補位置を決定するように設定される。
前記第2計算ユニット1003は、前記N個の第1隣接参照画素サブセットに基づいて、前記N個の予測サブモデルに対応するN組のモデルパラメータを計算するように設定され、各予測サブモデルは1組のモデルパラメータに対応する。
前記第2決定ユニット1001は更に、前記隣接参照画素サブセットに基づいて少なくとも1つの閾値を決定するように設定され、
前記第2分割ユニット1007は、前記少なくとも1つの閾値に基づいて、前記隣接参照画素サブセットを前記N個の第1隣接参照画素サブセットに分割するように設定される。
前記第2選択ユニット1005は更に、前記N個の予測サブモデルから1つの予測サブモデルを選択するように設定され、
前記第2計算ユニット1003は更に、選択された予測サブモデル及び前記現在ブロックにおける各画素に対応する第1画像成分再設定値に基づいて、前記現在ブロックにおける各画素に対応する第2画像成分予測値を計算するように設定され、前記予測対象画像成分は第2画像成分である。
前記第2選択ユニット1005は更に、比較結果に基づいて、前記N個の予測サブモデルから前記現在ブロックにおける各画素に対応する予測サブモデルを選択するように設定される。
第2通信インターフェース1101は、他の外部ネットワーク要素との情報送受信過程において、信号を送受信することに用いられ、
第2メモリ1102は、第2プロセッサ1103において実行され得るコンピュータプログラムを記憶することに用いられ、
第2プロセッサ1103は、前記コンピュータプログラムを実行するとき、
画像における現在ブロックの隣接参照画素を決定することと、
前記隣接参照画素に基づいて、前記隣接参照画素のうちの一部の画素が含まれる隣接参照画素サブセットを構築することと、
前記隣接参照画素サブセットに基づいて予測モデルのモデルパラメータを計算し、前記予測モデルはN個の予測サブモデルを含み、N個の予測サブモデルはN組のモデルパラメータに対応し、前記予測サブモデルは対応のモデルパラメータによって予測対象画像成分に対して成分間予測処理を行うことに用いられ、Nが2以上の正の整数であることと、を実行することに用いられる。
Claims (6)
- エンコーダに適用される画像成分予測方法であって、
画像における現在ブロックの隣接参照画素を決定することと、
前記隣接参照画素に基づいて隣接参照画素サブセットを構築し、前記隣接参照画素サブセットに前記隣接参照画素のうちの一部の画素が含まれることと、
前記隣接参照画素サブセットに基づいて予測モデルのモデルパラメータを計算し、前記予測モデルはN個の予測サブモデルを含み、N個の予測サブモデルはN組のモデルパラメータに対応し、前記予測サブモデルは対応のモデルパラメータによって予測対象画像成分に対して成分間予測処理を行うことに用いられ、Nが2以上の正の整数であることと、を含み、
前記画像における現在ブロックの隣接参照画素を決定することは、前記現在ブロックの上行と右上行に隣接する参照画素又は前記現在ブロックの左列と左下列に隣接する参照画素を取得し、取得された参照画素に基づいて前記隣接参照画素を取得することを含み、
前記隣接参照画素に基づいて隣接参照画素サブセットを構築することは、
前記現在ブロックの少なくとも1つの辺に基づいて候補画素の候補位置を決定することと、
前記隣接参照画素から前記候補位置に対応する参照画素を選択し、選択された参照画素により前記隣接参照画素サブセットを構成することと、を含み、
前記現在ブロックの少なくとも1つの辺に基づいて前記候補画素の候補位置を決定することは、
前記現在ブロックの少なくとも1つの辺に隣接する参照画素に対応する画素位置及び画像成分強度値に基づいて、前記候補位置を決定することを含む画像成分予測方法。 - 前記画像における現在ブロックの隣接参照画素を決定することは、
前記現在ブロックの上行と左列に隣接する参照画素を取得することと、
取得された参照画素に基づいて、前記隣接参照画素を取得することと、を更に含む、請求項1に記載の方法。 - デコーダに適用される画像成分予測方法であって、
画像における現在ブロックの隣接参照画素を決定することと、
前記隣接参照画素に基づいて隣接参照画素サブセットを構築し、前記隣接参照画素サブセットに前記隣接参照画素のうちの一部の画素が含まれることと、
前記隣接参照画素サブセットに基づいて予測モデルのモデルパラメータを計算し、前記予測モデルはN個の予測サブモデルを含み、N個の予測サブモデルはN組のモデルパラメータに対応し、前記予測サブモデルは対応のモデルパラメータによって予測対象画像成分に対して成分間予測処理を行うことに用いられ、Nが2以上の正の整数であることと、を含み、
前記画像における現在ブロックの隣接参照画素を決定することは、前記現在ブロックの上行と右上行に隣接する参照画素又は前記現在ブロックの左列と左下列に隣接する参照画素を取得し、取得された参照画素に基づいて前記隣接参照画素を取得することを含み、
前記隣接参照画素に基づいて隣接参照画素サブセットを構築することは、
前記現在ブロックの少なくとも1つの辺に基づいて候補画素の候補位置を決定することと、
前記隣接参照画素から前記候補位置に対応する参照画素を選択し、選択された参照画素により前記隣接参照画素サブセットを構成することと、を含み、
前記現在ブロックの少なくとも1つの辺に基づいて前記候補画素の候補位置を決定することは、
前記現在ブロックの少なくとも1つの辺に隣接する参照画素に対応する画素位置及び画像成分強度値に基づいて、前記候補位置を決定することを含む画像成分予測方法。 - 前記画像における現在ブロックの隣接参照画素を決定することは、
前記現在ブロックの上行と左列に隣接する参照画素を取得することと、
取得された参照画素に基づいて、前記隣接参照画素を取得することと、を更に含む、請求項3に記載の方法。 - エンコーダであって、第1決定ユニット、第1構築ユニット及び第1計算ユニットを備え、
前記第1決定ユニットは、画像における現在ブロックの隣接参照画素を決定するように設定され、前記画像における現在ブロックの隣接参照画素を決定することは、前記現在ブロックの上行と右上行に隣接する参照画素又は前記現在ブロックの左列と左下列に隣接する参照画素を取得し、取得された参照画素に基づいて前記隣接参照画素を取得することを含み、
前記第1構築ユニットは、前記隣接参照画素に基づいて隣接参照画素サブセットを構築するように設定され、前記隣接参照画素サブセットに前記隣接参照画素のうちの一部の画素が含まれ、前記隣接参照画素に基づいて隣接参照画素サブセットを構築することは、前記現在ブロックの少なくとも1つの辺に基づいて候補画素の候補位置を決定することと、前記隣接参照画素から前記候補位置に対応する参照画素を選択し、選択された参照画素により前記隣接参照画素サブセットを構成することと、を含み、前記現在ブロックの少なくとも1つの辺に基づいて前記候補画素の候補位置を決定することは、前記現在ブロックの少なくとも1つの辺に隣接する参照画素に対応する画素位置及び画像成分強度値に基づいて、前記候補位置を決定することを含み、
前記第1計算ユニットは、前記隣接参照画素サブセットに基づいて予測モデルのモデルパラメータを計算するように設定され、前記予測モデルはN個の予測サブモデルを含み、N個の予測サブモデルはN組のモデルパラメータに対応し、前記予測サブモデルは対応のモデルパラメータによって予測対象画像成分に対して成分間予測処理を行うことに用いられ、Nが2以上の正の整数である、エンコーダ。 - デコーダであって、第2決定ユニット、第2構築ユニット及び第2計算ユニットを備え、
前記第2決定ユニットは、画像における現在ブロックの隣接参照画素を決定するように設定され、前記画像における現在ブロックの隣接参照画素を決定することは、前記現在ブロックの上行と右上行に隣接する参照画素又は前記現在ブロックの左列と左下列に隣接する参照画素を取得し、取得された参照画素に基づいて前記隣接参照画素を取得することを含み、
前記第2構築ユニットは、前記隣接参照画素に基づいて隣接参照画素サブセットを構築するように設定され、前記隣接参照画素サブセットに前記隣接参照画素のうちの一部の画素が含まれ、
前記隣接参照画素に基づいて隣接参照画素サブセットを構築することは、前記現在ブロックの少なくとも1つの辺に基づいて候補画素の候補位置を決定することと、前記隣接参照画素から前記候補位置に対応する参照画素を選択し、選択された参照画素により前記隣接参照画素サブセットを構成することと、を含み、前記現在ブロックの少なくとも1つの辺に基づいて前記候補画素の候補位置を決定することは、前記現在ブロックの少なくとも1つの辺に隣接する参照画素に対応する画素位置及び画像成分強度値に基づいて、前記候補位置を決定することを含み、
前記第2計算ユニットは、前記隣接参照画素サブセットに基づいて予測モデルのモデルパラメータを計算するように設定され、前記予測モデルはN個の予測サブモデルを含み、N個の予測サブモデルはN組のモデルパラメータに対応し、前記予測サブモデルは対応のモデルパラメータによって予測対象画像成分に対して成分間予測処理を行うことに用いられ、Nが2以上の正の整数である、デコーダ。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962819851P | 2019-03-18 | 2019-03-18 | |
US62/819,851 | 2019-03-18 | ||
PCT/CN2019/113771 WO2020186763A1 (zh) | 2019-03-18 | 2019-10-28 | 图像分量预测方法、编码器、解码器以及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022522487A JP2022522487A (ja) | 2022-04-19 |
JP7383720B2 true JP7383720B2 (ja) | 2023-11-20 |
Family
ID=72519653
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021551793A Active JP7383720B2 (ja) | 2019-03-18 | 2019-10-28 | 画像成分予測方法、エンコーダ、デコーダ及び記憶媒体 |
Country Status (6)
Country | Link |
---|---|
US (3) | US11368680B2 (ja) |
EP (2) | EP3910951A4 (ja) |
JP (1) | JP7383720B2 (ja) |
KR (1) | KR20210119514A (ja) |
CN (3) | CN113676732B (ja) |
WO (1) | WO2020186763A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023247533A1 (en) * | 2022-06-21 | 2023-12-28 | Interdigital Ce Patent Holdings, Sas | Methods and apparatuses for encoding and decoding an image or a video |
WO2024058494A1 (ko) * | 2022-09-13 | 2024-03-21 | 엘지전자 주식회사 | 예측 모델의 학습에 기반한 피쳐 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9462273B2 (en) | 2011-11-04 | 2016-10-04 | Huawei Technologies Co., Ltd. | Intra-frame prediction and decoding methods and apparatuses for image signal |
US20180077426A1 (en) | 2016-09-15 | 2018-03-15 | Qualcomm Incorporated | Linear model chroma intra prediction for video coding |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101496406B (zh) * | 2006-03-23 | 2012-02-01 | 三星电子株式会社 | 图像编码/解码方法和设备 |
KR101261526B1 (ko) * | 2006-07-04 | 2013-05-06 | 삼성전자주식회사 | 영상의 부호화 방법 및 장치, 복호화 방법 및 장치 |
KR101498044B1 (ko) * | 2007-01-10 | 2015-03-05 | 삼성전자주식회사 | 매크로 블럭이 적응적으로 부호화된 압축영상에 대한축소영상 생성방법 및 이를 적용한 영상기기 |
US8885726B2 (en) * | 2007-12-04 | 2014-11-11 | Vixs Systems, Inc. | Neighbor management for use in entropy encoding and methods for use therewith |
KR101997462B1 (ko) * | 2010-04-09 | 2019-07-08 | 엘지전자 주식회사 | 비디오 데이터 처리 방법 및 장치 |
US9288500B2 (en) * | 2011-05-12 | 2016-03-15 | Texas Instruments Incorporated | Luma-based chroma intra-prediction for video coding |
US9106927B2 (en) | 2011-09-23 | 2015-08-11 | Qualcomm Incorporated | Video coding with subsets of a reference picture set |
JP2013141187A (ja) * | 2012-01-06 | 2013-07-18 | Sony Corp | 画像処理装置及び画像処理方法 |
CN104380741B (zh) * | 2012-01-19 | 2018-06-05 | 华为技术有限公司 | 用于lm帧内预测的参考像素缩减 |
CN102625126B (zh) * | 2012-03-22 | 2014-10-15 | 北京工业大学 | 一种基于预测的三维网格编码方法 |
CA2896637C (en) * | 2013-03-26 | 2018-02-13 | Mediatek Inc. | Method of cross color intra prediction |
US9516306B2 (en) * | 2013-03-27 | 2016-12-06 | Qualcomm Incorporated | Depth coding modes signaling of depth data for 3D-HEVC |
US9826242B2 (en) * | 2014-03-14 | 2017-11-21 | Qualcomm Incorporated | Palette-based video coding |
WO2017139937A1 (en) * | 2016-02-18 | 2017-08-24 | Mediatek Singapore Pte. Ltd. | Advanced linear model prediction for chroma coding |
US11032550B2 (en) * | 2016-02-25 | 2021-06-08 | Mediatek Inc. | Method and apparatus of video coding |
US10484712B2 (en) * | 2016-06-08 | 2019-11-19 | Qualcomm Incorporated | Implicit coding of reference line index used in intra prediction |
EP3528497A4 (en) * | 2016-10-14 | 2020-07-22 | Industry-Academia Cooperation Foundation of Sejong University | IMAGE CODING AND DECODING PROCESS AND DEVICE |
US10873746B2 (en) * | 2016-12-21 | 2020-12-22 | Sharp Kabushiki Kaisha | Intra prediction image generation device using cross-component liner model, image decoding apparatus, and image coding apparatus using same |
JP2020120141A (ja) * | 2017-05-26 | 2020-08-06 | シャープ株式会社 | 動画像符号化装置及び動画像復号装置、フィルタ装置 |
CN107580222B (zh) * | 2017-08-01 | 2020-02-14 | 北京交通大学 | 一种基于线性模型预测的图像或视频编码方法 |
GB2567249A (en) * | 2017-10-09 | 2019-04-10 | Canon Kk | New sample sets and new down-sampling schemes for linear component sample prediction |
US10419754B1 (en) * | 2018-04-02 | 2019-09-17 | Tencent America LLC | Method and apparatus for video decoding using multiple line intra prediction |
US10404980B1 (en) * | 2018-07-10 | 2019-09-03 | Tencent America LLC | Intra prediction with wide angle mode in video coding |
-
2019
- 2019-10-28 CN CN202110993233.6A patent/CN113676732B/zh active Active
- 2019-10-28 KR KR1020217027817A patent/KR20210119514A/ko active Search and Examination
- 2019-10-28 CN CN202310752393.0A patent/CN116708794A/zh active Pending
- 2019-10-28 JP JP2021551793A patent/JP7383720B2/ja active Active
- 2019-10-28 WO PCT/CN2019/113771 patent/WO2020186763A1/zh unknown
- 2019-10-28 CN CN201980088761.8A patent/CN113273194A/zh active Pending
- 2019-10-28 EP EP19919998.5A patent/EP3910951A4/en not_active Ceased
- 2019-10-28 EP EP24155363.5A patent/EP4340360A3/en active Pending
-
2021
- 2021-08-09 US US17/397,680 patent/US11368680B2/en active Active
-
2022
- 2022-04-15 US US17/722,082 patent/US11778172B2/en active Active
-
2023
- 2023-08-15 US US18/449,877 patent/US20230388491A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9462273B2 (en) | 2011-11-04 | 2016-10-04 | Huawei Technologies Co., Ltd. | Intra-frame prediction and decoding methods and apparatuses for image signal |
US20180077426A1 (en) | 2016-09-15 | 2018-03-15 | Qualcomm Incorporated | Linear model chroma intra prediction for video coding |
Non-Patent Citations (5)
Title |
---|
Adarsh K. Ramasubramonian, et al.,"CE3: On MMLM (Test 2.1)",JVET-M0097,version 1,[online], Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,2019年01月03日,Pages 1-4,[令和4年8月26日検索], インターネット, <URL: https://jvet-experts.org/doc_end_user/current_document.php?id=4902> and <URL: https://jvet-experts.org/doc_end_user/documents/13_Marrakech/wg11/JVET-M0097-v1.zip>. |
Adarsh K. Ramasubramonian,"Cross-check of JVET-K0204: On cross-component linear model simplification",JVET-K0512,version 2,[online], Joint Video Exploration Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,2018年07月16日,Pages 1-4,[令和4年8月25日検索], インターネット, <URL: https://jvet-experts.org/doc_end_user/current_document.php?id=4042> and <URL: https://jvet-experts.org/doc_end_user/documents/11_Ljubljana/wg11/JVET-K0512-v2.zip>. |
Junyan Huo, et al.,"CE3-related: Fixed Reference Samples Design for CCLM",JVET-M0211,version 3,[online], Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,2019年01月10日,Pages 1-6,[令和4年8月25日検索], インターネット, <URL: https://jvet-experts.org/doc_end_user/current_document.php?id=5018> and <URL: https://jvet-experts.org/doc_end_user/documents/13_Marrakech/wg11/JVET-M0211-v3.zip>. |
Sheng-Po Wang, et al.,"Non-CE3: Adaptive multiple cross-component linear model",JVET-K0536,version 1,[online], Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,2018年07月14日,Pages 1-3,[令和4年8月26日検索], インターネット, <URL: https://jvet-experts.org/doc_end_user/current_document.php?id=4066> and <URL: https://jvet-experts.org/doc_end_user/documents/11_Ljubljana/wg11/JVET-K0536-v1.zip>. |
Xiang Ma, et al.,"CE3: CCLM/MDLM using simplified coefficients derivation method (Test 5.6.1, 5.6.2 and 5.6.3)",JVET-L0340,version 5,[online], Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,2018年10月23日,Pages 1-6,[令和4年5月17日検索], インターネット, <URL: http://phenix.it-sudparis.eu/jvet/doc_end_user/current_document.php?id=4437> and <URL: http://phenix.it-sudparis.eu/jvet/doc_end_user/documents/12_Macao/wg11/JVET-L0340-v5.zip>. |
Also Published As
Publication number | Publication date |
---|---|
EP4340360A3 (en) | 2024-06-12 |
EP3910951A1 (en) | 2021-11-17 |
JP2022522487A (ja) | 2022-04-19 |
CN113676732A (zh) | 2021-11-19 |
US20230388491A1 (en) | 2023-11-30 |
CN113676732B (zh) | 2023-06-20 |
EP4340360A2 (en) | 2024-03-20 |
US11778172B2 (en) | 2023-10-03 |
US11368680B2 (en) | 2022-06-21 |
US20210368167A1 (en) | 2021-11-25 |
CN113273194A (zh) | 2021-08-17 |
EP3910951A4 (en) | 2022-03-16 |
US20220248000A1 (en) | 2022-08-04 |
WO2020186763A1 (zh) | 2020-09-24 |
KR20210119514A (ko) | 2021-10-05 |
CN116708794A (zh) | 2023-09-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111066326B (zh) | 机器学习视频处理系统和方法 | |
CN104702962B (zh) | 帧内编解码方法、编码器和解码器 | |
US20190014325A1 (en) | Video encoding method, video decoding method, video encoder and video decoder | |
JP7540841B2 (ja) | ループ内フィルタリングの方法、コンピュータ可読記憶媒体及びプログラム | |
JP7383720B2 (ja) | 画像成分予測方法、エンコーダ、デコーダ及び記憶媒体 | |
CN116438796A (zh) | 图像预测方法、编码器、解码器以及计算机存储介质 | |
JP2024503193A (ja) | フレーム内予測方法、装置、及びデコーダとエンコーダ | |
JP2022520295A (ja) | デコードのための予測方法及びその装置、並びにコンピュータ記憶媒体 | |
JP7437426B2 (ja) | インター予測方法および装置、機器、記憶媒体 | |
KR20220088888A (ko) | 인트라 예측을 위한 신경망의 반복 트레이닝 | |
JP2022521366A (ja) | イントラ予測方法、装置およびコンピュータ記憶媒体 | |
CN116114246B (zh) | 帧内预测平滑滤波器系统及方法 | |
CN115834882A (zh) | 一种帧内预测方法、装置、电子设备及存储介质 | |
EP3462744A1 (en) | Method and apparatus for encoding a picture block | |
WO2022188114A1 (zh) | 帧内预测方法、编码器、解码器以及存储介质 | |
JP2015076765A (ja) | 画像処理装置及びその制御方法、並びに、コンピュータプログラム | |
JP2024511272A (ja) | イントラ予測方法、符号器、復号器及び記憶媒体 | |
WO2020258052A1 (zh) | 图像分量预测方法、装置及计算机存储介质 | |
JP7147145B2 (ja) | 動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム | |
CN113395520A (zh) | 解码预测方法、装置及计算机存储介质 | |
WO2023193253A1 (zh) | 解码方法、编码方法、解码器以及编码器 | |
JP7448568B2 (ja) | 画像成分の予測方法、装置およびコンピュータ記憶媒体 | |
CN113840144B (zh) | 图像分量的预测方法、编码器、解码器及计算机存储介质 | |
WO2023193254A1 (zh) | 解码方法、编码方法、解码器以及编码器 | |
WO2022165763A1 (zh) | 编码方法、解码方法、编码器、解码器以及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210831 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210831 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220902 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221202 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230324 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230724 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230802 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231013 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231108 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7383720 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |