JP2022528333A - 色成分予測方法、エンコーダー、デコーダー及びコンピュータ記憶媒体 - Google Patents
色成分予測方法、エンコーダー、デコーダー及びコンピュータ記憶媒体 Download PDFInfo
- Publication number
- JP2022528333A JP2022528333A JP2021556939A JP2021556939A JP2022528333A JP 2022528333 A JP2022528333 A JP 2022528333A JP 2021556939 A JP2021556939 A JP 2021556939A JP 2021556939 A JP2021556939 A JP 2021556939A JP 2022528333 A JP2022528333 A JP 2022528333A
- Authority
- JP
- Japan
- Prior art keywords
- component
- value
- chromaticity
- predicted value
- chromaticity component
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 93
- 238000012545 processing Methods 0.000 claims description 58
- 238000004891 communication Methods 0.000 claims description 16
- 238000010586 diagram Methods 0.000 description 13
- 238000001914 filtration Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 7
- 238000013139 quantization Methods 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 6
- 230000009466 transformation Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 238000005070 sampling Methods 0.000 description 5
- 230000001360 synchronised effect Effects 0.000 description 5
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 4
- 238000007499 fusion processing Methods 0.000 description 4
- 230000003044 adaptive effect Effects 0.000 description 3
- 239000000470 constituent Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012821 model calculation Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013101 initial test Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/186—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/189—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
- H04N19/196—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/59—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Color Television Systems (AREA)
Abstract
Description
色成分の符号化において、色度成分を符号化するステップと、
符号化された色度成分に基づいて、輝度成分の予測値を取得するステップと、を含む。
色成分の復号において、色度成分を復号するステップと、
復号された色度成分に基づいて、輝度成分の予測値を取得するステップと、を含む。
色成分の符号化において、色度成分を符号化するように構成される符号化モジュールと、
符号化された色度成分に基づいて、輝度成分の予測値を取得するように構成される第1取得モジュールと、を備える。
色成分の復号において、色度成分を復号するように構成される復号モジュールと、
復号された色度成分に基づいて、輝度成分の予測値を取得するように構成される第2取得モジュールと、を備える。
プロセッサ、及び前記プロセッサで実行可能な命令を記憶する記憶媒体を備え、前記記憶媒体は、通信バスを介して前記プロセッサに依存する操作を実行し、前記命令が前記プロセッサに実行される場合、上記の1つ又は複数の実施例に記載される色成分予測方法を実行する。
プロセッサ、及び前記プロセッサで実行可能な命令を記憶する記憶媒体を備え、前記記憶媒体は、通信バスを介して前記プロセッサに依存する操作を実行し、前記命令が前記プロセッサに実行される場合、上記の1つ又は複数の実施例に記載される色成分予測方法を実行する。
ビデオ画像では、一般的に第1色成分、第2色成分及び第3色成分を用いてブロックを表し、ここで、第1色成分、第2色成分及び第3色成分には、1つの輝度成分と2つの色度成分が含まれてもよい。具体的には、輝度成分は、通常、記号Yで表され、色度成分は、通常、記号Cb、Crで表され、ここで、Cbは青色色度成分を表し、Crは赤色色度成分を表する。
色成分の符号化において、色度成分を符号化するステップS101と、
符号化された色度成分に基づいて、輝度成分の予測値を取得するステップS102と、を含むことができる。
符号化された色度成分内の第1色度成分と符号化された色度成分内の第2色度成分に基づいて予測を行い、輝度成分の予測値を取得するステップを含むことができ、
ここで、第1色度成分が青色色度成分である場合、第2色度成分は、赤色色度成分であり、第1色度成分が赤色色度成分である場合、第2色度成分は、青色色度成分である。
現在のブロックに対して、第1色度成分の再構成値、第2色度成分の再構成値、第1色度成分の隣接参考値、第2色度成分の隣接参考値及び輝度成分の隣接参考値を取得するステップと、
第1色度成分の再構成値、第1色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第1予測値を取得するステップと、
第2色度成分の再構成値、第2色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第2予測値を取得するステップと、
第1予測値と第2予測値に基づいて、輝度成分の予測値を決定するステップと、を含み、
ここで、現在のブロックは、現在の符号化しようとするブロックであり、ここでは、現在のブロックに対して、現在のブロックの第1色度成分の再構成値、現在のブロックの第2色度成分の再構成値を取得する必要があり、現在のブロックの隣接ブロックの第1色度成分は、上記の第1色度成分の隣接参考値であり、現在のブロックの隣接ブロックの第2色度成分は、上記の第2色度成分の隣接参考値であり、現在のブロックの隣接ブロックの輝度成分は、輝度成分の隣接参考値であり、なお、上記の現在のブロックの隣接ブロックは、現在のブロックの前の行のブロックと左の列のブロックである。
第1色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて、予測モデルのパラメータを決定するステップと、
第1色度成分の再構成値に基づいて、予測モデルを利用して、第1予測値を取得するステップと、を含む。
第2色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて、予測モデルのパラメータを決定するステップと、
第2色度成分の再構成値に基づいて、予測モデルを利用して、第2予測値を取得するステップと、を含む。
第1予測値の重み値と第2予測値の重み値を取得するステップと、
第1予測値の重み値と第2予測値の重み値に基づいて、第1予測値と第2予測値を重み付け加算し、輝度成分の予測値を取得するステップと、を含む。
予め設定された重み値組から1つの重み値組を選択し、前記1つの重み値組内の1つの値を第1予測値の重み値として決定し、重み値組内の別の値を第2予測値の重み値として決定するステップを含むことができる。
第1予測値の重み値と第2予測値の重み値を取得するステップと、
第1重み値を第1予測値の重み値として決定し、第2重み値を第2予測値の重み値として決定するステップと、を含むことができる。
色度成分の解像度が輝度成分の解像度よりも小さい場合、第1色度成分の再構成値及び第2色度成分の再構成値をそれぞれアップサンプリングし、第1色度成分の処理後の再構成値と第2色度成分の処理後の再構成値を取得するステップをさらに含み、
それに応じて、第1色度成分の再構成値、第1色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第1予測値を取得するステップは、
第1色度成分の処理後の再構成値、第1色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第1予測値を取得するステップを含み、
それに応じて、第2色度成分の再構成値、第2色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第2予測値を取得するステップは、
第2色度成分の処理後の再構成値、第2色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第2予測値を取得するステップを含む。
色度成分の解像度が輝度成分の解像度よりも小さい場合、第1予測値と第2予測値をそれぞれアップサンプリングし、処理後の第1予測値及び処理後の第2予測値を取得するステップをさらに含み、
それに応じて、前記第1予測値と前記第2予測値に基づいて、輝度成分の予測値を決定するステップは、
処理後の第1予測値と処理後の第2予測値に基づいて、輝度成分の予測値を決定するステップを含む。
色度成分の解像度が輝度成分の解像度よりも小さい場合、輝度成分の予測値をアップサンプリングし、処理後の輝度成分の予測値を取得するステップをさらに含む。
色成分の復号において、色度成分を復号するステップS401と、
復号された色度成分に基づいて、輝度成分の予測値を取得するステップS402と、を含むことができる。
復号された色度成分内の第1色度成分と復号された色度成分内の第2色度成分に基づいて予測し、輝度成分の予測値を取得するステップを含むことができ、
ここで、第1色度成分が青色色度成分である場合、第2色度成分は、赤色色度成分であり、第1色度成分が赤色色度成分である場合、第2色度成分は、青色色度成分である。
現在のブロックに対して、第1色度成分の再構成値、第2色度成分の再構成値、第1色度成分の隣接参考値、第2色度成分の隣接参考値、及び輝度成分の隣接参考値を取得するステップと、
第1色度成分の再構成値、第1色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第1予測値を取得するステップと、
第2色度成分の再構成値、第2色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第2予測値を取得するステップと、
第1予測値と第2予測値に基づいて、輝度成分の予測値を決定するステップと、を含む。
第1色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて、予測モデルのパラメータを決定するステップと、
第1色度成分の再構成値に基づいて、予測モデルを利用して、第1予測値を取得するステップと、を含む。
第2色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて、予測モデルのパラメータを決定するステップと、
第2色度成分の再構成値に基づいて、予測モデルを利用して、第2予測値を取得するステップと、を含む。
第1予測値の重み値と第2予測値の重み値を取得するステップと、
第1予測値の重み値と第2予測値の重み値に基づいて、第1予測値と第2予測値を重み付け加算し、輝度成分の予測値を取得するステップと、を含む。
予め設定された重み値組から1つの重み値組を選択し、前記1つの重み値組内の1つの値を第1予測値の重み値として決定し、前記1つの重み値組内の別の値を第2予測値の重み値として決定するステップを含むことができる。
第1予測値の重み値と第2予測値の重み値を取得するステップと、
第1重み値を第1予測値の重み値として決定し、第2重み値を第2予測値の重み値として決定するステップと、を含むことができる。
色度成分の解像度が輝度成分の解像度よりも小さい場合、第1色度成分の再構成値及び第2色度成分の再構成値をそれぞれアップサンプリングし、第1色度成分の処理後の再構成値と第2色度成分の処理後の再構成値を取得するステップをさらに含み、
それに応じて、第1色度成分の再構成値、第1色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第1予測値を取得するステップは、
第1色度成分の処理後の再構成値、第1色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第1予測値を取得するステップを含み、
それに応じて、第2色度成分の再構成値、第2色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第2予測値を取得するステップは、
第2色度成分の処理後の再構成値、第2色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第2予測値を取得するステップを含む。
色度成分の解像度が輝度成分の解像度よりも小さい場合、第1予測値と第2予測値をそれぞれアップサンプリングし、処理後の第1予測値及び処理後の第2予測値を取得するステップをさらに含み、
それに応じて、前記第1予測値と前記第2予測値に基づいて、輝度成分の予測値を決定するステップは、
処理後の第1予測値と処理後の第2予測値に基づいて、輝度成分の予測値を決定するステップを含む。
色度成分の解像度が輝度成分の解像度よりも小さい場合、輝度成分の予測値をアップサンプリングし、処理後の輝度成分の予測値を取得するステップをさらに含む。
同じ発明概念に基づいて、図5は、本出願の実施例による1つの選択可能なエンコーダーの概略構造図である。図5に示すように、本出願の実施例によるエンコーダーは、符号化モジュール51及び第1取得モジュール52を備えることができ、ここで、
符号化モジュール51は、色成分の符号化において、色度成分を符号化するように構成され、
第1取得モジュール52は、符号化された色度成分に基づいて、輝度成分の予測値を取得するように構成される。
符号化された色度成分内の第1色度成分と符号化された色度成分内の第2色度成分に基づいて予測を行い、輝度成分の予測値を取得するように構成され、
ここで、前記第1色度成分が青色色度成分である場合、前記第2色度成分は、赤色色度成分であり、前記第1色度成分が赤色色度成分である場合、前記第2色度成分は、青色色度成分である。
現在のブロックに対して、第1色度成分の再構成値、第2色度成分の再構成値、第1色度成分の隣接参考値、第2色度成分の隣接参考値及び輝度成分の隣接参考値を取得するステップと、
第1色度成分の再構成値、第1色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第1予測値を取得するステップと、
第2色度成分の再構成値、第2色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第2予測値を取得するステップと、
第1予測値と第2予測値に基づいて、輝度成分の予測値を決定するステップと、を含む。
第1色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて、予測モデルのパラメータを決定するステップと、
第1色度成分の再構成値に基づいて、予測モデルを利用して、第1予測値を取得するステップと、を含む。
第2色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて、予測モデルのパラメータを決定するステップと、
第2色度成分の再構成値に基づいて、予測モデルを利用して、第2予測値を取得するステップと、を含む。
第1予測値の重み値と第2予測値の重み値を取得するステップと、
第1予測値の重み値と第2予測値の重み値に基づいて、第1予測値と第2予測値を重み付け加算し、輝度成分の予測値を取得するステップと、を含む。
予め設定された重み値組から1つの重み値組を選択し、前記1つの重み値組内の1つの値を第1予測値の重み値として決定し、前記1つの重み値組内の別の値を第2予測値の重み値として決定するステップを含む。
現在のブロックに対して、第1色度成分の再構成値、第2色度成分の再構成値、第1色度成分の隣接参考値、第2色度成分の隣接参考値及び輝度成分の隣接参考値を取得した後、色度成分の解像度が輝度成分の解像度よりも小さい場合、第1色度成分の再構成値及び第2色度成分の再構成値をそれぞれアップサンプリングし、第1色度成分の処理後の再構成値と第2色度成分の処理後の再構成値を取得するように構成され、
それに応じて、第1取得モジュール52が第1色度成分の再構成値、第1色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第1予測値を取得するステップは、
第1色度成分の処理後の再構成値、第1色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第1予測値を取得するステップを含み、
それに応じて、第1取得モジュール52が第2色度成分の再構成値、第2色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第2予測値を取得するステップは、
第2色度成分の処理後の再構成値、第2色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第2予測値を取得するステップを含む。
第1予測値と第2予測値に基づいて、輝度成分の予測値を決定する前に、色度成分の解像度が輝度成分の解像度よりも小さい場合、第1予測値と第2予測値をそれぞれアップサンプリングし、処理後の第1予測値及び処理後の第2予測値を取得するように構成され、
それに応じて、第1取得モジュール52が第1予測値と第2予測値に基づいて、輝度成分の予測値を決定するステップは、
処理後の第1予測値と処理後の第2予測値に基づいて、輝度成分の予測値を決定するステップを含む。
第1予測値と第2予測値に基づいて、輝度成分の予測値を決定した後、色度成分の解像度が輝度成分の解像度よりも小さい場合、輝度成分の予測値をアップサンプリングし、処理後の輝度成分の予測値を取得するように構成される。
復号モジュール61は、色成分の復号において、色度成分を復号するように構成され、
第2取得モジュール62は、復号された色度成分に基づいて、輝度成分の予測値を取得するように構成される。
復号された色度成分内の第1色度成分と復号された色度成分内の第2色度成分に基づいて予測を行い、輝度成分の予測値を取得するように構成され、
ここで、第1色度成分が青色色度成分である場合、第2色度成分は、赤色色度成分であり、第1色度成分が赤色色度成分である場合、第2色度成分は、青色色度成分である。
現在のブロックに対して、第1色度成分の再構成値、第2色度成分の再構成値、第1色度成分の隣接参考値、第2色度成分の隣接参考値及び輝度成分の隣接参考値を取得するステップと、
第1色度成分の再構成値、第1色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第1予測値を取得するステップと、
第2色度成分の再構成値、第2色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第2予測値を取得するステップと、
第1予測値と前記第2予測値に基づいて、輝度成分の予測値を決定するステップと、を含む。
第1色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて、予測モデルのパラメータを決定するステップと、
第1色度成分の再構成値に基づいて、予測モデルを利用して、第1予測値を取得するステップと、を含む。
第2色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて、予測モデルのパラメータを決定するステップと、
第2色度成分の再構成値に基づいて、予測モデルを利用して、第2予測値を取得するステップと、を含む。
第1予測値の重み値と第2予測値の重み値を取得するステップと、
第1予測値の重み値と第2予測値の重み値に基づいて、第1予測値と第2予測値を重み付け加算し、輝度成分の予測値を取得するステップと、を含む。
予め設定された重み値組から1つの重み値組を選択し、前記1つの重み値組内の1つの値を第1予測値の重み値として決定し、前記1つの重み値組内の別の値を第2予測値の重み値として決定するステップを含む。
現在のブロックに対して、第1色度成分の再構成値、第2色度成分の再構成値、第1色度成分の隣接参考値、第2色度成分の隣接参考値及び輝度成分の隣接参考値を取得した後、色度成分の解像度が輝度成分の解像度よりも小さい場合、第1色度成分の再構成値と第2色度成分の再構成値をそれぞれアップサンプリングし、第1色度成分の処理後の再構成値と第2色度成分の処理後の再構成値を取得するように構成され、
それに応じて、第2取得モジュール62が第1色度成分の再構成値、第1色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第1予測値を取得するステップは、
第1色度成分の処理後の再構成値、第1色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第1予測値を取得するステップを含み、
それに応じて、第2取得モジュール62が第2色度成分の再構成値、第2色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第2予測値を取得するステップは、
第2色度成分の処理後の再構成値、第2色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第2予測値を取得するステップを含む。
第1予測値と第2予測値に基づいて、輝度成分の予測値を決定する前に、色度成分の解像度が輝度成分の解像度よりも小さい場合、第1予測値と第2予測値をそれぞれアップサンプリングし、処理後の第1予測値及び処理後の第2予測値を取得するように構成され、
それに応じて、第2取得モジュール62が第1予測値と第2予測値に基づいて、輝度成分の予測値を決定するステップは、
処理後の第1予測値と処理後の第2予測値に基づいて、輝度成分の予測値を決定するステップを含む。
第1予測値と第2予測値に基づいて、輝度成分の予測値を決定した後、色度成分の解像度が輝度成分の解像度よりも小さい場合、輝度成分の予測値をアップサンプリングし、処理後の輝度成分の予測値を取得するように構成される。
Claims (25)
- 色成分予測方法であって、
色成分の符号化において、色度成分を符号化するステップと、
符号化された色度成分に基づいて、輝度成分の予測値を取得するステップと、を含む、色成分予測方法。 - 符号化された色度成分に基づいて、輝度成分の予測値を取得するステップは、
前記符号化された色度成分内の第1色度成分と前記符号化された色度成分内の第2色度成分に基づいて予測を行い、前記輝度成分の予測値を取得するステップを含み、
ここで、前記第1色度成分が青色色度成分である場合、前記第2色度成分は、赤色色度成分であり、前記第1色度成分が赤色色度成分である場合、前記第2色度成分は、青色色度成分であることを特徴とする
請求項1に記載の方法。 - 前記符号化された色度成分内の第1色度成分と前記符号化された色度成分内の第2色度成分に基づいて予測を行い、前記輝度成分の予測値を取得するステップは、
現在のブロックに対して、前記第1色度成分の再構成値、前記第2色度成分の再構成値、前記第1色度成分の隣接参考値、前記第2色度成分の隣接参考値及び前記輝度成分の隣接参考値を取得するステップと、
前記第1色度成分の再構成値、前記第1色度成分の隣接参考値及び前記輝度成分の隣接参考値に基づいて予測を行い、前記輝度成分の第1予測値を取得するステップと、
前記第2色度成分の再構成値、前記第2色度成分の隣接参考値及び前記輝度成分の隣接参考値に基づいて予測を行い、前記輝度成分の第2予測値を取得するステップと、
前記第1予測値と前記第2予測値に基づいて、前記輝度成分の予測値を決定するステップと、を含むことを特徴とする
請求項2に記載の方法。 - 前記第1色度成分の再構成値、前記第1色度成分の隣接参考値及び前記輝度成分の隣接参考値に基づいて予測を行い、前記輝度成分の第1予測値を取得するステップは、
前記第1色度成分の隣接参考値及び前記輝度成分の隣接参考値に基づいて、予測モデルのパラメータを決定するステップと、
前記第1色度成分の再構成値に基づいて、前記予測モデルを利用して、前記第1予測値を取得するステップと、を含むことを特徴とする
請求項3に記載の方法。 - 前記第2色度成分の再構成値、前記第2色度成分の隣接参考値及び前記輝度成分の隣接参考値に基づいて予測を行い、前記輝度成分の第2予測値を取得するステップは、
前記第2色度成分の隣接参考値及び前記輝度成分の隣接参考値に基づいて、予測モデルのパラメータを決定するステップと、
前記第2色度成分の再構成値に基づいて、前記予測モデルを利用して、前記第2予測値を取得するステップと、を含むことを特徴とする
請求項3に記載の方法。 - 前記第1予測値と前記第2予測値に基づいて、前記輝度成分の予測値を決定するステップは、
前記第1予測値の重み値と前記第2予測値の重み値を取得するステップと、
前記第1予測値の重み値と前記第2予測値の重み値に基づいて、前記第1予測値と前記第2予測値を重み付け加算し、前記輝度成分の予測値を取得するステップと、を含むことを特徴とする
請求項3に記載の方法。 - 前記第1予測値の重み値と前記第2予測値の重み値を取得するステップは、
予め設定された重み値組から1つの重み値組を選択し、前記1つの重み値組内の1つの値を前記第1予測値の重み値として決定し、前記1つの重み値組内の別の値を前記第2予測値の重み値として決定するステップを含むことを特徴とする
請求項6に記載の方法。 - 現在のブロックに対して、前記第1色度成分の再構成値、前記第2色度成分の再構成値、前記第1色度成分の隣接参考値、前記第2色度成分の隣接参考値及び前記輝度成分の隣接参考値を取得した後、前記方法は、
前記色度成分の解像度が前記輝度成分の解像度よりも小さい場合、前記第1色度成分の再構成値及び前記第2色度成分の再構成値をそれぞれアップサンプリングし、前記第1色度成分の処理後の再構成値と前記第2色度成分の処理後の再構成値を取得するステップをさらに含み、
それに応じて、前記第1色度成分の再構成値、前記第1色度成分の隣接参考値及び前記輝度成分の隣接参考値に基づいて予測を行い、前記輝度成分の第1予測値を取得するステップは、
前記第1色度成分の処理後の再構成値、前記第1色度成分の隣接参考値及び前記輝度成分の隣接参考値に基づいて予測を行い、前記輝度成分の第1予測値を取得するステップを含み、
それに応じて、前記第2色度成分の再構成値、前記第2色度成分の隣接参考値及び前記輝度成分の隣接参考値に基づいて予測を行い、前記輝度成分の第2予測値を取得するステップは、
前記第2色度成分の処理後の再構成値、前記第2色度成分の隣接参考値及び前記輝度成分の隣接参考値に基づいて予測を行い、前記輝度成分の第2予測値を取得するステップを含むことを特徴とする
請求項3に記載の方法。 - 前記第1予測値と前記第2予測値に基づいて、前記輝度成分の予測値を決定するステップの前、前記方法は、
前記色度成分の解像度が前記輝度成分の解像度よりも小さい場合、前記第1予測値と前記第2予測値をそれぞれアップサンプリングし、処理後の第1予測値及び処理後の第2予測値を取得するステップをさらに含み、
それに応じて、前記第1予測値と前記第2予測値に基づいて、前記輝度成分の予測値を決定するステップは、
処理後の第1予測値と処理後の第2予測値に基づいて、前記輝度成分の予測値を決定するステップを含むことを特徴とする
請求項3に記載の方法。 - 前記第1予測値と前記第2予測値に基づいて、前記輝度成分の予測値を決定する後に、前記方法は、
前記色度成分の解像度が前記輝度成分の解像度よりも小さい場合、前記輝度成分の予測値をアップサンプリングし、処理後の輝度成分の予測値を取得するステップをさらに含むことを特徴とする
請求項3に記載の方法。 - 色成分予測方法であって、
色成分の復号において、色度成分を復号するステップと、
復号された色度成分に基づいて、輝度成分の予測値を取得するステップと、を含む、色成分予測方法。 - 復号された色度成分に基づいて、輝度成分の予測値を取得するステップは、
前記復号された色度成分内の第1色度成分と前記復号された色度成分内の第2色度成分に基づいて予測を行い、前記輝度成分の予測値を取得するステップを含み、
ここで、前記第1色度成分が青色色度成分である場合、前記第2色度成分は、赤色色度成分であり、前記第1色度成分が赤色色度成分である場合、前記第2色度成分は、青色色度成分であることを特徴とする
請求項11に記載の方法。 - 前記復号された色度成分内の第1色度成分と前記復号された色度成分内の第2色度成分に基づいて予測を行い、前記輝度成分の予測値を取得するステップは、
現在のブロックに対して、前記第1色度成分の再構成値、前記第2色度成分の再構成値、前記第1色度成分の隣接参考値、前記第2色度成分の隣接参考値及び前記輝度成分の隣接参考値を取得するステップと、
前記第1色度成分の再構成値、前記第1色度成分の隣接参考値及び前記輝度成分の隣接参考値に基づいて予測を行い、前記輝度成分の第1予測値を取得するステップと、
前記第2色度成分の再構成値、前記第2色度成分の隣接参考値及び前記輝度成分の隣接参考値に基づいて予測を行い、前記輝度成分の第2予測値を取得するステップと、
前記第1予測値と前記第2予測値に基づいて、前記輝度成分の予測値を決定するステップと、を含むことを特徴とする
請求項12に記載の方法。 - 前記第1色度成分の再構成値、前記第1色度成分の隣接参考値及び前記輝度成分の隣接参考値に基づいて予測を行い、前記輝度成分の第1予測値を取得するステップは、
前記第1色度成分の隣接参考値及び前記輝度成分の隣接参考値に基づいて、予測モデルのパラメータを決定するステップと、
前記第1色度成分の再構成値に基づいて、前記予測モデルを利用して、前記第1予測値を取得するステップと、を含むことを特徴とする
請求項13に記載の方法。 - 前記第2色度成分の再構成値、前記第2色度成分の隣接参考値及び前記輝度成分の隣接参考値に基づいて予測を行い、前記輝度成分の第2予測値を取得するステップは、
前記第2色度成分の隣接参考値及び前記輝度成分の隣接参考値に基づいて、予測モデルのパラメータを決定するステップと、
前記第2色度成分の再構成値に基づいて、前記予測モデルを利用して、前記第2予測値を取得するステップと、を含むことを特徴とする
請求項13に記載の方法。 - 前記第1予測値と前記第2予測値に基づいて、前記輝度成分の予測値を決定するステップは、
前記第1予測値の重み値と前記第2予測値の重み値を取得するステップと、
前記第1予測値の重み値と前記第2予測値の重み値に基づいて、前記第1予測値と前記第2予測値を重み付け加算し、前記輝度成分の予測値を取得するステップと、を含むことを特徴とする
請求項13に記載の方法。 - 前記第1予測値の重み値と前記第2予測値の重み値を取得するステップは、
予め設定された重み値組から1つの重み値組を選択し、前記1つの重み値組内の1つの値を前記第1予測値の重み値として決定し、前記1つの重み値組内の別の値を前記第2予測値の重み値として決定するステップを含むことを特徴とする
請求項16に記載の方法。 - 現在のブロックに対して、前記第1色度成分の再構成値、前記第2色度成分の再構成値、前記第1色度成分の隣接参考値、前記第2色度成分の隣接参考値及び前記輝度成分の隣接参考値を取得した後、前記方法は、
前記色度成分の解像度が前記輝度成分の解像度よりも小さい場合、前記第1色度成分の再構成値と前記第2色度成分の再構成値をそれぞれアップサンプリングし、前記第1色度成分の処理後の再構成値と前記第2色度成分の処理後の再構成値を取得するステップをさらに含み、
それに応じて、前記第1色度成分の再構成値、前記第1色度成分の隣接参考値及び前記輝度成分の隣接参考値に基づいて予測を行い、前記輝度成分の第1予測値を取得するステップは、
前記第1色度成分の処理後の再構成値、前記第1色度成分の隣接参考値及び前記輝度成分の隣接参考値に基づいて予測を行い、前記輝度成分の第1予測値を取得するステップを含み、
それに応じて、前記第2色度成分の再構成値、前記第2色度成分の隣接参考値及び前記輝度成分の隣接参考値に基づいて予測を行い、前記輝度成分の第2予測値を取得するステップは、
前記第2色度成分の処理後の再構成値、前記第2色度成分の隣接参考値及び前記輝度成分の隣接参考値に基づいて予測を行い、前記輝度成分の第2予測値を取得するステップを含むことを特徴とする
請求項13に記載の方法。 - 前記第1予測値と前記第2予測値に基づいて、前記輝度成分の予測値を決定するステップの前、前記方法は、
前記色度成分の解像度が前記輝度成分の解像度よりも小さい場合、前記第1予測値と前記第2予測値をそれぞれアップサンプリングし、処理後の第1予測値及び処理後の第2予測値を取得するステップをさらに含み、
それに応じて、前記第1予測値と前記第2予測値に基づいて、輝度成分の予測値を決定するステップは、
処理後の第1予測値と処理後の第2予測値に基づいて、前記輝度成分の予測値を決定するステップを含むことを特徴とする
請求項13に記載の方法。 - 前記第1予測値と前記第2予測値に基づいて、前記輝度成分の予測値を決定する後に、前記方法は、
前記色度成分の解像度が前記輝度成分の解像度よりも小さい場合、前記輝度成分の予測値をアップサンプリングし、処理後の輝度成分の予測値を取得するステップをさらに含むことを特徴とする
請求項13に記載の方法。 - エンコーダーであって、
色成分の符号化において、色度成分を符号化するように構成される符号化モジュールと、
符号化された色度成分に基づいて、輝度成分の予測値を取得するように構成される第1取得モジュールと、を備える、エンコーダー。 - デコーダーであって、
色成分の復号において、色度成分を復号するように構成される復号モジュールと、
復号された色度成分に基づいて、輝度成分の予測値を取得するように構成される第2取得モジュールと、を備える、デコーダー。 - エンコーダーであって、
プロセッサ、及び前記プロセッサで実行可能な命令を記憶する記憶媒体を備え、前記記憶媒体は、通信バスを介して前記プロセッサに依存する操作を実行し、前記命令が前記プロセッサに実行される場合、上記の請求項1-10のいずれか一項に記載される色成分予測方法を実行する、エンコーダー。 - デコーダーであって、
プロセッサ、及び前記プロセッサで実行可能な命令を記憶する記憶媒体を備え、前記記憶媒体は、通信バスを介して前記プロセッサに依存する操作を実行し、前記命令が前記プロセッサに実行される場合、上記の請求項11-20のいずれか一項に記載の色成分予測方法を実行する、デコーダー。 - コンピュータ可読記憶媒体であって、実行可能な命令が記憶されており、前記実行可能な命令が1つ又は複数のプロセッサに実行される場合、前記プロセッサが前記請求項1-10のいずれか一項に記載される色成分予測方法又は前記請求項11-20のいずれか一項に記載される色成分予測方法を実行する、コンピュータ可読記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962823621P | 2019-03-25 | 2019-03-25 | |
US62/823,621 | 2019-03-25 | ||
PCT/CN2019/124114 WO2020192180A1 (zh) | 2019-03-25 | 2019-12-09 | 图像分量的预测方法、编码器、解码器及计算机存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022528333A true JP2022528333A (ja) | 2022-06-10 |
JPWO2020192180A5 JPWO2020192180A5 (ja) | 2022-11-24 |
Family
ID=72608524
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021556939A Pending JP2022528333A (ja) | 2019-03-25 | 2019-12-09 | 色成分予測方法、エンコーダー、デコーダー及びコンピュータ記憶媒体 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20220007042A1 (ja) |
EP (1) | EP3930329A4 (ja) |
JP (1) | JP2022528333A (ja) |
KR (1) | KR20210141683A (ja) |
CN (2) | CN113412621A (ja) |
WO (1) | WO2020192180A1 (ja) |
Family Cites Families (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5619590A (en) * | 1994-10-06 | 1997-04-08 | Eastman Kodak Company | System for electronic image signal processing to provide a tonescale corrected full resolution luminance and two half resolution chrominance signals |
JP3791922B2 (ja) * | 2002-09-06 | 2006-06-28 | 富士通株式会社 | 動画像復号化装置及び方法 |
CN1859576A (zh) * | 2005-10-11 | 2006-11-08 | 华为技术有限公司 | 对空间分层编码视频图象的上采样方法及其系统 |
CN101335902B (zh) * | 2007-06-25 | 2010-06-02 | 华为技术有限公司 | 视频编解码中的加权预测方法和装置 |
US9693070B2 (en) * | 2011-06-24 | 2017-06-27 | Texas Instruments Incorporated | Luma-based chroma intra-prediction for video coding |
CN103096055B (zh) * | 2011-11-04 | 2016-03-30 | 华为技术有限公司 | 一种图像信号帧内预测及解码的方法和装置 |
EP2805496B1 (en) * | 2012-01-19 | 2016-12-21 | Huawei Technologies Co., Ltd. | Reference pixel reduction for intra lm prediction |
CA2861043C (en) * | 2012-01-19 | 2019-05-21 | Magnum Semiconductor, Inc. | Methods and apparatuses for providing an adaptive reduced resolution update mode |
WO2015009068A1 (ko) * | 2013-07-16 | 2015-01-22 | 삼성전자 주식회사 | 비트 뎁스 및 컬러 포맷의 변환을 동반하는 업샘플링 필터를 이용하는 스케일러블 비디오 부호화 방법 및 장치, 스케일러블 비디오 복호화 방법 및 장치 |
WO2015054307A2 (en) * | 2013-10-07 | 2015-04-16 | Vid Scale, Inc. | Combined scalability processing for multi-layer video coding |
WO2015053112A1 (ja) * | 2013-10-11 | 2015-04-16 | ソニー株式会社 | 復号装置および復号方法、並びに、符号化装置および符号化方法 |
WO2015133712A1 (ko) * | 2014-03-06 | 2015-09-11 | 삼성전자 주식회사 | 영상 복호화 방법 및 그 장치, 영상 부호화 방법 및 그 장치 |
GB201500719D0 (en) * | 2015-01-15 | 2015-03-04 | Barco Nv | Method for chromo reconstruction |
US9854201B2 (en) * | 2015-01-16 | 2017-12-26 | Microsoft Technology Licensing, Llc | Dynamically updating quality to higher chroma sampling rate |
US10321140B2 (en) * | 2015-01-22 | 2019-06-11 | Mediatek Singapore Pte. Ltd. | Method of video coding for chroma components |
US10455249B2 (en) * | 2015-03-20 | 2019-10-22 | Qualcomm Incorporated | Downsampling process for linear model prediction mode |
US20170150156A1 (en) * | 2015-11-25 | 2017-05-25 | Qualcomm Incorporated | Illumination compensation with non-square predictive blocks in video coding |
WO2017139937A1 (en) * | 2016-02-18 | 2017-08-24 | Mediatek Singapore Pte. Ltd. | Advanced linear model prediction for chroma coding |
US10484712B2 (en) * | 2016-06-08 | 2019-11-19 | Qualcomm Incorporated | Implicit coding of reference line index used in intra prediction |
US10326986B2 (en) * | 2016-08-15 | 2019-06-18 | Qualcomm Incorporated | Intra video coding using a decoupled tree structure |
US10419757B2 (en) * | 2016-08-31 | 2019-09-17 | Qualcomm Incorporated | Cross-component filter |
US10652575B2 (en) * | 2016-09-15 | 2020-05-12 | Qualcomm Incorporated | Linear model chroma intra prediction for video coding |
US11025903B2 (en) * | 2017-01-13 | 2021-06-01 | Qualcomm Incorporated | Coding video data using derived chroma mode |
CN109274969B (zh) * | 2017-07-17 | 2020-12-22 | 华为技术有限公司 | 色度预测的方法和设备 |
EP3737093A4 (en) * | 2017-11-28 | 2022-02-09 | Electronics and Telecommunications Research Institute | METHOD AND DEVICE FOR CODING/DECODING IMAGES AND RECORDING MEDIA STORED WITH A BITSTREAM |
GB2571313B (en) * | 2018-02-23 | 2022-09-21 | Canon Kk | New sample sets and new down-sampling schemes for linear component sample prediction |
WO2020009357A1 (ko) * | 2018-07-02 | 2020-01-09 | 엘지전자 주식회사 | Cclm에 기반한 인트라 예측 방법 및 그 장치 |
PL3815377T3 (pl) * | 2018-07-16 | 2023-05-08 | Huawei Technologies Co., Ltd. | Koder wideo, dekoder wideo oraz odpowiednie sposoby kodowania i dekodowania |
BR112021002310A2 (pt) * | 2018-08-09 | 2021-05-04 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | método para prever um componente de coloração de vídeo, aparelho de previsão, e mídia de armazenamento legível por computador |
KR20200028856A (ko) * | 2018-09-07 | 2020-03-17 | 김기백 | 인트라 예측을 이용한 영상 부호화/복호화 방법 및 장치 |
JP7391958B2 (ja) * | 2018-11-08 | 2023-12-05 | オッポ広東移動通信有限公司 | ビデオ信号符号化/復号方法及び前記方法に用いられる機器 |
WO2020140215A1 (zh) * | 2019-01-02 | 2020-07-09 | Oppo广东移动通信有限公司 | 色度帧内预测方法和装置、及计算机存储介质 |
CN115941944A (zh) * | 2019-01-10 | 2023-04-07 | Oppo广东移动通信有限公司 | 图像解码方法、解码器及计算机存储介质 |
JP2022522860A (ja) * | 2019-03-07 | 2022-04-20 | オッポ広東移動通信有限公司 | インループフィルタリングの実現方法、装置及びコンピュータ記憶媒体 |
WO2022106013A1 (en) * | 2020-11-19 | 2022-05-27 | Huawei Technologies Co., Ltd. | Method for chroma subsampled formats handling in machine-learning-based picture coding |
-
2019
- 2019-12-09 KR KR1020217034441A patent/KR20210141683A/ko unknown
- 2019-12-09 EP EP19920890.1A patent/EP3930329A4/en active Pending
- 2019-12-09 CN CN201980091480.8A patent/CN113412621A/zh active Pending
- 2019-12-09 JP JP2021556939A patent/JP2022528333A/ja active Pending
- 2019-12-09 WO PCT/CN2019/124114 patent/WO2020192180A1/zh unknown
- 2019-12-09 CN CN202111093518.0A patent/CN113840144B/zh active Active
-
2021
- 2021-09-16 US US17/477,193 patent/US20220007042A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20220007042A1 (en) | 2022-01-06 |
EP3930329A4 (en) | 2022-07-20 |
CN113840144A (zh) | 2021-12-24 |
EP3930329A1 (en) | 2021-12-29 |
KR20210141683A (ko) | 2021-11-23 |
WO2020192180A1 (zh) | 2020-10-01 |
CN113412621A (zh) | 2021-09-17 |
CN113840144B (zh) | 2023-06-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220014772A1 (en) | Method for picture prediction, encoder, and decoder | |
JP2022500890A (ja) | ビデオ画像成分の予測方法、装置及びコンピュータ記憶媒体 | |
JP2023510666A (ja) | 画像コンポーネント予測方法、エンコーダ、デコーダ及び記憶媒体 | |
US20220239901A1 (en) | Video picture component prediction method and apparatus, and computer storage medium | |
US20220014765A1 (en) | Method for picture prediction, encoder, decoder, and storage medium | |
JP2022522487A (ja) | 画像成分予測方法、エンコーダ、デコーダ及び記憶媒体 | |
JP2022528333A (ja) | 色成分予測方法、エンコーダー、デコーダー及びコンピュータ記憶媒体 | |
CN111901595A (zh) | 一种基于深度神经网络的视频编码方法及装置、介质 | |
CN114830659A (zh) | 变换方法、编码器、解码器以及存储介质 | |
CN112313950A (zh) | 视频图像分量的预测方法、装置及计算机存储介质 | |
RU2805048C2 (ru) | Способ предсказания изображения, кодер и декодер | |
JP7305769B2 (ja) | 予測方向の決定方法、デコーダ及びコンピュータ記憶媒体 | |
WO2024113311A1 (zh) | 编解码方法、编解码器、码流以及存储介质 | |
JP2024095842A (ja) | 画像予測方法、エンコーダー、デコーダー及び記憶媒体 | |
WO2021056224A1 (zh) | 预测值的确定方法、编码器、解码器以及存储介质 | |
CN114830658A (zh) | 变换方法、编码器、解码器以及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221111 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221111 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231225 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240326 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240625 |