JP2022531544A - 平面モードのためのイントラ予測における複雑さ減少のエンコーダ、デコーダ、および対応する方法 - Google Patents
平面モードのためのイントラ予測における複雑さ減少のエンコーダ、デコーダ、および対応する方法 Download PDFInfo
- Publication number
- JP2022531544A JP2022531544A JP2021559591A JP2021559591A JP2022531544A JP 2022531544 A JP2022531544 A JP 2022531544A JP 2021559591 A JP2021559591 A JP 2021559591A JP 2021559591 A JP2021559591 A JP 2021559591A JP 2022531544 A JP2022531544 A JP 2022531544A
- Authority
- JP
- Japan
- Prior art keywords
- ntbw
- block
- ntbh
- value
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 131
- 230000009467 reduction Effects 0.000 title description 2
- 239000000523 sample Substances 0.000 claims description 122
- 238000012545 processing Methods 0.000 claims description 56
- 239000013074 reference sample Substances 0.000 claims description 36
- 238000004364 calculation method Methods 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 4
- 238000013139 quantization Methods 0.000 description 69
- 238000006243 chemical reaction Methods 0.000 description 38
- 230000006854 communication Effects 0.000 description 37
- 238000004891 communication Methods 0.000 description 37
- 230000009466 transformation Effects 0.000 description 35
- 230000008569 process Effects 0.000 description 29
- 239000013598 vector Substances 0.000 description 23
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 22
- 230000006870 function Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 16
- 230000005540 biological transmission Effects 0.000 description 15
- 230000000295 complement effect Effects 0.000 description 10
- 238000001914 filtration Methods 0.000 description 10
- 238000005192 partition Methods 0.000 description 10
- 238000000638 solvent extraction Methods 0.000 description 10
- 238000003491 array Methods 0.000 description 8
- 230000006835 compression Effects 0.000 description 8
- 238000007906 compression Methods 0.000 description 8
- 241000023320 Luma <angiosperm> Species 0.000 description 6
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 6
- 238000007781 pre-processing Methods 0.000 description 6
- 230000002441 reversible effect Effects 0.000 description 6
- 230000003044 adaptive effect Effects 0.000 description 5
- 238000013500 data storage Methods 0.000 description 5
- 238000012805 post-processing Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 101150039623 Clip1 gene Proteins 0.000 description 2
- 230000002146 bilateral effect Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000009795 derivation Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000007620 mathematical function Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000011664 signaling Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000009966 trimming Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- VBRBNWWNRIMAII-WYMLVPIESA-N 3-[(e)-5-(4-ethylphenoxy)-3-methylpent-3-enyl]-2,2-dimethyloxirane Chemical compound C1=CC(CC)=CC=C1OC\C=C(/C)CCC1C(C)(C)O1 VBRBNWWNRIMAII-WYMLVPIESA-N 0.000 description 1
- 101150114515 CTBS gene Proteins 0.000 description 1
- 206010011878 Deafness Diseases 0.000 description 1
- 238000012952 Resampling Methods 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000007175 bidirectional communication Effects 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000002408 directed self-assembly Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/107—Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/117—Filters, e.g. for pre-processing or post-processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/119—Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/12—Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
- H04N19/122—Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/42—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
- H04N19/82—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/85—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Discrete Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
Description
この特許出願は、2019年9月23日に出願されたPCT出願番号PCT/EP2019/075519の優先権を主張する。上述の特許出願の開示は、その全体が参照によりここに組み込まれる。
図2は、本出願の技法を実現するように構成される例示のビデオエンコーダ20の概略ブロック図を表す。図2の例では、ビデオエンコーダ20は、入力201(または入力インターフェース201)、残差計算ユニット204、変換処理ユニット206、量子化ユニット208、逆量子化ユニット210、および逆変換処理ユニット212、再構成ユニット214、ループフィルタユニット220、デコードされたピクチャバッファ(decoded picture buffer(DPB))230、モード選択ユニット260、エントロピーエンコードユニット270、および出力272(または出力インターフェース272)を備える。モード選択ユニット260は、インター予測ユニット244、イントラ予測ユニット254、および区分ユニット262を含んでよい。インター予測ユニット244は、動き推定ユニットおよび動き補償ユニット(表されていない)を含んでよい。図2に表されたようなビデオエンコーダ20は、ハイブリッドビデオエンコーダ、またはハイブリッドビデオコーデックによるビデオエンコーダとも呼ばれ得る。
エンコーダ20は、ピクチャ17(またはピクチャデータ17)、例えば、ビデオまたはビデオシーケンスを形成するピクチャのシーケンスのピクチャを、例えば、入力201を介して受信するように構成され得る。受信されるピクチャまたはピクチャデータはまた、前処理されたピクチャ19(または前処理されたピクチャデータ19)であってよい。簡潔さの目的のために、以下の説明はピクチャ17に言及する。ピクチャ17は、現在のピクチャ、または(同じビデオシーケンス、すなわち、やはり現在のピクチャを備えるビデオシーケンスの他のピクチャ、例えば、前にエンコードされ、かつ/またはデコードされたピクチャから現在のピクチャを区別するために、特にビデオコーディングにおいて)コーディングされるべきピクチャとも呼ばれ得る。
残差計算ユニット204は、例えば、サンプルごとに(ピクセルごとに)ピクチャブロック203のサンプル値から予測ブロック265のサンプル値を減算することによって、ピクチャブロック203および予測ブロック265(予測ブロック265についてのさらなる詳細は後で提供される)に基づいて残差ブロック205(残差205とも呼ばれる)を計算して、サンプル領域における残差ブロック205を取得するように構成され得る。
変換処理ユニット206は、残差ブロック205のサンプル値において変換、例えば、離散コサイン変換(discrete cosine transform(DCT))または離散サイン変換(discrete sine transform(DST))を適用して、変換領域における変換係数207を取得するように構成され得る。変換係数207は、変換残差係数とも呼ばれ、変換領域における残差ブロック205を表現してよい。
量子化ユニット208は、例えば、スカラー量子化またはベクトル量子化を適用することによって、変換係数207を量子化して量子化された係数209を取得するように構成され得る。量子化された係数209は、量子化された変換係数209または量子化された残差係数209とも呼ばれ得る。
逆量子化ユニット210は、例えば、量子化ユニット208と同じ量子化ステップサイズに基づいて、またはそれを使用して、量子化ユニット208によって適用される量子化方式の逆を適用することによって、量子化された係数において量子化ユニット208の逆量子化を適用して量子化解除された係数211を取得するように構成される。量子化解除された係数211は、量子化解除された残差係数211とも呼ばれ、量子化による損失に起因して典型的には変換係数と同一でないが、変換係数207に対応し得る。
逆変換処理ユニット212は、変換処理ユニット206によって適用される変換の逆変換、例えば、逆離散コサイン変換(DCT)または逆離散サイン変換(DST)、または他の逆変換を適用して、サンプル領域における再構成された残差ブロック213(または、対応する量子化解除された係数213)を取得するように構成される。再構成された残差ブロック213は、変換ブロック213とも呼ばれ得る。
再構成ユニット214(例えば、加算器または合算器214)は、例えば、再構成された残差ブロック213のサンプル値と予測ブロック265のサンプル値を、サンプルごとに、加算することによって、変換ブロック213(すなわち、再構成された残差ブロック213)を予測ブロック265に加算してサンプル領域における再構成されたブロック215を取得するように構成される。
ループフィルタユニット220(または、短縮して「ループフィルタ」220)は、再構成されたブロック215をフィルタ処理してフィルタ処理されたブロック221を取得するように、または一般に、再構成されたサンプルをフィルタ処理してフィルタ処理されたサンプルを取得するように構成される。ループフィルタユニットは、例えば、ピクセル遷移を平滑化し、またはそうでなくビデオ品質を改善するように構成される。ループフィルタユニット220は、デブロッキングフィルタ、サンプル適応オフセット(Sample-Adaptive Offset(SAO))フィルタ、または1つまたは複数の他のフィルタ、例えば、バイラテラルフィルタ、適応ループフィルタ(Adaptive Loop Filter(ALF))、鮮鋭化、平滑化フィルタ、または協調フィルタ、またはそれらの任意の組み合わせのような1つまたは複数のループフィルタを備えてよい。ループフィルタユニット220はループ内フィルタであるとして図2に表されているが、他の構成では、ループフィルタユニット220は、ポストループフィルタとして実現されてよい。フィルタ処理されたブロック221は、フィルタ処理された再構成されたブロック221とも呼ばれ得る。
デコードされたピクチャバッファ(DPB)230は、ビデオエンコーダ20によってビデオデータをエンコードするための、参照ピクチャまたは一般に参照ピクチャデータを記憶するメモリであってよい。DPB 230は、同期DRAM(synchronous DRAM(SDRAM))を含むダイナミックランダムアクセスメモリ(dynamic random access memory(DRAM))、磁気抵抗RAM(magnetoresistive RAM(MRAM))、抵抗性RAM(resistive RAM(RRAM(登録商標)))、または他のタイプのメモリデバイスのような、様々なメモリデバイスのうちのいずれかによって形成され得る。デコードされたピクチャバッファ(DPB)230は、1つまたは複数のフィルタ処理されたブロック221を記憶するように構成され得る。デコードされたピクチャバッファ230は、以前にフィルタ処理された他のブロック、例えば、同じ現在のピクチャの、または異なるピクチャの、以前に再構成され、フィルタ処理されたブロック221、例えば、以前に再構成されたピクチャを記憶するようにさらに構成されてよく、例えば、インター予測のために、以前に再構成され、すなわちデコードされた完全なピクチャ(および、対応する参照ブロックおよびサンプル)、および/または部分的に再構成された現在のピクチャ(および、対応する参照ブロックおよびサンプル)を提供し得る。例えば、再構成されたブロック215が、ループフィルタユニット220によってフィルタ処理されていない、または再構成されたブロックまたはサンプルのさらに処理された任意の他のバージョンであるならば、デコードされたピクチャバッファ(DPB)230はまた、1つまたは複数のフィルタ処理されていない再構成されたブロック215、または一般に、フィルタ処理されていない再構成されたサンプルを記憶するように構成されてもよい。
モード選択ユニット260は、区分ユニット262、インター予測ユニット244、およびイントラ予測ユニット254を備え、元のピクチャデータ、例えば、元のブロック203(現在のピクチャ17の現在のブロック203)、および同じ(現在の)ピクチャの、かつ/または1つまたは複数の以前にデコードされたピクチャからの、例えば、デコードされたピクチャバッファ230または他のバッファ(例えば、表されていないラインバッファ)からの、再構成されたピクチャデータ、例えば、フィルタ処理された、および/またはフィルタ処理されていない再構成されたサンプルまたはブロックを受信または取得するように構成される。再構成されたピクチャデータは、予測ブロック265または予測子265を取得するために、予測、例えば、インター予測またはイントラ予測のための参照ピクチャデータとして使用される。
区分ユニット262は、現在のブロック203をより小さい区分、例えば、正方形または長方形のサイズのより小さいブロックに、区分(または分割)し得る。これらのより小さいブロック(サブブロックとも呼ばれ得る)は、いっそう小さい区分にさらに区分され得る。これは、ツリー区分または階層的ツリー区分とも呼ばれ、例えば、ルートツリーレベル0(階層レベル0、深度0)におけるルートブロックは、再帰的に区分され、例えば、次に低いツリーレベルの2つ以上のブロック、例えば、ツリーレベル1(階層レベル1、深度1)におけるノードに区分されてよく、これらのブロックは再び、例えば、終了基準が充足され、例えば、最大ツリー深度または最小ブロックサイズが到達されたので区分が終了されるまで、次に低いレベル、例えば、ツリーレベル2(階層レベル2、深度2)などの2つ以上のブロックに区分されてよい。さらに区分されないブロックは、ツリーのリーフブロックまたはリーフノードとも呼ばれる。2つの区分への区分を使用するツリーは2分木(Binary-Tree(BT))と呼ばれ、3つの区分への区分を使用するツリーは3分木(Ternary-Tree(TT))と呼ばれ、4つの区分への区分を使用するツリーは4分木(Quad-Tree(QT))と呼ばれる。
イントラ予測モードのセットは、例えば、HEVCにおいて定義されるように、35個の異なるイントラ予測モード、例えば、DC(または平均)モードおよび平面モードのような無方向性モード、または方向性モードを備えてよく、または、例えば、VVCについて定義されるように、67個の異なるイントラ予測モード、例えば、DC(または平均)モードおよび平面モードのような無方向性モード、または方向性モードを備えてよい。
インター予測モードのセット(または可能なインター予測モード)は、利用可能な参照ピクチャ(すなわち、例えば、DBP 230に記憶されている、少なくとも部分的にデコードされた以前のピクチャ)、および他のインター予測パラメータ、例えば、最も良く整合する参照ブロックを探索するために参照ピクチャ全体が使用されるか、または参照ピクチャの一部のみ、例えば、現在のブロックのエリアの周囲の探索ウィンドウエリアが使用されるか、および/または、例えば、ピクセル補間、例えば、ハーフ/セミペルおよび/またはクォーターペル補間が適用されるか否かに依存する。
エントロピーエンコードユニット270は、量子化された係数209、インター予測パラメータ、イントラ予測パラメータ、ループフィルタパラメータ、および/または他のシンタックス要素において、例えば、エントロピーエンコードアルゴリズムまたは方式(例えば、可変長コーディング(variable length coding(VLC))方式、コンテキスト適応VLC方式(context adaptive VLC scheme(CAVLC))、算術コーディング方式、2値化、コンテキスト適応バイナリ算術コーディング(context adaptive binary arithmetic coding(CABAC))、シンタックスベースのコンテキスト適応バイナリ算術コーディング(syntax-based context-adaptive binary arithmetic coding(SBAC))、確率区間区分エントロピー(probability interval partitioning entropy(PIPE))コーディング、または別のエントロピーエンコード方法論または技法)、またはバイパス(圧縮なし)を適用して、例えば、エンコードされたビットストリーム21の形式で、出力272を介して出力されることが可能であるエンコードされたピクチャデータ21を取得するように構成され、それによって、例えば、ビデオデコーダ30は、デコードのためにパラメータを受信および使用し得る。エンコードされたビットストリーム21は、ビデオデコーダ30へ伝送され、またはビデオデコーダ30による後の伝送または取り出しのためにメモリに記憶され得る。
図3は、この本出願の技法を実現するように構成されるビデオデコーダ30の一例を表す。ビデオデコーダ30は、例えば、エンコーダ20によってエンコードされた、エンコードされたピクチャデータ21(例えば、エンコードされたビットストリーム21)を受信して、デコードされたピクチャ331を取得するように構成される。エンコードされたピクチャデータまたはビットストリームは、エンコードされたピクチャデータをデコードするための情報、例えば、エンコードされたビデオスライス(および/または、タイルグループまたはタイル)のピクチャブロックを表現するデータ、および関連付けられたシンタックス要素を備える。
エントロピーデコードユニット304は、ビットストリーム21(または一般にエンコードされたピクチャデータ21)を構文解析し、例えば、エンコードされたピクチャデータ21へのエントロピーデコードを実行して、例えば、量子化された係数309および/またはデコードされたコーディングパラメータ(図3に表されていない)、例えば、インター予測パラメータ(例えば、参照ピクチャインデックスおよび動きベクトル)、イントラ予測パラメータ(例えば、イントラ予測モードまたはインデックス)、変換パラメータ、量子化パラメータ、ループフィルタパラメータ、および/または他のシンタックス要素のうちのいずれかまたは全てを取得するように構成される。エントロピーデコードユニット304は、エンコーダ20のエントロピーエンコードユニット270に関して説明されたようなエンコード方式に対応するデコードアルゴリズムまたは方式を適用するように構成され得る。エントロピーデコードユニット304は、モード適用ユニット360にインター予測パラメータ、イントラ予測パラメータ、および/または他のシンタックス要素を、デコーダ30の他のユニットに他のパラメータを提供するようにさらに構成され得る。ビデオデコーダ30は、ビデオスライスレベルおよび/またはビデオブロックレベルにおいてシンタックス要素を受信し得る。スライスおよびそれぞれのシンタックス要素に加えて、またはそれらの代替として、タイルグループおよび/またはタイルおよびそれぞれのシンタックス要素が受信および/または使用され得る。
逆量子化ユニット310は、(例えば、エントロピーデコードユニット304によって、例えば、構文解析および/またはデコードすることによって)エンコードされたピクチャデータ21から量子化パラメータ(quantization parameter(QP))(または一般に逆量子化に関する情報)および量子化された係数を受信し、量子化パラメータに基づいて、デコードされた量子化された係数309において逆量子化を適用して、変換係数311とも呼ばれ得る量子化解除された係数311を取得するように構成され得る。逆量子化プロセスは、量子化の程度、および同様に、適用されるべき逆量子化の程度を決定するために、ビデオスライス(またはタイルまたはタイルグループ)の中のビデオブロックごとにビデオエンコーダ20によって決定された量子化パラメータの使用を含んでよい。
逆変換処理ユニット312は、変換係数311とも呼ばれる量子化解除された係数311を受信し、サンプル領域において再構成された残差ブロック213を取得するために量子化解除された係数311に変換を適用するように構成され得る。再構成された残差ブロック213は、変換ブロック313とも呼ばれ得る。変換は、逆変換、例えば、逆DCT、逆DST、逆整数変換、または概念的に類似の逆変換プロセスであってよい。逆変換処理ユニット312は、量子化解除された係数311に適用されるべき変換を決定するために、(例えば、エントロピーデコードユニット304によって、例えば、構文解析および/またはデコードすることによって)エンコードされたピクチャデータ21から変換パラメータまたは対応する情報を受信するようにさらに構成され得る。
再構成ユニット314(例えば、加算器または合算器314)は、例えば、再構成された残差ブロック313のサンプル値と予測ブロック365のサンプル値とを加算することによって、予測ブロック365に再構成された残差ブロック313を加算して、サンプル領域において再構成されたブロック315を取得するように構成され得る。
(コーディングループ内またはコーディングループの後のいずれかの)ループフィルタユニット320は、例えば、ピクセル遷移を平滑化し、またはビデオ品質をそうでなく改善するために、再構成されたブロック315をフィルタ処理してフィルタ処理されたブロック321を取得するように構成される。ループフィルタユニット320は、デブロッキングフィルタ、サンプル適応オフセット(sample-adaptive offset(SAO))フィルタ、または1つまたは複数の他のフィルタ、例えば、バイラテラルフィルタ、適応ループフィルタ(adaptive loop filter(ALF))、鮮鋭化、平滑化フィルタ、または協調フィルタ、またはそれらの任意の組み合わせのような1つまたは複数のループフィルタを備えてよい。ループフィルタユニット320はループ内フィルタであるとして図3に表されているが、他の構成では、ループフィルタユニット320はポストループフィルタとして実現されてもよい。
ピクチャのデコードされたビデオブロック321は、次いで、他のピクチャについての後続の動き補償のために、かつ/または出力されるそれぞれ表示のために、参照ピクチャとしてデコードされたピクチャ331を記憶するデコードされたピクチャバッファ330に記憶される。
インター予測ユニット344は、インター予測ユニット244と(特に動き補償ユニットと)同一であってよく、イントラ予測ユニット354は、機能においてインター予測ユニット254と同一であってよく、区分および/または予測パラメータ、またはエンコードされたピクチャデータ21から(例えば、エントロピーデコードユニット304によって、例えば、構文解析および/またはデコードすることによって)受信されたそれぞれの情報に基づいて、分割または区分決定および予測を実行する。モード適用ユニット360は、(フィルタ処理された、またはフィルタ処理されていない)再構成されたピクチャ、ブロック、またはそれぞれのサンプルに基づいて、ブロックごとに予測(イントラまたはインター予測)を実行して、予測ブロック365を取得するように構成され得る。
ux = ( mvx + 2bitDepth ) % 2bitDepth (1)
mvx = ( ux >= 2bitDepth-1 ) ? ( ux - 2bitDepth ) : ux (2)
uy = ( mvy + 2bitDepth ) % 2bitDepth (3)
mvy = ( uy >= 2bitDepth-1 ) ? ( uy - 2bitDepth ) : uy (4)
ここで、mvxは画像ブロックまたはサブブロックの動きベクトルの水平成分であり、mvyは画像ブロックまたはサブブロックの動きベクトルの垂直成分であり、uxおよびuyは中間値を示す。
ux = ( mvpx + mvdx +2bitDepth ) % 2bitDepth (5)
mvx = ( ux >= 2bitDepth-1 ) ? ( ux - 2bitDepth ) : ux (6)
uy = ( mvpy + mvdy +2bitDepth ) % 2bitDepth (7)
mvy = ( uy >= 2bitDepth-1 ) ? ( uy - 2bitDepth ) : uy (8)
vx = Clip3(-2bitDepth-1, 2bitDepth-1 -1, vx)
vy = Clip3(-2bitDepth-1, 2bitDepth-1 -1, vy)
ここで、vxは画像ブロックまたはサブブロックの動きベクトルの水平成分であり、vyは画像ブロックまたはサブブロックの動きベクトルの垂直成分であり、x、y、およびzはそれぞれ、MVクリッピングプロセスの3つの入力値に対応し、関数Clip3の定義は以下の通りである。
自然のビデオにおいて提示される任意のエッジ方向をキャプチャするために、VTM6における方向性イントラモードの数は、HEVCにおいて使用されるような33個から65個に拡張される。平面およびDCモードは同じままである。具体的には、すべてのイントラ予測モードの値が表8-1において定義される。
ITU-T SG 16 WP 3とISO/IEC JTC 1/SC 29/WG 11との共同ビデオエキスパートチーム(Joint Video Experts Team, JVET)の多用途ビデオコーディング(ドラフト6)という文書(http://phenix.it-sudparis.eu/jvet/の下で入手可能、文書番号JVET-O2001-vE)のVVC仕様書において定義されるような、参照サンプルフィルタ処理プロセスの後、参照サンプルは準備ができている。これらの参照サンプルを用いて、(イントラ予測されたサンプルと呼ばれることもあり得る)イントラ予測サンプルが生成されることが可能である。現在のブロックのイントラモードが平面またはDCモードであるならば、対応するイントラ予測プロセスが定義される。イントラ予測モードが角度である(すなわち、平面でもDCでもない)ならば、角度モードを用いた予測がアクティブ化される。
このプロセスへの入力は、
- 変換ブロック幅を指定する変数nTbW、
- 変換ブロック高さを指定する変数nTbH、
- x = -1、y = -1..nTbHおよびx = 0..nTbW、y = -1である隣接サンプルp[ x ][ y ]である。
nW = Max( nTbW, 2 ) (8-135)
nH = Max( nTbH, 2 ) (8-136)
predV[ x ][ y ] = ( ( nH - 1 - y ) * p[ x ][ -1 ] + ( y + 1 ) * p[ -1 ][ nTbH ] ) << Log2 ( nW ) (8-137)
predH[ x ][ y ] = ( ( nW - 1 - x ) * p[ -1 ][ y ] + ( x + 1 ) * p[ nTbW ][ -1 ] ) << Log2 ( nH ) (8-138)
predSamples[ x ][ y ] = ( predV[ x ][ y ] + predH[ x ][ y ] + nW * nH ) >> (Log2 ( nW ) + Log2 ( nH ) + 1 ) (8-139)
・p[-1][y]は、対応する左の列の参照サンプルを表現する。
・p[nTbW][-1]は、対応する右の列の参照サンプルを表現する。右の列の参照サンプルが同じでありp[nTbW][-1]を用いてパディングされることを留意されたい。p[nTbW][-1]は、右の参照サンプル列と上の参照サンプル行との交差において位置付けられるサンプルである。
・p[x][-1]は、対応する上の行の参照サンプルを表現する。
・p[-1][nTbH]は、対応する下の行の参照サンプルを表現する。下の行の参照サンプルが同じでありp[-1][nTbH]を用いてパディングされることを留意されたい。p[-1][nTbH]は、下の参照サンプル行と左の参照サンプル列との交差において位置付けられるサンプルである。
predV[ x ][ y ] = (( y + 1 ) * p[ -1 ][ nTbH ] ) << Log2 ( nW ) (8-137')
predH[ x ][ y ] = ( ( nW - 1 - x ) * p[ -1 ][ y ] + ( x + 1 ) * p[ nTbW ][ -1 ] ) (8-138')
predSamples[ x ][ y ] = ( predV[ x ][ y ] + predH[ x ][ y ] + nW ) >> (Log2 ( nW ) +1 ) (8-139')
このプロセスへの入力は、
- ブロック幅を指定する変数nTbW、
- ブロック高さを指定する変数nTbH、
- x = -1、y = -1..nTbHおよびx = 0..nTbW、y = -1である隣接サンプルp[ x ][ y ]である。
nW = Max( nTbW, 2 ) (8-135)
nH = Max( nTbH, 2 ) (8-136)
predV[ x ][ y ] = (( y + 1 ) * p[ -1 ][ nTbH ] ) << Log2 ( nW ) (8-137')
predH[ x ][ y ] = ( ( nW - 1 - x ) * p[ -1 ][ y ] + ( x + 1 ) * p[ nTbW ][ -1 ] ) (8-138')
predSamples[ x ][ y ] = ( predV[ x ][ y ] + predH[ x ][ y ] + nW ) >> (Log2 ( nW ) +1 ) (8-139')
そうでなければ(nTbHが1に等しくない)、
predV[ x ][ y ] = ( ( nH - 1 - y ) * p[ x ][ -1 ] + ( y + 1 ) * p[ -1 ][ nTbH ] ) << Log2 ( nW ) (8-137)
predH[ x ][ y ] = ( ( nW - 1 - x ) * p[ -1 ][ y ] + ( x + 1 ) * p[ nTbW ][ -1 ] ) << Log2 ( nH ) (8-138)
predSamples[ x ][ y ] = ( predV[ x ][ y ] + predH[ x ][ y ] + nW * nH ) >> (Log2 ( nW ) + Log2 ( nH ) + 1 ) (8-139)
- ブロック幅を指定する変数nTbW、
- ブロック高さを指定する変数nTbH、
- x = -1、y = -1..nTbHおよびx = 0..nTbW、y = -1である隣接サンプルp[ x ][ y ]である。
predV[ x ][ y ] = ( ( nTbH - 1 - y ) * p[ x ][ -1 ] + ( y + 1 ) * p[ -1 ][ nTbH ] ) << Log2 ( nTbW ) (8-137'')
predH[ x ][ y ] = ( ( nTbW - 1 - x ) * p[ -1 ][ y ] + ( x + 1 ) * p[ nTbW ][ -1 ] ) << Log2 ( nTbH ) (8-138'')
predSamples[ x ][ y ] = ( predV[ x ][ y ] + predH[ x ][ y ] + nTbW * nTbH ) >> (Log2 ( nTbW ) + Log2 ( nTbH ) + 1 ) (8-139'')
predSamples[ x ][ y ] = ( predV[ x ][ y ] + predH[ x ][ y ] + nTbW * nTbH ) >> (Log2 ( nTbW ) + Log2 ( nTbH ) + 1 )として計算される。
predV[ x ][ y ] = ( ( y + 1 ) * p[ -1 ][ nTbH ] ) << Log2 ( nTbW )、
predH[ x ][ y ] = ( ( nTbW - 1 - x ) * p[ -1 ][ y ] + ( x + 1 ) * p[ nTbW ][ -1 ] )によって計算するように構成された計算ユニット(902)。
predV[ x ][ y ] = ( ( nTbH - 1 - y ) * p[ x ][ -1 ] + ( y + 1 ) * p[ -1 ][ nTbH ] )、
predH[ x ][ y ] = ( ( x + 1 ) * p[ nTbW ][ -1 ] ) << Log2 ( nTbH )によって計算するように構成された計算ユニット(902)。
predSamples[ x ][ y ] = ( predV[ x ][ y ] + predH[ x ][ y ] + nTbW * nTbH ) >> (Log2 ( nTbW ) + Log2 ( nTbH ) + 1 )によって生成するように構成された予測ユニット(903)。
predV[ x ][ y ] = (( y + 1 ) * p[ -1 ][ nTbH ] ) << Log2 ( nW )によって計算され、
x = 0..nTbW - 1、y = 0..nTbH - 1であり、nTbHが予測ブロックまたは変換ブロックの高さを表現し、nTbWが予測ブロックまたは変換ブロックの幅を表現し、nWが、予測ブロックの幅にクリッピングを適用した後のクリッピングされた値を表現する、実施形態1の方法。
predH[ x ][ y ] = ( ( nW - 1 - x ) * p[ -1 ][ y ] + ( x + 1 ) * p[ nTbW ][ -1 ] )によって計算され、
x = 0..nTbW - 1、y = 0..nTbH - 1であり、nTbHが予測ブロックまたは変換ブロックの高さを表現し、nTbWが予測ブロックまたは変換ブロックの幅を表現し、nWが、予測ブロックの幅にクリッピングを適用した後のクリッピングされた値を表現する、実施形態1または2の方法。
predSamples[ x ][ y ] = ( predV[ x ][ y ] + predH[ x ][ y ] + nW ) >> (Log2 ( nW ) +1 )によって生成される、いずれか1つの実施形態1~3の方法。
predV[ x ][ y ] = ( ( nTbH - 1 - y ) * p[ x ][ -1 ] + ( y + 1 ) * p[ -1 ][ nTbH ] ) << Log2 ( nTbW )によって計算され、
x = 0..nTbW - 1、y = 0..nTbH - 1であり、nTbHが予測ブロックまたは変換ブロックの高さを表現し、nTbWが予測ブロックまたは変換ブロックの幅を表現する、実施形態6の方法。
predH[ x ][ y ] = ( ( nTbW - 1 - x ) * p[ -1 ][ y ] + ( x + 1 ) * p[ nTbW ][ -1 ] ) << Log2 ( nTbH )によって計算され、
x = 0..nTbW - 1、y = 0..nTbH - 1であり、nTbHが予測ブロックまたは変換ブロックの高さを表現し、nTbWが予測ブロックまたは変換ブロックの幅を表現する、実施形態6または7の方法。
predSamples[ x ][ y ] = ( predV[ x ][ y ] + predH[ x ][ y ] + nTbW * nTbH ) >> (Log2 ( nTbW ) + Log2 ( nTbH ) + 1 )によって生成される、いずれか1つの実施形態6~8の方法。
この出願において使用される数学演算子は、Cプログラミング言語において使用されるものと類似である。しかし、整数除算および算術シフト演算の結果がより精密に定義され、べき乗および実数値除算のような追加の演算が定義される。番号付けおよび計数の規約は、一般に、0から始まり、例えば、「第1」が0番目と等価であり、「第2」が1番目と等価である、などである。
以下の算術演算子は以下のように定義される。
+ 加算。
- 減算(2つの引数の演算子として)または符号反転(単項前置演算子として)。
* 乗算、行列乗算を含む。
xy べき乗。xのy乗を指定する。他の文脈では、そのような表記法は、べき乗としての解釈のために意図されない上付き文字にするために使用される。
/ 結果の0への切り捨てを伴う整数除算。例えば、7/4および-7/-4は1に切り捨てられ、-7/4および7/-4は-1に切り捨てられる。
÷ 切り捨てまたは丸めが意図されない、数式における除算を表記するために使用される。
x % y 法。x>=0かつy>0となる整数xおよびyのみについて定義される、xをyで除算した剰余。
以下の論理演算子は以下のように定義される。
x && y xとyのブール論理の「論理積」。
x || y xとyのブール論理の「論理和」。
! ブール論理の「否定」。
x ? y : z xがTRUE、すなわち0に等しくないならば、yの値に評価し、そうでなければ、zの値に評価する。
以下の関係演算子は以下のように定義される。
> よりも大きい。
>= 以上。
< よりも小さい。
<= 以下。
== 等しい。
!= 等しくない。
以下のビット単位演算子は以下のように定義される。
& ビット単位の「論理積」。整数の引数に対して演算するとき、整数値の2の補数表現に対して演算する。別の引数よりも少ないビットを含む2進数の引数に対して演算するとき、より短い引数は、0に等しいより上位のビットを追加することによって拡張される。
| ビット単位の「論理和」。整数の引数に対して演算するとき、整数値の2の補数表現に対して演算する。別の引数よりも少ないビットを含む2進数の引数に対して演算するとき、より短い引数は、0に等しいより上位のビットを追加することによって拡張される。
^ ビット単位の「排他的論理和」。整数の引数に対して演算するとき、整数値の2の補数表現に対して演算する。別の引数よりも少ないビットを含む2進数の引数に対して演算するとき、より短い引数は、0に等しいより上位のビットを追加することによって拡張される。
x >> y xの2の補数整数表現の、2進数のy桁だけの算術右シフト。この関数は、yの非負の整数値に対してのみ定義される。右シフトの結果として最上位ビット(most significant bit(MSB))にシフトされるビットは、そのシフト演算の前のxのMSBに等しい値を有する。
x << y xの2の補数整数表現の、2進数のy桁だけの算術左シフト。この関数は、yの非負の整数値に対してのみ定義される。左シフトの結果として最下位ビット(least significant bit(LSB))にシフトされるビットは、0に等しい値を有する。
以下の算術演算子は以下のように定義される。
= 割当て演算子。
++ インクリメント、すなわち、x++はx = x + 1と等価であり、アレイインデックスにおいて使用されるとき、インクリメント演算の前の変数の値に評価する。
-- デクリメント、すなわち、x--はx = x - 1と等価であり、アレイインデックスにおいて使用されるとき、デクリメント演算の前の変数の値に評価する。
+= 指定された量だけのインクリメント、すなわち、x += 3はx = x + 3と等価でありx += (-3)はx = x + (-3)と等価である。
-= 指定された量だけのデクリメント、すなわち、x -= 3はx = x - 3と等価であり、x -= (-3)はx = x - (-3)と等価である。
値の範囲を指定するために以下の表記法が使用される。
x=y..z xは、yから始まりzまでの全てを含む整数値をとり、x、y、およびzは整数であり、zはyよりも大きい。
以下の数学関数が定義される。
Atan(x) 引数xに対して演算し、ラジアンの単位での-π÷2からπ÷2の全てを含む範囲内の出力値を有する、三角法の逆正接関数。
Clip1Y( x ) = Clip3( 0, ( 1 << BitDepthY ) - 1, x )
Clip1C( x ) = Clip3( 0, ( 1 << BitDepthC ) - 1, x )
Floor(x) x以下の最大の整数。
Log2(x) 2を底とするxの対数。
Log10(x) 10を底とするxの対数。
Tan(x) ラジアンの単位での引数xに対して演算する、三角法の正接関数。
式における優先順位の順序が括弧の使用によって明示的には示されないとき、以下の規則が適用される。
- より高い優先順位の演算は、より低い優先順位の任意の演算の前に評価される。
- 同じ優先順位の演算は、左から右へ順次に評価される。
本文の中で、以下の形式で数学的に記述されることになるような論理演算のステートメント、すなわち、
if(条件0)
ステートメント0
else if(条件1)
ステートメント1
...
else /* 残りの条件における説明的な注釈 */
ステートメントn
は、以下の形態で説明され得る。
...以下のように/...以下が適用される
- 条件0ならば、ステートメント0
- そうでなく、条件1ならば、ステートメント1
- ...
- そうでなければ(残りの条件における説明的な注釈)、ステートメントn
if(条件0a && 条件0b)
ステートメント0
else if(条件1a || 条件1b)
ステートメント1
...
else
ステートメントn
は、以下の形態で説明され得る。
...以下のように/...以下が適用される
- 以下の条件の全てが真であるならば、ステートメント0:
- 条件0a
- 条件0b
- そうでなく、以下の条件のうちの1つまたは複数が真であるならば、ステートメント1:
- 条件1a
- 条件1b
- ...
- そうでなければ、ステートメントn
if(条件0)
ステートメント0
if(条件1)
ステートメント1
は、以下の形態で説明され得る。
条件0のとき、ステートメント0
条件1のとき、ステートメント1
12 ソースデバイス
13 通信チャネル
14 宛先デバイス
16 ピクチャソース
17 ピクチャ、ピクチャデータ、未処理ピクチャ、未処理ピクチャデータ
18 プリプロセッサ、前処理ユニット
19 前処理されたピクチャ、前処理されたピクチャデータ
20 ビデオエンコーダ
21 エンコードされたピクチャデータ
22 通信インターフェース、通信ユニット
28 通信インターフェース、通信ユニット
30 ビデオデコーダ
31 デコードされたピクチャ、デコードされたピクチャデータ
32 ポストプロセッサ、後処理ユニット
33 後処理されたピクチャ、後処理されたピクチャデータ
34 ディスプレイデバイス
46 処理回路
201 入力、入力インターフェース
203 ピクチャブロック
204 残差計算ユニット
205 残差ブロック、残差
206 変換処理ユニット
207 変換係数
208 量子化ユニット
209 量子化された係数、量子化された変換係数、量子化された残差係数
210 逆量子化ユニット
211 逆量子化された係数、逆量子化された残差係数
212 逆変換処理ユニット
213 再構成された残差ブロック、対応する逆量子化された係数、変換ブロック
214 再構成ユニット
215 再構成されたブロック
220 ループフィルタユニット
221 フィルタ処理されたブロック、フィルタ処理された再構成されたブロック
230 デコードされたピクチャバッファ
231 デコードされたピクチャ
244 インター予測ユニット
254 イントラ予測ユニット
260 モード選択ユニット
262 区分ユニット
265 予測ブロック、予測子
266 シンタックス要素
270 エントロピーエンコードユニット
272 出力、出力インターフェース
304 エントロピーデコードユニット
309 量子化された係数
310 逆量子化ユニット
311 変換係数、逆量子化された係数
312 逆変換処理ユニット
313 再構成された残差ブロック、変換ブロック
314 再構成ユニット
315 再構成されたブロック
320 ループフィルタユニット
321 フィルタ処理されたブロック
330 デコードされたピクチャバッファ
331 デコードされたピクチャ
344 インター予測ユニット
354 イントラ予測ユニット
360 モード適用ユニット
365 予測ブロック
400 ビデオコーディングデバイス
410 入口ポート、入力ポート
420 受信機ユニット
430 プロセッサ、論理ユニット、中央処理ユニット
440 送信機ユニット
450 出口ポート、出力ポート
460 メモリ
470 コーディングモジュール
500 装置
502 プロセッサ
504 メモリ
506 コードおよびデータ
508 オペレーティングシステム
510 アプリケーションプログラム
512 バス
514 2次記憶装置
518 ディスプレイ
900 デバイス
901 決定ユニット
902 計算ユニット
903 予測ユニット
904 パディングユニット
3100 コンテンツ供給システム
3102 キャプチャデバイス
3104 通信リンク
3106 端末デバイス
3108 スマートフォン/パッド
3110 コンピュータ/ラップトップ
3112 ネットワークビデオレコーダ/デジタルビデオレコーダ
3114 TV
3116 セットトップボックス
3118 ビデオ会議システム
3120 ビデオ監視システム
3122 携帯情報端末
3124 車両搭載型デバイス
3126 ディスプレイ
3202 プロトコル進行ユニット
3204 逆多重化ユニット
3206 ビデオデコーダ
3208 オーディオデコーダ
3210 サブタイトルデコーダ
3212 同期ユニット
3214 ビデオ/オーディオディスプレイ
3216 ビデオ/オーディオ/サブタイトルディスプレイ
インター予測モードのセット(または可能なインター予測モード)は、利用可能な参照ピクチャ(すなわち、例えば、DPB 230に記憶されている、少なくとも部分的にデコードされた以前のピクチャ)、および他のインター予測パラメータ、例えば、最も良く整合する参照ブロックを探索するために参照ピクチャ全体が使用されるか、または参照ピクチャの一部のみ、例えば、現在のブロックのエリアの周囲の探索ウィンドウエリアが使用されるか、および/または、例えば、ピクセル補間、例えば、ハーフ/セミペルおよび/またはクォーターペル補間が適用されるか否かに依存する。
predSamples[ x ][ y ] = ( predV[ x ][ y ] + predH[ x ][ y ] + nW ) >> (Log2 ( nW ) +1 )によって生成される、実施形態1~3のいずれか1つの方法。
predSamples[ x ][ y ] = ( predV[ x ][ y ] + predH[ x ][ y ] + nTbW * nTbH ) >> (Log2 ( nTbW ) + Log2 ( nTbH ) + 1 )によって生成される、実施形態6~8のいずれか1つの方法。
Claims (26)
- ピクチャにおけるイントラ平面予測の方法であって、
前記ピクチャのブロック内に含まれるイントラ予測サンプルの垂直成分の値を計算するステップであって、前記垂直成分の値predV[ x ][ y ]が、predV[ x ][ y ] = ( ( nTbH - 1 - y ) * p[ x ][ -1 ] + ( y + 1 ) * p[ -1 ][ nTbH ] ) << Log2 ( nTbW )である、ステップと、
前記イントラ予測サンプルの水平成分の値を計算するステップであって、前記水平成分の値predH[ x ][ y ]が、
predH[ x ][ y ] = ( ( nTbW - 1 - x ) * p[ -1 ][ y ] + ( x + 1 ) * p[ nTbW ][ -1 ] ) << Log2 ( nTbH )である、ステップと、
前記垂直成分の値および前記水平成分の値に基づいて前記イントラ予測サンプルpredSamples[ x ][ y ]を生成するステップとを備え、
nTbHが前記ブロックの高さを表現し、nTbWが前記ブロックの幅を表現し、p[ x ][ y ]が、x=-1、y=-1..nTbHおよびx=0..nTbW、y=-1である隣接サンプルを表現する、方法。 - 前記イントラ予測サンプルpredSamples[ x ][ y ]が、
predSamples[ x ][ y ] = ( predV[ x ][ y ] + predH[ x ][ y ] + nTbW * nTbH ) >> (Log2 ( nTbW ) + Log2 ( nTbH ) + 1 )である、請求項1に記載の方法。 - 前記ブロックの下の参照サンプル行がp[ -1 ][ nTbH ]によってパディングされる、請求項1または2に記載の方法。
- 前記ブロックの右の参照サンプル列がp[ nTbW ][ -1 ]によってパディングされる、請求項1または2に記載の方法。
- 前記ブロックの高さが1に等しいとき、
predV[ x ][ y ] = (( y + 1 ) * p[ -1 ][ nTbH ] ) << Log2 ( nTbW )、
predH[ x ][ y ] = ( ( nTbW - 1 - x ) * p[ -1 ][ y ] + ( x + 1 ) * p[ nTbW ][ -1 ] )、
predSamples[ x ][ y ] = ( predV[ x ][ y ] + predH[ x ][ y ] + nTbW ) >> (Log2 ( nTbW ) +1 )である、請求項1から3に記載の方法。 - ブロックの高さが1に等しいイントラ平面予測の方法であって、
イントラ予測サンプルの垂直成分の値を計算するステップであって、前記垂直成分の値predV[ x ][ y ]が、predV[ x ][ y ] = (( y + 1 ) * p[ -1 ][ nTbH ] ) << Log2 ( nTbW )である、ステップと、
前記イントラ予測サンプルの水平成分の値を計算するステップであって、前記水平成分の値predH[ x ][ y ]が、predH[ x ][ y ] = ( ( nTbW - 1 - x ) * p[ -1 ][ y ] + ( x + 1 ) * p[ nTbW ][ -1 ] )である、ステップと、
前記垂直成分の値および前記水平成分の値に基づいて前記イントラ予測サンプルを生成するステップとを備え、
nTbHが前記ブロックの高さを表現し、nTbWが前記ブロックの幅を表現し、p[ x ][ y ]が、x = -1、y = -1..nTbHおよびx = 0..nTbW、y = -1である隣接サンプルを表現する、方法。 - 前記イントラ予測サンプルが、
predSamples[ x ][ y ] = ( predV[ x ][ y ] + predH[ x ][ y ] + nTbW ) >> (Log2 ( nTbW ) +1 )によって計算される、請求項6に記載の方法。 - 前記予測ブロックの下の参照サンプル行がp[ -1 ][ nTbH ]によってパディングされる、請求項6または7に記載の方法。
- デコードデバイスによって実現されるコーディングの方法であって、
クリッピング演算を適用することなく現在のブロックの高さおよび幅を取得するステップと、
前記予測ブロックの高さおよび幅に基づいてイントラ予測サンプルの垂直成分の値を計算するステップと、
前記予測ブロックの高さおよび幅に基づいて前記イントラ予測サンプルの水平成分の値を計算するステップと、
前記垂直成分の値および前記水平成分の値に基づいて前記イントラ予測サンプルを生成するステップとを備える方法。 - 前記垂直成分の値predV[ x ][ y ]が、
predV[ x ][ y ] = ( ( nTbH - 1 - y ) * p[ x ][ -1 ] + ( y + 1 ) * p[ -1 ][ nTbH ] ) << Log2 ( nTbW )によって計算され、
predV[ x ][ y ]が、x = 0..nTbW - 1、y = 0..nTbH - 1である前記垂直成分の値を表現し、nTbHが前記現在のブロックの高さを表現し、nTbWが前記現在のブロックの幅を表現する、請求項9に記載の方法。 - 前記水平成分の値predH[ x ][ y ]が、
predH[ x ][ y ] = ( ( nTbW - 1 - x ) * p[ -1 ][ y ] + ( x + 1 ) * p[ nTbW ][ -1 ] ) << Log2 ( nTbH )によって計算され、
x = 0..nTbW - 1、y = 0..nTbH - 1であり、nTbHが前記現在のブロックの高さを表現し、nTbWが前記現在のブロックの幅を表現する、請求項9または10に記載の方法。 - 前記イントラ予測サンプルpredSamples[ x ][ y ]が、
predSamples[ x ][ y ] = ( predV[ x ][ y ] + predH[ x ][ y ] + nTbW * nTbH ) >> (Log2 ( nTbW ) + Log2 ( nTbH ) + 1 )によって生成される、いずれか一項の請求項9から11に記載の方法。 - 前記予測ブロックの下の参照サンプル行がp[ -1 ][ nTbH ]によってパディングされる、請求項9から12のいずれか一項に記載の方法。
- 前記予測ブロックの幅が、クリッピング演算nW = Max( nTbW, 2 )を適用することなく取得される、請求項9から13のいずれか一項に記載の方法。
- 前記予測ブロックの高さが、クリッピング演算nH = Max( nTbH, 2 )を適用することなく取得される、請求項9から14のいずれか一項に記載の方法。
- 請求項1から15のいずれか一項に記載の方法を実行するための処理回路を備えるエンコーダ(20)。
- 請求項1から15のいずれか一項に記載の方法を実行するための処理回路を備えるデコーダ(30)。
- 請求項1から15のいずれか一項に記載の方法を実行するためのプログラムコードを備えるコンピュータプログラム製品。
- デコーダであって、
1つまたは複数のプロセッサと、
前記プロセッサに結合され、前記プロセッサによる実行のためのプログラミングを記憶する非一時的コンピュータ可読記憶媒体とを備え、前記プログラミングが、前記プロセッサによって実行されたとき、請求項1から15のいずれか一項に記載の方法を実行するように前記デコーダを構成する、デコーダ。 - エンコーダであって、
1つまたは複数のプロセッサと、
前記プロセッサに結合され、前記プロセッサによる実行のためのプログラミングを記憶する非一時的コンピュータ可読記憶媒体とを備え、前記プログラミングが、前記プロセッサによって実行されたとき、請求項1から15のいずれか一項に記載の方法を実行するように前記エンコーダを構成する、エンコーダ。 - ピクチャにおけるイントラ平面予測のデバイスであって、
前記ピクチャのブロック内に含まれるイントラ予測サンプルの垂直成分の値を計算し、前記イントラ予測サンプルの水平成分の値を計算するように構成された計算ユニット(902)であって、前記垂直成分の値predV[ x ][ y ]が、predV[ x ][ y ] = ( ( nTbH - 1 - y ) * p[ x ][ -1 ] + ( y + 1 ) * p[ -1 ][ nTbH ] ) << Log2 ( nTbW )であり、前記水平成分の値predH[ x ][ y ]が、predH[ x ][ y ] = ( ( nTbW - 1 - x ) * p[ -1 ][ y ] + ( x + 1 ) * p[ nTbW ][ -1 ] ) << Log2 ( nTbH )であり、nTbHが前記ブロックの高さを表現し、nTbWが前記ブロックの幅を表現し、p[ x ][ y ]が、x = -1、y = -1..nTbHおよびx = 0..nTbW、y = -1である隣接サンプルを表現する、計算ユニット(902)と、
前記垂直成分の値および前記水平成分の値に基づいて前記イントラ予測サンプルを生成するように構成された予測ユニット(903)とを備えるデバイス。 - 前記イントラ予測サンプルを、
predSamples[ x ][ y ] = ( predV[ x ][ y ] + predH[ x ][ y ] + nTbW * nTbH ) >> (Log2 ( nTbW ) + Log2 ( nTbH ) + 1 )によって生成するように構成された前記予測ユニット(903)である、請求項21に記載のデバイス。 - 前記デバイスが、パディングユニット(904)をさらに備え、p[ nTbW ][ -1 ]によって前記ブロックの左の参照サンプル列をパディングするか、またはp[ -1 ][ nTbH ]によって前記ブロックの下の参照サンプル行をパディングするように構成された前記パディングユニット(904)である、請求項21または22に記載のデバイス。
- 前記予測ブロックの高さが1に等しいとき、前記垂直成分の値および前記水平成分の値を、
predV[ x ][ y ] = (( y + 1 ) * p[ -1 ][ nTbH ] ) << Log2 ( nTbW )、
predH[ x ][ y ] = ( ( nTbW - 1 - x ) * p[ -1 ][ y ] + ( x + 1 ) * p[ nTbW ][ -1 ] )によって計算するように構成された前記計算ユニット(902)である、請求項21から23のいずれか一項に記載のデバイス。 - 前記予測ブロックの幅が1に等しいとき、前記垂直成分の値および前記水平成分の値を、
predV[ x ][ y ] = ( ( nTbH - 1 - y ) * p[ x ][ -1 ] + ( y + 1 ) * p[ -1 ][ nTbH ] )、
predH[ x ][ y ] = ( ( x + 1 ) * p[ nTbW ][ -1 ] ) << Log2 ( nTbH )によって計算するように構成された前記計算ユニット(902)である、請求項21から23のいずれか一項に記載のデバイス。 - 前記デバイスが、デコーダまたはエンコーダである、請求項21から25のいずれか一項に記載のデバイス。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP2019075519 | 2019-09-23 | ||
EPPCT/EP2019/075519 | 2019-09-23 | ||
PCT/CN2020/116968 WO2021057755A1 (en) | 2019-09-23 | 2020-09-23 | An encoder, a decoder and corresponding methods of complexity reduction on intra prediction for the planar mode |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022531544A true JP2022531544A (ja) | 2022-07-07 |
Family
ID=75166737
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021559591A Pending JP2022531544A (ja) | 2019-09-23 | 2020-09-23 | 平面モードのためのイントラ予測における複雑さ減少のエンコーダ、デコーダ、および対応する方法 |
Country Status (14)
Country | Link |
---|---|
US (2) | US11616980B2 (ja) |
EP (2) | EP3932064B1 (ja) |
JP (1) | JP2022531544A (ja) |
KR (1) | KR20210129180A (ja) |
CN (2) | CN114402606A (ja) |
AU (1) | AU2020352269A1 (ja) |
BR (1) | BR112022005441A2 (ja) |
CA (1) | CA3155442A1 (ja) |
ES (1) | ES2946487T3 (ja) |
HU (1) | HUE062044T2 (ja) |
MX (1) | MX2021012982A (ja) |
PL (1) | PL3932064T3 (ja) |
PT (1) | PT3932064T (ja) |
WO (1) | WO2021057755A1 (ja) |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102595120A (zh) * | 2011-01-14 | 2012-07-18 | 华为技术有限公司 | 一种空域预测编码方法、解码方法、装置和系统 |
US9516306B2 (en) * | 2013-03-27 | 2016-12-06 | Qualcomm Incorporated | Depth coding modes signaling of depth data for 3D-HEVC |
EP3273695A4 (en) * | 2015-05-12 | 2018-07-18 | Samsung Electronics Co., Ltd. | Image decoding method for performing intra prediction and device thereof, and image encoding method for performing intra prediction and device thereof |
EP3244617A1 (en) * | 2016-05-13 | 2017-11-15 | Thomson Licensing | A method and device for deblocking filtering a boundary within an intra predicted block |
CN116634145A (zh) * | 2016-08-08 | 2023-08-22 | Lg电子株式会社 | 视频解码方法、视频信号编码方法及其介质 |
AU2017397390B2 (en) * | 2017-01-31 | 2022-07-14 | FG Innovation Company Limited | Systems and methods for scaling transform coefficient level values |
US11509889B2 (en) * | 2018-06-27 | 2022-11-22 | Kt Corporation | Method and apparatus for processing video signal |
US10284844B1 (en) * | 2018-07-02 | 2019-05-07 | Tencent America LLC | Method and apparatus for video coding |
KR102634068B1 (ko) * | 2018-08-24 | 2024-02-05 | 지티이 코포레이션 | 시각 미디어 인코딩 및 디코딩을 위한 평면 예측 모드 |
-
2020
- 2020-09-23 EP EP20867909.2A patent/EP3932064B1/en active Active
- 2020-09-23 EP EP23167944.0A patent/EP4236313A3/en active Pending
- 2020-09-23 ES ES20867909T patent/ES2946487T3/es active Active
- 2020-09-23 KR KR1020217030655A patent/KR20210129180A/ko active Search and Examination
- 2020-09-23 HU HUE20867909A patent/HUE062044T2/hu unknown
- 2020-09-23 MX MX2021012982A patent/MX2021012982A/es unknown
- 2020-09-23 AU AU2020352269A patent/AU2020352269A1/en active Pending
- 2020-09-23 CA CA3155442A patent/CA3155442A1/en active Pending
- 2020-09-23 BR BR112022005441A patent/BR112022005441A2/pt unknown
- 2020-09-23 JP JP2021559591A patent/JP2022531544A/ja active Pending
- 2020-09-23 CN CN202080062927.1A patent/CN114402606A/zh active Pending
- 2020-09-23 PT PT208679092T patent/PT3932064T/pt unknown
- 2020-09-23 PL PL20867909.2T patent/PL3932064T3/pl unknown
- 2020-09-23 WO PCT/CN2020/116968 patent/WO2021057755A1/en unknown
- 2020-09-23 CN CN202210368844.6A patent/CN114900702B/zh active Active
-
2021
- 2021-09-17 US US17/478,621 patent/US11616980B2/en active Active
-
2022
- 2022-06-27 US US17/850,123 patent/US20220337870A1/en active Pending
Non-Patent Citations (5)
Title |
---|
BENJAMIN BROSS, ET AL.: "Versatile Video Coding (Draft 6)", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JVET-O2001-vD, JPN6022054187, 13 July 2019 (2019-07-13), pages 62 - 66, ISSN: 0004951093 * |
BROSS, BENJAMIN ET AL.: "Versatile Video Coding (Draft 3)", JVET-L1001 (VERSION 13), JPN6023029701, 8 January 2019 (2019-01-08), pages 87, ISSN: 0005111854 * |
DE-LUXAN-HERNANDEZ, SANTIAGO ET AL.: "CE3: Intra Sub-Partitions Coding Mode (Tests 1.1.1 and 1.1.2)", JVET-M0102 (VERSION 7), JPN6023029699, 17 January 2019 (2019-01-17), pages 1 - 9, XP030202391, ISSN: 0005111856 * |
SARWER, MOHAMMED GOLAM ET AL.: "CE3.2.5: Generation of Right-Column and Bottom-Row Predictors for Planar Mode", JVET-L0084 (VERSION 2), JPN6023029700, 2 October 2018 (2018-10-02), pages 1 - 4, ISSN: 0005111855 * |
TSUNG-CHUAN MA, ET AL.: "Non-CE3: Intra Sub-Partitions Coding without Thin Partitions", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JVET-N0330, JPN6022054186, 23 March 2019 (2019-03-23), ISSN: 0004951094 * |
Also Published As
Publication number | Publication date |
---|---|
ES2946487T3 (es) | 2023-07-19 |
CN114900702A (zh) | 2022-08-12 |
CA3155442A1 (en) | 2021-04-01 |
US20220014784A1 (en) | 2022-01-13 |
WO2021057755A1 (en) | 2021-04-01 |
EP4236313A3 (en) | 2023-09-13 |
AU2020352269A1 (en) | 2022-04-14 |
EP3932064A4 (en) | 2022-08-10 |
MX2021012982A (es) | 2021-12-10 |
EP3932064A1 (en) | 2022-01-05 |
BR112022005441A2 (pt) | 2022-10-11 |
EP4236313A2 (en) | 2023-08-30 |
CN114402606A (zh) | 2022-04-26 |
PT3932064T (pt) | 2023-06-05 |
US20220337870A1 (en) | 2022-10-20 |
HUE062044T2 (hu) | 2023-09-28 |
US11616980B2 (en) | 2023-03-28 |
KR20210129180A (ko) | 2021-10-27 |
PL3932064T3 (pl) | 2023-07-17 |
EP3932064B1 (en) | 2023-05-03 |
CN114900702B (zh) | 2023-04-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7401556B2 (ja) | イントラ予測のためのエンコーダ、デコーダおよび対応する方法 | |
JP2021533644A (ja) | ルーマおよびクロマ成分についてibc専用バッファおよびデフォルト値リフレッシュを使用するエンコーダ、デコーダおよび対応する方法 | |
JP2022529763A (ja) | エンコーダ、デコーダ、および対応するイントラ予測方法 | |
US11388422B2 (en) | Encoder, a decoder and corresponding methods related to intra prediction mode | |
JP2022529030A (ja) | 行列ベースのイントラ予測と二次変換コア選択を調和させるエンコーダ、デコーダ、および対応する方法 | |
JP7391991B2 (ja) | イントラ平滑化のための方法および装置 | |
JP7372465B2 (ja) | シーケンスパラメータセット内でのサブピクチャのシグナリングのためのエンコーダ、デコーダ、および対応する方法 | |
JP7436646B2 (ja) | ピクチャヘッダのシグナリングを簡略化するためのエンコーダ、デコーダ及び対応する方法 | |
KR20210129729A (ko) | 인트라-예측을 위한 방법 및 장치 | |
JP7397878B2 (ja) | イントラ・サブ・パーティション・コーディング・モードのための方法及び装置 | |
KR20220032625A (ko) | 크로마 인트라 모드 도출 인코더, 디코더 및 대응하는 방법 | |
KR20210094057A (ko) | 비디오 코딩에서 크로마 인트라 예측을 위한 방법 및 장치 | |
KR20210145824A (ko) | 제산 없는 인트라 예측을 위한 방법 및 장치 | |
WO2021025597A1 (en) | Method and apparatus of sample adaptive offset in-loop filter with application region size constraint | |
US11616980B2 (en) | Encoder, a decoder and corresponding methods of complexity reduction on intra prediction for the planar mode | |
RU2803063C2 (ru) | Кодер, декодер и соответствующие способы, которые используются для процесса преобразования | |
RU2817389C2 (ru) | Кодер, декодер и соответствующие способы получения внутрикадрового режима цветности |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211029 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211029 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221223 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230322 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230724 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231023 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240122 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240521 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20240528 |