JP7286832B2 - 符号化装置および復号装置 - Google Patents
符号化装置および復号装置 Download PDFInfo
- Publication number
- JP7286832B2 JP7286832B2 JP2022045242A JP2022045242A JP7286832B2 JP 7286832 B2 JP7286832 B2 JP 7286832B2 JP 2022045242 A JP2022045242 A JP 2022045242A JP 2022045242 A JP2022045242 A JP 2022045242A JP 7286832 B2 JP7286832 B2 JP 7286832B2
- Authority
- JP
- Japan
- Prior art keywords
- block
- prediction
- samples
- picture
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000015654 memory Effects 0.000 claims description 89
- 230000033001 locomotion Effects 0.000 description 394
- 238000000034 method Methods 0.000 description 377
- 238000012545 processing Methods 0.000 description 239
- 230000008569 process Effects 0.000 description 217
- 239000013598 vector Substances 0.000 description 213
- 238000010586 diagram Methods 0.000 description 67
- 230000006870 function Effects 0.000 description 57
- 238000013139 quantization Methods 0.000 description 53
- 230000004048 modification Effects 0.000 description 26
- 238000012986 modification Methods 0.000 description 26
- 238000012937 correction Methods 0.000 description 16
- 238000001514 detection method Methods 0.000 description 16
- 238000006243 chemical reaction Methods 0.000 description 14
- 230000009466 transformation Effects 0.000 description 14
- 238000011156 evaluation Methods 0.000 description 13
- 230000001131 transforming effect Effects 0.000 description 13
- 230000005236 sound signal Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 11
- 238000005192 partition Methods 0.000 description 9
- 238000000638 solvent extraction Methods 0.000 description 9
- 230000002123 temporal effect Effects 0.000 description 9
- 230000000694 effects Effects 0.000 description 8
- 230000004044 response Effects 0.000 description 8
- 230000011664 signaling Effects 0.000 description 8
- 230000003044 adaptive effect Effects 0.000 description 7
- 230000008901 benefit Effects 0.000 description 7
- 238000009795 derivation Methods 0.000 description 7
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 238000003702 image correction Methods 0.000 description 5
- 230000002093 peripheral effect Effects 0.000 description 5
- 230000002146 bilateral effect Effects 0.000 description 4
- 230000006835 compression Effects 0.000 description 4
- 238000007906 compression Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 241000023320 Luma <angiosperm> Species 0.000 description 3
- 101100537098 Mus musculus Alyref gene Proteins 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 101150095908 apex1 gene Proteins 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 229910003460 diamond Inorganic materials 0.000 description 3
- 239000010432 diamond Substances 0.000 description 3
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical group COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000001934 delay Effects 0.000 description 2
- 238000012217 deletion Methods 0.000 description 2
- 230000037430 deletion Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000002156 mixing Methods 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/587—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/14—Coding unit complexity, e.g. amount of activity or edge presence estimation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/523—Motion estimation or motion compensation with sub-pixel accuracy
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/563—Motion estimation with padding, i.e. with filling of non-object values in an arbitrarily shaped picture block or region for estimation purposes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/573—Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Television Signal Processing For Recording (AREA)
Description
本開示は、ビデオコーディングに関し、特に、参照フレームに基づいてカレントフレームを予測するインター予測機能を行う、動画像符号化および復号システム、構成要素、ならびに方法に関する。
HEVC(High-Efficiency Video Coding)として知られるビデオコーディング規格は、JCT-VC(Joint Collaborative Team on Video Coding)によって標準化されてきた。
ビデオコーディング技術は、H.261およびMPEG-1から、H.264/AVC(Advanced Video Coding)、MPEG-LA、H.265/HEVC(High Efficiency Video Coding)、およびH.266/VVC(Versatile Video Codec)へ進歩している。この進歩に伴い、様々な用途において増え続けるデジタルビデオデータ量を処理するために、ビデオコーディング技術の改良および最適化を提供することが常に必要とされている。本開示は、ビデオコーディング、特に、参照フレームに基づくカレントフレームの予測を構築するインター予測機能における、さらなる進歩、改良、および最適化に関する。
符号化復号技術における処理負荷の削減および圧縮効率のさらなる改善に対して需要がある。
したがって、本開示は、処理負荷の削減および圧縮効率のさらなる改善を実現できる符号化装置、復号装置、符号化方法、および復号方法を提供する。
本開示の一態様は、インター予測を用いてピクチャ内の処理対象ブロックを符号化する符号化装置であって、当該符号化装置はプロセッサとメモリとを備え、当該プロセッサは、当該メモリを用いて、2つの参照ピクチャそれぞれに対応する動きベクトルを用いて動き補償を行うことにより2つの参照ピクチャから2つの予測画像を取得するステップと、2つの参照ピクチャから2つの予測画像に対応する2つの勾配画像を取得するステップと、対象ブロックを分割したサブブロックにおける2つの勾配画像と2つの予測画像とを用いてローカル動き検出値を導出するステップと、サブブロックのローカル動き検出値と2つの勾配画像と2つの予測画像とを用いて対象ブロックの最終予測画像を生成するステップとを行う。
本開示の別の態様によると、回路と、前記回路に接続されたメモリとを備えた画像符号化装置が提供される。当該回路は、動作において、別のピクチャからの動きベクトルを用いた予測処理を少なくとも含むステップであって、ピクチャのカレントブロックに対する予測サンプルの第1ブロックを予測するステップと、予測サンプルの前記第1ブロックをパディングして、前記第1ブロックよりも大きい予測サンプルの第2ブロックを形成するステップと、予測サンプルの前記第2ブロックを用いて、少なくとも勾配を算出するステップと、少なくとも前記算出した勾配を用いて、前記カレントブロックを符号化するステップとを行う。
本開示の別の態様によると、回路と、前記回路に接続されたメモリとを備えた画像符号化装置が提供される。当該回路は、動作において、別のピクチャからの動きベクトルを用いた予測処理を少なくとも含むステップであって、ピクチャのカレントブロックに対する予測サンプルの第1ブロックを予測するステップと、予測サンプルの前記第1ブロックをパディングして、前記第1ブロックよりも大きい予測サンプルの第2ブロックを形成するステップと、予測サンプルの前記第2ブロックを用いて補間処理を行うステップと、少なくとも前記補間処理の結果生じたブロックを用いて前記カレントブロックを符号化するステップとを行う。
本開示の別の態様によると、回路と、前記回路に接続されたメモリとを備えた画像符号化装置が提供される。当該回路は、動作において、別のピクチャからの動きベクトルを用いた予測処理を少なくとも含むステップであって、ピクチャのカレントブロックに対する予測サンプルの第1ブロックを予測するステップと、前記カレントブロックに隣接する、予測サンプルの第2ブロックをパディングして、予測サンプルの第3ブロックを形成するステップと、少なくとも予測サンプルの前記第1ブロックと前記第3ブロックとを用いてOBMC処理を行うステップと、少なくとも前記OBMC処理の結果生じたブロックを用いて、前記カレントブロックを符号化するステップとを行う。
本開示の別の態様によると、回路と、前記回路に接続されたメモリとを備えた画像符号化装置が提供される。当該回路は、動作において、別のピクチャからの第1動きベクトルを用いた予測処理を少なくとも含むステップであって、ピクチャのカレントブロックに対する予測サンプルの第1ブロックを予測するステップと、少なくとも前記第1動きベクトルを用いて、dynamic motion vector refreshing(DMVR)処理により前記カレントブロックに対する第2動きベクトルを導出するステップと、前記第2動きベクトルを用いて前記カレントブロックに対し、パディング処理を含む補間処理を行うステップと、少なくとも前記補間処理の結果生じたブロックを用いて、前記カレントブロックを符号化するステップとを行う。
本開示の別の態様によると、回路と、前記回路に接続されたメモリとを備えた画像復号装置が提供される。当該回路は、動作において、別のピクチャからの動きベクトルを用いた予測処理を少なくとも含むステップであって、ピクチャのカレントブロックに対する予測サンプルの第1ブロックを予測するステップと、予測サンプルの前記第1ブロックをパディングして、前記第1ブロックよりも大きい予測サンプルの第2ブロックを形成するステップと、予測サンプルの前記第2ブロックを用いて、少なくとも勾配を算出するステップと、少なくとも前記算出した勾配を用いて、前記カレントブロックを復号するステップとを行う。
本開示の別の態様によると、回路と、前記回路に接続されたメモリとを備えた画像復号装置が提供される。当該回路は、動作において、別のピクチャからの動きベクトルを用いた予測処理を少なくとも含むステップであって、ピクチャのカレントブロックに対する予測サンプルの第1ブロックを予測するステップと、予測サンプルの前記第1ブロックをパディングして、前記第1ブロックよりも大きい予測サンプルの第2ブロックを形成するステップと、予測サンプルの前記第2ブロックを用いて補間処理を行うステップと、少なくとも前記補間処理の結果生じたブロックを用いて前記カレントブロックを復号するステップとを行う。
本開示の別の態様によると、回路と、前記回路に接続されたメモリとを備えた画像復号装置が提供される。当該回路は、動作において、別のピクチャからの動きベクトルを用いた予測処理を少なくとも含むステップであって、ピクチャのカレントブロックに対する予測サンプルの第1ブロックを予測するステップと、前記カレントブロックに隣接する、予測サンプルの第2ブロックをパディングして、予測サンプルの第3ブロックを形成するステップと、少なくとも予測サンプルの前記第1ブロックと前記第3ブロックとを用いてOBMC処理を行うステップと、少なくとも前記OBMC処理の結果生じたブロックを用いて、前記カレントブロックを復号するステップとを行う。
本開示の別の態様によると、回路と、前記回路に接続されたメモリとを備えた画像復号装置が提供される。当該回路は、動作において、別のピクチャからの第1動きベクトルを用いた予測処理を少なくとも含むステップであって、ピクチャのカレントブロックに対する予測サンプルの第1ブロックを予測するステップと、少なくとも前記第1動きベクトルを用いて、dynamic motion vector refreshing(DMVR)処理により前記カレントブロックに対する第2動きベクトルを導出するステップと、前記第2動きベクトルを用いて前記カレントブロックに対し、パディング処理を含む補間処理を行うステップと、少なくとも前記補間処理の結果生じたブロックを用いて、前記カレントブロックを復号するステップとを行う。
本開示の別の態様によると、画像符号化方法が提供される。当該画像符号化方法は、ここで説明されるような本開示の様々な態様に係るステップを行う画像符号化装置を有効にする。
本開示の別の態様によると、画像復号方法が提供される。当該画像復号方法は、ここで説明されるような本開示の様々な態様に係るステップを行う画像復号装置を有効にする。
これら包括的かつ具体的な実施の形態は、システム、方法、集積回路、コンピュータプログラム、または、コンピュータ読み取り可能なCD-ROMなどの媒体を用いて実現されてもよいし、システム、方法、集積回路、コンピュータプログラム、および、媒体の組み合わせによって実現されてもよい。
本開示は、処理負荷の削減および圧縮効率のさらなる改善を実現できる符号化装置、復号装置、符号化方法、および復号方法を提供できる。
本開示の実施形態のいくつかの実施例により、符号化効率を改善し、符号化/復号処理を簡素化し、符号化/復号処理速度を加速し、適切なフィルタ、ブロックサイズ、動きベクトル、参照ピクチャ、参照ブロックなどの符号化および復号において用いられる適切なコンポーネント/動作を効率よく選択することができる。
開示された実施の形態のさらなる利益および利点は、明細書および図面から明らかになる。利益および/または利点は、様々な実施の形態ならびに明細書および図面の特徴によって個々に得られてもよく、このような利益および/または利点を1以上得るために、様々な実施の形態ならびに明細書および図面の特徴を全て設ける必要はない。
なお、包括的または具体的な実施の形態は、システム、方法、集積回路、コンピュータプログラム、記憶媒体、または、それら任意の組み合わせとして実装されてもよい。
図面において、同一の参照符号は、同様の構成要素を示す。図面における構成要素のサイズおよび相対位置は、必ずしもスケール通りには図示されていない。
図1は、実施の形態に係る符号化装置の機能構成を示すブロック図である。
図2は、ブロック分割の一例を示す図である。
図3は、各変換タイプに対応する変換基底関数を示す表である。
図4Aは、ALF(アダプティブループフィルタ)で用いられるフィルタの形状の一例を示す図である。
図4Bは、ALFで用いられるフィルタの形状の他の一例を示す図である。
図4Cは、ALFで用いられるフィルタの形状の他の一例を示す図である。
図5Aは、イントラ予測における67個のイントラ予測モードを示す図である。
図5Bは、OBMC(overlapped block motion compensation)処理による予測画像補正処理の概要を説明するためのフローチャートである。
図5Cは、OBMC処理による予測画像補正処理の概要を説明するための概念図である。
図5Dは、FRUC(frame rate up-conversion)の一例を示す図である。
図6は、動き軌道に沿う2つのブロック間でのパターンマッチング(バイラテラルマッチング)を説明するための図である。
図7は、カレントピクチャ内のテンプレートと参照ピクチャ内のブロックとの間でのパターンマッチング(テンプレートマッチング)を説明するための図である。
図8は、等速直線運動を仮定したモデルを説明するための図である。
図9Aは、複数の隣接ブロックの動きベクトルに基づくサブブロック単位の動きベクトルの導出を説明するための図である。
図9Bは、マージモードによる動きベクトル導出処理の概要を説明するための図である。
図9Cは、DMVR(dynamic motion vector refreshing)処理の概要を説明するための概念図である。
図9Dは、LIC(local illumination compensation)処理による輝度補正処理を用いた予測画像生成方法の概要を説明するための図である。
図10は、実施の形態に係る復号装置の機能構成を示すブロック図である。
図11は、他の実施の形態に係るインター予測処理を示すフローチャートである。
図12は、図11に示した実施の形態に係るインター予測を説明するために用いられる概念図である。
図13は、図11に示した実施の形態に係る勾配フィルタおよび動き補償フィルタの参照範囲の例を説明するために用いられる概念図である。
図14は、図11に示した実施の形態の変形例1に係る動き補償フィルタの参照範囲の例を説明するために用いられる概念図である。
図15は、図11に示した実施の形態の変形例1に係る勾配フィルタの参照範囲の例を説明するために用いられる概念図である。
図16は、図11に示した実施の形態の変形例2に係るローカル動き検出値を導出することにより参照される画素パターンの例を示す図である。
図17は、インター予測機能を用いて、別のピクチャの参照ブロックに基づきピクチャのカレントブロックの予測を生成する画像符号化/復号方法の一例を示すフローチャートである。
図18Aは、ピクチャおよび別のピクチャのピクチャオーダーカウントの例を示す概念図である。図18Aにおいて、ピクチャは、カレントピクチャとされてもよく、別のピクチャは、第1ピクチャまたは第2ピクチャとされてもよい。
図18Bは、ピクチャおよび別のピクチャのピクチャオーダーカウントの別の例を示す概念図である。
図18Cは、ピクチャおよび別のピクチャのピクチャオーダーカウントのさらに別の例を示す概念図である。
図19Aは、図17に示すような画像符号化/復号方法の例に係る予測サンプルのブロックをパディングするためのパディング方向の例を示す。
図19Bは、図17に示すような画像符号化/復号方法の例に係る予測サンプルのブロックをパディングするためのパディング方向の別の例を示す。
図20Aは、図17に示すような画像符号化/復号方法の例に係る予測サンプルのブロックをパディングする処理の例を示す。
図20Bは、図17に示すような画像符号化/復号方法の例に係る予測サンプルのブロックをパディングする処理の別の例を示す。
図20Cは、図17に示すような画像符号化/復号方法の例に係る予測サンプルのブロックをパディングする処理の別の例を示す。
図20Dは、図17に示すような画像符号化/復号方法の例に係る予測サンプルのブロックをパディングする処理のさらに別の例を示す。
図21Aは、ブロックに対する勾配フィルタの例を示す。
図21Bは、ブロックに対する複数の勾配フィルタの例を示す。
図21Cは、ブロックに対する勾配フィルタのさらに別の例を示す。
図21Dは、ブロックに対する勾配フィルタのさらに別の例を示す。
図22は、図17に示すような例に係る画像符号化/復号方法の実施の形態を示すフローチャートである。
図23は、図22に示すような画像符号化/復号方法の実施の形態を示す概念図である。
図24は、図17に示すような例に係る画像符号化/復号方法の他の実施の形態を示すフローチャートである。
図25は、図24に示すような画像符号化/復号方法の実施の形態を示す概念図である。
図26は、図24および図25に示すような画像符号化/復号方法の実施の形態におけるパディング処理によって生成されたブロックの例を示す。
図27Aは、インター予測機能を用いて、別のピクチャの参照ブロックに基づきピクチャのカレントブロックの予測を生成する画像符号化/復号方法の別の代替例を示すフローチャートである。
図27Bは、インター予測機能を用いて、別のピクチャの参照ブロックに基づきピクチャのカレントブロックの予測を生成する画像符号化/復号方法の別の代替例を示すフローチャートである。
図27Cは、インター予測機能を用いて、別のピクチャの参照ブロックに基づきピクチャのカレントブロックの予測を生成する画像符号化/復号方法のさらに別の代替例を示すフローチャートである。
図28は、図27Aに示すような画像符号化/復号方法の実施の形態を示す概念図である。
図29は、図27Bに示すような画像符号化/復号方法の実施の形態を示す概念図である。
図30は、図27Cに示すような画像符号化/復号方法の実施の形態を示す概念図である。
図31は、カレントブロックの隣接ブロックの例を示す。
図32Aは、図27A、図27B、および図27Cに示すような画像符号化/復号方法の例に係る予測サンプルのブロックをパディングする処理の例を示す。
図32Bは、図27A、図27B、および図27Cに示すような画像符号化/復号方法の例に係る予測サンプルのブロックをパディングする処理の別の例を示す。
図32Cは、図27A、図27B、および図27Cに示すような画像符号化/復号方法の例に係る予測サンプルのブロックをパディングする処理の別の例を示す。
図33Aは、図17、図22、図24、図27A、図27B、および、図27Cに示すような画像符号化/復号方法の例に係るブロックをパディングするためのパディング方向の例を示す。
図33Bは、図17、図22、図24、図27A、図27B、および、図27Cに示すような画像符号化/復号方法の例に係るブロックをパディングするためのパディング方向の別の例を示す。
図33Cは、図17、図22、図24、図27A、図27B、および、図27Cに示すような画像符号化/復号方法の例に係るブロックをパディングするためのパディング方向の別の例を示す。
図33Dは、図17、図22、図24、図27A、図27B、および、図27Cに示すような画像符号化/復号方法の例に係るブロックをパディングするためのパディング方向のさらに別の例を示す。
図34は、図17、図22、図24、図27A、図27B、および図27Cに示すような画像符号化/復号方法の例に係る予測サンプルのブロックの代替例を示す。これらの代替例において、予測サンプルのブロックは、非矩形形状である。
図35は、インター予測機能を用いて、別のピクチャの参照ブロックに基づきピクチャのカレントブロックの予測を生成する画像符号化/復号方法の別の代替例を示すフローチャートである。
図36は、図35に示すような画像符号化/復号方法の実施の形態を示す概念図である。
図37Aは、図35に示すような画像符号化/復号方法の例に係る、第2動きベクトルに応じて予測サンプルのブロックをパディングする処理の例を示す。
図37Bは、図35に示すような画像符号化/復号方法の例に係る、第2動きベクトルに応じて予測サンプルのブロックをパディングする処理の別の例を示す。
図38は、インター予測機能を用いて、別のピクチャの参照ブロックに基づきピクチャのカレントブロックの予測を生成する画像符号化/復号方法のさらに別の代替例を示すフローチャートである。図38のフローチャートは、ステップ3804におけるDMVR(dynamic motion vector refreshing)処理がさらにパディング処理を含む点を除き、図35のフローチャートと同様である。
図39は、図38に示すような画像符号化/復号方法の実施の形態を示す概念図である。
図40は、コンテンツ配信サービスを実現するコンテンツ供給システムの全体構成を示すブロック図である。
図41は、スケーラブル符号化時の符号化構造の一例を示す概念図である。
図42は、スケーラブル符号化時の符号化構造の一例を示す概念図である。
図43は、webページの表示画面例を示す概念図である。
図44は、webページの表示画面例を示す概念図である。
図45は、スマートフォンの一例を示すブロック図である。
図46は、スマートフォンの構成例を示すブロック図である。
以下、実施の形態について図面を参照しながら具体的に説明する。なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの関係及び順序などは、一例であり、請求の範囲を限定する主旨ではない。したがって、以下の実施の形態に開示されているけれども、最も広い発明概念を定義する独立請求項に記載されていない構成要素は、任意の構成要素と理解されてもよい。
以下では、符号化装置および復号化装置の実施の形態を説明する。実施の形態は、本開示の各態様で説明する処理および/または構成を適用可能な符号化装置および復号化装置の例である。処理および/または構成は、実施の形態とは異なる符号化装置および復号化装置においても実施可能である。例えば、実施の形態に対して適用される処理および/または構成に関して、例えば以下のいずれかを実施してもよい。
(1)本開示の各態様で説明する実施の形態の符号化装置または復号装置の複数の構成要素のうちいずれかは、本開示の各態様のいずれかで説明する他の構成要素に置き換えまたは組み合わせられてもよい。
(2)実施の形態の符号化装置または復号装置において、当該符号化装置または復号装置の複数の構成要素のうち一部の構成要素によって行われる機能または処理に、機能または処理の追加、置き換え、削除などの任意の変更がなされてもよい。例えば、いずれかの機能または処理は、本開示の各態様のいずれかで説明する他の機能または処理に、置き換えまたは組み合わせられてもよい。
(3)実施の形態の符号化装置または復号装置が実施する方法において、当該方法に含まれる複数の処理のうちの一部の処理について、追加、置き換えおよび削除などの任意の変更がなされてもよい。例えば、方法におけるいずれかの処理は、本開示の各態様のいずれかで説明する他の処理に、置き換えまたは組み合わせられてもよい。
(4)実施の形態の符号化装置または復号装置を構成する複数の構成要素のうちの一部の構成要素は、本開示の各態様のいずれかで説明する構成要素と組み合わせられてもよいし、本開示の各態様のいずれかで説明する機能の一部を備える構成要素と組み合わせられてもよいし、本開示の各態様で説明する構成要素が実施する処理の一部を実施する構成要素と組み合わせられてもよい。
(5)実施の形態の符号化装置または復号装置の機能の一部を備える構成要素、または、実施の形態の符号化装置または復号装置の処理の一部を実施する構成要素は、本開示の各態様いずれかで説明する構成要素と、本開示の各態様でいずれかで説明する機能の一部を備える構成要素と、または、本開示の各態様のいずれかで説明する処理の一部を実施する構成要素と組み合わせまたは置き換えられてもよい。
(6)実施の形態の符号化装置または復号装置が実施する方法において、当該方法に含まれる複数の処理のいずれかは、本開示の各態様のいずれかで説明する処理に、または、同様のいずれかの処理に、置き換えまたは組み合わせられてもよい。
(7)実施の形態の符号化装置または復号装置が実施する方法に含まれる複数の処理のうちの一部の処理は、本開示の各態様のいずれかで説明する処理と組み合わせられてもよい。
(8)本開示の各態様で説明する処理および/または構成の実施の仕方は、実施の形態の符号化装置または復号装置に限定されるものではない。例えば、処理および/または構成は、実施の形態において開示する動画像符号化または動画像復号とは異なる目的で利用される装置において実施されてもよい。
[符号化装置]
まず、実施の形態に係る符号化装置の概要を説明する。図1は、実施の形態に係る符号化装置100の機能構成を示すブロック図である。符号化装置100は、動画像をブロック単位で符号化する動画像符号化装置である。
まず、実施の形態に係る符号化装置の概要を説明する。図1は、実施の形態に係る符号化装置100の機能構成を示すブロック図である。符号化装置100は、動画像をブロック単位で符号化する動画像符号化装置である。
図1に示すように、符号化装置100は、画像をブロック単位で符号化する装置であって、分割部102と、減算部104と、変換部106と、量子化部108と、エントロピー符号化部110と、逆量子化部112と、逆変換部114と、加算部116と、ブロックメモリ118と、ループフィルタ部120と、フレームメモリ122と、イントラ予測部124と、インター予測部126と、予測制御部128と、を備える。
符号化装置100は、例えば、汎用プロセッサ及びメモリにより実現される。この場合、メモリに格納されたソフトウェアプログラムがプロセッサにより実行されたときに、プロセッサは、分割部102、減算部104、変換部106、量子化部108、エントロピー符号化部110、逆量子化部112、逆変換部114、加算部116、ループフィルタ部120、イントラ予測部124、インター予測部126及び予測制御部128として機能する。また、符号化装置100は、分割部102、減算部104、変換部106、量子化部108、エントロピー符号化部110、逆量子化部112、逆変換部114、加算部116、ループフィルタ部120、イントラ予測部124、インター予測部126及び予測制御部128に対応する専用の1以上の電子回路として実現されてもよい。
以下に、符号化装置100に含まれる各構成要素について説明する。
[分割部]
分割部102は、入力動画像に含まれる各ピクチャを複数のブロックに分割し、各ブロックを減算部104に出力する。例えば、分割部102は、まず、ピクチャを固定サイズ(例えば128x128)のブロックに分割する。この固定サイズのブロックは、符号化ツリーユニット(CTU)と呼ばれることがある。そして、分割部102は、再帰的な四分木(quadtree)及び/又は二分木(binary tree)ブロック分割に基づいて、固定サイズのブロックの各々を可変サイズ(例えば64x64以下)のブロックに分割する。この可変サイズのブロックは、符号化ユニット(CU)、予測ユニット(PU)あるいは変換ユニット(TU)と呼ばれることがある。様々な処理例では、CU、PU及びTUは区別される必要はなく、ピクチャ内の一部又はすべてのブロックがCU、PU、TUの処理単位となってもよい。
分割部102は、入力動画像に含まれる各ピクチャを複数のブロックに分割し、各ブロックを減算部104に出力する。例えば、分割部102は、まず、ピクチャを固定サイズ(例えば128x128)のブロックに分割する。この固定サイズのブロックは、符号化ツリーユニット(CTU)と呼ばれることがある。そして、分割部102は、再帰的な四分木(quadtree)及び/又は二分木(binary tree)ブロック分割に基づいて、固定サイズのブロックの各々を可変サイズ(例えば64x64以下)のブロックに分割する。この可変サイズのブロックは、符号化ユニット(CU)、予測ユニット(PU)あるいは変換ユニット(TU)と呼ばれることがある。様々な処理例では、CU、PU及びTUは区別される必要はなく、ピクチャ内の一部又はすべてのブロックがCU、PU、TUの処理単位となってもよい。
図2は、実施の形態におけるブロック分割の一例を示す図である。図2において、実線は四分木ブロック分割によるブロック境界を表し、破線は二分木ブロック分割によるブロック境界を表す。
ここでは、ブロック10は、128x128画素の正方形ブロック(128x128ブロック)である。この128x128ブロック10は、まず、4つの正方形の64x64ブロックに分割される(四分木ブロック分割)。
左上の64x64ブロックは、さらに2つの矩形の32x64ブロックに垂直に分割され、左の32x64ブロックはさらに2つの矩形の16x64ブロックに垂直に分割される(二分木ブロック分割)。その結果、左上の64x64ブロックは、2つの16x64ブロック11、12と、32x64ブロック13とに分割される。
右上の64x64ブロックは、2つの矩形の64x32ブロック14、15に水平に分割される(二分木ブロック分割)。
左下の64x64ブロックは、4つの正方形の32x32ブロックに分割される(四分木ブロック分割)。4つの32x32ブロックのうち左上のブロック及び右下のブロックはさらに分割される。左上の32x32ブロックは、2つの矩形の16x32ブロックに垂直に分割され、右の16x32ブロックはさらに2つの16x16ブロックに水平に分割される(二分木ブロック分割)。右下の32x32ブロックは、2つの32x16ブロックに水平に分割される(二分木ブロック分割)。その結果、左下の64x64ブロックは、16x32ブロック16と、2つの16x16ブロック17、18と、2つの32x32ブロック19、20と、2つの32x16ブロック21、22とに分割される。
右下の64x64ブロック23は分割されない。
以上のように、図2では、ブロック10は、再帰的な四分木及び二分木ブロック分割に基づいて、13個の可変サイズのブロック11~23に分割される。このような分割は、QTBT(quad-tree plus binary tree)分割と呼ばれることがある。
図2では、1つのブロックが4つ又は2つのブロックに分割されていたが(四分木又は二分木ブロック分割)、分割はこれらに限定されない。例えば、1つのブロックが3つのブロックに分割されてもよい(三分木ブロック分割)。このような三分木ブロック分割を含む分割は、MBT(multi type tree)分割と呼ばれることがある。
[減算部]
減算部104は、分割部102から入力され、分割部102によって分割されたブロック単位で、原信号(原サンプル)から予測信号(以下に示す予測制御部128から入力される予測サンプル)を減算する。つまり、減算部104は、符号化対象ブロック(以下、カレントブロックという)の予測誤差(残差ともいう)を算出する。そして、減算部104は、算出された予測誤差(残差)を変換部106に出力する。
減算部104は、分割部102から入力され、分割部102によって分割されたブロック単位で、原信号(原サンプル)から予測信号(以下に示す予測制御部128から入力される予測サンプル)を減算する。つまり、減算部104は、符号化対象ブロック(以下、カレントブロックという)の予測誤差(残差ともいう)を算出する。そして、減算部104は、算出された予測誤差(残差)を変換部106に出力する。
原信号は、符号化装置100の入力信号であり、動画像を構成する各ピクチャの画像を表す信号(例えば輝度(luma)信号及び2つの色差(chroma)信号)である。以下において、画像を表す信号をサンプルともいうこともある。
[変換部]
変換部106は、空間領域の予測誤差を周波数領域の変換係数に変換し、変換係数を量子化部108に出力する。具体的には、変換部106は、例えば空間領域の予測誤差に対して予め定められた離散コサイン変換(DCT)又は離散サイン変換(DST)を行う。
変換部106は、空間領域の予測誤差を周波数領域の変換係数に変換し、変換係数を量子化部108に出力する。具体的には、変換部106は、例えば空間領域の予測誤差に対して予め定められた離散コサイン変換(DCT)又は離散サイン変換(DST)を行う。
なお、変換部106は、複数の変換タイプの中から適応的に変換タイプを選択し、選択された変換タイプに対応する変換基底関数(transform basis function)を用いて、予測誤差を変換係数に変換してもよい。このような変換は、EMT(explicit multiple core transform)又はAMT(adaptive multiple transform)と呼ばれることがある。
複数の変換タイプは、例えば、DCT-II、DCT-V、DCT-VIII、DST-I及びDST-VIIを含む。図3は、各変換タイプに対応する変換基底関数を示す表である。図3においてNは入力画素の数を示す。これらの複数の変換タイプの中からの変換タイプの選択は、例えば、予測の種類(イントラ予測及びインター予測)に依存してもよいし、イントラ予測モードに依存してもよい。
このようなEMT又はAMTを適用するか否かを示す情報(例えば、EMTフラグまたはAMTフラグと呼ばれる)及び選択された変換タイプを示す情報は、通常、CUレベルで信号化される。なお、これらの情報の信号化は、CUレベルに限定される必要はなく、他のレベル(例えば、ビットシーケンスレベル、ピクチャレベル、スライスレベル、タイルレベル又はCTUレベル)であってもよい。
また、変換部106は、変換係数(変換結果)を再変換してもよい。このような再変換は、AST(adaptive secondary transform)又はNSST(non-separable secondary transform)と呼ばれることがある。例えば、変換部106は、イントラ予測誤差に対応する変換係数のブロックに含まれるサブブロック(例えば4x4サブブロック)ごとに再変換を行う。NSSTを適用するか否かを示す情報及びNSSTに用いられる変換行列に関する情報は、通常、CUレベルで信号化される。なお、これらの情報の信号化は、CUレベルに限定される必要はなく、他のレベル(例えば、シーケンスレベル、ピクチャレベル、スライスレベル、タイルレベル又はCTUレベル)であってもよい。
変換部106には、Separableな変換と、Non-Separableな変換とが適用されてもよい。Separableな変換とは、入力の次元の数だけ方向ごとに分離して複数回変換を行う方式であり、Non-Separableな変換とは、入力が多次元であった際に2つ以上の次元をまとめて1次元とみなして、まとめて変換を行う方式である。
例えば、Non-Separableな変換の一例として、入力が4×4のブロックであった場合にはそれを16個の要素を持ったひとつの配列とみなし、その配列に対して16×16の変換行列で変換処理を行うようなものが挙げられる。
また、Non-Separableな変換のさらなる例では、4×4の入力ブロックを16個の要素を持ったひとつの配列とみなした後に、その配列に対してGivens回転を複数回行うような変換(例えば、Hypercube Givens Transform)が行われてもよい。
[量子化部]
量子化部108は、変換部106から出力された変換係数を量子化する。具体的には、量子化部108は、カレントブロックの変換係数を所定の走査順序で走査し、走査された変換係数に対応する量子化パラメータ(QP)に基づいて当該変換係数を量子化する。そして、量子化部108は、カレントブロックの量子化された変換係数(以下、量子化係数という)をエントロピー符号化部110及び逆量子化部112に出力する。
量子化部108は、変換部106から出力された変換係数を量子化する。具体的には、量子化部108は、カレントブロックの変換係数を所定の走査順序で走査し、走査された変換係数に対応する量子化パラメータ(QP)に基づいて当該変換係数を量子化する。そして、量子化部108は、カレントブロックの量子化された変換係数(以下、量子化係数という)をエントロピー符号化部110及び逆量子化部112に出力する。
所定の走査順序は、変換係数の量子化/逆量子化のための順序である。例えば、所定の走査順序は、周波数の昇順(低周波から高周波の順)又は降順(高周波から低周波の順)で定義される。
量子化パラメータ(QP)とは、量子化ステップ(量子化幅)を定義するパラメータである。例えば、量子化パラメータの値が増加すれば量子化ステップも増加する。つまり、量子化パラメータの値が増加すれば量子化誤差が増大する。
[エントロピー符号化部]
エントロピー符号化部110は、量子化部108から入力された量子化係数に基づいて符号化信号(符号化ビットストリーム)を生成する。具体的には、例えば、エントロピー符号化部110は、量子化係数を二値化し、二値信号を算術符号化し、圧縮されたビットストリームまたはシーケンスを出力する。
エントロピー符号化部110は、量子化部108から入力された量子化係数に基づいて符号化信号(符号化ビットストリーム)を生成する。具体的には、例えば、エントロピー符号化部110は、量子化係数を二値化し、二値信号を算術符号化し、圧縮されたビットストリームまたはシーケンスを出力する。
[逆量子化部]
逆量子化部112は、量子化部108から入力された量子化係数を逆量子化する。具体的には、逆量子化部112は、カレントブロックの量子化係数を所定の走査順序で逆量子化する。そして、逆量子化部112は、カレントブロックの逆量子化された変換係数を逆変換部114に出力する。
逆量子化部112は、量子化部108から入力された量子化係数を逆量子化する。具体的には、逆量子化部112は、カレントブロックの量子化係数を所定の走査順序で逆量子化する。そして、逆量子化部112は、カレントブロックの逆量子化された変換係数を逆変換部114に出力する。
[逆変換部]
逆変換部114は、逆量子化部112から入力された変換係数を逆変換することにより予測誤差(残差)を復元する。具体的には、逆変換部114は、変換係数に対して、変換部106による変換に対応する逆変換を行うことにより、カレントブロックの予測誤差を復元する。そして、逆変換部114は、復元された予測誤差を加算部116に出力する。
逆変換部114は、逆量子化部112から入力された変換係数を逆変換することにより予測誤差(残差)を復元する。具体的には、逆変換部114は、変換係数に対して、変換部106による変換に対応する逆変換を行うことにより、カレントブロックの予測誤差を復元する。そして、逆変換部114は、復元された予測誤差を加算部116に出力する。
なお、復元された予測誤差は、通常、量子化により情報が失われているので、減算部104が算出した予測誤差と一致しない。すなわち、復元された予測誤差には、通常、量子化誤差が含まれている。
[加算部]
加算部116は、逆変換部114から入力された予測誤差と予測制御部128から入力された予測サンプルとを加算することによりカレントブロックを再構成する。そして、加算部116は、再構成されたブロックをブロックメモリ118及びループフィルタ部120に出力する。再構成ブロックは、ローカル復号ブロックと呼ばれることもある。
加算部116は、逆変換部114から入力された予測誤差と予測制御部128から入力された予測サンプルとを加算することによりカレントブロックを再構成する。そして、加算部116は、再構成されたブロックをブロックメモリ118及びループフィルタ部120に出力する。再構成ブロックは、ローカル復号ブロックと呼ばれることもある。
[ブロックメモリ]
ブロックメモリ118は、イントラ予測で参照されるブロックであって符号化対象ピクチャ(「カレントピクチャ」という)内のブロックを格納するための記憶部である。具体的には、ブロックメモリ118は、加算部116から出力された再構成ブロックを格納する。
ブロックメモリ118は、イントラ予測で参照されるブロックであって符号化対象ピクチャ(「カレントピクチャ」という)内のブロックを格納するための記憶部である。具体的には、ブロックメモリ118は、加算部116から出力された再構成ブロックを格納する。
[ループフィルタ部]
ループフィルタ部120は、加算部116によって再構成されたブロックにループフィルタを施し、フィルタされた再構成ブロックをフレームメモリ122に出力する。ループフィルタとは、符号化ループ内で用いられるフィルタ(インループフィルタ)であり、例えば、デブロッキング・フィルタ(DF)、サンプルアダプティブオフセット(SAO)及びアダプティブループフィルタ(ALF)などを含む。
ループフィルタ部120は、加算部116によって再構成されたブロックにループフィルタを施し、フィルタされた再構成ブロックをフレームメモリ122に出力する。ループフィルタとは、符号化ループ内で用いられるフィルタ(インループフィルタ)であり、例えば、デブロッキング・フィルタ(DF)、サンプルアダプティブオフセット(SAO)及びアダプティブループフィルタ(ALF)などを含む。
ALFでは、符号化歪みを除去するための最小二乗誤差フィルタが適用され、例えばカレントブロック内の2x2サブブロックごとに、局所的な勾配(gradient)の方向及び活性度(activity)に基づいて複数のフィルタの中から選択された1つのフィルタが適用される。
具体的には、まず、サブブロック(例えば2x2サブブロック)が複数のクラス(例えば15又は25クラス)に分類される。サブブロックの分類は、勾配の方向及び活性度に基づいて行われる。例えば、勾配の方向値D(例えば0~2又は0~4)と勾配の活性値A(例えば0~4)とを用いて分類値C(例えばC=5D+A)が算出される。そして、分類値Cに基づいて、サブブロックが複数のクラスに分類される。
勾配の方向値Dは、例えば、複数の方向(例えば水平、垂直及び2つの対角方向)の勾配を比較することにより導出される。また、勾配の活性値Aは、例えば、複数の方向の勾配を加算し、加算結果を量子化することにより導出される。
このような分類の結果に基づいて、複数のフィルタの中からサブブロックのためのフィルタが決定される。
ALFで用いられるフィルタの形状としては例えば円対称形状が利用される。図4A~図4Cは、ALFで用いられるフィルタの形状の複数の例を示す図である。図4Aは、5x5ダイヤモンド形状フィルタを示し、図4Bは、7x7ダイヤモンド形状フィルタを示し、図4Cは、9x9ダイヤモンド形状フィルタを示す。フィルタの形状を示す情報は、通常、ピクチャレベルで信号化される。なお、フィルタの形状を示す情報の信号化は、ピクチャレベルに限定される必要はなく、他のレベル(例えば、シーケンスレベル、スライスレベル、タイルレベル、CTUレベル又はCUレベル)であってもよい。
ALFのオン/オフは、ピクチャレベル又はCUレベルで決定されてもよい。例えば、輝度についてはCUレベルでALFを適用するか否かが決定され、色差についてはピクチャレベルでALFを適用するか否かが決定されてもよい。ALFのオン/オフを示す情報は、通常、ピクチャレベル又はCUレベルで信号化される。なお、ALFのオン/オフを示す情報の信号化は、ピクチャレベル又はCUレベルに限定される必要はなく、他のレベル(例えば、シーケンスレベル、スライスレベル、タイルレベル又はCTUレベル)であってもよい。
選択可能な複数のフィルタ(例えば15又は25までのフィルタ)の係数セットは、通常、ピクチャレベルで信号化される。なお、係数セットの信号化は、ピクチャレベルに限定される必要はなく、他のレベル(例えば、シーケンスレベル、スライスレベル、タイルレベル、CTUレベル、CUレベル又はサブブロックレベル)であってもよい。
[フレームメモリ]
フレームメモリ122は、インター予測に用いられる参照ピクチャを格納するための記憶部であり、例えば、フレームバッファと呼ばれることもある。具体的には、フレームメモリ122は、ループフィルタ部120によってフィルタされた再構成ブロックを格納する。
フレームメモリ122は、インター予測に用いられる参照ピクチャを格納するための記憶部であり、例えば、フレームバッファと呼ばれることもある。具体的には、フレームメモリ122は、ループフィルタ部120によってフィルタされた再構成ブロックを格納する。
[イントラ予測部]
イントラ予測部124は、ブロックメモリ118に格納されているようなカレントピクチャ内のブロックを参照してカレントブロックのイントラ予測(画面内予測ともいう)を行うことで、予測信号(イントラ予測信号)を生成する。具体的には、イントラ予測部124は、カレントブロックに隣接するブロックのサンプル(例えば輝度値、色差値)を参照してイントラ予測を行うことでイントラ予測信号を生成し、イントラ予測信号を予測制御部128に出力する。
イントラ予測部124は、ブロックメモリ118に格納されているようなカレントピクチャ内のブロックを参照してカレントブロックのイントラ予測(画面内予測ともいう)を行うことで、予測信号(イントラ予測信号)を生成する。具体的には、イントラ予測部124は、カレントブロックに隣接するブロックのサンプル(例えば輝度値、色差値)を参照してイントラ予測を行うことでイントラ予測信号を生成し、イントラ予測信号を予測制御部128に出力する。
例えば、イントラ予測部124は、予め規定された複数のイントラ予測モードのうちの1つを用いてイントラ予測を行う。複数のイントラ予測モードは、通常、1以上の非方向性予測モードと、複数の方向性予測モードと、を含む。
1以上の非方向性予測モードは、例えばH.265/HEVC規格で規定されたPlanar予測モード及びDC予測モードを含む。
複数の方向性予測モードは、例えばH.265/HEVC規格で規定された33方向の予測モードを含む。なお、複数の方向性予測モードは、33方向に加えてさらに32方向の予測モード(合計で65個の方向性予測モード)を含んでもよい。
図5Aは、イントラ予測において用いられ得る全67個のイントラ予測モード(2個の非方向性予測モード及び65個の方向性予測モード)を示す概念図である。実線矢印は、H.265/HEVC規格で規定された33方向を表し、破線矢印は、追加された32方向を表す(2個の「非方向性」予測モードは図5Aには図示されていない)。
様々な処理例では、色差ブロックのイントラ予測において、輝度ブロックが参照されてもよい。つまり、カレントブロックの輝度成分に基づいて、カレントブロックの色差成分が予測されてもよい。このイントラ予測は、CCLM(cross-component linear model)予測と呼ばれることがある。このような輝度ブロックを参照する色差ブロックのイントラ予測モード(例えばCCLMモードと呼ばれる)は、色差ブロックのイントラ予測モードの1つとして加えられてもよい。
イントラ予測部124は、水平/垂直方向の参照画素の勾配に基づいてイントラ予測後の画素値を補正してもよい。このような補正をともなうイントラ予測は、PDPC(position dependent intra prediction combination)と呼ばれることがある。PDPCの適用の有無を示す情報(例えばPDPCフラグと呼ばれる)は、通常、CUレベルで信号化される。なお、この情報の信号化は、CUレベルに限定される必要はなく、他のレベル(例えば、シーケンスレベル、ピクチャレベル、スライスレベル、タイルレベル又はCTUレベル)であってもよい。
[インター予測部]
インター予測部126は、フレームメモリ122に格納された参照ピクチャであってカレントピクチャとは異なる参照ピクチャを参照してカレントブロックのインター予測(画面間予測ともいう)を行うことで、予測信号(インター予測信号)を生成する。インター予測は、カレントブロック又はカレントブロック内のカレントサブブロック(例えば4x4ブロック)の単位で行われる。例えば、インター予測部126は、カレントブロック又はカレントサブブロックについて参照ピクチャ内で動き探索(motion estimation)を行い、そのカレントブロック又はサブブロックに最も一致する参照ピクチャ内の参照ブロック又はサブブロックを見つける。そして、インター予測部126は、その動き探索に基づいて、動き補償(又は動き予測)を行い、参照ブロック又はサブブロックからカレントブロック又はサブブロックへの動き又は変化を補償する(又は予測する)動き情報(例えば、動きベクトル)を取得し、その動き情報に基づいて、カレントブロック又はサブブロックのインター予測信号を生成する。そして、インター予測部126は、生成されたインター予測信号を予測制御部128に出力する。
インター予測部126は、フレームメモリ122に格納された参照ピクチャであってカレントピクチャとは異なる参照ピクチャを参照してカレントブロックのインター予測(画面間予測ともいう)を行うことで、予測信号(インター予測信号)を生成する。インター予測は、カレントブロック又はカレントブロック内のカレントサブブロック(例えば4x4ブロック)の単位で行われる。例えば、インター予測部126は、カレントブロック又はカレントサブブロックについて参照ピクチャ内で動き探索(motion estimation)を行い、そのカレントブロック又はサブブロックに最も一致する参照ピクチャ内の参照ブロック又はサブブロックを見つける。そして、インター予測部126は、その動き探索に基づいて、動き補償(又は動き予測)を行い、参照ブロック又はサブブロックからカレントブロック又はサブブロックへの動き又は変化を補償する(又は予測する)動き情報(例えば、動きベクトル)を取得し、その動き情報に基づいて、カレントブロック又はサブブロックのインター予測信号を生成する。そして、インター予測部126は、生成されたインター予測信号を予測制御部128に出力する。
動き補償に用いられた動き情報は、多様な形態でインター予測信号として信号化されてもよい。例えば、動きベクトルが信号化されてもよい。他の例として、動きベクトルと予測動きベクトルとの差分が信号化されてもよい。
なお、動き探索により得られたカレントブロックの動き情報だけでなく、隣接ブロックの動き情報も用いて、インター予測信号が生成されてもよい。具体的には、(参照ピクチャにおける)動き探索により得られた動き情報に基づく予測信号と、(カレントピクチャにおける)隣接ブロックの動き情報に基づく予測信号と、を重み付け加算することにより、カレントブロック内のサブブロック単位でインター予測信号が生成されてもよい。このようなインター予測(動き補償)は、OBMC(overlapped block motion compensation)と呼ばれることがある。
OBMCモードでは、OBMCのためのサブブロックのサイズを示す情報(例えばOBMCブロックサイズと呼ばれる)は、シーケンスレベルで信号化されてもよい。また、OBMCモードを適用するか否かを示す情報(例えばOBMCフラグと呼ばれる)は、CUレベルで信号化されてもよい。なお、これらの情報の信号化のレベルは、シーケンスレベル及びCUレベルに限定される必要はなく、他のレベル(例えばピクチャレベル、スライスレベル、タイルレベル、CTUレベル又はサブブロックレベル)であってもよい。
OBMCモードについて、より具体的に説明する。図5B及び図5Cは、OBMC処理による予測画像補正処理を説明するフローチャート及び概念図である。
図5Cを参照すると、まず、符号化対象(カレント)ブロックに割り当てられた動きベクトル(MV)を用いて通常の動き補償による予測画像(Pred)を取得する。図5Cにおいて、矢印「MV」は参照ピクチャを指し、予測画像を得るためにカレントピクチャ内のカレントブロックが何を参照しているのかを示している。
次に、符号化済みの左隣接ブロックに対して既に導出された動きベクトル(MV_L)を符号化対象(カレント)ブロックに適用(再利用)して予測画像(Pred_L)を取得する。動きベクトル(MV_L)は、カレントブロックから参照ピクチャを指す矢印「MV_L」によって示される。そして、2つの予測画像PredとPred_Lとを重ね合わせることで予測画像の1回目の補正を行う。これは、隣接ブロック間の境界を混ぜ合わせる効果を有する。
同様に、符号化済みの上隣接ブロックに対して既に導出された動きベクトル(MV_U)を符号化対象(カレント)ブロックに適用(再利用)して予測画像(Pred_U)を取得する。動きベクトル(MV_U)は、カレントブロックから参照ピクチャを指す矢印「MV_U」によって示される。そして、予測画像Pred_Uを1回目の補正を行った予測画像(つまり、PredとPred_L)に重ね合わせることで予測画像の2回目の補正を行う。これは、一態様において、隣接ブロック間の境界を混ぜ合わせる効果を有する。2回目の補正によって得られた予測画像は、隣接ブロックとの境界が混ぜ合わされた(スムージングされた)、カレントブロックの最終的な予測画像である。
なお、ここでは左隣接ブロックと上隣接ブロックを用いた2段階の補正方法を説明したが、右隣接ブロックや下隣接ブロックを用いて2段階よりも多い回数の補正を行う構成とすることも可能である。
なお、重ね合わせを行う領域はブロック全体の画素領域ではなく、ブロック境界近傍の一部の領域のみであってもよい。
なお、ここでは1枚の参照ピクチャに基づいて、追加の予測画像Pred_LおよびPred_Uを重ね合せることで1枚の予測画像Predを得るためのOBMCの予測画像補正処理について説明した。しかし、複数の参照ピクチャに基づいて予測画像が補正される場合には、同様の処理が複数の参照ピクチャのそれぞれに適用されてもよい。このような場合、複数の参照ピクチャに基づくOBMCの画像補正を行うことによって、各々の参照ピクチャから、補正された予測画像を取得した後に、その取得された複数の補正予測画像をさらに重ね合わせることで最終的な予測画像を取得する。
なお、OBMCでは、対象ブロックの単位は、予測ブロック単位であっても、予測ブロックをさらに分割したサブブロック単位であってもよい。
OBMC処理を適用するかどうかの判定の方法として、例えば、OBMC処理を適用するかどうかを示す信号であるobmc_flagを用いる方法がある。具体的な一例としては、符号化装置において、符号化対象ブロックが動きの複雑な領域に属しているかどうかを判定し、動きの複雑な領域に属している場合はobmc_flagとして値「1」を設定してOBMC処理を適用して符号化を行い、動きの複雑な領域に属していない場合はobmc_flagとして値「0」を設定してOBMC処理を適用せずに符号化を行う。一方、復号装置では、ストリーム(つまり、圧縮シーケンス)に記述されたobmc_flagを復号することで、その値に応じてOBMC処理を適用するかどうかを切替えて復号を行う。
なお、動き情報は、符号化装置側から信号化されずに、復号装置側で導出されてもよい。例えば、H.265/HEVC規格で規定されたマージモードが用いられてもよい。また例えば、復号装置側で動き探索を行うことにより動き情報が導出されてもよい。この場合、復号装置側では、カレントブロックの画素値を用いずに動き探索が行われてもよい。
ここで、復号装置側で動き探索を行うモードについて説明する。この復号装置側で動き探索を行うモードは、PMMVD(pattern matched motion vector derivation)モード又はFRUC(frame rate up-conversion)モードと呼ばれることがある。
FRUC処理の一例を図5Dに示す。まず、カレントブロックに空間的又は時間的に隣接する符号化済みブロックの動きベクトルを参照して、各々が予測動きベクトル(MV)を有する複数の候補のリスト(マージリストと共通であってもよい)が生成される。次に、候補リストに登録されている複数の候補MVの中からベスト候補MVを選択する。例えば、候補リストに含まれる各候補MVの評価値が算出され、評価値に基づいて1つの候補MVが選択される。
そして、選択された候補の動きベクトルに基づいて、カレントブロックのための動きベクトルが導出される。具体的には、例えば、選択された候補の動きベクトル(ベスト候補MV)がそのままカレントブロックのための動きベクトルとして導出される。また例えば、選択された候補の動きベクトルに対応する参照ピクチャ内の位置の周辺領域において、パターンマッチングを行うことにより、カレントブロックのための動きベクトルが導出されてもよい。すなわち、ベスト候補MVの周辺の領域に対して、参照ピクチャにおけるパターンマッチングと評価値とを用いた探索を行い、さらに評価値が良い値となるMVがあった場合は、ベスト候補MVを前記MVに更新して、それをカレントブロックの最終的なMVとしてもよい。より良い評価値を有するMVへの更新を行う処理を実施しない構成とすることも可能である。
サブブロック単位で処理を行う場合も全く同様の処理としてもよい。
なお、評価値は、様々な方法で算出されてもよい。例えば、動きベクトルに対応する参照ピクチャ内の領域の再構成画像を、所定の領域(例えば、後述するように、他の参照ピクチャの領域、又は、カレントピクチャの隣接ブロックの領域であってもよい)の再構成画像とを比較し、2つの再構成画像の画素値の差分を算出して動きベクトルの評価値として用いてもよい。なお、差分値に加えてそれ以外の情報を用いて評価値を算出してもよい。
次に、パターンマッチングの例について詳細に説明する。まず、候補MVリスト(例えばマージリスト)に含まれる1つの候補MVを、パターンマッチングによる探索のスタートポイントとして選択する。例えば、パターンマッチングとしては、第1パターンマッチング又は第2パターンマッチングが用いられ得る。第1パターンマッチング及び第2パターンマッチングは、それぞれ、バイラテラルマッチング(bilateral matching)及びテンプレートマッチング(template matching)と呼ばれることがある。
第1パターンマッチングでは、異なる2つの参照ピクチャ内の2つのブロックであってカレントブロックの動き軌道(motion trajectory)に沿う2つのブロックの間でパターンマッチングが行われる。したがって、第1パターンマッチングでは、参照ピクチャ内の領域に対し、上述した候補の評価値の算出のための所定の領域として、カレントブロックの動き軌道に沿う他の参照ピクチャ内の領域が用いられる。
図6は、動き軌道に沿う2つの参照ピクチャにおける2つのブロック間での第1パターンマッチング(バイラテラルマッチング)の一例を説明するための図である。図6に示すように、第1パターンマッチングでは、カレントブロック(Cur block)の動き軌道に沿う2つのブロックであって異なる2つの参照ピクチャ(Ref0、Ref1)内の2つのブロックのペアの中で最もマッチするペアを探索することにより2つの動きベクトル(MV0、MV1)が導出される。具体的には、カレントブロックに対して、候補MVで指定された第1の符号化済み参照ピクチャ(Ref0)内の指定位置における再構成画像と、前記候補MVを表示時間間隔でスケーリングした対称MVで指定された第2の符号化済み参照ピクチャ(Ref1)内の指定位置における再構成画像との差分を導出し、得られた差分値を用いて評価値を算出する。複数の候補MVの中で最も評価値が良い値となる候補MVを最終MVとして選択することが可能であり、良い結果をもたらし得る。
連続的な動き軌道の仮定の下では、2つの参照ブロックを指し示す動きベクトル(MV0、MV1)は、カレントピクチャ(Cur Pic)と2つの参照ピクチャ(Ref0、Ref1)との間の時間的な距離(TD0、TD1)に対して比例する。例えば、カレントピクチャが時間的に2つの参照ピクチャの間に位置し、カレントピクチャから2つの参照ピクチャへの時間的な距離が等しい場合、第1パターンマッチングでは、2つの鏡映対称な双方向の動きベクトルが導出される。
第2パターンマッチング(テンプレートマッチング)では、カレントピクチャ内のテンプレート(カレントピクチャ内でカレントブロックに隣接するブロック(例えば上及び/又は左隣接ブロック))と参照ピクチャ内のブロックとの間でパターンマッチングが行われる。したがって、第2パターンマッチングでは、上述した候補の評価値の算出のための所定の領域として、カレントピクチャ内のカレントブロックに隣接するブロックが用いられる。
図7は、カレントピクチャ内のテンプレートと参照ピクチャ内のブロックとの間でのパターンマッチング(テンプレートマッチング)の一例を説明するための図である。図7に示すように、第2パターンマッチングでは、カレントピクチャ(Cur Pic)内でカレントブロック(Cur block)に隣接するブロックと最もマッチするブロックを参照ピクチャ(Ref0)内で探索することによりカレントブロックの動きベクトルが導出される。具体的には、カレントブロックに対して、左隣接および上隣接の両方もしくはどちらか一方の符号化済み領域の再構成画像と、候補MVで指定された符号化済み参照ピクチャ(Ref0)内の同等位置における再構成画像との差分を導出し、得られた差分値を用いて評価値を算出し、複数の候補MVの中で最も評価値が良い値となる候補MVをベスト候補MVとして選択することが可能である。
このようなFRUCモードを適用するか否かを示す情報(例えばFRUCフラグと呼ばれる)は、CUレベルで信号化されてもよい。また、FRUCモードが適用される場合(例えばFRUCフラグが真の場合)、パターンマッチングの方法(例えば、第1パターンマッチング又は第2パターンマッチング)を示す情報(例えばFRUCモードフラグと呼ばれる)がCUレベルで信号化されてもよい。なお、これらの情報の信号化は、CUレベルに限定される必要はなく、他のレベル(例えば、シーケンスレベル、ピクチャレベル、スライスレベル、タイルレベル、CTUレベル又はサブブロックレベル)であってもよい。
次に、動きベクトルの導出方法を説明する。まず、等速直線運動を仮定したモデルに基づいて動きベクトルを導出するモードについて説明する。このモードは、BIO(bi-directional optical flow)モードと呼ばれることがある。
図8は、等速直線運動を仮定したモデルを説明するための図である。図8において、(vx,vy)は、速度ベクトルを示し、τ0、τ1は、それぞれ、カレントピクチャ(Cur Pic)と2つの参照ピクチャ(Ref0,Ref1)との間の時間的な距離を示す。(MVx0,MVy0)は、参照ピクチャRef0に対応する動きベクトルを示し、(MVx1、MVy1)は、参照ピクチャRef1に対応する動きベクトルを示す。
このとき速度ベクトル(vx,vy)の等速直線運動の仮定の下では、(MVx0,MVy0)及び(MVx1,MVy1)は、それぞれ、(vxτ0,vyτ0)及び(-vxτ1,-vyτ1)と表され、以下のオプティカルフロー等式(1)が成り立つ。
ここで、I(k)は、動き補償後の参照画像k(k=0,1)の輝度値を示す。このオプティカルフロー等式は、(i)輝度値の時間微分と、(ii)水平方向の速度及び参照画像の空間勾配の水平成分の積と、(iii)垂直方向の速度及び参照画像の空間勾配の垂直成分の積と、の和が、ゼロと等しいことを示す。このオプティカルフロー等式とエルミート補間(Hermite interpolation)との組み合わせに基づいて、マージリスト等から得られるブロック単位の動きベクトルが画素単位で補正されてもよい。
なお、等速直線運動を仮定したモデルに基づく動きベクトルの導出とは異なる方法で、復号装置側で動きベクトルが導出されてもよい。例えば、複数の隣接ブロックの動きベクトルに基づいてサブブロック単位で動きベクトルが導出されてもよい。
次に、複数の隣接ブロックの動きベクトルに基づいてサブブロック単位で動きベクトルを導出するモードについて説明する。このモードは、アフィン動き補償予測(affine motion compensation prediction)モードと呼ばれることがある。
図9Aは、複数の隣接ブロックの動きベクトルに基づくサブブロック単位の動きベクトルの導出を説明するための図である。図9Aにおいて、カレントブロックは、16の4x4サブブロックを含む。ここでは、隣接ブロックの動きベクトルに基づいてカレントブロックの左上角制御ポイントの動きベクトルv0が導出される。同様に、隣接サブブロックの動きベクトルに基づいてカレントブロックの右上角制御ポイントの動きベクトルv1が導出される。そして、2つの動きベクトルv0及びv1を用いて、以下の式(2)により、カレントブロック内の各サブブロックの動きベクトル(vx,vy)が導出される。
ここで、x及びyは、それぞれ、サブブロックの水平位置及び垂直位置を示し、wは、予め定められた重み係数を示す。
このアフィン動き補償予測モードでは、左上及び右上角制御ポイントの動きベクトルの導出方法が異なるいくつかのモードを含んでもよい。このアフィン動き補償予測モードを示す情報(例えばアフィンフラグと呼ばれる)は、CUレベルで信号化されてもよい。なお、このアフィン動き補償予測モードを示す情報の信号化は、CUレベルに限定される必要はなく、他のレベル(例えば、シーケンスレベル、ピクチャレベル、スライスレベル、タイルレベル、CTUレベル又はサブブロックレベル)であってもよい。
[予測制御部]
予測制御部128は、(イントラ予測部124から出力される信号)イントラ予測信号及び(インター予測部126から出力される信号)インター予測信号のいずれかを選択し、選択した信号を予測信号として減算部104及び加算部116に出力する。
予測制御部128は、(イントラ予測部124から出力される信号)イントラ予測信号及び(インター予測部126から出力される信号)インター予測信号のいずれかを選択し、選択した信号を予測信号として減算部104及び加算部116に出力する。
図1に示すように、種々の処理例では、予測制御部128は、エントロピー符号化部110に入力される予測パラメータを出力してもよい。エントロピー符号化部110は、予測制御部128から入力されるその予測パラメータ、量子化部108から入力される量子化係数に基づいて、符号化ビットストリーム(またはシーケンス)を生成してもよい。予測パラメータは復号装置に使用されてもよい。復号装置は、符号化ビットストリームを受信して復号し、イントラ予測部124、インター予測部126および予測制御部128において行われる予測処理と同じ処理を行ってもよい。予測パラメータは、選択予測信号(例えば、動きベクトル、予測タイプ、または、イントラ予測部124またはインター予測部126で用いられた予測モード)、または、イントラ予測部124、インター予測部126および予測制御部128において行われる予測処理に基づく、あるいはその予測処理を示す、任意のインデックス、フラグ、もしくは値を含んでいてもよい。
いくつかの実施形態において、予測制御部128は、マージモードで動作し、イントラ予測部124からのイントラ予測信号とインター予測部126からのインター予測信号とを用いてカレントピクチャに対して算出された動きベクトルを最適化する。図9Bは、マージモードでカレントピクチャの動きベクトルを導出する処理の一例を示している。
まず、予測MVの候補を登録した予測MVリストを生成する。予測MVの候補としては、対象ブロックの空間的に周辺に位置する複数の符号化済みブロックが持つMVである空間隣接予測MV、符号化済み参照ピクチャにおける対象ブロックの位置を投影した近辺のブロックが持つMVである時間隣接予測MV、空間隣接予測MVと時間隣接予測MVのMV値を組み合わせて生成したMVである結合予測MV、および値がゼロのMVであるゼロ予測MV等がある。
次に、予測MVリストに登録されている複数の予測MVの中から1つの予測MVを選択することで、対象ブロックのMVとして決定する。
さらに、可変長符号化部では、どの予測MVを選択したかを示す信号であるmerge_idxをストリームに記述して符号化する。
なお、図9Bで説明した予測MVリストに登録する予測MVは一例であり、図中の個数とは異なる個数であったり、図中の予測MVの一部の種類を含まない構成であったり、図中の予測MVの種類以外の予測MVを追加した構成であったりしてもよい。
マージモードにより導出した対象ブロックのMVを用いて、後述するDMVR(decoder motion vector refinement)処理を行うことによって最終的なMVを決定してもよい。
図9Cは、MVを決定するためのDMVR処理の一例を説明するための概念図である。
まず、(例えばマージモードにおいて)カレントブロックに設定された最適MVPを、候補MVとする。そして、候補MV(L0)に従って、L0方向の符号化済みピクチャである第1参照ピクチャ(L0)から参照画素を特定する。同様に、候補MV(L1)に従って、L1方向の符号化済みピクチャである第2参照ピクチャ(L1)から参照画素を特定する。これらの参照画素の平均をとることでテンプレートを生成する。
次に、前記テンプレートを用いて、第1参照ピクチャ(L0)および第2参照ピクチャ(L1)の候補MVの周辺領域をそれぞれ探索し、コストが最小となるMVを最終的なMVとして決定する。なお、コスト値は、例えば、テンプレートの各画素値と探索領域の各画素値との差分値および候補MV値等を用いて算出してもよい。
なお、典型的には、符号化装置と、後述の復号化装置とでは、ここで説明した処理の構成および動作は基本的に共通である。
ここで説明した処理例そのものでなくても、候補MVの周辺を探索して最終的なMVを導出することができる処理であれば、どのような処理を用いてもよい。
次に、LIC(local illumination compensation)処理を用いて予測画像(予測)を生成するモードの一例について説明する。
図9Dは、LIC処理による輝度補正処理を用いた予測画像生成方法の一例を説明するための概念図である。
まず、符号化済みの参照ピクチャからMVを導出して、カレントブロックに対応する参照画像を取得する。
次に、カレントブロックに対して、参照ピクチャとカレントピクチャとで輝度値がどのように変化したかを示す情報を抽出する。この抽出は、カレントピクチャにおける符号化済み左隣接参照領域(周辺参照領域)および符号化済み上隣参照領域(周辺参照領域)の輝度画素値と、導出されたMVで指定された参照ピクチャ内の同等位置における輝度画素値とに基づいて行われる。そして、輝度値がどのように変化したかを示す情報を用いて、輝度補正パラメータを算出する。
MVで指定された参照ピクチャ内の参照画像に対して前記輝度補正パラメータを適用する輝度補正処理を行うことで、カレントブロックに対する予測画像を生成する。
なお、図9Dにおける前記周辺参照領域の形状は一例であり、これ以外の形状を用いてもよい。
また、ここでは1枚の参照ピクチャから予測画像を生成する処理について説明したが、複数枚の参照ピクチャから予測画像を生成する場合も同様であり、各々の参照ピクチャから取得した参照画像に、上述と同様の方法で輝度補正処理を行ってから予測画像を生成してもよい。
LIC処理を適用するかどうかの判定の方法として、例えば、LIC処理を適用するかどうかを示す信号であるlic_flagを用いる方法がある。具体的な一例としては、符号化装置において、カレントブロックが、輝度変化が発生している領域に属しているかどうかを判定し、輝度変化が発生している領域に属している場合はlic_flagとして値「1」を設定してLIC処理を適用して符号化を行い、輝度変化が発生している領域に属していない場合はlic_flagとして値「0」を設定してLIC処理を適用せずに符号化を行う。一方、復号化装置では、ストリームに記述されたlic_flagを復号化することで、その値に応じてLIC処理を適用するかどうかを切替えて復号を行ってもよい。
LIC処理を適用するかどうかの判定の別の方法として、例えば、周辺ブロックでLIC処理を適用したかどうかに従って判定する方法もある。具体的な一例としては、カレントブロックがマージモードであった場合、マージモード処理におけるMVの導出の際に選択した周辺の符号化済みブロックがLIC処理を適用して符号化したかどうかを判定する。その結果に応じてLIC処理を適用するかどうかを切替えて符号化を行う。なお、この例の場合でも、同じ処理が復号装置側の処理に適用される。
[復号装置の概要]
次に、上記の符号化装置100から出力された符号化信号(符号化ビットストリーム)を復号可能な復号装置の概要について説明する。図10は、実施の形態に係る復号装置200の機能構成を示すブロック図である。復号装置200は、動画像をブロック単位で復号する動画像復号装置である。
次に、上記の符号化装置100から出力された符号化信号(符号化ビットストリーム)を復号可能な復号装置の概要について説明する。図10は、実施の形態に係る復号装置200の機能構成を示すブロック図である。復号装置200は、動画像をブロック単位で復号する動画像復号装置である。
図10に示すように、復号装置200は、エントロピー復号部202と、逆量子化部204と、逆変換部206と、加算部208と、ブロックメモリ210と、ループフィルタ部212と、フレームメモリ214と、イントラ予測部216と、インター予測部218と、予測制御部220と、を備える。
復号装置200は、例えば、汎用プロセッサ及びメモリにより実現される。この場合、メモリに格納されたソフトウェアプログラムがプロセッサにより実行されたときに、プロセッサは、エントロピー復号部202、逆量子化部204、逆変換部206、加算部208、ループフィルタ部212、イントラ予測部216、インター予測部218及び予測制御部220として機能する。また、復号装置200は、エントロピー復号部202、逆量子化部204、逆変換部206、加算部208、ループフィルタ部212、イントラ予測部216、インター予測部218及び予測制御部220に対応する専用の1以上の電子回路として実現されてもよい。
以下に、復号装置200に含まれる各構成要素について説明する。
[エントロピー復号部]
エントロピー復号部202は、符号化ビットストリームをエントロピー復号する。具体的には、エントロピー復号部202は、例えば、符号化ビットストリームから二値信号に算術復号する。そして、エントロピー復号部202は、二値信号を多値化(debinarize)する。エントロピー復号部202は、ブロック単位で量子化係数を逆量子化部204に出力する。エントロピー復号部202は、実施の形態におけるイントラ予測部216、インター予測部218および予測制御部220に、符号化ビットストリーム(図1参照)に含まれている予測パラメータを出力してもよい。イントラ予測部216、インター予測部218および予測制御部220は、符号化装置側におけるイントラ予測部124、インター予測部126および予測制御部128で行われる処理と同じ予測処理を実行することができる。
エントロピー復号部202は、符号化ビットストリームをエントロピー復号する。具体的には、エントロピー復号部202は、例えば、符号化ビットストリームから二値信号に算術復号する。そして、エントロピー復号部202は、二値信号を多値化(debinarize)する。エントロピー復号部202は、ブロック単位で量子化係数を逆量子化部204に出力する。エントロピー復号部202は、実施の形態におけるイントラ予測部216、インター予測部218および予測制御部220に、符号化ビットストリーム(図1参照)に含まれている予測パラメータを出力してもよい。イントラ予測部216、インター予測部218および予測制御部220は、符号化装置側におけるイントラ予測部124、インター予測部126および予測制御部128で行われる処理と同じ予測処理を実行することができる。
[逆量子化部]
逆量子化部204は、エントロピー復号部202から入力された復号対象ブロック(以下、カレントブロックという)の量子化係数を逆量子化する。具体的には、逆量子化部204は、カレントブロックの量子化係数の各々について、当該量子化係数に対応する量子化パラメータに基づいて当該量子化係数を逆量子化する。そして、逆量子化部204は、カレントブロックの逆量子化された量子化係数(つまり変換係数)を逆変換部206に出力する。
逆量子化部204は、エントロピー復号部202から入力された復号対象ブロック(以下、カレントブロックという)の量子化係数を逆量子化する。具体的には、逆量子化部204は、カレントブロックの量子化係数の各々について、当該量子化係数に対応する量子化パラメータに基づいて当該量子化係数を逆量子化する。そして、逆量子化部204は、カレントブロックの逆量子化された量子化係数(つまり変換係数)を逆変換部206に出力する。
[逆変換部]
逆変換部206は、逆量子化部204から入力された変換係数を逆変換することにより予測誤差(残差)を復元する。
逆変換部206は、逆量子化部204から入力された変換係数を逆変換することにより予測誤差(残差)を復元する。
例えば符号化ビットストリームから読み解かれた情報がEMT又はAMTを適用することを示す場合(例えばAMTフラグが真)、逆変換部206は、読み解かれた変換タイプを示す情報に基づいてカレントブロックの変換係数を逆変換する。
また例えば、符号化ビットストリームから読み解かれた情報がNSSTを適用することを示す場合、逆変換部206は、変換係数に逆再変換を適用する。
[加算部]
加算部208は、逆変換部206から入力された予測誤差と予測制御部220から入力された予測サンプルとを加算することによりカレントブロックを再構成する。そして、加算部208は、再構成されたブロックをブロックメモリ210及びループフィルタ部212に出力する。
加算部208は、逆変換部206から入力された予測誤差と予測制御部220から入力された予測サンプルとを加算することによりカレントブロックを再構成する。そして、加算部208は、再構成されたブロックをブロックメモリ210及びループフィルタ部212に出力する。
[ブロックメモリ]
ブロックメモリ210は、イントラ予測で参照されるブロックであって復号対象ピクチャ(以下、カレントピクチャという)内のブロックを格納するための記憶部である。具体的には、ブロックメモリ210は、加算部208から出力された再構成ブロックを格納する。
ブロックメモリ210は、イントラ予測で参照されるブロックであって復号対象ピクチャ(以下、カレントピクチャという)内のブロックを格納するための記憶部である。具体的には、ブロックメモリ210は、加算部208から出力された再構成ブロックを格納する。
[ループフィルタ部]
ループフィルタ部212は、加算部208によって再構成されたブロックにループフィルタを施し、フィルタされた再構成ブロックをフレームメモリ214及び表示装置等に出力する。
ループフィルタ部212は、加算部208によって再構成されたブロックにループフィルタを施し、フィルタされた再構成ブロックをフレームメモリ214及び表示装置等に出力する。
符号化ビットストリームから読み解かれたALFのオン/オフを示す情報がALFのオンを示す場合、局所的な勾配の方向及び活性度に基づいて複数のフィルタの中から1つのフィルタが選択され、選択されたフィルタが再構成ブロックに適用される。
[フレームメモリ]
フレームメモリ214は、インター予測に用いられる参照ピクチャを格納するための記憶部であり、フレームバッファと呼ばれることもある。具体的には、フレームメモリ214は、ループフィルタ部212によってフィルタされた再構成ブロックを格納する。
フレームメモリ214は、インター予測に用いられる参照ピクチャを格納するための記憶部であり、フレームバッファと呼ばれることもある。具体的には、フレームメモリ214は、ループフィルタ部212によってフィルタされた再構成ブロックを格納する。
[イントラ予測部]
イントラ予測部216は、符号化ビットストリームから読み解かれたイントラ予測モードに基づいて、ブロックメモリ210に格納されたカレントピクチャ内のブロックを参照してイントラ予測を行うことで、予測信号(イントラ予測信号)を生成する。具体的には、イントラ予測部216は、カレントブロックに隣接するブロックのサンプル(例えば輝度値、色差値)を参照してイントラ予測を行うことでイントラ予測信号を生成し、イントラ予測信号を予測制御部220に出力する。
イントラ予測部216は、符号化ビットストリームから読み解かれたイントラ予測モードに基づいて、ブロックメモリ210に格納されたカレントピクチャ内のブロックを参照してイントラ予測を行うことで、予測信号(イントラ予測信号)を生成する。具体的には、イントラ予測部216は、カレントブロックに隣接するブロックのサンプル(例えば輝度値、色差値)を参照してイントラ予測を行うことでイントラ予測信号を生成し、イントラ予測信号を予測制御部220に出力する。
なお、色差ブロックのイントラ予測において輝度ブロックを参照するイントラ予測モードが選択されている場合は、イントラ予測部216は、カレントブロックの輝度成分に基づいて、カレントブロックの色差成分を予測してもよい。
また、符号化ビットストリーム(例えば、エントロピー復号部202から出力される予測パラメータ)から読み解かれた情報がPDPCの適用を示す場合、イントラ予測部216は、水平/垂直方向の参照画素の勾配に基づいてイントラ予測後の画素値を補正する。
[インター予測部]
インター予測部218は、フレームメモリ214に格納された参照ピクチャを参照して、カレントブロックを予測する。予測は、カレントブロック又はカレントブロック内のサブブロック(例えば4x4ブロック)の単位で行われる。例えば、インター予測部218は、符号化ビットストリーム(例えば、エントロピー復号部202から出力される予測パラメータ)から読み解かれた動き情報(例えば動きベクトル)を用いて動き補償を行うことでカレントブロック又はサブブロックのインター予測信号を生成し、インター予測信号を予測制御部220に出力する。
インター予測部218は、フレームメモリ214に格納された参照ピクチャを参照して、カレントブロックを予測する。予測は、カレントブロック又はカレントブロック内のサブブロック(例えば4x4ブロック)の単位で行われる。例えば、インター予測部218は、符号化ビットストリーム(例えば、エントロピー復号部202から出力される予測パラメータ)から読み解かれた動き情報(例えば動きベクトル)を用いて動き補償を行うことでカレントブロック又はサブブロックのインター予測信号を生成し、インター予測信号を予測制御部220に出力する。
符号化ビットストリームから読み解かれた情報がOBMCモードを適用することを示す場合、インター予測部218は、動き探索により得られたカレントブロックの動き情報だけでなく、隣接ブロックの動き情報も用いて、インター予測信号を生成する。
また、符号化ビットストリームから読み解かれた情報がFRUCモードを適用することを示す場合、インター予測部218は、符号化ストリームから読み解かれたパターンマッチングの方法(バイラテラルマッチング又はテンプレートマッチング)に従って動き探索を行うことにより動き情報を導出する。そして、インター予測部218は、導出された動き情報を用いて動き補償(予測)を行う。
また、インター予測部218は、BIOモードが適用される場合に、等速直線運動を仮定したモデルに基づいて動きベクトルを導出する。また、符号化ビットストリームから読み解かれた情報がアフィン動き補償予測モードを適用することを示す場合には、インター予測部218は、複数の隣接ブロックの動きベクトルに基づいてサブブロック単位で動きベクトルを導出する。
[予測制御部]
予測制御部220は、イントラ予測信号及びインター予測信号のいずれかを選択し、選択した信号を予測信号として加算部208に出力する。また、予測制御部220は、符号化装置側の予測制御部128を参照して、上述したようなマージモード(図9B参照)、DMVR処理(図9C参照)、LIC処理(図9D参照)などの様々な機能および処理を行ってもよい。全体的に、復号装置側の予測制御部220、イントラ予測部216およびインター予測部218の構成、機能、および処理は、符号化装置側の予測制御部128、イントラ予測部124およびインター予測部126の構成、機能、および処理と対応していてもよい。
予測制御部220は、イントラ予測信号及びインター予測信号のいずれかを選択し、選択した信号を予測信号として加算部208に出力する。また、予測制御部220は、符号化装置側の予測制御部128を参照して、上述したようなマージモード(図9B参照)、DMVR処理(図9C参照)、LIC処理(図9D参照)などの様々な機能および処理を行ってもよい。全体的に、復号装置側の予測制御部220、イントラ予測部216およびインター予測部218の構成、機能、および処理は、符号化装置側の予測制御部128、イントラ予測部124およびインター予測部126の構成、機能、および処理と対応していてもよい。
[インター予測の詳細]
以下では、本願に係るインター予測の他の実施の形態に係る例について説明する。本実施の形態は、いわゆるBIOモードのインター予測に関連する。本実施の形態において、ブロックの動きベクトルは、画素単位ではなく、図1~10に示される実施の形態と同様に、サブブロック単位で補正される。本実施の形態の説明では、図1~10に示される実施の形態との差異に着目する。
以下では、本願に係るインター予測の他の実施の形態に係る例について説明する。本実施の形態は、いわゆるBIOモードのインター予測に関連する。本実施の形態において、ブロックの動きベクトルは、画素単位ではなく、図1~10に示される実施の形態と同様に、サブブロック単位で補正される。本実施の形態の説明では、図1~10に示される実施の形態との差異に着目する。
本実施の形態における符号化装置および復号装置の構成は、図1~10に示される実施の形態における構成と実質的に同じであるため、これらの構成の描写および説明は省略する。
[インター予測]
図11は、本実施の形態におけるインター予測を示すフローチャートである。図12は、本実施の形態におけるインター予測を説明するために用いられる概念図である。以下の処理は、符号化装置100のインター予測部126および復号装置200のインター予測部218によって行われる。
図11は、本実施の形態におけるインター予測を示すフローチャートである。図12は、本実施の形態におけるインター予測を説明するために用いられる概念図である。以下の処理は、符号化装置100のインター予測部126および復号装置200のインター予測部218によって行われる。
図11に示すように、まず、符号化/復号対象ピクチャ(カレントピクチャ1000)内の複数のブロックに対してブロックループ処理を行う(S101~S111)。図12において、複数のブロックから符号化/復号対象ブロックをカレントブロック1001として選択する。
ブロックループ処理では、処理済みピクチャである第1参照ピクチャ1100(L0)と第2参照ピクチャ1200(L1)に対し参照ピクチャにおいてループ処理を行う(S102~S106)。
参照ピクチャループ処理では、まず、参照ピクチャから予測画像を取得するために、ブロック動きベクトルを導出または取得する(S103)。図12では、第1参照ピクチャ1100に対する第1動きベクトル1110(MV_L0)を導出または取得し、第2参照ピクチャ1200に対する第2動きベクトル1210(MV_L1)を導出または取得する。利用可能な動きベクトル導出方法の例は、通常のインター予測モード、マージモード、および、FRUCモードなどである。通常のインター予測モードの場合、符号化装置100は、動き探索によって動きベクトルを導出し、復号装置200は、ビットストリームから動きベクトルを取得する。
次に、導出または取得した動きベクトルを用いて動き補償を行うことにより、参照ピクチャから予測画像を取得する(S104)。図12では、第1動きベクトル1110を用いて動き補償を行うことにより、第1参照ピクチャ1100から第1予測画像1140を取得する。また、第2動きベクトル1210を用いて動き補償を行うことにより、第2参照ピクチャ1200から第2予測画像1240を取得する。
動き補償では、動き補償フィルタを参照ピクチャに適用する。動き補償フィルタは、サブ画素精度での予測画像を取得するために用いられる補間フィルタである。図12における第1参照ピクチャ1100を用いて、第1予測ブロック1120内の画素および周辺画素を含む第1補間範囲1130内の画素は、第1動きベクトル1110によって示される第1予測ブロック1120において動き補償フィルタによって参照される。また、第2参照ピクチャ1200を用いて、第2予測ブロック1220内の画素および周辺画素を含む第2補間範囲1230内の画素は、第2動きベクトル1210によって示される第2予測ブロック1220において動き補償フィルタによって参照される。
なお、第1補間参照範囲1130および第2補間範囲1230は、ローカル動き検出値を用いて処理を行う通常インター予測においてカレントブロック1001の動き補償を行うために用いられる第1通常参照範囲および第2通常参照範囲を含む。第1通常参照範囲は、第1参照ピクチャ1100に含まれ、第2通常参照範囲は、第2参照ピクチャ1200に含まれる。通常インター予測では、動き探索を用いてブロックにおいて動きベクトルを導出し、導出された動きベクトルに対してブロックにおいて動き補償を行い、動き補償された画像を最終予測画像として用いる。つまり、ローカル動き検出値を、通常インター予測で用いない。なお、第1補間参照範囲1130および第2補間参照範囲1230は、第1通常参照範囲および第2通常参照範囲と一致していてもよい。
次に、予測画像に対応する勾配画像を参照ピクチャから取得する(S105)。勾配画像における各画素は、輝度または色差の空間的な傾きを示す勾配値を有する。勾配値は、勾配フィルタを参照ピクチャに適用することによって取得する。図12における第1参照ピクチャ1100では、第1予測ブロック1120内の画素および周辺画素を含む第1勾配参照範囲1135内の画素は、第1予測ブロック1120に対する勾配フィルタを用いて参照される。第1勾配参照範囲1135は、第1補間参照範囲1130に含まれる。第2参照ピクチャ1200では、第2予測ブロック1220内の画素および周辺画素を含む第2勾配参照範囲1235内の画素は、第2予測ブロック1220に対する勾配フィルタを用いて参照される。第2勾配参照範囲1235は、第2補間参照範囲1230に含まれる。
第1参照ピクチャと第2参照ピクチャの両方から予測画像と勾配画像とを取得すると、参照ピクチャループ処理は終了する(S106)。その後、ブロックをさらに分割することで得られる複数のサブブロックに対してループ処理を行う(S107~S110)。各サブブロックのサイズは、カレントブロックのサイズより小さい(例えば、4×4画素サイズ)。
サブブロックループ処理において、まず、第1参照ピクチャ1100および第2参照ピクチャ1200から得られた、第1予測画像1140と、第2予測画像1240と、第1勾配画像1150と、第2勾配画像1250とを用いて、ローカル動き検出値1300を導出する(S108)。例えば、第1予測画像1140、第2予測画像1240、第1勾配画像1150、および、第2勾配画像1250それぞれにおける予測サブブロック内の画素を参照し、サブブロックに対してローカル動き検出値1300を導出する。予測サブブロックは、カレントブロック1001のサブブロックに対応する第1予測ブロック1140および第2予測ブロック1240内の領域である。ローカル動き検出値は、補正動きベクトルと呼ばれることもある。
次に、第1予測画像1140および第2予測画像1240の画素値と、第1勾配画像1150および第2勾配画像1250の勾配値と、ローカル動き検出値1300とを用いて、サブブロックに対する最終予測画像1400を生成する。カレントブロックのサブブロックごとに最終予測画像を生成した場合、カレントブロックに対して最終予測画像が生成され、サブブロックループ処理は終了する(S110)。
ブロックループ処理が終了すると(S111)、図11における処理は終了する。
なお、予測画像および勾配画像は、カレントブロックのサブブロックに対する動きベクトルを各サブブロックに割り当てることにより、サブブロックレベルで取得することができる。
[本実施の形態の例における動き補償フィルタおよび勾配フィルタの参照範囲]
以下では、本実施の形態に係る動き補償フィルタおよび勾配フィルタの参照範囲の例について述べる。
以下では、本実施の形態に係る動き補償フィルタおよび勾配フィルタの参照範囲の例について述べる。
図13は、本実施の形態の例に係る勾配フィルタおよび動き補償フィルタの参照範囲の例を説明するために用いられる概念図である。
図13において、各〇はサンプルを表す。図13に示す例では、カレントブロックのサイズは8×8サンプルであり、サブブロックのサイズは4×4サンプルである。
参照範囲1131は、第1予測ブロック1120の左上サンプル1122に適用される動き補償フィルタの参照範囲である(例えば、8×8サンプルでの正方形範囲)。参照範囲1231は、第2予測ブロック1220の左上サンプル1222に適用される動き補償フィルタの参照範囲である(例えば、8×8サンプルでの正方形範囲)。
参照範囲1132は、第1予測ブロック1120の左上サンプル1122に適用される勾配フィルタの参照範囲である(例えば、6×6サンプルでの正方形範囲)。参照範囲1232は、第2予測ブロック1220の左上サンプル1222に適用される勾配フィルタの参照範囲である(例えば、6×6サンプルでの正方形範囲)。
動き補償フィルタおよび勾配フィルタは、各サンプルに対応する位置で同じサイズの参照範囲内のサンプルを参照しながら、第1予測ブロック1120および第2予測ブロック1220のその他のサンプルに適用される。その結果、第1予測画像1140および第2予測画像1240を取得するために、第1補間範囲1130および第2補間範囲1230内のサンプルを参照する。また、第1勾配画像1150および第2勾配画像1250を取得するために、第1勾配範囲1135および第2勾配範囲1235内のサンプルを参照する。
[効果など]
このように、本実施の形態における符号化装置および復号装置は、サブブロックのローカル動き検出値を導出することができる。したがって、サブサンプル単位でローカル動き検出値を用いて予測誤差を削減しながら、処理負荷または処理時間を、サンプル単位のローカル動き検出値の導出時と比べて削減することができる。
このように、本実施の形態における符号化装置および復号装置は、サブブロックのローカル動き検出値を導出することができる。したがって、サブサンプル単位でローカル動き検出値を用いて予測誤差を削減しながら、処理負荷または処理時間を、サンプル単位のローカル動き検出値の導出時と比べて削減することができる。
また、本実施の形態における符号化装置および復号装置は、通常参照範囲内の補間参照範囲を用いることができる。したがって、サブブロックにおけるローカル動き検出値を用いて最終予測画像を生成する場合、新たなサンプルデータを動き補償中にフレームメモリからロードする必要がなく、メモリ容量およびメモリバンド幅の増加を抑えることができる。
また、本実施の形態における符号化装置および復号装置は、通常参照範囲内の勾配参照範囲を用いることができる。したがって、勾配画像を取得するために新たなサンプルデータをフレームメモリからロードする必要がなく、メモリ容量およびメモリバンド幅の増加を抑えることができる。
本実施の形態は、他の実施の形態の少なくともいくつかの態様と組み合わせてもよい。また、本実施の形態のいくつかの処理、装置のいくつかの要素、および、フローチャートで説明されたいくつかのシンタックスは、他の実施の形態の態様と組み合わせてもよい。
[本実施の形態の変形例1]
以下では、本実施の形態に係る勾配フィルタおよび動き補償フィルタの変形例について詳述する。変形例1において、第2予測画像に関する処理は、第1予測画像に関する処理と同様であり、さらなる説明は省略されるか簡略化される。
以下では、本実施の形態に係る勾配フィルタおよび動き補償フィルタの変形例について詳述する。変形例1において、第2予測画像に関する処理は、第1予測画像に関する処理と同様であり、さらなる説明は省略されるか簡略化される。
[動き補償フィルタ]
まず、動き補償フィルタについて説明する。図14は、本実施の形態の変形例1における動き補償フィルタの参照範囲の例を説明するために用いられる概念図である。
まず、動き補償フィルタについて説明する。図14は、本実施の形態の変形例1における動き補償フィルタの参照範囲の例を説明するために用いられる概念図である。
以下の説明において、水平方向に1/4サンプル、垂直方向に1/2サンプルでの動き補償フィルタを第1予測ブロック1120に適用する。当該動き補償フィルタは、いわゆる8タップフィルタであり、以下の式(3)で表される。
ここで、Ik[x,y]は、kが0の場合、サブサンプル精度での第1予測画像におけるサンプル値を表し、kが1の場合、サブサンプル精度での第2予測画像におけるサンプル値を表している。サンプル値は、サンプルに対する値であり、例えば、予測画像における輝度値または色差値である。ここで、w0.25およびw0.5は、1/4サンプル精度および1/2サンプル精度に対する重み係数である。I0
k[x,y]は、kが0の場合、全体サンプル精度での第1予測画像におけるサンプル値を表し、kが1の場合、全体サンプル精度での第2予測画像におけるサンプル値を表している。
例えば、式(3)における動き補償フィルタを図14の左上サンプル1122に適用する場合、参照範囲1131A内の水平方向に配置されたサンプルの値は行ごとに重み付け加算され、それらの行に対する加算結果も重み付け加算される。
本変形例において、左上サンプル1122に対する動き補償フィルタは、参照範囲1131A内のサンプルを参照する。参照範囲1131Aは、左上サンプル1122の左側に3サンプル、右側に4サンプル、上側に3サンプル、下側に4サンプル続いている矩形範囲である。
この動き補償フィルタは、第1予測ブロック1120内の全てのサンプルに適用される。したがって、第1補間参照範囲1130A内のサンプルは、第1予測ブロック1120に対する動き補償フィルタによって参照される。
この動き補償フィルタは、第1予測ブロック1120と同様に、第2予測ブロック1220に適用される。つまり、参照範囲1231A内のサンプルは、左上サンプル1222に対して参照され、第2補間範囲1230A内のサンプルは、第2予測ブロック1220全体において参照される。
[勾配フィルタ]
以下は、勾配フィルタの説明である。図15は、本実施の形態の変形例1における勾配フィルタの参照範囲の例を説明するために用いられる概念図である。
以下は、勾配フィルタの説明である。図15は、本実施の形態の変形例1における勾配フィルタの参照範囲の例を説明するために用いられる概念図である。
本変形例における勾配フィルタは、いわゆる5タップフィルタであり、以下の式(4)および式(5)で表される。
ここで、Ix
k[x,y]は、kが0の場合、第1勾配画像におけるサンプルごとの水平勾配値を表し、kが1の場合、第2勾配画像におけるサンプルごとの水平勾配値を表している。Iy
k[x,y]は、kが0の場合、第1勾配画像におけるサンプルごとの垂直勾配値を表し、kが1の場合、第2勾配画像におけるサンプルごとの垂直勾配値を表している。
例えば、式(4)および式(5)における勾配フィルタを図15の左上サンプル1122に適用する場合、水平勾配サンプル値は、左上サンプル1122を含む水平方向に配置された5サンプルのサンプル値であり、全体サンプル精度での予測画像におけるサンプル値を重み付け加算することにより算出される。このとき、重み係数は、左上サンプル1122の上または下側および左または右側のサンプルに対して正または負の値を有する。
本変形例において、左上サンプル1122に対する勾配フィルタは、参照範囲1132A内のサンプルを参照する。参照範囲1132Aは、十字形状であり、左上サンプル1122の上下および左右の2サンプル延在している。
この勾配フィルタは、第1予測ブロック1120における全てのサンプルに適用される。したがって、第1勾配参照範囲1135A内のサンプルは、第1予測ブロック1120に対する動き補償フィルタによって参照される。
この勾配フィルタは、第1予測ブロック1120と同様に、第2予測ブロック1220に適用される。つまり、参照範囲1232A内のサンプルは、左上サンプル1222に対して参照され、第2勾配範囲1235A内のサンプルは、第2予測ブロック1220全体において参照される。
参照範囲を示す動きベクトルがサブサンプル位置を示す場合、勾配フィルタの参照範囲1132Aおよび1232Aにおけるサンプル値をサブサンプル精度でのサンプル値に変換してもよく、勾配フィルタを変換後のサンプル値に適用してもよい。また、サブサンプル精度へ変換するための係数値と勾配値を導出するための係数値とを畳み込むことによって得られた係数値を有する勾配フィルタを、全体サンプル精度でのサンプル値に適用してもよい。この場合、勾配フィルタは、サブサンプル位置ごとに異なる。
[サブブロックに対するローカル動き検出値の導出]
以下は、サブブロックに対するローカル動き検出値の導出についての説明である。この例において、ローカル動き検出値は、カレントブロックにおけるサブブロックのうち左上サブブロックに対して導出される。
以下は、サブブロックに対するローカル動き検出値の導出についての説明である。この例において、ローカル動き検出値は、カレントブロックにおけるサブブロックのうち左上サブブロックに対して導出される。
本変形例では、以下の式(6)に基づいて、水平ローカル動き検出値uおよび垂直ローカル動き検出値vをサブブロックに対して導出する。
ここで、sGx、sGy、sGx
2,、sGy
2、sGxdI、および、sGydIは、サブブロックにおいて算出された値であり、以下の式(7)に基づいて導出される。
ここで、Ωは、サブブロックに対応する予測ブロックの領域/エリアにおける予測サブブロック内の全てのサンプルに対する座標セットである。Gx[i,j]は、第1勾配画像の水平勾配値と第2勾配画像の水平勾配値との和を示し、Gy[i,j]は、第1勾配画像の垂直勾配値と第2勾配画像の垂直勾配値との和を示す。ΔI[i,j]は、第1予測画像および第2予測画像に対する差分値を示す。w[i,j]は、予測サブブロックにおけるサンプル位置によって決まる重み係数を示す。しかしながら、予測サブブロック内の全てのサンプルに対して同じ値の重み係数を用いてもよい。
より具体的には、Gx[i,j]、Gy[i,j]、および、ΔI[i,j]は、以下の式(8)によって表される。
このように、ローカル動き検出値はサブブロックにおいて導出される。
[最終予測画像の生成]
以下は、最終予測画像の生成についての説明である。最終予測画像における各サンプル値p[x,y]は、第1予測画像におけるサンブル値I0[x,y]および第2予測画像におけるサンブル値I1[x,y]を用いて、以下の式(9)に基づいて導出される。
以下は、最終予測画像の生成についての説明である。最終予測画像における各サンプル値p[x,y]は、第1予測画像におけるサンブル値I0[x,y]および第2予測画像におけるサンブル値I1[x,y]を用いて、以下の式(9)に基づいて導出される。
ここで、b[x,y]は、サンプルごとの補正値を示す。式(9)では、第1予測画像におけるサンブル値I0[x,y]と、第2予測画像におけるサンブル値I1[x,y]と、補正値b[x,y]との和を1ビット右にシフトすることによって最終予測画像における各サンプル値p[x,y]を算出する。補正値b[x,y]は、以下の式(10)によって表される。
式(10)では、第1勾配画像および第2勾配画像における水平勾配値の差分(Ix
0[x,y]-Ix
1[x,y])に水平ローカル動き検出値(u)を掛け合わせ、第1勾配画像および第2勾配画像における垂直勾配値の差分(Iy
0[x,y]-Iy
1[x,y])に垂直ローカル動き検出値(v)を掛け合わせ、それらの積を足し合わせることによって補正値b[x,y]を算出する。
式(6)から式(10)を用いて説明した計算は、例にすぎない。同じ効果を有する式を用いてもよい。
[効果など]
このように、本変形例における動き補償フィルタおよび勾配フィルタを用いると、ローカル動き検出値をサブブロックにおいて導出することができる。このように導出されたサブブロックのローカル動き検出値を用いて、カレントブロックの最終予測画像は生成され、本実施の形態と同様の結果を得ることができる。
このように、本変形例における動き補償フィルタおよび勾配フィルタを用いると、ローカル動き検出値をサブブロックにおいて導出することができる。このように導出されたサブブロックのローカル動き検出値を用いて、カレントブロックの最終予測画像は生成され、本実施の形態と同様の結果を得ることができる。
本実施の形態は、他の実施の形態の少なくともいくつかの態様と組み合わせてもよい。また、本実施の形態のいくつかの処理、装置のいくつかの要素、および、フローチャートで説明されたいくつかのシンタックスは、他の実施の形態の態様と組み合わせてもよい。
[本実施の形態の変形例2]
本実施の形態および本実施の形態の変形例1では、ローカル動き検出値を導出する場合、カレントブロック内のサブブロックに対応する予測ブロック内の予測サブブロックにおける全てのサンプルを参照する。しかしながら、本開示は、これらの例に限定されない。例えば、予測サブブロック内のいくつかのサンプルだけを参照してもよい。このシナリオを、本実施の形態の変形例2として以下の段落で説明する。
本実施の形態および本実施の形態の変形例1では、ローカル動き検出値を導出する場合、カレントブロック内のサブブロックに対応する予測ブロック内の予測サブブロックにおける全てのサンプルを参照する。しかしながら、本開示は、これらの例に限定されない。例えば、予測サブブロック内のいくつかのサンプルだけを参照してもよい。このシナリオを、本実施の形態の変形例2として以下の段落で説明する。
本変形例の説明では、サブブロックにおいてローカル動き検出値を導出する場合、予測サブブロック内のいくつかのサンプルだけを参照する。例えば、変形例1における式(7)では、予測サブブロック内の全てのサンプルに対する座標セットΩの代わりに、予測サブブロック内のいくつかのサンプルに対する座標セットを用いる。予測サブブロック内のいくつかのサンプルに対する座標セットとして、様々なパターンを用いることができる。
図16は、実施の形態の変形例2におけるローカル動き検出値を導出することにより参照されるサンプルパターンの例を示す図である。図16において、予測ブロック1121または1221内でクロスハッチングされている〇は、参照済みサンプルを示し、クロスハッチングされていない〇は、未参照のサンプルを示す。
図16の(a)~(g)における7つのサンプルパターンはそれぞれ、予測サブブロック1121または1221内のいくつかのサンプルを示す。これら7つのサンプルパターンは、全て異なる。
図16の(a)~(c)では、予測サブブロック1121また1221内の16サンプルのうち8サンプルだけを参照する。図16の(d)~(g)では、予測サブブロック1121また1221内の16サンプルのうち4サンプルだけを参照する。つまり、図16の(a)~(c)では、16サンプルのうち8サンプルが間引かれ、図16の(d)~(g)では、16サンプルのうち12サンプルが間引かれる。
より具体的には、図16(a)では、8サンプル、つまり水平方向および垂直方向において一つおきのサンプルが参照される。図16(b)では、水平方向には左側および右側に配置されるが垂直方向には交互に配置される2組のサンプルペアが参照される。図16(c)では、予測サブブロック1121または1221において、中央の4サンプルと角の4サンプルとが参照される。
図16(d)および(e)ではそれぞれ、水平方向の第1行目および第3行目、垂直方向の第1行目および第3行目において2サンプルが参照される。図16(f)では、4つの角のサンプルが参照される。図16(g)では、4つの中央のサンプルが参照される。
2つの予測画像に基づいて、複数の所定のパターンから参照パターンを適応的に選択してもよい。例えば、2つの予測画像において代表的な勾配値に対応するサンプルを含むサンプルパターンを選択してもよい。より具体的には、代表的な勾配値が閾値よりも小さい場合、4サンプルを含むサンプルパターン(例えば、(d)~(g)のうちいずれか1つ)を選択してもよい。代表的な勾配値が閾値よりも小さい場合は、8サンプルを含むサンプルパターン(例えば、(a)~(c)のうちいずれか1つ)を選択してもよい。
複数のサンプルパターンから1つのサンプルパターンを選択した場合、選択されたサンプルパターンを示す予測サブブロック内のサンプルを参照し、サブブロックに対するローカル動き検出値を導出する。
なお、選択されたサンプルパターンを示す情報をビットストリームに書き込んでもよい。この場合、復号装置は、ビットストリームから情報を取得して、取得した情報に基づいてサンプルパターンを選択してもよい。選択されたサンプルパターンを示す情報は、ブロック、スライス、ピクチャ、または、ストリーム単位でヘッダに書き込まれてもよい。
このように、本実施の形態における符号化装置および復号装置は、予測サブブロック内のいくつかのサンプルだけを参照して、サブブロックにおけるローカル動き検出値を導出することができる。したがって、全てのサンプルを参照する場合に比べて、処理負荷または処理時間を削減することができる。
また、本実施の形態における符号化装置および復号装置は、複数のサンプルパターンから選択された1つのサンプルパターンにおけるサンプルだけを参照して、サブブロックにおけるローカル動き検出値を導出することができる。サンプルパターンを切り替えることにより、サブブロックにおけるローカル動き検出値の導出に適したサンプルを参照することができ、予測誤差を削減できる。
本実施の形態は、他の実施の形態の少なくともいくつかの態様と組み合わせてもよい。また、本実施の形態のいくつかの処理、装置のいくつかの要素、および、フローチャートで説明されたいくつかのシンタックスは、他の実施の形態の態様と組み合わせてもよい。
[本実施の形態の他の変形例]
本開示の1以上の態様における符号化装置および復号装置について、実施の形態および実施の形態の変形例を参照しながら説明した。しかしながら、本開示は、これらの実施の形態および実施の形態の変形例に限定されない。当業者であれば、本開示の趣旨および範囲を逸脱することなく、これらの実施の形態および実施の形態の変形例に施され、かつ、本開示の1以上の態様の範囲内に含まれる各種変形を容易に着想することができるであろう。
本開示の1以上の態様における符号化装置および復号装置について、実施の形態および実施の形態の変形例を参照しながら説明した。しかしながら、本開示は、これらの実施の形態および実施の形態の変形例に限定されない。当業者であれば、本開示の趣旨および範囲を逸脱することなく、これらの実施の形態および実施の形態の変形例に施され、かつ、本開示の1以上の態様の範囲内に含まれる各種変形を容易に着想することができるであろう。
例えば、本実施の形態の例および本実施の形態の変形例1で用いられる動き補償フィルタにおけるタップ数は、8サンプルであった。しかしながら、本開示は、この例に限定されない。動き補償フィルタにおけるタップ数は、補間参照範囲が通常参照範囲に含まれている限り、どんなタップ数でもよい。
本実施の形態の例および本実施の形態の変形例1で用いられる勾配フィルタにおけるタップ数は、5または6サンプルであった。しかしながら、本開示は、この例に限定されない。勾配フィルタにおけるタップ数は、勾配参照範囲が補間参照範囲に含まれている限り、どんなタップ数でもよい。
本実施の形態の例および本実施の形態の変形例1において、第1勾配参照範囲および第2勾配参照範囲は、第1補間参照範囲および第2補間参照範囲に含まれていた。しかしながら、本開示は、この例に限定されない。例えば、第1勾配参照範囲は、第1補間参照範囲と一致していてもよく、第2勾配参照範囲は、第2補間参照範囲と一致していてもよい。
サブブロックにおいてローカル動き検出値を導出する場合、予測サブブロックの中央にあるサンプルに対する値が優遇されるようにサンプル値を重み付けてもよい。具体的には、ローカル動き検出値を導出する場合、第1予測ブロックおよび第2予測ブロックの両方において、予測サブブロック内の複数のサンプルに対する値を重み付けてもよい。この場合、予測サブブロックの中央にあるサンプルに、より大きな重みを与えてもよい。つまり、予測サブブロックの中央にあるサンプルを、予測サブブロックの中央外のサンプルに用いられる値より大きな値で重み付けてもよい。より具体的には、本実施の形態の変形例1において、式(7)の重み係数w[i,j]により、予測サブブロックの中央により近い座標値をより大きくしてもよい。
サブブロックにおいてローカル動き検出値を導出する場合、隣接する予測サブブロックに属するサンプルを参照してもよい。具体的には、第1予測サブブロックおよび第2予測サブブロックの両方において、隣接する予測サブブロック内のサンプルを予測サブブロック内のサンプルに追加して参照し、サブブロックにおけるローカル動き検出値を導出してもよい。
本実施の形態の例および本実施の形態の変形例1における動き補償フィルタおよび勾配フィルタの参照範囲は、説明目的のためだけである。本開示は、これらの例に限定される必要はない。
本実施の形態の変形例2では、7つのサンプルパターンを例として挙げた。しかしながら、本開示は、これらのサンプルパターンに限定されない。例えば、7つのサンプルパターンそれぞれを回転することによって得られるサンプルパターンを用いてもよい。
本実施の形態の変形例1における重み係数の値は単なる例であり、本開示はこれらの例に限定されない。また、本実施の形態および本実施の形態の両変形例におけるブロックサイズおよびサブブロックサイズも単なる例である。本開示は、8×8サンプルサイズおよび4×4サンプルサイズに限定されない。他のサイズを用いて、本実施の形態の例および本実施の形態の両変形例と同様に、インター予測を行うことができる。
本実施の形態は、他の実施の形態の少なくともいくつかの態様と組み合わせてもよい。また、本実施の形態のいくつかの処理、装置のいくつかの要素、および、フローチャートで説明されたいくつかのシンタックスは、他の実施の形態の態様と組み合わせてもよい。
図4および図5を参照しながら述べたように、勾配値を取得するために勾配フィルタを適用する周辺サンプルの参照範囲について、予測処理で用いる予測ブロックに割り当てられた動きベクトルで示される参照ブロック内のサンプル値を、図4および図5を参照しながら述べたようなサンプル値ではなく別の値に補償してもよい。
例えば、予測ブロックに割り当てられた動きベクトルが小数サンプル位置を示す場合、小数サンプル位置に対応するサンプル値を補償して用いてもよい。
しかしながら、フィルタリング処理が、小数サンプル位置に対応するサンプル値を取得するために周辺サンプルを参照する場合、図4および図5について述べた範囲より広い範囲における周辺サンプルを参照する必要はないだろう。
上記問題を解決するために、例えば、以下の方法を本開示では提供する。
図17は、インター予測機能を用いて、別のピクチャの参照ブロックに基づきピクチャのカレントブロックの予測を生成する画像符号化/復号方法の一例1700を示すフローチャートである。
本願の実施の形態において、符号化方法は、図1に示され、対応する説明で説明されるような符号化装置100によって実現される。実施の形態において、符号化方法は、符号化装置100の他の構成要素と連携して符号化装置100のインター予測部126によって実現される。
同様に、本願の実施の形態において、復号方法は、図10に示され、対応する説明で説明されるような復号装置200によって実現される。実施の形態において、復号方法は、復号装置200の他の構成要素と連携して復号装置200のインター予測部128によって実現される。
図17に示すように、本例に係る符号化方法は、以下のステップを含む。
ステップ1702:ピクチャのカレントブロックに対する予測サンプルの第1ブロックを予測する。ここで、予測サンプルの第1ブロックを予測するステップは、別のピクチャからの動きベクトルを用いた予測処理を少なくとも含む。
ステップ1704:予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成する。ここで、第2ブロックは第1ブロックより大きい。
ステップ1706:予測サンプルの第2ブロックを用いて、少なくとも勾配を算出する。
ステップ1708:少なくとも算出した勾配を用いて、カレントブロックを符号化する。
実施の形態において、別のピクチャは、ストリームの時間領域におけるピクチャのピクチャオーダーカウント(POC)と異なるPOCを有してもよい。図18A、18B、および、18Cに示すように、ピクチャは、カレントピクチャとされてもよく、別のピクチャは、第1ピクチャまたは第2ピクチャとされてもよい。例えば、図18Aにおいて、別のピクチャが第1ピクチャである場合、別のピクチャのPOCは、左の時間領域ではピクチャのPOCよりも小さいが、右の時間領域ではピクチャのPOCよりも大きい。図18Bでは、別のピクチャが第1ピクチャである場合、別のピクチャのPOCは、左の時間領域および右の時間領域両方においてピクチャのPOCよりも小さい。図18Cでは、別のピクチャが第1ピクチャである場合、別のピクチャのPOCは、左の時間領域および右の時間領域両方においてピクチャのPOCよりも大きい。
他の実施の形態において、別のピクチャは、ピクチャと時間的および/または空間的に隣接する符号化参照ピクチャでもよい。符号化参照ピクチャは、時間的および/または空間的にピクチャのPOCよりも小さいPOCを有してもよいし、大きいPOCを有してもよい。
カレントブロックは、ピクチャ内で任意に選択されてもよい。例えば、カレントブロックは、正方形の4×4サンプルブロックでもよい。カレントブロックのサイズは、実際の予測精度ニーズに合わせて変更してもよい。
図5Cに示す動きベクトルと同様に、符号化方法の本例における動きベクトルはカレントブロックから別のピクチャを指しており、これは、図18A~図18Cに示される第1ピクチャまたは第2ピクチャでもよい。実施の形態では、特に、別のピクチャが、同じ動きベクトルで符号化された符号化参照ピクチャである場合、動きベクトルを別のピクチャからインター予測部126によって受信してもよい。
ステップ1702では、符号化装置100のインター予測部126が、別のピクチャからの動きベクトルを用いて、少なくとも前述したような予測処理によって、ピクチャのカレントブロックに対する予測サンプルの第1ブロックを予測する。
実施の形態において、予測サンプルの第1ブロックは、マージモードまたはインター予測モードなどの予測モードに対して行われる前述したような予測処理で用いられた予測ブロックと同じでもよい。
他の実施の形態において、予測サンプルの第1ブロックは、マージモードまたはインター予測モードなどの予測モードに対して行われる前述したような動き補償処理で用いられた予測ブロックと同じでもよい。
ステップ1704では、符号化装置100のインター予測部126が、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成する。予測サンプルの第2ブロックは、予測サンプルの第1ブロックよりも大きい。このように、より多くの情報が、続く処理のために第2ブロックに保持され、有利に改良処理をインター予測方法に与え、それにより、インター予測方法のメモリバンド幅アクセスを削減してもよい。これは、ハードウェアフレンドリーである。
例えば、ステップ1704は、予測サンプルの第1ブロックの少なくとも2辺に対してサンプルをパディングすることにより、符号化装置100のインター予測部126によって行われてもよい。ここで、予測サンプルの第1ブロックの少なくとも2辺は直交していない。
いくつかの実施の形態において、符号化装置100のインター予測部126は、予測サンプルの第1ブロックの少なくとも2辺を平行パディング方向にパディングしてもよい。図19Aに示すように、符号化装置100のインター予測部126は、図19Aの点線で示されるような方法で予測サンプルの4×4第1ブロック1902の垂直な2辺をパディングしてもよい。あるいは、図19Bに示すように、符号化装置100のインター予測部126は、図19Bの点線で示されるような方法で予測サンプルの4×4第1ブロック1904の水平な2辺をパディングしてもよい。
いくつかの他の実施の形態では、符号化装置100のインター予測部126は、図20A、図20B、図20C、および、図20Dに図示されるように、予測サンプルの第1ブロックの4辺をパディングしてもよい。また、図20A、図20B、図20C、および、図20Dは、予測サンプルの第1ブロックをパディングするために用いることができる4つのパディング処理を図示している。これらのパディング処理を任意のサンプルブロックをパディングするためにさらに用いてもよいことは、当業者であれば理解されよう。
実施例において、図20Aに示すように、図20Aの点線で示されたような方法で予測サンプルの第1ブロック2002をミラーリングすることによってパディング処理を行ってもよい。例えば、符号化装置100のインター予測部126は、第1ブロック2002の各エッジに関して対称的に予測サンプルの第1ブロック2002をミラーリングすることによって予測サンプルの第1ブロックをパディングしてもよい。ミラーリングは、予測サンプルの第1ブロック2002のサンプル値(例えば、「A」、「B」など)を、予測サンプルの第1ブロック2002を取り囲んでいるサンプルに対称的にコピーして予測サンプルの第2ブロック2000を形成することを含んでもよい。
他の実施例において、図20Bに示すように、図20Bの点線で示されたような方法で予測サンプルの第1ブロック2004を複写することによってパディング処理を行ってもよい。例えば、符号化装置100のインター予測部126は、予測サンプルの第1ブロック2004の各エッジに位置するサンプルのサンプル値(例えば、「A」、「B」など)を、予測サンプルの第1ブロックを取り囲んで、かつ、第1ブロック2004の各エッジに位置するサンプルそれぞれに隣接している対応サンプルに複写することによって予測サンプルの第1ブロック2004をパディングして、予測サンプルの第2ブロック2001を形成してもよい。
なお、対応サンプルは、第1ブロックに隣接する1行のサンプルでもよい。パディングされるサンプルの行の数が少ないほど、第2ブロック2001の精度は高い。また、対応サンプルは、第1ブロックに隣接する1行を含む複数行のサンプルでもよい。具体的には、対応サンプルは、第1ブロック2004の各エッジに位置するサンプルそれぞれに隣接している。パディングされるサンプルの行の数が多いほど、よりメモリバンド幅を削減することができる。また、パディングされるサンプルの行の数は、例えば、第1ブロックのサイズに基づいて設定してもよく、規格などに沿って予め決定してもよい。
他の実施例において、図20Cに示すように、図20Cの点線で示されたような方法で、予測サンプルの第1ブロックを取り囲んでいるサンプルに固定値(例えば、図20Cに示すような「Q」)をパディングすることによってパディング処理を行ってもよい。例えば、固定値は、0、128、512、正の整数、予測サンプルの第1ブロックの平均値、および、予測サンプルの第1ブロックの中央値のうち少なくとも1つから選択してもよい。平均値および中央値は、予測サンプルの第1ブロックのサンプル値と関連付けられてもよい。図20Cの例において、固定値は正の整数Qであり、符号化装置100のインター予測部126は、予測サンプルの第1ブロックを取り囲んでいるサンプルに固定値Qをパディングすることによって予測サンプルの第1ブロックをパディングして、予測サンプルの第2ブロック2050を形成してもよい。
他の実施例において、予測サンプルの第1ブロックに関数を実行することによってパディング処理を行ってもよい。関数の例は、フィルタ、多項式関数、指数関数、クリッピング関数などでもよい。簡略化のため、この例は図示されない。
さらに他の実施例において、図20Dに示すように、上述したような、ミラーリング、複写、第1値のパディング、および、予測サンプルへの関数の実行の任意の組み合わせを行うことによってパディング処理を行ってもよい。図20Dの例では、符号化装置100のインター予測部126は、第1ブロック2008まで第1一定距離離れたサンプルに予測サンプルの第1ブロック2008を複写することと、第1ブロック2008まで第2一定距離離れたサンプルに固定値Qをパディングすることの組み合わせを行うことによって予測サンプルの第1ブロック2008をパディングして、予測サンプルの第2ブロック2051を形成してもよい。
図20A~図20Dに示す例では、符号化装置100のインター予測部126が、予測サンプルの4×4第1ブロック2002、2004、2006、2008をパディングして、予測サンプルの8×8第2ブロック2000、2001、2050、2051を形成する。
図19Aおよび図19Bの例を再び参照すると、符号化装置100のインター予測部126は、予測サンプルの第1ブロック1902、1904をミラーリングすることによって予測サンプルの4×4第1ブロック1902、1904をパディングして、予測サンプルの第2ブロック1900、1901を形成することが分かる。図19Aにおいて、予測サンプルの第2ブロック1900は、8×4サンプルブロックである。図19Bにおいて、予測サンプルの第2ブロック1901は、4×8サンプルブロックである。
したがって、パディング処理から所望される予測サンプルの第2ブロックのサイズは、実際の予測精度ニーズに応じて変更可能であることは、当業者であれば理解されよう。有利には、パディング処理は、後段でインター予測処理を行うためにデータを削減する。
したがって、本符号化方法のパディングステップ1704は、図19A、図19B、および、図20A~図20Dについて上述された処理/技術ならびに/または異なるパディング方向に基づく実際の予測精度ニーズに基づいて、M×Nサイズの予測サンプルの第1ブロックをパディングして任意の所望サイズ(M+d1)×(N+d2)の予測サンプルの第2ブロックを形成するように注意して設計することができる。MはNと同じでも異なっていてもよいが、d1およびd2は0より大きいかまたは0に等しいことは、当業者であれば理解されよう。
パディングのおかげで、より多くの情報を含めてカレントブロックに対し正確な予測を生成するように、小さいサイズのデータをより大きなサイズにパディングすることができる。このように、本符号化方法は、入力として小さいサイズのデータしか必要とせず、それにより、インター予測のメモリバンド幅アクセスを削減し、よりハードウェアフレンドリーな処理を提供するという点において有利である。
ステップ1706では、符号化装置100のインター予測部126が、予測サンプルの第2ブロックを用いて少なくとも勾配を算出する。実施の形態において、少なくとも勾配を算出する際、符号化装置100のインター予測部126は、予測サンプルの第2ブロックに勾配フィルタを適用して、少なくとも1つの勾配として機能するように少なくとも微分値を生成してもよい。勾配フィルタを適用して少なくとも1つの勾配を生成する例は、勾配フィルタの節で前述されている。このように、カレントピクチャのカレントブロックにおけるデータは、参照ブロックとカレントブロックとの間の各勾配(つまり、微分値)を用いて符号化されている参照ピクチャの参照ブロックからのデータによって参照される。このようなステップは、インター予測のメモリバンド幅アクセスの削減を有利に容易にし、よりハードウェアフレンドリーな処理を提供する。
勾配フィルタの2つの例は、それぞれ図21Aおよび図21Bに示される。図21Aにおいて、1つの勾配フィルタ{2,-9,0,9,-2}は、動きベクトルの小数部分に関係なく、予測サンプルの第2ブロック内の全てのサンプル値に適用される。図21Aにおいて、勾配フィルタ{2、-9、0、9、-2}を適用する処理は、勾配フィルタの節で前述されているものと同様である。図21Aの例では、全ての動きベクトルに対し、式(4)および式(5)が用いられる。
図21Bにおいて、動きベクトルの小数部分に応じて予測サンブルの第2ブロック内のサンプル値に適用される勾配フィルタは9ある{8,-39,-3,46,-17,5}、{8,-32,-13,50,-18,5}、{7,-27,-20,54,-19,5}、{6,-21,-29,57,-18,5}、{4,-17,-36,60,-15,4}、{3,-9,-44,61,-15,4}、{1,-4,-48,61,-13,3}、{0,1,-54,60,-9,2}、{-1,4,-57,57,-4,1}。図21Bの例では、動きベクトルの小数部分は、動きベクトルのサブサンプル部分、例えば、1/4サンプルである。したがって、動きベクトルのサブサンプル部分に基づいて、異なる勾配フィルタを選択する。例えば、水平方向の動きベクトルが1+(1/4)サンプルの場合、動きベクトルの小数部分は1/4である。そして、水平勾配を算出するために勾配フィルタ{4,-17,-36,60,-15,4}を選択する。式(4)のw[i]は、{4,-17,-36,60,-15,4}で置き換えられる。他の例では、垂直方向の動きベクトルが4+(7/16)サンプルの場合、動きベクトルの小数部分は7/16である。この例では、垂直勾配を算出するために勾配フィルタ{0,1,-54,60,-9,2}を選択する。式(5)のw[i]は、{0,1,-54,60,-9,2}で置き換えられる。
図21Cおよび図21Dは、勾配フィルタの別の2つの例を示している。図21Cにおいて、1つの勾配フィルタ{-1,0,1}は、動きベクトルの小数部分に関係なく、予測サンプルの第2ブロック内の全てのサンプル値に適用される。
図21Dにおいて、1つの勾配フィルタ{-1,1}は、動きベクトルの小数部分に関係なく、予測サンプルの第2ブロック内の全てのサンプル値に適用される。図21Cおよび図21Dにおいて、各勾配フィルタ{-1,0,1}または{-1,1}を適用する処理は、勾配フィルタの節で前述されているものと同様である。
ステップ1708において、符号化装置100のインター予測部126は、少なくとも算出した勾配を用いて、ピクチャのカレントブロックを符号化する。
図17の例1700に示すように、復号方法におけるステップは、最後のステップ1708を除き、符号化方法におけるステップと同様である。この最後のステップでは、符号化装置100は少なくとも勾配を用いてカレントブロックを符号化するが、復号装置200は少なくとも勾配を用いてカレントブロックを復号する。
上記例および実施の形態は、(予測サンプルのブロックとして交互に参照される)予測ブロックを入力として用いてカレントブロックを予測する。以下では、さらに、2つの予測ブロックを入力として用いてカレントブロックを予測する、本符号化方法に係る他の実施の形態について説明する。
2つの予測ブロック(つまり、予測サンプルの2つのブロック)を入力として用いてカレントブロックを予測する場合、上述したようなステップ1702は、さらに、もう一つ別のピクチャから別の動きベクトルを用いてカレントブロックに対する予測サンブルの別のブロックを予測するステップを含む。予測サンプルの別のブロックを予測する処理は、予測サンプルの第1ブロックを予測する処理と同じである。また、上述したようなパディングのステップ1704は、予測サンプルの別のブロックをパディングして予測サンプルのさらに別のブロックを形成するステップを含む。
2つの参照ピクチャを利用してカレントブロックを予測する画像符号化/復号方法の実施の形態2200を、図22に示す。本実施の形態では、追加予測ブロックを入力として利用することに加え、サブサンプル精度のために補間処理も展開させる。実施の形態は、以下のステップを含む。
ステップ2202:異なるピクチャからの第1動きベクトルおよび第2動きベクトルを用いた予測処理を少なくとも用いて、ピクチャのカレントブロックに対する予測サンプルの第1ブロックおよび第2ブロックを予測する。
ステップ2204:予測サンプルの第1ブロックおよび第2ブロックをパディングして予測サンプルの第3ブロックおよび第4ブロックを形成する。
ステップ2206:予測サンプルの第3ブロックおよび第4ブロックに補間処理を行う。
ステップ2208:補間処理の結果を用いて勾配を算出する。
ステップ2210:少なくとも補間処理の結果と算出した勾配とを用いて、カレントブロックを符号化/復号する。
ステップ2202から2210は、図23の概念図2300に示される。図22および23に示すような符号化方法の実施の形態2200は、画像符号化装置100によって実行できる。なお、画像復号装置200によって実行される復号方法は、図22および図23に示されるような画像符号化装置100によって実行される符号化方法と同じである。
ステップ2202において、ピクチャのカレントブロックに対する予測サンプルの第1ブロックは、少なくとも予測処理を用いて予測され、当該予測処理は、別のピクチャからの第1動きベクトルを用いてサンプルを予測する。実施の形態では、第1動きベクトルは、第1ピクチャを指してもよく、第1ピクチャはカレントピクチャと異なる。
同様に、ピクチャのカレントブロックに対する予測サンプルの第2ブロックは、少なくとも予測処理を用いて予測され、当該予測処理は、もう一つ別のピクチャからの第2動きベクトルを用いてサンプルを予測する。第2動きベクトルは、第2ピクチャを指してもよく、第2ピクチャはカレントピクチャと異なる。
一例において、第1ピクチャは第2ピクチャと異なってもよい。他の例において、第1ピクチャは第2ピクチャと同じでもよい。
一例において、図18Aに示すように、第1ピクチャおよび第2ピクチャのピクチャオーダーカウント(POC)の少なくとも一方は、カレントピクチャのPOCよりも小さく、第1ピクチャおよび第2ピクチャのピクチャオーダーカウント(POC)の他方は、カレントピクチャのPOCよりも大きい。
他の例において、図18Bに示すように、第1ピクチャおよび第2ピクチャのPOCは、カレントピクチャのPOCより小さくてもよい。
さらに他の例において、図18Cに示すように、第1ピクチャおよび第2ピクチャのPOCは、カレントピクチャのPOCより大きくてもよい。
図18Aから図18Cに示される第1ピクチャ、第2ピクチャ、および、カレントピクチャのPOCは時間領域にあり、データストリームにおけるこれらピクチャの符号化順序を示す。符号化順序は、データストリーム(例えば、ビデオクリップ)におけるこれらピクチャの再生順序と同じでも異なっていてもよい。POCは、空間領域におけるこれらピクチャの順序のことであってもよいことは当業者であれば理解されよう。
一例において、ステップ2202で予測される予測サンプルの第1ブロックおよび第2ブロックは、マージモード、インター予測モードなどの予測モードに対して行われる動き補償処理で用いられた参照ブロックと同じでもよい。
一例において、予測サンプルの第1ブロックおよび第2ブロックは、カレントブロックと等しくてもよいし、大きくてもよい。
図23に示すように、図22の予測ステップ2202の実施の形態は、ステップ2302に示される。本実施の形態において、カレントブロックは、M×Nのサイズを有する。ここで、Mは、Nと同じでもよいし、異なっていてもよい。符号化装置100のインター予測部126は、(M+d1)×(N+d2)のサイズをそれぞれ有する予測サンプルの第1ブロックおよび第2ブロックを予測してもよい。ここで、d1およびd2は、0に等しくてもよいし、0より大きくてもよい。予測サンプルの第1ブロックの例は、点線で示される。予測サンプルの第2ブロックは、第1ブロックと同じサイズを有する。予測サンプルの第2ブロックは、予測サンプルの第1ブロックと異なるサイズを有してもよいことは理解されよう。
より多くの情報を予測サンプルに含めることができるので、カレントブロックよりも大きなサイズの予測サンプルの第1ブロックおよび第2ブロックを予測することはより有利に思われ、より正確な予測結果に貢献する。
ステップ2204では、予測サンプルの第1ブロックをパディングして予測サンプルの第3ブロックを形成し、同様に、予測サンプルの第2ブロックをパディングして予測サンプルの第4ブロックを形成する。
一例において、予測サンプルの第3ブロックは、予測サンプルの第1ブロックよりも大きく、予測サンプルの第4ブロックは、予測サンプルの第2ブロックよりも大きい。図23のパディングステップ2304に示すように、第3ブロックおよび第4ブロックはそれぞれ、(M+d1+d3)×(N+d2+d4)のサイズを有する。ここで、d3およびd4は、0より大きい。予測サンプルの第3ブロックの例は、点線で示される。予測サンプルの第4ブロックは、第3ブロックと同じサイズを有する。上述したように、予測サンプルの第4ブロックは、予測サンプルの第3ブロックと異なるサイズを有してもよいことは理解されよう。
一例において、図20Aに示すように、パディングステップは、予測サンプルの第1ブロックおよび第2ブロックのミラーリングステップを含んでもよい。他の例において、図20Bに示すように、パディングステップは、予測サンプルの第1ブロックおよび第2ブロックの複写ステップを含んでもよい。他の例において、パディングステップは、図20Cに示すように、固定値をパディングするステップを含んでもよい。固定値は、0、128、512、正の整数、予測サンプルの平均値、および、予測サンプルの中央値のうちの少なくとも1つでもよい。いくつかの例において、パディングステップは、予測サンプルへ関数を実行するステップを含んでもよい。関数の例は、フィルタ、多項式関数、指数関数、および、クリッピング関数でもよい。いくつかの例において、図20Dに示すように、パディングステップは、ミラーリング、複写、固定値のパディング、および、予測サンプルへの関数の実行の任意の組み合わせを含んでもよい。
ステップ2206において、予測サンプルの第3ブロックおよび第4ブロックに補間処理を行う。補間処理は、第1動きベクトルおよび第2動きベクトルに応じてそれぞれ予測サンプルの第3ブロックおよび第4ブロックに補間フィルタを適用するステップを含んでもよい。
一例において、補間フィルタは、マージモード、インター予測モードなどの予測モードに対して行われる動き補償処理で用いられたフィルタと同じでもよい。他の例において、補間フィルタは、上述したような予測モードに対して行われる動き補償処理で用いられたフィルタと異なっていてもよい。
図23のステップ2306に示すように、予測サンプルの第3ブロックおよび第4ブロックに行われた補間処理により、補間処理の結果として生じるブロックが生成される。補間処理の結果として生じるブロックはそれぞれ、(M+d5)×(N+d6)のサイズを有する。ここで、d5およびd6は、0より大きい。予測サンプルの第3ブロックに行われた補間処理の結果生じるブロックの例は、点線で示される。予測サンプルの第4ブロックに行われた補間処理の結果生じるブロックも同様である。補間処理の結果生じる各ブロックの一部は、カレントブロックの処理に用いられてもよい。ここで、この一部のサイズは、M×Nである。この一部は、マージモード、インター予測モードなどの予測モードに対して行われる動き補償処理の結果生じるブロックと同じでもよい。
ステップ2208において、補間処理の結果生じたブロックを用いて勾配を算出する。勾配算出は、微分値を生成するために補間処理の結果生じたブロック内のサンプル値に勾配フィルタを適用するステップを含んでもよい。図23のステップ2308に示すように、算出された勾配は、M×Nサイズのブロックを形成してもよい。
一例において、図21Aに示すように、第1動きベクトルおよび第2動きベクトルの小数部分に関係なく、補間処理の結果生じたブロック内の全てのサンプル値に適用される勾配フィルタは1つだけあってもよい。
一例において、図21Bに示すように、第1動きベクトルおよび第2動きベクトルの小数部分に応じて、補間処理の結果生じたブロック内のサンプル値に適用される勾配フィルタは9あってもよい。
ステップ2210では、少なくとも補間処理の結果生じたブロックと算出した勾配とを用いて、カレントブロックを符号化する。符号化ブロックの例は、図23のステップ2310に示される。
なお、画像符号化装置100によって実行される符号化方法に対するステップ2210の説明で用いられる用語「符号化」および「処理」は、画像復号装置200によって実行される復号方法に対するステップ2210での用語「復号」と置き換え可能である。
本実施の形態では、パディング処理をインター予測に導入したおかげで、本符号化方法および復号方法は、インター予測処理のメモリバンド幅アクセスを有利に削減する。加えて、パディング処理を用いることにより、本実施の形態は、1回の補間処理だけを行って十分な予測結果を生成することができる。このように、本適用は、インター予測処理から追加補間処理を有利に取り除き、これは、ハードウェアフレンドリーである。
なお、第3ブロックおよび第4ブロックそれぞれに行われる補間処理において、タップ数が相互に異なる補間フィルタを用いてもよい。例えば、上記例において(M+d5)×(N+d6)のサイズを有する補間処理の結果生じるブロックを取得するために、8タップの補間フィルタだけを用いる。しかしながら、補間処理の結果生じるブロック内のM×Nサイズの第1領域を取得するために用いられる補間フィルタのタップ数と、第1領域以外の補間処理の結果生じるブロック内の領域である第2領域であって、勾配ブロックを生成するために用いられる第2領域を取得するために用いられる補間フィルタのタップ数とは異なっていてもよい。例えば、第2領域を取得するために用いられる補間フィルタのタップ数は、第1領域を取得するために用いられる補間フィルタのタップ数より少なくてもよい。具体的には、第1領域を取得するために用いられる補間フィルタのタップ数が8の場合、第2領域を取得するために用いられる補間フィルタのタップ数は、8より少なくてもよい。したがって、画質の劣化を防ぎながら処理負荷を削減することができる。
2つの参照ピクチャを利用してカレントブロックを予測する画像符号化/復号方法の他の実施の形態を、図24に示す。本実施の形態では、本実施の形態における補間処理は、パディング処理の前に行われる。実施の形態は、以下のステップを含む。
ステップ2402:異なるピクチャからの第1動きベクトルおよび第2動きベクトルを用いた予測処理を少なくとも用いて、ピクチャのカレントブロックに対する予測サンプルの第1ブロックおよび第2ブロックを予測する。
ステップ2404:予測サンプルの第1ブロックおよび第2ブロックに補間処理を行う。
ステップ2406:補間処理の結果をパディングして予測サンプルの第3ブロックおよび第4ブロックを形成する。
ステップ2408:予測サンプルの第3ブロックおよび第4ブロックを用いて勾配を算出する。
ステップ2410:少なくとも補間処理の結果と算出した勾配とを用いて、カレントブロックを符号化/復号する。
ステップ2402から2410は、図25の概念図に示される。図24および25に示すような符号化方法の実施の形態2400は、画像符号化装置100によって実行できる。なお、画像復号装置200によって実行される復号方法は、図24および図25に示されるような画像符号化装置100によって実行される符号化方法と同じである。
ステップ2402において、ピクチャのカレントブロックに対する予測サンプルの第1ブロックは、少なくとも予測処理を用いて予測され、当該予測処理は、別のピクチャからの第1動きベクトルを用いてカレントブロックに対するサンプルを予測する。実施の形態では、第1動きベクトルは、第1ピクチャを指してもよく、第1ピクチャはカレントピクチャと異なる。
同様に、ピクチャのカレントブロックに対する予測サンプルの第2ブロックは、少なくとも予測処理を用いて予測され、当該予測処理は、もう一つ別のピクチャからの第2動きベクトルを用いてサンプルを予測する。第2動きベクトルは、第2ピクチャを指してもよく、第2ピクチャはカレントピクチャと異なる。
一例において、第1ピクチャは第2ピクチャと異なってもよい。他の例において、第1ピクチャは第2ピクチャと同じでもよい。
一例において、図18Aに示すように、第1ピクチャおよび第2ピクチャのピクチャオーダーカウント(POC)の少なくとも一方は、カレントピクチャのPOCよりも小さく、第1ピクチャおよび第2ピクチャのピクチャオーダーカウント(POC)の他方は、カレントピクチャのPOCよりも大きい。
他の例において、図18Bに示すように、第1ピクチャおよび第2ピクチャのPOCは、カレントピクチャのPOCより小さくてもよい。
さらに他の例において、図18Cに示すように、第1ピクチャおよび第2ピクチャのPOCは、カレントピクチャのPOCより大きくてもよい。
図18Aから図18Cに示される第1ピクチャ、第2ピクチャ、および、カレントピクチャのPOCは時間領域にあり、データストリームにおけるこれらピクチャの符号化順序を示す。符号化順序は、データストリーム(例えば、ビデオクリップ)におけるこれらピクチャの再生順序と同じでも異なっていてもよい。POCは、空間領域におけるこれらピクチャの順序のことであってもよいことは当業者であれば理解されよう。
一例において、ステップ2402で予測される予測サンプルの第1ブロックおよび第2ブロックは、マージモード、インター予測モードなどの予測モードに対して行われる動き補償処理で用いられた参照ブロックと同じでもよい。
一例において、予測サンプルの第1ブロックおよび第2ブロックは、カレントブロックと等しくてもよいし、大きくてもよい。
図25に示すように、図24の予測ステップ2402の実施の形態は、ステップ2502に示される。本実施の形態において、カレントブロックは、M×Nのサイズを有する。ここで、Mは、Nと同じでもよいし、異なっていてもよい。符号化装置100のインター予測部126は、(M+d1)×(N+d2)のサイズをそれぞれ有する予測サンプルの第1ブロックおよび第2ブロックを予測してもよい。ここで、d1およびd2は、0に等しくてもよいし、0より大きくてもよい。予測サンプルの第1ブロックの例は、点線で示される。予測サンプルの第2ブロックは、第1ブロックと同じサイズを有する。上述したように、予測サンプルの第2ブロックは、予測サンプルの第1ブロックと異なるサイズを有してもよいことは理解されよう。
より多くの情報を予測サンプルに含めることができるので、カレントブロックよりも大きなサイズの予測サンプルの第1ブロックおよび第2ブロックを予測することはより有利に思われ、より正確な予測結果に貢献する。
ステップ2404において、予測サンプルの第1ブロックおよび第2ブロックに補間処理を行う。補間処理は、第1動きベクトルおよび第2動きベクトルに応じてそれぞれ予測サンプルの第1ブロックおよび第2ブロックに補間フィルタを適用するステップを含んでもよい。
一例において、補間フィルタは、マージモード、インター予測モードなどの予測モードに対して行われる動き補償処理で用いられたフィルタと同じでもよい。他の例において、補間フィルタは、上述したような予測モードに対して行われる動き補償処理で用いられたフィルタと異なっていてもよい。
図25のステップ2504に示すように、予測サンプルの第1ブロックおよび第2ブロックに行われた補間処理により、補間処理の結果として生じるブロックが生成される。補間処理の結果生じる各ブロックのサイズは、M×Nである。補間処理の結果生じるブロックは、カレントブロックを処理するために用いられてもよく、マージモード、インター予測モードなどの予測モードに対して行われる動き補償処理の結果生じるブロックと同じでもよい。
ステップ2406では、第1ブロックに行われた補間処理の結果生じたブロックをパディングして予測サンプルの第3ブロックを形成する。予測サンプルの第3ブロックはカレントブロックよりも大きい。同様に、第2ブロックに行われた補間処理の結果生じたブロックをパディングして予測サンプルの第4ブロックを形成する。予測サンプルの第4ブロックはカレントブロックよりも大きい。
図25のステップ2506に示すように、予測サンプルの第3ブロックの例は、(M+d3)x(N+d4)のサイズを有してもよい。ここで、d3およびd4は、0より大きい。予測サンプルの第4ブロックは、同じサイズを有する。上述したように、予測サンプルの第4ブロックは、予測サンプルの第3ブロックと異なるサイズを有してもよいことは理解されよう。
一例において、図20Aに示すように、パディングステップは、補間処理の結果生じたブロックをミラーリングするステップを含んでもよい。他の例において、図20Bに示すように、パディングステップは、補間処理の結果生じたブロックを複写するステップを含んでもよい。他の例において、パディングステップは、図20Cに示すように、固定値をパディングするステップを含んでもよい。固定値は、0、128、512、正の整数、予測サンプルの平均値、および、予測サンプルの中央値のうちの少なくとも1つでもよい。いくつかの例において、パディングステップは、補間処理の結果生じたブロックに関数を実行するステップを含んでもよい。関数の例は、フィルタ、多項式関数、指数関数、および、クリッピング関数でもよい。他の例において、図26に示すように、パディングステップは、第1ブロックおよび第2ブロックの予測サンプルを用いるステップを含んでもよい。
他の例において、パディングステップは、第2補間フィルタを第1ブロックおよび第2ブロックに適用するステップを含んでもよい。第2補間フィルタは、ステップ2404で行われる補間フィルタと異なり、第2補間フィルタのタップ数は、ステップ2404で行われる補間フィルタのタップ数よりも少ない。他の例において、図20Dに示すように、パディングステップは、ミラーリング、複写、固定値のパディング、補間処理の結果生じたブロックへの関数の実行、第1ブロックおよび第2ブロックを用いたサンプルのパディング、および、第1ブロックおよび第2ブロックへの第2補間フィルタの適用の任意の組み合わせを含んでもよい。
ステップ2408では、予測サンプルの第3ブロックおよび第4ブロックを用いて勾配を算出する。勾配算出は、微分値を生成するために予測サンプルの第3ブロックおよび第4ブロック内のサンプル値に勾配フィルタを適用するステップを含んでもよい。勾配フィルタは、図21A、図21Bに関して上述した通りである。図25のステップ2508に示すように、算出された勾配は、M×Nサイズのブロックを形成してもよい。
ステップ2410では、少なくとも補間処理の結果生じたブロックと算出した勾配とを用いて、カレントブロックを符号化する。符号化ブロックの例は、図25のステップ2510に示される。
なお、画像符号化装置100によって実行される符号化方法に対するステップ2410の説明で用いられる用語「符号化」および「処理」は、画像復号装置200によって実行される復号方法に対するステップ2410での用語「復号」と置き換え可能である。
本実施の形態では、パディング処理をインター予測に導入したおかげで、本符号化方法および復号方法は、インター予測処理のメモリバンド幅アクセスを有利に削減する。加えて、パディング処理を用いることにより、本実施の形態は、1回の補間処理だけを行って十分な予測結果を生成することができる。このように、本適用は、インター予測処理から追加補間処理を有利に取り除き、これは、ハードウェアフレンドリーである。これは、マージモード、インター予測モードなどの予測モードに対して行われる動き補償処理で用いられたのと同じ補間フィルタの動作回数を保持してもよい。
図27Aは、インター予測機能を用いて、ピクチャのカレントブロックの予測を生成する画像符号化/復号方法の別の代替例を示すフローチャートである。
図27Aのステップ2702Aから2708Aは、図28の概念図に示される。図27Aおよび図28に示すような符号化方法の実施の形態2700Aは、画像符号化装置100によって実行できる。なお、画像復号装置200によって実行される復号方法は、図27Aおよび図28に示されるような画像符号化装置100によって実行される符号化方法と同じである。
例2700Aに示すように、ステップ2702Aおよび2704Aは、図17について説明したようなステップ1702および1704と同じである。図27Aのステップ2702Aで予測される予測サンプルの第1ブロックの実施の形態は、図28のステップ2802に示される。ステップ2802に示される実施の形態では、(M+d1)×(N+d2)サイズの予測サンプルの第1ブロックが、M×Nサイズのカレントブロックに対して予測される。MはNと同じでも異なっていてもよいが、d1およびd2は0より大きいか、0と等しいか、または、0より小さいことは、当業者であれば理解されよう。
図27Aのステップ2704Aのとおり予測サンプルの第1ブロックをパディングすることによって形成される予測サンプルの第2ブロックの実施の形態は、図28のステップ2804に示される。図28のステップ2804に示されるように、図27Aのパディングステップ2704Aは、図19A、図19B、および、図20Aから図20Dについて上述した異なるパディング方向および/または処理/技術に基づいた実際の予測精度ニーズに基づいて、(M+d1)×(N+d2)サイズの予測サンプルの第1ブロックをパディングして任意の所望サイズ(M+d1+d3)×(N+d2+d4)を有する予測サンプルの第2ブロックを形成するように注意して設計することができる。d3およびd4は0より大きいことは、当業者であれば理解されよう。
ステップ2706Aにおいて、予測サンプルの第2ブロックに補間処理を行う。補間処理は、第1動きベクトルに応じてそれぞれ予測サンプルの第2ブロックに補間フィルタを適用するステップを含んでもよい。一例において、補間フィルタは、マージモード、インター予測モードなどの予測モードに対して行われる動き補償処理で用いられたフィルタと同じでもよい。他の例において、補間フィルタは、上述したような予測モードに対して行われる動き補償処理で用いられたフィルタと異なっていてもよい。図27Aのステップ2706Aで行われた補間処理の結果の実施の形態は、図28のステップ2806に示される。
ステップ2708Aでは、予測サンプルの第2ブロックに行われた補間処理の結果生じたブロックを少なくとも用いて、カレントブロックを符号化する。図27Aのステップ2708Aに示されるような補間処理の結果生じたブロックを用いて符号化されたカレントブロックの実施の形態は、図28のステップ2808に示される。
なお、画像符号化装置100によって実行される符号化方法に対するステップ2708Aの説明で用いられる用語「符号化」および「処理」は、画像復号装置200によって実行される復号方法に対するステップ2708Aでの用語「復号」と置き換え可能である。
図27Bは、インター予測機能を用いて、別のピクチャの参照ブロックおよびカレントブロックの隣接ブロックに基づきピクチャのカレントブロックの予測を生成する画像符号化/復号方法の別の代替例を示すフローチャートである。
図27Bのステップ2702Bから2708Bは、図29の概念図に示される。図27Bおよび図29に示すような符号化方法の実施の形態2700Bは、画像符号化装置100によって実行できる。なお、画像復号装置200によって実行される復号方法は、図27Bおよび図29に示されるような画像符号化装置100によって実行される符号化方法と同じである。
ステップ2701Bでは、ピクチャのカレントブロックに対する予測サンプルの第1ブロックを予測し、予測ステップは、別のピクチャからの第1動きベクトルを用いた予測処理を少なくとも含む。図29に示されるように、図27Bのステップ2702Bで予測される予測サンプルの第1ブロックの実施の形態は、ステップ2902に示される。
ステップ2704Bでは、予測サンプルの第2ブロックをパディングして予測サンプルの第3ブロックを形成する。第2ブロックは、カレントブロックに隣接していてもよい。第2ブロックの実施の形態は、図29のステップ2904に示される。本実施の形態において、第2ブロックは、M×Nのサイズを有する。ここで、Mは、Nと同じでもよいし、異なっていてもよい。
図29のステップ2906に示すように、符号化装置100のインター予測部126は、ステップ2704Bを実行し、予測サンプルの第2ブロックをパディングして予測サンプルの第3ブロックを形成するように構成されてもよい。予測サンプルの第3ブロックは、(M+d3)×Nのサイズを有してもよい。ここで、d3は、0に等しくてもよいし、0より大きくてもよい。予測サンプルの第3ブロックの例は、点線で示される。
図29に示した例において、予測サンプルの第2ブロックは、第1ブロックと同じサイズを有する。予測サンプルの第2ブロックは、予測サンプルの第1ブロックと異なるサイズを有してもよいことは理解されよう。
また、図29の例において、第2ブロックは、第1ブロックに隣接する左ブロックである。第2ブロックは、第1ブロックに隣接する上ブロック、左ブロック、右ブロック、下ブロック、左上ブロック、右上ブロック、左下ブロック、および、右下ブロックのうち少なくとも1つでもよいことは理解されよう。第2ブロックの位置候補の説明は図31に示されており、第2ブロックはカレントブロックに隣接している。
一例において、図32Aに示すように、ステップ2704Bにおけるパディングは、第2ブロックのサンプルのミラーリングを含んでもよい。他の例では、図32Bに示すように、ステップ2704Bにおけるパディングは、第2ブロックのサンプルの複写を含んでもよい。他の例では、図32Cに示すように、ステップ2704Bにおけるパディングは、固定値のパディングを含んでもよい。ここで、固定値は、0、128、512、正の整数、第2ブロックの平均値、および、第2ブロックの中央値のうちの少なくとも1つでもよい。他の例では、ステップ2704Bにおけるパディングは、第2ブロックのサンプルに関数を実行するステップを含んでもよい。関数の例は、フィルタ、多項式関数、指数関数、および、クリッピング関数でもよい。他の例において、ステップ2704Bにおけるパディングは、ミラーリング、複写、第1値のパディング、および、第2ブロックのサンプルへの関数の実行の任意の組み合わせを含んでもよい。
図29の例において、図33Aに示すように、ステップ2704Bにおけるパディングは、第2ブロックの一辺だけに対するサンプルのパディングを含んでもよい。他の例では、ステップ2704Bにおけるパディングは、第2ブロックの二辺に対するサンプルのパディングを含んでもよい。ここで、第2ブロックの二辺は、図33Cに示すように平行か、または、図33Bに示すように直交する。他の例において、図33Dに示すように、ステップ2704Bにおけるパディングは、第2ブロックの3以上の辺に対するサンプルのパディングを含んでもよい。
ステップ2706Bにおいて、少なくとも予測サンプルの第1ブロックおよび第3ブロックを用いて、OBMC(overlapped block motion compensation)処理を行う。OBMC処理は、本願の先の段落で説明されているとおりである。図29のステップ2908に示すように、OBMC処理は、OBMCブロックOBMCを生成する。
ステップ2708Bにおいて、少なくともOBMC処理の結果を用いて、カレントブロックを符号化する。符号化ブロックの例は、図29のステップ2910に示される。
なお、画像符号化装置100によって実行される符号化方法に対するステップ2708Bの説明で用いられる用語「符号化」および「処理」は、画像復号装置200によって実行される復号方法に対するステップ2708Bでの用語「復号」と置き換え可能である。
本実施の形態では、パディング処理をOBMC処理に導入したおかげで、本符号化方法および復号方法は、インター予測処理のメモリバンド幅アクセスを有利に削減する。
図27Cは、インター予測機能を用いて、別のピクチャの参照ブロックに基づきピクチャのカレントブロックの予測を生成する画像符号化/復号方法のさらに別の代替例を示すフローチャートである。
図27Cのステップ2702Cから2710Cは、図30の概念図に示される。図27Cおよび図30に示すような符号化方法の実施の形態2700Cは、画像符号化装置100によって実行できる。なお、画像復号装置200によって実行される復号方法は、図24および図25に示されるような画像符号化装置100によって実行される符号化方法と同じである。
例2700Cに示すように、ステップ2702Cおよび2704Cは、図17について説明したようなステップ1702および1704と同じである。
図30に示すように、図27Cの予測ステップ2702Cの実施の形態は、ステップ3002に示される。本実施の形態において、カレントブロックは、M×Nのサイズを有する。ここで、Mは、Nと同じでもよいし、異なっていてもよい。符号化装置100のインター予測部126は、(M+d1)×(N+d2)のサイズを有する予測サンプルの第1ブロックを予測してもよい。ここで、d1およびd2は、0に等しくてもよいし、0より大きくてもよい。図30のステップ3002に示すように、カレントブロックは、方法の本例で後に利用可能な1以上の隣接ブロックを有してもよい。
図30に示すように、より多くの情報を予測サンプルに含めることができるので、カレントブロックよりも大きなサイズの予測サンプルの第1ブロックを予測することはより有利に思われ、より正確な予測結果に貢献する。予測サンプルの第1ブロックの例は、図30のステップ3002における点線で示される。
図30のステップ3004に示すように、符号化装置100のインター予測部126は、ステップ2704Cを実行し、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成するように構成されてもよい。予測サンプルの第2ブロックは、(M+d1+d3)×(N+d2+d4)のサイズを有してもよい。ここで、d3およびd4は、等しくてもよいし、0より大きくてもよい。予測サンプルの第2ブロックの例は、図30のステップ3004における細い点線で示される。ここで、予測サンプルの第1ブロックの例は、太い点線で示される。
図30に示すように、より多くの情報を予測サンプルのパディングブロックに含めることができるので、第1ブロックよりも大きなサイズの予測サンプルの第2ブロックを形成することはより有利に思われ、より正確な予測結果に貢献する。
ステップ2706Cにおいて、予測サンプルの第2ブロックに補間処理を行う。補間処理は、第1動きベクトルに応じて予測サンプルの第2ブロックに補間フィルタを適用するステップを含んでもよい。一例において、補間フィルタは、マージモード、インター予測モードなどの予測モードに対して行われる動き補償処理で用いられたフィルタと同じでもよい。他の例において、補間フィルタは、上述したような予測モードに対して行われる動き補償処理で用いられたフィルタと異なっていてもよい。
図30のステップ3006に示すように、予測サンプルの第2ブロックに行われた補間処理により、補間処理の結果として生じるブロックが生成されてもよい。補間処理の結果として生じるブロックは、(M+d5)×(N+d6)のサイズを有してもよい。ここで、d5およびd6は、0より大きい。予測サンプルの第3ブロックに行われた補間処理の結果生じるブロックの例は、図30のステップ3006における点線で示される。補間処理の結果生じるブロックの一部は、カレントブロックの処理に用いられてもよい。ここで、この一部のサイズは、図30のステップ3008に示すようなM×Nでもよい。この一部は、マージモード、インター予測モードなどの予測モードに対して行われる動き補償処理の結果生じるブロックと同じでもよい。
ステップ2708Cでは、予測サンプルの第2ブロックに行われた補間処理の結果生じたブロックを少なくとも用いて、カレントブロックを符号化する。符号化ブロックの例は、図30のステップ3008に示される。
ステップ2708Cと同時に、ステップ2708Cに続いて、または、ステップ2708Cより前に、ステップ2710Cにおいてカレントブロックの1以上の隣接ブロックに対してOBMC処理を行う。OBMC処理は、補間処理の結果生じたブロックを少なくとも用いてもよい。
ステップ2708CにおけるOBMC処理は、本願の先の段落で説明されているとおりである。図29のステップ2906に示すように、OBMC処理は、1以上の隣接ブロックとカレントブロックとの間に1以上のOBMCブロックを生成する。一度に生成された、1以上の隣接ブロックとカレントブロックとの間の1以上のOBMCブロックを用いて、本開示の方法は、OBMC処理に必要なメモリバンド幅アクセス(つまり、オフチップメモリ、DRAMからフェッチされるデータ)を有利に削減する。
なお、画像符号化装置100によって実行される符号化方法に対するステップ2708Cの説明で用いられる用語「符号化」および「処理」は、画像復号装置200によって実行される復号方法に対するステップ2708Cでの用語「復号」と置き換え可能である。
本開示において、上記例および実施の形態で説明された予測サンプルのブロックは、予測サンプルの非矩形形状部分で置き換えてもよい。非矩形形状部分の例は、図34に示すような、三角形状部分、L字状部分、五角形状部分、六角形状部分、および、多角形状部分のうちの少なくとも1つでもよい。
非矩形形状部分は図34に示された形状部分に限定されないことは、当業者であれば理解されよう。また、図34に示された形状部分は、自由に組み合わせてもよい。
図35は、インター予測機能を用いて、別のピクチャの参照ブロックに基づきピクチャのカレントブロックの予測を生成する画像符号化/復号方法の別の代替例を示すフローチャートである。
図35のステップ3502から3508は、図36の概念図に示される。図35および図36に示すような符号化方法の実施の形態3500は、画像符号化装置100によって実行できる。画像復号装置200によって実行される復号方法は、図35および図36に示されるような画像符号化装置100によって実行される符号化方法と同じであることは理解されよう。
ステップ3502では、ピクチャのカレントブロックに対する予測サンプルの第1ブロックを予測し、予測ステップは、別のピクチャからの第1動きベクトルを用いた予測処理を少なくとも含む。図36に示されるように、図35のステップ3502で予測される予測サンプルの第1ブロックの実施の形態は、ステップ3602に示される。本実施の形態において、カレントブロックはM×Nのサイズを有する。ここで、MはNと同じでもよいし、異なっていてもよい。符号化装置100のインター予測部126は、(M+d1)×(N+d2)のサイズを有する予測サンプルの第1ブロックを予測してもよい。ここで、d1およびd2は、0に等しくてもよいし、0より大きくてもよい。
ステップ3504では、少なくとも第1動きベクトルを用いて、先の段落で説明されたようなDMVR処理により、カレントブロックに対する第2動きベクトルを導出する。第2動きベクトルの実施の形態は、図36のステップ3604に示される。本実施の形態において、第2動きベクトルは、カレントブロックから第1ブロックを指す点線で示される。
ステップ3506では、第2動きベクトルを用いてカレントブロックに対し補間処理を行ってもよい。補間処理は、パディング処理を含んでもよい。ステップ3506の実施の形態において、符号化装置100のインター予測部126は、第2動きベクトルに応じて予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを生成し、少なくとも第2動きベクトルを用いて予測サンプルの第2ブロックに補間処理を行うよう構成されてもよい。図36のステップ3606に示すように、予測サンプルの第2ブロックは、(M+d1+d3)×(N+d2+d4)のサイズを有してもよい。ここで、d3およびd4は、0に等しくてもよいし、0より大きくてもよい。
図36に示す実施の形態において、第2ブロックは、第1ブロックに隣接する、図34に示すようなL字状部分である。また、第2ブロックは、第1ブロックに隣接する、上ブロック、左ブロック、右ブロック、下ブロック、左上ブロック、右上ブロック、左下ブロック、および、右下ブロックのうち少なくとも1つでもよいことは理解されよう。あるいは、第2ブロックは、第1ブロックに隣接する、三角形状部分、L字状部分、五角形状部分、六角形状部分、および、多角形状部分でもよい。
図37Aおよび図37Bは、ステップ3506におけるパディング処理の2つの例を示す。
図37Aに示す例において、ステップ3506におけるパディング処理は、ステップ3504で導出した第2動きベクトルを用いて、第1ブロックの一辺だけに対してサンプルをパディングして予測サンプルの第2ブロックを形成するステップを含んでもよい。
図37Bに示す例において、ステップ3506におけるパディング処理は、ステップ3504で導出した第2動きベクトルを用いて、第1ブロックの二辺に対してサンプルをパディングして予測サンプルの第2ブロックを形成するステップを含んでもよい。図37Bの例において、第1ブロックの二辺は、図33Bにも示したように直交する。あるいは、第1ブロックの二辺は、図33Cに示したように平行である。他の例において、図33Dに示すように、ステップ3506におけるパディング処理は、第2ブロックの3以上の辺に対してサンプルをパディングするステップを含んでもよい。
いくつかの例において、図32Aに示すように、ステップ3506におけるパディング処理は、第1ブロックのサンプルをミラーリングするステップを含んでもよい。他の例では、図32Bに示すように、ステップ3506におけるパディング処理は、第2ブロックのサンプルを複写するステップを含んでもよい。他の例では、図32Cに示すように、ステップ3506におけるパディング処理は、固定値をパディングするステップを含んでもよい。ここで、固定値は、0、128、512、正の整数、第2ブロックの平均値、および、第2ブロックの中央値のうちの少なくとも1つでもよい。他の例では、ステップ3506におけるパディング処理は、第2ブロックのサンプルに関数を実行するステップを含んでもよい。関数の例は、フィルタ、多項式関数、指数関数、および、クリッピング関数でもよい。他の例において、ステップ3506におけるパディング処理は、ミラーリング、複写、第1値のパディング、および、第2ブロックのサンプルへの関数の実行の任意の組み合わせを含んでもよい。
ステップ3606に示すように、予測サンプルの第2ブロックに補間処理を行う。補間処理は、第2動きベクトルに応じて予測サンプルの第2ブロックに補間フィルタを適用するステップを含んでもよい。一例において、補間フィルタは、マージモード、インター予測モードなどの予測モードに対して行われる動き補償処理で用いられたフィルタと同じでもよい。他の例において、補間フィルタは、上述したような予測モードに対して行われる動き補償処理で用いられたフィルタと異なっていてもよい。
図36のステップ3606に示すように、予測サンプルの第2ブロックに行われた補間処理により、補間処理の結果として生じるブロックが生成されてもよい。補間処理の結果生じるブロックのサイズは、M×Nである。
ステップ3508では、ステップ3506で予測サンプルの第2ブロックに行われた補間処理の結果生じたブロックを少なくとも用いて、カレントブロックを符号化する。符号化ブロックの例は、図36のステップ3608に示される。
なお、画像符号化装置100によって実行される符号化方法に対するステップ3508の説明で用いられる用語「符号化」および「処理」は、画像復号装置200によって実行される復号方法に対するステップ3508での用語「復号」と置き換え可能である。
本実施の形態では、パディング処理をOBMC処理に導入したおかげで、本符号化方法および復号方法は、DMVR処理に対するメモリバンド幅アクセスを有利に削減する。
図38は、インター予測機能を用いて、別のピクチャの参照ブロックに基づきピクチャのカレントブロックの予測を生成する画像符号化/復号方法のさらに別の代替例を示すフローチャートである。
図38のステップ3802、3804、3806、および、3808は、図39の概念図に示される。図38および図39に示すような符号化方法の実施の形態3800は、画像符号化装置100によって実行できる。画像復号装置200によって実行される復号方法は、図38および図39に示されるような画像符号化装置100によって実行される符号化方法と同じであることは理解されよう。
上述したように、図38のステップ3802、3804、3806、および、3808は、ステップ3804におけるDMVR(dynamic motion vector refreshing)処理がさらにパディング処理を含む点を除き、図35のステップと同様である。図39に示す実施の形態において、ステップ3804におけるパディング処理は、第1動きベクトルに応じて予測サンプルの第1ブロックをパディングするステップを含む。この点について、ステップ3804では、先の段落で説明されたようなDMVR処理により、パディングされた第1ブロックに基づく第1動きベクトルを少なくとも用いて、カレントブロックに対する第2動きベクトルを導出する。第2動きベクトルの実施の形態は、カレントブロックから第1ブロックを指す点線で、図39のステップ3904に示される。
なお、画像符号化装置100によって実行される符号化方法に対するステップ3808の説明で用いられる用語「符号化」および「処理」は、画像復号装置200によって実行される復号方法に対するステップ3808での用語「復号」と置き換え可能である。
本実施の形態では、パディング処理をOBMC処理に導入したおかげで、本符号化方法および復号方法は、DMVR処理に対するメモリバンド幅アクセスを有利に削減する。
本願において、上記例および実施の形態で記述される用語「ブロック」は、用語「予測単位」と置き換えられてもよい。また、各態様で記述される用語「ブロック」は、用語「サブ予測単位」と置き換えられてもよい。また、各態様で記述される用語「ブロック」は、用語「コーディング単位」と置き換えられてもよい。
[実施及び応用]
以上の各実施の形態において、機能的又は作用的なブロックの各々は、通常、MPU(micro proccessing unit)及びメモリ等によって実現可能である。また、機能ブロックの各々による処理は、ROM等の記録媒体に記録されたソフトウェア(プログラム)を読み出して実行するプロセッサなどのプログラム実行部として実現されてもよい。当該ソフトウェアは、配布されてもよい。当該ソフトウェアは、半導体メモリなどの様々な記録媒体に記録されてもよい。なお、各機能ブロックをハードウェア(専用回路)によって実現することも可能である。ハードウェア及びソフトウェアの様々な組み合わせが採用され得る。
以上の各実施の形態において、機能的又は作用的なブロックの各々は、通常、MPU(micro proccessing unit)及びメモリ等によって実現可能である。また、機能ブロックの各々による処理は、ROM等の記録媒体に記録されたソフトウェア(プログラム)を読み出して実行するプロセッサなどのプログラム実行部として実現されてもよい。当該ソフトウェアは、配布されてもよい。当該ソフトウェアは、半導体メモリなどの様々な記録媒体に記録されてもよい。なお、各機能ブロックをハードウェア(専用回路)によって実現することも可能である。ハードウェア及びソフトウェアの様々な組み合わせが採用され得る。
各実施の形態において説明した処理は、単一の装置(システム)を用いて集中処理することによって実現してもよく、又は、複数の装置を用いて分散処理することによって実現してもよい。また、上記プログラムを実行するプロセッサは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、又は分散処理を行ってもよい。
本開示の態様は、以上の実施例に限定されることなく、種々の変更が可能であり、それらも本開示の態様の範囲内に包含される。
さらにここで、上記各実施の形態で示した動画像符号化方法(画像符号化方法)又は動画像復号化方法(画像復号方法)の応用例、及び、その応用例を実施する種々のシステムを説明する。このようなシステムは、画像符号化方法を用いた画像符号化装置、画像復号方法を用いた画像復号装置、又は、両方を備える画像符号化復号装置を有することを特徴としてもよい。このようなシステムの他の構成について、場合に応じて適切に変更することができる。
[使用例]
図40は、コンテンツ配信サービスを実現する適切なコンテンツ供給システムex100の全体構成を示す図である。通信サービスの提供エリアを所望の大きさに分割し、各セル内にそれぞれ、図示された例における固定無線局である基地局ex106、ex107、ex108、ex109、ex110が設置されている。
図40は、コンテンツ配信サービスを実現する適切なコンテンツ供給システムex100の全体構成を示す図である。通信サービスの提供エリアを所望の大きさに分割し、各セル内にそれぞれ、図示された例における固定無線局である基地局ex106、ex107、ex108、ex109、ex110が設置されている。
このコンテンツ供給システムex100では、インターネットex101に、インターネットサービスプロバイダex102又は通信網ex104、及び基地局ex106~ex110を介して、コンピュータex111、ゲーム機ex112、カメラex113、家電ex114、及びスマートフォンex115などの各機器が接続される。当該コンテンツ供給システムex100は、上記のいずれかの装置を組合せて接続するようにしてもよい。種々の実施において、基地局ex106~ex110を介さずに、各機器が電話網又は近距離無線等を介して直接的又は間接的に相互に接続されていてもよい。さらに、ストリーミングサーバex103は、インターネットex101等を介して、コンピュータex111、ゲーム機ex112、カメラex113、家電ex114、及びスマートフォンex115などの各機器と接続されてもよい。また、ストリーミングサーバex103は、衛星ex116を介して、飛行機ex117内のホットスポット内の端末等と接続されてもよい。
なお、基地局ex106~ex110の代わりに、無線アクセスポイント又はホットスポット等が用いられてもよい。また、ストリーミングサーバex103は、インターネットex101又はインターネットサービスプロバイダex102を介さずに直接通信網ex104と接続されてもよいし、衛星ex116を介さず直接飛行機ex117と接続されてもよい。
カメラex113はデジタルカメラ等の静止画撮影、及び動画撮影が可能な機器である。また、スマートフォンex115は、2G、3G、3.9G、4G、そして今後は5Gと呼ばれる移動通信システムの方式に対応したスマートフォン機、携帯電話機、又はPHS(Personal Handy-phone System)等である。
家電ex114は、冷蔵庫、又は家庭用燃料電池コージェネレーションシステムに含まれる機器等である。
コンテンツ供給システムex100では、撮影機能を有する端末が基地局ex106等を通じてストリーミングサーバex103に接続されることで、ライブ配信等が可能になる。ライブ配信では、端末(コンピュータex111、ゲーム機ex112、カメラex113、家電ex114、スマートフォンex115、及び飛行機ex117内の端末等)は、ユーザが当該端末を用いて撮影した静止画又は動画コンテンツに対して上記各実施の形態で説明した符号化処理を行ってもよく、符号化により得られた映像データと、映像に対応する音を符号化した音データと多重化してもよく、得られたデータをストリーミングサーバex103に送信してもよい。即ち、各端末は、本開示の一態様に係る画像符号化装置として機能する。
一方、ストリーミングサーバex103は要求のあったクライアントに対して送信されたコンテンツデータをストリーム配信する。クライアントは、上記符号化処理されたデータを復号化することが可能な、コンピュータex111、ゲーム機ex112、カメラex113、家電ex114、スマートフォンex115、又は飛行機ex117内の端末等である。配信されたデータを受信した各機器は、受信したデータを復号化処理して再生してもよい。即ち、各機器は、本開示の一態様に係る画像復号装置として機能してもよい。
[分散処理]
また、ストリーミングサーバex103は複数のサーバ又は複数のコンピュータであって、データを分散して処理したり記録したり配信するものであってもよい。例えば、ストリーミングサーバex103は、CDN(Contents Delivery Network)により実現され、世界中に分散された多数のエッジサーバとエッジサーバ間をつなぐネットワークによりコンテンツ配信が実現されていてもよい。CDNでは、クライアントに応じて物理的に近いエッジサーバが動的に割り当てられ得る。そして、当該エッジサーバにコンテンツがキャッシュ及び配信されることで遅延を減らすことができる。また、いくつかのタイプのエラーが発生した場合又はトラフィックの増加などにより通信状態が変わる場合に複数のエッジサーバで処理を分散したり、他のエッジサーバに配信主体を切り替えたり、障害が生じたネットワークの部分を迂回して配信を続けることができるので、高速かつ安定した配信が実現できる。
また、ストリーミングサーバex103は複数のサーバ又は複数のコンピュータであって、データを分散して処理したり記録したり配信するものであってもよい。例えば、ストリーミングサーバex103は、CDN(Contents Delivery Network)により実現され、世界中に分散された多数のエッジサーバとエッジサーバ間をつなぐネットワークによりコンテンツ配信が実現されていてもよい。CDNでは、クライアントに応じて物理的に近いエッジサーバが動的に割り当てられ得る。そして、当該エッジサーバにコンテンツがキャッシュ及び配信されることで遅延を減らすことができる。また、いくつかのタイプのエラーが発生した場合又はトラフィックの増加などにより通信状態が変わる場合に複数のエッジサーバで処理を分散したり、他のエッジサーバに配信主体を切り替えたり、障害が生じたネットワークの部分を迂回して配信を続けることができるので、高速かつ安定した配信が実現できる。
また、配信自体の分散処理にとどまらず、撮影したデータの符号化処理を各端末で行ってもよいし、サーバ側で行ってもよいし、互いに分担して行ってもよい。一例として、一般に符号化処理では、処理ループが2度行われる。1度目のループでフレーム又はシーン単位での画像の複雑さ、又は、符号量が検出される。また、2度目のループでは画質を維持して符号化効率を向上させる処理が行われる。例えば、端末が1度目の符号化処理を行い、コンテンツを受け取ったサーバ側が2度目の符号化処理を行うことで、各端末での処理負荷を減らしつつもコンテンツの質と効率を向上させることができる。この場合、ほぼリアルタイムで受信して復号する要求があれば、端末が行った一度目の符号化済みデータを他の端末で受信して再生することもできるので、より柔軟なリアルタイム配信も可能になる。
他の例として、カメラex113等は、画像から特徴量(特徴又は特性の量)を抽出し、特徴量に関するデータをメタデータとして圧縮してサーバに送信する。サーバは、例えば特徴量からオブジェクトの重要性を判断して量子化精度を切り替えるなど、画像の意味(又は内容の重要性)に応じた圧縮を行う。特徴量データはサーバでの再度の圧縮時の動きベクトル予測の精度及び効率向上に特に有効である。また、端末でVLC(可変長符号化)などの簡易的な符号化を行い、サーバでCABAC(コンテキスト適応型二値算術符号化方式)など処理負荷の大きな符号化を行ってもよい。
さらに他の例として、スタジアム、ショッピングモール、又は工場などにおいては、複数の端末によりほぼ同一のシーンが撮影された複数の映像データが存在する場合がある。この場合には、撮影を行った複数の端末と、必要に応じて撮影をしていない他の端末及びサーバを用いて、例えばGOP(Group of Picture)単位、ピクチャ単位、又はピクチャを分割したタイル単位などで符号化処理をそれぞれ割り当てて分散処理を行う。これにより、遅延を減らし、よりリアルタイム性を実現できる。
複数の映像データはほぼ同一シーンであるため、各端末で撮影された映像データを互いに参照し合えるように、サーバで管理及び/又は指示をしてもよい。また、各端末からの符号化済みデータを、サーバが受信し複数のデータ間で参照関係を変更、又はピクチャ自体を補正或いは差し替えて符号化しなおしてもよい。これにより、一つ一つのデータの質と効率を高めたストリームを生成できる。
さらに、サーバは、映像データの符号化方式を変更するトランスコードを行ったうえで映像データを配信してもよい。例えば、サーバは、MPEG系の符号化方式をVP系(例えばVP9)に変換してもよいし、H.264をH.265に変換等してもよい。
このように、符号化処理は、端末、又は1以上のサーバにより行うことが可能である。よって、以下では、処理を行う主体として「サーバ」又は「端末」等の記載を用いるが、サーバで行われる処理の一部又は全てが端末で行われてもよいし、端末で行われる処理の一部又は全てがサーバで行われてもよい。また、これらに関しては、復号処理についても同様である。
[3D、マルチアングル]
互いにほぼ同期した複数のカメラex113及び/又はスマートフォンex115などの端末により撮影された異なるシーン、又は、同一シーンを異なるアングルから撮影した画像或いは映像を統合して利用することが増えてきている。各端末で撮影した映像は、別途取得した端末間の相対的な位置関係、又は、映像に含まれる特徴点が一致する領域などに基づいて統合され得る。
互いにほぼ同期した複数のカメラex113及び/又はスマートフォンex115などの端末により撮影された異なるシーン、又は、同一シーンを異なるアングルから撮影した画像或いは映像を統合して利用することが増えてきている。各端末で撮影した映像は、別途取得した端末間の相対的な位置関係、又は、映像に含まれる特徴点が一致する領域などに基づいて統合され得る。
サーバは、2次元の動画像を符号化するだけでなく、動画像のシーン解析などに基づいて自動的に、又は、ユーザが指定した時刻において、静止画を符号化し、受信端末に送信してもよい。サーバは、さらに、撮影端末間の相対的な位置関係を取得できる場合には、2次元の動画像だけでなく、同一シーンが異なるアングルから撮影された映像に基づき、当該シーンの3次元形状を生成できる。サーバは、ポイントクラウドなどにより生成した3次元のデータを別途符号化してもよいし、3次元データを用いて人物又はオブジェクトを認識或いは追跡した結果に基づいて、受信端末に送信する映像を、複数の端末で撮影した映像から、選択、又は、再構成して生成してもよい。
このようにして、ユーザは、各撮影端末に対応する各映像を任意に選択してシーンを楽しむこともできるし、複数画像又は映像を用いて再構成された3次元データから選択視点の映像を切り出したコンテンツを楽しむこともできる。さらに、映像と共に、音も複数の相異なるアングルから収音され、サーバは、特定のアングル又は空間からの音を対応する映像と多重化して、多重化された映像と音とを送信してもよい。
また、近年ではVirtual Reality(VR)及びAugmented Reality(AR)など、現実世界と仮想世界とを対応付けたコンテンツも普及してきている。VRの画像の場合、サーバは、右目用及び左目用の視点画像をそれぞれ作成し、Multi-View Coding(MVC)などにより各視点映像間で参照を許容する符号化を行ってもよいし、互いに参照せずに別ストリームとして符号化してもよい。別ストリームの復号時には、ユーザの視点に応じて仮想的な3次元空間が再現されるように互いに同期させて再生するとよい。
ARの画像の場合には、サーバは、現実空間のカメラ情報に、仮想空間上の仮想物体情報を、3次元的位置又はユーザの視点の動きに基づいて重畳してもよい。復号装置は、仮想物体情報及び3次元データを取得又は保持し、ユーザの視点の動きに応じて2次元画像を生成し、スムーズにつなげることで重畳データを作成してもよい。または、復号装置は仮想物体情報の依頼に加えてユーザの視点の動きをサーバに送信してもよい。サーバは、サーバに保持される3次元データから受信した視点の動きに合わせて重畳データを作成し、重畳データを符号化して復号装置に配信してもよい。なお、重畳データは、典型的には、RGB以外に透過度を示すα値を有し、サーバは、3次元データから作成されたオブジェクト以外の部分のα値が0などに設定し、当該部分が透過する状態で、符号化してもよい。もしくは、サーバは、クロマキーのように所定の値のRGB値を背景に設定し、オブジェクト以外の部分は背景色にしたデータを生成してもよい。所定の値のRGB値は、予め定められていてもよい。
同様に配信されたデータの復号処理はクライアント(例えば、端末)で行っても、サーバ側で行ってもよいし、互いに分担して行ってもよい。一例として、ある端末が、一旦サーバに受信リクエストを送り、そのリクエストに応じたコンテンツを他の端末で受信し復号処理を行い、ディスプレイを有する装置に復号済みの信号が送信されてもよい。通信可能な端末自体の性能によらず処理を分散して適切なコンテンツを選択することで画質のよいデータを再生することができる。また、他の例として大きなサイズの画像データをTV等で受信しつつ、鑑賞者の個人端末にピクチャが分割されたタイルなど一部の領域が復号されて表示されてもよい。これにより、全体像を共有化しつつ、自身の担当分野又はより詳細に確認したい領域を手元で確認することができる。
屋内外の近距離、中距離、又は長距離の無線通信が複数使用可能な状況下で、MPEG-DASHなどの配信システム規格を利用して、シームレスにコンテンツを受信することが可能かもしれない。ユーザは、ユーザの端末、屋内外に配置されたディスプレイなどの復号装置又は表示装置を自由に選択しながらリアルタイムで切り替えてもよい。また、自身の位置情報などを用いて、復号する端末及び表示する端末を切り替えながら復号を行うことができる。これにより、ユーザが目的地へ移動している間に、表示可能なデバイスが埋め込まれた隣の建物の壁面又は地面の一部に情報をマップ及び表示することが可能になる。また、符号化データが受信端末から短時間でアクセスできるサーバにキャッシュされている、又は、コンテンツ・デリバリー・サービスにおけるエッジサーバにコピーされている、などの、ネットワーク上での符号化データへのアクセス容易性に基づいて、受信データのビットレートを切り替えることも可能である。
[スケーラブル符号化]
コンテンツの切り替えに関して、図41に示す、上記各実施の形態で示した動画像符号化方法を応用して圧縮符号化されたスケーラブルなストリームを用いて説明する。サーバは、個別のストリームとして内容は同じで質の異なるストリームを複数有していても構わないが、図示するようにレイヤに分けて符号化を行うことで実現される時間的/空間的スケーラブルなストリームの特徴を活かして、コンテンツを切り替える構成であってもよい。つまり、復号側が性能という内的要因と通信帯域の状態などの外的要因とに応じてどのレイヤを復号するかを決定することで、復号側は、低解像度のコンテンツと高解像度のコンテンツとを自由に切り替えて復号できる。例えばユーザが移動中にスマートフォンex115で視聴していた映像の続きを、例えば帰宅後にインターネットTV等の機器で視聴したい場合には、当該機器は、同じストリームを異なるレイヤまで復号すればよいので、サーバ側の負担を軽減できる。
コンテンツの切り替えに関して、図41に示す、上記各実施の形態で示した動画像符号化方法を応用して圧縮符号化されたスケーラブルなストリームを用いて説明する。サーバは、個別のストリームとして内容は同じで質の異なるストリームを複数有していても構わないが、図示するようにレイヤに分けて符号化を行うことで実現される時間的/空間的スケーラブルなストリームの特徴を活かして、コンテンツを切り替える構成であってもよい。つまり、復号側が性能という内的要因と通信帯域の状態などの外的要因とに応じてどのレイヤを復号するかを決定することで、復号側は、低解像度のコンテンツと高解像度のコンテンツとを自由に切り替えて復号できる。例えばユーザが移動中にスマートフォンex115で視聴していた映像の続きを、例えば帰宅後にインターネットTV等の機器で視聴したい場合には、当該機器は、同じストリームを異なるレイヤまで復号すればよいので、サーバ側の負担を軽減できる。
さらに、上記のように、レイヤ毎にピクチャが符号化されており、ベースレイヤの上位のエンハンスメントレイヤでスケーラビリティを実現する構成以外に、エンハンスメントレイヤが画像の統計情報などに基づくメタ情報を含んでいてもよい。復号側が、メタ情報に基づきベースレイヤのピクチャを超解像することで高画質化したコンテンツを生成してもよい。超解像は、解像度を維持及び/又は拡大しつつ、SN比を向上してもよい。メタ情報は、超解像処理に用いるような線形或いは非線形のフィルタ係数を特定するため情報、又は、超解像処理に用いるフィルタ処理、機械学習或いは最小2乗演算におけるパラメータ値を特定する情報などを含む。
または、画像内のオブジェクトなどの意味合いに応じてピクチャがタイル等に分割される構成が提供されてもよい。復号側が、復号するタイルを選択することで一部の領域だけを復号する。さらに、オブジェクトの属性(人物、車、ボールなど)と映像内の位置(同一画像における座標位置など)とをメタ情報として格納することで、復号側は、メタ情報に基づいて所望のオブジェクトの位置を特定し、そのオブジェクトを含むタイルを決定できる。例えば、図42に示すように、メタ情報は、HEVCにおけるSEI(supplemental enhancement information)メッセージなど、画素データとは異なるデータ格納構造を用いて格納されてもよい。このメタ情報は、例えば、メインオブジェクトの位置、サイズ、又は色彩などを示す。
ストリーム、シーケンス又はランダムアクセス単位など、複数のピクチャから構成される単位でメタ情報が格納されてもよい。復号側は、特定人物が映像内に出現する時刻などを取得でき、ピクチャ単位の情報と時間情報を合わせることで、オブジェクトが存在するピクチャを特定でき、ピクチャ内でのオブジェクトの位置を決定できる。
[Webページの最適化]
図43は、コンピュータex111等におけるwebページの表示画面例を示す図である。図44は、スマートフォンex115等におけるwebページの表示画面例を示す図である。図43及び図44に示すようにwebページが、画像コンテンツへのリンクであるリンク画像を複数含む場合があり、閲覧するデバイスによってその見え方は異なっていてもよい。画面上に複数のリンク画像が見える場合には、ユーザが明示的にリンク画像を選択するまで、又は画面の中央付近にリンク画像が近付く或いはリンク画像の全体が画面内に入るまで、表示装置(復号装置)は、リンク画像として各コンテンツが有する静止画又はIピクチャを表示してもよいし、複数の静止画又はIピクチャ等でgifアニメのような映像を表示してもよいし、ベースレイヤのみを受信し、映像を復号及び表示してもよい。
図43は、コンピュータex111等におけるwebページの表示画面例を示す図である。図44は、スマートフォンex115等におけるwebページの表示画面例を示す図である。図43及び図44に示すようにwebページが、画像コンテンツへのリンクであるリンク画像を複数含む場合があり、閲覧するデバイスによってその見え方は異なっていてもよい。画面上に複数のリンク画像が見える場合には、ユーザが明示的にリンク画像を選択するまで、又は画面の中央付近にリンク画像が近付く或いはリンク画像の全体が画面内に入るまで、表示装置(復号装置)は、リンク画像として各コンテンツが有する静止画又はIピクチャを表示してもよいし、複数の静止画又はIピクチャ等でgifアニメのような映像を表示してもよいし、ベースレイヤのみを受信し、映像を復号及び表示してもよい。
ユーザによりリンク画像が選択された場合、表示装置は、例えばベースレイヤを最優先にしつつ復号を行う。なお、webページを構成するHTMLにスケーラブルなコンテンツであることを示す情報があれば、表示装置は、エンハンスメントレイヤまで復号してもよい。さらに、リアルタイム性を担保するために、選択される前又は通信帯域が非常に厳しい場合には、表示装置は、前方参照のピクチャ(Iピクチャ、Pピクチャ、前方参照のみのBピクチャ)のみを復号及び表示することで、先頭ピクチャの復号時刻と表示時刻との間の遅延(コンテンツの復号開始から表示開始までの遅延)を低減できる。またさらに、表示装置は、ピクチャの参照関係を敢えて無視して、全てのBピクチャ及びPピクチャを前方参照にして粗く復号し、時間が経ち受信したピクチャが増えるにつれて正常の復号を行ってもよい。
[自動走行]
また、車の自動走行又は走行支援のため2次元又は3次元の地図情報などのような静止画又は映像データを送受信する場合、受信端末は、1以上のレイヤに属する画像データに加えて、メタ情報として天候又は工事の情報なども受信し、これらを対応付けて復号してもよい。なお、メタ情報は、レイヤに属してもよいし、単に画像データと多重化されてもよい。
また、車の自動走行又は走行支援のため2次元又は3次元の地図情報などのような静止画又は映像データを送受信する場合、受信端末は、1以上のレイヤに属する画像データに加えて、メタ情報として天候又は工事の情報なども受信し、これらを対応付けて復号してもよい。なお、メタ情報は、レイヤに属してもよいし、単に画像データと多重化されてもよい。
この場合、受信端末を含む車、ドローン又は飛行機などが移動するため、受信端末は、当該受信端末の位置情報を送信することで、基地局ex106~ex110を切り替えながらシームレスな受信及び復号の実行を実現できる。また、受信端末は、ユーザの選択、ユーザの状況及び/又は通信帯域の状態に応じて、メタ情報をどの程度受信するか、又は地図情報をどの程度更新していくかを動的に切り替えることが可能になる。
コンテンツ供給システムex100では、ユーザが送信した符号化された情報をリアルタイムでクライアントが受信して復号し、再生することができる。
[個人コンテンツの配信]
また、コンテンツ供給システムex100では、映像配信業者による高画質で長時間のコンテンツのみならず、個人による低画質で短時間のコンテンツのユニキャスト、又はマルチキャスト配信が可能である。このような個人のコンテンツは今後も増加していくと考えられる。個人コンテンツをより優れたコンテンツにするために、サーバは、編集処理を行ってから符号化処理を行ってもよい。これは、例えば、以下のような構成を用いて実現できる。
また、コンテンツ供給システムex100では、映像配信業者による高画質で長時間のコンテンツのみならず、個人による低画質で短時間のコンテンツのユニキャスト、又はマルチキャスト配信が可能である。このような個人のコンテンツは今後も増加していくと考えられる。個人コンテンツをより優れたコンテンツにするために、サーバは、編集処理を行ってから符号化処理を行ってもよい。これは、例えば、以下のような構成を用いて実現できる。
撮影時にリアルタイム又は蓄積して撮影後に、サーバは、原画データ又は符号化済みデータから撮影エラー、シーン探索、意味の解析、及びオブジェクト検出などの認識処理を行う。そして、サーバは、認識結果に基づいて手動又は自動で、ピントずれ又は手ブレなどを補正したり、明度が他のピクチャに比べて低い又は焦点が合っていないシーンなどの重要性の低いシーンを削除したり、オブジェクトのエッジを強調したり、色合いを変化させるなどの編集を行う。サーバは、編集結果に基づいて編集後のデータを符号化する。また撮影時刻が長すぎると視聴率が下がることも知られており、サーバは、撮影時間に応じて特定の時間範囲内のコンテンツになるように上記のように重要性が低いシーンのみならず動きが少ないシーンなどを、画像処理結果に基づき自動でクリップしてもよい。または、サーバは、シーンの意味解析の結果に基づいてダイジェストを生成して符号化してもよい。
個人コンテンツには、そのままでは著作権、著作者人格権、又は肖像権等の侵害となるものが写り込んでいるケースもあり、共有する範囲が意図した範囲を超えてしまうなど個人にとって不都合な場合もある。よって、例えば、サーバは、画面の周辺部の人の顔、又は家の中などを敢えて焦点が合わない画像に変更して符号化してもよい。さらに、サーバは、符号化対象画像内に、予め登録した人物とは異なる人物の顔が映っているかどうかを認識し、映っている場合には、顔の部分にモザイクをかけるなどの処理を行ってもよい。または、符号化の前処理又は後処理として、著作権などの観点からユーザが画像を加工したい人物又は背景領域を指定してもよい。サーバは、指定された領域を別の映像に置き換える、又は焦点をぼかすなどの処理を行ってもよい。人物であれば、動画像において人物をトラッキングして、人物の顔の部分の映像を置き換えることができる。
データ量の小さい個人コンテンツの視聴はリアルタイム性の要求が強いため、帯域幅にもよるが、復号装置は、まずベースレイヤを最優先で受信して復号及び再生を行ってもよい。復号装置は、この間にエンハンスメントレイヤを受信し、再生がループされる場合など2回以上再生される場合に、エンハンスメントレイヤも含めて高画質の映像を再生してもよい。このようにスケーラブルな符号化が行われているストリームであれば、未選択時又は見始めた段階では粗い動画だが、徐々にストリームがスマートになり画像がよくなるような体験を提供することができる。スケーラブル符号化以外にも、1回目に再生される粗いストリームと、1回目の動画を参照して符号化される2回目のストリームとが1つのストリームとして構成されていても同様の体験を提供できる。
[その他の実施応用例]
また、これらの符号化又は復号処理は、一般的に各端末が有するLSIex500において処理される。LSIex500(図40参照)は、ワンチップであっても複数チップからなる構成であってもよい。なお、動画像符号化又は復号用のソフトウェアをコンピュータex111等で読み取り可能な何らかの記録メディア(CD-ROM、フレキシブルディスク、又はハードディスクなど)に組み込み、そのソフトウェアを用いて符号化又は復号処理を行ってもよい。さらに、スマートフォンex115がカメラ付きである場合には、そのカメラで取得した動画データを送信してもよい。このときの動画データはスマートフォンex115が有するLSIex500で符号化処理されたデータであってもよい。
また、これらの符号化又は復号処理は、一般的に各端末が有するLSIex500において処理される。LSIex500(図40参照)は、ワンチップであっても複数チップからなる構成であってもよい。なお、動画像符号化又は復号用のソフトウェアをコンピュータex111等で読み取り可能な何らかの記録メディア(CD-ROM、フレキシブルディスク、又はハードディスクなど)に組み込み、そのソフトウェアを用いて符号化又は復号処理を行ってもよい。さらに、スマートフォンex115がカメラ付きである場合には、そのカメラで取得した動画データを送信してもよい。このときの動画データはスマートフォンex115が有するLSIex500で符号化処理されたデータであってもよい。
なお、LSIex500は、アプリケーションソフトをダウンロードしてアクティベートする構成であってもよい。この場合、端末は、まず、当該端末がコンテンツの符号化方式に対応しているか、又は、特定サービスの実行能力を有するかを判定する。端末がコンテンツの符号化方式に対応していない場合、又は、特定サービスの実行能力を有さない場合、端末は、コーデック又はアプリケーションソフトをダウンロードし、その後、コンテンツ取得及び再生してもよい。
また、インターネットex101を介したコンテンツ供給システムex100に限らず、デジタル放送用システムにも上記各実施の形態の少なくとも動画像符号化装置(画像符号化装置)又は動画像復号化装置(画像復号装置)のいずれかを組み込むことができる。衛星などを利用して放送用の電波に映像と音が多重化された多重化データを載せて送受信するため、コンテンツ供給システムex100のユニキャストがし易い構成に対してマルチキャスト向きであるという違いがあるが符号化処理及び復号処理に関しては同様の応用が可能である。
[ハードウェア構成]
図45は、図40に示されたスマートフォンex115のさらに詳細を示す図である。また、図46は、スマートフォンex115の構成例を示す図である。スマートフォンex115は、基地局ex110との間で電波を送受信するためのアンテナex450と、映像及び静止画を撮ることが可能なカメラ部ex465と、カメラ部ex465で撮像した映像、及びアンテナex450で受信した映像等が復号されたデータを表示する表示部ex458とを備える。スマートフォンex115は、さらに、タッチパネル等である操作部ex466と、音声又は音響を出力するためのスピーカ等である音声出力部ex457と、音声を入力するためのマイク等である音声入力部ex456と、撮影した映像或いは静止画、録音した音声、受信した映像或いは静止画、メール等の符号化されたデータ、又は、復号化されたデータを保存可能なメモリ部ex467と、ユーザを特定し、ネットワークをはじめ各種データへのアクセスの認証をするためのSIMex468とのインタフェース部であるスロット部ex464とを備える。なお、メモリ部ex467の代わりに外付けメモリが用いられてもよい。
図45は、図40に示されたスマートフォンex115のさらに詳細を示す図である。また、図46は、スマートフォンex115の構成例を示す図である。スマートフォンex115は、基地局ex110との間で電波を送受信するためのアンテナex450と、映像及び静止画を撮ることが可能なカメラ部ex465と、カメラ部ex465で撮像した映像、及びアンテナex450で受信した映像等が復号されたデータを表示する表示部ex458とを備える。スマートフォンex115は、さらに、タッチパネル等である操作部ex466と、音声又は音響を出力するためのスピーカ等である音声出力部ex457と、音声を入力するためのマイク等である音声入力部ex456と、撮影した映像或いは静止画、録音した音声、受信した映像或いは静止画、メール等の符号化されたデータ、又は、復号化されたデータを保存可能なメモリ部ex467と、ユーザを特定し、ネットワークをはじめ各種データへのアクセスの認証をするためのSIMex468とのインタフェース部であるスロット部ex464とを備える。なお、メモリ部ex467の代わりに外付けメモリが用いられてもよい。
表示部ex458及び操作部ex466等を統括的に制御し得る主制御部ex460と、電源回路部ex461、操作入力制御部ex462、映像信号処理部ex455、カメラインタフェース部ex463、ディスプレイ制御部ex459、変調/復調部ex452、多重/分離部ex453、音声信号処理部ex454、スロット部ex464、及びメモリ部ex467とが同期バスex470を介して接続されている。
電源回路部ex461は、ユーザの操作により電源キーがオン状態にされると、スマートフォンex115を動作可能な状態に起動し、バッテリパックから各部に対して電力を供給する。
スマートフォンex115は、CPU、ROM及びRAM等を有する主制御部ex460の制御に基づいて、通話及データ通信等の処理を行う。通話時は、音声入力部ex456で収音した音声信号を音声信号処理部ex454でデジタル音声信号に変換し、変調/復調部ex452でスペクトラム拡散処理を施し、送信/受信部ex451でデジタルアナログ変換処理及び周波数変換処理を施し、その結果の信号を、アンテナex450を介して送信する。また受信データを増幅して周波数変換処理及びアナログデジタル変換処理を施し、変調/復調部ex452でスペクトラム逆拡散処理し、音声信号処理部ex454でアナログ音声信号に変換した後、これを音声出力部ex457から出力する。データ通信モード時は、本体部の操作部ex466等の操作に基づいてテキスト、静止画、又は映像データが操作入力制御部ex462を介して主制御部ex460の制御下で送出され得る。同様の送受信処理が行われる。データ通信モード時に映像、静止画、又は映像と音声を送信する場合、映像信号処理部ex455は、メモリ部ex467に保存されている映像信号又はカメラ部ex465から入力された映像信号を上記各実施の形態で示した動画像符号化方法によって圧縮符号化し、符号化された映像データを多重/分離部ex453に送出する。音声信号処理部ex454は、映像又は静止画をカメラ部ex465で撮像中に音声入力部ex456で収音した音声信号を符号化し、符号化された音声データを多重/分離部ex453に送出する。多重/分離部ex453は、符号化済み映像データと符号化済み音声データを所定の方式で多重化し、変調/復調部(変調/復調回路部)ex452、及び送信/受信部ex451で変調処理及び変換処理を施してアンテナex450を介して送信する。所定の方式は、予め定められていてもよい。
電子メール又はチャットに添付された映像、又はウェブページにリンクされた映像を受信した場合等において、アンテナex450を介して受信された多重化データを復号するために、多重/分離部ex453は、多重化データを分離することにより、多重化データを映像データのビットストリームと音声データのビットストリームとに分け、同期バスex470を介して符号化された映像データを映像信号処理部ex455に供給するとともに、符号化された音声データを音声信号処理部ex454に供給する。映像信号処理部ex455は、上記各実施の形態で示した動画像符号化方法に対応した動画像復号化方法によって映像信号を復号し、ディスプレイ制御部ex459を介して表示部ex458から、リンクされた動画像ファイルに含まれる映像又は静止画が表示される。音声信号処理部ex454は、音声信号を復号し、音声出力部ex457から音声が出力される。リアルタイムストリーミングがますます普及しだしているため、ユーザの状況によっては音声の再生が社会的にふさわしくないこともあり得る。そのため、初期値としては、音声信号は再生せず映像データのみを再生する構成の方が望ましく、ユーザが映像データをクリックするなど操作を行った場合にのみ音声を同期して再生してもよい。
またここではスマートフォンex115を例に説明したが、端末としては符号化器及び復号化器を両方持つ送受信型端末の他に、符号化器のみを有する送信端末、及び、復号化器のみを有する受信端末という他の実装形式が考えられる。デジタル放送用システムにおいて、映像データに音声データが多重化された多重化データを受信又は送信するとして説明した。ただし、多重化データには、音声データ以外に映像に関連する文字データなどが多重化されてもよい。また、多重化データではなく映像データ自体が受信又は送信されてもよい。
なお、CPUを含む主制御部ex460が符号化又は復号処理を制御するとして説明したが、種々の端末はGPUを備えることも多い。よって、CPUとGPUで共通化されたメモリ、又は共通に使用できるようにアドレスが管理されているメモリにより、GPUの性能を活かして広い領域を一括して処理する構成でもよい。これにより符号化時間を短縮でき、リアルタイム性を確保し、低遅延を実現できる。特に動き探索、デブロックフィルタ、SAO(Sample Adaptive Offset)、及び変換・量子化の処理を、CPUではなく、GPUでピクチャなどの単位で一括して行うと効率的である。
広義に記載されたような本開示の趣旨または範囲を逸脱することなく、具体的な実施の形態に示されたような本開示に様々な変形および/または変更を行ってもよいことは当業者であれば理解されよう。したがって、本実施の形態は、説明目的であり限定するものではないと考慮されるべきである。
本開示によると、以下のとおり、様々な特徴が提供される。
1. インター予測を用いてピクチャ内の処理対象ブロックを符号化する符号化装置であって、
プロセッサと、
メモリとを備え、
プロセッサはメモリを用いて、
2つの参照ピクチャそれぞれに対応する動きベクトルを用いて動き補償を行うことにより、2つの参照ピクチャから2つの予測画像を取得し、
2つの予測画像に対応する2つの勾配画像を2つの参照ピクチャから取得し、
処理対象ブロックを分割することによって得られるサブブロック内の2つの勾配画像と2つの予測画像とを用いてローカル動き検出値を導出し、
サブブロックのローカル動き検出値と、2つの勾配画像と、2つの予測画像とを用いて、処理対象ブロックの最終予測画像を生成する符号化装置。
プロセッサと、
メモリとを備え、
プロセッサはメモリを用いて、
2つの参照ピクチャそれぞれに対応する動きベクトルを用いて動き補償を行うことにより、2つの参照ピクチャから2つの予測画像を取得し、
2つの予測画像に対応する2つの勾配画像を2つの参照ピクチャから取得し、
処理対象ブロックを分割することによって得られるサブブロック内の2つの勾配画像と2つの予測画像とを用いてローカル動き検出値を導出し、
サブブロックのローカル動き検出値と、2つの勾配画像と、2つの予測画像とを用いて、処理対象ブロックの最終予測画像を生成する符号化装置。
2. 2つの予測画像を取得するステップにおいて2つの参照画像をサブ画素精度で取得する場合、2つの参照ピクチャそれぞれにおいて動きベクトルで示される予測ブロックを囲む補間参照範囲内の画素を参照することによって、画素をサブ画素精度で補間し、
ローカル動き検出値を用いて処理が行われる通常のインター予測で処理対象ブロックに動き補償を行うために補間参照範囲は通常参照範囲に含まれる、ステートメント1に記載の符号化装置。
ローカル動き検出値を用いて処理が行われる通常のインター予測で処理対象ブロックに動き補償を行うために補間参照範囲は通常参照範囲に含まれる、ステートメント1に記載の符号化装置。
3. 補間参照範囲は通常参照範囲に一致する、ステートメント2に記載の符号化装置。
4. 2つの勾配画像を取得するステップにおいて2つの参照ピクチャそれぞれにおける予測ブロックを囲む勾配参照範囲内で画素を参照し、勾配参照範囲は補間参照範囲に含まれる、ステートメント2または3に記載の符号化装置。
5. 勾配参照範囲は補間参照範囲に一致する、ステートメント4に記載の符号化装置。
6. ローカル動き検出値を導出するステップにおいて、2つの参照ピクチャそれぞれにおけるサブブロックに対応する領域内の予測サブブロックに含まれる画素の値は重み付けて用いられ、これらの画素のうち領域の中央に位置する画素は、領域の中央以外の画素に用いられる値より大きな値で重みづけられる、ステートメント1~5のいずれか1つに記載の符号化装置。
7. ローカル動き検出値を導出するステップにおいて、2つの参照ピクチャそれぞれにおけるサブブロックに対応する領域の予測サブブロック内の画素に加えて、動きベクトルによって示される予測ブロックに含まれる、予測サブブロックに隣接する別の予測サブブロック内の画素を参照する、ステートメント6に記載の符号化装置。
8. ローカル動き検出値を導出するステップにおいて、2つの参照ピクチャそれぞれにおいて、サブブロックに対応する領域の予測サブブロック内の画素のうちいくつかだけを参照する、ステートメント6~7のいずれか1つに記載の符号化装置。
9. ローカル動き検出値を導出するステップにおいて、
(i)2つの参照ピクチャそれぞれにおいて、予測サブブロック内のいくつかの画素を示す、互いに異なる複数の画素パターンから画素パターンを選択し、
(ii)サブブロックに対するローカル動き検出値を導出するために、選択された画素パターンを示す予測サブブロック内の画素を参照し、
プロセッサは、選択された画素パターンを示す情報をビットストリームに書き込むように構成される、ステートメント8に記載の符号化装置。
(i)2つの参照ピクチャそれぞれにおいて、予測サブブロック内のいくつかの画素を示す、互いに異なる複数の画素パターンから画素パターンを選択し、
(ii)サブブロックに対するローカル動き検出値を導出するために、選択された画素パターンを示す予測サブブロック内の画素を参照し、
プロセッサは、選択された画素パターンを示す情報をビットストリームに書き込むように構成される、ステートメント8に記載の符号化装置。
10. ローカル動き検出値を導出するステップにおいて、
(i)2つの参照ピクチャそれぞれにおける2つの予測画像に基づき、予測サブブロック内のいくつかの画素を示す、互いに異なる複数の画素パターンから画素パターンを適応的に選択し、
(ii)サブブロックに対するローカル動き検出値を導出するために、選択された画素パターンを示す予測サブブロック内の画素を参照する、ステートメント8に記載の符号化装置。
(i)2つの参照ピクチャそれぞれにおける2つの予測画像に基づき、予測サブブロック内のいくつかの画素を示す、互いに異なる複数の画素パターンから画素パターンを適応的に選択し、
(ii)サブブロックに対するローカル動き検出値を導出するために、選択された画素パターンを示す予測サブブロック内の画素を参照する、ステートメント8に記載の符号化装置。
11. インター予測を用いてピクチャ内の処理対象ブロックを符号化する符号化方法であって、
2つの参照ピクチャそれぞれに対応する動きベクトルを用いて動き補償を行うことにより、2つの参照ピクチャから2つの予測画像を取得し、
2つの予測画像に対応する2つの勾配画像を2つの参照ピクチャから取得し、
処理対象ブロックを分割することによって得られるサブブロック内の2つの勾配画像と2つの予測画像とを用いてローカル動き検出値を導出し、
サブブロックのローカル動き検出値と、2つの勾配画像と、2つの予測画像とを用いて、処理対象ブロックの最終予測画像を生成する、符号化方法。
2つの参照ピクチャそれぞれに対応する動きベクトルを用いて動き補償を行うことにより、2つの参照ピクチャから2つの予測画像を取得し、
2つの予測画像に対応する2つの勾配画像を2つの参照ピクチャから取得し、
処理対象ブロックを分割することによって得られるサブブロック内の2つの勾配画像と2つの予測画像とを用いてローカル動き検出値を導出し、
サブブロックのローカル動き検出値と、2つの勾配画像と、2つの予測画像とを用いて、処理対象ブロックの最終予測画像を生成する、符号化方法。
12. インター予測を用いてピクチャ内の処理対象ブロックを復号する復号装置であって、
プロセッサと、
メモリとを備え、
プロセッサはメモリを用いて、2つの参照ピクチャそれぞれに対応する動きベクトルを用いて動き補償を行うことにより、2つの参照ピクチャから2つの予測画像を取得し、
2つの予測画像に対応する2つの勾配画像を2つの参照ピクチャから取得し、
処理対象ブロックを分割することによって得られるサブブロック内の2つの勾配画像と2つの予測画像とを用いてローカル動き検出値を導出し、
サブブロックのローカル動き検出値と、2つの勾配画像と、2つの予測画像とを用いて、処理対象ブロックの最終予測画像を生成する、復号装置。
プロセッサと、
メモリとを備え、
プロセッサはメモリを用いて、2つの参照ピクチャそれぞれに対応する動きベクトルを用いて動き補償を行うことにより、2つの参照ピクチャから2つの予測画像を取得し、
2つの予測画像に対応する2つの勾配画像を2つの参照ピクチャから取得し、
処理対象ブロックを分割することによって得られるサブブロック内の2つの勾配画像と2つの予測画像とを用いてローカル動き検出値を導出し、
サブブロックのローカル動き検出値と、2つの勾配画像と、2つの予測画像とを用いて、処理対象ブロックの最終予測画像を生成する、復号装置。
13. 2つの予測画像を取得するステップにおいて2つの参照画像をサブ画素精度で取得する場合、2つの参照ピクチャそれぞれにおいて動きベクトルで示される予測ブロックを囲む補間参照範囲内の画素を参照することによって、画素をサブ画素精度で補間し、ローカル動き検出値を用いて処理が行われる通常のインター予測で処理対象ブロックに動き補償を行うために補間参照範囲は通常参照範囲に含まれる、ステートメント12に記載の復号装置。
14. 補間参照範囲は通常参照範囲に一致する、ステートメント13に記載の復号装置。
15. 2つの勾配画像を取得するステップにおいて2つの参照ピクチャそれぞれにおける予測ブロックを囲む勾配参照範囲内で画素を参照し、勾配参照範囲は補間参照範囲に含まれる、ステートメント13または14に記載の復号装置。
16. 勾配参照範囲は補間参照範囲に一致する、ステートメント15に記載の復号装置。
17. ローカル動き検出値を導出するステップにおいて、2つの参照ピクチャそれぞれにおけるサブブロックに対応する領域内の予測サブブロックに含まれる画素の値は重み付けて用いられ、これらの画素のうち領域の中央に位置する画素は、領域の中央以外の画素に用いられる値より大きな値で重みづけられる、ステートメント12~16のいずれか1つに記載の復号装置。
18. ローカル動き検出値を導出するステップにおいて、2つの参照ピクチャそれぞれにおけるサブブロックに対応する領域の予測サブブロック内の画素に加えて、動きベクトルによって示される予測ブロックに含まれる、予測サブブロックに隣接する別の予測サブブロック内の画素を参照する、ステートメント17に記載の復号装置。
19. ローカル動き検出値を導出するステップにおいて、2つの参照ピクチャそれぞれにおいて、サブブロックに対応する領域の予測サブブロック内の画素のうちいくつかだけを参照する、ステートメント17~18のいずれか1つに記載の復号装置。
20. プロセッサは、ビットストリームから選択された画素パターンを示す情報を取得し、
ローカル動き検出値を導出するステップにおいて、
(i)取得した情報に基づき、2つの参照ピクチャそれぞれにおいて予測サブブロック内のいくつかの画素を示す、互いに異なる複数の画素パターンから画素パターンを選択し、(ii)サブブロックに対するローカル動き検出値を導出するために、選択された画素パターンを示す予測サブブロック内の画素を参照する、ステートメント19に記載の復号装置。
ローカル動き検出値を導出するステップにおいて、
(i)取得した情報に基づき、2つの参照ピクチャそれぞれにおいて予測サブブロック内のいくつかの画素を示す、互いに異なる複数の画素パターンから画素パターンを選択し、(ii)サブブロックに対するローカル動き検出値を導出するために、選択された画素パターンを示す予測サブブロック内の画素を参照する、ステートメント19に記載の復号装置。
21. ローカル動き検出値を導出するステップにおいて、
(i)2つの参照ピクチャそれぞれにおける2つの予測画像に基づき、予測サブブロック内のいくつかの画素を示す、互いに異なる複数の画素パターンから画素パターンを適応的に選択し、
(ii)サブブロックに対するローカル動き検出値を導出するために、選択された画素パターンを示す予測サブブロック内の画素を参照する、ステートメント19に記載の復号装置。
(i)2つの参照ピクチャそれぞれにおける2つの予測画像に基づき、予測サブブロック内のいくつかの画素を示す、互いに異なる複数の画素パターンから画素パターンを適応的に選択し、
(ii)サブブロックに対するローカル動き検出値を導出するために、選択された画素パターンを示す予測サブブロック内の画素を参照する、ステートメント19に記載の復号装置。
22. インター予測を用いてピクチャ内の処理対象ブロックを復号する復号方法であって、
2つの参照ピクチャそれぞれに対応する動きベクトルを用いて動き補償を行うことにより、2つの参照ピクチャから2つの予測画像を取得し、
2つの予測画像に対応する2つの勾配画像を2つの参照ピクチャから取得し、
処理対象ブロックを分割することによって得られるサブブロック内の2つの勾配画像と2つの予測画像とを用いてローカル動き検出値を導出し、
サブブロックのローカル動き検出値と、2つの勾配画像と、2つの予測画像とを用いて、処理対象ブロックの最終予測画像を生成する、復号方法。
2つの参照ピクチャそれぞれに対応する動きベクトルを用いて動き補償を行うことにより、2つの参照ピクチャから2つの予測画像を取得し、
2つの予測画像に対応する2つの勾配画像を2つの参照ピクチャから取得し、
処理対象ブロックを分割することによって得られるサブブロック内の2つの勾配画像と2つの予測画像とを用いてローカル動き検出値を導出し、
サブブロックのローカル動き検出値と、2つの勾配画像と、2つの予測画像とを用いて、処理対象ブロックの最終予測画像を生成する、復号方法。
23. 回路と、
回路に接続されたメモリとを備え、
回路は、動作において、
ピクチャのカレントブロックに対する予測サンプルの第1ブロックを予測し、予測サンプルの第1ブロックを予測するステップは、別のピクチャからの動きベクトルを用いた予測処理を少なくとも含み、
予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成し、第2ブロックは第1ブロックよりも大きく、
予測サンプルの第2ブロックを用いて、少なくとも勾配を算出し、
少なくとも算出した勾配を用いて、カレントブロックを符号化する、画像符号化装置。
回路に接続されたメモリとを備え、
回路は、動作において、
ピクチャのカレントブロックに対する予測サンプルの第1ブロックを予測し、予測サンプルの第1ブロックを予測するステップは、別のピクチャからの動きベクトルを用いた予測処理を少なくとも含み、
予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成し、第2ブロックは第1ブロックよりも大きく、
予測サンプルの第2ブロックを用いて、少なくとも勾配を算出し、
少なくとも算出した勾配を用いて、カレントブロックを符号化する、画像符号化装置。
24. 予測サンプルの第1ブロックは、マージモードまたはインター予測モードである予測モードに対して行われる予測処理で用いられた予測ブロックである、請求項23に記載の画像符号化装置。
25. 予測サンプルの第1ブロックは、マージモードまたはインター予測モードである予測モードに対して行われる動き補償処理で用いられた参照ブロックである、請求項23に記載の画像符号化装置。
26. 回路は、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成する場合に、
予測サンプルの第1ブロックの少なくとも2辺をパディングして予測サンプルの第2ブロックを形成し、第1ブロックの少なくとも2辺は直交しない、請求項23に記載の画像符号化装置。
予測サンプルの第1ブロックの少なくとも2辺をパディングして予測サンプルの第2ブロックを形成し、第1ブロックの少なくとも2辺は直交しない、請求項23に記載の画像符号化装置。
27. 回路は、少なくとも勾配を算出する場合に、
予測サンプルの第2ブロックに勾配フィルタを適用して少なくとも微分値を生成する、請求項23に記載の画像符号化装置。
予測サンプルの第2ブロックに勾配フィルタを適用して少なくとも微分値を生成する、請求項23に記載の画像符号化装置。
28. 回路は、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成する場合に、
第1ブロックの予測サンプルをミラーリングして予測サンプルの第2ブロックを形成する、請求項23に記載の画像符号化装置。
第1ブロックの予測サンプルをミラーリングして予測サンプルの第2ブロックを形成する、請求項23に記載の画像符号化装置。
29. 回路は、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成する場合に、
第1ブロックの予測サンプルを複写して予測サンプルの第2ブロックを形成する、請求項23に記載の画像符号化装置。
第1ブロックの予測サンプルを複写して予測サンプルの第2ブロックを形成する、請求項23に記載の画像符号化装置。
30. 回路は、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成する場合に、
予測サンプルの第1ブロックに固定値をパディングして予測サンプルの第2ブロックを形成し、固定値は、0、128、正の整数、予測サンプルの第1ブロックの平均値、または、予測サンプルの第1ブロックの中央値でもよい、請求項23に記載の画像符号化装置。
予測サンプルの第1ブロックに固定値をパディングして予測サンプルの第2ブロックを形成し、固定値は、0、128、正の整数、予測サンプルの第1ブロックの平均値、または、予測サンプルの第1ブロックの中央値でもよい、請求項23に記載の画像符号化装置。
31. 回路は、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成する場合に、
予測サンプルの第1ブロックに関数を実行して予測サンプルの第2ブロックを形成する、請求項23に記載の画像符号化装置。
予測サンプルの第1ブロックに関数を実行して予測サンプルの第2ブロックを形成する、請求項23に記載の画像符号化装置。
32. 回路は、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成する場合に、
ミラーリング、複写、固定値のパディング、および、予測サンプルの第1ブロックへの関数の実行のうち少なくとも2つを組み合わせて予測サンプルの第2ブロックを形成する、請求項23に記載の画像符号化装置。
ミラーリング、複写、固定値のパディング、および、予測サンプルの第1ブロックへの関数の実行のうち少なくとも2つを組み合わせて予測サンプルの第2ブロックを形成する、請求項23に記載の画像符号化装置。
33. 回路は、ピクチャのカレントブロックに対する予測サンプルの第1ブロックを予測する場合に、さらに、
ピクチャのカレントブロックに対する予測サンプルの別のブロックを予測し、予測サンプルの別のブロックを予測するステップは、もう1つ別のピクチャからの別の動きベクトルを用いた予測処理を少なくとも含む、請求項23に記載の画像符号化装置。
ピクチャのカレントブロックに対する予測サンプルの別のブロックを予測し、予測サンプルの別のブロックを予測するステップは、もう1つ別のピクチャからの別の動きベクトルを用いた予測処理を少なくとも含む、請求項23に記載の画像符号化装置。
34. もう1つ別のピクチャは、別のピクチャのピクチャオーダーカウントおよび/またはピクチャのピクチャオーダーカウントとは異なるピクチャオーダーカウントを有する、請求項33に記載の画像符号化装置。
35. 回路は、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成する場合に、
予測サンプルの別のブロックをパディングして予測サンプルのさらに別のブロックを形成する、請求項34に記載の画像符号化装置。
予測サンプルの別のブロックをパディングして予測サンプルのさらに別のブロックを形成する、請求項34に記載の画像符号化装置。
36. 回路が、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成した後に、回路は、マージモードまたはインター予測モードである予測モードに対して補間処理を行う、請求項23に記載の画像符号化装置。
37. 回路が、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成する前に、回路は、マージモードまたはインター予測モードである予測モードに対して補間処理を行う、請求項23に記載の画像符号化装置。
38. 回路は、少なくとも算出した勾配を用いてカレントブロックを符号化する場合に、
補間処理の結果生じた予測サンプルのブロックと少なくとも算出した勾配とを用いて、カレントブロックを符号化する、請求項23に記載の画像符号化装置。
補間処理の結果生じた予測サンプルのブロックと少なくとも算出した勾配とを用いて、カレントブロックを符号化する、請求項23に記載の画像符号化装置。
39. 回路は、少なくとも勾配を算出する場合に、
補間処理の結果生じた予測サンプルのブロックに1以上の勾配フィルタを適用して1以上の微分値を生成する、請求項38に記載の画像符号化装置。
補間処理の結果生じた予測サンプルのブロックに1以上の勾配フィルタを適用して1以上の微分値を生成する、請求項38に記載の画像符号化装置。
40. 回路と、
回路に接続されたメモリとを備え、
回路は、動作において、
ピクチャのカレントブロックに対する予測サンプルの第1ブロックを予測し、予測サンプルの第1ブロックを予測するステップは、別のピクチャからの動きベクトルを用いた予測処理を少なくとも含み、
予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成し、第2ブロックは第1ブロックよりも大きく、
予測サンプルの第2ブロックを用いて補間処理を行い、
少なくとも補間処理の結果生じたブロックを用いて、カレントブロックを符号化する、画像符号化装置。
回路に接続されたメモリとを備え、
回路は、動作において、
ピクチャのカレントブロックに対する予測サンプルの第1ブロックを予測し、予測サンプルの第1ブロックを予測するステップは、別のピクチャからの動きベクトルを用いた予測処理を少なくとも含み、
予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成し、第2ブロックは第1ブロックよりも大きく、
予測サンプルの第2ブロックを用いて補間処理を行い、
少なくとも補間処理の結果生じたブロックを用いて、カレントブロックを符号化する、画像符号化装置。
41. 回路は、動作において、
カレントブロックの1以上の隣接ブロックを予測するOBMC処理を行い、OBMC処理は、補間処理の結果生じたブロックを少なくとも用いる、請求項40に記載の画像符号化装置。
カレントブロックの1以上の隣接ブロックを予測するOBMC処理を行い、OBMC処理は、補間処理の結果生じたブロックを少なくとも用いる、請求項40に記載の画像符号化装置。
42. 回路は、動作において、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成する場合に、
予測サンプルの第1ブロックの2辺に対してサンプルをパディングし、第1ブロックの2辺は互いに平行である、請求項40に記載の画像符号化装置。
予測サンプルの第1ブロックの2辺に対してサンプルをパディングし、第1ブロックの2辺は互いに平行である、請求項40に記載の画像符号化装置。
43. 回路は、動作において、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成する場合に、
予測サンプルの第1ブロックの3辺以上に対してサンプルをパディングする、請求項40に記載の画像符号化装置。
予測サンプルの第1ブロックの3辺以上に対してサンプルをパディングする、請求項40に記載の画像符号化装置。
44. 回路と、
回路に接続されたメモリとを備え、
回路は、動作において、
ピクチャのカレントブロックに対する予測サンプルの第1ブロックを予測し、予測サンプルの第1ブロックを予測するステップは、別のピクチャからの動きベクトルを用いた予測処理を少なくとも含み、
予測サンプルの第2ブロックをパディングして予測サンプルの第3ブロックを形成し、第2ブロックはカレントブロックに隣接し、
少なくとも予測サンプルの第1ブロックおよび第3ブロックを用いて、OBMC処理を行い、
少なくともOBMC処理の結果生じたブロックを用いて、カレントブロックを符号化する、画像符号化装置。
回路に接続されたメモリとを備え、
回路は、動作において、
ピクチャのカレントブロックに対する予測サンプルの第1ブロックを予測し、予測サンプルの第1ブロックを予測するステップは、別のピクチャからの動きベクトルを用いた予測処理を少なくとも含み、
予測サンプルの第2ブロックをパディングして予測サンプルの第3ブロックを形成し、第2ブロックはカレントブロックに隣接し、
少なくとも予測サンプルの第1ブロックおよび第3ブロックを用いて、OBMC処理を行い、
少なくともOBMC処理の結果生じたブロックを用いて、カレントブロックを符号化する、画像符号化装置。
45. 回路と、
回路に接続されたメモリとを備え、
回路は、動作において、
ピクチャのカレントブロックに対する予測サンプルの第1ブロックを予測し、予測サンプルの第1ブロックを予測するステップは、別のピクチャからの第1動きベクトルを用いた予測処理を少なくとも含み、
少なくとも第1動きベクトルを用いてDMVR処理によりカレントブロックに対する第2動きベクトルを導出し、
第2動きベクトルを用いてカレントブロックに対し補間処理を行い、補間処理はパディング処理を含み、
少なくとも補間処理の結果生じたブロックを用いてカレントブロックを符号化する、画像符号化装置。
回路に接続されたメモリとを備え、
回路は、動作において、
ピクチャのカレントブロックに対する予測サンプルの第1ブロックを予測し、予測サンプルの第1ブロックを予測するステップは、別のピクチャからの第1動きベクトルを用いた予測処理を少なくとも含み、
少なくとも第1動きベクトルを用いてDMVR処理によりカレントブロックに対する第2動きベクトルを導出し、
第2動きベクトルを用いてカレントブロックに対し補間処理を行い、補間処理はパディング処理を含み、
少なくとも補間処理の結果生じたブロックを用いてカレントブロックを符号化する、画像符号化装置。
46. 回路は、カレントブロックに対して補間処理を行う場合に、
第2動きベクトルに応じて予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを生成し、
少なくとも予測サンプルの第2ブロックを用いて補間処理を行う、請求項45に記載の画像符号化装置。
第2動きベクトルに応じて予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを生成し、
少なくとも予測サンプルの第2ブロックを用いて補間処理を行う、請求項45に記載の画像符号化装置。
47. 回路は、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを生成する場合に、第2動きベクトルに応じて予測サンプルの第1ブロックの1以上の辺をパディングする、請求項46に記載の画像符号化装置。
48. 回路は、DMVR処理を用いて第2動きベクトルを導出する場合に、第1動きベクトルに応じて予測サンプルの第1ブロックにパディング処理を行う、請求項45に記載の画像符号化装置。
49. 動作において、オリジナルピクチャを受信し、ブロックに分割する分割部と、動作において、分割部からブロックを受信し、予測制御部から予測し、対応するブロックから各予測値を差分して残差を出力する第1加算部と、
動作において、加算部から出力された残差を変換して変換係数を出力する変換部と、
動作において、変換係数を量子化して量子化変換係数を生成する量子化部と、
動作において、量子化変換係数を符号化してビットストリームを生成するエントロピー符号化部と、
動作において、量子化変換係数を逆量子化して変換係数を取得し、変換係数を逆変換して残差を取得する逆量子化変換部と、
動作において、逆量子化変換部から出力された残差と、予測制御部から出力された予測値とを加算して、ブロックを再構成する第2加算部と、
動作において、符号化済み参照ピクチャにおける参照ブロックに基づいてカレントブロックの予測を生成するインター予測部およびメモリに接続された予測制御部とを備え、
動作において、符号化済み参照ピクチャにおける参照ブロックに基づいてカレントブロックの予測を生成する場合、インター予測部は、
カレントブロックに対する予測サンプルの第1ブロックを予測し、予測サンプルの第1ブロックを予測するステップは、符号化済み参照ピクチャからの動きベクトルを用いた予測処理を少なくとも含み、
予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成し、第2ブロックは第1ブロックよりも大きく、
予測サンプルの第2ブロックを用いて、少なくとも勾配を算出し、
少なくとも算出した勾配を用いて、カレントブロックを符号化する 画像符号化装置。
動作において、加算部から出力された残差を変換して変換係数を出力する変換部と、
動作において、変換係数を量子化して量子化変換係数を生成する量子化部と、
動作において、量子化変換係数を符号化してビットストリームを生成するエントロピー符号化部と、
動作において、量子化変換係数を逆量子化して変換係数を取得し、変換係数を逆変換して残差を取得する逆量子化変換部と、
動作において、逆量子化変換部から出力された残差と、予測制御部から出力された予測値とを加算して、ブロックを再構成する第2加算部と、
動作において、符号化済み参照ピクチャにおける参照ブロックに基づいてカレントブロックの予測を生成するインター予測部およびメモリに接続された予測制御部とを備え、
動作において、符号化済み参照ピクチャにおける参照ブロックに基づいてカレントブロックの予測を生成する場合、インター予測部は、
カレントブロックに対する予測サンプルの第1ブロックを予測し、予測サンプルの第1ブロックを予測するステップは、符号化済み参照ピクチャからの動きベクトルを用いた予測処理を少なくとも含み、
予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成し、第2ブロックは第1ブロックよりも大きく、
予測サンプルの第2ブロックを用いて、少なくとも勾配を算出し、
少なくとも算出した勾配を用いて、カレントブロックを符号化する 画像符号化装置。
50. 予測サンプルの第1ブロックは、マージモードまたはインター予測モードである予測モードに対して行われる予測処理で用いられた予測ブロックである、請求項49に記載の画像符号化装置。
51. 予測サンプルの第1ブロックは、マージモードまたはインター予測モードである予測モードに対して行われる動き補償処理で用いられた参照ブロックである、請求項49に記載の画像符号化装置。
52. インター予測部は、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成する場合に、
予測サンプルの第1ブロックの少なくとも2辺をパディングして予測サンプルの第2ブロックを形成し、第1ブロックの少なくとも2辺は直交しない、請求項49に記載の画像符号化装置。
予測サンプルの第1ブロックの少なくとも2辺をパディングして予測サンプルの第2ブロックを形成し、第1ブロックの少なくとも2辺は直交しない、請求項49に記載の画像符号化装置。
53. インター予測部は、少なくとも勾配を算出する場合に、
予測サンプルの第2ブロックに勾配フィルタを適用して少なくとも微分値を生成する、請求項49に記載の画像符号化装置。
予測サンプルの第2ブロックに勾配フィルタを適用して少なくとも微分値を生成する、請求項49に記載の画像符号化装置。
54. インター予測部は、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成する場合に、
第1ブロックの予測サンプルをミラーリングして予測サンプルの第2ブロックを形成する、請求項49に記載の画像符号化装置。
第1ブロックの予測サンプルをミラーリングして予測サンプルの第2ブロックを形成する、請求項49に記載の画像符号化装置。
55. インター予測部は、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成する場合に、
第1ブロックの予測サンプルを複写して予測サンプルの第2ブロックを形成する、請求項49に記載の画像符号化装置。
第1ブロックの予測サンプルを複写して予測サンプルの第2ブロックを形成する、請求項49に記載の画像符号化装置。
56. インター予測部は、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成する場合に、
予測サンプルの第1ブロックに固定値をパディングして予測サンプルの第2ブロックを形成し、固定値は、0、128、正の整数、予測サンプルの第1ブロックの平均値、または、予測サンプルの第1ブロックの中央値でもよい、請求項49に記載の画像符号化装置。
予測サンプルの第1ブロックに固定値をパディングして予測サンプルの第2ブロックを形成し、固定値は、0、128、正の整数、予測サンプルの第1ブロックの平均値、または、予測サンプルの第1ブロックの中央値でもよい、請求項49に記載の画像符号化装置。
57. インター予測部は、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成する場合に、
予測サンプルの第1ブロックに関数を実行して予測サンプルの第2ブロックを形成する、請求項49に記載の画像符号化装置。
予測サンプルの第1ブロックに関数を実行して予測サンプルの第2ブロックを形成する、請求項49に記載の画像符号化装置。
58. インター予測部は、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成する場合に、
ミラーリング、複写、第1値のパディング、および、予測サンプルの第1ブロックへの関数の実行のうち少なくとも2つを組み合わせて予測サンプルの第2ブロックを形成する、請求項49に記載の画像符号化装置。
ミラーリング、複写、第1値のパディング、および、予測サンプルの第1ブロックへの関数の実行のうち少なくとも2つを組み合わせて予測サンプルの第2ブロックを形成する、請求項49に記載の画像符号化装置。
59. インター予測部は、ピクチャのカレントブロックに対する予測サンプルの第1ブロックを予測する場合に、さらに、
カレントブロックに対する予測サンプルの別のブロックを予測し、予測サンプルの別のブロックを予測するステップは、別の符号化済み参照ピクチャからの別の動きベクトルを用いた予測処理を少なくとも含む、請求項49に記載の画像符号化装置。
カレントブロックに対する予測サンプルの別のブロックを予測し、予測サンプルの別のブロックを予測するステップは、別の符号化済み参照ピクチャからの別の動きベクトルを用いた予測処理を少なくとも含む、請求項49に記載の画像符号化装置。
60. 別の符号化済み参照ピクチャは、符号化済み参照ピクチャのピクチャオーダーカウントおよび/またはオリジナルピクチャのピクチャオーダーカウントと異なるピクチャオーダーカウントを有する、請求項59に記載の画像符号化装置。
61. インター予測部は、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成する場合に、さらに、
予測サンプルの別のブロックをパディングして予測サンプルのさらに別のブロックを形成する、請求項60に記載の画像符号化装置。
予測サンプルの別のブロックをパディングして予測サンプルのさらに別のブロックを形成する、請求項60に記載の画像符号化装置。
62. インター予測部が、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成した後に、インター予測部は、マージモードまたはインター予測モードである予測モードに対して補間処理を行う、請求項49に記載の画像符号化装置。
63. インター予測部が、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成する前に、インター予測部は、マージモードまたはインター予測モードである予測モードに対して補間処理を行う、請求項49に記載の画像符号化装置。
64. インター予測部は、少なくとも算出した勾配を用いてカレントブロックを符号化する場合に、
補間処理の結果生じた予測サンプルのブロックと少なくとも算出した勾配とを用いて、カレントブロックを符号化する、請求項49に記載の画像符号化装置。
補間処理の結果生じた予測サンプルのブロックと少なくとも算出した勾配とを用いて、カレントブロックを符号化する、請求項49に記載の画像符号化装置。
65. インター予測部は、少なくとも勾配を算出する場合に、
補間処理の結果生じた予測サンプルのブロックに1以上の勾配フィルタを適用して1以上の微分値を生成する、請求項64に記載の画像符号化装置。
補間処理の結果生じた予測サンプルのブロックに1以上の勾配フィルタを適用して1以上の微分値を生成する、請求項64に記載の画像符号化装置。
66. 動作において、オリジナルピクチャを受信し、ブロックに分割する分割部と、動作において、分割部からブロックを受信し、予測制御部から予測し、対応するブロックから各予測を差分して残差を出力する第1加算部と、
動作において、加算部から出力された残差を変換して変換係数を出力する変換部と、
動作において、変換係数を量子化して量子化変換係数を生成する量子化部と、
動作において、量子化変換係数を符号化してビットストリームを生成するエントロピー符号化部と、
動作において、量子化変換係数を逆量子化して変換係数を取得し、変換係数を逆変換して残差を取得する逆量子化部および逆変換部と、
動作において、逆量子化変換部から出力された残差と、予測制御部から出力された予測値とを加算して、ブロックを再構成する第2加算部と、
動作において、符号化済み参照ピクチャにおける参照ブロックに基づいてカレントブロックの予測を生成するインター予測部およびメモリに接続された予測制御部とを備え、
動作において、符号化済み参照ピクチャにおける参照ブロックに基づいてカレントブロックの予測を生成する場合、インター予測部は、
ピクチャのカレントブロックに対する予測サンプルの第1ブロックを予測し、予測サンプルの第1ブロックを予測するステップは、別のピクチャからの動きベクトルを用いた予測処理を少なくとも含み、
予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成し、第2ブロックは第1ブロックよりも大きく、
予測サンプルの第2ブロックを用いて補間処理を行い、
少なくとも補間処理の結果生じたブロックを用いてカレントブロックを符号化する、画像符号化装置。
動作において、加算部から出力された残差を変換して変換係数を出力する変換部と、
動作において、変換係数を量子化して量子化変換係数を生成する量子化部と、
動作において、量子化変換係数を符号化してビットストリームを生成するエントロピー符号化部と、
動作において、量子化変換係数を逆量子化して変換係数を取得し、変換係数を逆変換して残差を取得する逆量子化部および逆変換部と、
動作において、逆量子化変換部から出力された残差と、予測制御部から出力された予測値とを加算して、ブロックを再構成する第2加算部と、
動作において、符号化済み参照ピクチャにおける参照ブロックに基づいてカレントブロックの予測を生成するインター予測部およびメモリに接続された予測制御部とを備え、
動作において、符号化済み参照ピクチャにおける参照ブロックに基づいてカレントブロックの予測を生成する場合、インター予測部は、
ピクチャのカレントブロックに対する予測サンプルの第1ブロックを予測し、予測サンプルの第1ブロックを予測するステップは、別のピクチャからの動きベクトルを用いた予測処理を少なくとも含み、
予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成し、第2ブロックは第1ブロックよりも大きく、
予測サンプルの第2ブロックを用いて補間処理を行い、
少なくとも補間処理の結果生じたブロックを用いてカレントブロックを符号化する、画像符号化装置。
67. インター予測部は、動作において、
カレントブロックの1以上の隣接ブロックを予測するOBMC処理を行い、OBMC処理は、補間処理の結果生じたブロックを少なくとも用いる、請求項66に記載の画像符号化装置。
カレントブロックの1以上の隣接ブロックを予測するOBMC処理を行い、OBMC処理は、補間処理の結果生じたブロックを少なくとも用いる、請求項66に記載の画像符号化装置。
68. インター予測部は、動作において、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成する場合に、
予測サンプルの第1ブロックの2辺に対してサンプルをパディングし、第1ブロックの2辺は互いに平行である、請求項66に記載の画像符号化装置。
予測サンプルの第1ブロックの2辺に対してサンプルをパディングし、第1ブロックの2辺は互いに平行である、請求項66に記載の画像符号化装置。
69. インター予測部は、動作において、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成する場合に、
予測サンプルの第1ブロックの3辺以上に対してサンプルをパディングする、請求項66に記載の画像符号化装置。
予測サンプルの第1ブロックの3辺以上に対してサンプルをパディングする、請求項66に記載の画像符号化装置。
70. 動作において、オリジナルピクチャを受信し、ブロックに分割する分割部と、動作において、分割部からブロックを受信し、予測制御部から予測し、対応するブロックから各予測を差分して残差を出力する第1加算部と、
動作において、加算部から出力された残差を変換して変換係数を出力する変換部と、
動作において、変換係数を量子化して量子化変換係数を生成する量子化部と、
動作において、量子化変換係数を符号化してビットストリームを生成するエントロピー符号化部と、
動作において、量子化変換係数を逆量子化して変換係数を取得し、変換係数を逆変換して残差を取得する逆量子化部および逆変換部と、
動作において、逆量子化変換部から出力された残差と、予測制御部から出力された予測値とを加算して、ブロックを再構成する第2加算部と、
動作において、符号化済み参照ピクチャにおける参照ブロックに基づいてカレントブロックの予測を生成するインター予測部およびメモリに接続された予測制御部とを備え、
動作において、符号化済み参照ピクチャにおける参照ブロックに基づいてカレントブロックの予測を生成する場合、インター予測部は、
ピクチャのカレントブロックに対する予測サンプルの第1ブロックを予測し、予測サンプルの第1ブロックを予測するステップは、別のピクチャからの動きベクトルを用いた予測処理を少なくとも含み、
予測サンプルの第2ブロックをパディングして予測サンプルの第3ブロックを形成し、第2ブロックはカレントブロックに隣接し、
少なくとも予測サンプルの第1ブロックおよび第3ブロックを用いて、OBMC処理を行い、
少なくともOBMC処理の結果生じたブロックを用いて、カレントブロックを符号化する、画像符号化装置。
動作において、加算部から出力された残差を変換して変換係数を出力する変換部と、
動作において、変換係数を量子化して量子化変換係数を生成する量子化部と、
動作において、量子化変換係数を符号化してビットストリームを生成するエントロピー符号化部と、
動作において、量子化変換係数を逆量子化して変換係数を取得し、変換係数を逆変換して残差を取得する逆量子化部および逆変換部と、
動作において、逆量子化変換部から出力された残差と、予測制御部から出力された予測値とを加算して、ブロックを再構成する第2加算部と、
動作において、符号化済み参照ピクチャにおける参照ブロックに基づいてカレントブロックの予測を生成するインター予測部およびメモリに接続された予測制御部とを備え、
動作において、符号化済み参照ピクチャにおける参照ブロックに基づいてカレントブロックの予測を生成する場合、インター予測部は、
ピクチャのカレントブロックに対する予測サンプルの第1ブロックを予測し、予測サンプルの第1ブロックを予測するステップは、別のピクチャからの動きベクトルを用いた予測処理を少なくとも含み、
予測サンプルの第2ブロックをパディングして予測サンプルの第3ブロックを形成し、第2ブロックはカレントブロックに隣接し、
少なくとも予測サンプルの第1ブロックおよび第3ブロックを用いて、OBMC処理を行い、
少なくともOBMC処理の結果生じたブロックを用いて、カレントブロックを符号化する、画像符号化装置。
71. 動作において、オリジナルピクチャを受信し、ブロックに分割する分割部と、動作において、分割部からブロックを受信し、予測制御部から予測し、対応するブロックから各予測を差分して残差を出力する第1加算部と、
動作において、加算部から出力された残差を変換して変換係数を出力する変換部と、
動作において、変換係数を量子化して量子化変換係数を生成する量子化部と、
動作において、量子化変換係数を符号化してビットストリームを生成するエントロピー符号化部と、
動作において、量子化変換係数を逆量子化して変換係数を取得し、変換係数を逆変換して残差を取得する逆量子化部および逆変換部と、
動作において、逆量子化変換部から出力された残差と、予測制御部から出力された予測値とを加算して、ブロックを再構成する第2加算部と、
動作において、符号化済み参照ピクチャにおける参照ブロックに基づいてカレントブロックの予測を生成するインター予測部およびメモリに接続された予測制御部とを備え、
動作において、符号化済み参照ピクチャにおける参照ブロックに基づいてカレントブロックの予測を生成する場合、インター予測部は、
ピクチャのカレントブロックに対する予測サンプルの第1ブロックを予測し、予測サンプルの第1ブロックを予測するステップは、別のピクチャからの第1動きベクトルを用いた予測処理を少なくとも含み、
少なくとも第1動きベクトルを用いてDMVR処理によりカレントブロックに対する第2動きベクトルを導出し、
第2動きベクトルを用いてカレントブロックに対し補間処理を行い、補間処理はパディング処理を含み、
少なくとも補間処理の結果生じたブロックを用いてカレントブロックを符号化する、画像符号化装置。
動作において、加算部から出力された残差を変換して変換係数を出力する変換部と、
動作において、変換係数を量子化して量子化変換係数を生成する量子化部と、
動作において、量子化変換係数を符号化してビットストリームを生成するエントロピー符号化部と、
動作において、量子化変換係数を逆量子化して変換係数を取得し、変換係数を逆変換して残差を取得する逆量子化部および逆変換部と、
動作において、逆量子化変換部から出力された残差と、予測制御部から出力された予測値とを加算して、ブロックを再構成する第2加算部と、
動作において、符号化済み参照ピクチャにおける参照ブロックに基づいてカレントブロックの予測を生成するインター予測部およびメモリに接続された予測制御部とを備え、
動作において、符号化済み参照ピクチャにおける参照ブロックに基づいてカレントブロックの予測を生成する場合、インター予測部は、
ピクチャのカレントブロックに対する予測サンプルの第1ブロックを予測し、予測サンプルの第1ブロックを予測するステップは、別のピクチャからの第1動きベクトルを用いた予測処理を少なくとも含み、
少なくとも第1動きベクトルを用いてDMVR処理によりカレントブロックに対する第2動きベクトルを導出し、
第2動きベクトルを用いてカレントブロックに対し補間処理を行い、補間処理はパディング処理を含み、
少なくとも補間処理の結果生じたブロックを用いてカレントブロックを符号化する、画像符号化装置。
72. インター予測部は、カレントブロックに対して補間処理を行う場合に、
第2動きベクトルに応じて予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを生成し、
少なくとも予測サンプルの第2ブロックを用いて補間処理を行う、請求項71に記載の画像符号化装置。
第2動きベクトルに応じて予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを生成し、
少なくとも予測サンプルの第2ブロックを用いて補間処理を行う、請求項71に記載の画像符号化装置。
73. インター予測部は、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを生成する場合に、第2動きベクトルに応じて予測サンプルの第1ブロックの1以上の辺をパディングする 請求項72に記載の画像符号化装置。
74. インター予測部は、DMVR処理を用いて第2動きベクトルを導出する場合に、第1動きベクトルに応じて予測サンプルの第1ブロックにパディング処理を行う、請求項71に記載の画像符号化装置。
75. 回路と、
回路に接続されたメモリとを備え、
回路は、動作において、
ピクチャのカレントブロックに対する予測サンプルの第1ブロックを予測し、予測サンプルの第1ブロックを予測するステップは、別のピクチャからの動きベクトルを用いた予測処理を少なくとも含み、
予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成し、第2ブロックは第1ブロックよりも大きく、
予測サンプルの第2ブロックを用いて、少なくとも勾配を算出し、
少なくとも算出した勾配を用いて、カレントブロックを復号する、画像復号装置。
回路に接続されたメモリとを備え、
回路は、動作において、
ピクチャのカレントブロックに対する予測サンプルの第1ブロックを予測し、予測サンプルの第1ブロックを予測するステップは、別のピクチャからの動きベクトルを用いた予測処理を少なくとも含み、
予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成し、第2ブロックは第1ブロックよりも大きく、
予測サンプルの第2ブロックを用いて、少なくとも勾配を算出し、
少なくとも算出した勾配を用いて、カレントブロックを復号する、画像復号装置。
76. 予測サンプルの第1ブロックは、マージモードまたはインター予測モードである予測モードに対して行われる予測処理で用いられた予測ブロックである、請求項75に記載の画像復号装置。
77. 予測サンプルの第1ブロックは、マージモードまたはインター予測モードである予測モードに対して行われる動き補償処理で用いられた参照ブロックである、請求項75に記載の画像復号装置。
78. 回路は、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成する場合に、
予測サンプルの第1ブロックの少なくとも2辺をパディングして予測サンプルの第2ブロックを形成し、第1ブロックの少なくとも2辺は直交しない、請求項75に記載の画像復号装置。
予測サンプルの第1ブロックの少なくとも2辺をパディングして予測サンプルの第2ブロックを形成し、第1ブロックの少なくとも2辺は直交しない、請求項75に記載の画像復号装置。
79. 回路は、少なくとも勾配を算出する場合に、
予測サンプルの第2ブロックに勾配フィルタを適用して少なくとも微分値を生成する、請求項75に記載の画像復号装置。
予測サンプルの第2ブロックに勾配フィルタを適用して少なくとも微分値を生成する、請求項75に記載の画像復号装置。
80. 回路は、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成する場合に、
第1ブロックの予測サンプルをミラーリングして予測サンプルの第2ブロックを形成する、請求項75に記載の画像復号装置。
第1ブロックの予測サンプルをミラーリングして予測サンプルの第2ブロックを形成する、請求項75に記載の画像復号装置。
81. 回路は、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成する場合に、
第1ブロックの予測サンプルを複写して予測サンプルの第2ブロックを形成する、請求項75に記載の画像復号装置。
第1ブロックの予測サンプルを複写して予測サンプルの第2ブロックを形成する、請求項75に記載の画像復号装置。
82. 回路は、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成する場合に、
予測サンプルの第1ブロックに固定値をパディングして予測サンプルの第2ブロックを形成し、固定値は、0、128、正の整数、予測サンプルの第1ブロックの平均値、または、予測サンプルの第1ブロックの中央値でもよい、請求項75に記載の画像復号装置。
予測サンプルの第1ブロックに固定値をパディングして予測サンプルの第2ブロックを形成し、固定値は、0、128、正の整数、予測サンプルの第1ブロックの平均値、または、予測サンプルの第1ブロックの中央値でもよい、請求項75に記載の画像復号装置。
83. 回路は、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成する場合に、
予測サンプルの第1ブロックに関数を実行して予測サンプルの第2ブロックを形成する、請求項75に記載の画像復号装置。
予測サンプルの第1ブロックに関数を実行して予測サンプルの第2ブロックを形成する、請求項75に記載の画像復号装置。
84. 回路は、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成する場合に、
ミラーリング、複写、第1値のパディング、および、予測サンプルの第1ブロックへの関数の実行のうち少なくとも2つを組み合わせて予測サンプルの第2ブロックを形成する、請求項75に記載の画像復号装置。
ミラーリング、複写、第1値のパディング、および、予測サンプルの第1ブロックへの関数の実行のうち少なくとも2つを組み合わせて予測サンプルの第2ブロックを形成する、請求項75に記載の画像復号装置。
85. 回路は、ピクチャのカレントブロックに対する予測サンプルの第1ブロックを予測する場合に、さらに、
ピクチャのカレントブロックに対する予測サンプルの別のブロックを予測し、予測サンプルの別のブロックを予測するステップは、もう1つ別のピクチャからの別の動きベクトルを用いた予測処理を少なくとも含む、請求項75に記載の画像復号装置。
ピクチャのカレントブロックに対する予測サンプルの別のブロックを予測し、予測サンプルの別のブロックを予測するステップは、もう1つ別のピクチャからの別の動きベクトルを用いた予測処理を少なくとも含む、請求項75に記載の画像復号装置。
86. もう1つ別のピクチャは、別のピクチャのピクチャオーダーカウントおよび/またはピクチャのピクチャオーダーカウントとは異なるピクチャオーダーカウントを有する、請求項85に記載の画像復号装置。
87. 回路は、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成する場合に、さらに、
予測サンプルの別のブロックをパディングして予測サンプルのさらに別のブロックを形成する、請求項86に記載の画像復号装置。
予測サンプルの別のブロックをパディングして予測サンプルのさらに別のブロックを形成する、請求項86に記載の画像復号装置。
88. 回路が、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成した後、回路は、マージモードまたはインター予測モードである予測モードに対して補間処理を行う、請求項75に記載の画像復号装置。
89. 回路が、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成する前に、回路は、マージモードまたはインター予測モードである予測モードに対して補間処理を行う、請求項75に記載の画像復号装置。
90. 回路は、少なくとも算出した勾配を用いてカレントブロックを復号する場合に、
補間処理の結果生じた予測サンプルのブロックと少なくとも算出した勾配とを用いて、カレントブロックを復号する、請求項75に記載の画像復号装置。
補間処理の結果生じた予測サンプルのブロックと少なくとも算出した勾配とを用いて、カレントブロックを復号する、請求項75に記載の画像復号装置。
91. 回路は、少なくとも勾配を算出する場合に、
補間処理の結果生じた予測サンプルのブロックに1以上の勾配フィルタを適用して1以上の微分値を生成する、請求項90に記載の画像復号装置。
補間処理の結果生じた予測サンプルのブロックに1以上の勾配フィルタを適用して1以上の微分値を生成する、請求項90に記載の画像復号装置。
92. 回路と、
回路に接続されたメモリとを備え、
回路は、動作において、
ピクチャのカレントブロックに対する予測サンプルの第1ブロックを予測し、予測サンプルの第1ブロックを予測するステップは、別のピクチャからの動きベクトルを用いた予測処理を少なくとも含み、
予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成し、第2ブロックは第1ブロックよりも大きく、
予測サンプルの第2ブロックを用いて補間処理を行い、
少なくとも補間処理の結果生じたブロックを用いてカレントブロックを復号する、画像復号装置。
回路に接続されたメモリとを備え、
回路は、動作において、
ピクチャのカレントブロックに対する予測サンプルの第1ブロックを予測し、予測サンプルの第1ブロックを予測するステップは、別のピクチャからの動きベクトルを用いた予測処理を少なくとも含み、
予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成し、第2ブロックは第1ブロックよりも大きく、
予測サンプルの第2ブロックを用いて補間処理を行い、
少なくとも補間処理の結果生じたブロックを用いてカレントブロックを復号する、画像復号装置。
93. 回路は、動作において、
カレントブロックの1以上の隣接ブロックを予測するOBMC処理を行い、OBMC処理は、補間処理の結果生じたブロックを少なくとも用いる、請求項92に記載の画像復号装置。
カレントブロックの1以上の隣接ブロックを予測するOBMC処理を行い、OBMC処理は、補間処理の結果生じたブロックを少なくとも用いる、請求項92に記載の画像復号装置。
94. 回路は、動作において、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成する場合に、
予測サンプルの第1ブロックの2辺に対してサンプルをパディングし、第1ブロックの2辺は互いに平行である、請求項92に記載の画像復号装置。
予測サンプルの第1ブロックの2辺に対してサンプルをパディングし、第1ブロックの2辺は互いに平行である、請求項92に記載の画像復号装置。
95. 回路は、動作において、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成する場合に、
予測サンプルの第1ブロックの3辺以上に対してサンプルをパディングする、請求項92に記載の画像復号装置。
予測サンプルの第1ブロックの3辺以上に対してサンプルをパディングする、請求項92に記載の画像復号装置。
96. 回路と、
回路に接続されたメモリとを備え、
回路は、動作において、
ピクチャのカレントブロックに対する予測サンプルの第1ブロックを予測し、予測サンプルの第1ブロックを予測するステップは、別のピクチャからの動きベクトルを用いた予測処理を少なくとも含み、
予測サンプルの第2ブロックをパディングして予測サンプルの第3ブロックを形成し、第2ブロックはカレントブロックに隣接し、
少なくとも予測サンプルの第1ブロックおよび第3ブロックを用いて、OBMC処理を行い、
少なくともOBMC処理の結果生じたブロックを用いて、カレントブロックを復号する、画像復号装置。
回路に接続されたメモリとを備え、
回路は、動作において、
ピクチャのカレントブロックに対する予測サンプルの第1ブロックを予測し、予測サンプルの第1ブロックを予測するステップは、別のピクチャからの動きベクトルを用いた予測処理を少なくとも含み、
予測サンプルの第2ブロックをパディングして予測サンプルの第3ブロックを形成し、第2ブロックはカレントブロックに隣接し、
少なくとも予測サンプルの第1ブロックおよび第3ブロックを用いて、OBMC処理を行い、
少なくともOBMC処理の結果生じたブロックを用いて、カレントブロックを復号する、画像復号装置。
97. 回路と、
回路に接続されたメモリとを備え、
回路は、動作において、
ピクチャのカレントブロックに対する予測サンプルの第1ブロックを予測し、予測サンプルの第1ブロックを予測するステップは、別のピクチャからの第1動きベクトルを用いた予測処理を少なくとも含み、
少なくとも第1動きベクトルを用いてDMVR処理によりカレントブロックに対する第2動きベクトルを導出し、
第2動きベクトルを用いてカレントブロックに対し補間処理を行い、補間処理はパディング処理を含み、
少なくとも補間処理の結果生じたブロックを用いてカレントブロックを復号する、画像復号装置。
回路に接続されたメモリとを備え、
回路は、動作において、
ピクチャのカレントブロックに対する予測サンプルの第1ブロックを予測し、予測サンプルの第1ブロックを予測するステップは、別のピクチャからの第1動きベクトルを用いた予測処理を少なくとも含み、
少なくとも第1動きベクトルを用いてDMVR処理によりカレントブロックに対する第2動きベクトルを導出し、
第2動きベクトルを用いてカレントブロックに対し補間処理を行い、補間処理はパディング処理を含み、
少なくとも補間処理の結果生じたブロックを用いてカレントブロックを復号する、画像復号装置。
98. 回路は、カレントブロックに対して補間処理を行う場合に、
第2動きベクトルに応じて予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを生成し、
少なくとも予測サンプルの第2ブロックを用いて補間処理を行う、請求項97に記載の画像復号装置。
第2動きベクトルに応じて予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを生成し、
少なくとも予測サンプルの第2ブロックを用いて補間処理を行う、請求項97に記載の画像復号装置。
99. 回路は、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを生成する場合に、第2動きベクトルに応じて予測サンプルの第1ブロックの1以上の辺をパディングする、請求項98に記載の画像復号装置。
100. 回路は、DMVR処理を用いて第2動きベクトルを導出する場合に、第1動きベクトルに応じて予測サンプルの第1ブロックにパディング処理を行う、請求項97に記載の画像復号装置。
101. 動作において、符号化ビットストリームを受信および復号して量子化変換係数を取得するエントロピー復号部と、
動作において、量子化変換係数を逆量子化して変換係数を取得し、変換係数を逆変換して残差を取得する逆量子化変換部と、
動作において、逆量子化変換部から出力された残差と、予測制御部から出力された予測値とを加算して、ブロックを再構成する加算部と、
動作において、復号済み参照ピクチャにおける参照ブロックに基づいてピクチャのカレントブロックの予測を生成するインター予測部およびメモリに接続された予測制御部とを備え、
動作において、復号済み参照ピクチャにおける参照ブロックに基づいてカレントブロックの予測を生成する場合、インター予測部は、
カレントブロックに対する予測サンプルの第1ブロックを予測し、予測サンプルの第1ブロックを予測するステップは、復号済み参照ピクチャからの動きベクトルを用いた予測処理を少なくとも含み、
予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成し、第2ブロックは第1ブロックよりも大きく、
予測サンプルの第2ブロックを用いて、少なくとも勾配を算出し、
少なくとも算出した勾配を用いて、カレントブロックを復号する、画像復号装置。
動作において、量子化変換係数を逆量子化して変換係数を取得し、変換係数を逆変換して残差を取得する逆量子化変換部と、
動作において、逆量子化変換部から出力された残差と、予測制御部から出力された予測値とを加算して、ブロックを再構成する加算部と、
動作において、復号済み参照ピクチャにおける参照ブロックに基づいてピクチャのカレントブロックの予測を生成するインター予測部およびメモリに接続された予測制御部とを備え、
動作において、復号済み参照ピクチャにおける参照ブロックに基づいてカレントブロックの予測を生成する場合、インター予測部は、
カレントブロックに対する予測サンプルの第1ブロックを予測し、予測サンプルの第1ブロックを予測するステップは、復号済み参照ピクチャからの動きベクトルを用いた予測処理を少なくとも含み、
予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成し、第2ブロックは第1ブロックよりも大きく、
予測サンプルの第2ブロックを用いて、少なくとも勾配を算出し、
少なくとも算出した勾配を用いて、カレントブロックを復号する、画像復号装置。
102. 予測サンプルの第1ブロックは、マージモードまたはインター予測モードである予測モードに対して行われる予測処理で用いられた予測ブロックである、請求項101に記載の画像復号装置。
103. 予測サンプルの第1ブロックは、マージモードまたはインター予測モードである予測モードに対して行われる動き補償処理で用いられた参照ブロックである、請求項101に記載の画像復号装置。
104. インター予測部は、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成する場合に、
予測サンプルの第1ブロックの少なくとも2辺をパディングして予測サンプルの第2ブロックを形成し、第1ブロックの少なくとも2辺は直交しない、請求項101に記載の画像復号装置。
予測サンプルの第1ブロックの少なくとも2辺をパディングして予測サンプルの第2ブロックを形成し、第1ブロックの少なくとも2辺は直交しない、請求項101に記載の画像復号装置。
105. インター予測部は、少なくとも勾配を算出する場合に、
予測サンプルの第2ブロックに勾配フィルタを適用して少なくとも微分値を生成する、請求項101に記載の画像復号装置。
予測サンプルの第2ブロックに勾配フィルタを適用して少なくとも微分値を生成する、請求項101に記載の画像復号装置。
106. インター予測部は、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成する場合に、
第1ブロックの予測サンプルをミラーリングして予測サンプルの第2ブロックを形成する、請求項101に記載の画像復号装置。
第1ブロックの予測サンプルをミラーリングして予測サンプルの第2ブロックを形成する、請求項101に記載の画像復号装置。
107. インター予測部は、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成する場合に、
第1ブロックの予測サンプルを複写して予測サンプルの第2ブロックを形成する、請求項101に記載の画像復号装置。
第1ブロックの予測サンプルを複写して予測サンプルの第2ブロックを形成する、請求項101に記載の画像復号装置。
108. インター予測部は、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成する場合に、
予測サンプルの第1ブロックに固定値をパディングして予測サンプルの第2ブロックを形成し、固定値は、0、128、正の整数、予測サンプルの第1ブロックの平均値、または、予測サンプルの第1ブロックの中央値でもよい、請求項101に記載の画像復号装置。
予測サンプルの第1ブロックに固定値をパディングして予測サンプルの第2ブロックを形成し、固定値は、0、128、正の整数、予測サンプルの第1ブロックの平均値、または、予測サンプルの第1ブロックの中央値でもよい、請求項101に記載の画像復号装置。
109. インター予測部は、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成する場合に、
予測サンプルの第1ブロックに関数を実行して予測サンプルの第2ブロックを形成する、請求項101に記載の画像復号装置。
予測サンプルの第1ブロックに関数を実行して予測サンプルの第2ブロックを形成する、請求項101に記載の画像復号装置。
110. インター予測部は、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成する場合に、
ミラーリング、複写、第1値のパディング、および、予測サンプルの第1ブロックへの関数の実行のうち少なくとも2つを組み合わせて予測サンプルの第2ブロックを形成する、請求項101に記載の画像復号装置。
ミラーリング、複写、第1値のパディング、および、予測サンプルの第1ブロックへの関数の実行のうち少なくとも2つを組み合わせて予測サンプルの第2ブロックを形成する、請求項101に記載の画像復号装置。
111. インター予測部は、ピクチャのカレントブロックに対する予測サンプルの第1ブロックを予測する場合に、さらに、
カレントブロックに対する予測サンプルの別のブロックを予測し、予測サンプルの別のブロックを予測するステップは、別の復号済み参照ピクチャからの別の動きベクトルを用いた予測処理を少なくとも含む、請求項101に記載の画像復号装置。
カレントブロックに対する予測サンプルの別のブロックを予測し、予測サンプルの別のブロックを予測するステップは、別の復号済み参照ピクチャからの別の動きベクトルを用いた予測処理を少なくとも含む、請求項101に記載の画像復号装置。
112. 別の復号済み参照ピクチャは、復号済み参照ピクチャのピクチャオーダーカウントおよび/またはオリジナルピクチャのピクチャオーダーカウントと異なるピクチャオーダーカウントを有する、請求項111に記載の画像復号装置。
113. インター予測部は、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成する場合に、
予測サンプルの別のブロックをパディングして予測サンプルのさらに別のブロックを形成する、請求項112に記載の画像復号装置。
予測サンプルの別のブロックをパディングして予測サンプルのさらに別のブロックを形成する、請求項112に記載の画像復号装置。
114. インター予測部が、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成した後に、インター予測部は、マージモードまたはインター予測モードである予測モードに対して補間処理を行う、請求項101に記載の画像復号装置。
115. インター予測部が、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成する前に、インター予測部は、マージモードまたはインター予測モードである予測モードに対して補間処理を行う、請求項101に記載の画像復号装置。
116. インター予測部は、少なくとも算出した勾配を用いてカレントブロックを復号する場合に、
補間処理の結果生じた予測サンプルのブロックと少なくとも算出した勾配とを用いて、カレントブロックを復号する、請求項101に記載の画像復号装置。
補間処理の結果生じた予測サンプルのブロックと少なくとも算出した勾配とを用いて、カレントブロックを復号する、請求項101に記載の画像復号装置。
117. インター予測部は、少なくとも勾配を算出する場合に、
補間処理の結果生じた予測サンプルのブロックに1以上の勾配フィルタを適用して1以上の微分値を生成する、請求項116に記載の画像復号装置。
補間処理の結果生じた予測サンプルのブロックに1以上の勾配フィルタを適用して1以上の微分値を生成する、請求項116に記載の画像復号装置。
118. 動作において、符号化ビットストリームを受信および復号して量子化変換係数を取得するエントロピー復号部と、
動作において、量子化変換係数を逆量子化して変換係数を取得し、変換係数を逆変換して残差を取得する逆量子化変換部と、
動作において、逆量子化変換部から出力された残差と、予測制御部から出力された予測値とを加算して、ブロックを再構成する加算部と、
動作において、復号済み参照ピクチャにおける参照ブロックに基づいてピクチャのカレントブロックの予測を生成するインター予測部およびメモリに接続された予測制御部とを備え、
動作において、復号済み参照ピクチャにおける参照ブロックに基づいてカレントブロックの予測を生成する場合、インター予測部は、
ピクチャのカレントブロックに対する予測サンプルの第1ブロックを予測し、予測サンプルの第1ブロックを予測するステップは、別のピクチャからの動きベクトルを用いた予測処理を少なくとも含み、
予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成し、第2ブロックは第1ブロックよりも大きく、
予測サンプルの第2ブロックを用いて補間処理を行い、
少なくとも補間処理の結果生じたブロックを用いてカレントブロックを復号する、画像復号装置。
動作において、量子化変換係数を逆量子化して変換係数を取得し、変換係数を逆変換して残差を取得する逆量子化変換部と、
動作において、逆量子化変換部から出力された残差と、予測制御部から出力された予測値とを加算して、ブロックを再構成する加算部と、
動作において、復号済み参照ピクチャにおける参照ブロックに基づいてピクチャのカレントブロックの予測を生成するインター予測部およびメモリに接続された予測制御部とを備え、
動作において、復号済み参照ピクチャにおける参照ブロックに基づいてカレントブロックの予測を生成する場合、インター予測部は、
ピクチャのカレントブロックに対する予測サンプルの第1ブロックを予測し、予測サンプルの第1ブロックを予測するステップは、別のピクチャからの動きベクトルを用いた予測処理を少なくとも含み、
予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成し、第2ブロックは第1ブロックよりも大きく、
予測サンプルの第2ブロックを用いて補間処理を行い、
少なくとも補間処理の結果生じたブロックを用いてカレントブロックを復号する、画像復号装置。
119. 回路は、動作において、
カレントブロックの1以上の隣接ブロックを予測するOBMC処理を行い、OBMC処理は、補間処理の結果生じたブロックを少なくとも用いる、請求項118に記載の画像復号装置。
カレントブロックの1以上の隣接ブロックを予測するOBMC処理を行い、OBMC処理は、補間処理の結果生じたブロックを少なくとも用いる、請求項118に記載の画像復号装置。
120. 回路は、動作において、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成する場合に、
予測サンプルの第1ブロックの2辺に対してサンプルをパディングし、第1ブロックの2辺は互いに平行である、請求項118に記載の画像復号装置。
予測サンプルの第1ブロックの2辺に対してサンプルをパディングし、第1ブロックの2辺は互いに平行である、請求項118に記載の画像復号装置。
121. 回路は、動作において、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを形成する場合に、
予測サンプルの第1ブロックの3辺以上に対してサンプルをパディングする、請求項118に記載の画像復号装置。
予測サンプルの第1ブロックの3辺以上に対してサンプルをパディングする、請求項118に記載の画像復号装置。
122. 動作において、符号化ビットストリームを受信および復号して量子化変換係数を取得するエントロピー復号部と、
動作において、量子化変換係数を逆量子化して変換係数を取得し、変換係数を逆変換して残差を取得する逆量子化変換部と、
動作において、逆量子化変換部から出力された残差と、予測制御部から出力された予測値とを加算して、ブロックを再構成する加算部と、
動作において、復号済み参照ピクチャにおける参照ブロックに基づいてピクチャのカレントブロックの予測を生成するインター予測部およびメモリに接続された予測制御部とを備え、
動作において、復号済み参照ピクチャにおける参照ブロックに基づいてカレントブロックの予測を生成する場合、インター予測部は、
ピクチャのカレントブロックに対する予測サンプルの第1ブロックを予測し、予測サンプルの第1ブロックを予測するステップは、別のピクチャからの動きベクトルを用いた予測処理を少なくとも含み、
予測サンプルの第2ブロックをパディングして予測サンプルの第3ブロックを形成し、第2ブロックはカレントブロックに隣接し、
少なくとも予測サンプルの第1ブロックおよび第3ブロックを用いて、OBMC処理を行い、
少なくともOBMC処理の結果生じたブロックを用いて、カレントブロックを復号する、画像復号装置。
動作において、量子化変換係数を逆量子化して変換係数を取得し、変換係数を逆変換して残差を取得する逆量子化変換部と、
動作において、逆量子化変換部から出力された残差と、予測制御部から出力された予測値とを加算して、ブロックを再構成する加算部と、
動作において、復号済み参照ピクチャにおける参照ブロックに基づいてピクチャのカレントブロックの予測を生成するインター予測部およびメモリに接続された予測制御部とを備え、
動作において、復号済み参照ピクチャにおける参照ブロックに基づいてカレントブロックの予測を生成する場合、インター予測部は、
ピクチャのカレントブロックに対する予測サンプルの第1ブロックを予測し、予測サンプルの第1ブロックを予測するステップは、別のピクチャからの動きベクトルを用いた予測処理を少なくとも含み、
予測サンプルの第2ブロックをパディングして予測サンプルの第3ブロックを形成し、第2ブロックはカレントブロックに隣接し、
少なくとも予測サンプルの第1ブロックおよび第3ブロックを用いて、OBMC処理を行い、
少なくともOBMC処理の結果生じたブロックを用いて、カレントブロックを復号する、画像復号装置。
123. 回路と、
回路に接続されたメモリとを備え、
回路は、動作において、
ピクチャのカレントブロックに対する予測サンプルの第1ブロックを予測し、予測サンプルの第1ブロックを予測するステップは、別のピクチャからの第1動きベクトルを用いた予測処理を少なくとも含み、
少なくとも第1動きベクトルを用いてDMVR処理によりカレントブロックに対する第2動きベクトルを導出し、
第2動きベクトルを用いてカレントブロックに対し補間処理を行い、補間処理はパディング処理を含み、
少なくとも補間処理の結果生じたブロックを用いてカレントブロックを復号する、画像復号装置。
回路に接続されたメモリとを備え、
回路は、動作において、
ピクチャのカレントブロックに対する予測サンプルの第1ブロックを予測し、予測サンプルの第1ブロックを予測するステップは、別のピクチャからの第1動きベクトルを用いた予測処理を少なくとも含み、
少なくとも第1動きベクトルを用いてDMVR処理によりカレントブロックに対する第2動きベクトルを導出し、
第2動きベクトルを用いてカレントブロックに対し補間処理を行い、補間処理はパディング処理を含み、
少なくとも補間処理の結果生じたブロックを用いてカレントブロックを復号する、画像復号装置。
124. 回路は、カレントブロックに対して補間処理を行う場合に、
第2動きベクトルに応じて予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを生成し、
少なくとも予測サンプルの第2ブロックを用いて補間処理を行う、請求項123に記載の画像復号装置。
第2動きベクトルに応じて予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを生成し、
少なくとも予測サンプルの第2ブロックを用いて補間処理を行う、請求項123に記載の画像復号装置。
125. 回路は、予測サンプルの第1ブロックをパディングして予測サンプルの第2ブロックを生成する場合に、第2動きベクトルに応じて予測サンプルの第1ブロックの1以上の辺をパディングする、請求項124に記載の画像復号装置。
126. 回路は、DMVR処理を用いて第2動きベクトルを導出する場合に、第1動きベクトルに応じて予測サンプルの第1ブロックにパディング処理を行う、請求項123に記載の画像復号装置。
127. 請求項1~48のいずれか1項に係るステップを実行する画像符号化装置を有効にする画像符号化方法。
128. 請求項75~100のいずれか1項に係るステップを実行する画像復号装置を有効にする画像復号方法。
本開示は、例えば、テレビジョン受像機、デジタルビデオレコーダー、カーナビゲーション、携帯電話、デジタルカメラ、デジタルビデオカメラ等に利用可能である。
100 符号化装置
102 分割部
104 減算部
106 変換部
108 量子化部
110 エントロピー符号化部
112、204 逆量子化部
114、206 逆変換部
116、208 加算部
118、210 ブロックメモリ
120、212 ループフィルタ部
122、214 フレームメモリ
124、216 イントラ予測部
126、218 インター予測部
128、220 予測制御部
200 復号装置
202 エントロピー復号部
1000 カレントピクチャ
1001 カレントブロック
1100 第1参照ピクチャ
1110 第1動きベクトル
1120 第1予測ブロック
1121、1221 予測サブブロック
1122、1222 左上画素
1130、1130A 第1補間参照範囲
1131、1131A、1132、1132A、1231、1231A、1232、1232A 参照範囲
1135、1135A 第1勾配参照範囲
1140 第1予測画像
1150 第1勾配画像
1200 第2参照ピクチャ
1210 第2動きベクトル
1220 第2予測ブロック
1230、1230A 第2補間参照範囲
1235、1235A 第2勾配参照範囲
1240 第2予測画像
1250 第2勾配画像
1300 ローカル動き検出値
1400 第1予測画像
102 分割部
104 減算部
106 変換部
108 量子化部
110 エントロピー符号化部
112、204 逆量子化部
114、206 逆変換部
116、208 加算部
118、210 ブロックメモリ
120、212 ループフィルタ部
122、214 フレームメモリ
124、216 イントラ予測部
126、218 インター予測部
128、220 予測制御部
200 復号装置
202 エントロピー復号部
1000 カレントピクチャ
1001 カレントブロック
1100 第1参照ピクチャ
1110 第1動きベクトル
1120 第1予測ブロック
1121、1221 予測サブブロック
1122、1222 左上画素
1130、1130A 第1補間参照範囲
1131、1131A、1132、1132A、1231、1231A、1232、1232A 参照範囲
1135、1135A 第1勾配参照範囲
1140 第1予測画像
1150 第1勾配画像
1200 第2参照ピクチャ
1210 第2動きベクトル
1220 第2予測ブロック
1230、1230A 第2補間参照範囲
1235、1235A 第2勾配参照範囲
1240 第2予測画像
1250 第2勾配画像
1300 ローカル動き検出値
1400 第1予測画像
Claims (2)
- メモリと、
前記メモリに接続された回路とを備え、
前記回路は、動作において、
参照ピクチャに含まれるサンプルの値を使って補間処理することで、予測ブロックを生成し、
前記予測ブロックを用いて、前記予測ブロックと同じサイズの勾配ブロックを生成し、
前記勾配ブロックを用いて、予測画像を生成し、
前記予測画像に基づいて、カレントブロックを符号化し、
前記勾配ブロックの生成は、
前記予測ブロックに含まれる対象サンプルの位置の下に隣接する下側サンプルの値と、前記対象サンプルの上に隣接する上側サンプルの値との差を示す、勾配値を算出する処理を含み、
前記勾配ブロックの上端にある第1の勾配値は、前記上側サンプルとして、前記予測ブロックにおける前記第1の勾配値と同じ位置の第1サンプルの値を用いて算出され、
前記第1の勾配値の位置の下に隣接する第2の勾配値は、前記上側サンプルとして、前記第1サンプルの値を用いて算出される、
符号化装置。 - メモリと、
前記メモリに接続された回路とを備え、
前記回路は、動作において、
参照ピクチャに含まれるサンプルの値を使って補間処理することで、予測ブロックを生成し、
前記予測ブロックを用いて、前記予測ブロックと同じサイズの勾配ブロックを生成し、
前記勾配ブロックを用いて、予測画像を生成し、
前記予測画像に基づいて、カレントブロックを復号し、
前記勾配ブロックの生成は、
前記予測ブロックに含まれる対象サンプルの位置の下に隣接する下側サンプルの値と、前記対象サンプルの上に隣接する上側サンプルの値との差を示す、勾配値を算出する処理を含み、
前記勾配ブロックの上端にある第1の勾配値は、前記上側サンプルとして、前記予測ブロックにおける前記第1の勾配値と同じ位置の第1サンプルの値を用いて算出され、
前記第1の勾配値の位置の下に隣接する第2の勾配値は、前記上側サンプルとして、前記第1サンプルの値を用いて算出される、
復号装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023085803A JP7562760B2 (ja) | 2017-12-08 | 2023-05-24 | 符号化装置および復号装置 |
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762596396P | 2017-12-08 | 2017-12-08 | |
US62/596,396 | 2017-12-08 | ||
SG10201807934T | 2018-09-13 | ||
SG10201807934T | 2018-09-13 | ||
PCT/JP2018/044326 WO2019111835A1 (en) | 2017-12-08 | 2018-11-30 | Image encoding device, image decoding device, image encoding method, and image decoding method |
JP2020531542A JP7046186B2 (ja) | 2017-12-08 | 2018-11-30 | 画像符号化装置、画像復号装置、画像符号化方法、および画像復号方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020531542A Division JP7046186B2 (ja) | 2017-12-08 | 2018-11-30 | 画像符号化装置、画像復号装置、画像符号化方法、および画像復号方法 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023085803A Division JP7562760B2 (ja) | 2017-12-08 | 2023-05-24 | 符号化装置および復号装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022082608A JP2022082608A (ja) | 2022-06-02 |
JP7286832B2 true JP7286832B2 (ja) | 2023-06-05 |
Family
ID=66749901
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020531542A Active JP7046186B2 (ja) | 2017-12-08 | 2018-11-30 | 画像符号化装置、画像復号装置、画像符号化方法、および画像復号方法 |
JP2022045242A Active JP7286832B2 (ja) | 2017-12-08 | 2022-03-22 | 符号化装置および復号装置 |
JP2023085803A Active JP7562760B2 (ja) | 2017-12-08 | 2023-05-24 | 符号化装置および復号装置 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020531542A Active JP7046186B2 (ja) | 2017-12-08 | 2018-11-30 | 画像符号化装置、画像復号装置、画像符号化方法、および画像復号方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023085803A Active JP7562760B2 (ja) | 2017-12-08 | 2023-05-24 | 符号化装置および復号装置 |
Country Status (8)
Country | Link |
---|---|
US (3) | US11218717B2 (ja) |
JP (3) | JP7046186B2 (ja) |
KR (3) | KR20240125065A (ja) |
CN (4) | CN118741152A (ja) |
BR (1) | BR112020010935A2 (ja) |
MX (2) | MX2020005757A (ja) |
TW (2) | TWI814755B (ja) |
WO (1) | WO2019111835A1 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117041536A (zh) * | 2017-11-01 | 2023-11-10 | Vid拓展公司 | 用于简化视频译码中的自适应环路滤波器的方法 |
CN117956195A (zh) * | 2018-01-08 | 2024-04-30 | 三星电子株式会社 | 编码方法及其设备以及解码方法及其设备 |
JP7195073B2 (ja) * | 2018-07-10 | 2022-12-23 | 古野電気株式会社 | グラフ生成装置 |
US11146800B2 (en) * | 2018-09-24 | 2021-10-12 | Tencent America LLC | Low latency local illumination compensation |
CN113196762A (zh) * | 2019-06-25 | 2021-07-30 | Oppo广东移动通信有限公司 | 图像分量预测方法、装置及计算机存储介质 |
US12088839B2 (en) * | 2019-10-06 | 2024-09-10 | Hyundai Motor Company | Method and apparatus for encoding and decoding video using inter-prediction |
TWI768364B (zh) | 2020-06-01 | 2022-06-21 | 宏碁股份有限公司 | 處理可播放於一虛擬裝置的圖片的方法及電子裝置 |
US11689715B2 (en) * | 2020-09-28 | 2023-06-27 | Tencent America LLC | Non-directional intra prediction for L-shape partitions |
CN113155288B (zh) * | 2020-11-30 | 2022-09-06 | 齐鲁工业大学 | 一种光伏电池热斑的图像识别方法 |
CN112927353B (zh) * | 2021-02-25 | 2023-05-19 | 电子科技大学 | 基于二维目标检测和模型对齐的三维场景重建方法、存储介质及终端 |
WO2022262693A1 (en) * | 2021-06-15 | 2022-12-22 | Beijing Bytedance Network Technology Co., Ltd. | Method, device, and medium for video processing |
CN117597932A (zh) * | 2021-06-30 | 2024-02-23 | 瑞典爱立信有限公司 | 选择性的基于子块的运动细化 |
CN117546466A (zh) * | 2021-06-30 | 2024-02-09 | 瑞典爱立信有限公司 | 重叠解码器侧运动细化 |
CN116341689B (zh) * | 2023-03-22 | 2024-02-06 | 深圳大学 | 机器学习模型的训练方法、装置、电子设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150350671A1 (en) | 2013-01-04 | 2015-12-03 | Samsung Electronics Co., Ltd. | Motion compensation method and device for encoding and decoding scalable video |
WO2018230493A1 (ja) | 2017-06-14 | 2018-12-20 | シャープ株式会社 | 動画像復号装置、動画像符号化装置、予測画像生成装置及び動きベクトル導出装置 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101370289B1 (ko) * | 2007-02-14 | 2014-03-06 | 삼성전자주식회사 | 레지듀얼 리사이징을 이용한 영상의 부호화, 복호화 방법및 장치 |
KR101370286B1 (ko) * | 2007-04-06 | 2014-03-06 | 삼성전자주식회사 | 레지듀얼 블록의 변형을 이용한 영상 부호화, 복호화 방법및 장치 |
US8559512B2 (en) * | 2010-05-05 | 2013-10-15 | Ceva D.S.P. Ltd. | Device, system, and method for predicting residual data for intra and inter frame encoding of image or video data |
US9930366B2 (en) * | 2011-01-28 | 2018-03-27 | Qualcomm Incorporated | Pixel level adaptive intra-smoothing |
SG10201902274SA (en) * | 2011-06-24 | 2019-04-29 | Mitsubishi Electric Corp | Moving image encoding device, moving image decoding device, moving image encoding method, and moving image decoding method |
US9282344B2 (en) * | 2011-11-04 | 2016-03-08 | Qualcomm Incorporated | Secondary boundary filtering for video coding |
WO2013068564A1 (en) * | 2011-11-11 | 2013-05-16 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Effective wedgelet partition coding using spatial prediction |
US9325991B2 (en) * | 2012-04-11 | 2016-04-26 | Qualcomm Incorporated | Motion vector rounding |
KR20140124441A (ko) * | 2013-04-15 | 2014-10-27 | 인텔렉추얼디스커버리 주식회사 | 엣지 방향 보간을 이용한 비디오 부호화/복호화 방법 및 장치 |
US9451254B2 (en) * | 2013-07-19 | 2016-09-20 | Qualcomm Incorporated | Disabling intra prediction filtering |
CN107148778A (zh) * | 2014-10-31 | 2017-09-08 | 联发科技股份有限公司 | 用于视频编码的改进的定向帧内预测方法 |
EP3206403A4 (en) * | 2014-11-04 | 2017-11-01 | Samsung Electronics Co., Ltd. | Video encoding method and apparatus therefor, and video decoding method and apparatus therefor, in which edge type offset is applied |
US20180242004A1 (en) * | 2015-08-23 | 2018-08-23 | Lg Electronics Inc. | Inter prediction mode-based image processing method and apparatus therefor |
US10375413B2 (en) * | 2015-09-28 | 2019-08-06 | Qualcomm Incorporated | Bi-directional optical flow for video coding |
US20170099490A1 (en) * | 2015-10-02 | 2017-04-06 | Qualcomm Incorporated | Constrained intra-prediction for block copy mode |
US9743092B2 (en) * | 2015-10-13 | 2017-08-22 | Nokia Technologies Oy | Video coding with helper data for spatial intra-prediction |
US10764576B2 (en) | 2016-05-04 | 2020-09-01 | Microsoft Technology Licensing, Llc | Intra-picture prediction using non-adjacent reference lines of sample values |
WO2017195554A1 (ja) * | 2016-05-13 | 2017-11-16 | シャープ株式会社 | 予測画像生成装置、動画像復号装置、および動画像符号化装置。 |
CN110115032B (zh) * | 2016-12-22 | 2021-07-20 | 联发科技股份有限公司 | 用于视频编解码的运动细化的方法以及装置 |
FI20175006A1 (en) * | 2017-01-03 | 2019-02-15 | Nokia Technologies Oy | Video and image coding using wide-angle intra-prediction |
US10904565B2 (en) * | 2017-06-23 | 2021-01-26 | Qualcomm Incorporated | Memory-bandwidth-efficient design for bi-directional optical flow (BIO) |
-
2018
- 2018-11-30 KR KR1020247026412A patent/KR20240125065A/ko active Application Filing
- 2018-11-30 WO PCT/JP2018/044326 patent/WO2019111835A1/en active Application Filing
- 2018-11-30 CN CN202411054946.6A patent/CN118741152A/zh active Pending
- 2018-11-30 MX MX2020005757A patent/MX2020005757A/es unknown
- 2018-11-30 CN CN201880078630.7A patent/CN111713110B/zh active Active
- 2018-11-30 CN CN202411054943.2A patent/CN118741151A/zh active Pending
- 2018-11-30 BR BR112020010935-5A patent/BR112020010935A2/pt unknown
- 2018-11-30 KR KR1020247001027A patent/KR102694426B1/ko active IP Right Grant
- 2018-11-30 CN CN202411054936.2A patent/CN118741150A/zh active Pending
- 2018-11-30 JP JP2020531542A patent/JP7046186B2/ja active Active
- 2018-11-30 KR KR1020207015670A patent/KR102625609B1/ko active IP Right Grant
- 2018-12-06 TW TW107143950A patent/TWI814755B/zh active
- 2018-12-06 TW TW112131501A patent/TW202349945A/zh unknown
-
2020
- 2020-06-05 US US16/894,020 patent/US11218717B2/en active Active
- 2020-07-13 MX MX2023011455A patent/MX2023011455A/es unknown
-
2021
- 2021-11-24 US US17/534,898 patent/US11601669B2/en active Active
-
2022
- 2022-03-22 JP JP2022045242A patent/JP7286832B2/ja active Active
-
2023
- 2023-01-31 US US18/103,567 patent/US12063383B2/en active Active
- 2023-05-24 JP JP2023085803A patent/JP7562760B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150350671A1 (en) | 2013-01-04 | 2015-12-03 | Samsung Electronics Co., Ltd. | Motion compensation method and device for encoding and decoding scalable video |
WO2018230493A1 (ja) | 2017-06-14 | 2018-12-20 | シャープ株式会社 | 動画像復号装置、動画像符号化装置、予測画像生成装置及び動きベクトル導出装置 |
Non-Patent Citations (2)
Title |
---|
CHEN, Jianle et al.,Algorithm Description of Joint Exploration Test Model 7 (JEM 7),Joint Video Exploration Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11 7th Meeting: Torino, IT, 13-21 July 2017, [JVET-G1001-v1],JVET-G1001 (version 1),ITU-T,2017年08月19日,<URL:https://jvet-experts.org/doc_end_user/documents/7_Torino/wg11/JVET-G1001-v1.zip>: JVET-G1001-v1.docx: pp.23-27 |
TOMA, Tadamasa et al.,Description of SDR video coding technology proposal by Panasonic,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11 10th Meeting: San Diego, US, 10-20 Apr. 2018, [JVET-J0020-v1],JVET-J0020 (version 2),ITU-T,2018年04月11日,<URL:https://jvet-experts.org/doc_end_user/documents/10_San%20Diego/wg11/JVET-J0020-v2.zip>: JVET-J0020-v1.docx: pp.10-11 |
Also Published As
Publication number | Publication date |
---|---|
CN111713110B (zh) | 2024-08-23 |
JP2023099740A (ja) | 2023-07-13 |
US20230171423A1 (en) | 2023-06-01 |
TW201926989A (zh) | 2019-07-01 |
CN111713110A (zh) | 2020-09-25 |
TW202349945A (zh) | 2023-12-16 |
BR112020010935A2 (pt) | 2020-11-17 |
JP7046186B2 (ja) | 2022-04-01 |
KR20200096917A (ko) | 2020-08-14 |
US12063383B2 (en) | 2024-08-13 |
US11218717B2 (en) | 2022-01-04 |
JP2021506178A (ja) | 2021-02-18 |
CN118741152A (zh) | 2024-10-01 |
WO2019111835A1 (en) | 2019-06-13 |
MX2023011455A (es) | 2023-10-18 |
KR20240125065A (ko) | 2024-08-19 |
KR20240011241A (ko) | 2024-01-25 |
KR102625609B1 (ko) | 2024-01-16 |
US20200304827A1 (en) | 2020-09-24 |
US11601669B2 (en) | 2023-03-07 |
CN118741151A (zh) | 2024-10-01 |
JP7562760B2 (ja) | 2024-10-07 |
KR102694426B1 (ko) | 2024-08-13 |
US20220086476A1 (en) | 2022-03-17 |
CN118741150A (zh) | 2024-10-01 |
MX2020005757A (es) | 2020-08-20 |
TWI814755B (zh) | 2023-09-11 |
JP2022082608A (ja) | 2022-06-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7286832B2 (ja) | 符号化装置および復号装置 | |
JP7179832B2 (ja) | 画像符号化装置 | |
JP7086240B2 (ja) | 画像復号装置及び復号方法 | |
JP2022125243A (ja) | 画像符号化装置、画像復号装置及び非一時的記録媒体 | |
JP6946419B2 (ja) | 復号装置、復号方法及びプログラム | |
JP7331052B2 (ja) | 復号装置及び符号化装置 | |
JP7260685B2 (ja) | 符号化装置及び符号化方法 | |
JP7339890B2 (ja) | 符号化装置及び復号装置 | |
JP7114773B2 (ja) | 復号装置及び符号化装置 | |
JP7375113B2 (ja) | 符号化装置及び復号装置 | |
JP7161636B2 (ja) | 符号化装置及び符号化方法 | |
JP2023068203A (ja) | 復号装置及び復号方法 | |
JP7314382B2 (ja) | 復号装置 | |
JP2023040271A (ja) | 復号装置、及び、復号方法 | |
JP2023016992A (ja) | 符号化装置及び復号装置 | |
JP2023001298A (ja) | 復号装置及び復号方法 | |
JP7241056B2 (ja) | 復号装置、復号方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220322 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230425 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230524 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7286832 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |