JPWO2020045248A1 - 動画像復号装置および動画像符号化装置 - Google Patents
動画像復号装置および動画像符号化装置 Download PDFInfo
- Publication number
- JPWO2020045248A1 JPWO2020045248A1 JP2020539398A JP2020539398A JPWO2020045248A1 JP WO2020045248 A1 JPWO2020045248 A1 JP WO2020045248A1 JP 2020539398 A JP2020539398 A JP 2020539398A JP 2020539398 A JP2020539398 A JP 2020539398A JP WO2020045248 A1 JPWO2020045248 A1 JP WO2020045248A1
- Authority
- JP
- Japan
- Prior art keywords
- picture
- prediction
- partial image
- unit
- image area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 claims abstract description 41
- 238000000034 method Methods 0.000 claims description 46
- 230000008569 process Effects 0.000 claims description 14
- 238000001914 filtration Methods 0.000 claims description 9
- 230000007246 mechanism Effects 0.000 abstract description 2
- 238000013139 quantization Methods 0.000 description 39
- 230000015654 memory Effects 0.000 description 32
- 239000013598 vector Substances 0.000 description 32
- 238000006243 chemical reaction Methods 0.000 description 31
- 230000005540 biological transmission Effects 0.000 description 24
- 238000010586 diagram Methods 0.000 description 18
- 238000004891 communication Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 15
- 230000009466 transformation Effects 0.000 description 8
- 230000003044 adaptive effect Effects 0.000 description 4
- 238000009795 derivation Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- VBRBNWWNRIMAII-WYMLVPIESA-N 3-[(e)-5-(4-ethylphenoxy)-3-methylpent-3-enyl]-2,2-dimethyloxirane Chemical compound C1=CC(CC)=CC=C1OC\C=C(/C)CCC1C(C)(C)O1 VBRBNWWNRIMAII-WYMLVPIESA-N 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 229920000069 polyphenylene sulfide Polymers 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 101100234645 Mus musculus Krt36 gene Proteins 0.000 description 1
- 241001025261 Neoraja caerulea Species 0.000 description 1
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 208000034188 Stiff person spectrum disease Diseases 0.000 description 1
- 229920010524 Syndiotactic polystyrene Polymers 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 208000012112 ischiocoxopodopatellar syndrome Diseases 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000002490 spark plasma sintering Methods 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/107—Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/188—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a video data packet, e.g. a network abstraction layer [NAL] unit
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/167—Position within a video image, e.g. region of interest [ROI]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
- H04N19/82—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
Abstract
Description
以下、図面を参照しながら本発明の実施形態について説明する。
本明細書で用いる演算子を以下に記載する。
本実施形態に係る動画像符号化装置11および動画像復号装置31の詳細な説明に先立って、動画像符号化装置11によって生成され、動画像復号装置31によって復号される符号化ストリームTeのデータ構造について説明する。
符号化ビデオシーケンスでは、処理対象のシーケンスSEQを復号するために動画像復号装置31が参照するデータの集合が規定されている。シーケンスSEQは、図2(b)に示すように、ビデオパラメータセット(Video Parameter Set)、シーケンスパラメータセットSPS(Sequence Parameter Set)、ピクチャパラメータセットPPS(Picture Parameter Set)、ピクチャPICT、及び、付加拡張情報SEI(Supplemental Enhancement Information)を含んでいる。
符号化ピクチャでは、処理対象のピクチャPICTを復号するために動画像復号装置31が参照するデータの集合が規定されている。ピクチャPICTは、図2(b)に示すように、スライス0〜スライスNS-1を含む(NSはピクチャPICTに含まれるスライスの総数)。
符号化スライスでは、処理対象のスライスSを復号するために動画像復号装置31が参照するデータの集合が規定されている。スライスは、図2(b)に示すように、スライスヘッダ、および、スライスデータを含んでいる。
符号化スライスデータでは、処理対象のスライスデータを復号するために動画像復号装置31が参照するデータの集合が規定されている。スライスデータは、図1(d)に示すように、CTUを含んでいる。CTUは、スライスを構成する固定サイズ(例えば64x64)のブロックであり、最大符号化単位(LCU:Largest Coding Unit)と呼ぶこともある。
図2(e)には、処理対象のCTUを復号するために動画像復号装置31が参照するデータの集合が規定されている。CTUは、再帰的な4分木分割(QT(Quad Tree)分割)、2分木分割(BT(Binary Tree)分割)あるいは3分木分割(TT(Ternary Tree)分割)により符号化処理の基本的な単位である符号化ユニットCUに分割される。BT分割とTT分割を合わせてマルチツリー分割(MT(Multi Tree)分割)と呼ぶ。再帰的な4分木分割により得られる木構造のノードのことを符号化ノード(Coding Node)と称する。4分木、2分木、及び3分木の中間ノードは、符号化ノードであり、CTU自身も最上位の符号化ノードとして規定される。
図1(f)に示すように、処理対象の符号化ユニットを復号するために動画像復号装置31が参照するデータの集合が規定されている。具体的には、CUは、CUヘッダCUH、予測パラメータ、変換パラメータ、量子化変換係数等から構成される。CUヘッダでは予測モード等が規定される。
予測画像は、ブロックに付随する予測パラメータによって導出される。予測パラメータには、イントラ予測とインター予測の予測パラメータがある。
参照ピクチャリストは、参照ピクチャメモリ306に記憶された参照ピクチャからなるリストである。図4は、低遅延用のピクチャ構造における参照ピクチャおよび参照ピクチャリストの一例を示す概念図である。図中(a)において、矩形はピクチャ、矢印はピクチャの参照関係、横軸は時間、矩形中のI、P、Bは各々イントラピクチャ、単予測ピクチャ、双予測ピクチャ、矩形中の数字は復号順を示す。図に示すように、ピクチャの復号順は、I0、P1/B1、P2/B2、P3/B3、P4/B4であり、表示順も同じである。図中(b)に、ピクチャB3(対象ピクチャ)の参照ピクチャリストの例を示す。参照ピクチャリストは、参照ピクチャの候補を表すリストであり、1つのピクチャ(スライス)が1つ以上の参照ピクチャリストを有してもよい。図の例では、対象ピクチャB3は、L0リストRefPicList0およびL1リストRefPicList1の2つの参照ピクチャリストを持つ。個々のCUでは、参照ピクチャリストRefPicListX(X=0または1)中のどのピクチャを実際に参照するかを参照ピクチャインデックスrefIdxLXで指定する。図は、refIdxL0=2、refIdxL1=0の例である。対象ピクチャがP3の場合、参照ピクチャリストはL0リストのみである。なお、LXは、L0予測とL1予測を区別しない場合に用いられる記述方法であり、以降では、LXをL0、L1に置き換えることでL0リストに対するパラメータとL1リストに対するパラメータを区別する。
予測パラメータの復号(符号化)方法には、マージ予測(merge)モードとAMVP(Adaptive Motion Vector Prediction、適応動きベクトル予測)モードがあり、マージフラグmerge_flagは、これらを識別するためのフラグである。
動きベクトルmvLXは、異なる2つのピクチャ上のブロック間のシフト量を示す。動きベクトルmvLXに関する予測ベクトル、差分ベクトルを、それぞれ予測ベクトルmvpLX、差分ベクトルmvdLXと呼ぶ。
prev_intra_luma_pred_flagは、対象ブロックの輝度予測モードIntraPredModeYとMPM(Most Probable Mode)とが一致するか否かを示すフラグである。MPMは、MPM候補リストmpmCandList[]に含まれる予測モードである。MPM候補リストは、隣接ブロックのイントラ予測モードおよび所定のイントラ予測モードから、対象ブロックに適用される確率が高いと推定される候補を格納したリストである。prev_intra_luma_pred_flagが1の場合、MPM候補リストとインデックスmpm_idxを用いて、対象ブロックの輝度予測モードIntraPredModeYを導出する。
(REM)
prev_intra_luma_pred_flagが0の場合、イントラ予測モード全体からMPM候補リストに含まれるイントラ予測モードを除いた残りのモードRemIntraPredModeからイントラ予測モードを選択する。RemIntraPredModeとして選択可能なイントラ予測モードは、「非MPM」または「REM」と呼ばれる。フラグrem_selected_mode_flagは、rem_selected_modeを参照してイントラ予測モードを選択するのか、または、rem_non_selected_modeを参照してイントラ予測モードを選択するのかを指定するフラグである。RemIntraPredModeは、rem_selected_mode、あるいは、rem_non_selected_modeを用いて導出される。
同一のピクチャ内に部分画像領域を設定し、部分画像領域はその他の領域の画素を使わずに符号化、復号処理を行い、その他の領域は、ピクチャ全体を使って符号化、復号処理を行うことを特徴とする動画像符号化、復号方法を説明する。
yRA_en = yRA_st + hRA - 1
また、下記のように導出することもできる。
hRA = yRA_en - yRA_st + 1
さらに、時刻jの制限参照領域の左上位置を(xRA_st[j], yRA_st[j])、右下位置を(xRA_en[j], yRA_en[j])、サイズを(wRA[j], hRA[j])で示す。また、参照ピクチャRefの制限参照領域の位置を(xRA_st[Ref], yRA_st[Ref])、右下位置を(xRA_en[Ref], yRA_en[Ref])、サイズを(wRA[Ref], hRA[Ref])で示してもよい。
例えば、あるピクチャが時刻i、あるブロックの位置が(x, y)の場合、以下の式で位置の画素が部分画像領域内であるかを判定してもよい。
または以下の判定式でもよい。
IsRA(xRef, yRef) = (xRA_st[Ref] <= xRef && xRef <= xRA_en[Ref] && yRA_st[Ref] <= yRef && yRef <= yRA_en[Ref])
例えば、対象ピクチャが時刻i、対象ブロックPbの左上座標が(xPb, yPb)、幅と高さがbWとbHの場合、動画像復号装置及び動画像符号化装置のイントラ予測部、動き補償部、ループフィルタは対象ブロックPbが部分画像領域内にある場合、IsRA(Pb)を以下の判定式で導出する。
yRA_en[i])
または以下の判定式でもよい。
(部分画像領域の参照領域の基本動作)
本明細書の動画像符号化装置および動画像復号装置は以下の動作を行う。
・部分画像領域に含まれる対象ブロックは、対象ピクチャ中の部分画像領域の画素のみを参照するイントラ予測、もしくは、参照ピクチャの制限参照領域を参照するインター予測を行う。
・部分画像領域に含まれる対象ブロックは、対象ピクチャ中の部分画像領域の符号化パラメータ(例えばイントラ予測方向、動きベクトル、参照ピクチャインデックス)を参照して、もしくは、参照ピクチャの制限参照領域の符号化パラメータを参照して、対象ブロックの符号化パラメータを導出する。
・部分画像領域に含まれる対象ブロックは、対象ピクチャ中の部分画像領域の画素のみを参照して、ループフィルタ処理を行う。
イントラ予測のMPM導出、インター予測のマージ候補導出などにおいて、隣接領域の予測パラメータを用いて、対象ブロックの予測パラメータ(イントラ予測モード、動きベクトル)を導出することがある。このような場合に以下の処理を行っても良い。イントラ予測及びインター予測で対象ブロックが部分画像領域(IsRA(xPb, yPb)が真)で対象ブロックの隣接ブロックの参照位置(xNbX, yNbX)が非部分画像領域の場合(IsRA(xNbX, yNbX)が偽)の場合、予測パラメータ導出に隣接ブロックの値を用いない。すなわち、対象ブロックが部分画像領域(IsRA(xPb, yPb)が真)で対象ブロックの隣接ブロックの参照位置(xNbX, yNbX)が部分画像領域の場合(IsRA(xNbX, yNbX)が真)である場合に、その位置(xNbX, yNbX)を予測パラメータの導出に用いる。
また、参照ピクチャが時刻j、参照画素の左上位置が(xRef,yRef)の場合、動き補償部、は参照画素が制限参照領域内にある場合を以下の判定式で導出する。
または以下の判定式でもよい。
また、動き補償部は、以下の式を用いて、参照画素を部分画像領域内の位置にクリップしても良い。
yRef = Clip3(yRA_st[j], yRA_en[j], yRef)
または以下の導出式でもよい。
yRef = Clip3(yRA_st[j], yRA_st[j]+hRA[j]-1, yRef)
なお、部分画像領域の位置は、後述の段階的リフレッシュ情報により動画像符号化装置から動画像復号装置に伝送する。なお、部分画像領域の位置やサイズは、時刻(例えばPOC)に従って導出せずに、対象ピクチャを復号した後、もしくは、対象ピクチャの復号開始時点で、参照メモリ内の参照ピクチャRefを設定してもよい。この場合、参照ピクチャRefを指定することにより、その部分画像領域の位置とサイズを導出することができる。
AVCやHEVCでのIDR(Instantaneous Decoder Refresh)ピクチャは、ピクチャ全体がイントラCTUとなっていて、ランダムアクセス可能で、独立して復号可能なピクチャとして、符号化データのランダムアクセスを実現していた。本実施の形態では、部分画像領域をすべてイントラ符号化したピクチャは、SDR(Sequentially Decoder Refresh)ピクチャとして、NAL(Network Abstraction Layer)のnal_unit_typeで識別できるようにする。
従来のIDRピクチャは、ピクチャ全体がイントラとなっていたのに対して、SDRピクチャはピクチャの一部がイントラなので、符号量の変動が小さい。
パラメータ復号部302は、SDRピクチャにおいて、例えば、以下のように部分画像領域を設定する。
・左上のCTUの座標と、幅および高さのCTU数で規定される矩形として部分画像領域を設定する。
・左上の画素位置と、幅および高さの画素数で規定される矩形として部分画像領域を設定する。
・一枚のピクチャ中に複数の部分画像領域を設定する。
・複数ある部分画像領域同士が重複するよう部分画像領域を設定する。
図8は、パラメータ復号部302が行う処理の流れを示すフローチャートである。
復号を開始してステップS2に進む。
パラメータ復号部302が、NALのnal_unit_typeで、対象ピクチャがSDRピクチャであるか否かを判定する。SDRピクチャである場合は、S3に進み、SDRピクチャでない場合は、S4に進む。
対象ピクチャ内に含まれる部分画像領域をイントラ予測で復号する領域として設定し、S4に進む。
パラメータ復号部302は、対象ピクチャを復号する。
部分画像領域を設定するためのシンタックスは、ピクチャパラメータセットに含まれてもよい。図8は、部分画像領域を設定するために通知されるシンタックスの一例を示す図である。partial_region_modeとは、ピクチャ中に部分画像領域を定義するか否かを特定するための情報である。動画像復号装置31が備えるエントロピー復号部301は、ピクチャパラメータセットに含まれるpartial_region_modeが1である場合、部分画像領域の設定が必要であると判断し、num_of_patial_region_minus1を復号する。
position_ctu_adress[i]
region_ctu_width_minus1[i]
region_ctu_height_minus1[i]
によって特定される位置及びサイズを有する部分画像領域を対象ピクチャ内に設定する。
num_of_patial_region_minus1
position_ctu_adress[i]
region_ctu_width_minus1[i]
region_ctu_height_minus1[i]
は、部分画像領域を特定するための領域情報の一例である。
部分画像領域を設定するためのシンタックスは、スライスヘッダに含まれてもよい。図9は、部分画像領域を設定するために通知されるシンタックスの一例を示す図である。first_slice_segment_in_pic_flagは、当該スライスが、復号順で最初のスライスであるか否かを示すフラグである。first_slice_segment_in_pic_flagが1の場合、最初のスライスであることを示す。また、first_slice_segment_in_pic_flagが0の場合、最初のスライスでないことを示す。動画像復号装置31が備えるエントロピー復号部301は、first_slice_segment_in_pic_flagが1であった場合、partial_region_modeが設定され、num_of_patial_region_minus1を復号する。
position_ctu_adress[i]
region_ctu_width_minus1[i]
region_ctu_height_minus1[i]
によって特定される位置及びサイズを有する部分画像領域を対象スライス内に設定する。
num_of_patial_region_minus1
position_ctu_adress[i]
region_ctu_width_minus1[i]
region_ctu_height_minus1[i]
は、部分画像領域を特定するための領域情報の一例である。
図10は、ピクチャパラメータセットにおいて部分画像領域が定義されたときの動画像復号装置31が行う処理の流れを示すフローチャートである。
復号処理を開始してステップS2に進む。
エントロピー復号部301は、partial_region_modeである場合(partial_region_modeが1である場合)はステップS3に進み、partial_region_modeでない場合(partial_region_modeが0である場合)はステップS4に進む。
partial_region_modeである場合は、エントロピー復号部301は、領域情報に含まれる各シンタックスを復号し、部分画像領域制御部320は、当該各シンタックスによって指定される部分画像領域を定義し、処理を終了する。具体的な部分画像領域の設定処理は、上述の通りである。
もし、partial_region_modeでない場合は、動画像復号装置31は、部分画像領域を消去し、処理を終了する。
パラメータ復号部302は、ピクチャ毎の部分画像領域の位置を表す情報として部分画像領域マップ(partial_region_map)を設定する構成としてもよい。
上記の構成で、SDRピクチャで部分画像領域を初期設定する。時間的に連続する部分画像領域を設定した動画像信号を動画像符号化装置11で符号化し、ビットストリームを作成する。動画像復号装置31は、まず、ビットストリーム中のNALのnal_unit_typeから、SDRピクチャを見つけると、SDRピクチャの部分画像領域に対し非部分領域を参照せずにイントラ符号化、ループフィルタ処理を行う。従って、部分画像領域を正しく復号できる。その後に復号されるピクチャの部分画像領域は、インター符号化の場合、非部分画像領域を参照せず、イントラ符号化とループフィルタ処理は、当該ピクチャの非部分画像領域を参照しないことから、部分画像領域が正しく復号できることが保証できる。
(段階的リフレッシュ)
本発明の部分画像領域の符号化、復号方法をイントラリフレッシュに応用した場合の実施の形態について説明する。一般に、イントラリフレッシュとは、ピクチャ内の一部にイントラ符号化する領域を設定し、その領域を時間的にピクチャ内で移動させて、一定の期間内にピクチャ全体をイントラ符号化ができるようにする方法である。ピクチャ内を一定の期間内に分けて、イントラ符号化することで、特定のピクチャの符号量を増加させることなく、ピクチャ全体をイントラ符号化し、ランダムアクセスを実現し、ビットストリーム中の誤りがあった場合の誤りからの回復を実現することを目的としている。本実施の形態では、部分画面領域の符号化、復号と、SDRピクチャを用いること、イントラリフレッシュと同等の段階的リフレッシュの機能を実現する。
本実施形態に係る動画像復号装置31(図14)の構成について説明する。
予測モードpredModeがインター予測モードを示す場合、インター予測画像生成部309は、インター予測パラメータ復号部303から入力されたインター予測パラメータと、参照ピクチャを用いて、インター予測によりブロックもしくはサブブロックの予測画像を生成する。
動き補償部3091(補間画像生成部)は、インター予測パラメータ復号部303から入力された、インター予測パラメータ(予測リスト利用フラグpredFlagLX、参照ピクチャインデックスrefIdxLX、動きベクトルmvLX)に基づいて、参照ピクチャメモリ306から、参照ピクチャインデックスrefIdxLXで指定された参照ピクチャRefLXにおける、対象ブロックの位置を起点として動きベクトルmvLXだけシフトした位置にあるブロックを読み出すことによって補間画像(動き補償画像)を生成する。ここで、動きベクトルmvLXの精度が整数精度でない場合には、動き補償フィルタと呼ばれる小数位置の画素を生成するためのフィルタを施して、動き補償画像を生成する。
xFrac = mvLX[0]&(MVBIT-1)
yInt = yPb+(mvLX[1]>>(log2(MVBIT)))+y
yFrac = mvLX[1]&(MVBIT-1)
ここで、(xPb,yPb)は、wPb*hPbサイズのブロックの左上座標、x=0…wPb-1、y=0…hPb-1であり、MVBITは、動きベクトルmvLXの精度(1/MVBIT画素精度)を示す。
続いて、動き補償部3091は、一時的画像temp[][]を垂直補間処理により、補間画像Pred [][]を導出する。以下のΣはk=0..NTAP-1のkに関する和、shift2は値のレンジを調整する
正規化パラメータ、offset2=1<<(shift2-1)である。
なお、双予測の場合は、上記のPred[][]をL0リスト、L1リスト毎に導出し(補間画像PredL0[][]とPredL1[][]と呼ぶ)、補間画像PredL0[][]と補間画像PredL1[][]から補間画像Pred[][]を生成する。
重み予測部3094は、動き補償画像PredLXに重み係数を乗算することによりブロックの予測画像を生成する。予測リスト利用フラグの一方(predFlagL0もしくはpredFlagL1)が1(単予測)、かつ、重み予測を用いない場合、動き補償画像PredLX(LXはL0もしくはL1)を画素ビット数bitDepthに合わせる以下の式の処理を行う。
ここで、shift1=14-bitDepth、offset1=1<<(shift1-1)である。
また、参照リスト利用フラグの両者(predFlagL0とpredFlagL1)が1(双予測BiPred)、かつ、重み予測を用いない場合、動き補償画像PredL0、PredL1を平均し画素ビット数に合わせる以下の式の処理を行う。
ここで、shift2=15-bitDepth、offset2=1<<(shift2-1)である。
ここで、log2WDは所定のシフト量を示す変数である。
インター予測画像生成部309は生成したブロックの予測画像を加算部312に出力する。
予測モードpredModeがイントラ予測モードを示す場合、イントラ予測画像生成部310は、イントラ予測パラメータ復号部304から入力されたイントラ予測パラメータと参照ピクチャメモリ306から読み出した参照画素を用いてイントラ予測を行う。
次に、本実施形態に係る動画像符号化装置11の構成について説明する。図27は、本実施形態に係る動画像符号化装置11の構成を示すブロック図である。動画像符号化装置11は、予測画像生成部101、減算部102、変換・量子化部103、逆量子化・逆変換部105、加算部106、ループフィルタ107、予測パラメータメモリ(予測パラメータ記憶部、フレームメモリ)108、参照ピクチャメモリ(参照画像記憶部、フレームメモリ)109、符号化パラメータ決定部110、パラメータ符号化部111、エントロピー符号化部104を含んで構成される。
インター予測パラメータ符号化部112は、符号化パラメータ決定部110から入力された予測パラメータに基づいて、インター予測パラメータを導出する。インター予測パラメータ符号化部112は、インター予測パラメータ復号部303がインター予測パラメータを導出する構成と一部同一の構成を含む。
イントラ予測パラメータ符号化部113は、符号化パラメータ決定部110から入力されたイントラ予測モードIntraPredModeから、符号化するための形式(例えばmpm_idx、rem_intra_luma_pred_mode等)を導出する。イントラ予測パラメータ符号化部113は、イントラ予測パラメータ復号部304がイントラ予測パラメータを導出する構成と、一部同一の構成を含む。
上記予測画像生成部は、部分画像領域に含まれるブロックに対し、上記ピクチャ中の部分画像領域の復号済みの画素のみを参照するイントラ予測及びループフィルタ処理、もしくは、上記ピクチャの参照ピクチャの部分画像領域を参照するインター予測を用いて、非部分画像領域に含まれるブロックに対し、上記ピクチャ中の復号済の画素を参照するイントラ予測及びループフィルタ処理、もしくは、上記ピクチャの参照ピクチャを参照するインター予測を用いて、当該動画像復号装置は、上記ピクチャの復号後、上記ピクチャの上記部分画像領域を上記参照ピクチャの部分画像領域として設定することを特徴とする。
上述した動画像符号化装置11及び動画像復号装置31は、動画像の送信、受信、記録、再生を行う各種装置に搭載して利用することができる。なお、動画像は、カメラ等により撮像された自然動画像であってもよいし、コンピュータ等により生成された人工動画像(CGおよびGUIを含む)であってもよい。
また、上述した動画像復号装置31および動画像符号化装置11の各ブロックは、集積回路(ICチップ)上に形成された論理回路によってハードウェア的に実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェア的に実現してもよい。
(関連出願の相互参照)
本出願は、2018年8月29日に出願された日本国特許出願:特願2018−160712に対して優先権の利益を主張するものであり、それを参照することにより、その内容の全てが本書に含まれる。
301 エントロピー復号部
302 パラメータ復号部
3020 ヘッダ復号部
303 インター予測パラメータ復号部
304 イントラ予測パラメータ復号部
308 予測画像生成部
309 インター予測画像生成部
310 イントラ予測画像生成部
311 逆量子化・逆変換部
312 加算部
320 部分画像領域制御部
11 画像符号化装置
101 予測画像生成部
102 減算部
103 変換・量子化部
104 エントロピー符号化部
105 逆量子化・逆変換部
107 ループフィルタ
110 符号化パラメータ決定部
111 パラメータ符号化部
112 インター予測パラメータ符号化部
113 イントラ予測パラメータ符号化部
120 部分画像領域制御部
1110 ヘッダ符号化部
1111 CT情報符号化部
1112 CU符号化部(予測モード符号化部)
1114 TU符号化部
Claims (7)
- NAL UNITを復号する動画像復号装置であって、
シーケンスパラメータセットに含まれる、段階的リフレッシュピクチャを使用するか否かに関するリフレッシュ有効情報を復号するパラメータ復号部を備え、
上記パラメータ復号部は、
上記NAL UNITのタイプを用いて、上記段階的リフレッシュピクチャであるか否かを識別し、
上記段階的リフレッシュピクチャからピクチャ全体が正しく復号できるピクチャまでのピクチャ数に関するシンタックスを復号することを特徴とする動画像復号装置。 - ピクチャを、CTU、CTU列、およびCTU行のうち何れか1つを最小単位とする部分画像領域および非部分画像領域に分割するピクチャ分割部と、
予測画像を生成する予測画像生成部と、を備え、
上記予測画像生成部は、
上記部分画像領域内のブロックに対し、上記部分画像領域の復号済みの画素のみを参照するイントラ予測及びループフィルタ処理、または、上記ピクチャの参照ピクチャの部分画像領域を参照するインター予測を用いて、
上記非部分画像領域内のブロックに対し、上記ピクチャの復号済みの画素を参照するイントラ予測及びループフィルタ処理、または、上記参照ピクチャを参照するインター予測を用いて、
上記部分画像領域を、上記参照ピクチャの部分画像領域に設定することを特徴とする請求項1に記載の動画像復号装置。 - 上記部分画像領域は、上記ピクチャがランダムアクセス可能であるか否かに応じて、対応する処理を用いて、上記参照ピクチャの部分画像領域として設定されることを特徴とする請求項2に記載の動画像復号装置。
- 上記ピクチャ分割部は、符号化データから復号した領域情報を用いて、上記ピクチャを分割することを特徴とする請求項2に記載の動画像復号装置。
- 上記領域情報は、上記部分画像領域の位置とサイズとを示す情報を含むことを特徴とする請求項4に記載の動画像復号装置。
- NAL UNITを符号化する画像符号化装置であって、
シーケンスパラメータセットに含まれる、段階的リフレッシュピクチャを使用するか否かに関するリフレッシュ有効情報を符号化するパラメータ符号化部を備え、
上記パラメータ符号化部は、
上記NAL UNITのタイプを用いて、上記段階的リフレッシュピクチャであるか否かを識別し、
上記段階的リフレッシュピクチャからピクチャ全体が正しく復号できるピクチャまでのピクチャ数に関するシンタックスを符号化することを特徴とする動画像符号化装置。 - ピクチャを、CTU、CTU列、およびCTU行のうち何れか1つを最小単位として部分画像領域および非部分画像領域を分割するピクチャ分割部と、
予測画像を生成する予測画像生成部と、を備え、
上記予測画像生成部は、
上記部分画像領域内のブロックに対し、上記部分画像領域の復号済みの画素のみを参照するイントラ予測及びループフィルタ処理、または、上記ピクチャの参照ピクチャの部分画像領域を参照するインター予測を用いて、
上記非部分画像領域内のブロックに対し、上記ピクチャの復号済みの画素を参照するイントラ予測及びループフィルタ処理、または、上記参照ピクチャを参照するインター予測を用いて、
上記部分画像領域を、上記参照ピクチャの部分画像領域に設定することを特徴とする請求項6に記載の動画像符号化装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018160712 | 2018-08-29 | ||
JP2018160712 | 2018-08-29 | ||
PCT/JP2019/032910 WO2020045248A1 (ja) | 2018-08-29 | 2019-08-22 | 動画像復号装置および動画像符号化装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2020045248A1 true JPWO2020045248A1 (ja) | 2021-08-12 |
Family
ID=69644236
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020539398A Pending JPWO2020045248A1 (ja) | 2018-08-29 | 2019-08-22 | 動画像復号装置および動画像符号化装置 |
Country Status (6)
Country | Link |
---|---|
US (3) | US11539968B2 (ja) |
EP (1) | EP3846474A4 (ja) |
JP (1) | JPWO2020045248A1 (ja) |
CN (1) | CN112956206A (ja) |
CA (1) | CA3111617A1 (ja) |
WO (1) | WO2020045248A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3806471A4 (en) * | 2018-06-01 | 2022-06-08 | Sharp Kabushiki Kaisha | PICTURE DECODING DEVICE AND PICTURE CODING DEVICE |
CA3111617A1 (en) | 2018-08-29 | 2020-03-05 | Sharp Kabushiki Kaisha | Video decoding apparatus and video coding apparatus |
WO2020140062A1 (en) * | 2018-12-27 | 2020-07-02 | Futurewei Technologies, Inc. | Flexible tiling in video coding |
US11706429B2 (en) * | 2019-03-12 | 2023-07-18 | Hyundai Motor Company | Method and device for encoding and decoding image involving gradual refresh technique |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1669321A (zh) | 2002-07-16 | 2005-09-14 | 诺基亚有限公司 | 用于在视频编码中随机存取和逐步更新图像的方法 |
US9124895B2 (en) | 2011-11-04 | 2015-09-01 | Qualcomm Incorporated | Video coding with network abstraction layer units that include multiple encoded picture partitions |
US9516308B2 (en) * | 2012-04-27 | 2016-12-06 | Qualcomm Incorporated | Parameter set updates in video coding |
CN107743232B (zh) | 2012-06-25 | 2020-12-04 | 日本电气株式会社 | 视频解码设备和视频解码方法 |
US9491457B2 (en) | 2012-09-28 | 2016-11-08 | Qualcomm Incorporated | Signaling of regions of interest and gradual decoding refresh in video coding |
WO2016188447A1 (en) * | 2015-05-28 | 2016-12-01 | Hfi Innovation Inc. | Method and apparatus for using a current picture as a reference picture |
US10291923B2 (en) * | 2016-05-24 | 2019-05-14 | Qualcomm Incorporated | Mapping of tile grouping and samples in HEVC and L-HEVC file formats |
JP2018160712A (ja) | 2017-03-22 | 2018-10-11 | オンキヨー株式会社 | 音楽再生装置、プラグ、ヘッドホン、及び、アダプタ |
CA3111617A1 (en) | 2018-08-29 | 2020-03-05 | Sharp Kabushiki Kaisha | Video decoding apparatus and video coding apparatus |
-
2019
- 2019-08-22 CA CA3111617A patent/CA3111617A1/en active Pending
- 2019-08-22 WO PCT/JP2019/032910 patent/WO2020045248A1/ja unknown
- 2019-08-22 JP JP2020539398A patent/JPWO2020045248A1/ja active Pending
- 2019-08-22 US US17/271,201 patent/US11539968B2/en active Active
- 2019-08-22 EP EP19854434.8A patent/EP3846474A4/en active Pending
- 2019-08-22 CN CN201980056359.1A patent/CN112956206A/zh active Pending
-
2022
- 2022-10-26 US US17/974,459 patent/US11889092B2/en active Active
-
2023
- 2023-12-07 US US18/532,042 patent/US20240114155A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20240114155A1 (en) | 2024-04-04 |
US20210400285A1 (en) | 2021-12-23 |
CA3111617A1 (en) | 2020-03-05 |
US20230041444A1 (en) | 2023-02-09 |
CN112956206A (zh) | 2021-06-11 |
EP3846474A4 (en) | 2022-06-08 |
US11889092B2 (en) | 2024-01-30 |
EP3846474A1 (en) | 2021-07-07 |
WO2020045248A1 (ja) | 2020-03-05 |
US11539968B2 (en) | 2022-12-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021111962A1 (ja) | 動画像復号装置 | |
WO2020184487A1 (ja) | 動画像復号装置 | |
JP2021002780A (ja) | 動画像復号装置および動画像符号化装置 | |
WO2020137920A1 (ja) | 予測画像生成装置、動画像復号装置、動画像符号化装置および予測画像生成方法 | |
US11889092B2 (en) | Video decoding apparatus and video coding apparatus | |
US11818363B2 (en) | Video decoding apparatus and video coding apparatus | |
WO2021015195A1 (ja) | 画像復号装置、画像符号化装置、および画像復号方法 | |
JP2021027429A (ja) | 動画像符号化装置、動画像復号装置 | |
WO2021200658A1 (ja) | 動画像復号装置及び動画像復号方法 | |
WO2020067440A1 (ja) | 動画像符号化装置および動画像復号装置 | |
JP2022007319A (ja) | 動画像符号化装置、復号装置 | |
JP2020170901A (ja) | 予測画像生成装置、動画像復号装置および動画像符号化装置 | |
JP2021082913A (ja) | 動画像復号装置および動画像符号化装置 | |
JP2021106309A (ja) | 動画像復号装置および動画像符号化装置 | |
JP2021061501A (ja) | 動画像変換装置及び方法 | |
JP2020088577A (ja) | 予測画像生成装置、動画像復号装置、および動画像符号化装置 | |
JP7378968B2 (ja) | 予測画像生成装置、動画像復号装置および動画像符号化装置 | |
JP2021180342A (ja) | 予測画像生成装置、動画像復号装置、および動画像符号化装置 | |
WO2020122130A1 (ja) | 予測画像生成装置、動画像復号装置、動画像符号化装置および予測画像生成方法 | |
JP2020195015A (ja) | 動画像復号装置および動画像符号化装置 | |
JP2021125798A (ja) | 動画像符号化装置、復号装置 | |
JP2021180344A (ja) | 予測画像生成装置、動画像復号装置、および動画像符号化装置 | |
JP2021153253A (ja) | 動画像符号化装置及び動画像復号装置 | |
JP2022085475A (ja) | 動画像符号化装置、復号装置 | |
JP2022087865A (ja) | 画像復号装置及び画像符号化装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210423 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220602 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230425 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230721 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230926 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231214 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240305 |