JP2024076475A - Video encoding device, video decoding device - Google Patents
Video encoding device, video decoding device Download PDFInfo
- Publication number
- JP2024076475A JP2024076475A JP2022188016A JP2022188016A JP2024076475A JP 2024076475 A JP2024076475 A JP 2024076475A JP 2022188016 A JP2022188016 A JP 2022188016A JP 2022188016 A JP2022188016 A JP 2022188016A JP 2024076475 A JP2024076475 A JP 2024076475A
- Authority
- JP
- Japan
- Prior art keywords
- image
- decoding
- attention
- information
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013528 artificial neural network Methods 0.000 claims description 53
- 238000000034 method Methods 0.000 abstract description 57
- 230000005540 biological transmission Effects 0.000 abstract description 14
- 238000012545 processing Methods 0.000 description 76
- 238000013139 quantization Methods 0.000 description 37
- 230000008569 process Effects 0.000 description 25
- 238000010586 diagram Methods 0.000 description 18
- 230000009466 transformation Effects 0.000 description 17
- 230000006870 function Effects 0.000 description 14
- 230000004913 activation Effects 0.000 description 12
- 238000009795 derivation Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 9
- 238000001914 filtration Methods 0.000 description 8
- 239000013598 vector Substances 0.000 description 8
- 238000010191 image analysis Methods 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 5
- 238000003491 array Methods 0.000 description 5
- 230000006854 communication Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 230000002123 temporal effect Effects 0.000 description 4
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 3
- 238000012805 post-processing Methods 0.000 description 3
- 238000012952 Resampling Methods 0.000 description 2
- 208000034188 Stiff person spectrum disease Diseases 0.000 description 2
- 229920010524 Syndiotactic polystyrene Polymers 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 208000012112 ischiocoxopodopatellar syndrome Diseases 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 229920000069 polyphenylene sulfide Polymers 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000002490 spark plasma sintering Methods 0.000 description 2
- 230000000153 supplemental effect Effects 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 101000642431 Homo sapiens Pre-mRNA-splicing factor SPF27 Proteins 0.000 description 1
- 241000023320 Luma <angiosperm> Species 0.000 description 1
- 241001025261 Neoraja caerulea Species 0.000 description 1
- 102100036347 Pre-mRNA-splicing factor SPF27 Human genes 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000007175 bidirectional communication Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000013138 pruning Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
【課題】動画像符号化、復号方式の枠組みを大きく変更せずに、付加的な補助情報を符号化、復号することで、低レートにおいても、画像認識精度を向上させる動画像符号化装置、復号装置を提供する。【解決手段】動画像符号化装置10と、ネットワーク21と、動画像復号装置30と画像表示装置41と、画像認識装置51と、からなる動画像伝送システム1において、動画像復号装置30は、符号化データTeから画像を復号して復号動画像Tdを生成する画像復号装置31と、画像復号装置31で復号した復号動画像Tdに対して、領域毎に複数の値を持つアテンション情報を補助情報として復号する補助情報復号装置91と、を有する。【選択図】図1[Problem] To provide a video coding device and a decoding device that improve image recognition accuracy even at a low rate by coding and decoding additional auxiliary information without significantly changing the framework of video coding and decoding methods. [Solution] In a video transmission system 1 consisting of a video coding device 10, a network 21, a video decoding device 30, an image display device 41, and an image recognition device 51, the video decoding device 30 has an image decoding device 31 that decodes images from encoded data Te to generate a decoded video Td, and an auxiliary information decoding device 91 that decodes attention information having multiple values for each region as auxiliary information for the decoded video Td decoded by the image decoding device 31. [Selected Figure] Figure 1
Description
本発明の実施形態は、動画像符号化装置、復号装置に関する。 Embodiments of the present invention relate to video encoding devices and video decoding devices.
動画像を効率的に伝送または記録するために、動画像を符号化することによって符号化データを生成する動画像符号化装置、および、当該符号化データを復号することによって復号画像を生成する動画像復号装置が用いられている。 To efficiently transmit or record video, video encoding devices are used that generate encoded data by encoding video, and video decoding devices are used that generate decoded images by decoding the encoded data.
具体的な動画像符号化方式としては、例えば、H.264/AVCやH.265/HEVC(High-Efficiency Video Coding)方式などが挙げられる。 Specific examples of video encoding methods include H.264/AVC and H.265/HEVC (High-Efficiency Video Coding).
このような動画像符号化方式においては、動画像を構成する画像(ピクチャ)は、画像を分割することにより得られるスライス、スライスを分割することにより得られる符号化ツリーユニット(CTU:Coding Tree Unit)、符号化ツリーユニットを分割することで得られる符号化単位(符号化ユニット(Coding Unit:CU)と呼ばれることもある)、及び、符号化単位を分割することより得られる変換ユニット(TU:Transform Unit)からなる階層構造により管理され、CU毎に符号化/復号される。 In such video coding methods, images (pictures) that make up a video are managed in a hierarchical structure consisting of slices obtained by dividing images, coding tree units (CTUs) obtained by dividing slices, coding units (sometimes called coding units: CUs) obtained by dividing coding tree units, and transform units (TUs) obtained by dividing coding units, and are coded/decoded for each CU.
また、このような動画像符号化方式においては、通常、入力画像を符号化/復号することによって得られる局所復号画像に基づいて予測画像が生成され、当該予測画像を入力画像(原画像)から減算して得られる予測誤差(「差分画像」または「残差画像」と呼ぶこともある)が符号化される。予測画像の生成方法としては、画面間予測(インター予測)、および、画面内予測(イントラ予測)が挙げられる。 In such video coding methods, a predicted image is usually generated based on a locally decoded image obtained by encoding/decoding an input image, and the prediction error (sometimes called a "difference image" or "residual image") obtained by subtracting the predicted image from the input image (original image) is coded. Methods for generating predicted images include inter-prediction and intra-prediction.
また、近年の動画像符号化及び復号の技術として非特許文献1が挙げられる。
Another recent example of video encoding and decoding technology is Non-Patent
非特許文献1は、非常に符号化効率の高い動画像符号化、復号方式である。
Non-Patent
非特許文献2は、動画像の分析結果の記述と動画像符号化を統合する方法について議論されている。 Non-patent document 2 discusses a method for integrating the description of video analysis results with video coding.
非特許文献3は、非特許文献1の方式に対して、ニューラルネットワークポストフィルタ処理を行う手段を提供している。
しかしながら、非特許文献1は、符号化効率の高い動画像符号化、復号方式であるが、復号した動画像で、画像認識を行うと、伝送レートが低い場合、符号化歪によって、画像認識精度が低減するという問題がある。
However, although Non-Patent
また、非特許文献2では、動画像の分析結果の記述と動画像符号化を統合する方法について開示しているが、符号化効率の面で十分ではなく、低い伝送ビットレートを実現できないという課題がある。 Non-Patent Document 2 discloses a method for integrating the description of video analysis results with video coding, but this method is not sufficient in terms of coding efficiency, and there is an issue that a low transmission bit rate cannot be achieved.
非特許文献3は、非特許文献1の方式に対して、ニューラルネットワークに画像処理を行う手段を提供しているが画像認識技術には対応していないという課題がある。
Non-Patent
本発明の一態様に係る動画像復号装置は、符号化データから画像を復号する画像復号装置と、前記画像復号装置で復号した画像に対して、領域毎に複数の値を持つアテンション情報を補助情報として復号する補助情報復号装置を有することを特徴とする。 A video decoding device according to one aspect of the present invention is characterized by having an image decoding device that decodes an image from encoded data, and an auxiliary information decoding device that decodes attention information having multiple values for each region as auxiliary information for the image decoded by the image decoding device.
また、前記補助情報復号装置は、領域毎に複数の値を持つアテンション情報に関して、適用するニューラルネットワークを特定する情報を復号することを特徴とする。 The auxiliary information decoding device is also characterized in that it decodes information that specifies the neural network to be applied with respect to attention information having multiple values for each region.
本発明の一態様に係る動画像符号化装置は、入力画像を符号化する画像符号化装置と、前記入力画像に対して、領域毎に複数の値を持つアテンション情報を補助情報として符号化する補助情報符号化装置を有することを特徴とする。 A video coding device according to one aspect of the present invention is characterized by having an image coding device that codes an input image, and an auxiliary information coding device that codes attention information having multiple values for each region of the input image as auxiliary information.
また、前記補助情報符号化装置は、領域毎に複数の値を持つアテンション情報に関して、適用するニューラルネットワークを特定する情報を補助情報として符号化することを特徴とする。 The auxiliary information encoding device is also characterized in that it encodes, as auxiliary information, information that specifies the neural network to be applied with respect to attention information having multiple values for each region.
このような構成にすることで、動画像符号化、復号方式の枠組みを大きく変更せずに、付加的な補助情報を符号化、復号することで、低レートにおいても、画像認識精度を向上させるという課題が解決できる。 By configuring in this way, the problem of improving image recognition accuracy even at low rates can be solved by encoding and decoding additional auxiliary information without making major changes to the framework of the video encoding and decoding method.
(第1の実施形態)
以下、図面を参照しながら本発明の実施形態について説明する。
First Embodiment
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
図1は、本実施に係る別の動画像伝送システムの構成を示す概略図である。 Figure 1 is a schematic diagram showing the configuration of another video transmission system according to this embodiment.
動画像伝送システム1は、画像を符号化した符号化データを伝送し、伝送された符号化データを復号し表示するとともに画像認識を行うシステムである。動画像伝送システム1は、動画像符号化装置10とネットワーク21と動画像復号装置30と画像表示装置41と画像認識装置51からなる。
The
動画像符号化装置10は、画像符号化装置(画像符号化部)11、画像解析装置(画像解析部)61、補助情報作成装置(補助情報作成部)71、補助情報符号化装置(補助情報符号化部)81、プレ画像処理装置(プレ画像処理部)1001から構成される。
The
動画像復号装置30は、画像復号装置(画像復号部)31、補助情報復号装置(補助情報復号部)91、ポスト画像処理装置(ホスト画像処理部)1002から構成される。
The
プレ画像処理装置1001は、入力動画像Tのプレ画像処理を行い、プレ処理画像Tpを画像符号化装置11と補助情報作成装置71に送る。
The
具体的な実施の形態の一例としては、補助情報作成装置71の出力のアクティベーション情報を、プレ画像処理装置1001に入力して、認識対象候補以外の領域にローパスフィルタ処理を行い、符号化の難易度を落とし、相対的に認識対象候補の領域の画質を向上させてもよい。
As an example of a specific embodiment, the activation information output by the auxiliary information creation device 71 may be input to the
画像符号化装置11は、プレ画像処理装置1001の出力Tpを圧縮、符号化する。
The image encoding
画像解析装置61は、入力動画像Tを解析して、画像認識装置51において、ピクチャ内のどの領域を注目すべきかの情報を解析し、解析結果を補助情報作成装置71に送る。
The
補助情報作成装置71は、画像解析装置61での解析結果と、プレ画像処理装置1001でのプレ画像処理Tpを元に、ピクチャに対して、画像認識装置51を動作させる有用なアテンション(注目)情報を生成し、補助情報符号化装置81に送る。
The auxiliary information creation device 71 generates useful attention information for the picture based on the analysis results of the
補助情報符号化装置81は、補助情報作成装置71で作成された補助情報を、予め決まったシンタックスに従って符号化する。画像符号化装置11の出力と補助情報符号化装置81の出力は、符号化データTeとしてネットワーク21に送出される。
The auxiliary
動画像符号化装置10は、入力画像Tを入力として、画像の圧縮、符号化を行うとともに、画像を解析して、画像認識装置51に入力するための補助情報を生成し、符号化し、符号化データTeを生成し、ネットワーク21に送出する。
The
図1において、補助情報符号化装置81は画像符号化装置11とつながれていないが、補助情報符号化装置81と画像符号化装置11とは、適宜必要な情報を通信してもよい。
In FIG. 1, the auxiliary
ネットワーク21は、符号化された補助情報及び符号化データTeを画像復号装置31に伝送する。符号化された補助情報の一部または全部は、補助拡張情報SEIとして、符号化データTeに含められてもよい。ネットワーク21は、インターネット(Internet)、広域ネット
ワーク(WAN:Wide Area Network)、小規模ネットワーク(LAN:Local Area Network)またはこれらの組み合わせである。ネットワーク21は、必ずしも双方向の通信網に限らず、地上デジタル放送、衛星放送等の放送波を伝送する一方向の通信網であっても良い。また、ネットワーク21は、DVD(Digital Versatile Disc:登録商標)、BD(Blue-ray Disc:登録商標)等の符号化データTeを記録した記憶媒体で代替されても良い。
The
動画像復号装置30は、ネットワーク21から送られてきた符号化データTeを入力し、画像を復号するとともに、補助情報を復号し、画像表示装置41、および、画像認識装置51に送出する。また、補助情報を復号して、画像認識装置51に出力する。
The
画像復号装置31は、ネットワーク21が伝送した符号化データTeのそれぞれを復号し、復号動画像Tdを生成してポスト画像処理装置1002に供給する。
The
補助情報復号装置91は、ネットワーク21が伝送した符号化された補助情報を復号して補助情報を生成して、画像認識装置61に送出する。
The auxiliary information decoding device 91 decodes the encoded auxiliary information transmitted by the
図1において、補助情報復号装置91は、画像復号装置31とは別に図示されているが、補助情報復号装置91は、画像復号装置31に含まれてもよい。例えば、補助情報復号装置91は、画像復号装置31の各機能部とは別に画像復号装置31に含まれてもよい。また、図1において、画像復号装置31とつながれていないが、補助情報復号装置91と画像復号装置31とは、適宜必要な情報を通信してもよい。
In FIG. 1, the auxiliary information decoding device 91 is illustrated separately from the
ポスト画像処理装置1002は、画像復号装置31の出力である画像復号Tdにポスト画像処理を行い、ポスト画像処理Toを出力する。
The
具体的な実施の形態の一例としては、ニューラルネットワークを用いたポスト画像処理を行い、復号動画像Tdの画質を改善してもよい。この時、補助情報復号装置91からの補助情報として、画質を改善するネットワークパラメータを入力し、ポスト画像処理に用いる。 As an example of a specific embodiment, post-image processing using a neural network may be performed to improve the image quality of the decoded video image Td. At this time, network parameters for improving the image quality are input as auxiliary information from the auxiliary information decoding device 91 and used for the post-image processing.
画像表示装置41は、ポスト画像処理装置1002から出力されたポスト処理画像Toの全部または一部を表示する。画像表示装置41は、例えば、液晶ディスプレイ、有機EL(Electro-luminescence)ディスプレイ等の表示デバイスを備える。ディスプレイの形態としては、据え置き、モバイル、HMD等が挙げられる。また、画像復号装置31が高い処理能力を有する場合には、画質の高い画像を表示し、より低い処理能力しか有しない場合には、高い処理能力、表示能力を必要としない画像を表示する。
The
画像認識装置51は、ポスト画像処理装置1002から出力されたポスト処理画像Toと、補助情報復号装置91によって復号された補助情報を用いて、画像の物体検出、物体の領域分割、物体の追跡、動作認識、人物動作評価などを行う。
The
このような構成をすることで、動画像符号化、復号方式の枠組みを大きく変更せずに、付加的な補助情報を符号化、復号することで、低レートにおいても、画像認識精度を維持することができる枠組みを提供する。 This configuration provides a framework that can maintain image recognition accuracy even at low rates by encoding and decoding additional auxiliary information without significantly changing the framework of the video encoding and decoding method.
このような構成をすることで、動画像符号化、復号方式の枠組みを大きく変更せずに、付加的な補助情報を符号化、復号することで、低レートにおいても、画像認識精度を維持することができる枠組みを提供する。 This configuration provides a framework that can maintain image recognition accuracy even at low rates by encoding and decoding additional auxiliary information without significantly changing the framework of the video encoding and decoding method.
<演算子>
本明細書で用いる演算子を以下に記載する。
<Operator>
The operators used in this specification are listed below.
>>は右ビットシフト、<<は左ビットシフト、&はビットワイズAND、|はビットワイズOR、|=はOR代入演算子であり、||は論理和を示す。 >> is a right bit shift, << is a left bit shift, & is a bitwise AND, | is a bitwise OR, |= is the OR assignment operator, and || indicates logical OR.
x ? y : zは、xが真(0以外)の場合にy、xが偽(0)の場合にzをとる3項演算子である。 x ? y : z is a ternary operator that takes y if x is true (non-zero) and z if x is false (0).
Clip3(a,b,c)は、cをa以上b以下の値にクリップする関数であり、c<aの場合にはaを返し、c>bの場合にはbを返し、その他の場合にはcを返す関数である(ただし、a<=b)。 Clip3(a,b,c) is a function that clips c to a value between a and b, and returns a if c<a, returns b if c>b, and returns c otherwise (where a<=b).
abs(a)はaの絶対値を返す関数である。 abs(a) is a function that returns the absolute value of a.
Int(a)はaの整数値を返す関数である。 Int(a) is a function that returns the integer value of a.
floor(a)はa以下の最大の整数を返す関数である。 floor(a) is a function that returns the largest integer less than or equal to a.
ceil(a)はa以上の最小の整数を返す関数である。 ceil(a) is a function that returns the smallest integer greater than or equal to a.
a/dはdによるaの除算(小数点以下切り捨て)を表す。 a/d represents the division of a by d (truncated to an integer).
<符号化データTeの構造>
本実施形態に係る画像符号化装置11および画像復号装置31の詳細な説明に先立って、画像符号化装置11によって生成され、画像復号装置31によって復号される符号化データTeのデータ構造について説明する。
<Structure of encoded data Te>
Before describing in detail the
符号化データTeは、複数CVS(Coded Video Sequence)とEoB(End of Bitstream NAL unit)から構成される。CVSは複数のAU(Access Unit)とEoS(End of Sequence NAL unit)から構成される。CVS先頭のAUはCVSS(Coded Video Sequence Start) AUと呼ぶ。CVSをレイヤ毎に分割した単位をCLVS(Coded Layer Video Sequence)と呼ぶ。AUは、同一出力時刻の一つもしくは複数のレイヤのPU(Picture Unit)からなる。もし、Multilayerの符号化方式を採用しない場合は、AUは、一つのPUからなる。PUは、複数のNALユニットから構成される1つの復号ピクチャの符号化データの単位である。CLVSは、同一レイヤのPUから構成されていて、CLVS先頭のPUは、CLVSS(Coded Layer Video Sequence Start)PUと呼ぶ。CLVSS PUは、ランダムアクセス可能なIRAP(Intra Random Access Pictures)やGDR(Gradual Decoder Refresh Picture)となるPUに限定される。NALユニットは、Nal unit headerとRBSP(Raw Byte Sequence Payload)データから構成されていて、Nal unit headerは、2ビットの0データに続いて、レイヤ値を示す6ビットのnuh_layer_idと、NALユニットタイプを示す5ビットのnuh_unit_typeとTemporal ID値に1プラスされた値の3ビットのnuh_temporal_id_plus1から構成される。 The coded data Te consists of multiple CVSs (Coded Video Sequences) and EoBs (End of Bitstream NAL units). CVSs consist of multiple AUs (Access Units) and EoSs (End of Sequence NAL units). The AU at the beginning of a CVS is called a CVSS (Coded Video Sequence Start) AU. A CVS is divided into layers and units called CLVSs (Coded Layer Video Sequences). An AU consists of one or more layered PUs (Picture Units) with the same output time. If the multilayer coding method is not adopted, an AU consists of one PU. A PU is a unit of coded data for one decoded picture consisting of multiple NAL units. A CLVS consists of PUs of the same layer, and the PU at the beginning of a CLVS is called a CLVSS (Coded Layer Video Sequence Start) PU. CLVSS PUs are limited to PUs that are randomly accessible IRAPs (Intra Random Access Pictures) or GDRs (Gradual Decoder Refresh Pictures). A NAL unit consists of a Nal unit header and RBSP (Raw Byte Sequence Payload) data. The Nal unit header consists of 2 bits of 0 data, followed by a 6-bit nuh_layer_id that indicates the layer value, a 5-bit nuh_unit_type that indicates the NAL unit type, and a 3-bit nuh_temporal_id_plus1 that is the Temporal ID value plus 1.
図2は、PU単位での符号化データTeにおけるデータの階層構造を示す図である。符号化データTeは、例示的に、シーケンス、およびシーケンスを構成する複数のピクチャを含む。図2には、シーケンスSEQを既定する符号化ビデオシーケンス、ピクチャPICTを規定する符号化ピクチャ、スライスSを規定する符号化スライス、スライスデータを規定する符号化スライスデータ、符号化スライスデータに含まれる符号化ツリーユニット、符号化ツリーユニットに含まれる符号化ユニットを示す図が示されている。 Figure 2 is a diagram showing a hierarchical structure of data in the coded data Te in units of PU. The coded data Te illustratively includes a sequence and a number of pictures constituting the sequence. Figure 2 shows a diagram showing a coded video sequence that defines the sequence SEQ, a coded picture that specifies the picture PICT, a coded slice that specifies the slice S, coded slice data that specifies the slice data, a coding tree unit included in the coded slice data, and a coding unit included in the coding tree unit.
(符号化ビデオシーケンス)
符号化ビデオシーケンスでは、処理対象のシーケンスSEQを復号するために画像復号装
置31が参照するデータの集合が規定されている。シーケンスSEQは、図2に示すように、ビデオパラメータセットVPS(Video Parameter Set)、シーケンスパラメータセットSPS(Sequence Parameter Set)、ピクチャパラメータセットPPS(Picture Parameter Set)、Adaptation Parameter Set(APS)、ピクチャPICT、及び、補助拡張情報SEI(Supplemental Enhancement Information)を含んでいる。
(Coded Video Sequence)
In the coded video sequence, a set of data to be referred to by the
ビデオパラメータセットVPSでは、複数のレイヤから構成されている動画像において、複数の動画像に共通する符号化パラメータの集合および動画像に含まれる複数のレイヤおよび個々のレイヤに関連する符号化パラメータの集合が規定されている。 In a video parameter set (VPS), a set of coding parameters common to multiple videos composed of multiple layers, as well as a set of coding parameters related to multiple layers and individual layers included in the video, are specified.
シーケンスパラメータセットSPSでは、対象シーケンスを復号するために画像復号装置31が参照する符号化パラメータの集合が規定されている。例えば、ピクチャの幅や高さが規定される。なお、SPSは複数存在してもよい。その場合、PPSから複数のSPSの何れかを選択する。
The sequence parameter set SPS specifies a set of coding parameters that the
ここで、シーケンスパラメータセットSPSには以下のシンタックス要素が含まれる。
・ref_pic_resampling_enabled_flag:対象SPSを参照する単一のシーケンスに含まれる各画像を復号する場合に、解像度を可変とする機能(リサンプリング:resampling)を用いるか否かを規定するフラグである。別の側面から言えば、当該フラグは、予測画像の生成において参照される参照ピクチャのサイズが、単一のシーケンスが示す各画像間において変化することを示すフラグである。当該フラグの値が1である場合、上記リサンプリングが適用され、0である場合、適用されない。
・pic_width_max_in_luma_samples:単一のシーケンスにおける画像のうち、最大の幅を有する画像の幅を、輝度ブロック単位で指定するシンタックス要素である。また、当該シンタックス要素の値は、0ではなく、且つMax(8, MinCbSizeY)の整数倍であることが要求される。ここで、MinCbSizeYは、輝度ブロックの最小サイズによって定まる値である。
・pic_height_max_in_luma_samples:単一のシーケンスにおける画像のうち、最大の高さを有する画像の高さを、輝度ブロック単位で指定するシンタックス要素である。また、当該シンタックス要素の値は、0ではなく、且つMax(8, MinCbSizeY)の整数倍であることが要求される。
Here, the sequence parameter set SPS includes the following syntax elements:
ref_pic_resampling_enabled_flag: A flag that specifies whether or not to use a function that changes the resolution (resampling) when decoding each image included in a single sequence that references the target SPS. In other words, this flag indicates that the size of the reference picture referenced in generating a predicted image changes between each image indicated by a single sequence. If the value of this flag is 1, the resampling is applied, and if the value is 0, it is not applied.
pic_width_max_in_luma_samples: A syntax element that specifies the width of the image with the largest width among the images in a single sequence, in units of luminance blocks. The value of this syntax element must be a non-zero integer multiple of Max(8, MinCbSizeY), where MinCbSizeY is a value determined by the minimum size of a luminance block.
pic_height_max_in_luma_samples: A syntax element that specifies the height of the image with the maximum height among the images in a single sequence, in units of luminance blocks. The value of this syntax element is required to be a non-zero integer multiple of Max(8, MinCbSizeY).
ピクチャパラメータセットPPSでは、対象シーケンス内の各ピクチャを復号するために画像復号装置31が参照する符号化パラメータの集合が規定されている。なお、PPSは複数存在してもよい。その場合、対象シーケンス内の各ピクチャから複数のPPSの何れかを選択する。
The picture parameter set PPS specifies a set of coding parameters that the
ここで、ピクチャパラメータセットPPSには以下のシンタックス要素が含まれる。
・pps_pic_width_in_luma_samples:対象ピクチャの幅を指定するシンタックス要素である。当該シンタックス要素の値は、0ではなく、Max(8, MinCbSizeY)の整数倍であり、且つsps_pic_width_max_in_luma_samples以下の値であることが要求される。
・pps_pic_height_in_luma_samples:対象ピクチャの高さを指定するシンタックス要素である。当該シンタックス要素の値は、0ではなく、Max(8, MinCbSizeY)の整数倍であり、且つsps_pic_height_max_in_luma_samples以下の値であることが要求される。
・pps_conformance_window_flag:コンフォーマンス(クロッピング)ウィンドウオフセットパラメータが続いて通知されるか否かを示すフラグであって、コンフォーマンスウィンドウを表示する場所を示すフラグである。このフラグが1である場合、当該パラメータが通知され、0である場合、コンフォーマンスウインドウオフセットパラメータが存在しないことを示す。
・pps_conf_win_left_offset、pps_conf_win_right_offset、pps_conf_win_top_offset、pps_conf_win_bottom_offset:出力用のピクチャ座標で指定される矩形領域に関して、復
号処理で出力されるピクチャの左、右、上、下位置を指定するためのオフセット値である。また、pps_conformance_window_flagの値が0である場合、pps_conf_win_left_offset、pps_conf_win_right_offset、pps_conf_win_top_offset、pps_conf_win_bottom_offsetの値は0であるものと推定される。
Here, the picture parameter set PPS includes the following syntax elements:
pps_pic_width_in_luma_samples: A syntax element that specifies the width of the target picture. The value of this syntax element is required to be a non-zero integer multiple of Max(8, MinCbSizeY) and equal to or less than sps_pic_width_max_in_luma_samples.
pps_pic_height_in_luma_samples: A syntax element that specifies the height of the target picture. The value of this syntax element is required to be a non-zero integer multiple of Max(8, MinCbSizeY) and equal to or less than sps_pic_height_max_in_luma_samples.
pps_conformance_window_flag: a flag indicating whether conformance (cropping) window offset parameters will be signaled subsequently and where the conformance window should be displayed. If this flag is 1, the parameters will be signaled, if it is 0, the conformance window offset parameters are not present.
pps_conf_win_left_offset, pps_conf_win_right_offset, pps_conf_win_top_offset, pps_conf_win_bottom_offset: offset values for specifying the left, right, top, and bottom positions of a picture output by decoding processing with respect to a rectangular area specified by the output picture coordinates. In addition, when the value of pps_conformance_window_flag is 0, the values of pps_conf_win_left_offset, pps_conf_win_right_offset, pps_conf_win_top_offset, and pps_conf_win_bottom_offset are estimated to be 0.
ここで、色差フォーマットの変数ChromaFormatIdcは、sps_chroma_format_idの値であり、変数SubWidthCと、変数SubHightCは、このChromaFormatIdcによって決まる値である。モノクロフォーマットの場合は、SubWidthCとSubHightCは、共に1であり、4:2:0フォーマットの場合は、SubWidthCとSubHightCは、共に2であり、4:2:2フォーマットの場合は、SubWidthCが2でSubHightCが1であり、4:4:4フォーマットの場合は、SubWidthCとSubHightCは、共に1である。
・pps_init_qp_minus26は、PPSで参照されるスライスの量子化パラメータSliceQpYを導出するための情報である。
Here, the variable ChromaFormatIdc of the chrominance format is the value of sps_chroma_format_id, and the variables SubWidthC and SubHightC are values determined by this ChromaFormatIdc. In the case of a monochrome format, SubWidthC and SubHightC are both 1, in the case of a 4:2:0 format, SubWidthC and SubHightC are both 2, in the case of a 4:2:2 format, SubWidthC is 2 and SubHightC is 1, and in the case of a 4:4:4 format, SubWidthC and SubHightC are both 1.
pps_init_qp_minus26 is information for deriving the quantization parameter SliceQpY of the slice referenced by the PPS.
(サブピクチャ)
ピクチャは、さらに矩形のサブピクチャに分割されていてもよい。サブピクチャのサイズはCTUの倍数であってもよい。サブピクチャは縦横に整数個連続するタイルの集合で定義される。つまり、ピクチャは矩形のタイルに分割され、矩形のタイルの集合としてサブピクチャを定義する。サブピクチャの左上タイルのIDと右下タイルのIDを用いてサブピクチャを定義してもよい。
(Subpicture)
A picture may be further divided into rectangular sub-pictures. The size of a sub-picture may be a multiple of the CTU. A sub-picture is defined as a set of tiles that are an integer number of consecutive tiles vertically and horizontally. In other words, a picture is divided into rectangular tiles, and a sub-picture is defined as a set of rectangular tiles. A sub-picture may be defined using the IDs of the top left tile and the bottom right tile of the sub-picture.
図5は、動画像伝送システム1において処理の対象となる画像の概念図であって、時間の経過に伴う、当該画像の解像度の変化を示す図である。ただし、図5においては、画像が符号化されているか否かを区別していない。図5は、動画像伝送システム1の処理過程において、ピクチャパラメータセットPPSを用いて、解像度を適応的に変更しながら画像復号装置31に画像を伝送する例を示している。
Figure 5 is a conceptual diagram of an image to be processed in the
(符号化ピクチャ)
符号化ピクチャでは、処理対象のピクチャPICTを復号するために画像復号装置31が参照するデータの集合が規定されている。ピクチャPICTは、図2に示すように、ピクチャヘッダPH、スライス0~スライスNS-1を含む(NSはピクチャPICTに含まれるスライスの総数)。
(Encoded Picture)
A coded picture defines a set of data to be referenced by the
以下、スライス0~スライスNS-1のそれぞれを区別する必要が無い場合、符号の添え字を省略して記述することがある。また、以下に説明する符号化データTeに含まれるデータであって、添え字を付している他のデータについても同様である。
In the following, when there is no need to distinguish between
ピクチャヘッダには、以下のシンタックス要素が含まれる。 The picture header contains the following syntax elements:
pic_temporal_mvp_enabled_flagは、当該ピクチャヘッダに関連付けられたスライスのインター予測に時間動きベクトル予測を用いるか否かを規定するフラグである。当該フラグの値が0である場合、当該ピクチャヘッダに関連付けられたスライスのシンタックス要素は、そのスライスの復号において時間動きベクトル予測が用いられないように制限される。当該フラグの値が1である場合、当該ピクチャヘッダに関連付けられたスライスの復号に時間動きベクトル予測が用いられることを示している。また、当該フラグが規定されていない場合、値が0であるものと推定される。 pic_temporal_mvp_enabled_flag is a flag that specifies whether or not temporal motion vector prediction is used for inter prediction of the slice associated with the picture header. If the value of the flag is 0, the syntax elements of the slice associated with the picture header are restricted so that temporal motion vector prediction is not used in decoding the slice. If the value of the flag is 1, it indicates that temporal motion vector prediction is used in decoding the slice associated with the picture header. If the flag is not specified, the value is presumed to be 0.
(符号化スライス)
符号化スライスでは、処理対象のスライスSを復号するために画像復号装置31が参照するデータの集合が規定されている。スライスは、図2に示すように、スライスヘッダ、お
よび、スライスデータを含んでいる。
(Coding Slice)
A coded slice defines a set of data to be referenced by the
スライスヘッダには、対象スライスの復号方法を決定するために画像復号装置31が参照する符号化パラメータ群が含まれる。スライスタイプを指定するスライスタイプ指定情報(slice_type)は、スライスヘッダに含まれる符号化パラメータの一例である。
The slice header includes a set of coding parameters that the
スライスタイプ指定情報により指定可能なスライスタイプとしては、(1)符号化の際にイントラ予測のみを用いるIスライス、(2)符号化の際に単予測(L0予測)、または、イントラ予測を用いるPスライス、(3)符号化の際に単予測(L0予測或いはL1予測)、双予測、または、イントラ予測を用いるBスライスなどが挙げられる。なお、インター予測は、単予測、双予測に限定されず、より多くの参照ピクチャを用いて予測画像を生成してもよい。以下、P、Bスライスと呼ぶ場合には、インター予測を用いることができるブロックを含むスライスを指す。 Slice types that can be specified by the slice type specification information include (1) an I slice that uses only intra prediction during encoding, (2) a P slice that uses uni-prediction (L0 prediction) or intra prediction during encoding, and (3) a B slice that uses uni-prediction (L0 prediction or L1 prediction), bi-prediction, or intra prediction during encoding. Note that inter prediction is not limited to uni-prediction or bi-prediction, and a predicted image may be generated using more reference pictures. Hereinafter, when referring to P or B slice, it refers to a slice that includes a block for which inter prediction can be used.
なお、スライスヘッダは、ピクチャパラメータセットPPSへの参照(pic_parameter_set_id)を含んでいても良い。 Note that the slice header may also contain a reference to the picture parameter set PPS (pic_parameter_set_id).
(符号化スライスデータ)
符号化スライスデータでは、処理対象のスライスデータを復号するために画像復号装置31が参照するデータの集合が規定されている。スライスデータは、図2の符号化スライスヘッダに示すように、CTUを含んでいる。CTUは、スライスを構成する固定サイズ(例えば64x64)のブロックであり、最大符号化単位(LCU:Largest Coding Unit)と呼ぶこともある。
(Encoded slice data)
The coded slice data specifies a set of data to be referenced by the
(符号化ツリーユニット)
図2には、処理対象のCTUを復号するために画像復号装置31が参照するデータの集合が規定されている。CTUは、再帰的な4分木分割(QT(Quad Tree)分割)、2分木分割(BT(Binary Tree)分割)あるいは3分木分割(TT(Ternary Tree)分割)により、符号化処理の基本的な単位である符号化ユニットCUに分割される。BT分割とTT分割を合わせてマルチツリー分割(MT(Multi Tree)分割)と呼ぶ。再帰的な4分木分割により得られる木構造のノードのことを符号化ノード(Coding Node)と称する。4分木、2分木、及び3分木の中間ノードは、符号化ノードであり、CTU自身も最上位の符号化ノードとして規定される。
(coding tree unit)
2 specifies a set of data that the
CTは、CT情報として、CT分割を行うか否かを示すCU分割フラグ(split_cu_flag)、QT分割を行うか否かを示すQT分割フラグ(qt_split_cu_flag)、MT分割の分割方向を示すMT分割方向(mtt_split_cu_vertical_flag)、MT分割の分割タイプを示すMT分割タイプ(mtt_split_cu_binary_flag)を含む。split_cu_flag、qt_split_cu_flag、mtt_split_cu_vertical_flag、mtt_split_cu_binary_flagは符号化ノード毎に伝送される。 CT includes, as CT information, a CU split flag (split_cu_flag) indicating whether CT splitting is performed, a QT split flag (qt_split_cu_flag) indicating whether QT splitting is performed, an MT split direction (mtt_split_cu_vertical_flag) indicating the split direction of MT splitting, and an MT split type (mtt_split_cu_binary_flag) indicating the split type of MT splitting. split_cu_flag, qt_split_cu_flag, mtt_split_cu_vertical_flag, and mtt_split_cu_binary_flag are transmitted for each encoding node.
輝度と色差で異なるツリーを用いても良い。ツリーの種別をtreeTypeで示す。例えば、輝度(Y, cIdx=0)と色差(Cb/Cr, cIdx=1,2)で共通のツリーを用いる場合、共通単一ツリーをtreeType=SINGLE_TREEで示す。輝度と色差で異なる2つのツリー(DUALツリー)を用いる場合、輝度のツリーをtreeType=DUAL_TREE_LUMA、色差のツリーをtreeType=DUAL_TREE_CHROMAで示す。 Different trees may be used for luminance and chrominance. The type of tree is indicated by treeType. For example, when using a common tree for luminance (Y, cIdx=0) and chrominance (Cb/Cr, cIdx=1,2), the common single tree is indicated by treeType=SINGLE_TREE. When using two different trees (DUAL trees) for luminance and chrominance, the luminance tree is indicated by treeType=DUAL_TREE_LUMA and the chrominance tree is indicated by treeType=DUAL_TREE_CHROMA.
(符号化ユニット)
図2は、処理対象の符号化ユニットを復号するために画像復号装置31が参照するデータの集合が規定されている。具体的には、CUは、CUヘッダCUH、予測パラメータ、変換パラメータ、量子化変換係数等から構成される。CUヘッダでは予測モード等が規定される。
(Encoding Unit)
2 specifies a set of data to be referenced by the
予測処理は、CU単位で行われる場合と、CUをさらに分割したサブCU単位で行われる場合がある。CUとサブCUのサイズが等しい場合には、CU中のサブCUは1つである。CUがサブCUのサイズよりも大きい場合、CUはサブCUに分割される。たとえばCUが8x8、サブCUが4x4の場合、CUは水平2分割、垂直2分割からなる、4つのサブCUに分割される。 Prediction processing may be performed on a CU basis, or on a sub-CU basis, which is a further division of a CU. If the size of the CU and sub-CU are the same, there is one sub-CU in the CU. If the size of the CU is larger than the size of the sub-CU, the CU is divided into sub-CUs. For example, if the CU is 8x8 and the sub-CU is 4x4, the CU is divided into 2 parts horizontally and 2 parts vertically, into 4 sub-CUs.
予測の種類(予測モード)は、イントラ予測と、インター予測の2つがある。イントラ予測は、同一ピクチャ内の予測であり、インター予測は、互いに異なるピクチャ間(例えば、表示時刻間、レイヤ画像間)で行われる予測処理を指す。 There are two types of prediction (prediction modes): intra prediction and inter prediction. Intra prediction is a prediction within the same picture, while inter prediction refers to a prediction process performed between different pictures (e.g., between display times or between layer images).
変換・量子化処理はCU単位で行われるが、量子化変換係数は4x4等のサブブロック単位でエントロピー符号化してもよい。 The transformation and quantization processes are performed on a CU basis, but the quantized transformation coefficients may be entropy coded on a subblock basis, such as 4x4.
(予測パラメータ)
予測画像は、ブロックに付随する予測パラメータによって導出される。予測パラメータには、イントラ予測とインター予測の予測パラメータがある。
(Prediction parameters)
The predicted image is derived from prediction parameters associated with the block, which include intra-prediction and inter-prediction parameters.
以下、インター予測の予測パラメータについて説明する。インター予測パラメータは、予測リスト利用フラグpredFlagL0とpredFlagL1、参照ピクチャインデックスrefIdxL0とrefIdxL1、動きベクトルmvL0とmvL1から構成される。predFlagL0、predFlagL1は、参照ピクチャリスト(L0リスト、L1リスト)が用いられるか否かを示すフラグであり、値が1の場合に対応する参照ピクチャリストが用いられる。なお、本明細書中「XXであるか否かを示すフラグ」と記す場合、フラグが0以外(たとえば1)をXXである場合、0をXXではない場合とし、論理否定、論理積などでは1を真、0を偽と扱う(以下同様)。但し、実際の装置や方法では真値、偽値として他の値を用いることもできる。 The prediction parameters of inter prediction are explained below. The inter prediction parameters are composed of prediction list usage flags predFlagL0 and predFlagL1, reference picture indexes refIdxL0 and refIdxL1, and motion vectors mvL0 and mvL1. predFlagL0 and predFlagL1 are flags indicating whether or not a reference picture list (L0 list, L1 list) is used, and when the value is 1, the corresponding reference picture list is used. Note that in this specification, when the term "flag indicating whether or not XX is true" is used, a flag other than 0 (for example, 1) is XX, and 0 is not XX, and in logical negation, logical product, etc., 1 is treated as true and 0 is treated as false (same below). However, in actual devices and methods, other values can be used as true and false values.
インター予測パラメータを導出するためのシンタックス要素には、例えば、マージモードで用いるアフィンフラグaffine_flag、マージフラグmerge_flag、マージインデックスmerge_idx、MMVDフラグmmvd_flag、AMVPモードで用いる参照ピクチャを選択するためのインター予測識別子inter_pred_idc、参照ピクチャインデックスrefIdxLX、動きベクトルを導出するための予測ベクトルインデックスmvp_LX_idx、差分ベクトルmvdLX、動きベクトル精度モードamvr_modeがある。 Syntax elements for deriving inter prediction parameters include, for example, the affine flag affine_flag used in merge mode, the merge flag merge_flag, the merge index merge_idx, the MMVD flag mmvd_flag, the inter prediction identifier inter_pred_idc for selecting a reference picture to be used in AMVP mode, the reference picture index refIdxLX, the prediction vector index mvp_LX_idx for deriving a motion vector, the difference vector mvdLX, and the motion vector precision mode amvr_mode.
(画像復号装置の構成)
本実施形態に係る画像復号装置31(図3)の構成について説明する。
(Configuration of the image decoding device)
The configuration of an image decoding device 31 (FIG. 3) according to this embodiment will be described.
画像復号装置31は、エントロピー復号部301、パラメータ復号部(予測画像復号装置)302、ループフィルタ305、参照ピクチャメモリ306、予測パラメータメモリ307、予測画像生成部(予測画像生成装置)308、逆量子化・逆変換部311、及び加算部312、予測パラメータ導出部320を含んで構成される。なお、後述の画像符号化装置11に合わせ、画像復号装置31にループフィルタ305が含まれない構成もある。
The
パラメータ復号部302は、さらに、ヘッダ復号部3020、CT情報復号部3021、及びCU復号部3022(予測モード復号部)を備えており、CU復号部3022はさらにTU復号部3024を備えている。これらを総称して復号モジュールと呼んでもよい。ヘッダ復号部3020は、符号化データからVPS、SPS、PPS、APSなどのパラメータセット情報、スライスヘッダ(スライス情報)を復号する。CT情報復号部3021は、符号化データからCTを復号する。CU復号部3022は符号化データからCUを復号する。TU復号部3024は、TUに予測誤差が含まれている場合に、符号化データからQP更新情報(量子化補正値)と量子化予測誤差(residual_coding)を復号する。
The
TU復号部3024は、スキップモード以外(skip_mode==0)の場合に、符号化データからQP更新情報と量子化予測誤差を復号する。より具体的には、TU復号部3024は、skip_mode==0の場合に、対象ブロックに量子化予測誤差が含まれているか否かを示すフラグcu_cbpを復号し、cu_cbpが1の場合に量子化予測誤差を復号する。cu_cbpが符号化データに存在しない場合は0と導出する。
When in a mode other than skip mode (skip_mode==0), the
TU復号部3024は、符号化データから変換基底を示すインデックスmts_idxを復号する。また、TU復号部3024は、符号化データからセカンダリ変換の利用及び変換基底を示すインデックスstIdxを復号する。stIdxは0の場合にセカンダリ変換の非適用を示し、1の場合にセカンダリ変換基底のセット(ペア)のうち一方の変換を示し、2の場合に上記ペアのうち他方の変換を示す。
The
また、TU復号部3024はサブブロック変換フラグcu_sbt_flagを復号してもよい。cu_sbt_flagが1の場合には、CUを複数のサブブロックに分割し、特定の1つのサブブロックのみ残差を復号する。さらにTU復号部3024は、サブブロックの数が4であるか2であるかを示すフラグcu_sbt_quad_flag、分割方向を示すcu_sbt_horizontal_flag、非ゼロの変換係数が含まれるサブブロックを示すcu_sbt_pos_flagを復号してもよい。
The
予測画像生成部308は、インター予測画像生成部309及びイントラ予測画像生成部310を含んで構成される。
The predicted
また、以降では処理の単位としてCTU、CUを使用した例を記載するが、この例に限らず、サブCU単位で処理をしてもよい。あるいはCTU、CUをブロック、サブCUをサブブロックと読み替え、ブロックあるいはサブブロック単位の処理としてもよい。 In the following, an example will be described in which CTU and CU are used as processing units, but this is not limiting and processing may be performed in sub-CU units. Alternatively, CTU and CU may be interpreted as blocks and sub-CU as sub-blocks, and processing may be performed in block or sub-block units.
エントロピー復号部301は、外部から入力された符号化データTeに対してエントロピー復号を行って、個々の符号(シンタックス要素)を復号する。エントロピー符号化には、シンタックス要素の種類や周囲の状況に応じて適応的に選択したコンテキスト(確率モデル)を用いてシンタックス要素を可変長符号化する方式と、あらかじめ定められた表、あるいは計算式を用いてシンタックス要素を可変長符号化する方式がある。前者のCABAC(Context Adaptive Binary Arithmetic Coding)は、コンテキストのCABAC状態(優勢シンボルの種別(0 or 1)と確率を指定する確率状態インデックスpStateIdx)をメモリに格納する。エントロピー復号部301は、セグメント(タイル、CTU行、スライス)の先頭で全てのCABAC状態を初期化する。エントロピー復号部301は、シンタックス要素をバイナリ列(Bin String)に変換し、Bin Stringの各ビットを復号する。コンテキストを用いる場合には、シンタックス要素の各ビットに対してコンテキストインデックスctxIncを導出し、コンテキストを用いてビットを復号し、用いたコンテキストのCABAC状態を更新する。コンテキストを用いないビットは、等確率(EP, bypass)で復号され、ctxInc導出やCABAC状態は省略される。復号されたシンタックス要素には、予測画像を生成するための予測情報および、差分画像を生成するための予測誤差などがある。
The
エントロピー復号部301は、復号した符号をパラメータ復号部302に出力する。復号した符号とは、例えば、予測モードpredMode、merge_flag、merge_idx、inter_pred_idc、refIdxLX、mvp_LX_idx、mvdLX、amvr_mode等である。どの符号を復号するかの制御は、パラメータ復号部302の指示に基づいて行われる。
The
(基本フロー)
図4は、画像復号装置31の概略的動作を説明するフローチャートである。
(Basic flow)
FIG. 4 is a flowchart illustrating a schematic operation of the
(S1100:パラメータセット情報復号)ヘッダ復号部3020は、符号化データからVPS、SPS、PPSなどのパラメータセット情報を復号する。
(S1100: Decoding parameter set information) The
(S1200:スライス情報復号)ヘッダ復号部3020は、符号化データからスライスヘッダ(スライス情報)を復号する。
(S1200: Slice information decoding) The
以下、画像復号装置31は、対象ピクチャに含まれる各CTUについて、S1300からS5000の処理を繰り返すことにより各CTUの復号画像を導出する。
The
(S1300:CTU情報復号)CT情報復号部3021は、符号化データからCTUを復号する。
(S1300: Decoding CTU information) The CT
(S1400:CT情報復号)CT情報復号部3021は、符号化データからCTを復号する。
(S1400: CT information decoding) The CT
(S1500:CU復号)CU復号部3022はS1510、S1520を実施して、符号化データからCUを復号する。
(S1500: CU decoding) The
(S1510:CU情報復号)CU復号部3022は、符号化データからCU情報、予測情報、TU分割フラグsplit_transform_flag、CU残差フラグcbf_cb、cbf_cr、cbf_luma等を復号する。
(S1510: CU information decoding) The
(S1520:TU情報復号)TU復号部3024は、TUに予測誤差が含まれている場合に、符号化データからQP更新情報と量子化予測誤差、変換インデックスmts_idxを復号する。なお、QP更新情報は、量子化パラメータQPの予測値である量子化パラメータ予測値qPpredからの差分値である。
(S1520: TU information decoding) When a prediction error is included in a TU, the
(S2000:予測画像生成)予測画像生成部308は、対象CUに含まれる各ブロックについて、予測情報に基づいて予測画像を生成する。
(S2000: Generation of predicted image) The predicted
(S3000:逆量子化・逆変換)逆量子化・逆変換部311は、対象CUに含まれる各TUについて、逆量子化・逆変換処理を実行する。
(S3000: Inverse quantization and inverse transform) The inverse quantization and
(S4000:復号画像生成)加算部312は、予測画像生成部308より供給される予測画像と、逆量子化・逆変換部311より供給される予測誤差とを加算することによって、対象CUの復号画像を生成する。
(S4000: Decoded image generation) The
(S5000:ループフィルタ)ループフィルタ305は、復号画像にデブロッキングフィルタ、SAO、ALFなどのループフィルタをかけ、復号画像を生成する。
(S5000: Loop filter) The
非特許文献1は、非常に符号化効率の高い動画像符号化、復号方式であるが、圧縮された動画像の復号画像で画像認識を行うと、伝送レートが低い場合、符号化歪によって、画像認識精度が低減するという問題があった。
また、非特許物件2では、動画像の分析結果の記述と動画像符号化を統合する方法について議論しているが、符号化効率の面で十分ではなく、低い伝送ビットレートを実現できないという課題があった。 In addition, Non-Patent Item 2 discusses a method for integrating the description of video analysis results with video coding, but this is not sufficient in terms of coding efficiency, and there is an issue that low transmission bit rates cannot be achieved.
また、非特許文献3は、非特許文献1の方式に対して、ニューラルネットワークポストフィルタ処理を行う手段を提供しているが画像認識技術には対応していないという課題がある。
In addition,
本実施の形態では、動画像符号化、復号方式の枠組みを大きく変更せずに、付加的な補
助情報を符号化、復号することで、低レートにおいても、画像認識精度を維持することができる枠組みを提供する。
In this embodiment, a framework is provided that can maintain image recognition accuracy even at low rates by encoding and decoding additional auxiliary information without significantly changing the framework of the video encoding and decoding method.
(ニューラルネットワークポストフィルタ特性(NNPFC)SEI
図6は、非特許文献3のニューラルネットワークポストフィルタ特性(NNPFC)SEIメッセージのシンタクスの概略を示している。NNPFC SEIメッセージは、ポストフィルタ処理として適用するニューラルネットワークを指定する。特定のピクチャに対する特定のポストフィルタ処理の適用は、ニューラルネットワークポストフィルタアクティベーションSEIメッセージ(図7)によって示される。
(Neural network post-filter characteristic (NNPFC) SEI
Fig. 6 shows an outline of the syntax of the Neural Network Post-Filter Characteristics (NNPFC) SEI message of
このSEIメッセージを適用するには、次の変数の定義が必要である。
・画像復号装置31が復号したピクチャの輝度画素単位の幅と高さ
・輝度画素配列CroppedYPic[idx]及び色差画素配列CroppedCbPic[idx]及びCroppedCrPic[idx]、ポストフィルタ処理の入力として使用される0からnumInputPics-1までの範囲のidxを持つピクチャ
・輝度画素配列の画素ビット深度BitDepthY
・色差画素配列の画素ビット長BitDepthC
・画像復号装置31が復号したピクチャの色差フォーマットChromaFormatIdcで示される色差フォーマットを示す変数SubWidthCとSubHeightC。4:2:0の時は、変数SubWidthCとSubHeightCは、ともに2であり、4:2:2の時は、変数SubWidthCが2で変数SubHeightCが1であり、4:4:4の時は、変数SubWidthCとSubHeightCは、ともに1である。
・nnpfc_auxiliary_inp_idcは、ニューラルネットワークポストフィルタの入力テンソルに補助情報が存在することを示し、もし値が1に等しい場合、0から1までの範囲の実数であるデブロッキングフィルタリング強度制御値StrengthControlValを補助情報として入力する。
To apply this SEI message, the following variables must be defined:
The width and height of the picture decoded by the
・Pixel bit length of the chrominance pixel array BitDepthC
Variables SubWidthC and SubHeightC indicating the chrominance format indicated by the chrominance format ChromaFormatIdc of the picture decoded by the
nnpfc_auxiliary_inp_idc indicates the presence of auxiliary information in the input tensor of the neural network postfilter, and if its value is equal to 1, input the deblocking filtering strength control value StrengthControlVal, which is a real number ranging from 0 to 1, as auxiliary information.
シンタクス要素nnpfc_idは、ポストフィルタ処理を識別するために使用できる識別番号を示す。 The syntax element nnpfc_id indicates an identification number that can be used to identify the post-filter process.
NNPFC SEIメッセージが、現在のCLVS内で特定のnnpfc_id値を持つ、復号順で最初のNNPFC SEIメッセージである場合、以下が適用される。
・このSEIメッセージが、基本のポストフィルタ処理であることを示す。
・このSEIメッセージが、現在のCLVSの最後まで、現在の復号されたピクチャと、現在のレイヤのすべての後続の復号されたピクチャに関係する。NNPFC SEIメッセージが、現在のCLVSで、復号順で前のNNPFC SEIメッセージの繰り返しである場合、後続のセマンティクスは、このSEIメッセージが現在のCLVS内で同じ内容を持つ唯一のNNPFC SEIメッセージであるかのように適用される。
If the NNPFC SEI message is the first NNPFC SEI message, in decoding order, with a particular nnpfc_id value within the current CLVS, the following applies:
- Indicates that this SEI message is a basic post-filter process.
This SEI message pertains to the current decoded picture and all subsequent decoded pictures of the current layer until the end of the current CLVS. If an NNPFC SEI message is a repetition of a previous NNPFC SEI message in the current CLVS in decoding order, the subsequent semantics apply as if this SEI message was the only NNPFC SEI message with the same content in the current CLVS.
NNPFC SEIメッセージが、現在のCLVS内で特定のnnpfc_id値を持つ復号順で最初のNNPFC
SEIメッセージでない場合、以下が適用される。
・このSEIメッセージは、同じnnpfc_id値を使用して、復号順で以前の基本のポストフィルタに関連する更新であることを示す
・このSEIメッセージは、現在のCLVSの終わりまで、または現在のレイヤ内の特定のnnpfc_id値を持つ次のNNPFC SEIメッセージまで、現在の復号されたピクチャと、現在のレイヤのすべての後続の復号されたピクチャに関係する
nnpfc_mode_idcが0の場合は、このSEIメッセージに、ポストフィルタ処理を指定するISO/IEC 15938-17ビットストリームが含まれているか、同じnnpfc_id値を持つ基本のポスト処理フィルターに関連する更新であることを示す。
The NNPFC SEI message is the first NNPFC in decoding order with a particular nnpfc_id value in the current CLVS.
If it is not an SEI message, the following applies:
Indicates that this SEI message is an update relative to the previous elementary post-filter in decoding order using the same nnpfc_id value. This SEI message pertains to the current decoded picture and all subsequent decoded pictures in the current layer, until the end of the current CLVS or until the next NNPFC SEI message with the particular nnpfc_id value in the current layer.
If nnpfc_mode_idc is 0, it indicates that this SEI message contains an ISO/IEC 15938-17 bit stream that specifies post-filtering or is an update relative to an underlying post-processing filter with the same nnpfc_id value.
nnpfc_mode_idcが1の場合は、nnpfc_id値に関連付けられたポストフィルタ処理は、タ
グURIのnnpfc_tag_uriによって識別される形式のnnpfc_uriによって示されるURIによって識別されるニューラルネットワークであることを示す。
nnpfc_mode_idc equal to 1 indicates that the post-filter associated with the nnpfc_id value is a neural network identified by the URI indicated by nnpfc_uri, of the form identified by the tag URI nnpfc_tag_uri.
nnpfc_reserved_zero_bit_aは、0を示す。 nnpfc_reserved_zero_bit_a indicates 0.
nnpfc_tag_uriは、IETF RFC4151で指定されているシンタクスとセマンティクスを持つタグURIが含まれている。基本のポストフィルタ処理として使用されるニューラルネットワークに関する形式と関連情報、または同じnnpfc_id値が指定されたポストフィルタ処理に関連する更新のために使用される。なお、nnpfc_tag_uriは、登録機関を必要とせずに、nnrpf_uriによって指定されたニューラルネットワークデータの形式を一意に識別することを可能とする。nnpfc_tag_uriが「tag:iso.org,2023:15938-17」の場合は、nnpfc_uriによって識別されるニューラルネットワークのデータがISO/IEC 15938-17に準拠していてNNC(Neural Network Coding)で符号化されていることを示す。 nnpfc_tag_uri contains a tag URI with syntax and semantics specified in IETF RFC4151. It is used to store format and related information about the neural network used as the base postfilter process, or for updates related to postfilter processes with the same nnpfc_id value. Note that nnpfc_tag_uri allows the format of the neural network data specified by nnrpf_uri to be uniquely identified without the need for a registration authority. If nnpfc_tag_uri is "tag:iso.org,2023:15938-17", it indicates that the neural network data identified by nnpfc_uri is ISO/IEC 15938-17 compliant and encoded with NNC (Neural Network Coding).
nnpfc_uriは、IETF Internet Standard 66で指定されているシンタクスとセマンティクスを持つURIが含まれており、ポストフィルタ処理として使用されるニューラル ネットワーク、または同じnnpfc_id値を持つポストフィルタ処理に関連する更新として使用される。 nnpfc_uri contains a URI with syntax and semantics specified in IETF Internet Standard 66 to identify the neural network to be used as a postfilter or update associated with a postfilter with the same nnpfc_id value.
nnpfc_formatting_and_purpose_flagが1の場合、フィルタの目的、入力フォーマット、出力フォーマット、および複雑さに関連する構文要素が存在することを示す。nnpfc_formatting_and_purpose_flagが0の場合は、フィルタの目的、入力フォーマット、出力フォーマット、および複雑さに関連するシンタクス要素が存在しないことを示す。 When nnpfc_formatting_and_purpose_flag is 1, it indicates that syntax elements related to the filter's purpose, input format, output format, and complexity are present. When nnpfc_formatting_and_purpose_flag is 0, it indicates that syntax elements related to the filter's purpose, input format, output format, and complexity are not present.
このSEIメッセージが、現在のCLVS内で特定のnnpfc_id値を持つ、復号順で最初のNNPFC
SEIメッセージである場合、nnpfc_formatting_and_purpose_flagは1に等しいものとする。このSEIメッセージが復号順で最初のNNPFC SEIメッセージでない場合、現在のCLVS内に特定のnnpfc_id値がある場合、nnpfc_formatting_and_purpose_flagの値は0である必要がある。
This SEI message is the first NNPFC in decoding order with a particular nnpfc_id value in the current CLVS.
If this SEI message is a NN PFC SEI message, then nnpfc_formatting_and_purpose_flag shall be equal to 1. If this SEI message is not the first NN PFC SEI message in decoding order, then the value of nnpfc_formatting_and_purpose_flag shall be 0 for the particular nnpfc_id value in the current CLVS.
nnpfc_purposeはポストフィルタ処理の目的を示す。nnpfc_purposeの値は、1の場合、画質改善であり、2の場合、4:2:0色差フォーマットから4:2:2または4:4:4への色差のアップサンプリング、または4:2:2色差フォーマットから4:4:4の色差アップサンプリングであり、3の場合は、色差フォーマットを変更せずにトリミングされた復号出力画像の幅または高さを増やす。4の場合は、復号出力画像の幅または高さを増やし、色差フォーマットをアップサンプリングし、5の場合は、ピクチャーレートアップサンプリングを示す。 nnpfc_purpose indicates the purpose of the postfilter processing. The value of nnpfc_purpose is 1 for image quality improvement, 2 for chrominance upsampling from 4:2:0 chrominance format to 4:2:2 or 4:4:4, or chrominance upsampling from 4:2:2 chrominance format to 4:4:4, 3 for increasing the width or height of the cropped decoded output image without changing the chrominance format, 4 for increasing the width or height of the decoded output image and upsampling the chrominance format, and 5 for picture rate upsampling.
nnpfc_reserved_zero_bit_bは、0とする。 nnpfc_reserved_zero_bit_b is set to 0.
nnpfc_payload_byte[i]には、ISO/IEC 15938-17に準拠して、NNCで符号化されているビットストリームのi番目のバイトとする。 nnpfc_payload_byte[i] is the i-th byte of the bitstream encoded in NNC in accordance with ISO/IEC 15938-17.
(ニューラルネットワークポストフィルタアクティベーション(NNPFA)SEI)
図7は、非特許文献3のニューラルネットワークポストフィルタアクティベーション(NNPFA)SEIメッセージのシンタクスを示している。ニューラルネットワークポストフィルタアクティベーションNNPFA SEIメッセージは、一連のピクチャのポストフィルタ処理のために、nnpfa_target_idによって識別される対象ニューラルネットワークポストフィルタ処理の適用をアクティブ化または非アクティブ化する。
(Neural Network Post Filter Activation (NNPFA) SEI)
7 shows the syntax of the Neural Network Post-Filter Activation (NNPFA) SEI message of
nnpfa_target_idは、対象とするピクチャのニューラルネットワークポストフィルタ処
理を示す。これは、現在のピクチャに対して、nnfpa_target_idと等しいnnpfc_idを持つ1つ以上のNNPFC SEIメッセージを特定する。
nnpfa_target_id indicates the target picture neural network postfiltering. It identifies one or more NNPFC SEI messages with nnpfc_id equal to nnfpa_target_id for the current picture.
次の条件の一方または両方が真でない限り、nnpfa_target_idの特定の値を持つNNPFA SEIメッセージは現在のPUに存在してはならない。
・現在のCLVS内に、復号順で現在のPUに先行するPUに存在するnnpfa_target_idの特定の値に等しいnnpfc_idを持つNNPFC SEIメッセージがある。
・現在のPUのnnpfa_target_idの特定の値と等しいnnpfc_idを持つNNPFC SEIメッセージがある。
An NNPFA SEI message with a particular value of nnpfa_target_id must not be present on the current PU unless one or both of the following conditions are true:
- There is an NNPFC SEI message in the current CLVS with nnpfc_id equal to a particular value of nnpfa_target_id present in a PU that precedes the current PU in decoding order.
- There is an NNPFC SEI message with nnpfc_id equal to a specific value of nnpfa_target_id of the current PU.
PUにnnpfc_idの特定の値を持つNNPFC SEIメッセージと、nnpfc_idの特定の値に等しいnnpfa_target_idを持つNNPFA SEIメッセージの両方が含まれる場合、NNPFC SEIメッセージは復号順でNNPFA SEIメッセージに先行するものとする。 If a PU contains both an NNPFC SEI message with a particular value of nnpfc_id and an NNPFA SEI message with nnpfa_target_id equal to a particular value of nnpfc_id, the NNPFC SEI message shall precede the NNPFA SEI message in decoding order.
nnpfa_cancel_flagが1の場合は、現在のSEIメッセージと同じnnpfa_target_idを持つ以前のNNPFA SEIメッセージによって設定された対象ニューラルネットワークポストフィルタ処理の継続性がキャンセルされることを示す。つまり、対象とするニューラルネットワークポストフィルタ処理は実行されない。 nnpfa_cancel_flag, when set to 1, indicates that the continuity of the target neural network postfilter process set by the previous NNPFA SEI message with the same nnpfa_target_id as the current SEI message is cancelled. That is, the target neural network postfilter process is not executed.
現在のSEIメッセージと同じnnpfa_target_idとnnpfa_cancel_flagが0の場合は、別のNNPFA SEIメッセージによってアクティブ化されない限り、使われない。nnpfa_cancel_flagが0の場合は、nnpfa_persistence_flagが続くことを示す。 If it has the same nnpfa_target_id as the current SEI message and nnpfa_cancel_flag is 0, it will not be used unless activated by another NNPFA SEI message. If nnpfa_cancel_flag is 0, it indicates that nnpfa_persistence_flag will persist.
nnnpfa_persistence_flagは、現在のレイヤの対象ニューラル ネットワークポストフィルタ処理の継続性を示す。 nnnpfa_persistence_flag indicates the continuity of the target neural network postfilter processing for the current layer.
nnpfa_persistence_flagが0の場合は、対象とするニューラルネットワークポストフィルタ処理が、現在の画像のみのポストフィルタ処理に適用されることを示す。 When nnpfa_persistence_flag is 0, it indicates that the target neural network postfiltering applies to postfiltering of the current image only.
nnpfa_persistence_flagが1の場合は、次の条件の1つ以上がtrueになるまで、対象となるニューラルネットワークポストフィルタ処理を、現在の画像と現在のレイヤの後続のすべてのピクチャにポストフィルタ処理に適用することを示す。
・現在のレイヤの新しいCLVSが開始
・ビットストリームが終了
・現在のSEIメッセージと同じnnpfa_target_idと1に等しいnnpfa_cancel_flagを持つNNPFA SEIメッセージに関連付けられた現在のレイヤの画像は、出力順序で現在の画像の後に出力される。
nnpfa_persistence_flag, when set to 1, indicates that the target neural network postfiltering should be applied to the current image and all subsequent pictures of the current layer until one or more of the following conditions become true:
A new CLVS for the current layer begins. The bitstream ends. The picture for the current layer associated with an NNPFA SEI message that has the same nnpfa_target_id as the current SEI message and nnpfa_cancel_flag equal to 1 is output after the current picture in output order.
なお、ニューラルネットワークポストフィルタ処理は、現在のSEIメッセージと同じnnpfa_target_idおよびnnpfa_cancel_flagが1の場合、NNPFA SEIメッセージに関連付けられた現在のレイヤの後続のピクチャには適用されない。 Note that neural network postfiltering is not applied to subsequent pictures of the current layer associated with an NNPFA SEI message if the current SEI message has the same nnpfa_target_id and nnpfa_cancel_flag as the current SEI message and both have the same nnpfa_target_id and nnpfa_cancel_flag set to 1.
(アテンション情報SEI)
図8は、本実施形態の補助情報符号化装置81及び補助情報復号装置91で符号化、復号する補助情報のシンタックスの一形態を示す図である。この例では、attention_infoというSEIを示す。このSEIは、PU単位に伝送し、当該ピクチャに対して、画像認識装置が処理を行うにあたって認識精度の向上や、処理量の削減を目的としている。そのために、当該ピクチャに対する認識認識処理に用いるアテンション(注目)情報を生成するための補助情報として符号化、復号するSEIメッセージであり、payloadSizeの値のバイト数を有する。
(Attention Information SEI)
8 is a diagram showing one form of the syntax of auxiliary information encoded and decoded by the auxiliary
以下、本実施の形態におけるアテンション情報SEIのシンタックス及びシンタックス要素とセマンティクスについて説明する。 The syntax, syntax elements, and semantics of the attention information SEI in this embodiment are explained below.
このSEIメッセージを適用するには、次の変数の定義が必要である。
・画像復号装置31が復号したピクチャの色差フォーマットChromaFormatIdcで示される色差フォーマットを示す変数SubWidthCとSubHeightC。4:2:0の時は、変数SubWidthCとSubHeightCは、ともに2であり、4:2:2の時は、変数SubWidthCが2で変数SubHeightCが1であり、4:4:4の時は、変数SubWidthCとSubHeightCは、ともに1である。
To apply this SEI message, the following variables must be defined:
Variables SubWidthC and SubHeightC indicating the chrominance format indicated by the chrominance format ChromaFormatIdc of the picture decoded by the
シンタクス要素attention_target_idは、対象とするピクチャのニューラルネットワークを特定する。もし、nnfpa_target_idと等しいnnpfc_idを持つ1つ以上のニューラルネットワークポストフィルタ特性SEIメッセージが存在する場合、NNPFC SEIのnnpfc_purposeに、アテンション情報を入力して、ニューラルネットワークポストフィルタ処理が実行される。この場合、アテンション情報は、ポスト画像処理装置1002に入力され、アテンション情報として用いられる。
The syntax element attention_target_id specifies the neural network of the target picture. If there is one or more neural network post-filter characteristics SEI messages with nnpfc_id equal to nnfpa_target_id, attention information is input to nnpfc_purpose of the NNPFC SEI and neural network post-filter processing is performed. In this case, the attention information is input to the post
具体的な実施の形態の例としては、nnpfc_auxliary_inp_idcの値が2の場合、アテンション情報をニューラルネットワークポストフィルタの入力テンソルとして入力し、アテンション情報で注目度が高い領域に対してポストフィルタ処理を行う。この時のポストフィルタ処理は、単に画質向上ではなく、画像認識率が向上することを基準に最適化してもよい。 As a specific example of an embodiment, when the value of nnpfc_auxliary_inp_idc is 2, attention information is input as an input tensor of the neural network postfilter, and postfilter processing is performed on areas that are attracting high attention in the attention information. The postfilter processing at this time may be optimized based on the criterion of improving image recognition rate, rather than simply improving image quality.
別の実施の形の例としては、NNPFA SEIによってアクティブ化されたピクチャのポストフィルタ処理を実行する時に、アテンション情報を用いて、注目度の高い領域のポストフィルタ処理の強度を調整してもよい。 As another example of implementation, when performing post-filtering of a picture activated by the NNPFA SEI, attention information may be used to adjust the strength of post-filtering of regions of high interest.
このような構成にすることで、画像認識精度の向上と、画像認識処理の処理量の削減が実現できる。 This configuration improves image recognition accuracy and reduces the amount of processing required for image recognition.
もし、attention_target_idの値が、nnpfc_idの値外の画像認識装置51のニューラルネットワークのid値と等しい場合は、アテンション情報は、画像認識装置51に入力される。この場合、アテンション情報は、画像認識装置51に入力され、アテンション情報として画像認識に用いられる。このような構成にすることで、画像認識精度の向上と、画像認識処理の処理量の削減が実現できる。
If the value of attention_target_id is equal to the ID value of the neural network of the
attention_width_in_luma_samplesと、attention_height_in_luma_samplesは、アテンション情報の輝度の水平方向と垂直方向の画素数を表している。なお、attention_width_in_luma_samplesの値は、色差画素数が輝度画素数と違う4:2:2や4:2:0色差フォーマットに対応するために、変数SubWidthCの倍数の値とし、attention_height_in_luma_samplesの値は、変数SubHeightCの倍数の値とする。 attention_width_in_luma_samples and attention_height_in_luma_samples represent the number of pixels in the horizontal and vertical directions for the luminance of the attention information. Note that the value of attention_width_in_luma_samples is a multiple of the variable SubWidthC to accommodate 4:2:2 and 4:2:0 chrominance formats, where the number of chrominance pixels is different from the number of luminance pixels, and the value of attention_height_in_luma_samples is a multiple of the variable SubHeightC.
attention_bit_depth_minus8は、アテンションの値マイナス8を示すシンタクス要素である。アテンション値は0から、2の(attention_bit_depth_minus8+8)乗マイナス1の値をとるものとする。 attention_bit_depth_minus8 is a syntax element that indicates the attention value minus 8. The attention value shall take values from 0 to 2 to the power of (attention_bit_depth_minus8+8) minus 1.
attention_number_of_region_minus1は、アテンション情報を記述するための領域の数マイナス1を表すシンタックス要素である。attention_number_of_region_minus1プラス1の値の数だけ、アテンション情報を記述するための領域の数を示す。 attention_number_of_region_minus1 is a syntax element that represents the number of regions for describing attention information minus 1. The number of regions for describing attention information is equal to the value of attention_number_of_region_minus1 plus 1.
attention_region_xと、attention_region_yは、アテンションを生成するための矩形の
左上の位置を示すシンタックス要素である。attention_region_xは、矩形領域の左上の輝度のx座標値(水平方向)である。なお、attention_region_xの値は、変数SubWidthCの倍数の値とする。attention_region_yは、矩形領域の左上の輝度のy座標値(垂直方向)である。なお、attention_region_yの値は、変数SubHeightCの倍数の値とする。また、attention_region_x、attention_region_yは、画面内の相対位置であってもよい。
Attention_region_x and attention_region_y are syntax elements that indicate the position of the top left corner of a rectangle for generating attention. Attention_region_x is the x coordinate value (horizontal direction) of the luminance of the top left corner of the rectangular region. The value of attention_region_x is a multiple of the variable SubWidthC. Attention_region_y is the y coordinate value (vertical direction) of the luminance of the top left corner of the rectangular region. The value of attention_region_y is a multiple of the variable SubHeightC. In addition, attention_region_x and attention_region_y may be relative positions within the screen.
attention_region_widthとattention_region_hightは、アテンションを生成するための矩形の大きさを示すシンタックス要素である。attention_region_widthは、矩形領域の水平方向の輝度の画素数であり、変数SubWidthCの値の倍数とする。なお、attention_region_x+attention_region_widthの値は、ピクチャの水平方向の画素数を超えないものとする。attention_region_hightは、矩形領域の垂直方向の輝度の画素数であり、変数SubHightCの値の倍数とする。なお、attention_region_y+attention_region_heightの値は、ピクチャの垂直方向の画素数を超えないものとする。 attention_region_width and attention_region_hight are syntax elements that indicate the size of the rectangle for generating attention. attention_region_width is the number of pixels of horizontal luminance in the rectangular region, and is a multiple of the value of the variable SubWidthC. Note that the value of attention_region_x+attention_region_width must not exceed the number of pixels in the horizontal direction of the picture. attention_region_hight is the number of pixels of vertical luminance in the rectangular region, and is a multiple of the value of the variable SubHightC. Note that the value of attention_region_y+attention_region_height must not exceed the number of pixels in the vertical direction of the picture.
本実施の形態においては、アテンション情報を生成するためを矩形として、矩形の左上の座標値と水平方向と垂直方向の画素数で表現する方式を示したが、別の方法でもよい。例えば、位置情報(attention_region_x、attention_region_y)は、矩形の左上でなく、右上、左下、右下、重心でもよい。また、矩形の大きさ(attention_region_width、attention_region_height)は、矩形以外にも、正方形に限定して、一辺の画素数のみ(region_size)を指定するようにしてもよい。あるいは、位置、サイズは、画素単位ではなく、4x4単位や16x16単位、もしくは符号化の単位であるCTUアドレスおよびCTUの個数で指定してもよい。 In this embodiment, attention information is generated using a rectangle, and is expressed by the coordinate value of the top left corner of the rectangle and the number of pixels in the horizontal and vertical directions. However, other methods are also possible. For example, the position information (attention_region_x, attention_region_y) may be the top right, bottom left, bottom right, or center of gravity instead of the top left corner of the rectangle. Furthermore, the size of the rectangle (attention_region_width, attention_region_height) may be limited to a square other than a rectangle, and only the number of pixels on one side (region_size) may be specified. Alternatively, the position and size may be specified in 4x4 or 16x16 units, or the CTU address and number of CTUs, which are the encoding units, instead of in pixel units.
attention_region_weight_yは、アテンションを生成するための輝度の値を示している。attention_region_weight_cbは、アテンションを生成するための色差Cbの値を示している。attention_region_weight_crは、アテンションを生成するための色差Crの値を示している。attention_region_weight_yとattention_region_weight_cbとattention_region_weight_crは、0から、2の(attention_bit_depth_minus8+8)乗マイナス1の値をとるものとする。 attention_region_weight_y indicates the luminance value for generating attention. attention_region_weight_cb indicates the chrominance Cb value for generating attention. attention_region_weight_cr indicates the chrominance Cr value for generating attention. attention_region_weight_y, attention_region_weight_cb, and attention_region_weight_cr shall take values from 0 to 2 to the power of (attention_bit_depth_minus8+8) minus 1.
図9は、図8のアテンション情報SEIのシンタクス要素の値からアテンションを作成する手順の一例を示している。 Figure 9 shows an example of a procedure for creating attention from the values of syntax elements of the attention information SEI in Figure 8.
配列AttentionY[][]、AttentionCb[][]、AttentionCrは[][]は、アテンション情報を表す2次元配列構造で、attention_width_in_luma_samplesとattention_height_in_luma_samplesが、水平方向と垂直方法の輝度の画素数を表している。アテンション情報の色差の画素数は、水平方向がattention_width_in_luma_samples/SubWidthC、垂直方向がattention_height_in_luma_samples/SubHeightCとなる。 The arrays AttentionY[][], AttentionCb[][], and AttentionCr[][] are two-dimensional array structures that represent attention information, and attention_width_in_luma_samples and attention_height_in_luma_samples represent the number of luminance pixels in the horizontal and vertical directions. The number of chrominance pixels of the attention information is attention_width_in_luma_samples/SubWidthC in the horizontal direction and attention_height_in_luma_samples/SubHeightC in the vertical direction.
初めに、配列AttentionY[][]、AttentionCb[][]、AttentionCrは[][]の初期化を行う。輝度のアテンション配列AttentionY[][]は、0で初期化し、色差のアテンション配列AttentionCb[][]、AttentionCrは[][]は、2の(attention_bit_depth_minus8 + 7)乗である、1 << (attention_bit_depth_minus8 + 7)の値で初期化される。
First, the arrays AttentionY[][], AttentionCb[][], and AttentionCr[][] are initialized. The luminance attention array AttentionY[][] is initialized to 0, and the chrominance attention arrays AttentionCb[][] and AttentionCr[][] are initialized to the
次に、attention_number_of_region_minus1プラス1回だけループして、attention_region_xとattention_region_yで示されるポイントから、attention_region_width、attention_region_heightのサイズをもつAttentionY[y][x]にattention_region_weight_yを入力する。attention_number_of_region_minus1はアテンション情報SEIで設定されたアテンション情報を記述するための矩形領域の数マイナス1を表すシンタックス要素である。
Next, loop attention_number_of_region_minus1 plus once and input attention_region_weight_y to AttentionY[y][x], which has a size of attention_region_width and attention_region_height, from the point indicated by attention_region_x and attention_region_y. attention_number_of_region_minus1 is a syntax element that represents the number of rectangular regions for describing the attention information set in the attention
attention_region_xは矩形領域の左上の輝度のx座標値(水平方向)である。attention_region_yは矩形領域の左上の輝度のy座標値(垂直方向)である。attention_region_widthは水平方向の画素数、attention_region_heightは垂直方向の画素数である。AttentionY[y][x]は矩形領域の輝度のアテンション配列である。attention_region_weight_yはアテンションの値である。 attention_region_x is the x coordinate value (horizontal) of the luminance of the top left of the rectangular region. attention_region_y is the y coordinate value (vertical) of the luminance of the top left of the rectangular region. attention_region_width is the number of pixels in the horizontal direction, and attention_region_height is the number of pixels in the vertical direction. AttentionY[y][x] is the attention array of the luminance of the rectangular region. attention_region_weight_y is the attention value.
また、AttentionCb[y][x]、AttentionCr[y][x]に対しては、attention_region_x/SubWidthCとattention_region_y/SuabHeightCで示されるポイントから、attention_region_width/SubWidthC、attention_region_height/SubHeightCのが画素サイズを持つ矩形領域に、それぞれ、valCbとvalCrを入力する。 For AttentionCb[y][x] and AttentionCr[y][x], valCb and valCr are input, respectively, from the points indicated by attention_region_x/SubWidthC and attention_region_y/SubHeightC to rectangular regions with pixel sizes of attention_region_width/SubWidthC and attention_region_height/SubHeightC.
AttentionCb[y][x]、AttentionCr[y][x]は色差のアテンション配列である。attention_region_x/SubWidthCは矩形領域の左上の輝度のx座標値(水平方向)である。attention_region_y/SuabHeightCは矩形領域の左上の輝度のy座標値(垂直方向)である。attention_region_width/SubWidthCは水平方向画素数、attention_region_height/SubHeightCは垂直方向画素数である。 AttentionCb[y][x] and AttentionCr[y][x] are the attention arrays for chrominance. attention_region_x/SubWidthC is the x coordinate value (horizontal direction) of the luminance at the top left of the rectangular region. attention_region_y/SuabHeightC is the y coordinate value (vertical direction) of the luminance at the top left of the rectangular region. attention_region_width/SubWidthC is the number of horizontal pixels, and attention_region_height/SubHeightC is the number of vertical pixels.
valCbはattention_region_weight_cbに2の(attention_bit_depth_minus8 + 7)乗の値分を足した値、valCrはattention_region_weight_crに2の(attention_bit_depth_minus8 + 7)乗の値分を足した値である。 valCb is the sum of attention_region_weight_cb and 2 to the power of (attention_bit_depth_minus8 + 7), and valCr is the sum of attention_region_weight_cr and 2 to the power of (attention_bit_depth_minus8 + 7).
なお、本実施の形態でのアテンション情報を作成方法では、アテンション情報を記述するための矩形領域が重なった場合には、あとから定義された領域の値で書き換えることになるが、元に入っていた値と平均をとってもよい。 Note that in the method for creating attention information in this embodiment, if the rectangular areas for describing attention information overlap, the value will be overwritten with the value of the area defined later, but the average of the original value and this value may also be taken.
このようなシンタクスとセマンティクスによることで、簡潔にかつ少ない符号量でアテンション情報を記述することができる。 Using this syntax and semantics, attention information can be described concisely and with a small amount of code.
画像解析装置61では、入力動画像Tを解析して、認識対象候補を検出する。ここでは、処理量を抑えるためにあくまでも認識対象候補としての精度があれば良いものとする。また、認識候補領域は、例えば、固定的なカメラ画像のように、認識対象のピクチャ中の位置が想定できる場合は、予め画像解析装置61が検知対象領域を設定しておいてもよい。
The
補助情報作成装置71では、画像解析装置61で検出したアテンション情報を、ピクチャ内の位置、矩形の大きさの情報に変換して、補助情報符号化装置81に送る。
The auxiliary information creation device 71 converts the attention information detected by the
あるいは、補助情報作成装置71の出力を画像符号化装置11に入力してもよい。この場合、画像符号化装置11は、補助情報作成部71で作成されたアテンション情報を用いて画質を制御してもよい。例えば、認識対象候補の領域にピクチャ内の他の領域よりも小さい値の量子化パラメータを用いるなどして、高画質にしてもよい。このようなことをすることで、認識精度の向上が可能である。
Alternatively, the output of the auxiliary information creation device 71 may be input to the
画像認識装置51には、復号動画像Tdに加えて、補助情報として、アテンション情報が入力される。その結果、ピクチャ内の全部の情報に対して、認識対象候補の領域を優先して処理すれば良いので処理量を大幅に削減し、認識精度の向上も可能である。更に、認識対象領域の復号画像の画質が向上すれば、認識精度が向上する。
In addition to the decoded video image Td, attention information is input to the
本実施の形態によれば、低レートで符号化された復号画像を用いても画像認識装置51での画像認識精度の向上と、画像認識処理の処理量の削減が実現できる。
According to this embodiment, even when using decoded images encoded at a low rate, it is possible to improve the image recognition accuracy of the
また、補助情報作成装置71、補助情報符号化装置81及び補助情報復号装置91で汎用ネットワークパラメータを共通に保持してもよい。補助情報作成装置71では、ニューラルネットワークポストフィルタ特性SEIなどの枠組みを用いて、共通に保持している汎用ネットワークを部分的に更新するネットワークパラメータを補助情報として作成する。そして、補助情報符号化装置81で符号化し、補助情報復号装置91で復号してもよい。このような構成にすることで、補助情報の符号量を削減し、入力画像Tに応じた補助情報を作成、符号化、復号できる。
In addition, the auxiliary information creation device 71, the auxiliary
また、ネットワークパラメータの伝送フォーマットとして、複数のフォーマットに対応するために、フォーマットを示すパラメータ(識別子)を送付してもよい。また、識別子に続く実際の補助情報については、バイト列で伝送してもよい。 In order to support multiple formats as the transmission format of the network parameters, a parameter (identifier) indicating the format may be sent. Furthermore, the actual auxiliary information following the identifier may be transmitted as a byte string.
補助情報復号装置91で復号したネットワークパラメータの補助情報は、ポスト画像処理装置1002に入力する。
The auxiliary information of the network parameters decoded by the auxiliary information decoding device 91 is input to the
ポスト画像処理装置1002では、復号した補助情報(ニューラルネットワークポストフィルタ特性SEI、ニューラルネットワークポストフィルタアクティベーションSEI、アテンション情報SEI)を用いて、ニューラルネットワークを用いたポスト画像処理を行い、復号動画像Tdを復元する。
The
例えば、図8で示したアテンション情報SEIのアテンション情報を用いて特定の領域のみに、ポスト画像処理を行っても良い。この時のポストフィルタ処理は、単に画質向上ではなく、画像認識率が向上することを基準に最適化してもよい。 For example, post-image processing may be performed only on specific regions using the attention information in the attention information SEI shown in Figure 8. The post-filter processing in this case may be optimized based on improving the image recognition rate, rather than simply improving image quality.
これにより、復号画像側で復号動画像Tdの画質改善を行うとともに、画像認識装置での認識精度の向上を図る。 This improves the image quality of the decoded video image Td on the decoded image side, and also improves the recognition accuracy of the image recognition device.
なお、アクティベーション情報の符号化、復号は、SEI限定されず、SPS、PPS、APS、スライスヘッダなどのシンタックスを用いてもよい。 The encoding and decoding of activation information is not limited to SEI, and syntax such as SPS, PPS, APS, and slice header may also be used.
補助符号化装置81では、図6、図7、図8、図10のシンタックス表に基づいて、補助情報を符号化する。補助情報は、補助拡張情報SEIとして符号化され、画像符号化装置11の出力する符号化データTeに多重化されてネットワーク21に出力される。
The
補助情報復号装置91は、符号化データTeから、図6、図7、図8、図10のシンタックス表に基づいて補助情報を復号し、復号結果をポスト画像処理装置1002と画像認識装置51に送る。補助情報復号装置91は補助拡張情報SEIとして符号化された補助情報を復号する。
The auxiliary information decoding device 91 decodes the auxiliary information from the encoded data Te based on the syntax tables in Figures 6, 7, 8, and 10, and sends the decoded result to the
ポスト画像処理装置1002は、復号動画像Tdと補助情報を用いて復号動画像Tdにポスト画像処理を行い、ポスト画像処理Toを生成する。
The
また、補助情報作成装置71、補助情報符号化装置81及び補助情報復号装置91で汎用ネットワークパラメータを共通に保持してもよい。補助情報作成装置71では、共通に保持している汎用ネットワークを部分的に更新するネットワークパラメータを補助情報として作成し、補助情報符号化装置81で符号化し、補助情報復号装置91で復号してもよい。このような構成にすることで、補助情報の符号量を削減し、入力画像Tに応じた補助情報を作成、符号化、復号できる。
In addition, the auxiliary information creation device 71, the auxiliary
また、ネットワークパラメータの伝送フォーマットとして、複数のフォーマットに対応するために、フォーマットを示すパラメータ(識別子)を送付してもよい。また、識別子
に続く実際の補助情報については、バイト列で伝送してもよい。
In addition, in order to support multiple formats as the transmission format of the network parameters, a parameter (identifier) indicating the format may be sent. Furthermore, the actual auxiliary information following the identifier may be transmitted as a byte string.
補助情報復号装置91で復号したネットワークパラメータの補助情報は、ポスト画像処理装置1002に入力する。
The auxiliary information of the network parameters decoded by the auxiliary information decoding device 91 is input to the
なお、本実施の形態の一例では、SEIでのシンタックスを示したが、SEIに限定されず、SPS、PPS、APS、スライスヘッダなどのシンタックスを用いてもよい。 Note that in the example of this embodiment, the syntax is shown as SEI, but it is not limited to SEI, and syntax such as SPS, PPS, APS, slice header, etc. may also be used.
このような構成にすることで、動画像符号化、復号方式の枠組みを大きく変更せずに、付加的な補助情報を符号化、復号することで、低レートにおいても、画像認識精度を維持するという課題が解決できる。 By configuring in this way, the problem of maintaining image recognition accuracy even at low rates can be solved by encoding and decoding additional auxiliary information without making major changes to the framework of the video encoding and decoding method.
なお、上述した実施形態における画像符号化装置11、画像復号装置31の一部、例えば、エントロピー復号部301、パラメータ復号部302、ループフィルタ305、予測画像生成部308、逆量子化・逆変換部311、加算部312、予測パラメータ導出部320、予測画像生成部101、減算部102、変換・量子化部103、エントロピー符号化部104、逆量子化・逆変換部105、ループフィルタ107、符号化パラメータ決定部110、パラメータ符号化部111、予測パラメータ導出部120をコンピュータで実現するようにしても良い。その場合、この制御機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現しても良い。なお、ここでいう「コンピュータシステム」とは、画像符号化装置11、画像復号装置31のいずれかに内蔵されたコンピュータシステムであって、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでも良い。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
In addition, a part of the
また、上述した実施形態における画像符号化装置11、画像復号装置31の一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現しても良い。画像符号化装置11、画像復号装置31の各機能ブロックは個別にプロセッサ化しても良いし、一部、または全部を集積してプロセッサ化しても良い。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現しても良い。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いても良い。
In addition, part or all of the
以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。 One embodiment of the present invention has been described in detail above with reference to the drawings, but the specific configuration is not limited to the above, and various design changes can be made without departing from the spirit of the present invention.
〔応用例〕
上述した動画像符号化装置10及び動画像復号装置30は、動画像の送信、受信、記録、再生を行う各種装置に搭載して利用することができる。なお、動画像は、カメラ等により撮像された自然動画像であってもよいし、コンピュータ等により生成された人工動画像(CGおよびGUIを含む)であってもよい。
[Application example]
The above-mentioned
(SEIペイロード)
図10は、SEIメッセージのコンテナであるSEIペイロードのシンタクスを示す図である。
(SEI payload)
FIG. 10 is a diagram showing the syntax of the SEI payload, which is a container of the SEI message.
nal_unit_typeがPREFIX_SEI_NUTの時に呼び出される。PREFIX_SEI_NUTは、スライスデータよりも前に位置するSEIであることを示している。 Called when nal_unit_type is PREFIX_SEI_NUT. PREFIX_SEI_NUT indicates that the SEI is located before the slice data.
payloadTypeが210の時、ニューラルネットワークポストフィルタ特性SEIが呼び出される。 When payloadType is 210, the neural network post-filter characteristics SEI is called.
payloadTypeが211の時、ニューラルネットワークポストフィルタアクティベーションSEIが呼び出される。 When payloadType is 211, the neural network post-filter activation SEI is called.
payloadTypeが212の時、アテンション情報SEIが呼び出される。 When payloadType is 212, the attention information SEI is called.
(SEIの復号とポストフィルタ処理)
ヘッダ復号部3020は、SEIメッセージのコンテナであるSEIペイロードを読み込み、ニューラルネットワークポストフィルタ特性SEIメッセージを復号する。例えば、ヘッダ復号部3020は、nnpfc_id、nnpfc_mode_idc、nnpfc_formatting_and_purpose_flag、nnpfc_purpose、nnpfc_reserved_zero_bit_a、nnpfc_uri_tag[i]、nnpfc_uri[i]、nnpfc_reserved_zero_bit_b、nnpfc_payload_byte[i]を復号する。
(SEI decoding and post-filtering)
The
図11は、ポスト画像処理装置1002の処理のフローチャートを示す図である。ポスト画像処理装置1002は、上記SEIメッセージのパラメータに従って以下の処理を行う。
Figure 11 is a diagram showing a flowchart of the processing of the
S6001:SEIから処理量と精度を読み込む。 S6001: Read processing volume and accuracy from SEI.
S6002:ポスト画像処理装置1002が処理可能な複雑度を超える場合には終了する。超えない場合にはS6003へ進む。
S6002: If the complexity exceeds the level that the
S6003:ポスト画像処理装置1002が処理可能な精度を超える場合には終了する。超えない場合にはS6004へ進む。
S6003: If the accuracy exceeds the processing capability of the
S6004:SEIからネットワークモデルを特定し、ポスト画像処理装置1002のトポロジーを設定する。
S6004: Identify the network model from the SEI and set the topology of the post
S6005:SEIの更新情報からネットワークモデルのパラメータを導出する。 S6005: Derive network model parameters from SEI update information.
S6006:導出されたネットワークモデルのパラメータをポスト画像処理装置1002に読み込む。
S6006: The derived network model parameters are loaded into the
S6007:ポスト画像処理装置1002のフィルタ処理を実行し、外部に出力する。
S6007: Executes filter processing in the
ただし、復号処理における輝度サンプルや色差サンプルの構築にSEIは必ずしも必要とされない。 However, the SEI is not necessarily required to construct luma and chroma samples in the decoding process.
(ポスト画像処理装置1002の詳細)
NNフィルタ部は入力画像inputTensorと入力パラメータ(例えば、QP、bSなど)を用いて、ニューラルネットワークモデルによるフィルタ処理を行う。入力画像は、コンポーネントごとの画像であってもよいし、複数コンポーネントをそれぞれチャネルとして持つ画像であってもよい。また、入力パラメータは画像と異なるチャネルに割り当ててもよい。
(Details of the post-imaging processing device 1002)
The NN filter unit performs filtering using a neural network model, using the input image inputTensor and input parameters (e.g., QP, bS, etc.). The input image may be an image for each component, or an image with multiple components as channels. In addition, the input parameters may be assigned to a channel different from the image.
NNフィルタ部は、以下の処理を繰り返し適用してもよい。 The NN filter section may repeatedly apply the following process:
NNフィルタ部は、inputTensorにカーネルk[m][i][j]を畳み込み演算(conv,convolution)し、biasを加算した出力画像outputTensorを導出する。ここで、nn=0..n-1、xx=0..width-1、yy=0..height-1であり、Σは各々mm、i、jに対する総和を表す。 The NN filter section performs a convolution operation (conv, convolution) on the inputTensor with the kernel k[m][i][j], and derives the output image outputTensor by adding bias. Here, nn=0..n-1, xx=0..width-1, yy=0..height-1, and Σ represents the sum over mm, i, and j, respectively.
outputTensor[nn][xx][yy]=ΣΣΣ(k[mm][i][j]*inputTensor[mm][xx+i-of][yy+j-of]+bias[nn])
1x1 Convの場合、Σは、各々mm=0..m-1、i=0、j=0の総和を表す。このとき、of=0を設定する。3x3 Convの場合、Σは各々mm=0..m-1、i=0..2、j=0..2の総和を表す。このとき、of=1を設定する。nはoutSamplesのチャネル数、mはinputTensorのチャネル数、widthはinputTensorとoutputTensorの幅、heightはinputTensorとoutputTensorの高さである。ofは、inputTensorとoutputTensorのサイズを同一にするために、inputTensorの周囲に設けるパディング領域のサイズである。以下、NNフィルタ部の出力が画像ではなく値(補正値)の場合には、outputTensorの代わりにcorrNNで出力を表わす。
outputTensor[nn][xx][yy]=ΣΣΣ(k[mm][i][j]*inputTensor[mm][xx+i-of][yy+j-of]+bias[nn])
For 1x1 Conv, Σ represents the sum of mm=0..m-1, i=0, j=0. In this case, of=0 is set. For 3x3 Conv, Σ represents the sum of mm=0..m-1, i=0..2, j=0..2. In this case, of=1 is set. n is the number of channels of outSamples, m is the number of channels of inputTensor, width is the width of inputTensor and outputTensor, and height is the height of inputTensor and outputTensor. of is the size of the padding area around inputTensor to make the sizes of inputTensor and outputTensor the same. In the following, when the output of the NN filter part is a value (correction value) rather than an image, the output is represented as corrNN instead of outputTensor.
なお、CWH形式のinputTensor、outputTensorではなくCHW形式のinputTensor、outputTensorで記述すると以下の処理と等価である。 Note that if you write inputTensor and outputTensor in CHW format instead of inputTensor and outputTensor in CWH format, it is equivalent to the following process.
outputTensor[nn][yy][xx]=ΣΣΣ(k[mm][i][j]*inputTensor[mm][yy+j-of][xx+i-of]+bias[nn])
また、Depth wise Convと呼ばれる以下の式で示す処理を行ってもよい。ここで、nn=0..n-1、xx=0..width-1、yy=0..height-1であり、Σは各々i、jに対する総和を表す。nはoutputTensorとinputTensorのチャネル数、widthはinputTensorとoutputTensorの幅、heightはinputTensorとoutputTensorの高さである。
outputTensor[nn][yy][xx]=ΣΣΣ(k[mm][i][j]*inputTensor[mm][yy+j-of][xx+i-of]+bias[nn])
In addition, a process called Depth-wise Conv, shown in the following formula, may be performed. Here, nn=0..n-1, xx=0..width-1, yy=0..height-1, and Σ represents the summation for i and j, respectively. n is the number of channels of outputTensor and inputTensor, width is the width of inputTensor and outputTensor, and height is the height of inputTensor and outputTensor.
outputTensor[nn][xx][yy]=ΣΣ(k[nn][i][j]*inputTensor[nn][xx+i-of][yy+j-of]+bias[nn])
またActivateと呼ばれる非線形処理、たとえばReLUを用いてもよい。
ReLU(x) = x >= 0 ? x : 0
また以下の式に示すleakyReLUを用いてもよい。
outputTensor[nn][xx][yy]=ΣΣ(k[nn][i][j]*inputTensor[nn][xx+i-of][yy+j-of]+bias[nn])
Also, a nonlinear process called Activate, for example, ReLU, may be used.
ReLU(x) = x >= 0 ? x : 0
Alternatively, leakyReLU shown in the following formula may be used.
leakyReLU(x) = x >= 0 ? x : a * x
ここでaは所定の値、例えば0.1や0.125である。また整数演算を行うために上記の全てのk、bias、aの値を整数として、convの後に右シフトを行ってもよい。
leakyReLU(x) = x >= 0 ? x : a * x
Here, a is a predetermined value, for example, 0.1 or 0.125. In order to perform integer arithmetic, all the values of k, bias, and a above may be integers, and a right shift may be performed after conv.
ReLUでは0未満の値に対しては常に0、それ以上の値に対しては入力値がそのまま出力される。一方、leakyReLUでは、0未満の値に対して、aで設定された勾配で線形処理が行われる。ReLUでは0未満の値に対する勾配が消失するため、学習が進みにくくなる場合がある。leakyReLUでは0未満の値に対する勾配が残され、上記問題が起こりにくくなる。また、上記leakyReLU(x)のうち、aの値をパラメータ化して用いるPReLUを用いてもよい。 With ReLU, 0 is always output for values less than 0, and the input value is output as is for values greater than or equal to 0. On the other hand, with leakyReLU, linear processing is performed for values less than 0 with the gradient set by a. With ReLU, the gradient for values less than 0 disappears, which can make it difficult for learning to progress. With leakyReLU, the gradient for values less than 0 remains, making the above problem less likely to occur. Also, of the above leakyReLU(x), PReLU, which uses a parameterized value of a, can be used.
(NNC)
Neural Network Coding(NNC)は、ニューラルネットワーク(NN)を効率的に圧縮するための国際標準規格ISO/IEC15938-17である。学習済みのNNの圧縮を行うことで、NNを保存や伝送を行う際の効率化が可能となる。
(NNC)
Neural Network Coding (NNC) is an international standard ISO/IEC15938-17 for efficiently compressing neural networks (NNs). Compressing trained NNs makes it possible to store and transmit NNs more efficiently.
以下にNNCの符号化・復号処理の概要について説明する。 The following provides an overview of NNC's encoding and decoding processes.
図12は、NNCの符号化装置・復号装置について示す図である。 Figure 12 shows the NNC encoding and decoding devices.
NN符号化装置801は、前処理部8011、量子化部8012、エントロピー符号化部8013を有する。NN符号化装置801は、圧縮前のNNモデルOを入力し、量子化部8012にてNNモデルOの量子化を行い、量子化モデルQを求める。NN符号化装置801は、量子化前に、前処理部8011にて枝刈り(プルーニング)やスパース化などのパラメータ削減手法を繰り返し適用してもよい。その後、エントロピー符号化部8013にて、量子化モデルQにエントロピー符号化を適用し、NNモデルの保存、伝送のためのビットストリームSを求める。
The
NN復号装置802は、エントロピー復号部8021、パラメータ復元部8022、後処理部8023を有する。NN復号装置802は、始めに伝送されたビットストリームSを入力し、エントロピー復号部8021にて、Sのエントロピー復号を行い、中間モデルRQを求める。NNモデルの動作環境がRQで使用された量子化表現を用いた推論をサポートしている場合、RQを出力し、推論に使用してもよい。そうでない場合、パラメータ復元部8022にてRQのパラメータを元の表現に復元し、中間モデルRPを求める。使用する疎なテンソル表現がNNモデルの動作環境で処理できる場合、RPを出力し、推論に使用してもよい。そうでない場合、NNモデルOと異なるテンソル、または構造表現を含まない再構成NNモデルRを求め、出力する。
The
NNC規格には、整数、浮動小数点など、特定のNNパラメータの数値表現に対する復号手法が存在する。 The NNC standard includes decoding methods for the numerical representation of specific NN parameters, including integers and floating point.
復号手法NNR_PT_INTは、整数値のパラメータからなるモデルを復号する。復号手法NNR_PT_FLOATは、NNR_PT_INTを拡張し、量子化ステップサイズdeltaを追加する。このdeltaに上記整数値を乗算し、スケーリングされた整数を生成する。deltaは、整数の量子化パラメータqpとdeltaの粒度パラメータqp_densityから、以下のように導き出される。 The NNR_PT_INT decoding method decodes a model with integer-valued parameters. The NNR_PT_FLOAT decoding method extends NNR_PT_INT by adding a quantization step size delta. This delta is multiplied by the integer value above to produce a scaled integer. Delta is derived from the integer quantization parameter qp and the granularity parameter qp_density of delta as follows:
mul = 2^(qp_density) + (qp& (2^(qp_density)-1))
delta = mul * 2^((qp >> qp_density)-qp_density)
(学習済みNNのフォーマット)
学習済みNNの表現は、層のサイズや層間の接続などのトポロジー表現と、重みやバイアスなどのパラメータ表現の2つの要素からなる。
mul = 2^(qp_density) + (qp& (2^(qp_density)-1))
delta = mul * 2^((qp >> qp_density) - qp_density)
(Format of trained NN)
The representation of a trained NN consists of two elements: a topological representation, such as the size of layers and the connections between layers, and a parameter representation, such as weights and biases.
トポロジー表現は、TensorflowやPyTorchなどのネイティブフォーマットでカバーされているが、相互運用性向上のため、Open Neural Network Exchange Format(ONNX)、Neural Network Exchange Format(NNEF)などの交換フォーマットが存在する。 Topology representation is covered by native formats such as Tensorflow and PyTorch, but to improve interoperability, exchange formats such as Open Neural Network Exchange Format (ONNX) and Neural Network Exchange Format (NNEF) exist.
また、NNC規格では、圧縮されたパラメータテンソルを含むNNCビットストリームの一部として、トポロジー情報nnr_topology_unit_payloadを伝送する。これにより、交換フォーマットだけでなく、ネイティブフォーマットで表現されたトポロジー情報との相互運用を実現する。 The NNC standard also transmits topology information nnr_topology_unit_payload as part of the NNC bitstream that contains the compressed parameter tensors. This allows interoperability with topology information expressed in native formats as well as exchange formats.
(画像符号化装置の構成)
次に、本実施形態に係る画像符号化装置11の構成について説明する。図5は、本実施形態に係る画像符号化装置11の構成を示すブロック図である。画像符号化装置11は、予測画像生成部101、減算部102、変換・量子化部103、逆量子化・逆変換部105、加算部106、ループフィルタ107、予測パラメータメモリ(予測パラメータ記憶部、フレームメモリ)108、参照ピクチャメモリ(参照画像記憶部、フレームメモリ)109、符号化パラメータ決定部110、パラメータ符号化部111、予測パラメータ導出部120、エントロピー符号化部104を含んで構成される。
(Configuration of the Image Encoding Device)
Next, the configuration of the
予測画像生成部101はCU毎に予測画像を生成する。
The predicted
減算部102は、予測画像生成部101から入力されたブロックの予測画像の画素値を、画像Tの画素値から減算して予測誤差を生成する。減算部102は予測誤差を変換・量子化部103に出力する。
The
変換・量子化部103は、減算部102から入力された予測誤差に対し、周波数変換によって変換係数を算出し、量子化によって量子化変換係数を導出する。変換・量子化部103は、量子化変換係数をパラメータ符号化部111及び逆量子化・逆変換部105に出力する。
The transform/
逆量子化・逆変換部105は、画像復号装置31における逆量子化・逆変換部311(図5)と同じであり、説明を省略する。算出した予測誤差は加算部106に出力される。
The inverse quantization and
パラメータ符号化部111は、ヘッダ符号化部1110、CT情報符号化部1111、CU符号化部1112(予測モード符号化部)を備えている。CU符号化部1112はさらにTU符号化部1114を備えている。以下、各モジュールの概略動作を説明する。
The
ヘッダ符号化部1110はヘッダ情報、分割情報、予測情報、量子化変換係数等のパラメータの符号化処理を行う。
The
CT情報符号化部1111は、QT、MT(BT、TT)分割情報等を符号化する。
The CT
CU符号化部1112はCU情報、予測情報、分割情報等を符号化する。
The
TU符号化部1114は、TUに予測誤差が含まれている場合に、QP更新情報と量子化予測誤差を符号化する。
When a TU contains a prediction error, the
CT情報符号化部1111、CU符号化部1112は、インター予測パラメータ、量子化変換係数等のシンタックス要素をパラメータ符号化部111に供給する。
The CT
エントロピー符号化部104には、パラメータ符号化部111から量子化変換係数と符号化パラメータが入力される。エントロピー符号化部104はこれらをエントロピー符号化して符号化データTeを生成し、出力する。
The
予測パラメータ導出部120は、符号化パラメータ決定部110から入力されたパラメータからターインター予測パラメータ及びイントラ予測パラメータを導出する。導出されたターインター予測パラメータ及びイントラ予測パラメータは、パラメータ符号化部111に出力される。
The prediction
加算部106は、予測画像生成部101から入力された予測ブロックの画素値と逆量子化・逆変換部105から入力された予測誤差を画素毎に加算して復号画像を生成する。加算部106は生成した復号画像を参照ピクチャメモリ109に記憶する。
The
ループフィルタ107は加算部106が生成した復号画像に対し、デブロッキングフィルタ、SAO、ALFを施す。なお、ループフィルタ107は、必ずしも上記3種類のフィルタを含まなくてもよく、例えばデブロッキングフィルタのみの構成であってもよい。
The
予測パラメータメモリ108は、符号化パラメータ決定部110が生成した予測パラメータを、対象ピクチャ及びCU毎に予め定めた位置に記憶する。
The
参照ピクチャメモリ109は、ループフィルタ107が生成した復号画像を対象ピクチャ及びCU毎に予め定めた位置に記憶する。
The
符号化パラメータ決定部110は、符号化パラメータの複数のセットのうち、1つのセットを選択する。符号化パラメータとは、上述したQT、BTあるいはTT分割情報、予測パラメータ、あるいはこれらに関連して生成される符号化の対象となるパラメータである。予測画像生成部101は、これらの符号化パラメータを用いて予測画像を生成する。
The coding
なお、上述した実施形態における画像符号化装置11、画像復号装置31の一部、例えば、エントロピー復号部301、パラメータ復号部302、ループフィルタ305、予測画像生成部308、逆量子化・逆変換部311、加算部312、予測パラメータ導出部320、予測画像生成部101、減算部102、変換・量子化部103、エントロピー符号化部104、逆量子化・逆変換部105、ループフィルタ107、符号化パラメータ決定部110、パラメータ符号化部111、予測パラメータ導出部120をコンピュータで実現するようにしても良い。その場合、この制御機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現しても良い。なお、ここでいう「コンピュータシステム」とは、画像符号化装置11、画像復号装置31のいずれかに内蔵されたコンピュータシステムであって、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでも良い。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
In addition, a part of the
また、上述した実施形態における画像符号化装置11、画像復号装置31の一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現しても良い。画像符号化装置11、画像復号装置31の各機能ブロックは個別にプロセッサ化しても良いし、一部、または全部を集積してプロセッサ化しても良い。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現しても良い。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いても良い。
In addition, part or all of the
以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。 One embodiment of the present invention has been described in detail above with reference to the drawings, but the specific configuration is not limited to the above, and various design changes can be made without departing from the spirit of the present invention.
本実施の形態を図1に基づいて説明すると、動画像符号化装置10は、入力画像を符号化する画像符号化装置11と、入力画像に対して、領域毎に複数の値を持つアテンション情報を補助情報として符号化する補助情報符号化装置81を有することを特徴とする。また、補助情報符号化装置81は、領域毎に複数の値を持つアテンション情報に関して、適用するニューラルネットワークを特定する情報を補助情報として符号化することを特徴とする。
This embodiment will be described with reference to FIG. 1. A
動画像復号装置30は、符号化データから画像を復号する画像復号装置31と、画像復号装置31で復号した画像に対して、領域毎に複数の値を持つアテンション情報を補助情報として復号する補助情報復号装置91を有することを特徴とする。また、補助情報復号装置91は
、領域毎に複数の値を持つアテンション情報に関して、適用するニューラルネットワークを特定する情報を復号することを特徴とする。
The
本発明の実施形態は上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。すなわち、請求項に示した範囲で適宜変更した技術的手段を組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The embodiments of the present invention are not limited to the above-mentioned embodiments, and various modifications are possible within the scope of the claims. In other words, embodiments obtained by combining technical means that are appropriately modified within the scope of the claims are also included in the technical scope of the present invention.
本発明の実施形態は、画像データが符号化された符号化データを復号する動画像復号装置、および、画像データが符号化された符号化データを生成する動画像符号化装置に好適に適用することができる。また、動画像符号化装置によって生成され、動画像復号装置によって参照される符号化データのデータ構造に好適に適用することができる。 Embodiments of the present invention can be suitably applied to a video decoding device that decodes coded data in which image data is coded, and a video coding device that generates coded data in which image data is coded. They can also be suitably applied to the data structure of coded data that is generated by a video coding device and referenced by the video decoding device.
1 動画像伝送システム
30 動画像復号装置
31 画像復号装置
301 エントロピー復号部
302 パラメータ復号部
305、107 ループフィルタ
306、109 参照ピクチャメモリ
307、108 予測パラメータメモリ
308、101 予測画像生成部
311、105 逆量子化・逆変換部
312、106 加算部
320 予測パラメータ導出部
10 動画像符号化装置
11 画像符号化装置
102 減算部
103 変換・量子化部
104 エントロピー符号化部
110 符号化パラメータ決定部
111 パラメータ符号化部
120 予測パラメータ導出部
71 補助情報作成装置
81 補助情報符号化装置
91 補助情報復号装置
1001 プレ画像処理装置
1002 ポスト画像処理装置
1. Video transmission system
30 Video Decoding Device
31 Image Decoding Device
301 Entropy Decoding Unit
302 Parameter Decoding Unit
305, 107 Loop Filter
306, 109 Reference Picture Memory
307, 108 Prediction parameter memory
308, 101 Prediction image generation unit
311, 105 Inverse quantization and inverse transformation section
312, 106 Addition section
320 Prediction Parameter Derivation Unit
10 Video Encoding Device
11 Image Encoding Device
102 Subtraction section
103 Transformation and Quantization Section
104 Entropy coding unit
110 Encoding parameter determination unit
111 Parameter Encoding Unit
120 Prediction parameter derivation part
71 Auxiliary information creation device
81 Auxiliary information coding device
91 Auxiliary Information Decoding Device
1001 Pre-image processing device
1002 Post image processing device
Claims (4)
前記画像復号装置で復号した画像に対して、領域毎に複数の値を持つアテンション情報を補助情報として復号する補助情報復号装置
を有することを特徴とする動画像復号装置。 an image decoding device that decodes an image from encoded data;
A video decoding device comprising an auxiliary information decoding device that decodes attention information having a plurality of values for each region as auxiliary information for an image decoded by the image decoding device.
領域毎に複数の値を持つアテンション情報に関して、
適用するニューラルネットワークを特定する情報を復号することを特徴とする請求項1記載の動画像復号装置。 The auxiliary information decoding device comprises:
Regarding attention information with multiple values for each region,
2. The video decoding device according to claim 1, further comprising: decoding information for specifying a neural network to be applied.
前記入力画像に対して、領域毎に複数の値を持つアテンション情報を補助情報として符号化する補助情報符号化装置
を有することを特徴とする動画像符号化装置。 an image encoding device for encoding an input image;
A video encoding device comprising an auxiliary information encoding device for encoding attention information having a plurality of values for each region of the input image as auxiliary information.
領域毎に複数の値を持つアテンション情報に関して、
適用するニューラルネットワークを特定する情報を補助情報として符号化することを特徴とする請求項3記載の動画像符号化装置。
The auxiliary information encoding device comprises:
Regarding attention information with multiple values for each region,
4. The video encoding device according to claim 3, wherein information for specifying a neural network to be applied is encoded as auxiliary information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022188016A JP2024076475A (en) | 2022-11-25 | 2022-11-25 | Video encoding device, video decoding device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022188016A JP2024076475A (en) | 2022-11-25 | 2022-11-25 | Video encoding device, video decoding device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024076475A true JP2024076475A (en) | 2024-06-06 |
Family
ID=91332686
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022188016A Pending JP2024076475A (en) | 2022-11-25 | 2022-11-25 | Video encoding device, video decoding device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024076475A (en) |
-
2022
- 2022-11-25 JP JP2022188016A patent/JP2024076475A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101743852B1 (en) | Signaling of regions of interest and gradual decoding refresh in video coding | |
KR102408765B1 (en) | Video coding and decoding | |
JP7368603B2 (en) | Filtering-based video coding device and method | |
EP3132607B1 (en) | Signaling reference layers for 3d color prediction for color gamut scalability | |
KR20220017439A (en) | Scaling list parameter-based video or image coding | |
JP2023126404A (en) | Video or image coding based on signaling of scaling list data | |
WO2019065488A1 (en) | Image decoding device and image encoding device | |
KR20220101711A (en) | Video or video coding based on NAL unit related information | |
KR20220101712A (en) | NAL unit type-based picture or video coding for slices or pictures | |
KR20220017440A (en) | Signaling-based video or image coding of scaling list data | |
KR20220017438A (en) | Image or video coding based on scaling list data | |
KR20210130235A (en) | Scaling list parameter-based video or image coding | |
JP2024076475A (en) | Video encoding device, video decoding device | |
KR20210149867A (en) | Scaling list parameter-based video or image coding | |
KR20220137998A (en) | How to signal deblocking filter parameter information in a video or image coding system | |
KR20220050203A (en) | Video or video coding based on advanced grammar elements related to transform skip and palette coding | |
KR20210129224A (en) | Scaling list-based video or video coding | |
WO2023112784A1 (en) | Moving image decoding device, post image processing device, moving image encoding device, moving image decoding method, and moving image encoding method | |
CN112616059A (en) | Moving image conversion device and method, and encoded data generation device | |
US20240107040A1 (en) | Video coding apparatus and video decoding apparatus | |
WO2023136257A1 (en) | Video encoding device and video decoding device | |
WO2023100970A1 (en) | Video decoding apparatus and video coding apparatus | |
US20230328292A1 (en) | Video coding apparatus and video decoding apparatus | |
US11695929B2 (en) | Image encoding/decoding method and apparatus performing residual processing by using adaptive color space transformation, and method for transmitting bitstream | |
US20230421785A1 (en) | Video coding apparatus and video decoding apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20221207 |