JP2023053272A - Image encoding device, image decoding device, and program - Google Patents

Image encoding device, image decoding device, and program Download PDF

Info

Publication number
JP2023053272A
JP2023053272A JP2023020232A JP2023020232A JP2023053272A JP 2023053272 A JP2023053272 A JP 2023053272A JP 2023020232 A JP2023020232 A JP 2023020232A JP 2023020232 A JP2023020232 A JP 2023020232A JP 2023053272 A JP2023053272 A JP 2023053272A
Authority
JP
Japan
Prior art keywords
unit
image
orthogonal transform
transform
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2023020232A
Other languages
Japanese (ja)
Other versions
JP7483964B2 (en
Inventor
俊輔 岩村
Shunsuke Iwamura
敦郎 市ヶ谷
Atsuro Ichigaya
慎平 根本
Shimpei Nemoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK filed Critical Nippon Hoso Kyokai NHK
Priority to JP2023020232A priority Critical patent/JP7483964B2/en
Publication of JP2023053272A publication Critical patent/JP2023053272A/en
Application granted granted Critical
Publication of JP7483964B2 publication Critical patent/JP7483964B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve coding efficiency.
SOLUTION: An image encoding device (1) encodes a target image in block units obtained by dividing a current image in frame units. The image encoding device (1) includes: a prediction unit (172) for predicting the target image using a plurality of reference images to generate a predicted image; an evaluation unit (180) for generating map information indicating a distribution of an error in the predicted image by evaluating similarity between the plurality of reference images in pixel units; a subtraction unit (110) for calculating a prediction residual indicating a difference between the target block and the prediction image in pixel units; a determination unit (190) for determining an orthogonal transformation to be applied to the prediction residual on the basis of the map information; and a transformation unit (121) for performing an orthogonal transformation process on the prediction residual by the determined orthogonal transformation.
SELECTED DRAWING: Figure 1
COPYRIGHT: (C)2023,JPO&INPIT

Description

本発明は、画像符号化装置、画像復号装置、及びプログラムに関する。 The present invention relates to an image encoding device, an image decoding device, and a program.

従来、フレーム単位の現画像を分割して得られたブロック単位の対象画像を符号化する画像符号化装置において、複数の参照画像を用いて対象画像を予測して予測画像を生成し、対象画像と予測画像との間の差分を示す予測残差に対して直交変換処理を行って変換係数を算出し、変換係数を量子化及びエントロピー符号化して符号化データを出力する方法が知られている。 Conventionally, in an image coding apparatus that encodes a target image in units of blocks obtained by dividing a current image in units of frames, a prediction image is generated by predicting a target image using a plurality of reference images, and a target image is generated. A known method is to calculate transform coefficients by performing orthogonal transform processing on a prediction residual that indicates the difference between an image and a predicted image, quantize and entropy-encode the transform coefficients, and output encoded data. .

また、画像符号化装置と同様に、画像復号装置は、複数の参照画像を用いて対象画像を予測して予測画像を生成する。画像復号装置は、符号化データを復号して変換係数を取得するとともに逆量子化し、逆量子化後の変換係数に対して逆直交変換処理を行って予測残差を算出し、予測画像と予測残差とを合成することにより対象画像を復号する。 Also, like the image encoding device, the image decoding device predicts a target image using a plurality of reference images to generate a predicted image. An image decoding device decodes encoded data to obtain transform coefficients, performs inverse quantization, performs inverse orthogonal transform processing on the transform coefficients after inverse quantization, calculates prediction residuals, and outputs predicted images and predictions. The target image is decoded by synthesizing the residuals.

HEVCでは、変換処理(直交変換処理及び逆直交変換処理)に適用可能な直交変換として、DCT-2及びDST-7の2種類が規定されている(非特許文献1参照)。具体的には、HEVCでは、対象画像のブロックサイズや、対象画像に適用するイントラ予測のモードに基づいて、2種類の直交変換のうちどちらの種類の直交変換を適用するかを決定する。 HEVC defines two types of orthogonal transforms, DCT-2 and DST-7, as applicable to transform processing (orthogonal transform processing and inverse orthogonal transform processing) (see Non-Patent Document 1). Specifically, in HEVC, based on the block size of the target image and the mode of intra prediction to be applied to the target image, which of the two types of orthogonal transform is to be applied is determined.

Recommendation ITU-T H.265,(12/2016), “High efficiency video coding”, International Telecommunication UnionRecommendation ITU-T H. 265, (12/2016), "High efficiency video coding", International Telecommunications Union

しかしながら、対象画像のブロックサイズや対象画像に適用するイントラ予測のモードに基づいて直交変換の種類を決定するだけでは、予測残差におけるエネルギー分布に応じた最適な種類の直交変換を適用することができない。例えば、本来DCT-2の方が効率
的に予測残差のエネルギーを集中させる場合であっても、適用する直交変換としてDST-7を決定してしまう場合があるため、符号化効率が低下してしまう問題がある。
However, if the type of orthogonal transform is only determined based on the block size of the target image and the intra prediction mode to be applied to the target image, it is possible to apply the optimal type of orthogonal transform according to the energy distribution in the prediction residual. Can not. For example, even if DCT-2 is originally more efficient in concentrating the energy of prediction residuals, there are cases where DST-7 is determined as the orthogonal transform to be applied, which reduces coding efficiency. there is a problem

また、予測残差のエネルギーをより効率的に集中させる直交変換の方法としてKLTが挙げられるが、画像符号化装置で行ったKLTの逆処理のための情報を画像復号装置側で必要とすることから、伝送すべき情報量が増大してしまい、符号化効率が低下してしまう問題がある。 KLT is an orthogonal transform method that concentrates the energy of prediction residuals more efficiently. Therefore, there is a problem that the amount of information to be transmitted increases and the coding efficiency decreases.

そこで、本発明は、符号化効率を改善できる画像符号化装置、画像復号装置、及びプログラムを提供することを目的とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide an image encoding device, an image decoding device, and a program capable of improving encoding efficiency.

第1の特徴に係る画像符号化装置は、フレーム単位の現画像を分割して得られたブロック単位の対象画像を符号化する画像符号化装置であって、複数の参照画像を用いて前記対象画像を予測して予測画像を生成する予測部と、前記複数の参照画像間の類似度を画素単位で評価することにより、前記予測画像における誤差の分布を示すマップ情報を生成する評価部と、前記対象ブロックと前記予測画像との差分を示す予測残差を画素単位で算出する減算部と、前記予測残差に適用する直交変換を前記マップ情報に基づいて決定する決定部と、前記決定された直交変換によって前記予測残差に対する直交変換処理を行う変換部と、を備えることを要旨とする。他の特徴に係る画像符号化装置は、フレーム単位の現画像を分割して得られたブロック単位の対象画像を符号化する画像符号化装置であって、複数の参照画像を用いて前記対象画像を予測して予測画像を生成する予測部と、前記複数の参照画像間の類似度を示す差分絶対値和を前記ブロックよりも小さい領域単位であって複数の画素からなる前記領域単位で算出する評価部と、を備え、前記評価部が前記領域単位で算出した前記差分絶対値和に基づいて符号化の処理を制御することを要旨とする。 An image encoding device according to a first feature is an image encoding device that encodes a target image in units of blocks obtained by dividing a current image in units of frames, the target image using a plurality of reference images. a prediction unit that predicts an image to generate a predicted image; an evaluation unit that generates map information indicating the distribution of errors in the predicted image by evaluating the similarity between the plurality of reference images on a pixel-by-pixel basis; a subtraction unit that calculates a prediction residual indicating a difference between the target block and the predicted image on a pixel-by-pixel basis; a determination unit that determines an orthogonal transform to be applied to the prediction residual based on the map information; and a transform unit that performs orthogonal transform processing on the prediction residual by orthogonal transform. An image encoding device according to another feature is an image encoding device that encodes a target image in units of blocks obtained by dividing a current image in units of frames, wherein the target image is encoded using a plurality of reference images. and a prediction unit that generates a predicted image by predicting the reference images, and a sum of absolute differences indicating the similarity between the plurality of reference images is calculated for each region that is smaller than the block and is made up of a plurality of pixels. and an evaluation unit, wherein the evaluation unit controls encoding processing based on the sum of absolute differences calculated for each area.

第2の特徴に係る画像復号装置は、フレーム単位の現画像を分割して得られたブロック単位の対象画像を復号する画像復号装置であって、符号化データを復号することにより変換係数を取得する復号部と、複数の参照画像を用いて前記対象画像を予測して予測画像を生成する予測部と、前記複数の参照画像間の類似度を画素単位で評価することにより、前記予測画像における誤差の分布を示すマップ情報を生成する評価部と、前記変換係数に適用する逆直交変換を前記マップ情報に基づいて決定する決定部と、前記決定された逆直交変換によって前記変換係数に対する逆直交変換処理を行う逆変換部と、を備えることを要旨とする。他の特徴に係る画像復号装置は、フレーム単位の現画像を分割して得られたブロック単位の対象画像を復号する画像復号装置であって、複数の参照画像を用いて前記対象画像を予測して予測画像を生成する予測部と、前記複数の参照画像間の類似度を示す差分絶対値和を前記ブロックよりも小さい領域単位であって複数の画素からなる前記領域単位で算出する評価部と、を備え、前記評価部が前記領域単位で算出した前記差分絶対値和に基づいて復号の処理を制御することを要旨とする。 An image decoding device according to a second feature is an image decoding device that decodes a target image in units of blocks obtained by dividing a current image in units of frames, and acquires transform coefficients by decoding encoded data. a decoding unit that predicts the target image using a plurality of reference images to generate a predicted image; and a similarity between the plurality of reference images is evaluated in units of pixels, so that an evaluation unit that generates map information indicating the distribution of errors; a determination unit that determines an inverse orthogonal transform to be applied to the transform coefficients based on the map information; and an inverse orthogonal transform to the transform coefficients by the determined inverse orthogonal transform. and an inverse transform unit that performs transform processing. An image decoding device according to another feature is an image decoding device that decodes a target image in units of blocks obtained by dividing a current image in units of frames, and predicts the target image using a plurality of reference images. a predicting unit for generating a predicted image by using a prediction unit; and an evaluating unit for calculating a difference absolute value sum indicating a degree of similarity between the plurality of reference images in units of regions smaller than the block and made up of a plurality of pixels. , wherein the evaluation unit controls decoding processing based on the sum of absolute differences calculated for each region.

第3の特徴に係るプログラムは、コンピュータを第1の特徴に係る画像符号化装置として機能させることを要旨とする。 A program according to a third feature is summarized to cause a computer to function as the image encoding device according to the first feature.

第4の特徴に係るプログラムは、コンピュータを第2の特徴に係る画像復号装置として機能させることを要旨とする。 A gist of a program according to a fourth feature is to cause a computer to function as the image decoding device according to the second feature.

本発明によれば、符号化効率を改善できる画像符号化装置、画像復号装置、及びプログラムを提供できる。 ADVANTAGE OF THE INVENTION According to this invention, the image encoding apparatus which can improve encoding efficiency, an image decoding apparatus, and a program can be provided.

第1実施形態に係る画像符号化装置の構成を示す図である。It is a figure which shows the structure of the image coding apparatus which concerns on 1st Embodiment. 第1乃至第3実施形態に係るインター予測の一例を示す図である。FIG. 4 is a diagram showing an example of inter prediction according to the first to third embodiments; FIG. 第1乃至第3実施形態に係る評価部の構成の一例を示す図である。It is a figure which shows an example of a structure of the evaluation part which concerns on 1st thru|or 3rd embodiment. 第1実施形態に係る適応変換生成部の動作を示す図である。It is a figure which shows operation|movement of the adaptive conversion production|generation part which concerns on 1st Embodiment. 第1実施形態に係る画像復号装置の構成を示す図である。It is a figure which shows the structure of the image decoding apparatus which concerns on 1st Embodiment. 第2実施形態に係る画像符号化装置の構成を示す図である。FIG. 11 is a diagram showing the configuration of an image encoding device according to a second embodiment; FIG. 第2実施形態に係る画像復号装置の構成を示す図である。FIG. 10 is a diagram showing the configuration of an image decoding device according to a second embodiment; FIG. 第3実施形態に係る画像符号化装置の構成を示す図である。FIG. 11 is a diagram showing the configuration of an image encoding device according to a third embodiment; FIG. 第3実施形態に係る特徴量評価部の動作を示す図である。It is a figure which shows operation|movement of the feature-value evaluation part which concerns on 3rd Embodiment. 第3実施形態に係る画像復号装置の構成を示す図である。FIG. 11 is a diagram showing the configuration of an image decoding device according to a third embodiment; FIG.

図面を参照して、実施形態に係る画像符号化装置及び画像復号装置について説明する。以下の図面の記載において、同一又は類似の部分には同一又は類似の符号を付している。 An image encoding device and an image decoding device according to embodiments will be described with reference to the drawings. In the following description of the drawings, the same or similar parts are denoted by the same or similar reference numerals.

<第1実施形態>
第1実施形態に係る画像符号化装置及び画像復号装置について説明する。第1実施形態に係る画像符号化装置及び画像復号装置は、MPEGに代表される動画の符号化及び復号を行う。
<First Embodiment>
An image encoding device and an image decoding device according to the first embodiment will be described. An image encoding device and an image decoding device according to the first embodiment encode and decode moving images represented by MPEG.

(画像符号化装置)
図1は、第1実施形態に係る画像符号化装置1の構成を示す図である。図1に示すように、画像符号化装置1は、ブロック分割部100と、減算部110と、変換・量子化部120と、エントロピー符号化部130と、逆量子化・逆変換部140と、合成部150と、メモリ160と、予測部170と、評価部180と、決定部190とを備える。
(Image encoding device)
FIG. 1 is a diagram showing the configuration of an image encoding device 1 according to the first embodiment. As shown in FIG. 1, the image coding apparatus 1 includes a block division unit 100, a subtraction unit 110, a transform/quantization unit 120, an entropy coding unit 130, an inverse quantization/inverse transform unit 140, It comprises a synthesis unit 150 , a memory 160 , a prediction unit 170 , an evaluation unit 180 and a determination unit 190 .

ブロック分割部100は、動画像を構成するフレーム(或いはピクチャ)単位の入力画像をブロック状の小領域に分割し、分割により得たブロックを減算部110に出力する。ブロックのサイズは、例えば32×32画素、16×16画素、8×8画素、又は4×4画素等である。ブロックの形状は正方形に限らず、長方形であってもよい。ブロックは、画像符号化装置1が符号化を行う単位及び画像復号装置2が復号を行う単位である。 The block division unit 100 divides an input image in units of frames (or pictures) constituting a moving image into small block-shaped regions, and outputs the blocks obtained by the division to the subtraction unit 110 . The block size is, for example, 32×32 pixels, 16×16 pixels, 8×8 pixels, or 4×4 pixels. The shape of the block is not limited to square, and may be rectangular. A block is a unit for encoding by the image encoding device 1 and a unit for decoding by the image decoding device 2 .

減算部110は、ブロック分割部100から入力されたブロックと当該ブロックを予測部170が予測して得た予測画像(予測ブロック)との間の画素単位での差分を示す予測残差を算出する。具体的には、減算部110は、ブロックの各画素値から予測画像の各画素値を減算することにより予測残差を算出し、算出した予測残差を変換・量子化部120に出力する。 The subtraction unit 110 calculates a prediction residual indicating a pixel-by-pixel difference between the block input from the block division unit 100 and a prediction image (prediction block) obtained by predicting the block by the prediction unit 170. . Specifically, the subtraction unit 110 calculates a prediction residual by subtracting each pixel value of the predicted image from each pixel value of the block, and outputs the calculated prediction residual to the transformation/quantization unit 120 .

変換・量子化部120は、ブロック単位で直交変換処理及び量子化処理を行う。変換・量子化部120は、変換部121と、量子化部122とを備える。 The transform/quantization unit 120 performs orthogonal transform processing and quantization processing on a block-by-block basis. The transform/quantization unit 120 includes a transform unit 121 and a quantization unit 122 .

変換部121は、減算部110から入力された予測残差に対して直交変換処理を行って変換係数を算出し、算出した変換係数を量子化部122に出力する。直交変換とは、例えば、離散コサイン変換(DCT:Discrete Cosine Transform)や離散サイン変換(DST:Discrete Sine Transform)、カルーネンレーブ変換(KLT: Karhunen Loeve Transform)等をいう。第1実施形態において、変換部121は、KLTにより直交変換処理を行う。 The transform unit 121 performs orthogonal transform processing on the prediction residual input from the subtraction unit 110 to calculate transform coefficients, and outputs the calculated transform coefficients to the quantization unit 122 . Orthogonal transformation refers to, for example, discrete cosine transform (DCT), discrete sine transform (DST), Karhunen Loeve transform (KLT), and the like. In the first embodiment, the transform unit 121 performs orthogonal transform processing using KLT.

量子化部122は、変換部121から入力された変換係数を量子化パラメータ(Qp)及び量子化行列を用いて量子化し、量子化した変換係数をエントロピー符号化部130及び逆量子化・逆変換部140に出力する。なお、量子化パラメータ(Qp)は、ブロック内の各変換係数に対して共通して適用されるパラメータであって、量子化の粗さを定めるパラメータである。量子化行列は、各変換係数を量子化する際の量子化値を要素として有する行列である。 The quantization unit 122 quantizes the transform coefficients input from the transform unit 121 using the quantization parameter (Qp) and the quantization matrix, and the quantized transform coefficients are subjected to the entropy coding unit 130 and inverse quantization/inverse transform. Output to unit 140 . Note that the quantization parameter (Qp) is a parameter commonly applied to each transform coefficient in a block, and is a parameter that determines coarseness of quantization. A quantization matrix is a matrix having, as elements, quantization values for quantizing each transform coefficient.

エントロピー符号化部130は、量子化部122から入力された変換係数に対してエントロピー符号化を行い、データ圧縮を行って符号化データ(ビットストリーム)を生成し、符号化データを画像符号化装置1の外部に出力する。エントロピー符号化には、ハフマン符号やCABAC(Context-based Adaptive Binary
Arithmetic Coding;コンテキスト適応型2値算術符号)等を用いることができる。なお、エントロピー符号化部130は、予測部170から予測に関する制御情報が入力され、入力された制御情報のエントロピー符号化も行う。
The entropy coding unit 130 performs entropy coding on the transform coefficients input from the quantization unit 122, performs data compression to generate coded data (bitstream), and transmits the coded data to the image coding device. Output to the outside of 1. For entropy coding, Huffman code and CABAC (Context-based Adaptive Binary
Arithmetic Coding (context adaptive binary arithmetic code) or the like can be used. The entropy coding unit 130 also receives control information about prediction from the prediction unit 170 and performs entropy coding on the input control information.

逆量子化・逆変換部140は、ブロック単位で逆量子化処理及び逆直交変換処理を行う。逆量子化・逆変換部140は、逆量子化部141と、逆変換部142とを備える。 The inverse quantization/inverse transform unit 140 performs inverse quantization processing and inverse orthogonal transform processing on a block-by-block basis. The inverse quantization/inverse transform unit 140 includes an inverse quantization unit 141 and an inverse transform unit 142 .

逆量子化部141は、量子化部122が行う量子化処理に対応する逆量子化処理を行う。具体的には、逆量子化部141は、量子化部122から入力された変換係数を、量子化パラメータ(Qp)及び量子化行列を用いて逆量子化することにより変換係数を復元し、復元した変換係数を逆変換部142に出力する。 The inverse quantization unit 141 performs inverse quantization processing corresponding to the quantization processing performed by the quantization unit 122 . Specifically, the inverse quantization unit 141 restores the transform coefficients by inversely quantizing the transform coefficients input from the quantization unit 122 using the quantization parameter (Qp) and the quantization matrix, and restores the transform coefficients. The resulting transform coefficients are output to the inverse transform unit 142 .

逆変換部142は、変換部121が行う直交変換処理に対応する逆直交変換処理を行う。例えば、変換部121が離散コサイン変換を行った場合には、逆変換部142は逆離散コサイン変換を行う。逆変換部142は、逆量子化部141から入力された変換係数に対して逆直交変換処理を行って予測残差を復元し、復元した予測残差である復元予測残差を合成部150に出力する。 The inverse transform unit 142 performs inverse orthogonal transform processing corresponding to the orthogonal transform processing performed by the transform unit 121 . For example, when the transform unit 121 performs discrete cosine transform, the inverse transform unit 142 performs inverse discrete cosine transform. The inverse transform unit 142 restores the prediction residual by performing inverse orthogonal transform processing on the transform coefficients input from the inverse quantization unit 141, and supplies the restored prediction residual, which is the restored prediction residual, to the synthesis unit 150. Output.

合成部150は、逆変換部142から入力された復元予測残差を、予測部170から入力された予測画像と画素単位で合成する。合成部150は、復元予測残差の各画素値と予測画像の各画素値を加算してブロックを再構成(復号)し、復号したブロック単位の復号画像をメモリ160に出力する。かかる復号画像は、再構成画像と称されることがある。 The synthesizing unit 150 synthesizes the restored prediction residual input from the inverse transform unit 142 with the predicted image input from the predicting unit 170 on a pixel-by-pixel basis. The synthesizing unit 150 adds each pixel value of the restored prediction residual and each pixel value of the predicted image to reconstruct (decode) the block, and outputs the decoded block-by-block decoded image to the memory 160 . Such decoded images are sometimes referred to as reconstructed images.

メモリ160は、合成部150から入力された復号画像を記憶する。メモリ160は、復号画像をフレーム単位で記憶する。メモリ160は、記憶している復号画像を予測部170に出力する。なお、合成部150とメモリ160との間にループフィルタが設けられてもよい。 The memory 160 stores the decoded image input from the synthesizing section 150 . The memory 160 stores decoded images in units of frames. The memory 160 outputs the stored decoded image to the prediction section 170 . Note that a loop filter may be provided between the synthesizing section 150 and the memory 160 .

予測部170は、ブロック単位で予測を行う。予測部170は、イントラ予測部171と、インター予測部172と、切替部173とを備える。 The prediction unit 170 performs prediction on a block-by-block basis. The prediction unit 170 includes an intra prediction unit 171 , an inter prediction unit 172 and a switching unit 173 .

イントラ予測部171は、メモリ160に記憶された復号画像のうち、予測対象のブロックの周辺にある復号画素値を参照してイントラ予測画像を生成し、生成したイントラ予測画像を切替部173に出力する。また、イントラ予測部171は、複数のイントラ予測モードの中から、対象ブロックに適用する最適なイントラ予測モードを選択し、選択したイントラ予測モードを用いてイントラ予測を行う。イントラ予測部171は、選択したイントラ予測モードに関する制御情報をエントロピー符号化部130に出力する。なお、イントラ予測モードには、Planar予測、DC予測、及び方向性予測がある。 The intra prediction unit 171 generates an intra prediction image by referring to the decoded pixel values around the block to be predicted among the decoded images stored in the memory 160, and outputs the generated intra prediction image to the switching unit 173. do. Also, the intra prediction unit 171 selects an optimal intra prediction mode to be applied to the target block from among a plurality of intra prediction modes, and performs intra prediction using the selected intra prediction mode. The intra prediction unit 171 outputs control information regarding the selected intra prediction mode to the entropy coding unit 130 . Note that intra prediction modes include planar prediction, DC prediction, and directional prediction.

インター予測部172は、メモリ160に記憶された復号画像を参照画像として用いて、ブロックマッチングなどの手法により動きベクトルを算出し、予測対象のブロックを予測してインター予測画像を生成し、生成したインター予測画像を切替部173に出力する。インター予測部172は、複数の参照画像を用いるインター予測(典型的には、双予測)や、1つの参照画像を用いるインター予測(片方向予測)の中から最適なインター予測方法を選択し、選択したインター予測方法を用いてインター予測を行う。インター予測部172は、インター予測に関する制御情報(インター予測方法や動きベクトルの情報等)をエントロピー符号化部130に出力する。インター予測部172は、インター予測画像を生成するために複数の参照画像を用いる場合に、当該複数の参照画像を評価部180に出力する。 The inter prediction unit 172 uses the decoded image stored in the memory 160 as a reference image, calculates a motion vector by a method such as block matching, predicts a block to be predicted, and generates an inter prediction image. The inter prediction image is output to switching section 173 . The inter prediction unit 172 selects an optimum inter prediction method from among inter prediction using a plurality of reference images (typically bi-prediction) and inter prediction using one reference image (unidirectional prediction), Perform inter prediction using the selected inter prediction method. The inter prediction unit 172 outputs control information related to inter prediction (inter prediction method, motion vector information, etc.) to the entropy encoding unit 130 . When using a plurality of reference images to generate an inter prediction image, the inter prediction unit 172 outputs the plurality of reference images to the evaluation unit 180 .

なお、複数の参照画像を用いて行う予測は、インター予測における双予測が代表的なものであるが、これに限定されない。予測部170は、複数の参照画像を用いてイントラブロックコピーによる予測を行ってもよい。イントラブロックコピーでは、現フレームと同じフレーム内の参照画像が現フレーム内のブロックの予測に用いられる。複数の参照画像を用いてイントラブロックコピーによる予測を行う場合、予測部170は、当該複数の参照画像を評価部180に出力する。 Prediction performed using a plurality of reference images is typically bi-prediction in inter-prediction, but is not limited to this. The prediction unit 170 may perform intra block copy prediction using a plurality of reference images. In intra-block copying, reference pictures in the same frame as the current frame are used to predict blocks in the current frame. When performing intra-block copy prediction using a plurality of reference images, the prediction unit 170 outputs the plurality of reference images to the evaluation unit 180 .

切替部173は、イントラ予測部171から入力されるイントラ予測画像とインター予測部172から入力されるインター予測画像とを切り替えて、いずれかの予測画像を減算部110及び合成部150に出力する。 The switching unit 173 switches between the intra prediction image input from the intra prediction unit 171 and the inter prediction image input from the inter prediction unit 172 , and outputs either prediction image to the subtraction unit 110 and the synthesis unit 150 .

評価部180は、予測部170から入力された複数の参照画像間の類似度を画素単位で評価することにより、当該複数の参照画像を用いて生成された予測画像における誤差の分布を示すマップ情報を生成し、生成したマップ情報を決定部190に出力する。評価部180の詳細については後述する。 The evaluation unit 180 evaluates the degree of similarity between the plurality of reference images input from the prediction unit 170 on a pixel-by-pixel basis, thereby providing map information indicating the distribution of errors in the predicted image generated using the plurality of reference images. and outputs the generated map information to the determination unit 190 . Details of the evaluation unit 180 will be described later.

決定部190は、評価部180から入力されたマップ情報に基づいて、評価部180により予測精度が評価された予測画像に対応する予測残差に適用する直交変換を決定し、決定した直交変換を変換部121及び逆変換部142に出力する。第1実施形態において、決定部190は、マップ情報に基づいて垂直方向の直交変換及び水平方向の直交変換を生成する適応変換生成部191を備える。変換部121は、決定部190から入力された直交変換に従って直交変換処理を行う。逆変換部142は、決定部190から入力された直交変換に従って直交変換処理を行う。適応変換生成部191の詳細については後述する。 Based on the map information input from the evaluation unit 180, the determination unit 190 determines an orthogonal transform to be applied to the prediction residual corresponding to the predicted image whose prediction accuracy has been evaluated by the evaluation unit 180, and applies the determined orthogonal transform. It outputs to the transformation unit 121 and the inverse transformation unit 142 . In the first embodiment, the determination unit 190 includes an adaptive transform generation unit 191 that generates a vertical orthogonal transform and a horizontal orthogonal transform based on map information. The transformation unit 121 performs orthogonal transformation processing according to the orthogonal transformation input from the determination unit 190 . The inverse transformation unit 142 performs orthogonal transformation processing according to the orthogonal transformation input from the determination unit 190 . The details of the adaptive transformation generator 191 will be described later.

(インター予測の一例)
図2は、インター予測の一例を示す図である。図2(a)はインター予測の一例としての双予測を示し、図2(b)は双予測により生成される予測画像の一例を示す。
(Example of inter prediction)
FIG. 2 is a diagram illustrating an example of inter prediction. FIG. 2(a) shows bi-prediction as an example of inter-prediction, and FIG. 2(b) shows an example of a predicted image generated by bi-prediction.

図2(a)に示すように、双予測は、対象フレーム(現フレーム)に対して時間的に前及び後のフレームを参照する。図2(a)の例では、tフレーム目の画像中のブロックの予測を、t-1フレーム目とt+1フレーム目とを参照して行う。動き検出では、t-1及びt+1フレーム目の参照フレーム内から、対象画像ブロックと類似する箇所(ブロック)をシステムで設定された探索範囲の中から検出する。 As shown in FIG. 2(a), bi-prediction refers to frames temporally before and after the target frame (current frame). In the example of FIG. 2(a), block prediction in the tth frame image is performed by referring to the t−1th frame and the t+1th frame. In motion detection, portions (blocks) similar to the target image block are detected from within the search range set by the system from within the t−1 and t+1 reference frames.

検出された箇所が参照画像である。対象画像ブロックに対する参照画像の相対位置を示す情報が図中に示す矢印であり、動きベクトルと呼ばれる。動きベクトルの情報は、画像符号化装置1において、参照画像のフレーム情報とともにエントロピー符号化によって符号化される。一方、画像復号装置は、画像符号化装置1により生成された動きベクトルの情報に基づいて参照画像を検出する。 The detected location is the reference image. Information indicating the relative position of the reference image with respect to the target image block is indicated by an arrow in the drawing, and is called a motion vector. The motion vector information is encoded together with the frame information of the reference image by entropy encoding in the image encoding device 1 . On the other hand, the image decoding device detects a reference image based on the motion vector information generated by the image encoding device 1 .

図2(a)及び図2(b)に示すように、動き検出によって検出された参照画像1及び2は、対象画像ブロックに対し、参照するフレーム内で位置合わせされた類似する部分画像であるため、対象画像ブロック(符号化対象画像)に類似した画像となる。図2(b)の例では、対象画像ブロックは、星の絵柄と部分的な円の絵柄とを含んでいる。参照画像1は、星の絵柄と全体的な円の絵柄とを含んでいる。参照画像2は、星の絵柄を含むが、円の絵柄を含んでいない。 As shown in FIGS. 2(a) and 2(b), the reference images 1 and 2 detected by motion estimation are similar partial images aligned in the reference frame with respect to the target image block. Therefore, the image is similar to the target image block (encoding target image). In the example of FIG. 2B, the target image block includes a star pattern and a partial circle pattern. Reference image 1 includes a star pattern and a general circle pattern. Reference image 2 contains a pattern of stars, but does not contain a pattern of circles.

かかる参照画像1及び2から予測画像を生成する。なお、予測処理は、一般的に、特徴は異なるが部分的に類似する参照画像1及び2を平均化することによって、それぞれの参照画像の特徴を備えた予測画像を生成する。但し、より高度な処理、例えば、ローパスフ
ィルタやハイパスフィルタ等による信号強調処理を併用して予測画像を生成してもよい。ここで、参照画像1は円の絵柄を含み、参照画像2は円の絵柄を含まないため、参照画像1及び2を平均化して予測画像を生成すると、予測画像における円の絵柄は、参照画像1に比べて信号が半減する。
A predicted image is generated from the reference images 1 and 2 . It should be noted that the prediction process generally generates a predicted image with the features of each reference image by averaging reference images 1 and 2 that have different but partially similar features. However, a predicted image may be generated by using more advanced processing, for example, signal enhancement processing using a low-pass filter, high-pass filter, or the like. Here, since the reference image 1 includes a circle pattern and the reference image 2 does not include a circle pattern, when the predicted image is generated by averaging the reference images 1 and 2, the circle pattern in the predicted image is the same as the reference image The signal is halved compared to 1.

参照画像1及び2から得られた予測画像と対象画像ブロック(符号化対象画像)との差分が予測残差である。図2(b)に示す予測残差において、星の絵柄のエッジのずれ部分と丸の絵柄のずれた部分(斜線部)とにのみ大きな差分が生じているが、それ以外の部分については、精度よく予測が行えており、差分が少なくなる(図2(b)の例では差分が生じていない)。 The difference between the predicted image obtained from the reference images 1 and 2 and the target image block (encoding target image) is the prediction residual. In the prediction residuals shown in FIG. 2(b), a large difference occurs only in the shifted portion of the edge of the star pattern and the shifted portion of the circle pattern (hatched portion). Prediction can be performed with good accuracy, and the difference becomes small (the difference does not occur in the example of FIG. 2(b)).

差分が生じていない部分(星の絵柄の非エッジ部分及び背景部分)は、参照画像1と参照画像2との間の類似度が高い部分であって、高精度な予測が行われた部分である。一方、大きな差分が生じている部分は、各参照画像に特有な部分、すなわち、参照画像1と参照画像2との間の類似度が著しく低い部分である。よって、参照画像1と参照画像2との間の類似度が著しく低い部分は、予測の精度が低く、大きな差分(残差)を生じさせることが分かる。 The portions where no difference occurs (the non-edge portion of the star pattern and the background portion) are portions where the similarity between the reference image 1 and the reference image 2 is high, and where highly accurate prediction has been performed. be. On the other hand, a portion where a large difference occurs is a portion unique to each reference image, that is, a portion where the degree of similarity between reference image 1 and reference image 2 is extremely low. Therefore, it can be seen that a portion where the degree of similarity between reference image 1 and reference image 2 is extremely low has low prediction accuracy and causes a large difference (residual error).

このように差分が大きい部分と差分が無い部分とが混在した予測残差を直交変換し、量子化による変換係数の劣化が生じると、かかる変換係数の劣化が逆量子化及び逆直交変換を経て画像(ブロック)内に全体的に伝搬する。そして、逆量子化及び逆直交変換によって復元された予測残差(復元予測残差)を予測画像に合成して対象画像ブロックを再構成すると、図2(b)に示す星の絵柄の非エッジ部分及び背景部分のように高精度な予測が行われた部分にも画質の劣化が伝搬してしまう。 When a prediction residual in which a portion with a large difference and a portion with no difference are mixed is orthogonally transformed in this way, and deterioration of the transform coefficients occurs due to quantization, the deterioration of the transform coefficients is caused by inverse quantization and inverse orthogonal transformation. Propagate globally within the image (block). Then, when the prediction residual (restored prediction residual) restored by inverse quantization and inverse orthogonal transformation is combined with the predicted image to reconstruct the target image block, the non-edge of the star pattern shown in FIG. The deterioration of the image quality propagates to parts where highly accurate prediction has been performed, such as parts and background parts.

(評価部)
図3は、評価部180の構成の一例を示す図である。図3に示すように、評価部180は、差分算出部(減算部)180aと、正規化部180bと、調整部180cとを備える。
(Evaluation Department)
FIG. 3 is a diagram showing an example of the configuration of the evaluation unit 180. As shown in FIG. As shown in FIG. 3, the evaluation unit 180 includes a difference calculation unit (subtraction unit) 180a, a normalization unit 180b, and an adjustment unit 180c.

差分算出部180aは、参照画像1と参照画像2との間の差分値(差の絶対値)を画素単位で算出し、算出した差分値を正規化部180bに出力する。かかる差分値は、類似度を示す値の一例である。差分値が小さいほど類似度が高く、差分値が大きいほど類似度が低いといえる。差分算出部180aは、各参照画像に対してフィルタ処理を行ったうえで差分値を算出してもよい。差分算出部180aは、二乗誤差等の統計量を算出し、かかる統計量を類似度として用いてもよい。 The difference calculation unit 180a calculates the difference value (absolute value of the difference) between the reference image 1 and the reference image 2 in units of pixels, and outputs the calculated difference value to the normalization unit 180b. Such a difference value is an example of a value indicating similarity. It can be said that the smaller the difference value, the higher the similarity, and the larger the difference value, the lower the similarity. The difference calculation unit 180a may calculate the difference value after performing filter processing on each reference image. The difference calculator 180a may calculate a statistic such as a squared error and use the statistic as the degree of similarity.

正規化部180bは、差分算出部180aから入力された差分値を、ブロック内で最大となる差分値(すなわち、ブロック内の差分値の最大値)で正規化して出力する。かかる差分値が小さいほど類似度が高く、予測精度も高くなる。一方、差分値が大きいほど類似度が低く、予測精度も低くなる(予測誤差が大きくなる)。 The normalization unit 180b normalizes the difference value input from the difference calculation unit 180a by the maximum difference value in the block (that is, the maximum value of the difference values in the block) and outputs the result. The smaller the difference value, the higher the degree of similarity and the higher the prediction accuracy. On the other hand, the larger the difference value, the lower the similarity and the lower the prediction accuracy (the larger the prediction error).

正規化部180bは、差分算出部180aから入力された各画素の差分値を、ブロック内で差分値が最大となる画素の差分値(すなわち、ブロック内の差分値の最大値)で正規化し、正規化した差分値である正規化差分値を出力する。かかる正規化差分値は、予測誤差の大きさを表す推定値として用いることができる。 The normalization unit 180b normalizes the difference value of each pixel input from the difference calculation unit 180a by the difference value of the pixel having the maximum difference value in the block (that is, the maximum difference value in the block), Output a normalized difference value that is a normalized difference value. Such a normalized difference value can be used as an estimated value representing the magnitude of the prediction error.

調整部180cは、量子化の粗さを定める量子化パラメータ(Qp)に基づいて、正規化部180bから入力された正規化差分値を調整し、調整した正規化差分値を出力する。量子化の粗さが大きいほど復元予測残差の劣化度が高いため、調整部180cは、量子化
パラメータ(Qp)に基づいて正規化差分値(重み)を調整する。
The adjustment unit 180c adjusts the normalized difference value input from the normalization unit 180b based on a quantization parameter (Qp) that determines the coarseness of quantization, and outputs the adjusted normalized difference value. Since the degree of deterioration of the restored prediction residual increases as the coarseness of quantization increases, the adjustment unit 180c adjusts the normalized difference value (weight) based on the quantization parameter (Qp).

評価部180が出力する各画素位置(ij)における予測誤差の推定値Rijは、例えば下記の式(1)のように表現することができる。 The estimated value Rij of the prediction error at each pixel position (ij) output by the evaluation unit 180 can be expressed, for example, by the following equation (1).

Rij = (abs(Xij-Yij)/maxD × Scale(Qp)) ・・・(1) Rij = (abs(Xij-Yij)/maxD x Scale(Qp)) (1)

式(1)において、Xijは参照画像1の画素ijの画素値であり、Yijは参照画像2の画素ijの画素値であり、absは絶対値を得る関数である。差分算出部180aでは、abs(Xij-Yij)を出力する。 In equation (1), Xij is the pixel value of pixel ij in reference image 1, Yij is the pixel value of pixel ij in reference image 2, and abs is a function for obtaining an absolute value. The difference calculator 180a outputs abs(Xij-Yij).

また、式(1)において、maxDは、ブロック内の差分値abs(Xij-Yij)の最大値である。maxDを求めるために、ブロック内のすべての画素について差分値を求める必要があるが、この処理を省略するためにすでに符号化処理済みの隣接するブロックの最大値などで代用してもよい。或いは、量子化パラメータ(Qp)とmaxDとの対応関係を定めるテーブルを用いて、量子化パラメータ(Qp)からmaxDを求めてもよい。或いは、予め仕様で規定された固定値をmaxDとして用いてもよい。正規化部180bは、abs(Xij-Yij)/maxDを出力する。 Also, in equation (1), maxD is the maximum value of the difference values abs(Xij-Yij) in the block. In order to obtain maxD, it is necessary to obtain the difference values for all pixels in the block, but in order to omit this process, the maximum value of adjacent blocks that have already been encoded may be substituted. Alternatively, maxD may be obtained from the quantization parameter (Qp) using a table that defines the correspondence between the quantization parameter (Qp) and maxD. Alternatively, a fixed value defined in advance by specifications may be used as maxD. The normalization unit 180b outputs abs(Xij-Yij)/maxD.

また、式(1)において、Scale(Qp)は、量子化パラメータ(Qp)に応じて乗じられる係数である。Scale(Qp)は、Qpが大きい場合に1.0に近づき、小さい場合に0に近づくように設計され、その度合いはシステムによって調整するものとする。或いは、予め仕様で規定された固定値をScale(Qp)として用いてもよい。さらに、処理を簡略化するため、Scale(Qp)を1.0などシステムに応じて設計された固定値としてもよい。 Also, in Equation (1), Scale(Qp) is a coefficient that is multiplied according to the quantization parameter (Qp). Scale(Qp) is designed so that it approaches 1.0 when Qp is large and approaches 0 when Qp is small, and the degree is adjusted by the system. Alternatively, a fixed value defined in advance by specifications may be used as Scale (Qp). Furthermore, in order to simplify processing, Scale (Qp) may be a fixed value such as 1.0 designed according to the system.

調整部180cは、abs(Xij-Yij)/maxD×Scale(Qp)を誤差推定値Rijとして出力する。また、このRijは、システムに応じて設計される感度関数によって調整された重み付けを出力してもよい。例えば、abs(Xij-Yij)/maxD×Scale(Qp)=Rijとし、Rij=Clip(Rij,1.0,0.0)とする、又はRij=Clip(Rij+offset,1.0,0.0)とオフセットをつけて感度を調整してもよい。なお、Clip(x,max,min)は、xがmaxを超える場合はmaxで、xがminを下回る場合はminでクリップする処理を示す。 The adjuster 180c outputs abs(Xij−Yij)/maxD×Scale(Qp) as the estimated error value Rij. This Rij may also output weightings adjusted by a sensitivity function designed for the system. For example, abs(Xij−Yij)/maxD×Scale(Qp)=Rij and Rij=Clip(Rij, 1.0, 0.0), or Rij=Clip(Rij+offset, 1.0, 0.0 ) and an offset may be added to adjust the sensitivity. Note that Clip(x, max, min) indicates a process of clipping at max when x exceeds max and at min when x is less than min.

このようにして算出された画素位置ごとの誤差推定値Rijは、0から1.0までの範囲内の値となる。基本的には、誤差推定値Rijは、参照画像間の画素位置ijの差分値が大きい(すなわち、予測精度が低い)場合に1.0に近づき、参照画像間の画素位置ijの差分値が小さい(すなわち、予測精度が高い)場合に0に近づく。評価部180は、ブロック内の各画素位置ijの誤差推定値Rijからなる2次元のマップ情報(以下、「誤差マップ」と称する)を出力する。 The estimated error value Rij for each pixel position calculated in this manner is a value within the range from 0 to 1.0. Basically, the estimated error value Rij approaches 1.0 when the difference value of the pixel position ij between the reference images is large (that is, the prediction accuracy is low), and the difference value of the pixel position ij between the reference images is It approaches 0 when it is small (ie, the prediction accuracy is high). The evaluation unit 180 outputs two-dimensional map information (hereinafter referred to as "error map") consisting of the estimated error values Rij of each pixel position ij in the block.

(適応変換生成部)
図4は、第1実施形態に係る適応変換生成部191の動作を示す図である。適応変換生成部191は、評価部180から入力された誤差マップを用いて、予測残差に対して垂直方向に適用する垂直適応直交変換及び水平方向に適用する水平適応直交変換を主成分分析により生成する。
(adaptive conversion generator)
FIG. 4 is a diagram showing the operation of the adaptive transformation generator 191 according to the first embodiment. The adaptive transform generation unit 191 uses the error map input from the evaluation unit 180 to perform a vertical adaptive orthogonal transform applied in the vertical direction and a horizontal adaptive orthogonal transform applied in the horizontal direction to the prediction residual by principal component analysis. Generate.

具体的には、適応変換生成部191は、誤差マップを列ベクトルの集合とみなして共分散行列を生成し、生成した共分散行列の固有ベクトルを算出する。適応変換生成部191は、得られた固有ベクトルを垂直適応直交変換として出力する。また、適応変換生成部1
91は、生成した垂直適応直交変換を垂直方向に適用して得られた行列を行ベクトルの集合とみなして共分散行列を生成し、その固有ベクトルを算出する。適応変換生成部191は、得られた固有ベクトルを水平適応直交変換として出力する。
Specifically, the adaptive transform generator 191 regards the error map as a set of column vectors, generates a covariance matrix, and calculates the eigenvectors of the generated covariance matrix. The adaptive transform generator 191 outputs the obtained eigenvectors as vertical adaptive orthogonal transform. Also, the adaptive transformation generator 1
91 regards the matrix obtained by applying the generated vertical adaptive orthogonal transform in the vertical direction as a set of row vectors, generates a covariance matrix, and calculates its eigenvector. The adaptive transform generator 191 outputs the obtained eigenvectors as horizontal adaptive orthogonal transform.

図4(a)に示すように、適応変換生成部191は、誤差マップが幅w高さhであるとき、誤差マップをw個のh×1の列ベクトルとみなして、共分散行列Λhを算出する。適応変換生成部191は、得られた共分散行列を対角化することで固有ベクトルを算出する。ここで、共分散行列の対角化には、例えばJacobi法などを用いて反復演算により算出する。適応変換生成部191は、得られた固有ベクトルe0からeh変換の結合によりh×hの行列を垂直適応直交変換として出力する。 As shown in FIG. 4(a), when the error map has width w and height h, the adaptive transform generation unit 191 treats the error map as w h×1 column vectors, and calculates the covariance matrix Λ h Calculate The adaptive transform generator 191 diagonalizes the obtained covariance matrix to calculate eigenvectors. Here, the diagonalization of the covariance matrix is calculated by iterative calculation using, for example, the Jacobi method. The adaptive transform generator 191 outputs an h×h matrix as a vertically adaptive orthogonal transform by combining the obtained eigenvectors e 0 to e h transforms.

さらに、図4(b)に示すように、適応変換生成部191は、誤差マップをh個の1×wの行ベクトルとみなして、共分散行列Λhを算出する。適応変換生成部191は、得られた共分散行列を対角化することで固有ベクトルを算出する。適応変換生成部191は、得られた固有ベクトルの結合によりw×wの行列を水平適応直交変換として出力する。 Furthermore, as shown in FIG. 4(b), the adaptive transform generator 191 regards the error map as h 1×w row vectors and calculates a covariance matrix Λ h . The adaptive transform generator 191 diagonalizes the obtained covariance matrix to calculate eigenvectors. The adaptive transform generator 191 outputs a w×w matrix as a horizontal adaptive orthogonal transform by combining the obtained eigenvectors.

HEVC(非特許文献1参照)や、国際標準化団体で検討中の最新の映像符号化技術(JEM)などの映像符号化手法では、変換処理を高速かつ軽量に行う目的で、整数精度の変換係数及びビットシフトにより実現している。本実施形態に係る適応変換生成部191においても、得られた固有ベクトルを整数係数に近似し、変換係数のダイナミックレンジが拡大しないようなビットシフト量を予め画像符号化装置及び画像復号装置で規定してもよい。 In video coding methods such as HEVC (see Non-Patent Document 1) and the latest video coding technology (JEM) under study by an international standardization organization, integer-precision transform coefficients are used for the purpose of fast and lightweight transform processing. and bit shift. In the adaptive transform generation unit 191 according to the present embodiment as well, the obtained eigenvector is approximated to an integer coefficient, and the bit shift amount that does not expand the dynamic range of the transform coefficient is defined in advance by the image coding device and the image decoding device. may

なお、図1に示すように、変換部121は、適応変換生成部191から入力された垂直適応直交変換及び水平適応直交変換を用いて、減算部110により生成された予測残差に対し垂直及び水平方向に直交変換処理を行うことにより変換係数を算出し、算出した変換係数を量子化部122に出力する。 Note that, as shown in FIG. 1 , the transform unit 121 uses the vertical adaptive orthogonal transform and the horizontal adaptive orthogonal transform input from the adaptive transform generating unit 191 to apply vertical and horizontal transforms to the prediction residual generated by the subtracting unit 110 . Transform coefficients are calculated by performing orthogonal transform processing in the horizontal direction, and the calculated transform coefficients are output to the quantization unit 122 .

また、逆変換部142は、適応変換生成部191から入力された垂直適応直交変換及び水平適応直交変換を用いて、逆量子化部141から入力された変換係数に対して、変換部121が行う直交変換処理に対応する逆直交変換処理を行う。 In addition, the inverse transform unit 142 uses the vertical adaptive orthogonal transform and the horizontal adaptive orthogonal transform input from the adaptive transform generating unit 191 to transform the transform coefficients input from the inverse quantizing unit 141 into the transform unit 121. Inverse orthogonal transform processing corresponding to orthogonal transform processing is performed.

(画像復号装置)
図5は、第1実施形態に係る画像復号装置2の構成を示す図である。図5に示すように、画像復号装置2は、エントロピー符号復号部200と、逆量子化・逆変換部210と、合成部220と、メモリ230と、予測部240と、評価部250と、決定部260とを備える。
(Image decoding device)
FIG. 5 is a diagram showing the configuration of the image decoding device 2 according to the first embodiment. As shown in FIG. 5, the image decoding device 2 includes an entropy code decoding unit 200, an inverse quantization/inverse transform unit 210, a synthesis unit 220, a memory 230, a prediction unit 240, an evaluation unit 250, a determination and a section 260 .

エントロピー符号復号部200は、画像符号化装置1により生成された符号化データを復号し、量子化された変換係数を逆量子化・逆変換部210に出力する。また、エントロピー符号復号部200は、予測(イントラ予測及びインター予測)に関する制御情報を取得し、取得した制御情報を予測部240に出力する。 The entropy code decoding unit 200 decodes the encoded data generated by the image encoding device 1 and outputs the quantized transform coefficients to the inverse quantization/inverse transform unit 210 . The entropy code decoding unit 200 also acquires control information related to prediction (intra prediction and inter prediction) and outputs the acquired control information to the prediction unit 240 .

逆量子化・逆変換部210は、ブロック単位で逆量子化処理及び逆直交変換処理を行う。逆量子化・逆変換部210は、逆量子化部211と、逆変換部212とを備える。 The inverse quantization/inverse transform unit 210 performs inverse quantization processing and inverse orthogonal transform processing on a block-by-block basis. The inverse quantization/inverse transform unit 210 includes an inverse quantization unit 211 and an inverse transform unit 212 .

逆量子化部211は、画像符号化装置1の量子化部122が行う量子化処理に対応する逆量子化処理を行う。逆量子化部211は、エントロピー符号復号部200から入力された量子化変換係数を、量子化パラメータ(Qp)及び量子化行列を用いて逆量子化することにより、変換係数を復元し、復元した変換係数を逆変換部212に出力する。 The inverse quantization unit 211 performs inverse quantization processing corresponding to the quantization processing performed by the quantization unit 122 of the image encoding device 1 . The inverse quantization unit 211 restores and restores the transform coefficients by inversely quantizing the quantized transform coefficients input from the entropy code decoding unit 200 using the quantization parameter (Qp) and the quantization matrix. The transform coefficients are output to the inverse transform unit 212 .

逆変換部212は、画像符号化装置1の変換部121が行う直交変換処理に対応する逆直交変換処理を行う。逆変換部212は、逆量子化部211から入力された変換係数に対して逆直交変換処理を行って予測残差を復元し、復元した予測残差(復元予測残差)を合成部220に出力する。 The inverse transform unit 212 performs inverse orthogonal transform processing corresponding to the orthogonal transform processing performed by the transform unit 121 of the image encoding device 1 . The inverse transform unit 212 performs inverse orthogonal transform processing on the transform coefficients input from the inverse quantization unit 211 to restore the prediction residuals, and sends the restored prediction residuals (restored prediction residuals) to the synthesizing unit 220. Output.

合成部220は、逆変換部212から入力された予測残差と、予測部240から入力された予測画像とを画素単位で合成することにより、元のブロックを再構成(復号)し、ブロック単位の復号画像をメモリ230に出力する。 The synthesizing unit 220 reconstructs (decodes) the original block by synthesizing the prediction residual input from the inverse transform unit 212 and the predicted image input from the prediction unit 240 on a pixel-by-pixel basis. is output to the memory 230.

メモリ230は、合成部220から入力された復号画像を記憶する。メモリ230は、復号画像をフレーム単位で記憶する。メモリ230は、フレーム単位の復号画像を画像復号装置2の外部に出力する。なお、合成部220とメモリ230との間にループフィルタが設けられてもよい。 The memory 230 stores the decoded image input from the synthesizing section 220 . The memory 230 stores decoded images in units of frames. The memory 230 outputs the decoded image in units of frames to the outside of the image decoding device 2 . Note that a loop filter may be provided between the synthesizing section 220 and the memory 230 .

予測部240は、ブロック単位で予測を行う。予測部240は、イントラ予測部241と、インター予測部242と、切替部243とを備える。 The prediction unit 240 performs prediction on a block-by-block basis. The prediction unit 240 includes an intra prediction unit 241 , an inter prediction unit 242 and a switching unit 243 .

イントラ予測部241は、メモリ230に記憶された復号画像を参照し、エントロピー符号復号部200から入力された制御情報に従ってイントラ予測を行うことによりイントラ予測画像を生成し、生成したイントラ予測画像を切替部243に出力する。 The intra prediction unit 241 refers to the decoded image stored in the memory 230, performs intra prediction according to the control information input from the entropy code decoding unit 200, generates an intra prediction image, and switches the generated intra prediction image. Output to the unit 243 .

インター予測部242は、メモリ230に記憶された復号画像を参照画像として用いて予測対象のブロックを予測するインター予測を行う。インター予測部242は、エントロピー符号復号部200から入力された制御情報(インター予測方法や動きベクトル情報等)に従ってインター予測を行うことによりインター予測画像を生成し、生成したインター予測画像を切替部243に出力する。インター予測部242は、インター予測画像を生成するために複数の参照画像を用いる場合に、当該複数の参照画像を評価部250に出力する。 The inter prediction unit 242 performs inter prediction for predicting a prediction target block using the decoded image stored in the memory 230 as a reference image. The inter prediction unit 242 performs inter prediction according to the control information (inter prediction method, motion vector information, etc.) input from the entropy code decoding unit 200 to generate an inter prediction image, and switches the generated inter prediction image to the switching unit 243. output to When using a plurality of reference images to generate an inter prediction image, the inter prediction unit 242 outputs the plurality of reference images to the evaluation unit 250 .

なお、複数の参照画像を用いて行う予測は、インター予測における双予測が代表的なものであるが、これに限定されない。予測部240は、複数の参照画像を用いてイントラブロックコピーによる予測を行ってもよい。複数の参照画像を用いてイントラブロックコピーによる予測を行う場合、予測部240は、当該複数の参照画像を評価部250に出力する。 Prediction performed using a plurality of reference images is typically bi-prediction in inter-prediction, but is not limited to this. The prediction unit 240 may perform intra block copy prediction using a plurality of reference images. When performing intra-block copy prediction using a plurality of reference images, the prediction unit 240 outputs the plurality of reference images to the evaluation unit 250 .

切替部243は、イントラ予測部241から入力されるイントラ予測画像とインター予測部242から入力されるインター予測画像とを切り替えて、いずれかの予測画像を合成部220に出力する。 The switching unit 243 switches between the intra-predicted image input from the intra-prediction unit 241 and the inter-predicted image input from the inter-prediction unit 242 and outputs one of the predicted images to the synthesis unit 220 .

評価部250は、画像符号化装置1の評価部180(図3参照)と同様な動作を行う。評価部250は、予測部240から入力された複数の参照画像間の類似度を画素単位で評価することにより、当該複数の参照画像を用いて生成された予測画像における誤差の分布を示す誤差マップを生成し、生成した誤差マップを決定部260に出力する。 The evaluation section 250 operates in the same manner as the evaluation section 180 (see FIG. 3) of the image encoding device 1 . The evaluation unit 250 evaluates the degree of similarity between the plurality of reference images input from the prediction unit 240 on a pixel-by-pixel basis, thereby creating an error map showing the distribution of errors in the predicted image generated using the plurality of reference images. and outputs the generated error map to the determination unit 260 .

決定部260は、評価部250から入力された誤差マップに基づいて、評価部250により予測精度が評価された予測画像に対応する予測残差に適用する逆直交変換を決定し、決定した逆直交変換を逆変換部212に出力する。決定部260は、誤差マップに基づいて垂直方向の直交変換及び水平方向の直交変換を生成する適応変換生成部261を備える。適応変換生成部261は、画像符号化装置1の適応変換生成部191と同様な動作(図
4参照)を行う。逆変換部212は、決定部260から入力された逆直交変換に従って逆直交変換処理を行う。
Based on the error map input from the evaluation unit 250, the determination unit 260 determines an inverse orthogonal transform to be applied to the prediction residual corresponding to the predicted image whose prediction accuracy has been evaluated by the evaluation unit 250, and determines the determined inverse orthogonal transform. The transform is output to the inverse transform unit 212 . The determination unit 260 includes an adaptive transform generation unit 261 that generates a vertical orthogonal transform and a horizontal orthogonal transform based on the error map. The adaptive transform generator 261 performs the same operation as the adaptive transform generator 191 of the image coding device 1 (see FIG. 4). The inverse transform section 212 performs inverse orthogonal transform processing according to the inverse orthogonal transform input from the determining section 260 .

(第1実施形態のまとめ)
第1実施形態に係る画像符号化装置1は、フレーム単位の現画像を分割して得られたブロック単位の対象画像を符号化する。画像符号化装置1は、複数の参照画像を用いて対象画像を予測して予測画像を生成する予測部170と、当該複数の参照画像間の類似度を画素単位で評価することにより、予測画像における誤差の分布を示す誤差マップを生成する評価部180と、対象ブロックと予測画像との差分を示す予測残差を画素単位で算出する減算部110と、予測残差に適用する直交変換を誤差マップに基づいて決定する決定部190と、決定された直交変換によって予測残差に対する直交変換処理を行う変換部121とを備える。決定部190は、マップ情報に基づいて直交変換を生成する適応変換生成部191を備える。
(Summary of the first embodiment)
The image encoding apparatus 1 according to the first embodiment encodes a target image in units of blocks obtained by dividing a current image in units of frames. The image coding apparatus 1 predicts a target image using a plurality of reference images to generate a predicted image, and evaluates the similarity between the plurality of reference images on a pixel-by-pixel basis to generate a predicted image. An evaluation unit 180 that generates an error map that shows the distribution of errors in , a subtraction unit 110 that calculates a prediction residual that indicates the difference between the target block and the predicted image on a pixel-by-pixel basis, and an orthogonal transform that is applied to the prediction residual. It includes a determining unit 190 that determines based on the map, and a transforming unit 121 that performs orthogonal transform processing on the prediction residual using the determined orthogonal transform. The determination unit 190 includes an adaptive transform generation unit 191 that generates an orthogonal transform based on map information.

また、第1実施形態に係る画像復号装置2は、フレーム単位の現画像を分割して得られたブロック単位の対象画像を復号する。画像復号装置2は、符号化データを復号することにより変換係数を取得するエントロピー符号復号部200と、複数の参照画像を用いて対象画像を予測して予測画像を生成する予測部240と、当該複数の参照画像間の類似度を画素単位で評価することにより、予測画像における誤差の分布を示す誤差マップを生成する評価部250と、変換係数に適用する逆直交変換を誤差マップに基づいて決定する決定部260と、決定された逆直交変換によって変換係数に対する逆直交変換処理を行う逆変換部212とを備える。決定部260は、マップ情報に基づいて逆直交変換を生成する適応変換生成部261を備える。 Further, the image decoding device 2 according to the first embodiment decodes the target image in units of blocks obtained by dividing the current image in units of frames. The image decoding device 2 includes an entropy code decoding unit 200 that acquires transform coefficients by decoding encoded data, a prediction unit 240 that predicts a target image using a plurality of reference images and generates a predicted image, and An evaluation unit 250 that generates an error map showing the distribution of errors in a predicted image by evaluating similarities between a plurality of reference images on a pixel-by-pixel basis, and determining an inverse orthogonal transform to be applied to transform coefficients based on the error map. and an inverse transform unit 212 that performs inverse orthogonal transform processing on transform coefficients by the determined inverse orthogonal transform. The determination unit 260 includes an adaptive transform generation unit 261 that generates an inverse orthogonal transform based on map information.

このように、第1実施形態によれば、予測画像における誤差の分布を示す誤差マップに基づいて直交変換を生成することにより、予測残差におけるエネルギー分布に応じた最適な直交変換を適用することができる。 Thus, according to the first embodiment, by generating an orthogonal transform based on an error map showing the distribution of errors in a predicted image, it is possible to apply the optimum orthogonal transform according to the energy distribution in the prediction residual. can be done.

また、画像符号化装置1及び画像復号装置2のそれぞれが誤差マップに基づいて直交変換を生成可能であるため、画像符号化装置1で行った直交変換(KLT)の逆処理のための情報を画像復号装置2側で必要としない。よって、伝送すべき情報量の増大を抑制できる。 Further, since each of the image encoding device 1 and the image decoding device 2 can generate an orthogonal transform based on the error map, the information for inverse processing of the orthogonal transform (KLT) performed by the image encoding device 1 is It is not required on the image decoding device 2 side. Therefore, an increase in the amount of information to be transmitted can be suppressed.

したがって、第1実施形態に係る画像符号化装置1及び画像復号装置2によれば、予測残差のエネルギーを効率的に集中させる適応直交変換を適用可能にし、符号化効率を改善できる。 Therefore, according to the image coding device 1 and the image decoding device 2 according to the first embodiment, it is possible to apply the adaptive orthogonal transform that efficiently concentrates the energy of the prediction residual, thereby improving the coding efficiency.

<第2実施形態>
第2実施形態に係る画像符号化装置1及び画像復号装置2について、第1実施形態との相違点を主として説明する。
<Second embodiment>
The image encoding device 1 and the image decoding device 2 according to the second embodiment will be mainly described with respect to differences from the first embodiment.

(画像符号化装置)
図6は、第2実施形態に係る画像符号化装置1の構成を示す図である。図6に示すように、第2実施形態に係る画像符号化装置1は、決定部190の構成が第1実施形態とは異なる。決定部190は、第1実施形態と同様に、誤差マップの主成分分析(図4参照)により直交変換を生成する適応変換生成部191を備える。第2実施形態において、決定部190は、候補選択部(第1選択部)192と、直交変換選択部(第2選択部)193とをさらに備える。
(Image encoding device)
FIG. 6 is a diagram showing the configuration of the image encoding device 1 according to the second embodiment. As shown in FIG. 6, the image coding apparatus 1 according to the second embodiment differs from the first embodiment in the configuration of the determination unit 190. FIG. The determination unit 190 includes an adaptive transform generation unit 191 that generates an orthogonal transform by principal component analysis (see FIG. 4) of the error map, as in the first embodiment. In the second embodiment, the determination unit 190 further includes a candidate selection unit (first selection unit) 192 and an orthogonal transform selection unit (second selection unit) 193 .

適応変換生成部191は、誤差マップに基づいて生成した適応直交変換(垂直適応直交
変換及び水平適応直交変換)を候補選択部192に出力する。
The adaptive transform generating section 191 outputs the adaptive orthogonal transform (vertical adaptive orthogonal transform and horizontal adaptive orthogonal transform) generated based on the error map to the candidate selecting section 192 .

候補選択部192は、予め規定された複数種類の直交変換の中から、適応変換生成部191から入力された適応直交変換との相関が高い順に1つ以上の直交変換候補を選択し、選択した1つ以上の直交変換候補を直交変換選択部263に出力する。予め規定された複数種類の直交変換は、画像符号化装置1及び画像復号装置2で共有されている。第2実施形態において、複数種類の直交変換として、DCT-2、DST-7、DCT-8、DST-1、及びDCT-5が予め規定されているものとする。 Candidate selection section 192 selects one or more orthogonal transform candidates from among a plurality of types of predetermined orthogonal transforms in descending order of correlation with adaptive orthogonal transform input from adaptive transform generating section 191, and selects One or more orthogonal transform candidates are output to orthogonal transform selecting section 263 . A plurality of types of orthogonal transforms defined in advance are shared by the image encoding device 1 and the image decoding device 2 . In the second embodiment, it is assumed that DCT-2, DST-7, DCT-8, DST-1, and DCT-5 are defined in advance as multiple kinds of orthogonal transforms.

具体的には、候補選択部192は、適応変換生成部191から入力された水平適応直交変換と各直交変換(DCT-2、DST-7、DCT-8、DST-1、DCT-5)との相関を評価する。そして、候補選択部192は、相関評価の結果に基づいて、複数種類の直交変換のうち、相関の高い順に1つ以上の直交変換を適応直交変換候補として直交変換選択部193に出力する。 Specifically, the candidate selection unit 192 selects the horizontal adaptive orthogonal transform input from the adaptive transform generating unit 191 and each orthogonal transform (DCT-2, DST-7, DCT-8, DST-1, DCT-5) and Evaluate the correlation of Based on the result of the correlation evaluation, candidate selection section 192 outputs one or more orthogonal transforms in descending order of correlation among the plurality of types of orthogonal transforms to orthogonal transform selection section 193 as adaptive orthogonal transform candidates.

なお、候補選択部192が出力する適応直交変換候補の数は、画像符号化装置1及び画像復号装置2で同じ数とするように予め規定される。また、候補選択部192が出力する適応直交変換候補の数は、符号化対象の画像ブロックのブロックサイズや色成分(輝度成分、色差成分)などに応じて可変としてもよい。 Note that the number of adaptive orthogonal transform candidates output by the candidate selection unit 192 is defined in advance so that the number is the same between the image encoding device 1 and the image decoding device 2 . Also, the number of adaptive orthogonal transform candidates output by the candidate selection unit 192 may be variable according to the block size and color components (luminance component, color difference component) of the image block to be encoded.

さらに、候補選択部192は、水平方向と垂直方向とで適応直交変換候補を別々に選択してもよい。かかる場合、候補選択部192は、適応変換生成部191から入力された垂直適応直交変換と各直交変換(DCT-2、DST-7、DCT-8、DST-1、DCT-5)との相関をさらに評価し、適応水平直交変換候補に加えて適応垂直直交変換候補を直交変換選択部193に出力する。 Furthermore, candidate selection section 192 may select adaptive orthogonal transform candidates separately in the horizontal direction and in the vertical direction. In this case, the candidate selection unit 192 calculates the correlation between the vertical adaptive orthogonal transform input from the adaptive transform generating unit 191 and each orthogonal transform (DCT-2, DST-7, DCT-8, DST-1, DCT-5). is further evaluated, and adaptive vertical orthogonal transform candidates are output to orthogonal transform selecting section 193 in addition to adaptive horizontal orthogonal transform candidates.

直交変換選択部193は、候補選択部192から入力された1つ以上の直交変換候補の中から、予測残差に適用する直交変換を選択し、選択した直交変換を変換部121及び逆変換部142に出力する。また、直交変換選択部193は、選択した直交変換の種類を示すインデックスをエントロピー符号化部130に出力する。 The orthogonal transform selection unit 193 selects an orthogonal transform to be applied to the prediction residual from among the one or more orthogonal transform candidates input from the candidate selection unit 192, and applies the selected orthogonal transform to the transform unit 121 and the inverse transform unit. 142. Orthogonal transform selecting section 193 also outputs an index indicating the type of the selected orthogonal transform to entropy coding section 130 .

例えば、直交変換選択部193は、各直交変換候補を適用した場合の符号化効率をシミュレーションにより算出し、かかるシミュレーションの結果に応じて最適な直交変換を選択する。なお、直交変換選択部193は、水平方向及び垂直方向で同一種類の直交変換を選択するよう構成してもよいし、水平方向及び垂直方向で別々の種類の直交変換を選択するよう構成してもよい。 For example, the orthogonal transform selection unit 193 calculates the coding efficiency when applying each orthogonal transform candidate by simulation, and selects the optimum orthogonal transform according to the result of the simulation. The orthogonal transform selection unit 193 may be configured to select the same type of orthogonal transform in the horizontal direction and the vertical direction, or may be configured to select different types of orthogonal transform in the horizontal direction and the vertical direction. good too.

エントロピー符号化部130は、直交変換選択部193から入力された適応直交変換インデックスをエントロピー符号化する。水平方向及び垂直方向で別々の種類の直交変換を選択する場合には、エントロピー符号化部130は、水平方向及び垂直方向で別々の適応直交変換インデックスをエントロピー符号化する。但し、適応直交変換候補が1種類の直交変換により構成されている場合には、画像復号装置2において一意に直交変換を特定できるため、かかるインデックスをエントロピー符号化しなくてもよい。 The entropy coding section 130 entropy-codes the adaptive orthogonal transform index input from the orthogonal transform selecting section 193 . When selecting different types of orthogonal transforms in the horizontal and vertical directions, the entropy coding unit 130 entropy-codes different adaptive orthogonal transform indices in the horizontal and vertical directions. However, if the adaptive orthogonal transform candidate is composed of one type of orthogonal transform, the orthogonal transform can be uniquely specified in the image decoding device 2, so that the index does not need to be entropy coded.

(画像復号装置)
図7は、第2実施形態に係る画像復号装置2の構成を示す図である。図7に示すように、第2実施形態に係る画像復号装置2は、決定部260の構成が第1実施形態とは異なる。決定部260は、第1実施形態と同様に、誤差マップの主成分分析(図4参照)により直交変換を生成する適応変換生成部261を備える。第2実施形態において、決定部260は、候補選択部(第1選択部)262と、直交変換選択部(第2選択部)263とをさらに備える。
(Image decoding device)
FIG. 7 is a diagram showing the configuration of the image decoding device 2 according to the second embodiment. As shown in FIG. 7, the image decoding device 2 according to the second embodiment differs from the first embodiment in the configuration of the determination unit 260. FIG. The determination unit 260 includes an adaptive transform generation unit 261 that generates an orthogonal transform by principal component analysis (see FIG. 4) of the error map, as in the first embodiment. In the second embodiment, the determination unit 260 further includes a candidate selection unit (first selection unit) 262 and an orthogonal transform selection unit (second selection unit) 263 .

適応変換生成部261は、誤差マップに基づいて生成した適応直交変換(垂直適応直交変換及び水平適応直交変換)を候補選択部262に出力する。 The adaptive transform generating section 261 outputs the adaptive orthogonal transform (vertical adaptive orthogonal transform and horizontal adaptive orthogonal transform) generated based on the error map to the candidate selecting section 262 .

候補選択部262は、予め規定された複数種類の直交変換の中から、適応変換生成部261から入力された適応直交変換との相関が高い順に1つ以上の直交変換候補を選択し、選択した1つ以上の直交変換候補を直交変換選択部263に出力する。上述したように、複数種類の直交変換として、DCT-2、DST-7、DCT-8、DST-1、及びDCT-5が予め規定されているものとする。 Candidate selection section 262 selects one or more orthogonal transform candidates from among a plurality of types of predetermined orthogonal transforms in descending order of correlation with adaptive orthogonal transform input from adaptive transform generating section 261, and selects One or more orthogonal transform candidates are output to orthogonal transform selecting section 263 . As described above, it is assumed that DCT-2, DST-7, DCT-8, DST-1, and DCT-5 are defined in advance as multiple kinds of orthogonal transforms.

具体的には、候補選択部262は、適応変換生成部261から入力された水平適応直交変換と各直交変換(DCT-2、DST-7、DCT-8、DST-1、DCT-5)との相関を評価する。そして、候補選択部262は、相関評価の結果に基づいて、複数種類の直交変換のうち、相関の高い順に1つ以上の直交変換を適応直交変換候補として直交変換選択部263に出力する。 Specifically, the candidate selection unit 262 selects the horizontal adaptive orthogonal transform input from the adaptive transform generating unit 261 and each orthogonal transform (DCT-2, DST-7, DCT-8, DST-1, DCT-5) and Evaluate the correlation of Based on the result of the correlation evaluation, candidate selection section 262 outputs one or more orthogonal transforms in descending order of correlation among the plurality of types of orthogonal transforms to orthogonal transform selection section 263 as adaptive orthogonal transform candidates.

上述したように、候補選択部262が出力する適応直交変換候補の数は、画像符号化装置1及び画像復号装置2で同じ数とするように予め規定される。また、候補選択部262が出力する適応直交変換候補の数は、復号対象の画像ブロックのブロックサイズや色成分(輝度成分、色差成分)などに応じて可変としてもよい。 As described above, the number of adaptive orthogonal transform candidates output by the candidate selection unit 262 is defined in advance such that the number is the same between the image encoding device 1 and the image decoding device 2 . Also, the number of adaptive orthogonal transform candidates output by the candidate selection unit 262 may be variable according to the block size and color components (luminance component, color difference component) of the image block to be decoded.

さらに、候補選択部262は、水平方向と垂直方向とで適応直交変換候補を別々に選択してもよい。かかる場合、候補選択部262は、適応変換生成部261から入力された垂直適応直交変換と各直交変換(DCT-2、DST-7、DCT-8、DST-1、DCT-5)との相関をさらに評価し、適応水平直交変換候補に加えて適応垂直直交変換候補を直交変換選択部263に出力する。 Further, the candidate selection section 262 may select adaptive orthogonal transform candidates separately in the horizontal direction and the vertical direction. In this case, the candidate selection unit 262 calculates the correlation between the vertical adaptive orthogonal transform input from the adaptive transform generating unit 261 and each orthogonal transform (DCT-2, DST-7, DCT-8, DST-1, DCT-5). is further evaluated, and adaptive vertical orthogonal transform candidates are output to orthogonal transform selecting section 263 in addition to adaptive horizontal orthogonal transform candidates.

一方、エントロピー符号復号部200は、1つ以上の直交変換候補の中から画像符号化装置1が選択した直交変換を示すインデックスを復号し、当該インデックスを直交変換選択部263に出力する。水平方向及び垂直方向で別々の種類の直交変換を選択する場合には、エントロピー符号復号部200は、水平方向及び垂直方向で別々の適応直交変換インデックスを復号する。 On the other hand, the entropy code decoding unit 200 decodes an index indicating an orthogonal transform selected by the image encoding device 1 from among one or more orthogonal transform candidates, and outputs the index to the orthogonal transform selecting unit 263 . When selecting different types of orthogonal transforms in the horizontal and vertical directions, the entropy code decoding unit 200 decodes different adaptive orthogonal transform indices in the horizontal and vertical directions.

直交変換選択部263は、エントロピー符号復号部200から入力されたインデックスに基づいて、候補選択部262から入力された1つ以上の直交変換候補の中から変換係数に適用する逆直交変換を選択し、選択した逆直交変換を逆変換部212に出力する。なお、直交変換選択部263は、水平方向及び垂直方向で同一種類の直交変換を選択するよう構成してもよいし、水平方向及び垂直方向で別々の種類の直交変換を選択するよう構成してもよい。 Orthogonal transform selecting section 263 selects an inverse orthogonal transform to be applied to transform coefficients from among one or more orthogonal transform candidates input from candidate selecting section 262 based on the index input from entropy code decoding section 200. , outputs the selected inverse orthogonal transform to the inverse transform unit 212 . The orthogonal transform selection unit 263 may be configured to select the same type of orthogonal transform in the horizontal direction and the vertical direction, or may be configured to select different types of orthogonal transform in the horizontal direction and the vertical direction. good too.

(第2実施形態のまとめ)
第2実施形態に係る画像符号化装置1において、決定部190は、誤差マップの主成分分析により直交変換を生成する適応変換生成部191と、予め規定された複数種類の直交変換の中から、生成された直交変換との相関が高い順に1つ以上の直交変換候補を選択する候補選択部192と、1つ以上の直交変換候補の中から予測残差に適用する直交変換を選択する直交変換選択部193とを備える。エントロピー符号化部130は、1つ以上の直交変換候補の中から直交変換選択部193が選択した直交変換を示すインデックスを符号化する。
(Summary of Second Embodiment)
In the image encoding device 1 according to the second embodiment, the determination unit 190 includes an adaptive transform generation unit 191 that generates an orthogonal transform by principal component analysis of an error map, A candidate selection unit 192 that selects one or more orthogonal transform candidates in descending order of correlation with the generated orthogonal transform, and an orthogonal transform that selects an orthogonal transform to be applied to the prediction residual from among the one or more orthogonal transform candidates. and a selection unit 193 . The entropy encoding unit 130 encodes an index indicating an orthogonal transform selected by the orthogonal transform selecting unit 193 from one or more orthogonal transform candidates.

また、第2実施形態に係る画像復号装置2において、決定部260は、誤差マップの主成分分析により直交変換を生成する適応変換生成部261と、予め規定された複数種類の直交変換の中から、生成された直交変換との相関が高い順に1つ以上の直交変換候補を選択する候補選択部262と、1つ以上の直交変換候補の中から変換係数に適用する逆直交変換を選択する直交変換選択部263とを備える。エントロピー符号復号部200は、1つ以上の直交変換候補の中から画像符号化装置1が選択した直交変換を示すインデックスを復号する。直交変換選択部263は、当該インデックスに基づいて、1つ以上の直交変換候補の中から変換係数に適用する逆直交変換を選択する。 Further, in the image decoding device 2 according to the second embodiment, the determination unit 260 includes an adaptive transform generation unit 261 that generates an orthogonal transform by principal component analysis of the error map, and a plurality of types of predetermined orthogonal transforms , a candidate selection unit 262 that selects one or more orthogonal transform candidates in descending order of correlation with the generated orthogonal transform; and a conversion selection unit 263 . The entropy code decoding unit 200 decodes an index indicating an orthogonal transform selected by the image encoding device 1 from among one or more orthogonal transform candidates. The orthogonal transform selection unit 263 selects an inverse orthogonal transform to be applied to transform coefficients from one or more orthogonal transform candidates based on the index.

このように、第2実施形態によれば、予め規定された複数種類の直交変換の中から、誤差マップの主成分分析により生成された直交変換(KLT)と相関の高い直交変換候補を選択し、当該直交変換候補の中から変換処理に適用する直交変換を選択する。予め規定された複数種類の直交変換(DCT-2、DST-7、DCT-8、DST-1、DCT-5)は、KLTに比べて演算処理量が少ない。 As described above, according to the second embodiment, an orthogonal transform candidate having a high correlation with the orthogonal transform (KLT) generated by principal component analysis of the error map is selected from among a plurality of types of orthogonal transform specified in advance. , an orthogonal transform to be applied to the transform process is selected from the orthogonal transform candidates. A plurality of types of predetermined orthogonal transforms (DCT-2, DST-7, DCT-8, DST-1, DCT-5) require less computational processing than KLT.

したがって、第2実施形態によれば、予測残差のエネルギーを効率的に集中させる直交変換を適用可能にして符号化効率を改善しつつ、第1実施形態に比べて変換処理の演算処理量を削減できる。 Therefore, according to the second embodiment, the orthogonal transform that efficiently concentrates the energy of the prediction residuals can be applied to improve the coding efficiency, while reducing the computational complexity of the transform process compared to the first embodiment. can be reduced.

<第3実施形態>
第3実施形態に係る画像符号化装置1及び画像復号装置2について、第1実施形態及び第2実施形態との相違点を主として説明する。
<Third Embodiment>
The image encoding device 1 and the image decoding device 2 according to the third embodiment will be mainly described with respect to differences from the first and second embodiments.

上述した第2実施形態では、予め規定された複数種類の直交変換の中から、誤差マップの主成分分析により生成された直交変換(KLT)と相関の高い直交変換候補を選択していた。これに対し、第3実施形態では、予め規定された複数種類の直交変換の中から、誤差マップの特徴量評価によって直交変換候補を選択する。 In the above-described second embodiment, an orthogonal transform candidate having a high correlation with the orthogonal transform (KLT) generated by the principal component analysis of the error map is selected from among a plurality of types of orthogonal transform specified in advance. On the other hand, in the third embodiment, orthogonal transformation candidates are selected from a plurality of types of orthogonal transformations defined in advance by evaluating the feature amount of the error map.

(画像符号化装置)
図8は、第3実施形態に係る画像符号化装置1の構成を示す図である。図8に示すように、第3実施形態に係る画像符号化装置1は、決定部190が特徴量評価部191aを備える点で第2実施形態とは異なる。特徴量評価部191aは、評価部180から入力された誤差マップの特徴量を評価し、評価結果を候補選択部192に出力する。
(Image encoding device)
FIG. 8 is a diagram showing the configuration of the image encoding device 1 according to the third embodiment. As shown in FIG. 8, the image coding apparatus 1 according to the third embodiment differs from that of the second embodiment in that the determination unit 190 includes a feature amount evaluation unit 191a. The feature quantity evaluation unit 191 a evaluates the feature quantity of the error map input from the evaluation unit 180 and outputs the evaluation result to the candidate selection unit 192 .

図9は、特徴量評価部191aの動作を示す図である。図9に示すように、特徴量評価部191aは、誤差マップのエネルギー分布を評価するために、誤差マップを水平方向に4分割するとともに垂直方向に4分割し、分割された各領域について誤差推定値の合計値Exy(E00乃至E33)を算出する。特徴量評価部191aは、評価したエネルギー分布E00乃至E33を候補選択部192に出力する。 FIG. 9 is a diagram showing the operation of the feature quantity evaluation unit 191a. As shown in FIG. 9, in order to evaluate the energy distribution of the error map, the feature quantity evaluation unit 191a divides the error map into 4 parts in the horizontal direction and 4 parts in the vertical direction. A total value Exy (E 00 to E 33 ) of the values is calculated. The feature quantity evaluation unit 191 a outputs the evaluated energy distributions E 00 to E 33 to the candidate selection unit 192 .

候補選択部192は、下記の条件に基づいて、予め規定された複数種類の直交変換(DCT-2、DST-7、DCT-8、DST-1、DCT-5)の中から適応直交変換候補を選択し、選択した適応直交変換候補を直交変換選択部193に出力する。 Candidate selection section 192 selects adaptive orthogonal transform candidates from a plurality of types of predefined orthogonal transforms (DCT-2, DST-7, DCT-8, DST-1, DCT-5) based on the following conditions: is selected, and the selected adaptive orthogonal transform candidate is output to orthogonal transform selecting section 193 .

(a)候補選択部192は、水平方向について: (a) The candidate selection unit 192 performs horizontal direction:

Figure 2023053272000002
Figure 2023053272000002

のとき、DCT-2及びDST-1を水平適応直交変換候補として選択し、 select DCT-2 and DST-1 as horizontal adaptive orthogonal transform candidates when

Figure 2023053272000003
Figure 2023053272000003

のとき、DCT-2及びDST-7を水平適応直交変換候補として選択し、 select DCT-2 and DST-7 as horizontal adaptive orthogonal transform candidates when

Figure 2023053272000004
Figure 2023053272000004

のとき、DCT-2及びDCT-5を水平適応直交変換候補として選択し、
いずれも当てはまらないとき、DCT-8及びDST-7を水平適応直交変換候補として選択する。
select DCT-2 and DCT-5 as horizontal adaptive orthogonal transform candidates when
When neither is true, DCT-8 and DST-7 are selected as horizontal adaptive orthogonal transform candidates.

(b)候補選択部192は、垂直方向について: (b) The candidate selection unit 192 performs the vertical direction:

Figure 2023053272000005
Figure 2023053272000005

のとき、DCT-2及びDST-1を垂直適応直交変換候補として選択し、 select DCT-2 and DST-1 as vertical adaptive orthogonal transform candidates when

Figure 2023053272000006
Figure 2023053272000006

のとき、DCT-2及びDST-7を垂直適応直交変換候補として選択し、 select DCT-2 and DST-7 as vertical adaptive orthogonal transform candidates when

Figure 2023053272000007
Figure 2023053272000007

のとき、DCT-2及びDCT-5を垂直適応直交変換候補として選択し、
いずれも当てはまらないとき、DCT-8及びDST-7を垂直適応直交変換候補として選択する。
select DCT-2 and DCT-5 as vertical adaptive orthogonal transform candidates when
When neither is true, DCT-8 and DST-7 are selected as vertical adaptive orthogonal transform candidates.

ここでは、候補選択部192が出力する適応直交変換候補の数は、水平方向及び垂直方向のそれぞれで2つであるが、候補選択部192が出力する適応直交変換候補の数は、符号化対象の画像ブロックのブロックサイズや色成分(輝度成分、色差成分)などに応じて可変としてもよい。 Here, the number of adaptive orthogonal transform candidates output by candidate selecting section 192 is two in each of the horizontal direction and the vertical direction. may be variable according to the block size of the image block, color components (luminance component, color difference component), and the like.

直交変換選択部193は、第2実施形態と同様に、候補選択部192から入力された直交変換候補の中から、予測残差に適用する直交変換を選択し、選択した直交変換を変換部121及び逆変換部142に出力する。また、直交変換選択部193は、選択した直交変換の種類を示すインデックスをエントロピー符号化部130に出力する。エントロピー符号化部130は、直交変換選択部193から入力された適応直交変換インデックスをエントロピー符号化する。 As in the second embodiment, the orthogonal transform selection unit 193 selects an orthogonal transform to be applied to the prediction residual from among the orthogonal transform candidates input from the candidate selection unit 192, and applies the selected orthogonal transform to the transform unit 121. and output to the inverse transformation unit 142 . Orthogonal transform selecting section 193 also outputs an index indicating the type of the selected orthogonal transform to entropy coding section 130 . The entropy coding section 130 entropy-codes the adaptive orthogonal transform index input from the orthogonal transform selecting section 193 .

(画像復号装置)
図10は、第3実施形態に係る画像復号装置2の構成を示す図である。図10に示すように、第3実施形態に係る画像復号装置2は、決定部260が特徴量評価部261aを備える点で第2実施形態とは異なる。特徴量評価部261aは、画像符号化装置1の特徴量評価部191aと同様な動作を行う(図9参照)。
(Image decoding device)
FIG. 10 is a diagram showing the configuration of an image decoding device 2 according to the third embodiment. As shown in FIG. 10, the image decoding device 2 according to the third embodiment differs from that of the second embodiment in that the determination unit 260 includes a feature amount evaluation unit 261a. The feature amount evaluation unit 261a performs the same operation as the feature amount evaluation unit 191a of the image encoding device 1 (see FIG. 9).

特徴量評価部261aは、誤差マップのエネルギー分布を評価するために、誤差マップを水平方向に4分割するとともに垂直方向に4分割し、分割された各領域について誤差推定値の合計値Exy(E00乃至E33)を算出する。特徴量評価部261aは、評価したエネルギー分布E00乃至E33を候補選択部262に出力する。 In order to evaluate the energy distribution of the error map, the feature quantity evaluation unit 261a divides the error map into 4 parts in the horizontal direction and 4 parts in the vertical direction. 00 to E 33 ). The feature quantity evaluation unit 261 a outputs the evaluated energy distributions E 00 to E 33 to the candidate selection unit 262 .

候補選択部262は、画像符号化装置1の候補選択部192と同様な条件に基づいて、予め規定された複数種類の直交変換(DCT-2、DST-7、DCT-8、DST-1、DCT-5)の中から適応直交変換候補を選択し、選択した適応直交変換候補を直交変換選択部263に出力する。 The candidate selection unit 262 selects a plurality of types of predefined orthogonal transforms (DCT-2, DST-7, DCT-8, DST-1, It selects an adaptive orthogonal transform candidate from DCT-5) and outputs the selected adaptive orthogonal transform candidate to orthogonal transform selecting section 263 .

一方、エントロピー符号復号部200は、直交変換候補の中から画像符号化装置1が選択した直交変換を示すインデックスを復号し、当該インデックスを直交変換選択部263に出力する。直交変換選択部263は、エントロピー符号復号部200から入力されたインデックスに基づいて、候補選択部262から入力された直交変換候補の中から変換係数に適用する逆直交変換を選択し、選択した逆直交変換を逆変換部212に出力する。 On the other hand, the entropy code decoding unit 200 decodes the index indicating the orthogonal transform selected by the image encoding device 1 from among the orthogonal transform candidates, and outputs the index to the orthogonal transform selecting unit 263 . Orthogonal transform selecting section 263 selects an inverse orthogonal transform to be applied to transform coefficients from the orthogonal transform candidates input from candidate selecting section 262 based on the index input from entropy code decoding section 200, and selects the inverse orthogonal transform to be applied to the transform coefficient. The orthogonal transform is output to the inverse transform unit 212 .

(第3実施形態のまとめ)
第3実施形態に係る画像符号化装置1において、決定部190は、誤差マップの特徴量を評価する特徴量評価部191aと、評価された特徴量に基づいて、予め規定された複数種類の直交変換の中から1つ以上の直交変換候補を選択する候補選択部192と、1つ以上の直交変換候補の中から予測残差に適用する直交変換を選択する直交変換選択部193とを備える。エントロピー符号化部130は、1つ以上の直交変換候補の中から直交変換選択部193が選択した直交変換を示すインデックスを符号化する。
(Summary of the third embodiment)
In the image encoding device 1 according to the third embodiment, the determination unit 190 includes a feature amount evaluation unit 191a that evaluates the feature amount of the error map, and a plurality of types of predetermined orthogonal vectors based on the evaluated feature amount. It includes a candidate selection unit 192 that selects one or more orthogonal transform candidates from among the transforms, and an orthogonal transform selection unit 193 that selects an orthogonal transform to be applied to the prediction residual from among the one or more orthogonal transform candidates. The entropy encoding unit 130 encodes an index indicating an orthogonal transform selected by the orthogonal transform selecting unit 193 from one or more orthogonal transform candidates.

また、第3実施形態に係る画像復号装置2において、決定部260は、誤差マップの特徴量を評価する特徴量評価部261aと、評価された特徴量に基づいて、予め規定された複数種類の直交変換の中から1つ以上の直交変換候補を選択する候補選択部262と、1つ以上の直交変換候補の中から変換係数に適用する逆直交変換を選択する直交変換選択部263とを備える。エントロピー符号復号部200は、1つ以上の直交変換候補の中から画像符号化装置1が選択した直交変換を示すインデックスを復号する。直交変換選択部263は、当該インデックスに基づいて、1つ以上の直交変換候補の中から変換係数に適用する逆直交変換を選択する。 Further, in the image decoding device 2 according to the third embodiment, the determination unit 260 includes a feature amount evaluation unit 261a that evaluates the feature amount of the error map, and a plurality of types of predetermined types based on the evaluated feature amount. A candidate selection unit 262 that selects one or more orthogonal transform candidates from among the orthogonal transform candidates, and an orthogonal transform selection unit 263 that selects an inverse orthogonal transform to be applied to transform coefficients from among the one or more orthogonal transform candidates. . The entropy code decoding unit 200 decodes an index indicating an orthogonal transform selected by the image encoding device 1 from among one or more orthogonal transform candidates. The orthogonal transform selection unit 263 selects an inverse orthogonal transform to be applied to transform coefficients from one or more orthogonal transform candidates based on the index.

このように、第3実施形態によれば、誤差マップの特徴量をシンプルな演算処理により評価できるため、誤差マップの主成分分析により直交変換(KLT)を生成する第2実施形態に比べて演算処理量を削減できる。 As described above, according to the third embodiment, since the feature quantity of the error map can be evaluated by simple arithmetic processing, the computation Processing volume can be reduced.

したがって、第3実施形態によれば、予測残差のエネルギーを効率的に集中させる直交変換を適用可能にして符号化効率を改善しつつ、第2実施形態に比べて誤差マップの分析のための演算処理量を削減できる。 Therefore, according to the third embodiment, the orthogonal transform that efficiently concentrates the energy of the prediction residual can be applied to improve the coding efficiency, and the error map analysis is performed more efficiently than the second embodiment. Arithmetic processing can be reduced.

<その他の実施形態>
上述した第1乃至第3実施形態において、一次元の直交変換を用いて垂直方向及び垂直方向で別々に変換処理を行う一例について説明した。しかしながら、一次元の直交変換に代えて二次元の直交変換を用いて垂直方向及び垂直方向の変換処理をまとめて行ってもよい。
<Other embodiments>
In the first to third embodiments described above, an example of performing transform processing separately in the vertical direction and in the vertical direction using one-dimensional orthogonal transform has been described. However, instead of the one-dimensional orthogonal transform, two-dimensional orthogonal transform may be used to collectively perform transform processing in the vertical direction and the vertical direction.

また、画像符号化装置1が行う各処理をコンピュータに実行させるプログラム及び画像復号装置2が行う各処理をコンピュータに実行させるプログラムにより提供されてもよい。また、プログラムは、コンピュータ読取り可能媒体に記録されていてもよい。コンピュータ読取り可能媒体を用いれば、コンピュータにプログラムをインストールすることが可能である。ここで、プログラムが記録されたコンピュータ読取り可能媒体は、非一過性の記録媒体であってもよい。非一過性の記録媒体は、特に限定されるものではないが、例えば、CD-ROMやDVD-ROM等の記録媒体であってもよい。 Alternatively, the program may be provided by a program that causes a computer to execute each process performed by the image encoding device 1 and a program that causes a computer to execute each process performed by the image decoding device 2 . Also, the program may be recorded on a computer-readable medium. A computer readable medium allows the installation of the program on the computer. Here, the computer-readable medium on which the program is recorded may be a non-transitory recording medium. The non-transitory recording medium is not particularly limited, but may be, for example, a recording medium such as CD-ROM or DVD-ROM.

また、画像符号化装置1が行う各処理を実行する回路を集積化し、画像符号化装置1を半導体集積回路(チップセット、SoC)として構成してもよい。同様に、画像復号装置2が行う各処理を実行する回路を集積化し、画像復号装置2を半導体集積回路(チップセット、SoC)として構成してもよい。 Alternatively, the image encoding device 1 may be configured as a semiconductor integrated circuit (chipset, SoC) by integrating a circuit that executes each process performed by the image encoding device 1 . Similarly, the image decoding device 2 may be configured as a semiconductor integrated circuit (chipset, SoC) by integrating a circuit that executes each process performed by the image decoding device 2 .

以上、図面を参照して実施形態について詳しく説明したが、具体的な構成は上述のものに限られることはなく、要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。 Although the embodiments have been described in detail with reference to the drawings, the specific configuration is not limited to the above, and various design changes can be made without departing from the spirit of the invention.

1 :画像符号化装置
2 :画像復号装置
100 :ブロック分割部
110 :減算部
120 :変換・量子化部
121 :変換部
122 :量子化部
130 :エントロピー符号化部
140 :逆量子化・逆変換部
141 :逆量子化部
142 :逆変換部
150 :合成部
160 :メモリ
170 :予測部
171 :イントラ予測部
172 :インター予測部
173 :切替部
180 :評価部
180a :差分算出部
180b :正規化部
180c :調整部
190 :決定部
191 :適応変換生成部
191a :特徴量評価部
192 :候補選択部
193 :直交変換選択部
200 :エントロピー符号復号部
210 :逆量子化・逆変換部
211 :逆量子化部
212 :逆変換部
220 :合成部
230 :メモリ
240 :予測部
241 :イントラ予測部
242 :インター予測部
243 :切替部
250 :評価部
260 :決定部
261 :適応変換生成部
261a :特徴量評価部
262 :候補選択部
263 :直交変換選択部
1: image coding device 2: image decoding device 100: block division unit 110: subtraction unit 120: transformation/quantization unit 121: transformation unit 122: quantization unit 130: entropy coding unit 140: inverse quantization/inverse transformation Unit 141 : Inverse quantization unit 142 : Inverse transform unit 150 : Synthesis unit 160 : Memory 170 : Prediction unit 171 : Intra prediction unit 172 : Inter prediction unit 173 : Switching unit 180 : Evaluation unit 180a : Difference calculation unit 180b : Normalization Unit 180c: Adjustment unit 190: Determination unit 191: Adaptive transformation generation unit 191a: Feature amount evaluation unit 192: Candidate selection unit 193: Orthogonal transformation selection unit 200: Entropy code decoding unit 210: Inverse quantization/inverse transformation unit 211: Inverse Quantization unit 212 : Inverse transform unit 220 : Synthesis unit 230 : Memory 240 : Prediction unit 241 : Intra prediction unit 242 : Inter prediction unit 243 : Switching unit 250 : Evaluation unit 260 : Determination unit 261 : Adaptive transformation generation unit 261a : Features Quantity evaluation unit 262: Candidate selection unit 263: Orthogonal transformation selection unit

Claims (12)

フレーム単位の現画像を分割して得られたブロック単位の対象画像を符号化する画像符号化装置であって、
複数の参照画像を用いて前記対象画像を予測して予測画像を生成する予測部と、
前記複数の参照画像間の類似度を、画素単位で評価することにより、前記予測画像における誤差の分布を示すマップ情報を生成する評価部と、
前記対象画像と前記予測画像との差分を示す予測残差を画素単位で算出する減算部と、
前記予測残差に適用する直交変換を前記マップ情報に基づいて決定する決定部と、
前記決定された直交変換によって前記予測残差に対する直交変換処理を行う変換部と、を備えることを特徴とする画像符号化装置。
An image encoding device for encoding a target image in block units obtained by dividing a current image in frame units,
a prediction unit that predicts the target image using a plurality of reference images to generate a predicted image;
an evaluation unit that generates map information indicating the distribution of errors in the predicted image by evaluating the degree of similarity between the plurality of reference images on a pixel-by-pixel basis;
a subtraction unit that calculates a prediction residual indicating a difference between the target image and the predicted image on a pixel-by-pixel basis;
a determination unit that determines an orthogonal transform to be applied to the prediction residual based on the map information;
and a transform unit that performs orthogonal transform processing on the prediction residual using the determined orthogonal transform.
前記決定部は、
前記マップ情報の主成分分析により直交変換を生成する適応変換生成部と、
予め規定された複数種類の直交変換の中から、前記生成された直交変換との相関が高い順に1つ以上の直交変換候補を選択する第1選択部と、
前記1つ以上の直交変換候補の中から前記予測残差に適用する直交変換を選択する第2選択部と、を備えることを特徴とする請求項1に記載の画像符号化装置。
The decision unit
an adaptive transform generator that generates an orthogonal transform by principal component analysis of the map information;
a first selection unit that selects one or more orthogonal transform candidates in descending order of correlation with the generated orthogonal transform from among a plurality of types of predetermined orthogonal transforms;
2. The image coding apparatus according to claim 1, further comprising a second selection unit that selects an orthogonal transform to be applied to the prediction residual from among the one or more orthogonal transform candidates.
前記決定部は、
前記マップ情報における特徴量を評価する特徴量評価部と、
前記評価された特徴量に基づいて、予め規定された複数種類の直交変換の中から1つ以上の直交変換候補を選択する第1選択部と、
前記1つ以上の直交変換候補の中から前記予測残差に適用する直交変換を選択する第2選択部と、を備えることを特徴とする請求項1に記載の画像符号化装置。
The decision unit
a feature quantity evaluation unit that evaluates a feature quantity in the map information;
a first selection unit that selects one or more orthogonal transform candidates from a plurality of types of predetermined orthogonal transforms based on the evaluated feature amount;
2. The image coding apparatus according to claim 1, further comprising a second selection unit that selects an orthogonal transform to be applied to the prediction residual from among the one or more orthogonal transform candidates.
前記1つ以上の直交変換候補の中から前記第2選択部が選択した直交変換を示すインデックスを符号化する符号化部をさらに備えることを特徴とする請求項2又は3に記載の画像符号化装置。 4. The image encoding according to claim 2, further comprising an encoding unit that encodes an index indicating the orthogonal transform selected by the second selection unit from among the one or more orthogonal transform candidates. Device. フレーム単位の現画像を分割して得られたブロック単位の対象画像を符号化する画像符号化装置であって、
複数の参照画像を用いて前記対象画像を予測して予測画像を生成する予測部と、
前記複数の参照画像間の類似度を示す差分絶対値和を前記ブロックよりも小さい領域単位であって複数の画素からなる前記領域単位で算出する評価部と、を備え、
前記評価部が前記領域単位で算出した前記差分絶対値和に基づいて符号化の処理を制御することを特徴とする画像符号化装置。
An image encoding device for encoding a target image in block units obtained by dividing a current image in frame units,
a prediction unit that predicts the target image using a plurality of reference images to generate a predicted image;
an evaluation unit that calculates the sum of absolute differences indicating the degree of similarity between the plurality of reference images in units of regions smaller than the blocks and made up of a plurality of pixels;
An image encoding apparatus, wherein the evaluation unit controls encoding processing based on the sum of absolute differences calculated for each area.
フレーム単位の現画像を分割して得られたブロック単位の対象画像を復号する画像復号装置であって、
符号化データを復号することにより変換係数を取得する復号部と、
複数の参照画像を用いて前記対象画像を予測して予測画像を生成する予測部と、
前記複数の参照画像間の類似度を画素単位で評価することにより、前記予測画像における誤差の分布を示すマップ情報を生成する評価部と、
前記変換係数に適用する逆直交変換を前記マップ情報に基づいて決定する決定部と、
前記決定された逆直交変換によって前記変換係数に対する逆直交変換処理を行う逆変換部と、を備えることを特徴とする画像復号装置。
An image decoding device for decoding a target image in units of blocks obtained by dividing a current image in units of frames,
a decoding unit that obtains transform coefficients by decoding encoded data;
a prediction unit that predicts the target image using a plurality of reference images to generate a predicted image;
an evaluation unit that generates map information indicating the distribution of errors in the predicted image by evaluating the degree of similarity between the plurality of reference images on a pixel-by-pixel basis;
a determination unit that determines an inverse orthogonal transform to be applied to the transform coefficients based on the map information;
an inverse transform unit that performs inverse orthogonal transform processing on the transform coefficients by the determined inverse orthogonal transform.
前記決定部は、
前記マップ情報の主成分分析により直交変換を生成する適応変換生成部と、
予め規定された複数種類の直交変換の中から、前記生成された直交変換との相関が高い順に1つ以上の直交変換候補を選択する第1選択部と、
前記1つ以上の直交変換候補の中から前記変換係数に適用する逆直交変換を選択する第2選択部と、を備えることを特徴とする請求項6に記載の画像復号装置。
The decision unit
an adaptive transform generator that generates an orthogonal transform by principal component analysis of the map information;
a first selection unit that selects one or more orthogonal transform candidates in descending order of correlation with the generated orthogonal transform from among a plurality of types of predetermined orthogonal transforms;
7. The image decoding device according to claim 6, further comprising a second selection unit that selects an inverse orthogonal transform to be applied to the transform coefficient from among the one or more orthogonal transform candidates.
前記決定部は、
前記マップ情報における特徴量を評価する特徴量評価部と、
前記評価された特徴量に基づいて、予め規定された複数種類の直交変換の中から1つ以上の直交変換候補を選択する第1選択部と、
前記1つ以上の直交変換候補の中から前記変換係数に適用する逆直交変換を選択する第2選択部と、を備えることを特徴とする請求項6に記載の画像復号装置。
The decision unit
a feature quantity evaluation unit that evaluates a feature quantity in the map information;
a first selection unit that selects one or more orthogonal transform candidates from a plurality of types of predetermined orthogonal transforms based on the evaluated feature amount;
7. The image decoding device according to claim 6, further comprising a second selection unit that selects an inverse orthogonal transform to be applied to the transform coefficient from among the one or more orthogonal transform candidates.
前記復号部は、前記1つ以上の直交変換候補の中から画像符号化装置が選択した直交変換を示すインデックスをさらに復号し、
前記第2選択部は、前記インデックスに基づいて、前記1つ以上の直交変換候補の中から前記変換係数に適用する逆直交変換を選択することを特徴とする請求項7又は8に記載の画像復号装置。
The decoding unit further decodes an index indicating an orthogonal transform selected by the image coding device from among the one or more orthogonal transform candidates,
9. The image according to claim 7, wherein the second selection unit selects an inverse orthogonal transform to be applied to the transform coefficient from the one or more orthogonal transform candidates based on the index. decryption device.
フレーム単位の現画像を分割して得られたブロック単位の対象画像を復号する画像復号装置であって、
複数の参照画像を用いて前記対象画像を予測して予測画像を生成する予測部と、
前記複数の参照画像間の類似度を示す差分絶対値和を前記ブロックよりも小さい領域単位であって複数の画素からなる前記領域単位で算出する評価部と、を備え、
前記評価部が前記領域単位で算出した前記差分絶対値和に基づいて復号の処理を制御することを特徴とする画像復号装置。
An image decoding device for decoding a target image in units of blocks obtained by dividing a current image in units of frames,
a prediction unit that predicts the target image using a plurality of reference images to generate a predicted image;
an evaluation unit that calculates the sum of absolute differences indicating the degree of similarity between the plurality of reference images in units of regions smaller than the blocks and made up of a plurality of pixels;
An image decoding apparatus, wherein the evaluation unit controls decoding processing based on the sum of absolute differences calculated for each region.
コンピュータを請求項1乃至5のいずれか1項に記載の画像符号化装置として機能させることを特徴とするプログラム。 A program that causes a computer to function as the image encoding device according to any one of claims 1 to 5. コンピュータを請求項6乃至10のいずれか1項に記載の画像復号装置として機能させることを特徴とするプログラム。 A program that causes a computer to function as the image decoding device according to any one of claims 6 to 10.
JP2023020232A 2018-08-15 2023-02-13 Image encoding device, image decoding device, and program Active JP7483964B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023020232A JP7483964B2 (en) 2018-08-15 2023-02-13 Image encoding device, image decoding device, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018152991A JP7249111B2 (en) 2018-08-15 2018-08-15 Image encoding device, image decoding device, and program
JP2023020232A JP7483964B2 (en) 2018-08-15 2023-02-13 Image encoding device, image decoding device, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018152991A Division JP7249111B2 (en) 2018-08-15 2018-08-15 Image encoding device, image decoding device, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024074523A Division JP2024087082A (en) 2024-05-01 Image encoding device, image decoding device, and program

Publications (2)

Publication Number Publication Date
JP2023053272A true JP2023053272A (en) 2023-04-12
JP7483964B2 JP7483964B2 (en) 2024-05-15

Family

ID=69620422

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018152991A Active JP7249111B2 (en) 2018-08-15 2018-08-15 Image encoding device, image decoding device, and program
JP2023020232A Active JP7483964B2 (en) 2018-08-15 2023-02-13 Image encoding device, image decoding device, and program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018152991A Active JP7249111B2 (en) 2018-08-15 2018-08-15 Image encoding device, image decoding device, and program

Country Status (1)

Country Link
JP (2) JP7249111B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112417972A (en) * 2020-10-23 2021-02-26 奥比中光科技集团股份有限公司 Heat map decoding method, human body joint point estimation method and system

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000059785A (en) 1998-08-06 2000-02-25 Hitachi Ltd Prediction decoder
JP4447197B2 (en) 2002-01-07 2010-04-07 三菱電機株式会社 Moving picture encoding apparatus and moving picture decoding apparatus
US8705627B2 (en) 2008-07-25 2014-04-22 Sony Corporation Image processing apparatus and method
JP2012516627A (en) 2009-01-27 2012-07-19 トムソン ライセンシング Method and apparatus for selection of transforms in video encoding and video decoding
JP5488612B2 (en) 2009-12-28 2014-05-14 富士通株式会社 Moving picture encoding apparatus and moving picture decoding apparatus
JP5488613B2 (en) 2009-12-28 2014-05-14 富士通株式会社 Moving picture encoding apparatus and moving picture decoding apparatus
JP6459761B2 (en) * 2015-05-01 2019-01-30 富士通株式会社 Moving picture coding apparatus, moving picture coding method, and moving picture coding computer program

Also Published As

Publication number Publication date
JP7483964B2 (en) 2024-05-15
JP2020028067A (en) 2020-02-20
JP7249111B2 (en) 2023-03-30

Similar Documents

Publication Publication Date Title
EP3661203A1 (en) Video decoder, video encoder, video decoding method, and video encoding method
US10110905B2 (en) TSM rate-distortion optimizing method, encoding method and device using the same, and apparatus for processing picture
JP6042001B2 (en) Moving picture coding apparatus and moving picture coding method
US20240040128A1 (en) Image encoding device, image decoding device and program
JP2023168518A (en) Prediction block generation device, image encoder, image decoder, and program
US20220224936A1 (en) Prediction image correcting device, image encoding device, image decoding device, and program
JP7483964B2 (en) Image encoding device, image decoding device, and program
JP2023123811A (en) Image decoding device and image decoding method
JP7332385B2 (en) Intra prediction device, image coding device, image decoding device, and program
JP7228980B2 (en) Predictive image correction device, image coding device, image decoding device, and program
JP2024087082A (en) Image encoding device, image decoding device, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240501

R150 Certificate of patent or registration of utility model

Ref document number: 7483964

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150