JP2015035641A - Image decoder and image encoder - Google Patents

Image decoder and image encoder Download PDF

Info

Publication number
JP2015035641A
JP2015035641A JP2013145778A JP2013145778A JP2015035641A JP 2015035641 A JP2015035641 A JP 2015035641A JP 2013145778 A JP2013145778 A JP 2013145778A JP 2013145778 A JP2013145778 A JP 2013145778A JP 2015035641 A JP2015035641 A JP 2015035641A
Authority
JP
Japan
Prior art keywords
layer
prediction
image
inter
reference layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013145778A
Other languages
Japanese (ja)
Other versions
JP2015035641A5 (en
JP6224930B2 (en
Inventor
健史 筑波
Kenji Tsukuba
健史 筑波
山本 智幸
Tomoyuki Yamamoto
智幸 山本
知宏 猪飼
Tomohiro Igai
知宏 猪飼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2013145778A priority Critical patent/JP6224930B2/en
Publication of JP2015035641A publication Critical patent/JP2015035641A/en
Publication of JP2015035641A5 publication Critical patent/JP2015035641A5/en
Application granted granted Critical
Publication of JP6224930B2 publication Critical patent/JP6224930B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a mechanism that controls whether inter-layer image prediction in which pixels outside a reference layer corresponding region are referred to can be applied to a hierarchical encoding system.SOLUTION: An image decoder which decodes hierarchical encoded data includes: reference layer corresponding region information decoding means of decoding reference layer corresponding region information showing corresponding regions of an object layer and a reference layer; inter-layer image prediction restriction flag decoding means of decoding an inter-layer image prediction restriction flag inhibiting inter-layer image prediction meeting a predetermined condition; re-sampling means of generating a re-sample reference layer picture based upon a reference layer picture having been decoded and the reference layer corresponding region information; and prediction image generation means of generating prediction images in respective prediction units constituting the picture of the object layer. The prediction image generation means generates a prediction image as a prediction unit through inter-layer image prediction which does not meet the predetermined condition when the inter-layer image prediction restriction flag is true and a prediction system for the prediction unit is inter-layer image prediction.

Description

本発明は、画像が階層的に符号化された階層符号化データを復号する画像復号装置、および画像を階層的に符号化することによって階層符号化データを生成する画像符号化装置に関する。   The present invention relates to an image decoding apparatus that decodes hierarchically encoded data in which an image is hierarchically encoded, and an image encoding apparatus that generates hierarchically encoded data by hierarchically encoding an image.

通信システムで伝送される情報、あるいは蓄積装置に記録される情報の1つに画像あるいは動画像がある。従来、これらの画像(以降、動画像を含む)の伝送・蓄積のため、画像を符号化する技術が知られている。   One of information transmitted in the communication system or information recorded in the storage device is an image or a moving image. 2. Description of the Related Art Conventionally, a technique for encoding an image for transmitting and storing these images (hereinafter including moving images) is known.

動画像符号化方式としては、AVC(H.264/MPEG-4 Advanced Video Coding)や、その後継コーデックであるHEVC(High-Efficiency Video Coding)が知られている(非特許文献1)。   As a moving picture coding system, AVC (H.264 / MPEG-4 Advanced Video Coding) and its successor codec HEVC (High-Efficiency Video Coding) are known (Non-patent Document 1).

これらの動画像符号化方式では、通常、入力画像を符号化/復号することによって得られる局所復号画像に基づいて予測画像が生成され、当該予測画像を入力画像(原画像)から減算して得られる予測残差(「差分画像」または「残差画像」と呼ぶこともある)が符号化される。また、予測画像の生成方法としては、画面間予測(インター予測)、および、画面内予測(イントラ予測)が挙げられる。   In these moving image encoding methods, a predicted image is usually generated based on a local decoded image obtained by encoding / decoding an input image, and obtained by subtracting the predicted image from the input image (original image). Prediction residuals (sometimes referred to as “difference images” or “residual images”) are encoded. In addition, examples of the method for generating a predicted image include inter-screen prediction (inter prediction) and intra-screen prediction (intra prediction).

イントラ予測では、同一ピクチャ内の局所復号画像に基づいて、当該ピクチャにおける予測画像が順次生成される。   In intra prediction, predicted images in a picture are sequentially generated based on a locally decoded image in the same picture.

インター予測では、ピクチャ間の動き補償により予測画像が生成される。インター予測で予測画像生成に用いられる復号済のピクチャは参照ピクチャと呼ばれる。   In inter prediction, a predicted image is generated by motion compensation between pictures. A decoded picture used for predictive image generation in inter prediction is called a reference picture.

また、近年、必要なデータレートに従って、画像を階層的に符号化する階層符号化技術が提案されている。代表的な階層符号化方式の一つとしてSHVC(Scalable HEVC)が知られている(非特許文献2)。   In recent years, a hierarchical encoding technique for hierarchically encoding an image according to a necessary data rate has been proposed. SHVC (Scalable HEVC) is known as one of representative hierarchical coding methods (Non-patent Document 2).

SHVCでは、空間スケーラビリティ、時間スケーラビリティ、SNRスケーラビリティをサポートする。例えば空間スケーラビリティの場合、原画像から所望の解像度にダウンサンプリングした画像を下位レイヤとして符号化する。次に上位レイヤではレイヤ間の冗長性を除去するためにレイヤ間予測を行う。   SHVC supports spatial scalability, temporal scalability, and SNR scalability. For example, in the case of spatial scalability, an image downsampled from an original image to a desired resolution is encoded as a lower layer. Next, the upper layer performs inter-layer prediction in order to remove redundancy between layers.

レイヤ間予測には、レイヤ間画像予測とレイヤ間動き予測がある。レイヤ間画像予測では、下位レイヤの復号画像を利用して、予測画像を生成する。レイヤ間動き予測では、下位レイヤの動き情報を利用して、動き情報の予測値を導出する。   Inter-layer prediction includes inter-layer image prediction and inter-layer motion prediction. In inter-layer image prediction, a predicted image is generated using a decoded image of a lower layer. In inter-layer motion prediction, motion information prediction values are derived using motion information of lower layers.

SHVCでは、予測画像の生成に、インター予測、イントラ予測、レイヤ間画像予測のいずれかを利用できる。   In SHVC, any one of inter prediction, intra prediction, and inter-layer image prediction can be used to generate a predicted image.

SHVCのレイヤ間画像予測で使用される下位レイヤのピクチャ(参照レイヤピクチャrlPic)の復号画像rlPicSampleは、上位レイヤ(対象レイヤ)のピクチャのサイズへリサンプル処理(スケーリング処理とも呼ぶ)を適用した後に、リサンプル参照レイヤピクチャrsPic(レイヤ間参照ピクチャ)の画像rsPicSampleとして復号ピクチャバッファに記録される。SHVCでは、復号された対象レイヤのピクチャについては、HEVC同様に復号済のピクチャをDPBに記録して管理する仕組みが適用される。   The decoded image rlPicSample of the lower layer picture (reference layer picture rlPic) used in SHVC inter-layer image prediction is applied after resampling (also called scaling processing) is applied to the size of the upper layer (target layer) picture. The resample reference layer picture rsPic (inter-layer reference picture) is recorded in the decoded picture buffer as an image rsPicSample. In SHVC, a mechanism for recording and managing a decoded picture in the DPB is applied to the decoded picture of the target layer, as in HEVC.

また、SHVCのレイヤ間動き予測で使用される参照レイヤピクチャrlPicの動き情報rlPicMotionは、対象レイヤのピクチャのサイズへリサンプル処理を適用した後に、リサンプル参照レイヤピクチャrsPic(レイヤ間参照ピクチャ)の動き情報rsPicMotionとして参照ピクチャメモリに記録される。なお、動き情報のリサンプル処理は、レイヤ間動きマッピング(MFM:Motion Field Mapping)とも呼ばれ、画像のリサンプル処理は、レイヤ間画像マッピングとも呼ぶ。   Also, the motion information rlPicMotion of the reference layer picture rlPic used in the inter-layer motion prediction of SHVC is applied to the resampling reference layer picture rsPic (interlayer reference picture) after applying the resampling process to the picture size of the target layer. It is recorded in the reference picture memory as motion information rsPicMotion. Note that the resample processing of motion information is also called inter-layer motion mapping (MFM: Motion Field Mapping), and the image resample processing is also called inter-layer image mapping.

また、SHVCでは、参照レイヤピクチャrlPicから、リサンプル参照レイヤピクチャrsPicのリサンプル画像rsPicSample、及びリサンプル動き情報rsPicMotionを生成するために、リサンプル参照レイヤピクチャrsPic(あるいは、対象ピクチャcurPic)上のどの領域が参照レイヤピクチャrlPicと対応するかを示す参照レイヤ対応領域情報が利用される。例えば、リサンプル参照レイヤピクチャrsPicのリサンプル画像rsPicSampleを生成する際に、リサンプル参照レイヤピクチャrsPic上の参照レイヤ対応領域外の画素は、最近接する、リサンプル参照レイヤピクチャrsPic上の参照レイヤ対応領域境界上の画素でパディングされて生成される。あるいは、参照レイヤ対応領域外にある画素の座標(xP, yP)を、最近接する参照レイヤ対応領域の境界画素の座標(xP’,yP’)へ置換し、境界画素の座標(xP’, yP’)に対応する参照レイヤピクチャrlPicの参照画素の位置(xRL, yRL)を導出し、その参照画素の位置を中心にリサンプルフィルタを適用することで生成される。   Further, in SHVC, in order to generate a resample image rsPicSample of the resample reference layer picture rsPic and resample motion information rsPicMotion from the reference layer picture rlPic, the resample reference layer picture rsPic (or the target picture curPic) Reference layer corresponding region information indicating which region corresponds to the reference layer picture rlPic is used. For example, when generating the resampled image rsPicSample of the resample reference layer picture rsPic, the pixels outside the reference layer corresponding area on the resample reference layer picture rsPic are closest to the reference layer corresponding to the resample reference layer picture rsPic. It is generated by padding with pixels on the region boundary. Alternatively, the coordinates (xP, yP) of the pixels outside the reference layer corresponding area are replaced with the coordinates (xP ', yP') of the boundary pixels in the closest reference layer corresponding area, and the coordinates (xP ', yP) of the boundary pixels are replaced. It is generated by deriving the position (xRL, yRL) of the reference pixel of the reference layer picture rlPic corresponding to ') and applying the resample filter around the position of the reference pixel.

「Recommendation H.265 (04/13)」, ITU-T (2013年6月7日公開)"Recommendation H.265 (04/13)", ITU-T (released June 7, 2013) JCTVC-M1008_v3 「SHVC Working Draft 2」, Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11 13th Meeting: Incheon, KR, 18-26 Apr. 2013 (2013年6月14日公開)JCTVC-M1008_v3 `` SHVC Working Draft 2 '', Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG 16 WP 3 and ISO / IEC JTC 1 / SC 29 / WG 11 13th Meeting: Incheon, KR, 18- 26 Apr. 2013 (released on June 14, 2013)

従来技術として挙げたSHVCでは、対象ピクチャcurPic上のある予測単位PUの予測画像をレイヤ間画像予測により生成する場合、リサンプル参照レイヤピクチャrsPic上の参照レイヤ対応領域外にある画像を参照することができる。すなわち、レイヤ間画像予測の予測画像に、リサンプル参照レイヤピクチャrsPic上において、パディングによって生成された画素を含むことができる。しかしながら、レイヤ間画像予測において、パディングによって生成された画素を含む予測画像は予測精度が低いため、符号化効率の低下、および画質低下を招くという課題があった。また、従来技術において、リサンプル参照レイヤピクチャrsPic上の参照レイヤ対応領域外にある座標のリサンプル画素を生成する場合、その座標を、最近接する参照レイヤ対応領域の境界画素へ置換するため、リサンプル画素を生成する処理が複雑であるという課題があった。   In the SHVC cited as the prior art, when a prediction image of a certain prediction unit PU on the target picture curPic is generated by inter-layer image prediction, an image outside the reference layer corresponding region on the resample reference layer picture rsPic is referred to Can do. That is, the prediction image of the inter-layer image prediction can include pixels generated by padding on the resample reference layer picture rsPic. However, in the inter-layer image prediction, a prediction image including pixels generated by padding has a low prediction accuracy, and thus there is a problem in that the encoding efficiency decreases and the image quality decreases. Also, in the prior art, when generating a resample pixel with coordinates outside the reference layer corresponding area on the resample reference layer picture rsPic, the coordinates are replaced with the boundary pixels of the closest reference layer corresponding area. There has been a problem that the process of generating sample pixels is complicated.

本発明は、上記問題に鑑みてされたものであり、その目的は、階層符号化方式において、参照レイヤ対応領域外にある画素を参照するレイヤ間画像予測の適用可非を制御する仕組みを提供することにある。また、それにより、より少ない符号量、処理量、およびメモリ量で符号化データを符号化/復号する画像符号化装置および画像復号装置を実現することにある。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a mechanism for controlling applicability of inter-layer image prediction that refers to pixels outside the reference layer corresponding region in the hierarchical coding scheme. There is to do. It is also intended to realize an image encoding device and an image decoding device that encode / decode encoded data with a smaller code amount, processing amount, and memory amount.

上記課題を解決するために、本発明に係る画像復号装置は、レイヤごとに異なる品質の画像に関する画像情報が階層的に符号化された階層符号化データを復号して、復号の対象となる対象レイヤにおける画像を復元する画像復号装置であって、
対象レイヤと参照レイヤの対応領域を示す参照レイヤ対応領域情報を復号する参照レイヤ対応領域情報復号手段と、
復号済の参照レイヤピクチャと上記参照レイヤ対応領域情報とに基づいて、上記参照レイヤピクチャの画像及び動き情報を対象レイヤのピクチャへ対応づけてリサンプル参照レイヤピクチャを生成するリサンプリング手段と、
上記対象レイヤのピクチャを構成する各予測単位の予測画像を生成する予測画像生成手段とを備え、
上記リサンプリング手段は、さらに、リサンプル参照レイヤピクチャの各画素に対応する参照レイヤピクチャの参照画素位置を導出する参照画素位置導出手段と、
上記導出された参照画素位置を含むフィルタ領域上の画素へ所定のリサンプルフィルタを用いて、上記リサンプル参照レイヤピクチャの各画素を生成するリサンプリング画像生成手段を備え、
前記リサンプリング画像生成手段は、上記フィルタ領域において、参照レイヤピクチャの画面外の座標を含む場合、参照レイヤピクチャの最近接する画面端の座標へ置換することを特徴とする。
In order to solve the above problems, an image decoding apparatus according to the present invention decodes hierarchically encoded data in which image information relating to images of different quality for each layer is hierarchically encoded, and is a target to be decoded. An image decoding device for restoring an image in a layer,
Reference layer corresponding region information decoding means for decoding reference layer corresponding region information indicating a corresponding region between the target layer and the reference layer;
Re-sampling means for generating a re-sampled reference layer picture by associating the image and motion information of the reference layer picture with the picture of the target layer based on the decoded reference layer picture and the reference layer corresponding region information;
Prediction image generation means for generating a prediction image of each prediction unit constituting the picture of the target layer,
The resampling means further includes reference pixel position deriving means for deriving a reference pixel position of a reference layer picture corresponding to each pixel of the resampled reference layer picture,
Resampled image generation means for generating each pixel of the resample reference layer picture using a predetermined resample filter on a pixel on a filter region including the derived reference pixel position;
The resampling image generation means, when the filter region includes coordinates outside the screen of the reference layer picture, replaces the coordinates with the screen edge closest to the reference layer picture.

以上、上記構成によれば、リサンプル参照レイヤピクチャ上の座標(xP, yP)が参照レイヤ対応領域より外側にある場合、直接、参照レイヤピクチャ上の参照画素位置(xRef, yRef)を導出する。従って、従来技術と比較して、参照画素位置の導出に係る導出処理を簡略化することができる。また、上記構成によれば、リサンプル参照レイヤピクチャ上の参照レイヤ対応領域外の各座標のリサンプル画素を生成する際に、リサンプルフィルタの適用する参照レイヤピクチャ上のフィルタ領域において、画面外の座標の画素がある場合、その画素と相関の高い(空間的距離が近い)画素を利用して、リサンプル画像を生成する。その結果、従来技術に比べて、参照レイヤ対応領域外のリサンプル画像の精度を向上させることができる。また、参照レイヤ対応領域外の画素を参照するレイヤ間画像予測に関して、従来技術よりも予測精度を向上させることができる。従って、符号化効率を向上にもつながる。特に、本発明では、参照レイヤ対応領域の境界より外側に、水平方向に幅ΔFX、高さΔFYの領域において、リサンプル画像の画素値が滑らかに変化する領域を生成することができる。そのため、レイヤ間画像予測において、参照レイヤ対応領域外のうち、上記参照レイヤ対応領域の境界より外側に、水平方向に幅ΔFX、高さΔFYの領域を参照するレイヤ間画像予測の予測精度を向上させることができる。   As described above, according to the above configuration, when the coordinates (xP, yP) on the resample reference layer picture are outside the reference layer corresponding region, the reference pixel position (xRef, yRef) on the reference layer picture is directly derived. . Therefore, the derivation process related to the derivation of the reference pixel position can be simplified as compared with the conventional technique. Further, according to the above configuration, when generating a resample pixel of each coordinate outside the reference layer corresponding area on the resample reference layer picture, the filter area on the reference layer picture to which the resample filter is applied is out of the screen. If there is a pixel with the coordinate of, a resampled image is generated using a pixel having a high correlation with the pixel (close spatial distance). As a result, the accuracy of the resampled image outside the reference layer corresponding region can be improved as compared with the conventional technique. Moreover, regarding the inter-layer image prediction that refers to the pixels outside the reference layer corresponding region, the prediction accuracy can be improved as compared with the conventional technique. Therefore, the encoding efficiency is also improved. In particular, in the present invention, it is possible to generate an area in which the pixel value of the resampled image changes smoothly in an area having a width ΔFX and a height ΔFY in the horizontal direction outside the boundary of the reference layer corresponding area. Therefore, in inter-layer image prediction, the prediction accuracy of inter-layer image prediction that refers to the region of width ΔFX and height ΔFY in the horizontal direction outside the reference layer corresponding region outside the reference layer corresponding region is improved. Can be made.

上記課題を解決するために、本発明に係る画像復号装置は、レイヤごとに異なる品質の画像に関する画像情報が階層的に符号化された階層符号化データを復号して、復号の対象となる対象レイヤにおける画像を復元する画像復号装置であって、
対象レイヤと参照レイヤの対応領域を示す参照レイヤ対応領域情報を復号する参照レイヤ対応領域情報復号手段と、
復号済の参照レイヤピクチャと上記参照レイヤ対応領域情報とに基づいて、上記参照レイヤピクチャの画像及び動き情報を対象レイヤのピクチャへ対応づけてリサンプル参照レイヤピクチャを生成するリサンプリング手段と、
上記対象レイヤのピクチャを構成する各予測単位の予測画像を生成する予測画像生成手段を備え、
上記予測画像生成手段は、上記予測単位の予測方式がレイヤ間画像予測である場合、所定条件を満たさないレイヤ間画像予測により上記予測単位の予測画像を生成することを特徴とする。
In order to solve the above problems, an image decoding apparatus according to the present invention decodes hierarchically encoded data in which image information relating to images of different quality for each layer is hierarchically encoded, and is a target to be decoded. An image decoding device for restoring an image in a layer,
Reference layer corresponding region information decoding means for decoding reference layer corresponding region information indicating a corresponding region between the target layer and the reference layer;
Re-sampling means for generating a re-sampled reference layer picture by associating the image and motion information of the reference layer picture with the picture of the target layer based on the decoded reference layer picture and the reference layer corresponding region information;
A prediction image generating unit that generates a prediction image of each prediction unit constituting the picture of the target layer,
The prediction image generation unit generates the prediction image of the prediction unit by inter-layer image prediction that does not satisfy a predetermined condition when the prediction method of the prediction unit is inter-layer image prediction.

以上、上記構成によれば、復号済の参照レイヤピクチャと上記参照レイヤ対応領域情報とに基づいて、上記参照レイヤピクチャの画像及び動き情報を対象レイヤのピクチャへ対応付けてリサンプル参照レイヤピクチャの画像及び、動き情報を生成するため、レイヤ間画像予測、及びレイヤ間動き予測の精度を向上させることができる。その結果、さらに、符号効率を向上させることができる。また、上記構成によれば、予測精度の低い所定条件を満たすレイヤ間画像予測の使用を禁止するため、符号化効率を向上させることができる。   As described above, according to the above configuration, based on the decoded reference layer picture and the reference layer corresponding region information, the image and motion information of the reference layer picture are associated with the picture of the target layer, and the resampled reference layer picture Since the image and the motion information are generated, the accuracy of the inter-layer image prediction and the inter-layer motion prediction can be improved. As a result, the code efficiency can be further improved. Moreover, according to the said structure, since use of the image prediction between layers satisfy | filling the predetermined conditions with low prediction accuracy is prohibited, encoding efficiency can be improved.

さらに、本発明に係る画像復号装置において、
所定条件を満たすレイヤ間画像予測を禁止するレイヤ間画像予測制約フラグを復号するレイヤ間画像予測制約フラグ復号手段を備え、
上記予測画像生成手段は、上記レイヤ間画像予測制約フラグが真であって、上記予測単位の予測方式がレイヤ間画像予測である場合、上記所定条件を満たさないレイヤ間画像予測により上記予測単位の予測画像を生成することを特徴とする。
Furthermore, in the image decoding apparatus according to the present invention,
An inter-layer image prediction constraint flag decoding unit that decodes an inter-layer image prediction constraint flag that prohibits inter-layer image prediction satisfying a predetermined condition;
When the inter-layer image prediction constraint flag is true and the prediction method of the prediction unit is inter-layer image prediction, the predicted image generation means performs prediction of the prediction unit by inter-layer image prediction that does not satisfy the predetermined condition. A prediction image is generated.

上記構成によれば、所定条件を満たすレイヤ間画像予測を禁止するか否かを制御することができる。特に、レイヤ間画像予測制約フラグが真である場合、予測精度の低い所定条件を満たすレイヤ間画像予測の使用を禁止するため、符号化効率を向上させることができる。   According to the above configuration, it is possible to control whether or not inter-layer image prediction that satisfies a predetermined condition is prohibited. In particular, when the inter-layer image prediction constraint flag is true, the use of inter-layer image prediction that satisfies a predetermined condition with low prediction accuracy is prohibited, so that the encoding efficiency can be improved.

さらに、本発明に係る画像復号装置において、上記所定条件を満たすレイヤ間画像予測とは、レイヤ間画像予測において、上記予測単位と対応する上記リサンプル参照レイヤピクチャ上の対応領域と上記参照レイヤ対応領域に関して、(1)上記対応領域の左端座標が上記参照レイヤ対応領域の左端座標より小さい、(2)上記対応領域の右端座標が上記参照レイヤ対応領域の右端座標より大きい、(3)上記対応領域の上端座標が上記参照レイヤ対応領域の上端座標より小さい、(4)上記対応領域の下端座標が参照レイヤ対応領域の下端座標より大きい、のうち少なくともいずれか一つを満たす場合であることを特徴とする。   Furthermore, in the image decoding apparatus according to the present invention, the inter-layer image prediction satisfying the predetermined condition is a correspondence region on the resample reference layer picture corresponding to the prediction unit and the reference layer correspondence in the inter-layer image prediction. (1) The left end coordinate of the corresponding region is smaller than the left end coordinate of the reference layer corresponding region, (2) the right end coordinate of the corresponding region is larger than the right end coordinate of the reference layer corresponding region, and (3) the corresponding The upper end coordinate of the region is smaller than the upper end coordinate of the reference layer corresponding region, and (4) the lower end coordinate of the corresponding region is larger than the lower end coordinate of the reference layer corresponding region. Features.

以上、上記構成によれば、参照レイヤ対応領域より外側の画像を参照するレイヤ間画像予測の使用を禁止することができる。従って、予測精度の低い参照レイヤ対応領域外の画素を参照するレイヤ間画像予測を使用しないため、より符号化効率の高い画像復号装置を実現することができる。さらに、上記構成によれば、レイヤ間画像予測制約フラグを復号した時点で、同フラグが真である場合、対象シーケンスにおいて、リサンプル参照レイヤピクチャ上の参照レイヤ対応領域より外側の画像(参照レイヤ対応領域外)をレイヤ間画像予測時に参照されないことが分かるため、リサンプル参照レイヤピクチャのリサンプル画像を生成するときに、参照レイヤ対応領域外の画像の生成を省略することが可能となる。   As described above, according to the above configuration, use of inter-layer image prediction that refers to an image outside the reference layer corresponding region can be prohibited. Therefore, since inter-layer image prediction that refers to pixels outside the reference layer corresponding region with low prediction accuracy is not used, an image decoding device with higher encoding efficiency can be realized. Further, according to the above configuration, when the inter-layer image prediction constraint flag is decoded, if the flag is true, an image outside the reference layer corresponding region on the resample reference layer picture (reference layer) in the target sequence. Since it is understood that “outside corresponding region” is not referred to when inter-layer image prediction is performed, generation of an image outside the reference layer corresponding region can be omitted when generating a resampled image of the resampled reference layer picture.

さらに、本発明に係る画像復号装置において、上記所定条件を満たすレイヤ間画像予測とは、レイヤ間画像予測において、上記予測単位と対応する上記リサンプル参照レイヤピクチャ上の対応領域と上記参照レイヤ対応領域に関して、(1)上記対応領域の右端座標が上記参照レイヤ対応領域の左端座標より小さい、(2)上記対応領域の左端座標が上記参照レイヤ対応領域の右端座標より大きい、(3)上記対応領域の下端座標が上記参照レイヤ対応領域の上端座標より小さい、(4)上記対応領域の上端座標が参照レイヤ対応領域の下端座標より大きい、のうち少なくともいずれか一つを満たす場合であることを特徴とする。   Furthermore, in the image decoding apparatus according to the present invention, the inter-layer image prediction satisfying the predetermined condition is a correspondence region on the resample reference layer picture corresponding to the prediction unit and the reference layer correspondence in the inter-layer image prediction. (1) The right end coordinate of the corresponding region is smaller than the left end coordinate of the reference layer corresponding region, (2) The left end coordinate of the corresponding region is larger than the right end coordinate of the reference layer corresponding region, and (3) the corresponding The lower end coordinate of the region is smaller than the upper end coordinate of the reference layer corresponding region, and (4) the upper end coordinate of the corresponding region is larger than the lower end coordinate of the reference layer corresponding region. Features.

以上、上記構成によれば、参照レイヤ対応領域より外側の画像のみを参照するレイヤ間画像予測の使用を禁止することができる。従って、予測精度の低い参照レイヤ対応領域外の画素のみを参照するレイヤ間画像予測を使用しないため、より符号化効率の高い画像復号装置を実現することができる。   As described above, according to the above configuration, it is possible to prohibit the use of inter-layer image prediction that refers only to images outside the reference layer corresponding region. Therefore, since inter-layer image prediction that refers only to pixels outside the reference layer corresponding region with low prediction accuracy is not used, an image decoding device with higher encoding efficiency can be realized.

さらに、本発明に係る画像復号装置において、上記リサンプリング手段は、上記レイヤ間画像予測制約フラグが真である場合、上記リサンプル参照レイヤピクチャの画像のうち、上記参照レイヤ対応領域内の画像のみを生成することを特徴とする。   Furthermore, in the image decoding device according to the present invention, when the inter-layer image prediction constraint flag is true, the re-sampling unit only selects an image in the reference layer corresponding region among the images of the re-sample reference layer picture. Is generated.

以上、上記構成によれば、レイヤ間画像予測制約フラグを復号した時点で、同フラグが真である場合、対象シーケンスにおいて、リサンプル参照レイヤピクチャ上の参照レイヤ対応領域より外側の画像(参照レイヤ対応領域外)をレイヤ間画像予測時に参照されないことが分かるため、リサンプル参照レイヤピクチャのリサンプル画像を生成するときに、参照レイヤ対応領域外の画像の生成を省略することができる。従って、リサンプリング処理の簡略化、及び参照レイヤ対応領域外の画像を保持するために必要なメモリを削減することができる。   As described above, according to the above configuration, when the inter-layer image prediction constraint flag is decoded, if the flag is true, an image (reference layer) outside the reference layer corresponding region on the resample reference layer picture in the target sequence. Since it is understood that “outside corresponding region” is not referred to during inter-layer image prediction, generation of an image outside the reference layer corresponding region can be omitted when generating a resampled image of the resampled reference layer picture. Therefore, it is possible to simplify the resampling process and reduce the memory required for holding an image outside the reference layer corresponding area.

さらに、本発明に係る画像復号装置において、上記レイヤ間画像予測制約フラグ復号手段は、参照レイヤ対応領域情報の有無に基づいて、上記レイヤ間画像予測制約フラグを復号することを特徴とする。   Furthermore, in the image decoding apparatus according to the present invention, the inter-layer image prediction constraint flag decoding means decodes the inter-layer image prediction constraint flag based on the presence / absence of reference layer corresponding region information.

以上、上記構成によれば、参照レイヤ対応情報がある場合のみ、上記レイヤ間画像予測制約フラグを明示的に復号する。すなわち、参照レイヤ対応領域情報が無い場合は、上記レイヤ間画像予測制約フラグの復号を省略する。従って、レイヤ間画像予測制約フラグの復号に関する処理を低減し、さらに、符号量を削減することができる。   As described above, according to the above configuration, the inter-layer image prediction constraint flag is explicitly decoded only when there is reference layer correspondence information. That is, when there is no reference layer corresponding region information, decoding of the inter-layer image prediction constraint flag is omitted. Therefore, it is possible to reduce processing related to decoding of the inter-layer image prediction constraint flag and further reduce the amount of codes.

さらに、本発明に係る画像復号装置において、上記参照レイヤ対応領域情報復号手段は、対象シーケンス全体で共通となる参照レイヤ対応領域情報をシーケンス単位で復号し、各ピクチャに対応する参照レイヤ対応領域情報を、ピクチャ単位で復号することを特徴とする。   Furthermore, in the image decoding apparatus according to the present invention, the reference layer corresponding region information decoding means decodes reference layer corresponding region information common to the entire target sequence in units of sequences, and reference layer corresponding region information corresponding to each picture. Is decoded in units of pictures.

以上、上記構成によれば、参照レイヤ対応領域に基づいて導出される、対象レイヤ(例えば、拡張レイヤ)と参照レイヤ(例えば、ベースレイヤ)との間のレイヤ間対応関係パラメータに基づいて、リサンプル参照レイヤピクチャ上の各画素に対応する参照レイヤピクチャ上の参照画素の位置を決定し、その参照画素と周辺画素に所定のリサンプルフィルタを適用することで、対象画素を生成することができる。これにより、レイヤ間画像予測で使用されるリサンプル画像の精度を向上させる効果を得ることができる。特に、ピクチャ単位で対象レイヤと参照レイヤの対応領域が変化するシーケンスに対しては、参照レイヤ対応領域情報により導出されるレイヤ間対応関係パラメータに基づいてレイヤ間画像マッピングを行う場合に比べて、ピクチャ単位の参照レイヤ対応領域情報により導出されるレイヤ間対応関係パラメータに基づいてレイヤ間画像マッピングを行うことにより、よりレイヤ間画像予測で使用されるリサンプル画像の精度をより向上させる効果を奏する。それに伴いレイヤ間画像予測の予測精度も向上するため、符号化効率の向上を図ることが可能となる。   As described above, according to the above configuration, based on the inter-layer correspondence parameter between the target layer (for example, the enhancement layer) and the reference layer (for example, the base layer) derived based on the reference layer corresponding region, The target pixel can be generated by determining the position of the reference pixel on the reference layer picture corresponding to each pixel on the sample reference layer picture and applying a predetermined resample filter to the reference pixel and surrounding pixels . Thereby, the effect which improves the precision of the resample image used by the image prediction between layers can be acquired. In particular, for a sequence in which the corresponding region of the target layer and the reference layer changes in units of pictures, compared to the case of performing inter-layer image mapping based on the inter-layer correspondence parameter derived from the reference layer corresponding region information, By performing the inter-layer image mapping based on the inter-layer correspondence parameter derived from the reference layer correspondence area information in units of pictures, there is an effect of further improving the accuracy of the resampled image used in the inter-layer image prediction. . As a result, the prediction accuracy of inter-layer image prediction is also improved, so that the encoding efficiency can be improved.

また、上記構成によれば、参照レイヤ対応情報に基づいて導出される、対象レイヤ(例えば拡張レイヤ)と参照レイヤ(例えばベースレイヤ)との間のレイヤ間対応関係パラメータ(OffsetL、OffsetT、OffsetR、OffsetB、SRLPW、SRLPH、ScaleFactorX、ScaleFactorY等)に基づいて、リサンプル参照レイヤピクチャ上の対象ブロックに対応する参照レイヤピクチャ上の参照画像ブロックを決定し、参照画像ブロックの動き情報に基づいて対象ブロックの動き情報を生成することができる。これにより、レイヤ間動き予測で使用される動き情報(テンポラル動き情報)の精度を向上させる効果を得ることができる。特に、ピクチャ単位で対象レイヤと参照レイヤの対応領域が変化するシーケンスに対しては、参照レイヤ対応領域情報により導出されるレイヤ間対応関係パラメータに基づいてレイヤ間動きマッピングを行う場合に比べて、アクティブ参照レイヤ対応領域情報(ピクチャ単位の参照レイヤ対応領域情報)により導出されるレイヤ間対応関係パラメータに基づいてレイヤ間動きマッピングを行うことにより、よりレイヤ間動き予測で使用される動き情報(テンポラル動き情報)の精度をより向上させる効果を奏する。それに伴いレイヤ間動き予測の予測精度も向上するため、符号化効率の向上を図ることが可能となる。   Further, according to the above configuration, the inter-layer correspondence parameters (OffsetL, OffsetT, OffsetR, and the like) between the target layer (for example, the enhancement layer) and the reference layer (for example, the base layer) derived based on the reference layer correspondence information Based on OffsetB, SRLPW, SRLPH, ScaleFactorX, ScaleFactorY, etc.), the reference image block on the reference layer picture corresponding to the target block on the resampled reference layer picture is determined, and the target block is determined based on the motion information of the reference image block Motion information can be generated. Thereby, the effect which improves the precision of the motion information (temporal motion information) used by the motion prediction between layers can be acquired. In particular, for a sequence in which the corresponding region of the target layer and the reference layer changes in units of pictures, compared to the case where inter-layer motion mapping is performed based on the inter-layer correspondence parameter derived from the reference layer corresponding region information, By performing inter-layer motion mapping based on the inter-layer correspondence parameter derived from the active reference layer corresponding region information (reference layer corresponding region information in units of pictures), more motion information (temporal) used in inter-layer motion prediction This has the effect of further improving the accuracy of motion information. Accordingly, the prediction accuracy of inter-layer motion prediction is also improved, so that the encoding efficiency can be improved.

さらに、本発明に係る画像復号装置において、上記各ピクチャに対応する参照レイヤ対応領域情報は、上記対象シーケンス全体で共通となる参照レイヤ対応領域情報からの差分情報であることを特徴とする。   Furthermore, in the image decoding device according to the present invention, the reference layer corresponding region information corresponding to each picture is difference information from the reference layer corresponding region information common to the entire target sequence.

以上、上記構成によれば、ピクチャ単位で参照レイヤ対応領域の情報を明示的に通知する場合に比べて、ピクチャ単位の参照レイヤ対応領域情報を、シーケンス全体で共通となる参照レイヤ対応領域に対するピクチャ単位の参照レイヤ対応領域のサイズの差分情報として通知することで、ピクチャ単位の参照レイヤ対応領域情報の復号に必要な符号量を削減することができる。   As described above, according to the above configuration, the reference layer corresponding region information in units of pictures is the picture for the reference layer corresponding region that is common in the entire sequence as compared with the case where the information of the reference layer corresponding region is explicitly notified in units of pictures. By notifying the difference information of the size of the reference layer corresponding area in units, it is possible to reduce the amount of code necessary for decoding the reference layer corresponding area information in units of pictures.

さらに、本発明に係る画像復号装置は、上記予測単位の予測方式がレイヤ間画像予測であるかを示すレイヤ間画像予測フラグを復号するレイヤ間画像予測復号手段を備え、
上記レイヤ間画像予測復号手段は、上記所定条件を満たすレイヤ間画像予測に関するレイヤ間画像予測フラグの復号を省略することを特徴とする。
Furthermore, the image decoding apparatus according to the present invention includes an inter-layer image prediction decoding unit that decodes an inter-layer image prediction flag indicating whether the prediction method of the prediction unit is inter-layer image prediction.
The inter-layer image prediction decoding means omits decoding of an inter-layer image prediction flag related to inter-layer image prediction that satisfies the predetermined condition.

以上、上記構成によれば、対象予測単位に対応するレイヤ間画像予測フラグを明示的に復号する否かを制御することができる。すなわち、対象予測単位において、上記所定条件を満たすレイヤ間画像予測の場合、レイヤ間画像予測フラグの復号を省略する(すなわち、レイヤ間画像予測フラグが0であると推定)ことにより、レイヤ間画像予測フラグの復号に係る処理量を低減することができる。また、レイヤ間画像予測フラグに係る符号量を削減することができるため、符号効率の向上の効果を奏する。   As described above, according to the above configuration, it is possible to control whether to explicitly decode the inter-layer image prediction flag corresponding to the target prediction unit. That is, in the case of inter-layer image prediction that satisfies the above-mentioned predetermined condition in the target prediction unit, the decoding of the inter-layer image prediction flag is omitted (that is, the inter-layer image prediction flag is estimated to be 0). The amount of processing related to decoding the prediction flag can be reduced. Moreover, since the amount of codes related to the inter-layer image prediction flag can be reduced, the effect of improving the code efficiency is achieved.

上記課題を解決するために、本発明に係る画像符号化装置は、レイヤごとに異なる品質の画像に関する画像情報が階層的に符号化された階層符号化データを符号化して、符号化の対象となる対象レイヤにおける画像を符号化する画像符号化装置であって、
対象レイヤと参照レイヤの対応領域を示す参照レイヤ対応領域情報を符号化する参照レイヤ対応領域情報符号化手段と、
所定条件を満たすレイヤ間画像予測を禁止するレイヤ間画像予測制約フラグを符号化するレイヤ間画像予測制約フラグ符号化手段と、
符号化済の参照レイヤピクチャと参照レイヤ対応領域情報とに基づいて、上記参照レイヤピクチャの画像及び動き情報を対象レイヤのピクチャへ対応づけてリサンプル参照レイヤピクチャを生成するリサンプリング手段と、
上記対象レイヤのピクチャを構成する各予測単位の予測画像を生成する予測画像生成手段を備え、
上記予測画像生成手段は、上記レイヤ間画像予測制約フラグが真であって、上記予測単位の予測方式がレイヤ間画像予測である場合、上記所定条件を満たさないレイヤ間画像予測により上記予測単位の予測画像を生成することを特徴とする動画像符号化装置。
In order to solve the above problems, an image encoding device according to the present invention encodes hierarchically encoded data in which image information relating to images of different quality for each layer is encoded hierarchically, An image encoding device that encodes an image in a target layer,
Reference layer corresponding region information encoding means for encoding reference layer corresponding region information indicating a corresponding region between a target layer and a reference layer;
An inter-layer image prediction constraint flag encoding means for encoding an inter-layer image prediction constraint flag that prohibits inter-layer image prediction satisfying a predetermined condition;
Re-sampling means for generating a re-sampled reference layer picture by associating the image and motion information of the reference layer picture with the picture of the target layer based on the encoded reference layer picture and the reference layer corresponding region information;
A prediction image generating unit that generates a prediction image of each prediction unit constituting the picture of the target layer,
When the inter-layer image prediction constraint flag is true and the prediction method of the prediction unit is inter-layer image prediction, the predicted image generation means performs prediction of the prediction unit by inter-layer image prediction that does not satisfy the predetermined condition. A moving picture coding apparatus for generating a predicted picture.

以上、上記構成によれば、符号化済の参照レイヤピクチャと上記参照レイヤ対応領域情報とに基づいて、上記参照レイヤピクチャの画像及び動き情報を対象レイヤのピクチャへ対応付けてリサンプル参照レイヤピクチャの画像及び、動き情報を生成するため、レイヤ間画像予測、及びレイヤ間動き予測の精度を向上させることができる。その結果、さらに、符号効率を向上させることができる。また、上記構成によれば、予測精度の低い所定条件を満たすレイヤ間画像予測の使用を禁止するため、符号化効率を向上させることができる。   As described above, according to the above configuration, the resampled reference layer picture is obtained by associating the image and motion information of the reference layer picture with the picture of the target layer based on the encoded reference layer picture and the reference layer corresponding region information. Therefore, the accuracy of inter-layer image prediction and inter-layer motion prediction can be improved. As a result, the code efficiency can be further improved. Moreover, according to the said structure, since use of the image prediction between layers satisfy | filling the predetermined conditions with low prediction accuracy is prohibited, encoding efficiency can be improved.

さらに、本発明に係る画像符号化装置において、上記所定条件を満たすレイヤ間画像予測とは、レイヤ間画像予測において、上記予測単位と対応する上記リサンプル参照レイヤピクチャ上の対応領域と上記参照レイヤ対応領域に関して、(1)上記対応領域の左端座標が上記参照レイヤ対応領域の左端座標より小さい、(2)上記対応領域の右端座標が上記参照レイヤ対応領域の右端座標より大きい、(3)上記対応領域の上端座標が上記参照レイヤ対応領域の上端座標より小さい、(4)上記対応領域の下端座標が参照レイヤ対応領域の下端座標より大きい、のうち少なくともいずれか一つを満たす場合であることを特徴とする。   Furthermore, in the image encoding device according to the present invention, the inter-layer image prediction that satisfies the predetermined condition is that in the inter-layer image prediction, the corresponding region on the resample reference layer picture corresponding to the prediction unit and the reference layer Regarding the corresponding region, (1) the left end coordinate of the corresponding region is smaller than the left end coordinate of the reference layer corresponding region, (2) the right end coordinate of the corresponding region is larger than the right end coordinate of the reference layer corresponding region, (3) the above The upper end coordinate of the corresponding region is smaller than the upper end coordinate of the reference layer corresponding region, and (4) the lower end coordinate of the corresponding region is larger than the lower end coordinate of the reference layer corresponding region. It is characterized by.

以上、上記構成によれば、参照レイヤ対応領域より外側の画像を参照するレイヤ間画像予測の使用を禁止することができる。従って、予測精度の低い参照レイヤ対応領域外の画素を参照するレイヤ間画像予測を使用しないため、より符号化効率の高い画像符号化装置を実現することができる。さらに、上記構成によれば、レイヤ間画像予測制約フラグを決定した時点で、同フラグが真である場合、対象シーケンスにおいて、リサンプル参照レイヤピクチャ上の参照レイヤ対応領域より外側の画像(参照レイヤ対応領域外)をレイヤ間画像予測時に参照されないことが分かるため、リサンプル参照レイヤピクチャのリサンプル画像を生成するときに、参照レイヤ対応領域外の画像の生成を省略することが可能となる。   As described above, according to the above configuration, use of inter-layer image prediction that refers to an image outside the reference layer corresponding region can be prohibited. Accordingly, since inter-layer image prediction that refers to pixels outside the reference layer corresponding region with low prediction accuracy is not used, an image encoding device with higher encoding efficiency can be realized. Furthermore, according to the above configuration, when the inter-layer image prediction constraint flag is determined, if the flag is true, an image (reference layer) outside the reference layer corresponding region on the resample reference layer picture in the target sequence. Since it is understood that “outside corresponding region” is not referred to when inter-layer image prediction is performed, generation of an image outside the reference layer corresponding region can be omitted when generating a resampled image of the resampled reference layer picture.

さらに、本発明に係る画像符号化装置において、上記所定条件を満たすレイヤ間画像予測とは、レイヤ間画像予測において、上記予測単位と対応する上記リサンプル参照レイヤピクチャ上の対応領域と上記参照レイヤ対応領域に関して、(1)上記対応領域の右端座標が上記参照レイヤ対応領域の左端座標より小さい、(2)上記対応領域の左端座標が上記参照レイヤ対応領域の右端座標より大きい、(3)上記対応領域の下端座標が上記参照レイヤ対応領域の上端座標より小さい、(4)上記対応領域の上端座標が参照レイヤ対応領域の下端座標より大きい、のうち少なくともいずれか一つを満たす場合であることを特徴とする。   Furthermore, in the image encoding device according to the present invention, the inter-layer image prediction that satisfies the predetermined condition is that in the inter-layer image prediction, the corresponding region on the resample reference layer picture corresponding to the prediction unit and the reference layer Regarding the corresponding region, (1) the right end coordinate of the corresponding region is smaller than the left end coordinate of the reference layer corresponding region, (2) the left end coordinate of the corresponding region is larger than the right end coordinate of the reference layer corresponding region, (3) the above The lower end coordinate of the corresponding region is smaller than the upper end coordinate of the reference layer corresponding region, and (4) the upper end coordinate of the corresponding region is larger than the lower end coordinate of the reference layer corresponding region. It is characterized by.

以上、上記構成によれば、参照レイヤ対応領域より外側の画像のみを参照するレイヤ間画像予測の使用を禁止することができる。従って、予測精度の低い参照レイヤ対応領域外の画素のみを参照するレイヤ間画像予測を使用しないため、より符号化効率の高い画像符号化装置を実現することができる。   As described above, according to the above configuration, it is possible to prohibit the use of inter-layer image prediction that refers only to images outside the reference layer corresponding region. Therefore, since inter-layer image prediction that refers only to pixels outside the reference layer corresponding region with low prediction accuracy is not used, an image encoding device with higher encoding efficiency can be realized.

以上のように、本発明に係る画像復号装置は、レイヤ間画像予測制約フラグが参照レイヤ対応領域外の画素を参照するレイヤ間画像予測の適用不可を示す場合、予測精度の低い参照レイヤ対応領域外の画素を参照するレイヤ間画像予測を使用しないため、符号効率を向上させる効果を奏する。また、リサンプル参照ピクチャrsPicの画像rsPicSampleを生成する際に、参照レイヤ対応領域外の画素を生成する処理(パディング処理)を省略することができるため、リサンプル処理に係る処理量を低減させる効果を奏する。   As described above, when the inter-layer image prediction constraint flag indicates that the application of inter-layer image prediction that refers to a pixel outside the reference layer corresponding region is not possible, the image decoding device according to the present invention has a reference layer corresponding region with low prediction accuracy. Since inter-layer image prediction that refers to other pixels is not used, there is an effect of improving coding efficiency. In addition, when generating the image rsPicSample of the resample reference picture rsPic, the process of generating pixels outside the reference layer corresponding region (padding process) can be omitted, so that the amount of processing related to the resample process can be reduced. Play.

以上のように、本発明に係る画像符号化装置は、レイヤ間画像予測制約フラグが参照レイヤ対応領域外の画素を参照するレイヤ間画像予測の適用不可を示す場合、予測精度の低い参照レイヤ対応領域外の画素を参照するレイヤ間画像予測を使用しないため、符号効率を向上させる効果を奏する。また、リサンプル参照ピクチャrsPicの画像rsPicSampleを生成する際に、参照レイヤ対応領域外の画素を生成する処理(パディング処理)を省略することができるため、リサンプル処理に係る処理量を低減させる効果を奏する。   As described above, when the inter-layer image prediction constraint flag indicates that application of inter-layer image prediction that refers to a pixel outside the reference layer corresponding region is not applicable, the image encoding device according to the present invention supports reference layer with low prediction accuracy. Since inter-layer image prediction that refers to pixels outside the region is not used, there is an effect of improving the coding efficiency. In addition, when generating the image rsPicSample of the resample reference picture rsPic, the process of generating pixels outside the reference layer corresponding region (padding process) can be omitted, so that the amount of processing related to the resample process can be reduced. Play.

本発明の実施形態に係る階層符号化データのレイヤ構造を説明するための図であって、(a)は、階層動画像符号化装置側について示しており、(b)は、階層動画像復号装置側について示している。It is a figure for demonstrating the layer structure of the hierarchy coding data which concerns on embodiment of this invention, Comprising: (a) has shown about the hierarchy moving image encoder side, (b) is a hierarchy moving image decoding. The device side is shown. 本発明の実施形態に係る階層符号化データの構成を説明するための図であって、(a)は、シーケンスSEQを既定するシーケンスレイヤ、(b)は、ピクチャPICTを規定するピクチャレイヤ、(c)は、スライスSを規定するスライスレイヤ、(d)は、スライスデータを規定するスライスデータレイヤ、(e)は、スライスデータに含まれる符号化ツリーユニットを規定する符号化ツリーレイヤ、(f)は、符号化ツリーに含まれる符号化単位(Coding Unit; CU)を規定する符号化ユニットレイヤを示す図である。It is a figure for demonstrating the structure of the hierarchy coding data based on embodiment of this invention, (a) is a sequence layer which prescribes | regulates sequence SEQ, (b) is a picture layer which prescribes | regulates picture PICT, ( (c) is a slice layer that defines a slice S, (d) is a slice data layer that defines slice data, (e) is a coding tree layer that defines a coding tree unit included in the slice data, (f) ) Is a diagram illustrating a coding unit layer that defines a coding unit (CU) included in a coding tree. 本実施形態に係るビデオパラメータセットVPSに含まれるシンタックスの一例である。It is an example of the syntax contained in the video parameter set VPS which concerns on this embodiment. 対象レイヤの画像と参照レイヤの画像との対応領域(参照レイヤ対応領域)を説明するための図である。It is a figure for demonstrating the corresponding | compatible area | region (reference layer corresponding | compatible area | region) with the image of a target layer, and the image of a reference layer. 本実施形態に係る参照レイヤ対応領域情報、およびレイヤ間画像予測制約フラグの一例である。It is an example of the reference layer corresponding | compatible area | region information which concerns on this embodiment, and an image prediction constraint flag between layers. 参照レイヤ対応領域SRLAより外側の画像を参照するレイヤ間画像予測の一例である。(a)は、レイヤ間画像予測時に、参照レイヤ対応領域SRLAと、参照レイヤ対応領域外NSRLAの両方の画像を参照する場合を示し、(b)は、レイヤ間画像予測時に、参照レイヤ対応領域外NSRLAの画像のみを参照する場合を示す。It is an example of the inter-layer image prediction which refers to the image outside the reference layer corresponding area SRLA. (A) shows a case where both images of the reference layer corresponding region SRLA and the reference layer corresponding non-region NSRLA are referred to at the time of inter-layer image prediction, and (b) is a reference layer corresponding region at the time of inter-layer image prediction. The case where only the image of outside NSRLA is referred is shown. 本実施形態に係るアクティブ参照レイヤ指定情報、アクティブ参照レイヤ対応領域情報の一例である。It is an example of the active reference layer designation | designated information which concerns on this embodiment, and active reference layer corresponding | compatible area information. 本実施形態に係るアクティブ参照レイヤ対応領域情報の別の一例である。It is another example of the active reference layer corresponding | compatible area information which concerns on this embodiment. 本実施形態に係るアクティブ参照レイヤ対応領域を説明するための図である。It is a figure for demonstrating the active reference layer corresponding | compatible area | region which concerns on this embodiment. 参照ピクチャリストの一例を示す概念図である。It is a conceptual diagram which shows an example of a reference picture list. 参照ピクチャの例を示す概念図である。It is a conceptual diagram which shows the example of a reference picture. 上記階層動画像復号装置の概略的構成を示す機能ブロック図である。It is a functional block diagram which shows the schematic structure of the said hierarchy moving image decoding apparatus. 本実施形態に係る画像復号装置の構成を示す概略図である。It is the schematic which shows the structure of the image decoding apparatus which concerns on this embodiment. 本実施形態に係るインター予測パラメータ復号部の構成を示す概略図である。It is the schematic which shows the structure of the inter prediction parameter decoding part which concerns on this embodiment. 本実施形態に係るマージ予測パラメータ導出部の構成を示す概略図である。It is the schematic which shows the structure of the merge prediction parameter derivation | leading-out part which concerns on this embodiment. 対象ブロックと空間動きベクトルの対象ブロックおよび時間動きベクトルの対象ブロックの位置関係を示す概念図である。It is a conceptual diagram which shows the positional relationship of the object block, the object block of a spatial motion vector, and the object block of a temporal motion vector. 本実施形態に係るAMVP予測パラメータ導出部の構成を示す概略図である。It is the schematic which shows the structure of the AMVP prediction parameter derivation | leading-out part which concerns on this embodiment. 本実施形態に係るリサンプリング部の構成を示す概略図である。It is the schematic which shows the structure of the resampling part which concerns on this embodiment. 輝度に関するリサンプルフィルタの一例である。It is an example of the resample filter regarding a brightness | luminance. 色差に関するリサンプルフィルタの一例である。It is an example of the resample filter regarding a color difference. レイヤ間画像予測フラグを含むCUのシンタックスの一例を示す図である。It is a figure which shows an example of the syntax of CU containing the image prediction flag between layers. 本実施形態に係る予測パラメータ復号部の変形例に係る動作を示すフロー図である。It is a flowchart which shows the operation | movement which concerns on the modification of the prediction parameter decoding part which concerns on this embodiment. 本発明の一実施形態に係る階層動画像符号化装置の概略的構成を示す機能ブロック図である。It is a functional block diagram which shows schematic structure of the hierarchy moving image encoder which concerns on one Embodiment of this invention. 本実施形態に係る画像符号化装置の概略的構成を示す機能ブロック図である。It is a functional block diagram which shows schematic structure of the image coding apparatus which concerns on this embodiment. 本実施形態に係るインター予測パラメータ符号化部の概略的構成を示す機能ブロック図である。It is a functional block diagram which shows the schematic structure of the inter prediction parameter encoding part which concerns on this embodiment. 本実施形態に係る予測パラメータ符号化部の変形例に係る動作を示すフロー図である。It is a flowchart which shows the operation | movement which concerns on the modification of the prediction parameter encoding part which concerns on this embodiment. 上記階層動画像符号化装置を搭載した送信装置、および、上記階層動画像復号装置を搭載した受信装置の構成を示した図である。(a)は、階層動画像符号化装置を搭載した送信装置を示しており、(b)は、階層動画像復号装置を搭載した受信装置を示している。It is the figure which showed the structure of the transmitter which mounts the said hierarchy moving image encoder, and the receiver which mounts the said hierarchy moving image decoder. (A) shows a transmission device equipped with a hierarchical video encoding device, and (b) shows a reception device equipped with a hierarchical video decoding device. 上記階層動画像符号化装置を搭載した記録装置、および、上記階層動画像復号装置を搭載した再生装置の構成を示した図である。(a)は、階層動画像符号化装置を搭載した記録装置を示しており、(b)は、階層動画像復号装置を搭載した再生装置を示している。It is the figure which showed the structure of the recording device carrying the said hierarchy moving image encoder, and the reproducing | regenerating apparatus carrying the said hierarchy moving image decoding apparatus. (A) shows a recording device equipped with a hierarchical video encoding device, and (b) shows a playback device equipped with a hierarchical video decoding device. 本実施形態に係るレイヤ画像マッピング部の動作を示すフロー図である。It is a flowchart which shows operation | movement of the layer image mapping part which concerns on this embodiment. 従来技術に係るレイヤ画像マッピング部の動作を示すフロー図である。It is a flowchart which shows operation | movement of the layer image mapping part which concerns on a prior art. リサンプル参照レイヤピクチャrsPic上の参照レイヤ対応領域外NSRLA上の画素に対応する参照画素位置の導出を示す模式図であり,(a)は従来技術に係る参照画素位置の導出例であり、(b)は本発明に係る参照画素位置の導出例である。It is a schematic diagram which shows derivation | leading-out of the reference pixel position corresponding to the pixel on NSRLA outside the reference layer corresponding | compatible area | region on resample reference layer picture rsPic, (a) is a derivation example of the reference pixel position which concerns on a prior art, ( b) is an example of deriving the reference pixel position according to the present invention. リサンプル参照レイヤピクチャrsPic上の参照レイヤ対応領域外NSRLAのリサンプル画素を説明するための図であり、(a)は従来技術における例を示し、(b)は本発明における例である。It is a figure for demonstrating the resample pixel of the non-reference layer corresponding | compatible area | region NSRLA on the resample reference layer picture rsPic, (a) shows the example in a prior art, (b) is an example in this invention. 本実施形態に係る参照レイヤ対応領域情報の別の一例である。It is another example of the reference layer corresponding | compatible area information which concerns on this embodiment. 本実施形態に係るアクティブ参照レイヤ対応領域情報の別の一例である。It is another example of the active reference layer corresponding | compatible area information which concerns on this embodiment. 本実施形態に係るアクティブ参照レイヤ対応領域情報の別の一例である。It is another example of the active reference layer corresponding | compatible area information which concerns on this embodiment.

図1〜図28に基づいて、本発明の一実施形態に係る階層動画像復号装置1および階層動画像符号化装置2を説明すれば以下のとおりである。 The hierarchical moving picture decoding apparatus 1 and the hierarchical moving picture encoding apparatus 2 according to an embodiment of the present invention will be described as follows based on FIGS.

〔概要〕
本実施の形態に係る階層動画像復号装置(画像復号装置)1は、階層動画像符号化装置(画像符号化装置)2によって階層符号化された符号化データを復号する。階層符号化とは、動画像を低品質のものから高品質のものにかけて階層的に符号化する符号化方式のことである。階層符号化は、例えば、SVCやSHVCにおいて標準化されている。なお、ここでいう動画像の品質とは、主観的および客観的な動画像の見栄えに影響する要素のことを広く意味する。動画像の品質には、例えば、“解像度”、“フレームレート”、“画質”、および、“画素の表現精度”が含まれる。よって、以下、動画像の品質が異なるといえば、例示的には、“解像度”等が異なることを指すが、これに限られない。例えば、異なる量子化ステップで量子化された動画像の場合(すなわち、異なる符号化雑音により符号化された動画像の場合)も互いに動画像の品質が異なるといえる。
〔Overview〕
A hierarchical video decoding device (image decoding device) 1 according to the present embodiment decodes encoded data that has been hierarchically encoded by a hierarchical video encoding device (image encoding device) 2. Hierarchical coding is a coding scheme that hierarchically encodes moving images from low quality to high quality. Hierarchical coding is standardized in SVC and SHVC, for example. Note that the quality of a moving image here widely means an element that affects the appearance of a subjective and objective moving image. The quality of the moving image includes, for example, “resolution”, “frame rate”, “image quality”, and “pixel representation accuracy”. Therefore, hereinafter, if the quality of the moving image is different, it means that, for example, “resolution” is different, but it is not limited thereto. For example, in the case of moving images quantized in different quantization steps (that is, moving images encoded with different encoding noises), it can be said that the quality of moving images is different from each other.

また、階層符号化技術は、階層化される情報の種類の観点から、(1)空間スケーラビリティ、(2)時間スケーラビリティ、(3)SNR(Signal to Noise Ratio)スケーラビリティ、および(4)ビュースケーラビリティに分類されることもある。空間スケーラビリティとは、解像度や画像のサイズにおいて階層化する技術である。時間スケーラビリティとは、フレームレート(単位時間のフレーム数)において階層化する技術である。SNRスケーラビリティは、符号化雑音において階層化する技術である。また、ビュースケーラビリティは、各画像に対応付けられた視点位置において階層化する技術である。   In addition, the hierarchical coding technology is (1) spatial scalability, (2) temporal scalability, (3) SNR (Signal to Noise Ratio) scalability, and (4) view scalability from the viewpoint of the type of information to be layered. May be classified. Spatial scalability is a technique for hierarchizing resolution and image size. Time scalability is a technique for layering at a frame rate (number of frames per unit time). SNR scalability is a technique for layering in coding noise. Also, view scalability is a technique for hierarchizing at the viewpoint position associated with each image.

本実施形態に係る階層動画像符号化装置2及び階層動画像復号装置1の詳細な説明に先立って、まず(1)階層動画像符号化装置2によって生成され、階層動画像復号装置1によって復号される階層符号化データのレイヤ構造を説明し、次いで(2)各レイヤで採用できるデータ構造の具体例について説明を行う。   Prior to detailed description of the hierarchical video encoding device 2 and the hierarchical video decoding device 1 according to the present embodiment, first, (1) the hierarchical video encoding device 2 generates and the hierarchical video decoding device 1 performs decoding. The layer structure of the hierarchically encoded data to be performed will be described, and then (2) a specific example of the data structure that can be adopted in each layer will be described.

〔階層符号化データのレイヤ構造〕
ここで、図1を用いて、階層符号化データの符号化および復号について説明すると次のとおりである。図1は、動画像を、下位階層L3、中位階層L2、および上位階層L1の3階層により階層的に符号化/復号する場合について模式的に表す図である。つまり、図1(a)および(b)に示す例では、3階層のうち、上位階層L1が最上位層となり、下位階層L3が最下位層となる。
[Layer structure of hierarchically encoded data]
Here, the encoding and decoding of hierarchically encoded data will be described with reference to FIG. FIG. 1 is a diagram schematically illustrating a case where a moving image is hierarchically encoded / decoded by three layers of a lower layer L3, a middle layer L2, and an upper layer L1. That is, in the example shown in FIGS. 1A and 1B, among the three layers, the upper layer L1 is the highest layer and the lower layer L3 is the lowest layer.

以下において、階層符号化データから復号され得る特定の品質に対応する復号画像は、特定の階層の復号画像(または、特定の階層に対応する復号画像)と称される(例えば、上位階層L1の復号画像POUT#A)。   In the following, a decoded image corresponding to a specific quality that can be decoded from hierarchically encoded data is referred to as a decoded image of a specific hierarchy (or a decoded image corresponding to a specific hierarchy) (for example, an upper layer L1). Decoded image POUT # A).

図1(a)は、入力画像PIN#A〜PIN#Cをそれぞれ階層的に符号化して符号化データDATA#A〜DATA#Cを生成する階層動画像符号化装置2#A〜2#Cを示している。図1(b)は、階層的に符号化された符号化データDATA#A〜DATA#Cをそれぞれ復号して復号画像POUT#A〜POUT#Cを生成する階層動画像復号装置1#A〜1#Cを示している。   FIG. 1A shows a hierarchical video encoding device 2 # A-2 # C that generates encoded data DATA # A-DATA # C by hierarchically encoding input images PIN # A-PIN # C, respectively. Is shown. FIG. 1B illustrates a hierarchical video decoding device 1 # A that generates decoded images POUT # A to POUT # C by decoding encoded data DATA # A to DATA # C that are encoded hierarchically. 1 # C is shown.

まず、図1(a)を用いて、符号化装置側について説明する。符号化装置側の入力となる入力画像PIN#A、PIN#B、およびPIN#Cは、原画は同じだが、画像の品質(解像度、フレームレート、および画質等)が異なる。画像の品質は、入力画像PIN#A、PIN#B、およびPIN#Cの順に低くなる。   First, the encoding device side will be described with reference to FIG. The input images PIN # A, PIN # B, and PIN # C that are input on the encoding device side have the same original image but different image quality (resolution, frame rate, image quality, and the like). The image quality decreases in the order of the input images PIN # A, PIN # B, and PIN # C.

下位階層L3の階層動画像符号化装置2#Cは、下位階層L3の入力画像PIN#Cを符号化して下位階層L3の符号化データDATA#Cを生成する。下位階層L3の復号画像POUT#Cを復号するのに必要な基本情報が含まれる(図1において“C”にて示している)。下位階層L3は、最下層の階層であるため、下位階層L3の符号化データDATA#Cは、基本符号化データとも称される。   The hierarchical video encoding apparatus 2 # C of the lower hierarchy L3 encodes the input image PIN # C of the lower hierarchy L3 to generate encoded data DATA # C of the lower hierarchy L3. Basic information necessary for decoding the decoded image POUT # C of the lower layer L3 is included (indicated by “C” in FIG. 1). Since the lower layer L3 is the lowest layer, the encoded data DATA # C of the lower layer L3 is also referred to as basic encoded data.

また、中位階層L2の階層動画像符号化装置2#Bは、中位階層L2の入力画像PIN#Bを、下位階層の符号化データDATA#Cを参照しながら符号化して中位階層L2の符号化データDATA#Bを生成する。中位階層L2の符号化データDATA#Bには、符号化データDATA#Cに含まれる基本情報“C”に加えて、中位階層の復号画像POUT#Bを復号するのに必要な付加的情報(図1において“B”にて示している)が含まれる。   Further, the hierarchical video encoding apparatus 2 # B of the middle hierarchy L2 encodes the input image PIN # B of the middle hierarchy L2 with reference to the encoded data DATA # C of the lower hierarchy, and performs the middle hierarchy L2 Encoded data DATA # B is generated. In addition to the basic information “C” included in the encoded data DATA # C, additional data necessary for decoding the decoded image POUT # B of the intermediate hierarchy is added to the encoded data DATA # B of the intermediate hierarchy L2. Information (indicated by “B” in FIG. 1) is included.

また、上位階層L1の階層動画像符号化装置2#Aは、上位階層L1の入力画像PIN#Aを、中位階層L2の符号化データDATA#Bを参照しながら符号化して上位階層L1の符号化データDATA#Aを生成する。上位階層L1の符号化データDATA#Aには、下位階層L3の復号画像POUT#Cを復号するのに必要な基本情報“C”および中位階層L2の復号画像POUT#Bを復号するのに必要な付加的情報“B”に加えて、上位階層の復号画像POUT#Aを復号するのに必要な付加的情報(図1において“A”にて示している)が含まれる。   Further, the hierarchical video encoding apparatus 2 # A of the upper hierarchy L1 encodes the input image PIN # A of the upper hierarchy L1 with reference to the encoded data DATA # B of the intermediate hierarchy L2 to Encoded data DATA # A is generated. The encoded data DATA # A of the upper layer L1 is used to decode the basic information “C” necessary for decoding the decoded image POUT # C of the lower layer L3 and the decoded image POUT # B of the middle layer L2. In addition to the necessary additional information “B”, additional information (indicated by “A” in FIG. 1) necessary for decoding the decoded image POUT # A of the upper layer is included.

このように上位階層L1の符号化データDATA#Aは、異なる複数の品質の復号画像に関する情報を含む。   As described above, the encoded data DATA # A of the upper layer L1 includes information related to decoded images having a plurality of different qualities.

次に、図1(b)を参照しながら復号装置側について説明する。復号装置側では、上位階層L1、中位階層L2、および下位階層L3それぞれの階層に応じた復号装置1#A、1#B、および1#Cが、符号化データDATA#A、DATA#B、およびDATA#Cを復号して復号画像POUT#A、POUT#B、およびPOUT#Cを出力する。   Next, the decoding device side will be described with reference to FIG. On the decoding device side, the decoding devices 1 # A, 1 # B, and 1 # C corresponding to the layers of the upper layer L1, the middle layer L2, and the lower layer L3 are encoded data DATA # A and DATA # B, respectively. , And DATA # C are decoded to output decoded images POUT # A, POUT # B, and POUT # C.

なお、上位の階層符号化データの一部の情報を抽出して、より下位の特定の復号装置において、当該抽出した情報を復号することで特定の品質の動画像を再生することもできる。   It is also possible to reproduce a moving image having a specific quality by extracting a part of the information of the upper layer encoded data and decoding the extracted information in a lower specific decoding device.

例えば、中位階層L2の階層復号装置1#Bは、上位階層L1の階層符号化データDATA#Aから、復号画像POUT#Bを復号するのに必要な情報(すなわち、階層符号化データDATA#Aに含まれる“B”および“C”)を抽出して、復号画像POUT#Bを復号してもよい。言い換えれば、復号装置側では、上位階層L1の階層符号化データDATA#Aに含まれる情報に基づいて、復号画像POUT#A、POUT#B、およびPOUT#Cを復号できる。   For example, the hierarchy decoding apparatus 1 # B of the middle hierarchy L2 receives information necessary for decoding the decoded image POUT # B from the hierarchy encoded data DATA # A of the upper hierarchy L1 (that is, the hierarchy encoded data DATA # A decoded image POUT # B may be decoded by extracting “B” and “C”) included in A. In other words, on the decoding device side, the decoded images POUT # A, POUT # B, and POUT # C can be decoded based on information included in the hierarchically encoded data DATA # A of the upper hierarchy L1.

なお、以上の3階層の階層符号化データに限られず、階層符号化データは、2階層で階層符号化されていてもよいし、3階層よりも多い階層数にて階層符号化されていてもよい。   The hierarchical encoded data is not limited to the above three-layer hierarchical encoded data, and the hierarchical encoded data may be hierarchically encoded with two layers or may be hierarchically encoded with a number of layers larger than three. Good.

また、特定の階層の復号画像に関する符号化データの一部または全部を他の階層とは独立して符号化し、特定の階層の復号の際に、他の階層の情報を参照しなくても済むように階層符号化データを構成してもよい。例えば、図1(a)および(b)を用いて上述した例では、復号画像POUT#Bの復号に“C”および“B”を参照すると説明したが、これに限られない。復号画像POUT#Bが“B”だけを用いて復号できるように階層符号化データを構成することも可能である。例えば、復号画像POUT#Bの復号に、“B”だけから構成される階層符号化データと、復号画像POUT#Cを入力とする階層動画像復号装置も構成できる。   Also, a part or all of the encoded data related to the decoded image of a specific hierarchy is encoded independently of the other hierarchy, and it is not necessary to refer to information of the other hierarchy when decoding the specific hierarchy. Hierarchically encoded data may be configured as described above. For example, in the example described above with reference to FIGS. 1A and 1B, it has been described that “C” and “B” are referred to for decoding the decoded image POUT # B, but the present invention is not limited thereto. It is also possible to configure the hierarchically encoded data so that the decoded image POUT # B can be decoded using only “B”. For example, it is possible to configure a hierarchical video decoding apparatus that receives the hierarchically encoded data composed only of “B” and the decoded image POUT # C for decoding the decoded image POUT # B.

なお、SNRスケーラビリティを実現する場合、入力画像PIN#A、PIN#B、およびPIN#Cとして同一の原画を用いた上で、復号画像POUT#A、POUT#B、およびPOUT#Cが異なる画質となるよう階層符号化データを生成することもできる。その場合、下位階層の階層動画像符号化装置が、上位階層の階層動画像符号化装置に較べて、より大きい量子化幅を用いて予測残差を量子化することで階層符号化データを生成する。   When SNR scalability is realized, the same original image is used as the input images PIN # A, PIN # B, and PIN # C, and the decoded images POUT # A, POUT # B, and POUT # C have different image quality. Hierarchically encoded data can also be generated so that In that case, the lower layer hierarchical video encoding device generates hierarchical encoded data by quantizing the prediction residual using a larger quantization width than the upper layer hierarchical video encoding device. To do.

本書では、説明の便宜上、次のとおり用語を定義する。以下の用語は、特に断りがなければ、下記の技術的事項のことを表わすのに用いる。   In this document, the following terms are defined for convenience of explanation. The following terms are used to indicate the following technical matters unless otherwise specified.

上位レイヤ : ある階層よりも上位に位置する階層のことを、上位レイヤと称する。例えば、図1において、下位階層L3の上位レイヤは、中位階層L2および上位階層L1である。また、上位レイヤの復号画像とは、より品質の高い(例えば、解像度が高い、フレームレートが高い、画質が高い等)復号画像のことをいう。   Upper layer: A layer positioned higher than a certain layer is referred to as an upper layer. For example, in FIG. 1, the upper layers of the lower layer L3 are the middle layer L2 and the upper layer L1. The decoded image of the upper layer means a decoded image with higher quality (for example, high resolution, high frame rate, high image quality, etc.).

下位レイヤ : ある階層よりも下位に位置する階層のことを、下位レイヤと称する。例えば、図1において、上位階層L1の下位レイヤは、中位階層L2および下位階層L3である。また、下位レイヤの復号画像とは、より品質の低い復号画像のことをいう。   Lower layer: A layer located lower than a certain layer is referred to as a lower layer. For example, in FIG. 1, the lower layers of the upper layer L1 are the middle layer L2 and the lower layer L3. Further, the decoded image of the lower layer refers to a decoded image with lower quality.

対象レイヤ : 復号または符号化の対象となっている階層のことをいう。   Target layer: A layer that is the target of decoding or encoding.

参照レイヤ : 対象レイヤに対応する復号画像を復号するのに参照される特定の下位レイヤのことを参照レイヤと称する。   Reference layer: A specific lower layer referred to for decoding a decoded image corresponding to a target layer is referred to as a reference layer.

図1(a)および(b)に示した例では、上位階層L1の参照レイヤは、中位階層L2および下位階層L3である。しかしながら、これに限られず、特定の上記レイヤの復号において、下位レイヤのすべてを参照しなくてもよいように階層符号化データを構成することもできる。例えば、上位階層L1の参照レイヤが、中位階層L2および下位階層L3のいずれか一方となるように階層符号化データを構成することも可能である。   In the example shown in FIGS. 1A and 1B, the reference layers of the upper hierarchy L1 are the middle hierarchy L2 and the lower hierarchy L3. However, the present invention is not limited to this, and the hierarchically encoded data can be configured so that it is not necessary to refer to all of the lower layers in decoding of the specific layer. For example, the hierarchical encoded data can be configured such that the reference layer of the upper hierarchy L1 is either the middle hierarchy L2 or the lower hierarchy L3.

基本レイヤ : 最下層に位置する階層のことを基本レイヤと称する。基本レイヤの復号画像は、符号化データから復号され得るもっとも低い品質の復号画像であり、基本復号画像と呼称される。別の言い方をすれば、基本復号画像は、最下層の階層に対応する復号画像のことである。基本復号画像の復号に必要な階層符号化データの部分符号化データは基本符号化データと呼称される。例えば、上位階層L1の階層符号化データDATA#Aに含まれる基本情報“C”が基本符号化データである。   Basic layer: A layer located at the lowest layer is referred to as a basic layer. The decoded image of the base layer is the lowest quality decoded image that can be decoded from the encoded data, and is referred to as a basic decoded image. In other words, the basic decoded image is a decoded image corresponding to the lowest layer. The partially encoded data of the hierarchically encoded data necessary for decoding the basic decoded image is referred to as basic encoded data. For example, the basic information “C” included in the hierarchically encoded data DATA # A of the upper hierarchy L1 is the basic encoded data.

拡張レイヤ : 基本レイヤの上位レイヤは、拡張レイヤと称される。   Enhancement layer: The upper layer of the base layer is referred to as an enhancement layer.

レイヤ識別子 : レイヤ識別子は、階層を識別するためのものであり、階層と1対1に対応する。階層符号化データには特定の階層の復号画像の復号に必要な部分符号化データを選択するために用いられる階層識別子が含まれる。特定のレイヤに対応するレイヤ識別子に関連付けられた階層符号化データの部分集合は、レイヤ表現とも呼称される。   Layer identifier: The layer identifier is for identifying a hierarchy, and corresponds to the hierarchy one-to-one. The hierarchically encoded data includes a hierarchical identifier used for selecting partial encoded data necessary for decoding a decoded image of a specific hierarchy. A subset of hierarchically encoded data associated with a layer identifier corresponding to a specific layer is also referred to as a layer representation.

一般に、特定の階層の復号画像の復号には、当該階層のレイヤ表現、および/または、当該階層の下位レイヤに対応するレイヤ表現が用いられる。すなわち、対象レイヤの復号画像の復号においては、対象レイヤのレイヤ表現、および/または、対象レイヤの下位レイヤに含まれる1つ以上階層のレイヤ表現が用いられる。   In general, for decoding a decoded image of a specific hierarchy, a layer expression of the hierarchy and / or a layer expression corresponding to a lower layer of the hierarchy is used. That is, in decoding the decoded image of the target layer, layer representation of the target layer and / or layer representation of one or more layers included in a lower layer of the target layer are used.

レイヤ間予測 : レイヤ間予測とは、対象レイヤのレイヤ表現と異なる階層(参照レイヤ)のレイヤ表現に含まれるシンタックス要素値、シンタックス要素値より導出される値、および復号画像に基づいて、対象レイヤのシンタックス要素値や対象レイヤの復号に用いられる符号化パラメータ等を予測することである。動き予測に関する情報を参照レイヤの情報から予測するレイヤ間予測のことをレイヤ間動き情報予測と称することもある。また、下位レイヤの復号画像から予測するレイヤ間予測のことをレイヤ間画像予測(あるいはレイヤ間テクスチャ予測)と称することもある。なお、レイヤ間予測に用いられる階層は、例示的には、対象レイヤの下位レイヤである。また、参照レイヤを用いず対象レイヤ内で予測を行うことをレイヤ内予測と称することもある。   Inter-layer prediction: Inter-layer prediction is based on a syntax element value included in a layer expression of a layer (reference layer) different from the layer expression of the target layer, a value derived from the syntax element value, and a decoded image. It is to predict the syntax element value of the target layer, the encoding parameter used for decoding of the target layer, and the like. Inter-layer prediction in which information related to motion prediction is predicted from reference layer information is sometimes referred to as inter-layer motion information prediction. In addition, inter-layer prediction predicted from a lower layer decoded image may be referred to as inter-layer image prediction (or inter-layer texture prediction). Note that the hierarchy used for inter-layer prediction is, for example, a lower layer of the target layer. In addition, performing prediction within a target layer without using a reference layer may be referred to as intra-layer prediction.

なお、以上の用語は、飽くまで説明の便宜上のものであり、上記の技術的事項を別の用語にて表現してもかまわない。   Note that the above terms are for convenience of explanation until they are tired, and the above technical matters may be expressed by other terms.

〔階層符号化データのデータ構造について〕
以下、各階層の符号化データを生成する符号化方式として、HEVCおよびその拡張方式を用いる場合について例示する。しかしながら、これに限られず、各階層の符号化データを、MPEG-2や、H.264/AVCなどの符号化方式により生成してもよい。
[Data structure of hierarchically encoded data]
Hereinafter, a case where HEVC and its extension method are used as an encoding method for generating encoded data of each layer will be exemplified. However, the present invention is not limited to this, and the encoded data of each layer may be generated by an encoding method such as MPEG-2 or H.264 / AVC.

また、下位レイヤと上位レイヤとが異なる符号化方式によって符号化されていてもよい。また、各階層の符号化データは、互いに異なる伝送路を介して階層動画像復号装置1に供給されてもよいし、同一の伝送路を介して階層動画像復号装置1に供給されてもよい。   Further, the lower layer and the upper layer may be encoded by different encoding methods. Also, the encoded data of each layer may be supplied to the hierarchical video decoding device 1 via different transmission paths, or may be supplied to the hierarchical video decoding device 1 via the same transmission path. .

例えば、超高精細映像(動画像、4K映像データ)を基本レイヤおよび1つの拡張レイヤによりスケーラブル符号化して伝送する場合、基本レイヤは、4K映像データをダウンスケーリングし、インタレース化した映像データをMPEG-2またはH.264/AVCにより符号化してテレビ放送網で伝送し、拡張レイヤは、4K映像(プログレッシブ)をHEVCにより符号化して、インターネットで伝送してもよい。   For example, when transmitting ultra-high-definition video (moving image, 4K video data) with a base layer and one extended layer in a scalable encoding, the base layer downscales 4K video data, and interlaced video data. It may be encoded by MPEG-2 or H.264 / AVC and transmitted over a television broadcast network, and the enhancement layer may encode 4K video (progressive) with HEVC and transmit over the Internet.

図2は、階層符号化データDATA(図1では、例えば、階層符号化データDATA#B)のデータ構造の例示を示す図である。   FIG. 2 is a diagram illustrating an example of the data structure of hierarchically encoded data DATA (in FIG. 1, for example, hierarchically encoded data DATA # B).

階層符号化データDATAにおけるデータの階層構造を図2に示す。階層符号化データDATAは、例示的に、シーケンス、およびシーケンスを構成する複数のピクチャを含む。
図2の(a)〜(f)は、それぞれ、シーケンスSEQを規定するシーケンスレイヤ、ピクチャPICTを規定するピクチャレイヤ、スライスSを規定するスライスレイヤ、スライスデータを規定するスライスデータレイヤ、スライスデータに含まれる符号化ツリーユニット(Coding Tree Unit;CTU)を規定する符号化ツリーレイヤ、符号化ツリーユニットCTUに含まれる符号化単位(Coding Unit;CU)を規定する符号化ユニットレイヤを示す図である。
A hierarchical structure of data in the hierarchically encoded data DATA is shown in FIG. The hierarchically encoded data DATA illustratively includes a sequence and a plurality of pictures constituting the sequence.
2A to 2F respectively show a sequence layer that defines a sequence SEQ, a picture layer that defines a picture PICT, a slice layer that defines a slice S, a slice data layer that defines slice data, and slice data. It is a figure which shows the encoding unit layer which prescribes | regulates the encoding tree layer (Coding Unit; CU) contained in the encoding tree unit and Coding Tree Unit (CTU) which are contained, and the coding tree unit CTU. .

(シーケンスレイヤ)
シーケンスレイヤでは、処理対象のシーケンスSEQ(以下、対象シーケンスとも称する)を復号するために階層動画像復号装置1が参照するデータの集合が規定されている。シーケンスSEQは、図2の(a)に示すように、ビデオパラメータセットVPS(Video Parameter Set)、シーケンスパラメータセットSPS(Sequence Parameter Set)、ピクチャパラメータセットPPS(Picture Parameter Set)、ピクチャPICT、及び、付加拡張情報SEI(Supplemental Enhancement Information)を含んでいる。ここで#の後に示される値はレイヤIDを示す。図2では、#0と#1すなわちレイヤ0とレイヤ1の符号化データが存在する例を示すが、レイヤの種類およびレイヤの数はこれに限らない。
(Sequence layer)
In the sequence layer, a set of data referred to by the hierarchical video decoding device 1 for decoding the sequence SEQ to be processed (hereinafter also referred to as a target sequence) is defined. As shown in FIG. 2A, the sequence SEQ includes a video parameter set VPS (Video Parameter Set), a sequence parameter set SPS (Sequence Parameter Set), a picture parameter set PPS (Picture Parameter Set), a picture PICT, It includes supplemental enhancement information (SEI). Here, the value indicated after # indicates the layer ID. FIG. 2 shows an example in which encoded data of # 0 and # 1, that is, layer 0 and layer 1, exists, but the type of layer and the number of layers are not limited to this.

ビデオパラメータセットVPSは、複数のレイヤから構成されている動画像において、複数の動画像に共通する符号化パラメータの集合および動画像に含まれる複数のレイヤおよび個々のレイヤに関連する符号化パラメータの集合が規定されている。図3を用いて、VPSに含まれるシンタックスの一例を説明する。例えば、VPSは、図3(a)上のSYNVPS01に示すレイヤ数を規定するvps_max_layers_minus1を含む。また、VPS拡張データ(図3(a)上のSYNVPS02)では、NALユニットヘッダ上に規定されるレイヤ識別子layer_idとレイヤiを対応付けるレイヤ識別子指定情報layer_id_nuh[i](図SYNS_VPS(b)上のSYNVPS03)を含む。以降、説明を簡単化のため、特に断りが無ければ、レイヤiは、レイヤ識別子layer_id=iを有するレイヤを表わすものとする。また、VPS拡張データ(図3(a)上のSYNVPS02)では、対象レイヤで参照する対象レイヤ以外のレイヤである参照レイヤを規定する参照レイヤ指定情報(図3(b)上のSYNVPS04)が含まれる。具体的には、参照レイヤ指定情報には、レイヤ従属フラグdirect_dependency_flag[i][j]が含まれる。レイヤ従属フラグdirect_dependency_flag[i][j]は値が1である場合に、対象レイヤiは参照レイヤjを参照し、レイヤ従属フラグが0であれば、対象レイヤiは参照レイヤjを参照しないことを表す。また、対象レイヤiに対応する0でないレイヤ従属フラグdirect_dependency_flag[i][j]の数から、対象レイヤiが参照する参照レイヤの数(レイヤ間予測参照レイヤ数ともいう)NumDirectRefLayers[i]が定まる。また、対象レイヤiが参照するレイヤである参照レイヤRefLayerId[i][]が導出される。RefLayerId[i][]は、対象レイヤiが参照する参照レイヤのレイヤIDを格納したリストでありNumDirectRefLayers[i]個の要素を持つ。また、レイヤ従属フラグdirect_dependency_flag[i][j]が1の場合に、レイヤ従属タイプdirect_dependency_type[i][j](図3(b)上のSYNVPS05)がさらにVPSに含まれる。レイヤ従属タイプdirect_dependency_type[i][j]は、(1)対象レイヤiが参照レイヤjを参照するレイヤ間画像予測の有無を示すレイヤ間画像予測有無フラグSamplePredEnableFlag[i][j]、(2)対象レイヤiが参照レイヤjを参照するレイヤ間動き予測の有無を示すレイヤ間動き予測有無フラグMotionPredEnableFlag[i][j]、(3)対象レイヤiがレイヤ間画像予測のために参照する参照レイヤの数(レイヤ間画像予測参照レイヤ数ともいう)NumSamplePredRefLayers[i]、および(4)対象レイヤiがレイヤ間動き予測のために参照する参照レイヤの数(レイヤ間動き予測参照レイヤ数ともいう)NumMotionPredRefLayers[i]等のパラメータを導出するために利用されるシンタックスである。ここで、対象レイヤiが参照レイヤjを参照するレイヤ間画像予測の有無を示すレイヤ間画像予測有無フラグSamplePredEnableFlag[i][j]は、例えば、次式(F-1)により導出され、値が真の場合、対象レイヤiが参照レイヤjを参照するレイヤ間画像予測があることを示し、値が偽の場合は、レイヤ間画像予測が無いことを示す。   The video parameter set VPS is a set of encoding parameters common to a plurality of moving images, a plurality of layers included in the moving image, and encoding parameters related to individual layers in a moving image composed of a plurality of layers. A set is defined. An example of syntax included in the VPS will be described with reference to FIG. For example, the VPS includes vps_max_layers_minus1 that defines the number of layers indicated by SYNVPS01 in FIG. Further, in the VPS extension data (SYNVPS02 on FIG. 3A), layer identifier designation information layer_id_nuh [i] (SYNVPS03 on FIG. SYNS_VPS (b)) that associates the layer identifier layer_id and layer i defined on the NAL unit header. )including. Hereinafter, for the sake of simplicity, layer i represents a layer having layer identifier layer_id = i unless otherwise specified. Further, the VPS extension data (SYNVPS02 on FIG. 3A) includes reference layer designation information (SYNVPS04 on FIG. 3B) that defines a reference layer other than the target layer referred to in the target layer. It is. Specifically, the reference layer designation information includes a layer dependency flag direct_dependency_flag [i] [j]. If the layer dependency flag direct_dependency_flag [i] [j] is 1, the target layer i refers to the reference layer j, and if the layer dependency flag is 0, the target layer i does not refer to the reference layer j Represents. In addition, the number of reference layers referred to by the target layer i (also called the number of inter-layer prediction reference layers) NumDirectRefLayers [i] is determined from the number of non-zero layer dependency flags direct_dependency_flag [i] [j] corresponding to the target layer i. . Also, a reference layer RefLayerId [i] [] that is a layer to which the target layer i refers is derived. RefLayerId [i] [] is a list storing the layer IDs of reference layers referred to by the target layer i, and has NumDirectRefLayers [i] elements. When the layer dependency flag direct_dependency_flag [i] [j] is 1, the layer dependency type direct_dependency_type [i] [j] (SYNVPS05 on FIG. 3B) is further included in the VPS. The layer dependency type direct_dependency_type [i] [j] is (1) an inter-layer image prediction presence / absence flag SamplePredEnableFlag [i] [j] indicating whether or not there is inter-layer image prediction in which the target layer i refers to the reference layer j, (2) Inter-layer motion prediction presence / absence flag MotionPredEnableFlag [i] [j] indicating presence / absence of inter-layer motion prediction in which the target layer i refers to the reference layer j, (3) Reference layer that the target layer i refers to for inter-layer image prediction (Also referred to as the number of inter-layer image prediction reference layers) NumSamplePredRefLayers [i], and (4) the number of reference layers that the target layer i refers to for inter-layer motion prediction (also referred to as the number of inter-layer motion prediction reference layers) This syntax is used to derive parameters such as NumMotionPredRefLayers [i]. Here, the inter-layer image prediction presence / absence flag SamplePredEnableFlag [i] [j] indicating the presence / absence of inter-layer image prediction in which the target layer i refers to the reference layer j is derived by, for example, the following equation (F-1) Is true indicates that there is an inter-layer image prediction in which the target layer i refers to the reference layer j, and a value of false indicates that there is no inter-layer image prediction.

SamplePredEnableFlag[i][j] = ((direct_dependency_type[i][j] + 1) & 1); (F-1)
また、対象レイヤiが参照レイヤjを参照するレイヤ間動き予測の有無を示すレイヤ間動き予測有無フラグMotionPredEnableFlag[i][j]は、例えば、下記式(F-2)により導出され、値が真の場合、対象レイヤiが参照レイヤjを参照するレイヤ間動き予測があることを示し、値が偽の場合は、レイヤ間動き予測が無いことを示す。
SamplePredEnableFlag [i] [j] = ((direct_dependency_type [i] [j] + 1) &1); (F-1)
In addition, the inter-layer motion prediction presence / absence flag MotionPredEnableFlag [i] [j] indicating the presence / absence of inter-layer motion prediction in which the target layer i refers to the reference layer j is derived by the following equation (F-2), for example, When true, the target layer i indicates that there is an inter-layer motion prediction referring to the reference layer j, and when the value is false, it indicates that there is no inter-layer motion prediction.

MotionPredEnableFlag[i][j] =
(((direct_dependency_type[i][j] + 1) & 2)>>1); (F-2)
また、レイヤ間画像予測参照レイヤ数NumSamplePredRefLayers[i]は、対象レイヤiに対応する0でないレイヤ間画像予測有無フラグSamplePredEnableFlag[i][j]の数から定まる。同様に、レイヤ間動き予測参照レイヤ数NumMotionPredRefLayers[i]は、対象レイヤiに対応する0でないレイヤ間動き予測有無フラグMotionPredEnableFlag[i][j]の数から定まる。
MotionPredEnableFlag [i] [j] =
(((direct_dependency_type [i] [j] + 1) & 2) >>1); (F-2)
The number of inter-layer image prediction reference layers NumSamplePredRefLayers [i] is determined from the number of non-zero inter-layer image prediction presence / absence flags SamplePredEnableFlag [i] [j] corresponding to the target layer i. Similarly, the inter-layer motion prediction reference layer number NumMotionPredRefLayers [i] is determined from the number of non-zero inter-layer motion prediction presence / absence flags MotionPredEnableFlag [i] [j] corresponding to the target layer i.

また、レイヤ間画像予測有無フラグSamplePredEnableFlag[i][j]に基づいて、各レイヤにおいてレイヤ間画像予測で利用される参照レイヤのレイヤ識別子を特定するためのレイヤ間画像予測参照レイヤインデクスSamplePredRefLayerId[i][sIdx]、及びレイヤ間動き予測有無フラグMotionPredEnableFlag[i][j]に基づいて、各レイヤにおいてレイヤ間動き予測で利用される参照レイヤのレイヤ識別子を特定ためのレイヤ間動き予測参照レイヤインデクスMotionPredRefLayerId[i][mIdx]が以下の式(F-3)により導出される。   Further, based on the inter-layer image prediction presence / absence flag SamplePredEnableFlag [i] [j], an inter-layer image prediction reference layer index SamplePredRefLayerId [i] for identifying a layer identifier of a reference layer used in inter-layer image prediction in each layer. ] [sIdx] and inter-layer motion prediction presence / absence flag MotionPredEnableFlag [i] [j], the inter-layer motion prediction reference layer index for specifying the layer identifier of the reference layer used in the inter-layer motion prediction in each layer MotionPredRefLayerId [i] [mIdx] is derived by the following equation (F-3).

for( i=1; mIdx=0, sIdx = 0; i<=vps_max_layers_minus1; i++){
iNuhLid = layer_id_in_nuh[ i ];
for( j=0; j<i; j++){
if ( MotionPredEnableFlag[iNuhId][ j ] )
MotionPredRefLayerId[ iNuhId ][mIdx ++ ] = layer_id_in_nuh[ j ];
if ( SamplePredEnableFlag[iNuhId][ j] )
SamplePredRefLayerId[ iNuhId ][sIdx ++ ] = layer_id_in_nuh[ j ];
}
} (F-3)
シーケンスパラメータセットSPSでは、対象シーケンスを復号するために階層動画像復号装置1が参照する符号化パラメータの集合が規定されている。例えば、対象シーケンス内のピクチャの横幅PWや縦幅PHが規定される。また、SPSは、対象レイヤの対象ピクチャcurPic(あるいは、リサンプル参照レイヤピクチャrsPic)上のどの領域が参照レイヤピクチャrlPicと対応するかを示す参照レイヤ対応領域情報を規定する。また、SPSは符号化データ内に複数存在してもよい。その場合、対象シーケンス毎に復号に用いられるSPSが複数の候補から選択される。特定シーケンスの復号に使用されるSPSは、アクティブSPSとも呼ばれる。以下では、特に断りがなければ、対象シーケンスに対するアクティブSPSを意味する。
for (i = 1; mIdx = 0, sIdx = 0; i <= vps_max_layers_minus1; i ++) {
iNuhLid = layer_id_in_nuh [i];
for (j = 0; j <i; j ++) {
if (MotionPredEnableFlag [iNuhId] [j])
MotionPredRefLayerId [iNuhId] [mIdx ++] = layer_id_in_nuh [j];
if (SamplePredEnableFlag [iNuhId] [j])
SamplePredRefLayerId [iNuhId] [sIdx ++] = layer_id_in_nuh [j];
}
} (F-3)
In the sequence parameter set SPS, a set of encoding parameters referred to by the hierarchical video decoding device 1 for decoding the target sequence is defined. For example, the horizontal width PW and vertical width PH of the picture in the target sequence are defined. The SPS defines reference layer corresponding region information indicating which region on the target picture curPic (or the resample reference layer picture rsPic) of the target layer corresponds to the reference layer picture rlPic. A plurality of SPSs may exist in the encoded data. In that case, the SPS used for decoding is selected from a plurality of candidates for each target sequence. An SPS used for decoding a specific sequence is also called an active SPS. In the following, unless otherwise specified, it means an active SPS for the target sequence.

ここで、参照レイヤ対応領域情報の説明に先だって、図4を用いて、対象レイヤのピクチャと参照レイヤのピクチャとの対応領域(参照レイヤ対応領域)を説明する。同図上のrlPicは、縦幅RLPH、横幅RLPWの画像サイズを有する参照レイヤのピクチャ(参照レイヤピクチャ)である。同図上のrsPicは、参照レイヤピクチャrlPicを、縦幅PH、横幅PWの画像サイズを有する対象レイヤのピクチャへマッピングしたピクチャ(リサンプル参照レイヤピクチャ)rsPicである。同図上のSRLA (灰色部分)は、対象レイヤのピクチャ上で、参照レイヤピクチャrlPicと対応する領域(参照レイヤ対応領域)であり、縦幅SRLPH、横幅SRLPWのサイズを有する。同図上のNSRLAは、参照レイヤ対応領域SRLAの外側の領域(参照レイヤ対応領域外と呼ぶ)である。同図上のOffsetLは、参照レイヤ対応領域SRLAの最左上画素と対象レイヤのピクチャ(あるいは、リサンプル参照ピクチャrsPic)の最左上画素間の水平方向(x方向)のオフセットを表わす。同図上のOffsetTは、参照レイヤ対応領域SRLAの最左上画素と対象レイヤのピクチャ(あるいは、リサンプル参照ピクチャrsPic)の最左上画素間の垂直方向(y方向)のオフセットを表わす。同図上のOffsetRは、参照レイヤ対応領域SRLAの最右下画素と対象レイヤのピクチャ(あるいは、リサンプル参照ピクチャrsPic)の最右下画素間の水平方向(x方向)のオフセットを表わす。同図上のOffsetBは、参照レイヤ対応領域SRLAの最右下画素と対象レイヤのピクチャ(あるいは、リサンプル参照ピクチャrsPic)の最右下画素間の垂直方向(y方向)のオフセットを表わす。   Prior to the description of the reference layer corresponding region information, the corresponding region (reference layer corresponding region) between the picture of the target layer and the picture of the reference layer will be described with reference to FIG. RlPic in the figure is a reference layer picture (reference layer picture) having an image size of vertical width RLPH and horizontal width RLPW. RsPic in the figure is a picture (resample reference layer picture) rsPic obtained by mapping the reference layer picture rlPic to a picture of a target layer having an image size of the vertical width PH and the horizontal width PW. SRLA (gray portion) in the drawing is an area (reference layer corresponding area) corresponding to the reference layer picture rlPic on the picture of the target layer, and has a size of the vertical width SRLPH and the horizontal width SRLPW. NSRLA in the figure is an area outside the reference layer corresponding area SRLA (referred to as “outside reference layer corresponding area”). Offset L in the figure represents an offset in the horizontal direction (x direction) between the upper left pixel of the reference layer corresponding area SRLA and the upper left pixel of the picture of the target layer (or the resample reference picture rsPic). OffsetT in the drawing represents an offset in the vertical direction (y direction) between the upper left pixel of the reference layer corresponding region SRLA and the upper left pixel of the picture of the target layer (or the resample reference picture rsPic). OffsetR in the drawing represents an offset in the horizontal direction (x direction) between the lowermost right pixel of the reference layer corresponding region SRLA and the lowermost right pixel of the picture of the target layer (or the resample reference picture rsPic). OffsetB in the figure represents an offset in the vertical direction (y direction) between the lowermost right pixel of the reference layer corresponding region SRLA and the lowermost right pixel of the picture of the target layer (or the resample reference picture rsPic).

SPSは、図5(a)上のSYNSPS01に示すSPS拡張データsps_extension()を含む。さらに、SPS拡張データsps_extension()は、参照レイヤ対応領域情報として、図5(b)上のSYNSPS02に示すシンタックス群を含む。なお、SPSに含まれる参照レイヤ対応領域情報は、シーケンス全体で共通(基準)となる参照レイヤ対応領域である。各ピクチャ毎に参照レイヤ対応領域が変化する場合は、ピクチャ単位で対応する参照レイヤ対応領域情報(後述のアクティブ参照レイヤ対応領域情報)を通知する。   The SPS includes SPS extension data sps_extension () shown in SYNSPS01 on FIG. Furthermore, the SPS extension data sps_extension () includes a syntax group indicated by SYNSPS02 on FIG. 5B as reference layer corresponding region information. Note that the reference layer corresponding region information included in the SPS is a reference layer corresponding region that is common (standard) in the entire sequence. When the reference layer corresponding area changes for each picture, reference layer corresponding area information (active reference layer corresponding area information described later) corresponding to each picture is notified.

scaled_ref_layer_offsets_param_present_flagは、対象レイヤcurLayerIdの対象ピクチャcurPicと参照レイヤ数NumDirectRefLayers[curLayerId]個の参照レイヤ対応領域情報の有無を示すフラグ(参照レイヤ対応領域情報群有無フラグ)であり、値が真の場合、参照レイヤ数個の参照レイヤ対応領域情報があることを示し、値が偽の場合、参照レイヤ対応領域情報はないことを示す。図5(b)上のSYNSPS02の例では、NumDirectRefLayers[curLyaerId]が0より大きい場合、明示的に参照レイヤ対応領域情報群有無フラグが通知され、NumDirectRefLayers[curLyaerId]が0の場合、参照レイヤ対応領域情報群有無フラグは0であると推定される。なお、従来技術では、対象レイヤの参照レイヤ数NumDirectRefLayers[curLayer]が分かっているのにも関わらず、明示的に、何個の参照レイヤ対応領域情報があるかを示すシンタックスnum_scaled_ref_layer_offsetsが含まれていた。一方、本発明では、参照レイヤ対応領域情報群有無フラグが真の場合、明示的に各参照レイヤの参照レイヤ対応領域情報(NumDirectRefLayers[curLyaerId]個の参照レイヤ対応領域情報)を通知する構成である。これによって、何個の参照レイヤ対応領域情報があるかを示すシンタックスnum_scaled_ref_layer_offsetsを通知する従来技術に比べて、参照レイヤ対応領域情報に係る符号量を削減することが可能である。   scaled_ref_layer_offsets_param_present_flag is a flag (reference layer corresponding region information group presence / absence flag) indicating whether or not there is reference layer corresponding region information of the target picture curPic of the target layer curLayerId and the number of reference layers NumDirectRefLayers [curLayerId]. It indicates that there are several layers of reference layer corresponding region information. If the value is false, it indicates that there is no reference layer corresponding region information. In the example of SYNPSPS02 in FIG. 5B, when NumDirectRefLayers [curLyaerId] is greater than 0, the reference layer corresponding area information group presence / absence flag is explicitly notified, and when NumDirectRefLayers [curLyaerId] is 0, the reference layer corresponding area The information group presence / absence flag is estimated to be 0. Note that the conventional technology explicitly includes the syntax num_scaled_ref_layer_offsets that indicates how many reference layer corresponding region information exist even though the number of reference layers NumDirectRefLayers [curLayer] of the target layer is known. It was. On the other hand, in the present invention, when the reference layer corresponding region information group presence / absence flag is true, the reference layer corresponding region information (NumDirectRefLayers [curLyaerId] pieces of reference layer corresponding region information) of each reference layer is explicitly notified. . Accordingly, it is possible to reduce the amount of codes related to the reference layer corresponding region information as compared with the conventional technique that notifies the syntax num_scaled_ref_layer_offsets indicating how many reference layer corresponding region information is present.

なお、図5(b)上のSYNSPS02の代わりに、図33(a)に示すSYNSPS02Aの構成としてもよい。すなわち、NumDirectRefLayers[curLyaerId]が1より大きい場合、明示的に参照レイヤ対応領域情報群有無フラグが通知され、NumDirectRefLayers[curLyaerId]が0の場合、参照レイヤ対応領域情報群有無フラグは0であると推定し、NumDirectRefLayers[curLyaerId]が1の場合(NumDirectRefLayrs[curlayerId]が2未満の場合)、参照レイヤ対応領域情報有無フラグは1であると推定する。これによって、図5(b)上のSYNSPS02の例に比べて、参照レイヤ数が1個の場合、参照レイヤ対応領域情報群有無フラグを明示的に通知する必要がなくなり、参照レイヤ対応領域情報群有無フラグに係る符号量を削減することが可能である。また、NumDirectRefLayers[curLyaerId]が0の場合、NumDirectRefLayers[curLyaerId]によるループ部のフラグは符号化されない。しかし、これらのフラグを符号化しないことをより明確に示すために、参照レイヤ対応領域情報群有無フラグは0であると推定しても良い。   In addition, it is good also as a structure of SYNPSPS02A shown to Fig.33 (a) instead of SYNPSPS02 on FIG.5 (b). That is, when NumDirectRefLayers [curLyaerId] is greater than 1, a reference layer corresponding region information group presence / absence flag is explicitly notified, and when NumDirectRefLayers [curLyaerId] is 0, it is estimated that the reference layer corresponding region information group presence / absence flag is 0. When NumDirectRefLayers [curLyaerId] is 1 (when NumDirectRefLayrs [curlayerId] is less than 2), it is estimated that the reference layer corresponding region information presence / absence flag is 1. Accordingly, when the number of reference layers is one as compared with the example of SYNSPS02 in FIG. 5B, there is no need to explicitly notify the reference layer corresponding region information group presence / absence flag, and the reference layer corresponding region information group It is possible to reduce the code amount related to the presence / absence flag. Further, when NumDirectRefLayers [curLyaerId] is 0, the flag of the loop part by NumDirectRefLayers [curLyaerId] is not encoded. However, in order to more clearly indicate that these flags are not encoded, the reference layer corresponding region information group presence / absence flag may be estimated to be zero.

上記、図33(a)の構成では、NumDirectRefLayers[curLyaerId]が1より大きい場合に、参照レイヤ対応領域情報群有無フラグを通知することにより、参照レイヤ対応領域情報を符号化する必要のない場合の、符号量を削減することができる。また、後述するように、各参照レイヤに対して、参照レイヤ対応領域情報有無フラグを符号化しないことにより、各シンタックス(scaled_ref_layer_left_offset[i]、scaled_ref_layer_top_offset[i]、scaled_ref_layer_right_offset[i]、scaled_ref_layer_bottom_offset[i])に係る符号量を削減することが可能である。また、図33(b)に示すSYNSPS02Bの構成としてもよい。この場合、参照レイヤ対応領域情報群有無フラグは含まれず、明示的に、NumDirectRefLayers[curLayer]個の参照レイヤ対応領域情報を通知する構成である。同様に、何個の参照レイヤ対応領域情報があるかを示すシンタックスnum_scaled_ref_layer_offsetsを通知する従来技術に比べて、参照レイヤ対応領域情報に係る符号量を削減することが可能である。   In the configuration of FIG. 33A, when NumDirectRefLayers [curLyaerId] is greater than 1, the reference layer corresponding region information does not need to be encoded by notifying the reference layer corresponding region information group presence / absence flag. The amount of codes can be reduced. Further, as described later, by not encoding the reference layer corresponding region information presence / absence flag for each reference layer, each syntax (scaled_ref_layer_left_offset [i], scaled_ref_layer_top_offset [i], scaled_ref_layer_right_offset [i], scaled_ref_layer_bottom_offset [i ]) Can be reduced. Moreover, it is good also as a structure of SYNPSPS02B shown in FIG.33 (b). In this case, the reference layer corresponding region information group presence / absence flag is not included, and NumDirectRefLayers [curLayer] reference layer corresponding region information is explicitly notified. Similarly, it is possible to reduce the amount of codes related to the reference layer corresponding region information as compared with the conventional technique that notifies the syntax num_scaled_ref_layer_offsets indicating how many reference layer corresponding region information exists.

scaled_ref_layer_offset_present_flag[i]は、対象レイヤcurLayerIdと参照レイヤRefLayerId[curLayerId][i]間の参照レイヤ対応領域情報の有無を示すフラグ(参照レイヤ対応領域情報有無フラグと呼ぶ)であり、値が真の場合、参照レイヤ対応領域情報として、さらに、以下の4つのシンタックスscaled_ref_layer_left_offset[i]、scaled_ref_layer_top_offset[i]、scaled_ref_layer_right_offset[i]、scaled_ref_layer_bottom_offset[i]が明示的に含まれ、偽の場合は、上記4つのシンタックスの値は、それぞれゼロであると推定される。各シンタックスの定義は、次の通りである。なお、上記参照レイヤ対応領域情報群有無フラグの値が偽の場合は、参照レイヤ対応領域情報有無フラグの値はゼロと推定される。   scaled_ref_layer_offset_present_flag [i] is a flag indicating the presence / absence of reference layer corresponding area information between the target layer curLayerId and the reference layer RefLayerId [curLayerId] [i] (referred to as reference layer corresponding area information presence / absence flag), and the value is true In addition, as reference layer corresponding area information, the following four syntaxes scaled_ref_layer_left_offset [i], scaled_ref_layer_top_offset [i], scaled_ref_layer_right_offset [i], and scaled_ref_layer_bottom_offset [i] are explicitly included. The syntax values are each estimated to be zero. The definition of each syntax is as follows. When the value of the reference layer corresponding region information group presence / absence flag is false, the value of the reference layer corresponding region information presence / absence flag is estimated to be zero.

scaled_ref_layer_left_offset[i]は、レイヤ間予測に使われる、リサンプルしたi番目の参照レイヤRefLayerId[curLayerId][i]上の参照レイヤ対応領域SRLAの最左上画素と対象ピクチャcurPicの最左上画素間の所定画素単位の水平方向(x方向)のオフセットである。   scaled_ref_layer_left_offset [i] is a predetermined value between the upper left pixel of the reference layer corresponding area SRLA on the resampled i-th reference layer RefLayerId [curLayerId] [i] and the upper left pixel of the target picture curPic used for inter-layer prediction This is an offset in the horizontal direction (x direction) in pixel units.

scaled_ref_layer_top_offset[i]は、レイヤ間予測に使われる、リサンプルしたi番目の参照レイヤRefLayerId[curLayerId][i]上の参照レイヤ対応領域SRLAの最左上画素と対象ピクチャcurPicの最左上画素間の所定画素単位の垂直方向(y方向)のオフセットである。   scaled_ref_layer_top_offset [i] is a predetermined value between the upper left pixel of the reference layer corresponding area SRLA on the resampled i-th reference layer RefLayerId [curLayerId] [i] and the upper left pixel of the target picture curPic used for inter-layer prediction. This is an offset in the vertical direction (y direction) in pixel units.

scaled_ref_layer_right_offset[i]は、レイヤ間予測に使われる、リサンプルしたi番目の参照レイヤRefLayerId[curLayerId][i]上の参照レイヤ対応領域SRLAの最右下画素と対象ピクチャcurPicの最右下輝度画素間の所定画素単位の水平方向(x方向)のオフセットである。   scaled_ref_layer_right_offset [i] is the rightmost lower right pixel of the reference layer corresponding region SRLA on the resampled i-th reference layer RefLayerId [curLayerId] [i] and the lowermost right luminance pixel of the target picture curPic used for inter-layer prediction It is an offset in the horizontal direction (x direction) of a predetermined pixel unit between them.

scaled_ref_layer_bottom_offset[i]は、レイヤ間予測に使われる、リサンプルしたi番目の参照レイヤRefLayerId[curLayerId][i]上の参照レイヤ対応領域SRLAの最右下画素と対象ピクチャcurPicの最右下画素間の所定画素単位の垂直方向(y方向)のオフセットである。   scaled_ref_layer_bottom_offset [i] is used for inter-layer prediction, between the lowest right pixel of the reference layer corresponding region SRLA on the resampled i-th reference layer RefLayerId [curLayerId] [i] and the lower right pixel of the target picture curPic Is an offset in the vertical direction (y direction) of a predetermined pixel unit.

従って、参照レイヤ対応領域情報有無フラグが0の場合、各シンタックス(scaled_ref_layer_left_offset[i]、scaled_ref_layer_top_offset[i]、scaled_ref_layer_right_offset[i]、scaled_ref_layer_bottom_offset[i])に係る符号量を削減することが可能である。   Therefore, when the reference layer corresponding region information presence / absence flag is 0, it is possible to reduce the amount of code related to each syntax (scaled_ref_layer_left_offset [i], scaled_ref_layer_top_offset [i], scaled_ref_layer_right_offset [i], scaled_ref_layer_bottom_offset [i]). .

図4上の各オフセットOffsetL、OffsetT、OffsetR、及びOffsetBは、対象レイヤcurLayerIdと参照レイヤRefLayerId[curLayerId][dRlIdx]間の参照レイヤ対応領域情報に含まれるシンタックスscaled_ref_layer_left_offset[dRlIdx]、scaled_ref_layer_top_offset[dRlIdx]、scaled_ref_layer_right_offset[dRlIdx]、scaled_ref_layer_bottom_offset[dRlIdx]を用いて、以下の式(G-1)〜(G-4)により導出される。   Each offset OffsetL, OffsetT, OffsetR, and OffsetB in FIG. 4 is the syntax scaled_ref_layer_left_offset [dRlIdx], scaled_ref_layer_top_offset [dRlIdx] included in the reference layer corresponding region information between the target layer curLayerId and the reference layer RefLayerId [curLayerId] [dRlIdx]. , Scaled_ref_layer_right_offset [dRlIdx] and scaled_ref_layer_bottom_offset [dRlIdx] are derived by the following equations (G-1) to (G-4).

OffsetL = scaled_ref_layer_left_offset[dRlIdx] << sample_unit_bit; (G-1)
OffsetT = scaled_ref_layer_top_offset[dRlIdx] << sample_unit_bit; (G-2)
OffsetR = scaled_ref_layer_right_offset[dRlIdx] << sample_unit_bit; (G-3)
OffsetB = scaled_ref_layer_bottom_offset[dRlIdx] << sample_unit_bit; (G-4)
ここで、sample_unit_bitは、2のべき乗で表わされる所定画素単位を、2を底とする対数値で表わした値である。例えば、2画素を単位とする場合は、sample_unit_bit = 1となる。また、2^N画素(Nの値は0以上)を単位とする場合は、sample_unit_bit = Nとなる。なお、sample_unit_bitは、画像復号装置と画像符号化装置間において予め定めておいてもよいし、SPS等のパラメータセットにおいて通知されてもよい。なお、OffsetLはScaledRefLayerLeftOffset、OffsetTはScaledRefLayerTopOffset、OffsetRはScaledRefLayerRightOffset、OffsetBはScaledRefLayerBottomOffsetとも呼ばれる。
OffsetL = scaled_ref_layer_left_offset [dRlIdx] <<sample_unit_bit; (G-1)
OffsetT = scaled_ref_layer_top_offset [dRlIdx] <<sample_unit_bit; (G-2)
OffsetR = scaled_ref_layer_right_offset [dRlIdx] <<sample_unit_bit; (G-3)
OffsetB = scaled_ref_layer_bottom_offset [dRlIdx] <<sample_unit_bit; (G-4)
Here, sample_unit_bit is a value representing a predetermined pixel unit represented by a power of 2 as a logarithmic value with 2 as the base. For example, when 2 pixels are used as a unit, sample_unit_bit = 1. In addition, when 2 ^ N pixels (the value of N is 0 or more) is used as a unit, sample_unit_bit = N. Note that sample_unit_bit may be predetermined between the image decoding apparatus and the image encoding apparatus, or may be notified in a parameter set such as SPS. OffsetL is also called ScaledRefLayerLeftOffset, OffsetT is also called ScaledRefLayerTopOffset, OffsetR is also called ScaledRefLayerRightOffset, and OffsetB is also called ScaledRefLayerBottomOffset.

逆に、各シンタックスscaled_ref_layer_left_offset[dRlIdx], scaled_ref_layer_top_offset[dRlIdx], scaled_ref_layer_right_offset[dRlIdx], scaled_ref_layer_bottom_offset[dRlIdx]の値は、(G-1)〜(G-4)の逆処理に相当する(I-1)〜(I-4)によって導出される。   Conversely, the values of each syntax scaled_ref_layer_left_offset [dRlIdx], scaled_ref_layer_top_offset [dRlIdx], scaled_ref_layer_right_offset [dRlIdx], scaled_ref_layer_bottom_offset [dRlIdx] are equivalent to (G-1) ~ (G-4) ) To (I-4).

scaled_ref_layer_left_offset[dRlIdx] = OffsetL >> sample_unit_bit; (I-1)
scaled_ref_layer_top_offset[dRlIdx] = OffsetT >> sample_unit_bit; (I-2)
scaled_ref_layer_right_offset[dRlIdx] = OffsetR >> sample_unit_bit; (I-3)
scaled_ref_layer_bottom_offset[dRlIdx] = OffsetB>> sample_unit_bit; (I-4)
また、scaled_ref_layer_offset_present_flag[dRlIdx]の値は、式(I-1)〜(I-4)で定まる各シンタックスの値が全て0の場合、0へ設定され、それ以外の場合は1へ設定される。
scaled_ref_layer_left_offset [dRlIdx] = OffsetL >>sample_unit_bit; (I-1)
scaled_ref_layer_top_offset [dRlIdx] = OffsetT >>sample_unit_bit; (I-2)
scaled_ref_layer_right_offset [dRlIdx] = OffsetR >>sample_unit_bit; (I-3)
scaled_ref_layer_bottom_offset [dRlIdx] = OffsetB >>sample_unit_bit; (I-4)
Further, the value of scaled_ref_layer_offset_present_flag [dRlIdx] is set to 0 when all the syntax values determined by the expressions (I-1) to (I-4) are 0, and is set to 1 otherwise. .

また、図4上の参照レイヤ対応領域SRLAの横幅SRLPWと縦幅SRLPHは、例えば、以下の式(G-5)〜(G-6)により導出される。   Also, the horizontal width SRLPW and the vertical width SRLPH of the reference layer corresponding region SRLA in FIG. 4 are derived by, for example, the following equations (G-5) to (G-6).

SRLPW = PW - OffsetL - OffsetR; (G-5)
SRLPH = PH - OffsetT - OffsetB; (G-6)
なお、PWはPicWidthInSamplesL、PHはPicHeightInSamplesL、SRLPWはScaledRefLayerPicWidthInSamplesL、SRLPHはScaledRefLayerPicHeightInSamplesLとも呼ばれる。
SRLPW = PW-OffsetL-OffsetR; (G-5)
SRLPH = PH-OffsetT-OffsetB; (G-6)
PW is also called PicWidthInSamplesL, PH is also called PicHeightInSamplesL, SRLPW is also called ScaledRefLayerPicWidthInSamplesL, and SRLPH is also called ScaledRefLayerPicHeightInSamplesL.

また、図4上の参照レイヤ対応領域SRLAの横幅に対する参照レイヤピクチャrlPicの横幅のサイズ比ScaleFactorX、及び参照レイヤ対応領域SRLAの縦幅に対する参照レイヤピクチャrlPicの縦幅のサイズ比ScaleFactorYは、以下の式(G-7)〜(G-8)により導出される。   Further, the size ratio ScaleFactorX of the reference layer picture rlPic with respect to the width of the reference layer corresponding area SRLA in FIG. 4 and the size ratio ScaleFactorY of the reference layer picture rlPic with respect to the vertical width of the reference layer corresponding area SRLA are as follows: It is derived by the equations (G-7) to (G-8).

ScaleFactorX = ( ( RLPW << nosf_bit ) + (SRLPW >> 1) )/ SRLPW; (G-7)
ScaleFactorY = ( ( RLPH << nosf_bit ) + (SRLPH >> 1) )/ SRLPH; (G-8)
ここで、nosf_bitは、図4上の参照レイヤ対応領域SRLAと参照レイヤピクチャrlPicの横幅のサイズ比ScaleFactorX、および縦幅のサイズ比ScaleFactorYのビット精度を表わし、例えば、nosf_bit = 16と設定される。また、参照レイヤピクチャrlPicの横幅RLPWはRefLayerPicWidthInSamplesL、参照レイヤピクチャrlPicの縦幅RLPHはRefLayerPicHeightInSamplesLとも呼ばれる。
ScaleFactorX = ((RLPW << nosf_bit) + (SRLPW >> 1)) / SRLPW; (G-7)
ScaleFactorY = ((RLPH << nosf_bit) + (SRLPH >> 1)) / SRLPH; (G-8)
Here, nosf_bit represents the bit accuracy of the horizontal width size ratio ScaleFactorX and the vertical width size ratio ScaleFactorY between the reference layer corresponding region SRLA and the reference layer picture rlPic in FIG. 4, and is set to, for example, nosf_bit = 16. Also, the horizontal width RLPW of the reference layer picture rlPic is also called RefLayerPicWidthInSamplesL, and the vertical width RLPH of the reference layer picture rlPic is also called RefLayerPicHeightInSamplesL.

(レイヤ間画像予測制約フラグについて)
さらに、SPS拡張データsps_extension()には、図5上のSYNSPS03に示すレイヤ間画像予測制約フラグinter_layer_sample_pred_constraint_flagが含まれる。レイヤ間画像予測制約フラグinter_layer_sample_pred_constraint_flagは、値が真の場合、対象ピクチャcurPic上の全ての予測単位PBXにおいて、リサンプル参照レイヤピクチャrsPic上の参照レイヤ対応領域SRLAより外側の画像を参照するレイヤ間画像予測の使用を禁止することを示し、値が偽の場合は、対象ピクチャcurPic上の全ての予測ブロックPBXにおいてリサンプル参照レイヤピクチャrsPic上の参照レイヤ対応領域SRLAより外側の画像を参照するレイヤ間画像予測の使用を許可することを示す。
(About the inter-layer image prediction constraint flag)
Furthermore, the SPS extension data sps_extension () includes an inter-layer image prediction constraint flag inter_layer_sample_pred_constraint_flag shown in SYNSPS03 in FIG. When the value of the inter-layer image prediction constraint flag inter_layer_sample_pred_constraint_flag is true, an inter-layer image that refers to an image outside the reference layer corresponding region SRLA on the resample reference layer picture rsPic in all prediction units PBX on the target picture curPic Indicates that the use of prediction is prohibited. If the value is false, between all layers that refer to images outside the reference layer corresponding region SRLA on the resampled reference layer picture rsPic in all prediction blocks PBX on the target picture curPic Indicates that the use of image prediction is allowed.

また、レイヤ間画像予測制約フラグを明示的にSPS拡張データへ含むかどうかは、図5上のSYNSPS02に示す参照レイヤ対応領域情報が一つでも含まれることを示すフラグScaledRefLayerOffsetsPresentFlagに基づいて判定する。ScaledRefLayerOffsetsPresentFlagは、各レイヤの参照レイヤ対応領域有無フラグの値との論理和によって導出される。   Whether or not the inter-layer image prediction constraint flag is explicitly included in the SPS extension data is determined based on a flag ScaledRefLayerOffsetsPresentFlag indicating that at least one reference layer corresponding region information shown in SYNSPS02 in FIG. 5 is included. ScaledRefLayerOffsetsPresentFlag is derived by a logical sum with the value of the reference layer corresponding region presence flag of each layer.

ScaledRefLayerOffsetsPresentFlag |= scaled_ref_layer_present_flag[i];
ScaledRefLyaerOffsetsPresentFlagの値が真(1)の場合、レイヤ間画像予測制約フラグinter_layer_sample_pred_constraint_flagはSPS拡張データに含まれ、偽の場合は、SPS拡張データに含まれず、値は偽(0)と推定される。
ScaledRefLayerOffsetsPresentFlag | = scaled_ref_layer_present_flag [i];
When the value of ScaledRefLyaerOffsetsPresentFlag is true (1), the inter-layer image prediction constraint flag inter_layer_sample_pred_constraint_flag is included in the SPS extension data. When the value is false, the value is estimated to be false (0).

なお、ScaledRefLayerOffsetsPresentFlagは、各レイヤの参照レイヤ対応領域有無フラグの値の和によって導出されてもよい。   Note that ScaledRefLayerOffsetsPresentFlag may be derived from the sum of the values of the reference layer corresponding region presence flag of each layer.

ScaledRefLayerOffsetsPresentFlag += scaled_ref_layer_present_flag[i];
また、レイヤ間画像予測制約フラグは、参照レイヤ対応領域情報群有無フラグscaled_ref_layer_offsets_param_present_flagの値が真(1)の場合、SPS拡張データに含まれ、偽の場合は、SPS拡張データに含まれず、値は偽(0)と推定されてもよい。これにより、ScaledRefLayerOffsetsPresentFlagの導出に係る演算を省略することができる。
ScaledRefLayerOffsetsPresentFlag + = scaled_ref_layer_present_flag [i];
The inter-layer image prediction constraint flag is included in the SPS extension data when the value of the reference layer corresponding region information group presence / absence flag scaled_ref_layer_offsets_param_present_flag is true (1), and is not included in the SPS extension data when false. It may be estimated as false (0). Thereby, the calculation related to the derivation of ScaledRefLayerOffsetsPresentFlag can be omitted.

なお、レイヤ間画像予測制約フラグは、各参照レイヤ毎に通知するようにしてもよい。また、レイヤ間画像予測制約フラグは、パラメータセット上に明示的に含まないで、参照レイヤ対応領域情報がパラメータセット(VPS、SPS、PPS、SH等)において含まれる場合、レイヤ間画像予測制約フラグの値を1と設定してもよい。すなわち、参照レイヤ対応領域情報がある場合は、リサンプル参照レイヤピクチャrsPic上の参照レイヤ対応領域SRLAより外側の画像を参照するレイヤ間画像予測の使用を常に禁止することとなる。この場合、レイヤ間画像予測制約フラグに係る符号の復号/符号化の省略、符号化効率の向上の効果を奏する。   Note that the inter-layer image prediction constraint flag may be notified for each reference layer. In addition, when the inter-layer image prediction constraint flag is not explicitly included in the parameter set and the reference layer corresponding region information is included in the parameter set (VPS, SPS, PPS, SH, etc.), the inter-layer image prediction constraint flag The value of may be set to 1. That is, when there is reference layer corresponding region information, use of inter-layer image prediction that refers to an image outside the reference layer corresponding region SRLA on the resample reference layer picture rsPic is always prohibited. In this case, there is an effect of omitting decoding / encoding of codes related to the inter-layer image prediction constraint flag and improving encoding efficiency.

ここで、参照レイヤ対応領域SRLAより外側の画像を参照するレイヤ間画像予測の使用を禁止することを示すフラグ(レイヤ間画像予測制約フラグ)を導入することのメリットに関して、図4を用いて説明する。図4において、curPicは、対象ピクチャを示し、rsPicは、リサンプル参照レイヤピクチャを示し、rlPicは参照レイヤピクチャを示し、SRLAは参照レイヤ対応領域を示し、NSRLAは参照レイヤ対応領域SRLAの外側の領域(参照レイヤ対応領域外)を示す。従来技術では、リサンプル参照レイヤピクチャrsPicのリサンプル画像rsPicSampleの生成において、参照レイヤ対応領域SRLAの部分の画素は、参照レイヤピクチャrlPic上に対応する画素があるため、所定のリサンプルフィルタ(アップサンプリングフィルタとも呼ぶ)を適用することにより生成される。一方、参照レイヤ対応領域外NSRLAの部分の画素は、参照レイヤピクチャrlPic上に対応する画素がない。そのため、(1)参照レイヤ対応領域外NSRLAの部分の画素は、最近接する、リサンプリングによって得られた参照レイヤ対応領域SRLAの境界画素でパディング(コピー)するか、あるいは、(2)参照レイヤ対応領域外NSRLAの部分の画素は、その画素の座標 (xP, yP)を最近接する参照レイヤ対応領域の境界画素の座標(xP’,yP’)へ置換し、境界画素の座標(xP’, yP’)に対応する参照レイヤピクチャrlPicの参照画素の位置(xRL, yRL)を導出し、その参照画素の位置を中心に所定のリサンプルフィルタを適用することで生成される。従って、参照レイヤ対応領域SRLA内のみの画素を参照するレイヤ間画像予測は、参照レイヤピクチャrlPicに対応する画素があるため、予測精度が高く符号化効率の向上につながるが、参照レイヤ対応領域外NSRAの画素を参照するレイヤ間画像予測は予測精度が低いため、逆に、符号化効率の低下へつながる可能性がある。   Here, the merit of introducing a flag (inter-layer image prediction constraint flag) indicating prohibition of use of inter-layer image prediction that refers to an image outside the reference layer corresponding region SRLA will be described with reference to FIG. To do. In FIG. 4, curPic indicates a target picture, rsPic indicates a resample reference layer picture, rlPic indicates a reference layer picture, SRLA indicates a reference layer corresponding area, and NSRLA indicates an area outside the reference layer corresponding area SRLA. An area (outside the reference layer corresponding area) is shown. In the prior art, in the generation of the resampled image rsPicSample of the resample reference layer picture rsPic, the pixels in the reference layer corresponding region SRLA have corresponding pixels on the reference layer picture rlPic, and therefore a predetermined resample filter (up (Also called a sampling filter). On the other hand, there is no corresponding pixel on the reference layer picture rlPic in the portion of the NSRLA portion outside the reference layer corresponding region. Therefore, (1) the pixels in the NSRLA portion outside the reference layer corresponding region are padded (copied) with the border pixels of the reference layer corresponding region SRLA obtained by resampling that are closest, or (2) the reference layer compatible The pixel of the part outside the area NSRLA replaces the coordinate (xP, yP) of the pixel with the coordinate (xP ', yP') of the boundary pixel of the closest reference layer corresponding area, and coordinates (xP ', yP) of the boundary pixel It is generated by deriving the position (xRL, yRL) of the reference pixel of the reference layer picture rlPic corresponding to ') and applying a predetermined resample filter around the position of the reference pixel. Therefore, inter-layer image prediction that refers to pixels only in the reference layer corresponding region SRLA has pixels corresponding to the reference layer picture rlPic, leading to high prediction accuracy and improved coding efficiency. Since inter-layer image prediction that refers to NSRA pixels has low prediction accuracy, conversely, it may lead to a decrease in coding efficiency.

そこで、参照レイヤ対応領域SRLAより外側の画像を参照するレイヤ間画像予測の使用を禁止することにより、より符号化効率の高い画像復号装置、および画像符号化装置を実現することが可能である。また、画像復号装置側では、レイヤ間画像予測制約フラグinter_layer_sample_pred_flagを復号した時点で、同フラグが真である場合、対象シーケンスにおいて、リサンプル参照レイヤピクチャrsPic上の参照レイヤ対応領域SRLAより外側の画像(参照レイヤ対応領域外NSRLA)をレイヤ間画像予測時に参照されないことが分かるため、リサンプル参照レイヤピクチャrsPicのリサンプル画像rsPicSampleを生成するときに、参照レイヤ対応領域外NSRLAの画像の生成を省略することが可能となる。従って、リサンプリング処理の簡略化、及び参照レイヤ対応領域外NSRLAの画像を保持するために必要なメモリを削減することが可能となる。   Therefore, by prohibiting the use of inter-layer image prediction that refers to an image outside the reference layer corresponding region SRLA, it is possible to realize an image decoding device and an image encoding device with higher encoding efficiency. On the image decoding device side, when the inter-layer image prediction constraint flag inter_layer_sample_pred_flag is decoded, if the flag is true, an image outside the reference layer corresponding region SRLA on the resample reference layer picture rsPic in the target sequence (Reference layer-corresponding non-region NSRLA) is not referenced during inter-layer image prediction, so generation of resampled reference layer picture rsPic resampled image rsPicSample is omitted It becomes possible to do. Therefore, it is possible to simplify the resampling process and to reduce the memory required for holding the NSRLA image outside the reference layer corresponding area.

(参照レイヤ対応領域より外側の画像を参照するレイヤ間画像予測について)
以下では、図6(a)を参照しながら、レイヤ間画像予測において、対象ピクチャcurPic上のある予測単位PBXに対応するリサンプル参照レイヤピクチャrsPic上の対応領域RBXが、参照レイヤ対応領域SRLAより外側の画像を参照する条件について説明する。同図において、curPicは対象ピクチャを表わし、rlPicは参照レイヤピクチャ、rsPicはリサンプル参照レイヤピクチャ、SRLAは参照レイヤ対応領域を表わす。同図において、予測単位PBX(X=1…4)に対応するリサンプル参照レイヤピクチャrsPic上の対応領域(参照領域)をRBX(X=1…4)とする。なお、予測単位PBXの縦幅をhPb、横幅wPbとする。
(About inter-layer image prediction that refers to an image outside the reference layer corresponding region)
In the following, referring to FIG. 6A, in inter-layer image prediction, the corresponding region RBX on the resample reference layer picture rsPic corresponding to a certain prediction unit PBX on the target picture curPic is referred to from the reference layer corresponding region SRLA. A condition for referring to the outer image will be described. In the figure, curPic represents a target picture, rlPic represents a reference layer picture, rsPic represents a resample reference layer picture, and SRLA represents a reference layer corresponding area. In the figure, the corresponding region (reference region) on the resample reference layer picture rsPic corresponding to the prediction unit PBX (X = 1... 4) is RBX (X = 1... 4). The vertical width of the prediction unit PBX is hPb and the horizontal width wPb.

(A1)対応領域の左端座標(xP)が参照レイヤ対応領域SRLAの左端座標(offsetL)よりも小さい場合(図6(a)においてRB1)、すなわち、次式(H-1)を満たす場合である。   (A1) When the left end coordinate (xP) of the corresponding region is smaller than the left end coordinate (offsetL) of the reference layer corresponding region SRLA (RB1 in FIG. 6A), that is, when the following equation (H-1) is satisfied is there.

xP < max ( 0, OffsetL ) (H-1)
ここで、maxの演算がある理由は、参照レイヤ対応領域SRLAの左端座標が負値の場合(offsetLが負値である場合)、リサンプル参照レイヤピクチャrsPicの左端座標(0)へ補正するためである。
xP <max (0, OffsetL) (H-1)
Here, the reason for the calculation of max is that when the left end coordinate of the reference layer corresponding region SRLA is a negative value (when offsetL is a negative value), correction is made to the left end coordinate (0) of the resample reference layer picture rsPic. It is.

(A2)対応領域の右端座標(xP + wPb - 1)が参照レイヤ対応領域SRLAの右端座標(PW -OffsetR - 1)よりも大きい場合(図6(a)においてRB3)、すなわち、次式(H-2)を満たす場合である。   (A2) When the right end coordinate (xP + wPb-1) of the corresponding region is larger than the right end coordinate (PW-OffsetR-1) of the reference layer corresponding region SRLA (RB3 in FIG. 6A), that is, This is the case where H-2) is satisfied.

xP + wPb - 1 > min ( PW - 1, PW - OffsetR - 1 ) (H-2)
ここで、minの演算がある理由は、参照レイヤ対応領域SRLAの右端座標がリサンプル参照レイヤピクチャrsPicの右端座標より大きい場合(offsetRが負値である場合)、リサンプル参照レイヤピクチャrsPicの右端座標(PW - 1)へ補正するためである。なお、式(H-2)は(H-2’)とも表現できる。
xP + wPb-1> min (PW-1, PW-OffsetR-1) (H-2)
Here, the reason for the calculation of min is that the right end coordinate of the reference layer corresponding region SRLA is larger than the right end coordinate of the resample reference layer picture rsPic (if offsetR is a negative value), the right end of the resample reference layer picture rsPic This is to correct the coordinates (PW-1). Formula (H-2) can also be expressed as (H-2 ′).

xP + wPb > min ( PW, PW - OffsetR ) (H-2’)
(A3)対応領域の上端座標(yP)が参照レイヤ対応領域SRLAの上端座標(offsetT)よりも小さい場合(図6(a)においてRB2)、すなわち、次式(H-3)を満たす場合である。
xP + wPb> min (PW, PW-OffsetR) (H-2 ')
(A3) When the upper end coordinate (yP) of the corresponding region is smaller than the upper end coordinate (offsetT) of the reference layer corresponding region SRLA (RB2 in FIG. 6A), that is, when the following equation (H-3) is satisfied is there.

yP < max ( 0, OffsetT ) (H-3)
ここで、maxの演算がある理由は、参照レイヤ対応領域SRLAの上端座標が負値の場合(offsetTが負値である場合)、リサンプル参照レイヤピクチャrsPicの上端座標(0)へ補正するためである。
yP <max (0, OffsetT) (H-3)
Here, the reason for the calculation of max is that when the upper end coordinate of the reference layer corresponding region SRLA is a negative value (when offsetT is a negative value), the correction is made to the upper end coordinate (0) of the resample reference layer picture rsPic. It is.

(A4)対応領域の下端座標(yP + hPb - 1)が参照レイヤ対応領域SRLAの下端座標(PH -OffsetB - 1)よりも大きい場合(図6(a)においてRB4)、すなわち、次式(H-4)を満たす場合である。   (A4) When the lower end coordinate (yP + hPb-1) of the corresponding region is larger than the lower end coordinate (PH-OffsetB-1) of the reference layer corresponding region SRLA (RB4 in FIG. 6A), that is, The case where H-4) is satisfied.

yP + yPb - 1 > min ( PH - 1, PH - OffsetB - 1 ) (H-4)
ここで、minの演算がある理由は、参照レイヤ対応領域SRLAの右端座標がリサンプル参照レイヤピクチャrsPicの右端座標より大きい場合(offsetRが負値である場合)、リサンプル参照レイヤピクチャrsPicの右端座標(PW - 1)へ補正するためである。なお、式(H-4)は(H-4’)とも表現できる。
yP + yPb-1> min (PH-1, PH-OffsetB-1) (H-4)
Here, the reason for the calculation of min is that the right end coordinate of the reference layer corresponding region SRLA is larger than the right end coordinate of the resample reference layer picture rsPic (if offsetR is a negative value), the right end of the resample reference layer picture rsPic This is to correct the coordinates (PW-1). Formula (H-4) can also be expressed as (H-4 ′).

yP + yPb > min ( PH, PH - OffsetR ) (H-4’)
なお、max(A,B)は、A、Bのうち大きい値を返す演算子であり、min(A,B)は、A、Bのうち小さい値を返す演算子である(以下同様)。
yP + yPb> min (PH, PH-OffsetR) (H-4 ')
Note that max (A, B) is an operator that returns a larger value of A and B, and min (A, B) is an operator that returns a smaller value of A and B (the same applies hereinafter).

すなわち、レイヤ間画像予測において、対象ピクチャcurPic上のある予測単位PBXに対応するリサンプル参照レイヤピクチャrsPic上の対応領域RBXが、上記条件(A1)〜(A4)のいずれか一つでも満たす場合、参照レイヤ対応領域SRLAより外側の画像を参照することを示す。   That is, in the inter-layer image prediction, the corresponding region RBX on the resample reference layer picture rsPic corresponding to a certain prediction unit PBX on the target picture curPic satisfies any one of the above conditions (A1) to (A4) This indicates that an image outside the reference layer corresponding region SRLA is referred to.

(参照レイヤ対応領域より外側の画像のみを参照するレイヤ間画像予測について)
上記で説明したレイヤ間画像予測制約フラグは、対象ピクチャcurPic上の全ての予測単位PBXにおいて、リサンプル参照レイヤピクチャrsPic上の参照レイヤ対応領域SRLAより外側の画像を参照するレイヤ間画像予測の使用を禁止することを示していたが、これに限定されない。例えば、レイヤ間画像予測制約フラグは、対象ピクチャcurPic上の全ての予測単位PBXにおいて、サンプル参照レイヤピクチャrsPic上の参照レイヤ対応領域SRLAより外側の画像のみを参照するレイヤ間画像予測の使用を禁止するフラグと定義してもよい。以下では、図6(b)を参照しながら、レイヤ間画像予測において、対象ピクチャcurPic上のある予測単位PBXに対応するリサンプル参照レイヤピクチャrsPic上の対応領域RBXが、参照レイヤ対応領域SRLAより外側の画像のみ参照する条件について説明する。同図において、curPicは対象ピクチャを表わし、rlPicは参照レイヤピクチャ、rsPicはリサンプル参照レイヤピクチャ、SRLAは参照レイヤ対応領域を表わす。同図において、予測単位PBX(X=1…4)に対応するリサンプル参照レイヤピクチャrsPic上の対応領域をRBX(X=1…4)とする。なお、予測単位PBXの縦幅をhPb、横幅wPbとする。
(About inter-layer image prediction that refers only to images outside the reference layer corresponding region)
The inter-layer image prediction constraint flag described above uses inter-layer image prediction that refers to an image outside the reference layer corresponding region SRLA on the resample reference layer picture rsPic in all prediction units PBX on the target picture curPic. However, the present invention is not limited to this. For example, the inter-layer image prediction constraint flag prohibits the use of inter-layer image prediction that refers only to images outside the reference layer corresponding region SRLA on the sample reference layer picture rsPic in all prediction units PBX on the target picture curPic It may be defined as a flag to do. In the following, referring to FIG. 6B, in inter-layer image prediction, the corresponding region RBX on the resample reference layer picture rsPic corresponding to a certain prediction unit PBX on the target picture curPic is referred to from the reference layer corresponding region SRLA. A condition for referring to only the outer image will be described. In the figure, curPic represents a target picture, rlPic represents a reference layer picture, rsPic represents a resample reference layer picture, and SRLA represents a reference layer corresponding area. In the figure, the corresponding region on the resample reference layer picture rsPic corresponding to the prediction unit PBX (X = 1... 4) is RBX (X = 1... 4). The vertical width of the prediction unit PBX is hPb and the horizontal width wPb.

(B1)対応領域の右端座標(xP + wPb - 1)が参照レイヤ対応領域SRLAの左端座標(offsetL)よりも小さい場合(図6(b)においてRB1)、すなわち、次式(H-5)を満たす場合である。     (B1) When the right end coordinate (xP + wPb-1) of the corresponding region is smaller than the left end coordinate (offsetL) of the reference layer corresponding region SRLA (RB1 in FIG. 6B), that is, the following equation (H-5) This is the case.

xP + wPb - 1 < max ( 0, OffsetL ) (H-5)
(B2)対応領域の左端座標(xP)が参照レイヤ対応領域SRLAの右端座標(PW -OffsetR - 1)よりも大きい場合(図6(b)においてRB3)、すなわち、次式(H-6)を満たす場合である。
xP + wPb-1 <max (0, OffsetL) (H-5)
(B2) When the left end coordinate (xP) of the corresponding region is larger than the right end coordinate (PW-OffsetR-1) of the reference layer corresponding region SRLA (RB3 in FIG. 6B), that is, the following equation (H-6) This is the case.

xP > min ( PW - 1, PW - OffsetR - 1 ) (H-6)
(B3)対応領域の下端座標(yP + hPb - 1)が参照レイヤ対応領域SRLAの上端座標(offsetT)よりも小さい場合(図6(b)においてRB2)、すなわち、次式(H-7)を満たす場合である。
xP> min (PW-1, PW-OffsetR-1) (H-6)
(B3) When the lower end coordinate (yP + hPb-1) of the corresponding region is smaller than the upper end coordinate (offsetT) of the reference layer corresponding region SRLA (RB2 in FIG. 6B), that is, the following equation (H-7) This is the case.

yP + hPb - 1 < max ( 0, OffsetT ) (H-7)
(B4)対応領域の上端座標(yP)が参照レイヤ対応領域SRLAの下端座標(PH -OffsetB - 1)よりも大きい場合(図6(b)においてRB4)、すなわち、次式(H-8)を満たす場合である。
yP + hPb-1 <max (0, OffsetT) (H-7)
(B4) When the upper end coordinate (yP) of the corresponding region is larger than the lower end coordinate (PH-OffsetB-1) of the reference layer corresponding region SRLA (RB4 in FIG. 6B), that is, the following equation (H-8) This is the case.

yP > min ( PH - 1, PH - OffsetB - 1 ) (H-8)
レイヤ間画像予測制約フラグが、対象ピクチャcurPic上の全ての予測単位PBXにおいて、サンプル参照レイヤピクチャrsPic上の参照レイヤ対応領域SRLAより外側の画像のみを参照するレイヤ間画像予測の使用を禁止することを示す場合においても、予測精度の低い参照レイヤ対応領域外NSRAの画素のみを参照するレイヤ間画像予測を使用しないため、同様に、より符号化効率の高い画像復号装置、および画像符号化装置を実現することが可能である。
yP> min (PH-1, PH-OffsetB-1) (H-8)
The inter-layer image prediction constraint flag prohibits the use of inter-layer image prediction that refers only to images outside the reference layer corresponding region SRLA on the sample reference layer picture rsPic in all prediction units PBX on the target picture curPic. In the same way, since the inter-layer image prediction that refers only to the non-reference layer-corresponding NSRA pixels with low prediction accuracy is not used, an image decoding device and an image encoding device with higher encoding efficiency are similarly provided. It is possible to realize.

ピクチャパラメータセットPPSでは、対象シーケンス内の各ピクチャを復号するために階層動画像復号装置1が参照する符号化パラメータの集合が規定されている。例えば、ピクチャの復号に用いられる量子化幅の基準値や、重み付き予測の適用を示すフラグが含まれる。なお、PPSは符号化データ内に複数存在してもよい。その場合、対象シーケンス内の各ピクチャから複数のPPSの何れかを選択する。特定ピクチャの復号に使用されるPPSはアクティブPPSとも呼ばれる。以下では、特に断りがなければ、PPSは対象ピクチャに対するアクティブPPSを意味する。   In the picture parameter set PPS, a set of encoding parameters referred to by the hierarchical video decoding device 1 for decoding each picture in the target sequence is defined. For example, a reference value of a quantization width used for picture decoding and a flag indicating application of weighted prediction are included. A plurality of PPS may exist in the encoded data. In that case, one of a plurality of PPSs is selected from each picture in the target sequence. A PPS used for decoding a specific picture is also called an active PPS. Hereinafter, unless otherwise specified, PPS means an active PPS for the current picture.

(ピクチャレイヤ)
ピクチャレイヤでは、処理対象のピクチャPICT(以下、対象ピクチャとも称する)を復号するために階層動画像復号装置1が参照するデータの集合が規定されている。ピクチャPICTは、図2の(b)に示すように、スライスS0〜SNS-1を含んでいる。(NSはピクチャPICTに含まれるスライスの総数)。
(Picture layer)
In the picture layer, a set of data that is referred to by the hierarchical video decoding device 1 in order to decode a picture PICT to be processed (hereinafter also referred to as a target picture) is defined. The picture PICT includes slices S0 to SNS-1 as shown in FIG. (NS is the total number of slices included in picture PICT).

なお、以下、スライスS0〜SNS-1のそれぞれを区別する必要が無い場合、符号の添え字を省略して記述することがある。また、以下に説明する階層符号化データDATAに含まれるデータであって、添え字を付している他のデータも同様である。   Hereinafter, when it is not necessary to distinguish each of the slices S0 to SNS-1, the subscripts may be omitted. The same applies to other data with subscripts included in the hierarchically encoded data DATA described below.

(スライスレイヤ)
スライスレイヤでは、処理対象のスライスS(対象スライスとも称する)を復号するために階層動画像復号装置1が参照するデータの集合が規定されている。スライスSは、図2の(c)に示すように、スライスヘッダSH、および、スライスデータSDATAを含んでいる。
(Slice layer)
In the slice layer, a set of data that is referred to by the hierarchical video decoding device 1 in order to decode a slice S to be processed (also referred to as a target slice) is defined. As shown in FIG. 2C, the slice S includes a slice header SH and slice data SDATA.

スライスヘッダSHには、対象スライスの復号方法を決定するために階層動画像復号装置1が参照する符号化パラメータ群が含まれる。スライスタイプを指定するスライスタイプ指定情報(slice_type)は、スライスヘッダSHに含まれる符号化パラメータの一例である。   The slice header SH includes an encoding parameter group that the hierarchical video decoding device 1 refers to in order to determine a decoding method of the target slice. Slice type designation information (slice_type) for designating a slice type is an example of an encoding parameter included in the slice header SH.

スライスタイプ指定情報により指定可能なスライスタイプとしては、(1)符号化の際にイントラ予測のみを用いるIスライス、(2)符号化の際に単方向予測、または、イントラ予測を用いるPスライス、(3)符号化の際に単方向予測、双方向予測、または、イントラ予測を用いるBスライスなどが挙げられる。   As slice types that can be specified by the slice type specification information, (1) I slice using only intra prediction at the time of encoding, (2) P slice using unidirectional prediction or intra prediction at the time of encoding, (3) B-slice using unidirectional prediction, bidirectional prediction, or intra prediction at the time of encoding may be used.

また、スライスヘッダSHには、VPSで規定された対象シーケンス全体で参照しうる参照レイヤのうち、対象ピクチャの復号/符号化において実際に、レイヤ間予測のために参照する参照レイヤ(アクティブ参照レイヤとも呼ぶ)を指定するためのアクティブ参照レイヤ指定情報inter_pred_enable_flag, num_inter_layer_ref_pics_minus1, inter_layer_pred_layer_idc[i]が含まれる(図7上のSYNSH01)。各シンタックスの定義は次の通りである。   The slice header SH includes a reference layer (active reference layer) that is actually referred to for inter-layer prediction in decoding / coding of the target picture among reference layers that can be referred to in the entire target sequence defined by the VPS. Active reference layer designation information inter_pred_enable_flag, num_inter_layer_ref_pics_minus1, inter_layer_pred_layer_idc [i] for designating (SYNSH01 on FIG. 7). The definition of each syntax is as follows.

inter_layer_pred_enable_flagは、対象ピクチャcurPicの復号時においてレイヤ間予測の有無を示すフラグ(レイヤ間予測有無フラグとも呼ぶ)であり、値が1の場合、レイヤ間予測が利用されることを示し、値が0の場合は、レイヤ間予測が利用されないことを示す。もし、明示的にスライスヘッダSHに含まれない場合、値は0と推定される。さらに、レイヤ間予測有無フラグの値が1の場合、さらにnum_inter_layer_ref_pic_minus1、inter_layer_pred_layer_idc[i]が含まれる。   inter_layer_pred_enable_flag is a flag indicating the presence or absence of inter-layer prediction (also referred to as inter-layer prediction presence / absence flag) at the time of decoding the target picture curPic. When the value is 1, it indicates that inter-layer prediction is used, and the value is 0 In the case of, it indicates that inter-layer prediction is not used. If it is not explicitly included in the slice header SH, the value is estimated to be 0. Furthermore, when the value of the inter-layer prediction presence / absence flag is 1, num_inter_layer_ref_pic_minus1 and inter_layer_pred_layer_idc [i] are further included.

num_inter_layer_ref_pic_minus1 + 1は、対象ピクチャcurPicの復号時においてレイヤ間予測に利用されるアクティブ参照レイヤの数(アクティブ参照レイヤ数とも呼ぶ)NumActiveRefLayerPicsを表わす。具体的には、参照レイヤ数NumDirectRefLayers[curLayerId]、レイヤ間予測有無フラグinter_layer_pred_enable_flagとnum_inter_layer_ref_pic_minus1に基づいて、アクティブ参照レイヤ数NumActiveRefLayerPicsが、例えば、次の式(G-9)により導出される。   num_inter_layer_ref_pic_minus1 + 1 represents the number of active reference layers (also referred to as the number of active reference layers) NumActiveRefLayerPics used for inter-layer prediction when decoding the current picture curPic. Specifically, based on the number of reference layers NumDirectRefLayers [curLayerId], the inter-layer prediction presence / absence flag inter_layer_pred_enable_flag and num_inter_layer_ref_pic_minus1, the number of active reference layers NumActiveRefLayerPics is derived, for example, by the following equation (G-9).

if( curLayerId == 0 || NumDirectRefLayers[ curLayerId ] == 0 ||
!inter_layer_pred_enable_flag ){
NumActiveRefLayerPics = 0;
} else{
NumActiveRefLayerPics = num_inter_layer_ref_pics_minus1 + 1;
} (G-9)
inter_layer_pred_layer_idc[i]は、変数RefPicLayerId[i]において、対象ピクチャcurPicのレイヤ間予測のために利用されるi番目の参照レイヤのレイヤ識別子を表わす。
if (curLayerId == 0 || NumDirectRefLayers [curLayerId] == 0 ||
! inter_layer_pred_enable_flag) {
NumActiveRefLayerPics = 0;
} else {
NumActiveRefLayerPics = num_inter_layer_ref_pics_minus1 + 1;
} (G-9)
inter_layer_pred_layer_idc [i] represents the layer identifier of the i-th reference layer used for inter-layer prediction of the target picture curPic in the variable RefPicLayerId [i].

すなわち、RefPicLayerId[i] = RefLayerId[curLayerId][inter_layer_pred_layer idc[i]];
また、アクティブレイヤ間動き予測参照レイヤ数NumActivePredRefLayers、及びアクティブレイヤ間動き参照レイヤActiveMotionPredRefLayerId[i]が、例えば、次の式(G-10)により導出される。
That is, RefPicLayerId [i] = RefLayerId [curLayerId] [inter_layer_pred_layer idc [i]];
In addition, the inter-active layer motion prediction reference layer number NumActivePredRefLayers and the inter-active layer motion reference layer ActiveMotionPredRefLayerId [i] are derived by, for example, the following equation (G-10).

for(i=0, j=0; NumActiveRefLayerPics; i++)
RefPicLayerId[i] = RefLayerId[curLayerId][inter_layer_pred_layer_idc[i]];
if( MotionPredEnableFlag[curLayerId][inter_layer_pred_layer_idc[i]] )
ActiveMotionPredRefLayerId[j++] =
RefLayerId[curLayerId][inter_layer_pred_layer_idc[i];
}
NumActiveMotionPredRefLayers = j; (G-10)
また、スライスヘッダSHには、SPSで規定された参照レイヤ対応領域情報とは別に、対象レイヤの対象ピクチャcurPic上のどの領域がアクティブ参照レイヤピクチャと実際に対応するかを示すアクティブ参照レイヤ対応領域情報(図7)が含まれていてもよい。
for (i = 0, j = 0; NumActiveRefLayerPics; i ++)
RefPicLayerId [i] = RefLayerId [curLayerId] [inter_layer_pred_layer_idc [i]];
if (MotionPredEnableFlag [curLayerId] [inter_layer_pred_layer_idc [i]])
ActiveMotionPredRefLayerId [j ++] =
RefLayerId [curLayerId] [inter_layer_pred_layer_idc [i];
}
NumActiveMotionPredRefLayers = j; (G-10)
In addition, in the slice header SH, apart from the reference layer corresponding region information defined in SPS, an active reference layer corresponding region indicating which region on the target picture curPic of the target layer actually corresponds to the active reference layer picture Information (FIG. 7) may be included.

シンタックスactive_scaled_ref_layer_offsets_param_present_flagは、SPSで規定された参照レイヤ対応領域情報とは別に、対象レイヤcurLayerIdの対象ピクチャcurPicとアクティブ参照レイヤ数NumActiveRefLayerPics[curLayerId]個のアクティブ参照レイヤ対応領域情報の有無を示すフラグ(アクティブ参照レイヤ対応領域情報群有無フラグ)であり、値が真の場合、アクティブ参照レイヤ数個の参照レイヤ対応領域情報があることを示し、値が偽の場合、アクティブ参照レイヤ対応領域情報はないことを示す。図7上のSYNSH02の例では、NumDirectRefLayers[curLyaerId]が0より大きい場合、明示的にアクティブ参照レイヤ対応領域情報群有無フラグが通知され、NumDirectRefLayers[curLyaerId]が0の場合、アクティブ参照レイヤ対応領域情報群有無フラグは0であると推定される。なお、従来技術では、対象レイヤの参照レイヤ数NumDirectRefLayers[curLayer]が分かっているのにも関わらず、明示的に、何個の参照レイヤ対応領域情報があるかを示すシンタックスnum_scaled_ref_layer_offsetsが含まれていた。一方、本発明では、参照レイヤ対応領域情報群有無フラグが真の場合、明示的に各アクティブ参照レイヤのアクティブ参照レイヤ対応領域情報(NumActiveRefLayers[curLyaerId]個のアクティブ参照レイヤ対応領域情報)を通知する構成である。これによって、何個の参照レイヤ対応領域情報があるかを示すシンタックスnum_scaled_ref_layer_offsetsを通知する従来技術に比べて、アクティブ参照レイヤ対応領域情報に係る符号量を削減することが可能である。また、NumActiveRefLayers[curLyaerId]が0の場合、NumActiveRefLayers[curLyaerId]によるループ部のフラグは符号化されない。しかし、これらのフラグを符号化しないことをより明確に示すために、アクティブ参照レイヤ対応領域情報群有無フラグは0であると推定しても良い。   The syntax active_scaled_ref_layer_offsets_param_present_flag is a flag indicating whether or not there is the target picture curPic of the target layer curLayerId and the number of active reference layers NumActiveRefLayerPics [curLayerId] active reference layer corresponding area information, separately from the reference layer corresponding area information defined in the SPS. Reference layer corresponding area information group presence / absence flag), if the value is true, it indicates that there are several reference layer corresponding area information for the active reference layer, and if the value is false, there is no active reference layer corresponding area information. Indicates. In the example of SYNSH02 in FIG. 7, when NumDirectRefLayers [curLyaerId] is greater than 0, an active reference layer corresponding region information group presence / absence flag is explicitly notified, and when NumDirectRefLayers [curLyaerId] is 0, active reference layer corresponding region information The group presence flag is estimated to be 0. Note that the conventional technology explicitly includes the syntax num_scaled_ref_layer_offsets that indicates how many reference layer corresponding region information exist even though the number of reference layers NumDirectRefLayers [curLayer] of the target layer is known. It was. On the other hand, in the present invention, when the reference layer corresponding region information group presence / absence flag is true, the active reference layer corresponding region information (NumActiveRefLayers [curLyaerId] pieces of active reference layer corresponding region information) of each active reference layer is explicitly notified. It is a configuration. Accordingly, it is possible to reduce the amount of codes related to the active reference layer corresponding region information as compared with the conventional technique that notifies the syntax num_scaled_ref_layer_offsets indicating how many reference layer corresponding region information exists. When NumActiveRefLayers [curLyaerId] is 0, the flag of the loop part by NumActiveRefLayers [curLyaerId] is not encoded. However, in order to more clearly indicate that these flags are not encoded, the active reference layer corresponding region information group presence / absence flag may be estimated to be zero.

なお、図7上のSYNSH02の代わりに、図34(a)に示すSYNSH02Aの構成としてもよい。すなわち、NumActiveRefLayers[curLyaerId]が1より大きい場合、明示的にアクティブ参照レイヤ対応領域情報群有無フラグが通知され、NumActiveRefLayers[curLyaerId]が0の場合、アクティブ参照レイヤ対応領域情報群有無フラグは0であると推定し、NumActiveRefLayers[curLyaerId]が1の場合、アクティブ参照レイヤ対応領域情報有無フラグは1であると推定する。これによって、図7上のSYNSH02の例に比べて、アクティブ参照レイヤ数が1個の場合、アクティブ参照レイヤ対応領域情報群有無フラグを明示的に通知する必要がなくなり、アクティブ参照レイヤ対応領域情報群有無フラグに係る符号量を削減することが可能である。また、図34(b)に示すSYNSH02Bの構成としてもよい。この場合、アクティブ参照レイヤ対応領域情報群有無フラグは含まれず、明示的に、NumActiveRefLayers[curLayer]個のアクティブ参照レイヤ対応領域情報を通知する構成である。同様に、何個の参照レイヤ対応領域情報があるかを示すシンタックスnum_scaled_ref_layer_offsetsを通知する従来技術に比べて、アクティブ参照レイヤ対応領域情報に係る符号量を削減することが可能である。   Instead of SYNSH02 in FIG. 7, the structure of SYNSH02A shown in FIG. That is, when NumActiveRefLayers [curLyaerId] is greater than 1, an active reference layer corresponding region information group presence / absence flag is explicitly notified. When NumActiveRefLayers [curLyaerId] is 0, the active reference layer corresponding region information group presence / absence flag is 0. When NumActiveRefLayers [curLyaerId] is 1, it is estimated that the active reference layer corresponding region information presence / absence flag is 1. Accordingly, when the number of active reference layers is one as compared with the example of SYNSH02 in FIG. 7, it is not necessary to explicitly notify the active reference layer corresponding region information group presence / absence flag, and the active reference layer corresponding region information group It is possible to reduce the code amount related to the presence / absence flag. Moreover, it is good also as a structure of SYNSH02B shown in FIG.34 (b). In this case, the active reference layer corresponding region information group presence / absence flag is not included, and NumActiveRefLayers [curLayer] pieces of active reference layer corresponding region information are explicitly notified. Similarly, it is possible to reduce the amount of codes related to the active reference layer corresponding region information as compared with the conventional technique that notifies the syntax num_scaled_ref_layer_offsets indicating how many reference layer corresponding region information exists.

シンタックスactive_scaled_ref_layer_offset_present_flag[k]は、対象レイヤcurLayerIdとアクティブ参照レイヤRefPicLayerId[k]間のアクティブ参照レイヤ対応領域情報の有無を示すフラグ(アクティブ参照レイヤ対応領域情報有無フラグと呼ぶ)であり、値が真の場合、アクティブ参照レイヤ対応領域情報として、さらに、以下の4つのシンタックスactive_scaled_ref_layer_left_offset[k]、active_scaled_ref_layer_top_offset[k]、active_scaled_ref_layer_right_offset[k]、active_scaled_ref_layer_bottom_offset[k]が明示的に含まれ、偽の場合は、上記4つのシンタックスの値は、それぞれゼロであると推定される。各シンタックスの定義は、次の通りである。   The syntax active_scaled_ref_layer_offset_present_flag [k] is a flag indicating whether or not there is active reference layer corresponding region information between the target layer curLayerId and the active reference layer RefPicLayerId [k] (referred to as active reference layer corresponding region information presence / absence flag), and the value is true. In this case, the following four syntaxes active_scaled_ref_layer_left_offset [k], active_scaled_ref_layer_top_offset [k], active_scaled_ref_layer_right_offset [k], and active_scaled_ref_layer_bottom_offset [k] are explicitly included as active reference layer corresponding region information. Each of the four syntax values is estimated to be zero. The definition of each syntax is as follows.

active_scaled_ref_layer_left_offset[k]は、レイヤ間予測に使われる、リサンプルしたk番目のアクティブ参照レイヤRefPicLayerId[k]上のアクティブ参照レイヤ対応領域SRLA’の最左上画素と対象ピクチャcurPicの最左上画素間の所定画素単位の水平方向(x方向)のオフセットである。   active_scaled_ref_layer_left_offset [k] is a predetermined value between the upper left pixel of the active reference layer corresponding region SRLA 'on the resampled kth active reference layer RefPicLayerId [k] and the upper left pixel of the target picture curPic used for inter-layer prediction. This is an offset in the horizontal direction (x direction) in pixel units.

active_scaled_ref_layer_top_offset[k]は、レイヤ間予測に使われる、リサンプルしたk番目のアクティブ参照レイヤRefPicLayerId[k]上のアクティブ参照レイヤ対応領域SRLA’の最左上画素と対象ピクチャcurPicの最左上画素間の所定画素単位の垂直方向(y方向)のオフセットである。   active_scaled_ref_layer_top_offset [k] is a predetermined value between the upper left pixel of the active reference layer corresponding region SRLA ′ on the resampled kth active reference layer RefPicLayerId [k] and the upper left pixel of the target picture curPic used for inter-layer prediction. This is an offset in the vertical direction (y direction) in pixel units.

active_scaled_ref_layer_right_offset[k]は、レイヤ間予測に使われる、リサンプルしたk番目のアクティブ参照レイヤRefPicLayerId[k]上のアクティブ参照レイヤ対応領域SRLA’の最右下画素と対象ピクチャcurPicの最右下輝度画素間の所定画素単位の水平方向(x方向)のオフセットである。   active_scaled_ref_layer_right_offset [k] is the lowermost right pixel of the active reference layer corresponding region SRLA 'on the resampled kth active reference layer RefPicLayerId [k] and the lowermost right luminance pixel of the target picture curPic used for inter-layer prediction It is an offset in the horizontal direction (x direction) of a predetermined pixel unit between them.

active_scaled_ref_layer_bottom_offset[k]は、レイヤ間予測に使われる、リサンプルしたk番目の参照レイヤRefPicLayerId[k]上のアクティブ参照レイヤ対応領域SRLA’の最右下画素と対象ピクチャcurPicの最右下画素間の所定画素単位の垂直方向(y方向)のオフセットである。   active_scaled_ref_layer_bottom_offset [k] is used for the inter-layer prediction, between the lowermost right pixel of the active reference layer corresponding region SRLA 'on the resampled kth reference layer RefPicLayerId [k] and the lowermost right pixel of the target picture curPic This is an offset in the vertical direction (y direction) in predetermined pixel units.

従って、アクティブ参照レイヤ対応領域情報有無フラグが0の場合、各シンタックス(active_scaled_ref_layer_left_offset[i]、active_scaled_ref_layer_top_offset[i]、active_scaled_ref_layer_right_offset[i]、active_scaled_ref_layer_bottom_offset[i])に係る符号量を削減することが可能である。   Therefore, when the active reference layer corresponding region information presence / absence flag is 0, the code amount according to each syntax (active_scaled_ref_layer_left_offset [i], active_scaled_ref_layer_top_offset [i], active_scaled_ref_layer_right_offset [i], active_scaled_ref_layer_bottom_offset [i]) can be reduced. is there.

図4上の各オフセットOffsetL、OffsetT、OffsetR、及びOffsetBは、対象レイヤcurLayerIdとアクティブ参照レイヤRefPicLayerId[k]間のアクティブ参照レイヤ対応領域情報の各シンタックスactive_scaled_ref_layer_offset_present_flag[k]、active_scaled_ref_layer_left_offset[k]、active_scaled_ref_layer_top_offset[k]、active_scaled_ref_layer_right_offset[k]、active_scaled_ref_layer_bottom_offset[k]を用いて、例えば、以下の式(G-1A)〜(G-4A)により導出される。   The respective offsets OffsetL, OffsetT, OffsetR, and OffsetB in FIG. 4 are the syntaxes active_scaled_ref_layer_offset_present_flag [k], active_scaled_ref_layer_left_offset [k], active_scaled_off_layer_offset [k], active reference layer corresponding region information between the target layer curLayerId and the active reference layer RefPicLayerId [k]. [k], active_scaled_ref_layer_right_offset [k], and active_scaled_ref_layer_bottom_offset [k] are used to derive, for example, the following equations (G-1A) to (G-4A).

OffsetL = active_scaled_ref_layer_left_offset[k] << sample_unit_bit; (G-1A)
OffsetT = active_scaled_ref_layer_top_offset[k] << sample_unit_bit; (G-2A)
OffsetR = active_scaled_ref_layer_right_offset[k] << sample_unit_bit; (G-3A)
OffsetB = active_scaled_ref_layer_bottom_offset[k] << sample_unit_bit; (G-4A)
逆に、各シンタックスactive_scaled_ref_layer_left_offset[k]、active_scaled_ref_layer_top_offset[k]、active_scaled_ref_layer_right_offset[k]、active_scaled_ref_layer_bottom_offset[k]は、式(G-1)〜(G-4)の逆処理 (I-1)〜(I-4)において、左辺を対応する各シンタックスへ置き換えることで同様に導出される。また、シンタックスactive_scaled_ref_layer_offset_present_flag[k]は、各シンタックスactive_scaled_ref_layer_left_offset[k]、active_scaled_ref_layer_top_offset[k]、active_scaled_ref_layer_right_offset[k]、active_scaled_ref_layer_bottom_offset[k]の値が全て0である場合、値を0へ設定し、それ以外の場合は、1へ設定される。
OffsetL = active_scaled_ref_layer_left_offset [k] <<sample_unit_bit; (G-1A)
OffsetT = active_scaled_ref_layer_top_offset [k] <<sample_unit_bit; (G-2A)
OffsetR = active_scaled_ref_layer_right_offset [k] <<sample_unit_bit; (G-3A)
OffsetB = active_scaled_ref_layer_bottom_offset [k] <<sample_unit_bit; (G-4A)
Conversely, each syntax active_scaled_ref_layer_left_offset [k], active_scaled_ref_layer_top_offset [k], active_scaled_ref_layer_right_offset [k], active_scaled_ref_layer_bottom_offset [k] is the inverse of expressions (G-1) to (G-4) In -4), it is derived in the same way by replacing the left side with the corresponding syntax. Also, the syntax active_scaled_ref_layer_offset_present_flag [k] is set for each syntax active_scaled_ref_layer_left_offset [k], active_scaled_ref_layer_top_offset [k], active_scaled_ref_layer_right_offset [k], active_scaled_ref_layer_bottom_offset is set to 0, and all values are 0. In this case, it is set to 1.

すなわち、スライスヘッダSHにおいて、アクティブ参照レイヤ対応領域情報が通知される場合は、SPS上で通知される参照レイヤ対応領域情報によって定まる各オフセットOffsetL, OffsetT, OffsetRおよびOffsetBは、アクティブ参照レイヤ対応領域情報に基づいて再設定される。スライス単位で、アクティブ参照レイヤ対応領域情報を通知することのメリットは、ピクチャ単位で対象レイヤと参照レイヤの対応領域が変化するシーケンスに対して、より正確な参照レイヤ対応領域情報を通知することが可能となり、より高精度なレイヤ間動きマッピング、レイヤ間画像マッピングの実施が可能となる。従って、レイヤ間動きマッピング、及びレイヤ間画像マッピングの精度が向上するため、それに伴いレイヤ間動き予測、レイヤ間画像予測の予測精度も向上するため、符号化効率の向上を図ることが可能となる。   That is, when active reference layer corresponding region information is notified in the slice header SH, each offset OffsetL, OffsetT, OffsetR, and OffsetB determined by the reference layer corresponding region information notified on the SPS is the active reference layer corresponding region information. It is reset based on. The advantage of notifying active reference layer corresponding area information in units of slices is that more accurate reference layer corresponding area information is notified for sequences in which the corresponding areas of the target layer and the reference layer change in units of pictures. It becomes possible, and more accurate inter-layer motion mapping and inter-layer image mapping can be performed. Accordingly, the accuracy of inter-layer motion mapping and inter-layer image mapping is improved, and accordingly, the prediction accuracy of inter-layer motion prediction and inter-layer image prediction is also improved, so that it is possible to improve the coding efficiency. .

また、アクティブ参照レイヤ対応領域情報のデータ構造は、図7のSYNA05に限定されず、SPSで通知した参照レイヤ対応領域情報に対する差分情報(図8のSYNSH03)としてもよい。以下、図8のSYNSH03のシンタックスの定義について、図9を参照しながら説明する。なお、アクティブ参照レイヤ対応領域情報群有無フラグ、およびアクティブ参照レイヤ対応領域有無フラグは説明済みのため省略する。図9において、対象レイヤの画像と参照レイヤの画像との対応領域(参照レイヤ対応領域)を説明する。同図上のrlPicは、縦幅RLPH、横幅RLPWの画像サイズを有する参照レイヤの画像(参照レイヤピクチャ)である。同図上のrsPicは、参照レイヤピクチャrlPicを、縦幅PH、横幅PWの画像サイズを有する対象レイヤの画像へマッピングした画像(リサンプル参照レイヤピクチャ)rsPicである。同図上のSRLAは、SPSで通知される参照レイヤ対応領域情報により定まる、対象レイヤの画像上で、参照レイヤの画像と実際に対応する領域(参照レイヤ対応領域)であり、縦幅SRLPH、横幅SRLPHのサイズを有する。同図上のOffsetLは、参照レイヤ対応領域SRLAの最左上画素とリサンプル参照ピクチャrsPic(あるいは、対象レイヤの対象ピクチャcurPic)の最左上画素間の水平方向(x方向)のオフセットを表わす。同図上のOffsetTは、参照レイヤ対応領域SRLAの最左上画素とリサンプル参照ピクチャrsPic(あるいは、対象レイヤの対象ピクチャcurPic)の最左上画素間の垂直方向(y方向)のオフセットを表わす。同図上のOffsetRは、参照レイヤ対応領域SRLAの最右下画素とリサンプル参照ピクチャrsPic(あるいは、対象レイヤの対象ピクチャcurPic)の最右下画素間の水平方向(x方向)のオフセットを表わす。同図上のOffsetBは、参照レイヤ対応領域SRLAの最右下画素とリサンプル参照ピクチャrsPic(あるいは、対象レイヤの対象ピクチャcurPic)の最右下画素間の垂直方向(y方向)のオフセットを表わす。同図上のSRLA’は、スライスヘッダSHで通知されるアクティブ参照レイヤ対応領域情報により定まる、対象レイヤの画像上で、参照レイヤの画像と実際に対応する領域(アクティブ参照レイヤ対応領域)であり、縦幅SRLPH’、横幅SRLPH’のサイズを有する。同図上のOffsetT’は、アクティブ参照レイヤ対応領域SRLA’の最左上画素とリサンプル参照ピクチャrsPic(あるいは、対象レイヤの対象ピクチャcurPic)の最左上画素間の垂直方向(y方向)のオフセットを表わす。同図上のOffsetR’は、アクティブ参照レイヤ対応領域SRLA’の最右下画素とリサンプル参照ピクチャrsPic(あるいは、対象レイヤの対象ピクチャcurPic)の最右下画素間の水平方向(x方向)のオフセットを表わす。同図上のOffsetB’は、アクティブ参照レイヤ対応領域SRLA’の最右下画素とリサンプル参照ピクチャrsPic(あるいは、対象レイヤの対象ピクチャcurPic)の最右下画素間の垂直方向(y方向)のオフセットを表わす。同図上のΔLは、オフセットOffsetLとOffsetL’との差を表わし、ΔTは、オフセットOffsetTとOffsetT’の差を表わし、ΔRは、オフセットOffsetRとOffsetR’との差を表わし、ΔBは、オフセットOffsetBとOffsetB’との差を表わす。   Further, the data structure of the active reference layer corresponding area information is not limited to SYNA05 in FIG. 7, and may be difference information (SYNSH03 in FIG. 8) with respect to the reference layer corresponding area information notified by the SPS. Hereinafter, the definition of the syntax of SYNSH03 in FIG. 8 will be described with reference to FIG. The active reference layer corresponding region information group presence flag and the active reference layer corresponding region presence / absence flag are omitted because they have already been described. In FIG. 9, a corresponding region (reference layer corresponding region) between the target layer image and the reference layer image will be described. RlPic in the figure is a reference layer image (reference layer picture) having an image size of vertical width RLPH and horizontal width RLPW. An rsPic in the figure is an image (resampled reference layer picture) rsPic obtained by mapping the reference layer picture rlPic to an image of a target layer having an image size of the vertical width PH and the horizontal width PW. SRLA in the figure is an area (reference layer corresponding area) that actually corresponds to the image of the reference layer on the target layer image determined by the reference layer corresponding area information notified by SPS. It has a size of horizontal width SRLPH. OffsetL in the drawing represents an offset in the horizontal direction (x direction) between the upper left pixel of the reference layer corresponding region SRLA and the upper left pixel of the resample reference picture rsPic (or the target picture curPic of the target layer). OffsetT in the drawing represents an offset in the vertical direction (y direction) between the upper left pixel of the reference layer corresponding region SRLA and the upper left pixel of the resample reference picture rsPic (or the target picture curPic of the target layer). OffsetR in the figure represents an offset in the horizontal direction (x direction) between the lowermost right pixel of the reference layer corresponding region SRLA and the lowermost right pixel of the resample reference picture rsPic (or the target picture curPic of the target layer). . OffsetB in the figure represents an offset in the vertical direction (y direction) between the lowermost right pixel of the reference layer corresponding area SRLA and the lowermost right pixel of the resample reference picture rsPic (or the target picture curPic of the target layer). . SRLA 'in the figure is an area (active reference layer corresponding area) actually corresponding to the reference layer image on the target layer image determined by the active reference layer corresponding area information notified by the slice header SH. , The vertical width SRLPH ′ and the horizontal width SRLPH ′. OffsetT 'in the figure is an offset in the vertical direction (y direction) between the upper left pixel of the active reference layer corresponding region SRLA' and the upper left pixel of the resample reference picture rsPic (or the target picture curPic of the target layer). Represent. OffsetR ′ in the figure is the horizontal direction (x direction) between the lowermost right pixel of the active reference layer corresponding region SRLA ′ and the lowermost right pixel of the resample reference picture rsPic (or the target picture curPic of the target layer). Represents an offset. OffsetB 'in the figure is the vertical direction (y direction) between the lowermost right pixel of the active reference layer corresponding region SRLA' and the lowermost right pixel of the resample reference picture rsPic (or the target picture curPic of the target layer). Represents an offset. ΔL in the figure represents the difference between the offsets OffsetL and OffsetL ′, ΔT represents the difference between the offsets OffsetT and OffsetT ′, ΔR represents the difference between the offsets OffsetR and OffsetR ′, and ΔB represents the offset OffsetB And the difference between OffsetB '.

active_diff_scaled_ref_layer_left_offset[k]は、参照レイヤ対応領域SRLAの最左上画素とアクティブ参照レイヤ対応領域SRLA’の最左上画素間の所定画素単位の水平方向(x方向)のオフセットである。   active_diff_scaled_ref_layer_left_offset [k] is an offset in the horizontal direction (x direction) in a predetermined pixel unit between the upper left pixel of the reference layer corresponding region SRLA and the upper left pixel of the active reference layer corresponding region SRLA ′.

active_diff_scaled_ref_layer_top_offset[k]は、参照レイヤ対応領域SRLAの最左上画素とアクティブ参照レイヤ対応領域SRLA’の最左上画素間の所定画素単位の垂直方向(y方向)のオフセットである。   active_diff_scaled_ref_layer_top_offset [k] is an offset in the vertical direction (y direction) in a predetermined pixel unit between the upper left pixel of the reference layer corresponding region SRLA and the upper left pixel of the active reference layer corresponding region SRLA ′.

active_diff_scaled_ref_layer_left_offset[k]は、参照レイヤ対応領域SRLAの最右下画素とアクティブ参照レイヤ対応領域SRLA’の最右下画素間の所定画素単位の水平方向(x方向)のオフセットである。   active_diff_scaled_ref_layer_left_offset [k] is an offset in the horizontal direction (x direction) in a predetermined pixel unit between the lowermost right pixel of the reference layer corresponding region SRLA and the lowermost right pixel of the active reference layer corresponding region SRLA ′.

active_diff_scaled_ref_layer_bottom_offset[k]は、参照レイヤ対応領域SRLAの最右下画素とアクティブ参照レイヤ対応領域SRLA’の最右下画素間の所定画素単位の垂直方向(y方向)のオフセットである。
なお、上記4つのシンタックスがスライスヘッダSH上で明示的に含まれない場合は、各シンタックスの値はゼロと推定されるものとする。
active_diff_scaled_ref_layer_bottom_offset [k] is an offset in the vertical direction (y direction) in a predetermined pixel unit between the lowermost right pixel of the reference layer corresponding region SRLA and the lowermost right pixel of the active reference layer corresponding region SRLA ′.
If the above four syntaxes are not explicitly included on the slice header SH, the value of each syntax is assumed to be zero.

従って、参照レイヤiにおいて参照レイヤ対応領域情報が不要である場合、アクティブ参照レイヤ対応領域情報有無フラグを0とすることにより、各シンタックス(active_diff_scaled_ref_layer_left_offset[i]、active_diff_scaled_ref_layer_top_offset[i]、active_diff_scaled_ref_layer_right_offset[i]、active_diff_scaled_ref_layer_bottom_offset[i])に係る符号量を削減することが可能である。   Therefore, when the reference layer corresponding region information is not necessary in the reference layer i, the active reference layer corresponding region information presence / absence flag is set to 0 to set each syntax (active_diff_scaled_ref_layer_left_offset [i], active_diff_scaled_ref_layer_top_offset [i], active_diff_scaled_ref_layer_right_offset [i] , Active_diff_scaled_ref_layer_bottom_offset [i]) can be reduced.

なお、図8のSYNSH03では、アクティブ参照レイヤ数NumActiveRefLayerPics[curLayerId]が0より大きい場合、アクティブ参照レイヤ対応領域情報有無フラグを明示的に通知し、アクティブ参照レイヤ数NumActiveRefLayerPics[curLayerId]が0の場合、アクティブ参照レイヤ対応領域情報有無フラグはゼロであると推定される。図8のSYNSH03の代わりに、図35(a)に示すSYNSH03Bの構成としてもよい。すなわち、NumActiveRefLayers[curLyaerId]が1より大きい場合、明示的にアクティブ参照レイヤ対応領域情報群有無フラグが通知され、NumActiveRefLayers[curLyaerId]が0の場合、アクティブ参照レイヤ対応領域情報群有無フラグは0であると推定し、NumActiveRefLayers[curLyaerId]が1の場合、アクティブ参照レイヤ対応領域情報有無フラグは1であると推定する。これによって、図8上のSYNSH03の例に比べて、アクティブ参照レイヤ数が1個の場合、アクティブ参照レイヤ対応領域情報群有無フラグを明示的に通知する必要がなくなり、アクティブ参照レイヤ対応領域情報群有無フラグに係る符号量を削減することが可能である。また、図35(b)に示すSYNSH03Bの構成としてもよい。この場合、アクティブ参照レイヤ対応領域情報群有無フラグは含まれず、明示的に、NumActiveRefLayers[curLayer]個のアクティブ参照レイヤ対応領域情報を通知する構成である。同様に、何個の参照レイヤ対応領域情報があるかを示すシンタックスnum_scaled_ref_layer_offsetsを通知する従来技術に比べて、アクティブ参照レイヤ対応領域情報に係る符号量を削減することが可能である。   In SYNSH03 of FIG. 8, when the number of active reference layers NumActiveRefLayerPics [curLayerId] is greater than 0, the active reference layer corresponding region information presence / absence flag is explicitly notified, and when the number of active reference layers NumActiveRefLayerPics [curLayerId] is 0, The active reference layer corresponding region information presence / absence flag is estimated to be zero. Instead of SYNSH03 in FIG. 8, the structure of SYNSH03B shown in FIG. That is, when NumActiveRefLayers [curLyaerId] is greater than 1, an active reference layer corresponding region information group presence / absence flag is explicitly notified. When NumActiveRefLayers [curLyaerId] is 0, the active reference layer corresponding region information group presence / absence flag is 0. When NumActiveRefLayers [curLyaerId] is 1, it is estimated that the active reference layer corresponding region information presence / absence flag is 1. This eliminates the need to explicitly notify the active reference layer corresponding region information group presence / absence flag when the number of active reference layers is one, compared to the example of SYNSH03 in FIG. It is possible to reduce the code amount related to the presence / absence flag. Moreover, it is good also as a structure of SYNSH03B shown in FIG.35 (b). In this case, the active reference layer corresponding region information group presence / absence flag is not included, and NumActiveRefLayers [curLayer] pieces of active reference layer corresponding region information are explicitly notified. Similarly, it is possible to reduce the amount of codes related to the active reference layer corresponding region information as compared with the conventional technique that notifies the syntax num_scaled_ref_layer_offsets indicating how many reference layer corresponding region information exists.

図9上のアクティブ参照レイヤ対応領域SRLA’の各オフセットOffsetL’、OffsetT’、OffsetR’、及びOffsetB’は、参照レイヤ対応領域SRLAの各オフセットOffsetL、OffsetT, OffsetR, OffsetBと、対象レイヤcurLayerIdとアクティブ参照レイヤRefPicLayerId[k]間のアクティブ参照レイヤ対応領域情報の各シンタックスactive_ scaled_ref_layer_offset_present_flag[k]、active_diff_scaled_ref_layer_left_offset[k]、active_diff_scaled_ref_layer_top_offset[k]、active_diff_scaled_ref_layer_right_offset[k]、active_scaled_ref_layer_bottom_offset[k]を用いて、例えば、以下の式(G-1B)〜(G-4B)により導出される。   Each offset OffsetL ', OffsetT', OffsetR ', and OffsetB' of the active reference layer corresponding region SRLA 'in FIG. 9 is active with each offset OffsetL, OffsetT, OffsetR, OffsetB of the reference layer corresponding region SRLA and the target layer curLayerId. Active reference layer corresponding region information between the reference layers RefPicLayerId [k] active_scaled_ref_layer_offset_present_flag [k], active_diff_scaled_ref_layer_left_offset [k], active_diff_scaled_ref_layer_top_offset [k], active_diff_scaled_ref_layer_ref_layer_ref_layer_off_k (G-1B) to (G-4B).

OffsetL’ = OffsetL + active_diff_scaled_ref_layer_left_offset[k] << sample_unit_bit; (G-1B)
OffsetT’ = OffsetT + active_diff_scaled_ref_layer_top_offset[k] << sample_unit_bit; (G-2B)
OffsetR’ = OffsetR + active_diff_scaled_ref_layer_right_offset[k] << sample_unit_bit; (G-3B)
OffsetB’ = OffsetB + active_diff_scaled_ref_layer_bottom_offset[k] << sample_unit_bit; (G-4B)
逆に、各シンタックスactive_diff_scaled_ref_layer_left_offset[k]、active_diff_scaled_ref_layer_top_offset[k]、active_diff_scaled_ref_layer_right_offset[k]、active_scaled_ref_layer_bottom_offset[k]は、式(G-1B)〜(G-4B)の逆処理である式(I-1B)〜(I-4B)によって導出される。
OffsetL '= OffsetL + active_diff_scaled_ref_layer_left_offset [k] <<sample_unit_bit; (G-1B)
OffsetT '= OffsetT + active_diff_scaled_ref_layer_top_offset [k] <<sample_unit_bit; (G-2B)
OffsetR '= OffsetR + active_diff_scaled_ref_layer_right_offset [k] <<sample_unit_bit; (G-3B)
OffsetB '= OffsetB + active_diff_scaled_ref_layer_bottom_offset [k] <<sample_unit_bit; (G-4B)
Conversely, each syntax active_diff_scaled_ref_layer_left_offset [k], active_diff_scaled_ref_layer_top_offset [k], active_diff_scaled_ref_layer_right_offset [k], active_scaled_ref_layer_bottom_offset [k] is the inverse of expressions (G-1B) to (G-4B) It is derived by (I-4B).

active_diff_scaled_ref_layer_left_offset[k] = (OffsetL’ - OffsetL) >> sample_unit_bit; (I-1B)
active_diff_scaled_ref_layer_top_offset[k] = (OffsetT’ - OffsetT) >> sample_unit_bit; (I-2B)
active_diff_scaled_ref_layer_right_offset[k] = (OffsetR’ - OffsetR) >> sample_unit_bit; (I-3B)
active_diff_scaled_ref_layer_bottom_offset[k] = (OffsetB’ - OffsetB) >> sample_unit_bit; (I-4B)
なお、active_ scaled_ref_layer_offset_present_flag[k]の値は、式(I-1B)〜(I-4B)で導出される各シンタックスの値が全て0である場合、値を0へ設定し、それ以外の場合は、1へ設定することで定まる。
active_diff_scaled_ref_layer_left_offset [k] = (OffsetL '-OffsetL) >>sample_unit_bit; (I-1B)
active_diff_scaled_ref_layer_top_offset [k] = (OffsetT '-OffsetT) >>sample_unit_bit; (I-2B)
active_diff_scaled_ref_layer_right_offset [k] = (OffsetR '-OffsetR) >>sample_unit_bit; (I-3B)
active_diff_scaled_ref_layer_bottom_offset [k] = (OffsetB '-OffsetB) >>sample_unit_bit; (I-4B)
Note that the value of active_scaled_ref_layer_offset_present_flag [k] is set to 0 when the values of each syntax derived by the formulas (I-1B) to (I-4B) are all 0, otherwise Is determined by setting it to 1.

また、図9上のアクティブ参照レイヤ対応領域SRLA’の横幅SRLPW’と縦幅SRLPH’は、例えば、以下の式(G-5A)〜(G-6A)により導出される。   Also, the horizontal width SRLPW 'and the vertical width SRLPH' of the active reference layer corresponding region SRLA 'in FIG. 9 are derived by, for example, the following equations (G-5A) to (G-6A).

SRLPW’ = PW - OffsetL’ - OffsetR’; (G-5A)
SRLPH’ = PH - OffsetT’ - OffsetB’; (G-6A)
また、図9上のアクティブ参照レイヤ対応領域SRLA’と参照レイヤピクチャrlPicの横幅のサイズ比ScaleFactorX、縦幅のサイズ比ScaleFactorYは、前述の式(G-7)〜(G-8)において、SRLPWをSRLPW’、SRLPHをSRLPH’へ置き換えることで導出される。
SRLPW '= PW-OffsetL'-OffsetR '; (G-5A)
SRLPH '= PH-OffsetT'-OffsetB '; (G-6A)
In addition, the horizontal size ratio ScaleFactorX and the vertical size ratio ScaleFactorY of the active reference layer corresponding region SRLA ′ and the reference layer picture rlPic in FIG. 9 are the SRLPW in the above-described equations (G-7) to (G-8). Is replaced with SRLPW 'and SRLPH is replaced with SRLPH'.

以上、アクティブ参照レイヤ対応領域のサイズを明示的に通知する図7のSYNA05のデータ構造に比べて、アクティブ参照レイヤ対応領域情報を、SPSで通知した参照レイヤ対応領域情報に対する差分情報として通知することにより、アクティブ参照レイヤ対応領域のサイズを通知するのに必要な符号量を削減する効果がある。以降、特に断りがなければ、参照レイヤ対応領域SRLA、およびアクティブ参照レイヤ領域SRLA’を区別せずに、単に参照レイヤ対応領域SRLAと呼ぶ。なお、アクティブ参照レイヤ対応領域情報(ピクチャ単位の参照レイヤ対応領域)は、各ピクチャの先頭のスライスで一度通知すればよい。それによって、各ピクチャを構成するスライス単位で通知する場合に比べて、アクティブ参照レイヤ対応領域情報を通知するのに必要な符号量を削減する効果がある。   As described above, the active reference layer corresponding area information is notified as difference information with respect to the reference layer corresponding area information notified by the SPS, compared to the data structure of SYNA05 in FIG. 7 that explicitly notifies the size of the active reference layer corresponding area. As a result, there is an effect of reducing the amount of code necessary to notify the size of the active reference layer corresponding area. Hereinafter, unless otherwise specified, the reference layer corresponding region SRLA and the active reference layer region SRLA ′ are simply referred to as the reference layer corresponding region SRLA without being distinguished from each other. The active reference layer corresponding area information (reference layer corresponding area in units of pictures) may be notified once in the first slice of each picture. This has the effect of reducing the amount of code necessary for notifying active reference layer corresponding region information compared with the case of notifying in units of slices constituting each picture.

また、スライスタイプがPスライスまたはBスライスである時に、後述するテンポラル動き情報を指定するためのコロケート情報collocated_from_l0_flag,collocated_ref_idx, alt_collocated_indication_flag, collocated_ref_layer_idexが含まれる。   Further, when the slice type is a P slice or a B slice, collocated information collocated_from_l0_flag, collocated_ref_idx, alt_collocated_indication_flag, and collocated_ref_layer_idex for specifying temporal motion information described later is included.

なお、スライスヘッダSHは、上記シーケンスレイヤに含まれる、ピクチャパラメータ
セットPPSへの参照を示すPPS識別子(pic_parameter_set_id)を含んでいても良い。
また、スライスヘッダSH等のパラメータセットでは、対象レイヤの空間スケーラビリティ、時間スケーラビリティ、および、SNRスケーラビリティ、ビュースケーラビリティの階層の識別情報(それぞれ、dependency_id、temporal_id、quality_id、および、view_id)が符号化されていてもよい。
Note that the slice header SH may include a PPS identifier (pic_parameter_set_id) indicating a reference to the picture parameter set PPS included in the sequence layer.
In addition, in the parameter set such as the slice header SH, the spatial scalability, temporal scalability, and SNR scalability, view scalability hierarchy identification information (dependency_id, temporal_id, quality_id, and view_id, respectively) of the target layer are encoded. May be.

(スライスデータレイヤ)
スライスデータレイヤでは、処理対象のスライスデータSDATAを復号するために階層動画像復号装置1が参照するデータの集合が規定されている。スライスデータSDATAは、図2の(d)に示すように、符号化ツリーユニット(CTU: Coding Tree Unit)を含んでいる。符号化ツリーユニットCTUは、スライスを構成する固定サイズ(例えば画素数64×64)の画像領域である。なお、符号化ツリーユニットCTUに対応する画像ブロックを、符号化ツリーブロック(CTB: Coding Tree Block)と称する。
(Slice data layer)
In the slice data layer, a set of data referred to by the hierarchical video decoding device 1 for decoding the slice data SDATA to be processed is defined. The slice data SDATA includes a coding tree unit (CTU) as shown in (d) of FIG. The coding tree unit CTU is an image area having a fixed size (for example, 64 × 64 pixels) that constitutes a slice. An image block corresponding to the coding tree unit CTU is referred to as a coding tree block (CTB).

(符号化ツリーレイヤ)
符号化ツリーレイヤは、図2の(e)に示すように、処理対象の符号化ツリーユニットを復号するために階層動画像復号装置1が参照するデータの集合が規定されている。符号化ツリーユニットは、再帰的な4分木分割により分割される。再帰的な4分木分割により得られる木構造のことを符号化ツリー(coding tree)と称する。符号化ツリーユニットCTUは、分割フラグ(split_flag)を含み、split_flagが1の場合には、符号化ツリーユニットCTUはさらに4つのCTUに分割される。split_flagが0の場合には、符号化ツリーユニットCTUは4つの符号化ユニット(CU: Coding Unit)に分割される。符号化ユニットCUは符号化ツリーレイヤの末端ノードであり、このレイヤではこれ以上分割されない。符号化ユニットCUは、符号化/復号処理の基本的な単位となる。
(Encoding tree layer)
As shown in FIG. 2E, the coding tree layer defines a set of data that the hierarchical video decoding device 1 refers to in order to decode the coding tree unit to be processed. The coding tree unit is divided by recursive quadtree division. A tree structure obtained by recursive quadtree partitioning is called a coding tree. The coding tree unit CTU includes a split flag (split_flag). When the split_flag is 1, the coding tree unit CTU is further divided into four CTUs. When split_flag is 0, the coding tree unit CTU is divided into four coding units (CU: Coding Unit). The coding unit CU is a terminal node of the coding tree layer and is not further divided in this layer. The encoding unit CU is a basic unit of encoding / decoding processing.

符号化ユニットCUのサイズは、符号化ツリーユニットCTUのサイズが64×64画素の場合には、64×64画素、32×32画素、16×16画素、および、8×8画素の何れかをとり得る。なお、符号化ユニットCUに対応する画像ブロックを、符号化ブロック(CB: Coding Block)と称する。   When the size of the encoding tree unit CTU is 64 × 64 pixels, the size of the encoding unit CU is 64 × 64 pixels, 32 × 32 pixels, 16 × 16 pixels, or 8 × 8 pixels. It can take. Note that an image block corresponding to the coding unit CU is referred to as a coding block (CB).

(符号化ユニットレイヤ)
符号化ユニットレイヤは、図2の(f)に示すように、処理対象の符号化ユニットを復号するために階層動画像復号装置1が参照するデータの集合が規定されている。具体的には、符号化ユニットは、CUヘッダCUH、1つ以上の予測ユニット(PU: Prediction Unit)で構成される予測ツリー、1つ以上の変換ユニット(TU: Transform Unit)で構成される変換ツリーを含んで構成される。
(Encoding unit layer)
As shown in (f) of FIG. 2, the encoding unit layer defines a set of data that the hierarchical video decoding device 1 refers to in order to decode the processing target encoding unit. Specifically, the encoding unit is a prediction tree composed of a CU header CUH, one or more prediction units (PU: Prediction Unit), and a transform composed of one or more transform units (TU: Transform Unit). Consists of a tree.

CUヘッダCUHでは、符号化ユニットが、イントラ予測を用いるユニットであるか、インター予測を用いるユニットであるかを示す予測タイプ情報PTypeなどが規定される。   In the CU header CUH, prediction type information PType indicating whether the encoding unit is a unit using intra prediction or a unit using inter prediction is defined.

予測ツリーでは、符号化ユニットCUが1または複数の予測ユニットPUに分割され、各予測ユニットの位置とサイズとが規定される。予測ツリーにおける分割の種類は、大まかにいえば、イントラ予測の場合と、インター予測の場合との2つがある。イントラ予測とは、同一ピクチャ内の予測であり、インター予測とは、互いに異なるピクチャ間(例えば、表示時刻間、レイヤ画像間)で行われる予測処理を指す。   In the prediction tree, the encoding unit CU is divided into one or a plurality of prediction units PU, and the position and size of each prediction unit are defined. Broadly speaking, there are two types of division in the prediction tree: intra prediction and inter prediction. Intra prediction is prediction within the same picture, and inter prediction refers to prediction processing performed between different pictures (for example, between display times and between layer images).

イントラ予測の場合、分割方法は、2N×2N(符号化ユニットと同一サイズ)と、N×Nとがある。   In the case of intra prediction, there are 2N × 2N (the same size as the encoding unit) and N × N division methods.

インター予測の場合、分割方法は、CUヘッダCUHに含まれる分割モード(part_mode)により規定され、対象CUのサイズを2N×2Nとすると、次の合計8種類のパターンがある。すなわち、2N×2N(符号化ユニットと同一サイズ)、2N×N、N×2N、およびN×Nの4つの対称的分割(symmetric splitting)、並びに、2N×nU、2N×nD、N×2N、nL×2N、およびnR×2Nの4つの非対称的分割(asymmetric splitting)がある。なお、N=2(mは1以上の任意の整数)を意味している。以下、対象CUを分割して得られる予測単位のことを予測ブロック、または、パーティションと称する。分割数は1、2、4のいずれかであるため、CUに含まれるPUは1個から4個である。これらのPUを順にPU0、PU1、PU2、PU3と表現する。 In the case of inter prediction, the division method is defined by the division mode (part_mode) included in the CU header CUH. If the size of the target CU is 2N × 2N, there are the following eight patterns in total. That is, 2N × 2N (same size as coding unit), 2N × N, N × 2N and N × N symmetric splitting, and 2N × nU, 2N × nD, N × 2N , NL × 2N, and nR × 2N, there are four asymmetric splitting. N = 2 m (m is an arbitrary integer of 1 or more). Hereinafter, a prediction unit obtained by dividing the target CU is referred to as a prediction block or a partition. Since the number of divisions is one of 1, 2, and 4, PUs included in the CU are 1 to 4. These PUs are expressed as PU0, PU1, PU2, and PU3 in order.

また、変換ツリーにおいては、符号化ユニットCUが1または複数の変換ユニットTUに分割され、各変換ユニットの位置とサイズとが規定される。変換ツリーにおける分割には、符号化ユニットと同一のサイズの領域を変換ユニットとして割り付けるものと、上述した符号化ツリーブロックの分割と同様、再帰的な4分木分割によるものがある。   In the conversion tree, the encoding unit CU is divided into one or a plurality of conversion units TU, and the position and size of each conversion unit are defined. There are two types of division in the conversion tree: one in which an area having the same size as the encoding unit is allocated as a conversion unit, and the other in division by recursive quadtree division, similar to the above-described division in the encoding tree block.

なお、予測ユニットPU、変換ユニットTUに対応する画像ブロックを、それぞれ予測ブロック(PB: Prediction Block)、変換ブロック(TB: Transform Block)と称する。   Note that the image blocks corresponding to the prediction unit PU and the transform unit TU are referred to as a prediction block (PB: Prediction Block) and a transform block (TB: Transform Block), respectively.

(予測パラメータ)
予測ユニットの予測画像は、予測ユニットに付随する予測パラメータによって導出される。予測パラメータには、イントラ予測の予測パラメータもしくはインター予測の予測パラメータがある。以下、インター予測の予測パラメータ(インター予測パラメータ)について説明する。インター予測パラメータは、予測リスト利用フラグpredFlagL0、predFlagL1と、参照ピクチャインデックスrefIdxL0、refIdxL1と、ベクトルmvL0、mvL1から構成される。予測リスト利用フラグpredFlagL0、predFlagL1は、各々L0リスト、L1リストと呼ばれる参照ピクチャリストが用いられるか否かを示すフラグであり、値が1の場合に、各フラグに対応する参照ピクチャリストが用いられる。なお、本明細書中「XXであるか否かを示すフラグ」と記す場合、値が1である時はXXである場合、値が0である時はXXではない場合とし、論理否定、論理積などでは1を真、0を偽と扱う(以下同様)。但し、実際の装置や方法では真値、偽値として他の値を用いることもできる。2つの参照ピクチャリストが用いられる場合、つまり、predFlagL0=1,predFlagL1=1の場合、その予測方法を双予測といい、1つの参照ピクチャリストを用いる場合、すなわち(predFlagL0,predFlagL1)=(1,0)もしくは(predFlagL0,predFlagL1)=(0,1)の場合、その予測方法を単予測という。なお、予測リスト利用フラグの情報は、後述のインター予測識別子inter_pred_idcで表現することもできる。
(Prediction parameter)
The prediction image of the prediction unit is derived by a prediction parameter associated with the prediction unit. The prediction parameters include a prediction parameter for intra prediction or a prediction parameter for inter prediction. Hereinafter, prediction parameters for inter prediction (inter prediction parameters) will be described. The inter prediction parameter includes prediction list use flags predFlagL0 and predFlagL1, reference picture indexes refIdxL0 and refIdxL1, and vectors mvL0 and mvL1. The prediction list use flags predFlagL0 and predFlagL1 are flags indicating whether or not reference picture lists called L0 list and L1 list are used, respectively. When the value is 1, the reference picture list corresponding to each flag is used. . In this specification, when “flag indicating whether or not XX” is described, it is assumed that the value is XX when the value is 1, and that it is not XX when the value is 0. In products and the like, 1 is treated as true and 0 is treated as false (the same applies hereinafter). However, other values can be used as true values and false values in an actual apparatus or method. When two reference picture lists are used, that is, when predFlagL0 = 1 and predFlagL1 = 1, the prediction method is called bi-prediction, and when one reference picture list is used, that is, (predFlagL0, predFlagL1) = (1, 0) or (predFlagL0, predFlagL1) = (0,1), the prediction method is called single prediction. Note that the prediction list use flag information can also be expressed by an inter prediction identifier inter_pred_idc described later.

符号化データに含まれるインター予測パラメータを導出するためのシンタックス要素には、例えば、分割モードpart_mode、マージフラグmerge_flag、マージインデックスmerge_idx、インター予測識別子inter_pred_idc、参照ピクチャインデックスrefIdxLX、予測ベクトルインデックスmvp_LX_idx、差分ベクトルmvdLXがある。   Syntax elements for deriving inter prediction parameters included in the encoded data include, for example, a partition mode part_mode, a merge flag merge_flag, a merge index merge_idx, an inter prediction identifier inter_pred_idc, a reference picture index refIdxLX, a prediction vector index mvp_LX_idx, and a difference There is a vector mvdLX.

また、予測パラメータとして、イントラ予測とインター予測と区別して、レイヤ間画像予測を指定する情報が含まれていてもよい。例えば、レイヤ間画像予測の適用有無を指定するフラグ(レイヤ間画像予測フラグ)を含む。なお、レイヤ間画像予測フラグは、texture_rl_flaと呼ばれることもある。   In addition, as a prediction parameter, information for specifying inter-layer image prediction may be included in distinction between intra prediction and inter prediction. For example, a flag (interlayer image prediction flag) that specifies whether or not to apply inter-layer image prediction is included. Note that the inter-layer image prediction flag may be referred to as texture_rl_fla.

また、階層符号化データにおいて、拡張レイヤの符号化データを、下位レイヤの符号化方式と異なる符号化方式により生成しても構わない。すなわち、拡張レイヤの符号化・復号処理は、下位レイヤのコーデックの種類に依存しない。下位レイヤが、例えば、MPEG-2や、H.264/AVC方式によって符号化されていてもよい。   Further, in the hierarchically encoded data, the encoded data of the enhancement layer may be generated by a different encoding method from the lower layer encoding method. That is, the encoding / decoding process of the enhancement layer does not depend on the type of the lower layer codec. The lower layer may be encoded by, for example, MPEG-2 or H.264 / AVC format.

なお、以上に説明したパラメータは、単独で符号化されていてもよいし、複数のパラメータが複合的に符号化されていてもよい。複数のパラメータが複合的に符号化される場合は、そのパラメータの値の組み合わせに対してインデックスが割り当てられ、割り当てられた当該インデックスが符号化される。また、パラメータが、別のパラメータや、復号済みの情報から導出可能であれば、当該パラメータの符号化を省略できる。   Note that the parameters described above may be encoded independently, or a plurality of parameters may be encoded in combination. When a plurality of parameters are encoded in combination, an index is assigned to the combination of parameter values, and the assigned index is encoded. Also, if the parameter can be derived from another parameter or decoded information, the encoding of the parameter can be omitted.

(参照ピクチャリストの一例)
次に、参照ピクチャリストの一例について説明する。参照ピクチャリストとは、後述する参照ピクチャメモリ306(図13)に記憶された参照ピクチャからなる列である。図10(a)は、参照ピクチャリストの一例を示す概念図である。参照ピクチャリスト601において、左右に一列に配列された5個の矩形は、それぞれ参照ピクチャを示す。左端から右へ順に示されている符号P0、P1、Q2、P3、P4は、それぞれの参照ピクチャを示す符号である。P1等のPとは、レイヤPを示し、そしてQ2のQとは、レイヤPとは異なるレイヤQを示す。P及びQの添字は、ピクチャ順序番号POC(Picture Order Count)を示す。refIdxLXの真下の下向きの矢印は、参照ピクチャインデックスrefIdxLXが、参照ピクチャメモリ306において参照ピクチャQ2を参照するインデックスであることを示す。
(Example of reference picture list)
Next, an example of the reference picture list will be described. The reference picture list is a column composed of reference pictures stored in a reference picture memory 306 (FIG. 13) described later. FIG. 10A is a conceptual diagram illustrating an example of a reference picture list. In the reference picture list 601, five rectangles arranged in a line on the left and right indicate reference pictures, respectively. Reference symbols P0, P1, Q2, P3, and P4 shown in order from the left end to the right are symbols indicating respective reference pictures. P such as P1 indicates a layer P, and Q of Q2 indicates a layer Q different from the layer P. The subscripts P and Q indicate a picture order number POC (Picture Order Count). A downward arrow directly below refIdxLX indicates that the reference picture index refIdxLX is an index that refers to the reference picture Q2 in the reference picture memory 306.

(参照ピクチャの例)
次に、ベクトルを導出する際に用いる参照ピクチャの例について説明する。図11は、参照ピクチャの例を示す概念図である。図11において、横軸は表示時刻を示し、縦軸はレイヤ数を示す。図示されている、縦2行、横3列(計6個)の長方形は、それぞれピクチャを示す。6個の長方形のうち、下行の左から2列目の長方形は復号対象のピクチャ(対象ピクチャ)を示し、残りの5個の長方形がそれぞれ参照ピクチャを示す。対象ピクチャから下向きの矢印で示される参照ピクチャQ2は対象ピクチャと同じ表示時刻であってレイヤが異なるピクチャである。対象ピクチャcurPic(P2)を基準とするレイヤ間予測においては、参照ピクチャQ2が用いられる。対象ピクチャから左向きの矢印で示される参照ピクチャP1は、対象ピクチャと同じレイヤであって、過去のピクチャである。対象ピクチャから右向きの矢印で示される参照ピクチャP3は、対象ピクチャと同じレイヤであって、未来のピクチャである。対象ピクチャを基準とする動き予測においては、参照ピクチャP1又はP3が用いられる。
(Reference picture example)
Next, an example of a reference picture used for deriving a vector will be described. FIG. 11 is a conceptual diagram illustrating an example of a reference picture. In FIG. 11, the horizontal axis represents the display time, and the vertical axis represents the number of layers. The illustrated rectangles in 2 rows and 3 columns (6 in total) indicate pictures. Among the six rectangles, the rectangle in the second column from the left in the lower row indicates a picture to be decoded (target picture), and the remaining five rectangles indicate reference pictures. A reference picture Q2 indicated by a downward arrow from the target picture is a picture having the same display time as that of the target picture and having a different layer. In inter-layer prediction based on the target picture curPic (P2), the reference picture Q2 is used. A reference picture P1 indicated by a left-pointing arrow from the target picture is the same layer as the target picture and is a past picture. A reference picture P3 indicated by a rightward arrow from the target picture is the same layer as the target picture and is a future picture. In motion prediction based on the target picture, the reference picture P1 or P3 is used.

(インター予測フラグと予測リスト利用フラグ)
インター予測識別子と、予測リスト利用フラグpredFlagL0、predFlagL1の関係は以下のように相互に変換可能である。そのため、インター予測パラメータとしては、予測リスト利用フラグを用いても良いし、インター予測識別子を用いてもよい。また、以下、予測リスト利用フラグを用いた判定は、インター予測識別子に置き替えても可能である。逆に、インター予測識別子inter_pred_idcを用いた判定は、予測リスト利用フラグに置き替えても可能である。
(Inter prediction flag and prediction list usage flag)
The relationship between the inter prediction identifier and the prediction list use flags predFlagL0 and predFlagL1 can be mutually converted as follows. Therefore, as an inter prediction parameter, a prediction list use flag may be used, or an inter prediction identifier may be used. In addition, hereinafter, the determination using the prediction list use flag may be replaced with the inter prediction identifier. Conversely, the determination using the inter prediction identifier inter_pred_idc can be replaced with a prediction list use flag.

inter_pred_idc=(predFlagL1 << 1)+ predFlagL0;
predFlagL0 = inter_pred_idc & 1;
predFlagL1 = inter_pred_idc >> 1;
ここで、>>は右シフト、<<は左シフトである。
inter_pred_idc = (predFlagL1 << 1) + predFlagL0;
predFlagL0 = inter_pred_idc &1;
predFlagL1 = inter_pred_idc >>1;
Here, >> is a right shift, and << is a left shift.

(マージ予測とAMVP予測)
予測パラメータの復号(符号化)方法には、マージ予測(merge)モードとAMVP(Adaptive Motion Vector Prediction、適応動きベクトル予測)モードがある。マージフラグmerge_flagは、これらを識別するためのフラグである。マージ予測モードでも、AMVPモードでも、既に処理済みのブロックの予測パラメータを用いて、対象PUの予測パラメータが導出される。マージ予測モードは、予測リスト利用フラグpredFlagLX(インター予測識別子inter_pred_idc)、参照ピクチャインデックスrefIdxLX、ベクトルmvLXを符号化データに含めずに、既に導出した予測パラメータをそのまま用いるモードであり、AMVPモードは、インター予測識別子inter_pred_idc、参照ピクチャインデックスrefIdxLX、ベクトルmvLXを符号化データに含めるモードである。なおベクトルmvLXは、予測ベクトルを示す予測ベクトルインデックス(mvp_LX_idx)と差分ベクトル(mvdLX)として符号化される。
(Merge prediction and AMVP prediction)
The prediction parameter decoding (encoding) method includes a merge prediction (merge) mode and an AMVP (Adaptive Motion Vector Prediction) mode. The merge flag merge_flag is a flag for identifying these. In both the merge prediction mode and the AMVP mode, the prediction parameter of the target PU is derived using the prediction parameter of the already processed block. The merge prediction mode is a mode in which the prediction parameter already used is used as it is without including the prediction list use flag predFlagLX (inter prediction identifier inter_pred_idc), the reference picture index refIdxLX, and the vector mvLX in the encoded data. In this mode, the prediction identifier inter_pred_idc, the reference picture index refIdxLX, and the vector mvLX are included in the encoded data. The vector mvLX is encoded as a prediction vector index (mvp_LX_idx) indicating a prediction vector and a difference vector (mvdLX).

インター予測識別子inter_pred_idcは、参照ピクチャの種類および数を示すデータであり、Pred_L0、Pred_L1、Pred_Biの何れかの値をとる。Pred_L0、Pred_L1は、各々L0リスト、L1リストと呼ばれる参照ピクチャリストに記憶された参照ピクチャが用いられることを示し、共に1枚の参照ピクチャを用いること(単予測)を示す。L0リスト、L1リストを用いた予測を各々L0予測、L1予測と呼ぶ。Pred_Biは2枚の参照ピクチャを用いること(双予測)を示し、L0リストとL1リストに記憶された参照ピクチャ2つを用いることを示す。予測ベクトルインデックスmvp_LX_idxは予測ベクトルを示すインデックスであり、参照ピクチャインデックスrefIdxLXは、参照ピクチャリストに記憶された参照ピクチャを示すインデックスである。なお、LXは、L0予測とL1予測を区別しない場合に用いられる記述方法であり、LXをL0、L1に置き換えることでL0リストに対するパラメータとL1リストに対するパラメータを区別する。例えば、refIdxL0はL0予測に用いる参照ピクチャインデックス、refIdxL1はL1予測に用いる参照ピクチャインデックス、refIdx(またはrefIdxLX)は、refIdxL0とrefIdxL1を区別しない場合に用いられる表記である。   The inter prediction identifier inter_pred_idc is data indicating the type and number of reference pictures, and takes any value of Pred_L0, Pred_L1, and Pred_Bi. Pred_L0 and Pred_L1 indicate that reference pictures stored in reference picture lists called an L0 list and an L1 list are used, respectively, and that both use one reference picture (single prediction). Prediction using the L0 list and the L1 list are referred to as L0 prediction and L1 prediction, respectively. Pred_Bi indicates that two reference pictures are used (bi-prediction), and indicates that two reference pictures stored in the L0 list and the L1 list are used. The prediction vector index mvp_LX_idx is an index indicating a prediction vector, and the reference picture index refIdxLX is an index indicating a reference picture stored in the reference picture list. Note that LX is a description method used when L0 prediction and L1 prediction are not distinguished. By replacing LX with L0 and L1, parameters for the L0 list and parameters for the L1 list are distinguished. For example, refIdxL0 is a reference picture index used for L0 prediction, refIdxL1 is a reference picture index used for L1 prediction, and refIdx (or refIdxLX) is a notation used when refIdxL0 and refIdxL1 are not distinguished.

マージインデックスmerge_idxは、処理が完了したブロックから導出される予測パラメータ候補(マージ候補)のうち、いずれの予測パラメータを復号対象ブロックの予測パラメータとして用いるかを示すインデックスである。   The merge index merge_idx is an index indicating which prediction parameter is used as a prediction parameter of a decoding target block among prediction parameter candidates (merge candidates) derived from a block for which processing has been completed.

(動きベクトルと変位ベクトル)
ベクトルmvLXには、動きベクトルと変位ベクトルがある。動きベクトルとは、あるレイヤのある表示時刻でのピクチャにおけるブロックの位置と、異なる表示時刻(例えば、隣接する離散時刻)における同一レイヤのピクチャにおける対応するブロックの位置との間の位置のずれを示すベクトルである。変位ベクトルとは、あるレイヤのある表示時刻でのピクチャにおけるブロックの位置と、同一の表示時刻における異なるレイヤのピクチャにおける対応するブロックの位置との間の位置のずれを示すベクトルである。異なるレイヤのピクチャとしては、異なる解像度のピクチャである場合(空間スケーラビリティ)、異なる品質のピクチャである場合(SNRスケーラビリティ)、もしくは、異なる視点のピクチャである場合(ビュースケーラビリティ)などがある。以降の説明では、動きベクトルと変位ベクトルを区別しない場合には、単にベクトルmvLXと呼ぶ。ベクトルmvLXに関する予測ベクトル、差分ベクトルを、それぞれ予測ベクトルmvpLX、差分ベクトルmvdLXと呼ぶ。ベクトルmvLXおよび差分ベクトルmvdLXが、動きベクトルであるか変位ベクトルであるかは、ベクトルに付随する参照ピクチャインデックスrefIdxLXを用いて区別される。
(Motion vector and displacement vector)
The vector mvLX includes a motion vector and a displacement vector. A motion vector is a positional shift between the position of a block in a picture at a certain display time of a layer and the position of the corresponding block in a picture of the same layer at a different display time (for example, an adjacent discrete time). It is a vector to show. The displacement vector is a vector indicating a positional shift between the position of a block in a picture at a certain display time of a certain layer and the position of a corresponding block in a picture of a different layer at the same display time. As pictures of different layers, there are cases where the pictures are of different resolution (spatial scalability), pictures of different quality (SNR scalability), pictures of different viewpoints (view scalability), and the like. In the following description, when a motion vector and a displacement vector are not distinguished, they are simply referred to as a vector mvLX. A prediction vector and a difference vector related to the vector mvLX are referred to as a prediction vector mvpLX and a difference vector mvdLX, respectively. Whether the vector mvLX and the difference vector mvdLX are motion vectors or displacement vectors is distinguished using a reference picture index refIdxLX attached to the vector.

〔階層動画像復号装置〕
以下では、本実施形態に係る階層動画像復号装置1の構成について、図12〜図22を参照して説明する。
[Hierarchical video decoding device]
Below, the structure of the hierarchy moving image decoding apparatus 1 which concerns on this embodiment is demonstrated with reference to FIGS.

(階層動画像復号装置の構成)
図12を用いて、階層動画像復号装置1の概略的構成を説明すると次のとおりである。図12は、階層動画像復号装置1の概略的構成を示した機能ブロック図である。階層動画像復号装置1は、階層動画像符号化装置2から供給される階層符号化データDATAを復号して、対象レイヤの復号画像POUT#Tを生成する。なお、以下では、対象レイヤは拡張レイヤであるとして説明する。そのため、対象レイヤは、参照レイヤに対する上位レイヤでもある。逆に、参照レイヤは、対象レイヤに対する下位レイヤでもある。
(Configuration of Hierarchical Video Decoding Device)
The schematic configuration of the hierarchical video decoding device 1 will be described with reference to FIG. FIG. 12 is a functional block diagram showing a schematic configuration of the hierarchical video decoding device 1. The hierarchical video decoding device 1 decodes the hierarchical encoded data DATA supplied from the hierarchical video encoding device 2 to generate a target layer decoded image POUT # T. In the following description, it is assumed that the target layer is an enhancement layer. Therefore, the target layer is also an upper layer with respect to the reference layer. Conversely, the reference layer is also a lower layer with respect to the target layer.

図12に示すように階層動画像復号装置1は、NAL逆多重化部11、対象レイヤピクチャ復号部12、および、参照レイヤピクチャ復号部13を備える。     As illustrated in FIG. 12, the hierarchical video decoding device 1 includes a NAL demultiplexing unit 11, a target layer picture decoding unit 12, and a reference layer picture decoding unit 13.

NAL逆多重化部11は、NAL(Network Abstraction Layer)におけるNALユニット単位で伝送される階層符号化データDATAを逆多重化する。   The NAL demultiplexing unit 11 demultiplexes hierarchically encoded data DATA transmitted in units of NAL units in NAL (Network Abstraction Layer).

NALは、VCL(Video Coding Layer)と、符号化データを伝送・蓄積する下位システムとの間における通信を抽象化するために設けられる層である。   The NAL is a layer provided to abstract communication between a VCL (Video Coding Layer) and a lower system that transmits and stores encoded data.

VCLは、動画像符号化処理を行う層のことであり、VCLにおいて符号化が行われる。一方、ここでいう、下位システムは、H.264/AVCおよびHEVCのファイルフォーマットや、MPEG-2システムに対応する。   VCL is a layer that performs moving image encoding processing, and encoding is performed in VCL. On the other hand, the lower system here corresponds to the H.264 / AVC and HEVC file formats and the MPEG-2 system.

なお、NALでは、VCLで生成されたビットストリームが、NALユニットという単位で区切られて、宛先となる下位システムへ伝送される。NALユニットには、VCLで符号化された符号化データ、および、当該符号化データが宛先の下位システムに適切に届けられるためのヘッダが含まれる。また、各階層における符号化データは、NALユニット格納されることでNAL多重化されて階層動画像復号装置1に伝送される。   In NAL, a bit stream generated by VCL is divided into units called NAL units and transmitted to a destination lower system. The NAL unit includes encoded data encoded by the VCL and a header for appropriately delivering the encoded data to the destination lower system. Also, the encoded data in each layer is stored in the NAL unit, is NAL multiplexed, and is transmitted to the hierarchical moving image decoding apparatus 1.

NAL逆多重化部11は、階層符号化データDATAを逆多重化して、対象レイヤ符号化データDATA#Tおよび参照レイヤ符号化データDATA#Rを取り出す。また、NAL逆多重化部11は、対象レイヤ符号化データDATA#Tを対象レイヤピクチャ復号部12に供給するとともに、参照レイヤ符号化データDATA#Rを参照レイヤピクチャ復号部13に供給する。   The NAL demultiplexing unit 11 demultiplexes the hierarchical encoded data DATA, and extracts the target layer encoded data DATA # T and the reference layer encoded data DATA # R. Further, the NAL demultiplexing unit 11 supplies the target layer encoded data DATA # T to the target layer picture decoding unit 12 and also supplies the reference layer encoded data DATA # R to the reference layer picture decoding unit 13.

対象レイヤピクチャ復号部12は、対象レイヤ符号化データDATA#Tと参照レイヤ復号ピクチャから対象レイヤ復号ピクチャを復号する。なお、対象レイヤピクチャ復号部12の詳細は後述する。   The target layer picture decoding unit 12 decodes the target layer decoded picture from the target layer encoded data DATA # T and the reference layer decoded picture. Details of the target layer picture decoding unit 12 will be described later.

参照レイヤピクチャ復号部13は、参照レイヤ符号化データDATA#Rから参照レイヤ復号ピクチャを復号する。参照レイヤ復号ピクチャは、対象レイヤの復号ピクチャ復号時に利用される参照レイヤの復号ピクチャである。参照レイヤピクチャ復号部13は、復号した参照レイヤ復号ピクチャを対象レイヤピクチャ復号部12に供給する。なお、参照レイヤピクチャ復号部13は、対象レイヤピクチャ復号部12と同等の機能を有するため、詳細な説明は省略する。   The reference layer picture decoding unit 13 decodes a reference layer decoded picture from the reference layer encoded data DATA # R. The reference layer decoded picture is a decoded picture of the reference layer used when decoding the decoded picture of the target layer. The reference layer picture decoding unit 13 supplies the decoded reference layer decoded picture to the target layer picture decoding unit 12. The reference layer picture decoding unit 13 has a function equivalent to that of the target layer picture decoding unit 12, and thus detailed description thereof is omitted.

以下では、対象レイヤピクチャ復号部12の詳細を説明する。   Details of the target layer picture decoding unit 12 will be described below.

(対象レイヤピクチャ復号部12(画像復号装置))
図13を用いて、対象レイヤピクチャ復号部12の詳細構成について説明する。図13は、対象レイヤピクチャ復号部12の構成を例示した機能ブロック図である。対象レイヤピクチャ復号部12は、可変長復号部301、予測パラメータ復号部302、参照ピクチャメモリ(参照ピクチャ記憶部、フレームメモリ)306、予測パラメータメモリ(予測パラメータ記憶部、フレームメモリ)307、予測画像生成部308、逆量子化・逆DCT部311、加算部312及びリサンプリング部314を含んで構成される。なお、対象レイヤが基本レイヤである場合、リサンプリング部314は不要である。
(Target layer picture decoding unit 12 (image decoding device))
The detailed configuration of the target layer picture decoding unit 12 will be described with reference to FIG. FIG. 13 is a functional block diagram illustrating the configuration of the target layer picture decoding unit 12. The target layer picture decoding unit 12 includes a variable length decoding unit 301, a prediction parameter decoding unit 302, a reference picture memory (reference picture storage unit, frame memory) 306, a prediction parameter memory (prediction parameter storage unit, frame memory) 307, a prediction image A generation unit 308, an inverse quantization / inverse DCT unit 311, an addition unit 312, and a resampling unit 314 are configured. Note that if the target layer is a base layer, the resampling unit 314 is not necessary.

また、予測パラメータ復号部302は、インター予測パラメータ復号部303、イントラ予測パラメータ復号部304、及び図示しないレイヤ間情報導出部320を含んで構成される。予測画像生成部308は、インター予測画像生成部309及びイントラ予測画像生成部310を含んで構成される。リサンプリング部314は、レイヤ間画像マッピング部315およびレイヤ間動きマッピング部316およびを含んで構成される。   The prediction parameter decoding unit 302 includes an inter prediction parameter decoding unit 303, an intra prediction parameter decoding unit 304, and an inter-layer information deriving unit 320 (not shown). The predicted image generation unit 308 includes an inter predicted image generation unit 309 and an intra predicted image generation unit 310. The resampling unit 314 includes an inter-layer image mapping unit 315 and an inter-layer motion mapping unit 316.

可変長復号部301は、外部から入力された対象レイヤ符号化データDATA#Tに対して可変長復号を行って、個々の符号(シンタックス要素)を分離し復号する。分離された符号には、予測画像を生成するための予測情報および、差分画像を生成するための残差情報などがある。   The variable length decoding unit 301 performs variable length decoding on target layer encoded data DATA # T input from the outside, and separates and decodes individual codes (syntax elements). The separated codes include prediction information for generating a prediction image and residual information for generating a difference image.

可変長復号部301は、分離した符号の一部を予測パラメータ復号部302に出力する。分離した符号の一部とは、例えば、予測モードpredMode、分割モードpart_mode、マージフラグmerge_flag、マージインデックスmerge_idx、インター予測フラグinter_pred_idc、参照ピクチャインデックスrefIdxLX、予測ベクトルインデックスmvp_LX_idx、差分ベクトルmvdLX、レイヤ数vps_max_layers_minus1(図3上のSYNVPS01)、レイヤ識別子指定情報(図3上のSYNVPS02)、参照レイヤ指定情報(図3上のSYNVPS04)、レイヤ従属タイプ情報(図3上のSYNVPS05)、参照レイヤ対応領域情報(図5上のSYNSPS02)、レイヤ間画像予測制約フラグ(図5上のSYNSPS03)、アクティブ参照レイヤ指定情報(図7上のSYNSH01)、アクティブ参照レイヤ対応領域情報(図7上のSYNSH02)、コロケート情報collocated_from_l0_flag,collocated_ref_idx, alt_collocated_indication_flag, collocated_ref_layer_idexなどである。どの符号を復号するか否かの制御は、予測パラメータ復号部302の指示に基づいて行われる。可変長復号部301は、量子化係数を逆量子化・逆DCT部311に出力する。この量子化係数は、符号化処理において、残差信号に対してDCT(Discrete Cosine Transform、離散コサイン変換)を行い量子化して得られる係数である。   The variable length decoding unit 301 outputs a part of the separated code to the prediction parameter decoding unit 302. Some of the separated codes are, for example, prediction mode predMode, split mode part_mode, merge flag merge_flag, merge index merge_idx, inter prediction flag inter_pred_idc, reference picture index refIdxLX, prediction vector index mvp_LX_idx, difference vector mvdLX, number of layers vps_max_layers_minus1 ( SYNVPS01 in FIG. 3), layer identifier designation information (SYNVPS02 in FIG. 3), reference layer designation information (SYNVPS04 in FIG. 3), layer dependent type information (SYNVPS05 in FIG. 3), reference layer corresponding area information (FIG. 5), inter-layer image prediction constraint flag (SYNSPS03 in FIG. 5), active reference layer designation information (SYNSH01 in FIG. 7), active reference layer corresponding region information (SYNSH02 in FIG. 7), collocated information collocated_from_l0_flag Collocated_ref_idx, alt_collocated_indication_flag, collocated_ref_layer_idex, etc. Control of which code to decode is performed based on an instruction from the prediction parameter decoding unit 302. The variable length decoding unit 301 outputs the quantized coefficient to the inverse quantization / inverse DCT unit 311. This quantization coefficient is a coefficient obtained by performing quantization and performing DCT (Discrete Cosine Transform) on the residual signal in the encoding process.

予測パラメータ復号部302は、可変長復号部301から入力された符号に基づいて、インター予測パラメータまたはイントラ予測パラメータを復号する。そして、復号された予測パラメータを予測画像生成部308に出力し、また予測パラメータメモリ307に記憶する。予測パラメータ復号部302は、また、テンポラル動き情報を指定するためのコロケート情報collocated_from_l0_flag、collocated_ref_idx, alt_collocated_indication_flag, collocated_ref_layer_idexを抽出し、予測パラメータメモリ307に記憶する。   The prediction parameter decoding unit 302 decodes the inter prediction parameter or the intra prediction parameter based on the code input from the variable length decoding unit 301. The decoded prediction parameter is output to the prediction image generation unit 308 and stored in the prediction parameter memory 307. The prediction parameter decoding unit 302 also extracts collocated information collocated_from_l0_flag, collocated_ref_idx, alt_collocated_indication_flag, and collocated_ref_layer_idex for designating temporal motion information, and stores them in the prediction parameter memory 307.

インター予測パラメータ復号部303は、予測パラメータメモリ307に記憶された予測パラメータを参照してインター予測パラメータを出力する。インター予測パラメータ復号部303の詳細については後述する。   The inter prediction parameter decoding unit 303 refers to the prediction parameters stored in the prediction parameter memory 307 and outputs inter prediction parameters. Details of the inter prediction parameter decoding unit 303 will be described later.

イントラ予測パラメータ復号部304は、可変長復号部301から入力された符号に基づいて、予測パラメータメモリ307に記憶された予測パラメータを参照してイントラ予測パラメータを復号する。イントラ予測パラメータとは、ピクチャブロックを1つのピクチャ内で予測する処理で用いるパラメータ、例えば、イントラ予測モードIntraPredModeである。イントラ予測パラメータ復号部304は、復号したイントラ予測パラメータを予測画像生成部308に出力し、また予測パラメータメモリ307に記憶する。   The intra prediction parameter decoding unit 304 decodes the intra prediction parameter with reference to the prediction parameter stored in the prediction parameter memory 307 based on the code input from the variable length decoding unit 301. The intra prediction parameter is a parameter used in a process of predicting a picture block within one picture, for example, an intra prediction mode IntraPredMode. The intra prediction parameter decoding unit 304 outputs the decoded intra prediction parameter to the prediction image generation unit 308 and stores it in the prediction parameter memory 307.

レイヤ間情報導出部320は、復号された参照レイヤ対応領域情報に基づいて、対象レイヤiが参照する参照レイヤjに関するレイヤ間対応関係パラメータとして、リサンプル参照レイヤピクチャrsPic上における参照レイヤ対応領域SRLAの位置を示すオフセットOffsetL、OffsetT、OffsetR、OffsetBを前述の式(G-1)〜(G-4)を用いて導出し、参照レイヤ対応領域SRLAの横幅SRLPWおよび縦幅SRLPHを前述の式(G-5)〜(G-6)を用いて導出する。   The inter-layer information deriving unit 320 uses the reference layer corresponding region SRLA on the resampled reference layer picture rsPic as an inter-layer correspondence parameter for the reference layer j referenced by the target layer i based on the decoded reference layer corresponding region information. The offsets OffsetL, OffsetT, OffsetR, and OffsetB that indicate the positions of the reference layer corresponding to the reference layer corresponding region SRLA and the vertical width SRLPH are derived using the above equations (G-1) to (G-4). Derived using G-5) to (G-6).

続いて、対象レイヤiが参照する参照レイヤjに対応するアクティブ参照レイヤ対応領域情報があれば、その情報を用いて参照レイヤ対応領域SRLAの位置を示すオフセットOffsetL、OffsetT、OffsetR、OffsetB、および参照レイヤ対応領域SRLAの横幅SRLPWと縦幅SRLPHを再設定する。   Subsequently, if there is active reference layer corresponding area information corresponding to the reference layer j referred to by the target layer i, the offsets OffsetL, OffsetT, OffsetR, OffsetB indicating the position of the reference layer corresponding area SRLA using the information, and the reference The horizontal width SRLPW and vertical width SRLPH of the layer corresponding area SRLA are reset.

(図7のSYNSH02を用いる場合)
アクティブ参照レイヤ対応領域情報として、図7のSYNSH02を用いる場合は、オフセットOffsetL, OffsetT, OffsetR, およびOffsetBを前述の式(G-1A)〜(G-4A)により導出し、参照レイヤ対応領域SRLAの横幅SRLPW、及び縦幅SRLPHを前述の式(G-5)〜(G-6)により導出する。
(When using SYNSH02 in Fig. 7)
When SYNSH02 of FIG. 7 is used as the active reference layer corresponding region information, the offsets OffsetL, OffsetT, OffsetR, and OffsetB are derived by the above formulas (G-1A) to (G-4A), and the reference layer corresponding region SRLA The horizontal width SRLPW and the vertical width SRLPH are derived by the above-described equations (G-5) to (G-6).

(図8のSYNSH03を用いる場合)
また、アクティブ参照レイヤ対応領域情報として、図8のSYNSH03を用いる場合は、導出済のオフセットOffsetL, OffsetT, OffsetR, およびOffsetBに対して、それぞれ差分値ΔL、ΔT、ΔR、ΔB(図9)を加算し、オフセットOffsetL’, OffsetT’, OffsetR’, OffsetB’を導出する(前述の式(G-1B)〜(G-4B)が対応)。その後、
アクティブ参照レイヤ対応領域SRLA’の横幅SRLPW’、及び縦幅SRLPH’を前述の式(G-5A)〜(G-6A)により導出する。
(When using SYNSH03 in Fig. 8)
When SYNSH03 in FIG. 8 is used as the active reference layer corresponding region information, difference values ΔL, ΔT, ΔR, and ΔB (FIG. 9) are respectively obtained for the derived offsets OffsetL, OffsetT, OffsetR, and OffsetB. Addition is performed to derive offsets OffsetL ′, OffsetT ′, OffsetR ′, and OffsetB ′ (corresponding to the equations (G-1B) to (G-4B) described above). after that,
The horizontal width SRLPW ′ and the vertical width SRLPH ′ of the active reference layer corresponding region SRLA ′ are derived by the above-described equations (G-5A) to (G-6A).

続いて、参照レイヤ対応領域SRLAと参照レイヤピクチャrlPicの横幅のサイズ比ScaleFactorXと縦幅のサイズ比ScaleFactorYを前述の式(G-7)〜(G-8)を用いて導出する。   Subsequently, the horizontal width size ratio ScaleFactorX and the vertical width size ratio ScaleFactorY of the reference layer corresponding region SRLA and the reference layer picture rlPic are derived using the above-described equations (G-7) to (G-8).

レイヤ間情報導出部3020にて導出されたレイヤ間対応関係パラメータ(OffsetL、OffsetT、OffsetR、OffsetB、SRLPW、SRLPH、ScaleFactorX、ScaleFactorY等)は予測パラメータメモリ307で記憶される。   Inter-layer correspondence parameters (OffsetL, OffsetT, OffsetR, OffsetB, SRLPW, SRLPH, ScaleFactorX, ScaleFactorY, etc.) derived by the inter-layer information deriving unit 3020 are stored in the prediction parameter memory 307.

参照ピクチャメモリ306は、後述する加算部312が生成した参照ピクチャのブロック(参照ピクチャブロック)を、復号対象のピクチャ及びブロック毎に予め定めた位置に記憶する。   The reference picture memory 306 stores a reference picture block (reference picture block) generated by an adder 312 described later at a predetermined position for each picture and block to be decoded.

予測パラメータメモリ307は、予測パラメータを、復号対象のピクチャ及びブロック毎に予め定めた位置に記憶する。具体的には、予測パラメータメモリ307は、インター予測パラメータ復号部303が復号したインター予測パラメータ、イントラ予測パラメータ復号部304が復号したイントラ予測パラメータ及び可変長復号部301が分離した予測モードpredModeを記憶する。記憶されるインター予測パラメータには、例えば、予測リスト利用フラグpredFlagLX(インター予測識別子inter_pred_idc)、参照ピクチャインデックスrefIdxLX、ベクトルmvLXがある。   The prediction parameter memory 307 stores the prediction parameter at a predetermined position for each picture and block to be decoded. Specifically, the prediction parameter memory 307 stores the inter prediction parameter decoded by the inter prediction parameter decoding unit 303, the intra prediction parameter decoded by the intra prediction parameter decoding unit 304, and the prediction mode predMode separated by the variable length decoding unit 301. To do. The stored inter prediction parameters include, for example, a prediction list utilization flag predFlagLX (inter prediction identifier inter_pred_idc), a reference picture index refIdxLX, and a vector mvLX.

予測画像生成部308には、可変長復号部301から入力された予測モードpredModeが入力され、また予測パラメータ復号部302から予測パラメータが入力される。また、予測画像生成部308は、参照ピクチャメモリ306から参照ピクチャを読み出す。予測画像生成部308は、予測モードpredModeが示す予測モードに応じて、入力された予測パラメータと読み出した参照ピクチャを用いて予測ピクチャブロックP(予測画像)を生成する。   The prediction image generation unit 308 receives the prediction mode predMode input from the variable length decoding unit 301 and the prediction parameter from the prediction parameter decoding unit 302. Further, the predicted image generation unit 308 reads a reference picture from the reference picture memory 306. The predicted image generation unit 308 generates a predicted picture block P (predicted image) using the input prediction parameter and the read reference picture according to the prediction mode indicated by the prediction mode predMode.

ここで、予測モードpredModeがインター予測モードを示す場合、インター予測画像生成部309は、インター予測パラメータ復号部303から入力されたインター予測パラメータと読み出した参照ピクチャを用いてインター予測により予測ピクチャブロックPを生成する。予測ピクチャブロックPはPUに対応する。PUは、上述したように予測処理を行う単位となる複数の画素からなるピクチャの一部分、つまり1度に予測処理が行われる復号対象ブロックに相当する。   Here, when the prediction mode predMode indicates the inter prediction mode, the inter prediction image generation unit 309 uses the inter prediction parameter input from the inter prediction parameter decoding unit 303 and the read reference picture to perform the prediction picture block P by inter prediction. Is generated. The predicted picture block P corresponds to the PU. The PU corresponds to a part of a picture composed of a plurality of pixels as a unit for performing the prediction process as described above, that is, a decoding target block on which the prediction process is performed at once.

インター予測画像生成部309は、予測リスト利用フラグpredFlagLXが1である参照ピクチャリスト(L0リスト、もしくはL1リスト)に対し、参照ピクチャインデックスrefIdxLXで示される参照ピクチャから、復号対象ブロックを基準としてベクトルmvLXが示す位置にある参照ピクチャブロックを参照ピクチャメモリ306から読み出す。インター予測画像生成部309は、読み出した参照ピクチャブロックについて予測を行って予測ピクチャブロックPを生成する。インター予測画像生成部309は、生成した予測ピクチャブロックPを加算部312に出力する。   For the reference picture list (L0 list or L1 list) for which the prediction list use flag predFlagLX is 1, the inter predicted image generation unit 309 generates a vector mvLX based on the decoding target block from the reference picture indicated by the reference picture index refIdxLX. The reference picture block at the position indicated by is read from the reference picture memory 306. The inter prediction image generation unit 309 performs prediction on the read reference picture block to generate a prediction picture block P. The inter prediction image generation unit 309 outputs the generated prediction picture block P to the addition unit 312.

予測モードpredModeがイントラ予測モードを示す場合、イントラ予測画像生成部310は、イントラ予測パラメータ復号部304から入力されたイントラ予測パラメータと読み出した参照ピクチャを用いてイントラ予測を行う。具体的には、イントラ予測画像生成部310は、復号対象のピクチャであって、既に復号されたブロックのうち復号対象ブロックから予め定めた範囲にある参照ピクチャブロックを参照ピクチャメモリ306から読み出す。予め定めた範囲とは、復号対象ブロックがいわゆるラスタースキャンの順序で順次移動する場合、例えば、左、左上、上、右上の隣接ブロックのうちのいずれかであり、イントラ予測モードによって異なる。ラスタースキャンの順序とは、各ピクチャにおいて、上端から下端まで各行について、順次左端から右端まで移動させる順序である。   When the prediction mode predMode indicates the intra prediction mode, the intra predicted image generation unit 310 performs intra prediction using the intra prediction parameter input from the intra prediction parameter decoding unit 304 and the read reference picture. Specifically, the intra predicted image generation unit 310 reads, from the reference picture memory 306, a reference picture block that is a decoding target picture and is in a predetermined range from the decoding target block among blocks that have already been decoded. The predetermined range is, for example, any of the left, upper left, upper, and upper right adjacent blocks when the decoding target block sequentially moves in a so-called raster scan order, and varies depending on the intra prediction mode. The raster scan order is an order in which each row is sequentially moved from the left end to the right end in each picture from the upper end to the lower end.

イントラ予測画像生成部310は、読み出した参照ピクチャブロックについてイントラ予測モードIntraPredModeが示す予測モードで予測を行って予測ピクチャブロックを生成する。イントラ予測画像生成部310は、生成した予測ピクチャブロックPを加算部312に出力する。   The intra predicted image generation unit 310 generates a predicted picture block by performing prediction in the prediction mode indicated by the intra prediction mode IntraPredMode for the read reference picture block. The intra predicted image generation unit 310 outputs the generated predicted picture block P to the addition unit 312.

逆量子化・逆DCT部311は、可変長復号部301から入力された量子化係数を逆量子化してDCT係数を求める。逆量子化・逆DCT部311は、求めたDCT係数について逆DCT(Inverse Discrete Cosine Transform、逆離散コサイン変換)を行い、復号残差信号を算出する。逆量子化・逆DCT部311は、算出した復号残差信号を加算部312に出力する。   The inverse quantization / inverse DCT unit 311 inversely quantizes the quantization coefficient input from the variable length decoding unit 301 to obtain a DCT coefficient. The inverse quantization / inverse DCT unit 311 performs inverse DCT (Inverse Discrete Cosine Transform) on the obtained DCT coefficient to calculate a decoded residual signal. The inverse quantization / inverse DCT unit 311 outputs the calculated decoded residual signal to the adder 312.

加算部312は、インター予測画像生成部309及びイントラ予測画像生成部310から入力された予測ピクチャブロックPと逆量子化・逆DCT部311から入力された復号残差信号の信号値を画素毎に加算して、参照ピクチャブロックを生成する。加算部312は、生成した参照ピクチャブロックを参照ピクチャメモリ306に記憶し、生成した参照ピクチャブロックをピクチャ毎に統合した対象レイヤ復号ピクチャPOUT#Tを外部に出力する。   The adder 312 outputs the prediction picture block P input from the inter prediction image generation unit 309 and the intra prediction image generation unit 310 and the signal value of the decoded residual signal input from the inverse quantization / inverse DCT unit 311 for each pixel. Addition to generate a reference picture block. The adder 312 stores the generated reference picture block in the reference picture memory 306, and outputs the target layer decoded picture POUT # T in which the generated reference picture block is integrated for each picture to the outside.

リサンプリング部314は、予測パラメータメモリ307に記録された参照レイヤ対応領域情報、レイヤ間画像予測制約フラグ、およびアクティブ参照レイヤ対応領域情報と、参照レイヤピクチャ復号部15で復号された参照レイヤ復号ピクチャ(参照レイヤピクチャrlPicと呼ぶ)の動き情報rlPicMotion、及び画像rlPicSampleを用いて、リサンプル参照レイヤピクチャrsPicのリサンプル動き情報rsPicMotion及びリサンプル画像rsPicSampleをそれぞれレイヤ間動きマッピング部316、レイヤ間画像マッピング部315において生成する。生成されたリサンプル動き情報rsPicMotionは、予測パラメータメモリ307に格納される。また、生成されたリサンプル画像rsPicSampleは参照ピクチャメモリ306に格納される。なお、レイヤ間画像マッピング部315、およびレイヤ間動きマッピング部316の詳細は後述する。   The resampling unit 314 includes the reference layer corresponding region information, the inter-layer image prediction constraint flag, and the active reference layer corresponding region information recorded in the prediction parameter memory 307, and the reference layer decoded picture decoded by the reference layer picture decoding unit 15. Using the motion information rlPicMotion (referred to as the reference layer picture rlPic) and the image rlPicSample, the resample motion information rsPicMotion and the resampled image rsPicSample of the resample reference layer picture rsPic are respectively inter-layer motion mapping unit 316 and inter-layer image mapping. Generated in part 315. The generated resample motion information rsPicMotion is stored in the prediction parameter memory 307. The generated resample image rsPicSample is stored in the reference picture memory 306. Details of the inter-layer image mapping unit 315 and the inter-layer motion mapping unit 316 will be described later.

(インター予測パラメータ復号部の構成)
次に、インター予測パラメータ復号部303の構成について説明する。図14_は、本実施形態に係るインター予測パラメータ復号部303の構成を示す概略図である。インター予測パラメータ復号部303は、インター予測パラメータ復号制御部3031、AMVP予測パラメータ導出部3032、加算部3035、およびマージ予測パラメータ導出部3036を含んで構成される。
(Configuration of inter prediction parameter decoding unit)
Next, the configuration of the inter prediction parameter decoding unit 303 will be described. FIG. 14_ is a schematic diagram illustrating a configuration of the inter prediction parameter decoding unit 303 according to the present embodiment. The inter prediction parameter decoding unit 303 includes an inter prediction parameter decoding control unit 3031, an AMVP prediction parameter derivation unit 3032, an addition unit 3035, and a merge prediction parameter derivation unit 3036.

インター予測パラメータ復号制御部3031は、インター予測に関連する符号(シンタックス要素の復号を可変長復号部301に指示し、符号化データに含まれる符号(シンタックス要素)を例えば、分割モードpart_mode、マージフラグmerge_flag、マージインデックスmerge_idx、インター予測識別子inter_pred_idc、参照ピクチャインデックスrefIdxLX、予測ベクトルインデックスmvp_LX_idx、差分ベクトルmvdLXを抽出する。   The inter prediction parameter decoding control unit 3031 instructs the variable length decoding unit 301 to decode a code related to inter prediction (syntax element decoding), and the code (syntax element) included in the encoded data is, for example, a division mode part_mode, Merge flag merge_flag, merge index merge_idx, inter prediction identifier inter_pred_idc, reference picture index refIdxLX, prediction vector index mvp_LX_idx, and difference vector mvdLX are extracted.

インター予測パラメータ復号制御部3031は、まず、マージフラグmerge_flagを抽出する。ここ以降、インター予測パラメータ復号制御部3031があるシンタックス要素を抽出すると表現する場合は、あるシンタックス要素の復号を可変長復号部301に指示し、該当のシンタックス要素を符号化データから読み出すことを意味する。ここで、マージフラグが示す値が1、すなわち、マージ予測モードを示す場合、インター予測パラメータ復号制御部3031は、マージ予測に係る予測パラメータとして、マージインデックスmerge_idxを抽出する。インター予測パラメータ復号制御部3031は、抽出したマージインデックスmerge_idxをマージ予測パラメータ導出部3036に出力する。   The inter prediction parameter decoding control unit 3031 first extracts a merge flag merge_flag. Hereinafter, when expressing that the inter prediction parameter decoding control unit 3031 extracts a syntax element, the variable length decoding unit 301 is instructed to decode a certain syntax element, and the corresponding syntax element is read from the encoded data. Means that. Here, when the value indicated by the merge flag is 1, that is, indicates the merge prediction mode, the inter prediction parameter decoding control unit 3031 extracts the merge index merge_idx as a prediction parameter related to merge prediction. The inter prediction parameter decoding control unit 3031 outputs the extracted merge index merge_idx to the merge prediction parameter derivation unit 3036.

マージフラグmerge_flagが0、すなわち、AMVP予測モードを示す場合、インター予測パラメータ復号制御部3031は、AMVP予測パラメータを抽出する。AMVP予測パラメータとして、例えば、インター予測識別子inter_pred_idc、参照ピクチャインデックスrefIdxLX、ベクトルインデックスmvp_LX_idx、差分ベクトルmvdLXがある。インター予測パラメータ復号制御部3031は、抽出したインター予測識別子inter_pred_idcから導出した予測リスト利用フラグpredFlagLXと、参照ピクチャインデックスrefIdxLXをAMVP予測パラメータ導出部3032及び予測画像生成部308(図13)に出力し、また予測パラメータメモリ307(図13)に記憶する。インター予測パラメータ復号制御部3031は、抽出したベクトルインデックスmvp_LX_idxをAMVP予測パラメータ導出部3032(動き情報導出部)に出力する。インター予測パラメータ復号制御部3031は、抽出した差分ベクトルmvdLXを加算部3035に出力する。   When the merge flag merge_flag is 0, that is, indicates the AMVP prediction mode, the inter prediction parameter decoding control unit 3031 extracts the AMVP prediction parameter. As an AMVP prediction parameter, for example, there are an inter prediction identifier inter_pred_idc, a reference picture index refIdxLX, a vector index mvp_LX_idx, and a difference vector mvdLX. The inter prediction parameter decoding control unit 3031 outputs the prediction list use flag predFlagLX derived from the extracted inter prediction identifier inter_pred_idc and the reference picture index refIdxLX to the AMVP prediction parameter derivation unit 3032 and the prediction image generation unit 308 (FIG. 13). Moreover, it memorize | stores in the prediction parameter memory 307 (FIG. 13). The inter prediction parameter decoding control unit 3031 outputs the extracted vector index mvp_LX_idx to the AMVP prediction parameter deriving unit 3032 (motion information deriving unit). The inter prediction parameter decoding control unit 3031 outputs the extracted difference vector mvdLX to the addition unit 3035.

図15は、本実施形態に係るマージ予測パラメータ導出部3036(動き情報導出部)の構成を示す概略図である。マージ予測パラメータ導出部3036は、マージ候補導出部30361とマージ候補選択部30362を備える。マージ候補導出部30361は、マージ候補格納部303611と、基本マージ候補導出部303613を含んで構成される。   FIG. 15 is a schematic diagram illustrating a configuration of the merge prediction parameter deriving unit 3036 (motion information deriving unit) according to the present embodiment. The merge prediction parameter derivation unit 3036 includes a merge candidate derivation unit 30361 and a merge candidate selection unit 30362. The merge candidate derivation unit 30361 includes a merge candidate storage unit 303611 and a basic merge candidate derivation unit 303613.

マージ候補格納部303611は、基本マージ候補導出部303613から入力されたマージ候補を格納する。なお、マージ候補は、予測リスト利用フラグpredFlagLX、ベクトルmvLX、参照ピクチャインデックスrefIdxLXを含んで構成されている。   The merge candidate storage unit 303611 stores the merge candidate input from the basic merge candidate derivation unit 303613. The merge candidate includes a prediction list use flag predFlagLX, a vector mvLX, and a reference picture index refIdxLX.

基本マージ候補導出部303613は、空間マージ候補導出部3036131と時間マージ候補導出部3036132と結合マージ候補導出部3036133とゼロマージ候補導出部3036134を含んで構成される。   The basic merge candidate derivation unit 303613 includes a spatial merge candidate derivation unit 3036131, a temporal merge candidate derivation unit 3036132, a merge merge candidate derivation unit 3036133, and a zero merge candidate derivation unit 3036134.

空間マージ候補導出部3036131は、所定の規則に従って、予測パラメータメモリ307が記憶している予測パラメータ(予測リスト利用フラグpredFlagLX、ベクトルmvLX、参照ピクチャインデックスrefIdxLX)を読み出し、読み出した予測パラメータをマージ候補として導出する。読み出される予測パラメータは、復号対象ブロックから予め定めた範囲内にあるブロック(例えば、復号対象ブロックの左下端、左上端、右上端にそれぞれ接するブロックの全部又は一部)のそれぞれに係る予測パラメータである。導出されたマージ候補はマージ候補格納部303611に格納される。   The spatial merge candidate derivation unit 3036131 reads the prediction parameters (prediction list use flag predFlagLX, vector mvLX, reference picture index refIdxLX) stored in the prediction parameter memory 307 according to a predetermined rule, and uses the read prediction parameters as merge candidates. To derive. The prediction parameter to be read is a prediction parameter relating to each of the blocks within a predetermined range from the decoding target block (for example, all or a part of the blocks in contact with the lower left end, upper left upper end, and upper right end of the decoding target block, respectively). is there. The derived merge candidates are stored in the merge candidate storage unit 303611.

時間マージ候補導出部3036132は、復号対象ブロックが含まれるスライスのスライスヘッダ内の、テンポラル動き情報を指定するためのコロケート情報collocated_from_l0_flag, collocated_ref_idx, alt_collocated_indication_flag, collocated_ref_layer_idxにより指定される参照ピクチャcolPicの動き情報を予測パラメータメモリ307より参照し、時間マージ候補と呼ばれる動き情報を導出する。なお、alt_collocated_indication_flagの値が0の場合、collocated_from_l0_flag、collocated_ref_idxによって指定される同一レイヤ上の参照ピクチャcolPicの動き情報に基づいて、時間マージ候補の動き情報を導出する。一方、alt_collocated_indication_flagの値が1の場合、collocated_ref_layer_idxによって指定される参照レイヤピクチャrlPicの動き情報rlPicMotionをレイヤ間動きマッピング315によりリサンプルされたリサンプル動き情報rsPicMotionに基づいて、時間マージ候補の動き情報を導出する。   The temporal merge candidate derivation unit 3036132 predicts motion information of the reference picture colPic specified by collocated information collocated_from_l0_flag, collocated_ref_idx, alt_collocated_indication_flag, and collocated_ref_layer_idx in the slice header of the slice including the decoding target block. By referring to the parameter memory 307, motion information called a time merge candidate is derived. When the value of alt_collocated_indication_flag is 0, temporal merge candidate motion information is derived based on the motion information of the reference picture colPic on the same layer specified by collocated_from_l0_flag and collocated_ref_idx. On the other hand, when the value of alt_collocated_indication_flag is 1, based on the resampled motion information rsPicMotion resampled by the inter-layer motion mapping 315, the motion information of the reference layer picture rlPic specified by collocated_ref_layer_idx is used as the motion information of the temporal merge candidate. To derive.

復号対象ブロックの右下座標BRを含む参照ピクチャcolPic中のブロックの予測パラメータを予測パラメータメモリ307から読みだしマージ候補とする。参照ピクチャcolPic及び右下座標BRの導出方法は、時間ベクトル候補導出部303322の方法と同一であるので後述する。なお、時間マージ候補導出部3036132および時間ベクトル候補導出部303322で参照される動き情報をテンポラル動き情報と呼ぶ。導出されたマージ候補はマージ候補格納部303611に格納される。   A prediction parameter of a block in the reference picture colPic including the lower right coordinate BR of the decoding target block is read from the prediction parameter memory 307 and set as a merge candidate. The method of deriving the reference picture colPic and the lower right coordinate BR is the same as the method of the time vector candidate deriving unit 303322, and will be described later. Note that the motion information referenced by the temporal merge candidate derivation unit 3036132 and the temporal vector candidate derivation unit 303322 is referred to as temporal motion information. The derived merge candidates are stored in the merge candidate storage unit 303611.

図16に、復号対象ブロックXに関して、空間マージ候補導出の際に予測パラメータを読み出す対象とするブロック(座標A0,A1,B0,B1,B2を含むブロック)の位置関係の例を示す。また、復号対象ブロックXに関して、時間マージ候補導出の際に予測パラメータ(動き情報)を参照する対象とする参照ピクチャcolPic内のブロック(座標BRを含むブロック)の位置関係の例を示す。図中のブロックYは、復号対象ブロックXに対応する位置にある、参照ピクチャcolPic内のブロックである。なお、これらブロック位置の関係については、後述する空間ベクトル候補導出部303321においてベクトル候補を導出する際に予測パラメータを読み出す対象とするブロック位置および、時間ベクトル候補導出部303322においてベクトル候補を導出する際に予測パラメータ(動き情報)を参照する対象とするブロック位置も、それぞれ同様の関係がある。   FIG. 16 shows an example of the positional relationship of a block (a block including coordinates A0, A1, B0, B1, and B2) from which a prediction parameter is read out when a spatial merge candidate is derived with respect to the decoding target block X. In addition, regarding the decoding target block X, an example of the positional relationship of the blocks (blocks including the coordinate BR) in the reference picture colPic that is a target for referring to the prediction parameter (motion information) when the temporal merge candidate is derived is shown. The block Y in the figure is a block in the reference picture colPic at a position corresponding to the decoding target block X. Regarding the relationship between these block positions, the block position from which the prediction parameter is read when the vector candidate is derived in the space vector candidate deriving unit 303321 described later and the vector candidate in the time vector candidate deriving unit 303322 are derived. Similarly, the block positions targeted for reference to the prediction parameters (motion information) have the same relationship.

結合マージ候補導出部3036133は、既に導出されマージ候補格納部303611に格納された2つの異なる導出済マージ候補のベクトルと参照ピクチャインデックスを、それぞれL0、L1のベクトルとして組み合わせることで結合マージ候補を導出する。導出されたマージ候補はマージ候補格納部303611に格納される。   The merge merge candidate derivation unit 3036133 derives merge merge candidates by combining two different derived merge candidate vectors and reference picture indexes already derived and stored in the merge candidate storage unit 303611 as L0 and L1 vectors, respectively. To do. The derived merge candidates are stored in the merge candidate storage unit 303611.

ゼロマージ候補導出部3036134は、参照ピクチャインデックスrefIdxLXが0であり、ベクトルmvLXのX成分、Y成分が共に0であるマージ候補を導出する。導出されたマージ候補はマージ候補格納部303611に格納される。   The zero merge candidate derivation unit 3036134 derives a merge candidate in which the reference picture index refIdxLX is 0 and both the X component and the Y component of the vector mvLX are 0. The derived merge candidates are stored in the merge candidate storage unit 303611.

マージ候補選択部30362は、マージ候補格納部303611に格納されているマージ候補のうち、インター予測パラメータ復号制御部3031から入力されたマージインデックスmerge_idxに対応するインデックスが割り当てられたマージ候補を、対象PUのインター予測パラメータとして選択する。マージ候補選択部30362は選択したマージ候補を予測パラメータメモリ307(図13)に記憶するとともに、予測画像生成部308(図13)に出力する。   The merge candidate selection unit 30362 selects, from the merge candidates stored in the merge candidate storage unit 303611, a merge candidate to which an index corresponding to the merge index merge_idx input from the inter prediction parameter decoding control unit 3031 is assigned. As an inter prediction parameter. The merge candidate selection unit 30362 stores the selected merge candidate in the prediction parameter memory 307 (FIG. 13) and outputs it to the prediction image generation unit 308 (FIG. 13).

図17は、本実施形態に係るAMVP予測パラメータ導出部3032の構成を示す概略図である。AMVP予測パラメータ導出部3032は、ベクトル候補導出部3033と予測ベクトル選択部3034を備える。   FIG. 17 is a schematic diagram illustrating the configuration of the AMVP prediction parameter deriving unit 3032 according to the present embodiment. The AMVP prediction parameter derivation unit 3032 includes a vector candidate derivation unit 3033 and a prediction vector selection unit 3034.

ベクトル候補導出部3033は、参照ピクチャインデックスrefIdxに基づいて予測パラメータメモリ307(図13)が記憶するベクトル(動きベクトル又は変位ベクトル)をベクトル候補mvpLXとして読み出し、所定の数のベクトル候補を導出してベクトル候補格納部30331へ格納する。導出されるベクトルは、空間ベクトル候補導出部303321、時間ベクトル候補導出部303322、ゼロベクトル候補導出部303323により決定される。   The vector candidate derivation unit 3033 reads a vector (motion vector or displacement vector) stored in the prediction parameter memory 307 (FIG. 13) as a vector candidate mvpLX based on the reference picture index refIdx, and derives a predetermined number of vector candidates. Store in the vector candidate storage unit 30331. The derived vector is determined by a space vector candidate derivation unit 303321, a time vector candidate derivation unit 303322, and a zero vector candidate derivation unit 303323.

空間ベクトル候補導出部303321は、復号対象ブロックから予め定めた範囲内にあるブロック(例えば、復号対象ブロックの左下端、左上端、右上端にそれぞれ接するブロックの全部又は一部)のそれぞれに係るベクトルを予測パラメータメモリから読み出してベクトル候補とする。   The space vector candidate derivation unit 303321 is a vector related to each of the blocks within a predetermined range from the decoding target block (for example, all or a part of the blocks touching the lower left end, the upper left end, and the upper right end of the decoding target block). Are read out from the prediction parameter memory and set as vector candidates.

時間ベクトル候補導出部303322は、復号対象ブロックが含まれるスライスのスライスヘッダ内の、テンポラル動き情報を指定するためのコロケート情報collocated_from_l0_flag、collocated_ref_idx、alt_collocated_indication_flag、collocated_ref_layer_idxにより指定される参照ピクチャcolPicの動き情報を予測パラメータメモリ307より参照し、時間ベクトル候補と呼ばれる動き情報を導出する。復号対象ブロックの右下の座標を含む参照ピクチャ中のブロックに係るベクトルを予測パラメータメモリ307から読み出してベクトル候補とする。なお、alt_collocated_indication_flagの値が0の場合、collocated_from_l0_flag、collocated_ref_idxによって指定される同一レイヤ上の参照ピクチャcolPicの動き情報に基づいて、時間ベクトル候補の動き情報を導出する。一方、alt_collocated_indication_flagの値が1の場合、collocated_ref_layer_idxによって指定される参照レイヤピクチャrlPicの動き情報rlPicMotionをレイヤ間動きマッピング315によりリサンプルされたリサンプル動き情報rsPicMotionに基づいて、時間動きベクトル候補の動き情報を導出する。   The time vector candidate derivation unit 303322 predicts the motion information of the reference picture colPic specified by the collocated information collocated_from_l0_flag, collocated_ref_idx, alt_collocated_indication_flag, and collocated_ref_layer_idx for specifying temporal motion information in the slice header of the slice including the decoding target block By referring to the parameter memory 307, motion information called a time vector candidate is derived. A vector related to the block in the reference picture including the lower right coordinate of the decoding target block is read from the prediction parameter memory 307 and set as a vector candidate. When the value of alt_collocated_indication_flag is 0, the motion information of the time vector candidate is derived based on the motion information of the reference picture colPic on the same layer specified by collocated_from_l0_flag and collocated_ref_idx. On the other hand, when the value of alt_collocated_indication_flag is 1, based on the resampled motion information rsPicMotion resampled by the inter-layer motion mapping 315, the motion information rlPicMotion of the reference layer picture rlPic specified by collocated_ref_layer_idx is motion information of temporal motion vector candidates. Is derived.

参照ピクチャcolPicと右下座標BRの導出方法を以下説明する。レイヤ間動き予測フラグalt_collocated_indication_flagが1に等しい時、対象ピクチャと同一アクセスユニット内にあるコロケート参照レイヤインデックスcollocated_ref_layer_idxが指定するアクティブ参照レイヤActiveMotionPredRefLayerId[collocated_ref_layer_idx]のリサンプル参照レイヤピクチャrsPicを、テンポラル動き情報の対象となる参照ピクチャcolPicとする。レイヤ間動き予測フラグalt_collocated_indication_flagが0に等しい場合は、次のように参照ピクチャcolPicを導出する。復号対象ブロックを含むスライスのスライスタイプがBスライスの場合で、かつコロケート情報collocated_from_l0_flagが0に等しい時、参照ピクチャリストL1内で、テンポラルインデックスcollocated_ref_idxが指す位置の参照ピクチャ(=RefPicList1[collocated_ref_idx])を、テンポラル動き情報の対象となる参照ピクチャcolPicとする。一方、スライスタイプがBスライスの場合でも上記の条件にあてはまらないか、またはスライスタイプがPスライスの場合、参照ピクチャリストL0内で、インデックスcollocated_ref_idxが指す位置の参照ピクチャ(=RefPicList0[collocated_ref_idx])を、テンポラル動き情報の対象となる参照ピクチャcolPicとする。   A method for deriving the reference picture colPic and the lower right coordinate BR will be described below. When the inter-layer motion prediction flag alt_collocated_indication_flag is equal to 1, the resampled reference layer picture rsPic of the active reference layer ActiveMotionPredRefLayerId [collocated_ref_layer_idx] specified by the collocated reference layer index collocated_ref_layer_idx in the same access unit as the target picture is the target of temporal motion information The reference picture colPic is When the inter-layer motion prediction flag alt_collocated_indication_flag is equal to 0, the reference picture colPic is derived as follows. When the slice type of the slice including the decoding target block is B slice and the collocated information collocated_from_l0_flag is equal to 0, the reference picture (= RefPicList1 [collocated_ref_idx]) at the position indicated by the temporal index collocated_ref_idx in the reference picture list L1 The reference picture colPic is the target of temporal motion information. On the other hand, even when the slice type is B slice, the above condition is not satisfied, or when the slice type is P slice, the reference picture (= RefPicList0 [collocated_ref_idx]) at the position indicated by the index collocated_ref_idx in the reference picture list L0 is selected. The reference picture colPic is the target of temporal motion information.

右下座標BRは、復号対象ブロックの座標が(xPb, yPb)、サイズが(nPbW, nPbH)である場合、ブロックの右下座標xColBr、yColBrを以下の式により導出する(図16参照)。   For the lower right coordinates BR, when the coordinates of the decoding target block are (xPb, yPb) and the size is (nPbW, nPbH), the lower right coordinates xColBr and yColBr of the block are derived by the following equations (see FIG. 16).

xColBr = xPb + nPbW
yColBr = yPb + nPbH
さらに、座標の水平成分、垂直成分がそれぞれ16の倍数となるように、以下の式により座標を生成する。
xColBr = xPb + nPbW
yColBr = yPb + nPbH
Further, the coordinates are generated by the following formula so that the horizontal component and the vertical component of the coordinate are each a multiple of 16.

xColBr´ = ( ( xColBr >> 4 ) << 4
yColBr´ = ( ( yColBr >> 4 ) << 4
この生成後の座標(xColBr´, yColBr´)を、テンポラル動き情報の参照位置を示す右下座標BRとする。
xColBr´ = ((xColBr >> 4) << 4
yColBr´ = ((yColBr >> 4) << 4
The coordinates (xColBr ′, yColBr ′) after the generation are set as the lower right coordinates BR indicating the reference position of the temporal motion information.

ゼロベクトル候補導出部303323は、ベクトル候補として水平成分と垂直成分が共にゼロであるゼロベクトルを生成する。ゼロベクトルの生成は、前述の空間ベクトル候補導出部および時間ベクトル候補導出部によって導出されたベクトル候補の数が、前記所定の数に達しなかった場合にのみ実行する。例えば、空間ベクトル候補の対象となる範囲のブロックや時間ベクトル候補の対象となるブロックがイントラ予測符号化されている場合は、そのブロックに関する動きベクトルがないため、ベクトル候補として利用できないことになる。その結果として、ベクトル候補の数が所定の数に満たない場合に、ゼロベクトル候補導出部がゼロベクトルを生成し、ベクトル候補格納部へ出力する。ベクトル候補格納部30331は、空間ベクトル候補導出部303321、時間ベクトル候補導出部303322、ゼロベクトル候補導出部303323から出力される候補ベクトルを、予測ベクトルリストに所定の数まで順番に格納する。ここで、ベクトル候補に関する前記所定の数は例えば2とし、ベクトル候補導出部3033は、前記所定の数に達するまで各ベクトル候補を導出し、以降の導出処理は省略してもよい。   The zero vector candidate derivation unit 303323 generates a zero vector whose horizontal component and vertical component are both zero as a vector candidate. The generation of the zero vector is executed only when the number of vector candidates derived by the space vector candidate deriving unit and the time vector candidate deriving unit does not reach the predetermined number. For example, when a block in a range that is a target of a space vector candidate or a block that is a target of a temporal vector candidate is subjected to intra prediction encoding, there is no motion vector related to the block, and thus it cannot be used as a vector candidate. As a result, when the number of vector candidates is less than the predetermined number, the zero vector candidate derivation unit generates a zero vector and outputs it to the vector candidate storage unit. The vector candidate storage unit 30331 stores the candidate vectors output from the space vector candidate derivation unit 303321, the time vector candidate derivation unit 303322, and the zero vector candidate derivation unit 303323 in order to a predetermined number in the prediction vector list. Here, the predetermined number regarding the vector candidates is, for example, 2, and the vector candidate deriving unit 3033 may derive each vector candidate until the predetermined number is reached, and the subsequent derivation processing may be omitted.

予測ベクトル選択部3034は、ベクトル候補導出部3033が読み出したベクトル候補のうち、インター予測パラメータ復号制御部3031から入力されたベクトルインデックスmvp_LX_idxが示すベクトル候補を予測ベクトルmvpLXとして選択する。予測ベクトル選択部3034は、選択した予測ベクトルmvpLXを加算部3035に出力する。   The prediction vector selection unit 3034 selects, as the prediction vector mvpLX, a vector candidate indicated by the vector index mvp_LX_idx input from the inter prediction parameter decoding control unit 3031 among the vector candidates read by the vector candidate derivation unit 3033. The prediction vector selection unit 3034 outputs the selected prediction vector mvpLX to the addition unit 3035.

候補ベクトルは、復号処理が完了したブロックであって、復号対象ブロックから予め定めた範囲のブロック(例えば、隣接ブロック)を参照し、参照したブロックに係るベクトルに基づいて生成される。なお、隣接ブロックには、対象ブロックに空間的に隣接するブロック、例えば、左ブロック、上ブロックの他、対象ブロックに時間的に隣接するブロック、例えば、対象ブロックと同じ位置で、表示時刻が異なるブロックから得られたブロックを含む。候補ベクトルに関しては、参照ブロックが、復号対象ブロックと空間的に隣接するブロックである場合と、時間的に隣接するブロックである場合とを区別するために、それぞれ空間動きベクトル、時間動きベクトル(またはテンポラル動きベクトル、テンポラル動き情報)と称することもある。   The candidate vector is a block for which decoding processing has been completed, and is generated based on a vector related to the referenced block with reference to a block (for example, an adjacent block) in a predetermined range from the decoding target block. The adjacent block has a block that is spatially adjacent to the target block, for example, the left block and the upper block, and a block that is temporally adjacent to the target block, for example, the same position as the target block, and has a different display time. Contains blocks derived from blocks. Regarding candidate vectors, in order to distinguish between a case where a reference block is a block spatially adjacent to a decoding target block and a case where it is a temporally adjacent block, a spatial motion vector and a temporal motion vector (or (Temporal motion vector, temporal motion information).

加算部3035は、予測ベクトル選択部3034すなわちAMVP予測パラメータ導出部3032から入力された予測ベクトルmvpLXとインター予測パラメータ復号制御部3031から入力された差分ベクトルmvdLXを加算してベクトルmvLXを算出する。加算部3035は、算出したベクトルmvLXを予測画像生成部308(図13)に出力する。   The addition unit 3035 adds the prediction vector mvpLX input from the prediction vector selection unit 3034, that is, the AMVP prediction parameter derivation unit 3032, and the difference vector mvdLX input from the inter prediction parameter decoding control unit 3031 to calculate a vector mvLX. The adding unit 3035 outputs the calculated vector mvLX to the predicted image generation unit 308 (FIG. 13).

(レイヤ間画像マッピング部)
次に、レイヤ間画像マッピング部315の構成について説明する。レイヤ間画像マッピング部315は、リサンプル参照レイヤピクチャrsPicのリサンプル画像rsPicSampleを、参照レイヤピクチャrlPicの画像rlPicSampleからレイヤ間画像マッピングにより生成する。
(Inter-layer image mapping part)
Next, the configuration of the inter-layer image mapping unit 315 will be described. The inter-layer image mapping unit 315 generates a resample image rsPicSample of the resample reference layer picture rsPic from the image rlPicSample of the reference layer picture rlPic by inter-layer image mapping.

図18に、レイヤ間画像マッピング部315の構成を示す。レイヤ間画像マッピング部315は、リサンプル参照レイヤピクチャrsPicの各画素に対応する、参照レイヤピクチャrlPicにおける参照画素の位置を導出する参照画素導出部3151と、導出された位置にある画素とその周辺画素にリサンプルフィルタを適用して、リサンプル画像を生成するリサンプル画像生成部3152とをさらに含んで構成される。   FIG. 18 shows the configuration of the inter-layer image mapping unit 315. The inter-layer image mapping unit 315 includes a reference pixel deriving unit 3151 for deriving the position of the reference pixel in the reference layer picture rlPic corresponding to each pixel of the resample reference layer picture rsPic, the pixel at the derived position and its surroundings It further includes a resample image generation unit 3152 that applies a resample filter to the pixels to generate a resample image.

レイヤ間画像マッピング部315は、リサンプル参照レイヤピクチャrsPic上のxP = 0…PW-1、yP = 0…PH - 1)の範囲にある輝度、及びxPC = 0…PWC - 1, yPC = 0…PHC - 1)の範囲にある色差の各画素値を生成する。ここで、PWC、PHCは、それぞれ、リサンプル参照レイヤピクチャrsPicの色差における横幅、縦幅である。なお、レイヤ間画像予測制約フラグinter_pred_sample_constraint_flagが真の場合、参照レイヤ対応領域SRLA(輝度(xP = offsetL …PW - offsetR - 1, yP = offsetT…PH - offsetB - 1), 色差(xPC = 0ffsetL/2 … PWC - offsetR/2 - 1, offsetT/2…PHC - offset/2 - 1))の範囲にある画像のみレイヤ間画像予測で参照されるため、上記範囲のみのリサンプル画像を生成し、参照ピクチャメモリ308へ記憶してもよい。それにより、参照レイヤ対応領域外NSRLのリサンプル画像(輝度、色差)の生成の処理簡略化、及び保持するためのメモリ削減をすることが可能である。   The inter-layer image mapping unit 315 has a luminance in the range of xP = 0 ... PW-1, yP = 0 ... PH-1) on the resample reference layer picture rsPic, and xPC = 0 ... PWC-1 and yPC = 0. ... generate pixel values of color difference in the range of PHC-1). Here, PWC and PHC are the horizontal width and vertical width in the color difference of the resample reference layer picture rsPic, respectively. When the inter-layer image prediction constraint flag inter_pred_sample_constraint_flag is true, the reference layer corresponding region SRLA (luminance (xP = offsetL ... PW-offsetR-1, yP = offsetT ... PH-offsetB-1), color difference (xPC = 0ffsetL / 2 ... PWC-offsetR / 2-1, offsetT / 2 ... PHC-offset / 2-1) Only the images in the range are referenced in the inter-layer image prediction. You may memorize | store in the picture memory 308. FIG. As a result, it is possible to simplify the process of generating the resampled image (brightness, color difference) of the NSRL outside the reference layer corresponding area, and to reduce the memory for holding it.

参照画素位置導出部3151は、レイヤ間情報導出部3020で導出されたレイヤ間対応関係パラメータ(OffsetL、OffsetT、OffsetR、OffsetB、SRLPW、SRLPH、ScaleFactorX、ScaleFactorY)を用いて、リサンプル参照レイヤピクチャrsPic上の各画素に対応する参照レイヤピクチャrlPic上の参照画素の位置を算出する。具体的には、対象画素のピクチャ内の座標が(xP, yP)であるとき、参照画素位置(xRef, yRef)と位相(xPhase, yPhase)を以下の手順で導出し、リサンプル画像生成部3152へ出力する。
(1)1/2^MP画素精度(MPは、0…nosf_bitまでの整数)の参照画素位置(xRefMP, yRefMP)を例えば、式(N-1)〜(N-2)により導出する。例えば、1/16画素精度であれば、MP=4となる。
The reference pixel position deriving unit 3151 uses the inter-layer correspondence parameters (OffsetL, OffsetT, OffsetR, OffsetB, SRLPW, SRLPH, ScaleFactorX, ScaleFactorY) derived by the inter-layer information deriving unit 3020 to resample the reference layer picture rsPic The position of the reference pixel on the reference layer picture rlPic corresponding to each upper pixel is calculated. Specifically, when the coordinates of the target pixel in the picture are (xP, yP), the reference pixel position (xRef, yRef) and the phase (xPhase, yPhase) are derived by the following procedure, and the resampled image generation unit 3152 is output.
(1) The reference pixel position (xRefMP, yRefMP) with 1/2 ^ MP pixel accuracy (MP is an integer up to 0... Nosf_bit) is derived by, for example, equations (N-1) to (N-2). For example, if the precision is 1/16 pixel, MP = 4.

xRefMP = (((xP - offsetX ) * ScaleFactorX +
( 1<< (nosf_bit - MP - 1) ) >> (nosf_bit - MP) ); (N-1)
yRefMP = (((yP - offsetY ) * ScaleFactorY +
( 1<< (nosf_bit - MP - 1) ) >> (nosf_bit - MP) ); (N-2)
ここで、offsetX、offsetYは、輝度、色差によって値が異なる。輝度である場合は、offsetX = OffsetL、offsetY = offsetTとなる。色差である場合は、offsetX = OffsetL/2、offsetY = offsetT / 2となる。なお、1/2^MP画素精度の参照画素位置(xRefMP, yRefMP)の導出は、式(N-1)〜(N-2)に限定されない。例えば、輝度と色差のサンプル位置を考慮し、輝度の場合、式(N-1)〜(N-2)により、色差の場合、式(N-1A)〜(N-2A)、(N-1B)〜(N-2B)により導出してもよい。ここで、phaseX、phaseYは、輝度に対する色差のサンプル位置の位相差である。
xRefMP = (((xP-offsetX) * ScaleFactorX +
(1 << (nosf_bit-MP-1)) >>(nosf_bit-MP)); (N-1)
yRefMP = (((yP-offsetY) * ScaleFactorY +
(1 << (nosf_bit-MP-1)) >>(nosf_bit-MP)); (N-2)
Here, offsetX and offsetY have different values depending on luminance and color difference. In the case of luminance, offsetX = OffsetL and offsetY = offsetT. In the case of a color difference, offsetX = OffsetL / 2 and offsetY = offsetT / 2. The derivation of the reference pixel position (xRefMP, yRefMP) with 1/2 ^ MP pixel accuracy is not limited to the equations (N-1) to (N-2). For example, considering the sample positions of luminance and color difference, in the case of luminance, the equations (N-1) to (N-2), and in the case of color difference, the equations (N-1A) to (N-2A), (N- 1B) to (N-2B) may be derived. Here, phaseX and phaseY are phase differences at the sample position of the color difference with respect to the luminance.

(色差の場合)
xRefMP = (((xP - offsetX ) * ScaleFactorX + iAddX )
>> (nosf_bit - MP) ) - (phaseX<<2); (N-1A)
iAddX = ((( RLPW * phaseX)<<( nosf_bit -2 )) + (SRLPW >> 1) ) / SRLPW +
+ (1<<( nosf_bit - 1)); (N-1B);
yRefMP = (((yP - offset ) * ScaleFactorY + iAddY )
>> (nosf_bit - MP) ) - (phaseY<<2); (N-2A)
iAddY = ((( RLPH * phaseY)<<( nosf_bit -2 )) + (SRLPH >> 1) ) / SRLPH
+ (1<<( nosf_bit - 1)); (N-2B)
(2)導出した1/2^MP画素精度の参照画素位置(xRefMP, yRefMP)から、整数精度の参照画素位値(xRef, yRef)および位相(xPhase, yPhase)を式(N-3)〜(N-6)により導出する。
(In the case of color difference)
xRefMP = (((xP-offsetX) * ScaleFactorX + iAddX)
>> (nosf_bit-MP))-(phaseX <<2); (N-1A)
iAddX = (((RLPW * phaseX) << (nosf_bit -2)) + (SRLPW >> 1)) / SRLPW +
+ (1 <<(nosf_bit-1));(N-1B);
yRefMP = (((yP-offset) * ScaleFactorY + iAddY)
>> (nosf_bit-MP))-(phaseY <<2); (N-2A)
iAddY = (((RLPH * phaseY) << (nosf_bit -2)) + (SRLPH >> 1)) / SRLPH
+ (1 <<(nosf_bit-1)); (N-2B)
(2) From the derived reference pixel position of 1/2 ^ MP pixel precision (xRefMP, yRefMP), the integer precision reference pixel position value (xRef, yRef) and phase (xPhase, yPhase) Derived from (N-6).

xRef = (xRefMP >> MP); (N-3)
xPhase = (xRefMP % (1<<MP)); (N-4)
yRef = (yRefMP >> MP); (N-5)
yPhase = (yRefMP % (1<<MP)); (N-6)
リサンプル画像生成部3152は、導出された参照画素位置(xRef, yRef)及び位相(xPhase, yPhase)と所定のリサンプルフィルタを適用し、輝度及び色差のリサンプル画素intSampleを生成し、生成したリサンプル画像rsPicSampleを参照ピクチャメモリ308へ格納する。
xRef = (xRefMP >>MP); (N-3)
xPhase = (xRefMP% (1 <<MP)); (N-4)
yRef = (yRefMP >>MP); (N-5)
yPhase = (yRefMP% (1 <<MP)); (N-6)
The resample image generation unit 3152 applies the derived reference pixel position (xRef, yRef) and phase (xPhase, yPhase) and a predetermined resample filter to generate and generate a resample pixel intSample of luminance and color difference The resampled image rsPicSample is stored in the reference picture memory 308.

(輝度の場合)
まず、参照レイヤピクチャrlPic上の水平位置xPosRL(xPosRL = xRef - fs/2 +1 …xRef + fs /2)、垂直位置yPosRL (yPosRL = yRef-1…yRef + fs - 1 )の範囲(フィルタ領域)にある画素rlPicSampleLに対して、所定のリサンプルフィルタFL(例えば、図19に示す8タップ、1/16画素精度のフィルタ)を適用し、画素tempArray[n] (n=0…fs - 1)を生成する(式(N-7))。ここで、式(N-7)は、水平方向にリサンプルフィルタを適用することを表わす。なお、fsはフィルタのタップ数を表わす。
(In case of luminance)
First, the range (filter area) of the horizontal position xPosRL (xPosRL = xRef-fs / 2 +1 ... xRef + fs / 2) on the reference layer picture rlPic and the vertical position yPosRL (yPosRL = yRef-1 ... yRef + fs-1) ) Is applied to a pixel rlPicSampleL at a predetermined resampling filter FL (e.g., an 8-tap, 1 / 16-pixel precision filter shown in FIG. 19), and a pixel tempArray [n] (n = 0... Fs −1). ) Is generated (formula (N-7)). Here, Expression (N-7) represents that the resample filter is applied in the horizontal direction. Note that fs represents the number of filter taps.

tempArray[n] =
ΣFL[xPhase,i]*rlPicSampleL[Clip3(0, RLPW-1,xRef-fs/2 + 1 + i),yPosRL]; (N-7)
ここで、Clip3(a,b,X)は、Xに関して、X<aの時はX=aとし、b<Xの時はX=bとすることによって、a≦X≦bとなるようにXを制限する関数である。すなわち、上記式において、Clip3(0, RLPW-1,xRef-fs/2 + 1 + i)の部分は、リサンプルフィルタを適用する水平方向の参照画素位置(xRef - fs/2 + 1 + i)が、画面外の座標を示す場合は、画面端座標へ補正する操作を示す。また、iは0…fs-1の値をとる。また、yPosRLは、参照レイヤピクチャrlPicの画面外の座標を示す場合、以下の式(N-8)により画面端座標へ補正される。
tempArray [n] =
ΣFL [xPhase, i] * rlPicSampleL [Clip3 (0, RLPW-1, xRef-fs / 2 + 1 + i), yPosRL]; (N-7)
Here, Clip3 (a, b, X) is such that a ≦ X ≦ b with respect to X by setting X = a when X <a and X = b when b <X. A function that limits X. That is, in the above equation, Clip 3 (0, RLPW-1, xRef-fs / 2 + 1 + i) is the horizontal reference pixel position (xRef-fs / 2 + 1 + i) to which the resample filter is applied. ) Indicates coordinates outside the screen, it indicates an operation for correcting to the screen end coordinates. I takes a value of 0... Fs−1. Further, when yPosRL indicates coordinates outside the screen of the reference layer picture rlPic, it is corrected to the screen edge coordinates by the following equation (N-8).

yPosRL = Clip3 (0, RLPH - 1, yRef + n - 1); (N-8)
続いて、導出した画素tempArray[n](n=0…fs-1)に対して、所定のリサンプルフィルタFL(例えば、図19に示す8タップ、1/16画素精度のフィルタ)を適用し、対象画素(xP,yP)の値rsPicSampleL[xP][yP]を導出する(式(N-9)〜(N-10))。ここで、式(N-9)は、垂直方向にリサンプルフィルタを適用することを表わす。
yPosRL = Clip3 (0, RLPH-1, yRef + n-1); (N-8)
Subsequently, a predetermined resample filter FL (for example, an 8-tap, 1 / 16-pixel precision filter shown in FIG. 19) is applied to the derived pixel tempArray [n] (n = 0... Fs−1). Then, the value rsPicSampleL [xP] [yP] of the target pixel (xP, yP) is derived (expressions (N-9) to (N-10)). Here, Expression (N-9) represents that the resample filter is applied in the vertical direction.

intSample = ((ΣFL[yPhase,i]*tempArray[i]) + (1<<11) )>>12; (N-9)
rsPicSampleL[xP][yP] = Clip3( 0, (1<<BitDepthY), intSample ); (N-10)
ここで、iは0…fs-1の値をとり、はBitDepthYは輝度のビット精度を表わす。
intSample = ((ΣFL [yPhase, i] * tempArray [i]) + (1 << 11)) >>12; (N-9)
rsPicSampleL [xP] [yP] = Clip3 (0, (1 << BitDepthY), intSample); (N-10)
Here, i takes a value of 0... Fs−1, and BitDepthY represents the bit precision of luminance.

(色差の場合)
まず、参照レイヤピクチャrlPic上の水平位置xPosRL(xPosRL = xRef - fs/2 + 1…xRef + fs/2)、垂直位置yPosRL (yPosRL = yRef- fs/2 + 1…yRef + fs/2 )の範囲(フィルタ領域)にある画素rlPicSampleCに対して、所定のリサンプルフィルタFC(例えば、図20に示す4タップ、1/16画素精度のフィルタ)を適用し、画素tempArray[n] (n=0…fs-1)を生成する(式(N-11))。
(In the case of color difference)
First, the horizontal position xPosRL (xPosRL = xRef-fs / 2 + 1 ... xRef + fs / 2) on the reference layer picture rlPic and the vertical position yPosRL (yPosRL = yRef- fs / 2 + 1 ... yRef + fs / 2) A predetermined resample filter FC (for example, a 4-tap, 1 / 16-pixel precision filter shown in FIG. 20) is applied to the pixel rlPicSampleC in the range (filter region), and the pixel tempArray [n] (n = 0 ... fs-1) is generated (formula (N-11)).

tempArray[n] =
ΣFC[xPhase,i]*rlPicSampleC[Clip3(0, RLPWC-1,xRef- 1 + i),yPosRL]; (N-11)
ここで、iは0…fs-1の値をとる。また、yPosRLは、参照レイヤピクチャrlPicの画面外の座標を示す場合、以下の式(N-12)により画面端座標へ補正される。
tempArray [n] =
ΣFC [xPhase, i] * rlPicSampleC [Clip3 (0, RLPWC-1, xRef-1 + i), yPosRL]; (N-11)
Here, i takes a value of 0... Fs−1. Further, when yPosRL indicates coordinates outside the screen of the reference layer picture rlPic, it is corrected to the screen edge coordinates by the following equation (N-12).

yPosRL = Clip3 (0, RLPHC - 1, yRef + n - 1); (N-12)
ここで、RLPWC、RLPHCはそれぞれ、参照レイヤピクチャrlPicの色差の横幅、横幅である。
yPosRL = Clip3 (0, RLPHC-1, yRef + n-1); (N-12)
Here, RLPWC and RLPHC are the lateral width and lateral width of the color difference of the reference layer picture rlPic, respectively.

続いて、導出した画素tempArray[n](n=0…fs-1)に対して、所定のリサンプルフィルタFC(例えば、図20に示す4タップ、1/16画素精度のフィルタ)を適用し、対象画素(xP,yP)の値rsPicSampleC[xP][yP]を導出する(式(N-12)〜(N-13))。   Subsequently, a predetermined resample filter FC (for example, a 4-tap, 1/16 pixel precision filter shown in FIG. 20) is applied to the derived pixel tempArray [n] (n = 0... Fs−1). Then, the value rsPicSampleC [xP] [yP] of the target pixel (xP, yP) is derived (expressions (N-12) to (N-13)).

intSample = ((ΣFC[yPhase,i]*tempArray[i]) + (1<<11) )>>12; (N-12)
rsPicSampleC[xP][yP] = Clip3( 0, (1<<BitDepthC), intSample ); (N-13)
ここで、iは0…fs-1の値をとり、BitDepthCは色差のビット精度を表わす。
intSample = ((ΣFC [yPhase, i] * tempArray [i]) + (1 << 11)) >>12; (N-12)
rsPicSampleC [xP] [yP] = Clip3 (0, (1 << BitDepthC), intSample); (N-13)
Here, i takes a value of 0... Fs−1, and BitDepthC represents the bit accuracy of the color difference.

なお、レイヤ間画像マッピング部315は、下記方法の何れかによって、参照レイヤピクチャrlPicを特定し、レイヤ間対応関係パラメータに基づいて、レイヤ間画像マッピングを行う。   Note that the inter-layer image mapping unit 315 identifies the reference layer picture rlPic by any of the following methods, and performs inter-layer image mapping based on the inter-layer correspondence parameter.

(参照レイヤピクチャ特定方法1)スライスヘッダ上のアクティブ参照レイヤ指定情報(図7上のSYNSH01)により指定されるアクティブ参照レイヤをレイヤ間画像マッピングの対象とする参照レイヤピクチャrlPicとする。すなわち、レイヤ間予測有無フラグが真(1)の場合、アクティブ参照レイヤ数(num_inter_layer_ref_pic_minus1 + 1)個のアクティブ参照レイヤ(RefLayerId[curLayerId][inter_layer_pred_idc])が、レイヤ間画像マッピングの対象となる。   (Reference layer picture specifying method 1) An active reference layer specified by active reference layer specification information (SYNSH01 in FIG. 7) on a slice header is set as a reference layer picture rlPic that is a target of inter-layer image mapping. That is, when the inter-layer prediction presence / absence flag is true (1), the number of active reference layers (num_inter_layer_ref_pic_minus1 + 1) active reference layers (RefLayerId [curLayerId] [inter_layer_pred_idc]) is a target of inter-layer image mapping.

(参照レイヤピクチャ特定方法2)参照ピクチャリストに含まれる参照ピクチャのうち、参照ピクチャのレイヤIDが、復号対象画像のレイヤIDと異なる場合、その参照ピクチャをレイヤ間画像マッピングの対象とする参照レイヤピクチャとする。具体的にはRefPicList0[]、RefPicList1[]の参照ピクチャのレイヤIDを走査し、復号対象画像のレイヤIDと異なる参照ピクチャを特定する。   (Reference layer picture specifying method 2) Among the reference pictures included in the reference picture list, when the layer ID of the reference picture is different from the layer ID of the decoding target image, the reference layer that is the target of inter-layer image mapping Let it be a picture. Specifically, the layer IDs of the reference pictures in RefPicList0 [] and RefPicList1 [] are scanned, and a reference picture different from the layer ID of the decoding target image is specified.

以上のように、レイヤ間画像マッピング部315において、対象レイヤ(例えば拡張レイヤ)と参照レイヤ(例えばベースレイヤ)との間のレイヤ間対応関係パラメータ(OffsetL、OffsetT、OffsetR、OffsetB、SRLPW、SRLPH、ScaleFactorX、ScaleFactorY等)に基づいて、リサンプル参照レイヤピクチャrsPic上の各画素に対応する参照レイヤピクチャrlPic上の参照画素の位置を決定し、その参照画素と周辺画素に所定のリサンプルフィルタを適用することで、対象画素を生成することができる。これにより、レイヤ間画像予測で使用されるリサンプル画像の精度を向上させる効果を得ることができる。特に、ピクチャ単位で対象レイヤと参照レイヤの対応領域が変化するシーケンスに対しては、参照レイヤ対応領域情報により導出されるレイヤ間対応関係パラメータに基づいてレイヤ間画像マッピングを行う場合に比べて、アクティブ参照レイヤ対応領域情報(ピクチャ単位の参照レイヤ対応領域情報)により導出されるレイヤ間対応関係パラメータに基づいてレイヤ間画像マッピングを行うことにより、レイヤ間画像予測で使用されるリサンプル画像の精度をより向上させる効果を奏する。それに伴いレイヤ間画像予測の予測精度も向上するため、符号化効率の向上を図ることが可能となる。   As described above, in the inter-layer image mapping unit 315, the inter-layer correspondence parameters (OffsetL, OffsetT, OffsetR, OffsetB, SRLPW, SRLPH, and the like between the target layer (for example, the enhancement layer) and the reference layer (for example, the base layer) Based on ScaleFactorX, ScaleFactorY, etc.), the position of the reference pixel on the reference layer picture rlPic corresponding to each pixel on the resample reference layer picture rsPic is determined, and a predetermined resample filter is applied to the reference pixel and surrounding pixels Thus, the target pixel can be generated. Thereby, the effect which improves the precision of the resample image used by the image prediction between layers can be acquired. In particular, for a sequence in which the corresponding region of the target layer and the reference layer changes in units of pictures, compared to the case of performing inter-layer image mapping based on the inter-layer correspondence parameter derived from the reference layer corresponding region information, The accuracy of the resampled image used in inter-layer image prediction by performing inter-layer image mapping based on the inter-layer correspondence parameter derived from the active reference layer corresponding region information (reference layer corresponding region information for each picture) The effect which improves more is produced. As a result, the prediction accuracy of inter-layer image prediction is also improved, so that the encoding efficiency can be improved.

(本発明におけるレイヤ間画像マッピングの動作)
本発明に係るレイヤ間画像マッピング部におけるリサンプル参照レイヤピクチャrsPic上の座標(xP, yP)に関するリサンプル画素の生成処理について、図29を参照しながら、説明する。図29は、本発明に係るレイヤ間画像マッピング部におけるリサンプル参照レイヤピクチャrsPic上の座標(xP, yP)に関するリサンプル画素の生成処理の動作を示すフロー図である。
(Operation of image mapping between layers in the present invention)
A resample pixel generation process related to coordinates (xP, yP) on the resample reference layer picture rsPic in the inter-layer image mapping unit according to the present invention will be described with reference to FIG. FIG. 29 is a flowchart showing the operation of the resample pixel generation process for the coordinates (xP, yP) on the resample reference layer picture rsPic in the inter-layer image mapping unit according to the present invention.

(ステップS802)参照画素位置導出部3151は、各座標(xP,yP)に対応する1/2^MP画素精度の参照画素位置(xRefMP, yRefMP)を前述の式(N-1)〜(N-2)により導出する。   (Step S802) The reference pixel position deriving unit 3151 determines the reference pixel position (xRefMP, yRefMP) with 1/2 ^ MP pixel accuracy corresponding to each coordinate (xP, yP) from the above-described formulas (N-1) to (N Derived by -2).

(ステップS803)参照画素位置導出部3151は、導出した1/2^MP画素精度の参照画素位置より、整数画素精度の参照画素位置(xRef, yRef)及び位相(xPhase, yPhase)を前述の式(N-3)〜(N-6)により導出する。   (Step S803) The reference pixel position deriving unit 3151 calculates the reference pixel position (xRef, yRef) and phase (xPhase, yPhase) with integer pixel precision from the derived reference pixel position with 1/2 ^ MP pixel precision using the above-described formula Derived from (N-3) to (N-6).

(ステップS804)リサンプル画像生成部3152は、参照レイヤピクチャrlPic上の水平位置xPosRL(xPosRL = xRef - fs/2 +1 …xRef + fs /2)、垂直位置yPosRL (yPosRL = yRef-1…yRef + fs - 1 )の範囲(フィルタ領域)にある画素rlPicSampleX(X=L,C)に対して、所定のリサンプルフィルタを適用し、画素tempArray[n] (n=0…fs - 1)を生成する(式(N-7)、または、(N-12))。   (Step S804) The resampled image generation unit 3152, the horizontal position xPosRL (xPosRL = xRef−fs / 2 + 1... XRef + fs / 2) on the reference layer picture rlPic, the vertical position yPosRL (yPosRL = yRef-1... YRef + fs-1) Apply a predetermined resample filter to the pixel rlPicSampleX (X = L, C) in the range (filter area), and set the pixel tempArray [n] (n = 0 ... fs-1) (Formula (N-7) or (N-12)).

(ステップS805)リサンプル画像生成部3152は、導出した画素tempArray[n](n=0…fs-1)に対して、所定のリサンプルフィルタを適用し、対象画素(xP,yP)の値rsPicSampleX[xP][yP](X=L, C)を導出する(式(N-9)〜(N-10)、または(N-12)〜(N-13))。   (Step S805) The resample image generation unit 3152 applies a predetermined resample filter to the derived pixel tempArray [n] (n = 0... Fs−1), and the value of the target pixel (xP, yP). rsPicSampleX [xP] [yP] (X = L, C) is derived (formulas (N-9) to (N-10) or (N-12) to (N-13)).

(従来技術におけるレイヤ間画像マッピング部の動作)
一方、従来技術におけるレイヤ間画像マッピング部におけるリサンプル参照レイヤピクチャrsPic上の座標(xP, yP)に関するリサンプル画素の生成処理について、図30を参照しながら、説明する。図30は、従来技術におけるレイヤ間画像マッピング部におけるリサンプル参照レイヤピクチャrsPic上の座標(xP, yP)に関するリサンプル画素の生成処理の動作を示すフロー図である。
(Operation of the inter-layer image mapping unit in the prior art)
On the other hand, resampled pixel generation processing related to coordinates (xP, yP) on the resample reference layer picture rsPic in the inter-layer image mapping unit in the prior art will be described with reference to FIG. FIG. 30 is a flowchart showing the operation of the resample pixel generation process for the coordinates (xP, yP) on the resample reference layer picture rsPic in the inter-layer image mapping unit in the prior art.

(ステップS801’)従来技術における参照画素位置導出部3151は、リサンプル参照レイヤピクチャrsPic上のxP = 0…PW-1、yP = 0…PH - 1の範囲にある輝度、及びxPC = 0…PWC - 1, yPC = 0…PHC - 1の範囲にある色差の各画素を生成する際に、まず、座標(xP, yP)を参照レイヤ対応領域SRLA内に制限した座標(xP’,yP’)を式(N-20)〜(N-21)に基づいて導出する。すなわち、図31(a)に示すように、リサンプル参照レイヤピクチャrsPic上の座標(xP, yP)が参照レイヤ対応領域SRLAより外側にある場合、座標(xP, yP)を最近接する参照レイヤ対応領域SRLAの境界画素の座標(xP’,yP’)へ置換する処理である。   (Step S801 ′) The reference pixel position deriving unit 3151 in the prior art has a luminance in the range of xP = 0... PW-1, yP = 0... PH−1 on the resample reference layer picture rsPic, and xPC = 0. PWC-1, yPC = 0 ... When generating each pixel of color difference in the range of PHC-1, first, the coordinates (xP ', yP') where the coordinates (xP, yP) are limited within the reference layer corresponding area SRLA ) Is derived based on equations (N-20) to (N-21). That is, as shown in FIG. 31 (a), when the coordinate (xP, yP) on the resample reference layer picture rsPic is outside the reference layer corresponding region SRLA, the reference layer correspondence closest to the coordinate (xP, yP) This is a process of replacing the coordinates (xP ′, yP ′) of the boundary pixels of the region SRLA.

xP’ = Clip3 ( offsetL, PW - offsetR - 1, xP ); (N-20)
yP’ = Clip3 ( offsetT, PH - offsetB - 1, yP ); (N-21)
(ステップS802’) 従来技術における参照画素位置導出部3151は、導出した座標(xP’,yP’)に対応する1/2^MP画素精度の参照画素位置(xRefMP, yRefMP)を前述の式(N-1)〜(N-2)により導出する。
xP '= Clip3 (offsetL, PW-offsetR-1, xP); (N-20)
yP '= Clip3 (offsetT, PH-offsetB-1, yP); (N-21)
(Step S802 ′) The reference pixel position deriving unit 3151 in the prior art calculates the reference pixel position (xRefMP, yRefMP) of 1/2 ^ MP pixel accuracy corresponding to the derived coordinates (xP ′, yP ′) using the above-described formula ( N-1) to (N-2).

(ステップS803)従来技術における参照画素位置導出部3151は、導出した1/2^MP画素精度の参照画素位置より、整数画素精度の参照画素位置(xRef, yRef)及び位相(xPhase, yPhase)を前述の式(N-3)〜(N-6)により導出する。   (Step S803) The reference pixel position deriving unit 3151 in the related art calculates the reference pixel position (xRef, yRef) and phase (xPhase, yPhase) with integer pixel precision from the derived reference pixel position with 1/2 ^ MP pixel precision. It is derived from the above formulas (N-3) to (N-6).

(ステップS804)従来技術におけるリサンプル画像生成部3152は、参照レイヤピクチャrlPic上の水平位置xPosRL(xPosRL = xRef - fs/2 +1 …xRef + fs /2)、垂直位置yPosRL (yPosRL = yRef-1…yRef + fs - 1 )の範囲にある画素rlPicSampleX(X=L,C)に対して、所定のリサンプルフィルタを適用し、画素tempArray[n] (n=0…fs - 1)を生成する(式(N-7)、または、(N-12))。   (Step S804) The resampled image generation unit 3152 in the related art uses the horizontal position xPosRL (xPosRL = xRef−fs / 2 + 1... XRef + fs / 2) on the reference layer picture rlPic, the vertical position yPosRL (yPosRL = yRef− 1… yRef + fs-1) Apply a predetermined resampling filter to pixel rlPicSampleX (X = L, C) in the range to generate pixel tempArray [n] (n = 0 ... fs-1) (Formula (N-7) or (N-12)).

(ステップS805)従来技術におけるリサンプル画像生成部3152は、導出した画素tempArray[n](n=0…fs-1)に対して、所定のリサンプルフィルタを適用し、対象画素(xP,yP)の値rsPicSampleX[xP][yP](X=L, C)を導出する(式(N-9)〜(N-10)、又は(N-12)〜(N-13))。   (Step S805) The resample image generation unit 3152 in the prior art applies a predetermined resample filter to the derived pixel tempArray [n] (n = 0... Fs−1), and the target pixel (xP, yP ) Value rsPicSampleX [xP] [yP] (X = L, C) is derived (expressions (N-9) to (N-10) or (N-12) to (N-13)).

(本発明のレイヤ間画像マッピング部の効果)
以下、従来技術と本発明との差異を説明し、本発明のレイヤ間画像マッピング部の効果を説明する。従来技術と本発明との異なる点は、図31(a)に示すように、リサンプル参照レイヤピクチャrsPic上の座標(xP, yP)が参照レイヤ対応領域SRLAより外側にある場合、座標(xP, yP)を最近接する参照レイヤ対応領域SRLAの境界画素の座標(xP’,yP’)へ置換する処理の有無である(図30のステップS801’)。この結果、図32(a)に示すように、従来技術におけるリサンプル参照レイヤピクチャrsPic上の参照レイヤ対応領域外NSRLAの画素(xP,yP)は、最近接する、参照レイヤ対応領域SRLA上の境界画素(xP’,yP’)の画素と同一となる。
(Effect of the inter-layer image mapping unit of the present invention)
Hereinafter, differences between the prior art and the present invention will be described, and effects of the inter-layer image mapping unit of the present invention will be described. As shown in FIG. 31 (a), the difference between the prior art and the present invention is that when the coordinates (xP, yP) on the resample reference layer picture rsPic are outside the reference layer corresponding region SRLA, the coordinates (xP , yP) is the presence / absence of a process of replacing the nearest reference layer corresponding region SRLA with the coordinates (xP ′, yP ′) of the boundary pixels (step S801 ′ in FIG. 30). As a result, as shown in FIG. 32 (a), the pixel (xP, yP) outside the reference layer corresponding region NSRLA on the resample reference layer picture rsPic in the prior art is the closest boundary on the reference layer corresponding region SRLA. This is the same as the pixel (xP ′, yP ′).

一方、本発明では、図31(b)に示すように、リサンプル参照レイヤピクチャrsPic上の座標(xP, yP)が参照レイヤ対応領域SRLAより外側にある場合、直接、参照レイヤピクチャrlPic上の参照画素位置(xRef, yRef)を導出する。従って、従来技術と比較して、参照画素位置の導出に係る導出処理を簡略化することが可能である。   On the other hand, in the present invention, as shown in FIG. 31 (b), when the coordinates (xP, yP) on the resample reference layer picture rsPic are outside the reference layer corresponding region SRLA, they are directly on the reference layer picture rlPic. A reference pixel position (xRef, yRef) is derived. Therefore, it is possible to simplify the derivation process related to the derivation of the reference pixel position as compared with the conventional technique.

また、本発明では、リサンプル参照レイヤピクチャrsPic上の参照レイヤ対応領域外NSRLAの画素(xP,yP)は、最近接する、参照レイヤ対応領域SRLA上の境界画素(xP’,yP’)の画素と必ずしも同一とはならない。具体的には、図32(b)において、参照レイヤ対応領域SRLAの境界より外側に、水平方向に幅ΔFX、高さΔFYの領域NSRLA’(図32(b)上のNSRLA’)に関しては、滑らかに画素値が変化する領域となり、領域NSRLA’より外側の画素は、最近接する画素領域NSRLA’の境界画素と同一となる。ここで、ΔFX、ΔFYの大きさは、例えば、式(N-22)〜(N-24)に示すように、リサンプルフィルタのタップ数(フィルタサイズ)fsと、参照レイヤ対応領域SRLAの横幅SRLPW、縦幅SRLPHと参照レイヤピクチャrlPicの横幅RLPW、縦幅RLPHによって定まる。   In the present invention, the pixel (xP, yP) outside the reference layer corresponding region NSRLA on the resample reference layer picture rsPic is the closest pixel of the boundary pixel (xP ′, yP ′) on the reference layer corresponding region SRLA. And not necessarily the same. Specifically, in FIG. 32B, regarding the region NSRLA ′ (NSRLA ′ on FIG. 32B) having a width ΔFX and a height ΔFY in the horizontal direction outside the boundary of the reference layer corresponding region SRLA, The pixel value changes smoothly, and the pixels outside the region NSRLA ′ are the same as the border pixels of the closest pixel region NSRLA ′. Here, the sizes of ΔFX and ΔFY are, for example, the number of taps (filter size) fs of the resample filter and the width of the reference layer corresponding region SRLA as shown in the equations (N-22) to (N-24). It is determined by SRLPW, vertical width SRLPH, and horizontal width RLPW and vertical width RLPH of reference layer picture rlPic.

ΔFX = (fs * ScaleFactorXA + ( 1<< (nosf_bit - 1) ) >> (nosf_bit) ); (N-22)
ΔFY = (fs * ScaleFactorYA + ( 1<< (nosf_bit - 1) ) >> (nosf_bit) ); (N-23)
ScaleFactorXA = ( ( SRLPW << nosf_bit) + (RLPW>>1) )/ RLPW; (N-24)
ScaleFactorYA = ( ( SRLPH << nosf_bit) + (RLPH>>1) )/ RLPH; (N-24)
なお、ScaleFactorXAは、参照レイヤピクチャrlPicの横幅RLPWに対する参照レイヤ対応領域SRLAの横幅SRLPWのサイズ比であり、ScaleFactorYAは、同様にrsPicの縦幅に対するSRLAの縦幅SRLPHのサイズ比である。例えば、参照レイヤ対応領域SRLAのサイズを1920x1080(SRLPW=1920, SRLPH=1080)、参照レイヤピクチャrlPicのサイズを960x540(RLPW=960,RLPH=540)、フィルタサイズfs = 8、ビット精度nosf_bit = 16とすれば、それぞれ、下式のように、ΔFX=16、ΔFY=16と導出される。
ΔFX = (fs * ScaleFactorXA + (1 << (nosf_bit-1)) >>(nosf_bit)); (N-22)
ΔFY = (fs * ScaleFactorYA + (1 << (nosf_bit-1)) >>(nosf_bit)); (N-23)
ScaleFactorXA = ((SRLPW << nosf_bit) + (RLPW >> 1)) / RLPW; (N-24)
ScaleFactorYA = ((SRLPH << nosf_bit) + (RLPH >> 1)) / RLPH; (N-24)
Note that ScaleFactorXA is the size ratio of the horizontal width SRLPW of the reference layer corresponding region SRLA to the horizontal width RLPW of the reference layer picture rlPic, and ScaleFactorYA is also the size ratio of the vertical width SRLPH of SRLA to the vertical width of rsPic. For example, the size of the reference layer corresponding area SRLA is 1920x1080 (SRLPW = 1920, SRLPH = 1080), the size of the reference layer picture rlPic is 960x540 (RLPW = 960, RLPH = 540), filter size fs = 8, bit accuracy nosf_bit = 16 Then, ΔFX = 16 and ΔFY = 16 are derived as shown in the following equations, respectively.

ΔFX = (8 * (((1920 << 16) + (960 >> 1)) / 960) + (1<< 15)) >> 16 = 16;
ΔFY = (8 * (((1080 << 16) + (540 >> 1)) / 540) + (1<< 15)) >> 16 = 16;
また、参照レイヤ対応領域SRLAのサイズを1920x1080(SRLPW=1920, SRLPH=1080)、参照レイヤピクチャrlPicのサイズを1280x720 (RLPW=1280,RLPH=720)、フィルタサイズfs = 8、ビット精度nosf_bit = 16とすれば、それぞれ、下式のように、ΔFX=12、ΔFY=12と導出される。
ΔFX = (8 * (((1920 << 16) + (960 >> 1)) / 960) + (1 << 15)) >> 16 = 16;
ΔFY = (8 * (((1080 << 16) + (540 >> 1)) / 540) + (1 << 15)) >> 16 = 16;
Also, the size of the reference layer corresponding area SRLA is 1920x1080 (SRLPW = 1920, SRLPH = 1080), the size of the reference layer picture rlPic is 1280x720 (RLPW = 1280, RLPH = 720), filter size fs = 8, bit accuracy nosf_bit = 16 Then, ΔFX = 12, ΔFY = 12, respectively, as shown in the following equations.

ΔFX = (8 * (((1920 << 16) + (1280>> 1)) / 1280) + (1<< 15)) >> 16 = 12;
ΔFX = (8 * (((1080 << 16) + (720 >> 1)) / 720) + (1<< 15)) >> 16 = 12;
このようなリサンプル画像が生成されるのは、参照レイヤ対応領域外NSRLA上の画素(xP,yP)を、例えば、垂直位置yPを固定して、水平方向に水平位置xPをxP=0…offsetT-1まで変化させた場合、リサンプルフィルタを適用するフィルタ領域(参照レイヤピクチャrsPic上の参照画素位置(xRef, yRef)を中心に、水平位置xPosRL(xPosRL = xRef - fs/2 +1 …xRef + fs /2)、垂直位置yPosRL (yPosRL = yRef-1…yRef + fs - 1 )の範囲、図31(b)上のFLTA)が、従来技術とは異なり、座標(xP,yP)に応じて変化するためである。なお、フィルタ領域FLTAにおいて、参照レイヤピクチャrlPicの画面外の座標を参照する画素は、その画素と相関の高い(空間的距離が近い)画面端の画素へ置換される。
ΔFX = (8 * (((1920 << 16) + (1280 >> 1)) / 1280) + (1 << 15)) >> 16 = 12;
ΔFX = (8 * (((1080 << 16) + (720 >> 1)) / 720) + (1 << 15)) >> 16 = 12;
Such a resampled image is generated because the pixel (xP, yP) on the NSRLA outside the reference layer corresponding region, for example, the vertical position yP is fixed and the horizontal position xP in the horizontal direction is xP = 0. When changing to offsetT-1, the filter area to which the resample filter is applied (with the reference pixel position (xRef, yRef) on the reference layer picture rsPic as the center, the horizontal position xPosRL (xPosRL = xRef-fs / 2 +1 ... xRef + fs / 2), vertical position yPosRL (yPosRL = yRef-1 ... yRef + fs-1) range, FLTA on Fig. 31 (b) is different from the conventional technology in the coordinates (xP, yP) This is because it changes accordingly. In the filter area FLTA, a pixel that refers to coordinates outside the screen of the reference layer picture rlPic is replaced with a pixel at the screen edge having a high correlation (close spatial distance) with the pixel.

以上、本発明におけるレイヤ間画像マッピング部は、リサンプル参照レイヤピクチャrsPic上の参照レイヤ対応領域外NSRLAの各座標のリサンプル画素を生成する際に、リサンプルフィルタの適用する参照レイヤピクチャrsPic上のフィルタ領域FLTAにおいて、画面外の座標の画素がある場合、その画素と相関の高い(空間的距離が近い)画素を利用して、リサンプル画像を生成する。その結果、従来技術に比べて、参照レイヤ対応領域外NSRLAのリサンプル画像の精度を向上させることができる。また、参照レイヤ対応領域外NSRLAの画素を参照するレイヤ間画像予測に関して、従来技術よりも予測精度を向上させることができる。従って、符号化効率を向上にもつながる。特に、本発明では、参照レイヤ対応領域SRLAの境界より外側に、水平方向に幅ΔFX、高さΔFYの領域NSRLA’において、リサンプル画像の画素値が滑らかに変化する領域を生成することができる。そのため、レイヤ間画像予測において、参照レイヤ対応領域外NSRLAのうち、上記領域NSRLA’を参照するレイヤ間画像予測の予測精度を向上させることができる。なお、本発明におけるレイヤ間画像マッピング部は、レイヤ間画像予測制約フラグによらず単独で適用可能である。   As described above, the inter-layer image mapping unit according to the present invention generates the resample pixel of each coordinate of the non-reference layer corresponding region NSRLA on the resample reference layer picture rsPic on the reference layer picture rsPic to which the resample filter is applied. In the filter area FLTA, if there is a pixel with coordinates outside the screen, a resampled image is generated using a pixel having a high correlation (close spatial distance) with that pixel. As a result, the accuracy of the resampled image of the NSRLA outside the reference layer corresponding region can be improved as compared with the conventional technique. In addition, with regard to inter-layer image prediction that refers to a pixel outside the reference layer corresponding region NSRLA, prediction accuracy can be improved as compared with the conventional technique. Therefore, the encoding efficiency is also improved. In particular, in the present invention, it is possible to generate a region where the pixel value of the resampled image changes smoothly in a region NSRLA ′ having a width ΔFX and a height ΔFY in the horizontal direction outside the boundary of the reference layer corresponding region SRLA. . Therefore, in the inter-layer image prediction, it is possible to improve the prediction accuracy of the inter-layer image prediction that refers to the region NSRLA ′ among the reference layer corresponding non-region NSRLA. The inter-layer image mapping unit in the present invention can be applied independently regardless of the inter-layer image prediction constraint flag.

(レイヤ間動きマッピング部)
次に、レイヤ間動きマッピング部316の構成について説明する。レイヤ間動きマッピング部316は、リサンプル参照レイヤピクチャrsPicのリサンプル動き情報rsPicMotionを、参照レイヤピクチャrlPicの動き情報rlPicMotionを動きマッピングにより生成する。
(Inter-layer motion mapping unit)
Next, the configuration of the inter-layer motion mapping unit 316 will be described. The inter-layer motion mapping unit 316 generates resample motion information rsPicMotion of the resample reference layer picture rsPic and motion information rlPicMotion of the reference layer picture rlPic by motion mapping.

図18に、レイヤ間動きマッピング部316の構成を示す。レイヤ間動きマッピング部315は、対象レイヤにおける対象ブロックに対応する、参照レイヤにおける画像ブロックである参照画像ブロックを決定する参照画像ブロック導出部3161と、決定された参照画像ブロックの動き情報に基づいて対象ブロックの動き情報を生成する動き情報生成部3162とをさらに含んで構成される。   FIG. 18 shows the configuration of the inter-layer motion mapping unit 316. The inter-layer motion mapping unit 315 is based on the reference image block deriving unit 3161 that determines a reference image block that is an image block in the reference layer corresponding to the target block in the target layer, and the motion information of the determined reference image block. It further includes a motion information generation unit 3162 that generates motion information of the target block.

参照画像ブロック導出部3161は、レイヤ間情報導出部3020で導出されたレイヤ間対応関係パラメータ(OffsetL、OffsetT、OffsetR、OffsetB、SRLPW、SRLPH、ScaleFactorX、ScaleFactorY)を用いて、リサンプル参照レイヤピクチャrsPic上の所定単位の対象ブロック(例えば、16×16)に対応する、参照レイヤピクチャrlPic上における参照画像ブロックの位置を算出する。   The reference image block deriving unit 3161 uses the inter-layer correspondence parameters (OffsetL, OffsetT, OffsetR, OffsetB, SRLPW, SRLPH, ScaleFactorX, ScaleFactorY) derived by the inter-layer information deriving unit 3020 to resample the reference layer picture rsPic The position of the reference image block on the reference layer picture rlPic corresponding to the predetermined unit target block (for example, 16 × 16) is calculated.

対象ブロックとは、動きマッピングの対象となるリサンプル参照レイヤピクチャrsPic上のブロックである。対象ブロックは、また、対象レイヤ上の復号対象ブロックのテンポラリ動きベクトルとして参照されるブロックである。具体的には、対象ブロックのピクチャ内の座標が(xP, yP)であるとき、参照画像ブロックの座標(xRL, yRL)を以下の手順で導出する。
(1)対象ブロックの中心座標(xPCtr, yPCtr)を式(M-1)〜(M-2)により導出する。
The target block is a block on the resample reference layer picture rsPic that is a target of motion mapping. The target block is also a block referred to as a temporary motion vector of the decoding target block on the target layer. Specifically, when the coordinates in the picture of the target block are (xP, yP), the coordinates (xRL, yRL) of the reference image block are derived by the following procedure.
(1) The center coordinates (xPCtr, yPCtr) of the target block are derived by equations (M-1) to (M-2).

xPCtr = xP + ctrOffsetX; (M-1)
yPCtr = yP + ctrOffsetY; (M-2)
ここで、ctrOffsetXおよびctrOffsetYは、それぞれ対象ブロックの左上画素位置から対象ブロックの中心画素位置までの水平方向(x方向)のオフセット、垂直方向(y方向)のオフセットである。対象ブロックのサイズが2^M1×2^N1(M1、N1は自然数)、すなわち、横幅2^M1、縦幅2^N1である場合、 ctrOffsetX = 2^(M1-1)、ctrOffsetY = 2^(N1-1)と設定することが好ましい。例えば、対象ブロックのサイズが16×16であれば、各オフセットの値は8となる。
(2)導出した対象ブロックの中心座標(xPCtr, yPCtr)に対応する参照レイヤピクチャrlPic上の座標(xRef, yRef)を式(M-3)〜(M-4)により導出する。
xPCtr = xP + ctrOffsetX; (M-1)
yPCtr = yP + ctrOffsetY; (M-2)
Here, ctrOffsetX and ctrOffsetY are an offset in the horizontal direction (x direction) and an offset in the vertical direction (y direction) from the upper left pixel position of the target block to the center pixel position of the target block, respectively. If the size of the target block is 2 ^ M1 × 2 ^ N1 (M1 and N1 are natural numbers), that is, width 2 ^ M1 and height 2 ^ N1, ctrOffsetX = 2 ^ (M1-1), ctrOffsetY = 2 ^ It is preferable to set (N1-1). For example, if the size of the target block is 16 × 16, the value of each offset is 8.
(2) The coordinates (xRef, yRef) on the reference layer picture rlPic corresponding to the derived center coordinates (xPCtr, yPCtr) of the target block are derived by the equations (M-3) to (M-4).

xRef =
( ( xPCtr - OffsetL ) * ScaleFactorX + (1<<(nosf_bit-1)) ) >> nosf_bit; (M-3)
yRef =
( ( yPCtr - OffsetT ) * ScaleFactorX + (1<<(nosf_bit-1)) ) >> nosf_bit; (M-4)
(3)参照画像ブロックの座標(xRL, yRL)を式(M-5)〜(M-6)により導出する。
xRef =
((xPCtr-OffsetL) * ScaleFactorX + (1 << (nosf_bit-1))) >>nosf_bit; (M-3)
yRef =
((yPCtr-OffsetT) * ScaleFactorX + (1 << (nosf_bit-1))) >>nosf_bit; (M-4)
(3) The coordinates (xRL, yRL) of the reference image block are derived by equations (M-5) to (M-6).

xRL = ( xRef >> M2 ) << M2; (M-5)
yRL = ( yRef >> N2 ) << N2; (M-6)
ここで、M2、N2はそれぞれ参照画像ブロックのサイズ2^M2×2^N2を表す値である。例えば、参照画像ブロックのサイズが16×16であれば、M2 = 4、N2 = 4となる。なお、動き情報の記録単位は、参照レイヤピクチャrlPicとリサンプル参照レイヤピクチャrsPicとで同一であることが好ましい。
xRL = (xRef >> M2) <<M2; (M-5)
yRL = (yRef >> N2) <<N2; (M-6)
Here, M2 and N2 are values representing the size 2 ^ M2 × 2 ^ N2 of the reference image block, respectively. For example, if the size of the reference image block is 16 × 16, M2 = 4 and N2 = 4. Note that the recording unit of motion information is preferably the same for the reference layer picture rlPic and the resample reference layer picture rsPic.

参照画像ブロック導出部3131は、導出した参照画像ブロックの位置を、動き情報生成部3132へ出力する。   The reference image block deriving unit 3131 outputs the derived position of the reference image block to the motion information generating unit 3132.

動き情報生成部3132は、参照画像ブロック導出部3131から入力された参照画像ブロックの座標(xRL, yRL)に対応する参照レイヤピクチャrlPicの動き情報rlPicMotionを参照し、それを基にリサンプル参照レイヤピクチャrsPic上の対象ブロックのリサンプル動き情報rsPicMotion(復号対象ブロックのテンポラリ動きベクトルとして参照される対象ブロックの予測パラメータ)を生成する。具体的には、対象ブロックの動き情報(予測モードpredMode、参照ピクチャインデックスrefIdxLX、ベクトルmvLX)について、後述の条件に応じて所定の値を設定し、生成した動き情報(rsPicMotion)を予測パラメータメモリ307に記憶する。   The motion information generation unit 3132 refers to the motion information rlPicMotion of the reference layer picture rlPic corresponding to the coordinates (xRL, yRL) of the reference image block input from the reference image block derivation unit 3131, and based on this, the resample reference layer Resample motion information rsPicMotion (prediction parameter of the target block referred to as a temporary motion vector of the decoding target block) of the target block on the picture rsPic is generated. Specifically, for the motion information (prediction mode predMode, reference picture index refIdxLX, vector mvLX) of the target block, a predetermined value is set according to conditions described later, and the generated motion information (rsPicMotion) is used as the prediction parameter memory 307. To remember.

動き情報生成部3132は、上記の各予測パラメータを生成する際、参照画像ブロックの座標や、予測モードpredModeに従って、次のように予測パラメータを決定する。まず、参照画像ブロックの座標(xRL, yRL)が参照レイヤピクチャrlPicの外側に位置する場合、即ち、参照レイヤピクチャrlPicの画像サイズをRLPW × RLPHとしたときに、以下の条件式のいずれかを満たす場合には、予測モードpredMode[xP][yP]をイントラ予測モード(MODE_INTRA)へ設定する。   When generating each prediction parameter, the motion information generation unit 3132 determines the prediction parameter as follows according to the coordinates of the reference image block and the prediction mode predMode. First, when the coordinates (xRL, yRL) of the reference image block are located outside the reference layer picture rlPic, that is, when the image size of the reference layer picture rlPic is RLPW × RLPH, one of the following conditional expressions is When satisfy | filling, prediction mode predMode [xP] [yP] is set to intra prediction mode (MODE_INTRA).

( xRL < 0 ) || ( xRL >= RLPW )
( yRL < 0 ) || ( yRL >= RLPH )
ここで、記号||は、論理和を意味する。上記の条件いずれにも当てはまらない場合には、以下の式のように参照画像ブロックに対応する予測モードをpredMode[xP][yP]に代入して生成する。ここでpredModeRLは、参照レイヤピクチャrlPicにおける予測モードである。
(xRL <0) || (xRL> = RLPW)
(yRL <0) || (yRL> = RLPH)
Here, the symbol || means a logical sum. When none of the above conditions is satisfied, the prediction mode corresponding to the reference image block is generated by substituting for predMode [xP] [yP] as in the following equation. Here, predModeRL is a prediction mode in the reference layer picture rlPic.

predMode[xP][yP] = predModeRL[xRL][yRL];
上記の結果、predMode[xP][yP]がインター予測モード(MODE_INTER)になる場合、参照ピクチャリストL0, L1それぞれに対応する参照ピクチャインデックスrefIdxLX、参照ピクチャインデックスrefIdxLXに対応するピクチャ順序番号refPOCLXおよび予測リスト利用フラグpredFlagLXに対応する参照レイヤピクチャrlPicの予測パラメータを代入して設定する。具体的には以下の式を適用する。
predMode [xP] [yP] = predModeRL [xRL] [yRL];
As a result, when predMode [xP] [yP] is in the inter prediction mode (MODE_INTER), the reference picture index refIdxLX corresponding to each of the reference picture lists L0 and L1, the picture order number refPOCLX corresponding to the reference picture index refIdxLX, and the prediction The prediction parameter of the reference layer picture rlPic corresponding to the list use flag predFlagLX is substituted and set. Specifically, the following formula is applied.

refIdxLX[xP][yP] = refIdxLXRL[xRL][yRL];
refPOCLX[xP][yP] = refPOCLXRL[xRL][yRL];
predFlagLX[xP][yP]= predFlagLXRL[xRL][yRL];
ここで、refIdxLXRLは参照レイヤピクチャrlPicにおける参照ピクチャインデックスであり、refPOCLXRLは、参照レイヤピクチャrlPicにおける参照ピクチャインデックスrefPOCLXRLに対応するピクチャ順序番号であり、predFlagLXRLは、参照レイヤピクチャrlPicにおける予測リスト利用フラグである。
refIdxLX [xP] [yP] = refIdxLXRL [xRL] [yRL];
refPOCLX [xP] [yP] = refPOCLXRL [xRL] [yRL];
predFlagLX [xP] [yP] = predFlagLXRL [xRL] [yRL];
Here, refIdxLXRL is a reference picture index in the reference layer picture rlPic, refPOCLXRL is a picture order number corresponding to the reference picture index refPOCLXRL in the reference layer picture rlPic, and predFlagLXRL is a prediction list use flag in the reference layer picture rlPic is there.

さらに、ベクトルmvLXが、参照レイヤ対応領域SRLAの横幅SRLPWと縦幅SRLPH、参照レイヤピクチャrlPicの横幅RLPWと縦幅RLPH、及び参照レイヤピクチャrlPicのベクトルmvLXRLを用いて以下の手順で導出される。
(1―A)参照レイヤ対応領域SRLAの横幅SRLPWと参照レイヤピクチャの横幅RLPWが等しい場合、以下の式により水平成分のベクトルmvLX[xP][yP][0]を設定する。
Further, the vector mvLX is derived by the following procedure using the horizontal width SRLPW and vertical width SRLPH of the reference layer corresponding region SRLA, the horizontal width RLPW and vertical width RLPH of the reference layer picture rlPic, and the vector mvLXRL of the reference layer picture rlPic.
(1-A) When the horizontal width SRLPW of the reference layer corresponding area SRLA and the horizontal width RLPW of the reference layer picture are equal, a horizontal component vector mvLX [xP] [yP] [0] is set by the following equation.

mvLX[xP][yP][0] = mvLXRL[xRL][yRL][0];
(1−B)参照レイヤ対応領域SRLAの横幅SRLPWと参照レイヤピクチャの横幅RLPWが等しくない場合、参照レイヤピクチャrlPicの水平成分の動きベクトルを以下の式によりスケーリングし、水平成分のベクトルmvLX[xP][yP][0]を設定する。
mvLX [xP] [yP] [0] = mvLXRL [xRL] [yRL] [0];
(1-B) When the horizontal width SRLPW of the reference layer corresponding region SRLA and the horizontal width RLPW of the reference layer picture are not equal, the horizontal component motion vector of the reference layer picture rlPic is scaled by the following equation, and the horizontal component vector mvLX [xP ] [yP] [0] is set.

scaleFactorMVX = Clip3(-2^12, 2^12 - 1, ( ( SRLPW << 8 ) + (RLPW>>1) )/RLPW);
mvLX’= Sign(scaleFactorMVX * mvLXRL[xRL][yRL][0]) *
(( Abs ( scaleFactorMVX *mvLXRL[xRL][yRL][0] ) + 127) >> 8);
mvLX[xP][yP][0] = Clip3( -2^15, 2^15 - 1, mvLX’);
(2―A)参照レイヤ対応領域SRLAの縦幅SRLPHと参照レイヤピクチャの縦幅RLPHが等しい場合、以下の式により垂直成分のベクトルmvLX[xP][yP][1]を設定する。
scaleFactorMVX = Clip3 (-2 ^ 12, 2 ^ 12-1, ((SRLPW << 8) + (RLPW >> 1)) / RLPW);
mvLX '= Sign (scaleFactorMVX * mvLXRL [xRL] [yRL] [0]) *
((Abs (scaleFactorMVX * mvLXRL [xRL] [yRL] [0]) + 127) >>8);
mvLX [xP] [yP] [0] = Clip3 (-2 ^ 15, 2 ^ 15-1, mvLX ');
(2-A) When the vertical width SRLPH of the reference layer corresponding area SRLA is equal to the vertical width RLPH of the reference layer picture, a vertical component vector mvLX [xP] [yP] [1] is set by the following equation.

mvLX[xP][yP][1] = mvLXRL[xRL][yRL][1];
(2−B)参照レイヤ対応領域SRLAの縦幅SRLPHと参照レイヤピクチャの横幅RLPHが等しくない場合、参照レイヤピクチャrlPicの垂直成分の動きベクトルを以下の式によりスケーリングし、垂直成分のベクトルmvLX[xP][yP][1]を設定する。
mvLX [xP] [yP] [1] = mvLXRL [xRL] [yRL] [1];
(2-B) When the vertical width SRLPH of the reference layer corresponding region SRLA and the horizontal width RLPH of the reference layer picture are not equal, the vertical component motion vector of the reference layer picture rlPic is scaled by the following equation, and the vertical component vector mvLX [ Set xP] [yP] [1].

scaleFactorMVY = Clip3(-2^12, 2^12 - 1, ( ( SRLPH << 8 ) + (RLPH>>1) )/RLPH);
mvLX’= Sign(scaleFactorMVY * mvLXRL[xRL][yRL][1]) *
(( Abs ( scaleFactorMVY *mvLXRL[xRL][yRL][1] ) + 127) >> 8);
mvLX[xP][yP][1] = Clip3( -2^15, 2^15 - 1, mvLX’);
ここで、ベクトルmvLX[][][]は、3つめの配列添え字0,1がそれぞれ水平成分、垂直成分を表す。
scaleFactorMVY = Clip3 (-2 ^ 12, 2 ^ 12-1, ((SRLPH << 8) + (RLPH >> 1)) / RLPH);
mvLX '= Sign (scaleFactorMVY * mvLXRL [xRL] [yRL] [1]) *
((Abs (scaleFactorMVY * mvLXRL [xRL] [yRL] [1]) + 127) >>8);
mvLX [xP] [yP] [1] = Clip3 (-2 ^ 15, 2 ^ 15-1, mvLX ');
Here, in the vector mvLX [] [] [], the third array subscripts 0 and 1 represent the horizontal component and the vertical component, respectively.

一方、生成後のpredMode[xP][yP]がイントラ予測モード(MODE_INTRA)になる場合は、参照ピクチャリストL0, L1それぞれに対応する参照ピクチャインデックスrefIdxLX、参照ピクチャインデックスrefIdxLXに対応するピクチャ順序番号refPOCLXおよび予測リスト利用フラグpredFlagLX、及びベクトルmvLXを、それぞれ参照なし、およびゼロになるよう設定する。具体的には以下の式により設定する。   On the other hand, when the predMode [xP] [yP] after generation is in the intra prediction mode (MODE_INTRA), the reference picture index refIdxLX corresponding to each of the reference picture lists L0 and L1, and the picture order number refPOCLX corresponding to the reference picture index refIdxLX And the prediction list use flag predFlagLX and the vector mvLX are set to be no reference and zero, respectively. Specifically, it is set by the following formula.

refIdxLX[xP][yP] = -1;
refPOCLX[xP][yP] = -1;
predFlagLX[xP][yP] = 0;
mvLX[xP][yP][0] = mvLX[xP][yP][1] = 0;
レイヤ間動きマッピング部313は、リサンプル参照レイヤピクチャrsPicののき情報を、対象レイヤの復号を開始する前に生成する。レイヤ間動きマッピング部313は、参照レイヤピクチャ復号部13より入力される参照レイヤピクチャrlPicが存在し、レイヤ間動き予測フラグalt_collocated_indication_flagが1の場合には、以下の処理に基づいて、参照ピクチャの予測パラメータpredMode[xP][yP]、refIdxLX[xP][yP]、mvL0[xP][yP]、mvL1[xP][yP]を生成する。
refIdxLX [xP] [yP] = -1;
refPOCLX [xP] [yP] = -1;
predFlagLX [xP] [yP] = 0;
mvLX [xP] [yP] [0] = mvLX [xP] [yP] [1] = 0;
The inter-layer motion mapping unit 313 generates the information of the resample reference layer picture rsPic before starting decoding of the target layer. When the reference layer picture rlPic input from the reference layer picture decoding unit 13 exists and the inter-layer motion prediction flag alt_collocated_indication_flag is 1, the inter-layer motion mapping unit 313 predicts the reference picture based on the following processing. The parameters predMode [xP] [yP], refIdxLX [xP] [yP], mvL0 [xP] [yP], and mvL1 [xP] [yP] are generated.

レイヤ間動きマッピング部316は、リサンプル参照レイヤピクチャrsPic上の座標(xP, yP)を、それぞれ、0からリサンプル参照レイヤピクチャrsPicの幅,高さまで、16の倍数になるように順次設定する。具体的には、以下の式を適用する。   The inter-layer motion mapping unit 316 sequentially sets the coordinates (xP, yP) on the resample reference layer picture rsPic so as to be a multiple of 16 from 0 to the width and height of the resample reference layer picture rsPic. . Specifically, the following formula is applied.

xP = xPb << 4;
yP = yPb << 4;
ここで、xPb,yPbはそれぞれ、以下のように0から最大値までインクリメントした整数値を設定する。
xP = xPb <<4;
yP = yPb <<4;
Here, xPb and yPb each set an integer value incremented from 0 to the maximum value as follows.

xPb = 0 ... ( (PW + 15) >> 4 ) - 1;
yPb = 0 ... ( (PH + 15) >> 4 ) - 1;
なお、レイヤ間動きマッピング部316は、下記方法の何れかによって、参照レイヤピクチャrlPicを特定し、レイヤ間対応関係パラメータに基づいて、レイヤ間動きマッピングを行う。。
xPb = 0 ... ((PW + 15) >>4)-1;
yPb = 0 ... ((PH + 15) >>4)-1;
Note that the inter-layer motion mapping unit 316 identifies the reference layer picture rlPic by any of the following methods, and performs inter-layer motion mapping based on the inter-layer correspondence parameter. .

(参照レイヤピクチャ特定方法1)スライスヘッダ上のコロケート情報で指定される参照レイヤピクチャを、レイヤ間動きマッピングの対象とする参照レイヤピクチャrlPicとする。具体的には、コロケート情報は、スライスヘッダに含まれリストL0フラグcollocated_from_L0_flagおよび参照インデックスcollocated_ref_idxにより指定されるリストL0フラグcollocated_from_L0_flagは、参照画像ブロックが含まれる画像(参照レイヤピクチャ)が参照ピクチャリストL0から得られるか否かを示し、参照インデックスcollocated_ref_idxは、前記参照画像の、参照ピクチャリスト内の位置(インデックス)を示す。collocated_from_L0_flag、collocated_ref_idxにより指定される参照画像colPicのレイヤIDが、復号対象画像のレイヤIDと異なる場合、参照画像colPicを、レイヤ間動きマッピングの対象とする参照レイヤピクチャとする。   (Reference layer picture specifying method 1) A reference layer picture specified by collocation information on a slice header is set as a reference layer picture rlPic to be subjected to inter-layer motion mapping. Specifically, the collocation information is included in the slice header, and the list L0 flag collocated_from_L0_flag specified by the list L0 flag collocated_from_L0_flag and the reference index collocated_ref_idx includes an image (reference layer picture) including the reference image block from the reference picture list L0. The reference index collocated_ref_idx indicates the position (index) in the reference picture list of the reference picture. When the layer ID of the reference image colPic specified by collocated_from_L0_flag and collocated_ref_idx is different from the layer ID of the decoding target image, the reference image colPic is set as a reference layer picture that is a target of inter-layer motion mapping.

(参照レイヤピクチャ特定方法2)スライスヘッダ上のレイヤ間動き予測フラグalt_colloated_indication_flagが真(1)の場合、コロケート参照レイヤIDcollocated_ref_layer_idxで指定されるアクティブレイヤ間動き参照レイヤActiveMotionPredRefLayerId[ collocated_ref_layer_idx ]を、レイヤ間動きマッピングの対象とする参照レイヤピクチャrlPicとする。   (Reference layer picture specifying method 2) When the inter-layer motion prediction flag alt_colloated_indication_flag on the slice header is true (1), the inter-active motion reference layer ActiveMotionPredRefLayerId [collocated_ref_layer_idx] specified by the collocated reference layer ID collocated_ref_layer_idx The reference layer picture rlPic that is the target of

(参照レイヤピクチャ特定方法3)参照ピクチャリストに含まれる参照ピクチャのうち、参照ピクチャのレイヤIDが、復号対象画像のレイヤIDと異なる場合、その参照ピクチャをレイヤ間動きマッピングの対象とする参照レイヤピクチャとする。具体的にはRefPicList0[]、RefPicList1[]の参照ピクチャのレイヤIDを走査し、復号対象画像のレイヤIDと異なる参照ピクチャを特定する。   (Reference layer picture specifying method 3) Among the reference pictures included in the reference picture list, when the layer ID of the reference picture is different from the layer ID of the decoding target image, the reference layer that is the target of inter-layer motion mapping Let it be a picture. Specifically, the layer IDs of the reference pictures in RefPicList0 [] and RefPicList1 [] are scanned, and a reference picture different from the layer ID of the decoding target image is specified.

以上のように、レイヤ間動きマッピング部316において、対象レイヤ(例えば拡張レイヤ)と参照レイヤ(例えばベースレイヤ)との間のレイヤ間対応関係パラメータ(OffsetL、OffsetT、OffsetR、OffsetB、SRLPW、SRLPH、ScaleFactorX、ScaleFactorY等)に基づいて、リサンプル参照レイヤピクチャrsPic上の対象ブロックに対応する参照レイヤピクチャrlPic上の参照画像ブロックを決定し、参照画像ブロックの動き情報に基づいて対象ブロックの動き情報を生成することができる。これにより、レイヤ間動き予測で使用される動き情報(テンポラル動き情報)の精度を向上させる効果を得ることができる。特に、ピクチャ単位で対象レイヤと参照レイヤの対応領域が変化するシーケンスに対しては、参照レイヤ対応領域情報により導出されるレイヤ間対応関係パラメータに基づいてレイヤ間動きマッピングを行う場合に比べて、アクティブ参照レイヤ対応領域情報(ピクチャ単位の参照レイヤ対応領域情報)により導出されるレイヤ間対応関係パラメータに基づいてレイヤ間動きマッピングを行うことにより、よりレイヤ間動き予測で使用される動き情報(テンポラル動き情報)の精度をより向上させる効果を奏する。それに伴いレイヤ間動き予測の予測精度も向上するため、符号化効率の向上を図ることが可能となる。   As described above, in the inter-layer motion mapping unit 316, the inter-layer correspondence parameters (OffsetL, OffsetT, OffsetR, OffsetB, SRLPW, SRLPH, between the target layer (for example, the enhancement layer) and the reference layer (for example, the base layer), Based on ScaleFactorX, ScaleFactorY, etc.), the reference image block on the reference layer picture rlPic corresponding to the target block on the resample reference layer picture rsPic is determined, and the motion information on the target block is determined based on the motion information on the reference image block Can be generated. Thereby, the effect which improves the precision of the motion information (temporal motion information) used by the motion prediction between layers can be acquired. In particular, for a sequence in which the corresponding region of the target layer and the reference layer changes in units of pictures, compared to the case where inter-layer motion mapping is performed based on the inter-layer correspondence parameter derived from the reference layer corresponding region information, By performing inter-layer motion mapping based on the inter-layer correspondence parameter derived from the active reference layer corresponding region information (reference layer corresponding region information in units of pictures), more motion information (temporal) used in inter-layer motion prediction This has the effect of further improving the accuracy of motion information. Accordingly, the prediction accuracy of inter-layer motion prediction is also improved, so that the encoding efficiency can be improved.

<予測パラメータ復号部302の変形例1>
上述の例では、対象CUの予測タイプがインター予測である場合に、各PU単位で、参照画像リスト上の参照レイヤの画像(リサンプル参照レイヤピクチャrsPic)を示す参照画像インデックスを指定することで、レイヤ間画像予測を利用することが可能である。対象CUにおいてレイヤ間画像予測を利用するかどうかは、上記例に限定されず、対象CU内で、明示的にレイヤ間画像予測フラグtexture_rl_flagを通知することにより可能である。図21は、CU単位でレイヤ間画像予測フラグtexture_rl_flagを含む場合の符号化データの構成を示す図である。図21に示す通り、CU単位の符号化データは、SYNCU01に示すレイヤ間画像予測フラグ(texture_rl_flag)、SYNCU02に示すCUタイプ情報(予測モードフラグ(pred_mode_flag))、SYNCU03に示すPU分割タイプ(part_mode)、並びに図示しないPU情報、およびTU情報から構成される。
<Modification Example 1 of Prediction Parameter Decoding Unit 302>
In the above example, when the prediction type of the target CU is inter prediction, by specifying a reference image index indicating a reference layer image (resampled reference layer picture rsPic) on the reference image list in each PU unit. It is possible to use inter-layer image prediction. Whether or not to use inter-layer image prediction in the target CU is not limited to the above example, and it is possible to explicitly notify the inter-layer image prediction flag texture_rl_flag within the target CU. FIG. 21 is a diagram illustrating a configuration of encoded data when an inter-layer image prediction flag texture_rl_flag is included in CU units. As shown in FIG. 21, the encoded data in CU units includes an inter-layer image prediction flag (texture_rl_flag) indicated by SYNCU01, CU type information (prediction mode flag (pred_mode_flag)) indicated by SYNCU02, and a PU partition type (part_mode) indicated by SYNCU03. , And PU information and TU information (not shown).

以下、図22を用いて、CU単位でレイヤ間画像予測フラグを含む場合の符号化データを復号する動作を説明する。   Hereinafter, the operation of decoding the encoded data when the inter-layer image prediction flag is included in CU units will be described with reference to FIG.

(S601)予測パラメータ復号部302は、可変長復号部301を用いて、所定のパラメータセット(例えば、VPS)単位毎に、参照レイヤ指定情報、及びレイヤ間予測タイプ情報を復号し、それらの情報に基づいて、対象レイヤiが参照レイヤjからのレイヤ間画像予測の有無を示すレイヤ間画像予測有無フラグSamplePredEnableFlag[i][j]を導出する。また、可変長復号部301を用いて、所定のパラメータセット(例えば、SPS)単位毎に、参照レイヤ対応領域情報を復号する。さらに、参照レイヤ対応領域情報に基づいて、レイヤ間画像予測制約フラグを復号する。   (S601) The prediction parameter decoding unit 302 uses the variable length decoding unit 301 to decode reference layer designation information and inter-layer prediction type information for each predetermined parameter set (for example, VPS) unit, and the information Based on, an inter-layer image prediction presence / absence flag SamplePredEnableFlag [i] [j] indicating whether or not the target layer i has inter-layer image prediction from the reference layer j is derived. In addition, the variable length decoding unit 301 is used to decode the reference layer corresponding region information for each predetermined parameter set (for example, SPS) unit. Further, the inter-layer image prediction constraint flag is decoded based on the reference layer corresponding region information.

(S602)予測パラメータ復号部302は、可変長復号部301を用いて、所定パラメータセット(例えば、スライスヘッダ)単位毎に、アクティブ参照レイヤ対応領域情報を復号する。さらに、予測パラメータ復号部302は、復号した参照レイヤ対応領域情報、及びアクティブ参照レイヤ対応領域情報に基づいて、対象ピクチャが参照する各リサンプル参照レイヤピクチャrsPic上の参照レイヤ対応領域SRLAの位置情報(OffsetL、OffsetT、OffsetR、OffsetB)とサイズ情報(SRLPW、SRLPH)を導出する。具体的な導出方法は説明済のため省略する。続いて、各CTBにおいて、以下の処理を行う。   (S602) The prediction parameter decoding unit 302 uses the variable length decoding unit 301 to decode active reference layer corresponding region information for each predetermined parameter set (for example, slice header) unit. Further, the prediction parameter decoding unit 302, based on the decoded reference layer corresponding region information and active reference layer corresponding region information, position information of the reference layer corresponding region SRLA on each resample reference layer picture rsPic to which the target picture refers Deriving (OffsetL, OffsetT, OffsetR, OffsetB) and size information (SRLPW, SRLPH). Since a specific derivation method has already been described, it will be omitted. Subsequently, the following processing is performed in each CTB.

(S603)CUのループを開始する。CUのループはCTBに含まれる全てのCUを順に処理することで行われる。   (S603) The CU loop is started. The CU loop is performed by sequentially processing all the CUs included in the CTB.

(S604)予測パラメータ復号部302は、レイヤ間画像予測適用可フラグInterLayerSamplePredEnableFlag、及びレイヤ間画像予測禁止フラグNoInterlayerSamplePredFlagを導出する。レイヤ間画像予測適用可フラグInterLayerSamplePredEnableFlagは、例えば、次式によって導出される。   (S604) The prediction parameter decoding unit 302 derives an inter-layer image prediction applicability flag InterLayerSamplePredEnableFlag and an inter-layer image prediction prohibition flag NoInterlayerSamplePredFlag. The inter-layer image prediction application flag InterLayerSamplePredEnableFlag is derived, for example, by the following equation.

InterlayerSamplePredEnableFlag = SamplePredEnableFlag[curLayerId][refLayerId]
ここで、curLayerIdは、対象レイヤiを示すレイヤ識別子を示し、refLayerIdは、参照レイヤjを示すレイヤ識別子である。なお、refLayerIdは、予めスライスヘッダ上で通知されていてもよいし、CU単位で通知されてもよい。
InterlayerSamplePredEnableFlag = SamplePredEnableFlag [curLayerId] [refLayerId]
Here, curLayerId is a layer identifier indicating the target layer i, and refLayerId is a layer identifier indicating the reference layer j. The refLayerId may be notified in advance on the slice header or may be notified in units of CUs.

また予測パラメータ復号部302は、レイヤ間画像予測制約フラグ、及び対象CUの最左上画素の座標(xP, yP)とCUサイズlog2CbSize(CUサイズを2を底とした対数値で表現)に基づいて、レイヤ間画像予測禁止フラグNoInterLayerSamplePredFlagを導出する。具体的には、レイヤ間画像予測制約フラグが0の場合は、レイヤ間画像予測禁止フラグを0へ設定する(NoInterLayerSamplePredFlag = 0)。一方、レイヤ間画像予測制約フラグが1の場合は、対象ピクチャcurPic上の対象CUと対応するリサンプル参照レイヤピクチャrsPic上の対応領域が、(参照レイヤ対応領域より外側の画像を参照するレイヤ間画像予測について)において説明した条件(A1)〜(A4)のいずれかの条件を満たす場合、レイヤ間画像予測禁止フラグを1へ設定し (NoInterLayerSamplePredFlag = 1)、それ以外の場合は、レイヤ間画像予測禁止フラグを0へ設定する(NoInterLayerSamplePredFlag = 0)。なお、対象CUの縦幅をhPb(=log2CbSize<<1)、横幅wPb(=log2CbSize)とする。   Further, the prediction parameter decoding unit 302 is based on the inter-layer image prediction constraint flag, the coordinates (xP, yP) of the upper left pixel of the target CU, and the CU size log2CbSize (represented by a logarithmic value with the CU size being 2 as a base) The inter-layer image prediction prohibition flag NoInterLayerSamplePredFlag is derived. Specifically, when the inter-layer image prediction restriction flag is 0, the inter-layer image prediction prohibition flag is set to 0 (NoInterLayerSamplePredFlag = 0). On the other hand, when the inter-layer image prediction constraint flag is 1, the corresponding region on the resample reference layer picture rsPic corresponding to the target CU on the target picture curPic is (an inter-layer referring to an image outside the reference layer corresponding region). If any of the conditions (A1) to (A4) described in “Image prediction” is satisfied, the inter-layer image prediction prohibition flag is set to 1 (NoInterLayerSamplePredFlag = 1). Otherwise, the inter-layer image is set. Set the prediction prohibition flag to 0 (NoInterLayerSamplePredFlag = 0). Note that the vertical width of the target CU is hPb (= log2CbSize << 1) and the horizontal width wPb (= log2CbSize).

(S605)対象レイヤcurLayerId、レイヤ間画像予測適用可フラグInterLayerSamplePredEnableFlagとレイヤ間画像予測禁止フラグNoInterLayerSamplePredFlagが次式(J-1)を満たすかを判定する。   (S605) It is determined whether the target layer curLayerId, the inter-layer image prediction applicable flag InterLayerSamplePredEnableFlag, and the inter-layer image prediction prohibition flag NoInterLayerSamplePredFlag satisfy the following expression (J-1).

curLayerId > 0 &&
InterLayerSamplePredEnableFlag && !NoInterLayerSamplePredFlag ? 1 : 0; (J-1)
すなわち、対象レイヤのレイヤ識別子curLayerIdが0より大きく(拡張レイヤである)、かつ、レイヤ間画像予測適用可フラグが真、かつレイヤ間画像予測禁止フラグが偽であるかどうかを判定する。式(J-1)において、値が真の場合(S605においてYes)、ステップS606へ遷移し、レイヤ間画像予測フラグtexture_rl_flag(図21上のSYNCU01)を復号する(S606)。それ以外の場合(式(J-1)の値が偽の場合)、ステップS607へ遷移し、レイヤ間画像予測フラグtexture_rl_flagの復号を省略し、texture_rl_flagの値をゼロへ設定する(S607)。
curLayerId> 0 &&
InterLayerSamplePredEnableFlag &&! NoInterLayerSamplePredFlag? 1: 0; (J-1)
That is, it is determined whether or not the layer identifier curLayerId of the target layer is greater than 0 (is an enhancement layer), the inter-layer image prediction applicability flag is true, and the inter-layer image prediction prohibition flag is false. In Formula (J-1), when the value is true (Yes in S605), the process proceeds to step S606, and the inter-layer image prediction flag texture_rl_flag (SYNCU01 in FIG. 21) is decoded (S606). In other cases (when the value of the expression (J-1) is false), the process proceeds to step S607, decoding of the inter-layer image prediction flag texture_rl_flag is omitted, and the value of texture_rl_flag is set to zero (S607).

(S608)レイヤ間画像予測フラグの値が1であるかを判定する。同フラグの値が真である場合、ステップS611へ遷移する。同フラグの値が偽の場合、ステップS609へ遷移する。   (S608) It is determined whether the value of the inter-layer image prediction flag is 1. When the value of the flag is true, the process proceeds to step S611. If the value of the flag is false, the process proceeds to step S609.

(S609)対象CUのCUタイプを示すCUタイプ情報、例えば図21上のSYNCU02に示す予測モードフラグ(pred_mode_flag)を復号する。予測モードフラグに基づいて、対象CUのCUタイプ、すなわちイントラCUであるか、インターCUであるか決定する。予測モードフラグが1の場合は、イントラCUであることを示し、0の場合は、インターCUであることを示す。なお、インターCUの場合は、予測モードフラグの後に、図21上のSYNCU03に示すPU分割タイプ情報(part_mode)がさらに復号されうる。   (S609) The CU type information indicating the CU type of the target CU, for example, the prediction mode flag (pred_mode_flag) shown in SYNCU02 on FIG. 21 is decoded. Based on the prediction mode flag, it is determined whether the CU type of the target CU, that is, an intra CU or an inter CU. When the prediction mode flag is 1, it indicates an intra CU, and when it is 0, it indicates an inter CU. In the case of an inter CU, PU partition type information (part_mode) shown in SYNCU03 on FIG. 21 can be further decoded after the prediction mode flag.

(S610)対象CU内に含まれる各PU単位のPU情報が復号される。   (S610) PU information of each PU unit included in the target CU is decoded.

(S611)対象CU内に含まれる各TU単位のTU情報が復号される。   (S611) The TU information of each TU unit included in the target CU is decoded.

(S612)CU単位のループの終端である。   (S612) This is the end of the loop in CU units.

上記予測パラメータ復号部302の変形1によれば、対象CU(対象予測単位)のレイヤ間画像予測フラグ(texture_rl_flag)を、明示的に復号するか否かをレイヤ間画像予測適用可フラグおよびレイヤ間画像予測禁止フラグに基づいて制御する。特に、参照レイヤ対応領域情報、またはアクティブ参照レイヤ対応領域情報で指定される参照レイヤ対応領域SRLA外の画素を含むレイヤ間画像予測を禁止することを示すレイヤ間画像予測制約フラグが1である場合、対象CUに対応するリサンプル参照レイヤピクチャrsPic上の対応領域が参照レイヤ対応領域SRLAを跨ぐレイヤ間画像予測が利用されないことが画像復号装置と画像符号化装置間において保障されている。従って。対象CUに対応するリサンプル参照レイヤピクチャrsPic上の対応領域が参照レイヤ対応領域SRLAを跨ぐ場合(前述の条件(A1)〜(A4)のいずれかを満たす場合)、レイヤ間画像予測フラグの復号を省略する(すなわち、レイヤ間画像予測フラグが0であると推定)ことにより、レイヤ間画像予測フラグの復号に係る処理量を低減することができる。また、レイヤ間画像予測フラグに係る符号量を削減することができるため、符号効率の向上の効果を奏する。また、リサンプル参照レイヤピクチャrsPic上の参照レイヤ対応領域SRLA外の画素が、レイヤ間画像予測において参照されないことが補償されているため、参照レイヤ対応領域外の画素をレイヤ間画像マッピング(リサンプリング処理)によって生成する処理を省略することができる。また、参照ピクチャメモリにおいて、リサンプル参照レイヤピクチャrsPic上の参照レイヤ対応領域SRLA外の画素を保持するためのメモリを削減することができる。   According to the modification 1 of the prediction parameter decoding unit 302, whether or not to explicitly decode the inter-layer image prediction flag (texture_rl_flag) of the target CU (target prediction unit) is determined between the inter-layer image prediction applicable flag and the inter-layer. Control is performed based on the image prediction prohibition flag. In particular, when the inter-layer image prediction constraint flag indicating that inter-layer image prediction including pixels outside the reference layer corresponding region SRLA specified by the reference layer corresponding region information or the active reference layer corresponding region information is 1 is 1. It is ensured between the image decoding device and the image coding device that inter-layer image prediction in which the corresponding region on the resample reference layer picture rsPic corresponding to the target CU straddles the reference layer corresponding region SRLA is not used. Therefore. When the corresponding region on the resample reference layer picture rsPic corresponding to the target CU straddles the reference layer corresponding region SRLA (when any of the above conditions (A1) to (A4) is satisfied), decoding of the inter-layer image prediction flag By omitting (ie, estimating that the inter-layer image prediction flag is 0), it is possible to reduce the processing amount related to decoding of the inter-layer image prediction flag. Moreover, since the amount of codes related to the inter-layer image prediction flag can be reduced, the effect of improving the code efficiency is achieved. In addition, since it is compensated that pixels outside the reference layer corresponding region SRLA on the resample reference layer picture rsPic are not referenced in the inter-layer image prediction, the pixels outside the reference layer corresponding region are inter-layer image mapped (resampling). Processing generated by (processing) can be omitted. Further, in the reference picture memory, it is possible to reduce a memory for holding pixels outside the reference layer corresponding area SRLA on the resample reference layer picture rsPic.

<予測パラメータ復号部302の変形例2>
なお、上記の例では、レイヤ間画像予測制約フラグが1の場合は、参照レイヤ対応領域情報、またはアクティブ参照レイヤ対応領域情報で指定される参照レイヤ対応領域SRLA外の画素を参照するレイヤ間画像予測の使用を禁止することを示すこと前提に説明したが、それに限定されない。レイヤ間画像予測制約フラグが1の場合は、参照レイヤ対応領域情報、またはアクティブ参照レイヤ対応領域情報で指定される参照レイヤ対応領域SRLA外の画素のみを参照するレイヤ間画像予測の使用を禁止することを示してもよい。
<Modification Example 2 of Prediction Parameter Decoding Unit 302>
In the above example, when the inter-layer image prediction constraint flag is 1, an inter-layer image that refers to a pixel outside the reference layer corresponding region SRLA specified by the reference layer corresponding region information or the active reference layer corresponding region information. The description is based on the assumption that the use of prediction is prohibited, but the present invention is not limited to this. When the inter-layer image prediction constraint flag is 1, use of inter-layer image prediction that refers only to pixels outside the reference layer corresponding region SRLA specified by the reference layer corresponding region information or the active reference layer corresponding region information is prohibited. You may show that.

この場合、上記ステップS604において,レイヤ間画像予測禁止フラグを導出する条件式を前述の条件(A1)〜(A4)の代わりに、(参照レイヤ対応領域より外側の画像のみを参照するレイヤ間画像予測について)において説明した条件(B1)〜(B4)へ置き換える。   In this case, in step S604, the conditional expression for deriving the inter-layer image prediction prohibition flag is set to (an inter-layer image that refers only to an image outside the reference layer corresponding region, instead of the above-described conditions (A1) to (A4)). The conditions (B1) to (B4) described in (about prediction) are replaced.

上記予測パラメータ復号部302の変形例2によれば、対象CUのレイヤ間画像予測フラグ(texture_rl_flag)を、明示的に復号するか否かをレイヤ間画像予測適用可フラグおよびレイヤ間画像予測禁止フラグに基づいて制御する。特に、レイヤ間画像予測制約フラグが1である場合、対象CUに対応するリサンプル参照レイヤピクチャrsPic上の対応領域が参照レイヤ対応領域SRLA外の画素のみを参照するレイヤ間画像予測が利用されないことが画像復号装置と画像符号化装置間において保障されている。従って。対象CUに対応するリサンプル参照レイヤピクチャrsPic上の対応領域が参照レイヤ対応領域SRLA外の画素のみを参照する場合(前述の条件(B1)〜(B4)のいずれかを満たす場合)、レイヤ間画像予測フラグの復号を省略する(すなわち、レイヤ間画像予測フラグが0であると推定)ことにより、レイヤ間画像予測フラグの復号に係る処理量を低減することができる。また、レイヤ間画像予測フラグに係る符号量を削減することができるため、符号効率の向上の効果を奏する。   According to the second modification of the prediction parameter decoding unit 302, whether or not to explicitly decode the inter-layer image prediction flag (texture_rl_flag) of the target CU is determined based on whether an inter-layer image prediction application flag and an inter-layer image prediction prohibition flag. Control based on. In particular, when the inter-layer image prediction constraint flag is 1, inter-layer image prediction in which the corresponding region on the resample reference layer picture rsPic corresponding to the target CU refers only to pixels outside the reference layer corresponding region SRLA is not used. Is guaranteed between the image decoding apparatus and the image encoding apparatus. Therefore. When the corresponding region on the resample reference layer picture rsPic corresponding to the target CU refers only to a pixel outside the reference layer corresponding region SRLA (when any of the above conditions (B1) to (B4) is satisfied), between layers By omitting decoding of the image prediction flag (that is, estimating that the inter-layer image prediction flag is 0), it is possible to reduce the processing amount related to decoding of the inter-layer image prediction flag. Moreover, since the amount of codes related to the inter-layer image prediction flag can be reduced, the effect of improving the code efficiency is achieved.

(ビットストリーム制限による階層動画像復号装置)
なお、以上説明した階層動画像復号装置によれば、レイヤ間画像予測制約フラグを復号し、フラグが真の場合に、所定条件を満たさないレイヤ間画像予測により予測単位の予測画像を生成していたが、レイヤ間画像予測制約フラグではなく、ビットストリーム制限としても良い。
(Hierarchical video decoding device with bitstream restriction)
Note that, according to the hierarchical video decoding device described above, the inter-layer image prediction constraint flag is decoded, and when the flag is true, the prediction image of the prediction unit is generated by inter-layer image prediction that does not satisfy the predetermined condition. However, the bit stream restriction may be used instead of the inter-layer image prediction restriction flag.

すなわち、特定のプロファイル(例えばスケーラブル拡張プロファイル)において、本実施形態の階層動画像復号装置は、以下の条件(CF条件)をビットストリームコンフォーマンスとして要求する。   That is, in a specific profile (for example, a scalable extension profile), the hierarchical video decoding apparatus according to the present embodiment requests the following conditions (CF conditions) as bitstream conformance.

予測単位の予測方式がレイヤ間画像予測である場合、所定条件を満たすレイヤ間画像予測を行ってはならない・・・CF条件
上記CF条件は、以下の条件としても同値である。
When the prediction method of the prediction unit is inter-layer image prediction, inter-layer image prediction that satisfies a predetermined condition must not be performed ... CF condition The CF condition is the same as the following condition.

予測単位の予測方式がレイヤ間画像予測である場合、所定条件を満たさないレイヤ間画像予測を行う・・・CF条件
なお、ビットストリームコンフォーマンスとは、階層動画像復号装置(ここでは本発明の実施形態に係る階層動画像復号装置)が復号するビットストリームが満たす必要がある条件である。
When the prediction method of the prediction unit is inter-layer image prediction, inter-layer image prediction that does not satisfy a predetermined condition is performed ... CF condition Note that bitstream conformance is a hierarchical video decoding device (here, the present invention) This is a condition that the bitstream to be decoded by the hierarchical video decoding device according to the embodiment needs to satisfy.

この場合、階層動画像復号装置は、予測画像生成手段は、予測単位の予測方式がレイヤ間画像予測である場合、所定条件を満たさないレイヤ間画像予測により予測単位の予測画像を生成することを特徴とする。   In this case, the hierarchical image decoding device may generate a prediction image of the prediction unit by inter-layer image prediction that does not satisfy the predetermined condition when the prediction method of the prediction unit is inter-layer image prediction. Features.

〔階層動画像符号化装置〕
以下では、本実施形態に係る階層動画像符号化装置2の構成について、図23を参照して説明する。
[Hierarchical video encoding device]
Below, the structure of the hierarchy moving image encoder 2 which concerns on this embodiment is demonstrated with reference to FIG.

(階層動画像符号化装置の構成)
図23を用いて、階層動画像符号化装置2の概略構成を説明する。図23は、階層動画像符号化装置2の概略的構成を示した機能ブロック図である。階層動画像符号化装置2は、対象レイヤの入力画像PIN#Tを、参照レイヤ符号化データDATA#Rを参照しながら符号化して、対象レイヤの階層符号化データDATAを生成する。なお、参照レイヤ符号化データDATA#Rは、参照レイヤに対応する階層動画像符号化装置において符号化済みであるとする。
(Configuration of Hierarchical Video Encoding Device)
A schematic configuration of the hierarchical moving image encoding device 2 will be described with reference to FIG. FIG. 23 is a functional block diagram showing a schematic configuration of the hierarchical video encoding device 2. The hierarchical video encoding device 2 encodes the input image PIN # T of the target layer with reference to the reference layer encoded data DATA # R to generate hierarchical encoded data DATA of the target layer. It is assumed that the reference layer encoded data DATA # R has been encoded in the hierarchical video encoding apparatus corresponding to the reference layer.

図23に示すように階層動画像符号化装置2は、対象レイヤピクチャ符号化部22、NAL多重化部21、および、参照レイヤピクチャ復号部13を備える。   As shown in FIG. 23, the hierarchical video encoding device 2 includes a target layer picture encoding unit 22, a NAL multiplexing unit 21, and a reference layer picture decoding unit 13.

対象レイヤピクチャ符号化部22は、入力画像PIN#Tを符号化して、対象レイヤ符号化データDATA#Tとして出力する。また、対象レイヤピクチャ符号化部22は、入力画像PIN#Tを符号化するために、参照レイヤピクチャ復号部13において復号された参照レイヤ復号ピクチャを利用したレイヤ間画像予測を用いる。   The target layer picture encoding unit 22 encodes the input image PIN # T and outputs it as target layer encoded data DATA # T. Also, the target layer picture encoding unit 22 uses inter-layer image prediction using the reference layer decoded picture decoded by the reference layer picture decoding unit 13 in order to encode the input image PIN # T.

NAL多重化部213は、入力される対象レイヤ符号化データDATA#Tと、参照レイヤ符号化データDATA#RとをNALユニットに格納することでNAL多重化した階層動画像符号化データDATAを生成し、外部に出力する。   The NAL multiplexing unit 213 generates NAL-multiplexed hierarchical video encoded data DATA by storing input target layer encoded data DATA # T and reference layer encoded data DATA # R in the NAL unit. And output to the outside.

参照レイヤピクチャ復号部13は、既に説明した階層動画像復号装置1の備える参照レイヤ復号部13と同一の構成要素であり、詳細説明は省略する。   The reference layer picture decoding unit 13 is the same component as the reference layer decoding unit 13 included in the hierarchical video decoding device 1 that has already been described, and detailed description thereof is omitted.

(対象レイヤピクチャ符号化部22(画像符号化装置))
図24を用いて、対象レイヤピクチャ符号化部22の詳細構成について説明する。図24は、対象レイヤピクチャ符号化部22の構成を例示した機能ブロック図である。画対象レイヤピクチャ符号化部22は、予測画像生成部101、減算部102、DCT・量子化部103、可変長符号化部104、逆量子化・逆DCT部105、加算部106、予測パラメータメモリ(予測パラメータ記憶部、フレームメモリ)108、参照ピクチャメモリ(参照画像記憶部、フレームメモリ)109、符号化パラメータ決定部110、予測パラメータ符号化部111、参照レイヤ対応領域推定部114およびリサンプリング部314を含んで構成される。予測パラメータ符号化部111は、インター予測パラメータ符号化部112及びイントラ予測パラメータ符号化部113を含んで構成される。リサンプリング部314は、レイヤ間画像マッピング部315、レイヤ間動きマッピング部316を含んで構成される。なお、リサンプリング部314は、画像復号装置におけるリサンプリング部314と同等の構成を有する。
(Target Layer Picture Encoding Unit 22 (Image Encoding Device))
The detailed configuration of the target layer picture encoding unit 22 will be described with reference to FIG. FIG. 24 is a functional block diagram illustrating the configuration of the target layer picture encoding unit 22. The image target layer picture encoding unit 22 includes a prediction image generation unit 101, a subtraction unit 102, a DCT / quantization unit 103, a variable length encoding unit 104, an inverse quantization / inverse DCT unit 105, an addition unit 106, and a prediction parameter memory. (Prediction parameter storage unit, frame memory) 108, reference picture memory (reference image storage unit, frame memory) 109, encoding parameter determination unit 110, prediction parameter encoding unit 111, reference layer corresponding region estimation unit 114, and resampling unit 314 is configured. The prediction parameter encoding unit 111 includes an inter prediction parameter encoding unit 112 and an intra prediction parameter encoding unit 113. The resampling unit 314 includes an inter-layer image mapping unit 315 and an inter-layer motion mapping unit 316. Note that the resampling unit 314 has the same configuration as the resampling unit 314 in the image decoding apparatus.

リサンプリング部314は、予測パラメータメモリ108に記録されたレイヤ間画像予測制約フラグ、および予測パラメータメモリ108へ記録された参照レイヤ対応領域情報、およびアクティブ参照レイヤ対応領域情報と、参照レイヤピクチャ復号部15が復号した参照レイヤ復号ピクチャ(参照レイヤピクチャrlPicと呼ぶ)の動き情報rlPicMotion、及び画像rlPicSampleを用いて、リサンプル参照レイヤピクチャrsPicのリサンプル動き情報rsPicMotion及びリサンプル画像rsPicSampleをそれぞれレイヤ間動きマッピング部316、レイヤ間画像マッピング部315において生成する。生成されたリサンプル動き情報rsPicMotionは、予測パラメータメモリ108に格納される。また、生成されたリサンプル画像rsPicSampleは参照ピクチャメモリ109に格納される。なお、レイヤ間画像マッピング部315、およびレイヤ間動きマッピング部316は、対象レイヤピクチャ復号部12と同一であるため説明を省略する。ただし、予測パラメータメモリ307、参照ピクチャメモリ308を予測パラメータメモリ108、参照ピクチャメモリ109へ置き換えて解釈するものとする。   The resampling unit 314 includes an inter-layer image prediction constraint flag recorded in the prediction parameter memory 108, reference layer corresponding region information and active reference layer corresponding region information recorded in the prediction parameter memory 108, and a reference layer picture decoding unit. Using the motion information rlPicMotion and the image rlPicSample of the reference layer decoded picture (referred to as reference layer picture rlPic) decoded by 15, the resample motion information rsPicMotion and the resampled image rsPicSample of the resample reference layer picture rsPic are respectively inter-layer motion. The mapping unit 316 and the inter-layer image mapping unit 315 generate them. The generated resample motion information rsPicMotion is stored in the prediction parameter memory 108. The generated resample image rsPicSample is stored in the reference picture memory 109. Note that the inter-layer image mapping unit 315 and the inter-layer motion mapping unit 316 are the same as the target layer picture decoding unit 12, and thus the description thereof is omitted. However, the prediction parameter memory 307 and the reference picture memory 308 are replaced with the prediction parameter memory 108 and the reference picture memory 109 for interpretation.

予測画像生成部101は、外部から入力された対象レイヤの入力画像PIN#Tの各ピクチャについて、そのピクチャを分割した領域であるブロック毎に予測ピクチャブロックPを生成する。ここで、予測画像生成部101は、予測パラメータ符号化部111から入力された予測パラメータに基づいて参照ピクチャメモリ109から参照ピクチャブロックを読み出す。予測パラメータ符号化部111から入力された予測パラメータとは、例えば、動きベクトル又は変位ベクトルである。予測画像生成部101は、符号化対象ブロックを起点として予測された動きベクトル又は変位ベクトルが示す位置にあるブロックの参照ピクチャブロックを読み出す。予測画像生成部101は、読み出した参照ピクチャブロックについて複数の予測方式のうちの1つの予測方式を用いて予測ピクチャブロックPを生成する。予測画像生成部101は、生成した予測ピクチャブロックPを減算部102に出力する。なお、予測画像生成部101は、既に説明した予測画像生成部308と同じ動作であるため予測ピクチャブロックPの生成の詳細は省略する。   The predicted image generation unit 101 generates a predicted picture block P for each block which is an area obtained by dividing the picture of the input image PIN # T of the target layer input from the outside. Here, the predicted image generation unit 101 reads the reference picture block from the reference picture memory 109 based on the prediction parameter input from the prediction parameter encoding unit 111. The prediction parameter input from the prediction parameter encoding unit 111 is, for example, a motion vector or a displacement vector. The predicted image generation unit 101 reads the reference picture block of the block at the position indicated by the motion vector or the displacement vector predicted from the encoding target block. The prediction image generation unit 101 generates a prediction picture block P using one prediction method among a plurality of prediction methods for the read reference picture block. The predicted image generation unit 101 outputs the generated predicted picture block P to the subtraction unit 102. Note that since the predicted image generation unit 101 performs the same operation as the predicted image generation unit 308 already described, details of generation of the predicted picture block P are omitted.

減算部102は、予測画像生成部101から入力された予測ピクチャブロックPの信号値を、外部から入力された対象レイヤの入力画像PIN#Tの対応するブロックの信号値から画素毎に減算して、残差信号を生成する。減算部102は、生成した残差信号をDCT・量子化部103に出力する。   The subtraction unit 102 subtracts the signal value of the prediction picture block P input from the prediction image generation unit 101 for each pixel from the signal value of the corresponding block of the input image PIN # T of the target layer input from the outside. Generate a residual signal. The subtraction unit 102 outputs the generated residual signal to the DCT / quantization unit 103.

DCT・量子化部103は、減算部102から入力された残差信号についてDCTを行い、DCT係数を算出する。DCT・量子化部103は、算出したDCT係数を量子化して量子化係数を求める。DCT・量子化部103は、求めた量子化係数をエントロピー可変長符号化部104及び逆量子化・逆DCT部105に出力する。   The DCT / quantization unit 103 performs DCT on the residual signal input from the subtraction unit 102 and calculates a DCT coefficient. The DCT / quantization unit 103 quantizes the calculated DCT coefficient to obtain a quantization coefficient. The DCT / quantization unit 103 outputs the obtained quantization coefficient to the entropy variable length coding unit 104 and the inverse quantization / inverse DCT unit 105.

可変長符号化部104には、DCT・量子化部103から量子化係数が入力され、予測パラメータ符号化部111から符号化パラメータが入力される。入力される符号化パラメータには、例えば、予測モードpredMode、分割モードpart_mode、マージフラグmerge_flag、マージインデックスmerge_idx、インター予測フラグinter_pred_idc、参照ピクチャインデックスrefIdxLX、予測ベクトルインデックスmvp_LX_idx、差分ベクトルmvdLX、レイヤ数vps_max_layers_minus1(図3上のSYNVPS01)、レイヤ識別子指定情報(図3上のSYNVPS02)、参照レイヤ指定情報(図3上のSYNVPS04)、レイヤ従属タイプ情報(図3上のSYNVPS05)、参照レイヤ対応領域情報(図5上のSYNSPS02)、レイヤ間画像予測制約フラグ(図5上のSYNSPS03)、アクティブ参照レイヤ指定情報(図7上のSYNSH01)、アクティブ参照レイヤ対応領域情報(図7上のSYNSH02)、コロケート情報collocated_from_l0_flag,collocated_ref_idx, alt_collocated_indication_flag, collocated_ref_layer_idexなどの符号がある。   The variable length coding unit 104 receives the quantization coefficient from the DCT / quantization unit 103 and the coding parameter from the prediction parameter coding unit 111. Input coding parameters include, for example, prediction mode predMode, partition mode part_mode, merge flag merge_flag, merge index merge_idx, inter prediction flag inter_pred_idc, reference picture index refIdxLX, prediction vector index mvp_LX_idx, difference vector mvdLX, number of layers vps_max_layers_minus1 ( SYNVPS01 in FIG. 3), layer identifier designation information (SYNVPS02 in FIG. 3), reference layer designation information (SYNVPS04 in FIG. 3), layer dependent type information (SYNVPS05 in FIG. 3), reference layer corresponding area information (FIG. 5), inter-layer image prediction constraint flag (SYNSPS03 in FIG. 5), active reference layer designation information (SYNSH01 in FIG. 7), active reference layer corresponding region information (SYNSH02 in FIG. 7), collocated information collocated_from_l0_flag , Collocated_ref_idx, alt_collocated_indication_flag, and collocated_ref_layer_idex.

可変長符号化部104は、入力された量子化係数と符号化パラメータを可変長符号化して、対象レイヤ符号化データDATA#Tを生成し、外部に出力する。   The variable length coding unit 104 performs variable length coding on the input quantization coefficient and coding parameter, generates target layer coded data DATA # T, and outputs it to the outside.

逆量子化・逆DCT部105は、DCT・量子化部103から入力された量子化係数を逆量子化してDCT係数を求める。逆量子化・逆DCT部105は、求めたDCT係数について逆DCTを行い、復号残差信号を算出する。逆量子化・逆DCT部105は、算出した復号残差信号を加算部106に出力する。   The inverse quantization / inverse DCT unit 105 inversely quantizes the quantization coefficient input from the DCT / quantization unit 103 to obtain a DCT coefficient. The inverse quantization / inverse DCT unit 105 performs inverse DCT on the obtained DCT coefficient to calculate a decoded residual signal. The inverse quantization / inverse DCT unit 105 outputs the calculated decoded residual signal to the addition unit 106.

加算部106は、予測画像生成部101から入力された予測ピクチャブロックPの信号値と逆量子化・逆DCT部105から入力された復号残差信号の信号値を画素毎に加算して、参照ピクチャブロックを生成する。加算部106は、生成した参照ピクチャブロックを参照ピクチャメモリ109に記憶する。   The addition unit 106 adds the signal value of the predicted picture block P input from the predicted image generation unit 101 and the signal value of the decoded residual signal input from the inverse quantization / inverse DCT unit 105 for each pixel, and refers to them. Generate a picture block. The adding unit 106 stores the generated reference picture block in the reference picture memory 109.

予測パラメータメモリ108は、予測パラメータ符号化部111が生成した予測パラメータを、符号化対象のピクチャ及びブロック毎に予め定めた位置に記憶する。   The prediction parameter memory 108 stores the prediction parameter generated by the prediction parameter encoding unit 111 at a predetermined position for each picture and block to be encoded.

参照ピクチャメモリ109は、加算部106が生成した参照ピクチャブロックを、符号化対象のピクチャ及びブロック毎に予め定めた位置に記憶する。   The reference picture memory 109 stores the reference picture block generated by the addition unit 106 at a predetermined position for each picture and block to be encoded.

符号化パラメータ決定部110は、符号化パラメータの複数のセットのうち、1つのセットを選択する。符号化パラメータとは、上述した予測パラメータやこの予測パラメータに関連して生成される符号化の対象となるパラメータである。   The encoding parameter determination unit 110 selects one set from among a plurality of sets of encoding parameters. The encoding parameter is a parameter to be encoded that is generated in association with the above-described prediction parameter or the prediction parameter.

符号化パラメータ決定部110は、上記符号化パラメータの複数のセットの各々について情報量の大きさと符号化誤差を示すコスト値を算出する。コスト値は、例えば、符号量と二乗誤差に係数λを乗じた値との和である。符号量は、量子化誤差と符号化パラメータを可変長符号化して得られる対象レイヤ符号化データDATA#Tの情報量である。二乗誤差は、減算部102において算出された残差信号の残差値の二乗値についての画素間の総和である。係数λは、予め設定されたゼロよりも大きい実数である。符号化パラメータ決定部110は、算出したコスト値が最小となる符号化パラメータのセットを選択する。これにより、可変長符号化部104は、選択した符号化パラメータのセットを対象レイヤ符号化データDATA#Tとして外部に出力し、選択されなかった符号化パラメータのセットを出力しない。   The encoding parameter determination unit 110 calculates a cost value indicating the amount of information and the encoding error for each of the plurality of sets of the encoding parameters. The cost value is, for example, the sum of a code amount and a square error multiplied by a coefficient λ. The code amount is the information amount of the target layer encoded data DATA # T obtained by variable-length encoding the quantization error and the encoding parameter. The square error is the sum between pixels regarding the square value of the residual value of the residual signal calculated by the subtracting unit 102. The coefficient λ is a real number larger than a preset zero. The encoding parameter determination unit 110 selects a set of encoding parameters that minimizes the calculated cost value. Thereby, the variable length coding unit 104 outputs the selected set of coding parameters to the outside as the target layer coded data DATA # T, and does not output the set of coding parameters not selected.

選択される符号化パラメータのセットは、選択する予測方式に依存する。選択の対象となる予測方式は、符号化対象のピクチャが基本レイヤのピクチャである場合には、イントラ予測、動き予測及びマージ予測である。動き予測とは、上述のインター予測のうち、表示時刻間の予測である。マージ予測とは、既に符号化されたブロックであって、符号化対象ブロックから予め定めた範囲内にあるブロックと同一の参照ピクチャブロック及び予測パラメータを用いる予測である。符号化対象のピクチャが上位レイヤ(拡張レイヤ)のピクチャである場合には、選択の対象となる予測方式は、イントラ予測、動き予測、マージ予測、及びレイヤ間予測(レイヤ間画像予測、レイヤ間動き予測)である。   The set of coding parameters that are selected depends on the prediction scheme that is selected. The prediction method to be selected is intra prediction, motion prediction, and merge prediction when the encoding target picture is a base layer picture. Motion prediction is prediction between display times among the above-mentioned inter predictions. The merge prediction is a prediction that uses the same reference picture block and prediction parameter as a block that has already been encoded and is within a predetermined range from the encoding target block. When the picture to be encoded is a picture of an upper layer (enhancement layer), the prediction methods to be selected are intra prediction, motion prediction, merge prediction, and inter-layer prediction (inter-layer image prediction, inter-layer prediction). Motion prediction).

符号化パラメータ決定部110は、選択した予測方式に対応する予測モードpredModeを予測パラメータ符号化部111に出力する。例えば、予測方式として動き予測を選択した場合、符号化パラメータ決定部110は、動きベクトルmvLXも併せて出力する。動きベクトルmvLXは、符号化対象ブロックの位置から予測ピクチャブロックPを生成する際の参照ピクチャブロックの位置までのベクトルを示す。動きベクトルmvLXを示す情報には、参照ピクチャを示す情報(例えば、参照ピクチャインデックスrefIdxLX、ピクチャ順序番号POC)を含み、予測パラメータを表すものであっても良い。予測方式としてレイヤ間予測を選択した場合、符号化パラメータ決定部110は、変位ベクトルmvLXも併せて出力する。変位ベクトルmvLXは、符号化対象ブロックの位置から予測ピクチャブロックPを生成する際の参照ピクチャブロックの位置までのベクトルを示す。変位ベクトルmvLXを示す情報には、参照ピクチャを示す情報(例えば、参照ピクチャインデックスrefIdxLX、レイヤ識別子layer_id)を含み、予測パラメータを表すものであっても良い。予測方式としてマージ予測を選択した場合、符号化パラメータ決定部110は、マージインデックスmerge_idxも併せて出力する。   The encoding parameter determination unit 110 outputs the prediction mode predMode corresponding to the selected prediction method to the prediction parameter encoding unit 111. For example, when motion prediction is selected as the prediction method, the encoding parameter determination unit 110 also outputs a motion vector mvLX. The motion vector mvLX indicates a vector from the position of the encoding target block to the position of the reference picture block when the predicted picture block P is generated. The information indicating the motion vector mvLX may include information indicating a reference picture (for example, a reference picture index refIdxLX, a picture order number POC), and may represent a prediction parameter. When inter-layer prediction is selected as the prediction method, the encoding parameter determination unit 110 also outputs a displacement vector mvLX. The displacement vector mvLX indicates a vector from the position of the encoding target block to the position of the reference picture block when the predicted picture block P is generated. The information indicating the displacement vector mvLX may include information indicating a reference picture (for example, a reference picture index refIdxLX, a layer identifier layer_id) and may represent a prediction parameter. When merge prediction is selected as the prediction method, the encoding parameter determination unit 110 also outputs a merge index merge_idx.

なお、符号化パラメータ決定部110は、レイヤ間画像予測制約フラグが真(1)であって、対象予測単位が参照しうるリサンプル参照ピクチャ上rsPic上の対応領域が、(参照レイヤ対応領域より外側の画像を参照するレイヤ間画像予測について)において説明した条件(A1)〜(A4)の何れか一つでも満たす場合、対象予測単位の予測方式として、レイヤ間画像予測(異なるレイヤを参照するインター予測)を選択せず、イントラ予測、あるいは同一レイヤ上のインター予測を選択するものとする。すなわち、上記条件を満たす参照ピクチャインデックスを含む予測パラメータは、符号化データに含まれないことになる。なお、条件(A1)〜(A4)の代わりに、(参照レイヤ対応領域より外側の画像のみを参照するレイヤ間画像予測について)において説明した条件(B1)〜(B4)を用いてもよい。なお、インター予測において、参照画像リスト上の参照レイヤの画像(リサンプル参照レイヤピクチャrsPic)を示す参照画像インデックスを指定することで、レイヤ間画像予測を利用することが可能である。   Note that the encoding parameter determination unit 110 has a corresponding region on the rsPic on the resample reference picture that the inter-layer image prediction constraint flag is true (1) and can be referred to by the target prediction unit (from the reference layer corresponding region). When any one of the conditions (A1) to (A4) described in “Inter-layer image prediction referring to the outer image” is satisfied, the inter-layer image prediction (referring to different layers) is performed as the prediction method of the target prediction unit. It is assumed that intra prediction or inter prediction on the same layer is selected without selecting (inter prediction). That is, a prediction parameter including a reference picture index that satisfies the above condition is not included in the encoded data. Instead of the conditions (A1) to (A4), the conditions (B1) to (B4) described in (Inter-layer image prediction that refers only to images outside the reference layer corresponding region) may be used. In inter prediction, it is possible to use inter-layer image prediction by specifying a reference image index indicating a reference layer image (resampled reference layer picture rsPic) on the reference image list.

予測パラメータ符号化部111は、符号化パラメータ決定部110から入力されたパラメータに基づいて予測ピクチャを生成する際に用いる予測パラメータを導出し、導出した予測パラメータを符号化して符号化パラメータのセットを生成する。予測パラメータ符号化部111は、生成した符号化パラメータのセットを可変長符号化部104に出力する。   The prediction parameter encoding unit 111 derives a prediction parameter to be used when generating a prediction picture based on the parameter input from the encoding parameter determination unit 110, encodes the derived prediction parameter, and sets a set of encoding parameters. Generate. The prediction parameter encoding unit 111 outputs the generated set of encoding parameters to the variable length encoding unit 104.

予測パラメータ符号化部111は、生成した符号化パラメータのセットのうち符号化パラメータ決定部110が選択したものに対応する予測パラメータを予測パラメータメモリ108に記憶する。   The prediction parameter encoding unit 111 stores, in the prediction parameter memory 108, a prediction parameter corresponding to the one selected by the encoding parameter determination unit 110 from the generated set of encoding parameters.

予測パラメータ符号化部111は、符号化パラメータ決定部110から入力された予測モードpredModeがインター予測モードを示す場合、インター予測パラメータ符号化部112を動作させる。予測パラメータ符号化部111は、予測モードpredModeがイントラ予測モードを示す場合、イントラ予測パラメータ符号化部113を動作させる。   The prediction parameter encoding unit 111 operates the inter prediction parameter encoding unit 112 when the prediction mode predMode input from the encoding parameter determination unit 110 indicates the inter prediction mode. The prediction parameter encoding unit 111 operates the intra prediction parameter encoding unit 113 when the prediction mode predMode indicates the intra prediction mode.

インター予測パラメータ符号化部112は、符号化パラメータ決定部110から入力された予測パラメータに基づいてインター予測パラメータを導出する。インター予測パラメータ符号化部112は、インター予測パラメータを導出する構成として、インター予測パラメータ復号部303がインター予測パラメータを導出する構成(図15,図17参照)と同一の構成を含む。インター予測パラメータ符号化部112の構成については、後述する。   The inter prediction parameter encoding unit 112 derives an inter prediction parameter based on the prediction parameter input from the encoding parameter determination unit 110. The inter prediction parameter encoding unit 112 includes the same configuration as the configuration in which the inter prediction parameter decoding unit 303 derives the inter prediction parameter (see FIGS. 15 and 17) as a configuration for deriving the inter prediction parameter. The configuration of the inter prediction parameter encoding unit 112 will be described later.

イントラ予測パラメータ符号化部113は、符号化パラメータ決定部110から入力された予測モードpredModeが示すイントラ予測モードIntraPredModeをイントラ予測パラメータのセットとして定める。   The intra prediction parameter encoding unit 113 determines the intra prediction mode IntraPredMode indicated by the prediction mode predMode input from the encoding parameter determination unit 110 as a set of intra prediction parameters.

参照レイヤ対応領域推定部114は、入力される対象レイヤの画像と、参照レイヤピクチャ復号部13より入力される参照レイヤピクチャrlPicの画像rlSampleから、対象レイヤと参照レイヤの対応領域を表わす参照レイヤ対応領域情報(シーケンス全体で共通の参照レイヤ対応領域情報(図5のSYNSPS02)、ピクチャ単位の参照レイヤ対応領域情報(図7のSYNSH02、または図8のSYNSH03))を算出し、予測パラメータ符号化部111へ出力する。例えば、参照レイヤ対応領域推定部114は、対象レイヤと参照レイヤの同時刻のピクチャ間で、まずエッジやコーナー点などの特徴点を抽出し、その特徴点どうしの対応点を求める特徴点ベースマッチングを行い、画像間の対応付けを示すパラメータ(例えば、射影変換行列、または回転行列と平行移動ベクトル))を算出する。基本的に、スケーラブル符号化では、対象レイヤと参照レイヤは、空間的な倍率、及び位置が異なる画像であるため、算出する必要があるのは、倍率(x方向、y方向)、及び平行移動ベクトル(x方向、y方向)である。算出した画像間の対応付けを示すパラメータから、対象レイヤのピクチャと参照レイヤ対応領域との位置関係を示すパラメータ(参照レイヤ対応領域情報(offsetL、offsetT、offsetR、offsetBなど)を導出し、予測パラメータ符号化部111へ出力する。なお、参照レイヤ対応領域推定部114を含まずに、対象レイヤと参照レイヤの対応関係(参照レイヤ対応領域情報)を既知であるとし、外部より入力してもよい。   The reference layer corresponding region estimation unit 114, from the input target layer image and the reference layer picture rlPic image rlSample input from the reference layer picture decoding unit 13, the reference layer corresponding to the target layer and the reference layer corresponding region Region information (reference layer corresponding region information common to the entire sequence (SYNSPS02 in FIG. 5), reference layer corresponding region information in units of pictures (SYNSH02 in FIG. 7 or SYNSH03 in FIG. 8)) is calculated, and a prediction parameter encoding unit To 111. For example, the reference layer corresponding region estimation unit 114 first extracts feature points such as edges and corner points between pictures of the target layer and the reference layer at the same time, and calculates feature points based matching between the feature points. To calculate a parameter (for example, a projective transformation matrix or a rotation matrix and a translation vector) indicating the association between images. Basically, in scalable coding, the target layer and the reference layer are images having different spatial magnifications and positions, and therefore, what needs to be calculated is the magnification (x direction, y direction) and translation. It is a vector (x direction, y direction). A parameter indicating the positional relationship between the picture of the target layer and the reference layer corresponding region (reference layer corresponding region information (offsetL, offsetT, offsetR, offsetB, etc.)) is derived from the calculated parameter indicating the correlation between images, and the prediction parameter It outputs to the encoding part 111. In addition, the reference layer corresponding | compatible area estimation part 114 is not included, but the correspondence (reference layer corresponding | compatible area information) of an object layer and a reference layer is known, and you may input from the outside. .

予測パラメータ符号化部111は、参照レイヤ対応領域推定部114から入力された参照レイヤ対応領域情報から各シンタックスを、例えば式(I-1)〜(I-4)、(I-1B)〜(I-4B)等で導出し、導出した各シンタックスを符号化する。なお、参照レイヤ対応領域情報は、スライスレイヤ単位、ピクチャレイヤ単位、シーケンスレイヤ単位のいずれかの単位で出力する。また、予測パラメータ符号化部111は、図示しないレイヤ間情報導出部1160をさらに含む。レイヤ間情報導出部1160は、予測パラメータ復号部302が備えるレイヤ間情報導出部3020と同等の機能を有する。符号化された参照レイヤ対応領域情報に基づいて、対象レイヤiが参照する参照レイヤjに関するレイヤ間対応関係パラメータとして、リサンプル参照レイヤピクチャrsPic上における参照レイヤ対応領域SRLAの位置を示すオフセットOffsetL、OffsetT、OffsetR、OffsetBを前述の式(G-1)〜(G-4)を用いて導出し、参照レイヤ対応領域SRLAの横幅SRLPWおよび縦幅SRLPHを前述の式(G-5)〜(G-6)を用いて導出する。   The prediction parameter encoding unit 111 converts each syntax from the reference layer corresponding region information input from the reference layer corresponding region estimation unit 114 to, for example, equations (I-1) to (I-4), (I-1B) to Derived by (I-4B) or the like, and encodes each derived syntax. The reference layer corresponding area information is output in units of slice layers, picture layers, or sequence layers. Moreover, the prediction parameter encoding unit 111 further includes an inter-layer information deriving unit 1160 (not shown). The inter-layer information deriving unit 1160 has the same function as the inter-layer information deriving unit 3020 included in the prediction parameter decoding unit 302. Based on the encoded reference layer corresponding region information, offset OffsetL indicating the position of the reference layer corresponding region SRLA on the resampled reference layer picture rsPic as an inter-layer correspondence parameter regarding the reference layer j referred to by the target layer i, OffsetT, OffsetR, and OffsetB are derived using the above equations (G-1) to (G-4), and the horizontal width SRLPW and the vertical width SRLPH of the reference layer corresponding region SRLA are derived from the above equations (G-5) to (G -6).

続いて、対象レイヤiが参照する参照レイヤjに対応するアクティブ参照レイヤ対応領域情報があれば、その情報を用いて参照レイヤ対応領域SRLAの位置を示すオフセットOffsetL、OffsetT、OffsetR、OffsetB、および参照レイヤ対応領域SRLAの横幅SRLPWと縦幅SRLPHを再設定する。   Subsequently, if there is active reference layer corresponding area information corresponding to the reference layer j referred to by the target layer i, the offsets OffsetL, OffsetT, OffsetR, OffsetB indicating the position of the reference layer corresponding area SRLA using the information, and the reference The horizontal width SRLPW and vertical width SRLPH of the layer corresponding area SRLA are reset.

続いて、参照レイヤ対応領域SRLAと参照レイヤピクチャrlPicの横幅のサイズ比ScaleFactorXと縦幅のサイズ比ScaleFactorYを前述の式(G-7)〜(G-8)を用いて導出する。   Subsequently, the horizontal width size ratio ScaleFactorX and the vertical width size ratio ScaleFactorY of the reference layer corresponding region SRLA and the reference layer picture rlPic are derived using the above-described equations (G-7) to (G-8).

レイヤ間情報導出部1160にて導出されたレイヤ間対応関係パラメータ(OffsetL、OffsetT、OffsetR、OffsetB、SRLPW、SRLPH、ScaleFactorX、ScaleFactorY等)は予測パラメータメモリ108で記憶される。   Inter-layer correspondence parameters (OffsetL, OffsetT, OffsetR, OffsetB, SRLPW, SRLPH, ScaleFactorX, ScaleFactorY, etc.) derived by the inter-layer information deriving unit 1160 are stored in the prediction parameter memory 108.

さらに、予測パラメータ符号化部111は、参照レイヤ対応領域情報に基づいて、レイヤ間画像予測制約フラグを符号化する。参照レイヤ対応領域情報があれば、レイヤ間予測画像制約フラグを符号化し、参照レイヤ対応領域情報がなければ、レイヤ間画像制約フラグの値は0と推定し、符号化を省略する。なお、レイヤ間画像予測制約フラグの値は、符号化パラメータ決定部110において決定されてもよいし、外部より指定してもよい。   Furthermore, the prediction parameter encoding unit 111 encodes the inter-layer image prediction constraint flag based on the reference layer corresponding region information. If there is the reference layer corresponding region information, the inter-layer prediction image constraint flag is encoded. If there is no reference layer corresponding region information, the value of the inter-layer image constraint flag is estimated as 0, and the encoding is omitted. Note that the value of the inter-layer image prediction constraint flag may be determined by the encoding parameter determination unit 110 or may be designated from the outside.

(インター予測パラメータ符号化部112)
インター予測パラメータ符号化部112の構成について説明する。インター予測パラメータ符号化部112は、画像復号装置におけるインター予測パラメータ復号部303に対応する手段である。
(Inter prediction parameter encoding unit 112)
The configuration of the inter prediction parameter encoding unit 112 will be described. The inter prediction parameter encoding unit 112 is means corresponding to the inter prediction parameter decoding unit 303 in the image decoding apparatus.

図25は、本実施形態に係るインター予測パラメータ符号化部112の構成を示す概略図である。インター予測パラメータ符号化部112は、マージ予測パラメータ導出部1121、AMVP予測パラメータ導出部1122、減算部1123、インター予測パラメータ符号化制御部1124を含んで構成される。   FIG. 25 is a schematic diagram illustrating a configuration of the inter prediction parameter encoding unit 112 according to the present embodiment. The inter prediction parameter encoding unit 112 includes a merge prediction parameter deriving unit 1121, an AMVP prediction parameter deriving unit 1122, a subtracting unit 1123, and an inter prediction parameter encoding control unit 1124.

マージ予測パラメータ導出部1121は、上述のマージ予測パラメータ導出部3036(図15参照)と同様の構成を有する。   The merge prediction parameter derivation unit 1121 has the same configuration as the merge prediction parameter derivation unit 3036 (see FIG. 15).

マージ予測パラメータ導出部1121には、符号化パラメータ決定部110から入力される予測モードpredModeがマージ予測モードを示す場合、符号化パラメータ決定部110からマージインデックスmerge_idxが入力される。マージインデックスmerge_idxは、インター予測パラメータ符号化制御部1124に出力される。マージ予測パラメータ導出部1121は、マージ候補のうちマージインデックスmerge_idxが示す参照ブロックの参照ピクチャインデックスrefIdxLX、ベクトルmvLXを予測パラメータメモリ108から読み出す。マージ候補とは、符号化対象となる符号化対象ブロックから予め定めた範囲にある参照ブロック(例えば、符号化対象ブロックの左下端、左上端、右上端に接する参照ブロックのうち)であって、符号化処理が完了した参照ブロックである。   The merge index merge_idx is input from the encoding parameter determination unit 110 to the merge prediction parameter derivation unit 1121 when the prediction mode predMode input from the encoding parameter determination unit 110 indicates the merge prediction mode. The merge index merge_idx is output to the inter prediction parameter encoding control unit 1124. The merge prediction parameter derivation unit 1121 reads the reference picture index refIdxLX and the vector mvLX of the reference block indicated by the merge index merge_idx from the prediction candidates from the prediction parameter memory 108. The merge candidate is a reference block (for example, a reference block in contact with the lower left end, upper left end, and upper right end of the encoding target block) within a predetermined range from the encoding target block to be encoded, This is a reference block for which the encoding process has been completed.

AMVP予測パラメータ導出部1122は、上述のAMVP予測パラメータ導出部3032(図17参照)と同様の構成を有する。   The AMVP prediction parameter derivation unit 1122 has the same configuration as the AMVP prediction parameter derivation unit 3032 (see FIG. 17).

AMVP予測パラメータ導出部1122には、符号化パラメータ決定部110から入力される予測モードpredModeがインター予測モードを示す場合、符号化パラメータ決定部110からベクトルmvLXが入力される。AMVP予測パラメータ導出部1122は、入力されたベクトルmvLXに基づいて予測ベクトルmvpLXを導出する。AMVP予測パラメータ導出部1122は、導出した予測ベクトルmvpLXを減算部1123に出力する。なお、参照ピクチャインデックスrefIdx及びベクトルインデックスmvp_LX_idxは、インター予測パラメータ符号化制御部1124に出力される。   When the prediction mode predMode input from the encoding parameter determination unit 110 indicates the inter prediction mode, the vector mvLX is input from the encoding parameter determination unit 110 to the AMVP prediction parameter derivation unit 1122. The AMVP prediction parameter derivation unit 1122 derives a prediction vector mvpLX based on the input vector mvLX. The AMVP prediction parameter derivation unit 1122 outputs the derived prediction vector mvpLX to the subtraction unit 1123. Note that the reference picture index refIdx and the vector index mvp_LX_idx are output to the inter prediction parameter encoding control unit 1124.

減算部1123は、符号化パラメータ決定部110から入力されたベクトルmvLXから、AMVP予測パラメータ導出部1122から入力された予測ベクトルmvpLXを減算して差分ベクトルmvdLXを生成する。差分ベクトルmvdLXはインター予測パラメータ符号化制御部1124に出力する。   The subtraction unit 1123 subtracts the prediction vector mvpLX input from the AMVP prediction parameter derivation unit 1122 from the vector mvLX input from the encoding parameter determination unit 110 to generate a difference vector mvdLX. The difference vector mvdLX is output to the inter prediction parameter encoding control unit 1124.

インター予測パラメータ符号化制御部1124は、インター予測に関連する符号(シンタックス要素)の符号化を可変長符号化部104に指示し、符号化データに含める符号(シンタックス要素)を例えば、分割モードpart_mode、マージフラグmerge_flag、マージインデックスmerge_idx、インター予測識別子inter_pred_idc、参照ピクチャインデックスrefIdxLX、予測ベクトルインデックスmvp_LX_idx、差分ベクトルmvdLXを符号化する。   The inter prediction parameter coding control unit 1124 instructs the variable length coding unit 104 to code a code (syntax element) related to inter prediction, and divides the code (syntax element) included in the encoded data, for example The mode part_mode, merge flag merge_flag, merge index merge_idx, inter-prediction identifier inter_pred_idc, reference picture index refIdxLX, prediction vector index mvp_LX_idx, and difference vector mvdLX are encoded.

インター予測パラメータ符号化制御部1124は、予測モードpredModeがマージ予測モードを示す場合には、符号化パラメータ決定部110から入力されたマージインデックスmerge_idxを可変長符号化部104に出力する。   The inter prediction parameter encoding control unit 1124 outputs the merge index merge_idx input from the encoding parameter determination unit 110 to the variable length encoding unit 104 when the prediction mode predMode indicates the merge prediction mode.

インター予測パラメータ符号化制御部1124は、予測モードpredModeがインター予測モードを示す場合には、符号化パラメータ決定部110から入力された参照ピクチャインデックスrefIdxLX及びベクトルインデックスmvp_LX_idx、減算部1123から入力された差分ベクトルmvdLXを、可変長符号化部104に出力する。   When the prediction mode predMode indicates the inter prediction mode, the inter prediction parameter encoding control unit 1124 receives the reference picture index refIdxLX and the vector index mvp_LX_idx input from the encoding parameter determination unit 110, and the difference input from the subtraction unit 1123. Vector mvdLX is output to variable length coding section 104.

以上のように、レイヤ間画像マッピング部315において、対象レイヤ(例えば拡張レイヤ)と参照レイヤ(例えばベースレイヤ)との間のレイヤ間対応関係パラメータ(OffsetL、OffsetT、OffsetR、OffsetB、SRLPW、SRLPH、ScaleFactorX、ScaleFactorY等)に基づいて、リサンプル参照レイヤピクチャrsPic上の各画素に対応する参照レイヤピクチャrlPic上の参照画素の位置を決定し、その参照画素と周辺画素に所定のリサンプルフィルタを適用することで、対象画素を生成することができる。これにより、レイヤ間画像予測で使用されるリサンプル画像の精度を向上させる効果を得ることができる。特に、ピクチャ単位で対象レイヤと参照レイヤの対応領域が変化するシーケンスに対しては、参照レイヤ対応領域情報により導出されるレイヤ間対応関係パラメータに基づいてレイヤ間画像マッピングを行う場合に比べて、アクティブ参照レイヤ対応領域情報により導出されるレイヤ間対応関係パラメータに基づいてレイヤ間画像マッピングを行うことにより、よりレイヤ間画像予測で使用されるリサンプル画像の精度をより向上させる効果を奏する。それに伴いレイヤ間画像予測の予測精度も向上するため、符号化効率の向上を図ることが可能となる。   As described above, in the inter-layer image mapping unit 315, the inter-layer correspondence parameters (OffsetL, OffsetT, OffsetR, OffsetB, SRLPW, SRLPH, and the like between the target layer (for example, the enhancement layer) and the reference layer (for example, the base layer) Based on ScaleFactorX, ScaleFactorY, etc.), the position of the reference pixel on the reference layer picture rlPic corresponding to each pixel on the resample reference layer picture rsPic is determined, and a predetermined resample filter is applied to the reference pixel and surrounding pixels Thus, the target pixel can be generated. Thereby, the effect which improves the precision of the resample image used by the image prediction between layers can be acquired. In particular, for a sequence in which the corresponding region of the target layer and the reference layer changes in units of pictures, compared to the case of performing inter-layer image mapping based on the inter-layer correspondence parameter derived from the reference layer corresponding region information, By performing the inter-layer image mapping based on the inter-layer correspondence parameter derived from the active reference layer corresponding region information, there is an effect of further improving the accuracy of the resampled image used in the inter-layer image prediction. As a result, the prediction accuracy of inter-layer image prediction is also improved, so that the encoding efficiency can be improved.

以上のように、レイヤ間動きマッピング部316において、対象レイヤ(例えば拡張レイヤ)と参照レイヤ(例えばベースレイヤ)との間のレイヤ間対応関係パラメータ(OffsetL、OffsetT、OffsetR、OffsetB、SRLPW、SRLPH、ScaleFactorX、ScaleFactorY等)に基づいて、リサンプル参照レイヤピクチャrsPic上の対象ブロックに対応する参照レイヤピクチャrlPic上の参照画像ブロックを決定し、参照画像ブロックの動き情報に基づいて対象ブロックの動き情報を生成することができる。これにより、レイヤ間動き予測で使用される動き情報(テンポラル動き情報)の精度を向上させる効果を得ることができる。特に、ピクチャ単位で対象レイヤと参照レイヤの対応領域が変化するシーケンスに対しては、参照レイヤ対応領域情報により導出されるレイヤ間対応関係パラメータに基づいてレイヤ間動きマッピングを行う場合に比べて、アクティブ参照レイヤ対応領域情報により導出されるレイヤ間対応関係パラメータに基づいてレイヤ間動きマッピングを行うことにより、よりレイヤ間動き予測で使用される動き情報(テンポラル動き情報)の精度をより向上させる効果を奏する。それに伴いレイヤ間動き予測の予測精度も向上するため、符号化効率の向上を図ることが可能となる。   As described above, in the inter-layer motion mapping unit 316, the inter-layer correspondence parameters (OffsetL, OffsetT, OffsetR, OffsetB, SRLPW, SRLPH, between the target layer (for example, the enhancement layer) and the reference layer (for example, the base layer), Based on ScaleFactorX, ScaleFactorY, etc.), the reference image block on the reference layer picture rlPic corresponding to the target block on the resample reference layer picture rsPic is determined, and the motion information on the target block is determined based on the motion information on the reference image block Can be generated. Thereby, the effect which improves the precision of the motion information (temporal motion information) used by the motion prediction between layers can be acquired. In particular, for a sequence in which the corresponding region of the target layer and the reference layer changes in units of pictures, compared to the case where inter-layer motion mapping is performed based on the inter-layer correspondence parameter derived from the reference layer corresponding region information, Effect of further improving the accuracy of motion information (temporal motion information) used in inter-layer motion prediction by performing inter-layer motion mapping based on inter-layer correspondence parameters derived from active reference layer corresponding region information Play. Accordingly, the prediction accuracy of inter-layer motion prediction is also improved, so that the encoding efficiency can be improved.

<予測パラメータ符号化部111の変形例1>
上述の例では、対象CUの予測タイプがインター予測である場合に、各PU単位で、参照画像リスト上の参照レイヤの画像(リサンプル参照レイヤピクチャrsPic)を示す参照画像インデックスを指定することで、レイヤ間画像予測を利用することが可能である。対象CUにおいてレイヤ間画像予測を利用するかどうかは、上記例に限定されず、対象CU内で、明示的にレイヤ間画像予測フラグtexture_rl_flagを通知することにより可能である。図21は、CU単位でレイヤ間画像予測フラグtexture_rl_flagを含む場合の符号化データの構成を示す図である。図21に示す通り、CU単位の符号化データは、SYNCU01に示すレイヤ間画像予測フラグ(texture_rl_flag)、SYNCU02に示すCUタイプ情報(予測モードフラグ(pred_mode_flag))、SYNCU03に示すPU分割タイプ(part_mode)、並びに図示しないPU情報、およびTU情報から構成される。
<Modification Example 1 of Prediction Parameter Encoding Unit 111>
In the above example, when the prediction type of the target CU is inter prediction, by specifying a reference image index indicating a reference layer image (resampled reference layer picture rsPic) on the reference image list in each PU unit. It is possible to use inter-layer image prediction. Whether or not to use inter-layer image prediction in the target CU is not limited to the above example, and it is possible to explicitly notify the inter-layer image prediction flag texture_rl_flag within the target CU. FIG. 21 is a diagram illustrating a configuration of encoded data when an inter-layer image prediction flag texture_rl_flag is included in CU units. As shown in FIG. 21, the encoded data in CU units includes an inter-layer image prediction flag (texture_rl_flag) indicated by SYNCU01, CU type information (prediction mode flag (pred_mode_flag)) indicated by SYNCU02, and a PU partition type (part_mode) indicated by SYNCU03. , And PU information and TU information (not shown).

以下、図26を用いて、CU単位でレイヤ間画像予測フラグを含む場合の符号化データを符号化する動作を説明する。なお、予測パラメータ符号化部111の変形例1は、予測パラメータ復号部302の逆処理に相当する。   Hereinafter, the operation of encoding the encoded data when the inter-layer image prediction flag is included in CU units will be described with reference to FIG. Note that the first modification of the prediction parameter encoding unit 111 corresponds to the inverse process of the prediction parameter decoding unit 302.

(S701)予測パラメータ符号化部111は、所定のパラメータセット(例えば、VPS)単位毎に、符号化パラメータ決定部110で決定された、参照レイヤ指定情報、及びレイヤ間予測タイプ情報に基づいて、対象レイヤiが参照レイヤjからのレイヤ間画像予測の有無を示すレイヤ間画像予測有無フラグSamplePredEnableFlag[i][j]を導出する。
また、予測パラメータ符号化部111は、可変長符号化部104へ指示して、上記参照レイヤ指定情報、及びレイヤ間予測タイプ情報の符号を符号化する。また、予測パラメータ符号化部111は、所定のパラメータセット(例えば、SPS)単位毎に、符号化パラメータ決定部110で決定された、参照レイヤ対応領域情報の符号を可変長符号化部104へ指示して符号化する。さらに、予測パラメータ符号化部111は、符号化パラメータ決定部110において、参照レイヤ対応領域情報に基づいて決定された、レイヤ間画像予測制約フラグを可変長符号化部104へ指示して符号化する。
(S701) The prediction parameter encoding unit 111 is based on the reference layer designation information and the inter-layer prediction type information determined by the encoding parameter determination unit 110 for each predetermined parameter set (for example, VPS) unit. The target layer i derives an inter-layer image prediction presence / absence flag SamplePredEnableFlag [i] [j] indicating whether inter-layer image prediction is performed from the reference layer j.
Also, the prediction parameter encoding unit 111 instructs the variable length encoding unit 104 to encode the reference layer designation information and the code of the inter-layer prediction type information. Further, the prediction parameter encoding unit 111 instructs the variable length encoding unit 104 to code the reference layer corresponding region information determined by the encoding parameter determining unit 110 for each predetermined parameter set (for example, SPS) unit. To encode. Furthermore, the prediction parameter encoding unit 111 instructs the variable length encoding unit 104 to encode the inter-layer image prediction constraint flag determined based on the reference layer corresponding region information in the encoding parameter determination unit 110. .

(S702)予測パラメータ符号化部111は、所定パラメータセット(例えば、スライスヘッダ)単位毎に、符号化パラメータ決定部110で決定されたアクティブ参照レイヤ対応領域情報の符号を可変長符号化部104へ指示して符号化する。さらに、予測パラメータ符号化部111は、符号化パラメータ決定部110で決定された参照レイヤ対応領域情報、及びアクティブ参照レイヤ対応領域情報に基づいて、対象ピクチャが参照する各リサンプル参照レイヤピクチャrsPic上の参照レイヤ対応領域SRLAの位置情報(OffsetL、OffsetT、OffsetR、OffsetB)とサイズ情報(SRLPW、SRLPH)を導出する。具体的な導出方法は説明済のため省略する。続いて、各CTBにおいて、以下の処理を行う。   (S702) The prediction parameter encoding unit 111 transmits the code of the active reference layer corresponding region information determined by the encoding parameter determination unit 110 to the variable length encoding unit 104 for each predetermined parameter set (for example, slice header) unit. Direct and encode. Further, the prediction parameter encoding unit 111, based on the reference layer corresponding region information determined by the encoding parameter determining unit 110 and the active reference layer corresponding region information, on each resample reference layer picture rsPic that the target picture refers to Position information (OffsetL, OffsetT, OffsetR, OffsetB) and size information (SRLPW, SRLPH) of the reference layer corresponding region SRLA are derived. Since a specific derivation method has already been described, it will be omitted. Subsequently, the following processing is performed in each CTB.

(S703)CUのループを開始する。CUのループはCTBに含まれる全てのCUを順に処理することで行われる。   (S703) A CU loop is started. The CU loop is performed by sequentially processing all the CUs included in the CTB.

(S704)予測パラメータ符号化部111は、レイヤ間画像予測適用可フラグInterLayerSamplePredEnableFlag、及びレイヤ間画像予測禁止フラグNoInterlayerSamplePredFlagを導出する。なお、レイヤ間画像予測適用可フラグ、およびレイヤ間画像予測禁止フラグの導出方法は、図22のS604と同一であるため、説明を省略する。   (S704) The prediction parameter encoding unit 111 derives an inter-layer image prediction applicability flag InterLayerSamplePredEnableFlag and an inter-layer image prediction prohibition flag NoInterlayerSamplePredFlag. Note that the method of deriving the inter-layer image prediction application flag and the inter-layer image prediction prohibition flag is the same as S604 in FIG.

(S705)予測パラメータ符号化部111は、対象レイヤcurLayerId、レイヤ間画像予測適用可フラグInterLayerSamplePredEnableFlagとレイヤ間画像予測禁止フラグNoInterLayerSamplePredFlagが前述の式(J-1)を満たすかを判定する。式(J-1)において、値が真の場合(S705においてYes)、ステップS706へ遷移し、予測パラメータ符号化部111は、符号化パラメータ決定部110で決定されたレイヤ間画像予測フラグtexture_rl_flag(図21上のSYNCU01)を可変長符号化部110へ指示し符号化する(S706)。それ以外の場合(式(J-1)の値が偽の場合)、レイヤ間画像予測フラグtexture_rl_flagの符号化を省略し、ステップS708へ遷移する。   (S705) The prediction parameter encoding unit 111 determines whether the target layer curLayerId, the inter-layer image prediction applicability flag InterLayerSamplePredEnableFlag, and the inter-layer image prediction prohibition flag NoInterLayerSamplePredFlag satisfy the above formula (J-1). In Formula (J-1), when the value is true (Yes in S705), the process proceeds to step S706, and the prediction parameter encoding unit 111 determines the inter-layer image prediction flag texture_rl_flag (determined by the encoding parameter determination unit 110). 21 is instructed to the variable length encoding unit 110 to encode (S706). In other cases (when the value of Expression (J-1) is false), encoding of the inter-layer image prediction flag texture_rl_flag is omitted, and the process proceeds to step S708.

(S708)レイヤ間画像予測フラグの値が1であるかを判定する。同フラグの値が真である場合、ステップS711へ遷移する。同フラグの値が偽の場合、ステップS709へ遷移する。   (S708) It is determined whether the value of the inter-layer image prediction flag is 1. When the value of the flag is true, the process proceeds to step S711. If the value of the flag is false, the process proceeds to step S709.

(S709)対象CUのCUタイプを示すCUタイプ情報、例えば図21上のSYNCU02に示す予測モードフラグ(pred_mode_flag)を符号化する。なお、予測モードフラグが0の場合、予測モードフラグの符号化後に、図21上のSYNCU03に示すPU分割タイプ情報(part_mode)がさらに符号化されうる。   (S709) The CU type information indicating the CU type of the target CU, for example, the prediction mode flag (pred_mode_flag) shown in SYNCU02 on FIG. 21 is encoded. When the prediction mode flag is 0, PU partition type information (part_mode) shown in SYNCU03 on FIG. 21 can be further encoded after encoding the prediction mode flag.

(S710)対象CU内に含まれる各PU単位のPU情報が符号化される。   (S710) PU information of each PU unit included in the target CU is encoded.

(S711)対象CU内に含まれる各TU単位のTU情報が符号化される。   (S711) TU information of each TU unit included in the target CU is encoded.

(S712)CU単位のループの終端である。   (S712) This is the end of the loop in CU units.

上記予測パラメータ符号化部111の変形1によれば、対象CUのレイヤ間画像予測フラグ(texture_rl_flag)を、明示的に符号化するか否かをレイヤ間画像予測適用可フラグおよびレイヤ間画像予測禁止フラグに基づいて制御する。特に、参照レイヤ対応領域情報、またはアクティブ参照レイヤ対応領域情報で指定される参照レイヤ対応領域SRLA外の画素を含むレイヤ間画像予測を禁止することを示すレイヤ間画像予測制約フラグが1である場合、対象CUに対応するリサンプル参照レイヤピクチャrsPic上の対応領域が参照レイヤ対応領域SRLAを跨ぐレイヤ間画像予測が利用されないことが画像復号装置と画像符号化装置間において保障されている。従って。対象CUに対応するリサンプル参照レイヤピクチャrsPic上の対応領域が参照レイヤ対応領域SRLAを跨ぐ場合(前述の条件(A1)〜(A4)のいずれかを満たす場合)、レイヤ間画像予測フラグの符号化を省略することにより、レイヤ間画像予測フラグの符号化に係る処理量を低減することができる。また、レイヤ間画像予測フラグに係る符号量を削減することができるため、符号効率の向上の効果を奏する。また、リサンプル参照レイヤピクチャrsPic上の参照レイヤ対応領域SRLA外の画素が、レイヤ間画像予測において参照されないことが補償されているため、参照レイヤ対応領域外の画素をレイヤ間画像マッピング(リサンプリング処理)によって生成する処理を省略することができる。また、参照ピクチャメモリにおいて、リサンプル参照レイヤピクチャrsPic上の参照レイヤ対応領域SRLA外の画素を保持するためのメモリを削減することができる。   According to the first modification of the prediction parameter encoding unit 111, whether or not to explicitly encode the inter-layer image prediction flag (texture_rl_flag) of the target CU is determined based on whether the inter-layer image prediction application flag and the inter-layer image prediction are prohibited. Control based on the flag. In particular, when the inter-layer image prediction constraint flag indicating that inter-layer image prediction including pixels outside the reference layer corresponding region SRLA specified by the reference layer corresponding region information or the active reference layer corresponding region information is 1 is 1. It is ensured between the image decoding device and the image coding device that inter-layer image prediction in which the corresponding region on the resample reference layer picture rsPic corresponding to the target CU straddles the reference layer corresponding region SRLA is not used. Therefore. When the corresponding region on the resample reference layer picture rsPic corresponding to the target CU straddles the reference layer corresponding region SRLA (when any of the above conditions (A1) to (A4) is satisfied), the code of the inter-layer image prediction flag By omitting the encoding, it is possible to reduce the processing amount related to the encoding of the inter-layer image prediction flag. Moreover, since the amount of codes related to the inter-layer image prediction flag can be reduced, the effect of improving the code efficiency is achieved. In addition, since it is compensated that pixels outside the reference layer corresponding region SRLA on the resample reference layer picture rsPic are not referenced in the inter-layer image prediction, the pixels outside the reference layer corresponding region are inter-layer image mapped (resampling). Processing generated by (processing) can be omitted. Further, in the reference picture memory, it is possible to reduce a memory for holding pixels outside the reference layer corresponding area SRLA on the resample reference layer picture rsPic.

<予測パラメータ符号化部111の変形例2>
なお、上記の例では、レイヤ間画像予測制約フラグが1の場合は、参照レイヤ対応領域情報、またはアクティブ参照レイヤ対応領域情報で指定される参照レイヤ対応領域SRLA外の画素を参照するレイヤ間画像予測の使用を禁止することを示すこと前提に説明したが、それに限定されない。レイヤ間画像予測制約フラグが1の場合は、参照レイヤ対応領域情報、またはアクティブ参照レイヤ対応領域情報で指定される参照レイヤ対応領域SRLA外の画素のみを参照するレイヤ間画像予測の使用を禁止することを示してもよい。
<Modification Example 2 of Prediction Parameter Encoding Unit 111>
In the above example, when the inter-layer image prediction constraint flag is 1, an inter-layer image that refers to a pixel outside the reference layer corresponding region SRLA specified by the reference layer corresponding region information or the active reference layer corresponding region information. The description is based on the assumption that the use of prediction is prohibited, but the present invention is not limited to this. When the inter-layer image prediction constraint flag is 1, use of inter-layer image prediction that refers only to pixels outside the reference layer corresponding region SRLA specified by the reference layer corresponding region information or the active reference layer corresponding region information is prohibited. You may show that.

この場合、上記ステップS704において、レイヤ間画像予測禁止フラグを導出する条件式を前述の条件(A1)〜(A4)の代わりに、前述の条件(B1)〜(B4)へ置き換えればよい。   In this case, in step S704, the conditional expression for deriving the inter-layer image prediction prohibition flag may be replaced with the above conditions (B1) to (B4) instead of the above conditions (A1) to (A4).

上記予測パラメータ符号化部111の変形例2によれば、対象CUのレイヤ間画像予測フラグ(texture_rl_flag)を、明示的に符号化するか否かをレイヤ間画像予測適用可フラグおよびレイヤ間画像予測禁止フラグに基づいて制御する。特に、レイヤ間画像予測制約フラグが1である場合、対象CUに対応するリサンプル参照レイヤピクチャrsPic上の対応領域が参照レイヤ対応領域SRLA外の画素のみを参照するレイヤ間画像予測が利用されないことが画像復号装置と画像符号化装置間において保障されている。従って。対象CUに対応するリサンプル参照レイヤピクチャrsPic上の対応領域が参照レイヤ対応領域SRLA外の画素のみを参照する場合(前述の条件(B1)〜(B4)のいずれかを満たす場合)、レイヤ間画像予測フラグの符号化を省略することにより、レイヤ間画像予測フラグの符号化に係る処理量を低減することができる。また、レイヤ間画像予測フラグに係る符号量を削減することができるため、符号効率の向上の効果を奏する。   According to the second modification of the prediction parameter encoding unit 111, whether or not to explicitly encode the inter-layer image prediction flag (texture_rl_flag) of the target CU is determined based on whether the inter-layer image prediction application flag and the inter-layer image prediction are used. Control based on the prohibition flag. In particular, when the inter-layer image prediction constraint flag is 1, inter-layer image prediction in which the corresponding region on the resample reference layer picture rsPic corresponding to the target CU refers only to pixels outside the reference layer corresponding region SRLA is not used. Is guaranteed between the image decoding apparatus and the image encoding apparatus. Therefore. When the corresponding region on the resample reference layer picture rsPic corresponding to the target CU refers only to a pixel outside the reference layer corresponding region SRLA (when any of the above conditions (B1) to (B4) is satisfied), between layers By omitting the encoding of the image prediction flag, the processing amount related to the encoding of the inter-layer image prediction flag can be reduced. Moreover, since the amount of codes related to the inter-layer image prediction flag can be reduced, the effect of improving the code efficiency is achieved.

(他の階層動画像符号化/復号システムへの適用例)
上述した階層動画像符号化装置2及び階層動画像復号装置1は、動画像の送信、受信、記録、再生を行う各種装置に搭載して利用できる。なお、動画像は、カメラ等により撮像された自然動画像であってもよいし、コンピュータ等により生成された人工動画像(CGおよびGUIを含む)であってもよい。
(Application example to other hierarchical video encoding / decoding systems)
The above-described hierarchical video encoding device 2 and hierarchical video decoding device 1 can be used by being mounted on various devices that perform transmission, reception, recording, and reproduction of moving images. The moving image may be a natural moving image captured by a camera or the like, or may be an artificial moving image (including CG and GUI) generated by a computer or the like.

図27に基づいて、上述した階層動画像符号化装置2および階層動画像復号装置1を、動画像の送信および受信に利用できることを説明する。図27の(a)は、階層動画像符号化装置2を搭載した送信装置PROD_Aの構成を示したブロック図である。   Based on FIG. 27, it will be described that the above-described hierarchical video encoding device 2 and hierarchical video decoding device 1 can be used for transmission and reception of video. FIG. 27A is a block diagram illustrating a configuration of a transmission device PROD_A in which the hierarchical video encoding device 2 is mounted.

図27の(a)に示すように、送信装置PROD_Aは、動画像を符号化することによって符号化データを得る符号化部PROD_A1と、符号化部PROD_A1が得た符号化データで搬送波を変調することによって変調信号を得る変調部PROD_A2と、変調部PROD_A2が得た変調信号を送信する送信部PROD_A3とを備えている。上述した階層動画像符号化装置2は、この符号化部PROD_A1として利用される。   As illustrated in FIG. 27A, the transmission apparatus PROD_A modulates a carrier wave with an encoding unit PROD_A1 that obtains encoded data by encoding a moving image, and with the encoded data obtained by the encoding unit PROD_A1. Thus, a modulation unit PROD_A2 that obtains a modulation signal and a transmission unit PROD_A3 that transmits the modulation signal obtained by the modulation unit PROD_A2 are provided. The hierarchical moving image encoding apparatus 2 described above is used as the encoding unit PROD_A1.

送信装置PROD_Aは、符号化部PROD_A1に入力する動画像の供給源として、動画像を撮像するカメラPROD_A4、動画像を記録した記録媒体PROD_A5、動画像を外部から入力するための入力端子PROD_A6、及び、画像を生成または加工する画像処理部A7を更に備えていてもよい。図27の(a)においては、これら全てを送信装置PROD_Aが備えた構成を例示しているが、一部を省略しても構わない。   The transmission device PROD_A is a camera PROD_A4 that captures a moving image, a recording medium PROD_A5 that records the moving image, an input terminal PROD_A6 that inputs the moving image from the outside, as a supply source of the moving image input to the encoding unit PROD_A1. An image processing unit A7 that generates or processes an image may be further provided. FIG. 27A illustrates a configuration in which the transmission apparatus PROD_A includes all of these, but a part may be omitted.

なお、記録媒体PROD_A5は、符号化されていない動画像を記録したものであってもよいし、伝送用の符号化方式とは異なる記録用の符号化方式で符号化された動画像を記録したものであってもよい。後者の場合、記録媒体PROD_A5と符号化部PROD_A1との間に、記録媒体PROD_A5から読み出した符号化データを記録用の符号化方式に従って復号する復号部(不図示)を介在させるとよい。   The recording medium PROD_A5 may be a recording of a non-encoded moving image, or a recording of a moving image encoded by a recording encoding scheme different from the transmission encoding scheme. It may be a thing. In the latter case, a decoding unit (not shown) for decoding the encoded data read from the recording medium PROD_A5 according to the recording encoding method may be interposed between the recording medium PROD_A5 and the encoding unit PROD_A1.

図27の(b)は、階層動画像復号装置1を搭載した受信装置PROD_Bの構成を示したブロック図である。図27の(b)に示すように、受信装置PROD_Bは、変調信号を受信する受信部PROD_B1と、受信部PROD_B1が受信した変調信号を復調することによって符号化データを得る復調部PROD_B2と、復調部PROD_B2が得た符号化データを復号することによって動画像を得る復号部PROD_B3とを備えている。上述した階層動画像復号装置1は、この復号部PROD_B3として利用される。   FIG. 27B is a block diagram illustrating a configuration of a receiving device PROD_B in which the hierarchical video decoding device 1 is mounted. As illustrated in FIG. 27B, the receiving device PROD_B includes a receiving unit PROD_B1 that receives a modulated signal, a demodulating unit PROD_B2 that obtains encoded data by demodulating the modulated signal received by the receiving unit PROD_B1, and a demodulator A decoding unit PROD_B3 that obtains a moving image by decoding the encoded data obtained by the unit PROD_B2. The above-described hierarchical video decoding device 1 is used as the decoding unit PROD_B3.

受信装置PROD_Bは、復号部PROD_B3が出力する動画像の供給先として、動画像を表示するディスプレイPROD_B4、動画像を記録するための記録媒体PROD_B5、及び、動画像を外部に出力するための出力端子PROD_B6を更に備えていてもよい。図27の(b)においては、これら全てを受信装置PROD_Bが備えた構成を例示しているが、一部を省略しても構わない。   The receiving device PROD_B has a display PROD_B4 for displaying a moving image, a recording medium PROD_B5 for recording the moving image, and an output terminal for outputting the moving image to the outside as a supply destination of the moving image output by the decoding unit PROD_B3. PROD_B6 may be further provided. FIG. 27B illustrates a configuration in which the reception apparatus PROD_B includes all of these, but a part of the configuration may be omitted.

なお、記録媒体PROD_B5は、符号化されていない動画像を記録するためのものであってもよいし、伝送用の符号化方式とは異なる記録用の符号化方式で符号化されたものであってもよい。後者の場合、復号部PROD_B3と記録媒体PROD_B5との間に、復号部PROD_B3から取得した動画像を記録用の符号化方式に従って符号化する符号化部(不図示)を介在させるとよい。   The recording medium PROD_B5 may be used for recording a non-encoded moving image, or may be encoded using a recording encoding method different from the transmission encoding method. May be. In the latter case, an encoding unit (not shown) for encoding the moving image acquired from the decoding unit PROD_B3 according to the recording encoding method may be interposed between the decoding unit PROD_B3 and the recording medium PROD_B5.

なお、変調信号を伝送する伝送媒体は、無線であってもよいし、有線であってもよい。また、変調信号を伝送する伝送態様は、放送(ここでは、送信先が予め特定されていない送信態様を指す)であってもよいし、通信(ここでは、送信先が予め特定されている送信態様を指す)であってもよい。すなわち、変調信号の伝送は、無線放送、有線放送、無線通信、及び有線通信の何れによって実現してもよい。   Note that the transmission medium for transmitting the modulation signal may be wireless or wired. Further, the transmission mode for transmitting the modulated signal may be broadcasting (here, a transmission mode in which the transmission destination is not specified in advance) or communication (here, transmission in which the transmission destination is specified in advance). Refers to the embodiment). That is, the transmission of the modulation signal may be realized by any of wireless broadcasting, wired broadcasting, wireless communication, and wired communication.

例えば、地上デジタル放送の放送局(放送設備など)/受信局(テレビジョン受像機など)は、変調信号を無線放送で送受信する送信装置PROD_A/受信装置PROD_Bの一例である。また、ケーブルテレビ放送の放送局(放送設備など)/受信局(テレビジョン受像機など)は、変調信号を有線放送で送受信する送信装置PROD_A/受信装置PROD_Bの一例である。   For example, a terrestrial digital broadcast broadcasting station (such as broadcasting equipment) / receiving station (such as a television receiver) is an example of a transmitting device PROD_A / receiving device PROD_B that transmits and receives a modulated signal by wireless broadcasting. Further, a broadcasting station (such as broadcasting equipment) / receiving station (such as a television receiver) of cable television broadcasting is an example of a transmitting device PROD_A / receiving device PROD_B that transmits and receives a modulated signal by cable broadcasting.

また、インターネットを用いたVOD(Video On Demand)サービスや動画共有サービスなどのサーバ(ワークステーションなど)/クライアント(テレビジョン受像機、パーソナルコンピュータ、スマートフォンなど)は、変調信号を通信で送受信する送信装置PROD_A/受信装置PROD_Bの一例である(通常、LANにおいては伝送媒体として無線又は有線の何れかが用いられ、WANにおいては伝送媒体として有線が用いられる)。ここで、パーソナルコンピュータには、デスクトップ型PC、ラップトップ型PC、及びタブレット型PCが含まれる。また、スマートフォンには、多機能携帯電話端末も含まれる。   Also, a server (workstation or the like) / client (television receiver, personal computer, smartphone, etc.) such as a VOD (Video On Demand) service or a video sharing service using the Internet transmits and receives a modulated signal by communication. This is an example of PROD_A / reception device PROD_B (usually, either a wireless or wired transmission medium is used in a LAN, and a wired transmission medium is used in a WAN). Here, the personal computer includes a desktop PC, a laptop PC, and a tablet PC. The smartphone also includes a multi-function mobile phone terminal.

なお、動画共有サービスのクライアントは、サーバからダウンロードした符号化データを復号してディスプレイに表示する機能に加え、カメラで撮像した動画像を符号化してサーバにアップロードする機能を有している。すなわち、動画共有サービスのクライアントは、送信装置PROD_A及び受信装置PROD_Bの双方として機能する。   Note that the client of the video sharing service has a function of encoding a moving image captured by a camera and uploading it to the server in addition to a function of decoding the encoded data downloaded from the server and displaying it on the display. That is, the client of the video sharing service functions as both the transmission device PROD_A and the reception device PROD_B.

図28に基づいて、上述した階層動画像符号化装置2および階層動画像復号装置1を、動画像の記録および再生に利用できることを説明する。図28の(a)は、上述した階層動画像符号化装置2を搭載した記録装置PROD_Cの構成を示したブロック図である。   Based on FIG. 28, it will be described that the above-described hierarchical video encoding device 2 and hierarchical video decoding device 1 can be used for recording and reproduction of video. FIG. 28A is a block diagram showing a configuration of a recording apparatus PROD_C in which the above-described hierarchical video encoding apparatus 2 is mounted.

図28の(a)に示すように、記録装置PROD_Cは、動画像を符号化することによって符号化データを得る符号化部PROD_C1と、符号化部PROD_C1が得た符号化データを記録媒体PROD_Mに書き込む書込部PROD_C2と、を備えている。上述した階層動画像符号化装置2は、この符号化部PROD_C1として利用される。   As shown in (a) of FIG. 28, the recording device PROD_C includes an encoding unit PROD_C1 that obtains encoded data by encoding a moving image, and the encoded data obtained by the encoding unit PROD_C1 on the recording medium PROD_M. A writing unit PROD_C2 for writing. The hierarchical moving image encoding device 2 described above is used as the encoding unit PROD_C1.

なお、記録媒体PROD_Mは、(1)HDD(Hard Disk Drive)やSSD(Solid State Drive)等のように、記録装置PROD_Cに内蔵されるタイプのものであってもよいし、(2)SDメモリカードやUSB(Universal Serial Bus)フラッシュメモリ等のように、記録装置PROD_Cに接続されるタイプのものであってもよいし、(3)DVD(Digital Versatile Disc)やBD(Blu-ray Disc:登録商標)等のように、記録装置PROD_Cに内蔵されたドライブ装置(不図示)に装填されるものであってもよい。   The recording medium PROD_M may be of a type built in the recording device PROD_C, such as (1) HDD (Hard Disk Drive) or SSD (Solid State Drive), or (2) SD memory. It may be of the type connected to the recording device PROD_C, such as a card or USB (Universal Serial Bus) flash memory, or (3) DVD (Digital Versatile Disc) or BD (Blu-ray Disc: registration) For example, it may be loaded into a drive device (not shown) built in the recording device PROD_C.

また、記録装置PROD_Cは、符号化部PROD_C1に入力する動画像の供給源として、動画像を撮像するカメラPROD_C3、動画像を外部から入力するための入力端子PROD_C4、動画像を受信するための受信部PROD_C5、及び、画像を生成または加工する画像処理部C6を更に備えていてもよい。図28の(a)においては、これら全てを記録装置PROD_Cが備えた構成を例示しているが、一部を省略しても構わない。   The recording device PROD_C is a camera PROD_C3 that captures moving images as a supply source of moving images to be input to the encoding unit PROD_C1, an input terminal PROD_C4 for inputting moving images from the outside, and reception for receiving moving images. The unit PROD_C5 and an image processing unit C6 that generates or processes an image may be further provided. In FIG. 28A, a configuration in which the recording apparatus PROD_C includes all of these is illustrated, but a part of the configuration may be omitted.

なお、受信部PROD_C5は、符号化されていない動画像を受信するものであってもよいし、記録用の符号化方式とは異なる伝送用の符号化方式で符号化された符号化データを受信するものであってもよい。後者の場合、受信部PROD_C5と符号化部PROD_C1との間に、伝送用の符号化方式で符号化された符号化データを復号する伝送用復号部(不図示)を介在させるとよい。   The receiving unit PROD_C5 may receive a non-encoded moving image, or may receive encoded data encoded by a transmission encoding scheme different from the recording encoding scheme. You may do. In the latter case, a transmission decoding unit (not shown) that decodes encoded data encoded by the transmission encoding method may be interposed between the reception unit PROD_C5 and the encoding unit PROD_C1.

このような記録装置PROD_Cとしては、例えば、DVDレコーダ、BDレコーダ、HDD(Hard Disk Drive)レコーダなどが挙げられる(この場合、入力端子PROD_C4又は受信部PROD_C5が動画像の主な供給源となる)。また、カムコーダ(この場合、カメラPROD_C3が動画像の主な供給源となる)、パーソナルコンピュータ(この場合、受信部PROD_C5又は画像処理部C6が動画像の主な供給源となる)、スマートフォン(この場合、カメラPROD_C3又は受信部PROD_C5が動画像の主な供給源となる)なども、このような記録装置PROD_Cの一例である。   Examples of such a recording device PROD_C include a DVD recorder, a BD recorder, and an HDD (Hard Disk Drive) recorder (in this case, the input terminal PROD_C4 or the receiving unit PROD_C5 is a main supply source of moving images). . In addition, a camcorder (in this case, the camera PROD_C3 is a main source of moving images), a personal computer (in this case, the receiving unit PROD_C5 or the image processing unit C6 is a main source of moving images), a smartphone (in this case In this case, the camera PROD_C3 or the receiving unit PROD_C5 is a main supply source of moving images) is also an example of such a recording device PROD_C.

図28の(b)は、上述した階層動画像復号装置1を搭載した再生装置PROD_Dの構成を示したブロックである。図28の(b)に示すように、再生装置PROD_Dは、記録媒体PROD_Mに書き込まれた符号化データを読み出す読出部PROD_D1と、読出部PROD_D1が読み出した符号化データを復号することによって動画像を得る復号部PROD_D2と、を備えている。上述した階層動画像復号装置1は、この復号部PROD_D2として利用される。   (B) of FIG. 28 is a block showing a configuration of a playback device PROD_D in which the above-described hierarchical video decoding device 1 is mounted. As shown in (b) of FIG. 28, the playback device PROD_D reads a moving image by decoding a read unit PROD_D1 that reads encoded data written on the recording medium PROD_M, and decoding the encoded data read by the read unit PROD_D1. And a decoding unit PROD_D2 to be obtained. The hierarchical moving image decoding apparatus 1 described above is used as the decoding unit PROD_D2.

なお、記録媒体PROD_Mは、(1)HDDやSSDなどのように、再生装置PROD_Dに内蔵されるタイプのものであってもよいし、(2)SDメモリカードやUSBフラッシュメモリなどのように、再生装置PROD_Dに接続されるタイプのものであってもよいし、(3)DVDやBDなどのように、再生装置PROD_Dに内蔵されたドライブ装置(不図示)に装填されるものであってもよい。   Note that the recording medium PROD_M may be of the type built into the playback device PROD_D, such as (1) HDD or SSD, or (2) such as an SD memory card or USB flash memory, It may be of a type connected to the playback device PROD_D, or (3) may be loaded into a drive device (not shown) built in the playback device PROD_D, such as DVD or BD. Good.

また、再生装置PROD_Dは、復号部PROD_D2が出力する動画像の供給先として、動画像を表示するディスプレイPROD_D3、動画像を外部に出力するための出力端子PROD_D4、及び、動画像を送信する送信部PROD_D5を更に備えていてもよい。図28の(b)においては、これら全てを再生装置PROD_Dが備えた構成を例示しているが、一部を省略しても構わない。   In addition, the playback device PROD_D has a display PROD_D3 that displays a moving image, an output terminal PROD_D4 that outputs the moving image to the outside, and a transmission unit that transmits the moving image as a supply destination of the moving image output by the decoding unit PROD_D2. PROD_D5 may be further provided. FIG. 28B illustrates a configuration in which the playback apparatus PROD_D includes all of these, but some of the configurations may be omitted.

なお、送信部PROD_D5は、符号化されていない動画像を送信するものであってもよいし、記録用の符号化方式とは異なる伝送用の符号化方式で符号化された符号化データを送信するものであってもよい。後者の場合、復号部PROD_D2と送信部PROD_D5との間に、動画像を伝送用の符号化方式で符号化する符号化部(不図示)を介在させるとよい。   The transmission unit PROD_D5 may transmit an unencoded moving image, or transmits encoded data encoded by a transmission encoding method different from the recording encoding method. You may do. In the latter case, it is preferable to interpose an encoding unit (not shown) that encodes a moving image with an encoding method for transmission between the decoding unit PROD_D2 and the transmission unit PROD_D5.

このような再生装置PROD_Dとしては、例えば、DVDプレイヤ、BDプレイヤ、HDDプレイヤなどが挙げられる(この場合、テレビジョン受像機等が接続される出力端子PROD_D4が動画像の主な供給先となる)。また、テレビジョン受像機(この場合、ディスプレイPROD_D3が動画像の主な供給先となる)、デジタルサイネージ(電子看板や電子掲示板等とも称され、ディスプレイPROD_D3又は送信部PROD_D5が動画像の主な供給先となる)、デスクトップ型PC(この場合、出力端子PROD_D4又は送信部PROD_D5が動画像の主な供給先となる)、ラップトップ型又はタブレット型PC(この場合、ディスプレイPROD_D3又は送信部PROD_D5が動画像の主な供給先となる)、スマートフォン(この場合、ディスプレイPROD_D3又は送信部PROD_D5が動画像の主な供給先となる)なども、このような再生装置PROD_Dの一例である。   Examples of such a playback device PROD_D include a DVD player, a BD player, and an HDD player (in this case, an output terminal PROD_D4 to which a television receiver or the like is connected is a main supply destination of moving images). . In addition, a television receiver (in this case, the display PROD_D3 is a main supply destination of moving images), a digital signage (also referred to as an electronic signboard or an electronic bulletin board), and the display PROD_D3 or the transmission unit PROD_D5 is the main supply of moving images. Desktop PC (in this case, the output terminal PROD_D4 or the transmission unit PROD_D5 is the main video image supply destination), laptop or tablet PC (in this case, the display PROD_D3 or the transmission unit PROD_D5 is a moving image) A smartphone (which is a main image supply destination), a smartphone (in this case, the display PROD_D3 or the transmission unit PROD_D5 is a main moving image supply destination), and the like are also examples of such a playback device PROD_D.

(ハードウェア的実現およびソフトウェア的実現について)
最後に、階層動画像復号装置1、階層動画像符号化装置2の各ブロックは、集積回路(ICチップ)上に形成された論理回路によってハードウェア的に実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェア的に実現してもよい。
(About hardware implementation and software implementation)
Finally, each block of the hierarchical video decoding device 1 and the hierarchical video encoding device 2 may be realized in hardware by a logic circuit formed on an integrated circuit (IC chip), or may be a CPU (Central It may be realized by software using a Processing Unit).

後者の場合、上記各装置は、各機能を実現する制御プログラムの命令を実行するCPU、上記プログラムを格納したROM(Read Only Memory)、上記プログラムを展開するRAM(Random Access Memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアである上記各装置の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記各装置に供給し、そのコンピュータ(またはCPUやMPU(Micro Processing Unit))が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。   In the latter case, each of the devices includes a CPU that executes instructions of a control program that realizes each function, a ROM (Read Only Memory) that stores the program, a RAM (Random Access Memory) that expands the program, the program, and A storage device (recording medium) such as a memory for storing various data is provided. An object of the present invention is to provide a recording medium in which a program code (execution format program, intermediate code program, source program) of a control program for each of the above devices, which is software that realizes the above-described functions, is recorded in a computer-readable manner. This can also be achieved by supplying to each of the above devices and reading and executing the program code recorded on the recording medium by the computer (or CPU or MPU (Micro Processing Unit)).

上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ類、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM(Compact Disc Read-Only Memory)/MO(Magneto-Optical)/MD(Mini Disc)/DVD(Digital Versatile Disk)/CD−R(CD Recordable)等の光ディスクを含むディスク類、ICカード(メモリカードを含む)/光カード等のカード類、マスクROM/EPROM(Erasable Programmable Read-only Memory)/EEPROM(登録商標)(Electrically Erasable and Programmable Read-only Memory)/フラッシュROM等の半導体メモリ類、あるいはPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等の論理回路類などを用いることができる。   Examples of the recording medium include tapes such as magnetic tapes and cassette tapes, magnetic disks such as floppy (registered trademark) disks / hard disks, CD-ROM (Compact Disc Read-Only Memory) / MO (Magneto-Optical) / Disks including optical disks such as MD (Mini Disc) / DVD (Digital Versatile Disk) / CD-R (CD Recordable), cards such as IC cards (including memory cards) / optical cards, mask ROM / EPROM (Erasable Programmable Read-only Memory (EEPROM) (Electrically Erasable and Programmable Read-only Memory) / Semiconductor memories such as flash ROM, or logic circuits such as PLD (Programmable Logic Device) and FPGA (Field Programmable Gate Array) Etc. can be used.

また、上記各装置を通信ネットワークと接続可能に構成し、上記プログラムコードを通信ネットワークを介して供給してもよい。この通信ネットワークは、プログラムコードを伝送可能であればよく、特に限定されない。例えば、インターネット、イントラネット、エキストラネット、LAN(Local Area Network)、ISDN(Integrated Services Digital Network)、VAN(Value-Added Network)、CATV(Community Antenna Television)通信網、仮想専用網(Virtual Private Network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、この通信ネットワークを構成する伝送媒体も、プログラムコードを伝送可能な媒体であればよく、特定の構成または種類のものに限定されない。例えば、IEEE(Institute of Electrical and Electronic Engineers)1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL(Asymmetric Digital Subscriber Line)回線等の有線でも、IrDA(Infrared Data Association)やリモコンのような赤外線、Bluetooth(登録商標)、IEEE802.11無線、HDR(High Data Rate)、NFC(Near Field Communication)、DLNA(Digital Living Network Alliance)、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。   Further, each of the above devices may be configured to be connectable to a communication network, and the program code may be supplied via the communication network. The communication network is not particularly limited as long as it can transmit the program code. For example, the Internet, an intranet, an extranet, a LAN (Local Area Network), an ISDN (Integrated Services Digital Network), a VAN (Value-Added Network), a CATV (Community Antenna Television) communication network, a virtual private network (Virtual Private Network), A telephone line network, a mobile communication network, a satellite communication network, etc. can be used. The transmission medium constituting the communication network may be any medium that can transmit the program code, and is not limited to a specific configuration or type. For example, infra-red such as IrDA (Infrared Data Association) or remote control even with wired such as IEEE (Institute of Electrical and Electronic Engineers) 1394, USB, power line carrier, cable TV line, telephone line, ADSL (Asymmetric Digital Subscriber Line) line, etc. , Bluetooth (registered trademark), IEEE 802.11 wireless, HDR (High Data Rate), NFC (Near Field Communication), DLNA (Digital Living Network Alliance), mobile phone network, satellite line, terrestrial digital network, etc. Is possible. The present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention.

本発明は、画像データが階層的に符号化された符号化データを復号する階層画像復号装置、および、画像データが階層的に符号化された符号化データを生成する階層画像符号化装置に好適に適用できる。また、階層画像符号化装置によって生成され、階層画像復号装置によって参照される階層符号化データのデータ構造に好適に適用できる。   The present invention is suitable for a hierarchical image decoding device that decodes encoded data in which image data is hierarchically encoded, and a hierarchical image encoding device that generates encoded data in which image data is hierarchically encoded. Applicable to. Further, the present invention can be suitably applied to the data structure of hierarchically encoded data generated by the hierarchical image encoding device and referenced by the hierarchical image decoding device.

1 階層動画像復号装置(画像復号装置)
11 NAL逆多重化部
12 対象レイヤピクチャ復号部(画像復号装置)
13 参照レイヤピクチャ復号部(画像復号装置)
301 可変長復号部
302 予測パラメータ復号部
303 インター予測パラメータ復号部
304 イントラ予測パラメータ復号部
320 レイヤ間情報導出部
306 参照ピクチャメモリ
307 予測パラメータメモリ
308 予測画像生成部
309 インター予測画像生成部
310 イントラ予測画像生成部
311 逆量子化・逆DCT部
312 加算部
314 リサンプリング部
315 レイヤ間画像マッピング部
3151 参照画素導出部
3152 リサンプル画像生成部
316 レイヤ間動きマッピング部
3161 参照画像ブロック導出部
3162 動き情報生成部
3020 レイヤ間情報導出部
3031 インター予測パラメータ復号制御部
3032 AMVP予測パラメータ導出部
3035 加算部
3036 マージ予測パラメータ導出部
30361 マージ候補導出部
30362 マージ候補選択部
303611 マージ候補格納部
303613 基本マージ候補導出部
3036131 空間マージ候補導出部
3036132 時間マージ候補導出部
3036133 結合マージ候補導出部
3036134 ゼロマージ候補導出部
3033 ベクトル候補導出部
3034 予測ベクトル選択部
30331 ベクトル候補格納部
30332 基本ベクトル候補導出部
303321 空間ベクトル候補導出部
303322 時間ベクトル候補導出部
303323 ゼロベクトル候補導出部
2 階層動画像符号化装置(画像符号化装置)
21 NAL多重化部
22 対象レイヤピクチャ符号化部
102 減算部
103 DCT・量子化部
104 可変長符号化部
105 逆量子化・逆DCT部
106 加算部
108 予測パラメータ符号部
109 参照ピクチャメモリ
110 符号化パラメータ決定部
111 予測パラメータ符号化部
112 インター予測パラメータ符号化部
113 イントラ予測パラメータ符号化部
114 参照レイヤ対応領域推定部
1121 マージ予測導出部
1122 AMVP予測パラメータ導出部
1123 減算部
1124 インター予測パラメータ符号化制御部
1160 レイヤ間情報導出部
1. Hierarchical video decoding device (image decoding device)
11 NAL demultiplexing unit 12 Target layer picture decoding unit (image decoding device)
13 Reference layer picture decoding unit (image decoding device)
DESCRIPTION OF SYMBOLS 301 Variable length decoding part 302 Prediction parameter decoding part 303 Inter prediction parameter decoding part 304 Intra prediction parameter decoding part 320 Inter-layer information derivation part 306 Reference picture memory 307 Prediction parameter memory 308 Prediction image generation part 309 Inter prediction image generation part 310 Intra prediction Image generation unit 311 Inverse quantization / inverse DCT unit 312 Addition unit 314 Resampling unit 315 Inter-layer image mapping unit 3151 Reference pixel derivation unit 3152 Resampled image generation unit 316 Inter-layer motion mapping unit 3161 Reference image block derivation unit 3162 Motion information Generation unit 3020 Inter-layer information derivation unit 3031 Inter prediction parameter decoding control unit 3032 AMVP prediction parameter derivation unit 3035 Addition unit 3036 Merge prediction parameter derivation unit 30 61 Merge candidate derivation unit 30362 Merge candidate selection unit 303611 Merge candidate storage unit 303613 Basic merge candidate derivation unit 3036131 Spatial merge candidate derivation unit 3036132 Temporal merge candidate derivation unit 3036133 Join merge candidate derivation unit 3036134 Zero merge candidate derivation unit 3033 Vector candidate derivation unit 3034 Prediction vector selection unit 30331 Vector candidate storage unit 30332 Basic vector candidate derivation unit 303321 Spatial vector candidate derivation unit 303332 Time vector candidate derivation unit 303323 Zero vector candidate derivation unit 2 Hierarchical video encoding device (image encoding device)
21 NAL multiplexing unit 22 Target layer picture encoding unit 102 Subtraction unit 103 DCT / quantization unit 104 Variable length encoding unit 105 Inverse quantization / inverse DCT unit 106 Addition unit 108 Prediction parameter encoding unit 109 Reference picture memory 110 Encoding Parameter determining unit 111 Prediction parameter encoding unit 112 Inter prediction parameter encoding unit 113 Intra prediction parameter encoding unit 114 Reference layer corresponding region estimation unit 1121 Merge prediction deriving unit 1122 AMVP prediction parameter deriving unit 1123 Subtraction unit 1124 Inter prediction parameter encoding Control unit 1160 Inter-layer information deriving unit

Claims (13)

レイヤごとに異なる品質の画像に関する画像情報が階層的に符号化された階層符号化データを復号して、復号の対象となる対象レイヤにおける画像を復元する画像復号装置であって、
対象レイヤと参照レイヤの対応領域を示す参照レイヤ対応領域情報を復号する参照レイヤ対応領域情報復号手段と、
復号済の参照レイヤピクチャと上記参照レイヤ対応領域情報とに基づいて、上記参照レイヤピクチャの画像及び動き情報を対象レイヤのピクチャへ対応づけてリサンプル参照レイヤピクチャを生成するリサンプリング手段と、
上記対象レイヤのピクチャを構成する各予測単位の予測画像を生成する予測画像生成手段とを備え、
上記リサンプリング手段は、さらに、リサンプル参照レイヤピクチャの各画素に対応する参照レイヤピクチャの参照画素位置を導出する参照画素位置導出手段と、
上記導出された参照画素位置を含むフィルタ領域上の画素へ所定のリサンプルフィルタを用いて、上記リサンプル参照レイヤピクチャの各画素を生成するリサンプリング画像生成手段を備え、
前記リサンプリング画像生成手段は、上記フィルタ領域において、参照レイヤピクチャの画面外の座標を含む場合、参照レイヤピクチャの最近接する画面端の座標へ置換することを特徴とするの動画像復号装置。
An image decoding device that decodes hierarchically encoded data in which image information relating to images of different quality for each layer is hierarchically encoded, and restores an image in a target layer to be decoded,
Reference layer corresponding region information decoding means for decoding reference layer corresponding region information indicating a corresponding region between the target layer and the reference layer;
Re-sampling means for generating a re-sampled reference layer picture by associating the image and motion information of the reference layer picture with the picture of the target layer based on the decoded reference layer picture and the reference layer corresponding region information;
Prediction image generation means for generating a prediction image of each prediction unit constituting the picture of the target layer,
The resampling means further includes reference pixel position deriving means for deriving a reference pixel position of a reference layer picture corresponding to each pixel of the resample reference layer picture,
Resampled image generation means for generating each pixel of the resample reference layer picture using a predetermined resample filter on a pixel on a filter region including the derived reference pixel position;
The moving picture decoding apparatus according to claim 1, wherein when the filter region includes coordinates outside the screen of the reference layer picture, the resampling image generation means replaces the coordinates with the screen edge closest to the reference layer picture.
レイヤごとに異なる品質の画像に関する画像情報が階層的に符号化された階層符号化データを復号して、復号の対象となる対象レイヤにおける画像を復元する画像復号装置であって、
対象レイヤと参照レイヤの対応領域を示す参照レイヤ対応領域情報を復号する参照レイヤ対応領域情報復号手段と、
復号済の参照レイヤピクチャと上記参照レイヤ対応領域情報とに基づいて、上記参照レイヤピクチャの画像及び動き情報を対象レイヤのピクチャへ対応づけてリサンプル参照レイヤピクチャを生成するリサンプリング手段と、
上記対象レイヤのピクチャを構成する各予測単位の予測画像を生成する予測画像生成手段を備え、
上記予測画像生成手段は、上記予測単位の予測方式がレイヤ間画像予測である場合、上記所定条件を満たさないレイヤ間画像予測により上記予測単位の予測画像を生成することを特徴とする動画像復号装置。
An image decoding device that decodes hierarchically encoded data in which image information relating to images of different quality for each layer is hierarchically encoded, and restores an image in a target layer to be decoded,
Reference layer corresponding region information decoding means for decoding reference layer corresponding region information indicating a corresponding region between the target layer and the reference layer;
Re-sampling means for generating a re-sampled reference layer picture by associating the image and motion information of the reference layer picture with the picture of the target layer based on the decoded reference layer picture and the reference layer corresponding region information;
A prediction image generating unit that generates a prediction image of each prediction unit constituting the picture of the target layer,
The prediction image generation means generates a prediction image of the prediction unit by inter-layer image prediction that does not satisfy the predetermined condition when the prediction method of the prediction unit is inter-layer image prediction. apparatus.
上記動画像復号装置は、さらに、所定条件を満たすレイヤ間画像予測を禁止するレイヤ間画像予測制約フラグを復号するレイヤ間画像予測制約フラグ復号手段を備え、
上記予測画像生成手段は、上記レイヤ間画像予測制約フラグが真であって、上記予測単位の予測方式がレイヤ間画像予測である場合、上記所定条件を満たさないレイヤ間画像予測により上記予測単位の予測画像を生成することを特徴とする請求項2に記載の動画像復号装置。
The moving image decoding apparatus further includes an inter-layer image prediction constraint flag decoding unit that decodes an inter-layer image prediction constraint flag that prohibits inter-layer image prediction satisfying a predetermined condition,
When the inter-layer image prediction constraint flag is true and the prediction method of the prediction unit is inter-layer image prediction, the predicted image generation means performs prediction of the prediction unit by inter-layer image prediction that does not satisfy the predetermined condition. The moving image decoding apparatus according to claim 2, wherein a prediction image is generated.
上記所定条件を満たすレイヤ間画像予測とは、レイヤ間画像予測において、上記予測単位と対応する上記リサンプル参照レイヤピクチャ上の対応領域と上記参照レイヤ対応領域に関して、(1)上記対応領域の左端座標が上記参照レイヤ対応領域の左端座標より小さい、(2)上記対応領域の右端座標が上記参照レイヤ対応領域の右端座標より大きい、(3)上記対応領域の上端座標が上記参照レイヤ対応領域の上端座標より小さい、(4)上記対応領域の下端座標が参照レイヤ対応領域の下端座標より大きい、のうち少なくともいずれか一つを満たす場合であることを特徴とする請求項2または請求項3に記載の動画像復号装置。   The inter-layer image prediction satisfying the predetermined condition refers to (1) the left end of the corresponding region with respect to the corresponding region on the resample reference layer picture corresponding to the prediction unit and the reference layer corresponding region in the inter-layer image prediction. The coordinates are smaller than the left end coordinates of the reference layer corresponding area, (2) the right end coordinates of the corresponding area are larger than the right end coordinates of the reference layer corresponding area, and (3) the upper end coordinates of the corresponding area are the reference layer corresponding areas. 4. The case of satisfying at least one of (4) the lower end coordinate of the corresponding region being larger than the lower end coordinate of the reference layer corresponding region. The moving picture decoding apparatus described. 上記所定条件を満たすレイヤ間画像予測とは、レイヤ間画像予測において、上記予測単位と対応する上記リサンプル参照レイヤピクチャ上の対応領域と上記参照レイヤ対応領域に関して、(1)上記対応領域の右端座標が上記参照レイヤ対応領域の左端座標より小さい、(2)上記対応領域の左端座標が上記参照レイヤ対応領域の右端座標より大きい、
(3)上記対応領域の下端座標が上記参照レイヤ対応領域の上端座標より小さい、(4)上記対応領域の上端座標が参照レイヤ対応領域の下端座標より大きい、のうち少なくともいずれか一つを満たす場合であることを特徴とする請求項2または請求項3に記載の動画像復号装置。
The inter-layer image prediction satisfying the predetermined condition refers to (1) the right end of the corresponding region with respect to the corresponding region on the resample reference layer picture corresponding to the prediction unit and the reference layer corresponding region in the inter-layer image prediction. The coordinates are smaller than the left end coordinates of the reference layer corresponding area; (2) the left end coordinates of the corresponding area are larger than the right end coordinates of the reference layer corresponding area;
(3) The lower end coordinate of the corresponding region is smaller than the upper end coordinate of the reference layer corresponding region, and (4) the upper end coordinate of the corresponding region is larger than the lower end coordinate of the reference layer corresponding region, at least one of the above is satisfied. The moving picture decoding apparatus according to claim 2 or 3, wherein the moving picture decoding apparatus is a case.
上記リサンプリング手段は、上記レイヤ間画像予測制約フラグが真である場合、上記リサンプル参照レイヤピクチャの画像のうち、上記参照レイヤ対応領域内の画像のみを生成することを特徴とする請求項4に記載の動画像復号装置。   5. The resampling unit generates only an image in the reference layer corresponding region among images of the resample reference layer picture when the inter-layer image prediction constraint flag is true. The moving picture decoding apparatus described in 1. 上記レイヤ間画像予測制約フラグ復号手段は、参照レイヤ対応領域情報の有無に基づいて、上記レイヤ間画像予測制約フラグを復号することを特徴とする請求項3から6に記載の動画像復号装置。   7. The moving picture decoding apparatus according to claim 3, wherein the inter-layer image prediction constraint flag decoding unit decodes the inter-layer image prediction constraint flag based on presence or absence of reference layer corresponding region information. 上記参照レイヤ対応領域情報復号手段は、対象シーケンス全体で共通となる参照レイヤ対応領域情報をシーケンス単位で復号し、各ピクチャに対応する参照レイヤ対応領域情報を、ピクチャ単位で復号することを特徴とする請求項1から7に記載の動画像復号装置。   The reference layer corresponding region information decoding means decodes reference layer corresponding region information common to the entire target sequence in units of sequences, and decodes reference layer corresponding region information corresponding to each picture in units of pictures. The moving picture decoding apparatus according to claim 1. 上記各ピクチャに対応する参照レイヤ対応領域情報は、上記対象シーケンス全体で共通となる参照レイヤ対応領域情報からの差分情報であることを特徴とする請求項8に記載の動画像復号装置。   9. The moving picture decoding apparatus according to claim 8, wherein the reference layer corresponding area information corresponding to each picture is difference information from the reference layer corresponding area information common to the entire target sequence. 上記予測単位の予測方式がレイヤ間画像予測であるかを示すレイヤ間画像予測フラグを復号するレイヤ間画像予測復号手段を備え、
上記レイヤ間画像予測復号手段は、上記所定条件を満たすレイヤ間画像予測に関するレイヤ間画像予測フラグの復号を省略することを特徴とする請求項4または請求項5に記載の動画像復号装置。
An inter-layer image prediction decoding means for decoding an inter-layer image prediction flag indicating whether the prediction method of the prediction unit is inter-layer image prediction;
6. The moving picture decoding apparatus according to claim 4, wherein the inter-layer image prediction decoding unit omits decoding of an inter-layer image prediction flag related to inter-layer image prediction that satisfies the predetermined condition.
レイヤごとに異なる品質の画像に関する画像情報が階層的に符号化された階層符号化データを符号化して、符号化の対象となる対象レイヤにおける画像を符号化する画像符号化装置であって、
対象レイヤと参照レイヤの対応領域を示す参照レイヤ対応領域情報を符号化する参照レイヤ対応領域情報符号化手段と、
所定条件を満たすレイヤ間画像予測を禁止するレイヤ間画像予測制約フラグを符号化するレイヤ間画像予測制約フラグ符号化手段と、
符号化済の参照レイヤピクチャと参照レイヤ対応領域情報とに基づいて、上記参照レイヤピクチャの画像及び動き情報を対象レイヤのピクチャへ対応づけてリサンプル参照レイヤピクチャを生成するリサンプリング手段と、
上記対象レイヤのピクチャを構成する各予測単位の予測画像を生成する予測画像生成手段を備え、
上記予測画像生成手段は、上記レイヤ間画像予測制約フラグが真であって、上記予測単位の予測方式がレイヤ間画像予測である場合、上記所定条件を満たさないレイヤ間画像予測により上記予測単位の予測画像を生成することを特徴とする動画像符号化装置。
An image encoding apparatus that encodes hierarchical encoded data in which image information related to images of different quality for each layer is encoded hierarchically, and encodes an image in a target layer to be encoded,
Reference layer corresponding region information encoding means for encoding reference layer corresponding region information indicating a corresponding region between a target layer and a reference layer;
An inter-layer image prediction constraint flag encoding means for encoding an inter-layer image prediction constraint flag that prohibits inter-layer image prediction satisfying a predetermined condition;
Re-sampling means for generating a re-sampled reference layer picture by associating the image and motion information of the reference layer picture with the picture of the target layer based on the encoded reference layer picture and the reference layer corresponding region information;
A prediction image generating unit that generates a prediction image of each prediction unit constituting the picture of the target layer,
When the inter-layer image prediction constraint flag is true and the prediction method of the prediction unit is inter-layer image prediction, the predicted image generation means performs prediction of the prediction unit by inter-layer image prediction that does not satisfy the predetermined condition. A moving picture coding apparatus for generating a predicted picture.
上記所定条件を満たすレイヤ間画像予測とは、レイヤ間画像予測において、上記予測単位と対応する上記リサンプル参照レイヤピクチャ上の対応領域と上記参照レイヤ対応領域に関して、(1)上記対応領域の左端座標が上記参照レイヤ対応領域の左端座標より小さい、(2)上記対応領域の右端座標が上記参照レイヤ対応領域の右端座標より大きい、(3)上記対応領域の上端座標が上記参照レイヤ対応領域の上端座標より小さい、(4)上記対応領域の下端座標が参照レイヤ対応領域の下端座標より大きい、のうち少なくともいずれか一つを満たす場合であることを特徴とする請求項11に記載の動画像符号化装置。   The inter-layer image prediction satisfying the predetermined condition refers to (1) the left end of the corresponding region with respect to the corresponding region on the resample reference layer picture corresponding to the prediction unit and the reference layer corresponding region in the inter-layer image prediction. The coordinates are smaller than the left end coordinates of the reference layer corresponding area, (2) the right end coordinates of the corresponding area are larger than the right end coordinates of the reference layer corresponding area, and (3) the upper end coordinates of the corresponding area are the reference layer corresponding areas. The moving image according to claim 11, wherein the moving image satisfies at least one of the following: (4) the lower end coordinate of the corresponding region is larger than the lower end coordinate of the reference layer corresponding region. Encoding device. 上記所定条件を満たすレイヤ間画像予測とは、レイヤ間画像予測において、上記予測単位と対応する上記リサンプル参照レイヤピクチャ上の対応領域と上記参照レイヤ対応領域に関して、(1)上記対応領域の右端座標が上記参照レイヤ対応領域の左端座標より小さい、(2)上記対応領域の左端座標が上記参照レイヤ対応領域の右端座標より大きい、
(3)上記対応領域の下端座標が上記参照レイヤ対応領域の上端座標より小さい、(4)上記対応領域の上端座標が参照レイヤ対応領域の下端座標より大きい、のうち少なくともいずれか一つを満たす場合であることを特徴とする請求項11に記載の動画像符号化装置。
The inter-layer image prediction satisfying the predetermined condition refers to (1) the right end of the corresponding region with respect to the corresponding region on the resample reference layer picture corresponding to the prediction unit and the reference layer corresponding region in the inter-layer image prediction. The coordinates are smaller than the left end coordinates of the reference layer corresponding area; (2) the left end coordinates of the corresponding area are larger than the right end coordinates of the reference layer corresponding area;
(3) The lower end coordinate of the corresponding region is smaller than the upper end coordinate of the reference layer corresponding region, and (4) the upper end coordinate of the corresponding region is larger than the lower end coordinate of the reference layer corresponding region, at least one of the above is satisfied. The moving picture coding apparatus according to claim 11, wherein the moving picture coding apparatus is a case.
JP2013145778A 2013-07-10 2013-07-11 Image decoding apparatus, image decoding method and image encoding apparatus Expired - Fee Related JP6224930B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013145778A JP6224930B2 (en) 2013-07-10 2013-07-11 Image decoding apparatus, image decoding method and image encoding apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013144618 2013-07-10
JP2013144618 2013-07-10
JP2013145778A JP6224930B2 (en) 2013-07-10 2013-07-11 Image decoding apparatus, image decoding method and image encoding apparatus

Publications (3)

Publication Number Publication Date
JP2015035641A true JP2015035641A (en) 2015-02-19
JP2015035641A5 JP2015035641A5 (en) 2016-04-07
JP6224930B2 JP6224930B2 (en) 2017-11-01

Family

ID=52543899

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013145778A Expired - Fee Related JP6224930B2 (en) 2013-07-10 2013-07-11 Image decoding apparatus, image decoding method and image encoding apparatus

Country Status (1)

Country Link
JP (1) JP6224930B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111357292A (en) * 2017-10-19 2020-06-30 Tdf公司 Method for encoding and decoding a data stream representing an omnidirectional video
CN111866503A (en) * 2015-11-23 2020-10-30 联发科技(新加坡)私人有限公司 Block segmentation method and device

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JIANLE CHEN, ET AL.: "SHVC Working Draft 2", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 13TH, vol. JCTVC-M1008_v1, JPN6017018521, 21 May 2013 (2013-05-21), pages pp.1,29-30,35,39-43 *
JIANLE CHEN, ET AL.: "SHVC Working Draft 2", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 13TH, vol. JCTVC-M1008_v3, JPN6016041936, 14 June 2013 (2013-06-14), XP055141481 *
TAKESHI TSUKUBA, ET AL.: "Signalling and restriction for scaled reference layer offsets", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JCTVC-N0054, JPN6017018524, 25 July 2013 (2013-07-25) *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111866503A (en) * 2015-11-23 2020-10-30 联发科技(新加坡)私人有限公司 Block segmentation method and device
CN111866503B (en) * 2015-11-23 2023-09-15 寰发股份有限公司 Block segmentation method and device
CN111357292A (en) * 2017-10-19 2020-06-30 Tdf公司 Method for encoding and decoding a data stream representing an omnidirectional video
US11736725B2 (en) 2017-10-19 2023-08-22 Tdf Methods for encoding decoding of a data flow representing of an omnidirectional video

Also Published As

Publication number Publication date
JP6224930B2 (en) 2017-11-01

Similar Documents

Publication Publication Date Title
US20220060741A1 (en) Video encoding device and video decoding device
WO2017195554A1 (en) Predicted image generation device, video decoding device and video encoding device
WO2017130696A1 (en) Prediction image generation device, moving image decoding device, and moving image encoding device
US20200021837A1 (en) Video decoding apparatus and video coding apparatus
WO2017195608A1 (en) Moving image decoding device
CN114430486A (en) Image decoding device and image encoding device
US11317115B2 (en) Prediction image generation device, video decoding device and video coding device
WO2020184487A1 (en) Dynamic image decoding device
WO2020137920A1 (en) Prediction image generating device, moving image decoding device, moving image encoding device, and prediction image generating method
CN113170186A (en) Moving image decoding device
CN112740704A (en) Image decoding device and image encoding device
JP7475908B2 (en) Prediction image generating device, video decoding device, and video encoding device
JP2022007319A (en) Dynamic image encoding device and decoding device
JP6224930B2 (en) Image decoding apparatus, image decoding method and image encoding apparatus
JP2016034050A (en) Image decoder, image encoder, and data structure
WO2014104242A1 (en) Image decoding device and image encoding device
JP2020096279A (en) Prediction image generation device, moving image decoding device, and moving image encoding device
WO2021200658A1 (en) Dynamic image decoding device and dynamic image decoding method
JP2019201254A (en) Image decoding apparatus and image encoding apparatus
WO2018037919A1 (en) Image decoding device, image coding device, image decoding method, and image coding method
WO2021200610A1 (en) Dynamic image decoding device, dynamic image coding device, dynamic image decoding method, and dynamic image coding method
US11044490B2 (en) Motion compensation filter apparatus, image decoding apparatus, and video coding apparatus
JP2022096879A (en) Moving image encoding device and decoding device
JP2020096329A (en) Prediction image generation device, moving image decoding device, and moving image encoding device
JP7465128B2 (en) Video encoding device and video decoding device

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150423

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160208

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160222

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20160224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161024

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171006

R150 Certificate of patent or registration of utility model

Ref document number: 6224930

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees