WO2021199783A1 - Image decoding device, image decoding method, and program - Google Patents

Image decoding device, image decoding method, and program Download PDF

Info

Publication number
WO2021199783A1
WO2021199783A1 PCT/JP2021/006375 JP2021006375W WO2021199783A1 WO 2021199783 A1 WO2021199783 A1 WO 2021199783A1 JP 2021006375 W JP2021006375 W JP 2021006375W WO 2021199783 A1 WO2021199783 A1 WO 2021199783A1
Authority
WO
WIPO (PCT)
Prior art keywords
slice
unit
sub
picture
coded data
Prior art date
Application number
PCT/JP2021/006375
Other languages
French (fr)
Japanese (ja)
Inventor
圭 河村
内藤 整
Original Assignee
Kddi株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kddi株式会社 filed Critical Kddi株式会社
Priority to CN202180023940.0A priority Critical patent/CN115315958A/en
Publication of WO2021199783A1 publication Critical patent/WO2021199783A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression

Definitions

  • the present invention relates to an image decoding device, an image decoding method, and a program.
  • the sub-picture in VVC (Versatile Video Coding), which is the next-generation video coding method described in Patent Document 1, is a rectangular region composed of one or a plurality of slices in the picture, and is, for example, as shown in FIG. In addition, the picture is completely covered by sub-pictures, which are a plurality of rectangular areas, without duplication.
  • Non-Patent Document 1 discloses a procedure for extracting a bit stream for each sub-picture. Using this procedure, it is possible to generate a new bitstream by extracting a bitstream of sub-pictures corresponding to a desired region from different bitstreams and further combining a plurality of sub-pictures into a picture. can.
  • bitstreams having different resolutions for a subpicture including a visual field area and a subpicture other than the field area without re-encoding it is possible to generate bitstreams having different resolutions for a subpicture including a visual field area and a subpicture other than the field area without re-encoding.
  • VVC which is a next-generation moving image coding method
  • the shapes of pictures and sub-pictures are rectangular, so if you want to separate and combine bitstreams, you can arrange sub-pictures in any way.
  • the picture may not be completely covered without duplication.
  • the present invention has been made in view of the above-mentioned problems, and even if a rectangular shape is not formed when a plurality of bit streams are combined, a picture is decoded by a sub-picture function that serves as a filler in which no content exists. It is an object of the present invention to provide an image decoding device, an image decoding method, and a program capable of performing the above.
  • the first feature of the present invention is an image decoding device configured to decode the coded data, and is configured to decode the coded data to derive the layout information of the sub-picture.
  • Sub-picture layout derivation unit a filling slice identification unit configured to decode the coded data to identify whether each slice constituting the sub-picture is a filling slice, the layout information, and the layout information. It is a gist to include a slice decoding unit configured to decode the coded data and reconstruct the slice data based on the identification result by the filled slice identification unit.
  • the second feature of the present invention is an image decoding method, which comprises a step of decoding coded data to derive layout information of a sub-picture and decoding the coded data to form the sub-picture. It is a gist to have a step of identifying whether each slice is a filled slice and a step of decoding the coded data and reconstructing the slice data based on the layout information and the identification result.
  • a third feature of the present invention is a program that causes a computer to function as an image decoding device configured to decode coded data, wherein the image decoding device decodes the coded data.
  • a sub-picture layout derivation unit configured to derive the layout information of the sub-picture and a sub-picture layout derivation unit configured to decode the coded data to identify whether each slice constituting the sub picture is a filled slice.
  • a slice decoding unit configured to decode the coded data and reconstruct the slice data based on the layout information and the identification result by the filling slice identification unit. The gist is to prepare.
  • an image decoding device and an image decoding method capable of decoding a picture by a sub-picture function that serves as a filler in which no content exists even when a plurality of bit streams are combined to form a rectangle. And programs can be provided.
  • FIG. 1 is a diagram showing an example of a functional block of the image processing system 1 according to the first embodiment of the present invention.
  • the image processing system 1 includes an image coding device 100 that encodes a moving image and generates coded data, and an image decoding device 200 that decodes the coded data generated by the image coding device 100.
  • the above-mentioned coded data is transmitted and received between the image coding device 100 and the image decoding device 200, for example, via a transmission line.
  • FIG. 2 is a diagram showing an example of a functional block of the image coding device 100.
  • the image coding apparatus 100 includes an inter-prediction unit 101, an intra-prediction unit 102, a conversion / quantization unit 103, an entropy coding unit 104, and an inverse conversion / inverse quantization unit 105.
  • the block division unit 110 is configured to divide the entire screen of the input image into the same square and output an image (divided image) recursively divided by a quadtree or the like.
  • the inter-prediction unit 101 is configured to perform inter-prediction and generate and output an inter-prediction image by using the divided image input by the block division unit 110 and the filtered local decoding image input from the frame buffer 109. Has been done.
  • the intra prediction unit 102 is configured to generate and output an intra prediction image by performing intra prediction using the divided image input by the block dividing unit 110 and the pre-filter local decoding image described later.
  • the conversion / quantization unit 103 performs an orthogonal conversion process on the residual signal input from the subtraction unit 106, performs a quantization process on the conversion coefficient obtained by the orthogonal conversion process, and performs the quantization process. It is configured to output the resulting quantized level value.
  • the entropy coding unit 104 is configured to entropy-code the quantized level value, conversion unit size, and conversion size input from the conversion / quantization unit 103 and output them as coded data.
  • the inverse conversion / inverse quantization unit 105 performs an inverse quantization process on the quantized level value input from the conversion / quantization unit 103, and with respect to the conversion coefficient obtained by the inverse quantization process. It is configured to perform the inverse quadrature conversion process and output the inverse quadrature-converted residual signal obtained by the inverse quadrature conversion process.
  • the subtraction unit 106 is configured to output a residual signal which is a difference between the divided image input by the block division unit 110 and the intra prediction image or the inter prediction image.
  • the addition unit 107 is configured to output a divided image obtained by adding the inverse orthogonal transformation residual signal input from the inverse transformation / inverse quantization unit 105 to the intra-prediction image or the inter-prediction image. There is.
  • the block integration unit 111 is configured to output a pre-filter locally decoded image obtained by integrating the divided images input from the addition unit 107.
  • the in-loop filter unit 108 applies in-loop filter processing such as deblocking filter processing to the pre-filter local decoding image input from the block integration unit 111 to generate and output the post-filter local decoding image.
  • the pre-filter locally decoded image is a signal obtained by adding the inverse orthogonal-transformed residual signal and the intra-predicted image or the inter-predicted image.
  • the frame buffer 109 accumulates the filtered locally decoded image and appropriately supplies it to the inter-prediction unit 101 as the filtered locally decoded image.
  • FIG. 3 is a diagram showing an example of a part of the functional blocks of the entropy coding unit 104 of the image coding device 100 according to the present embodiment.
  • the entropy coding unit 104 is configured to derive a subpicture composed of filled slices. Specifically, as shown in FIG. 3, the entropy coding unit 104 includes a sub-picture layout determination unit 121, a filling slice determination unit 122, and a slice coding unit 123.
  • the sub-picture layout determination unit 121 is configured to determine the layout of the sub-pictures signaled at the sequence level and output layout information related to the determined layout.
  • the filling slice determination unit 122 is configured to determine whether each slice constituting each sub-picture is a filling slice and output the determination result.
  • the slice coding unit 123 is configured to encode a bit stream in slice units and output it as slice data.
  • the slice coding unit 123 corresponds to the corresponding slice when the corresponding slice is not a filled slice, based on the layout information determined by the sub-picture layout determination unit 121 and the determination result by the filling slice determination unit 122.
  • the bit stream is encoded and output as slice data in accordance with the slice decoding process described in Non-Patent Document 1.
  • the slice coding unit 123 when the corresponding slice is a filling slice, based on the layout information determined by the sub-picture layout determination unit 121 and the determination result by the filling slice determination unit 122, the filling slice in the corresponding slice. It is configured to be encoded and output as slice data for.
  • slice data for filling slices it may be a bit stream indicating that the intra slice is not divided from the maximum CU size, the intra prediction mode is INTRA_PLANAR, and there is no residual signal.
  • the slice data for the filling slice may be a bit stream indicating that the interslice is not divided from the maximum CU size, the motion vector is the merge index 0 in the merge mode, and there is no residual signal.
  • FIG. 4 shows an example of the syntax including the layout information determined by the sub-picture layout determination unit 121 and the determination result by the filling slice determination unit 122.
  • the syntax is encoded by the entropy coding unit 104 (slice coding unit 123).
  • the subpics_present_flag is a flag indicating that the picture is composed of one or more sub-pictures.
  • filler_slice_subpic_present_flag is a flag indicating the presence or absence of a sub-picture composed of filled slices in the sequence. For example, when the value of filler_slice_subpics_present_flag is "1" (when it is valid), it indicates that a subpicture composed of filled slices exists in the sequence, and when the value of filler_slice_subpics_present_flag is "0" (when it is valid). (If invalid) indicates that there are no subpictures consisting of filled slices in the sequence.
  • subpic_ctu_top_left_x [i] is a coordinate value in the upper left horizontal CTU unit constituting the subpicture
  • subpic_ctu_top_left_y [i] is a coordinate value in the upper left vertical CTU unit constituting the subpicture.
  • subpic_width_minus_1 [i] is the number of horizontal CTUs constituting the sub-picture
  • subpic_height_minus_1 [i] is the number of vertical CTUs constituting the sub-picture.
  • the subpic_treated_as_pic_flag [i] is a flag indicating whether or not the decoding process is applied to the sub-picture as a picture except for the loop filter process, and the loop_filter_acloss_subpic_enable_flag [i] applies the loop filter process to the sub-picture boundary. A flag that indicates that it may do.
  • filler_slice_subpic_flag [i] is a flag indicating whether each slice constituting each subpicture is a filled slice. For example, if the value of filler_slice_subpic_flag [i] is "1", it means that the slice is a filled slice, and if the value of filler_slice_subpic_flag [i] is "1", the slice is not a filled slice. Is shown.
  • the filler_slice_subpic_flag [i] corresponds to the determination result by the filling slice determination unit 122.
  • subpic_ctu_top_left_x [i] subpic_ctu_top_left_y [i]
  • subpic_width_minus_1 [i] in FIG. 4 correspond to the above layout information.
  • FIG. 5 is a block diagram of the image decoding device 200 according to the present embodiment.
  • the image decoding apparatus 200 includes an entropy decoding unit 201, an inverse transformation / inverse quantization unit 202, an inter prediction unit 203, an intra prediction unit 204, and an addition unit 205.
  • the in-loop filter unit 206, the frame buffer 207, and the block integration unit 208 are provided.
  • the entropy decoding unit 201 is configured to entropy-decode the coded data and output the quantized level value, the motion compensation method generated by the image coding apparatus 100, and the like.
  • the inverse conversion / inverse quantization unit 202 performs an inverse quantization process on the quantized level value input from the entropy decoding unit 201, and an inverse orthogonal conversion on the result obtained by the inverse quantization process. It is configured to perform processing and output as a residual signal.
  • the inter-prediction unit 203 is configured to perform inter-prediction using the filtered locally decoded image input from the frame buffer 207 to generate and output an inter-prediction image.
  • the intra prediction unit 204 is configured to perform intra prediction using the pre-filter locally decoded image input from the addition unit 205 to generate and output an intra prediction image.
  • the addition unit 205 combines the residual signal input from the inverse conversion / inverse quantization unit 202 and the prediction image (inter prediction image input from the inter prediction unit 203 or intra prediction image input from the intra prediction unit 204). It is configured to output the divided image obtained by adding.
  • the prediction image is a prediction image calculated by a prediction method obtained by entropy decoding among the inter prediction image input from the inter prediction unit 203 and the intra prediction image input from the intra prediction unit 204. Is.
  • the block integration unit 208 is configured to output a pre-filter locally decoded image obtained by integrating the divided images input from the addition unit 205.
  • the in-loop filter unit 206 applies in-loop filter processing such as deunit filter processing to the pre-filter local decoding image input from the block integration unit 208 to generate and output the post-filter local decoding image. It is configured.
  • the frame buffer 207 is configured to accumulate the filtered locally decoded image input from the in-loop filter 206, appropriately supply it to the inter-prediction unit 203 as a filtered locally decoded image, and output it as a decoded image. There is.
  • the entropy decoding unit 201 is configured to derive a subpicture composed of filled slices. As shown in FIG. 6, the entropy decoding unit 201 includes a sub-picture layout derivation unit 211, a filling slice identification unit 212, and a slice decoding unit 213.
  • the sub-picture layout derivation unit 211 is configured to decode the syntax signaled at the sequence level and derive the layout information of the sub-picture based on the syntax.
  • the filled slice identification unit 212 decodes the syntax signaled at the sequence level, and based on the syntax, each slice constituting each sub-picture is a filled slice. Is configured to identify.
  • Such syntax is included in the coded data and is the same as the syntax shown in FIG.
  • the slice decoding unit 213 is configured to decode the coded data and reconstruct the slice data based on the layout information derived by the sub-picture layout derivation unit 211 and the identification result by the filling slice identification unit 212. ..
  • the slice decoding unit 213 determines that the corresponding slice is not a filled slice based on the layout information derived by the sub-picture layout derivation unit 211 and the identification result by the filled slice identification unit 212, the slice decoding unit 213 does not. It is configured to decode and reconstruct the slice data in accordance with the slice decoding process described in Patent Document 1.
  • the slice decoding unit 213 determines that the slice is a filled slice based on the layout information derived by the sub-picture layout derivation unit 211 and the identification result by the filled slice identification unit 212, the slice decoding unit 213 determines that the slice is a filled slice. It is configured to be decoded and output as slice data for filled slices.
  • the image decoding apparatus 200 can decode the picture as a rectangle by introducing a sub-picture composed of filled slices. ..
  • the amount of processing to be decoded by the image decoding apparatus 200 that can decode each sub-picture can be reduced.
  • the slice decoding unit 213 determines that the slice is a filled slice based on the layout information derived by the sub-picture layout derivation unit 211 and the identification result by the filled slice identification unit 212.
  • the slice is regarded as the following encoded data, and the slice data is reconstructed by decoding according to the slice decoding process described in Non-Patent Document 1.
  • the slice type is intra
  • the CU size is the maximum size
  • the intra prediction mode is INTRA_PLANAR
  • the sub-picture layout determination unit 121 is configured to determine whether to use the filling slice function in the sequence and output the determination result. ..
  • the filling slice determination unit 122 is configured not to perform the above determination.
  • FIG. 7 shows an example of the syntax including the determination result by the sub-picture layout determination unit 121.
  • the filer_slice_subpic_present_ "flag is a flag indicating whether or not to use the filling slice function in the sequence.
  • the "filer_slice_subpic_present_" flag corresponds to the determination result by the sub-picture layout determination unit 121.
  • the sub-picture layout derivation unit 211 is configured to derive whether or not to utilize the filling slice function in the sequence based on the above-mentioned syntax. ..
  • the filling slice identification unit 212 is configured not to perform the above-mentioned identification.
  • the coding performance for signaling the presence or absence of filled slices is improved.
  • the slice coding unit 123 uses the filling slice as the corresponding slice based on the layout information determined by the sub-picture layout determination unit 121 and the determination result by the filling slice determination unit 122. In some cases, it is configured to be encoded and output as slice data filled with a specific value.
  • the slice decoding unit 213 determines that the slice is a filling slice based on the layout information derived by the sub-picture layout derivation unit 211 and the identification result by the filling slice identification unit 212. When it is determined, it is configured to be decoded and output as slice data filled with a specific value.
  • the coded data conversion system 2 is a coded data extraction device 21 that inputs coded data of a plurality of moving images and outputs coded data corresponding to a designated subpicture from outside the system, and the output coded code. It includes a coded data combining device 22 that inputs data, combines sub-pictures, and outputs coded data as a picture.
  • the coded data combining device 22 is configured to output coded data that satisfies the requirement that the picture is rectangular and is completely covered with subpictures, and that the subpictures do not overlap with each other. ..
  • the coded data combining device 22 adds a sub-picture composed of an arbitrary number of filled slices to satisfy the above-mentioned requirements. It is configured to output the conversion data.
  • coded data may be extracted and combined for a 360 ° video of a cube map method composed of 6 surfaces.
  • the characters in FIG. 9 represent the positions and orientations of the respective surfaces of the cube map system, where L means the left surface, R means the right surface, F means the front surface, Bot means the lower surface, Bac means the back surface, and Top means the upper surface.
  • Fil is a packed slice according to the present invention.
  • the coded data conversion system 2 can be set in the field of view region and the transmission band. Accordingly, as shown in the right column of FIG. 9, the coded data can be dynamically extracted and combined.
  • the resolution for each surface in FIG. 9 is 1024 x 1024 pixels, 768 x 768 pixels, and 512 x 512 pixels.
  • the coded data combining device 22 is composed of high-resolution sub-pictures on the two surfaces corresponding to the visual field region, and low-resolution sub-pictures on the other four surfaces.
  • a picture composed of pictures is generated, a picture of 2048 ⁇ 1536 pixels is generated as a whole.
  • the coded data combining device 22 has a medium-resolution sub-picture for two surfaces corresponding to the visual field region and a low-resolution sub-picture for the other four surfaces.
  • a picture composed of two filled slices of 256 ⁇ 512 pixels and a filled slice of 512 ⁇ 256 pixels is generated, a picture of 2048 ⁇ 1280 pixels is generated as a whole.
  • the above-mentioned image coding device 100 and image decoding device 200 may be realized by a program that causes a computer to execute each function (each process).
  • the present invention has been described by taking application to the image coding device 100 and the image decoding device 200 as an example, but the present invention is not limited to this, and the image coding is not limited to this. The same applies to an image coding system and an image decoding system having the functions of the device 100 and the image decoding device 200.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

This image decoding device 200 comprises: a sub picture layout derivation unit 211 configured to derive layout information of a sub picture by decoding encoded data; a fill slice identification unit 212 configured to identify whether each of a plurality of slices constituting the sub picture is a fill slice by decoding the encoded data; and a slice decoding unit 213 configured to reconstruct slice data on the basis of the layout information and the identification results of the fill slice identification unit 211 by decoding the encoded data.

Description

画像復号装置、画像復号方法及びプログラムImage decoding device, image decoding method and program
 本発明は、画像復号装置、画像復号方法及びプログラムに関する。 The present invention relates to an image decoding device, an image decoding method, and a program.
 特許文献1に記載の次世代動画像符号化方式であるVVC(Versatile Video Coding)におけるサブピクチャは、ピクチャ内の1又は複数のスライスから構成される矩形領域であり、例えば、図10に示すように、ピクチャは、複数の矩形領域であるサブピクチャによって重複無く完全に覆われる。 The sub-picture in VVC (Versatile Video Coding), which is the next-generation video coding method described in Patent Document 1, is a rectangular region composed of one or a plurality of slices in the picture, and is, for example, as shown in FIG. In addition, the picture is completely covered by sub-pictures, which are a plurality of rectangular areas, without duplication.
 さらに、非特許文献1には、サブピクチャごとにビットストリームを取り出す手順が開示されている。かかる手順を利用すると、異なるビットストリームから所望の領域に対応するサブピクチャのビットストリームを抽出し、さらに、複数のサブピクチャをピクチャとなるように結合することで、新しいビットストリームを生成することができる。 Further, Non-Patent Document 1 discloses a procedure for extracting a bit stream for each sub-picture. Using this procedure, it is possible to generate a new bitstream by extracting a bitstream of sub-pictures corresponding to a desired region from different bitstreams and further combining a plurality of sub-pictures into a picture. can.
 例えば、キューブマップ方式の360°映像において、視野領域を含むサブピクチャと、それ以外のサブピクチャとで、異なる解像度のビットストリームを、再エンコードすること無く生成可能となる。 For example, in a cube-map type 360 ° video, it is possible to generate bitstreams having different resolutions for a subpicture including a visual field area and a subpicture other than the field area without re-encoding.
 しかしながら、次世代動画像符号化方式であるVVCでは、ピクチャ及びサブピクチャの形状が矩形であるという制約から、ビットストリームの分離及び結合を行いたい場合に、どのようにサブピクチャを配置しても重複無く完全に覆うピクチャとならない場合があるという問題点があった。 However, in VVC, which is a next-generation moving image coding method, there is a restriction that the shapes of pictures and sub-pictures are rectangular, so if you want to separate and combine bitstreams, you can arrange sub-pictures in any way. There is a problem that the picture may not be completely covered without duplication.
 そこで、本発明は、上述の課題に鑑みてなされたものであり、複数のビットストリームを結合するときに矩形とならない場合であっても、コンテンツの存在しないフィラーとなるサブピクチャ機能によってピクチャの復号を行うことができる画像復号装置、画像復号方法及びプログラムを提供することを目的とする。 Therefore, the present invention has been made in view of the above-mentioned problems, and even if a rectangular shape is not formed when a plurality of bit streams are combined, a picture is decoded by a sub-picture function that serves as a filler in which no content exists. It is an object of the present invention to provide an image decoding device, an image decoding method, and a program capable of performing the above.
 本発明の第1の特徴は、符号化データを復号するように構成されている画像復号装置であって、記符号化データを復号して、サブピクチャのレイアウト情報を導出するように構成されているサブピクチャレイアウト導出部と、前記符号化データを復号して、前記サブピクチャを構成する各スライスが充填スライスであるかを識別するように構成されている充填スライス識別部と、前記レイアウト情報及び前記充填スライス識別部による識別結果に基づいて、前記符号化データを復号してスライスデータを再構築するように構成されているスライス復号部とを備えることを要旨とする。 The first feature of the present invention is an image decoding device configured to decode the coded data, and is configured to decode the coded data to derive the layout information of the sub-picture. Sub-picture layout derivation unit, a filling slice identification unit configured to decode the coded data to identify whether each slice constituting the sub-picture is a filling slice, the layout information, and the layout information. It is a gist to include a slice decoding unit configured to decode the coded data and reconstruct the slice data based on the identification result by the filled slice identification unit.
 本発明の第2の特徴は、画像復号方法であって、符号化データを復号して、サブピクチャのレイアウト情報を導出する工程と、前記符号化データを復号して、前記サブピクチャを構成する各スライスが充填スライスであるかを識別する工程と、前記レイアウト情報及び前記識別結果に基づいて、前記符号化データを復号してスライスデータを再構築する工程とを有することを要旨とする。 The second feature of the present invention is an image decoding method, which comprises a step of decoding coded data to derive layout information of a sub-picture and decoding the coded data to form the sub-picture. It is a gist to have a step of identifying whether each slice is a filled slice and a step of decoding the coded data and reconstructing the slice data based on the layout information and the identification result.
 本発明の第3の特徴は、コンピュータを、符号化データを復号するように構成されている画像復号装置として機能させるプログラムであって、前記画像復号装置は、前記符号化データを復号して、サブピクチャのレイアウト情報を導出するように構成されているサブピクチャレイアウト導出部と、前記符号化データを復号して、前記サブピクチャを構成する各スライスが充填スライスであるかを識別するように構成されている充填スライス識別部と、前記レイアウト情報及び前記充填スライス識別部による識別結果に基づいて、前記符号化データを復号してスライスデータを再構築するように構成されているスライス復号部とを備えることを要旨とする。 A third feature of the present invention is a program that causes a computer to function as an image decoding device configured to decode coded data, wherein the image decoding device decodes the coded data. A sub-picture layout derivation unit configured to derive the layout information of the sub-picture and a sub-picture layout derivation unit configured to decode the coded data to identify whether each slice constituting the sub picture is a filled slice. A slice decoding unit configured to decode the coded data and reconstruct the slice data based on the layout information and the identification result by the filling slice identification unit. The gist is to prepare.
 本発明によれば、複数のビットストリームを結合するときに矩形とならない場合であっても、コンテンツの存在しないフィラーとなるサブピクチャ機能によってピクチャの復号を行うことができる画像復号装置、画像復号方法及びプログラムを提供することができる。 According to the present invention, an image decoding device and an image decoding method capable of decoding a picture by a sub-picture function that serves as a filler in which no content exists even when a plurality of bit streams are combined to form a rectangle. And programs can be provided.
一実施形態に係る画像処理システム1の構成の一例を示す図である。It is a figure which shows an example of the structure of the image processing system 1 which concerns on one Embodiment. 一実施形態に係る画像符号化装置100の機能ブロックの一例を示す図である。It is a figure which shows an example of the functional block of the image coding apparatus 100 which concerns on one Embodiment. 一実施形態に係る画像符号化装置100のエントロピー符号化部104の機能ブロックの一例を示す図である。It is a figure which shows an example of the functional block of the entropy coding part 104 of the image coding apparatus 100 which concerns on one Embodiment. 一実施形態に係る画像処理システム1で用いられるシンタックスの一例を示す図である。It is a figure which shows an example of the syntax used in the image processing system 1 which concerns on one Embodiment. 一実施形態に係る画像復号装置200の機能ブロックの一例を示す図である。It is a figure which shows an example of the functional block of the image decoding apparatus 200 which concerns on one Embodiment. 一実施形態に係る画像復号装置200のエントロピー復号部201の機能ブロックの一例を示す図である。It is a figure which shows an example of the functional block of the entropy decoding unit 201 of the image decoding apparatus 200 which concerns on one Embodiment. 一実施形態に係る画像処理システム1で用いられるシンタックスの一例を示す図である。It is a figure which shows an example of the syntax used in the image processing system 1 which concerns on one Embodiment. 一実施形態に係る符号化データ変換システム2の構成の一例を示す図である。It is a figure which shows an example of the structure of the coded data conversion system 2 which concerns on one Embodiment. 一実施形態において、6面から構成されるキューブマップ方式の360°映像を対象に符号化データを抽出・結合する場合の一例を説明するための図である。In one embodiment, it is a figure for demonstrating an example of the case where the coded data is extracted and combined with respect to the 360 ° video of the cube map system composed of 6 planes. 従来技術を説明するための図である。It is a figure for demonstrating the prior art.
 以下、本発明の実施の形態について図面を参照しながら、説明する。なお、以下の実施形態における構成要素は適宜、既存の構成要素などとの置き換えが可能であり、また、他の既存の構成要素との組み合わせを含む様々なバリエーションが可能である。したがって、以下の実施形態の記載をもって、特許請求の範囲に記載された発明の内容を限定するものではない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The components in the following embodiments can be replaced with existing components as appropriate, and various variations including combinations with other existing components are possible. Therefore, the description of the following embodiments does not limit the content of the invention described in the claims.
(第1実施形態)
 図1は、本発明の第1実施形態に係る画像処理システム1の機能ブロックの一例を示す図である。画像処理システム1は、動画像を符号化して符号化データを生成する画像符号化装置100と、画像符号化装置100により生成された符号化データを復号する画像復号装置200とを備える。画像符号化装置100と画像復号装置200との間では、上述の符号化データが、例えば、伝送路を介して送受信される。
(First Embodiment)
FIG. 1 is a diagram showing an example of a functional block of the image processing system 1 according to the first embodiment of the present invention. The image processing system 1 includes an image coding device 100 that encodes a moving image and generates coded data, and an image decoding device 200 that decodes the coded data generated by the image coding device 100. The above-mentioned coded data is transmitted and received between the image coding device 100 and the image decoding device 200, for example, via a transmission line.
<画像符号化装置100>
 図2は、画像符号化装置100の機能ブロックの一例を示す図である。図2に示すように、画像符号化装置100は、インター予測部101と、イントラ予測部102と、変換・量子化部103と、エントロピー符号化部104と、逆変換・逆量子化部105と、減算部106と、加算部107と、インループフィルタ部108と、フレームバッファ109と、ブロック分割部110と、ブロック統合部111とを備える。
<Image coding device 100>
FIG. 2 is a diagram showing an example of a functional block of the image coding device 100. As shown in FIG. 2, the image coding apparatus 100 includes an inter-prediction unit 101, an intra-prediction unit 102, a conversion / quantization unit 103, an entropy coding unit 104, and an inverse conversion / inverse quantization unit 105. , The subtraction unit 106, the addition unit 107, the in-loop filter unit 108, the frame buffer 109, the block division unit 110, and the block integration unit 111.
 ブロック分割部110は、入力画像の画面全体を同一正方形に分割し、更に四分木等により再帰的に分割した画像(分割画像)を出力するように構成されている。 The block division unit 110 is configured to divide the entire screen of the input image into the same square and output an image (divided image) recursively divided by a quadtree or the like.
 インター予測部101は、ブロック分割部110によって入力された分割画像及びフレームバッファ109から入力されるフィルタ後局所復号画像を用いて、インター予測を行ってインター予測画像を生成して出力するように構成されている。 The inter-prediction unit 101 is configured to perform inter-prediction and generate and output an inter-prediction image by using the divided image input by the block division unit 110 and the filtered local decoding image input from the frame buffer 109. Has been done.
 イントラ予測部102は、ブロック分割部110によって入力された分割画像及び後述のフィルタ前局所復号画像を用いて、イントラ予測を行ってイントラ予測画像を生成して出力するように構成されている。 The intra prediction unit 102 is configured to generate and output an intra prediction image by performing intra prediction using the divided image input by the block dividing unit 110 and the pre-filter local decoding image described later.
 変換・量子化部103は、減算部106から入力される残差信号に対して直交変換処理を行い、かかる直交変換処理により得られる変換係数に対して量子化処理を行い、かかる量子化処理により得られる量子化されたレベル値を出力するように構成されている。 The conversion / quantization unit 103 performs an orthogonal conversion process on the residual signal input from the subtraction unit 106, performs a quantization process on the conversion coefficient obtained by the orthogonal conversion process, and performs the quantization process. It is configured to output the resulting quantized level value.
 エントロピー符号化部104は、変換・量子化部103から入力される量子化されたレベル値、変換ユニットサイズ及び変換サイズをエントロピー符号化して符号化データとして出力するように構成されている。 The entropy coding unit 104 is configured to entropy-code the quantized level value, conversion unit size, and conversion size input from the conversion / quantization unit 103 and output them as coded data.
 逆変換・逆量子化部105は、変換・量子化部103から入力される量子化されたレベル値に対して逆量子化処理を行い、かかる逆量子化処理により得られた変換係数に対して逆直交変換処理を行い、かかる逆直交変換処理により得られる逆直交変換された残差信号を出力するように構成されている。 The inverse conversion / inverse quantization unit 105 performs an inverse quantization process on the quantized level value input from the conversion / quantization unit 103, and with respect to the conversion coefficient obtained by the inverse quantization process. It is configured to perform the inverse quadrature conversion process and output the inverse quadrature-converted residual signal obtained by the inverse quadrature conversion process.
 減算部106は、ブロック分割部110によって入力された分割画像とイントラ予測画像或いはインター予測画像との差分である残差信号を出力するように構成されている。 The subtraction unit 106 is configured to output a residual signal which is a difference between the divided image input by the block division unit 110 and the intra prediction image or the inter prediction image.
 加算部107は、逆変換・逆量子化部105から入力される逆直交変換された残差信号とイントラ予測画像或いはインター予測画像とを加算して得られる分割画像を出力するように構成されている。 The addition unit 107 is configured to output a divided image obtained by adding the inverse orthogonal transformation residual signal input from the inverse transformation / inverse quantization unit 105 to the intra-prediction image or the inter-prediction image. There is.
 ブロック統合部111は、加算部107から入力される分割画像を統合することで得られたフィルタ前局所復号画像を出力するように構成されている。 The block integration unit 111 is configured to output a pre-filter locally decoded image obtained by integrating the divided images input from the addition unit 107.
 インループフィルタ部108は、ブロック統合部111から入力されるフィルタ前局所復号画像に対して、デブロッキングフィルタ処理等のインループフィルタ処理を適用してフィルタ後局所復号画像を生成して出力するように構成されている。ここで、フィルタ前局所復号画像は、逆直交変換された残差信号とイントラ予測画像或いはインター予測画像とを加算して得られる信号である。 The in-loop filter unit 108 applies in-loop filter processing such as deblocking filter processing to the pre-filter local decoding image input from the block integration unit 111 to generate and output the post-filter local decoding image. It is configured in. Here, the pre-filter locally decoded image is a signal obtained by adding the inverse orthogonal-transformed residual signal and the intra-predicted image or the inter-predicted image.
 フレームバッファ109は、フィルタ後局所復号画像を蓄積し、適宜、フィルタ後局所復号画像としてインター予測部101に供給する。 The frame buffer 109 accumulates the filtered locally decoded image and appropriately supplies it to the inter-prediction unit 101 as the filtered locally decoded image.
 以下、図3を参照して、本実施形態に係る画像符号化装置100のエントロピー符号化部104について説明する。図3は、本実施形態に係る画像符号化装置100のエントロピー符号化部104の一部の機能ブロックの一例を示す図である。 Hereinafter, the entropy coding unit 104 of the image coding device 100 according to the present embodiment will be described with reference to FIG. FIG. 3 is a diagram showing an example of a part of the functional blocks of the entropy coding unit 104 of the image coding device 100 according to the present embodiment.
 エントロピー符号化部104は、充填スライスから構成されるサブピクチャを導出するように構成されている。具体的には、図3に示すように、エントロピー符号化部104は、サブピクチャレイアウト決定部121と、充填スライス判定部122と、スライス符号化部123とを備える。 The entropy coding unit 104 is configured to derive a subpicture composed of filled slices. Specifically, as shown in FIG. 3, the entropy coding unit 104 includes a sub-picture layout determination unit 121, a filling slice determination unit 122, and a slice coding unit 123.
 サブピクチャレイアウト決定部121は、シーケンスレベルでシグナリングするサブピクチャのレイアウトを決定し、決定したレイアウトに係るレイアウト情報を出力するように構成されている。 The sub-picture layout determination unit 121 is configured to determine the layout of the sub-pictures signaled at the sequence level and output layout information related to the determined layout.
 充填スライス判定部122は、各サブピクチャを構成する各スライスが充填スライスであるかについて判定し、かかる判定結果を出力するように構成されている。 The filling slice determination unit 122 is configured to determine whether each slice constituting each sub-picture is a filling slice and output the determination result.
 スライス符号化部123は、スライス単位でビットストリームを符号化して、スライスデータとして出力するように構成されている。 The slice coding unit 123 is configured to encode a bit stream in slice units and output it as slice data.
 ここで、スライス符号化部123は、サブピクチャレイアウト決定部121によって決定されるレイアウト情報及び充填スライス判定部122による判定結果に基づいて、該当スライスが充填スライスでない場合には、該当スライスに対応するビットストリームを、非特許文献1に記載されたスライス復号処理に準拠して符号化してスライスデータとして出力するように構成されている。 Here, the slice coding unit 123 corresponds to the corresponding slice when the corresponding slice is not a filled slice, based on the layout information determined by the sub-picture layout determination unit 121 and the determination result by the filling slice determination unit 122. The bit stream is encoded and output as slice data in accordance with the slice decoding process described in Non-Patent Document 1.
 一方、スライス符号化部123は、サブピクチャレイアウト決定部121によって決定されるレイアウト情報及び充填スライス判定部122による判定結果に基づいて、該当スライスが充填スライスである場合には、該当スライスにおいて充填スライス用のスライスデータとして符号化して出力するように構成されている。 On the other hand, the slice coding unit 123, when the corresponding slice is a filling slice, based on the layout information determined by the sub-picture layout determination unit 121 and the determination result by the filling slice determination unit 122, the filling slice in the corresponding slice. It is configured to be encoded and output as slice data for.
 充填スライス用のスライスデータとして、イントラスライスが最大CUサイズから分割せず、イントラ予測モードがINTRA_PLANARであり、残差信号がないことを示すビットストリームとしてもよい。また、充填スライス用のスライスデータとして、インタースライスが最大CUサイズから分割せず、動きベクトルがマージモードのマージインデックス0であり、残差信号がないことを示すビットストリームとしてもよい。 As slice data for filling slices, it may be a bit stream indicating that the intra slice is not divided from the maximum CU size, the intra prediction mode is INTRA_PLANAR, and there is no residual signal. Further, the slice data for the filling slice may be a bit stream indicating that the interslice is not divided from the maximum CU size, the motion vector is the merge index 0 in the merge mode, and there is no residual signal.
 図4に、サブピクチャレイアウト決定部121によって決定されるレイアウト情報及び充填スライス判定部122による判定結果を含むシンタックスの一例を示す。なお、かかるシンタックスは、エントロピー符号化部104(スライス符号化部123)によって符号化される。 FIG. 4 shows an example of the syntax including the layout information determined by the sub-picture layout determination unit 121 and the determination result by the filling slice determination unit 122. The syntax is encoded by the entropy coding unit 104 (slice coding unit 123).
 図4において、subpics_present_flagは、ピクチャが1個以上のサブピクチャから構成されていることを示すフラグである。 In FIG. 4, the subpics_present_flag is a flag indicating that the picture is composed of one or more sub-pictures.
 図7において、filler_slice_subpic_present_flagは、シーケンス中に充填スライスから構成されるサブピクチャの有無を示すフラグである。例えば、filler_slice_subpics_present_flagの値が「1」である場合(有効である場合)には、シーケンス中に充填スライスから構成されるサブピクチャが存在することを示し、filler_slice_subpics_present_flagの値が「0」である場合(無効である場合)には、シーケンス中に充填スライスから構成されるサブピクチャが存在しないことを示す。 In FIG. 7, filler_slice_subpic_present_flag is a flag indicating the presence or absence of a sub-picture composed of filled slices in the sequence. For example, when the value of filler_slice_subpics_present_flag is "1" (when it is valid), it indicates that a subpicture composed of filled slices exists in the sequence, and when the value of filler_slice_subpics_present_flag is "0" (when it is valid). (If invalid) indicates that there are no subpictures consisting of filled slices in the sequence.
 図4において、subpic_ctu_top_left_x[i]は、サブピクチャを構成する左上の水平方向のCTU単位における座標値であり、subpic_ctu_top_left_y[i]は、サブピクチャを構成する左上の垂直方向のCTU単位における座標値である。 In FIG. 4, subpic_ctu_top_left_x [i] is a coordinate value in the upper left horizontal CTU unit constituting the subpicture, and subpic_ctu_top_left_y [i] is a coordinate value in the upper left vertical CTU unit constituting the subpicture. be.
 図4において、subpic_width_minus_1[i]は、サブピクチャを構成する水平方向のCTUの個数であり、subpic_height_minus_1[i]は、サブピクチャを構成する垂直方向のCTUの個数である。 In FIG. 4, subpic_width_minus_1 [i] is the number of horizontal CTUs constituting the sub-picture, and subpic_height_minus_1 [i] is the number of vertical CTUs constituting the sub-picture.
 図4において、subpic_treated_as_pic_flag[i]は、ループフィルタ処理を除いて、サブピクチャをピクチャとして復号処理を適用するかどうかを示すフラグであり、loop_filter_across_subpic_enabled_flag[i]は、ループフィルタ処理をサブピクチャ境界に適用するかもしれないことを示すフラグである。 In FIG. 4, the subpic_treated_as_pic_flag [i] is a flag indicating whether or not the decoding process is applied to the sub-picture as a picture except for the loop filter process, and the loop_filter_acloss_subpic_enable_flag [i] applies the loop filter process to the sub-picture boundary. A flag that indicates that it may do.
 図4において、filler_slice_subpic_flag[i]は、各サブピクチャを構成する各スライスが充填スライスであるかについて示すフラグである。例えば、filler_slice_subpic_flag[i]の値が「1」である場合は、該当スライスが充填スライスであることを示し、filler_slice_subpic_flag[i]の値が「1」である場合は、該当スライスが充填スライスでないことを示す。 In FIG. 4, filler_slice_subpic_flag [i] is a flag indicating whether each slice constituting each subpicture is a filled slice. For example, if the value of filler_slice_subpic_flag [i] is "1", it means that the slice is a filled slice, and if the value of filler_slice_subpic_flag [i] is "1", the slice is not a filled slice. Is shown.
 ここで、filler_slice_subpic_flag[i]が、充填スライス判定部122による判定結果に対応する。 Here, the filler_slice_subpic_flag [i] corresponds to the determination result by the filling slice determination unit 122.
 なお、図4におけるsubpic_ctu_top_left_x[i]、subpic_ctu_top_left_y[i]、subpic_width_minus_1[i]及びsubpic_height_minus_1[i]が、上述のレイアウト情報に対応する。 Note that the subpic_ctu_top_left_x [i], subpic_ctu_top_left_y [i], subpic_width_minus_1 [i], and subpic_height_minus_1 [i] in FIG. 4 correspond to the above layout information.
<画像復号装置200>
 図5は、本実施形態に係る画像復号装置200のブロック図である。図5に示すように、本実施形態に係る画像復号装置200は、エントロピー復号部201と、逆変換・逆量子化部202と、インター予測部203と、イントラ予測部204と、加算部205と、インループフィルタ部206と、フレームバッファ207と、ブロック統合部208とを備える。
<Image Decoding Device 200>
FIG. 5 is a block diagram of the image decoding device 200 according to the present embodiment. As shown in FIG. 5, the image decoding apparatus 200 according to the present embodiment includes an entropy decoding unit 201, an inverse transformation / inverse quantization unit 202, an inter prediction unit 203, an intra prediction unit 204, and an addition unit 205. , The in-loop filter unit 206, the frame buffer 207, and the block integration unit 208 are provided.
 エントロピー復号部201は、符号化データをエントロピー復号し、量子化されたレベル値や、画像符号化装置100で生成された動き補償方式等を出力するように構成されている。 The entropy decoding unit 201 is configured to entropy-decode the coded data and output the quantized level value, the motion compensation method generated by the image coding apparatus 100, and the like.
 逆変換・逆量子化部202は、エントロピー復号部201から入力される量子化されたレベル値に対して逆量子化処理を行い、かかる逆量子化処理により得られた結果に対して逆直交変換処理を行って残差信号として出力するように構成されている。 The inverse conversion / inverse quantization unit 202 performs an inverse quantization process on the quantized level value input from the entropy decoding unit 201, and an inverse orthogonal conversion on the result obtained by the inverse quantization process. It is configured to perform processing and output as a residual signal.
 インター予測部203は、フレームバッファ207から入力されるフィルタ後局所復号画像を用いて、インター予測を行ってインター予測画像を生成して出力するように構成されている。 The inter-prediction unit 203 is configured to perform inter-prediction using the filtered locally decoded image input from the frame buffer 207 to generate and output an inter-prediction image.
 イントラ予測部204は、加算部205から入力されるフィルタ前局所復号画像を用いて、イントラ予測を行ってイントラ予測画像を生成して出力するように構成されている。 The intra prediction unit 204 is configured to perform intra prediction using the pre-filter locally decoded image input from the addition unit 205 to generate and output an intra prediction image.
 加算部205は、逆変換・逆量子化部202から入力される残差信号と予測画像(インター予測部203から入力されるインター予測画像或いはイントラ予測部204から入力されるイントラ予測画像)とを加算して得られる分割画像を出力するように構成されている。 The addition unit 205 combines the residual signal input from the inverse conversion / inverse quantization unit 202 and the prediction image (inter prediction image input from the inter prediction unit 203 or intra prediction image input from the intra prediction unit 204). It is configured to output the divided image obtained by adding.
 ここで、予測画像とは、インター予測部203から入力されるインター予測画像及びイントラ予測部204から入力されるイントラ予測画像のうち、エントロピー復号により得られた予測方法により算出された予測画像のことである。 Here, the prediction image is a prediction image calculated by a prediction method obtained by entropy decoding among the inter prediction image input from the inter prediction unit 203 and the intra prediction image input from the intra prediction unit 204. Is.
 ブロック統合部208は、加算部205から入力される分割画像を統合することで得られたフィルタ前局所復号画像を出力するように構成されている。 The block integration unit 208 is configured to output a pre-filter locally decoded image obtained by integrating the divided images input from the addition unit 205.
 インループフィルタ部206は、ブロック統合部208から入力されるフィルタ前局所復号画像に対してデユニットフィルタ処理等のインループフィルタ処理を適用してフィルタ後局所復号画像を生成して出力するように構成されている。 The in-loop filter unit 206 applies in-loop filter processing such as deunit filter processing to the pre-filter local decoding image input from the block integration unit 208 to generate and output the post-filter local decoding image. It is configured.
 フレームバッファ207は、インループフィルタ206から入力されるフィルタ後局所復号画像を蓄積し、適宜、フィルタ後局所復号画像としてインター予測部203に供給するとともに、復号済み画像として出力するように構成されている。 The frame buffer 207 is configured to accumulate the filtered locally decoded image input from the in-loop filter 206, appropriately supply it to the inter-prediction unit 203 as a filtered locally decoded image, and output it as a decoded image. There is.
 以下、図6を参照して、本実施形態に係る画像復号装置200のエントロピー復号部201について説明する。 Hereinafter, the entropy decoding unit 201 of the image decoding apparatus 200 according to the present embodiment will be described with reference to FIG.
 エントロピー復号部201は、充填スライスから構成されるサブピクチャを導出するように構成されている。図6に示すように、エントロピー復号部201は、サブピクチャレイアウト導出部211と、充填スライス識別部212と、スライス復号部213とを備える。 The entropy decoding unit 201 is configured to derive a subpicture composed of filled slices. As shown in FIG. 6, the entropy decoding unit 201 includes a sub-picture layout derivation unit 211, a filling slice identification unit 212, and a slice decoding unit 213.
 サブピクチャレイアウト導出部211は、シーケンスレベルでシグナリングされたシンタックスを復号して、かかるシンタックスに基づいて、サブピクチャのレイアウト情報を導出するように構成されている。 The sub-picture layout derivation unit 211 is configured to decode the syntax signaled at the sequence level and derive the layout information of the sub-picture based on the syntax.
 充填スライス識別部212は、サブピクチャレイアウト導出部211と同様に、シーケンスレベルでシグナリングされたシンタックスを復号して、かかるシンタックスに基づいて、各サブピクチャを構成する各スライスが充填スライスであるかを識別するように構成されている。 Similar to the sub-picture layout derivation unit 211, the filled slice identification unit 212 decodes the syntax signaled at the sequence level, and based on the syntax, each slice constituting each sub-picture is a filled slice. Is configured to identify.
 かかるシンタックスは、符号化データに含まれており、図4に示すシンタックスと同一である。 Such syntax is included in the coded data and is the same as the syntax shown in FIG.
 スライス復号部213は、サブピクチャレイアウト導出部211によって導出されたレイアウト情報及び充填スライス識別部212による識別結果に基づいて、符号化データを復号してスライスデータを再構築するように構成されている。 The slice decoding unit 213 is configured to decode the coded data and reconstruct the slice data based on the layout information derived by the sub-picture layout derivation unit 211 and the identification result by the filling slice identification unit 212. ..
 具体的には、スライス復号部213は、サブピクチャレイアウト導出部211によって導出されたレイアウト情報及び充填スライス識別部212による識別結果に基づいて、該当スライスが充填スライスでないと判断した場合には、非特許文献1に記載されたスライス復号処理に準拠して復号してスライスデータを再構築するように構成されている。 Specifically, when the slice decoding unit 213 determines that the corresponding slice is not a filled slice based on the layout information derived by the sub-picture layout derivation unit 211 and the identification result by the filled slice identification unit 212, the slice decoding unit 213 does not. It is configured to decode and reconstruct the slice data in accordance with the slice decoding process described in Patent Document 1.
 一方、スライス復号部213は、サブピクチャレイアウト導出部211によって導出されたレイアウト情報及び充填スライス識別部212による識別結果に基づいて、該当スライスが充填スライスであると判断した場合には、該当スライスにおいて充填スライス用のスライスデータとして復号して出力するように構成されている。 On the other hand, when the slice decoding unit 213 determines that the slice is a filled slice based on the layout information derived by the sub-picture layout derivation unit 211 and the identification result by the filled slice identification unit 212, the slice decoding unit 213 determines that the slice is a filled slice. It is configured to be decoded and output as slice data for filled slices.
 本実施形態によれば、複数のビットストリームを結合するときに矩形とならない場合においても、充填スライスから構成されるサブピクチャを導入することで、矩形のピクチャとして画像復号装置200で復号可能となる。 According to the present embodiment, even when a plurality of bit streams are combined to form a rectangle, the image decoding apparatus 200 can decode the picture as a rectangle by introducing a sub-picture composed of filled slices. ..
 また、本実施形態によれば、サブピクチャ単位で復号できる画像復号装置200で復号すべき処理量を削減できる。 Further, according to the present embodiment, the amount of processing to be decoded by the image decoding apparatus 200 that can decode each sub-picture can be reduced.
 さらに、本実施形態によれば、ビットストリームの抽出及び結合において、多重化レイヤにおいて充填スライスの除去及び追加が可能となる。
(第2実施形態)
 以下、本発明の第2実施形態に係る画像処理システム1について、上述の第1実施形態に係る画像処理システム1との相違点に着目して説明する。
Further, according to the present embodiment, in the extraction and combination of bitstreams, it is possible to remove and add packed slices in the multiplexing layer.
(Second Embodiment)
Hereinafter, the image processing system 1 according to the second embodiment of the present invention will be described focusing on the differences from the image processing system 1 according to the first embodiment described above.
 本発明の第2実施形態に係るスライス復号部213は、サブピクチャレイアウト導出部211によって導出されたレイアウト情報及び充填スライス識別部212による識別結果に基づいて、該当スライスが充填スライスであると判断した場合には、当該スライスを以下の符号化データであるとみなして、非特許文献1に記載されたスライス復号処理に準拠して復号してスライスデータを再構築するように構成されている。 The slice decoding unit 213 according to the second embodiment of the present invention determines that the slice is a filled slice based on the layout information derived by the sub-picture layout derivation unit 211 and the identification result by the filled slice identification unit 212. In this case, the slice is regarded as the following encoded data, and the slice data is reconstructed by decoding according to the slice decoding process described in Non-Patent Document 1.
 具体的には、スライス種別はイントラであり、CUサイズは最大サイズである、イントラ予測モードはINTRA_PLANARであり、残差信号は無しである、とする。 Specifically, it is assumed that the slice type is intra, the CU size is the maximum size, the intra prediction mode is INTRA_PLANAR, and there is no residual signal.
(第3実施形態)
 以下、図7を参照して、本発明の第3実施形態に係る画像処理システム1について、上述の第1実施形態に係る画像処理システム1との相違点に着目して説明する。
(Third Embodiment)
Hereinafter, the image processing system 1 according to the third embodiment of the present invention will be described with reference to FIG. 7, focusing on the differences from the image processing system 1 according to the first embodiment described above.
 本発明の第3実施形態に係る画像符号化装置100において、サブピクチャレイアウト決定部121は、シーケンスにおいて充填スライス機能を利用するかどうかを決定し、かかる決定結果を出力するように構成されている。 In the image coding apparatus 100 according to the third embodiment of the present invention, the sub-picture layout determination unit 121 is configured to determine whether to use the filling slice function in the sequence and output the determination result. ..
 充填スライス機能が利用されないと決定された場合には、充填スライス判定部122は、上述の判定を行わないように構成されている。 When it is determined that the filling slice function is not used, the filling slice determination unit 122 is configured not to perform the above determination.
 図7に、サブピクチャレイアウト決定部121による決定結果を含むシンタックスの一例を示す。 FIG. 7 shows an example of the syntax including the determination result by the sub-picture layout determination unit 121.
 図7において、filler_slice_subpic_present_」flagは、シーケンスにおいて充填スライス機能を利用するかどうかを示すフラグである。filler_slice_subpic_present_」flagは、サブピクチャレイアウト決定部121による決定結果に対応する。 In FIG. 7, the filer_slice_subpic_present_ "flag is a flag indicating whether or not to use the filling slice function in the sequence. The "filer_slice_subpic_present_" flag corresponds to the determination result by the sub-picture layout determination unit 121.
 本発明の第3実施形態に係る画像復号装置200において、サブピクチャレイアウト導出部211は、上述のシンタックスに基づいて、シーケンスにおいて充填スライス機能を利用するかどうかを導出するように構成されている。 In the image decoding apparatus 200 according to the third embodiment of the present invention, the sub-picture layout derivation unit 211 is configured to derive whether or not to utilize the filling slice function in the sequence based on the above-mentioned syntax. ..
 充填スライス機能が利用されないと決定された場合には、充填スライス識別部212は、上述の識別を行わないように構成されている。 When it is determined that the filling slice function is not used, the filling slice identification unit 212 is configured not to perform the above-mentioned identification.
 本実施形態によれば、充填スライスの有無をシグナリングするための符号化性能が改善する。 According to this embodiment, the coding performance for signaling the presence or absence of filled slices is improved.
(第4実施形態)
 以下、本発明の第4実施形態に係る画像処理システム1について、上述の第1実施形態に係る画像処理システム1との相違点に着目して説明する。
(Fourth Embodiment)
Hereinafter, the image processing system 1 according to the fourth embodiment of the present invention will be described focusing on the differences from the image processing system 1 according to the first embodiment described above.
 本実施形態に係る画像符号化装置100において、スライス符号化部123は、サブピクチャレイアウト決定部121によって決定されるレイアウト情報及び充填スライス判定部122による判定結果に基づいて、該当スライスが充填スライスである場合には、特定の値で充填されたスライスデータとして符号化して出力するように構成されている。 In the image coding apparatus 100 according to the present embodiment, the slice coding unit 123 uses the filling slice as the corresponding slice based on the layout information determined by the sub-picture layout determination unit 121 and the determination result by the filling slice determination unit 122. In some cases, it is configured to be encoded and output as slice data filled with a specific value.
 本実施形態に係る画像復号装置200において、スライス復号部213は、サブピクチャレイアウト導出部211によって導出されたレイアウト情報及び充填スライス識別部212による識別結果に基づいて、該当スライスが充填スライスであると判断した場合には、特定の値で充填されたスライスデータとして復号して出力するように構成されている。 In the image decoding device 200 according to the present embodiment, the slice decoding unit 213 determines that the slice is a filling slice based on the layout information derived by the sub-picture layout derivation unit 211 and the identification result by the filling slice identification unit 212. When it is determined, it is configured to be decoded and output as slice data filled with a specific value.
 本実施形態によれば、充填スライスの特性を反映した軽量な復号手順を提供可能となる。 According to this embodiment, it is possible to provide a lightweight decoding procedure that reflects the characteristics of the filled slice.
(第5実施形態)
 以下、図8を参照して、本発明の第5実施形態に係る符号化データ変換システム2について説明する。
(Fifth Embodiment)
Hereinafter, the coded data conversion system 2 according to the fifth embodiment of the present invention will be described with reference to FIG.
 符号化データ変換システム2は、複数の動画像の符号化データを入力してシステム外から指定されたサブピクチャに対応する符号化データを出力する符号化データ抽出装置21と、出力された符号化データを入力してサブピクチャを組み合わせてピクチャとして符号化データを出力する符号化データ結合装置22とを備える。 The coded data conversion system 2 is a coded data extraction device 21 that inputs coded data of a plurality of moving images and outputs coded data corresponding to a designated subpicture from outside the system, and the output coded code. It includes a coded data combining device 22 that inputs data, combines sub-pictures, and outputs coded data as a picture.
 符号化データ結合装置22は、ピクチャが矩形であり且つサブピクチャで完全に覆われており、且つ、サブピクチャ同士の重複がないという要件を実現した符号化データを出力するように構成されている。 The coded data combining device 22 is configured to output coded data that satisfies the requirement that the picture is rectangular and is completely covered with subpictures, and that the subpictures do not overlap with each other. ..
 ここで、符号化データ結合装置22は、入力されたサブピクチャを組み合わせても上述の要件を満たせない場合、任意個数の充填スライスから構成されるサブピクチャを追加して、上述の要件を満たす符号化データを出力するように構成されている。 Here, if the coded data combining device 22 does not satisfy the above-mentioned requirements even if the input sub-pictures are combined, the coded data combining device 22 adds a sub-picture composed of an arbitrary number of filled slices to satisfy the above-mentioned requirements. It is configured to output the conversion data.
 具体的には、図9に示すように、6面から構成されるキューブマップ方式の360°映像を対象に、符号化データを抽出・結合する場合がある。図9における文字は、キューブマップ方式の各面の位置と向きを表しており、Lは左面、Rは右面、Fは正面、Botは下面、Bacは背面、Topは上面を、それぞれ意味する。また、Filは、本発明による充填スライスである。 Specifically, as shown in FIG. 9, coded data may be extracted and combined for a 360 ° video of a cube map method composed of 6 surfaces. The characters in FIG. 9 represent the positions and orientations of the respective surfaces of the cube map system, where L means the left surface, R means the right surface, F means the front surface, Bot means the lower surface, Bac means the back surface, and Top means the upper surface. Fil is a packed slice according to the present invention.
 かかる場合、図9の左列に示すように、高解像度、中解像度及び低解像度の3種類の符号化データを予め生成しておけば、符号化データ変換システム2は、視野領域及び伝送帯域に応じて、図9の右列に示すように、動的に符号化データを抽出及び結合することができる。 In such a case, as shown in the left column of FIG. 9, if three types of coded data of high resolution, medium resolution, and low resolution are generated in advance, the coded data conversion system 2 can be set in the field of view region and the transmission band. Accordingly, as shown in the right column of FIG. 9, the coded data can be dynamically extracted and combined.
 例えば、図9における面ごとの解像度として、1024×1024画素、768×768画素、512×512画素とする。 For example, the resolution for each surface in FIG. 9 is 1024 x 1024 pixels, 768 x 768 pixels, and 512 x 512 pixels.
 ここで、図9右列上部に示すように、符号化データ結合装置22は、視野領域に対応する2面については高解像度のサブピクチャから構成され、それ以外の4面については低解像度のサブピクチャから構成されるピクチャを生成すると、全体としては、2048×1536画素のピクチャを生成することになる。 Here, as shown in the upper part of the right column of FIG. 9, the coded data combining device 22 is composed of high-resolution sub-pictures on the two surfaces corresponding to the visual field region, and low-resolution sub-pictures on the other four surfaces. When a picture composed of pictures is generated, a picture of 2048 × 1536 pixels is generated as a whole.
 また、ここで、図9右列下部に示すように、符号化データ結合装置22は、視野領域に対応する2面についての中解像度のサブピクチャ、それ以外の4面についての低解像度のサブピクチャ、256×512画素の2個の充填スライス、512×256画素の充填スライスから構成されるピクチャを生成すると、全体としては、2048×1280画素のピクチャを生成することになる。 Further, as shown in the lower part of the right column of FIG. 9, the coded data combining device 22 has a medium-resolution sub-picture for two surfaces corresponding to the visual field region and a low-resolution sub-picture for the other four surfaces. When a picture composed of two filled slices of 256 × 512 pixels and a filled slice of 512 × 256 pixels is generated, a picture of 2048 × 1280 pixels is generated as a whole.
 このように、充填スライスを導入することで、符号化データの抽出及び結合におけるサブピクチャ解像度の選択自由度を向上することができる。 By introducing the filling slice in this way, it is possible to improve the degree of freedom in selecting the sub-picture resolution in the extraction and combination of the coded data.
 上述の画像符号化装置100及び画像復号装置200は、コンピュータに各機能(各工程)を実行させるプログラムであって実現されていてもよい。 The above-mentioned image coding device 100 and image decoding device 200 may be realized by a program that causes a computer to execute each function (each process).
 なお、上述の各実施形態では、本発明を画像符号化装置100及び画像復号装置200への適用を例にして説明したが、本発明は、これのみに限定されるものではなく、画像符号化装置100及び画像復号装置200の各機能を備えた画像符号化システム及び画像復号システムにも同様に適用できる。 In each of the above-described embodiments, the present invention has been described by taking application to the image coding device 100 and the image decoding device 200 as an example, but the present invention is not limited to this, and the image coding is not limited to this. The same applies to an image coding system and an image decoding system having the functions of the device 100 and the image decoding device 200.
1…画像処理システム
100…画像符号化装置
101、203…インター予測部
102、204…イントラ予測部
103…変換・量子化部
104…エントロピー符号化部
105、202…逆変換・逆量子化部
106…減算部
107、205…加算部
108、206…インループフィルタ部
109、207…フレームバッファ
110…ブロック分割部
111、208…ブロック統合部
121…サブピクチャレイアウト決定部
122…充填スライス判定部
123…スライス符号化部
200…画像復号装置
201…エントロピー復号部
211…サブピクチャレイアウト導出部
212…充填スライス識別部
213…スライス復号部
2…符号化データ変換システム
21…符号化データ抽出装置
22…符号化データ結合装置
1 ... Image processing system 100 ... Image coding devices 101, 203 ... Inter prediction unit 102, 204 ... Intra prediction unit 103 ... Conversion / quantization unit 104 ... Entropy coding unit 105, 202 ... Inverse conversion / inverse quantization unit 106 ... Subtraction units 107, 205 ... Addition units 108, 206 ... In- loop filter units 109, 207 ... Frame buffer 110 ... Block division units 111, 208 ... Block integration unit 121 ... Sub-picture layout determination unit 122 ... Filling slice determination unit 123 ... Slice coding unit 200 ... Image decoding device 201 ... Entropy decoding unit 211 ... Sub-picture layout derivation unit 212 ... Filled slice identification unit 213 ... Slice decoding unit 2 ... Coded data conversion system 21 ... Coded data extraction device 22 ... Coding Data coupling device

Claims (6)

  1.  符号化データを復号するように構成されている画像復号装置であって、
     前記符号化データを復号して、サブピクチャのレイアウト情報を導出するように構成されているサブピクチャレイアウト導出部と、
     前記符号化データを復号して、前記サブピクチャを構成する各スライスが充填スライスであるかを識別するように構成されている充填スライス識別部と、
     前記レイアウト情報及び前記充填スライス識別部による識別結果に基づいて、前記符号化データを復号してスライスデータを再構築するように構成されているスライス復号部とを備えることを特徴とする画像復号装置。
    An image decoding device configured to decode encoded data.
    A sub-picture layout derivation unit configured to decode the coded data to derive sub-picture layout information, and a sub-picture layout derivation unit.
    A filled slice identification unit configured to decode the coded data and identify whether each slice constituting the subpicture is a filled slice.
    An image decoding apparatus including a slice decoding unit configured to decode the coded data and reconstruct the slice data based on the layout information and the identification result by the filling slice identification unit. ..
  2.  前記サブピクチャレイアウト導出部は、シーケンス中に前記充填スライスから構成されるサブピクチャの有無を示すフラグを復号し、
     前記充填スライス識別部は、前記フラグが有効である場合にのみ、前記識別を行うように構成されていることを特徴とする請求項1に記載の画像復号装置。
    The sub-picture layout derivation unit decodes a flag indicating the presence or absence of a sub-picture composed of the filled slice in the sequence.
    The image decoding apparatus according to claim 1, wherein the filled slice identification unit is configured to perform the identification only when the flag is valid.
  3.  前記スライス復号部は、前記スライスが充填スライスであると判断した場合には、特定の値で充填されたスライスデータとして復号して出力するように構成されていることを特徴とする請求項1又は2に記載の画像復号装置。 The slice decoding unit is configured to decode and output as slice data filled with a specific value when it is determined that the slice is a filled slice. 2. The image decoding apparatus according to 2.
  4.  前記スライス復号部は、前記スライスが前記充填スライスであると判断した場合には、特定の符号化データとして復号して前記スライスデータを出力するように構成されていることを特徴とする請求項1又は2に記載の画像復号装置。 Claim 1 is characterized in that the slice decoding unit is configured to decode the slice as specific coded data and output the slice data when it is determined that the slice is the filled slice. Or the image decoding apparatus according to 2.
  5.  符号化データを復号して、サブピクチャのレイアウト情報を導出する工程と、
     前記符号化データを復号して、前記サブピクチャを構成する各スライスが充填スライスであるかを識別する工程と、
     前記レイアウト情報及び前記識別結果に基づいて、前記符号化データを復号してスライスデータを再構築する工程とを有することを特徴とする画像復号方法。
    The process of decoding the coded data and deriving the layout information of the sub-picture,
    A step of decoding the coded data to identify whether each slice constituting the subpicture is a filled slice.
    An image decoding method comprising a step of decoding the coded data and reconstructing slice data based on the layout information and the identification result.
  6.  コンピュータを、符号化データを復号するように構成されている画像復号装置として機能させるプログラムであって、
     前記画像復号装置は、
     前記符号化データを復号して、サブピクチャのレイアウト情報を導出するように構成されているサブピクチャレイアウト導出部と、
     前記符号化データを復号して、前記サブピクチャを構成する各スライスが充填スライスであるかを識別するように構成されている充填スライス識別部と、
     前記レイアウト情報及び前記充填スライス識別部による識別結果に基づいて、前記符号化データを復号してスライスデータを再構築するように構成されているスライス復号部とを備えることを特徴とするプログラム。
    A program that causes a computer to function as an image decoding device that is configured to decode encoded data.
    The image decoding device is
    A sub-picture layout derivation unit configured to decode the coded data to derive sub-picture layout information, and a sub-picture layout derivation unit.
    A filled slice identification unit configured to decode the coded data and identify whether each slice constituting the subpicture is a filled slice.
    A program including a slice decoding unit configured to decode the coded data and reconstruct the slice data based on the layout information and the identification result by the filling slice identification unit.
PCT/JP2021/006375 2020-03-30 2021-02-19 Image decoding device, image decoding method, and program WO2021199783A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202180023940.0A CN115315958A (en) 2020-03-30 2021-02-19 Image decoding device, image decoding method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020061330A JP2021164005A (en) 2020-03-30 2020-03-30 Image decoding device, image decoding method, and program
JP2020-061330 2020-03-30

Publications (1)

Publication Number Publication Date
WO2021199783A1 true WO2021199783A1 (en) 2021-10-07

Family

ID=77927732

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/006375 WO2021199783A1 (en) 2020-03-30 2021-02-19 Image decoding device, image decoding method, and program

Country Status (3)

Country Link
JP (1) JP2021164005A (en)
CN (1) CN115315958A (en)
WO (1) WO2021199783A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019159820A1 (en) * 2018-02-14 2019-08-22 シャープ株式会社 Moving image encoding device and moving image decoding device

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR0183927B1 (en) * 1996-09-20 1999-04-15 삼성전자주식회사 Decoder
JP2005049834A (en) * 2003-07-11 2005-02-24 Matsushita Electric Ind Co Ltd Media data display device, media data display method, and media data display program
US7668791B2 (en) * 2006-07-31 2010-02-23 Microsoft Corporation Distinguishing facts from opinions using a multi-stage approach
JP2009038501A (en) * 2007-07-31 2009-02-19 Toshiba Corp Decoding device and decoding method
JP2009081579A (en) * 2007-09-25 2009-04-16 Toshiba Corp Motion picture decoding apparatus and motion picture decoding method
JPWO2014049982A1 (en) * 2012-09-28 2016-08-22 三菱電機株式会社 Moving picture encoding apparatus, moving picture decoding apparatus, moving picture encoding method, and moving picture decoding method
WO2015115644A1 (en) * 2014-02-03 2015-08-06 三菱電機株式会社 Image encoding device, image decoding device, encoded stream conversion device, image encoding method, and image decoding method
CN103971388A (en) * 2014-03-07 2014-08-06 天津大学 Method for reconstructing flame CT (computed tomography) images with adaptive section sizes

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019159820A1 (en) * 2018-02-14 2019-08-22 シャープ株式会社 Moving image encoding device and moving image decoding device

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
BENJAMIN BROSS , JIANLE CHEN , SHAN LIU , YE-KUI WANG: "Versatile Video Coding (Draft 8)", 17. JVET MEETING; 20200107 - 20200117; BRUSSELS; (THE JOINT VIDEO EXPLORATION TEAM OF ISO/IEC JTC1/SC29/WG11 AND ITU-T SG.16 ), no. JVET-Q2001-vE, 12 March 2020 (2020-03-12), pages 1 - 510, XP030285390 *
J. SAUER (RWTH AACHEN UNIV.): "AHG6/AHG12: Uncoded subpictures and potential applications", 130. MPEG MEETING; 20200420 - 20200424; ALPBACH; (MOTION PICTURE EXPERT GROUP OR ISO/IEC JTC1/SC29/WG11), no. m53126 ; JVET-R0151, 12 April 2020 (2020-04-12), XP030286065 *
J. SAUER (RWTH-AACHEN), >M. BLäSER (DE>): "AHG6/AHG12/AHG17: Coding of 360° video in non-compact cube layout using uncoded areas", 16. JVET MEETING; 20191001 - 20191011; GENEVA; (THE JOINT VIDEO EXPLORATION TEAM OF ISO/IEC JTC1/SC29/WG11 AND ITU-T SG.16 ), no. JVET-P0316 ; m50281, 1 October 2019 (2019-10-01), XP030216910 *
J. SAUER (RWTH-AACHEN), >M. BLäSER (DE>): "Geometry padding for cube based 360 degree video using uncoded areas", 15. JVET MEETING; 20190703 - 20190712; GOTHENBURG; (THE JOINT VIDEO EXPLORATION TEAM OF ISO/IEC JTC1/SC29/WG11 AND ITU-T SG.16 ), no. JVET-O0487 ; m48612, 4 July 2019 (2019-07-04), XP030219710 *

Also Published As

Publication number Publication date
JP2021164005A (en) 2021-10-11
CN115315958A (en) 2022-11-08

Similar Documents

Publication Publication Date Title
RU2765234C1 (en) Method for internal prediction and the encoder and decoder using it
KR102658215B1 (en) Cclm-based intra-prediction method and apparatus
JP6412910B2 (en) Method for decoding video, method for encoding video, decoder, encoder, computer readable recording medium recording decoding program, and computer readable recording medium recording encoding program
CN116320408B (en) Methods, encoders, devices and readable media for video decoding and encoding
CN112514393B (en) Method, apparatus and storage medium for decoding video sequence
US20190379894A1 (en) Video decoding method and apparatus
JP2020503815A (en) Intra prediction techniques for video coding
KR20190090866A (en) Method and apparatus for encoding / decoding video signal using second order transform
KR20160135226A (en) Search region determination for intra block copy in video coding
CN113574894B (en) Video decoding method, video decoder, computer device, and medium
JP2013017167A (en) Method for coding pictures
JP2023168394A (en) Video encoder, video decoder, and corresponding methods
CN113424532B (en) Video encoding and decoding method and device and storage medium
KR20150096375A (en) Method for encoding/decoding image, and device using same
CN107409212B (en) Method and apparatus for encoding and decoding using gradual update of transform coefficients
CN113507603A (en) Image signal encoding/decoding method and apparatus thereof
CN106851290B (en) Decoding method, decoding device, encoding method, and encoding device
CN110603809B (en) Apparatus and method for video encoding or decoding
TW202131678A (en) Signaling multiple transform selection
CN115567713B (en) Decoding method and decoding device based on sub-images and device for storing code stream
CN117834922A (en) Method for decoding or encoding video and method for transmitting data
KR20220127308A (en) Method and apparatus for video coding
KR20190118125A (en) Method for providing picture splitting information for parallel or distributed processing and apparatus using the same
KR20220019279A (en) A computer-readable non-transitory storage medium for storing an image encoding apparatus, an image decoding apparatus, an image encoding method, an image decoding method, and a computer program
KR20240013896A (en) Method for encoding and decoding images, encoding and decoding device, and corresponding computer programs

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21781264

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21781264

Country of ref document: EP

Kind code of ref document: A1