WO2020184673A1 - Image decoding device, image decoding method, image encoding device, and image encoding method - Google Patents

Image decoding device, image decoding method, image encoding device, and image encoding method Download PDF

Info

Publication number
WO2020184673A1
WO2020184673A1 PCT/JP2020/010880 JP2020010880W WO2020184673A1 WO 2020184673 A1 WO2020184673 A1 WO 2020184673A1 JP 2020010880 W JP2020010880 W JP 2020010880W WO 2020184673 A1 WO2020184673 A1 WO 2020184673A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
image
nal
access unit
decoding
Prior art date
Application number
PCT/JP2020/010880
Other languages
French (fr)
Japanese (ja)
Inventor
勇司 藤本
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Publication of WO2020184673A1 publication Critical patent/WO2020184673A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Definitions

  • the present disclosure relates to an image decoding device, an image decoding method, an image coding device, and an image coding method, and in particular, an image decoding device, an image decoding method, an image coding device, which can be made more practical. And the image coding method.
  • each image is divided into one or more slices. Then, each slice is classified into one of I slice (Intra Slice), P slice (Predictive Slice) and B slice (Bi-predictive Slice).
  • the I slice is a slice that is independently decoded without referring to another image.
  • a P-slice is a slice that is decoded by referencing a single other image.
  • a B slice is a slice that is decoded by referencing a plurality of other images.
  • the picture at the beginning of the sequence consisting of only I slices is called an IDR (Instantaneous Decoding Refresh) picture.
  • the IDR picture is identified by the value of the NAL (Network Abstraction Layer) unit type.
  • the pictures in the same sequence following the IDR picture do not refer to the pictures before the IDR picture in the decoding order, and are located only after the IDR picture in the presentation order. Therefore, when attempting random access (decoding / playback from the middle of a stream instead of decoding from the beginning) at a certain point in the middle of the video of a coded stream, the video is appropriately extracted from the IDR picture in the vicinity of the specified time. Can be decrypted to.
  • CRA Code Random Access
  • NAL unit type value in addition to IDR pictures.
  • a CRA picture is a picture consisting of only I slices in the middle of a sequence.
  • a picture following a CRA picture in both the decoding order and the display order does not refer to both the picture preceding the CRA picture in the decoding order and the picture preceding the CRA picture in the display order. Therefore, when random access to the CRA picture at the time in the middle of the video (decoding of the video from the CRA picture) is performed, the decoding process of the picture following the CRA picture in the display order can be performed without failure.
  • NAL Unit Header is provided so that it can be determined whether or not the current frame image will be a reference image in the future when implementing TrickPlay playback such as Nx speed playback or reverse playback.
  • a standard for storing identification information is disclosed in. For example, in the case of H.264 / AVC, the identification information is stored in nal_ref_idx, and in the case of H.265 / HEVC, the identification information is stored in nal_unit_type.
  • the image decoding device of the first aspect of the present disclosure includes a decoding unit that decodes an image of a bit stream composed of an access unit in which at least one or more NAL units are arranged, and accesses the header area of the access unit. For the images stored in all the Tile group NAL units in the unit, identification information for identifying whether or not the current frame can become a reference image in the future is stored.
  • the image decoding method of the first aspect of the present disclosure includes the image decoding apparatus performing the image decoding process decoding a bitstream image composed of an access unit in which at least one or more NAL units are arranged.
  • identification information for identifying whether or not the current frame can become a reference image in the future is stored for the images stored in all the Tile group NAL units in the access unit. ..
  • an image of a bitstream consisting of an access unit in which at least one or more NAL units are arranged is decoded. Then, in the header area of the access unit, identification information for identifying whether or not the current frame can become a reference image in the future is stored for the images stored in all the Tile group NAL units in the access unit. There is.
  • the image coding device of the second aspect of the present disclosure includes a coding unit for encoding an image of a bitstream consisting of an access unit in which at least one or more NAL units are arranged, and is provided in a header area of the access unit. For the images stored in all the Tile group NAL units in the access unit, identification information for identifying whether or not the current frame can become a reference image in the future is stored.
  • the image coding device that performs the image coding process encodes a bitstream image composed of an access unit in which at least one or more NAL units are arranged.
  • identification information for identifying whether or not the current frame can be a reference image in the future for the images stored in all the Tile group NAL units in the access unit. It is stored.
  • an image of a bitstream consisting of access units in which at least one or more NAL units are located is encoded. Then, in the header area of the access unit, identification information for identifying whether or not the current frame can become a reference image in the future is stored for the images stored in all the Tile group NAL units in the access unit. ..
  • the contents described in the references REF1 to REF6 shown in FIG. 1 are also the basis for judging the support requirements.
  • the NAL unit structure described in Reference REF4 and the Bytestream Format described in Reference REF5 are not directly defined in the detailed description of the invention, they are within the scope of the present disclosure. It shall meet the support requirements of the claims.
  • technical terms such as Parsing, Syntax, and Semantics are also within the scope of the present disclosure, even if they are not directly defined in the detailed description of the invention. Yes, and shall meet the support requirements of the claims.
  • a "block” (not a block indicating a processing unit) used as a partial area or a processing unit of an image (picture) indicates an arbitrary partial area in the picture, and its size, shape, and processing.
  • the characteristics are not limited.
  • "block” includes TB (Transform Block), TU (Transform Unit), PB (Prediction Block), PU (Prediction Unit), SCU (Smallest Coding Unit), CU (Coding Unit), and LCU (Largest Coding Unit). ), CTB (Coding TreeBlock), CTU (Coding Tree Unit), conversion block, subblock, macroblock, tile, slice, etc., any partial area (processing unit) shall be included.
  • the block size may be specified using the identification information that identifies the size.
  • the block size may be specified by the ratio or difference with the size of the reference block (for example, LCU or SCU).
  • the designation of the block size also includes the designation of the range of the block size (for example, the designation of the range of the allowable block size).
  • the data unit in which various information is set and the data unit targeted by various processes are arbitrary and are not limited to the above-mentioned examples.
  • these information and processing are TU (Transform Unit), TB (Transform Block), PU (Prediction Unit), PB (Prediction Block), CU (Coding Unit), LCU (Largest Coding Unit), and subblock, respectively.
  • Blocks, tiles, slices, pictures, sequences, or components may be set, or the data of those data units may be targeted.
  • this data unit can be set for each information or process, and it is not necessary that the data unit of all the information or process is unified.
  • the storage location of these information is arbitrary, and may be stored in the header, parameter set, or the like of the above-mentioned data unit. Further, it may be stored in a plurality of places.
  • control information related to the present technology may be transmitted from the coding side to the decoding side.
  • control information for example, enabled_flag
  • control information indicating an object to which the present technology is applied (or an object to which the present technology is not applied) may be transmitted.
  • control information may be transmitted that specifies the block size (upper and lower limits, or both) to which the present technology is applied (or allowed or prohibited), frames, components, layers, and the like.
  • the "flag” is information for identifying a plurality of states, and is not only information used for identifying two states of true (1) or false (0), but also three or more states. It also contains information that can identify the state. Therefore, the value that this "flag” can take may be, for example, 2 values of 1/0 or 3 or more values. That is, the number of bits constituting this "flag” is arbitrary, and may be 1 bit or a plurality of bits.
  • the identification information (including the flag) is assumed to include not only the identification information in the bit stream but also the difference information of the identification information with respect to a certain reference information in the bit stream. In, the "flag” and “identification information” include not only the information but also the difference information with respect to the reference information.
  • association metadata various information (metadata, etc.) regarding the coded data (bit stream) may be transmitted or recorded in any form as long as it is associated with the coded data.
  • the term "associate” means, for example, to make the other data available (linkable) when processing one data. That is, the data associated with each other may be combined as one data or may be individual data.
  • the information associated with the coded data (image) may be transmitted on a transmission path different from the coded data (image).
  • the information associated with the coded data (image) may be recorded on a recording medium (or another recording area of the same recording medium) different from the coded data (image). Good.
  • this "association" may be a part of the data, not the entire data. For example, an image and information corresponding to the image may be associated with each other in an arbitrary unit such as a plurality of frames, one frame, or a part within the frame.
  • the size means combining a plurality of objects into one, for example, combining encoded data and metadata into one data, and means one method of "associating" described above.
  • the coding includes not only the whole process of converting an image into a bit stream but also a part of the process.
  • decoding includes not only the entire process of converting a bitstream into an image, but also some processes.
  • decoding includes not only the entire process of converting a bitstream into an image, but also some processes.
  • it not only includes processing that includes inverse arithmetic decoding, inverse quantization, inverse orthogonalization, prediction processing, etc., but also processing that includes inverse arithmetic decoding and inverse quantization, inverse arithmetic decoding, inverse quantization, and prediction processing.
  • the image coding device 10 includes a coding unit 11, a determination unit 12, a VCL buffer 13, a non-VCL buffer 14, a file generation unit 15, and a control unit 16.
  • the coding unit 11 is an encoder that operates according to the HEVC method.
  • the coding unit 11 acquires an image sequence to be encoded from a moving image source such as a camera or a television tuner connected to the image coding device 10. Then, the coding unit 11 generates a coded bit stream by executing various processes such as intra prediction, inter-frame prediction, orthogonal conversion, quantization, and lossless coding for each image in the acquired image sequence. To do.
  • Slice data corresponding to the substance of the image is generated as a VCL (Video Coding Layer) NAL unit.
  • VCL Video Coding Layer
  • parameter sets such as SPS (Sequence Parameter Set), PPS (Picture Parameter Set) and APS (Adaptation Parameter Set) can be generated as non-VCL NAL units.
  • the coding unit 11 outputs a VCL NAL unit, that is, a bit stream of slice data to the file generation unit 15 via the VCL buffer 13. Further, the coding unit 11 outputs the parameter set to the file generation unit 15 via the non-VCL buffer 14.
  • the determination unit 12 determines the type of each image in the image sequence encoded by the coding unit 11. More specifically, in the present embodiment, the determination unit 12 at least determines whether each image is an IDR picture, a CRA picture, or another picture. Both the IDR picture and the CRA picture are pictures consisting of only I slices.
  • the IDR picture is the picture at the beginning of the sequence.
  • the pictures in the same sequence following the IDR picture do not refer to the pictures before the IDR picture in the coding order (decoding order), and are located only after the IDR picture in the display order.
  • the CRA picture is a picture that is located in the middle of the sequence and can be used as a decoding start picture at the time of random access on the decoder side.
  • a picture following a CRA picture in both coding order (decoding order) and display order does not refer to both a picture preceding the CRA picture in the coding order (decoding order) and a picture preceding the CRA picture in the display order. ..
  • the determination unit 12 outputs the determination result to the coding unit 11 and the file generation unit 15.
  • the coding unit 11 assigns a NAL unit type indicating the type of each image determined by the determination unit 12 to the NAL header of each NAL unit.
  • the determination unit 12 may further determine the preceding picture that is not normally decoded when the random access to each CRA picture is performed, and provide the determination result to the file generation unit 15.
  • the VCL buffer 13 buffers the VCL NAL unit.
  • the slice data of the CRA picture is buffered by the VCL buffer 13.
  • the non-VCL buffer 14 buffers the non-VCL NAL unit.
  • the file generation unit 15 generates a moving image file for storing a series of encoded image data according to a file format including a header area and a data area, and outputs the video file to the storage unit 20.
  • a file format including a header area and a data area
  • the technique according to the present disclosure is not limited to such an example, and is applicable to other types of video file formats having a header area and a data area.
  • data is stored in an object called a box and recorded in object units.
  • the boxes form a tree structure and the parent box contains child boxes.
  • the type of each box is identified by a four-letter identifier.
  • the file generation unit 15 inserts a bit stream of slice data corresponding to the VCL NAL unit into the data area (for example, mdat box) of the moving image file in the decoding order. Further, the file generation unit 15 inserts one or more parameter sets corresponding to the non-VCL NAL unit into the header area (for example, moov box) of the moving image file. Further, in the present embodiment, the file generation unit 15 inserts CRA information that identifies one or more CRA pictures determined by the determination unit 12 into the header area of the moving image file. Further, the file generation unit 15 may include the preceding picture information for identifying the preceding picture that is not normally decoded when the random access to each CRA picture is performed in the CRA information.
  • the control unit 16 controls the coding process executed in the image coding device 10. For example, when the instruction to start coding is detected, the control unit 16 causes the coding unit 11 to encode the designated image sequence. Further, the control unit 16 causes the file generation unit 15 to generate a moving image file for storing the image data encoded by the coding unit 11.
  • the control unit 16 may control the generation of the coded stream by using a virtual decoder model called HRD (Hypothetical Reference Decoder) so as not to disrupt the decoder buffer.
  • HRD Hydrophilic Reference Decoder
  • the image decoding device 30 includes a VCL buffer 31, a non-VCL buffer 32, a parameter memory 33, a decoding unit 34, an output buffer 35, and a control unit 37.
  • the VCL buffer 31 buffers a bit stream of image data (typically slice data) read from a data area (for example, mdat box) of a moving image file stored in the storage unit 20.
  • image data typically slice data
  • data area for example, mdat box
  • the non-VCL buffer 32 buffers the parameter sets such as SPS, PPS and APS read from the header area (for example, moov box) of the moving image file stored in the storage unit 20, and the header information such as CRA information.
  • the parameter memory 33 collectively stores the information in the header area of the file acquired via the non-VCL buffer 32.
  • the CRA information that can be recorded in the header area of the moving image file in the various formats described above is held by the parameter memory 33 while the moving image file is opened.
  • the decoding unit 34 is a decoder that operates according to the HEVC method.
  • the decoding unit 34 decodes the image sequence from the bit stream acquired from the data area of the moving image file via the VCL buffer 31.
  • the decoding unit 34 uses the parameters in the parameter set stored in the parameter memory 33 when decoding the image.
  • the decoding unit 34 rearranges the images in the decoded image sequence in the display order, and outputs the rearranged images to the output buffer 35.
  • the decoding unit 34 normally accesses the slice data stored in the moving image track in the moving image file in the decoding order in order from the beginning. However, when the control unit 37 detects a random access instruction, the decoding unit 34 randomly accesses the decoding start picture (in the middle of the moving image track) specified by the control unit 37, and starts an image sequence from the decoding start picture. To decrypt.
  • the decoding start picture is one of the IDR picture and the CRA picture in the moving image track.
  • the output buffer 35 is a decoding picture buffer (DPB; Decoded Picture Buffer) for buffering the image decoded by the decoding unit 34.
  • DPB Decoded Picture Buffer
  • the image buffered by the output buffer 35 is output to a display or processor (not shown) at the output timing of the image.
  • the control unit 37 controls the image decoding process executed in the image decoding device 30. For example, the control unit 37 opens the moving image file stored in the storage unit 20 in response to an instruction from the user, and causes the decoding unit 34 to start decoding the image sequence. Further, when the random access instruction is detected, the control unit 37 uses the CRA information to specify any CRA picture in the image sequence as the decoding start picture. Then, the control unit 37 causes the decoding unit 34 to decode the image sequence from the specified decoding start picture (that is, from the middle of the moving image track).
  • the control unit 37 typically uses a CRA picture located closest to the timing specified in the random access instruction (for example, the timing pointed to by the operated pointer of the seek bar of the moving image playback window) as the decoding start picture. Identify.
  • the control unit 37 skips the output from the output buffer 35 (and decoding by the decoding unit 34) of the preceding picture identified using the preceding picture information and which is not normally decoded. You may let me. By using the preceding picture information, it is possible to prevent the damaged image from being displayed on the display or being output to an external processor. At that time, the control unit 37 does not have to determine ex post facto whether or not each image has been normally decoded.
  • control unit 37 can transmit a command to the control unit 16 of the image coding device 10.
  • N-fold speed reproduction it is required to determine, for example, whether the current picture is decoded by Ref or Non-Ref.
  • the bit stream is composed of a plurality of access units (AU: AccessUnit), and at least one or more NAL units are arranged in the access units corresponding to one frame each.
  • AU Access Unit
  • NAL units such as AUD (Access Unit Delimiter) NAL unit, SPS (Sequence Parameter Set) NAL unit, PPS (Picture Parameter Set) NAL unit, and Tile group NAL unit.
  • the AUD NAL unit indicates the delimiter of access units, and in general, only one is always placed at the beginning of each access unit.
  • the current AUD already has a syntax that indicates the attributes of all Tile group NALs in the access unit.
  • the SPS NAL unit stores the sequence parameters required for bitstream playback.
  • the PPS NAL unit stores the sequence parameters required for picture playback. Images for each tile group are stored in the Tilegroup NAL unit.
  • the AUD NAL unit is placed first, the SPS NAL unit is placed second, the PPS NAL unit is placed third, and so on.
  • the Tile group NAL unit is placed in. That is, in the first case, the SPS NAL unit and the PPS NAL unit are assigned to the individual access units.
  • the AUD NAL unit is placed first, the SPS NAL unit is placed second, the PPS NAL unit is placed third, and so on.
  • the Tile group NAL unit is placed in.
  • the AUD NAL unit is arranged first, the PPS NAL unit is arranged second, and the Tile group NAL unit is continuously arranged thereafter. That is, in the second case, the SPS NAL unit is given to the first access unit, and the PPS NAL unit is given to each access unit.
  • the AUD NAL unit in the first access unit, the AUD NAL unit is arranged first, the SPS NAL unit is arranged second, the PPS NAL unit is arranged third, and the subsequent access units are continuous.
  • the Tile group NAL unit is placed in.
  • the AUD NAL unit is arranged first, and the Tile group NAL unit is continuously arranged thereafter. That is, in the third case, the SPS NAL unit and the PPS NAL unit are assigned only to the first access unit.
  • the identification information of whether or not the current frame becomes the reference image in the future is stored in the AUDNAL unit of the bitstream of the image.
  • the syntax of the identification information indicating whether the access unit (all Tile groups in the access unit) is reference or non-reference is set in the AUD NAL unit.
  • the identification information is applied to each Tile group. It is possible to avoid the fact that it becomes redundant, the processing becomes complicated, and the coding efficiency is adversely affected as compared with the case of storing.
  • FIG. 6 shows a first description example of the AUDNAL syntax in the first variation of the bitstream.
  • FIG. 7 shows a second description example of the AUDNAL syntax in the first variation of the bitstream.
  • the ref_pic_flag in the AUDNAL unit is added as 1-bit identification information indicating whether all Tile groups in the access unit are reference or non-reference.
  • the file generation process is started, and in step S11, the coding unit 11 determines whether or not there is an NAL unit to be generated from the image sequence.
  • step S11 determines in step S11 that there is an NAL unit to be generated from the image sequence. If the coding unit 11 determines in step S11 that there is an NAL unit to be generated from the image sequence, the process proceeds to step S12.
  • step S12 the coding unit 11 determines whether or not the NAL unit to be generated from the image sequence is an AUD NAL unit.
  • step S12 determines in step S12 that the NAL unit to be generated from the image sequence is the AUD NAL unit
  • the process proceeds to step S13.
  • step S13 the coding unit 11 performs AUD coding processing to generate an AUD NAL unit containing the identification information, supplies the AUD NAL unit including the identification information to the file generation unit 15 via the non-VCL buffer 14, and then the processing is performed in step S13.
  • the same process is repeated thereafter.
  • step S14 determines in step S12 that the NAL unit to be generated from the image sequence is not the AUD NAL unit
  • step S14 the coding unit 11 determines whether or not the NAL unit to be generated from the image sequence is the Tile group NAL unit.
  • step S14 determines in step S14 that the NAL unit to be generated from the image sequence is the Tile group NAL unit
  • the process proceeds to step S15.
  • step S15 the coding unit 11 performs the Tile group coding process to generate the Tile group NAL unit, supplies the Tile group NAL unit to the file generation unit 15 via the VCL buffer 13, and then returns to step S11.
  • the same process is repeated.
  • the coding unit 11 determines in step S14 that the NAL unit to be generated from the image sequence is not the Tile group NAL unit, the process proceeds to step S16.
  • step S16 the coding unit 11 performs a coding process for encoding other NAL units other than the AUD NAL unit and the Tile group NAL unit, and then returns to step S11, and the same process is repeated thereafter. Is done.
  • step S11 when the coding unit 11 determines that there is no NAL unit to be generated from the image sequence, the file generation process is terminated.
  • FIG. 9 is a flowchart illustrating the AUD coding process performed in step S13 of FIG. Note that this AUD coding process is a process when the syntax is described in the first description example shown in FIG.
  • step S21 the encoding unit 11 performs a process of setting the pic_type including the ref_pic_flag information.
  • step S22 the coding unit 11 generates an AUD NAL unit by performing a frame delimiter process for dividing a frame (access unit), and then the AUD coding process is terminated.
  • FIG. 10 is a flowchart illustrating the AUD coding process performed in step S13 of FIG. Note that this AUD coding process is a process when the syntax is described in the second description example shown in FIG. 7.
  • step S31 the coding unit 11 performs a process of setting the pic_type.
  • step S32 the encoding unit 11 performs a process of setting ref_pic_flag information.
  • step S33 the coding unit 11 generates an AUD NAL unit by performing a frame delimiter process for dividing a frame (access unit), and then the AUD coding process is terminated.
  • FIG. 11 is a flowchart illustrating the Tile group coding process performed in step S15 of FIG. 7.
  • step S41 the encoding unit 11 refers to the ref_pic_flag information set for the AUD NAL unit.
  • step S42 the encoding unit 11 determines whether or not 1 is set in the ref_pic_flag information.
  • step S42 determines in step S42 that 1 is set in the ref_pic_flag information
  • the process proceeds to step S43.
  • step S43 the coding unit 11 encodes the Tile group NAL unit by the coding process when the current frame is a reference frame, and then the Tile group coding process ends.
  • step S44 the coding unit 11 encodes the Tile group NAL unit by the coding process when the current frame is a non-reference frame, and then the Tile group coding process ends.
  • the image encoding device 10 By the file generation process as described above, the image encoding device 10 generates an AUD NAL unit in which the identification information is arranged, and generates a moving image file composed of a bit stream as described with reference to FIG. 5 above. That is, it is possible to encode an image of a bitstream consisting of access units in which at least one or more NAL units are located.
  • the decoding unit 34 determines whether or not there is an NAL unit to be decoded from the bit stream. ..
  • step S51 If the decoding unit 34 determines in step S51 that there is an NAL unit to be decoded from the bit stream, the process proceeds to step S52.
  • step S52 the decoding unit 34 determines whether or not the NAL unit to be decoded from the bit stream is an AUD NAL unit.
  • step S52 If the decoding unit 34 determines in step S52 that the NAL unit to be decoded from the bit stream is the AUD NAL unit, the process proceeds to step S53. Then, in step S53, the decoding unit 34 performs the AUD decoding process, supplies the identification information acquired by decoding the AUD NAL unit to the parameter memory 33, and then returns to step S51, and so on. The process is repeated. On the other hand, in step S52, when the decoding unit 34 determines that the NAL unit to be decoded from the bit stream is not the AUD NAL unit, the process proceeds to step S54.
  • step S54 the decoding unit 34 determines whether or not the NAL unit to be decoded from the bit stream is the Tile group NAL unit.
  • step S54 determines in step S54 that the NAL unit to be decoded from the bit stream is the Tile group NAL unit
  • the process proceeds to step S55.
  • step S55 the decoding unit 34 performs the Tile group decoding process and supplies the image obtained by decoding the Tile group NAL unit to the output buffer 35, and then returns to step S51, and the same process is performed thereafter. Is repeated.
  • step S54 when the decoding unit 34 determines that the NAL unit to be decoded from the bit stream is not the Tile group NAL unit, the process proceeds to step S56.
  • step S56 the decoding unit 34 performs a decoding process for decoding other NAL units other than the AUD NAL unit and the Tile group NAL unit, and then returns to step S51, and the same process is repeated thereafter. ..
  • step S51 when the decoding unit 34 determines that there is no NAL unit to be decoded from the bit stream, the file decoding process is terminated.
  • FIG. 13 is a flowchart illustrating the AUD decoding process performed in step S53 of FIG. Note that this AUD decoding process is a process when the syntax is described in the first description example shown in FIG.
  • step S61 the decoding unit 34 acquires ref_pic_flag information from the pic_type set in the AUD NAL unit.
  • step S62 the decoding unit 34 decodes the AUD NAL unit by performing a frame delimiter process for dividing the frame (access unit), and then the AUD decoding process is terminated.
  • FIG. 14 is a flowchart illustrating the AUD decoding process performed in step S53 of FIG. Note that this AUD decoding process is a process when the syntax is described in the second description example shown in FIG. 7.
  • step S71 the decoding unit 34 acquires the pic_type set in the AUD NAL unit.
  • step S72 the decoding unit 34 acquires the ref_pic_flag information set in the AUD NAL unit.
  • step S73 the decoding unit 34 decodes the AUD NAL unit by performing a frame delimiter process for dividing the frame (access unit), and then the AUD decoding process is terminated.
  • FIG. 15 is a flowchart illustrating the Tile group decoding process performed in step S55 of FIG.
  • step S81 the decoding unit 34 refers to the ref_pic_flag information set for the AUD NAL unit.
  • step S82 the decoding unit 34 determines whether or not 1 is set in the ref_pic_flag information.
  • step S82 If the decoding unit 34 determines in step S82 that 1 is set in the ref_pic_flag information, the process proceeds to step S83.
  • step S83 the decoding unit 34 decodes the Tile group NAL unit by the decoding process when the current frame is the reference frame, and then the Tile group decoding process is terminated.
  • step S82 determines in step S82 that 1 is not set in the ref_pic_flag information (other than 1 is set)
  • the process proceeds to step S84.
  • step S44 the decoding unit 34 decodes the Tile group NAL unit by the decoding process when the current frame is a non-reference frame, and then the Tile group decoding process is terminated.
  • the image decoding device 30 decodes the image according to the ref_pic_flag information set for the AUD NAL unit, that is, the bit stream composed of the access unit in which at least one or more NAL units are arranged.
  • the image can be decoded.
  • the bitstream is composed of a plurality of access units as described with reference to FIG. 5 above, and each access unit is provided with at least one NAL unit. Will be done. Further, as in the case of the first variation of the bitstream (see FIG. 5), three cases as shown in FIG. 16 are assumed in the configuration of the bitstream.
  • the NEW NAL unit is used as the NAL unit in addition to the AUD NAL unit, SPS NAL unit, PPS NAL unit, and Tile group NAL unit.
  • the AUD NAL unit is placed first, the SPS NAL unit is placed second, the PPS NAL unit is placed third, and the NEW NAL unit is placed fourth. Is placed, and after that, the Tile group NAL unit is placed continuously. That is, in the first case, the SPS NAL unit and the PPS NAL unit are given to the individual access units, and the NEW NAL unit is further given.
  • the AUD NAL unit is placed first, the SPS NAL unit is placed second, the PPS NAL unit is placed third, and the NEW NAL unit is placed fourth. Is placed, and after that, the Tile group NAL unit is placed continuously. Then, in the second and subsequent access units, the AUD NAL unit is arranged first, the PPS NAL unit is arranged second, the NEW NAL unit is arranged third, and Tile is continuously arranged thereafter. group NAL unit is placed. That is, in the second case, the SPS NAL unit is given to the first access unit, the PPS NAL unit is given to each access unit, and the NEW NAL unit is further given.
  • the AUD NAL unit in the first access unit, the AUD NAL unit is arranged first, the SPS NAL unit is arranged second, the PPS NAL unit is arranged third, and the NEW NAL unit is arranged fourth. Is placed, and after that, the Tile group NAL unit is placed continuously. Then, in the second and subsequent access units, the AUD NAL unit is arranged first, the NEW NAL unit is arranged second, and the Tile group NAL unit is continuously arranged thereafter. That is, in the third case, the SPS NAL unit and the PPS NAL unit are given only to the first access unit, and the NEW NAL unit is given to each access unit.
  • the identification information of whether or not the current frame becomes the reference image in the future is stored in the NEW NAL unit of the bitstream of the image.
  • the syntax of the identification information indicating Ref / non-ref is set in the NEW NAL unit, which is always placed at the beginning of each access unit.
  • FIG. 17 shows a description example of the syntax of the NEW NAL unit in the second variation of the bitstream.
  • the ref_pic_flag in the AUD NAL unit is set with identification information indicating whether all Tile groups in the access unit are reference or non-reference.
  • steps S101 to S103 the same processing as in steps S11 to S13 described with reference to the flowchart of FIG. 8 described above is performed. Then, in step S104, the coding unit 11 determines whether or not the NAL unit to be generated from the image sequence is the NEW NAL unit.
  • step S104 determines in step S104 that the NAL unit to be generated from the image sequence is the NEW NAL unit. the process proceeds to step S105. Then, in step S105, the coding unit 11 performs a NEW coding process to generate a NEW NAL unit containing the identification information, supplies the file to the file generation unit 15 via the non-VCL buffer 14, and then the process steps. Returning to S101, the same process is repeated thereafter.
  • step S104 when the coding unit 11 determines that the NAL unit to be generated from the image sequence is not the NEW NAL unit, the process proceeds to step S106.
  • steps S106 to 108 after the same processing as in steps S14 to S16 described with reference to the flowchart of FIG. 8 described above is performed, the file generation processing is terminated.
  • FIG. 19 is a flowchart illustrating the NEW coding process performed in step S105 of FIG.
  • step S111 the coding unit 11 sets ref_pic_flag as identification information to generate a NEW NAL unit, and then the NEW coding process is terminated.
  • FIG. 20 is a flowchart illustrating the Tile group coding process performed in step S107 of FIG.
  • step S121 the encoding unit 11 refers to the ref_pic_flag information set for the NEW NAL unit.
  • steps S122 to S124 the same processing as in steps S42 to S44 described with reference to the flowchart of FIG. 11 described above is performed, and then the Tile group coding process is terminated.
  • the image encoding device 10 By the file generation process as described above, the image encoding device 10 generates a NEW NAL unit in which the identification information is arranged, and generates a moving image file composed of a bit stream as described with reference to FIG. 5 above. That is, it is possible to encode an image of a bitstream consisting of access units in which at least one or more NAL units are located.
  • step S134 the decoding unit 34 determines whether or not the NAL unit to be decoded from the bit stream is a NEW NAL unit.
  • step S134 determines in step S134 that the NAL unit to be decoded from the bit stream is the NEW NAL unit. If the decoding unit 34 determines in step S134 that the NAL unit to be decoded from the bit stream is the NEW NAL unit, the process proceeds to step S135. Then, in step S135, the decoding unit 34 performs a NEW decoding process, supplies the identification information acquired by decoding the NEW NAL unit to the parameter memory 33, and then returns to step S131, and so on. The process is repeated. On the other hand, if the decoding unit 34 determines in step S134 that the NAL unit to be decoded from the bit stream is not the NEW NAL unit, the process proceeds to step S136.
  • steps S136 to 138 the file decoding process is terminated after the same processing as in steps S54 to S56 described with reference to the flowchart of FIG. 12 described above is performed.
  • FIG. 22 is a flowchart illustrating the NEW decoding process performed in step S135 of FIG. 21.
  • step S141 the decoding unit 34 acquires the pic_type set in the NEW NAL unit. After that, the NEW decryption process is terminated.
  • FIG. 23 is a flowchart illustrating the Tile group decoding process performed in step S137 of FIG. 21.
  • step S151 the decoding unit 34 refers to the ref_pic_flag information set for the NEW NAL unit.
  • steps S152 to S154 the same processing as in steps S82 to S84 described with reference to the flowchart of FIG. 15 described above is performed, and then the Tile group decoding process is terminated.
  • the image decoding device 30 decodes the image according to the ref_pic_flag information set for the NEW NAL unit, that is, the bit stream composed of the access unit in which at least one or more NAL units are arranged.
  • the image can be decoded.
  • FIG. 24 is a block diagram showing a configuration example of an embodiment of a computer on which a program for executing the above-mentioned series of processes is installed.
  • the program can be recorded in advance on the hard disk 105 or ROM 103 as a recording medium built in the computer.
  • the program can be stored (recorded) in the removable recording medium 111 driven by the drive 109.
  • a removable recording medium 111 can be provided as so-called package software.
  • examples of the removable recording medium 111 include a flexible disk, a CD-ROM (Compact Disc Read Only Memory), an MO (Magneto Optical) disk, a DVD (Digital Versatile Disc), a magnetic disk, and a semiconductor memory.
  • the program can be downloaded to the computer via a communication network or a broadcasting network and installed on the built-in hard disk 105. That is, for example, the program transfers wirelessly from a download site to a computer via an artificial satellite for digital satellite broadcasting, or transfers to a computer by wire via a network such as LAN (Local Area Network) or the Internet. be able to.
  • LAN Local Area Network
  • the computer includes a CPU (Central Processing Unit) 102, and an input/output interface 110 is connected to the CPU 102 via a bus 101.
  • CPU Central Processing Unit
  • the CPU 102 executes a program stored in the ROM (Read Only Memory) 103 accordingly. .. Alternatively, the CPU 102 loads the program stored in the hard disk 105 into the RAM (Random Access Memory) 104 and executes it.
  • ROM Read Only Memory
  • the CPU 102 performs processing according to the above-mentioned flowchart or processing performed according to the above-mentioned block diagram configuration. Then, the CPU 102 outputs the processing result from the output unit 106, transmits it from the communication unit 108, or records it on the hard disk 105, if necessary, via the input / output interface 110, for example.
  • the input unit 107 is composed of a keyboard, a mouse, a microphone, and the like. Further, the output unit 106 is composed of an LCD (Liquid Crystal Display), a speaker, or the like.
  • LCD Liquid Crystal Display
  • the processing performed by the computer according to the program does not necessarily have to be performed in chronological order in the order described as the flowchart. That is, the processing performed by the computer according to the program also includes processing executed in parallel or individually (for example, parallel processing or processing by an object).
  • the program may be processed by one computer (processor) or may be distributed by a plurality of computers. Further, the program may be transferred to a distant computer and executed.
  • the system means a set of a plurality of constituent elements (devices, modules (parts), etc.), and it does not matter whether or not all constituent elements are in the same housing. Therefore, a plurality of devices housed in separate housings and connected via a network, and a device in which a plurality of modules are housed in one housing are both systems. ..
  • the configuration described as one device (or processing unit) may be divided and configured as a plurality of devices (or processing units).
  • the configurations described above as a plurality of devices (or processing units) may be collectively configured as one device (or processing unit).
  • a configuration other than the above may be added to the configuration of each device (or each processing unit).
  • a part of the configuration of one device (or processing unit) may be included in the configuration of another device (or other processing unit). ..
  • this technology can have a cloud computing configuration in which one function is shared by a plurality of devices via a network and jointly processed.
  • the above-mentioned program can be executed in any device.
  • the device may have necessary functions (functional blocks, etc.) so that necessary information can be obtained.
  • each step described in the above flowchart can be executed by one device or can be shared and executed by a plurality of devices.
  • the plurality of processes included in the one step can be executed by one device or shared by a plurality of devices.
  • a plurality of processes included in one step can be executed as processes of a plurality of steps.
  • the processes described as a plurality of steps can be collectively executed as one step.
  • the processing of the steps for describing the program may be executed in chronological order according to the order described in this specification, or may be called in parallel or called. It may be executed individually at a necessary timing such as time. That is, as long as there is no contradiction, the processing of each step may be executed in an order different from the above-mentioned order. Further, the processing of the step for writing this program may be executed in parallel with the processing of another program, or may be executed in combination with the processing of another program.
  • the present technology can also have the following configurations.
  • a decoding unit that decodes an image of a bitstream consisting of an access unit in which at least one or more NAL (Network Abstraction Layer) units are arranged is provided.
  • NAL Network Abstraction Layer
  • identification information for identifying whether or not the current frame can become a reference image in the future is stored for the images stored in all the Tile group NAL units in the access unit.
  • the identification information is stored in an AUD (Access Unit Delimiter) NAL unit indicating the delimiter of the access unit, and is applied to all Tile group NAL units in the access unit according to the above (1).
  • Image decoding device is stored in an AUD (Access Unit Delimiter) NAL unit indicating the delimiter of the access unit, and is applied to all Tile group NAL units in the access unit according to the above (1).
  • the identification information is stored in an identification NAL unit provided separately from the AUD (Access Unit Delimiter) NAL unit indicating the delimiter of the access unit, and is stored for all Tile group NAL units in the access unit.
  • the image decoding apparatus according to (1) above.
  • the image decoding device that performs the image decoding process Includes decoding a bitstream image consisting of an access unit in which at least one or more NAL (Network Abstraction Layer) units are located. In the header area of the access unit, identification information for identifying whether or not the current frame can become a reference image in the future is stored for the images stored in all the Tile group NAL units in the access unit. Image decoding method.
  • a coding unit for encoding an image of a bitstream consisting of an access unit in which at least one or more NAL (Network Abstraction Layer) units are arranged is provided.
  • Encoding device. (6) The image code according to (5) above, wherein the identification information is stored in an AUD (Access Unit Delimiter) NAL unit indicating the delimiter of the access unit, and is applied to all Tile group NAL units in the access unit. Delimiter.
  • the identification information is stored in an identification NAL unit provided separately from the AUD (Access Unit Delimiter) NAL unit indicating the delimiter of the access unit, and is applied to all Tile group NAL units in the access unit.
  • An image coding device that performs image coding processing Includes encoding an image of a bitstream consisting of access units in which at least one or more Network Abstraction Layer (NAL) units are located. In the header area of the access unit, identification information for identifying whether or not the current frame can become a reference image in the future is stored for the images stored in all the Tile group NAL units in the access unit. Image coding method.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

The present invention pertains to an image decoding device, an image decoding method, an image encoding device, and an image encoding method capable of further enhancing practicality. Identification information for, regarding images stored in all Tile group NAL units in an access unit, identifying whether a current frame will be able to become a reference image in the future is stored in a header area of the access unit. The identification information is stored in an AUD NAL unit which indicates an access unit division or stored in a NEW NAL unit which is provided separately from the AUD NAL unit, and is applied to all the Tile group NAL units in the access unit. This technology can be applied to, for example, an image decoding device and an image encoding device.

Description

画像復号装置、画像復号方法、画像符号化装置、および画像符号化方法Image decoding device, image decoding method, image coding device, and image coding method
 本開示は、画像復号装置、画像復号方法、画像符号化装置、および画像符号化方法に関し、特に、より実用性を高めることができるようにした画像復号装置、画像復号方法、画像符号化装置、および画像符号化方法に関する。 The present disclosure relates to an image decoding device, an image decoding method, an image coding device, and an image coding method, and in particular, an image decoding device, an image decoding method, an image coding device, which can be made more practical. And the image coding method.
 画像符号化方式の標準仕様の1つであるH.264/AVCでは、各画像(ピクチャ)は、1つ以上のスライスに分割される。そして各スライスは、Iスライス(Intra Slice)、Pスライス(Predictive Slice)及びBスライス(Bi-predictive Slice)のいずれかに分類される。Iスライスは、他の画像を参照することなく独立して復号されるスライスである。Pスライスは、単一の他の画像を参照することにより復号されるスライスである。Bスライスは、複数の他の画像を参照することにより復号されるスライスである。 In H.264 / AVC, which is one of the standard specifications of the image coding method, each image (picture) is divided into one or more slices. Then, each slice is classified into one of I slice (Intra Slice), P slice (Predictive Slice) and B slice (Bi-predictive Slice). The I slice is a slice that is independently decoded without referring to another image. A P-slice is a slice that is decoded by referencing a single other image. A B slice is a slice that is decoded by referencing a plurality of other images.
 Iスライスのみからなる、シーケンスの先頭のピクチャは、IDR(Instantaneous Decoding Refresh)ピクチャと呼ばれる。IDRピクチャは、NAL(Network Abstraction Layer)ユニットタイプの値によって識別される。IDRピクチャに後続する同一シーケンス内のピクチャは、復号順(decoding order)でIDRピクチャよりも前のピクチャを参照せず、表示順(presentation order)でIDRピクチャよりも後にのみ位置する。従って、ある符号化ストリームの映像の途中の時点にランダムアクセス(ストリームの先頭からの復号ではなく途中からの復号/再生)しようとする場合、指定される時点の近傍のIDRピクチャから、映像を適切に復号することができる。 The picture at the beginning of the sequence consisting of only I slices is called an IDR (Instantaneous Decoding Refresh) picture. The IDR picture is identified by the value of the NAL (Network Abstraction Layer) unit type. The pictures in the same sequence following the IDR picture do not refer to the pictures before the IDR picture in the decoding order, and are located only after the IDR picture in the presentation order. Therefore, when attempting random access (decoding / playback from the middle of a stream instead of decoding from the beginning) at a certain point in the middle of the video of a coded stream, the video is appropriately extracted from the IDR picture in the vicinity of the specified time. Can be decrypted to.
 H.264/AVCに続く次世代の画像符号化方式であるHEVC(High Efficiency Video Coding)の標準化作業では、IDRピクチャとは別に、CRA(Clean Random Access)ピクチャをNALユニットタイプの値によって識別することが提案されている。CRAピクチャは、シーケンスの途中のIスライスのみからなるピクチャである。CRAピクチャに復号順及び表示順の双方で後続するピクチャは、復号順でCRAピクチャに先行するピクチャ及び表示順でCRAピクチャに先行するピクチャの双方を参照しない。従って、映像の途中の時点のCRAピクチャへのランダムアクセス(CRAピクチャからの映像の復号)を行う場合、CRAピクチャに表示順で後続するピクチャの復号処理を破綻なく行うことができる。 In the standardization work of HEVC (High Efficiency Video Coding), which is the next-generation image coding method following H.264 / AVC, CRA (Clean Random Access) pictures are identified by the NAL unit type value in addition to IDR pictures. Has been proposed. A CRA picture is a picture consisting of only I slices in the middle of a sequence. A picture following a CRA picture in both the decoding order and the display order does not refer to both the picture preceding the CRA picture in the decoding order and the picture preceding the CRA picture in the display order. Therefore, when random access to the CRA picture at the time in the middle of the video (decoding of the video from the CRA picture) is performed, the decoding process of the picture following the CRA picture in the display order can be performed without failure.
 ここで、非特許文献1および2には、N倍速再生や逆再生などのTrick Play再生を実装する際に、カレントフレーム画像が将来参照画像になるか否かを判断できるように、NAL Unit Headerに識別情報を格納する規格が開示されている。例えば、H.264/AVCの場合には、nal_ref_idxに識別情報が格納され、H.265/HEVC場合には、nal_unit_typeに識別情報が格納される。 Here, in Non-Patent Documents 1 and 2, NAL Unit Header is provided so that it can be determined whether or not the current frame image will be a reference image in the future when implementing TrickPlay playback such as Nx speed playback or reverse playback. A standard for storing identification information is disclosed in. For example, in the case of H.264 / AVC, the identification information is stored in nal_ref_idx, and in the case of H.265 / HEVC, the identification information is stored in nal_unit_type.
 ところで、現状のVVC(JVET-M1001)では、カレントピクチャがreference pictureおよびnon-reference pictureのどちらであるかを示す識別情報は規定されていない。このため、従来、N倍速再生や逆再生などのTrick Playをサポートすることが困難であった。例えば、AVCでは、Nal Unit Headerのnal_ref_idxで判断可能であり、HEVCでは、nal_unit_typeで判断可能であるが、それらと同様に判断しようとすると、Access Unit(AU)内の、全Tile groupのNAL Unit Headerに、同じ識別情報を重複して格納することとなる。このため、冗長になるだけでなく、処理が煩雑になり、さらにメモリコストが増大するとともに、符号化効率に影響することになる。また、特に狭帯域などにおいて伝送帯域を有効活用することが困難となる。 By the way, in the current VVC (JVET-M1001), the identification information indicating whether the current picture is a reference picture or a non-reference picture is not specified. For this reason, it has been difficult to support TrickPlay such as Nx speed playback and reverse playback in the past. For example, in AVC, it can be judged by nal_ref_idx of NalUnitHeader, and in HEVC, it can be judged by nal_unit_type, but if you try to judge in the same way, NALUnit of all Tilegroups in AccessUnit (AU) The same identification information will be stored in the Header more than once. Therefore, not only the redundancy becomes redundant, but also the processing becomes complicated, the memory cost increases, and the coding efficiency is affected. In addition, it becomes difficult to effectively utilize the transmission band, especially in a narrow band.
 また、カレントピクチャが将来に参照画像になるか否かの情報はフレーム単位で処理が行われるが、Multi-Tile画像時に全Tile groupのNAL Unit Headerに、その情報を格納する場合には冗長となることが懸念される。そこで、従来の規格を拡張して、より実用性を高めることが求められている。 In addition, information on whether or not the current picture will become a reference image in the future is processed on a frame-by-frame basis, but when storing that information in the NAL Unit Header of all Tile groups during a Multi-Tile image, it is redundant. There is concern that it will become. Therefore, it is required to extend the conventional standard to further improve its practicality.
 本開示は、このような状況に鑑みてなされたものであり、より実用性を高めることができるようにするものである。 This disclosure has been made in view of such a situation, and is intended to further enhance the practicality.
 本開示の第1の側面の画像復号装置は、少なくとも1つ以上のNALユニットが配置されるアクセスユニットからなるビットストリームの画像を復号する復号部を備え、前記アクセスユニットのヘッダ領域に、前記アクセスユニット内の全てのTile group NALユニットに格納される画像について、カレントフレームが将来に参照画像になることが可能か否かを識別する識別情報が格納されている。 The image decoding device of the first aspect of the present disclosure includes a decoding unit that decodes an image of a bit stream composed of an access unit in which at least one or more NAL units are arranged, and accesses the header area of the access unit. For the images stored in all the Tile group NAL units in the unit, identification information for identifying whether or not the current frame can become a reference image in the future is stored.
 本開示の第1の側面の画像復号方法は、画像復号処理を行う画像復号装置が、少なくとも1つ以上のNALユニットが配置されるアクセスユニットからなるビットストリームの画像を復号することを含み、前記アクセスユニットのヘッダ領域に、前記アクセスユニット内の全てのTile group NALユニットに格納される画像について、カレントフレームが将来に参照画像になることが可能か否かを識別する識別情報が格納されている。 The image decoding method of the first aspect of the present disclosure includes the image decoding apparatus performing the image decoding process decoding a bitstream image composed of an access unit in which at least one or more NAL units are arranged. In the header area of the access unit, identification information for identifying whether or not the current frame can become a reference image in the future is stored for the images stored in all the Tile group NAL units in the access unit. ..
 本開示の第1の側面においては、少なくとも1つ以上のNALユニットが配置されるアクセスユニットからなるビットストリームの画像が復号される。そして、アクセスユニットのヘッダ領域に、アクセスユニット内の全てのTile group NALユニットに格納される画像について、カレントフレームが将来に参照画像になることが可能か否かを識別する識別情報が格納されている。 In the first aspect of the present disclosure, an image of a bitstream consisting of an access unit in which at least one or more NAL units are arranged is decoded. Then, in the header area of the access unit, identification information for identifying whether or not the current frame can become a reference image in the future is stored for the images stored in all the Tile group NAL units in the access unit. There is.
 本開示の第2の側面の画像符号化装置は、少なくとも1つ以上のNALユニットが配置されるアクセスユニットからなるビットストリームの画像を符号化する符号化部を備え、前記アクセスユニットのヘッダ領域に、前記アクセスユニット内の全てのTile group NALユニットに格納される画像について、カレントフレームが将来に参照画像になることが可能か否かを識別する識別情報を格納する。 The image coding device of the second aspect of the present disclosure includes a coding unit for encoding an image of a bitstream consisting of an access unit in which at least one or more NAL units are arranged, and is provided in a header area of the access unit. For the images stored in all the Tile group NAL units in the access unit, identification information for identifying whether or not the current frame can become a reference image in the future is stored.
 本開示の第2の側面の画像符号化方法は、画像符号化処理を行う画像符号化装置が、少なくとも1つ以上のNALユニットが配置されるアクセスユニットからなるビットストリームの画像を符号化することを含み、前記アクセスユニットのヘッダ領域に、前記アクセスユニット内の全てのTile group NALユニットに格納される画像について、カレントフレームが将来に参照画像になることが可能か否かを識別する識別情報が格納される。 In the image coding method of the second aspect of the present disclosure, the image coding device that performs the image coding process encodes a bitstream image composed of an access unit in which at least one or more NAL units are arranged. In the header area of the access unit, there is identification information for identifying whether or not the current frame can be a reference image in the future for the images stored in all the Tile group NAL units in the access unit. It is stored.
 本開示の第2の側面においては、少なくとも1つ以上のNALユニットが配置されるアクセスユニットからなるビットストリームの画像が符号化される。そして、アクセスユニットのヘッダ領域に、アクセスユニット内の全てのTile group NALユニットに格納される画像について、カレントフレームが将来に参照画像になることが可能か否かを識別する識別情報が格納される。 In the second aspect of the present disclosure, an image of a bitstream consisting of access units in which at least one or more NAL units are located is encoded. Then, in the header area of the access unit, identification information for identifying whether or not the current frame can become a reference image in the future is stored for the images stored in all the Tile group NAL units in the access unit. ..
参照文献を示す図である。It is a figure which shows a reference document. 本技術を適用した画像符号化装置の一実施の形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of one Embodiment of the image coding apparatus to which this technique is applied. 本技術を適用した画像復号装置の一実施の形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of one Embodiment of the image decoding apparatus to which this technique is applied. Trick Playについて説明する図である。It is a figure explaining TrickPlay. 第1のバリエーションにおけるビットストリームの構成例を示す図である。It is a figure which shows the configuration example of the bit stream in the 1st variation. 第1のバリエーションでのAUD NALユニットのシンタックスの第1の記述例を示す図である。It is a figure which shows the 1st description example of the syntax of the AUDNAL unit in the 1st variation. 第1のバリエーションでのAUD NALユニットのシンタックスの第2の記述例を示す図である。It is a figure which shows the 2nd description example of the syntax of the AUD NAL unit in the 1st variation. 画像符号化処理のファイル生成処理を説明するフローチャートである。It is a flowchart explaining the file generation process of the image coding process. AUD符号化処理を説明するフローチャートである。It is a flowchart explaining AUD coding processing. AUD符号化処理を説明するフローチャートである。It is a flowchart explaining AUD coding processing. Tile group符号化処理を説明するフローチャートである。It is a flowchart explaining the Tile group coding process. 画像復号処理のファイルデコード処理を説明するフローチャートである。It is a flowchart explaining the file decoding process of the image decoding process. AUD復号処理を説明するフローチャートである。It is a flowchart explaining AUD decoding processing. AUD復号処理を説明するフローチャートである。It is a flowchart explaining AUD decoding processing. Tile group復号処理を説明するフローチャートである。It is a flowchart explaining the Tile group decoding process. 第2のバリエーションにおけるビットストリームの構成例を示す図である。It is a figure which shows the configuration example of the bit stream in the 2nd variation. 第2のバリエーションでのNEW NALユニットのシンタックスの記述例を示す図である。It is a figure which shows the description example of the syntax of the NEW NAL unit in the 2nd variation. 画像符号化処理のファイル生成処理を説明するフローチャートである。It is a flowchart explaining the file generation process of the image coding process. NEW符号化処理を説明するフローチャートである。It is a flowchart explaining NEW coding processing. Tile group符号化処理を説明するフローチャートである。It is a flowchart explaining the Tile group coding process. 画像復号処理のファイルデコード処理を説明するフローチャートである。It is a flowchart explaining the file decoding process of the image decoding process. NEW復号処理を説明するフローチャートである。NEW It is a flowchart explaining the decoding process. Tile group復号処理を説明するフローチャートである。It is a flowchart explaining the Tile group decoding process. 本技術を適用したコンピュータの一実施の形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of one Embodiment of the computer to which this technique is applied.
 <技術内容・技術用語をサポートする文献等>
 本明細書で開示される範囲は、実施例の内容に限定されるものではなく、出願当時において公知となっている図1に示す参照文献REF1~REF6の内容も、参照により本明細書に組み込まれる。
<Documents that support technical contents and technical terms>
The scope disclosed in the present specification is not limited to the contents of the examples, and the contents of the references REF1 to REF6 shown in FIG. 1, which are known at the time of filing, are also incorporated in the present specification by reference. Is done.
 つまり、図1に示す参照文献REF1~REF6に記載されている内容もサポート要件について判断する際の根拠となる。例えば、参照文献REF4に記載されているNAL unit structure、参照文献REF5に記載されているByte stream Formatが発明の詳細な説明において直接的に定義されていない場合でも、本開示の範囲内であり、請求の範囲のサポート要件を満たすものとする。また、例えば、パース(Parsing)、シンタックス(Syntax)、セマンティクス(Semantics)等の技術用語についても同様に、発明の詳細な説明において直接的に定義されていない場合でも、本開示の範囲内であり、請求の範囲のサポート要件を満たすものとする。 That is, the contents described in the references REF1 to REF6 shown in FIG. 1 are also the basis for judging the support requirements. For example, even if the NAL unit structure described in Reference REF4 and the Bytestream Format described in Reference REF5 are not directly defined in the detailed description of the invention, they are within the scope of the present disclosure. It shall meet the support requirements of the claims. Similarly, technical terms such as Parsing, Syntax, and Semantics are also within the scope of the present disclosure, even if they are not directly defined in the detailed description of the invention. Yes, and shall meet the support requirements of the claims.
 <用語>
 本願では、以下の用語を、以下のように定義する。
<Terms>
In this application, the following terms are defined as follows.
    <ブロック>
 画像(ピクチャ)の部分領域や処理単位として説明に用いる「ブロック」(処理部を示すブロックではない)は、特に言及しない限り、ピクチャ内の任意の部分領域を示し、その大きさ、形状、および特性等は限定されない。例えば、「ブロック」には、TB(Transform Block)、TU(Transform Unit)、PB(Prediction Block)、PU(Prediction Unit)、SCU(Smallest Coding Unit)、CU(Coding Unit)、LCU(Largest Coding Unit)、CTB(Coding TreeBlock)、CTU(Coding Tree Unit)、変換ブロック、サブブロック、マクロブロック、タイル、またはスライス等、任意の部分領域(処理単位)が含まれるものとする。
<Block>
Unless otherwise specified, a "block" (not a block indicating a processing unit) used as a partial area or a processing unit of an image (picture) indicates an arbitrary partial area in the picture, and its size, shape, and processing. The characteristics are not limited. For example, "block" includes TB (Transform Block), TU (Transform Unit), PB (Prediction Block), PU (Prediction Unit), SCU (Smallest Coding Unit), CU (Coding Unit), and LCU (Largest Coding Unit). ), CTB (Coding TreeBlock), CTU (Coding Tree Unit), conversion block, subblock, macroblock, tile, slice, etc., any partial area (processing unit) shall be included.
    <ブロックサイズの指定>
 また、このようなブロックのサイズを指定するに当たって、直接的にブロックサイズを指定するだけでなく、間接的にブロックサイズを指定するようにしてもよい。例えばサイズを識別する識別情報を用いてブロックサイズを指定するようにしてもよい。また、例えば、基準となるブロック(例えばLCUやSCU等)のサイズとの比または差分によってブロックサイズを指定するようにしてもよい。例えば、シンタックス要素等としてブロックサイズを指定する情報を伝送する場合に、その情報として、上述のような間接的にサイズを指定する情報を用いるようにしてもよい。このようにすることにより、その情報の情報量を低減させることができ、符号化効率を向上させることができる場合もある。また、このブロックサイズの指定には、ブロックサイズの範囲の指定(例えば、許容されるブロックサイズの範囲の指定等)も含む。
<Specify block size>
Further, when specifying the size of such a block, not only the block size may be directly specified, but also the block size may be indirectly specified. For example, the block size may be specified using the identification information that identifies the size. Further, for example, the block size may be specified by the ratio or difference with the size of the reference block (for example, LCU or SCU). For example, when transmitting information for specifying a block size as a syntax element or the like, the information for indirectly specifying the size as described above may be used as the information. By doing so, the amount of information of the information can be reduced, and the coding efficiency may be improved. Further, the designation of the block size also includes the designation of the range of the block size (for example, the designation of the range of the allowable block size).
    <情報・処理の単位>
 各種情報が設定されるデータ単位や、各種処理が対象とするデータ単位は、それぞれ任意であり上述した例に限定されない。例えば、これらの情報や処理が、それぞれ、TU(Transform Unit)、TB(Transform Block)、PU(Prediction Unit)、PB(Prediction Block)、CU(Coding Unit)、LCU(Largest Coding Unit)、サブブロック、ブロック、タイル、スライス、ピクチャ、シーケンス、またはコンポーネント毎に設定されるようにしてもよいし、それらのデータ単位のデータを対象とするようにしてもよい。もちろん、このデータ単位は、情報や処理毎に設定され得るものであり、全ての情報や処理のデータ単位が統一されている必要はない。なお、これらの情報の格納場所は任意であり、上述したデータ単位のヘッダやパラメータセット等に格納されるようにしてもよい。また、複数個所に格納されるようにしてもよい。
<Unit of information / processing>
The data unit in which various information is set and the data unit targeted by various processes are arbitrary and are not limited to the above-mentioned examples. For example, these information and processing are TU (Transform Unit), TB (Transform Block), PU (Prediction Unit), PB (Prediction Block), CU (Coding Unit), LCU (Largest Coding Unit), and subblock, respectively. , Blocks, tiles, slices, pictures, sequences, or components may be set, or the data of those data units may be targeted. Of course, this data unit can be set for each information or process, and it is not necessary that the data unit of all the information or process is unified. The storage location of these information is arbitrary, and may be stored in the header, parameter set, or the like of the above-mentioned data unit. Further, it may be stored in a plurality of places.
    <制御情報>
 本技術に関する制御情報を符号化側から復号側に伝送するようにしてもよい。例えば、上述した本技術を適用することを許可(または禁止)するか否かを制御する制御情報(例えばenabled_flag)を伝送するようにしてもよい。また、例えば、上述した本技術を適用する対象(または適用しない対象)を示す制御情報を伝送するようにしてもよい。例えば、本技術を適用する(または、適用を許可若しくは禁止する)ブロックサイズ(上限若しくは下限、またはその両方)、フレーム、コンポーネント、またはレイヤ等を指定する制御情報を伝送するようにしてもよい。
<Control information>
The control information related to the present technology may be transmitted from the coding side to the decoding side. For example, control information (for example, enabled_flag) that controls whether or not the application of the present technology described above is permitted (or prohibited) may be transmitted. Further, for example, control information indicating an object to which the present technology is applied (or an object to which the present technology is not applied) may be transmitted. For example, control information may be transmitted that specifies the block size (upper and lower limits, or both) to which the present technology is applied (or allowed or prohibited), frames, components, layers, and the like.
    <フラグ>
 なお、本明細書において「フラグ」とは、複数の状態を識別するための情報であり、真(1)または偽(0)の2状態を識別する際に用いる情報だけでなく、3以上の状態を識別することが可能な情報も含まれる。したがって、この「フラグ」が取り得る値は、例えば1/0の2値であってもよいし、3値以上であってもよい。すなわち、この「フラグ」を構成するbit数は任意であり、1bitでも複数bitでもよい。また、識別情報(フラグも含む)は、その識別情報をビットストリームに含める形だけでなく、ある基準となる情報に対する識別情報の差分情報をビットストリームに含める形も想定されるため、本明細書においては、「フラグ」や「識別情報」は、その情報だけではなく、基準となる情報に対する差分情報も包含する。
<Flag>
In the present specification, the "flag" is information for identifying a plurality of states, and is not only information used for identifying two states of true (1) or false (0), but also three or more states. It also contains information that can identify the state. Therefore, the value that this "flag" can take may be, for example, 2 values of 1/0 or 3 or more values. That is, the number of bits constituting this "flag" is arbitrary, and may be 1 bit or a plurality of bits. Further, the identification information (including the flag) is assumed to include not only the identification information in the bit stream but also the difference information of the identification information with respect to a certain reference information in the bit stream. In, the "flag" and "identification information" include not only the information but also the difference information with respect to the reference information.
    <メタデータを関連付ける>
 また、符号化データ(ビットストリーム)に関する各種情報(メタデータ等)は、符号化データに関連づけられていれば、どのような形態で伝送または記録されるようにしてもよい。ここで、「関連付ける」という用語は、例えば、一方のデータを処理する際に他方のデータを利用し得る(リンクさせ得る)ようにすることを意味する。つまり、互いに関連付けられたデータは、1つのデータとしてまとめられてもよいし、それぞれ個別のデータとしてもよい。例えば、符号化データ(画像)に関連付けられた情報は、その符号化データ(画像)とは別の伝送路上で伝送されるようにしてもよい。また、例えば、符号化データ(画像)に関連付けられた情報は、その符号化データ(画像)とは別の記録媒体(または同一の記録媒体の別の記録エリア)に記録されるようにしてもよい。なお、この「関連付け」は、データ全体でなく、データの一部であってもよい。例えば、画像とその画像に対応する情報とが、複数フレーム、1フレーム、またはフレーム内の一部分などの任意の単位で互いに関連付けられるようにしてもよい。
<Associate metadata>
Further, various information (metadata, etc.) regarding the coded data (bit stream) may be transmitted or recorded in any form as long as it is associated with the coded data. Here, the term "associate" means, for example, to make the other data available (linkable) when processing one data. That is, the data associated with each other may be combined as one data or may be individual data. For example, the information associated with the coded data (image) may be transmitted on a transmission path different from the coded data (image). Further, for example, the information associated with the coded data (image) may be recorded on a recording medium (or another recording area of the same recording medium) different from the coded data (image). Good. Note that this "association" may be a part of the data, not the entire data. For example, an image and information corresponding to the image may be associated with each other in an arbitrary unit such as a plurality of frames, one frame, or a part within the frame.
 なお、本明細書において、「合成する」、「多重化する」、「付加する」、「一体化する」、「含める」、「格納する」、「入れ込む」、「差し込む」、「挿入する」等の用語は、例えば符号化データとメタデータとを1つのデータにまとめるといった、複数の物を1つにまとめることを意味し、上述の「関連付ける」の1つの方法を意味する。また、本明細書において、符号化とは、画像をビットストリームに変換する全体の処理だけではなく、一部の処理も含む。例えば、予測処理、直交変換、量子化、算術符号化等を包括した処理を含むだけではなく、量子化と算術符号化とを総称した処理、予測処理と量子化と算術符号化とを包括した処理、などを含む。同様に、復号とは、ビットストリームを画像に変換する全体の処理だけではなく、一部の処理も含む。例えば、逆算術復号、逆量子化、逆直交変換、予測処理等を包括した処理を含むだけではなく、逆算術復号と逆量子化とを包括した処理、逆算術復号と逆量子化と予測処理とを包括した処理、などを含む。 In the present specification, "synthesize", "multiplex", "add", "integrate", "include", "store", "insert", "insert", "insert". A term such as "" means combining a plurality of objects into one, for example, combining encoded data and metadata into one data, and means one method of "associating" described above. Further, in the present specification, the coding includes not only the whole process of converting an image into a bit stream but also a part of the process. For example, it not only includes processing that includes prediction processing, orthogonal transformation, quantization, arithmetic coding, etc., but also includes processing that collectively refers to quantization and arithmetic coding, prediction processing, quantization, and arithmetic coding. Including processing, etc. Similarly, decoding includes not only the entire process of converting a bitstream into an image, but also some processes. For example, it not only includes processing that includes inverse arithmetic decoding, inverse quantization, inverse orthogonalization, prediction processing, etc., but also processing that includes inverse arithmetic decoding and inverse quantization, inverse arithmetic decoding, inverse quantization, and prediction processing. Including processing that includes and.
 以下、本技術を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。 Hereinafter, specific embodiments to which the present technology is applied will be described in detail with reference to the drawings.
 <画像符号化装置および画像復号装置>
 図2および図3を参照して、本技術を適用した画像符号化装置および画像復号装置について説明する。
<Image coding device and image decoding device>
An image coding device and an image decoding device to which the present technology is applied will be described with reference to FIGS. 2 and 3.
 図2に示すように、画像符号化装置10は、符号化部11、判定部12、VCLバッファ13、非VCLバッファ14、ファイル生成部15、および制御部16を備えて構成される。 As shown in FIG. 2, the image coding device 10 includes a coding unit 11, a determination unit 12, a VCL buffer 13, a non-VCL buffer 14, a file generation unit 15, and a control unit 16.
 符号化部11は、HEVC方式に従って動作するエンコーダである。符号化部11は、画像符号化装置10に接続されるカメラ又はテレビジョンチューナなどの動画ソースから、符号化すべき画像シーケンスを取得する。そして、符号化部11は、取得した画像シーケンス内の各画像についてイントラ予測、フレーム間予測、直交変換、量子化及び可逆符号化などの様々な処理を実行することにより、符号化ビットストリームを生成する。画像の実体に相当するスライスデータは、VCL(Video Coding Layer) NALユニットとして生成される。 The coding unit 11 is an encoder that operates according to the HEVC method. The coding unit 11 acquires an image sequence to be encoded from a moving image source such as a camera or a television tuner connected to the image coding device 10. Then, the coding unit 11 generates a coded bit stream by executing various processes such as intra prediction, inter-frame prediction, orthogonal conversion, quantization, and lossless coding for each image in the acquired image sequence. To do. Slice data corresponding to the substance of the image is generated as a VCL (Video Coding Layer) NAL unit.
 一方、SPS(Sequence Parameter Set)、PPS(Picture Parameter Set)及びAPS(Adaptation Parameter Set)などのパラメータセットは、非VCL NALユニットとして生成され得る。符号化部11は、VCL NALユニット、即ちスライスデータのビットストリームを、VCLバッファ13を介してファイル生成部15へ出力する。また、符号化部11は、パラメータセットを、非VCLバッファ14を介してファイル生成部15へ出力する。 On the other hand, parameter sets such as SPS (Sequence Parameter Set), PPS (Picture Parameter Set) and APS (Adaptation Parameter Set) can be generated as non-VCL NAL units. The coding unit 11 outputs a VCL NAL unit, that is, a bit stream of slice data to the file generation unit 15 via the VCL buffer 13. Further, the coding unit 11 outputs the parameter set to the file generation unit 15 via the non-VCL buffer 14.
 判定部12は、符号化部11により符号化される画像シーケンス内の各画像のタイプを判定する。より具体的には、本実施形態において、判定部12は、各画像がIDRピクチャ、CRAピクチャ及びそれ以外のピクチャのいずれであるかを少なくとも判定する。IDRピクチャ及びCRAピクチャの双方とも、Iスライスのみからなるピクチャである。 The determination unit 12 determines the type of each image in the image sequence encoded by the coding unit 11. More specifically, in the present embodiment, the determination unit 12 at least determines whether each image is an IDR picture, a CRA picture, or another picture. Both the IDR picture and the CRA picture are pictures consisting of only I slices.
 上述したように、IDRピクチャは、シーケンスの先頭のピクチャである。IDRピクチャに後続する同一シーケンス内のピクチャは、符号化順(復号順)でIDRピクチャよりも前のピクチャを参照せず、且つ表示順でIDRピクチャよりも後にのみ位置する。CRAピクチャは、シーケンスの途中に位置し、デコーダ側でのランダムアクセスの際に復号開始ピクチャとして使用可能なピクチャである。CRAピクチャに符号化順(復号順)及び表示順の双方で後続するピクチャは、符号化順(復号順)でCRAピクチャに先行するピクチャ及び表示順でCRAピクチャに先行するピクチャの双方を参照しない。判定部12は、判定の結果を、符号化部11及びファイル生成部15へ出力する。符号化部11は、判定部12により判定された各画像のタイプを示すNALユニットタイプを、各NALユニットのNALヘッダに付与する。 As described above, the IDR picture is the picture at the beginning of the sequence. The pictures in the same sequence following the IDR picture do not refer to the pictures before the IDR picture in the coding order (decoding order), and are located only after the IDR picture in the display order. The CRA picture is a picture that is located in the middle of the sequence and can be used as a decoding start picture at the time of random access on the decoder side. A picture following a CRA picture in both coding order (decoding order) and display order does not refer to both a picture preceding the CRA picture in the coding order (decoding order) and a picture preceding the CRA picture in the display order. .. The determination unit 12 outputs the determination result to the coding unit 11 and the file generation unit 15. The coding unit 11 assigns a NAL unit type indicating the type of each image determined by the determination unit 12 to the NAL header of each NAL unit.
 ところで、CRAピクチャへのランダムアクセスが行われる場合、ランダムアクセス先のCRAピクチャ及び当該CRAピクチャに復号順で後続するピクチャのみが、復号の対象となる。但し、復号順でCRAピクチャに後続し、表示順でCRAピクチャに先行するピクチャも存在し得る。本明細書では、そのようなピクチャを先行ピクチャという。CRAピクチャの定義から理解されるように、復号順でCRAピクチャに先行するピクチャを先行ピクチャが参照することは、許容される。 By the way, when random access to a CRA picture is performed, only the CRA picture of the random access destination and the picture following the CRA picture in the decoding order are targeted for decoding. However, there may be a picture that follows the CRA picture in the decoding order and precedes the CRA picture in the display order. In the present specification, such a picture is referred to as a preceding picture. As can be understood from the definition of a CRA picture, it is permissible for the preceding picture to reference a picture that precedes the CRA picture in the decoding order.
 CRAピクチャへのランダムアクセスが行われると、復号順でCRAピクチャに先行するピクチャを参照する先行ピクチャは、正常に復号されない。なぜなら、当該先行ピクチャの参照ピクチャは復号されていないためである。即ち、ランダムアクセスが行われる場合に、復号の対象となる先行ピクチャが正常に復号可能か否かは、先行ピクチャの参照関係に依存する。そこで、判定部12は、各CRAピクチャへのランダムアクセスが行われた場合に正常に復号されない先行ピクチャをさらに判定し、その判定結果をファイル生成部15へ提供してもよい。 When random access to the CRA picture is performed, the preceding picture that refers to the picture preceding the CRA picture in the decoding order is not normally decoded. This is because the reference picture of the preceding picture has not been decoded. That is, when random access is performed, whether or not the preceding picture to be decoded can be normally decoded depends on the reference relationship of the preceding picture. Therefore, the determination unit 12 may further determine the preceding picture that is not normally decoded when the random access to each CRA picture is performed, and provide the determination result to the file generation unit 15.
 VCLバッファ13は、VCL NALユニットをバッファリングする。CRAピクチャのスライスデータは、VCLバッファ13によりバッファリングされる。 The VCL buffer 13 buffers the VCL NAL unit. The slice data of the CRA picture is buffered by the VCL buffer 13.
 非VCLバッファ14は、非VCL NALユニットをバッファリングする。 The non-VCL buffer 14 buffers the non-VCL NAL unit.
 ファイル生成部15は、ヘッダ領域及びデータ領域を含むファイルフォーマットに従って、符号化された一連の画像データを格納する動画ファイルを生成し、記憶部20に出力する。本明細書では、ファイルフォーマットとしてMP4フォーマットが利用される例を主に説明する。しかしながら、本開示に係る技術は、かかる例に限定されず、ヘッダ領域とデータ領域とを有するその他の種類の動画ファイルフォーマットに適用可能である。 The file generation unit 15 generates a moving image file for storing a series of encoded image data according to a file format including a header area and a data area, and outputs the video file to the storage unit 20. In this specification, an example in which the MP4 format is used as the file format will be mainly described. However, the technique according to the present disclosure is not limited to such an example, and is applicable to other types of video file formats having a header area and a data area.
 MP4フォーマットでは、データは、ボックスと呼ばれるオブジェクトに格納され、オブジェクト単位で記録される。1つのファイル内でボックスはツリー構造を形成し、親ボックスは子ボックスを含む。各ボックスの種類は、アルファベット4文字の識別子によって識別される。 In the MP4 format, data is stored in an object called a box and recorded in object units. Within a file, the boxes form a tree structure and the parent box contains child boxes. The type of each box is identified by a four-letter identifier.
 より具体的には、ファイル生成部15は、動画ファイルのデータ領域(例えば、mdatボックス)に、VCL NALユニットに相当するスライスデータのビットストリームを、復号順で挿入する。また、ファイル生成部15は、動画ファイルのヘッダ領域(例えば、moovボックス)に、非VCL NALユニットに相当する1つ以上のパラメータセットを挿入する。さらに、本実施形態において、ファイル生成部15は、動画ファイルのヘッダ領域に、判定部12により判定された1つ以上のCRAピクチャを識別するCRA情報を挿入する。さらに、ファイル生成部15は、各CRAピクチャへのランダムアクセスが行われた場合に正常に復号されない先行ピクチャを識別するための先行ピクチャ情報をCRA情報に含めてもよい。 More specifically, the file generation unit 15 inserts a bit stream of slice data corresponding to the VCL NAL unit into the data area (for example, mdat box) of the moving image file in the decoding order. Further, the file generation unit 15 inserts one or more parameter sets corresponding to the non-VCL NAL unit into the header area (for example, moov box) of the moving image file. Further, in the present embodiment, the file generation unit 15 inserts CRA information that identifies one or more CRA pictures determined by the determination unit 12 into the header area of the moving image file. Further, the file generation unit 15 may include the preceding picture information for identifying the preceding picture that is not normally decoded when the random access to each CRA picture is performed in the CRA information.
 制御部16は、画像符号化装置10において実行される符号化処理を制御する。例えば、制御部16は、符号化開始の指示が検出されると、指定された画像シーケンスを符号化部11に符号化させる。また、制御部16は、符号化部11により符号化された画像データを格納する動画ファイルをファイル生成部15に生成させる。制御部16は、HRD(Hypothetical Reference Decoder;仮想参照デコーダ)と呼ばれる仮想的なデコーダのモデルを用いて、デコーダのバッファを破綻させないように、符号化ストリームの生成を制御してもよい。 The control unit 16 controls the coding process executed in the image coding device 10. For example, when the instruction to start coding is detected, the control unit 16 causes the coding unit 11 to encode the designated image sequence. Further, the control unit 16 causes the file generation unit 15 to generate a moving image file for storing the image data encoded by the coding unit 11. The control unit 16 may control the generation of the coded stream by using a virtual decoder model called HRD (Hypothetical Reference Decoder) so as not to disrupt the decoder buffer.
 図3に示すように、画像復号装置30は、VCLバッファ31、非VCLバッファ32、パラメータメモリ33、復号部34、出力バッファ35、および制御部37を備えて構成される。 As shown in FIG. 3, the image decoding device 30 includes a VCL buffer 31, a non-VCL buffer 32, a parameter memory 33, a decoding unit 34, an output buffer 35, and a control unit 37.
 VCLバッファ31は、記憶部20に記憶されている動画ファイルのデータ領域(例えば、mdatボックス)から読み込まれる画像データ(典型的には、スライスデータ)のビットストリームをバッファリングする。 The VCL buffer 31 buffers a bit stream of image data (typically slice data) read from a data area (for example, mdat box) of a moving image file stored in the storage unit 20.
 非VCLバッファ32は、記憶部20に記憶されている動画ファイルのヘッダ領域(例えば、moovボックス)から読み込まれるSPS、PPS及びAPSなどのパラメータセット、並びにCRA情報などのヘッダ情報をバッファリングする。 The non-VCL buffer 32 buffers the parameter sets such as SPS, PPS and APS read from the header area (for example, moov box) of the moving image file stored in the storage unit 20, and the header information such as CRA information.
 パラメータメモリ33は、非VCLバッファ32を介して取得されるファイルのヘッダ領域内の情報を一括的に記憶する。上述した様々な形式で動画ファイルのヘッダ領域に記録され得るCRA情報は、動画ファイルが開かれている間、パラメータメモリ33により保持される。 The parameter memory 33 collectively stores the information in the header area of the file acquired via the non-VCL buffer 32. The CRA information that can be recorded in the header area of the moving image file in the various formats described above is held by the parameter memory 33 while the moving image file is opened.
 復号部34は、HEVC方式に従って動作するデコーダである。復号部34は、VCLバッファ31を介して動画ファイルのデータ領域から取得されるビットストリームから、画像シーケンスを復号する。復号部34は、画像を復号する際に、パラメータメモリ33により記憶されるパラメータセット内のパラメータを使用する。復号部34は、復号した画像シーケンス内の画像を表示順に並び替え、並び替え後の画像を出力バッファ35へ出力する。 The decoding unit 34 is a decoder that operates according to the HEVC method. The decoding unit 34 decodes the image sequence from the bit stream acquired from the data area of the moving image file via the VCL buffer 31. The decoding unit 34 uses the parameters in the parameter set stored in the parameter memory 33 when decoding the image. The decoding unit 34 rearranges the images in the decoded image sequence in the display order, and outputs the rearranged images to the output buffer 35.
 復号部34は、通常は、動画ファイル内の動画トラックに復号順で格納されているスライスデータに、その先頭から順にアクセスする。しかし、復号部34は、制御部37によりランダムアクセスの指示が検出されると、制御部37により特定される(動画トラックの途中の)復号開始ピクチャへランダムアクセスし、当該復号開始ピクチャから画像シーケンスを復号する。復号開始ピクチャは、動画トラック内のIDRピクチャ及びCRAピクチャのうちの1つである。 The decoding unit 34 normally accesses the slice data stored in the moving image track in the moving image file in the decoding order in order from the beginning. However, when the control unit 37 detects a random access instruction, the decoding unit 34 randomly accesses the decoding start picture (in the middle of the moving image track) specified by the control unit 37, and starts an image sequence from the decoding start picture. To decrypt. The decoding start picture is one of the IDR picture and the CRA picture in the moving image track.
 出力バッファ35は、復号部34により復号された画像をバッファリングするための復号ピクチャバッファ(DPB;Decoded  Picture  Buffer)である。出力バッファ35によりバッファリングされた画像は、当該画像の出力タイミングにおいて、図示しないディスプレイ又はプロセッサへ出力される。 The output buffer 35 is a decoding picture buffer (DPB; Decoded Picture Buffer) for buffering the image decoded by the decoding unit 34. The image buffered by the output buffer 35 is output to a display or processor (not shown) at the output timing of the image.
 制御部37は、画像復号装置30において実行される画像復号処理を制御する。例えば、制御部37は、ユーザからの指示に応じて記憶部20に記憶されている動画ファイルを開き、復号部34に画像シーケンスの復号を開始させる。また、制御部37は、ランダムアクセスの指示が検出された場合に、CRA情報を用いて、画像シーケンス内のいずれかのCRAピクチャを復号開始ピクチャとして特定する。そして、制御部37は、特定した復号開始ピクチャから(即ち、動画トラックの途中から)復号部34に画像シーケンスを復号させる。 The control unit 37 controls the image decoding process executed in the image decoding device 30. For example, the control unit 37 opens the moving image file stored in the storage unit 20 in response to an instruction from the user, and causes the decoding unit 34 to start decoding the image sequence. Further, when the random access instruction is detected, the control unit 37 uses the CRA information to specify any CRA picture in the image sequence as the decoding start picture. Then, the control unit 37 causes the decoding unit 34 to decode the image sequence from the specified decoding start picture (that is, from the middle of the moving image track).
 制御部37は、典型的には、ランダムアクセスの指示において指定されるタイミング(例えば、動画再生ウィンドウのシークバーの操作されたポインタが指し示すタイミング)の最も近傍に位置するCRAピクチャを、復号開始ピクチャとして特定する。 The control unit 37 typically uses a CRA picture located closest to the timing specified in the random access instruction (for example, the timing pointed to by the operated pointer of the seek bar of the moving image playback window) as the decoding start picture. Identify.
 制御部37は、CRA情報が上述した先行ピクチャ情報を含む場合に、先行ピクチャ情報を用いて識別される正常に復号されない先行ピクチャの出力バッファ35からの出力(及び復号部34による復号)をスキップさせてもよい。先行ピクチャ情報を用いることにより、破損した画像がディスプレイに表示され又は外部のプロセッサへ出力されることを回避することができる。その際、制御部37は、各画像が正常に復号されたか否かを事後的に判定しなくてよい。 When the CRA information includes the preceding picture information described above, the control unit 37 skips the output from the output buffer 35 (and decoding by the decoding unit 34) of the preceding picture identified using the preceding picture information and which is not normally decoded. You may let me. By using the preceding picture information, it is possible to prevent the damaged image from being displayed on the display or being output to an external processor. At that time, the control unit 37 does not have to determine ex post facto whether or not each image has been normally decoded.
 また、制御部37は、コマンドを画像符号化装置10の制御部16に送信することができる。 Further, the control unit 37 can transmit a command to the control unit 16 of the image coding device 10.
 ここで、図4を参照して、本実施の形態におけるTrick Playについて説明する。 Here, with reference to FIG. 4, TrickPlay in the present embodiment will be described.
 例えば、図4の上側には、再生プレイヤーのN倍速再生についての一例として、白抜きの矢印で示すように、M=3 GOP構造のNon-referenceピクチャのデコードを飛ばしで3倍再生する例が示されている。このようなN倍速再生が行われるときに、例えば、カレントピクチャが RefおよびNon-Refのどちらでデコードするかということを判断することが求められる。 For example, on the upper side of FIG. 4, as an example of Nx speed playback of a playback player, as shown by a white arrow, there is an example of skipping decoding of a Non-reference picture having an M = 3 GOP structure and playing it 3 times. It is shown. When such N-fold speed reproduction is performed, it is required to determine, for example, whether the current picture is decoded by Ref or Non-Ref.
 また、図4の下側には、再生プレイヤーのランダムアクセスと逆再生についての一例として、白抜きの矢印で示すように、1GOP分のRefピクチャのデコード画を格納した逆再生の例が示されている。このようなランダムアクセスして逆再生が行われるときに、例えば、カレントピクチャが RefかNon-Refかでデコードして格納するかということを判断することが求められる。 Further, in the lower part of FIG. 4, as an example of random access and reverse playback of the playback player, an example of reverse playback in which a decoded image of a Ref picture for 1 GOP is stored is shown as shown by a white arrow. ing. When such random access is performed and reverse playback is performed, it is required to determine, for example, whether the current picture is decoded and stored by Ref or Non-Ref.
 <ビットストリームの第1のバリエーション>
 図5乃至図15を参照して、ビットストリームの第1のバリエーションについて説明する。
<First variation of bitstream>
The first variation of the bitstream will be described with reference to FIGS. 5 to 15.
 図5に示すように、ビットストリームは、複数のアクセスユニット(AU:Access Unit)により構成され、それぞれ1フレームに対応するアクセスユニットには、少なくとも1つ以上のNALユニットが配置される。また、NALユニットには複数の種類があり、例えば、AUD(Access Unit Delimiter) NALユニットや、SPS(Sequence Parameter Set) NALユニット、PPS(Picture Parameter Set) NALユニット、Tile group NALユニットなどがある。 As shown in FIG. 5, the bit stream is composed of a plurality of access units (AU: AccessUnit), and at least one or more NAL units are arranged in the access units corresponding to one frame each. In addition, there are multiple types of NAL units, such as AUD (Access Unit Delimiter) NAL unit, SPS (Sequence Parameter Set) NAL unit, PPS (Picture Parameter Set) NAL unit, and Tile group NAL unit.
 AUD NALユニットは、アクセスユニットの区切りを示し、一般的には、各アクセスユニットの先頭に必ず1つだけ配置される。なお、現状のAUDには、アクセスユニット内の全てのTile group NALの属性を示すシンタックスが既に存在している。 The AUD NAL unit indicates the delimiter of access units, and in general, only one is always placed at the beginning of each access unit. The current AUD already has a syntax that indicates the attributes of all Tile group NALs in the access unit.
 SPS NALユニットには、ビットストリームの再生に必要なシーケンスパラメータが格納される。PPS NALユニットには、ピクチャの再生に必要なシーケンスパラメータが格納さる。Tile group NALユニットには、タイルグループごとの画像が格納される。 The SPS NAL unit stores the sequence parameters required for bitstream playback. The PPS NAL unit stores the sequence parameters required for picture playback. Images for each tile group are stored in the Tilegroup NAL unit.
 そして、ビットストリームの構成には、図示するような3つのケースが想定される。 And, in the configuration of the bit stream, three cases as shown in the figure are assumed.
 例えば、第1のケースでは、全てのアクセスユニットにおいて、1番目にAUD NALユニットが配置され、2番目にSPS NALユニットが配置され、3番目にPPS NALユニットが配置され、それ以降には連続的に、Tile group NALユニットが配置される。即ち、第1のケースでは、個々のアクセスユニットにSPS NALユニットおよびPPS NALユニットが付与されている。 For example, in the first case, in all access units, the AUD NAL unit is placed first, the SPS NAL unit is placed second, the PPS NAL unit is placed third, and so on. The Tile group NAL unit is placed in. That is, in the first case, the SPS NAL unit and the PPS NAL unit are assigned to the individual access units.
 また、第2のケースでは、先頭のアクセスユニットにおいて、1番目にAUD NALユニットが配置され、2番目にSPS NALユニットが配置され、3番目にPPS NALユニットが配置され、それ以降には連続的に、Tile group NALユニットが配置される。そして、2つ目以降のアクセスユニットにおいて、1番目にAUD NALユニットが配置され、2番目にPPS NALユニットが配置され、それ以降には連続的に、Tile group NALユニットが配置される。即ち、第2のケースでは、先頭のアクセスユニットにSPS NALユニットが付与されるとともに、個々のアクセスユニットにPPS NALユニットが付与されている。 In the second case, in the first access unit, the AUD NAL unit is placed first, the SPS NAL unit is placed second, the PPS NAL unit is placed third, and so on. The Tile group NAL unit is placed in. Then, in the second and subsequent access units, the AUD NAL unit is arranged first, the PPS NAL unit is arranged second, and the Tile group NAL unit is continuously arranged thereafter. That is, in the second case, the SPS NAL unit is given to the first access unit, and the PPS NAL unit is given to each access unit.
 また、第3のケースでは、先頭のアクセスユニットにおいて、1番目にAUD NALユニットが配置され、2番目にSPS NALユニットが配置され、3番目にPPS NALユニットが配置され、それ以降には連続的に、Tile group NALユニットが配置される。そして、2つ目以降のアクセスユニットにおいて、1番目にAUD NALユニットが配置され、それ以降には連続的に、Tile group NALユニットが配置される。即ち、第3のケースでは、先頭のアクセスユニットにのみ、SPS NALユニットおよびPPS NALユニットが付与されている。 Further, in the third case, in the first access unit, the AUD NAL unit is arranged first, the SPS NAL unit is arranged second, the PPS NAL unit is arranged third, and the subsequent access units are continuous. The Tile group NAL unit is placed in. Then, in the second and subsequent access units, the AUD NAL unit is arranged first, and the Tile group NAL unit is continuously arranged thereafter. That is, in the third case, the SPS NAL unit and the PPS NAL unit are assigned only to the first access unit.
 そして、ビットストリームの第1のバリエーションでは、第1乃至第3のケースのいずれにおいても、カレントフレームが将来に参照画像になるか否かの識別情報が、画像のビットストリームのAUD NALユニットに格納される点で、従来の構成から変更されている。例えば、アクセスユニット(アクセスユニット内の全てのTile group)が、referenceおよびnon-referenceのどちらであるかを示す識別情報のシンタックスが、AUD NALユニット内で設定されている。このように、アクセスユニットのヘッダ領域にあるAUD NALユニットに識別情報を配置して、その識別情報をアクセスユニット内の全てのTile group NALユニットに対して適用することで、Tile group毎に識別情報を格納するときと比べて冗長となることや処理が煩雑になること、符号化効率に悪影響を及ぼすことなどを回避することができる。 Then, in the first variation of the bitstream, in any of the first to third cases, the identification information of whether or not the current frame becomes the reference image in the future is stored in the AUDNAL unit of the bitstream of the image. In that respect, it has been changed from the conventional configuration. For example, the syntax of the identification information indicating whether the access unit (all Tile groups in the access unit) is reference or non-reference is set in the AUD NAL unit. In this way, by arranging the identification information in the AUD NAL unit in the header area of the access unit and applying the identification information to all the Tile group NAL units in the access unit, the identification information is applied to each Tile group. It is possible to avoid the fact that it becomes redundant, the processing becomes complicated, and the coding efficiency is adversely affected as compared with the case of storing.
 具体的には、図6には、ビットストリームの第1のバリエーションにおけるAUD NALのシンタックスの第1の記述例が示されている。 Specifically, FIG. 6 shows a first description example of the AUDNAL syntax in the first variation of the bitstream.
 例えば、図6の下側に示すシンタックスのように、pic_typeのsyntaxが拡張され、アクセスユニット内の全てのTile groupが、referenceおよびnon-referenceのどちらであるかを示す識別情報が追加されている。このとき、図6の上側に示すように、AUD NALユニット内のpic_typeの定義が変更される。 For example, as shown in the syntax shown at the bottom of FIG. 6, the syntax of pic_type has been expanded, and identification information indicating whether all Tile groups in the access unit are reference or non-reference has been added. There is. At this time, as shown in the upper part of FIG. 6, the definition of pic_type in the AUD NAL unit is changed.
 また、図7には、ビットストリームの第1のバリエーションにおけるAUD NALのシンタックスの第2の記述例が示されている。 Further, FIG. 7 shows a second description example of the AUDNAL syntax in the first variation of the bitstream.
 図示するシンタックスのように、AUD NALユニット内のref_pic_flagが、アクセスユニット内の全てのTile groupが、referenceおよびnon-referenceのどちらであるかを示す1bitの識別情報として追加されている。 As shown in the syntax shown, the ref_pic_flag in the AUDNAL unit is added as 1-bit identification information indicating whether all Tile groups in the access unit are reference or non-reference.
 図8に示すフローチャートを参照して、ビットストリームの第1のバリエーションを適用したときに、画像符号化装置10が実行する画像符号化処理において行われるファイル生成処理の一例について説明する。 An example of a file generation process performed in the image coding process executed by the image coding device 10 when the first variation of the bit stream is applied will be described with reference to the flowchart shown in FIG.
 例えば、画像シーケンスが画像符号化装置10に供給されるとファイル生成処理が開始され、ステップS11において、符号化部11は、画像シーケンスから生成すべきNALユニットがあるか否かを判定する。 For example, when the image sequence is supplied to the image coding device 10, the file generation process is started, and in step S11, the coding unit 11 determines whether or not there is an NAL unit to be generated from the image sequence.
 ステップS11において、符号化部11が、画像シーケンスから生成すべきNALユニットがあると判定した場合、処理はステップS12に進む。 If the coding unit 11 determines in step S11 that there is an NAL unit to be generated from the image sequence, the process proceeds to step S12.
 ステップS12において、符号化部11は、画像シーケンスから生成すべきNALユニットがAUD NALユニットであるか否かを判定する。 In step S12, the coding unit 11 determines whether or not the NAL unit to be generated from the image sequence is an AUD NAL unit.
 ステップS12において、符号化部11が、画像シーケンスから生成すべきNALユニットがAUD NALユニットであると判定した場合、処理はステップS13に進む。そして、ステップS13において、符号化部11は、AUD符号化処理を行って、識別情報を含むAUD NALユニットを生成し、非VCLバッファ14を介してファイル生成部15に供給した後、処理はステップS11に戻り、以下、同様の処理が繰り返して行われる。一方、ステップS12において、符号化部11が、画像シーケンスから生成すべきNALユニットがAUD NALユニットでないと判定した場合、処理はステップS14に進む。 If the coding unit 11 determines in step S12 that the NAL unit to be generated from the image sequence is the AUD NAL unit, the process proceeds to step S13. Then, in step S13, the coding unit 11 performs AUD coding processing to generate an AUD NAL unit containing the identification information, supplies the AUD NAL unit including the identification information to the file generation unit 15 via the non-VCL buffer 14, and then the processing is performed in step S13. Returning to S11, the same process is repeated thereafter. On the other hand, if the coding unit 11 determines in step S12 that the NAL unit to be generated from the image sequence is not the AUD NAL unit, the process proceeds to step S14.
 ステップS14において、符号化部11は、画像シーケンスから生成すべきNALユニットがTile group NALユニットであるか否かを判定する。 In step S14, the coding unit 11 determines whether or not the NAL unit to be generated from the image sequence is the Tile group NAL unit.
 ステップS14において、符号化部11が、画像シーケンスから生成すべきNALユニットがTile group NALユニットであると判定した場合、処理はステップS15に進む。そして、ステップS15において、符号化部11は、Tile group符号化処理を行ってTile group NALユニットを生成し、VCLバッファ13を介してファイル生成部15に供給した後、処理はステップS11に戻り、以下、同様の処理が繰り返して行われる。一方、ステップS14において、符号化部11が、画像シーケンスから生成すべきNALユニットがTile group NALユニットでないと判定した場合、処理はステップS16に進む。 If the coding unit 11 determines in step S14 that the NAL unit to be generated from the image sequence is the Tile group NAL unit, the process proceeds to step S15. Then, in step S15, the coding unit 11 performs the Tile group coding process to generate the Tile group NAL unit, supplies the Tile group NAL unit to the file generation unit 15 via the VCL buffer 13, and then returns to step S11. Hereinafter, the same process is repeated. On the other hand, if the coding unit 11 determines in step S14 that the NAL unit to be generated from the image sequence is not the Tile group NAL unit, the process proceeds to step S16.
 ステップS16において、符号化部11は、AUD NALユニットおよびTile group NALユニット以外の他のNALユニットを符号化する符号化処理を行った後、処理はステップS11に戻り、以下、同様の処理が繰り返して行われる。 In step S16, the coding unit 11 performs a coding process for encoding other NAL units other than the AUD NAL unit and the Tile group NAL unit, and then returns to step S11, and the same process is repeated thereafter. Is done.
 一方、ステップS11において、符号化部11が、画像シーケンスから生成すべきNALユニットがないと判定した場合、ファイル生成処理は終了される。 On the other hand, in step S11, when the coding unit 11 determines that there is no NAL unit to be generated from the image sequence, the file generation process is terminated.
 図9は、図8のステップS13において行われるAUD符号化処理を説明するフローチャートである。なお、このAUD符号化処理は、図6に示した第1の記述例でシンタックスが記述される場合の処理である。 FIG. 9 is a flowchart illustrating the AUD coding process performed in step S13 of FIG. Note that this AUD coding process is a process when the syntax is described in the first description example shown in FIG.
 ステップS21において、符号化部11は、ref_pic_flag情報を含めたpic_typeを設定する処理を行う。 In step S21, the encoding unit 11 performs a process of setting the pic_type including the ref_pic_flag information.
 ステップS22において、符号化部11は、フレーム(アクセスユニット)を区切るフレーム区切り処理を行うことによってAUD NALユニットを生成した後、AUD符号化処理は終了される。 In step S22, the coding unit 11 generates an AUD NAL unit by performing a frame delimiter process for dividing a frame (access unit), and then the AUD coding process is terminated.
 図10は、図8のステップS13において行われるAUD符号化処理を説明するフローチャートである。なお、このAUD符号化処理は、図7に示した第2の記述例でシンタックスが記述される場合の処理である。 FIG. 10 is a flowchart illustrating the AUD coding process performed in step S13 of FIG. Note that this AUD coding process is a process when the syntax is described in the second description example shown in FIG. 7.
 ステップS31において、符号化部11は、pic_typeを設定する処理を行う。 In step S31, the coding unit 11 performs a process of setting the pic_type.
 ステップS32において、符号化部11は、ref_pic_flag情報を設定する処理を行う。 In step S32, the encoding unit 11 performs a process of setting ref_pic_flag information.
 ステップS33において、符号化部11は、フレーム(アクセスユニット)を区切るフレーム区切り処理を行うことによってAUD NALユニットを生成した後、AUD符号化処理は終了される。 In step S33, the coding unit 11 generates an AUD NAL unit by performing a frame delimiter process for dividing a frame (access unit), and then the AUD coding process is terminated.
 図11は、図7のステップS15において行われるTile group符号化処理を説明するフローチャートである。 FIG. 11 is a flowchart illustrating the Tile group coding process performed in step S15 of FIG. 7.
 ステップS41において、符号化部11は、AUD NALユニットに対して設定したref_pic_flag情報を参照する。 In step S41, the encoding unit 11 refers to the ref_pic_flag information set for the AUD NAL unit.
 ステップS42において、符号化部11は、ref_pic_flag情報に1が設定されているか否かを判定する。 In step S42, the encoding unit 11 determines whether or not 1 is set in the ref_pic_flag information.
 ステップS42において、符号化部11が、ref_pic_flag情報に1が設定されていると判定した場合、処理はステップS43に進む。ステップS43において、符号化部11は、カレントフレームが参照フレームであるときの符号化処理によりTile group NALユニットを符号化した後、Tile group符号化処理は終了される。 If the coding unit 11 determines in step S42 that 1 is set in the ref_pic_flag information, the process proceeds to step S43. In step S43, the coding unit 11 encodes the Tile group NAL unit by the coding process when the current frame is a reference frame, and then the Tile group coding process ends.
 一方、ステップS42において、符号化部11が、ref_pic_flag情報に1が設定されていない(1以外が設定されている)と判定した場合、処理はステップS44に進む。ステップS44において、符号化部11は、カレントフレームが非参照フレームであるときの符号化処理によりTile group NALユニットを符号化した後、Tile group符号化処理は終了される。 On the other hand, if the coding unit 11 determines in step S42 that 1 is not set in the ref_pic_flag information (other than 1 is set), the process proceeds to step S44. In step S44, the coding unit 11 encodes the Tile group NAL unit by the coding process when the current frame is a non-reference frame, and then the Tile group coding process ends.
 以上のようなファイル生成処理によって、画像符号化装置10は、識別情報が配置されたAUD NALユニットを生成し、上述の図5を参照して説明したようなビットストリームからなる動画ファイルを生成すること、即ち、少なくとも1つ以上のNALユニットが配置されるアクセスユニットからなるビットストリームの画像を符号化することができる。 By the file generation process as described above, the image encoding device 10 generates an AUD NAL unit in which the identification information is arranged, and generates a moving image file composed of a bit stream as described with reference to FIG. 5 above. That is, it is possible to encode an image of a bitstream consisting of access units in which at least one or more NAL units are located.
 図12に示すフローチャートを参照して、ビットストリームの第1のバリエーションを適用したときに、画像復号装置30が実行する画像復号処理におけるファイルデコード処理の一例について説明する。 An example of a file decoding process in the image decoding process executed by the image decoding device 30 when the first variation of the bit stream is applied will be described with reference to the flowchart shown in FIG.
 例えば、画像復号装置30が記憶部20に記憶されているビットストリームを読み出すと処理が開始され、ステップS51において、復号部34は、ビットストリームから復号すべきNALユニットがあるか否かを判定する。 For example, when the image decoding device 30 reads out the bit stream stored in the storage unit 20, the process is started, and in step S51, the decoding unit 34 determines whether or not there is an NAL unit to be decoded from the bit stream. ..
 ステップS51において、復号部34が、ビットストリームから復号すべきNALユニットがあると判定した場合、処理はステップS52に進む。 If the decoding unit 34 determines in step S51 that there is an NAL unit to be decoded from the bit stream, the process proceeds to step S52.
 ステップS52において、復号部34は、ビットストリームから復号すべきNALユニットがAUD NALユニットであるか否かを判定する。 In step S52, the decoding unit 34 determines whether or not the NAL unit to be decoded from the bit stream is an AUD NAL unit.
 ステップS52において、復号部34が、ビットストリームから復号すべきNALユニットがAUD NALユニットであると判定した場合、処理はステップS53に進む。そして、ステップS53において、復号部34は、AUD復号処理を行って、AUD NALユニットを復号することにより取得した識別情報をパラメータメモリ33に供給した後、処理はステップS51に戻り、以下、同様の処理が繰り返して行われる。一方、ステップS52において、復号部34が、ビットストリームから復号すべきNALユニットがAUD NALユニットでないと判定した場合、処理はステップS54に進む。 If the decoding unit 34 determines in step S52 that the NAL unit to be decoded from the bit stream is the AUD NAL unit, the process proceeds to step S53. Then, in step S53, the decoding unit 34 performs the AUD decoding process, supplies the identification information acquired by decoding the AUD NAL unit to the parameter memory 33, and then returns to step S51, and so on. The process is repeated. On the other hand, in step S52, when the decoding unit 34 determines that the NAL unit to be decoded from the bit stream is not the AUD NAL unit, the process proceeds to step S54.
 ステップS54において、復号部34は、ビットストリームから復号すべきNALユニットがTile group NALユニットであるか否かを判定する。 In step S54, the decoding unit 34 determines whether or not the NAL unit to be decoded from the bit stream is the Tile group NAL unit.
 ステップS54において、復号部34が、ビットストリームから復号すべきNALユニットがTile group NALユニットであると判定した場合、処理はステップS55に進む。そして、ステップS55において、復号部34は、Tile group復号処理を行ってTile group NALユニットを復号して得られる画像を出力バッファ35に供給した後、処理はステップS51に戻り、以下、同様の処理が繰り返して行われる。一方、ステップS54において、復号部34が、ビットストリームから復号すべきNALユニットがTile group NALユニットでないと判定した場合、処理はステップS56に進む。 If the decoding unit 34 determines in step S54 that the NAL unit to be decoded from the bit stream is the Tile group NAL unit, the process proceeds to step S55. Then, in step S55, the decoding unit 34 performs the Tile group decoding process and supplies the image obtained by decoding the Tile group NAL unit to the output buffer 35, and then returns to step S51, and the same process is performed thereafter. Is repeated. On the other hand, in step S54, when the decoding unit 34 determines that the NAL unit to be decoded from the bit stream is not the Tile group NAL unit, the process proceeds to step S56.
 ステップS56において、復号部34は、AUD NALユニットおよびTile group NALユニット以外の他のNALユニットを復号する復号処理を行った後、処理はステップS51に戻り、以下、同様の処理が繰り返して行われる。 In step S56, the decoding unit 34 performs a decoding process for decoding other NAL units other than the AUD NAL unit and the Tile group NAL unit, and then returns to step S51, and the same process is repeated thereafter. ..
 一方、ステップS51において、復号部34が、ビットストリームから復号すべきNALユニットがないと判定した場合、ファイルデコード処理は終了される。 On the other hand, in step S51, when the decoding unit 34 determines that there is no NAL unit to be decoded from the bit stream, the file decoding process is terminated.
 図13は、図12のステップS53において行われるAUD復号処理を説明するフローチャートである。なお、このAUD復号処理は、図6に示した第1の記述例でシンタックスが記述される場合の処理である。 FIG. 13 is a flowchart illustrating the AUD decoding process performed in step S53 of FIG. Note that this AUD decoding process is a process when the syntax is described in the first description example shown in FIG.
 ステップS61において、復号部34は、AUD NALユニットに設定されているpic_typeからref_pic_flag情報を取得する。 In step S61, the decoding unit 34 acquires ref_pic_flag information from the pic_type set in the AUD NAL unit.
 ステップS62において、復号部34は、フレーム(アクセスユニット)を区切るフレーム区切り処理を行うことによりAUD NALユニットを復号した後、AUD復号処理は終了される。 In step S62, the decoding unit 34 decodes the AUD NAL unit by performing a frame delimiter process for dividing the frame (access unit), and then the AUD decoding process is terminated.
 図14は、図12のステップS53において行われるAUD復号処理を説明するフローチャートである。なお、このAUD復号処理は、図7に示した第2の記述例でシンタックスが記述される場合の処理である。 FIG. 14 is a flowchart illustrating the AUD decoding process performed in step S53 of FIG. Note that this AUD decoding process is a process when the syntax is described in the second description example shown in FIG. 7.
 ステップS71において、復号部34は、AUD NALユニットに設定されているpic_typeを取得する。 In step S71, the decoding unit 34 acquires the pic_type set in the AUD NAL unit.
 ステップS72において、復号部34は、AUD NALユニットに設定されているref_pic_flag情報を取得する。 In step S72, the decoding unit 34 acquires the ref_pic_flag information set in the AUD NAL unit.
 ステップS73において、復号部34は、フレーム(アクセスユニット)を区切るフレーム区切り処理を行うことによりAUD NALユニットを復号した後、AUD復号処理は終了される。 In step S73, the decoding unit 34 decodes the AUD NAL unit by performing a frame delimiter process for dividing the frame (access unit), and then the AUD decoding process is terminated.
 図15は、図12のステップS55において行われるTile group復号処理を説明するフローチャートである。 FIG. 15 is a flowchart illustrating the Tile group decoding process performed in step S55 of FIG.
 ステップS81において、復号部34は、AUD NALユニットに対して設定されているref_pic_flag情報を参照する。 In step S81, the decoding unit 34 refers to the ref_pic_flag information set for the AUD NAL unit.
 ステップS82において、復号部34は、ref_pic_flag情報に1が設定されているか否かを判定する。 In step S82, the decoding unit 34 determines whether or not 1 is set in the ref_pic_flag information.
 ステップS82において、復号部34が、ref_pic_flag情報に1が設定されていると判定した場合、処理はステップS83に進む。ステップS83において、復号部34は、カレントフレームが参照フレームであるときの復号処理によりTile group NALユニットを復号した後、Tile group復号処理は終了される。 If the decoding unit 34 determines in step S82 that 1 is set in the ref_pic_flag information, the process proceeds to step S83. In step S83, the decoding unit 34 decodes the Tile group NAL unit by the decoding process when the current frame is the reference frame, and then the Tile group decoding process is terminated.
 一方、ステップS82において、復号部34が、ref_pic_flag情報に1が設定されていない(1以外が設定されている)と判定した場合、処理はステップS84に進む。ステップS44において、復号部34は、カレントフレームが非参照フレームであるときの復号処理によりTile group NALユニットを復号した後、Tile group復号処理は終了される。 On the other hand, if the decoding unit 34 determines in step S82 that 1 is not set in the ref_pic_flag information (other than 1 is set), the process proceeds to step S84. In step S44, the decoding unit 34 decodes the Tile group NAL unit by the decoding process when the current frame is a non-reference frame, and then the Tile group decoding process is terminated.
 以上のように、画像復号装置30は、AUD NALユニットに対して設定されているref_pic_flag情報に従って画像を復号すること、即ち、少なくとも1つ以上のNALユニットが配置されるアクセスユニットからなるビットストリームの画像を復号することができる。 As described above, the image decoding device 30 decodes the image according to the ref_pic_flag information set for the AUD NAL unit, that is, the bit stream composed of the access unit in which at least one or more NAL units are arranged. The image can be decoded.
 <ビットストリームの第2のバリエーション>
 図16乃至図23を参照して、ビットストリームの第2のバリエーションについて説明する。
<Second variation of bitstream>
A second variation of the bitstream will be described with reference to FIGS. 16 to 23.
 図16に示すように、ビットストリームは、上述の図5を参照して説明したのと同様に、複数のアクセスユニットにより構成され、それぞれのアクセスユニットには、少なくとも1つ以上のNALユニットが配置される。また、ビットストリームの第1のバリエーション(図5参照)と同様に、ビットストリームの構成には、図16に示すような3つのケースが想定される。 As shown in FIG. 16, the bitstream is composed of a plurality of access units as described with reference to FIG. 5 above, and each access unit is provided with at least one NAL unit. Will be done. Further, as in the case of the first variation of the bitstream (see FIG. 5), three cases as shown in FIG. 16 are assumed in the configuration of the bitstream.
 そして、ビットストリームの第2のバリエーションでは、NALユニットとして、AUD NALユニット、SPS NALユニット、PPS NALユニット、およびTile group NALユニットの他に、NEW NALユニットが用いられる。 Then, in the second variation of the bitstream, the NEW NAL unit is used as the NAL unit in addition to the AUD NAL unit, SPS NAL unit, PPS NAL unit, and Tile group NAL unit.
 例えば、第1のケースは、全てのアクセスユニットにおいて、1番目にAUD NALユニットが配置され、2番目にSPS NALユニットが配置され、3番目にPPS NALユニットが配置され、4番目にNEW NALユニットが配置され、それ以降には連続的に、Tile group NALユニットが配置される。即ち、第1のケースでは、個々のアクセスユニットにSPS NALユニットおよびPPS NALユニットが付与されており、さらにNEW NALユニットが付与されている。 For example, in the first case, in all access units, the AUD NAL unit is placed first, the SPS NAL unit is placed second, the PPS NAL unit is placed third, and the NEW NAL unit is placed fourth. Is placed, and after that, the Tile group NAL unit is placed continuously. That is, in the first case, the SPS NAL unit and the PPS NAL unit are given to the individual access units, and the NEW NAL unit is further given.
 また、第2のケースは、先頭のアクセスユニットにおいて、1番目にAUD NALユニットが配置され、2番目にSPS NALユニットが配置され、3番目にPPS NALユニットが配置され、4番目にNEW NALユニットが配置され、それ以降には連続的に、Tile group NALユニットが配置される。そして、2つ目以降のアクセスユニットにおいて、1番目にAUD NALユニットが配置され、2番目にPPS NALユニットが配置され、3番目にNEW NALユニットが配置され、それ以降には連続的に、Tile group NALユニットが配置される。即ち、第2のケースでは、先頭のアクセスユニットにSPS NALユニットが付与されるとともに、個々のアクセスユニットにPPS NALユニットが付与されており、さらにNEW NALユニットが付与されている。 In the second case, in the first access unit, the AUD NAL unit is placed first, the SPS NAL unit is placed second, the PPS NAL unit is placed third, and the NEW NAL unit is placed fourth. Is placed, and after that, the Tile group NAL unit is placed continuously. Then, in the second and subsequent access units, the AUD NAL unit is arranged first, the PPS NAL unit is arranged second, the NEW NAL unit is arranged third, and Tile is continuously arranged thereafter. group NAL unit is placed. That is, in the second case, the SPS NAL unit is given to the first access unit, the PPS NAL unit is given to each access unit, and the NEW NAL unit is further given.
 また、第3のケースは、先頭のアクセスユニットにおいて、1番目にAUD NALユニットが配置され、2番目にSPS NALユニットが配置され、3番目にPPS NALユニットが配置され、4番目にNEW NALユニットが配置され、それ以降には連続的に、Tile group NALユニットが配置される。そして、2つ目以降のアクセスユニットにおいて、1番目にAUD NALユニットが配置され、2番目にNEW NALユニットが配置され、それ以降には連続的に、Tile group NALユニットが配置される。即ち、第3のケースでは、先頭のアクセスユニットにのみ、SPS NALユニットおよびPPS NALユニットが付与されるとともに、個々のアクセスユニットにNEW NALユニットが付与されている。 In the third case, in the first access unit, the AUD NAL unit is arranged first, the SPS NAL unit is arranged second, the PPS NAL unit is arranged third, and the NEW NAL unit is arranged fourth. Is placed, and after that, the Tile group NAL unit is placed continuously. Then, in the second and subsequent access units, the AUD NAL unit is arranged first, the NEW NAL unit is arranged second, and the Tile group NAL unit is continuously arranged thereafter. That is, in the third case, the SPS NAL unit and the PPS NAL unit are given only to the first access unit, and the NEW NAL unit is given to each access unit.
 そして、ビットストリームの第2のバリエーションでは、第1乃至第3のケースのいずれにおいても、カレントフレームが将来に参照画像になるか否かの識別情報が、画像のビットストリームのNEW NALユニットに格納される点で、従来の構成から変更されている。即ち、Ref/non-ref を示す識別情報の syntaxが、各アクセスユニットの先頭に必ず一つだけ置くNEW NALユニット内で設定されている。このように、アクセスユニットのヘッダ領域にあるNEW NALユニット(識別用のNALユニット)に識別情報を配置して、その識別情報をアクセスユニット内の全てのTile group NALユニットに対して適用することで、Tile group毎に識別情報を格納するときと比べて冗長となることや処理が煩雑になること、符号化効率に悪影響を及ぼすことなどを回避することができる。 Then, in the second variation of the bitstream, in any of the first to third cases, the identification information of whether or not the current frame becomes the reference image in the future is stored in the NEW NAL unit of the bitstream of the image. In that respect, it has been changed from the conventional configuration. That is, the syntax of the identification information indicating Ref / non-ref is set in the NEW NAL unit, which is always placed at the beginning of each access unit. In this way, by arranging the identification information in the NEW NAL unit (NAL unit for identification) in the header area of the access unit and applying the identification information to all the Tile group NAL units in the access unit. , It is possible to avoid redundancy, complicated processing, and adverse effect on coding efficiency as compared with the case of storing identification information for each Tile group.
 具体的には、図17には、ビットストリームの第2のバリエーションにおけるNEW NALユニットのシンタックスの記述例が示されている。 Specifically, FIG. 17 shows a description example of the syntax of the NEW NAL unit in the second variation of the bitstream.
 例えば、NEW NALのシンタックスでは、AUD NALユニット内のref_pic_flagが、アクセスユニット内の全てのTile groupが、referenceおよびnon-referenceのどちらであるかを示す識別情報が設定されている。 For example, in the NEW NAL syntax, the ref_pic_flag in the AUD NAL unit is set with identification information indicating whether all Tile groups in the access unit are reference or non-reference.
 図18に示すフローチャートを参照して、ビットストリームの第2のバリエーションを適用したときに、画像符号化装置10が実行する画像符号化処理において行われるファイル生成処理の一例について説明する。 An example of a file generation process performed in the image coding process executed by the image coding apparatus 10 when the second variation of the bit stream is applied will be described with reference to the flowchart shown in FIG.
 ステップS101乃至S103において、上述の図8のフローチャートを参照して説明したステップS11乃至S13と同様の処理が行われる。そして、ステップS104において、符号化部11は、画像シーケンスから生成すべきNALユニットがNEW NALユニットであるか否かを判定する。 In steps S101 to S103, the same processing as in steps S11 to S13 described with reference to the flowchart of FIG. 8 described above is performed. Then, in step S104, the coding unit 11 determines whether or not the NAL unit to be generated from the image sequence is the NEW NAL unit.
 ステップS104において、符号化部11が、画像シーケンスから生成すべきNALユニットがNEW NALユニットであると判定した場合、処理はステップS105に進む。そして、ステップS105において、符号化部11は、NEW符号化処理を行って、識別情報を含むNEW NALユニットを生成し、非VCLバッファ14を介してファイル生成部15に供給した後、処理はステップS101に戻り、以下、同様の処理が繰り返して行われる。一方、ステップS104において、符号化部11が、画像シーケンスから生成すべきNALユニットがNEW NALユニットでないと判定した場合、処理はステップS106に進む。 If the coding unit 11 determines in step S104 that the NAL unit to be generated from the image sequence is the NEW NAL unit, the process proceeds to step S105. Then, in step S105, the coding unit 11 performs a NEW coding process to generate a NEW NAL unit containing the identification information, supplies the file to the file generation unit 15 via the non-VCL buffer 14, and then the process steps. Returning to S101, the same process is repeated thereafter. On the other hand, in step S104, when the coding unit 11 determines that the NAL unit to be generated from the image sequence is not the NEW NAL unit, the process proceeds to step S106.
 そして、ステップS106乃至108において、上述の図8のフローチャートを参照して説明したステップS14乃至S16と同様の処理が行われた後、ファイル生成処理は終了される。 Then, in steps S106 to 108, after the same processing as in steps S14 to S16 described with reference to the flowchart of FIG. 8 described above is performed, the file generation processing is terminated.
 図19は、図18のステップS105において行われるNEW符号化処理を説明するフローチャートである。 FIG. 19 is a flowchart illustrating the NEW coding process performed in step S105 of FIG.
 ステップS111において、符号化部11は、識別情報としてref_pic_flagを設定してNEW NALユニットを生成した後、NEW符号化処理は終了される。 In step S111, the coding unit 11 sets ref_pic_flag as identification information to generate a NEW NAL unit, and then the NEW coding process is terminated.
 図20は、図18のステップS107において行われるTile group符号化処理を説明するフローチャートである。 FIG. 20 is a flowchart illustrating the Tile group coding process performed in step S107 of FIG.
 ステップS121において、符号化部11は、NEW NALユニットに対して設定したref_pic_flag情報を参照する。 In step S121, the encoding unit 11 refers to the ref_pic_flag information set for the NEW NAL unit.
 その後、ステップS122乃至S124において、上述の図11のフローチャートを参照して説明したステップS42乃至S44と同様の処理が行われた後、Tile group符号化処理は終了される。 After that, in steps S122 to S124, the same processing as in steps S42 to S44 described with reference to the flowchart of FIG. 11 described above is performed, and then the Tile group coding process is terminated.
 以上のようなファイル生成処理によって、画像符号化装置10は、識別情報が配置されたNEW NALユニットを生成し、上述の図5を参照して説明したようなビットストリームからなる動画ファイルを生成すること、即ち、少なくとも1つ以上のNALユニットが配置されるアクセスユニットからなるビットストリームの画像を符号化することができる。 By the file generation process as described above, the image encoding device 10 generates a NEW NAL unit in which the identification information is arranged, and generates a moving image file composed of a bit stream as described with reference to FIG. 5 above. That is, it is possible to encode an image of a bitstream consisting of access units in which at least one or more NAL units are located.
 図21に示すフローチャートを参照して、ビットストリームの第2のバリエーションを適用したときに、画像復号装置30が実行する画像復号処理におけるファイルデコード処理の一例について説明する。 An example of a file decoding process in the image decoding process executed by the image decoding device 30 when the second variation of the bit stream is applied will be described with reference to the flowchart shown in FIG.
 ステップS131乃至S133において、上述の図12のフローチャートを参照して説明したステップS51乃至S53と同様の処理が行われる。そして、ステップS134において、復号部34は、ビットストリームから復号すべきNALユニットがNEW NALユニットであるか否かを判定する。 In steps S131 to S133, the same processing as steps S51 to S53 described with reference to the flowchart of FIG. 12 described above is performed. Then, in step S134, the decoding unit 34 determines whether or not the NAL unit to be decoded from the bit stream is a NEW NAL unit.
 ステップS134において、復号部34が、ビットストリームから復号すべきNALユニットがNEW NALユニットであると判定した場合、処理はステップS135に進む。そして、ステップS135において、復号部34は、NEW復号処理を行って、NEW NALユニットを復号することにより取得した識別情報をパラメータメモリ33に供給した後、処理はステップS131に戻り、以下、同様の処理が繰り返して行われる。一方、ステップS134において、復号部34が、ビットストリームから復号すべきNALユニットがNEW NALユニットでないと判定した場合、処理はステップS136に進む。 If the decoding unit 34 determines in step S134 that the NAL unit to be decoded from the bit stream is the NEW NAL unit, the process proceeds to step S135. Then, in step S135, the decoding unit 34 performs a NEW decoding process, supplies the identification information acquired by decoding the NEW NAL unit to the parameter memory 33, and then returns to step S131, and so on. The process is repeated. On the other hand, if the decoding unit 34 determines in step S134 that the NAL unit to be decoded from the bit stream is not the NEW NAL unit, the process proceeds to step S136.
 そして、ステップS136乃至138において、上述の図12のフローチャートを参照して説明したステップS54乃至S56と同様の処理が行われた後、ファイルデコード処理は終了される。 Then, in steps S136 to 138, the file decoding process is terminated after the same processing as in steps S54 to S56 described with reference to the flowchart of FIG. 12 described above is performed.
 図22は、図21のステップS135において行われるNEW復号処理を説明するフローチャートである。 FIG. 22 is a flowchart illustrating the NEW decoding process performed in step S135 of FIG. 21.
 ステップS141において、復号部34は、NEW NALユニットに設定されているpic_typeを取得する。その後、NEW復号処理は終了される。 In step S141, the decoding unit 34 acquires the pic_type set in the NEW NAL unit. After that, the NEW decryption process is terminated.
 図23は、図21のステップS137において行われるTile group復号処理を説明するフローチャートである。 FIG. 23 is a flowchart illustrating the Tile group decoding process performed in step S137 of FIG. 21.
 ステップS151において、復号部34は、NEW NALユニットに対して設定されているref_pic_flag情報を参照する。 In step S151, the decoding unit 34 refers to the ref_pic_flag information set for the NEW NAL unit.
 その後、ステップS152乃至S154において、上述の図15のフローチャートを参照して説明したステップS82乃至S84と同様の処理が行われた後、Tile group復号処理は終了される。 After that, in steps S152 to S154, the same processing as in steps S82 to S84 described with reference to the flowchart of FIG. 15 described above is performed, and then the Tile group decoding process is terminated.
 以上のように、画像復号装置30は、NEW NALユニットに対して設定されているref_pic_flag情報に従って画像を復号すること、即ち、少なくとも1つ以上のNALユニットが配置されるアクセスユニットからなるビットストリームの画像を復号することができる。 As described above, the image decoding device 30 decodes the image according to the ref_pic_flag information set for the NEW NAL unit, that is, the bit stream composed of the access unit in which at least one or more NAL units are arranged. The image can be decoded.
 <コンピュータの構成例>
 次に、上述した一連の処理(画像復号方法および画像符号化方法)は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。
<Computer configuration example>
Next, the series of processes (image decoding method and image coding method) described above can be performed by hardware or software. When a series of processes is performed by software, the programs constituting the software are installed on a general-purpose computer or the like.
 図24は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示すブロック図である。 FIG. 24 is a block diagram showing a configuration example of an embodiment of a computer on which a program for executing the above-mentioned series of processes is installed.
 プログラムは、コンピュータに内蔵されている記録媒体としてのハードディスク105やROM103に予め記録しておくことができる。 The program can be recorded in advance on the hard disk 105 or ROM 103 as a recording medium built in the computer.
 あるいはまた、プログラムは、ドライブ109によって駆動されるリムーバブル記録媒体111に格納(記録)しておくことができる。このようなリムーバブル記録媒体111は、いわゆるパッケージソフトウェアとして提供することができる。ここで、リムーバブル記録媒体111としては、例えば、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリ等がある。 Alternatively, the program can be stored (recorded) in the removable recording medium 111 driven by the drive 109. Such a removable recording medium 111 can be provided as so-called package software. Here, examples of the removable recording medium 111 include a flexible disk, a CD-ROM (Compact Disc Read Only Memory), an MO (Magneto Optical) disk, a DVD (Digital Versatile Disc), a magnetic disk, and a semiconductor memory.
 なお、プログラムは、上述したようなリムーバブル記録媒体111からコンピュータにインストールする他、通信網や放送網を介して、コンピュータにダウンロードし、内蔵するハードディスク105にインストールすることができる。すなわち、プログラムは、例えば、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送することができる。 In addition to installing the program on the computer from the removable recording medium 111 as described above, the program can be downloaded to the computer via a communication network or a broadcasting network and installed on the built-in hard disk 105. That is, for example, the program transfers wirelessly from a download site to a computer via an artificial satellite for digital satellite broadcasting, or transfers to a computer by wire via a network such as LAN (Local Area Network) or the Internet. be able to.
 コンピュータは、CPU(Central Processing Unit)102を内蔵しており、CPU102には、バス101を介して、入出力インタフェース110が接続されている。 The computer includes a CPU (Central Processing Unit) 102, and an input/output interface 110 is connected to the CPU 102 via a bus 101.
 CPU102は、入出力インタフェース110を介して、ユーザによって、入力部107が操作等されることにより指令が入力されると、それに従って、ROM(Read Only Memory)103に格納されているプログラムを実行する。あるいは、CPU102は、ハードディスク105に格納されたプログラムを、RAM(Random Access Memory)104にロードして実行する。 When a command is input by the user by operating the input unit 107 or the like via the input / output interface 110, the CPU 102 executes a program stored in the ROM (Read Only Memory) 103 accordingly. .. Alternatively, the CPU 102 loads the program stored in the hard disk 105 into the RAM (Random Access Memory) 104 and executes it.
 これにより、CPU102は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う。そして、CPU102は、その処理結果を、必要に応じて、例えば、入出力インタフェース110を介して、出力部106から出力、あるいは、通信部108から送信、さらには、ハードディスク105に記録等させる。 As a result, the CPU 102 performs processing according to the above-mentioned flowchart or processing performed according to the above-mentioned block diagram configuration. Then, the CPU 102 outputs the processing result from the output unit 106, transmits it from the communication unit 108, or records it on the hard disk 105, if necessary, via the input / output interface 110, for example.
 なお、入力部107は、キーボードや、マウス、マイク等で構成される。また、出力部106は、LCD(Liquid Crystal Display)やスピーカ等で構成される。 The input unit 107 is composed of a keyboard, a mouse, a microphone, and the like. Further, the output unit 106 is composed of an LCD (Liquid Crystal Display), a speaker, or the like.
 ここで、本明細書において、コンピュータがプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。 Here, in the present specification, the processing performed by the computer according to the program does not necessarily have to be performed in chronological order in the order described as the flowchart. That is, the processing performed by the computer according to the program also includes processing executed in parallel or individually (for example, parallel processing or processing by an object).
 また、プログラムは、1のコンピュータ(プロセッサ)により処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。 Further, the program may be processed by one computer (processor) or may be distributed by a plurality of computers. Further, the program may be transferred to a distant computer and executed.
 さらに、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。 Furthermore, in the present specification, the system means a set of a plurality of constituent elements (devices, modules (parts), etc.), and it does not matter whether or not all constituent elements are in the same housing. Therefore, a plurality of devices housed in separate housings and connected via a network, and a device in which a plurality of modules are housed in one housing are both systems. ..
 また、例えば、1つの装置(または処理部)として説明した構成を分割し、複数の装置(または処理部)として構成するようにしてもよい。逆に、以上において複数の装置(または処理部)として説明した構成をまとめて1つの装置(または処理部)として構成されるようにしてもよい。また、各装置(または各処理部)の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置(または処理部)の構成の一部を他の装置(または他の処理部)の構成に含めるようにしてもよい。 Further, for example, the configuration described as one device (or processing unit) may be divided and configured as a plurality of devices (or processing units). On the contrary, the configurations described above as a plurality of devices (or processing units) may be collectively configured as one device (or processing unit). Further, of course, a configuration other than the above may be added to the configuration of each device (or each processing unit). Further, if the configuration and operation of the entire system are substantially the same, a part of the configuration of one device (or processing unit) may be included in the configuration of another device (or other processing unit). ..
 また、例えば、本技術は、1つの機能を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。 Further, for example, this technology can have a cloud computing configuration in which one function is shared by a plurality of devices via a network and jointly processed.
 また、例えば、上述したプログラムは、任意の装置において実行することができる。その場合、その装置が、必要な機能(機能ブロック等)を有し、必要な情報を得ることができるようにすればよい。 Further, for example, the above-mentioned program can be executed in any device. In that case, the device may have necessary functions (functional blocks, etc.) so that necessary information can be obtained.
 また、例えば、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。換言するに、1つのステップに含まれる複数の処理を、複数のステップの処理として実行することもできる。逆に、複数のステップとして説明した処理を1つのステップとしてまとめて実行することもできる。 Further, for example, each step described in the above flowchart can be executed by one device or can be shared and executed by a plurality of devices. Further, when a plurality of processes are included in one step, the plurality of processes included in the one step can be executed by one device or shared by a plurality of devices. In other words, a plurality of processes included in one step can be executed as processes of a plurality of steps. On the contrary, the processes described as a plurality of steps can be collectively executed as one step.
 なお、コンピュータが実行するプログラムは、プログラムを記述するステップの処理が、本明細書で説明する順序に沿って時系列に実行されるようにしても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで個別に実行されるようにしても良い。つまり、矛盾が生じない限り、各ステップの処理が上述した順序と異なる順序で実行されるようにしてもよい。さらに、このプログラムを記述するステップの処理が、他のプログラムの処理と並列に実行されるようにしても良いし、他のプログラムの処理と組み合わせて実行されるようにしても良い。 In the program executed by the computer, the processing of the steps for describing the program may be executed in chronological order according to the order described in this specification, or may be called in parallel or called. It may be executed individually at a necessary timing such as time. That is, as long as there is no contradiction, the processing of each step may be executed in an order different from the above-mentioned order. Further, the processing of the step for writing this program may be executed in parallel with the processing of another program, or may be executed in combination with the processing of another program.
 なお、本明細書において複数説明した本技術は、矛盾が生じない限り、それぞれ独立に単体で実施することができる。もちろん、任意の複数の本技術を併用して実施することもできる。例えば、いずれかの実施の形態において説明した本技術の一部または全部を、他の実施の形態において説明した本技術の一部または全部と組み合わせて実施することもできる。また、上述した任意の本技術の一部または全部を、上述していない他の技術と併用して実施することもできる。 It should be noted that the present techniques described in the present specification can be independently implemented independently as long as there is no contradiction. Of course, any plurality of the present technologies can be used in combination. For example, some or all of the techniques described in any of the embodiments may be combined with some or all of the techniques described in other embodiments. It is also possible to carry out a part or all of any of the above-mentioned techniques in combination with other techniques not described above.
 <構成の組み合わせ例>
 なお、本技術は以下のような構成も取ることができる。
(1)
 少なくとも1つ以上のNAL(Network Abstraction Layer)ユニットが配置されるアクセスユニットからなるビットストリームの画像を復号する復号部
 を備え、
 前記アクセスユニットのヘッダ領域に、前記アクセスユニット内の全てのTile group NALユニットに格納される画像について、カレントフレームが将来に参照画像になることが可能か否かを識別する識別情報が格納されている
 画像復号装置。
(2)
 前記識別情報は、前記アクセスユニットの区切りを示すAUD(Access Unit Delimiter) NALユニットに格納されており、前記アクセスユニット内の全てのTile group NALユニットに対して適用される
 上記(1)に記載の画像復号装置。
(3)
 前記識別情報は、前記アクセスユニットの区切りを示すAUD(Access Unit Delimiter) NALユニットとは別に設けられる識別用のNALユニットに格納されており、前記アクセスユニット内の全てのTile group NALユニットに対して適用される
 上記(1)に記載の画像復号装置。
(4)
 画像復号処理を行う画像復号装置が、
 少なくとも1つ以上のNAL(Network Abstraction Layer)ユニットが配置されるアクセスユニットからなるビットストリームの画像を復号すること
 を含み、
 前記アクセスユニットのヘッダ領域に、前記アクセスユニット内の全てのTile group NALユニットに格納される画像について、カレントフレームが将来に参照画像になることが可能か否かを識別する識別情報が格納されている
 画像復号方法。
(5)
 少なくとも1つ以上のNAL(Network Abstraction Layer)ユニットが配置されるアクセスユニットからなるビットストリームの画像を符号化する符号化部
 を備え、
 前記アクセスユニットのヘッダ領域に、前記アクセスユニット内の全てのTile group NALユニットに格納される画像について、カレントフレームが将来に参照画像になることが可能か否かを識別する識別情報を格納する
 画像符号化装置。
(6)
 前記識別情報は、前記アクセスユニットの区切りを示すAUD(Access Unit Delimiter) NALユニットに格納され、前記アクセスユニット内の全てのTile group NALユニットに対して適用される
 上記(5)に記載の画像符号化装置。
(7)
 前記識別情報は、前記アクセスユニットの区切りを示すAUD(Access Unit Delimiter) NALユニットとは別に設けられる識別用のNALユニットに格納され、前記アクセスユニット内の全てのTile group NALユニットに対して適用される
 上記(5)に記載の画像符号化装置。
(8)
 画像符号化処理を行う画像符号化装置が、
 少なくとも1つ以上のNAL(Network Abstraction Layer)ユニットが配置されるアクセスユニットからなるビットストリームの画像を符号化すること
 を含み、
 前記アクセスユニットのヘッダ領域に、前記アクセスユニット内の全てのTile group NALユニットに格納される画像について、カレントフレームが将来に参照画像になることが可能か否かを識別する識別情報が格納される
 画像符号化方法。
<Example of configuration combination>
The present technology can also have the following configurations.
(1)
A decoding unit that decodes an image of a bitstream consisting of an access unit in which at least one or more NAL (Network Abstraction Layer) units are arranged is provided.
In the header area of the access unit, identification information for identifying whether or not the current frame can become a reference image in the future is stored for the images stored in all the Tile group NAL units in the access unit. Image decoding device.
(2)
The identification information is stored in an AUD (Access Unit Delimiter) NAL unit indicating the delimiter of the access unit, and is applied to all Tile group NAL units in the access unit according to the above (1). Image decoding device.
(3)
The identification information is stored in an identification NAL unit provided separately from the AUD (Access Unit Delimiter) NAL unit indicating the delimiter of the access unit, and is stored for all Tile group NAL units in the access unit. The image decoding apparatus according to (1) above.
(4)
The image decoding device that performs the image decoding process
Includes decoding a bitstream image consisting of an access unit in which at least one or more NAL (Network Abstraction Layer) units are located.
In the header area of the access unit, identification information for identifying whether or not the current frame can become a reference image in the future is stored for the images stored in all the Tile group NAL units in the access unit. Image decoding method.
(5)
A coding unit for encoding an image of a bitstream consisting of an access unit in which at least one or more NAL (Network Abstraction Layer) units are arranged is provided.
An image that stores identification information that identifies whether or not the current frame can become a reference image in the future for the images stored in all the Tile group NAL units in the access unit in the header area of the access unit. Encoding device.
(6)
The image code according to (5) above, wherein the identification information is stored in an AUD (Access Unit Delimiter) NAL unit indicating the delimiter of the access unit, and is applied to all Tile group NAL units in the access unit. Delimiter.
(7)
The identification information is stored in an identification NAL unit provided separately from the AUD (Access Unit Delimiter) NAL unit indicating the delimiter of the access unit, and is applied to all Tile group NAL units in the access unit. The image encoding device according to (5) above.
(8)
An image coding device that performs image coding processing
Includes encoding an image of a bitstream consisting of access units in which at least one or more Network Abstraction Layer (NAL) units are located.
In the header area of the access unit, identification information for identifying whether or not the current frame can become a reference image in the future is stored for the images stored in all the Tile group NAL units in the access unit. Image coding method.
 なお、本実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。また、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。 Note that the present embodiment is not limited to the above-described embodiment, and various changes can be made without departing from the gist of the present disclosure. Further, the effects described in the present specification are merely examples and are not limited, and other effects may be obtained.
 10 画像符号化装置, 11 符号化部, 12 判定部, 13 VCLバッファ, 14 非VCLバッファ, 15 ファイル生成部, 16 制御部, 20 記憶部, 30 画像復号装置, 31 VCLバッファ, 32 非VCLバッファ, 33 パラメータメモリ, 34 復号部, 35 出力バッファ, 37 制御部 10 image encoding device, 11 coding unit, 12 judgment unit, 13 VCL buffer, 14 non-VCL buffer, 15 file generation unit, 16 control unit, 20 storage unit, 30 image decoding device, 31 VCL buffer, 32 non-VCL buffer. , 33 parameter memory, 34 decoding unit, 35 output buffer, 37 control unit

Claims (8)

  1.  少なくとも1つ以上のNAL(Network Abstraction Layer)ユニットが配置されるアクセスユニットからなるビットストリームの画像を復号する復号部
     を備え、
     前記アクセスユニットのヘッダ領域に、前記アクセスユニット内の全てのTile group NALユニットに格納される画像について、カレントフレームが将来に参照画像になることが可能か否かを識別する識別情報が格納されている
     画像復号装置。
    A decoding unit that decodes an image of a bitstream consisting of an access unit in which at least one or more NAL (Network Abstraction Layer) units are arranged is provided.
    In the header area of the access unit, identification information for identifying whether or not the current frame can become a reference image in the future is stored for the images stored in all the Tile group NAL units in the access unit. Image decoding device.
  2.  前記識別情報は、前記アクセスユニットの区切りを示すAUD(Access Unit Delimiter) NALユニットに格納されており、前記アクセスユニット内の全てのTile group NALユニットに対して適用される
     請求項1に記載の画像復号装置。
    The image according to claim 1, wherein the identification information is stored in an AUD (Access Unit Delimiter) NAL unit indicating the delimiter of the access unit, and is applied to all Tile group NAL units in the access unit. Decoding device.
  3.  前記識別情報は、前記アクセスユニットの区切りを示すAUD(Access Unit Delimiter) NALユニットとは別に設けられる識別用のNALユニットに格納されており、前記アクセスユニット内の全てのTile group NALユニットに対して適用される
     請求項1に記載の画像復号装置。
    The identification information is stored in an identification NAL unit provided separately from the AUD (Access Unit Delimiter) NAL unit indicating the delimiter of the access unit, and is stored for all Tile group NAL units in the access unit. The image decoding apparatus according to claim 1, which is applied.
  4.  画像復号処理を行う画像復号装置が、
     少なくとも1つ以上のNAL(Network Abstraction Layer)ユニットが配置されるアクセスユニットからなるビットストリームの画像を復号すること
     を含み、
     前記アクセスユニットのヘッダ領域に、前記アクセスユニット内の全てのTile group NALユニットに格納される画像について、カレントフレームが将来に参照画像になることが可能か否かを識別する識別情報が格納されている
     画像復号方法。
    The image decoding device that performs the image decoding process
    Includes decoding a bitstream image consisting of an access unit in which at least one or more NAL (Network Abstraction Layer) units are located.
    In the header area of the access unit, identification information for identifying whether or not the current frame can become a reference image in the future is stored for the images stored in all the Tile group NAL units in the access unit. Image decoding method.
  5.  少なくとも1つ以上のNAL(Network Abstraction Layer)ユニットが配置されるアクセスユニットからなるビットストリームの画像を符号化する符号化部
     を備え、
     前記アクセスユニットのヘッダ領域に、前記アクセスユニット内の全てのTile group NALユニットに格納される画像について、カレントフレームが将来に参照画像になることが可能か否かを識別する識別情報を格納する
     画像符号化装置。
    A coding unit for encoding an image of a bitstream consisting of an access unit in which at least one or more NAL (Network Abstraction Layer) units are arranged is provided.
    An image that stores identification information that identifies whether or not the current frame can become a reference image in the future for the images stored in all the Tile group NAL units in the access unit in the header area of the access unit. Encoding device.
  6.  前記識別情報は、前記アクセスユニットの区切りを示すAUD(Access Unit Delimiter) NALユニットに格納され、前記アクセスユニット内の全てのTile group NALユニットに対して適用される
     請求項5に記載の画像符号化装置。
    The image coding according to claim 5, wherein the identification information is stored in an AUD (Access Unit Delimiter) NAL unit indicating the delimiter of the access unit, and is applied to all Tile group NAL units in the access unit. apparatus.
  7.  前記識別情報は、前記アクセスユニットの区切りを示すAUD(Access Unit Delimiter) NALユニットとは別に設けられる識別用のNALユニットに格納され、前記アクセスユニット内の全てのTile group NALユニットに対して適用される
     請求項5に記載の画像符号化装置。
    The identification information is stored in an identification NAL unit provided separately from the AUD (Access Unit Delimiter) NAL unit indicating the delimiter of the access unit, and is applied to all Tile group NAL units in the access unit. The image coding apparatus according to claim 5.
  8.  画像符号化処理を行う画像符号化装置が、
     少なくとも1つ以上のNAL(Network Abstraction Layer)ユニットが配置されるアクセスユニットからなるビットストリームの画像を符号化すること
     を含み、
     前記アクセスユニットのヘッダ領域に、前記アクセスユニット内の全てのTile group NALユニットに格納される画像について、カレントフレームが将来に参照画像になることが可能か否かを識別する識別情報が格納される
     画像符号化方法。
    An image coding device that performs image coding processing
    Includes encoding an image of a bitstream consisting of access units in which at least one or more Network Abstraction Layer (NAL) units are located.
    In the header area of the access unit, identification information for identifying whether or not the current frame can become a reference image in the future is stored for the images stored in all the Tile group NAL units in the access unit. Image coding method.
PCT/JP2020/010880 2019-03-12 2020-03-12 Image decoding device, image decoding method, image encoding device, and image encoding method WO2020184673A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201962817316P 2019-03-12 2019-03-12
US62/817,316 2019-03-12

Publications (1)

Publication Number Publication Date
WO2020184673A1 true WO2020184673A1 (en) 2020-09-17

Family

ID=72426643

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/010880 WO2020184673A1 (en) 2019-03-12 2020-03-12 Image decoding device, image decoding method, image encoding device, and image encoding method

Country Status (1)

Country Link
WO (1) WO2020184673A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070223595A1 (en) * 2006-03-27 2007-09-27 Nokia Corporation Picture delimiter in scalable video coding
JP2015509345A (en) * 2012-02-01 2015-03-26 ノキア コーポレイション Video encoding method and apparatus
JP2015517274A (en) * 2012-04-16 2015-06-18 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute Video information decoding method, video decoding method and apparatus using the same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070223595A1 (en) * 2006-03-27 2007-09-27 Nokia Corporation Picture delimiter in scalable video coding
JP2015509345A (en) * 2012-02-01 2015-03-26 ノキア コーポレイション Video encoding method and apparatus
JP2015517274A (en) * 2012-04-16 2015-06-18 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute Video information decoding method, video decoding method and apparatus using the same

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HANNUKSELA, MISKA M.: "Hooks for scalable extensions", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VG) OF ITU-T SG 16 WP3 AND ISO/IEC JTC1/SC29/WG11 8TH MEETING, no. JCTVC-H0701r1, 1 February 2012 (2012-02-01), San Jose, CA , USA, pages 1 - 10, XP030232698 *
THANG, TRUONG CONG ET AL.: "On NAL unit header", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11 9TH MEETING, no. JCTVC-I0251, 18 April 2012 (2012-04-18), Geneva, CH, pages 1 - 3, XP030233332 *

Similar Documents

Publication Publication Date Title
TWI552574B (en) Video parameter set for hevc and extensions
US9390754B2 (en) Video trick mode system
US9036930B2 (en) Image signal decoding apparatus and image signal decoding method
US20030163781A1 (en) Method and apparatus for supporting advanced coding formats in media files
US20040167925A1 (en) Method and apparatus for supporting advanced coding formats in media files
US11831865B2 (en) Image decoding device, image decoding method, image encoding device, and image encoding method
US8189665B2 (en) Editing apparatus, editing method, editing program, and editing system
US10986402B2 (en) Time signaling for media streaming
JP2009207163A (en) Decoding device and method, and recording medium
JP2006211617A (en) Motion picture encoding/decoding device and encoding stream generation method
US20030163477A1 (en) Method and apparatus for supporting advanced coding formats in media files
JP2010041354A (en) Moving image coding method, coding device and coding program
US8731065B2 (en) Dynamic image stream processing method and device, and dynamic image reproduction device and dynamic image distribution device using the same
TWI789661B (en) Video data stream, video encoder, apparatus and methods for a hypothetical reference decoder and for output layer sets
KR102163440B1 (en) Picture referencing control for video decoding using a graphics processor
WO2020184673A1 (en) Image decoding device, image decoding method, image encoding device, and image encoding method
JP2014011572A5 (en) Moving picture predictive decoding apparatus, method and program
JP6690536B2 (en) Image processing apparatus, image processing method, and program
JP2006262016A (en) Error-correcting device
JP2011078068A (en) System for video transmission
KR20170072209A (en) Coded video data processing method and apparatus, coded video data generation method and apparatus

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20769228

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20769228

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP