WO2012172811A1 - 動画像復号化装置および動画像復号化方法 - Google Patents

動画像復号化装置および動画像復号化方法 Download PDF

Info

Publication number
WO2012172811A1
WO2012172811A1 PCT/JP2012/003910 JP2012003910W WO2012172811A1 WO 2012172811 A1 WO2012172811 A1 WO 2012172811A1 JP 2012003910 W JP2012003910 W JP 2012003910W WO 2012172811 A1 WO2012172811 A1 WO 2012172811A1
Authority
WO
WIPO (PCT)
Prior art keywords
picture
display control
control information
unit
decoding
Prior art date
Application number
PCT/JP2012/003910
Other languages
English (en)
French (fr)
Inventor
安倍 清史
一仁 木村
秀之 大古瀬
荒川 博
耕治 有村
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to JP2012547777A priority Critical patent/JP5336004B2/ja
Priority to EP12800607.9A priority patent/EP2723072A4/en
Priority to CN201280029840.XA priority patent/CN103609116A/zh
Priority to KR20137033457A priority patent/KR20140035408A/ko
Publication of WO2012172811A1 publication Critical patent/WO2012172811A1/ja
Priority to US14/107,292 priority patent/US20140098892A1/en
Priority to US15/722,119 priority patent/US10659775B2/en
Priority to US16/845,322 priority patent/US11102472B2/en
Priority to US17/377,880 priority patent/US11611741B2/en
Priority to US18/106,025 priority patent/US11902505B2/en
Priority to US18/397,083 priority patent/US20240171730A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/112Selection of coding mode or of prediction mode according to a given display mode, e.g. for interlaced or progressive display mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/16Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter for a given display mode, e.g. for interlaced or progressive display mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Definitions

  • the present invention relates to a moving image decoding apparatus and a moving image decoding method for decoding a moving image signal using an encoded progressive moving image signal and an interlaced moving image signal as inputs.
  • H.264 of ITU-T International Telecommunication Union, Telecommunication Standardization Division
  • 261, H.H. 263, H.M. H.264, ISO / IEC International Organization for Standardization
  • MPEG-1, MPEG-2, MPEG-4, MPEG-4AVC and the like.
  • HEVC High-Efficiency Video Coding
  • a picture to be coded is divided into coding unit blocks, and redundancy in the time direction and the spatial direction is reduced for each block. This compresses the amount of information.
  • inter-frame predictive coding for the purpose of reducing temporal redundancy, motion is detected and a predicted image is created in block units with reference to the front or rear picture, and the resulting predicted image and encoding target are obtained. Get the difference image from the block.
  • intra prediction encoding for the purpose of reducing spatial redundancy, a prediction image is generated from pixel information of surrounding encoded blocks, and a difference image between the obtained prediction image and a block to be encoded is obtained. To get. Further, orthogonal transformation such as discrete cosine transformation and quantization are performed on the obtained difference image, and a code string is generated using variable length coding, thereby compressing the information amount.
  • the code string generated by the encoding process is analyzed to obtain prediction information and residual coefficient information. Furthermore, inter prediction prediction decoding and intra prediction decoding are performed using prediction information to generate a prediction image. Then, a difference image is generated by performing inverse quantization and inverse orthogonal transform on the residual coefficient information, and the final output image is restored by adding the obtained predicted image and the difference image.
  • Progressive format is a format in which all pixels on one screen are imaged simultaneously to form one frame.
  • the interlace format is a format in which one frame is composed of two fields of a top field in which only pixels in the even-numbered columns are imaged and a bottom field in which only pixels in the odd-numbered columns are imaged. It is.
  • FIG. 20 and FIG. H.264 shows a method of encoding progressive and interlaced moving images.
  • a progressive video one frame is encoded as one picture as shown in FIG.
  • Frm3 is encoded as P_Frm1.
  • POC Picture Order Count
  • POC Picture Order Count
  • FldT6 and FldB7 are encoded as individual field structure pictures such as P_FldT1 and P_FldB2, respectively, whereas FldT12 and FldB13 are encoded as a single frame structure picture such as P_Frm7.
  • POC one value is assigned to one picture when encoding as a field structure, but two values are assigned to one picture when encoding as a frame structure.
  • P_Frm7 is divided and displayed at the positions of FldT12 and FldB13 in the display order, so 12 and 13 are assigned as POC (Non-patent Document 1).
  • HEVC is an encoding method capable of encoding only a progressive video, and only a method of encoding one frame as one picture is defined as shown in FIG. (Non-patent document 2).
  • the mainstream moving image format is expected to move from the interlaced format to the progressive format.
  • there are many existing video contents created in an interlaced format and it is considered necessary to effectively use these contents in the future.
  • HEVC which is currently standardized, defines an encoding method only for the progressive format, and cannot encode interlaced content.
  • the present invention solves the above-described problems, and an object of the present invention is to easily realize compatibility with an interlace format in encoding and decoding of a moving image using HEVC.
  • the moving picture decoding apparatus decodes a code string obtained by coding a moving picture signal having an interlaced or progressive moving picture format in units of pictures.
  • This video decoding device A second code string analyzer that analyzes the code string and obtains an extended information region code string and a first code string;
  • An extended information area decoding unit that acquires display control information used when displaying a decoded picture from the extended information area code string;
  • a picture data decoding unit that decodes the first code stream using a common syntax analysis independent of the moving image format and a common signal processing method, and obtains the picture;
  • the display control information indicates a progressive format, the acquired picture is set as one frame and the frames are output one by one in the display order.
  • the acquired picture is An output picture setting unit that sets a single field and outputs a paired top field and bottom field in the display order at the time of acquisition;
  • the display control information includes sequence unit display control information commonly used in display processing of all pictures belonging to a sequence to be decoded, and pictures used individually in display processing of pictures to be decoded.
  • the extended information area decoding unit acquires each display control information from the extended information area in units of pictures.
  • the moving picture decoding method decodes a code string obtained by coding a moving picture signal having an interlaced or progressive moving picture format in units of pictures.
  • This video decoding method is: Analyzing the code string, obtaining the extended information area code string and the first code string, Obtaining display control information to be used when displaying a decoded picture from the extended information area code string, Decode the first code stream using a common syntax analysis and a common signal processing method independent of the moving image format, obtain a picture, When the display control information indicates the progressive format, the acquired picture is set as one frame and the frames are output one by one in the display order. When the display control information indicates the interlace format, the acquired picture is set as one field.
  • the display control information includes sequence unit display control information commonly used in display processing of all pictures belonging to a sequence to be decoded, and picture units used individually in display processing of pictures to be decoded. Display control information, Each display control information is acquired from the extended information area in units of pictures.
  • the present invention can be realized not only as such a moving picture decoding apparatus, but also as a program or an integrated circuit that realizes processing equivalent to each means included in such a moving picture decoding apparatus. You can also.
  • the moving picture decoding apparatus is common to a code string obtained by encoding a progressive moving picture and a code string obtained by encoding an interlaced moving picture without increasing the processing amount. With this control, it is possible to perform decoding processing and display control of picture data. Therefore, the decoding device can be easily implemented.
  • a decoding process for decoding a coded code string to generate a decoded image, and a display process for displaying the generated decoded image in accordance with a corresponding display device are performed. It is controlled as a separate hierarchy.
  • the former may be configured by hardware and the latter may be configured by software.
  • the same hardware is used to perform the decoding process, and only the software that performs the display process is created for each device. Can be reduced.
  • the extended information area describing only information (display control information and the like) unnecessary for the encoding process and the other area describing information necessary for the decoding process are completely separated. This makes it easy to send only the code string required in each layer to the layer that performs the decoding process and the layer that performs the display process in the applications as described above, and the independence of each layer is high. Become. In other words, both the progressive decoding apparatus and the interlace decoding apparatus can be configured using completely the same layer (hardware) for performing the decoding process.
  • FIG. 3 is a flowchart of an encoding process according to the first embodiment.
  • FIG. 5 is a conceptual diagram for explaining an example of a method for rearranging progressive format input images according to the first embodiment in an encoding order;
  • FIG. 3 is a conceptual diagram for explaining an example of a method for rearranging interlaced input images according to Embodiment 1 in an encoding order;
  • FIG. 9 is a conceptual diagram for explaining another example of a method for rearranging interlaced input images according to Embodiment 1 in the encoding order. It is a conceptual diagram for demonstrating the structure of the code sequence produced
  • FIG. 10 is a flowchart of decoding processing according to the second embodiment.
  • FIG. 10 is a conceptual diagram for explaining an example of a method for rearranging progressive-format decoded images according to the second embodiment in display order;
  • FIG. 10 is a conceptual diagram for explaining an example of a method of rearranging interlaced decoded images according to Embodiment 2 in display order.
  • FIG. 10 is a flowchart of decoding processing according to the second embodiment.
  • FIG. 10 is a conceptual diagram for explaining an example of a method for rearranging progressive-format decoded images according to the second embodiment in display order;
  • FIG. 10 is a conceptual diagram for explaining an example of a method of rearranging interlaced decoded images according to Embodiment 2 in display order.
  • FIG. 10 is a flowchart of decoding processing according to the second embodiment.
  • FIG. 10 is a conceptual diagram for explaining an example of a method for rearranging progressive-format decoded images according to the second embodiment in display order
  • FIG. 10 is a conceptual diagram for explaining another example of a method for rearranging interlaced decoded images according to the second embodiment in display order. It is a block diagram which shows the structure of the moving image encoder which concerns on Embodiment 3. 10 is a flowchart of an encoding process according to the third embodiment.
  • FIG. 10 is a conceptual diagram for explaining a configuration of a code string generated by Embodiment 3.
  • 10 is a conceptual diagram for explaining an example of syntax of extended information generated by Embodiment 3.
  • FIG. It is a block diagram which shows the structure of the moving image decoding apparatus which concerns on Embodiment 4.
  • 10 is a flowchart of decoding processing according to the fourth embodiment. It is a conceptual diagram for demonstrating the encoding method of the moving image of the conventional progressive format. It is a conceptual diagram for demonstrating the encoding method of the moving image of the conventional interlace format.
  • HEVC High Efficiency Video Coding
  • the picture to be encoded has a frame structure such as P_Frm7, a top field structure such as P_FldT1, or a bottom field structure such as P_FldB2. Encoding and decoding processes must be performed.
  • encoding processing of a picture to be encoded is performed with reference to encoding information of a previously encoded picture. Therefore, for example, when the encoding target is P_Frm7 and the pictures referring to the encoding information are P_FldT1 and P_FldB2, the encoding information of the two pictures in the field structure is processed into the encoding information of one picture in the frame structure And refer to it. Therefore, processing becomes very complicated.
  • the moving image encoding apparatus of the present embodiment when the moving image format information indicates a progressive format, one frame in the moving image signal is set as a picture, and when the moving image format information indicates an interlaced format, One field in the image signal is set as a picture. Then, the pixel data included in the set picture is encoded using a common signal processing method and a common syntax structure independent of the moving image format.
  • the first code string is decoded using a common syntax analysis and a common signal processing method independent of the moving picture format, and a picture is obtained.
  • the display control information indicates the progressive format
  • the acquired picture is set as one frame and the frames are output one by one in the display order.
  • the display control information indicates the interlace format
  • one acquired picture is displayed.
  • the top field and bottom field that are paired with this field are obtained, they are output in the display order.
  • FIG. 1 is a block diagram of a video encoding device according to this embodiment.
  • the moving image encoding apparatus 100 includes a picture setting unit 101, a moving image format specifying unit 102, a display control information generating unit 103, a second code string generating unit 104, and a picture data encoding unit 110.
  • the picture data encoding unit 110 includes a picture memory 111, a prediction residual encoding unit 112, a prediction residual decoding unit 113, a local buffer 114, a prediction encoding unit 115, and a quantization value determination unit. 116 and a first code string generation unit 117.
  • the picture setting unit 101 rearranges the pictures in the order of encoding the input image signal 151 input in units of pictures in the order of display according to the moving image format signal 152 input from the moving image format specifying unit 102. To the picture data encoding unit 110. At this time, if the moving image format of the picture is the progressive format, one frame of the input image signal 151 is set as one picture, and if the moving image format is the interlace format, one field of the input image signal 151 is set. Is set as one picture.
  • the picture data encoding unit 110 divides each picture input from the picture setting unit 101 into blocks, performs encoding processing in units of blocks, and generates a code string of picture data. At this time, a common encoding process is applied in units of pictures without depending on whether the moving image format is a progressive format or an interlace format, and a code string of picture data generated as a result also has a common syntax. have.
  • the moving image format designation unit 102 determines whether the moving image to be encoded is in a progressive format or an interlace format based on information of an image signal designated or input from the outside. Then, the moving image format specifying unit 102 outputs the moving image format signal 152 to the display control information generating unit 103 and the picture setting unit 101.
  • the display control information generation unit 103 generates a display control information signal 153 according to the moving image format signal 152 input from the moving image format specifying unit 102, and outputs the display control information signal 153 to the second code string generation unit 104.
  • the display control information signal 153 is a control information signal used when displaying a decoded image in the video decoding device corresponding to the video encoding device 100.
  • the second code sequence generation unit 104 encodes the display control information signal 153 output from the display control information generation unit 103 and information related to encoding control in units of sequences and pictures as header information, and generates a picture upper layer code sequence To do. Further, the second code string generation unit 104 associates the generated picture upper layer code string with the code string of the picture data generated by the picture data encoding unit 110, and generates a code string signal 154 as a final output. Generate.
  • the picture memory 111 divides the input image in units of pictures output from the picture setting unit 101 into blocks composed of a plurality of pixels.
  • a block is an encoding processing unit. For each divided block, corresponding image signals are output in response to read commands from the difference calculation unit 118, the prediction encoding unit 115, and the quantized value determination unit 116, respectively.
  • This block includes, for example, horizontal 64 ⁇ vertical 64 pixels, horizontal 32 ⁇ vertical 32 pixels, and horizontal 16 ⁇ vertical 16 pixels. In other words, the size of this block may be any size as long as the subsequent processing is possible.
  • the prediction residual encoding unit 112 performs orthogonal transform on the difference image signal 161 output from the difference calculation unit 118. Furthermore, the prediction residual encoding unit 112 quantizes the obtained orthogonal transform coefficient of each frequency component, and generates a residual encoded signal 162. Then, the prediction residual encoding unit 112 outputs the generated residual encoded signal 162 to the prediction residual decoding unit 113 and the first code string generation unit 117. At this time, the prediction residual encoding unit 112 quantizes the orthogonal transform coefficient using the quantized value determined by the quantized value determining unit 116.
  • the prediction residual decoding unit 113 restores the difference image information by performing inverse quantization and inverse orthogonal transform on the residual encoded signal 162 output from the prediction residual encoding unit 112. Then, the prediction residual decoding unit 113 outputs the generated residual decoded signal 163 to the addition operation unit 119.
  • the local buffer 114 stores the reconstructed image signal 164 output from the addition operation unit 119. This reconstructed image signal 164 is used as reference pixel data in predictive coding processing in coding of a picture subsequent to the current picture to be coded.
  • the local buffer 114 outputs the stored reconstructed image signal 164 to the prediction encoding unit 115 as pixel data in response to a read command from the prediction encoding unit 115.
  • the prediction encoding unit 115 generates a predicted image signal 165 using intra prediction or inter prediction based on the image signal output from the picture memory 111. Then, the prediction encoding unit 115 outputs the generated prediction image signal 165 to the difference calculation unit 118 and the addition calculation unit 119. Note that the prediction encoding unit 115 uses the reconstructed image signal 164 of a past picture that has already been encoded and stored in the local buffer 114 when using inter-screen prediction. When using intra prediction, the reconstructed image signal 164 of the current picture of an already encoded block adjacent to the encoding target block is used. Which of the prediction methods can reduce the residual signal information amount (information amount of the residual encoded signal 162, the code string signal 154, etc.) in determining whether to use intra prediction or inter prediction? This is done by estimating.
  • the quantized value determining unit 116 determines a quantized value when the differential image signal 161 is quantized by the prediction residual encoding unit 112 based on the picture stored in the picture memory 111.
  • a quantization value determination method in the quantization value determination unit 116 a quantization value is set based on so-called rate control in which a quantization value is set so that the bit rate of the code string signal 154 approaches a target bit rate. The determination method may be used.
  • the first code string generation unit 117 outputs the residual encoded signal 162 output from the prediction residual encoding unit 112, the prediction information signal 166 output from the prediction encoding unit 115, and the quantized value determination unit 116.
  • a code string of picture data is generated by variable-length encoding the quantization value and other information related to encoding control.
  • the difference calculation unit 118 generates a difference image signal 161 that is a difference value between the image signal read from the picture memory 111 and the predicted image signal 165 output from the prediction encoding unit 115. Then, the difference calculation unit 118 outputs the generated difference image signal 161 to the prediction residual encoding unit 112.
  • the addition operation unit 119 generates a reconstructed image signal 164 by adding the residual decoded signal 163 output from the prediction residual decoding unit 113 and the predicted image signal 165 output from the prediction encoding unit 115. To do. Then, the addition operation unit 119 outputs the generated reconstructed image signal 164 to the local buffer 114.
  • Display control information generation method Upon receiving the video format signal 152 from the video format specification unit 102, the display control information generation unit 103 generates the display control information signal 153, and the second code sequence generation unit 104 describes it in the code sequence. A method of rearranging the input images in the encoding order in the picture setting unit 101 will be specifically described with reference to the flowchart of the entire encoding process in FIG.
  • the second code string generation unit 104 generates a code string of the header area in sequence units (S501). Specifically, the second code string generation unit 104 describes the display control information for each sequence generated by the display control information generation unit 103 in the header area for each sequence in the code string. Note that the display control information generation unit 103 generates display control information in sequence units according to the moving image format specified by the moving image format specifying unit 102.
  • the second code string generation unit 104 generates a code string of the header area in units of pictures (S502). Specifically, the second code string generation unit 104 describes the display control information in units of pictures generated by the display control information generation unit 103 in the extended information area in units of pictures in the code string. Note that the display control information generation unit 103 generates display control information for each picture according to the moving image format specified by the moving image format specifying unit 102.
  • the picture setting unit 101 rearranges the input images input in the display order in the encoding order, and selects a picture to be encoded (S503). Specifically, the picture setting unit 101 rearranges input images according to the moving image format specified by the moving image format specifying unit 102.
  • the picture data encoding unit 110 performs a series of encoding processes described with reference to FIG. 1, and generates a code string of picture data (S504).
  • step S504 a common encoding process is applied regardless of whether the moving image format is a progressive format or an interlace format.
  • step S502 the process returns to step S502 to proceed to the encoding process for the next picture, and from step S502 until the encoding process for all the pictures in the sequence is completed.
  • step S504 is repeated (S505).
  • step S503 Picture Rearrangement The picture rearrangement process in step S503 will be described in detail with reference to FIG. 3, FIG. 4, and FIG.
  • FIG. 3 As an example of the picture rearrangement method when the moving image format is the progressive format, there is a method as shown in FIG. This rearrangement method is exactly the same as the conventional progressive processing described with reference to FIG.
  • One input frame is rearranged and encoded as one picture.
  • inter-picture prediction only pictures that have been previously encoded in the encoding order can be referred to. That is, when rearrangement as shown in FIG. 3 is performed, only I_0 can be referred to for P_1, and I_0 and P_1 can be referred to for B_2.
  • P_1 corresponds to Frm3, so only Frm0 in the forward direction can be referred to
  • B_2 corresponds to Frm1, so that it is possible to refer to Frm0 in the forward direction and Frm3 in the backward direction.
  • I_0 is a picture that performs only intra prediction without referring to other pictures.
  • FIGS. 4 and 5 there is a method as shown in FIGS. 4 and 5 as an example of a picture rearrangement method when the moving image format is an interlace format. This is different from the conventional interlace format processing described with reference to FIG. 21, and always encodes one input field as one picture. Also, POC, which is information for designating the display order, is always assigned to each picture one by one. Each rearranged picture is encoded for each picture in the same manner as when the progressive format is input without distinguishing whether the picture is a top field or a bottom field.
  • the top field and the bottom field belonging to one frame are always paired and rearranged.
  • FldT6 and FldB7 are rearranged as P_2 and P_3 so that the encoding order is always continuous.
  • P_2 and P_3 the encoding order is always continuous.
  • the input top field and bottom field can be continuously sent to the encoding process, and the memory management process in the picture setting unit 101 can be simplified.
  • FIG. 5 the rearrangement is performed regardless of which frame the top field and the bottom field belong to.
  • the structure is exactly the same as that of the progressive format described in FIG. 3.
  • FldT6 and FldB7 are rearranged as P_4 and B_8, and the coding order is separated by 4 pictures. I'm stuck.
  • other pictures are encoded in the order of four pictures separated from one picture.
  • the code string indicated by the code string signal 154 output from the second code string generation unit 104 includes a sequence header area describing coding control information in sequence units, a picture header area describing coding control information in picture units, and a picture unit Are composed of an extended information area describing auxiliary information and picture data.
  • the display control information for each sequence described in step S501 of FIG. 2 is described in the sequence header area.
  • the display control information for each picture described in step S502 of FIG. 2 is described in the extended information area.
  • Each information other than the display control information is described in a code string with a common syntax without any distinction regardless of whether the moving image format is a progressive format or an interlace format.
  • FIG. 7 omits the syntax other than that related to the present embodiment.
  • the sequence header is encoded with the syntax structure in seq_parameter_set_data ().
  • seq_parameter_set_data As the display control information in units of sequences, there are three parameters of interlace_flag, continuous_flag, and max_distance_num. These parameters are described in the area of vui_parameters () that collects video information in the sequence header.
  • Interlace_flag specifies whether the moving image format of the target sequence is a progressive format or an interlace format. Specifically, the interlace_flag has a value of 0 if the moving image format of the target sequence is the progressive format, and a value of 1 if the target sequence is the interlace format. The interlace_flag may have a value of 1 if the progressive format is used, and a value of 0 if the interlace format is used.
  • Continuous_flag specifies whether or not the top field and the bottom field belonging to the same frame are always in a continuous positional relationship in the coding order when the moving image format of the target sequence is the interlace format. Specifically, the continuous_flag has a value of 0 if the top field and the bottom field belonging to the same frame are not always in a continuous positional relationship in the coding order, and has a value of 1 if always in a continuous positional relationship. That is, the continuous_flag has a value of 1 when rearranging as described with reference to FIG. 4 and a value of 0 when rearranging as described with reference to FIG.
  • the continuous_flag is not limited to the above configuration, and the value of 1 is always set to a continuous positional relationship if the top field and the bottom field belonging to the same frame are not always in a positional relationship in the coding order. If present, it may have a value of 0.
  • Max_distance_num specifies the maximum number of pictures in which the top field and the bottom field belonging to the same frame are separated in the coding order when the continuous_flag is 0. For example, when rearrangement as described with reference to FIG. 5 is performed, P_4 and B_8 are the most distant combinations, and the maximum number is 4. By using this parameter, it becomes possible to specify the number of pictures that need to be waited until the top field and the bottom field belonging to the same frame are aligned in the decoding apparatus corresponding to the moving picture encoding apparatus 100. . This makes it possible to easily determine whether decoding is possible and to specify the required picture memory capacity.
  • parameter names and parameter values described here are examples, and similar functions may be realized using other parameter names and parameter values. Further, it is possible to use only one set of parameters without using all the parameters described here. Also, here, an example has been described in which each parameter is described in the vui_parameters () area. However, any area may be described as long as control information in sequence units can be described.
  • the extended information area is composed of a plurality of parameter groups called SEI (Supplemental Enhancement Information).
  • SEI Supplemental Enhancement Information
  • Pic_timing_SEI () in FIG. 8 is one of the SEIs, and has a role of specifying the decoding timing and display timing of the picture to be encoded.
  • Pic_struct is a parameter that specifies the display method of the picture to be encoded.
  • When displaying as a top field in interlace format display a value of 1.
  • pic_struct has a value of 1 when displayed as a frame in the progressive format, a value of 0 when displayed as a top field in the interlace format, and an interlace format.
  • pic_struct When displaying as a bottom field, it may have a value of 2, and when displaying with other methods, it may have a value corresponding to it. That is, pic_struct may be any value as long as it can identify whether to display at least as a frame in progressive format, to display as a top field in interlace format, or to display as a bottom field in interlace format.
  • Field_pair_POC is information indicating the POC of a paired field belonging to the same frame when the picture to be encoded is designated to be displayed as an interlaced top field or bottom field by pic_struct. For example, in FIG. 4, when the encoding target picture is P_2, the paired picture is P_3, and thus field_pair_POC is 7. Similarly, in FIG. 5, when the encoding target picture is B_8, the paired picture is P_4, and thus field_pair_POC is 6. By using this parameter, it is possible to determine which picture is the top field and the bottom field belonging to the same frame in the corresponding decoding device, and display control corresponding to the interlace format can be performed. It becomes.
  • field_pair_POC may be specified by a POC difference value instead of specifying the POC value as it is.
  • pic_struct and field_pair_POC which are display control information in units of pictures, may be described only when the moving image format of the target sequence is the interlace format.
  • pic_struct may be information that can identify whether the picture to be encoded is displayed as a top field or a bottom field.
  • parameter names and parameter values described here are examples, and similar functions may be realized using other parameter names and parameter values. Further, it is possible to use only one set of parameters without using all the parameters described here. Further, although an example has been described in which each parameter is described in the area of pic_timing_SEI (), it may be described in other areas as long as it can describe control information in units of pictures.
  • the moving image encoding apparatus 100 encodes an input moving image signal in units of pictures.
  • the moving image encoding apparatus 100 A moving image format specifying unit 102 (moving image format information acquiring unit) that acquires moving image format information indicating whether the moving image format of the moving image signal is an interlace format or a progressive format; Display control information generating unit that generates display control information used when displaying the moving image indicated by the encoded moving image signal as a moving image in the moving image format indicated by the moving image format information based on the moving image format information 103, When the moving image format information indicates a progressive format, one frame in the moving image signal is set as a picture and rearranged in the encoding order.
  • a picture setting unit 101 that sets a picture as a picture and rearranges the pictures in a coding order;
  • a block layer code string is generated by encoding pixel data included in a set picture using a common signal processing method and a common syntax structure that are independent of the video format for each block, which is a unit of coding processing.
  • the encoding control information applied in units of slices when encoding the pixel data is encoded using a common signal processing method and a common syntax structure independent of the moving image format, thereby enabling slice layer coding.
  • a picture data encoding unit 110 that generates a sequence and outputs a first code sequence in which a block layer code sequence and a slice layer code sequence are associated with each other;
  • a second code sequence generation unit 104 that encodes the encoding control information applied in units of pictures, the encoding control information applied in units of sequences, and the display control information when encoding pixel data to generate a picture upper layer code sequence (Picture upper layer encoding unit);
  • a second code string generation unit 104 that outputs a second code string in which the first code string and the picture upper layer code string are associated with each other.
  • the display control information generation unit 103 performs sequence unit display control information used in common in the display processing of all the pictures belonging to the sequence to be encoded, and the display processing of the picture to be encoded. Display control information composed of picture unit display control information used individually is generated.
  • the second code sequence generation unit 104 (picture upper layer encoding unit) performs sequence unit display control information on a video information area included in a sequence header generated in sequence units in the picture upper layer code sequence. Is stored.
  • the second code string generation unit 104 (picture upper layer coding unit) displays sequence unit displays of the same value for each extended information area of each picture belonging to the same sequence in the picture upper layer code string. Stores control information.
  • the second code sequence generation unit 104 (picture upper layer encoding unit) stores picture unit display control information in an extended information area generated in units of pictures in the picture upper layer code sequence.
  • the display control information generation unit 103 generates sequence unit display control information including a first identifier for identifying whether the moving image signal to be encoded is in a progressive format or an interlace format.
  • the display control information generation unit 103 determines whether or not two fields belonging to the same frame are always consecutive in the encoding order in the sequence when the encoding target moving image signal is in an interlace format. Sequence unit display control information including a second identifier to be identified is generated.
  • the display control information generation unit 103 is configured to perform the sequence of the intervals in the encoding order of the first field and the second field belonging to the same frame.
  • the sequence unit display control information including information indicating the maximum value in is generated.
  • the display control information generation unit 103 displays (1) one frame belonging to a progressive video signal or (2) an interlace video in the display processing of a picture to be encoded.
  • a picture unit display including a third identifier for designating whether to display as a top field belonging to a signal, (3) to display as a bottom field belonging to an interlaced moving image signal, or (4) to display in another system Generate control information.
  • the display control information generation unit 103 (1) belongs to the interlaced video signal in the display processing of the picture to be encoded only when the video signal to be encoded is in the interlace format.
  • Display unit display control information including a third identifier for designating whether to display as a top field or (2) to display as a bottom field belonging to an interlaced moving image signal is generated.
  • the display control information generation unit 103 when decoding and displaying the encoding target picture, displays the same frame as the encoding target picture when displaying it as a top field or a bottom field belonging to an interlaced video signal.
  • Display unit-by-picture display control information including designation information for designating a pair of pictures belonging to.
  • the display control information generating unit 103 describes display order information assigned to a pair of pictures belonging to the same frame as the encoding target picture as the designation information.
  • the display control information generation unit 103 uses the display order information assigned to the encoding target picture as the designation information and the display order assigned to a pair of pictures belonging to the same frame as the encoding target picture. Describe the difference value from the information.
  • the moving image encoding method of the present embodiment encodes an input moving image signal in units of pictures.
  • This video encoding method is Obtain moving image format information indicating whether the moving image format of the moving image signal is an interlace format or a progressive format, Generating display control information used when displaying the encoded moving image signal as a moving image signal in the moving image format indicated by the moving image format information based on the moving image format information;
  • the moving image format information indicates a progressive format, one frame in the moving image signal is set as a picture in the order of encoding.
  • the moving image format information indicates an interlaced format, one frame in the moving image signal is displayed.
  • a block layer code string is generated by encoding pixel data included in a set picture using a common signal processing method and a common syntax structure that are independent of the video format for each block, which is a unit of coding processing.
  • the encoding control information applied in units of slices when encoding the pixel data is encoded using a common signal processing method and a common syntax structure independent of the moving image format, thereby enabling slice layer coding.
  • FIG. 9 is a block diagram of a video decoding device according to this embodiment.
  • the moving picture decoding apparatus 200 includes a second code string analysis unit 201, a display control information analysis unit 202, a picture data decoding unit 210, and an output picture setting unit 203.
  • the picture data decoding unit 210 includes a first code string analysis unit 211, a prediction residual decoding unit 212, a picture memory 213, a prediction decoding unit 214, and a quantization value determination unit 215.
  • the second code string analysis unit 201 extracts display control information and information related to decoding control in units of sequences and pictures from the code string of header information included in the input code string signal 251. Then, the second code string analysis unit 201 outputs the extracted information to the display control information analysis unit 202 as a display control information signal 252.
  • the picture data decoding unit 210 performs a decoding process on a block basis for the code sequence of the picture data included in the input code sequence signal 251 to generate a decoded image of the target picture.
  • a common decoding process is applied as a picture, and a code string of picture data to be decoded is also a common thin code. Have a tax.
  • the display control information analysis unit 202 analyzes the display control information signal 252 output from the second code string analysis unit 201, and determines whether the moving image to be decoded is in a progressive format or an interlace format. Then, the display control information analysis unit 202 outputs a display control signal 253 based on the determination result to the output picture setting unit 203.
  • the output picture setting unit 203 rearranges the decoded pictures generated by the picture data decoding unit 210 in the order of output according to the display control signal 253 output from the display control information analysis unit 202. Then, the output picture setting unit 203 outputs the rearranged picture as an output image signal 254 to the outside.
  • the output image signal 254 has both a progressive format and an interlace format. In the progressive format, display control is performed with one picture as one frame, and in the interlace format, one picture as one field. Done.
  • the first code string analysis unit 211 analyzes the decoding control information and the block unit picture data by performing variable length decoding on the code string of the picture data of the input code string signal 251.
  • the first code string analyzer 211 outputs the residual encoded signal 261 obtained by analysis to the prediction residual decoder 212. Further, the first code string analysis unit 211 outputs the prediction information signal 265 obtained by the analysis to the prediction decoding unit 214. Further, the first code string analysis unit 211 outputs the quantization value information obtained by the analysis to the quantization value determination unit 215.
  • the prediction residual decoding unit 212 generates a residual decoded signal 262 by performing inverse quantization and inverse orthogonal transform on the residual encoded signal 261 output from the first code string analyzing unit 211. , Output to the addition operation unit 216. At this time, the prediction residual decoding unit 212 dequantizes the residual encoded signal 261 using the quantized value determined by the quantized value determining unit 215.
  • the picture memory 213 stores the reconstructed image signal 263 output from the addition operation unit 216. This reconstructed image signal 263 is used as reference pixel data in predictive coding processing in decoding of a picture after the current picture to be decoded. In response to the read command from the predictive decoding unit 214, the picture memory 213 outputs the stored reconstructed image signal 263 to the predictive decoding unit 214 as pixel data. At the same time, the reconstructed image signal 263 is output to the output picture setting unit 203 as a final output image.
  • the predictive decoding unit 214 generates a predicted image signal 264 using intra prediction or inter prediction based on the prediction information signal 265 output from the first code string analysis unit 211, and adds the prediction image signal 264 to the addition operation unit 216. Output. Note that the predictive decoding unit 214 uses the reconstructed image signal 263 of past pictures that have already been decoded and stored in the picture memory 213 when using inter-screen prediction. In addition, when using intra prediction, the reconstructed image signal 263 of the current picture of an already decoded block adjacent to the decoding target block is used. The determination of whether to use intra prediction or inter prediction is performed according to the input prediction information signal 265.
  • the addition operation unit 216 adds the residual decoded signal 262 output from the prediction residual decoding unit 212 and the predicted image signal 264 output from the prediction decoding unit 214 to generate a reconstructed image signal 263. And output to the picture memory 213.
  • the second code string analysis unit 201 performs code string analysis of the header area in sequence units (S1401).
  • the display control information analysis unit 202 acquires display control information in sequence units.
  • the second code string analysis unit 201 performs code string analysis of the header area in units of pictures (S1402).
  • the display control information analysis unit 202 acquires display control information for each picture.
  • the picture data decoding unit 210 performs a series of decoding processes described with reference to FIG. 9, and generates a decoded image of the target picture (S1403).
  • a common decoding process is performed without any distinction whether the moving image format is the progressive format or the interlace format.
  • the output picture setting unit 203 performs processing for rearranging the decoded images stored in the decoding order in the display order and selecting a picture to be displayed (S1404). At this time, the output picture setting unit 203 rearranges the pictures according to the display control method analyzed by the display control information analysis unit 202.
  • step S1402 the process returns to step S1402 to proceed to the decoding process for the next picture, and from step S1402 to step S1402 until the decoding process for all the pictures in the sequence is completed.
  • step S1404 is repeated (S1405).
  • step S1404 Picture Rearrangement The picture rearrangement process in step S1404 will be described in detail with reference to FIG. 11, FIG. 12, and FIG.
  • FIG. 3 As an example of the picture rearrangement method when the moving image format is the progressive format, there is a method as shown in FIG. This rearrangement is the reverse of the rearrangement process of the progressive format in the encoding apparatus described with reference to FIG. 3, and the decoded picture is rearranged and displayed as one frame.
  • FIGS. 12 and 13 there is a method as shown in FIGS. 12 and 13 as an example of a picture rearrangement method when the moving image format is an interlace format.
  • This rearrangement is the reverse of the interlace format rearrangement process in the encoding apparatus described with reference to FIGS. 4 and 5, and one decoded picture is always rearranged as one field. Is displayed.
  • the top field and the bottom field belonging to one frame are always rearranged in pairs.
  • P_2 and P_3 are rearranged as FldT6 and FldB7, and the display order is always continuous.
  • the decoded top field and bottom field can be continuously sent to the display process, and the memory management process in the output picture setting unit 203 can be simplified.
  • FIG. 13 the rearrangement is performed regardless of which frame the top field and the bottom field belong to.
  • the structure is exactly the same as that of the progressive format described in FIG. 11.
  • P_4 and B_8 are rearranged as FldT6 and FldB7, and the decoding order is separated by 4 pictures.
  • the two fields must be rearranged in pairs.
  • other fields are rearranged so that two fields separated from each other by one picture to four pictures are paired in decoding order.
  • the picture memory 213 performs processing for securing an area for the next stored picture by deleting unnecessary pictures from the stored pictures from the memory in order to limit the memory capacity. Done.
  • a picture that satisfies the following two conditions: (1) a picture that is no longer used as reference pixel data in the predictive encoding process, and (2) a picture that has already been sent to the display process Can be deleted. That is, when the moving image format is the interlace format, the decoding process of both the top field and the bottom field belonging to one frame is completed, and the display process of both pictures is completed. It can be deleted from the memory 213.
  • the moving picture decoding apparatus 200 decodes a code string obtained by encoding a moving picture signal having an interlaced or progressive moving picture format in units of pictures.
  • the moving picture decoding apparatus 200 includes: A second code string analyzing unit 201 that analyzes the code string and obtains the picture upper layer code string and the first code string; A second code string analysis unit 201 (picture upper layer) that acquires, from a picture upper layer code string, encoding control information used when encoding a moving image signal and display control information used when displaying a decoded picture Layer decryption unit), Decode the first code string using common syntax analysis and common signal processing method independent of the video format, and information commonly used during encoding regardless of the video format among the encoding control information A picture data decoding unit 210 that obtains a picture by decoding for each block that is a processing unit; When the display control information indicates the progressive format, the acquired picture is set as one frame and the frames are output one by one in the display order. On the other
  • the second code stream analysis unit 201 (picture upper layer decoding unit) includes sequence unit display control information commonly used in display processing of all pictures belonging to a sequence to be decoded, and decoding. And picture unit display control information used individually in the display processing of the picture to be converted.
  • the second code string analysis unit 201 obtains sequence unit display control information from the video information area included in the sequence header analyzed in sequence units in the picture upper layer code sequence. To do.
  • sequence unit display control information of the same value is stored in each extended information area of each picture unit belonging to the same sequence.
  • the second code string analysis unit 201 acquires picture unit display control information from the extended information area analyzed in units of pictures in the picture upper layer code string.
  • the second code stream analysis unit 201 (picture upper layer decoding unit) includes a first identifier that identifies whether a moving image signal to be decoded is in a progressive format or an interlace format.
  • Get display control information The output picture setting unit 203 changes the picture output method based on the acquired first identifier.
  • the second code stream analysis unit 201 (picture upper layer decoding unit) is configured such that when the decoding target moving image signal is in an interlace format, two fields belonging to the same frame are always in the decoding order in the sequence.
  • sequence unit display control information including a second identifier for identifying whether or not they are continuous with each other.
  • the output picture setting unit 203 changes the picture output method based on the acquired second identifier.
  • the second code stream analysis unit 201 (picture upper layer decoding unit) performs the first field and the second field belonging to the same frame when the video signal to be decoded is in the interlace format.
  • Sequence unit display control information including information indicating the maximum value in the sequence of the interval in the decoding order of
  • the output picture setting unit 203 changes the picture output method based on the acquired information indicating the maximum value.
  • the second code stream analysis unit 201 displays (1) one frame belonging to a progressive video signal in the display processing of a picture to be decoded. , (2) Designate whether to display as a top field belonging to an interlaced moving image signal, (3) Display as a bottom field belonging to an interlaced moving image signal, or (4) Specify other methods Obtaining picture unit display control information including the third identifier; The output picture setting unit 203 changes the picture output method based on the acquired third identifier.
  • the second code stream analysis unit 201 (picture upper layer decoding unit) performs (1) in the display processing of the picture to be decoded only when the video signal to be decoded is in the interlace format.
  • the output picture setting unit 203 changes the picture output method based on the acquired third identifier.
  • the second code stream analysis unit 201 (picture upper layer decoding unit) displays a decoding target picture
  • decoding is performed.
  • the output picture setting unit 203 outputs the picture to be paired with the picture designated by the designation information.
  • the second code string analysis unit 201 acquires display order information assigned to a pair of pictures belonging to the same frame as the decoding target picture as the designation information.
  • the second code stream analysis unit 201 uses, as the designation information, the display order information assigned to the decoding target picture and the pair belonging to the same frame as the decoding target picture. The difference value with the display order information assigned to the picture is acquired.
  • the moving picture decoding method decodes a code string obtained by coding a moving picture signal having a moving picture format of an interlace format or a progressive format in units of pictures.
  • This video decoding method is: Analyzing the code sequence, obtaining the picture upper layer code sequence and the first code sequence, From the picture upper layer code string, obtain the encoding control information used when encoding the video signal and the display control information used when displaying the decoded picture, Decode the first code string using common syntax analysis and common signal processing method independent of the video format, and information commonly used during encoding regardless of the video format among the encoding control information Decoding for each block that is a processing unit, obtaining a picture, When the display control information indicates the progressive format, the acquired picture is set as one frame and the frames are output one by one in the display order. On the other hand, when the display control information indicates the interlace format, the acquired picture is displayed in one field. And when the paired top field and bottom field are acquired, they are output in the display order.
  • both a code string obtained by encoding a progressive moving picture and a code string obtained by encoding an interlaced moving picture are used. It is possible to perform decoding processing and display control of picture data with common control without increasing the processing amount. As a result, the decoding device can be easily mounted.
  • FIG. 14 is a block diagram of a video encoding device according to this embodiment.
  • the moving picture coding apparatus 100-1 uses a picture data coding section 110-1 and a second code string generation section 104 instead of the picture data coding section 110 and the second code string generation section 104 of the moving picture coding apparatus 100 according to the first embodiment.
  • a 2 code string generation unit 104-1 is provided.
  • the picture data encoding unit 110-1 includes a first code string generation unit 117-1 instead of the first code string generation unit 117.
  • the picture data encoding unit 110-1 divides each picture input from the picture setting unit 101 into blocks, performs encoding processing in units of blocks, and generates a code string of picture data. At this time, a common encoding process is applied in units of pictures without depending on whether the moving image format is a progressive format or an interlace format, and a code string of picture data generated as a result also has a common syntax. have. Further, in the present embodiment, the picture data encoding unit 110-1 generates a sequence header code string and a picture header code string.
  • the first code string generation unit 117-1 includes a residual encoded signal 162 output from the prediction residual encoding unit 112, a prediction information signal 166 output from the prediction encoding unit 115, and a quantization value determination unit 116.
  • a code string of picture data is generated by variable-length encoding the output quantization value and other information related to encoding control. Further, in the present embodiment, the first code string generation unit 117-1 encodes information related to sequence-unit and picture-unit encoding control as header information, and generates a sequence header code string and a picture header code string. .
  • the second code string generation unit 104-1 encodes the display control information signal 153 output from the display control information generation unit 103, and generates an extended information area code string.
  • the display control information signal 153 includes display control information in sequence units and picture units. Further, the second code string generation unit 104-1 associates the generated extended information area code string with the sequence header, the picture header, and the code string of the picture data generated by the picture data encoding unit 110, and finally A code string signal 154 as an output is generated.
  • Display Control Information Generation Method Upon receiving the video format signal 152 from the video format specification unit 102, the display control information generation unit 103 generates a display control information signal 153, and the second code sequence generation unit 104-1 generates a code sequence. And a method of rearranging the input images in the encoding order in the picture setting unit 101 will be specifically described with reference to the flowchart of the entire encoding process in FIG.
  • the first code string generation unit 117-1 generates a code string for the header area in sequence units (S1801).
  • the first code string generation unit 117-1 generates a code string of the header area in units of pictures (S1802).
  • the display control information generation unit 103 generates display control information in units of sequences and display control information in units of pictures according to the video format specified by the video format specification unit 102 (S1803).
  • the second code string generation unit 104-1 encodes the display control information and describes it in the extended information area in the code string.
  • the picture setting unit 101 rearranges the input images input in the display order in the encoding order, and selects a picture to be encoded (S1804). At this time, the picture setting unit 101 rearranges pictures according to the moving image format specified by the moving image format specifying unit 102.
  • the picture data encoding unit 110-1 performs the series of encoding processes described above to generate a code string of picture data (S1805).
  • step S1805 a common encoding process is performed without any distinction whether the moving image format is the progressive format or the interlace format.
  • step S1802 when the processing of the current picture to be encoded is completed, the process returns to step S1802 to move to the encoding process for the next picture, and from step S1802 to step S1802 until all the pictures in the sequence are completed.
  • the process of S1805 is repeated (S1806).
  • step S1804 Picture Rearrangement
  • the picture rearrangement process in step S1804 is the same as the process described in the first embodiment with reference to FIG. 3, FIG. 4, and FIG. Therefore, explanation is omitted.
  • the generated code string includes a sequence header area describing coding control information in units of sequences, a picture header area describing coding control information in units of pictures, an extension information area describing auxiliary information in units of pictures, and picture data It consists of At this time, both the display control information in sequence units and the display control information in picture units are described in the extended information area. Each information other than the display control information is described in a code string with a common syntax without any distinction even if the input image format is a progressive format and an interlace format.
  • interlace_flag, continuous_flag, max_distance_flag, pic_struct, and field_pair_POC are all described in pic_timing_SEI (). The detailed description of each parameter is the same as that described with reference to FIGS.
  • the interlace_flag, continuous_flag, and max_distance_flag of the display control information in sequence units are redundant, but the same value is always repeatedly described for each picture in the sequence. Become. However, as shown in FIG. 17, all the display control information is collectively described in the extended information area, so that all the syntax areas other than the extended information area are in the progressive format and the interlace format. Can be made a common syntax without any distinction. Therefore, the encoding process can be further simplified.
  • parameter names and parameter values described here are merely examples, and similar functions may be realized using other parameter names and parameter values. Further, it is possible to use only one set of parameters without using all the parameters described here. In addition, here, an example of describing in the area of pic_timing_SEI () has been described, but it may be described in other areas as long as it can describe control information in units of pictures.
  • the moving image encoding apparatus 100-1 of the present embodiment encodes an input moving image signal in units of pictures.
  • This moving image encoding apparatus 100-1 includes: A moving image format specifying unit 102 (moving image format information acquiring unit) that acquires moving image format information indicating whether the moving image format of the moving image signal is an interlace format or a progressive format; Display control information generating unit that generates display control information used when displaying the moving image indicated by the encoded moving image signal as a moving image in the moving image format indicated by the moving image format information based on the moving image format information 103, When the moving image format information indicates a progressive format, one frame in the moving image signal is set as a picture and rearranged in the encoding order.
  • a picture setting unit 101 that sets a picture as a picture and rearranges the pictures in a coding order;
  • the picture data encoding unit 110- that outputs the first code string by encoding the pixel data included in the set picture using a common signal processing method and a common syntax structure independent of the moving picture format 1 and
  • a second code sequence generation unit 104-1 extended information region encoding unit
  • a second code string generation unit 104-1 for outputting a second code string in which the first code string and the extended information region code string are associated with each other,
  • the display control information includes sequence unit display control information commonly used in the display processing of all pictures belonging to the sequence to be encoded, and picture units used individually in the display processing of the picture to be encoded.
  • Display control information, Second code string generation section 104-1 stores the extended information area code string in an extended information area generated in units of pictures.
  • the second code string generation unit 104-1 (extended information region encoding unit) stores sequence unit display control information having the same value in each extended information region of each picture belonging to the same sequence.
  • the display control information generation unit 103 generates sequence unit display control information including a first identifier for identifying whether the moving image signal to be encoded is in a progressive format or an interlace format.
  • the display control information generation unit 103 determines whether or not two fields belonging to the same frame are always consecutive in the encoding order in the sequence when the encoding target moving image signal is in an interlace format. Sequence unit display control information including a second identifier to be identified is generated.
  • the display control information generation unit 103 is configured to perform the sequence of the intervals in the encoding order of the first field and the second field belonging to the same frame.
  • the sequence unit display control information including information indicating the maximum value in is generated.
  • the display control information generation unit 103 displays (1) one frame belonging to a progressive video signal or (2) an interlace video in the display processing of a picture to be encoded.
  • a picture unit display including a third identifier for designating whether to display as a top field belonging to a signal, (3) to display as a bottom field belonging to an interlaced moving image signal, or (4) to display in another system Generate control information.
  • the display control information generation unit 103 (1) belongs to the interlaced video signal in the display processing of the picture to be encoded only when the video signal to be encoded is in the interlace format.
  • Display unit display control information including a third identifier for designating whether to display as a top field or (2) to display as a bottom field belonging to an interlaced moving image signal is generated.
  • the display control information generation unit 103 when decoding and displaying the encoding target picture, displays the same frame as the encoding target picture when displaying it as a top field or a bottom field belonging to an interlaced video signal.
  • Display unit-by-picture display control information including designation information for designating a pair of pictures belonging to.
  • the display control information generating unit 103 describes display order information assigned to a pair of pictures belonging to the same frame as the encoding target picture as the designation information.
  • the display control information generation unit 103 uses the display order information assigned to the encoding target picture as the designation information and the display order assigned to a pair of pictures belonging to the same frame as the encoding target picture. Describe the difference value from the information.
  • the moving image encoding method of the present embodiment encodes an input moving image signal in units of pictures.
  • This video encoding method is Obtain moving image format information indicating whether the moving image format of the moving image signal is an interlace format or a progressive format, Generating display control information to be used when displaying the moving image indicated by the encoded moving image signal as a moving image in the moving image format indicated by the moving image format information based on the moving image format information;
  • the moving image format information indicates a progressive format
  • a plurality of frames included in the moving image signal are rearranged in the encoding order, and each of the plurality of frames is set as a picture
  • the moving image format information indicates an interlaced format
  • Arrange a plurality of fields included in the image signal in the order of encoding, and set each of the plurality of fields as a picture in the order of encoding By encoding the pixel data included in the set picture using a common signal processing method and a common syntax structure independent of the moving image format, a first code
  • the amount of processing can be increased both when a progressive moving image is input and when an interlaced moving image is input. Therefore, it is possible to perform the encoding process of the picture data with common control, and the encoding apparatus can be easily implemented.
  • a decoding process for decoding a coded code string to generate a decoded image, and a display process for displaying the generated decoded image in accordance with a corresponding display device are performed. It is controlled as a separate hierarchy.
  • the former may be configured by hardware and the latter may be configured by software.
  • the same hardware is used to perform the decoding process, and only the software that performs the display process is created for each device. Can be reduced.
  • FIG. 18 is a block diagram of a video decoding device according to this embodiment.
  • the moving picture decoding apparatus 200-1 uses a picture data decoding section 210-1, a second code string analysis section 201, a picture data decoding section 210-1, a second code stream analysis section 201, and the like.
  • a two code string analysis unit 201-1 is provided.
  • the picture data decoding unit 210-1 includes a first code string analysis unit 211-1, instead of the first code string analysis unit 211.
  • the second code string analysis unit 201 extracts at least display control information from the extended information area of the code string of the header information included in the input code string signal 251. Then, the second code string analysis unit 201 outputs the extracted information to the display control information analysis unit 202 as a display control information signal 252.
  • the picture data decoding unit 210 performs a decoding process on a block basis for the code sequence of the picture data included in the input code sequence signal 251 to generate a decoded image of the target picture.
  • a common decoding process is applied as a picture, and a code string of picture data to be decoded is also a common thin code. Have a tax.
  • the first code string analysis unit 211 analyzes the decoding control information and the block unit picture data by performing variable length decoding on the code string of the picture data of the input code string signal 251.
  • This decoding control information includes information related to decoding control in sequence units and picture units.
  • the first code string analyzer 211 outputs the residual encoded signal 261 obtained by analysis to the prediction residual decoder 212. Further, the first code string analysis unit 211 outputs the prediction information signal 265 obtained by the analysis to the prediction decoding unit 214. Further, the first code string analysis unit 211 outputs the quantization value information obtained by the analysis to the quantization value determination unit 215.
  • the first code string analysis unit 211-1 performs code string analysis of the header area in sequence units (S1901).
  • the first code string analysis unit 211-1 performs code string analysis of the header area in units of pictures (S1902).
  • the second code string analysis unit 201-1 performs code string analysis of the extended information area (S1903).
  • the display control information analysis unit 202 acquires display control information in sequence units and display control information in picture units.
  • the picture data decoding unit 210-1 performs a series of decoding processes to generate a decoded image of the target picture (S1904).
  • step S1904 even if the moving image format is a progressive format and an interlace format, a common decoding process is performed without any distinction.
  • the output picture setting unit 203 rearranges the decoded images stored in the decoding order in the display order, and selects a picture to be displayed (S1905). At this time, the output picture setting unit 203 rearranges the pictures according to the display control method analyzed by the display control information analysis unit 202.
  • step S1902 the process returns to step S1902 to proceed to the decoding process for the next picture, and from step S1902 to step S1902 until all the pictures in the sequence are decoded.
  • step S1904 is repeated (S1905).
  • step S1905 Picture Rearrangement
  • the picture rearrangement process in step S1905 is the same as the process described with reference to FIGS. 11, 12, and 13 in the second embodiment. Therefore, the description is omitted.
  • the moving picture decoding apparatus 200-1 decodes a code string obtained by coding a moving picture signal having an interlaced or progressive moving picture format in units of pictures.
  • This moving picture decoding apparatus 200-1 includes: A second code string analyzing unit 201-1 for analyzing the code string and obtaining the extended information region code string and the first code string; A second code sequence analysis unit 201-1 (extended information region decoding unit) that acquires display control information used when displaying a decoded picture from the extended information region code sequence; A picture data decoding unit 210-1 that decodes the first code string using a common syntax analysis independent of the moving image format and a common signal processing method to obtain a picture; When the display control information indicates the progressive format, the acquired picture is set as one frame and the frames are output one by one in the display order.
  • the display control information When the display control information indicates the interlace format, the acquired picture is set as one field.
  • the display control information includes sequence unit display control information commonly used in display processing of all pictures belonging to a sequence to be decoded, and picture units used individually in display processing of pictures to be decoded.
  • the extended information area decoding unit 201-1 acquires each display control information from the extended information area in units of pictures.
  • sequence unit display control information of the same value is stored in each extended information area of each picture unit belonging to the same sequence.
  • the second code string analysis unit 201-1 (extended information region decoding unit) includes a first identifier for identifying whether the moving image signal to be decoded is in a progressive format or an interlace format.
  • Get sequence unit display control information
  • the output picture setting unit 203 changes the picture output method based on the acquired first identifier.
  • the second code string analysis unit 201-1 extended information region decoding unit always decodes two fields belonging to the same frame in the sequence.
  • the output picture setting unit 203 changes the picture output method based on the acquired second identifier.
  • the second code stream analysis unit 201-1 extended information region decoding unit
  • Sequence unit display control information including information indicating the maximum value in the sequence of the interval in the decoding order of the field of
  • the output picture setting unit 203 changes the picture output method based on the acquired information indicating the maximum value.
  • the second code stream analysis unit 201-1 displays (1) one frame belonging to a progressive video signal in the display processing of a picture to be decoded. Or (2) display as a top field belonging to an interlaced moving image signal, (3) display as a bottom field belonging to an interlaced moving image signal, or (4) display in another method.
  • the output picture setting unit 203 changes the picture output method based on the acquired third identifier.
  • the second code stream analysis unit 201-1 extended information region decoding unit
  • the second code stream analysis unit 201-1 extended information region decoding unit
  • Picture unit display control information including a third identifier for designating whether to display as a top field belonging to an interlaced moving image signal or (2) to display as a bottom field belonging to an interlaced moving image signal Acquired
  • the output picture setting unit 203 changes the picture output method based on the acquired third identifier.
  • the second code stream analysis unit 201-1 displays the decoding target picture as a top field or a bottom field belonging to an interlaced moving image signal.
  • the output picture setting unit 203 outputs the picture to be paired with the picture designated by the designation information.
  • the second code stream analysis unit 201-1 obtains display order information assigned to a pair of pictures belonging to the same frame as the decoding target picture as the designation information. To do.
  • the second code stream analysis unit 201-1 (extended information area decoding unit) belongs to the same frame as the decoding target picture and the display order information assigned to the decoding target picture as the designation information. A difference value from the display order information assigned to the paired pictures is acquired.
  • the moving picture decoding method decodes a code string obtained by coding a moving picture signal having a moving picture format of an interlace format or a progressive format in units of pictures.
  • This video decoding method is: Analyzing the code string, obtaining the extended information area code string and the first code string, Obtaining display control information to be used when displaying a decoded picture from the extended information area code string, Decode the first code stream using a common syntax analysis and a common signal processing method independent of the moving image format, obtain a picture, When the display control information indicates the progressive format, the acquired picture is set as one frame and the frames are output one by one in the display order. When the display control information indicates the interlace format, the acquired picture is set as one field.
  • the display control information includes sequence unit display control information commonly used in display processing of all pictures belonging to a sequence to be decoded, and picture units used individually in display processing of pictures to be decoded. Display control information, Each display control information is acquired from the extended information area in units of pictures.
  • an extended information area in which only information (display control information and the like) unnecessary for the encoding process is described, and an information in which information necessary for the decoding process is described are described. Is completely separated from other areas. This makes it easy to send only the code string required in each layer to the layer that performs the decoding process and the layer that performs the display process in the applications as described above, and the independence of each layer is high. Become. In other words, both the progressive decoding apparatus and the interlace decoding apparatus can be configured using completely the same layer (hardware) for performing the decoding process.
  • the functions equivalent to the means included in the moving picture coding apparatus and the moving picture decoding apparatus shown in the above embodiments may be realized as an LSI which is an integrated circuit. These may be integrated into one chip so as to include a part or all of them.
  • An LSI may be referred to as an IC, a system LSI, a super LSI, or an ultra LSI depending on the degree of integration.
  • the method of circuit integration is not limited to LSI, and implementation with a dedicated circuit or a general-purpose processor is also possible.
  • An FPGA Field Programmable Gate Array
  • a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used.
  • the present invention is applied to a broadcast wave recording apparatus such as a DVD recorder or a BD recorder that compresses and records a broadcast wave broadcast from a broadcast station, including the above-described moving picture encoding apparatus and moving picture decoding apparatus. It doesn't matter.
  • the present invention for example, in a video camera, a digital camera, a video recorder, a mobile phone, a personal computer, etc., a moving image encoding device that encodes each picture constituting an input image and outputs it as moving image encoded data
  • the present invention is useful as a moving picture decoding apparatus that decodes moving picture encoded data to generate a decoded picture.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

動画像復号化装置は、プログレッシブ形式の動画像を入力とした場合は1枚のフレームを1枚のピクチャとして処理し、インターレース形式の動画像を入力とした場合は1枚のフィールドを1枚のピクチャとして処理する。動画像復号化装置は、ピクチャデータの符号化に関して動画像の形式に依存することなく共通の復号化処理を行う。動画像復号化装置は、表示制御情報解析部において表示制御情報を解析することで、双方の動画像の形式に対応した表示制御を行う。表示制御情報は、復号化対象とするシーケンスに属する全てのピクチャの表示処理において共通して使用されるシーケンス単位表示制御情報と、復号化対象とするピクチャの表示処理において個別に使用されるピクチャ単位表示制御情報とから構成される。第2符号列解析部は、ピクチャ単位の拡張情報領域から、各表示制御情報を取得する。

Description

動画像復号化装置および動画像復号化方法
 本発明は、符号化されたプログレッシブ形式の動画像信号およびインターレース形式の動画像信号を入力とし、前記動画像信号を復号化する動画像復号化装置および動画像復号化方法に関する。
 近年、マルチメディアアプリケーションの発展に伴い、画像、音声及びテキストなど、あらゆるメディアの情報を統一的に扱うことが一般的になってきた。また、ディジタル化された画像は膨大なデータ量を持つ。そのため、蓄積及び伝送するには、画像の情報圧縮技術が不可欠になる。
 一方、圧縮した画像データを相互運用するためには、圧縮技術の標準化も重要である。例えば、画像圧縮技術の標準規格としては、ITU-T(国際電気通信連合 電気通信標準化部門)のH.261、H.263、H.264、ISO/IEC(国際標準化機構)のMPEG-1、MPEG-2、MPEG-4、MPEG-4AVCなどがある。また、現在、ITU-TとISO/IECとの共同によるHEVC(High-Efficiency Video Coding)と呼ばれる次世代画像符号化方式の標準化活動が進んでいる。
 このような動画像の符号化では、符号化対象ピクチャを符号化単位ブロックに分割し、ブロック毎に時間方向および空間方向の冗長性を削減する。これによって情報量の圧縮を行う。時間的な冗長性の削減を目的とする画面間予測符号化では、前方または後方のピクチャを参照してブロック単位で動きの検出および予測画像の作成を行い、得られた予測画像と符号化対象ブロックとの差分画像を取得する。また空間的な冗長性の削減を目的とする画面内予測符号化では、周辺の符号化済みブロックの画素情報から予測画像の生成を行い、得られた予測画像と符号化対象ブロックとの差分画像を取得する。さらに得られた差分画像に対して離散コサイン変換等の直交変換および量子化を行い、可変長符号化を用いて符号列を生成することで情報量が圧縮される。
 また復号化では、前記符号化処理によって生成された符号列を解析して予測情報および残差係数情報を取得する。さらに、予測情報を用いて画面間予測復号化および画面内予測復号化を行って予測画像を生成する。そして、残差係数情報に対して逆量子化および逆直交変換を行って差分画像を生成し、得られた予測画像と差分画像を加算することで最終的な出力画像を復元する。
 このとき符号化および復号化の対象となる動画像の形式として、プログレッシブ形式とインターレース形式との2種類の形式がある。
 プログレッシブ形式は、1画面全ての画素を同時に撮像し1枚のフレームとする形式である。一方、インターレース形式は、1画面の画素のうち偶数列目の画素のみを撮像したトップフィールドと奇数列目の画素のみを撮像したボトムフィールドとの2枚のフィールドで1枚のフレームを構成する形式である。
 図20および図21は、H.264において、プログレッシブ形式およびインターレース形式の動画像を符号化する方法を示している。プログレッシブ形式の動画像に対しては、図20にあるように1枚のフレームを1枚のピクチャとして符号化する。例えばFrm3はP_Frm1として符号化されている。また、このとき各ピクチャにはPOC(Picture Order Count)と呼ばれる表示順を指定する情報が割り当てられる。例えばP_Frm1は表示順ではFrm3の位置で表示されるためPOCとして3が割り当てられている。
 一方、インターレース形式の動画像に対しては、図21にあるように、1枚のフィールドを1枚のピクチャとして符号化する方法と、2枚のフィールドを1枚のピクチャとして符号化する方法とがある。例えばFldT6とFldB7はそれぞれP_FldT1とP_FldB2のように個別のフィールド構造のピクチャとして符号化されているが、FldT12とFldB13はP_Frm7のように1枚のフレーム構造のピクチャとして符号化されている。また、POCについては、フィールド構造として符号化するときは1つの値が1枚のピクチャに割り当てられるが、フレーム構造として符号化するときは2つの値が1枚のピクチャに割り当てられる。例えばP_Frm7は表示順ではFldT12とFldB13の位置に分割して表示されるためPOCとして12と13が割り当てられている(非特許文献1)。
 一方、HEVCは、プログレッシブ形式の動画像に対してのみ符号化可能な符号化方式であり、図20にあるように1枚のフレームを1枚のピクチャとして符号化する方法のみが定義されている(非特許文献2)。
ITU-T H.264 : Advanced video coding for generic audiovisual services (03/2010) JCT-VC WD2 : Working Draft 2 of High-Efficiency Video Coding (03/2011)
 今後、動画像の形式の主流はインターレース形式からプログレッシブ形式へと移っていくことが予想されている。しかし現存する映像コンテンツの中にはインターレース形式で作成されたものが多く存在し、今後もそれらのコンテンツを有効に活用していくことが必要と考えられる。
 しかし、前述のとおり、現在標準化が行われているHEVCではプログレッシブ形式に対してのみの符号化方法が定義されており、インターレース形式のコンテンツを符号化することができない。
 本発明は上記課題を解決するものであり、HEVCを用いた動画像の符号化および復号化において、インターレース形式への対応を容易に実現することを目的とする。
 本発明における動画像復号化装置は、インターレース形式またはプログレッシブ形式の動画像形式を有する動画像信号をピクチャ単位で符号化して得られる符号列を、ピクチャ単位で復号化する。この動画像復号化装置は、
 前記符号列を解析し、拡張情報領域符号列および第1符号列を取得する第2符号列解析部と、
 前記拡張情報領域符号列から、復号化したピクチャを表示する際に利用する表示制御情報を取得する拡張情報領域復号化部と、
 前記動画像形式に依存しない共通のシンタックス解析および共通の信号処理方式を用いて前記第1符号列を復号化し、前記ピクチャを取得するピクチャデータ復号化部と、
 前記表示制御情報がプログレッシブ形式を示す場合、前記取得したピクチャを1枚のフレームと設定し前記フレームを表示順に1枚ずつ出力し、前記表示制御情報がインターレース形式を示す場合、前記取得したピクチャを1枚のフィールドと設定し、対になるトップフィールドとボトムフィールドを取得した時点で表示順に出力する出力ピクチャ設定部と、を備え、
 前記表示制御情報は、復号化対象とするシーケンスに属する全てのピクチャの表示処理において共通して使用されるシーケンス単位表示制御情報と、復号化対象とするピクチャの表示処理において個別に使用されるピクチャ単位表示制御情報とから構成され、
 前記拡張情報領域復号化部は、ピクチャ単位の拡張情報領域から、前記各表示制御情報を取得する。
 本発明における動画像復号化方法は、インターレース形式またはプログレッシブ形式の動画像形式を有する動画像信号をピクチャ単位で符号化して得られる符号列を、ピクチャ単位で復号化する。この動画像復号化方法は、
 符号列を解析し、拡張情報領域符号列および第1符号列を取得し、
 拡張情報領域符号列から、復号化したピクチャを表示する際に利用する表示制御情報を取得し、
 動画像形式に依存しない共通のシンタックス解析および共通の信号処理方式を用いて第1符号列復号化し、ピクチャを取得し、
 表示制御情報がプログレッシブ形式を示す場合、取得したピクチャを1枚のフレームと設定しフレームを表示順に1枚ずつ出力し、表示制御情報がインターレース形式を示す場合、取得したピクチャを1枚のフィールドと設定し、対になるトップフィールドとボトムフィールドを取得した時点で表示順に出力し、
 表示制御情報は、復号化対象とするシーケンスに属する全てのピクチャの表示処理において共通して使用されるシーケンス単位表示制御情報と、復号化対象とするピクチャの表示処理において個別に使用されるピクチャ単位表示制御情報とから構成され、
 ピクチャ単位の拡張情報領域から、各表示制御情報を取得する。
 なお、本発明は、このような動画像復号化装置として実現することができるだけでなく、このような動画像復号化装置に含まれる各手段と同等の処理をプログラムや集積回路としても実現することもできる。
 本発明における動画像復号化装置は、プログレッシブ形式の動画像を符号化した符号列に対しても、インターレース形式の動画像を符号化した符号列に対しても、処理量を増加させることなく共通の制御でピクチャデータの復号化処理および表示制御を行うことが可能となる。そのため、復号化装置の実装を容易に行うことができる。
 一般に動画像復号化装置においては、符号化された符号列を復号化して復号化画像を生成する復号化処理と、生成された復号化画像を対応する表示装置に合わせて表示させる表示処理とを別の階層として制御される。例えば前者をハードウェアで構成し、後者をソフトウェアで構成するといった方法が取られる。これにより、例えばテレビとパソコンのように表示方法が異なる装置の開発において、復号化処理を行うハードウェアは共通のものを使用し、表示処理を行うソフトウェアのみを装置毎に作成することで開発工数を削減することが可能となる。
 本発明では、符号化処理には不要な情報(表示制御情報等)のみを記述した拡張情報領域と、復号化処理に必要な情報を記述したそれ以外の領域とが完全に分離されている。これにより、上記のような用途において、復号化処理を行う階層と表示処理を行う階層とに、それぞれの階層で必要とされる符号列のみを送ることが容易となり、階層毎の独立性が高くなる。つまり、プログレッシブに対応した復号化装置もインターレースに対応した復号化装置も、復号化処理を行う階層(ハードウェア)を完全に共通のものを使用して装置を構成することが可能となる。
実施形態1に係る動画像符号化装置の構成を示すブロック図である。 実施形態1に係る符号化処理のフローチャートである。 実施形態1によるプログレッシブ形式の入力画像を符号化順に並び替える方法の一例を説明するための概念図である。 実施形態1によるインターレース形式の入力画像を符号化順に並び替える方法の一例を説明するための概念図である。 実施形態1によるインターレース形式の入力画像を符号化順に並び替える方法の別の一例を説明するための概念図である。 実施形態によって生成される符号列の構成を説明するための概念図である。 実施形態によって生成されるシーケンスヘッダのシンタックスの一例を説明するための概念図である。 実施形態によって生成される拡張情報のシンタックスの一例を説明するための概念図である。 実施形態2に係る動画像復号化装置の構成を示すブロック図である。 実施形態2に係る復号化処理のフローチャートである。 実施形態2によるプログレッシブ形式の復号化画像を表示順に並び替える方法の一例を説明するための概念図である。 実施形態2によるインターレース形式の復号化画像を表示順に並び替える方法の一例を説明するための概念図である。 実施形態2によるインターレース形式の復号化画像を表示順に並び替える方法の別の一例を説明するための概念図である。 実施形態3に係る動画像符号化装置の構成を示すブロック図である。 実施形態3に係る符号化処理のフローチャートである。 実施形態3によって生成される符号列の構成を説明するための概念図である。 実施形態3によって生成される拡張情報のシンタックスの一例を説明するための概念図である。 実施形態4に係る動画像復号化装置の構成を示すブロック図である。 実施形態4に係る復号化処理のフローチャートである。 従来のプログレッシブ形式の動画像の符号化方法を説明するための概念図である。 従来のインターレース形式の動画像の符号化方法を説明するための概念図である。
(本実施形態に至った経緯)
 本発明が解決しようとする課題の欄において説明したように、現在標準化が行われているHEVCではプログレッシブ形式に対してのみの符号化方法が定義されており、インターレース形式のコンテンツを符号化することができない。
 インターレース形式に対応するためには、図21を用いて説明したようなH.264と同様の符号化制御を導入する方法が考えられる。
 しかし、この方法を導入すると、符号化対象ピクチャがP_Frm7のようにフレーム構造のものなのか、P_FldT1のようにトップフィールド構造のものなのか、P_FldB2のようにボトムフィールド構造のものなのかを区別して符号化および復号化処理を行わなくてはならない。
 また、HEVCでは過去に符号化したピクチャの符号化情報を参照して符号化対象のピクチャの符号化処理を行う。そのため、例えば符号化対象がP_Frm7で符号化情報を参照するピクチャがP_FldT1とP_FldB2であった場合、フィールド構造の2枚のピクチャの符号化情報をフレーム構造の1枚のピクチャの符号化情報に加工して参照しなくてはならない。したがって、処理が非常に複雑になってしまう。
 そこで、本実施形態の動画像符号化装置では、動画像形式情報がプログレッシブ形式を示す場合、動画像信号における1枚のフレームをピクチャとして設定し、動画像形式情報がインターレース形式を示す場合、動画像信号における1枚のフィールドをピクチャとして設定する。そして、設定したピクチャに含まれる画素データを、動画像形式に依存しない共通の信号処理方式および共通のシンタックス構造を用いて符号化する。
 また、本実施形態の動画像復号化装置では、動画像形式に依存しない共通のシンタックス解析および共通の信号処理方式を用いて第1符号列を復号化し、ピクチャを取得する。そして、表示制御情報がプログレッシブ形式を示す場合、取得したピクチャを1枚のフレームと設定してフレームを表示順に1枚ずつ出力し、表示制御情報がインターレース形式を示す場合、取得したピクチャを1枚のフィールドと設定して対になるトップフィールドとボトムフィールドを取得した時点で表示順に出力する。
 以下、本実施形態の動画像符号化装置及び動画像復号化装置について詳しく説明する。
(実施の形態1)(符号化処理)
 実施形態1について、図面を参照しながら説明する。
1.動画像符号化装置の構成
 図1は、本実施形態に係る動画像符号化装置のブロック図である。
 この動画像符号化装置100は、ピクチャ設定部101と、動画像形式指定部102と、表示制御情報生成部103と、第2符号列生成部104と、ピクチャデータ符号化部110とを備えている。また、ピクチャデータ符号化部110は、ピクチャメモリ111と、予測残差符号化部112と、予測残差復号化部113と、ローカルバッファ114と、予測符号化部115と、量子化値決定部116と、第1符号列生成部117とを含む。
 ピクチャ設定部101は、表示を行う順にピクチャ単位で入力される入力画像信号151を、動画像形式指定部102から入力される動画像形式信号152に従って、符号化を行う順にピクチャの並び替えを行ってピクチャデータ符号化部110に出力する。このとき、ピクチャの動画像形式がプログレッシブ形式であれば入力画像信号151の1枚のフレームを1枚のピクチャとして設定し、動画像形式がインターレース形式であれば入力画像信号151の1枚のフィールドを1枚のピクチャとして設定する。
 ピクチャデータ符号化部110は、ピクチャ設定部101から入力された各ピクチャをブロックに分割し、ブロック単位で符号化処理を行ってピクチャデータの符号列を生成する。このとき、動画像形式がプログレッシブ形式であるかインターレース形式であるかに依存することなく、ピクチャ単位で共通の符号化処理が適用され、その結果生成されるピクチャデータの符号列も共通のシンタックスを持つ。
 動画像形式指定部102は外部からの指定もしくは入力された画像信号の情報を基に、符号化対象の動画像がプログレッシブ形式であるかインターレース形式であるかを決定する。そして、動画像形式指定部102は、動画像形式信号152を表示制御情報生成部103およびピクチャ設定部101に出力する。
 表示制御情報生成部103は、動画像形式指定部102から入力された動画像形式信号152に従って、表示制御情報信号153を生成し、第2符号列生成部104に出力する。
 ここで、表示制御情報信号153は、当該動画像符号化装置100に対応する動画像復号化装置において復号化画像を表示する際に使用する制御情報信号である。
 第2符号列生成部104は、表示制御情報生成部103が出力する表示制御情報信号153と、シーケンス単位およびピクチャ単位の符号化制御に関する情報をヘッダ情報として符号化し、ピクチャ上位層符号列を生成する。さらに、第2符号列生成部104は、生成したピクチャ上位層符号列と、ピクチャデータ符号化部110が生成するピクチャデータの符号列とを対応づけ、最終的な出力である符号列信号154を生成する。
 次に、ピクチャデータ符号化部110の処理について説明する。
 ピクチャメモリ111は、ピクチャ設定部101から出力されたピクチャ単位の入力画像に対して、複数の画素から構成されるブロックへの分割を行う。ブロックは、符号化処理単位である。分割されたブロック単位で、差分演算部118、予測符号化部115、量子化値決定部116からの読出し命令に応じて対応する画像信号をそれぞれ出力する。このブロックは、例えば水平64×垂直64画素、水平32×垂直32画素、水平16×垂直16画素から成る。つまり、このブロックのサイズは、以降の処理が可能なサイズであればどのようなサイズでも構わない。
 予測残差符号化部112は、差分演算部118から出力される差分画像信号161に対して直交変換を行う。さらに、予測残差符号化部112は、得られた各周波数成分の直交変換係数を量子化し、残差符号化信号162を生成する。そして、予測残差符号化部112は、生成した残差符号化信号162を、予測残差復号化部113および第1符号列生成部117に出力する。このとき予測残差符号化部112は、量子化値決定部116において決定された量子化値を用いて直交変換係数を量子化する。
 予測残差復号化部113は、予測残差符号化部112から出力される残差符号化信号162に対して、逆量子化および逆直交変換を行うことで差分画像情報の復元を行う。そして、予測残差復号化部113は、生成した残差復号化信号163を加算演算部119に出力する。
 ローカルバッファ114は、加算演算部119から出力される再構成画像信号164を格納する。この再構成画像信号164は、現在符号化対象となっているピクチャ以降のピクチャの符号化における予測符号化処理において参照用の画素データとして使用される。ローカルバッファ114は、予測符号化部115からの読出し命令に応じて、格納している再構成画像信号164を画素データとして予測符号化部115へ出力する。
 予測符号化部115は、ピクチャメモリ111から出力される画像信号を基に、画面内予測、または画面間予測を用いて予測画像信号165を生成する。そして、予測符号化部115は、生成した予測画像信号165を差分演算部118よび加算演算部119に出力する。なお、予測符号化部115は、画面間予測を用いる際は、ローカルバッファ114に蓄積される既に符号化済みの過去のピクチャの再構成画像信号164を用いる。また、画面内予測を用いる際は、符号化対象ブロックに隣接する既に符号化済みブロックの現在のピクチャの再構成画像信号164を用いる。画面内予測を用いるか画面間予測を用いるかのモード判定は、どちらの予測方法がより残差信号の情報量(残差符号化信号162、符号列信号154等の情報量)を少なくできるかを推定して行われる。
 量子化値決定部116は、ピクチャメモリ111に格納されるピクチャに基づいて、予測残差符号化部112で差分画像信号161を量子化する際の量子化値を決定する。なお、量子化値決定部116における量子化値の決定方法として、符号列信号154のビットレートが、目標とするビットレートに近づくように量子化値を設定する、いわゆるレート制御に基づく量子化値の決定方法を用いてもよい。
 第1符号列生成部117は、予測残差符号化部112が出力する残差符号化信号162と、予測符号化部115が出力する予測情報信号166と、量子化値決定部116が出力する量子化値と、その他の符号化制御に関する情報を可変長符号化することでピクチャデータの符号列を生成する。
 差分演算部118は、ピクチャメモリ111から読み出された画像信号と予測符号化部115から出力される予測画像信号165との差分値である差分画像信号161を生成する。そして、差分演算部118は、生成した差分画像信号161を予測残差符号化部112に出力する。
 加算演算部119は、予測残差復号化部113から出力される残差復号化信号163と予測符号化部115から出力される予測画像信号165とを加算することにより再構成画像信号164を生成する。そして、加算演算部119は、生成した再構成画像信号164をローカルバッファ114に出力する。
2.表示制御情報の生成方法
 動画像形式指定部102から動画像形式信号152を受けて、表示制御情報生成部103で表示制御情報信号153を生成して第2符号列生成部104において符号列に記述する方法、および、ピクチャ設定部101において入力画像を符号化順に並び替える方法について、図2の符号化処理全体のフローチャートを用いて具体的に説明する。
 まず、第2符号列生成部104はシーケンス単位でのヘッダ領域の符号列生成を行う(S501)。具体的には、第2符号列生成部104は、表示制御情報生成部103によって生成されたシーケンス単位の表示制御情報を、符号列におけるシーケンス単位でのヘッダ領域に記述する。なお、表示制御情報生成部103は、動画像形式指定部102によって指定された動画像形式に応じて、シーケンス単位の表示制御情報を生成する。
 次に、第2符号列生成部104はピクチャ単位でのヘッダ領域の符号列生成を行う(S502)。具体的には、第2符号列生成部104は、表示制御情報生成部103によって生成されたピクチャ単位の表示制御情報を、符号列におけるピクチャ単位での拡張情報領域に記述する。なお、表示制御情報生成部103は、動画像形式指定部102によって指定された動画像形式に応じてピクチャ単位の表示制御情報を生成する。
 次に、ピクチャ設定部101は、表示順で入力される入力画像を符号化順に並び替え、符号化対象とするピクチャを選択する(S503)。具体的には、ピクチャ設定部101は、動画像形式指定部102によって指定された動画像形式に応じて入力画像の並び替えを行う。
 次に、ピクチャデータ符号化部110は、図1を用いて説明した一連の符号化処理を行い、ピクチャデータの符号列を生成する(S504)。なお、ステップS504では、動画像形式がプログレッシブ形式であってもインターレース形式であっても全く区別することなく共通の符号化処理が適用される。
 次に、現在処理中の符号化対象ピクチャの処理が完了すると、ステップS502に戻って次のピクチャの符号化処理に移り、シーケンス内の全てのピクチャの符号化処理が完了するまでステップS502からステップS504の処理を繰り返す(S505)。
3.ピクチャの並び替え
 ステップS503におけるピクチャの並び替え処理について、図3、図4、図5を用いて詳しく説明する。
 動画像形式がプログレッシブ形式であった場合のピクチャの並び替え方法の一例として図3に示すような方法がある。この並び替え方法は図20を用いて説明した従来のプログレッシブ形式の処理と全く同様である。入力された1枚のフレームは1枚のピクチャとして並び替えて符号化される。画面間予測では符号化順で先に符号化が完了しているピクチャのみを参照することができる。つまり、図3のような並び替えを行なった場合、P_1はI_0のみが参照可能となり、B_2はI_0とP_1が参照可能となる。これを表示順に置き換えて考えると、P_1はFrm3に相当するので前方向にあるFrm0のみを参照可能となり、B_2はFrm1に相当するので前方向にあるFrm0と後方向にあるFrm3とが参照可能となる。このようにピクチャの符号化順の並び替えを行うことにより、画面間予測における参照ピクチャの参照方法を制御することが可能となり、より効果的な予測を行うことができる。なお、I_0は他のピクチャを参照することなく画面内予測のみを行うピクチャである。
 一方、動画像形式がインターレース形式であった場合のピクチャの並び替え方法の一例として図4および図5に示すような方法がある。これは図21を用いて説明した従来のインターレース形式の処理とは異なり、入力された1枚のフィールドを常に1枚のピクチャとして並び替えて符号化する。また、表示順を指定する情報であるPOCも常に1枚のピクチャに対して1つずつ割り当てられる。並び替えた各ピクチャはトップフィールドであるかボトムフィールドであるかを区別することなく、プログレッシブ形式を入力とした場合と全く同じ方法でピクチャ毎に符号化処理が行われる。
 なお、図4の例では、1つのフレームに属するトップフィールドとボトムフィールドが常にペアになって並び替えが行われる。例えばFldT6とFldB7はP_2とP_3として並び替えられ、符号化順が常に連続するようになっている。他のピクチャに関しても全て同様である。このような並び替えを行うことにより、入力されたトップフィールドとボトムフィールドとを連続して符号化処理に回すことが可能となり、ピクチャ設定部101におけるメモリ管理処理を単純化することができる。
 それに対して、図5では、トップフィールドとボトムフィールドがどのフレームに属するかとは無関係に並び替えが行われる。符号化構造だけを見ると図3で説明したプログレッシブ形式の場合と全く同様の構造となっているが、例えばFldT6とFldB7はP_4とB_8として並び替えられ、符号化順が4ピクチャ分、離れてしまっている。他のピクチャに関しても同様に1ピクチャから4ピクチャ分離れた符号化順となる。このような並び替えを行うことにより、プログレッシブ形式とインターレース形式とで全く同様の符号化順で処理を行うことが可能となる。しかし、入力されたトップフィールドとボトムフィールドとを最大4ピクチャ分ずらして符号化処理に回すことが必要であり、ピクチャ設定部101におけるメモリ管理処理が複雑になる。
4.符号列構成およびシンタックス
 次に、本実施の形態によって生成される符号列の構成を図6を用いて説明する。
 第2符号列生成部104が出力する符号列信号154が示す符号列は、シーケンス単位の符号化制御情報を記述したシーケンスヘッダ領域、ピクチャ単位の符号化制御情報を記述したピクチャヘッダ領域、ピクチャ単位の補助情報を記述した拡張情報領域、およびピクチャデータで構成される。このとき、図2のステップS501で説明したシーケンス単位の表示制御情報は、シーケンスヘッダ領域に記述される。さらに、図2のステップS502で説明したピクチャ単位の表示制御情報は、拡張情報領域に記述される。なお、表示制御情報以外の各情報は、動画像形式がプログレッシブ形式であってもインターレース形式であっても全く区別することなく共通のシンタックスで符号列に記述される。
 ここで、シーケンス単位の表示制御情報が記述されるシーケンスヘッダ領域のシンタックスについて図7を用いて詳しく説明する。なお、図7では本実施形態に関連するシンタックス以外は省略して記載している。
 シーケンスヘッダは、seq_parameter_set_data()にあるシンタックス構成で符号化される。シーケンス単位の表示制御情報としては、interlace_flag、continual_flag、max_distance_numの3つのパラメータがある。これらのパラメータは、シーケンスヘッダ内にある映像情報を集めたvui_parameters()の領域に記述される。
 interlace_flagは、対象シーケンスの動画像形式がプログレッシブ形式であるかインターレース形式であるかを指定する。具体的にinterlace_flagは、対象シーケンスの動画像形式がプログレッシブ形式であれば0の値を、インターレース形式であれば1の値を持つ。なお、上記の構成に限定されるものではなく、interlace_flagは、プログレッシブ形式であれば1の値を、インターレース形式であれば0の値を持ってもよい。
 continual_flagは、対象シーケンスの動画像形式がインターレース形式であった場合、同じフレームに属するトップフィールドとボトムフィールドとが符号化順で常に連続した位置関係にあるかどうかを指定する。具体的に、continual_flagは、同じフレームに属するトップフィールドとボトムフィールドとが符号化順で常に連続した位置関係になければ0の値を、常に連続した位置関係にあれば1の値を持つ。つまり、continual_flagは、図4で説明したような並び替えを行う場合は1の値、図5で説明したような並び替えを行う場合は0の値となる。このパラメータを用いることにより、対応する復号化装置において、常に連続する2枚のピクチャをペアとして復号化および表示制御を行うことが可能であるかどうかが分かる。これにより、復号化可否判断を容易に行うことが可能となる。なお、上記の構成に限定されるものではなく、continual_flagは、同じフレームに属するトップフィールドとボトムフィールドとが符号化順で常に連続した位置関係になければ1の値を、常に連続した位置関係にあれば0の値を持ってもよい。
 max_distance_numは、continual_flagが0の値であった場合、同じフレームに属するトップフィールドとボトムフィールドとが符号化順で離れている最大のピクチャ枚数を指定する。例えば、図5で説明したような並び替えを行う場合は、P_4とB_8とが最も離れている組み合わせであり前記最大枚数は4となる。このパラメータを用いることにより、本動画像符号化装置100と対応する復号化装置において、同じフレームに属するトップフィールドとボトムフィールドとが揃うまでに待つ必要のあるピクチャ枚数を特定することが可能となる。これにより、復号化可否判断および必要なピクチャメモリ容量の特定を容易に行うことが可能となる。
 なお、ここで説明したパラメータ名およびパラメータ値は一例であり、これ以外のパラメータ名およびパラメータ値を用いて同様の機能を実現してもよい。また、ここで説明した全てのパラメータを使用せずに1部のパラメータのみを使用してもよい。また、ここではvui_parameters()の領域に上記各パラメータを記述する例を説明したが、シーケンス単位の制御情報が記述できる領域であればこれ以外の領域に記述してもよい。
 次に、ピクチャ単位の表示制御情報が記述される拡張情報領域のシンタックスについて図8を用いて詳しく説明する。なお、図8では本実施形態に関連するシンタックス以外は省略して記載している。
 拡張情報領域は、複数のSEI(Supplemental Enhancement Information)と呼ばれるパラメータ群から構成されている。図8のpic_timing_SEI()は、前記SEIの1つであり、符号化対象ピクチャの復号化タイミングおよび表示タイミングを指定する役割を持っている。ピクチャ単位の表示制御情報としては、pic_struct、field_pair_POCの2つのパラメータがある。これらのパラメータは、pic_timing_SEI()の領域に記述される。
 pic_structは、符号化対象ピクチャの表示方式を指定するパラメータである。プログレッシブ形式におけるフレームとして表示する場合は0の値を、インターレース形式のトップフィールドとして表示する場合は1の値を、インターレース形式のボトムフィールドとして表示する場合は2の値を、それ以外の方式で表示する場合はそれに応じた値を持つ。なお、上記の構成に限定されるものではなく、例えば、pic_structは、プログレッシブ形式におけるフレームとして表示する場合は1の値を、インターレース形式のトップフィールドとして表示する場合は0の値を、インターレース形式のボトムフィールドとして表示する場合は2の値を、それ以外の方式で表示する場合はそれに応じた値を持ってもよい。つまり、pic_structは、少なくとも、プログレッシブ形式におけるフレームとして表示する場合、インターレース形式のトップフィールドとして表示する場合、インターレース形式のボトムフィールドとして表示する場合を識別できる情報であればどのような値でも構わない。
 field_pair_POCは、pic_structによって符号化対象ピクチャがインターレース形式のトップフィールドもしくはボトムフィールドとして表示することが指定された場合、同じフレームに属する対となるフィールドのPOCを示す情報である。例えば、図4において、符号化対象ピクチャがP_2であった場合、対となるピクチャはP_3なので、field_pair_POCは7となる。また同様に、図5において、符号化対象ピクチャがB_8であった場合、対となるピクチャはP_4なので、field_pair_POCは6となる。このパラメータを用いることにより、対応する復号化装置において、同じフレームに属するトップフィールドとボトムフィールドとがどのピクチャであるかを判定することが可能となり、インターレース形式に対応した表示制御を行うことが可能となる。
 なお、field_pair_POCは、POC値をそのまま指定する代わりに、POCの差分値で指定してもよい。例えば、図4において、符号化対象ピクチャがP_2であった場合、対となるピクチャはP_3なので、field_pair_POCは7-6=1となる。また同様に、図5において、符号化対象ピクチャがB_8であった場合、対となるピクチャはP_4なので、field_pair_POCは6-7=-1となる。このように差分値を用いることにより、より少ない符号量で対となるピクチャを指定することが可能となる。
 なお、図7で説明したcontinual_flagが1の値であった場合は、同じフレームに属するトップフィールドとボトムフィールドとが符号化順で常に連続した位置関係にあることが保証される。したがって、対となるピクチャを容易に特定することができるため、field_pair_POCを記述しなくてもよい。
 なお、ピクチャ単位の表示制御情報である、pic_struct、field_pair_POCは、対象シーケンスの動画像形式がインターレース形式であった場合のみ記述してもよい。その場合、pic_structは、符号化対象ピクチャをトップフィールドとして表示する場合とボトムフィールドとして表示する場合を識別できる情報であればよい。
 なお、ここで説明したパラメータ名およびパラメータ値は一例であり、これ以外のパラメータ名およびパラメータ値を用いて同様の機能を実現してもよい。また、ここで説明した全てのパラメータを使用せずに1部のパラメータのみを使用してもよい。また、ここではpic_timing_SEI()の領域に上記各パラメータを記述する例を説明したが、ピクチャ単位の制御情報が記述できる領域であればこれ以外の領域に記述してもよい。
5.まとめ
5-1.構成
 本実施形態の動画像符号化装置100は、入力される動画像信号をピクチャ単位で符号化する。動画像符号化装置100は、
 動画像信号の動画像形式がインターレース形式およびプログレッシブ形式のうちいずれの形式であるかを示す動画像形式情報を取得する動画像形式指定部102(動画像形式情報取得部)と、
 符号化後の動画像信号が示す動画像を動画像形式情報が示す動画像形式の動画像として表示する際に利用する表示制御情報を、動画像形式情報に基づいて生成する表示制御情報生成部103と、
 動画像形式情報がプログレッシブ形式を示す場合、動画像信号における1枚のフレームをピクチャとして設定しかつ符号化順に並び替え、動画像形式情報がインターレース形式を示す場合、動画像信号における1枚のフィールドをピクチャとして設定しかつ符号化順に並び替えるピクチャ設定部101と、
 設定したピクチャに含まれる画素データを符号化処理単位であるブロック毎に、動画像形式に依存しない共通の信号処理方式および共通のシンタックス構造を用いて符号化することでブロック層符号列を生成し、さらに画素データを符号化する際にスライス単位で適用した符号化制御情報を、動画像形式に依存しない共通の信号処理方式および共通のシンタックス構造を用いて符号化することでスライス層符号列を生成し、ブロック層符号列とスライス層符号列を対応づけた第1符号列を出力するピクチャデータ符号化部110と、
 画素データを符号化する際にピクチャ単位で適用した符号化制御情報、シーケンス単位で適用した符号化制御情報および表示制御情報を符号化してピクチャ上位層符号列を生成する第2符号列生成部104(ピクチャ上位層符号化部)と、
 第1符号列およびピクチャ上位層符号列を対応づけた第2符号列を出力する第2符号列生成部104と、を備える。
 また好ましくは、表示制御情報生成部103は、符号化対象とするシーケンスに属する全てのピクチャの表示処理において共通して使用されるシーケンス単位表示制御情報と、符号化対象とするピクチャの表示処理において個別に使用されるピクチャ単位表示制御情報とから構成される表示制御情報を生成する。
 また好ましくは、第2符号列生成部104(ピクチャ上位層符号化部)は、ピクチャ上位層符号列のうちシーケンス単位で生成するシーケンスヘッダに含まれる映像情報領域に対して、シーケンス単位表示制御情報を格納する。
 また好ましくは、第2符号列生成部104(ピクチャ上位層符号化部)は、ピクチャ上位層符号列のうち同じシーケンスに属する各ピクチャの各拡張情報領域に対して、全て同じ値のシーケンス単位表示制御情報を格納する。
 また好ましくは、第2符号列生成部104(ピクチャ上位層符号化部)は、ピクチャ上位層符号列のうちピクチャ単位で生成する拡張情報領域に対して、ピクチャ単位表示制御情報を格納する。
 また好ましくは、表示制御情報生成部103は、符号化対象の動画像信号がプログレッシブ形式であるかインターレース形式であるかを識別する第1の識別子を含むシーケンス単位表示制御情報を生成する。
 また好ましくは、表示制御情報生成部103は、符号化対象の動画像信号がインターレース形式である場合、同じフレームに属する2つのフィールドが当該シーケンスにおいて常に符号化順で互いに連続しているか否かを識別する第2の識別子を含むシーケンス単位表示制御情報を生成する。
 また好ましくは、表示制御情報生成部103は、符号化対象の動画像信号がインターレース形式である場合、同じフレームに属する1つ目のフィールドと2つ目のフィールドの符号化順における間隔の当該シーケンスにおける最大値を示す情報を含むシーケンス単位表示制御情報を生成する。
 また好ましくは、表示制御情報生成部103は、符号化対象とするピクチャの表示処理において、(1)プログレッシブ形式の動画像信号に属する1つのフレームとして表示するか、(2)インターレース形式の動画像信号に属するトップフィールドとして表示するか、(3)インターレース形式の動画像信号に属するボトムフィールドとして表示するか、(4)その他の方式で表示するかを指定する第3の識別子を含むピクチャ単位表示制御情報を生成する。
 また好ましくは、表示制御情報生成部103は、符号化対象の動画像信号がインターレース形式である場合にのみ、符号化対象とするピクチャの表示処理において、(1)インターレース形式の動画像信号に属するトップフィールドとして表示するか、(2)インターレース形式の動画像信号に属するボトムフィールドとして表示するかを指定する第3の識別子を含むピクチャ単位表示制御情報を生成する。
 また好ましくは、表示制御情報生成部103は、符号化対象ピクチャを復号化して表示する際に、インターレース形式の動画像信号に属するトップフィールドもしくはボトムフィールドとして表示する場合、符号化対象ピクチャと同じフレームに属する対となるピクチャを指定する指定情報を含むピクチャ単位表示制御情報を生成する。
 また好ましくは、表示制御情報生成部103は、指定情報として、符号化対象ピクチャと同じフレームに属する対となるピクチャに割り当てられている表示順情報を記述する。
 また好ましくは、表示制御情報生成部103は、指定情報として、符号化対象ピクチャに割り当てられている表示順情報と、符号化対象ピクチャと同じフレームに属する対となるピクチャに割り当てられている表示順情報との差分値を記述する。
 本実施形態の動画像符号化方法は、入力される動画像信号をピクチャ単位で符号化する。この動画像符号化方法は、
 動画像信号の動画像形式がインターレース形式およびプログレッシブ形式のうちいずれの形式であるかを示す動画像形式情報を取得し、
 符号化後の動画像信号を動画像形式情報が示す動画像形式の動画像信号として表示する際に利用する表示制御情報を、動画像形式情報に基づいて生成し、
 動画像形式情報がプログレッシブ形式を示す場合、動画像信号における1枚のフレームをピクチャとして符号化順に並び替えて設定し、一方動画像形式情報がインターレース形式を示す場合、動画像信号における1枚のフィールドをピクチャとして符号化順に並び替えて設定し、
 設定したピクチャに含まれる画素データを符号化処理単位であるブロック毎に、動画像形式に依存しない共通の信号処理方式および共通のシンタックス構造を用いて符号化することでブロック層符号列を生成し、さらに画素データを符号化する際にスライス単位で適用した符号化制御情報を、動画像形式に依存しない共通の信号処理方式および共通のシンタックス構造を用いて符号化することでスライス層符号列を生成し、ブロック層符号列とスライス層符号列を対応づけた第1符号列を出力し、
 画素データを符号化する際にピクチャ単位で適用した符号化制御情報、シーケンス単位で適用した符号化制御情報および表示制御情報を符号化してピクチャ上位層符号列を生成し、
 第1符号列およびピクチャ上位層符号列を対応づけた第2符号列を出力する。
5-2.効果等
 本実施の形態による動画像符号化装置100を用いることにより、プログレッシブ形式の動画像を入力とした場合も、インターレース形式の動画像を入力とした場合も、処理量を増加させることなく共通の制御でピクチャデータの符号化処理を行うことが可能となり、符号化装置の実装を容易に行うことができる。
(実施の形態2)(復号化処理)
 実施形態2について、図面を参照しながら説明する。
1.動画像復号化装置の構成
 図9は、本実施形態に係る動画像復号化装置のブロック図である。
 この動画像復号化装置200は、第2符号列解析部201と、表示制御情報解析部202と、ピクチャデータ復号化部210と、出力ピクチャ設定部203を備えている。また、ピクチャデータ復号化部210は、第1符号列解析部211と、予測残差復号化部212と、ピクチャメモリ213と、予測復号化部214と、量子化値決定部215とを含む。
 第2符号列解析部201は、入力された符号列信号251に含まれるヘッダ情報の符号列から、表示制御情報および、シーケンス単位およびピクチャ単位の復号化制御に関する情報を抽出する。そして、第2符号列解析部201は、抽出した情報を表示制御情報信号252として表示制御情報解析部202へ出力する。
 ピクチャデータ復号化部210は、入力された符号列信号251に含まれるピクチャデータの符号列に対して、ブロック単位で復号化処理を行って対象ピクチャの復号化画像を生成する。このとき、動画像形式がプログレッシブ形式であるかインターレース形式であるかに依存することなく、ピクチャとして共通の復号化処理が適用され、また復号化の対象となるピクチャデータの符号列も共通のシンタックスを持つ。
 表示制御情報解析部202は、第2符号列解析部201から出力される表示制御情報信号252を解析して、復号化対象の動画像がプログレッシブ形式であるかインターレース形式であるかを決定する。そして、表示制御情報解析部202は、決定結果に基づく表示制御信号253を出力ピクチャ設定部203に出力する。
 出力ピクチャ設定部203は、表示制御情報解析部202から出力された表示制御信号253に従って、ピクチャデータ復号化部210が生成した復号化済みのピクチャを、出力を行う順に並び替える。そして、出力ピクチャ設定部203は、並び替えた後のピクチャを出力画像信号254として外部に出力する。出力画像信号254はプログレッシブ形式とインターレース形式との双方があり、プログレッシブ形式の場合は1枚のピクチャを1枚のフレームとして、インターレース形式の場合は1枚のピクチャを1枚のフィールドとして表示制御が行われる。
 次に、ピクチャデータ復号化部210の処理について説明する。
 第1符号列解析部211は、入力された符号列信号251のピクチャデータの符号列に対して可変長復号化を施すことにより復号化制御情報の解析およびブロック単位のピクチャデータの解析を行う。第1符号列解析部211は、解析して得られる残差符号化信号261を予測残差復号化部212へ出力する。さらに、第1符号列解析部211は、解析して得られる予測情報信号265を予測復号化部214へ出力する。さらに、第1符号列解析部211は、解析して得られる量子化値情報を量子化値決定部215へ出力する。
 予測残差復号化部212は、第1符号列解析部211から出力される残差符号化信号261に対して、逆量子化および逆直交変換を行うことで残差復号化信号262を生成し、加算演算部216に出力する。このとき予測残差復号化部212は、量子化値決定部215において決定された量子化値を用いて残差符号化信号261を逆量子化する。
 ピクチャメモリ213は、加算演算部216から出力される再構成画像信号263を格納する。この再構成画像信号263は、現在復号化対象となっているピクチャ以降のピクチャの復号化における予測符号化処理において参照用の画素データとして使用される。ピクチャメモリ213は、予測復号化部214からの読出し命令に応じて、格納している再構成画像信号263を画素データとして予測復号化部214へ出力する。また同時に、この再構成画像信号263は最終的な出力画像として出力ピクチャ設定部203へも出力される。
 予測復号化部214は、第1符号列解析部211から出力される予測情報信号265を基に、画面内予測、または画面間予測を用いて予測画像信号264を生成し、加算演算部216に出力する。なお、予測復号化部214は、画面間予測を用いる際は、ピクチャメモリ213に蓄積される既に復号化済みの過去のピクチャの再構成画像信号263を用いる。また、画面内予測を用いる際は、復号化対象ブロックに隣接する既に復号化済みのブロックの現在のピクチャの再構成画像信号263を用いる。画面内予測を用いるか画面間予測を用いるかの判定は、入力される予測情報信号265に従って行われる。
 加算演算部216は、予測残差復号化部212から出力される残差復号化信号262と予測復号化部214から出力される予測画像信号264を加算することによって再構成画像信号263を生成し、ピクチャメモリ213に出力する。
2.表示制御方法
 表示制御情報解析部202で表示制御情報を解析し、出力ピクチャ設定部203において復号化済みのピクチャを出力順に並び替えて出力画像とする方法について、図10の復号化処理全体のフローチャートを用いて具体的に説明する。
 まず、第2符号列解析部201はシーケンス単位のヘッダ領域の符号列解析を行う(S1401)。このとき、表示制御情報解析部202はシーケンス単位の表示制御情報を取得する。
 次に、第2符号列解析部201はピクチャ単位のヘッダ領域の符号列解析を行う(S1402)。このとき、表示制御情報解析部202はピクチャ単位の表示制御情報を取得する。
 次に、ピクチャデータ復号化部210は、図9を用いて説明した一連の復号化処理を行い対象ピクチャの復号化画像を生成する(S1403)。なお、ステップS1403では、動画像形式がプログレッシブ形式であってもインターレース形式であっても全く区別することなく共通の復号化処理が行われる。
 次に、出力ピクチャ設定部203は、復号化順に蓄積されている復号化画像を表示順に並び替え、表示対象とするピクチャを選択する処理を行う(S1404)。このとき、出力ピクチャ設定部203は、表示制御情報解析部202によって解析された表示制御方法に従ってピクチャの並び替えを行う。
 次に、現在処理中の復号化対象ピクチャの処理が完了すると、ステップS1402に戻って次のピクチャの復号化処理に移り、シーケンス内の全てのピクチャの復号化処理が完了するまでステップS1402からステップS1404の処理を繰り返す(S1405)。
3.ピクチャの並び替え
 ステップS1404におけるピクチャの並び替え処理について、図11、図12、図13を用いて詳しく説明する。
 動画像形式がプログレッシブ形式であった場合のピクチャの並び替え方法の一例として図11に示すような方法がある。この並び替えは、図3を用いて説明した符号化装置におけるプログレッシブ形式の並び替え処理を逆にしたものであり、復号化された1枚のピクチャを1枚のフレームとして並び替えて表示する。
 一方、動画像形式がインターレース形式であった場合のピクチャの並び替え方法の一例として図12および図13に示すような方法がある。この並び替えは図4および図5を用いて説明した符号化装置におけるインターレース形式の並び替え処理を逆にしたものであり、復号化された1枚のピクチャは常に1枚のフィールドとして並び替えて表示される。
 なお、図12では、1つのフレームに属するトップフィールドとボトムフィールドが常にペアで並び替えが行われている。例えばP_2とP_3はFldT6とFldB7として並び替えられ、表示順が常に連続するようになっている。他のピクチャに関しても全て同様である。このような並び替えを行うことにより、復号化されたトップフィールドとボトムフィールドとを連続して表示処理に回すことが可能となり、出力ピクチャ設定部203におけるメモリ管理処理を単純化することができる。
 それに対して、図13では、トップフィールドとボトムフィールドがどのフレームに属するかとは無関係に並び替えが行われている。符号化構造だけを見ると図11で説明したプログレッシブ形式の場合と全く同様の構造となっているが、例えばP_4とB_8はFldT6とFldB7として並び替えられ、復号化順が4ピクチャ分離れてしまっている2枚のフィールドをペアとなるように並び替えなくてはならない。他のピクチャに関しても同様に復号化順で1ピクチャから4ピクチャ分、離れた2枚のフィールドをペアとなるように並び替えられている。このような並び替えを行うことにより、プログレッシブ形式とインターレース形式とで全く同様の復号化順で処理が可能となる。しかし、復号化されたトップフィールドとボトムフィールドとを最大4ピクチャ分ずらして両方が揃ってから表示処理に回すことが必要であり、出力ピクチャ設定部203におけるメモリ管理処理が複雑になる。
 なお、ピクチャメモリ213は、メモリ容量を制限するために、蓄積されているピクチャの中から不要となったピクチャをメモリから削除することで、次に蓄積するピクチャのための領域を確保する処理が行われる。このとき、(1)予測符号化処理において参照用の画素データとして使用されることが無くなったピクチャである、(2)既に表示処理に回されたピクチャである、の2つの条件を満たしたピクチャが削除可能となる。つまり、動画像形式がインターレース形式であった場合は、1つのフレームに属するトップフィールドとボトムフィールドとの両方のピクチャの復号化処理が完了して、両方のピクチャの表示処理が完了した後に、ピクチャメモリ213から削除可能となる。
4.符号列構成およびシンタックス
 本実施の形態で復号化対象とする符号列の構成およびシンタックスは、実施の形態1で図6から図8を用いて説明したものと全く同様であるので、ここでは説明を省略する。
5.まとめ
5-1.構成
 本実施形態の動画像復号化装置200は、インターレース形式またはプログレッシブ形式の動画像形式を有する動画像信号をピクチャ単位で符号化して得られる符号列を、ピクチャ単位で復号化する。この動画像復号化装置200は、
 符号列を解析し、ピクチャ上位層符号列および第1符号列を取得する第2符号列解析部201と、
 ピクチャ上位層符号列から、動画像信号を符号化する際に利用した符号化制御情報および復号化したピクチャを表示する際に利用する表示制御情報を取得する第2符号列解析部201(ピクチャ上位層復号化部)と、
 動画像形式に依存しない共通のシンタックス解析および共通の信号処理方式および、符号化制御情報のうち動画像形式に関係なく符号化時に共通して利用された情報を用い、第1符号列を復号化処理単位であるブロック毎に復号化し、ピクチャを取得するピクチャデータ復号化部210と、
 表示制御情報がプログレッシブ形式を示す場合、取得したピクチャを1枚のフレームと設定しフレームを表示順に1枚ずつ出力し、一方表示制御情報がインターレース形式を示す場合、取得したピクチャを1枚のフィールドと設定し、対になるトップフィールドとボトムフィールドを取得した時点で表示順に出力する出力ピクチャ設定部203と、を備える。
 また好ましくは、第2符号列解析部201(ピクチャ上位層復号化部)は、復号化対象とするシーケンスに属する全てのピクチャの表示処理において共通して使用されるシーケンス単位表示制御情報と、復号化対象とするピクチャの表示処理において個別に使用されるピクチャ単位表示制御情報とから構成される。
 また好ましくは、第2符号列解析部201(ピクチャ上位層復号化部)は、ピクチャ上位層符号列のうちシーケンス単位で解析されるシーケンスヘッダに含まれる映像情報領域からシーケンス単位表示制御情報を取得する。
 また好ましくは、同じシーケンスに属する各ピクチャ単位の各拡張情報領域には、全て同じ値のシーケンス単位表示制御情報が格納されている。
 また好ましくは、第2符号列解析部201(ピクチャ上位層復号化部)は、ピクチャ上位層符号列のうちピクチャ単位で解析される拡張情報領域から、ピクチャ単位表示制御情報を取得する。
 また好ましくは、第2符号列解析部201(ピクチャ上位層復号化部)は、復号化対象の動画像信号がプログレッシブ形式であるかインターレース形式であるかを識別する第1の識別子を含むシーケンス単位表示制御情報を取得し、
 出力ピクチャ設定部203は、取得した第1の識別子に基づいて、ピクチャの出力方法を変更する。
 また好ましくは、第2符号列解析部201(ピクチャ上位層復号化部)は、復号化対象の動画像信号がインターレース形式である場合、同じフレームに属する2つのフィールドが当該シーケンスにおいて常に復号化順で互いに連続しているか否かを識別する第2の識別子を含むシーケンス単位表示制御情報を取得し、
 出力ピクチャ設定部203は、取得した第2の識別子に基づいて、ピクチャの出力方法を変更する。
 また好ましくは、第2符号列解析部201(ピクチャ上位層復号化部)は、復号化対象の動画像信号がインターレース形式である場合、同じフレームに属する1つ目のフィールドと2つ目のフィールドの復号化順における間隔の当該シーケンスにおける最大値を示す情報を含むシーケンス単位表示制御情報を取得し、
 出力ピクチャ設定部203は、取得した最大値を示す情報に基づいて、ピクチャの出力方法を変更する。
 また好ましくは、第2符号列解析部201(ピクチャ上位層復号化部)は、復号化対象とするピクチャの表示処理において、(1)プログレッシブ形式の動画像信号に属する1つのフレームとして表示するか、(2)インターレース形式の動画像信号に属するトップフィールドとして表示するか、(3)インターレース形式の動画像信号に属するボトムフィールドとして表示するか、(4)その他の方式で表示するかを指定する第3の識別子を含むピクチャ単位表示制御情報を取得し、
 出力ピクチャ設定部203は、取得した第3の識別子に基づいて、ピクチャの出力方法を変更する。
 また好ましくは、第2符号列解析部201(ピクチャ上位層復号化部)は、復号化対象の動画像信号がインターレース形式である場合にのみ、復号化対象とするピクチャの表示処理において、(1)インターレース形式の動画像信号に属するトップフィールドとして表示するか、(2)インターレース形式の動画像信号に属するボトムフィールドとして表示するかを指定する第3の識別子を含むピクチャ単位表示制御情報を取得し、
 出力ピクチャ設定部203は、取得した第3の識別子に基づいて、ピクチャの出力方法を変更する。
 また好ましくは、第2符号列解析部201(ピクチャ上位層復号化部)は、復号化対象ピクチャを表示する際に、インターレース形式の動画像信号に属するトップフィールドもしくはボトムフィールドとして表示する場合、復号化対象ピクチャと同じフレームに属する対となるピクチャを指定する指定情報を含むピクチャ単位表示制御情報を取得し、
 出力ピクチャ設定部203は、復号化対象ピクチャを出力する際に、指定情報が指定するピクチャと対となるように出力する。
 また好ましくは、第2符号列解析部201(ピクチャ上位層復号化部)は、指定情報として、復号化対象ピクチャと同じフレームに属する対となるピクチャに割り当てられている表示順情報を取得する。
 また好ましくは、第2符号列解析部201(ピクチャ上位層復号化部)は、指定情報として、復号化対象ピクチャに割り当てられている表示順情報と、復号化対象ピクチャと同じフレームに属する対となるピクチャに割り当てられている表示順情報との差分値を取得する。
 本実施形態の動画像復号化方法は、インターレース形式またはプログレッシブ形式の動画像形式を有する動画像信号をピクチャ単位で符号化して得られる符号列を、ピクチャ単位で復号化する。この動画像復号化方法は、
 符号列を解析し、ピクチャ上位層符号列および第1符号列を取得し、
 ピクチャ上位層符号列から、動画像信号を符号化する際に利用した符号化制御情報および復号化したピクチャを表示する際に利用する表示制御情報を取得し、
 動画像形式に依存しない共通のシンタックス解析および共通の信号処理方式および、符号化制御情報のうち動画像形式に関係なく符号化時に共通して利用された情報を用い、第1符号列を復号化処理単位であるブロック毎に復号化し、ピクチャを取得し、
 表示制御情報がプログレッシブ形式を示す場合、取得したピクチャを1枚のフレームと設定しフレームを表示順に1枚ずつ出力し、一方表示制御情報がインターレース形式を示す場合、取得したピクチャを1枚のフィールドと設定し、対になるトップフィールドとボトムフィールドを取得した時点で表示順に出力する。
5-2.効果等
 本実施の形態による動画像復号化装置200を用いることにより、プログレッシブ形式の動画像を符号化した符号列に対しても、インターレース形式の動画像を符号化した符号列に対しても、処理量を増加させることなく共通の制御でのピクチャデータの復号化処理および表示制御を行うことが可能となる。これにより、復号化装置の実装を容易に行うことができる。
(実施の形態3)(符号化処理の他の例)
 実施形態3について、図面を参照しながら説明する。
1.動画像符号化装置の構成
 図14は、本実施形態に係る動画像符号化装置のブロック図である。
 この動画像符号化装置100-1は、実施形態1の動画像符号化装置100のピクチャデータ符号化部110、第2符号列生成部104の代わりに、ピクチャデータ符号化部110-1、第2符号列生成部104-1を備えている。ピクチャデータ符号化部110-1は、第1符号列生成部117の代わりに、第1符号列生成部117-1を含む。
 以下、説明の便宜上、実施形態1と同様の構成については詳細な説明を省略する。さらに、図14では、図1と同様の機能を有するブロックについては同じ番号を付す。
 ピクチャデータ符号化部110-1は、ピクチャ設定部101から入力された各ピクチャをブロックに分割し、ブロック単位で符号化処理を行ってピクチャデータの符号列を生成する。このとき、動画像形式がプログレッシブ形式であるかインターレース形式であるかに依存することなく、ピクチャ単位で共通の符号化処理が適用され、その結果生成されるピクチャデータの符号列も共通のシンタックスを持つ。また、本実施形態では、ピクチャデータ符号化部110-1は、シーケンスヘッダの符号列及びピクチャヘッダの符号列を生成する。
 第1符号列生成部117-1は、予測残差符号化部112が出力する残差符号化信号162と、予測符号化部115が出力する予測情報信号166と、量子化値決定部116が出力する量子化値と、その他の符号化制御に関する情報を可変長符号化することでピクチャデータの符号列を生成する。また、本実施形態では、第1符号列生成部117-1は、シーケンス単位およびピクチャ単位の符号化制御に関する情報をヘッダ情報として符号化し、シーケンスヘッダの符号列及びピクチャヘッダの符号列を生成する。
 第2符号列生成部104-1は、表示制御情報生成部103が出力する表示制御情報信号153を符号化し、拡張情報領域符号列を生成する。表示制御情報信号153は、シーケンス単位およびピクチャ単位の表示制御情報を含む。さらに、第2符号列生成部104-1は、生成した拡張情報領域符号列と、ピクチャデータ符号化部110が生成するシーケンスヘッダ、ピクチャヘッダ及びピクチャデータの符号列とを対応づけ、最終的な出力である符号列信号154を生成する。
2.表示制御情報の生成方法
 動画像形式指定部102から動画像形式信号152を受けて、表示制御情報生成部103で表示制御情報信号153を生成して第2符号列生成部104-1において符号列に記述する方法、および、ピクチャ設定部101において入力画像を符号化順に並び替える方法について、図15の符号化処理全体のフローチャートを用いて具体的に説明する。
 まず、第1符号列生成部117-1はシーケンス単位でのヘッダ領域の符号列生成を行う(S1801)。
 次に、第1符号列生成部117-1はピクチャ単位でのヘッダ領域の符号列生成を行う(S1802)。
 次に、表示制御情報生成部103は、動画像形式指定部102によって指定された動画像形式に応じてシーケンス単位の表示制御情報及びピクチャ単位の表示制御情報を生成する(S1803)。第2符号列生成部104-1は、これらの表示制御情報を符号化し、符号列における拡張情報領域に記述する。
 次に、ピクチャ設定部101は、表示順で入力される入力画像を符号化順に並び替え、符号化対象とするピクチャを選択する(S1804)。このとき、ピクチャ設定部101は、動画像形式指定部102によって指定された動画像形式に応じてピクチャの並び替えを行う。
 次に、ピクチャデータ符号化部110-1は、前述の一連の符号化処理を行いピクチャデータの符号列を生成する(S1805)。なお、ステップS1805では、動画像形式がプログレッシブ形式であってもインターレース形式であっても全く区別することなく共通の符号化処理が行われる。
 次に、現在処理中の符号化対象ピクチャの処理が完了すると、ステップS1802に戻って次のピクチャの符号化処理に移り、シーケンス内の全てのピクチャの符号化処理が完了するまでステップS1802からステップS1805の処理を繰り返す(S1806)。
3.ピクチャの並び替え
 ステップS1804におけるピクチャの並び替え処理については、実施形態1で図3、図4、図5を用いて説明した処理と同様の処理が行われる。そのため、説明を省略する。
4.符号列構成およびシンタックス
 次に、本実施の形態によって生成される符号列の構成を図16を用いて説明する。
 生成される符号列は、シーケンス単位の符号化制御情報を記述したシーケンスヘッダ領域、ピクチャ単位の符号化制御情報を記述したピクチャヘッダ領域、ピクチャ単位の補助情報を記述した拡張情報領域、およびピクチャデータで構成されている。このとき、シーケンス単位の表示制御情報、およびピクチャ単位の表示制御情報は、両方とも拡張情報領域に記述される。なお、表示制御情報以外の各情報は入力画像形式がプログレッシブ形式であってインターレース形式であっても全く区別することなく共通のシンタックスで符号列に記述される。
 ここで、シーケンス単位の表示制御情報およびピクチャ単位の表示制御情報が記述される拡張情報領域のシンタックスについて図17を用いて詳しく説明する。なお、図17では本実施形態に関連するシンタックス以外は省略して記載している。
 図17では、interlace_flag、continual_flag、max_distance_flag、pic_struct、field_pair_POCが全てpic_timing_SEI()に記述されている。各パラメータの詳細な説明については図7および図8で説明した内容と全く同様なのでここでは省略する。
 拡張情報領域は各々のピクチャ毎に符号化されるため、シーケンス単位の表示制御情報のinterlace_flag、continual_flag、max_distance_flagは、冗長ではあるがシーケンス内で常に同じ値がピクチャ毎に繰り返して記述されることになる。しかし、図17のように全ての表示制御情報を拡張情報領域にまとめて記述することで、拡張情報領域以外の全てのシンタックス領域は、動画像形式がプログレッシブ形式であってインターレース形式であっても全く区別することなく共通のシンタックスとすることができる。したがって、符号化処理のさらなる簡略化を図ることができる。
 なお、ここで説明したパラメータ名およびパラメータ値については一例であり、これ以外のパラメータ名およびパラメータ値を用いて同様の機能を実現してもよい。また、ここで説明した全てのパラメータを使用せずに1部のパラメータのみを使用してもよい。また、ここではpic_timing_SEI()の領域に記述する例を説明したが、ピクチャ単位の制御情報が記述できる領域であればこれ以外の領域に記述してもよい。
5.まとめ
5-1.構成
 本実施形態の動画像符号化装置100-1は、入力される動画像信号をピクチャ単位で符号化する。この動画像符号化装置100-1は、
 動画像信号の動画像形式がインターレース形式およびプログレッシブ形式のうちいずれの形式であるかを示す動画像形式情報を取得する動画像形式指定部102(動画像形式情報取得部)と、
 符号化後の動画像信号が示す動画像を動画像形式情報が示す動画像形式の動画像として表示する際に利用する表示制御情報を、動画像形式情報に基づいて生成する表示制御情報生成部103と、
 動画像形式情報がプログレッシブ形式を示す場合、動画像信号における1枚のフレームをピクチャとして設定しかつ符号化順に並び替え、動画像形式情報がインターレース形式を示す場合、動画像信号における1枚のフィールドをピクチャとして設定しかつ符号化順に並び替えるピクチャ設定部101と、
 設定したピクチャに含まれる画素データを、動画像形式に依存しない共通の信号処理方式および共通のシンタックス構造を用いて符号化することで、第1符号列を出力するピクチャデータ符号化部110-1と、
 表示制御情報を符号化して拡張情報領域符号列を生成する第2符号列生成部104-1(拡張情報領域符号化部)と、
 第1符号列および拡張情報領域符号列を対応づけた第2符号列を出力する第2符号列生成部104-1と、を備え、
 表示制御情報は、符号化対象とするシーケンスに属する全てのピクチャの表示処理において共通して使用されるシーケンス単位表示制御情報と、符号化対象とするピクチャの表示処理において個別に使用されるピクチャ単位表示制御情報とから構成され、
 第2符号列生成部104-1(拡張情報領域符号化部)は、拡張情報領域符号列を、ピクチャ単位で生成する拡張情報領域に格納する。
 また好ましくは、第2符号列生成部104-1(拡張情報領域符号化部)は、同じシーケンスに属する各ピクチャの各拡張情報領域に、全て同じ値のシーケンス単位表示制御情報を格納する。
 また好ましくは、表示制御情報生成部103は、符号化対象の動画像信号がプログレッシブ形式であるかインターレース形式であるかを識別する第1の識別子を含むシーケンス単位表示制御情報を生成する。
 また好ましくは、表示制御情報生成部103は、符号化対象の動画像信号がインターレース形式である場合、同じフレームに属する2つのフィールドが当該シーケンスにおいて常に符号化順で互いに連続しているか否かを識別する第2の識別子を含むシーケンス単位表示制御情報を生成する。
 また好ましくは、表示制御情報生成部103は、符号化対象の動画像信号がインターレース形式である場合、同じフレームに属する1つ目のフィールドと2つ目のフィールドの符号化順における間隔の当該シーケンスにおける最大値を示す情報を含むシーケンス単位表示制御情報を生成する。
 また好ましくは、表示制御情報生成部103は、符号化対象とするピクチャの表示処理において、(1)プログレッシブ形式の動画像信号に属する1つのフレームとして表示するか、(2)インターレース形式の動画像信号に属するトップフィールドとして表示するか、(3)インターレース形式の動画像信号に属するボトムフィールドとして表示するか、(4)その他の方式で表示するかを指定する第3の識別子を含むピクチャ単位表示制御情報を生成する。
 また好ましくは、表示制御情報生成部103は、符号化対象の動画像信号がインターレース形式である場合にのみ、符号化対象とするピクチャの表示処理において、(1)インターレース形式の動画像信号に属するトップフィールドとして表示するか、(2)インターレース形式の動画像信号に属するボトムフィールドとして表示するかを指定する第3の識別子を含むピクチャ単位表示制御情報を生成する。
 また好ましくは、表示制御情報生成部103は、符号化対象ピクチャを復号化して表示する際に、インターレース形式の動画像信号に属するトップフィールドもしくはボトムフィールドとして表示する場合、符号化対象ピクチャと同じフレームに属する対となるピクチャを指定する指定情報を含むピクチャ単位表示制御情報を生成する。
 また好ましくは、表示制御情報生成部103は、指定情報として、符号化対象ピクチャと同じフレームに属する対となるピクチャに割り当てられている表示順情報を記述する。
 また好ましくは、表示制御情報生成部103は、指定情報として、符号化対象ピクチャに割り当てられている表示順情報と、符号化対象ピクチャと同じフレームに属する対となるピクチャに割り当てられている表示順情報との差分値を記述する。
 本実施形態の動画像符号化方法は、入力される動画像信号をピクチャ単位で符号化する。この動画像符号化方法は、
 動画像信号の動画像形式がインターレース形式およびプログレッシブ形式のうちいずれの形式であるかを示す動画像形式情報を取得し、
 符号化後の動画像信号が示す動画像を動画像形式情報が示す動画像形式の動画像として表示する際に利用する表示制御情報を、動画像形式情報に基づいて生成し、
 動画像形式情報がプログレッシブ形式を示す場合、動画像信号含まれる複数のフレームを符号化順に並び替え、かつ複数のフレームのそれぞれをピクチャとして設定し、動画像形式情報がインターレース形式を示す場合、動画像信号に含まれる複数のフィールドを符号化順に並び替え、かつ複数のフィールドのそれぞれをピクチャとして符号化順に並び替えて設定し、
 設定したピクチャに含まれる画素データを、動画像形式に依存しない共通の信号処理方式および共通のシンタックス構造を用いて符号化することで、第1符号列を出力し、
 表示制御情報を符号化して拡張情報領域符号列を生成し、
 第1符号列および拡張情報領域符号列を対応づけた第2符号列を出力し、
 表示制御情報は、符号化対象とするシーケンスに属する全てのピクチャの表示処理において共通して使用されるシーケンス単位表示制御情報と、符号化対象とするピクチャの表示処理において個別に使用されるピクチャ単位表示制御情報とから構成され、
 各表示制御情報を、ピクチャ単位で生成する拡張情報領域に格納する。
5-2.効果等
 本実施の形態による動画像符号化装置100-1を用いることにより、プログレッシブ形式の動画像を入力とした場合も、インターレース形式の動画像を入力とした場合も、処理量を増加させることなく共通の制御でピクチャデータの符号化処理を行うことが可能となり、符号化装置の実装を容易に行うことができる。
 一般に動画像復号化装置においては、符号化された符号列を復号化して復号化画像を生成する復号化処理と、生成された復号化画像を対応する表示装置に合わせて表示させる表示処理とを別の階層として制御される。例えば前者をハードウェアで構成し、後者をソフトウェアで構成するといった方法が取られる。これにより、例えばテレビとパソコンのように表示方法が異なる装置の開発において、復号化処理を行うハードウェアは共通のものを使用し、表示処理を行うソフトウェアのみを装置毎に作成することで開発工数を削減することが可能となる。
 本実施形態では、図16で説明した符号列のように、符号化処理には不要な情報(表示制御情報等)のみを記述した拡張情報領域と、復号化処理に必要な情報を記述したそれ以外の領域とが完全に分離されている。これにより、上記のような用途において、復号化処理を行う階層と表示処理を行う階層とに、それぞれの階層で必要とされる符号列のみを送ることが容易となり、階層毎の独立性が高くなる。つまり、プログレッシブに対応した復号化装置もインターレースに対応した復号化装置も、復号化処理を行う階層(ハードウェア)を完全に共通のものを使用して装置を構成することが可能となる。
(実施の形態4)(復号化処理の他の例)
 実施形態4について、図面を参照しながら説明する。
1.動画像復号化装置の構成
 図18は、本実施形態に係る動画像復号化装置のブロック図である。
 この動画像復号化装置200-1は、実施形態2の動画像復号化装置200のピクチャデータ復号化部210、第2符号列解析部201の代わりに、ピクチャデータ復号化部210-1、第2符号列解析部201-1を備えている。ピクチャデータ復号化部210-1は、第1符号列解析部211の代わりに、第1符号列解析部211-1を含む。
 以下、説明の便宜上、実施形態2と同様の構成については詳細な説明を省略する。さらに、図18では、図1と同様の機能を有するブロックについては同じ番号を付す。
 第2符号列解析部201は、入力された符号列信号251に含まれるヘッダ情報の符号列の拡張情報領域から、少なくとも表示制御情報を抽出する。そして、第2符号列解析部201は、抽出した情報を表示制御情報信号252として表示制御情報解析部202へ出力する。
 ピクチャデータ復号化部210は、入力された符号列信号251に含まれるピクチャデータの符号列に対して、ブロック単位で復号化処理を行って対象ピクチャの復号化画像を生成する。このとき、動画像形式がプログレッシブ形式であるかインターレース形式であるかに依存することなく、ピクチャとして共通の復号化処理が適用され、また復号化の対象となるピクチャデータの符号列も共通のシンタックスを持つ。
 第1符号列解析部211は、入力された符号列信号251のピクチャデータの符号列に対して可変長復号化を施すことにより復号化制御情報の解析およびブロック単位のピクチャデータの解析を行う。この復号化制御情報には、シーケンス単位およびピクチャ単位の復号化制御に関する情報が含まれる。第1符号列解析部211は、解析して得られる残差符号化信号261を予測残差復号化部212へ出力する。さらに、第1符号列解析部211は、解析して得られる予測情報信号265を予測復号化部214へ出力する。さらに、第1符号列解析部211は、解析して得られる量子化値情報を量子化値決定部215へ出力する。
2.表示制御方法
 表示制御情報解析部202で表示制御情報を解析し、出力ピクチャ設定部203において復号化済みのピクチャを出力順に並び替えて出力画像とする方法について、図19の復号化処理全体のフローチャートを用いて具体的に説明する。
 まず、第1符号列解析部211-1は、シーケンス単位のヘッダ領域の符号列解析を行う(S1901)。
 次に、第1符号列解析部211-1は、ピクチャ単位のヘッダ領域の符号列解析を行う(S1902)。
 次に、第2符号列解析部201-1は、拡張情報領域の符号列解析を行う(S1903)。このとき、表示制御情報解析部202は、シーケンス単位の表示制御情報及びピクチャ単位の表示制御情報を取得する。
 次に、ピクチャデータ復号化部210-1は、一連の復号化処理を行い対象ピクチャの復号化画像を生成する(S1904)。なお、ステップS1904では、動画像形式がプログレッシブ形式であってインターレース形式であっても全く区別することなく共通の復号化処理が行われる。
 次に、出力ピクチャ設定部203は、復号化順に蓄積されている復号化画像を表示順に並び替え、表示対象とするピクチャを選択する(S1905)。このとき、出力ピクチャ設定部203は、表示制御情報解析部202によって解析された表示制御方法に従ってピクチャの並び替えを行う。
 次に、現在処理中の復号化対象ピクチャの処理が完了すると、ステップS1902に戻って次のピクチャの復号化処理に移り、シーケンス内の全てのピクチャの復号化処理が完了するまでステップS1902からステップS1904の処理を繰り返す(S1905)。
3.ピクチャの並び替え
 ステップS1905におけるピクチャの並び替え処理については、実施形態2で図11、図12、図13を用いて説明した処理と同様の処理が行われる。したがって、説明は省略する。
4.符号列構成およびシンタックス
 本実施の形態で復号化対象とする符号列の構成およびシンタックスは、実施の形態1で図6から図8を用いて説明したものと全く同様であるので、ここでは説明を省略する。
5.まとめ
5-1.構成
 本実施形態の動画像復号化装置200-1は、インターレース形式またはプログレッシブ形式の動画像形式を有する動画像信号をピクチャ単位で符号化して得られる符号列を、ピクチャ単位で復号化する。この動画像復号化装置200-1は、
 符号列を解析し、拡張情報領域符号列および第1符号列を取得する第2符号列解析部201-1と、
 拡張情報領域符号列から、復号化したピクチャを表示する際に利用する表示制御情報を取得する第2符号列解析部201-1(拡張情報領域復号化部)と、
 動画像形式に依存しない共通のシンタックス解析および共通の信号処理方式を用いて第1符号列を復号化し、ピクチャを取得するピクチャデータ復号化部210-1と、
 表示制御情報がプログレッシブ形式を示す場合、取得したピクチャを1枚のフレームと設定しフレームを表示順に1枚ずつ出力し、表示制御情報がインターレース形式を示す場合、取得したピクチャを1枚のフィールドと設定し、対になるトップフィールドとボトムフィールドを取得した時点で表示順に出力する出力ピクチャ設定部203と、を備え、
 表示制御情報は、復号化対象とするシーケンスに属する全てのピクチャの表示処理において共通して使用されるシーケンス単位表示制御情報と、復号化対象とするピクチャの表示処理において個別に使用されるピクチャ単位表示制御情報とから構成され、
 拡張情報領域復号化部201-1は、ピクチャ単位の拡張情報領域から、各表示制御情報を取得する。
 また好ましくは、同じシーケンスに属する各ピクチャ単位の各拡張情報領域には、全て同じ値のシーケンス単位表示制御情報が格納されている。
 また好ましくは、第2符号列解析部201-1(拡張情報領域復号化部)は、復号化対象の動画像信号がプログレッシブ形式であるかインターレース形式であるかを識別する第1の識別子を含むシーケンス単位表示制御情報を取得し、
 出力ピクチャ設定部203は、取得した第1の識別子に基づいて、ピクチャの出力方法を変更する。
 また好ましくは、第2符号列解析部201-1(拡張情報領域復号化部)は、復号化対象の動画像信号がインターレース形式である場合、同じフレームに属する2つのフィールドが当該シーケンスにおいて常に復号化順で互いに連続しているか否かを識別する第2の識別子を含むシーケンス単位表示制御情報を取得し、
 出力ピクチャ設定部203は、取得した第2の識別子に基づいて、ピクチャの出力方法を変更する。
 また好ましくは、第2符号列解析部201-1(拡張情報領域復号化部)は、復号化対象の動画像信号がインターレース形式である場合、同じフレームに属する1つ目のフィールドと2つ目のフィールドの復号化順における間隔の当該シーケンスにおける最大値を示す情報を含むシーケンス単位表示制御情報を取得し、
 出力ピクチャ設定部203は、取得した最大値を示す情報に基づいて、ピクチャの出力方法を変更する。
 また好ましくは、第2符号列解析部201-1(拡張情報領域復号化部)は、復号化対象とするピクチャの表示処理において、(1)プログレッシブ形式の動画像信号に属する1つのフレームとして表示するか、(2)インターレース形式の動画像信号に属するトップフィールドとして表示するか、(3)インターレース形式の動画像信号に属するボトムフィールドとして表示するか、(4)その他の方式で表示するかを指定する第3の識別子を含むピクチャ単位表示制御情報を取得し、
 出力ピクチャ設定部203は、取得した第3の識別子に基づいて、ピクチャの出力方法を変更する。
 また好ましくは、第2符号列解析部201-1(拡張情報領域復号化部)は、復号化対象の動画像信号がインターレース形式である場合にのみ、復号化対象とするピクチャの表示処理において、(1)インターレース形式の動画像信号に属するトップフィールドとして表示するか、(2)インターレース形式の動画像信号に属するボトムフィールドとして表示するかを指定する第3の識別子を含むピクチャ単位表示制御情報を取得し、
 出力ピクチャ設定部203は、取得した第3の識別子に基づいて、ピクチャの出力方法を変更する。
 また好ましくは、第2符号列解析部201-1(拡張情報領域復号化部)は、復号化対象ピクチャを表示する際に、インターレース形式の動画像信号に属するトップフィールドもしくはボトムフィールドとして表示する場合、復号化対象ピクチャと同じフレームに属する対となるピクチャを指定する指定情報を含むピクチャ単位表示制御情報を取得し、
 出力ピクチャ設定部203は、復号化対象ピクチャを出力する際に、指定情報が指定するピクチャと対となるように出力する。
 また好ましくは、第2符号列解析部201-1(拡張情報領域復号化部)は、指定情報として、復号化対象ピクチャと同じフレームに属する対となるピクチャに割り当てられている表示順情報を取得する。
 また好ましくは、第2符号列解析部201-1(拡張情報領域復号化部)は、指定情報として、復号化対象ピクチャに割り当てられている表示順情報と、復号化対象ピクチャと同じフレームに属する対となるピクチャに割り当てられている表示順情報との差分値を取得する。
 本実施形態の動画像復号化方法は、インターレース形式またはプログレッシブ形式の動画像形式を有する動画像信号をピクチャ単位で符号化して得られる符号列を、ピクチャ単位で復号化する。この動画像復号化方法は、
 符号列を解析し、拡張情報領域符号列および第1符号列を取得し、
 拡張情報領域符号列から、復号化したピクチャを表示する際に利用する表示制御情報を取得し、
 動画像形式に依存しない共通のシンタックス解析および共通の信号処理方式を用いて第1符号列復号化し、ピクチャを取得し、
 表示制御情報がプログレッシブ形式を示す場合、取得したピクチャを1枚のフレームと設定しフレームを表示順に1枚ずつ出力し、表示制御情報がインターレース形式を示す場合、取得したピクチャを1枚のフィールドと設定し、対になるトップフィールドとボトムフィールドを取得した時点で表示順に出力し、
 表示制御情報は、復号化対象とするシーケンスに属する全てのピクチャの表示処理において共通して使用されるシーケンス単位表示制御情報と、復号化対象とするピクチャの表示処理において個別に使用されるピクチャ単位表示制御情報とから構成され、
 ピクチャ単位の拡張情報領域から、各表示制御情報を取得する。
5-2.効果等
 本実施の形態による動画像復号化装置200-1を用いることにより、プログレッシブ形式の動画像を符号化した符号列に対しても、インターレース形式の動画像を符号化した符号列に対しても、処理量を増加させることなく共通の制御でのピクチャデータの復号化処理および表示制御を行うことが可能となる。これにより、復号化装置の実装を容易に行うことができる。
 また、実施形態3において説明したように、本実施形態では、符号化処理には不要な情報(表示制御情報等)のみを記述した拡張情報領域と、復号化処理に必要な情報を記述したそれ以外の領域とが完全に分離されている。これにより、上記のような用途において、復号化処理を行う階層と表示処理を行う階層とに、それぞれの階層で必要とされる符号列のみを送ることが容易となり、階層毎の独立性が高くなる。つまり、プログレッシブに対応した復号化装置もインターレースに対応した復号化装置も、復号化処理を行う階層(ハードウェア)を完全に共通のものを使用して装置を構成することが可能となる。
(その他の実施形態)
 上記実施の形態で示した動画像符号化装置および動画像復号化装置に含まれる各手段と同等の機能を備えるプログラムを、フレキシブルディスク等の記録媒体に記録してもよい。これにより、上記実施の形態で示した処理を、独立したコンピュータシステムにおいて簡単に実施することが可能となる。なお、記録媒体はフレキシブルディスクに限らず、光ディスク、ICカード、ROMカセット等、プログラムを記録できるものであれば何でもよい。
 また、上記実施の形態で示した動画像符号化装置および動画像復号化装置に含まれる各手段と同等の機能を集積回路であるLSIとして実現してもよい。これらは一部または全てを含むように1チップ化されてもよい。LSIは集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと称されることもある。
 また、集積回路化の手法はLSIに限るものではなく、専用回路または汎用プロセッサで実現しても良い。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用しても良い。
 さらには、半導体技術の進歩または派生する別技術によりLSIなどに置き換わる集積回路の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。
 また、本発明は、上述した動画像符号化装置および動画像復号化装置を含む、放送局から放送される放送波を圧縮し、記録を行うDVDレコーダー、BDレコーダー等の放送波記録装置に適用しても構わない。
 また、上記実施の形態に係る、動画像符号化装置および動画像復号化装置、またはその変形例の機能のうち少なくとも一部を組み合わせてもよい。
 本発明は、例えば、ビデオカメラ、デジタルカメラ、ビデオレコーダ、携帯電話、及びパーソナルコンピューター等における、入力画像を構成する各ピクチャを符号化して動画像符号化データとして出力する動画像符号化装置や、動画像符号化データを復号化して復号化画像を生成する動画像復号化装置として有用である。
 100,100-1 動画像符号化装置
 101 ピクチャ設定部
 102 動画像形式指定部
 103 表示制御情報生成部
 104,104-1 第2符号列生成部
 110 110-1 ピクチャデータ符号化部
 111 ピクチャメモリ
 112 予測残差符号化部
 113 予測残差復号化部
 114 ローカルバッファ
 115 予測符号化部
 116 量子化値決定部
 117,117-1 第1符号列生成部
 118 差分演算部
 119 加算演算部
 151 入力画像信号
 152 動画像形式信号
 153 表示制御情報信号
 154 符号列信号
 161 差分画像信号
 162 残差符号化信号
 163 残差復号化信号
 164 再構成画像信号
 165 予測画像信号
 166 予測情報信号
 200,200-1 動画像復号化装置
 201,201-1 第2符号列解析部
 202 表示制御情報解析部
 203 出力ピクチャ設定部
 210,210-1 ピクチャデータ復号化部
 211,211-1 第1符号列解析部
 212 予測残差復号化部
 213 ピクチャメモリ
 214 予測復号化部
 215 量子化値決定部
 216 加算演算部
 251 符号列信号
 252 表示制御情報信号
 253 表示制御信号
 254 出力画像信号
 261 残差符号化信号
 262 残差復号化信号
 263 再構成画像信号
 264 予測画像信号
 265 予測情報信号

Claims (11)

  1.  インターレース形式またはプログレッシブ形式の動画像形式を有する動画像信号をピクチャ単位で符号化して得られる符号列を、ピクチャ単位で復号化する動画像復号化装置であって、
     前記符号列を解析し、拡張情報領域符号列および第1符号列を取得する第2符号列解析部と、
     前記拡張情報領域符号列から、復号化したピクチャを表示する際に利用する表示制御情報を取得する拡張情報領域復号化部と、
     前記動画像形式に依存しない共通のシンタックス解析および共通の信号処理方式を用いて前記第1符号列を復号化し、前記ピクチャを取得するピクチャデータ復号化部と、
     前記表示制御情報がプログレッシブ形式を示す場合、前記取得したピクチャを1枚のフレームと設定し前記フレームを表示順に1枚ずつ出力し、前記表示制御情報がインターレース形式を示す場合、前記取得したピクチャを1枚のフィールドと設定し、対になるトップフィールドとボトムフィールドを取得した時点で表示順に出力する出力ピクチャ設定部と、を備え、
     前記表示制御情報は、復号化対象とするシーケンスに属する全てのピクチャの表示処理において共通して使用されるシーケンス単位表示制御情報と、復号化対象とするピクチャの表示処理において個別に使用されるピクチャ単位表示制御情報とから構成され、
     前記拡張情報領域復号化部は、ピクチャ単位の拡張情報領域から、前記各表示制御情報を取得する
     動画像復号化装置。
  2.  同じシーケンスに属する各ピクチャ位の各拡張情報領域には、全て同じ値のシーケンス単位表示制御情報が格納されている請求項1に記載の動画像復号化装置。
  3.  前記拡張情報領域復号化部は、復号化対象の動画像信号がプログレッシブ形式であるかインターレース形式であるかを識別する第1の識別子を含む前記シーケンス単位表示制御情報を取得し、
     前記出力ピクチャ設定部は、前記取得した第1の識別子に基づいて、前記ピクチャの出力方法を変更する請求項1または請求項2に記載の動画像復号化装置。
  4.  前記拡張情報領域復号化部は、復号化対象の動画像信号がインターレース形式である場合、同じフレームに属する2つのフィールドが当該シーケンスにおいて常に復号化順で互いに連続しているか否かを識別する第2の識別子を含む前記シーケンス単位表示制御情報を取得し、
     前記出力ピクチャ設定部は、前記取得した第2の識別子に基づいて、前記ピクチャの出力方法を変更する請求項1から請求項3のいずれか1項に記載の動画像復号化装置。
  5.  前記拡張情報領域復号化部は、復号化対象の動画像信号がインターレース形式である場合、同じフレームに属する1つ目のフィールドと2つ目のフィールドの復号化順における間隔の当該シーケンスにおける最大値を示す情報を含む前記シーケンス単位表示制御情報を取得し、
     前記出力ピクチャ設定部は、前記取得した最大値を示す情報に基づいて、前記ピクチャの出力方法を変更する請求項1から請求項4のいずれか1項に記載の動画像復号化装置。
  6.  前記拡張情報領域復号化部は、復号化対象とするピクチャの表示処理において、(1)プログレッシブ形式の動画像信号に属する1つのフレームとして表示するか、(2)インターレース形式の動画像信号に属するトップフィールドとして表示するか、(3)インターレース形式の動画像信号に属するボトムフィールドとして表示するか、(4)その他の方式で表示するかを指定する第3の識別子を含む前記ピクチャ単位表示制御情報を取得し、
     前記出力ピクチャ設定部は、前記取得した第3の識別子に基づいて、前記ピクチャの出力方法を変更する請求項1から請求項5のいずれか1項に記載の動画像復号化装置。
  7.  前記拡張情報領域復号化部は、復号化対象の動画像信号がインターレース形式である場合にのみ、復号化対象とするピクチャの表示処理において、(1)インターレース形式の動画像信号に属するトップフィールドとして表示するか、(2)インターレース形式の動画像信号に属するボトムフィールドとして表示するかを指定する第3の識別子を含む前記ピクチャ単位表示制御情報を取得し、
     前記出力ピクチャ設定部は、前記取得した第3の識別子に基づいて、前記ピクチャの出力方法を変更する請求項1から請求項5のいずれか1項に記載の動画像復号化装置。
  8.  前記拡張情報領域復号化部は、復号化対象ピクチャを表示する際に、インターレース形式の動画像信号に属するトップフィールドもしくはボトムフィールドとして表示する場合、前記復号化対象ピクチャと同じフレームに属する対となるピクチャを指定する指定情報を含む前記ピクチャ単位表示制御情報を取得し、
     前記出力ピクチャ設定部は、前記復号化対象ピクチャを出力する際に、前記指定情報が指定するピクチャと対となるように出力する請求項1から請求項5のいずれかに記載の動画像復号化装置。
  9.  前記拡張情報領域復号化部は、前記指定情報として、前記復号化対象ピクチャと同じフレームに属する対となるピクチャに割り当てられている表示順情報を取得する請求項8に記載の動画像復号化装置。
  10.  前記拡張情報領域復号化部は、前記指定情報として、前記復号化対象ピクチャに割り当てられている表示順情報と、前記復号化対象ピクチャと同じフレームに属する対となるピクチャに割り当てられている表示順情報との差分値を取得する請求項8に記載の動画像復号化装置。
  11.  インターレース形式またはプログレッシブ形式の動画像形式を有する動画像信号をピクチャ単位で符号化して得られる符号列を、ピクチャ単位で復号化する動画像復号化方法であって、
     前記符号列を解析し、拡張情報領域符号列および第1符号列を取得し、
     前記拡張情報領域符号列から、復号化したピクチャを表示する際に利用する表示制御情報を取得し、
     前記動画像形式に依存しない共通のシンタックス解析および共通の信号処理方式を用いて前記第1符号列復号化し、前記ピクチャを取得し、
     前記表示制御情報がプログレッシブ形式を示す場合、前記取得したピクチャを1枚のフレームと設定し前記フレームを表示順に1枚ずつ出力し、前記表示制御情報がインターレース形式を示す場合、前記取得したピクチャを1枚のフィールドと設定し、対になるトップフィールドとボトムフィールドを取得した時点で表示順に出力し、
     前記表示制御情報は、復号化対象とするシーケンスに属する全てのピクチャの表示処理において共通して使用されるシーケンス単位表示制御情報と、復号化対象とするピクチャの表示処理において個別に使用されるピクチャ単位表示制御情報とから構成され、
     ピクチャ単位の拡張情報領域から、前記各表示制御情報を取得する
     動画像復号化方法。
PCT/JP2012/003910 2011-06-17 2012-06-14 動画像復号化装置および動画像復号化方法 WO2012172811A1 (ja)

Priority Applications (10)

Application Number Priority Date Filing Date Title
JP2012547777A JP5336004B2 (ja) 2011-06-17 2012-06-14 動画像復号化装置
EP12800607.9A EP2723072A4 (en) 2011-06-17 2012-06-14 VIDEO DECODING DEVICE AND VIDEO DECODING METHOD
CN201280029840.XA CN103609116A (zh) 2011-06-17 2012-06-14 动态图像编码装置以及动态图像编码方法
KR20137033457A KR20140035408A (ko) 2011-06-17 2012-06-14 동화상 복호화 장치 및 동화상 복호화 방법
US14/107,292 US20140098892A1 (en) 2011-06-17 2013-12-16 Video decoding device and video decoding method
US15/722,119 US10659775B2 (en) 2011-06-17 2017-10-02 Video decoding device and video decoding method
US16/845,322 US11102472B2 (en) 2011-06-17 2020-04-10 Video decoding device and video decoding method
US17/377,880 US11611741B2 (en) 2011-06-17 2021-07-16 Video decoding device and video decoding method
US18/106,025 US11902505B2 (en) 2011-06-17 2023-02-06 Video decoding device and video decoding method
US18/397,083 US20240171730A1 (en) 2011-06-17 2023-12-27 Video decoding device and video decoding method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2011134891 2011-06-17
JP2011-134891 2011-06-17
JP2011-175815 2011-08-11
JP2011175815 2011-08-11

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/107,292 Continuation US20140098892A1 (en) 2011-06-17 2013-12-16 Video decoding device and video decoding method

Publications (1)

Publication Number Publication Date
WO2012172811A1 true WO2012172811A1 (ja) 2012-12-20

Family

ID=47356815

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/003910 WO2012172811A1 (ja) 2011-06-17 2012-06-14 動画像復号化装置および動画像復号化方法

Country Status (6)

Country Link
US (6) US20140098892A1 (ja)
EP (1) EP2723072A4 (ja)
JP (7) JP5336004B2 (ja)
KR (1) KR20140035408A (ja)
CN (1) CN103609116A (ja)
WO (1) WO2012172811A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013123256A (ja) * 2011-06-17 2013-06-20 Panasonic Corp 動画像復号化装置
WO2015025747A1 (ja) * 2013-08-22 2015-02-26 ソニー株式会社 符号化装置、符号化方法、送信装置、復号化装置、復号化方法および受信装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240042116A (ko) * 2011-06-15 2024-04-01 파나소닉 인텔렉츄얼 프로퍼티 코포레이션 오브 아메리카 복호 방법 및 장치와, 부호화 방법 및 장치
US10270464B1 (en) * 2018-03-30 2019-04-23 Intel Corporation Method and apparatus for high performance compression and decompression

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998010591A1 (en) * 1996-09-02 1998-03-12 Kabushiki Kaisha Toshiba Information transmitting method, encoder/decoder of information transmitting system using the method, and encoding multiplexer/decoding inverse multiplexer
JP2004328634A (ja) * 2003-04-28 2004-11-18 Sony Corp 画像復号化装置及び方法

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5461420A (en) 1992-09-18 1995-10-24 Sony Corporation Apparatus for coding and decoding a digital video signal derived from a motion picture film source
US6064803A (en) * 1995-03-01 2000-05-16 Matsushita Electric Industrial Co., Ltd. Image information decoder with a reduced capacity frame memory
SG74566A1 (en) * 1995-08-23 2000-08-22 Sony Corp Encoding/decoding fields of predetermined field polarity apparatus and method
TW366648B (en) * 1996-10-24 1999-08-11 Matsushita Electric Ind Co Ltd Method of supplementing pixel signal coding device, and pixel signal decoding device
JP3360586B2 (ja) 1997-11-21 2002-12-24 日本電気株式会社 スキャン変換装置及び方法
US7551672B1 (en) * 1999-02-05 2009-06-23 Sony Corporation Encoding system and method, decoding system and method, multiplexing apparatus and method, and display system and method
US7236207B2 (en) * 2002-01-22 2007-06-26 Broadcom Corporation System and method of transmission and reception of progressive content with isolated fields for conversion to interlaced display
US7302105B2 (en) 2002-07-22 2007-11-27 Canon Kabushiki Kaisha Moving image coding apparatus, moving image decoding apparatus, and methods therefor
CN101188762B (zh) 2002-10-01 2010-06-09 松下电器产业株式会社 图像编码装置、图像解码装置及它们的方法
US7447264B2 (en) 2002-11-07 2008-11-04 Victor Company Of Japan, Ltd. Moving-picture temporal scalable coding method, coding apparatus, decoding method, decoding apparatus, and computer program therefor
US8824553B2 (en) * 2003-05-12 2014-09-02 Google Inc. Video compression method
US20050013498A1 (en) * 2003-07-18 2005-01-20 Microsoft Corporation Coding of motion vector information
US7724827B2 (en) * 2003-09-07 2010-05-25 Microsoft Corporation Multi-layer run level encoding and decoding
US7961786B2 (en) 2003-09-07 2011-06-14 Microsoft Corporation Signaling field type information
US7822123B2 (en) * 2004-10-06 2010-10-26 Microsoft Corporation Efficient repeat padding for hybrid video sequence with arbitrary video resolution
US8085844B2 (en) * 2003-09-07 2011-12-27 Microsoft Corporation Signaling reference frame distances
US8107531B2 (en) 2003-09-07 2012-01-31 Microsoft Corporation Signaling and repeat padding for skip frames
US7580457B2 (en) * 2003-10-23 2009-08-25 Broadcom Corporation Unified system for progressive and interlaced video transmission
EP1707003B1 (en) * 2004-01-09 2009-10-07 Nxp B.V. Arrangement for generating a 3:2 pull-down switch-off signal for a video compression encoder
JP2005326690A (ja) * 2004-05-14 2005-11-24 Sony Corp 画像処理装置及び画像処理方法
KR101154743B1 (ko) 2004-06-10 2012-07-06 소니 주식회사 부호화 장치 및 부호화 방법, 복호 장치 및 복호 방법, 기록 매체, 및 재생 장치
JP4931034B2 (ja) 2004-06-10 2012-05-16 株式会社ソニー・コンピュータエンタテインメント 復号装置および復号方法、並びに、プログラムおよびプログラム記録媒体
CN101686397B (zh) * 2004-09-16 2013-07-31 汤姆逊许可证公司 用于快速视频帧和场编码的方法
JP4763422B2 (ja) * 2004-12-03 2011-08-31 パナソニック株式会社 イントラ予測装置
US7889789B2 (en) * 2006-04-07 2011-02-15 Microsoft Corporation Making interlace frame level coding mode decisions
JP2008167061A (ja) * 2006-12-27 2008-07-17 Toshiba Corp 符号化装置及び符号化方法
JP4488027B2 (ja) * 2007-05-17 2010-06-23 ソニー株式会社 情報処理装置および方法、並びに、情報処理システム
EP2023619A3 (en) * 2007-08-10 2012-01-04 Sony Corporation Image processing apparatus and method
JP2011250400A (ja) * 2010-04-27 2011-12-08 Panasonic Corp 動画像符号化装置及び動画像符号化方法
CN102668579A (zh) * 2010-10-05 2012-09-12 英特尔公司 用于动态调整视频质量的方法和装置
CN102595116B (zh) * 2011-01-14 2014-03-12 华为技术有限公司 多图像块划分的编解码方法和装置
KR20240042116A (ko) * 2011-06-15 2024-04-01 파나소닉 인텔렉츄얼 프로퍼티 코포레이션 오브 아메리카 복호 방법 및 장치와, 부호화 방법 및 장치
JP5336004B2 (ja) * 2011-06-17 2013-11-06 パナソニック株式会社 動画像復号化装置
US9264706B2 (en) * 2012-04-11 2016-02-16 Qualcomm Incorporated Bypass bins for reference index coding in video coding

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998010591A1 (en) * 1996-09-02 1998-03-12 Kabushiki Kaisha Toshiba Information transmitting method, encoder/decoder of information transmitting system using the method, and encoding multiplexer/decoding inverse multiplexer
JP2004328634A (ja) * 2003-04-28 2004-11-18 Sony Corp 画像復号化装置及び方法

Non-Patent Citations (12)

* Cited by examiner, † Cited by third party
Title
"Jisedai Dogazo Fugoka Hoshiki MPEG-4 AVCIH.264", KABUSHIKI KAISHA TRICEPS, 12 March 2004 (2004-03-12), pages 13, 38 - 40, 42 TO 44, 50, 156 TO 157 *
"TTC Hyojun JT-H263 Tei Bit Rate Tsushin-yo Video Fugoka Hoshiki, 3.", THE TELECOMMUNICATION TECHNOLOGY COMMITTEE, 17 November 2009 (2009-11-17), pages 189 - 201 *
ITU-T H.264: ADVANCED VIDEO CODING FOR GENERIC AUDIOVISUAL SERVICES, March 2010 (2010-03-01)
JCT-VC WD2: WORKING DRAFT 2 OF HIGH-EFFICIENCY VIDEO CODING, March 2011 (2011-03-01)
KAZUO SUGIMOTO ET AL.: "AHG13: Proposed interlace format indication for HEVC", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 8TH MEETING, 3 February 2012 (2012-02-03), SAN JOSE, CA, USA, XP030111615 *
KAZUO SUGIMOTO ET AL.: "High level syntax to support interlace format", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 7TH MEETING, 8 November 2011 (2011-11-08), GENEVA, CH, XP030110434 *
KEIICHI CHONO: "AHG13: On interlace indication", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/ SC29/WG11 8TH MEETING, 20 January 2012 (2012-01-20), SAN JOSE, CA, USA *
KEIICHI CHONO: "On issues for interlaced format support in HEVC standard", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 7TH MEETING, 8 November 2011 (2011-11-08), GENEVA, CH, XP030110154 *
OSNAT BAR-NIR: "Picture-adaptive Field/Frame Coding: support for legacy video", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 7TH MEETING, 8 November 2011 (2011-11-08), GENEVA, CH, XP030110280 *
See also references of EP2723072A4
SHUN-ICHI SEKIGUCHI ET AL.: "Proposal on the support of interlace format in HEVC", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 6TH MEETING, 1 July 2011 (2011-07-01), TORINO, IT, XP030049176 *
VIERON JEROME ET AL.: "Interlaced and 4:2:2 color format support in HEVC standard", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/ SC29/WG11 7TH MEETING, 14 November 2011 (2011-11-14), GENEVA, CH, XP030051017 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013123256A (ja) * 2011-06-17 2013-06-20 Panasonic Corp 動画像復号化装置
JP2013123255A (ja) * 2011-06-17 2013-06-20 Panasonic Corp 動画像復号化装置
WO2015025747A1 (ja) * 2013-08-22 2015-02-26 ソニー株式会社 符号化装置、符号化方法、送信装置、復号化装置、復号化方法および受信装置
CN105340277A (zh) * 2013-08-22 2016-02-17 索尼公司 编码装置、编码方法、传输装置、解码装置、解码方法以及接收装置
JPWO2015025747A1 (ja) * 2013-08-22 2017-03-02 ソニー株式会社 符号化装置、符号化方法、送信装置、復号化装置、復号化方法および受信装置
US10187646B2 (en) 2013-08-22 2019-01-22 Sony Corporation Encoding device, encoding method, transmission device, decoding device, decoding method, and reception device
CN105340277B (zh) * 2013-08-22 2019-02-15 索尼公司 编码装置、编码方法、传输装置、解码装置、解码方法以及接收装置

Also Published As

Publication number Publication date
JP2013123256A (ja) 2013-06-20
US11611741B2 (en) 2023-03-21
JP2013123254A (ja) 2013-06-20
US20240171730A1 (en) 2024-05-23
EP2723072A4 (en) 2014-09-24
US20230188703A1 (en) 2023-06-15
EP2723072A1 (en) 2014-04-23
US20140098892A1 (en) 2014-04-10
JP2013243761A (ja) 2013-12-05
JP5336013B2 (ja) 2013-11-06
US20180041756A1 (en) 2018-02-08
JP5336012B2 (ja) 2013-11-06
JP5336004B2 (ja) 2013-11-06
JPWO2012172811A1 (ja) 2015-02-23
US10659775B2 (en) 2020-05-19
US11902505B2 (en) 2024-02-13
US20200244952A1 (en) 2020-07-30
JP5909306B2 (ja) 2016-04-26
JP2013123253A (ja) 2013-06-20
US20210344898A1 (en) 2021-11-04
JP2013123255A (ja) 2013-06-20
US11102472B2 (en) 2021-08-24
CN103609116A (zh) 2014-02-26
KR20140035408A (ko) 2014-03-21
JP5848289B2 (ja) 2016-01-27
JP2016042737A (ja) 2016-03-31

Similar Documents

Publication Publication Date Title
JP5909305B2 (ja) 符号化方法および符号化装置
US11902505B2 (en) Video decoding device and video decoding method

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2012547777

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12800607

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20137033457

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE