WO2012042860A1 - 画像復号方法、画像符号化方法、画像復号装置、画像符号化装置、プログラム、及び集積回路 - Google Patents

画像復号方法、画像符号化方法、画像復号装置、画像符号化装置、プログラム、及び集積回路 Download PDF

Info

Publication number
WO2012042860A1
WO2012042860A1 PCT/JP2011/005444 JP2011005444W WO2012042860A1 WO 2012042860 A1 WO2012042860 A1 WO 2012042860A1 JP 2011005444 W JP2011005444 W JP 2011005444W WO 2012042860 A1 WO2012042860 A1 WO 2012042860A1
Authority
WO
WIPO (PCT)
Prior art keywords
prediction mode
mode
prediction
estimated
unit
Prior art date
Application number
PCT/JP2011/005444
Other languages
English (en)
French (fr)
Inventor
寿郎 笹井
西 孝啓
陽司 柴原
敏康 杉尾
ヴィルジニー ドリゥジョーン
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to CN201180037651.2A priority Critical patent/CN103053162B/zh
Priority to CA2806511A priority patent/CA2806511C/en
Priority to US13/814,255 priority patent/US20130136178A1/en
Priority to KR1020187012728A priority patent/KR101966605B1/ko
Priority to JP2012536206A priority patent/JP5395274B2/ja
Priority to KR1020137001290A priority patent/KR101792308B1/ko
Priority to EP18167183.5A priority patent/EP3383046A1/en
Priority to MX2013001661A priority patent/MX2013001661A/es
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to ES11828426.4T priority patent/ES2683793T3/es
Priority to KR1020177014640A priority patent/KR101857935B1/ko
Priority to EP11828426.4A priority patent/EP2624564B1/en
Priority to PL11828426T priority patent/PL2624564T3/pl
Publication of WO2012042860A1 publication Critical patent/WO2012042860A1/ja
Priority to US14/054,974 priority patent/US9756338B2/en
Priority to US14/546,111 priority patent/US10306234B2/en
Priority to US15/233,069 priority patent/US10887599B2/en
Priority to US17/106,685 priority patent/US11206409B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock

Definitions

  • the present invention relates to an image encoding method for compressing and encoding image and video data with better encoding efficiency, an image decoding method for decoding compression-encoded image and video data, a corresponding image encoding device, and image
  • the present invention relates to a decoding device, a program, and an integrated circuit.
  • the number of applications for video-on-demand services is rising, and these applications Rely on sending.
  • video data is transmitted or recorded, a significant amount of data is transmitted through a conventional transmission line with limited bandwidth or stored in a conventional storage medium with limited data capacity. Is done.
  • it is essential to compress or reduce the amount of digital data.
  • Such a video coding standard is, for example, H.264. ITU-T standard indicated by 26x and ISO / IEC standard indicated by MPEG-x.
  • the latest and most advanced video coding standard is currently H.264. H.264 / MPEG-4 AVC standard (see Non-Patent Document 1).
  • the prediction mode used to predict each macroblock is different for each block.
  • Most video coding standards use motion detection and motion compensation (interframe prediction) to predict video data from previously encoded and decoded frames.
  • block data may be predicted from adjacent blocks in the same frame (intra frame prediction).
  • H.264 / AVC standard defines several different intra-frame prediction modes, eg, for reference pixels used for prediction or for the direction in which the pixels are extrapolated.
  • FIG. 1A shows the conventional H.264 standard. It is a figure which shows an example of the relationship between the object block and reference pixel to which the intra prediction estimation according to H.264 / AVC standard is applied. In addition, FIG. It is a figure which shows the prediction direction contained in the intra prediction mode set according to H.264 / AVC standard.
  • the target block 10 of 4 ⁇ 4 pixels is predicted by extrapolating 13 reference pixels 20 located above and to the left of the target block 10 to be predicted.
  • a prediction block corresponding to the target block 10 is generated.
  • one direction prediction mode is selected from the eight direction prediction modes indicating each of the eight extrapolation directions.
  • the DC prediction mode may be selected. In the DC prediction mode, the average value of the reference pixels 20 is used to predict the target block 10.
  • the prediction mode to be used for prediction is selected for each macroblock among a plurality of prediction modes, and the encoded target block is encoded by entropy coding together with information related to the selected prediction mode. Compressed and transmitted.
  • an estimated value is predicted based on a rule determined in advance by the standard as information related to the selected prediction mode. For example, H.M.
  • the estimated value of the intra prediction mode is a number with a smaller number indicating the prediction method among the intra prediction modes of surrounding blocks that have already been encoded. It has been decided.
  • the flag indicating the same is transmitted.
  • the information to be encoded is transmitted. For example, when the estimated value of the intra prediction mode and the prediction mode actually selected at the time of encoding are the same, only the flag is transmitted. On the other hand, if different, information for restoring the selected prediction mode is transmitted.
  • Figure 2 shows the conventional H.264.
  • 2 is a diagram illustrating an example of a detailed configuration of a setting unit 510 that estimates a prediction mode and sets a coding value of a prediction mode, among the configurations of an image encoding device according to the H.264 / AVC standard.
  • FIG. 3 shows the conventional H.264 format. It is a figure which shows an example of a detailed structure of the decompression
  • the setting unit 510 receives coding mode information SMD indicating a coding mode (intra prediction mode or inter prediction mode).
  • a coding mode intra prediction mode or inter prediction mode
  • the coding mode information SMD is information IPM indicating the intra prediction mode.
  • the coding mode information SMD is position information (motion vector) MV.
  • the prediction mode storage memory 511 is a memory for storing the input encoding mode information SMD.
  • the prediction mode estimation unit 512 acquires a prediction mode estimation value candidate by a predetermined means from the already encoded encoding mode information input from the prediction mode storage memory 511.
  • H.264 for a block size of 4x4 pixels.
  • An estimation method of the prediction mode estimation value MPM in the prediction mode estimation units 512 and 624 in the H.264 / AVC standard will be described with reference to FIG. 1A.
  • the prediction mode estimation units 512 and 624 perform the intra prediction mode IPM_A of the surrounding block 30 that has already been encoded (or decoded) and the surrounding block 40 with respect to the target block 10 of 4 ⁇ 4 pixels in the encoding and decoding steps. Intra prediction mode IPM_B is acquired. Then, as in Equation 1 below, the mode with the smaller value of IPM_A and IPM_B is set as the prediction mode estimated value MPM.
  • MPM Min (PredModeA, PredModeB) (Formula 1)
  • PredModeA and PredModeB in Expression 1 indicate index numbers indicating prediction modes used in adjacent blocks, and Min () is a function that outputs one of the smaller indexes.
  • the prediction mode estimation unit 512 determines the prediction mode estimation value MPM from the prediction mode estimation value candidates, and outputs the determined prediction mode estimation value MPM.
  • the mode information generation unit 515 compares the encoding mode IPM of the encoding target block with the prediction mode estimation value MPM. And when both are the same, the flag which shows that it is the same as the prediction mode estimated value MPM is set to the encoding prediction mode related signal SSMD. On the other hand, if the two are different, the index of the mode signal excluding the corresponding number is output as the encoded prediction mode related signal SSMD.
  • a setting method of the mode information generation unit 515 is shown in Expression 2.
  • the encoding mode IPM that is an index of the encoding mode of the target block is compared with the prediction mode estimated value MPM calculated by Expression 1. If both are the same, a flag Prev_Intra_Pred_Mode_Flag indicating whether or not the prediction mode estimated value MPM is the same is set to 1, and this flag is output as the encoded prediction mode related signal SSMD.
  • Prev_Intra_Pred_Mode_Flag is set to 0 and the size of the index is compared.
  • the value of the coding mode IPM is set in the information Rem_Intra_Pred_Mode indicating the coding mode of the target block.
  • the index of the encoding mode of the target block is larger than the prediction mode estimated value MPM, a value obtained by subtracting 1 from the IPM value is set in the information Rem_Intra_Pred_Mode indicating the encoding mode of the target block. Then, Prev_Intra_Pred_Mode_Flag and Rem_Intra_Pred_Mode are output as SSMD.
  • variable length coding unit 520 entropy codes the coded prediction mode related signal SSMD and outputs it as a bit stream.
  • variable length decoding unit 610 outputs the quantized frequency transform coefficient QT and the encoded prediction mode related information SSMD by decoding the input bitstream.
  • Coding prediction mode related signal SSMD is input to restoration unit 620, and coding mode information SMD (coding mode MD used for decoding and information or position information (motion vector) MV indicating intra prediction mode IPM). Is output.
  • the encoded prediction mode-related signal SSMD is input to the signal determination unit 621, and the flags indicating the same as the prediction mode estimation value MPM in the encoded prediction mode-related signal SSMD are the same.
  • the intra prediction mode IPM is output as the prediction mode estimated value MPM. In other cases, the intra prediction mode IPM is set and output from the index information further included in the encoded prediction mode related signal SSMD.
  • a setting method of the signal determination unit 621 is shown in Expression 3.
  • a flag Prev_Intra_Pred_Mode_Flag indicating whether or not the prediction mode estimated value MPM is the same is read. If this flag is 0, the Prev_Intra_Pred_Mode_Flag is further read to restore the intra prediction mode IPM.
  • the prediction mode storage memory 623 is a memory for storing the input coding mode MD and information (intra prediction block size, intra prediction direction, etc.) or position information (motion vector) MV indicating the intra prediction mode IPM.
  • the prediction mode estimation unit 624 as shown in Expression 1, from the prediction mode storage memory 623, the already decoded coding mode MD, and information indicating the intra prediction mode IPM or position information (motion vector) MV.
  • a plurality of prediction mode estimation value candidates are acquired by means determined in advance.
  • the prediction mode estimation unit 624 determines a prediction mode estimation value MPM from among a plurality of prediction mode estimation value candidates, and outputs the determined prediction mode estimation value MPM.
  • Non-Patent Document 2 a video encoding method for compressing video data using edge detection has also been proposed, and edge detection may be included in the encoding device and the decoding device.
  • a prediction block corresponding to the target block 10 is generated by a method predicted by extrapolating the reference pixel 20 based on an angle obtained by edge detection.
  • the In Non-Patent Document 2 the presence / absence of edge detection is replaced with a DC prediction mode that uses the average value of the reference pixels 20. That is, the indexes of the intra prediction mode IPM indicating the DC prediction and the edge prediction are the same, and when a certain condition is satisfied as a result of the edge detection, a prediction block is generated based on the angle obtained by the edge detection. On the other hand, when a certain condition is not satisfied, a prediction block is generated using an average value. Here, whether the magnitude of the edge detected vector exceeds a certain value is used as the certain condition.
  • the candidate prediction mode is a prediction mode used for encoding the surrounding blocks of the target block.
  • the prediction mode estimation unit 512 and 624 the prediction mode estimation value having a smaller number of prediction mode candidate mode numbers (number shown in FIG. 1B and number 2 showing average value prediction (DC prediction mode)) is selected. Is done.
  • the estimated prediction mode of the target block 10 matches one of the prediction modes of the surrounding blocks 30 and 40.
  • the edge prediction mode and the DC prediction mode are represented by one code as in Non-Patent Document 2
  • the prediction modes of the surrounding blocks 30 and 40 are used as DC prediction or edge prediction. Cannot be expressed, and when the prediction mode of the target block 10 is the edge prediction mode, it is difficult to match the estimated prediction mode. That is, the code amount of the information indicating the prediction mode to be transmitted to the decoder side becomes large.
  • the present invention has been made to solve the above-described problems, and encodes image data and video data so that higher encoding efficiency is achieved and a large amount of processing is not required. It is an object of the present invention to provide an image encoding method and an image decoding method for decoding encoded image and video data.
  • the image decoding method is a method of decoding encoded image data generated by encoding image data for each block in accordance with prediction based on a prediction mode.
  • the image decoding method includes a restoration step of restoring a selected prediction mode that is a prediction mode used for prediction at the time of encoding, based on mode information indicating an estimation result of a prediction mode executed at the time of encoding; And a decoding step of generating a decoded block by decoding a target block of the encoded image data in accordance with prediction based on the selected prediction mode.
  • the restoration step includes: a first prediction mode estimation step that determines one prediction mode as a first estimated prediction mode from a plurality of prediction modes; and one different from the first estimated prediction mode from a plurality of prediction modes. Based on the second prediction mode estimation step for determining the prediction mode as the second estimated prediction mode, the mode information, the first estimated prediction mode, and the second estimated prediction mode, the selected prediction mode is determined.
  • a prediction mode restoration step of restoring is performed.
  • the mode information may include at least flag information indicating a comparison result between the selected prediction mode and the first and second estimated prediction modes.
  • the flag information indicates that the selected prediction mode and the first estimated prediction mode match
  • the first estimated prediction mode is determined as the selected prediction mode.
  • the flag information indicates that the selected prediction mode and the second estimated prediction mode match
  • the second estimated prediction mode is determined as the selected prediction mode
  • the flag information is When indicating that the selected prediction mode and the first and second estimated prediction modes do not match, the selected prediction mode is determined based on information for specifying the selected prediction mode further included in the mode information. It may be restored.
  • the mode information is flag information indicating that the prediction mode used for prediction at the time of encoding matches the prediction mode estimated at the time of encoding, or the flag information is used for prediction at the time of encoding.
  • the prediction mode restoration step first decodes first flag information corresponding to the first estimated prediction mode, and the first flag information is used for prediction at the time of encoding.
  • the first estimated prediction mode is determined as the selected prediction mode, and the first flag information is When indicating that the prediction mode used for prediction and the prediction mode estimated at the time of encoding do not match, the second flag information corresponding to the second estimated prediction mode is decoded, and the second flag information is Sign When the prediction mode used for prediction at the time and the prediction mode estimated at the time of encoding match, the second estimated prediction mode is determined as the selected prediction mode, and the second flag information is When the prediction mode used for prediction at the time of encoding indicates that the prediction mode estimated at the time of encoding does not match, the selection mode encoding information is decoded, and the selection mode encoding information, the estimated prediction mode, and The selection prediction mode may be restored by comparing the sizes of.
  • any one of the first estimated prediction mode and the second estimated prediction mode may be a mode indicating DC / edge prediction.
  • the prediction mode having the smallest index number is determined as the first prediction mode among the selected prediction modes of a plurality of blocks adjacent to the target block and already decoded. May be.
  • the second estimated prediction mode when the first estimated prediction mode is a planar mode, the second estimated prediction mode is determined as a DC prediction mode, and the first estimated prediction mode is When the mode is not the planar mode, the second estimated prediction mode may be determined as the planar mode.
  • the restoration step includes an edge detection step for detecting an edge in the already generated decoded block, and whether the DC / edge prediction mode indicates DC prediction based on the edge detected in the edge detection step, or an edge And a DC / edge prediction determination step for determining whether to indicate prediction.
  • first estimated prediction mode or the second estimated prediction mode may be estimated based on the edge direction detected in the edge detection step.
  • the image encoding method is a method for encoding image data for each block.
  • the image encoding method includes an encoding step of encoding a target block of the image data according to prediction based on a selected prediction mode selected from a plurality of predetermined prediction mode candidates.
  • a second prediction mode estimation step for determining one prediction mode different from the first estimation prediction mode as a second estimation prediction mode from the prediction mode, and mode information for restoring the selected prediction mode,
  • the output step includes a mode information generation step of generating the mode information based on the first estimated prediction mode, the second estimated prediction mode, and the selected prediction mode.
  • the mode information generation step when the selected prediction mode matches one of the first and second estimated prediction modes, flag information indicating which one matches is generated as the mode information, If the selected prediction mode does not match either of the first and second estimated prediction modes, flag information indicating that they do not match and information specifying the selected prediction mode is generated as the mode information. Also good.
  • the mode information generation step first, the first estimated prediction mode and the selected prediction mode are compared, and first flag information indicating whether or not they match is generated as the mode information.
  • the second estimated prediction mode and the selected prediction mode are further compared, and the second flag information indicating whether or not they match is the mode information.
  • the selected prediction mode information is generated as the mode information based on the selected prediction mode and the estimated prediction mode. May be.
  • any one of the first estimated prediction mode and the second estimated prediction mode may be a mode indicating DC / edge prediction.
  • the prediction mode having the smallest index number among the selected prediction modes of a plurality of blocks that are adjacent to the target block and have already been encoded is referred to as the first prediction mode. You may decide.
  • the second estimated prediction mode when the first estimated prediction mode is a planar mode, the second estimated prediction mode is determined as a DC prediction mode, and the first estimated prediction mode is When the mode is not the planar mode, the second estimated prediction mode may be determined as the planar mode.
  • the mode information generation step includes an edge detection step for detecting an edge in the already generated decoded block, and whether the DC / edge prediction mode indicates DC prediction based on the edge detected in the edge detection step.
  • DC / edge prediction determination step for determining whether to indicate edge prediction.
  • first estimated prediction mode or the second estimated prediction mode may be estimated based on the edge direction detected in the edge detection step.
  • the image decoding apparatus decodes encoded image data generated by encoding image data for each block according to prediction based on a prediction mode.
  • the image decoding apparatus includes: a restoration unit that restores a selected prediction mode that is a prediction mode used for prediction at the time of encoding based on mode information indicating an estimation result of a prediction mode executed at the time of encoding; A decoding unit that generates a decoded block by decoding a target block of the encoded image data in accordance with prediction based on the selected prediction mode.
  • the restoration unit is different from the first estimated prediction mode from a first prediction mode estimation unit that determines one prediction mode as a first estimated prediction mode from a plurality of prediction modes, and a plurality of prediction modes.
  • the selected prediction A prediction mode restoration unit for restoring the mode.
  • the image encoding device encodes image data for each block.
  • the image encoding device includes an encoding unit that encodes a target block of the image data in accordance with prediction based on a selected prediction mode selected from a plurality of predetermined prediction mode candidates.
  • a decoding unit that generates a decoded block by decoding the encoded target block; a first prediction mode estimation unit that determines one prediction mode as a first estimated prediction mode from a plurality of prediction modes; A second prediction mode estimation unit that determines one prediction mode different from the first estimation prediction mode as a second estimation prediction mode, and mode information for restoring the selected prediction mode,
  • an output unit for outputting together with the encoded target block.
  • the output unit includes a mode information generation unit that generates the mode information based on the first estimated prediction mode, the second estimated prediction mode, and the selected prediction mode.
  • a program causes a computer to decode encoded image data generated by encoding image data for each block according to prediction based on a prediction mode.
  • the program restores the selected prediction mode, which is the prediction mode used for prediction at the time of encoding, based on mode information indicating the estimation result of the prediction mode executed at the time of encoding,
  • the computer executes a decoding step of generating a decoded block by decoding a target block of the encoded image data.
  • the restoration step is different from the first estimated prediction mode from a first prediction mode estimation step for determining one prediction mode as a first estimated prediction mode from a plurality of prediction modes, and a plurality of prediction modes.
  • the selected prediction A prediction mode restoration step for restoring a mode.
  • a program causes a computer to encode image data for each block.
  • the program is encoded with an encoding step for encoding the target block of the image data according to prediction based on a selected prediction mode selected from a plurality of predetermined prediction mode candidates.
  • a decoding step for generating a decoded block by decoding the target block, a first prediction mode estimation step for determining one prediction mode as a first estimated prediction mode from a plurality of prediction modes, and a plurality of prediction modes
  • a second prediction mode estimation step for determining one prediction mode different from the first estimated prediction mode as a second estimated prediction mode, and mode information for restoring the selected prediction mode.
  • the output step includes a mode information generation step of generating the mode information based on the first estimated prediction mode, the second estimated prediction mode, and the selected prediction mode.
  • An integrated circuit decodes encoded image data generated by encoding image data for each block in accordance with prediction based on a prediction mode. Specifically, the integrated circuit, based on the mode information indicating the estimation result of the prediction mode executed at the time of encoding, a restoration unit that restores the selected prediction mode that is the prediction mode used for prediction at the time of encoding; A decoding unit that generates a decoded block by decoding a target block of the encoded image data according to prediction based on the selected prediction mode.
  • the restoration unit is different from the first estimated prediction mode from a first prediction mode estimation unit that determines one prediction mode as a first estimated prediction mode from a plurality of prediction modes, and a plurality of prediction modes.
  • the selected prediction A prediction mode restoration unit for restoring the mode.
  • An integrated circuit encodes image data for each block.
  • the integrated circuit includes an encoding unit that encodes the target block of the image data in accordance with prediction based on a selected prediction mode selected from a plurality of predetermined prediction mode candidates, A decoding unit that generates a decoded block by decoding the target block, a first prediction mode estimation unit that determines one prediction mode as a first estimated prediction mode from a plurality of prediction modes, and a plurality of predictions A second prediction mode estimation unit that determines, as a second estimated prediction mode, one prediction mode different from the first estimated prediction mode, and mode information for restoring the selected prediction mode from the mode, the code And an output unit for outputting together with the converted target block.
  • the output unit includes a mode information generation unit that generates the mode information based on the first estimated prediction mode, the second estimated prediction mode, and the selected prediction mode.
  • the present invention can be realized not only as an image encoding method and an image decoding method, but also as an image encoding device and an image decoding device having respective steps included in the image encoding method and the image decoding method as processing units. You can also Moreover, you may implement
  • a communication network such as the Internet.
  • the system LSI is an ultra-multifunctional LSI manufactured by integrating a plurality of components on a single chip, and specifically includes a microprocessor, ROM, RAM (Random Access Memory), and the like.
  • Computer system is an ultra-multifunctional LSI manufactured by integrating a plurality of components on a single chip, and specifically includes a microprocessor, ROM, RAM (Random Access Memory), and the like.
  • the prediction mode estimation value can be predicted more accurately, the code amount of the prediction mode can be reduced and the encoding efficiency can be increased.
  • FIG. 1A shows the conventional H.264. It is a figure which shows an example of the relationship between the object block and reference pixel to which the intra prediction estimation according to H.264 / AVC standard is applied.
  • FIG. 1B shows conventional H.264. It is a figure which shows the prediction direction contained in the intra prediction mode set according to H.264 / AVC standard.
  • FIG. It is a figure which shows an example of a detailed structure of an estimation part among the structures of the image coding apparatus according to H.264 / AVC standard.
  • FIG. 2 is a diagram illustrating an example of a detailed configuration of a restoration unit in the configuration of an image decoding device according to the H.264 / AVC standard.
  • FIG. 4 is a block diagram illustrating an example of a configuration of the image encoding device according to the first embodiment.
  • FIG. 5 is a block diagram illustrating an example of a detailed configuration of an image coding apparatus that performs hybrid coding according to the first embodiment.
  • FIG. 6A is a block diagram illustrating an example of a detailed configuration of a setting unit included in the image encoding device according to Embodiment 1.
  • FIG. 6B is a block diagram illustrating another example of the detailed configuration of the setting unit included in the image coding device according to Embodiment 1.
  • FIG. 7A is a flowchart illustrating an example of the operation of the setting unit included in the image encoding device according to the first embodiment.
  • FIG. 7B is a flowchart illustrating another example of the operation of the setting unit included in the image coding apparatus according to Embodiment 1.
  • FIG. 8 is a flowchart illustrating still another example of the operation of the setting unit included in the image encoding device according to the first embodiment.
  • FIG. 9 is a block diagram illustrating an example of the configuration of the image decoding apparatus according to the second embodiment.
  • FIG. 10 is a block diagram illustrating an example of a detailed configuration of the image decoding apparatus according to the second embodiment.
  • FIG. 11A is a block diagram illustrating an example of a detailed configuration of a restoration unit included in the image decoding device according to Embodiment 2.
  • FIG. 11B is a block diagram illustrating another example of the detailed configuration of the restoration unit included in the image decoding device according to Embodiment 2.
  • FIG. 12A is a flowchart illustrating an example of the operation of the restoration unit included in the image decoding device according to the second embodiment.
  • FIG. 12B is a flowchart illustrating another example of the operation of the restoration unit included in the image decoding device according to Embodiment 2.
  • FIG. 13 is a flowchart illustrating still another example of the operation of the restoration unit included in the image decoding device according to the second embodiment.
  • FIG. 14 is a block diagram illustrating an example of a detailed configuration of a setting unit included in the image encoding device according to the third embodiment.
  • FIG. 15 is a block diagram illustrating an example of a detailed configuration of a restoration unit included in the image decoding device according to the third embodiment.
  • FIG. 16 is a flowchart illustrating an example of the operation of the setting unit included in the image encoding device according to the third embodiment.
  • FIG. 17 is a flowchart illustrating an example of the operation of the restoration unit included in the image decoding device according to the third embodiment.
  • FIG. 18 is a schematic diagram illustrating an example of an edge detection target in the present embodiment.
  • FIG. 19 is an overall configuration diagram of a content supply system that realizes a content distribution service.
  • FIG. 20 is an overall configuration diagram of a digital broadcasting system.
  • FIG. 21 is a block diagram illustrating a configuration example of a television.
  • FIG. 22 is a block diagram illustrating a configuration example of an information reproducing / recording unit that reads and writes information from and on a recording medium that is an optical disk.
  • FIG. 23 is a diagram illustrating a structure example of a recording medium that is an optical disk.
  • FIG. 24 is a diagram showing a structure of multiplexed data.
  • FIG. 25 is a diagram schematically showing how each stream is multiplexed in the multiplexed data.
  • FIG. 26 is a diagram showing in more detail how the video stream is stored in the PES packet sequence.
  • FIG. 27 is a diagram illustrating the structure of TS packets and source packets in multiplexed data.
  • FIG. 28 shows the data structure of the PMT.
  • FIG. 29 is a diagram showing an internal configuration of multiplexed data information.
  • FIG. 30 shows the internal structure of stream attribute information.
  • FIG. 31 is a diagram illustrating steps for identifying video data.
  • FIG. 32 is a block diagram illustrating a configuration example of an integrated circuit that implements the moving picture coding method and the moving picture decoding method according to each embodiment.
  • FIG. 33 is a diagram illustrating a configuration for switching the driving frequency.
  • FIG. 34 is a diagram illustrating steps for identifying video data and switching between driving frequencies.
  • FIG. 35 is a diagram illustrating an example of a look-up table in which video data standards are associated with drive frequencies.
  • FIG. 36A is a diagram illustrating an example of a configuration for sharing a module of a signal processing unit
  • FIG. 36B is a diagram illustrating another example of a configuration for sharing a module of a signal processing unit. is there.
  • the image encoding device detects edges included in surrounding blocks located around the target block when encoding image and video data, and performs intra prediction based on the detected edges
  • the prediction mode and the DC prediction mode in which intra prediction is performed based on the average value of pixels located in the vicinity are expressed by the same signal (DC / edge prediction mode)
  • a plurality of estimated prediction modes are determined, and the mode signal is determined. Is encoded.
  • the DC / edge prediction mode is expressed by a short code, thereby reducing the amount of code for the DC / edge prediction mode.
  • FIG. 4 is a block diagram illustrating an example of the configuration of the image encoding device 100 according to the present embodiment.
  • the image encoding device 100 encodes input image and video data for each block. As illustrated in FIG. 4, the image encoding device 100 includes an encoding unit 110, a decoding unit 120, an output unit 130, and a setting unit 140.
  • the encoding unit 110 encodes a target block, which is one of a plurality of blocks constituting image and video data, according to prediction using a selected prediction mode selected from a plurality of prediction mode candidates.
  • the plurality of prediction mode candidates are all prediction modes that can be selected when performing prediction. For example, eight prediction modes in advance (see FIG. 1B), DC prediction mode using an average value of reference pixels And an edge prediction mode indicating the direction of the detected edge in the surrounding block.
  • the prediction mode is information indicating a reference destination of an image for referring to the predicted image.
  • the plurality of prediction mode candidates are not limited to the above example.
  • a maximum of 33 direction prediction modes, a DC prediction mode, and a planar mode may be included.
  • the number of direction prediction modes can be made variable according to the block size of the target block. For example, 18 directions may be set when the target block is 4 pixels ⁇ 4 pixels, 33 directions may be set when 8 pixels ⁇ 8 pixels to 32 pixels ⁇ 32 pixels, and 2 directions may be set when 64 pixels ⁇ 64 pixels.
  • the prana mode is a mode in which each pixel of the target block is predicted by multiplying each pixel value of the surrounding pixels by a weight corresponding to the distance to the prediction pixel and adding the result.
  • the weight multiplied by the pixel value of the lower right pixel of the block 40 Is made larger than the weight by which the pixel value of the upper right pixel of the block 30 is multiplied.
  • the decoding unit 120 generates a decoded block by decoding the target block encoded by the encoding unit 110.
  • the output unit 130 outputs mode information for restoring the selected prediction mode used by the encoding unit 110 together with the target block encoded by the encoding unit 110 as a bit stream.
  • the setting unit 140 determines a plurality of estimated prediction modes, and generates mode information for the selected prediction mode, which is a prediction mode used for encoding the target block, using the determined plurality of estimated prediction modes.
  • mode information is generated based on two estimation prediction modes.
  • the setting unit 140 includes a first prediction mode estimation unit 141, a second prediction mode estimation unit 142, and a mode information generation unit 143.
  • the first prediction mode estimation unit 141 determines the estimated prediction mode from the prediction modes of the surrounding blocks that have already been encoded. For example, the method shown in Formula 1 may be used.
  • the second prediction mode estimation unit 142 determines an estimated prediction mode other than that determined by the first prediction mode estimation unit 141.
  • the mode information generation unit 143 is configured to generate mode information based on the estimated prediction mode set by the first prediction mode estimation unit 141 and the second prediction mode estimation unit 142 and the selected prediction mode selected by the encoding unit 110. Is generated.
  • the image coding apparatus 100 determines an estimated prediction mode, and updates the DC / edge prediction mode so as to express it with a short code according to the estimated prediction mode when encoding. It is characterized by.
  • FIG. 5 is a block diagram illustrating an example of a detailed configuration of the image encoding device 100 according to the present embodiment.
  • the image encoding device 100 is an image encoding device that performs hybrid encoding.
  • the image encoding device 100 includes an encoding unit 110, a decoding unit 120, an output unit 130, a setting unit 140, a frame memory 150, a reference picture memory 160, a control unit 170, Is provided.
  • the same components as those in FIG. 4 are denoted by the same reference numerals.
  • the encoding unit 110 includes a subtraction unit 111, a frequency conversion unit 112, a quantization unit 113, an intra prediction mode determination unit 114, a motion detection unit 115, and an intra prediction unit 116. And a motion compensation unit 117 and switches 118 and 119.
  • the decoding unit 120 includes an inverse quantization unit 121, an inverse frequency conversion unit 122, and an addition unit 123.
  • the output unit 130 includes a variable length encoding unit 131.
  • the detailed configuration of the setting unit 140 will be described later with reference to FIGS. 6A and 6B.
  • each processing unit will be described along the operation when the image encoding apparatus 100 encodes input video data composed of a plurality of frames.
  • Each picture of the input video data is stored in the frame memory 150.
  • Each picture is divided into a plurality of blocks and output from the frame memory 150 in units of blocks (for example, in units of macroblocks of 16 horizontal pixels and 16 vertical pixels).
  • the input video data may be either a progressive format or an interlace format.
  • Each macroblock is encoded in either intra prediction mode or inter prediction mode.
  • intra prediction mode either intra prediction mode or inter prediction mode.
  • the intra prediction mode (intra frame prediction)
  • the macroblock output from the frame memory 150 is input to the intra prediction mode determination unit 114 (at this time, the switch 118 is connected to the terminal “a” by the control unit 170).
  • the intra prediction mode determination unit 114 determines how to perform intra prediction on the input macroblock.
  • the intra prediction mode determination unit 114 sets an intra prediction block size (one of the following sizes: horizontal 4 pixels ⁇ vertical 4 pixels, horizontal 8 pixels ⁇ ) as an intra prediction mode (IPM: Intra-Prediction Mode). It is necessary to determine 8 vertical pixels, 16 horizontal pixels ⁇ 16 vertical pixels), and the intra prediction direction. For example, the intra prediction mode determination unit 114 determines the intra prediction block size and the intra prediction direction such that the amount of code generated by encoding the target block is smaller than a predetermined threshold. More preferably, the intra prediction mode determination unit 114 determines an intra prediction block size and an intra prediction direction such that the generated code amount is minimized.
  • IPM Intra-Prediction Mode
  • the target block 10 (4 horizontal pixels ⁇ 4 vertical pixels) illustrated in FIG. 1A may be predicted according to any one of eight predefined intra prediction directions using the reference pixel 20.
  • the reference pixel 20 (the diagonally shaded square in FIG. 1A) used for intra prediction has already been encoded and decoded and stored in the reference picture memory 160.
  • Information indicating the determined intra prediction mode IPM is output to the intra prediction unit 116 and the setting unit 140.
  • the intra prediction unit 116 acquires a reference pixel (intra reference pixel) used for intra prediction from the reference picture memory 160 based on the intra prediction mode IPM determined by the intra prediction mode determination unit 114. Then, the intra prediction unit 116 generates an intra-predicted image IP from the pixel value of the reference pixel, and outputs the generated intra-predicted image IP to the subtraction unit 111 (at this time, the switch 119 is connected to the terminal by the control unit 170). Connected to “a”).
  • the subtraction unit 111 receives a macro block (target macro block) of a picture included in the input video data and the intra predicted image IP generated by the intra prediction unit 116 from the frame memory 150. Then, the subtraction unit 111 generates a difference image by calculating a difference (also referred to as a prediction residual) between the target macroblock and the intra predicted image IP, and outputs the generated difference image to the frequency conversion unit 112.
  • the frequency conversion unit 112 generates a frequency conversion coefficient by performing frequency conversion such as discrete cosine conversion on the difference image generated by the subtraction unit 111, and outputs the generated frequency conversion coefficient.
  • the quantization unit 113 quantizes the frequency conversion coefficient generated by the frequency conversion unit 112, and outputs the quantized frequency conversion coefficient QT.
  • the quantization is a process of dividing the frequency conversion coefficient by a predetermined value (quantization step). This quantization step is given by the control unit 170 (the quantization step may be included in the control signal CTL input to the control unit 170).
  • the quantized frequency transform coefficient QT is output to the variable length coding unit 131 and the inverse quantization unit 121.
  • the inverse quantization unit 121 inversely quantizes the quantized frequency transform coefficient QT and outputs the inversely quantized frequency transform coefficient to the inverse frequency transform unit 122.
  • the same quantization step used at the time of quantization by the quantization unit 113 is input from the control unit 170 to the inverse quantization unit 121.
  • the inverse frequency transform unit 122 generates a decoded difference image LDD by performing inverse frequency transform on the inversely quantized frequency transform coefficient.
  • the inverse frequency conversion unit 122 outputs the generated decoded difference image LDD to the addition unit 123.
  • the addition unit 123 generates the decoded image LD by adding the decoded differential image LDD to the intra-predicted image IP (or an inter-predicted image described later in the case of the inter prediction mode) MP.
  • the adding unit 123 stores the generated decoded image LD in the reference picture memory 160.
  • the decoded image LD stored in the reference picture memory 160 is used as a reference image for later encoding.
  • variable-length coding unit 131 performs variable-length coding on the quantized frequency transform coefficient QT input from the quantization unit 113 and receives intra-input from the intra prediction mode determination unit 114 via the setting unit 140.
  • Information indicating the prediction mode IPM is processed in the same manner, and a bit stream referred to as an encoded sequence is output. As described above, the detailed configuration of the setting unit 140 will be described later with reference to FIGS. 6A and 6B.
  • variable length encoding unit 131 As one of the variable length encoding methods used by the variable length encoding unit 131, the international standard H.264 for encoding moving images is used. There is a context adaptive arithmetic coding method employed in H.264.
  • the context adaptive arithmetic coding method is a method of switching a probability table used for arithmetic coding according to target data for variable length coding and data that has already been subjected to variable length coding (context adaptive type). is there.
  • the variable length coding unit 131 includes a memory that holds a probability table.
  • variable length coding unit 131 may perform variable length coding on the quantized frequency transform coefficient QT using a context adaptive variable length coding method.
  • the macroblock output from the frame memory 150 is input to the motion detection unit 115 (at this time, the switch 118 is connected to the terminal “b” by the control unit 170. ).
  • the motion detection unit 115 receives motion information (position information (motion vector) for a reference picture (a reconstructed picture held in the reference picture memory 160, which is different from the picture to be encoded) of the input macroblock. )) Is detected.
  • position information (motion vector) shown below is generally detected as motion information. That is, it is position information (motion vector) having the minimum difference value between the target block to be encoded and the predicted image and the minimum sum of the weights of the code amount of the position information (motion vector).
  • the detected position information (motion vector) is output to the motion compensation unit 117 and the setting unit 140 as motion information for the target block.
  • the motion compensation unit 117 acquires a reference pixel (inter reference pixel) used for inter prediction from the reference picture memory 160 based on the motion information (position information (motion vector)) detected by the motion detection unit 115. Then, the motion compensation unit 117 generates the inter predicted image MP and outputs the generated inter predicted image MP to the subtracting unit 111 (at this time, the switch 119 is connected to the terminal “b” by the control unit 170). .
  • inter reference pixel used for inter prediction from the reference picture memory 160 based on the motion information (position information (motion vector)) detected by the motion detection unit 115. Then, the motion compensation unit 117 generates the inter predicted image MP and outputs the generated inter predicted image MP to the subtracting unit 111 (at this time, the switch 119 is connected to the terminal “b” by the control unit 170).
  • the processing executed by the subtraction unit 111, the frequency conversion unit 112, the quantization unit 113, the inverse quantization unit 121, the inverse frequency conversion unit 122, and the addition unit 123 is the process described in the case of intra prediction. Is the same. Therefore, description of these processes is omitted here.
  • variable length coding unit 131 performs variable length coding on the quantized frequency transform coefficient QT input from the quantization unit 113, and also indicates information indicating the coding mode MD output from the setting unit 140 and intra prediction. Variable length coding is performed on mode information including mode IPM or information indicating motion information (position information (motion vector)) MV, and a bit stream is output. As described above, the detailed configuration of the setting unit 140 will be described later with reference to FIGS. 6A and 6B.
  • variable length encoding unit 131 when the variable length encoding unit 131 encodes motion information (position information (motion vector)) MV using context adaptive arithmetic encoding, the variable length encoding unit 131 stores a probability table. Is provided.
  • the mode information reproduces the prediction executed on the encoder (image encoding device 100) side in the process of encoding the video data on the decoder (for example, image decoding device 300 (see FIG. 9) described later) side.
  • the mode information defines for each macroblock which coding mode, that is, whether intra prediction or inter prediction is applied.
  • the mode information includes information on how the macroblock is subdivided. H. According to H.264 / AVC, a 16 ⁇ 16 pixel macroblock may be further subdivided into 8 ⁇ 8 or 4 ⁇ 4 pixel blocks, for example, in the case of intra prediction.
  • the mode information further identifies a set of position information (position information (motion vector)) used for motion compensation or an intra prediction mode applied to intra-predict the target block. Information to be included.
  • control unit 170 selects the encoding mode (intra prediction mode or inter prediction mode).
  • control unit 170 may generate an inter prediction image IP generated based on the intra prediction mode IPM and the decoded image LD, or an inter prediction image generated based on the position information (motion vector) MV and the decoded image LD.
  • the encoding mode is selected by comparing the MP and the target block image IMG.
  • control unit 170 selects an encoding mode having a value that minimizes the sum of weights of the generated bit amount and encoding distortion.
  • control unit 170 may A cost function using the H.264 standard bit rate and encoding distortion may be used to determine the best prediction mode for encoding the target block. For each prediction mode, the difference image is orthogonally transformed, quantized, and variable-length coded. Then, the bit rate and coding distortion are calculated for each prediction mode.
  • cost function for example, a Lagrangian cost function J represented by Expression 4 is used.
  • R is a bit rate used to encode the difference image (also referred to as prediction residual) and prediction mode information.
  • D is the coding distortion.
  • is a Lagrange multiplier calculated according to the quantization parameter QP selected for encoding.
  • the control unit 170 selects the prediction mode in which the cost function J is the lowest as the prediction mode for predicting the target block.
  • control unit 170 includes a memory that temporarily stores the cost function J in order to select an optimal prediction mode.
  • FIG. 6A and 6B are diagrams illustrating an example of a detailed configuration of the setting unit 140 according to the present embodiment.
  • the setting unit 140 includes a first prediction mode estimation unit 141, a second prediction mode estimation unit 142, and a mode information generation unit 143.
  • the same components as those in FIG. 4 are denoted by the same reference numerals.
  • the first prediction mode estimation unit 141 shown in FIG. 6A includes a prediction mode storage memory 211 and a first prediction mode estimation deriving unit 212.
  • the setting unit 140 receives coding mode information SMD indicating the coding mode (intra prediction mode or inter prediction mode) selected by the control unit 170.
  • the coding mode information SMD is information (intra prediction block size, intra prediction direction, etc.) indicating the intra prediction mode IPM.
  • the coding mode information SMD is position information (motion vector) MV.
  • the prediction mode storage memory 211 is a memory for storing input coding mode information SMD.
  • the first prediction mode estimation deriving unit 212 is a first estimated prediction that is a result of estimating the prediction mode from the prediction mode storage memory 211 by using a predetermined means from the already encoded coding mode information.
  • the mode MPM is derived and output to the mode information generation unit 143.
  • the prediction mode of an already encoded block adjacent to the top of the encoding target block, and the encoding target block Among the prediction modes of blocks that have already been encoded adjacent to the left part the one with the smaller index number corresponding to the prediction mode may be used as the first estimated prediction mode MPM.
  • the prediction mode of the block adjacent to the upper left or upper right of the encoding target block may be further referred to, and the one having a high appearance frequency may be derived as the first estimated prediction mode MPM.
  • the derivation of the first estimated prediction mode MPM is not limited to the above-described method as long as it is a derivation method of the prediction mode that is estimated to be generated most.
  • the directional prediction mode closest to the estimated prediction mode selected by the above method is selected from the directional prediction modes that can be selected in the encoding target block.
  • the first estimated prediction mode MPM may be used.
  • the second prediction mode estimation unit 142 acquires a control signal from the mode information generation unit 143, and obtains the second estimated prediction mode SPM, which is an estimated value of the second prediction mode set by a predetermined method, as mode information.
  • the data is output to the generation unit 143.
  • the second estimated prediction mode SPM to DC / edge prediction, it is possible to efficiently encode and decode one mode information meaning a plurality of prediction modes.
  • the mode information generation unit 143 generates mode information based on the first estimated prediction mode MPM, the second estimated prediction mode SPM, and the selected prediction mode SMD selected by the encoding unit 110, and performs encoded prediction.
  • the mode-related signal SSMD is output to the variable length coding unit 131.
  • the variable length encoding unit 131 performs variable length encoding processing on the encoded prediction mode-related signal SSMD and outputs it as a bit stream.
  • FIG. 7A is a flowchart illustrating an example of operations of the first prediction mode estimation unit 141, the second prediction mode estimation unit 142, and the mode information generation unit 143 illustrated in FIG. 6A. Generation of mode information in the mode information generation unit 143 will be described in more detail with reference to FIG. 7A.
  • the mode information generation unit 143 acquires the first estimated prediction mode MPM derived by the first prediction mode estimation unit 141 (step S701).
  • the selected prediction mode SMD matches the first estimated prediction mode MPM (YES in step S702)
  • the first estimated prediction mode designation flag is set to “1 (indicates matching)” (step S703)
  • the variable-length encoding unit 131 encodes the first estimated prediction mode designation flag as the encoded prediction mode-related signal SSMD (step S704).
  • the selected prediction mode SMD does not match the first estimated prediction mode MPM (NO in step S702), “0 (indicates no match)” is set in the first estimated prediction mode designation flag (step S705).
  • the first estimated prediction mode designation flag is encoded by the variable length encoding unit 131 as the encoded prediction mode related signal SSMD (step S706).
  • the selection prediction mode SMD is set as selection mode encoding information, and the encoding prediction mode related information is added to the flag information.
  • the signal SSMD is encoded by the variable length encoding unit 131 (step S708).
  • the mode information generation unit 143 outputs a control signal to the second prediction mode estimation unit 142.
  • the second prediction mode estimation unit 142 sets the DC / edge prediction mode as the second estimation prediction mode SPM and outputs it to the mode information generation unit 143 (step S709).
  • step S710 when the selected prediction mode SMD matches the second estimated prediction mode SPM (YES in step S710), “1 (indicates that they match)” is set in the second estimated prediction mode designation flag (step S710).
  • step S710 the second estimated prediction mode designation flag is encoded by the variable length encoding unit 131 as the encoded prediction mode related signal SSMD (step S712).
  • the selected prediction mode SMD does not match the second estimated prediction mode SPM (NO in step S710), “0 (indicates no match)” is set in the second estimated prediction mode designation flag (step S713).
  • the second estimated prediction mode designation flag is encoded by the variable length encoding unit 131 as the encoded prediction mode related signal SSMD (step S714).
  • the selection prediction mode SMD is set as selection mode encoding information, and is encoded by the variable length encoding unit 131 as the encoding prediction mode related signal SSMD in addition to the flag information (step S715).
  • the selection prediction mode SMD was encoded as selection mode encoding information as it is here when it does not correspond with 1st estimation prediction mode MPM and 2nd estimation prediction mode SPM, it is not restricted to this.
  • the number of estimated prediction modes (FIGS. 6A and 7A) In the example, a value obtained by subtracting 2) at the maximum may be encoded as selection mode encoding information. Thereby, the code amount can be further reduced.
  • the MPM index number of the first estimated prediction mode is MPM
  • the index number of the selected prediction mode SMD is SMD
  • the first estimated prediction mode designation flag is MPMF
  • the second estimated prediction mode designation flag is SPMF
  • DC / edge prediction is DCEDGE
  • the above-described flow can be expressed as shown in Equation 5, for example.
  • the index number corresponding to the DC / prediction mode may be “0”.
  • the index number of the second estimated prediction mode SPM is always “0”, when encoding the index number of the selected prediction mode SMD, a value obtained by subtracting at least 1 should be encoded. Thus, the code amount can be further reduced.
  • Equation 6 An example written in the same manner as Equation 5 is shown in Equation 6.
  • FIG. 6B a configuration in which the functions of the first prediction mode estimation unit 141 and the second prediction mode estimation unit 142 are replaced may be employed. This configuration is shown in FIG. 6B.
  • the second prediction mode estimation unit 142 illustrated in FIG. 6B includes a prediction mode storage memory 211 and a second prediction mode estimation deriving unit 213.
  • the first prediction mode estimation unit 141 outputs the first estimated prediction mode MPM, which is an estimated value of the first prediction mode set by a predetermined method, to the mode information generation unit 143.
  • the first estimated prediction mode MPM to DC / edge prediction, it is possible to efficiently encode / decode one mode information meaning a plurality of prediction modes.
  • the second prediction mode estimation unit 142 receives the control signal from the mode information generation unit 143, and selects the prediction mode from the prediction mode storage memory 211 by using a predetermined means from the already encoded coding mode information.
  • a second estimated prediction mode SPM that is an estimation result is derived and output to the mode information generation unit 143.
  • the method for deriving the second estimated prediction mode SPM is the same as the method for deriving the first estimated prediction mode MPM in FIG. 6A, but the first estimated prediction mode MPM is acquired and the second estimation is performed. You may determine so that prediction mode SPM and 1st estimation prediction mode MPM may not overlap. For example, after the first estimation mode MPM is excluded from the candidate modes, the second estimation prediction mode SPM is determined by a predetermined method, whereby different candidates for the first and second estimation prediction modes are used. Can be set, and the amount of codes can be reduced.
  • the mode information generation unit 143 generates mode information based on the first estimated prediction mode MPM, the second estimated prediction mode SPM, and the selected prediction mode SMD selected by the encoding unit 110, and performs encoded prediction.
  • the mode-related signal SSMD is output to the variable length coding unit 131.
  • the variable length encoding unit 131 performs variable length encoding processing on the encoded prediction mode-related signal SSMD and outputs it as a bit stream.
  • FIG. 7B is a flowchart illustrating an example of operations of the first prediction mode estimation unit 141, the second prediction mode estimation unit 142, and the mode information generation unit 143 illustrated in FIG. 6B.
  • the mode information generation unit 143 sets the DC / edge prediction mode as the first estimated prediction mode MPM in the first prediction mode estimation unit 141, and acquires the set first estimated prediction mode MPM (step) S801).
  • the selected prediction mode SMD matches the first estimated prediction mode MPM (YES in step S802), “1 (indicates that they match)” is set in the first estimated prediction mode designation flag (step S803),
  • the variable length encoding unit 131 encodes the first estimated prediction mode designation flag as the encoded prediction mode related signal SSMD (step S804).
  • the selected prediction mode SMD does not match the first estimated prediction mode MPM (NO in step S802), “0 (indicates no match)” is set in the first estimated prediction mode designation flag (step S805).
  • the first estimated prediction mode designation flag is encoded by the variable length encoding unit 131 as the encoded prediction mode related signal SSMD (step S806).
  • the mode information generation unit 143 outputs a control signal to the second prediction mode estimation unit 142.
  • the second prediction mode estimation unit 142 derives the second estimation prediction mode SPM by a predetermined method, and outputs it to the mode information generation unit 143 (step S807).
  • step S808 when the selected prediction mode SMD matches the second estimated prediction mode SPM (YES in step S808), “1 (indicates that they match)” is set to the second estimated prediction mode designation flag (step S808).
  • step S7809 the second estimated prediction mode designation flag is encoded by the variable length encoding unit 131 as the encoded prediction mode related signal SSMD (step S810).
  • the selected prediction mode SMD does not match the second estimated prediction mode SPM (NO in step S808), “0 (indicates no match)” is set in the second estimated prediction mode designation flag (step S811). ),
  • the second estimated prediction mode designation flag is encoded by the variable length encoding unit 131 as the encoded prediction mode related signal SSMD (step S812).
  • the selection prediction mode SMD is set as selection mode encoding information, and is encoded by the variable length encoding unit 131 as an encoding prediction mode related signal SSMD in addition to the flag information (step S813).
  • the selection prediction mode SMD was encoded as selection mode encoding information as it is here when it does not correspond with 1st estimation prediction mode MPM and 2nd estimation prediction mode SPM, it is not restricted to this.
  • Expression 2 there is no number that matches the estimated prediction mode, and therefore when the index number of the selected prediction mode SMD exceeds the index number of the estimated prediction mode, the number of estimated prediction modes (FIGS. 6B and 7B).
  • a value obtained by subtracting 2) at the maximum may be encoded as selection mode encoding information. Thereby, the code amount can be further reduced.
  • Equation 7 An example written in the same manner as Equations 5 and 6 is shown in Equation 7.
  • the index number corresponding to the DC / prediction mode may be set to “0” as in the case of FIG. 7A.
  • the index number of the first estimated prediction mode SPM is always “0”, when encoding the index number of the selected prediction mode SMD, it is only necessary to encode a value subtracted by at least 1. Further, the code amount can be reduced.
  • Equation 8 An example written in the same manner as Equation 7 is shown in Equation 8.
  • the image quality can be improved not only by reducing the prediction mode code amount but also by improving the prediction performance.
  • FIG. 8 is a flowchart according to a modification of the first embodiment.
  • the following description is an example in which the setting unit 140 illustrated in FIG. 6A executes the processing in FIG. 8, but is not limited thereto.
  • the “mode match flag” appearing in the flowchart of FIG. 8 is that the selected prediction mode matches one of the first and second estimated prediction modes (“1” is set), or matches both. This is a 1-bit flag indicating that no ("0" is set).
  • the “prediction mode identification flag” means that the selected prediction mode matches the first estimated prediction mode (“0” is set), or the selected prediction mode matches the second estimated prediction mode ( 1-bit flag indicating that "1" is set).
  • the mode match flag and the prediction mode identification flag are encoded as the encoded prediction mode related signal SSMD.
  • the first prediction mode estimation unit 141 determines a first estimation prediction mode (S901).
  • the method described above can be used as the method of determining the first estimated prediction mode.
  • the prediction mode with the smallest index number is determined as the first prediction mode among the prediction modes of a plurality of blocks that are adjacent to the encoding target block and have already been encoded.
  • the second prediction mode estimation unit 142 determines a second estimation prediction mode (S902).
  • the second estimated prediction mode is different from the first estimated prediction mode.
  • the determination method of 2nd estimation prediction mode is not specifically limited, For example, it can determine with the following methods.
  • the second prediction mode estimation unit 142 determines whether or not the first estimation prediction mode is the planar mode. If the first estimated prediction mode is the planar mode, the second prediction mode estimation unit 142 determines the second estimated prediction mode as the DC mode. On the other hand, if the first estimated prediction mode is not the planar mode, the second prediction mode estimating unit 142 determines the second estimated prediction mode to be the planar mode.
  • the mode information generation unit 143 determines whether or not the selected prediction mode matches any of the first and second estimated prediction modes (S903). If it matches either (Yes in S903), the mode information generation unit 143 sets “1 (indicates that either matches)” to the mode match flag (S904).
  • the mode information generation unit 143 determines whether or not the selected prediction mode matches the first estimated prediction mode (S905). Needless to say, it may be determined in step S905 whether or not the selected prediction mode and the second estimated prediction mode match.
  • the mode information generation unit 143 When the selected prediction mode and the first estimated prediction mode match (Yes in S905), the mode information generation unit 143 indicates “0 (matches the first estimated prediction mode) in the prediction mode identification flag. ) ”Is set (S906). On the other hand, if they do not match (No in S905), the mode information generation unit 143 sets “1 (indicates that the second estimated prediction mode matches)” to the prediction mode identification flag (S907).
  • the mode match flag and prediction mode identification flag set in steps S904 to S907 are encoded by the variable length encoding unit 131 as the encoded prediction mode related signal SSMD (S908).
  • step S903 when the selected prediction mode does not match either of the first and second estimated prediction modes (No in S903), the mode information generation unit 143 sets “0 (does not match either) in the mode match flag. ")" Is set (S909). Then, the information specifying the mode match flag and the selected prediction mode set in S909 is encoded by the variable length encoding unit 131 as the encoded prediction mode related signal SSMD (S910).
  • the information for specifying the selected prediction mode corresponds to, for example, the selection mode encoding information that can be determined by Equation 5, but if the information can specify the selected prediction mode on the decoding side, It is not limited.
  • the image encoding device, the image decoding device, and the corresponding method of the present invention have been described based on the embodiments.
  • the present invention is not limited to these embodiments. Unless it deviates from the meaning of this invention, what made the various deformation
  • the mode number assigned to each prediction mode may be dynamically changed according to the appearance frequency of the prediction mode. Specifically, a smaller mode number may be assigned to a prediction mode with a higher appearance frequency.
  • the present invention relates to H.264. It is not limited to the H.264 video coding standard, but limited to the above-described conventional intra prediction mode prediction values and position information (motion vector) prediction values such as the intra prediction mode (edge prediction mode) using the edge direction of Non-Patent Document 2. Not. In fact, the inventive prediction mode estimation method may be used in any block-based video encoder.
  • the edge detection unit in the prediction mode estimation method of the present invention may be shared with some functions of the video encoding method. For example, by applying the present invention to a video encoding method including an edge prediction mode, the edge detection unit can be used together, and resources can be used effectively.
  • the present invention is not limited to video encoding applications, and may be used for block-based still image encoding.
  • the present invention can be realized not only as an image encoding device and these methods, but also as a program for causing a computer to execute each of the image encoding methods of the present embodiment. . Further, it may be realized as a computer-readable recording medium such as a CD-ROM for recording the program. Furthermore, it may be realized as information, data, or a signal indicating the program. These programs, information, data, and signals may be distributed via a communication network such as the Internet.
  • DC prediction and edge prediction are handled as the same prediction index number.
  • the present invention is not limited to this point. Instead, the same processing is performed even when the prediction mode in which prediction pixels are generated by a method different from directional prediction and edge prediction are treated as the same prediction index. By performing the above, it becomes possible to efficiently encode and decode the prediction mode.
  • FIG. 9 is a block diagram showing an example of the configuration of the image decoding apparatus 300 according to the present embodiment.
  • the image decoding apparatus 300 decodes the encoded image data generated by encoding the image data for each block according to the prediction using the prediction mode. As illustrated in FIG. 9, the image decoding device 300 includes a decoding unit 310 and a restoration unit 320.
  • the decoding unit 310 generates a decoded block by decoding a target block which is one of a plurality of blocks constituting the encoded image data according to the prediction using the selected prediction mode restored by the restoration unit 320.
  • the generated decoded block is output as image and video data.
  • the plurality of prediction mode candidates are all prediction modes that can be selected when performing prediction, as in the encoder side, and include, for example, eight directional prediction modes, a DC prediction mode, an edge prediction mode, and the like. Contains. Or you may include the 33 direction prediction modes, DC prediction mode, and planar mode which were already demonstrated.
  • the restoration unit 320 restores the selected prediction mode from a plurality of prediction mode candidates based on the mode information for restoring the prediction mode selected at the time of encoding.
  • the mode information is information indicating the selection result of the prediction mode executed at the time of encoding.
  • the restoration unit 320 includes a first prediction mode estimation unit 321, a second prediction mode estimation unit 322, and a signal determination unit 323.
  • the first prediction mode estimation unit 321 and the second prediction mode estimation unit 322 are examples of the prediction mode restoration unit according to the present invention, and one of the DC / edge prediction modes is set as the estimated prediction mode, and the DC -It is possible to restore a bitstream with a reduced code amount for the edge prediction mode.
  • the image decoding apparatus 300 is characterized by decoding a bitstream in which the code amount of the prediction mode is reduced by estimating a plurality of prediction modes. That is, the image decoding apparatus 300 according to the present embodiment is characterized in that the prediction mode is restored by estimating at least two or more prediction modes.
  • FIG. 10 is a block diagram illustrating an example of a detailed configuration of the image decoding apparatus 300 according to the present embodiment.
  • the image decoding apparatus 300 includes a decoding unit 310, a restoration unit 320, a variable length decoding unit 330, and a control unit 340.
  • the decoding unit 310 includes an inverse quantization unit 311, an inverse frequency conversion unit 312, an addition unit 313, a frame memory 314, a switch 315, an intra prediction unit 316, and motion compensation. A unit 317 and a switch 318.
  • the detailed configuration of the restoration unit 320 will be described later with reference to FIGS. 11A and 11B.
  • the image decoding apparatus 300 decodes encoded video data including a prediction residual as either intra or interframe predictive encoded blocks for each block, and outputs the decoded data as video data or image data.
  • the variable length decoding unit 330 performs variable length decoding on the bitstream based on a predetermined means, and outputs a quantized frequency transform coefficient QT and an encoded prediction mode related signal SSMD.
  • the restoration unit 320 receives the encoded prediction mode related signal SSMD and the already decoded image signal LD, and outputs information indicating the encoding mode MD and the intra prediction mode IPM or position information (motion vector) MV. To do. As described above, the detailed configuration of the restoration unit 320 will be described later with reference to FIGS. 11A and 11B.
  • the encoding mode MD is input to the control unit 340.
  • Information indicating the intra prediction mode IPM or the position information (motion vector) MV is input to the switch 315.
  • the quantized frequency transform coefficient QT is input to the inverse quantization unit 311.
  • the control unit 340 controls the switches 315 and 318 based on the encoding mode MD.
  • the switch 315 When the encoding mode MD indicates intra prediction encoding, the switch 315 is connected to the terminal “a”, and information indicating the intra prediction mode IPM is input to the intra prediction unit 316.
  • the switch 315 When the encoding mode MD indicates inter prediction encoding, the switch 315 is connected to the terminal “b”, and the position information (motion vector) MV is input to the motion compensation unit 317.
  • the switches 315 and 318 are connected to the terminal “a”.
  • Information indicating the intra prediction mode IPM is input to the intra prediction unit 316, and the quantized frequency transform coefficient QT is input to the inverse quantization unit 311.
  • the quantized frequency transform coefficient QT corresponds to a prediction residual encoded by an encoder (for example, the image encoding device 100).
  • the intra prediction unit 316 acquires an intra prediction reference pixel from the frame memory 314 based on the input intra prediction mode, generates an intra predicted image (prediction block), and outputs the intra prediction image to the addition unit 313. To do.
  • the inverse quantization unit 311 inversely quantizes the quantized frequency transform coefficient QT and outputs the inversely quantized frequency transform coefficient to the inverse frequency transform unit 312. Then, the inverse frequency transform unit 312 generates a decoded decoded difference image LDD by performing inverse frequency transform on the inversely quantized frequency transform coefficient.
  • the inverse frequency conversion unit 312 outputs the generated decoded difference image LDD to the addition unit 313.
  • the addition unit 313 generates a decoded image LD by adding the decoded difference image LDD and the intra predicted image IP.
  • the generated decoded image LD is stored in the frame memory 314. Note that the decoded image LD stored in the frame memory 314 is used as a reference picture in later decoding.
  • the decoded image LD is output so as to form decoded video data.
  • the switches 315 and 316 are connected to the terminal “b”.
  • Information indicating the position information (motion vector) MV is input to the motion compensation unit 317, and the quantization frequency transform coefficient QT is input to the inverse quantization unit 311.
  • the motion compensation unit 317 acquires a reference pixel from the frame memory 314 based on the input position information (motion vector) MV, generates a predicted picture, and outputs the predicted picture to the addition unit 313.
  • the processes of the inverse quantization unit 311, the inverse frequency conversion unit 312, and the addition unit 313 are the same as those described for the intra prediction block.
  • the decoded image LD is stored in the frame memory 314.
  • the decoded image LD stored in the frame memory 314 is used as a reference picture in later decoding.
  • the decoded image LD is output so as to form decoded video data.
  • FIG. 11A is a diagram illustrating an example of a detailed configuration of the restoration unit 320 according to the present embodiment.
  • the restoration unit 320 includes a first prediction mode estimation unit 321, a second prediction mode estimation unit 322, and a signal determination unit 323.
  • the first prediction mode estimation unit 321 includes a prediction mode storage memory 411 and a first prediction mode estimation deriving unit 412.
  • the reconstruction unit 320 receives the encoded prediction mode related signal SSMD, and outputs information indicating the encoding mode MD and the intra prediction mode IPM or the position information (motion vector) MV as the encoding mode information SMD.
  • the prediction mode storage memory 411 is a memory for storing the input already decoded coding mode information SMD.
  • the first prediction mode estimation deriving unit 412 obtains a first estimated prediction that is a result of estimating a prediction mode by a predetermined means from the encoded mode information SMD already decoded from the prediction mode storage memory 411.
  • the mode MPM is derived and output to the signal determination unit 323.
  • the prediction mode of the already decoded block adjacent to the upper part of the decoding target block and the left part of the decoding target block Of the prediction modes of adjacent blocks that have already been decoded one having a smaller index number corresponding to the prediction mode may be used as the first estimated prediction mode MPM.
  • the prediction mode of the block adjacent to the upper left or upper right of the decoding target block may be further referred to, and the one having a high appearance frequency may be derived as the first estimated prediction mode MPM.
  • the derivation of the first estimated prediction mode MPM is not limited to the above-described method as long as it is a derivation method of the prediction mode that is estimated to be generated most.
  • this estimation method uses the same method as that used when the bitstream is encoded.
  • the directional prediction mode closest to the estimated prediction mode selected by the above method is selected from the directional prediction modes that can be selected in the decoding target block.
  • the estimated prediction mode MPM may be used.
  • the second prediction mode estimation unit 322 acquires a control signal from the signal determination unit 323, and calculates a second estimated prediction mode SPM that is an estimated value of the second prediction mode set by a predetermined method. Output to H.323.
  • the signal determination unit 323 includes a first estimated prediction mode MPM, a second estimated prediction mode SPM, and a coded prediction mode related signal SSMD obtained by variable length decoding the bit stream from the variable length decoding unit 330. Based on this, encoding mode information SMD is generated and output.
  • the second estimated prediction mode SPM to DC / edge prediction, it is possible to efficiently encode / decode one mode information meaning a plurality of prediction modes.
  • FIG. 12A is a flowchart illustrating an example of operations of the first prediction mode estimation unit 321, the second prediction mode estimation unit 322, and the signal determination unit 323 illustrated in FIG. 11A.
  • the decoding of the coding mode information in the signal determination unit 323 will be described in more detail using FIG. 12A.
  • the signal determination unit 323 acquires the first estimated prediction mode MPM derived by the first prediction mode estimation unit 321 (step S1201). Next, the signal determination unit 323 obtains the encoded prediction mode related information SSMD and decodes the first estimated prediction mode designation flag (step S1202). If the first estimated prediction mode designation flag is “1” (YES in step S1203), the selected prediction mode SMD is set as the first estimated prediction mode MPM (step S1204) and output.
  • step S1203 when the first estimated prediction mode designation flag is “0” (NO in step S1203) and the first estimated prediction mode MPM is the DC / edge prediction mode (YES in step S1205). Subsequently, the selected prediction mode coding information is decoded (step S1206). The mode indicated by the selected prediction mode number obtained by decoding is set as the selected prediction mode SMD (step S1207) and output.
  • the second estimated prediction mode designation flag is decoded (step S1208). If the second estimated prediction mode designation flag is “1” (YES in step S1209), the selected prediction mode SMD is set as the second estimated prediction mode SPM (step S1210) and output. When the second estimated prediction mode designation flag is “0” (NO in step S1209), the selected prediction mode encoding information is decoded (step S1211). The mode indicated by the selected prediction mode number obtained by decoding is set as the selected prediction mode SMD (step S1212) and output.
  • selection prediction mode SMD was encoded as selection mode encoding information as it was was demonstrated. Not exclusively. For example, since there is no number that matches the estimated prediction mode as shown in Equation 3, if the index number of the selected prediction mode SMD exceeds the index number of the estimated prediction mode, the number of estimated prediction modes (FIGS. 6A and 7A) In the example, encoding can be performed by subtracting a maximum of 2). Therefore, at the time of decoding, a value obtained by adding the number of estimated prediction modes (maximum 2 in FIGS. 11A and 12A) is decoded as selection mode encoding information. As a result, it is possible to decode a bitstream with a further reduced code amount.
  • Parse () indicates that the data in () is decoded from the encoded prediction mode related signal SSMD, the index number of the first estimated prediction mode MPM is MPM, the index number of the selected prediction mode SMD is SMD,
  • the estimated prediction mode designation flag is MPMF
  • the second estimated prediction mode designation flag is SPMF
  • the DC / edge prediction index number is DCEDGE
  • the selection mode encoding information is REM
  • the index number corresponding to the DC / prediction mode may be “0”.
  • the index number of the second estimated prediction mode SPM is always “0”, when encoding the index number of the selected prediction mode SMD, a value obtained by subtracting at least 1 should be encoded. .
  • a bit stream with a further reduced code amount can be decoded by decoding as a value obtained by adding at least 1 at the time of decoding.
  • Equation 10 An example written in the same manner as Equation 9 is shown in Equation 10.
  • the second prediction mode estimation unit 322 includes a prediction mode storage memory 411 and a second prediction mode estimation derivation unit 413.
  • the reconstruction unit 320 receives the encoded prediction mode related signal SSMD, and outputs information indicating the encoding mode MD and the intra prediction mode IPM or the position information (motion vector) MV as the encoding mode information SMD.
  • the prediction mode storage memory 411 is a memory for storing the input already decoded coding mode information SMD.
  • the second prediction mode estimation / derivation unit 413 obtains the second estimated prediction that is a result of estimating the prediction mode from the prediction mode storage memory 411 by using a predetermined means from the already decoded coding mode information SMD.
  • the mode SPM is derived and output to the signal determination unit 323.
  • the method for deriving the second estimated prediction mode SPM is the same as the method for deriving the first estimated prediction mode MPM in FIG. 11A.
  • the first estimated prediction mode MPM is acquired and the second estimated prediction mode MPM is obtained. You may determine so that mode SPM and 1st estimation prediction mode MPM may not overlap.
  • the second estimated prediction mode SPM is determined by a predetermined method, so that the first and second estimated prediction modes are different. Candidates can be set, and a bitstream with a reduced code amount can be decoded. In this estimation method, the same method as that used when the bitstream is encoded is used.
  • the first prediction mode estimation unit 321 gives the signal determination unit 323 a first estimated prediction mode MPM that is an estimated value of the first prediction mode set by a predetermined method. Output.
  • the first estimated prediction mode MPM DC / edge prediction it is possible to efficiently encode and decode one mode information meaning a plurality of prediction modes.
  • the signal determination unit 323 includes a first estimated prediction mode MPM, a second estimated prediction mode SPM, and a coded prediction mode related signal SSMD obtained by variable length decoding the bit stream from the variable length decoding unit 330. Based on this, encoding mode information SMD is generated and output.
  • FIG. 12B is a flowchart illustrating an example of operations of the first prediction mode estimation unit 321, the second prediction mode estimation unit 322, and the signal determination unit 323 illustrated in FIG. 11B. Decoding of the encoding mode information SMD in the signal determination unit 323 will be described in more detail with reference to FIG. 12B.
  • the signal determination unit 323 acquires the encoded prediction mode related information SSMD and decodes the first estimated prediction mode designation flag (step S1301). If the first estimated prediction mode designation flag is 1 (YES in step S1302), the selected prediction mode SMD is set as the first estimated prediction mode MPM (step S1303) and output.
  • the signal determination unit 323 obtains the second estimated prediction mode SPM derived by the second prediction mode estimation unit 322. (Step S1304). Subsequently, the signal determination unit 323 decodes the second estimated prediction mode designation flag from the encoded prediction mode related information SSMD (step S1305).
  • the selected prediction mode SMD is set as the second estimated prediction mode SPM (step S1307) and output. If the second estimated prediction mode designation flag is “0” (NO in step S1306), the selected prediction mode encoding information is decoded (step S1308). The mode indicated by the selected prediction mode number obtained by decoding is set as the selected prediction mode SMD (step S1309) and output.
  • the index number corresponding to the DC / prediction mode may be set to “0” as in the case of FIG. 12A.
  • the index number of the second estimated prediction mode SPM is always “0”
  • the index number of the selected prediction mode SMD is encoded, it is only necessary to encode a value obtained by subtracting at least 1. Then, at the time of decoding, it is possible to decode a bit stream with a further reduced code amount by decoding as a value obtained by adding at least 1.
  • Equation 12 An example written in the same manner as Equation 11 is shown in Equation 12.
  • FIG. 13 is a flowchart according to a modification of the second embodiment.
  • the following description is an example in which the restoration unit 320 illustrated in FIG. 11A executes the process in FIG. 13, but is not limited thereto. Also, the flowchart shown in FIG. 13 is typically used when decoding a bitstream encoded by the method of FIG.
  • the first prediction mode estimation unit 321 determines a first estimation prediction mode (S1401).
  • the method described above can be used as the method of determining the first estimated prediction mode.
  • the prediction mode with the smallest index number is determined as the first prediction mode among the prediction modes of a plurality of blocks adjacent to the decoding target block and already decoded.
  • the second prediction mode estimation unit 322 determines a second estimation prediction mode (S1402).
  • the second estimated prediction mode is different from the first estimated prediction mode.
  • the determination method of 2nd estimation prediction mode is not specifically limited, For example, it can determine with the following methods.
  • the second prediction mode estimation unit 322 determines whether or not the first estimation prediction mode is the planar mode. If the first estimated prediction mode is the planar mode, the second prediction mode estimation unit 322 determines the second estimated prediction mode as the DC mode. On the other hand, if the first estimated prediction mode is not the planar mode, the second prediction mode estimating unit 322 determines the second estimated prediction mode as the planar mode.
  • the signal determination unit 323 determines the value set in the mode match flag included in the encoded prediction mode-related signal SSMD acquired from the variable length decoding unit 330 (S1403). If “1” is set in the mode match flag (Yes in S1403), the signal determination unit 323 determines the value set in the prediction mode identification flag included in the encoded prediction mode-related signal SSMD. (S1404).
  • the signal determination unit 323 sets the selected prediction mode to the first estimated prediction mode (S1405).
  • the signal determination unit 323 sets the selected prediction mode to the second estimated prediction mode (S1406).
  • the signal determination unit 323 decodes the selected prediction mode coding information (S1407). Then, the signal determination unit 323 sets the prediction mode indicated by the selected prediction mode number obtained by decoding as the selected prediction mode SMD (step S1408).
  • FIG. 13 is different from the flowchart shown in FIG. 12A and FIG. Common in restoring mode.
  • the first estimated prediction is performed when the flag information indicates that the selected prediction mode and the first estimated prediction mode match.
  • the mode is determined as the selection prediction mode.
  • the flag information indicates that the selected prediction mode and the second estimated prediction mode match
  • the second estimated prediction mode is determined as the selected prediction mode.
  • the selected prediction mode is selected based on the information further specifying the selected prediction mode included in the mode information. Is restored.
  • a smaller number in order from the direction vector close to the first estimated prediction mode MPM or the second estimated prediction mode SPM may be performed by assigning and encoding. As a result, a bit stream obtained by encoding a smaller number is decoded, and the code amount can be reduced.
  • the present invention relates to H.264. It is not limited to the H.264 video coding standard, but limited to the above-described conventional intra prediction mode prediction values and position information (motion vector) prediction values such as the intra prediction mode (edge prediction mode) using the edge direction of Non-Patent Document 2. Not. In fact, the inventive prediction mode estimation method may be used in any block-based video encoder.
  • the edge detection unit in the prediction mode estimation method of the present invention may be shared with some functions of the video encoding method. For example, by applying the present invention to a video encoding method including an edge prediction mode, the edge detection unit can be used together, and resources can be used effectively.
  • the present invention is not limited to video encoding applications, and may be used for block-based still image encoding.
  • the present invention can be realized not only as an image decoding apparatus and these methods, but also as a program for causing a computer to execute each of the image decoding methods of the present embodiment. Further, it may be realized as a computer-readable recording medium such as a CD-ROM for recording the program. Furthermore, it may be realized as information, data, or a signal indicating the program. These programs, information, data, and signals may be distributed via a communication network such as the Internet.
  • DC prediction and edge prediction are handled as the same prediction index number.
  • the present invention is not limited to this point. Instead, the same processing is performed even when the prediction mode in which prediction pixels are generated by a method different from directional prediction and edge prediction are treated as the same prediction index. By performing the above, it becomes possible to efficiently encode and decode the prediction mode.
  • FIG. 14 is a diagram illustrating an example of a configuration in which the setting unit 140, which is a part of the image encoding device 100 described in the first embodiment, includes the edge vector determination unit 1401.
  • the setting unit 140 includes a first prediction mode estimation unit 141, a second prediction mode estimation unit 142, a mode information generation unit 143, and an edge vector determination unit 1401.
  • the same components as those in FIGS. 4, 6A, and 6B are denoted by the same reference numerals.
  • the setting unit 140 acquires the selected prediction mode SMD and the image signal LD that has already been encoded and decoded, and variable-length-encodes the encoded prediction mode-related signal SSMD as the encoded signal of the selected prediction mode for the target block. Output to the unit 131.
  • the edge vector determination unit 1401 acquires the image signal LD located around the previously encoded and decoded image, performs an edge detection process, and determines whether an edge exists around the image signal LD. This operation will be described in detail with reference to FIG.
  • FIG. 18 is a schematic diagram illustrating an example of an edge detection target. As an example, an example in which edge detection is performed on a 4 ⁇ 4 pixel processing target block 1801 as an encoding target will be described. This processing unit is an example, and is not limited to this as long as it is a prediction block unit. Edge detection processing is performed on a region 1802 indicated by hatching among regions encoded and decoded around the processing target block 1801 (the adjacent regions on the left, upper left, upper, and upper right of the target block).
  • One square represents one pixel, and processing is performed on nine pixels including eight adjacent pixels with respect to one pixel in a hatched area.
  • a Sobel operator shown in Expression 13 is used as the edge detection process. Using the Sobel operator, the edge strength in the horizontal and vertical directions can be obtained. A vector indicating the intensity and direction is called an edge vector.
  • vectors 1803 and 1804 having a certain intensity or more are detected, and the strongest vector among them is detected as an edge vector.
  • the edge vector determination unit 1401 determines whether to perform DC prediction or edge prediction in the DC / edge prediction according to the detected edge vector, and outputs the determination to the mode information generation unit 143.
  • edge prediction may be used, for example, when the magnitude of a vector having the maximum intensity is used, for example, when it has a certain magnitude or more.
  • FIG. 16 is a diagram illustrating an example of the operation of the setting unit 140.
  • the mode information generation unit 143 acquires information on whether to perform DC prediction or edge prediction from the edge vector determination unit 1401 (step S1601). If the condition is to use edge prediction (YES in step S1602), the DC / edge prediction mode is set as the first estimated prediction mode MPM (step S1603), and thereafter the same flow as in FIG. 7B (steps S801 to S813). In step S1604, the encoding information is determined, and the determined encoding prediction mode-related signal SSMD is output to the variable length encoding unit 131.
  • step S1602 if the condition is such that edge prediction is not used (NO in step S1602), the first estimated prediction mode MPM derived by the first prediction mode estimation unit 141 is acquired (step S1605). Subsequently, for example, the encoding information is determined by the method shown in Non-Patent Document 1, and the determined encoding prediction mode-related signal SSMD is output to the variable length encoding unit 131 (step S1606).
  • encoding is performed in the conventional method in step S1606, encoding may be performed using the second estimated prediction mode SPM.
  • a mode that does not overlap with the first estimated prediction mode MPM and that is frequently used in an already coded block may be set. Thereby, encoding efficiency can be further improved.
  • the edge vector determination unit 1401 outputs information on the detected edge vector direction to the second prediction mode estimation unit 142.
  • the prediction mode candidate is a sum of eight direction prediction modes, DC / edge prediction indicating one of the DC prediction mode and the edge prediction mode.
  • nine prediction mode candidates may be set as the second estimated prediction mode SPM, with the direction prediction mode close to the detected edge direction.
  • FIG. 15 is a diagram illustrating an example of a configuration in which the restoration unit 320 that is part of the image decoding device 300 described in Embodiment 2 includes the edge vector determination unit 1501.
  • the restoration unit 320 includes a first prediction mode estimation unit 321, a second prediction mode estimation unit 322, a signal determination unit 323, and an edge vector determination unit 1501.
  • the same components as those in FIGS. 9, 11A, and 11B are denoted by the same reference numerals.
  • the restoration unit 320 obtains the encoded prediction mode-related signal SSMD that has been subjected to variable length decoding and the image signal LD that has already been encoded and decoded, and uses the selected prediction mode SMD as an encoded signal of the selected prediction mode for the target block. Is output.
  • the edge vector determination unit 1501 acquires the image signal LD located around the previously encoded and decoded image, performs an edge detection process, and determines whether an edge exists around the image signal LD. As for the operation, the same operation as that at the time of encoding is performed.
  • FIG. 17 is a diagram illustrating an example of the operation of the restoration unit 320.
  • the signal determination unit 323 obtains information on whether to perform DC prediction or edge prediction from the edge vector determination unit 1501 (step S1701). If the condition is to use edge prediction (YES in step S1702), the first estimated prediction mode MPM is set as the DC / edge prediction mode (step S1703), and thereafter the same flow as in FIG. 12B (steps S1301 to S1309). In step S1704, the decoding process is performed and the selection prediction mode SMD is output.
  • the first estimated prediction mode MPM derived by the first prediction mode estimation unit 321 is acquired (step S1705). Thereafter, for example, the selection prediction mode SMD is output by the method shown in Non-Patent Document 1 (step S1706).
  • the above operation is an example, and the present invention is not limited to this, and can be changed in the same manner as the encoding method.
  • the decoding side can also perform the same.
  • a mode that does not overlap with the first estimated prediction mode MPM and that is frequently used in an already coded block may be set. Thereby, encoding efficiency can be further improved.
  • the edge vector determination unit 1501 outputs information on the direction of the detected edge vector to the second prediction mode estimation unit 322.
  • the prediction mode candidate is a sum of eight direction prediction modes, DC / edge prediction indicating one of the DC prediction mode and the edge prediction mode.
  • nine prediction mode candidates may be set as the second estimated prediction mode SPM, with the direction prediction mode close to the detected edge direction.
  • encoding is not performed in the order of index numbers, but encoding and decoding are performed by assigning small numbers in order from the direction vector close to the detected edge vector. Also good. Thereby, a smaller number is encoded and decoded, and the amount of codes can be reduced.
  • the edge is detected by calculating the gradient using the Sobel operator.
  • the present invention is not limited to this point. Instead, any edge detection tool may be used as long as the directionality of the detected edge is calculated.
  • the Sobel operator is just one example of a possible edge detection technique. For example, a pre-wit operator shown in Expression 14 may be used.
  • the image coding apparatus 100 and the image decoding apparatus 300 not only the reference pixel 20 shown in FIG. 1A but also all the pixels included in the block including the reference pixel 20 are used to perform the edge detection process. Data needs to be stored in the reference picture memory 160 and the frame memory 314. On the other hand, at the same time that the surrounding blocks are decoded, that is, the pixel value of the reference pixel necessary for calculating the gradient is obtained, the gradient calculation processing is performed, and only the gradient calculation processing result is obtained as the reference picture memory 160. And may be stored in the frame memory 314 or other memory.
  • the calculated norm is stored in the reference picture memory 160, the frame memory 314, and the like.
  • the memory resources included in the image encoding device 100 and the image decoding device 300 can be used effectively.
  • the present invention relates to H.264. It is not limited to the H.264 video coding standard, but limited to the above-described conventional intra prediction mode prediction values and position information (motion vector) prediction values such as the intra prediction mode (edge prediction mode) using the edge direction of Non-Patent Document 2. Not. In fact, the inventive prediction mode estimation method may be used in any block-based video encoder.
  • the edge detection unit in the prediction mode estimation method of the present invention may be shared with some functions of the video encoding method. For example, by applying the present invention to a video encoding method including an edge prediction mode, the edge detection unit can be used together, and resources can be used effectively.
  • the present invention is not limited to video encoding applications, and may be used for block-based still image encoding.
  • the present invention can be implemented not only as an image encoding device, an image decoding device, and a method thereof, but also for causing a computer to execute each of the image encoding method and the image decoding method according to the present embodiment.
  • It may be realized as a program.
  • it may be realized as a computer-readable recording medium such as a CD-ROM for recording the program.
  • it may be realized as information, data, or a signal indicating the program.
  • These programs, information, data, and signals may be distributed via a communication network such as the Internet.
  • the storage medium may be any medium that can record a program, such as a magnetic disk, an optical disk, a magneto-optical disk, an IC card, and a semiconductor memory.
  • FIG. 19 is a diagram showing an overall configuration of a content supply system ex100 that realizes a content distribution service.
  • a communication service providing area is divided into desired sizes, and base stations ex106, ex107, ex108, ex109, and ex110, which are fixed wireless stations, are installed in each cell.
  • This content supply system ex100 includes a computer ex111, a PDA (Personal Digital Assistant) ex112, a camera ex113, a mobile phone ex114, a game machine ex115 via the Internet ex101, the Internet service provider ex102, the telephone network ex104, and the base stations ex106 to ex110. Etc. are connected.
  • PDA Personal Digital Assistant
  • each device may be directly connected to the telephone network ex104 without going from the base station ex106, which is a fixed wireless station, to ex110.
  • the devices may be directly connected to each other via short-range wireless or the like.
  • the camera ex113 is a device that can shoot moving images such as a digital video camera
  • the camera ex116 is a device that can shoot still images and movies such as a digital camera.
  • the mobile phone ex114 is a GSM (Global System for Mobile Communications) system, a CDMA (Code Division Multiple Access) system, a W-CDMA (Wideband-Code Division Multiple Access) system, an LTE (Long Terminal Evolution) system, an HSPA ( High-speed-Packet-Access) mobile phone or PHS (Personal-Handyphone System), etc.
  • GSM Global System for Mobile Communications
  • CDMA Code Division Multiple Access
  • W-CDMA Wideband-Code Division Multiple Access
  • LTE Long Terminal Evolution
  • HSPA High-speed-Packet-Access
  • PHS Personal-Handyphone System
  • the camera ex113 and the like are connected to the streaming server ex103 through the base station ex109 and the telephone network ex104, thereby enabling live distribution and the like.
  • live distribution the content (for example, music live video) captured by the user using the camera ex113 is encoded as described in the above embodiments, and transmitted to the streaming server ex103.
  • the streaming server ex103 stream-distributes the content data transmitted to the requested client. Examples of the client include a computer ex111, a PDA ex112, a camera ex113, a mobile phone ex114, and a game machine ex115 that can decode the encoded data. Each device that receives the distributed data decodes the received data and reproduces it.
  • the captured data may be encoded by the camera ex113, the streaming server ex103 that performs data transmission processing, or may be shared with each other.
  • the decryption processing of the distributed data may be performed by the client, the streaming server ex103, or may be performed in common with each other.
  • still images and / or moving image data captured by the camera ex116 may be transmitted to the streaming server ex103 via the computer ex111.
  • the encoding process in this case may be performed by any of the camera ex116, the computer ex111, and the streaming server ex103, or may be performed in a shared manner.
  • these encoding / decoding processes are generally performed in the computer ex111 and the LSI ex500 included in each device.
  • the LSI ex500 may be configured as a single chip or a plurality of chips.
  • moving image encoding / decoding software is incorporated into some recording medium (CD-ROM, flexible disk, hard disk, etc.) that can be read by the computer ex111, etc., and encoding / decoding processing is performed using the software. May be.
  • moving image data acquired by the camera may be transmitted.
  • the moving image data at this time is data encoded by the LSI ex500 included in the mobile phone ex114.
  • the streaming server ex103 may be a plurality of servers or a plurality of computers, and may process, record, and distribute data in a distributed manner.
  • the encoded data can be received and reproduced by the client.
  • the information transmitted by the user can be received, decrypted and reproduced by the client in real time, and personal broadcasting can be realized even for a user who does not have special rights or facilities.
  • At least one of the video encoding device and the video decoding device of each of the above embodiments is incorporated in the digital broadcasting system ex200. be able to.
  • the broadcast station ex201 multiplexed data obtained by multiplexing music data and the like on video data is transmitted to a communication or satellite ex202 via radio waves.
  • This video data is data encoded by the moving image encoding method described in the above embodiments.
  • the broadcasting satellite ex202 transmits a radio wave for broadcasting, and this radio wave is received by a home antenna ex204 capable of receiving satellite broadcasting.
  • the received multiplexed data is decoded and reproduced by a device such as the television (receiver) ex300 or the set top box (STB) ex217.
  • a reader / recorder ex218 that reads and decodes multiplexed data recorded on a recording medium ex215 such as a DVD or a BD, or encodes a video signal on the recording medium ex215 and, in some cases, multiplexes and writes it with a music signal. It is possible to mount the moving picture decoding apparatus or moving picture encoding apparatus described in the above embodiments. In this case, the reproduced video signal is displayed on the monitor ex219, and the video signal can be reproduced in another device or system using the recording medium ex215 on which the multiplexed data is recorded.
  • a moving picture decoding apparatus may be mounted in a set-top box ex217 connected to a cable ex203 for cable television or an antenna ex204 for satellite / terrestrial broadcasting and displayed on the monitor ex219 of the television.
  • the moving picture decoding apparatus may be incorporated in the television instead of the set top box.
  • FIG. 21 is a diagram illustrating a television (receiver) ex300 that uses the video decoding method and the video encoding method described in each of the above embodiments.
  • the television ex300 obtains or outputs multiplexed data in which audio data is multiplexed with video data via the antenna ex204 or the cable ex203 that receives the broadcast, and demodulates the received multiplexed data.
  • the modulation / demodulation unit ex302 that modulates multiplexed data to be transmitted to the outside, and the demodulated multiplexed data is separated into video data and audio data, or the video data and audio data encoded by the signal processing unit ex306 Is provided with a multiplexing / demultiplexing unit ex303.
  • the television ex300 decodes the audio data and the video data, or encodes each information, the audio signal processing unit ex304, the signal processing unit ex306 including the video signal processing unit ex305, and the decoded audio signal.
  • the television ex300 includes an interface unit ex317 including an operation input unit ex312 that receives an input of a user operation.
  • the television ex300 includes a control unit ex310 that performs overall control of each unit, and a power supply circuit unit ex311 that supplies power to each unit.
  • the interface unit ex317 includes a bridge unit ex313 connected to an external device such as a reader / recorder ex218, a recording unit ex216 such as an SD card, and an external recording unit such as a hard disk.
  • a driver ex315 for connecting to a medium, a modem ex316 for connecting to a telephone network, and the like may be included.
  • the recording medium ex216 is capable of electrically recording information by using a nonvolatile / volatile semiconductor memory element to be stored.
  • Each part of the television ex300 is connected to each other via a synchronous bus.
  • the television ex300 receives a user operation from the remote controller ex220 or the like, and demultiplexes the multiplexed data demodulated by the modulation / demodulation unit ex302 by the multiplexing / demultiplexing unit ex303 based on the control of the control unit ex310 having a CPU or the like. Furthermore, in the television ex300, the separated audio data is decoded by the audio signal processing unit ex304, and the separated video data is decoded by the video signal processing unit ex305 using the decoding method described in each of the above embodiments.
  • the decoded audio signal and video signal are output from the output unit ex309 to the outside. At the time of output, these signals may be temporarily stored in the buffers ex318, ex319, etc. so that the audio signal and the video signal are reproduced in synchronization. Also, the television ex300 may read multiplexed data from recording media ex215 and ex216 such as a magnetic / optical disk and an SD card, not from broadcasting. Next, a configuration in which the television ex300 encodes an audio signal or a video signal and transmits the signal to the outside or to a recording medium will be described.
  • the television ex300 receives a user operation from the remote controller ex220 and the like, encodes an audio signal with the audio signal processing unit ex304, and converts the video signal with the video signal processing unit ex305 based on the control of the control unit ex310. Encoding is performed using the encoding method described in (1).
  • the encoded audio signal and video signal are multiplexed by the multiplexing / demultiplexing unit ex303 and output to the outside. When multiplexing, these signals may be temporarily stored in the buffers ex320, ex321, etc. so that the audio signal and the video signal are synchronized.
  • a plurality of buffers ex318, ex319, ex320, and ex321 may be provided as illustrated, or one or more buffers may be shared. Further, in addition to the illustrated example, data may be stored in the buffer as a buffer material that prevents system overflow and underflow, for example, between the modulation / demodulation unit ex302 and the multiplexing / demultiplexing unit ex303.
  • the television ex300 has a configuration for receiving AV input of a microphone and a camera, and performs encoding processing on the data acquired from them. Also good.
  • the television ex300 has been described as a configuration capable of the above-described encoding processing, multiplexing, and external output, but these processing cannot be performed, and only the above-described reception, decoding processing, and external output are possible. It may be a configuration.
  • the decoding process or the encoding process may be performed by either the television ex300 or the reader / recorder ex218,
  • the reader / recorder ex218 may share with each other.
  • FIG. 22 shows a configuration of the information reproducing / recording unit ex400 when data is read from or written to an optical disk.
  • the information reproducing / recording unit ex400 includes elements ex401, ex402, ex403, ex404, ex405, ex406, and ex407 described below.
  • the optical head ex401 irradiates a laser spot on the recording surface of the recording medium ex215 that is an optical disk to write information, and detects reflected light from the recording surface of the recording medium ex215 to read the information.
  • the modulation recording unit ex402 electrically drives a semiconductor laser built in the optical head ex401 and modulates the laser beam according to the recording data.
  • the reproduction demodulator ex403 amplifies the reproduction signal obtained by electrically detecting the reflected light from the recording surface by the photodetector built in the optical head ex401, separates and demodulates the signal component recorded on the recording medium ex215, and is necessary To play back information.
  • the buffer ex404 temporarily holds information to be recorded on the recording medium ex215 and information reproduced from the recording medium ex215.
  • the disk motor ex405 rotates the recording medium ex215.
  • the servo controller ex406 moves the optical head ex401 to a predetermined information track while controlling the rotational drive of the disk motor ex405, and performs a laser spot tracking process.
  • the system control unit ex407 controls the entire information reproduction / recording unit ex400.
  • the system control unit ex407 uses various kinds of information held in the buffer ex404, and generates and adds new information as necessary, and the modulation recording unit ex402, the reproduction demodulation unit This is realized by recording / reproducing information through the optical head ex401 while operating the ex403 and the servo control unit ex406 in a coordinated manner.
  • the system control unit ex407 is composed of, for example, a microprocessor, and executes these processes by executing a read / write program.
  • the optical head ex401 has been described as irradiating a laser spot.
  • a configuration in which higher-density recording is performed using near-field light may be used.
  • FIG. 23 shows a schematic diagram of a recording medium ex215 that is an optical disk.
  • Guide grooves grooves
  • address information indicating the absolute position on the disc is recorded in advance on the information track ex230 by changing the shape of the groove.
  • This address information includes information for specifying the position of the recording block ex231 that is a unit for recording data, and the recording block is specified by reproducing the information track ex230 and reading the address information in a recording or reproducing apparatus.
  • the recording medium ex215 includes a data recording area ex233, an inner peripheral area ex232, and an outer peripheral area ex234.
  • the area used for recording user data is the data recording area ex233, and the inner circumference area ex232 and the outer circumference area ex234 arranged on the inner or outer circumference of the data recording area ex233 are used for specific purposes other than user data recording. Used.
  • the information reproducing / recording unit ex400 reads / writes encoded audio data, video data, or multiplexed data obtained by multiplexing these data with respect to the data recording area ex233 of the recording medium ex215.
  • an optical disk such as a single-layer DVD or BD has been described as an example.
  • the present invention is not limited to these, and an optical disk having a multilayer structure and capable of recording other than the surface may be used.
  • an optical disc with a multi-dimensional recording / reproducing structure such as recording information using light of different wavelengths in the same place on the disc, or recording different layers of information from various angles. It may be.
  • the car ex210 having the antenna ex205 can receive data from the satellite ex202 and the like, and the moving image can be reproduced on a display device such as the car navigation ex211 that the car ex210 has.
  • the configuration of the car navigation ex211 may include a configuration in which a GPS receiving unit is added to the configuration illustrated in FIG.
  • the terminal such as the mobile phone ex114 is referred to as a transmission terminal having only an encoder and a receiving terminal having only a decoder. There are three possible mounting formats.
  • multiplexed data in which music data is multiplexed with video data is received and transmitted.
  • character data related to video is multiplexed. It may be converted data, or may be video data itself instead of multiplexed data.
  • the moving picture encoding method or the moving picture decoding method shown in each of the above embodiments can be used in any of the above-described devices / systems. The described effect can be obtained.
  • multiplexed data obtained by multiplexing audio data or the like with video data is configured to include identification information indicating which standard the video data conforms to.
  • identification information indicating which standard the video data conforms to.
  • FIG. 24 is a diagram showing a structure of multiplexed data.
  • the multiplexed data is obtained by multiplexing one or more of a video stream, an audio stream, a presentation graphics stream (PG), and an interactive graphics stream.
  • the video stream indicates the main video and sub-video of the movie
  • the audio stream (IG) indicates the main audio portion of the movie and the sub-audio mixed with the main audio
  • the presentation graphics stream indicates the subtitles of the movie.
  • the main video indicates a normal video displayed on the screen
  • the sub-video is a video displayed on a small screen in the main video.
  • the interactive graphics stream indicates an interactive screen created by arranging GUI components on the screen.
  • the video stream is encoded by the moving image encoding method or apparatus shown in the above embodiments, or the moving image encoding method or apparatus conforming to the conventional standards such as MPEG-2, MPEG4-AVC, and VC-1. ing.
  • the audio stream is encoded by a method such as Dolby AC-3, Dolby Digital Plus, MLP, DTS, DTS-HD, or linear PCM.
  • Each stream included in the multiplexed data is identified by PID. For example, 0x1011 for video streams used for movie images, 0x1100 to 0x111F for audio streams, 0x1200 to 0x121F for presentation graphics, 0x1400 to 0x141F for interactive graphics streams, 0x1B00 to 0x1B1F are assigned to video streams used for sub-pictures, and 0x1A00 to 0x1A1F are assigned to audio streams used for sub-audio mixed with the main audio.
  • FIG. 25 is a diagram schematically showing how multiplexed data is multiplexed.
  • a video stream ex235 composed of a plurality of video frames and an audio stream ex238 composed of a plurality of audio frames are converted into PES packet sequences ex236 and ex239, respectively, and converted into TS packets ex237 and ex240.
  • the data of the presentation graphics stream ex241 and interactive graphics ex244 are converted into PES packet sequences ex242 and ex245, respectively, and further converted into TS packets ex243 and ex246.
  • the multiplexed data ex247 is configured by multiplexing these TS packets into one stream.
  • FIG. 26 shows in more detail how the video stream is stored in the PES packet sequence.
  • the first row in FIG. 26 shows a video frame sequence of the video stream.
  • the second level shows a PES packet sequence.
  • a plurality of Video Presentation Units in the video stream are divided into each picture, and stored in the payload of the PES packet.
  • Each PES packet has a PES header, and a PTS (Presentation Time-Stamp) that is a display time of a picture and a DTS (Decoding Time-Stamp) that is a decoding time of a picture are stored in the PES header.
  • PTS Presentation Time-Stamp
  • DTS Decoding Time-Stamp
  • FIG. 27 shows the format of TS packets that are finally written in the multiplexed data.
  • the TS packet is a 188-byte fixed-length packet composed of a 4-byte TS header having information such as a PID for identifying a stream and a 184-byte TS payload for storing data.
  • the PES packet is divided and stored in the TS payload.
  • a 4-byte TP_Extra_Header is added to a TS packet, forms a 192-byte source packet, and is written in multiplexed data.
  • TP_Extra_Header information such as ATS (Arrival_Time_Stamp) is described.
  • ATS indicates the transfer start time of the TS packet to the PID filter of the decoder.
  • source packets are arranged as shown in the lower part of FIG. 27, and the number incremented from the head of the multiplexed data is called SPN (source packet number).
  • TS packets included in the multiplexed data include PAT (Program Association Table), PMT (Program Map Table), PCR (Program Clock Reference), and the like in addition to each stream such as video / audio / caption.
  • PAT indicates what the PID of the PMT used in the multiplexed data is, and the PID of the PAT itself is registered as 0.
  • the PMT has the PID of each stream such as video / audio / subtitles included in the multiplexed data and the attribute information of the stream corresponding to each PID, and has various descriptors related to the multiplexed data.
  • the descriptor includes copy control information for instructing permission / non-permission of copying of multiplexed data.
  • the PCR corresponds to the ATS in which the PCR packet is transferred to the decoder. Contains STC time information.
  • FIG. 28 is a diagram for explaining the data structure of the PMT in detail.
  • a PMT header describing the length of data included in the PMT is arranged at the head of the PMT.
  • a plurality of descriptors related to multiplexed data are arranged.
  • the copy control information and the like are described as descriptors.
  • a plurality of pieces of stream information regarding each stream included in the multiplexed data are arranged.
  • the stream information includes a stream descriptor in which a stream type, a stream PID, and stream attribute information (frame rate, aspect ratio, etc.) are described to identify a compression codec of the stream.
  • the multiplexed data is recorded together with the multiplexed data information file.
  • the multiplexed data information file is management information of multiplexed data, has one-to-one correspondence with the multiplexed data, and includes multiplexed data information, stream attribute information, and an entry map.
  • the multiplexed data information includes a system rate, a reproduction start time, and a reproduction end time as shown in FIG.
  • the system rate indicates a maximum transfer rate of multiplexed data to a PID filter of a system target decoder described later.
  • the ATS interval included in the multiplexed data is set to be equal to or less than the system rate.
  • the playback start time is the PTS of the first video frame of the multiplexed data
  • the playback end time is set by adding the playback interval for one frame to the PTS of the video frame at the end of the multiplexed data.
  • the attribute information for each stream included in the multiplexed data is registered for each PID.
  • the attribute information has different information for each video stream, audio stream, presentation graphics stream, and interactive graphics stream.
  • the video stream attribute information includes the compression codec used to compress the video stream, the resolution of the individual picture data constituting the video stream, the aspect ratio, and the frame rate. It has information such as how much it is.
  • the audio stream attribute information includes the compression codec used to compress the audio stream, the number of channels included in the audio stream, the language supported, and the sampling frequency. With information. These pieces of information are used for initialization of the decoder before the player reproduces it.
  • the stream type included in the PMT is used.
  • video stream attribute information included in the multiplexed data information is used.
  • the video encoding shown in each of the above embodiments for the stream type or video stream attribute information included in the PMT.
  • FIG. 31 shows the steps of the moving picture decoding method according to the present embodiment.
  • step exS100 the stream type included in the PMT or the video stream attribute information included in the multiplexed data information is acquired from the multiplexed data.
  • step exS101 it is determined whether or not the stream type or the video stream attribute information indicates multiplexed data generated by the moving picture encoding method or apparatus described in the above embodiments. To do.
  • step exS102 the above embodiments are performed. Decoding is performed by the moving picture decoding method shown in the form.
  • the conventional information Decoding is performed by a moving image decoding method compliant with the standard.
  • FIG. 32 shows a configuration of an LSI ex500 that is made into one chip.
  • the LSI ex500 includes elements ex501, ex502, ex503, ex504, ex505, ex506, ex507, ex508, and ex509 described below, and each element is connected via a bus ex510.
  • the power supply circuit unit ex505 is activated to an operable state by supplying power to each unit when the power supply is on.
  • the LSI ex500 when performing the encoding process, performs the microphone ex117 and the camera ex113 by the AV I / O ex509 based on the control of the control unit ex501 including the CPU ex502, the memory controller ex503, the stream controller ex504, the drive frequency control unit ex512, and the like.
  • the AV signal is input from the above.
  • the input AV signal is temporarily stored in an external memory ex511 such as SDRAM.
  • the accumulated data is divided into a plurality of times as appropriate according to the processing amount and the processing speed and sent to the signal processing unit ex507, and the signal processing unit ex507 encodes an audio signal and / or video. Signal encoding is performed.
  • the encoding process of the video signal is the encoding process described in the above embodiments.
  • the signal processing unit ex507 further performs processing such as multiplexing the encoded audio data and the encoded video data according to circumstances, and outputs the result from the stream I / Oex 506 to the outside.
  • the output multiplexed data is transmitted to the base station ex107 or written to the recording medium ex215. It should be noted that data should be temporarily stored in the buffer ex508 so as to be synchronized when multiplexing.
  • the memory ex511 is described as an external configuration of the LSI ex500.
  • a configuration included in the LSI ex500 may be used.
  • the number of buffers ex508 is not limited to one, and a plurality of buffers may be provided.
  • the LSI ex500 may be made into one chip or a plurality of chips.
  • control unit ex510 includes the CPU ex502, the memory controller ex503, the stream controller ex504, the drive frequency control unit ex512, and the like, but the configuration of the control unit ex510 is not limited to this configuration.
  • the signal processing unit ex507 may further include a CPU.
  • the CPU ex502 may be configured to include a signal processing unit ex507 or, for example, an audio signal processing unit that is a part of the signal processing unit ex507.
  • the control unit ex501 is configured to include a signal processing unit ex507 or a CPU ex502 having a part thereof.
  • LSI LSI
  • IC system LSI
  • super LSI ultra LSI depending on the degree of integration
  • the method of circuit integration is not limited to LSI, and implementation with a dedicated circuit or a general-purpose processor is also possible.
  • An FPGA Field Programmable Gate Array
  • a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used.
  • FIG. 33 shows a configuration ex800 in the present embodiment.
  • the drive frequency switching unit ex803 sets the drive frequency high when the video data is generated by the moving image encoding method or apparatus described in the above embodiments.
  • the decoding processing unit ex801 that executes the moving picture decoding method described in each of the above embodiments is instructed to decode the video data.
  • the video data is video data compliant with the conventional standard, compared to the case where the video data is generated by the moving picture encoding method or apparatus shown in the above embodiments, Set the drive frequency low. Then, it instructs the decoding processing unit ex802 compliant with the conventional standard to decode the video data.
  • the drive frequency switching unit ex803 includes a CPU ex502 and a drive frequency control unit ex512 in FIG.
  • the decoding processing unit ex801 that executes the moving picture decoding method described in the above embodiments and the decoding processing unit ex802 that conforms to the conventional standard correspond to the signal processing unit ex507 in FIG.
  • the CPU ex502 identifies which standard the video data conforms to.
  • the drive frequency control unit ex512 sets the drive frequency.
  • the signal processing unit ex507 decodes the video data.
  • identification information described in the fifth embodiment may be used.
  • the identification information is not limited to that described in the fifth embodiment, and any information that can identify which standard the video data conforms to may be used. For example, it is possible to identify which standard the video data conforms to based on an external signal that identifies whether the video data is used for a television or a disk. In some cases, identification may be performed based on such an external signal.
  • the selection of the driving frequency in the CPU ex502 may be performed based on, for example, a lookup table in which video data standards and driving frequencies are associated with each other as shown in FIG. The look-up table is stored in the buffer ex508 or the internal memory of the LSI, and the CPU ex502 can select the drive frequency by referring to the look-up table.
  • FIG. 34 shows steps for executing the method of the present embodiment.
  • the signal processing unit ex507 acquires identification information from the multiplexed data.
  • the CPU ex502 identifies whether the video data is generated by the encoding method or apparatus described in each of the above embodiments based on the identification information.
  • the CPU ex502 sends a signal for setting the drive frequency high to the drive frequency control unit ex512. Then, the drive frequency control unit ex512 sets a high drive frequency.
  • step exS203 the CPU ex502 drives the signal for setting the drive frequency low. This is sent to the frequency control unit ex512. Then, in the drive frequency control unit ex512, the drive frequency is set to be lower than that in the case where the video data is generated by the encoding method or apparatus described in the above embodiments.
  • the power saving effect can be further enhanced by changing the voltage applied to the LSI ex500 or the device including the LSI ex500 in conjunction with the switching of the driving frequency. For example, when the drive frequency is set low, it is conceivable that the voltage applied to the LSI ex500 or the device including the LSI ex500 is set low as compared with the case where the drive frequency is set high.
  • the setting method of the driving frequency may be set to a high driving frequency when the processing amount at the time of decoding is large, and to a low driving frequency when the processing amount at the time of decoding is small. It is not limited to the method.
  • the amount of processing for decoding video data compliant with the MPEG4-AVC standard is larger than the amount of processing for decoding video data generated by the moving picture encoding method or apparatus described in the above embodiments. It is conceivable that the setting of the driving frequency is reversed to that in the case described above.
  • the method for setting the drive frequency is not limited to the configuration in which the drive frequency is lowered.
  • the voltage applied to the LSIex500 or the apparatus including the LSIex500 is set high.
  • the driving of the CPU ex502 is stopped.
  • the CPU ex502 is temporarily stopped because there is room in processing. Is also possible. Even when the identification information indicates that the video data is generated by the moving image encoding method or apparatus described in each of the above embodiments, if there is a margin for processing, the CPU ex502 is temporarily driven. It can also be stopped. In this case, it is conceivable to set the stop time shorter than in the case where the video data conforms to the conventional standards such as MPEG-2, MPEG4-AVC, and VC-1.
  • a plurality of video data that conforms to different standards may be input to the above-described devices and systems such as a television and a mobile phone.
  • the signal processing unit ex507 of the LSI ex500 needs to support a plurality of standards in order to be able to decode even when a plurality of video data complying with different standards is input.
  • the signal processing unit ex507 corresponding to each standard is used individually, there is a problem that the circuit scale of the LSI ex500 increases and the cost increases.
  • a decoding processing unit for executing the moving picture decoding method shown in each of the above embodiments and a decoding conforming to a standard such as MPEG-2, MPEG4-AVC, or VC-1
  • the processing unit is partly shared.
  • An example of this configuration is shown as ex900 in FIG.
  • the moving picture decoding method shown in each of the above embodiments and the moving picture decoding method compliant with the MPEG4-AVC standard are processed in processes such as entropy coding, inverse quantization, deblocking filter, and motion compensation. Some contents are common.
  • the decoding processing unit ex902 corresponding to the MPEG4-AVC standard is shared, and for the other processing content unique to the present invention not corresponding to the MPEG4-AVC standard, the dedicated decoding processing unit ex901 is used.
  • Configuration is conceivable.
  • the dedicated decoding processing unit ex901 is used for the filter processing at the boundary of the divided region, and other entropy coding, It is conceivable to share a decoding processing unit for any of the deblocking filter, motion compensation, or all processes.
  • the decoding processing unit for executing the moving picture decoding method described in each of the above embodiments is shared, and the processing content specific to the MPEG4-AVC standard As for, a configuration using a dedicated decoding processing unit may be used.
  • ex1000 in FIG. 36B shows another example in which processing is partially shared.
  • a dedicated decoding processing unit ex1001 corresponding to processing content unique to the present invention
  • a dedicated decoding processing unit ex1002 corresponding to processing content specific to other conventional standards
  • a moving picture decoding method of the present invention A common decoding processing unit ex1003 corresponding to processing contents common to other conventional video decoding methods is used.
  • the dedicated decoding processing units ex1001 and ex1002 are not necessarily specialized in the processing content specific to the present invention or other conventional standards, and may be capable of executing other general-purpose processing.
  • the configuration of the present embodiment can be implemented by LSI ex500.
  • the circuit scale of the LSI is reduced, and the cost is reduced. It is possible to reduce.
  • the image encoding method and the image decoding method of the present invention have an effect that the encoding efficiency can be further improved, and can be used for, for example, a digital camera, a digital television, a BD (Blu-ray Disc) recorder, and the like. .

Abstract

 画像復号方法は、符号化時の予測に用いた予測モードである選択予測モードを復元する復元ステップと、選択予測モードに基づいた予測に従って、符号化画像データの対象ブロックを復号することで、復号ブロックを生成する復号ステップとを含み、復元ステップは、第1の推定予測モードを決定する第1の予測モード推定ステップと、第1の推定予測モードと異なる第2の推定予測モードを決定する第2の予測モード推定ステップと、モード情報と第1の推定予測モードと第2の推定予測モードとに基づいて、選択予測モードを復元する予測モード復元ステップとを含む。

Description

画像復号方法、画像符号化方法、画像復号装置、画像符号化装置、プログラム、及び集積回路
 本発明は、より良い符号化効率で画像及び映像データを圧縮符号化する画像符号化方法と、圧縮符号化された画像及び映像データを復号する画像復号方法と、対応する画像符号化装置、画像復号装置、プログラム、及び集積回路とに関するものである。
 インターネットを介したビデオ会議、デジタルビデオ放送、及び、映像コンテンツのストリーミングを含む、例えば、ビデオ・オン・デマンドタイプのサービスのためのアプリケーションの数は右肩上がりであり、これらのアプリケーションは、映像情報の送信に頼っている。映像データが送信され、又は、記録される時、かなりの量のデータは、限られたバンド幅の従来の伝送路を通って送信され、又は、限られたデータ容量の従来の記憶媒体に記憶される。従来の伝送チャネル及び記憶媒体に映像情報を送信及び記憶するためには、デジタルデータの量を圧縮又は削減することが不可欠である。
 そこで、映像データの圧縮のために、複数の映像符号化規格が開発されている。このような映像符号化規格は、例えば、H.26xで示されるITU-T規格、及び、MPEG-xで示されるISO/IEC規格である。最新かつ最も進んだ映像符号化規格は、現在、H.264/MPEG-4 AVCで示される規格である(非特許文献1参照)。
 これらの規格のほとんどの基礎をなす符号化アプローチは、以下の(a)~(d)で示される主な段階を含む予測符号化に基づいている。
 (a)映像フレームのそれぞれをブロックレベルでデータ圧縮するために、映像フレームを画素のブロックに分割する。
 (b)先に符号化された映像データから個々のブロックを予測することで、時間的及び空間的冗長性を特定する。
 (c)映像データから予測データを減ずることで、特定された冗長性を除去する。
 (d)フーリエ変換、量子化、及び、エントロピー符号化によって、残りのデータを圧縮する。
 現在の映像符号化規格では、各マクロブロックを予測するのに用いられる予測モードがブロック毎に異なる。ほとんどの映像符号化規格は、前に符号化及び復号されたフレームから映像データを予測するために動き検出及び動き補償を用いる(インターフレーム予測)。あるいは、ブロックデータは、同じフレームの隣接するブロックから予測されてもよい(イントラフレーム予測)。H.264/AVC規格は、例えば、予測のために用いられる参照画素に対して、又は、画素が外挿される方向に対して、いくつかの異なるイントラフレーム予測モードを定義する。
 図1Aは、従来のH.264/AVC規格に従ったイントラ予測推定が適用される対象ブロックと参照画素との関係の一例を示す図である。また、図1Bは、従来のH.264/AVC規格に従ったイントラ予測モードセットに含まれる予測方向を示す図である。
 図1Aに示すように、4×4画素の対象ブロック10は、予測される対象ブロック10の上と左とに位置する13個の参照画素20を外挿することで予測される。この予測により、対象ブロック10に対応する予測ブロックが生成される。このとき、外挿を実行するために、図1Bに示される8個の取り得る外挿方向(イントラ予測方向)から1つが選択される。すなわち、8個の外挿方向のそれぞれを示す8個の方向予測モードから1つの方向予測モードが選択される。あるいは、DC予測モードが選択されてもよい。DC予測モードでは、対象ブロック10を予測するために参照画素20の平均値を用いる。
 このように複数ある予測モードのうち、どの予測モードを用いて予測するかをマクロブロック毎に選択し、選択された予測モードに関連する情報とともに、符号化された対象ブロックは、エントロピー符号化によって圧縮され、伝送される。現在の映像符号化規格では、選択された予測モードに関連する情報として、予め規格で決められたルールに基づいて推定値を予測する。例えば、H.264/AVC規格で定められたイントラ予測モードを示す情報の場合、イントラ予測モードの推定値は、既に符号化された周囲のブロックのイントラ予測モードのうち、予測の方法を示す番号の小さい番号として決められている。
 そして、予測される推定値と符号化対象の情報とが同じ場合には、同じであることを示すフラグのみを伝送する。一方、推定値と符号化対象の情報とが異なる場合には、符号化対象の情報を伝送する。例えば、イントラ予測モードの推定値と、実際に符号化時に選択された予測モードとが同じである場合は、フラグのみを伝送する。一方、異なる場合には、選択された予測モードを復元するための情報を伝送する。
 図2は、従来のH.264/AVC規格に従った画像符号化装置の構成のうち、予測モードを推定し、予測モードの符号化値を設定する設定部510の詳細な構成の一例を示す図である。また、図3は、従来のH.264/AVC規格に従った画像復号装置の構成のうち、予測モードを復元する復元部620の詳細な構成の一例を示す図である。
 図2に示すように、設定部510には、符号化モード(イントラ予測モード又はインター予測モード)を示す符号化モード情報SMDが入力される。例えば、イントラピクチャ予測符号化が符号化モードとして選択された場合、符号化モード情報SMDは、イントラ予測モードを示す情報IPMである。一方で、インターピクチャ予測符号化が符号化モードとして選択された場合、符号化モード情報SMDは、位置情報(動きベクトル)MVである。
 予測モード格納メモリ511は、入力された符号化モード情報SMDを格納するメモリである。予測モード推定部512は、予測モード格納メモリ511から入力される、既に符号化された符号化モード情報の中から、予め決められた手段で予測モード推定値候補を取得する。
 一例として、4×4画素のブロックサイズに対するH.264/AVC規格での予測モード推定部512、624において、予測モード推定値MPMの推定方法を、図1Aを用いて説明する。
 予測モード推定部512、624は、符号化及び復号ステップにおいて、4×4画素の対象ブロック10に対して、既に符号化(又は復号)済みの周囲ブロック30のイントラ予測モードIPM_Aと、周囲ブロック40のイントラ予測モードIPM_Bとを取得する。そして、下記式1のように、IPM_AとIPM_Bとの値の小さい方のモードを予測モード推定値MPMとして設定する。
 MPM=Min(PredModeA,PredModeB)・・・(式1)
 ここで、式1のPredModeA及びPredModeBはそれぞれ、隣接ブロックで用いられた予測モードを示すインデックスの番号を示し、Min()は、どちらか一方の小さいインデックスを出力する関数である。
 予測モード推定部512は、予測モード推定値候補の中から予測モード推定値MPMを決定し、決定した予測モード推定値MPMを出力する。
 モード情報生成部515は、符号化の対象ブロックの符号化モードIPMと予測モード推定値MPMとを比較する。そして、両者が同じである場合は、予測モード推定値MPMと同じであることを示すフラグを符号化予測モード関連信号SSMDにセットする。一方、両者が異なる場合には、該当する番号を除くモード信号のインデックスを符号化予測モード関連信号SSMDとして出力する。モード情報生成部515の設定方法を式2に示す。
Figure JPOXMLDOC01-appb-M000001
 式2に示すように、まず、対象ブロックの符号化モードのインデックスである符号化モードIPMと式1で算出した予測モード推定値MPMとを比較する。そして、両者が同じである場合には、予測モード推定値MPMと同じかどうかを示すフラグPrev_Intra_Pred_Mode_Flagを1にセットし、このフラグを符号化予測モード関連信号SSMDとして出力する。一方、対象ブロックの符号化モードのインデックスである符号化モードIPMと式1で算出した予測モード推定値MPMとが異なるには、Prev_Intra_Pred_Mode_Flagを0にセットし、インデックスの大きさを比較する。そして、対象ブロックの符号化モードのインデックスが予測モード推定値MPMよりも小さい場合には、対象ブロックの符号化モードを示す情報Rem_Intra_Pred_Modeに符号化モードIPMの値をセットする。一方、対象ブロックの符号化モードのインデックスが予測モード推定値MPMよりも大きい場合には、対象ブロックの符号化モードを示す情報Rem_Intra_Pred_ModeにIPMの値から1を引いた値をセットする。そして、Prev_Intra_Pred_Mode_FlagとRem_Intra_Pred_ModeとをSSMDとして出力する。
 可変長符号化部520は、符号化予測モード関連信号SSMDをエントロピー符号化し、ビットストリームとして出力する。
 また、図3に示すように、可変長復号部610は、入力されたビットストリームを復号することで、量子化周波数変換係数QTと、符号化予測モード関連情報SSMDとを出力する。
 復元部620には、符号化予測モード関連信号SSMDが入力され、符号化モード情報SMD(復号に用いられる、符号化モードMDと、イントラ予測モードIPMを示す情報又は位置情報(動きベクトル)MV)を出力する。具体的には、信号判定部621には、符号化予測モード関連信号SSMDが入力され、符号化予測モード関連信号SSMDのうち予測モード推定値MPMと同じであること示すフラグが、同じであることを示していれば、イントラ予測モードIPMを予測モード推定値MPMとして出力する。また、それ以外の場合には、符号化予測モード関連信号SSMDにさらに含まれるインデックス情報から、イントラ予測モードIPMを設定し、出力する。信号判定部621の設定方法を式3に示す。
Figure JPOXMLDOC01-appb-M000002
 式3に示すように、予測モード推定値MPMと同じかどうかを示すフラグPrev_Intra_Pred_Mode_Flagを読み出し、このフラグが0の場合にはさらに、Prev_Intra_Pred_Mode_Flagを読み出すことにより、イントラ予測モードIPMを復元する。
 予測モード格納メモリ623は、入力された符号化モードMDと、イントラ予測モードIPMを示す情報(イントラ予測ブロックサイズ、イントラ予測方向など)又は位置情報(動きベクトル)MVとを格納するメモリである。予測モード推定部624は、予測モード格納メモリ623から、既に復号された符号化モードMDと、イントラ予測モードIPMを示す情報又は位置情報(動きベクトル)MVとの中から、式1に示すように予め決められた手段で複数の予測モード推定値候補を取得する。
 予測モード推定部624は、複数の予測モード推定値候補の中から、予測モード推定値MPMを決定し、決定した予測モード推定値MPMを出力する。
 一方、エッジ検出を利用した、映像データの圧縮のための映像符号化方法も提案されており、エッジ検出が符号化装置及び復号装置に含まれることもある(非特許文献2)。
 この方法では、H.264/AVC規格に従ったイントラ方向予測に加えて、エッジ検出によって得られる角度に基づいて、参照画素20を外挿することで予測される方法により、対象ブロック10に対応する予測ブロックが生成される。また、非特許文献2では、エッジ検出の使用の有無を、参照画素20の平均値を用いるDC予測モードに置き換えている。すなわち、DC予測とエッジ予測とを示すイントラ予測モードIPMのインデックスは同じものとされ、エッジ検出の結果、一定の条件を満たす場合、エッジ検出によって得られる角度に基づき予測ブロックを生成する。一方、一定の条件を満たさない場合、平均値を用いて予測ブロックを生成する。ここで、一定の条件とは、エッジ検出されたベクトルの大きさが一定値を超えるかどうかが用いられる。
ISO/IEC 14496-10「MPEG-4 Part 10 Advanced Video Coding」 2008 IEEE International Conference on Image Processing「HIGH PRECISION EDGE PREDICTION FOR INTRA CODING」
 しかしながら、上記従来技術では、以下に示す課題がある。
 上記従来技術では、方向予測モードとDC予測モードとのインデックスが固定されているため、非特許文献2のようにエッジ予測モードとDC予測モードとを一つの符号で表す場合に、符号量が多くなる、または、符号化画像内に歪みが生じるという課題がある。具体的には、以下の通りである。
 従来のH.264/AVC規格で定められたイントラ予測モード推定では、候補となる予測モードは、対象ブロックの周囲ブロックの符号化に用いられた予測モードである。予測モード推定部512、624において、予測モード推定値は、予測モード候補のモード番号(図1Bに示す番号、及び、平均値予測(DC予測モード)を示す番号2)の小さい番号のものが選択される。
 したがって、対象ブロック10の推定予測モードは、周囲ブロック30、40のいずれかの予測モードと一致する。しかし、非特許文献2のようにエッジ予測モードとDC予測モードとを一つの符号で表す場合には、周囲のブロック30、40の予測モードが、DC予測として用いられたか、エッジ予測として用いられたかを表現できず、対象ブロック10の予測モードがエッジ予測モードである場合に推定予測モードと一致しにくい。すなわち、復号器側に送信すべき、予測モードを示す情報の符号量は大きくなる。
 そこで、本発明は、上記課題を解決するためになされたものであって、より高い符号化効率が達成され、かつ、多大な処理量を必要としないように、画像データ及び映像データを符号化する画像符号化方法、及び、符号化された画像及び映像データを復号する画像復号方法を提供することを目的とする。
 本発明の一形態に係る画像復号方法は、予測モードに基づいた予測に従って画像データをブロック毎に符号化することで生成された符号化画像データを復号する方法である。具体的には、画像復号方法は、符号化時に実行された予測モードの推定結果を示すモード情報に基づいて、符号化時の予測に用いた予測モードである選択予測モードを復元する復元ステップと、前記選択予測モードに基づいた予測に従って、前記符号化画像データの対象ブロックを復号することで、復号ブロックを生成する復号ステップとを含む。前記復元ステップは、複数の予測モードから1つの予測モードを第1の推定予測モードとして決定する第1の予測モード推定ステップと、複数の予測モードから、前記第1の推定予測モードと異なる1つの予測モードを第2の推定予測モードとして決定する第2の予測モード推定ステップと、前記モード情報と前記第1の推定予測モードと前記第2の推定予測モードとに基づいて、前記選択予測モードを復元する予測モード復元ステップとを含む。
 これにより、選択予測モードを復元する際に、少ない符号量でモード情報を伝送することが可能となる。これにより、符号化効率を高めることができ、符号化歪みを抑制することができる。
 また、前記モード情報は、前記選択予測モードと前記第1及び第2の推定予測モードとの比較結果を示すフラグ情報を、少なくとも含んでもよい。前記予測モード復元ステップでは、前記フラグ情報が前記選択予測モードと前記第1の推定予測モードとが一致していることを示す場合に、前記第1の推定予測モードを前記選択予測モードと決定し、前記フラグ情報が前記選択予測モードと前記第2の推定予測モードとが一致していることを示す場合に、前記第2の推定予測モードを前記選択予測モードと決定し、前記フラグ情報が前記選択予測モードと前記第1及び第2の推定予測モードとが一致していないことを示す場合に、前記モード情報にさらに含まれる前記選択予測モードを特定する情報に基づいて、前記選択予測モードを復元してもよい。
 また、前記モード情報は、符号化時の予測に用いた予測モードと符号化時に推定された予測モードとが一致したことを示すフラグ情報、又は、前記フラグ情報と、符号化時の予測に用いた予測モードとを示す情報であり、前記予測モード復元ステップは、まず第1の推定予測モードに対応する第1のフラグ情報を復号し、前記第1のフラグ情報が、符号化時の予測に用いた予測モードと符号化時に推定された予測モードとが一致したことを示す場合、前記第1の推定予測モードを前記選択予測モードとして決定し、前記第1のフラグ情報が、符号化時の予測に用いた予測モードと符号化時に推定された予測モードとが一致しないことを示す場合、第2の推定予測モードに対応する第2のフラグ情報を復号し、前記第2のフラグ情報が、符号化時の予測に用いた予測モードと符号化時に推定された予測モードとが一致したことを示す場合、前記第2の推定予測モードを前記選択予測モードとして決定し、前記第2のフラグ情報が、符号化時の予測に用いた予測モードと符号化時に推定された予測モードとが一致しないことを示す場合、選択モード符号化情報を復号し、前記選択モード符号化情報と、前記推定予測モードとの大小を比較することで、前記選択予測モードを復元してもよい。
 また、前記第1の推定予測モードと前記第2の推定予測モードとのいずれかが、DC・エッジ予測を示すモードであってもよい。
 また、前記第1の予測モード推定ステップでは、前記対象ブロックに隣接し、且つ既に復号された複数のブロックの選択予測モードのうち、インデックス番号の最も小さい予測モードを前記第1の予測モードと決定してもよい。
 また、前記第2の予測モード推定ステップでは、前記第1の推定予測モードがプラーナモードである場合に、前記第2の推定予測モードをDC予測モードと決定し、前記第1の推定予測モードがプラーナモードでない場合に、前記第2の推定予測モードをプラーナモードと決定してもよい。
 さらに、前記復元ステップは、既に生成された復号ブロック内のエッジを検出するエッジ検出ステップと、前記エッジ検出ステップにおいて検出されたエッジに基づいて、DC・エッジ予測モードがDC予測を示すか、エッジ予測を示すかを判断するDC・エッジ予測判定ステップとを含んでもよい。
 また、前記第1の推定予測モードと前記第2の推定予測モードとのいずれかが、前記エッジ検出ステップにおいて検出されたエッジ方向によって推定されてもよい。
 本発明の一形態に係る画像符号化方法は、画像データをブロック毎に符号化する方法である。具体的には、画像符号化方法は、予め定められた複数の予測モード候補の中から選択された選択予測モードに基づいた予測に従って、前記画像データの対象ブロックを符号化する符号化ステップと、符号化された対象ブロックを復号することで、復号ブロックを生成する復号ステップと、複数の予測モードから1つの予測モードを第1の推定予測モードとして決定する第1の予測モード推定ステップと、複数の予測モードから、前記第1の推定予測モードと異なる1つの予測モードを第2の推定予測モードとして決定する第2の予測モード推定ステップと、前記選択予測モードを復元するためのモード情報を、前記符号化された対象ブロックとともに出力する出力ステップとを含む。そして、前記出力ステップは、前記第1の推定予測モードと前記第2の推定予測モードと前記選択予測モードとに基づいて前記モード情報を生成するモード情報生成ステップを含む。
 また、前記モード情報生成ステップでは、前記選択予測モードが前記第1及び第2の推定予測モードのいずれかと一致する場合に、どちらと一致するのかを示すフラグ情報を前記モード情報として生成し、前記選択予測モードが前記第1及び第2の推定予測モードのどちらとも一致しない場合に、どちらとも一致しないことを示すフラグ情報と、前記選択予測モードを特定する情報とを前記モード情報として生成してもよい。
 また、前記モード情報生成ステップでは、まず、前記第1の推定予測モードと前記選択予測モードとを比較し、一致するかどうかを示す第1のフラグ情報を前記モード情報として生成し、前記第1の推定予測モードと前記選択予測モードとが一致しない場合には、さらに前記第2の推定予測モードと前記選択予測モードとを比較し、一致するかどうかを示す第2のフラグ情報を前記モード情報として生成し、前記第2の推定予測モードと前記選択予測モードとが一致しない場合には、前記選択予測モードと、前記推定予測モードとに基づいて、選択予測モード情報を前記モード情報として生成してもよい。
 また、前記第1の推定予測モードと前記第2の推定予測モードとのいずれかが、DC・エッジ予測を示すモードであってもよい。
 また、前記第1の予測モード推定ステップでは、前記対象ブロックに隣接し、且つ既に符号化された複数のブロックの選択予測モードのうち、インデックス番号の最も小さい予測モードを前記第1の予測モードと決定してもよい。
 また、前記第2の予測モード推定ステップでは、前記第1の推定予測モードがプラーナモードである場合に、前記第2の推定予測モードをDC予測モードと決定し、前記第1の推定予測モードがプラーナモードでない場合に、前記第2の推定予測モードをプラーナモードと決定してもよい。
 さらに、前記モード情報生成ステップは、既に生成された復号ブロック内のエッジを検出するエッジ検出ステップと、前記エッジ検出ステップにおいて検出されたエッジに基づいて、DC・エッジ予測モードがDC予測を示すか、エッジ予測を示すかを判断するDC・エッジ予測判定ステップとを含んでもよい。
 また、前記第1の推定予測モードと前記第2の推定予測モードとのいずれかが、前記エッジ検出ステップにおいて検出されたエッジ方向によって推定されてもよい。
 本発明の一形態に係る画像復号装置は、予測モードに基づいた予測に従って画像データをブロック毎に符号化することで生成された符号化画像データを復号する。具体的には、画像復号装置は、符号化時に実行された予測モードの推定結果を示すモード情報に基づいて、符号化時の予測に用いた予測モードである選択予測モードを復元する復元部と、前記選択予測モードに基づいた予測に従って、前記符号化画像データの対象ブロックを復号することで、復号ブロックを生成する復号部とを備える。そして、前記復元部は、複数の予測モードから1つの予測モードを第1の推定予測モードとして決定する第1の予測モード推定部と、複数の予測モードから、前記第1の推定予測モードと異なる1つの予測モードを第2の推定予測モードとして決定する第2の予測モード推定部と、前記モード情報と前記第1の推定予測モードと前記第2の推定予測モードとに基づいて、前記選択予測モードを復元する予測モード復元部とを備える。
 本発明の一形態に係る画像符号化装置は、画像データをブロック毎に符号化する。具体的には、画像符号化装置は、予め定められた複数の予測モード候補の中から選択された選択予測モードに基づいた予測に従って、前記画像データの対象ブロックを符号化する符号化部と、符号化された対象ブロックを復号することで、復号ブロックを生成する復号部と、複数の予測モードから1つの予測モードを第1の推定予測モードとして決定する第1の予測モード推定部と、複数の予測モードから、前記第1の推定予測モードと異なる1つの予測モードを第2の推定予測モードとして決定する第2の予測モード推定部と、前記選択予測モードを復元するためのモード情報を、前記符号化された対象ブロックとともに出力する出力部とを備える。そして、前記出力部は、前記第1の推定予測モードと前記第2の推定予測モードと前記選択予測モードとに基づいて前記モード情報を生成するモード情報生成部を備える。
 本発明の一形態に係るプログラムは、コンピュータに、予測モードに基づいた予測に従って画像データをブロック毎に符号化することで生成された符号化画像データを復号させる。具体的には、プログラムは、符号化時に実行された予測モードの推定結果を示すモード情報に基づいて、符号化時の予測に用いた予測モードである選択予測モードを復元する復元ステップと、前記選択予測モードに基づいた予測に従って、前記符号化画像データの対象ブロックを復号することで、復号ブロックを生成する復号ステップとを、コンピュータに実行させる。そして、前記復元ステップは、複数の予測モードから1つの予測モードを第1の推定予測モードとして決定する第1の予測モード推定ステップと、複数の予測モードから、前記第1の推定予測モードと異なる1つの予測モードを第2の推定予測モードとして決定する第2の予測モード推定ステップと、前記モード情報と前記第1の推定予測モードと前記第2の推定予測モードとに基づいて、前記選択予測モードを復元する予測モード復元ステップとを含む。
 本発明の他の形態に係るプログラムは、コンピュータに、画像データをブロック毎に符号化させる。具体的には、プログラムは、予め定められた複数の予測モード候補の中から選択された選択予測モードに基づいた予測に従って、前記画像データの対象ブロックを符号化する符号化ステップと、符号化された対象ブロックを復号することで、復号ブロックを生成する復号ステップと、複数の予測モードから1つの予測モードを第1の推定予測モードとして決定する第1の予測モード推定ステップと、複数の予測モードから、前記第1の推定予測モードと異なる1つの予測モードを第2の推定予測モードとして決定する第2の予測モード推定ステップと、前記選択予測モードを復元するためのモード情報を、前記符号化された対象ブロックとともに出力する出力ステップとを、コンピュータに実行させる。そして、前記出力ステップは、前記第1の推定予測モードと前記第2の推定予測モードと前記選択予測モードとに基づいて前記モード情報を生成するモード情報生成ステップを含む。
 本発明の一形態に係る集積回路は、予測モードに基づいた予測に従って画像データをブロック毎に符号化することで生成された符号化画像データを復号する。具体的には、集積回路は、符号化時に実行された予測モードの推定結果を示すモード情報に基づいて、符号化時の予測に用いた予測モードである選択予測モードを復元する復元部と、前記選択予測モードに基づいた予測に従って、前記符号化画像データの対象ブロックを復号することで、復号ブロックを生成する復号部とを備える。そして、前記復元部は、複数の予測モードから1つの予測モードを第1の推定予測モードとして決定する第1の予測モード推定部と、複数の予測モードから、前記第1の推定予測モードと異なる1つの予測モードを第2の推定予測モードとして決定する第2の予測モード推定部と、前記モード情報と前記第1の推定予測モードと前記第2の推定予測モードとに基づいて、前記選択予測モードを復元する予測モード復元部とを備える。
 本発明の他の形態に係る集積回路は、画像データをブロック毎に符号化する。具体的には、集積回路は、予め定められた複数の予測モード候補の中から選択された選択予測モードに基づいた予測に従って、前記画像データの対象ブロックを符号化する符号化部と、符号化された対象ブロックを復号することで、復号ブロックを生成する復号部と、複数の予測モードから1つの予測モードを第1の推定予測モードとして決定する第1の予測モード推定部と、複数の予測モードから、前記第1の推定予測モードと異なる1つの予測モードを第2の推定予測モードとして決定する第2の予測モード推定部と、前記選択予測モードを復元するためのモード情報を、前記符号化された対象ブロックとともに出力する出力部とを備える。そして、前記出力部は、前記第1の推定予測モードと前記第2の推定予測モードと前記選択予測モードとに基づいて前記モード情報を生成するモード情報生成部を備える。
 なお、本発明は、画像符号化方法及び画像復号方法として実現できるだけではなく、当該画像符号化方法及び画像復号方法に含まれるそれぞれのステップを処理部とする画像符号化装置及び画像復号装置として実現することもできる。また、これらステップをコンピュータに実行させるプログラムとして実現してもよい。さらに、当該プログラムを記録したコンピュータ読み取り可能なCD-ROM(Compact Disc-Read Only Memory)などの記録媒体、並びに、当該プログラムを示す情報、データ又は信号として実現してもよい。そして、それらプログラム、情報、データ及び信号は、インターネットなどの通信ネットワークを介して配信してもよい。
 また、上記の画像符号化装置及び画像復号装置を構成する構成要素の一部又は全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されていてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM及びRAM(Random Access Memory)などを含んで構成されるコンピュータシステムである。
 本発明によれば、予測モード推定値をより正確に予測することができるので、予測モードの符号量を削減し、符号化効率を高めることができる。
図1Aは、従来のH.264/AVC規格に従ったイントラ予測推定が適用される対象ブロックと参照画素との関係の一例を示す図である。 図1Bは、従来のH.264/AVC規格に従ったイントラ予測モードセットに含まれる予測方向を示す図である。 図2は、従来のH.264/AVC規格に従った画像符号化装置の構成のうち、推定部の詳細な構成の一例を示す図である。 図3は、従来のH.264/AVC規格に従った画像復号装置の構成のうち、復元部の詳細な構成の一例を示す図である。 図4は、実施の形態1の画像符号化装置の構成の一例を示すブロック図である。 図5は、実施の形態1のハイブリッド符号化を行う画像符号化装置の詳細な構成の一例を示すブロック図である。 図6Aは、実施の形態1の画像符号化装置が備える設定部の詳細な構成の一例を示すブロック図である。 図6Bは、実施の形態1の画像符号化装置が備える設定部の詳細な構成の他の例を示すブロック図である。 図7Aは、実施の形態1の画像符号化装置が備える設定部の動作の一例を示すフローチャートである。 図7Bは、実施の形態1の画像符号化装置が備える設定部の動作の他の例を示すフローチャートである。 図8は、実施の形態1の画像符号化装置が備える設定部の動作のさらに他の例を示すフローチャートである。 図9は、実施の形態2の画像復号装置の構成の一例を示すブロック図である。 図10は、実施の形態2の画像復号装置の詳細な構成の一例を示すブロック図である。 図11Aは、実施の形態2の画像復号装置が備える復元部の詳細な構成の一例を示すブロック図である。 図11Bは、実施の形態2の画像復号装置が備える復元部の詳細な構成の他の例を示すブロック図である。 図12Aは、実施の形態2の画像復号装置が備える復元部の動作の一例を示すフローチャートである。 図12Bは、実施の形態2の画像復号装置が備える復元部の動作の他の例を示すフローチャートである。 図13は、実施の形態2の画像復号装置が備える復元部の動作のさらに他の例を示すフローチャートである。 図14は、実施の形態3の画像符号化装置が備える設定部の詳細な構成の一例を示すブロック図である。 図15は、実施の形態3の画像復号装置が備える復元部の詳細な構成の一例を示すブロック図である。 図16は、実施の形態3の画像符号化装置が備える設定部の動作の一例を示すフローチャートである。 図17は、実施の形態3の画像復号装置が備える復元部の動作の一例を示すフローチャートである。 図18は、本実施の形態におけるエッジの検出対象の一例を示す概略図である。 図19は、コンテンツ配信サービスを実現するコンテンツ供給システムの全体構成図である。 図20は、デジタル放送用システムの全体構成図である。 図21は、テレビの構成例を示すブロック図である。 図22は、光ディスクである記録メディアに情報の読み書きを行う情報再生/記録部の構成例を示すブロック図である。 図23は、光ディスクである記録メディアの構造例を示す図である。 図24は、多重化データの構成を示す図である。 図25は、各ストリームが多重化データにおいてどのように多重化されているかを模式的に示す図である。 図26は、PESパケット列に、ビデオストリームがどのように格納されるかを更に詳しく示した図である。 図27は、多重化データにおけるTSパケットとソースパケットの構造を示す図である。 図28は、PMTのデータ構成を示す図である。 図29は、多重化データ情報の内部構成を示す図である。 図30は、ストリーム属性情報の内部構成を示す図である。 図31は、映像データを識別するステップを示す図である。 図32は、各実施の形態の動画像符号化方法および動画像復号化方法を実現する集積回路の構成例を示すブロック図である。 図33は、駆動周波数を切り替える構成を示す図である。 図34は、映像データを識別し、駆動周波数を切り替えるステップを示す図である。 図35は、映像データの規格と駆動周波数を対応づけたルックアップテーブルの一例を示す図である。 図36(a)は、信号処理部のモジュールを共有化する構成の一例を示す図であり、図36(b)は、信号処理部のモジュールを共有化する構成の他の一例を示す図である。
 (実施の形態1)
 本実施の形態の画像符号化装置は、画像及び映像データを符号化する際に、対象ブロックの周囲に位置する周囲ブロックに含まれるエッジを検出し、検出したエッジに基づいてイントラ予測をするエッジ予測モードと、周囲に位置する画素の平均値に基づいてイントラ予測をするDC予測モードとを同じ信号(DC・エッジ予測モード)で表現する場合に、複数の推定予測モードを決定し、モード信号を符号化することを特徴とする。
 つまり、本実施の形態では、複数の推定予測モードを決定し、符号化する際にDC・エッジ予測モードを短い符号で表現することにより、DC・エッジ予測モードに対する符号量を抑制することができる。
 まず、本実施の形態の画像符号化装置の構成について説明する。
 図4は、本実施の形態の画像符号化装置100の構成の一例を示すブロック図である。
 画像符号化装置100は、入力される画像及び映像データをブロック毎に符号化する。図4に示すように、画像符号化装置100は、符号化部110と、復号部120と、出力部130と、設定部140とを備える。
 符号化部110は、画像及び映像データを構成する複数のブロックの1つである対象ブロックを、複数の予測モード候補から選択された選択予測モードを用いた予測に従って符号化する。
 複数の予測モード候補は、予測を行う際に選択されうる全ての予測モードであり、例えば、予め定義された8つの方向予測モード(図1B参照)、参照画素の平均値を利用するDC予測モード、周囲ブロック内に検出されたエッジの方向を示すエッジ予測モードなどを含んでいる。予測モードとは、予測画像を参照するための画像の参照先を示す情報である。
 なお、複数の予測モード候補は上記の例に限定されない。例えば、最大33個の方向予測モードと、DC予測モードと、プラーナモードとを含んでもよい。なお、方向予測モードの数は、対象ブロックのブロックサイズに応じて可変にすることができる。例えば、対象ブロックが4画素×4画素の場合には18方向、8画素×8画素~32画素×32画素の場合は33方向、64画素×64画素の場合は2方向としてもよい。
 また、プラーナモードとは、周辺画素の各画素値に予測画素までの距離に応じた重みを乗じて加算することにより、対象ブロックの各画素を予測するモードである。例えば、図1Aにおいて、ブロック30の右上の画素と、ブロック40の右下の画素とでブロック10の右上の画素の画素値を予測する場合、ブロック40の右下の画素の画素値に乗じる重みを、ブロック30の右上の画素の画素値に乗じる重みより大きくする。
 復号部120は、符号化部110によって符号化された対象ブロックを復号することで、復号ブロックを生成する。
 出力部130は、符号化部110によって用いられた選択予測モードを復元するためのモード情報を、符号化部110によって符号化された対象ブロックとともに、ビットストリームとして出力する。
 設定部140は、複数の推定予測モードを決定し、決められた複数の推定予測モードを用いて対象ブロックの符号化に用いられる予測モードである選択予測モードに対するモード情報を生成する。ここでは、2つの推定予測モードに基づいてモード情報を生成する場合について説明する。図4に示すように、設定部140は、第1の予測モード推定部141と、第2の予測モード推定部142と、モード情報生成部143とを備える。
 第1の予測モード推定部141は、既に符号化されている周囲ブロックの予測モードから推定予測モードを決定する。例えば、式1に示す方法を利用してもよい。
 第2の予測モード推定部142は、第1の予測モード推定部141で決められたもの以外の推定予測モードを決定する。
 モード情報生成部143は、第1の予測モード推定部141および第2の予測モード推定部142によって設定された推定予測モードと、符号化部110によって選択された選択予測モードとに基づいてモード情報を生成する。以上の構成により、本実施の形態の画像符号化装置100は、推定予測モードを決定し、符号化する際に推定予測モードによって、DC・エッジ予測モードを短い符号で表現するように更新することを特徴とする。
 以下では、本実施の形態の画像符号化装置100が備える各処理部の詳細な構成及び動作について説明する。
 図5は、本実施の形態の画像符号化装置100の詳細な構成の一例を示すブロック図である。画像符号化装置100は、ハイブリッド符号化を行う画像符号化装置である。
 図5に示すように、画像符号化装置100は、符号化部110と、復号部120と、出力部130と、設定部140と、フレームメモリ150と、参照ピクチャメモリ160と、制御部170とを備える。なお、図4と同じ構成については、同じ参照符号を付している。
 また、図5に示すように、符号化部110は、減算部111と、周波数変換部112と、量子化部113と、イントラ予測モード決定部114と、動き検出部115と、イントラ予測部116と、動き補償部117と、スイッチ118、119とを備える。復号部120は、逆量子化部121と、逆周波数変換部122と、加算部123とを備える。出力部130は、可変長符号化部131を備える。
 なお、設定部140の詳細な構成については、図6A及び図6Bを用いて後で説明する。
 以下では、画像符号化装置100が複数のフレームから構成される入力映像データを符号化するときの動作に沿って、各処理部の処理について説明する。
 入力映像データの各ピクチャは、フレームメモリ150に格納される。各ピクチャは、複数のブロックに分割され、フレームメモリ150からブロック単位で(例えば、水平16画素、垂直16画素のマクロブロック単位で)出力される。なお、入力映像データは、プログレッシブ形式及びインターレース形式のいずれでもよい。
 各マクロブロックは、イントラ予測モード又はインター予測モードのいずれかで符号化される。まず、対象マクロブロックがイントラ予測モードで符号化される場合について説明する。
 イントラ予測モード(イントラフレーム予測)の場合、フレームメモリ150から出力されたマクロブロックは、イントラ予測モード決定部114に入力される(このとき、スイッチ118は、制御部170によって端子“a”に接続される)。イントラ予測モード決定部114は、入力されたマクロブロックにどのようにイントラ予測を実行するかを決定する。
 具体的には、イントラ予測モード決定部114は、イントラ予測モード(IPM:Intra-Prediction Mode)として、イントラ予測ブロックサイズ(以下のサイズの1つ:水平4画素×垂直4画素、水平8画素×垂直8画素、水平16画素×垂直16画素)と、イントラ予測方向とを決定する必要がある。例えば、イントラ予測モード決定部114は、対象ブロックを符号化することで発生する符号量が所定の閾値より小さくなるような、イントラ予測ブロックサイズ及びイントラ予測方向を決定する。より好ましくは、イントラ予測モード決定部114は、発生する符号量が最も小さくなるような、イントラ予測ブロックサイズ及びイントラ予測方向を決定する。
 例えば、図1Aに示す対象ブロック10(水平4画素×垂直4画素)は、参照画素20を用いて、8つの予め定義されたイントラ予測方向のいずれか1つに従って、予測されてもよい。ここで、イントラ予測に用いられる参照画素20(図1Aで対角方向の網掛けされた四角)は、既に符号化及び復号され、参照ピクチャメモリ160に格納されている。決定されたイントラ予測モードIPMを示す情報は、イントラ予測部116と設定部140とに出力される。
 イントラ予測部116は、イントラ予測モード決定部114によって決定されたイントラ予測モードIPMに基づいて、参照ピクチャメモリ160からイントラ予測に用いられる参照画素(イントラ参照画素)を取得する。そして、イントラ予測部116は、参照画素の画素値からイントラ予測された画像IPを生成し、生成したイントラ予測画像IPを減算部111に出力する(このとき、スイッチ119は、制御部170によって端子“a”に接続される)。
 減算部111は、フレームメモリ150から入力映像データに含まれるピクチャのマクロブロック(対象マクロブロック)と、イントラ予測部116によって生成されたイントラ予測画像IPとを受け取る。そして、減算部111は、対象マクロブロックとイントラ予測画像IPとの差分(予測残差とも記載)を算出することで差分画像を生成し、生成した差分画像を周波数変換部112に出力する。
 周波数変換部112は、減算部111によって生成された差分画像に、離散コサイン変換などの周波数変換を実行することで周波数変換係数を生成し、生成した周波数変換係数を出力する。
 量子化部113は、周波数変換部112によって生成された周波数変換係数の量子化を行い、量子化された周波数変換係数QTを出力する。ここで、量子化は、予め定められた値(量子化ステップ)によって周波数変換係数を割り算する処理である。この量子化ステップは、制御部170によって与えられるものとする(量子化ステップは、制御部170に入力される制御信号CTLに含まれてもよい)。量子化周波数変換係数QTは、可変長符号化部131と逆量子化部121とに出力される。
 逆量子化部121は、量子化周波数変換係数QTを逆量子化し、逆量子化した周波数変換係数を逆周波数変換部122に出力する。このとき、量子化部113による量子化時に用いられた量子化ステップと同じ量子化ステップが、制御部170から逆量子化部121に入力される。
 逆周波数変換部122は、逆量子化された周波数変換係数を逆周波数変換することで復号された差分画像LDDを生成する。逆周波数変換部122は、生成した復号差分画像LDDを加算部123に出力する。
 加算部123は、復号差分画像LDDをイントラ予測画像IP(又は、インター予測モードの場合は、後述するインター予測画像)MPに加算することで、復号画像LDを生成する。加算部123は、生成した復号画像LDを参照ピクチャメモリ160に格納する。参照ピクチャメモリ160に格納された復号画像LDは、参照画像として後の符号化に用いられる。
 可変長符号化部131は、量子化部113から入力される量子化周波数変換係数QTに可変長符号化を実行し、かつ、イントラ予測モード決定部114から設定部140を介して入力されるイントラ予測モードIPMを示す情報を同様に処理し、符号化シーケンスとしても参照されるビットストリームを出力する。前述の通り、設定部140の詳細な構成については、図6A及び図6Bを用いて後で説明する。
 ここで、可変長符号化部131が用いる可変長符号化方法の1つの方法として、動画像を符号化する国際規格H.264で採用されるコンテキスト適応型算術符号化方法がある。コンテキスト適応型算術符号化方法は、可変長符号化の対象データと、既に可変長符号化(コンテキスト適応型)が実行されたデータとに従って、算術符号化するために用いられる確率テーブルを切り替える方法である。この場合、可変長符号化部131は確率テーブルを保持するメモリを備える。
 なお、可変長符号化部131は、コンテキスト適応型可変長符号化方法を用いて、量子化周波数変換係数QTを可変長符号化してもよい。
 次に、対象マクロブロックがインター予測モードで符号化される場合について説明する。
 インター予測モード(インターフレーム予測)の場合、フレームメモリ150から出力されるマクロブロックは、動き検出部115に入力される(このとき、スイッチ118は、制御部170によって端子“b”に接続される)。動き検出部115は、入力されたマクロブロックの、参照ピクチャ(参照ピクチャメモリ160に保持された再構成されたピクチャで、符号化されるピクチャとは異なるピクチャ)に対する動き情報(位置情報(動きベクトル))を検出する。
 なお、動き検出では、以下に示す位置情報(動きベクトル)が一般的には動き情報として検出される。すなわち、符号化される対象ブロックと予測画像との最小差分値と、位置情報(動きベクトル)の符号量の重みの最小和とを有する位置情報(動きベクトル)である。検出された位置情報(動きベクトル)は、対象ブロックに対する動き情報として、動き補償部117と設定部140とに出力される。
 動き補償部117は、動き検出部115によって検出された動き情報(位置情報(動きベクトル))に基づいて、インター予測に用いられる参照画素(インター参照画素)を参照ピクチャメモリ160から取得する。そして、動き補償部117は、インター予測画像MPを生成し、生成したインター予測画像MPを減算部111に出力する(このとき、スイッチ119は、制御部170によって端子“b”に接続される)。
 減算部111と、周波数変換部112と、量子化部113と、逆量子化部121と、逆周波数変換部122と、加算部123とによって実行される処理は、イントラ予測の場合に説明した処理と同じである。それゆえに、これらの処理についての説明はここでは省略する。
 可変長符号化部131は、量子化部113から入力される量子化周波数変換係数QTに可変長符号化を実行し、かつ、設定部140から出力される符号化モードMDを示す情報とイントラ予測モードIPM又は動き情報(位置情報(動きベクトル))MVを示す情報とを含むモード情報とに可変長符号化を実行し、ビットストリームを出力する。前述の通り、設定部140の詳細な構成については、図6A及び図6Bを用いて後で説明する。
 ここで、可変長符号化部131が、コンテキスト適応型算術符号化を用いて動き情報(位置情報(動きベクトル))MVを符号化する場合、可変長符号化部131は確率テーブルを保持するメモリを備える。
 モード情報は、映像データを符号化する処理において符号化器(画像符号化装置100)側で実行された予測を復号器(例えば、後述する画像復号装置300(図9参照))側で再現するために、復号器によって必要とされる情報のフルセットを含む。それゆえに、モード情報は、マクロブロック毎に符号化モード、すなわち、イントラ予測及びインター予測のいずれが適用されたかを定義する。さらに、モード情報は、マクロブロックがどのようにサブ分割されたかについての情報を含む。H.264/AVCによると、16×16画素からなるマクロブロックは、例えば、イントラ予測の場合に、さらに、8×8又は4×4画素のブロックにサブ分割されてもよい。
 符号化モードに依存して、モード情報は、さらに、動き補償に用いられる位置情報(位置情報(動きベクトル))のセット、又は、対象ブロックをイントラ予測するのに適用されたイントラ予測モードを特定する情報を含んでいる。
 なお、符号化モード(イントラ予測モード又はインター予測モード)の選択は、制御部170が行っている。
 例えば、制御部170は、イントラ予測モードIPMと復号画像LDとに基づいて生成されるインター予測画像IP、又は、位置情報(動きベクトル)MVと復号画像LDとに基づいて生成されるインター予測画像MPと、対象ブロック画像IMGとをそれぞれ比較することで、符号化モードを選択する。制御部170は、一般的に、生成されるビット量と符号化歪みとの重み和が最も小さくなる値を有する符号化モードを選択する。
 例えば、制御部170は、H.264規格のビットレートと符号化歪みとを用いたコスト関数が、対象ブロックを符号化するための最良の予測モードを決定するために用いられてもよい。それぞれの予測モードに対して、差分画像が、直交変換され、量子化され、可変長符号化される。そして、それぞれの予測モードに対して、ビットレートと符号化歪みとが計算される。なお、コスト関数として、例えば、式4で示されるラグランジュコスト関数Jが用いられる。
 J=D+λ・R・・・・・(式4)
 式4において、Rは、差分画像(予測残差とも記載)と予測モード情報とを符号化するのに用いられるビットレートである。Dは、符号化歪みである。λは、符号化するのに選択される量子化パラメータQPに応じて算出されるラグランジュ乗数である。制御部170は、コスト関数Jが最も低くなる予測モードを、対象ブロックを予測する際の予測モードとして選択する。
 なお、制御部170は、最適な予測モードを選択するためにコスト関数Jを一時的に格納するメモリを備える。
 図6A及び図6Bは、本実施の形態の設定部140の詳細な構成の一例を示す図である。同図に示すように、設定部140は、第1の予測モード推定部141と、第2の予測モード推定部142と、モード情報生成部143とを備える。なお、図4と同じ構成については、同じ参照符号を付している。
 図6Aに示される第1の予測モード推定部141は、予測モード格納メモリ211と、第1の予測モード推定導出部212とを備える。
 なお、設定部140には、制御部170によって選択された符号化モード(イントラ予測モード又はインター予測モード)を示す符号化モード情報SMDが入力される。例えば、イントラピクチャ予測符号化が符号化モードとして選択された場合、符号化モード情報SMDは、イントラ予測モードIPMを示す情報(イントラ予測ブロックサイズ、イントラ予測方向など)である。一方で、インターピクチャ予測符号化が符号化モードとして選択された場合、符号化モード情報SMDは、位置情報(動きベクトル)MVである。
 予測モード格納メモリ211は、入力された符号化モード情報SMDを格納するメモリである。第1の予測モード推定導出部212は、予測モード格納メモリ211から、既に符号化された符号化モード情報の中から、予め決められた手段で予測モードを推定した結果である第1の推定予測モードMPMを導出し、モード情報生成部143に対して出力する。
 ここで、第1の推定予測モードMPMの導出方法としては、例えば前述の式1で示すように、符号化対象ブロックの上部に隣接する既に符号化されたブロックの予測モードと、符号化対象ブロックの左部に隣接する既に符号化されたブロックの予測モードとのうち、予測モードに対応するインデックス番号が小さいものを第1の推定予測モードMPMとして用いても良い。また、符号化対象ブロックの左上や右上に隣接するブロックの予測モードをさらに参照し、出現頻度の高いものを第1の推定予測モードMPMとして導出してもよい。第1の推定予測モードMPMの導出としては、最も発生されると推測される予測モードの導出方法であれば、前述の方法に限らない。
 なお、ブロックサイズに応じて方向予測モードのモード数が異なる場合には、符号化対象ブロックで選択し得る方向予測モードのうち、上記の方法で選ばれた推定予測モードに最も近い方向予測モードを、第1の推定予測モードMPMとすればよい。
 第2の予測モード推定部142は、モード情報生成部143から制御信号を取得し、予め決められた方法で設定した第2の予測モードの推定値である第2の推定予測モードSPMをモード情報生成部143に対して出力する。
 ここで第2の推定予測モードSPMをDC・エッジ予測とすることにより、複数の予測モードを意味する1つのモード情報を効率よく符号化及び復号することを可能とする。
 モード情報生成部143は、第1の推定予測モードMPMと、第2の推定予測モードSPMと、符号化部110によって選択された選択予測モードSMDとに基づいてモード情報を生成し、符号化予測モード関連信号SSMDとして可変長符号化部131に対して出力する。可変長符号化部131は、符号化予測モード関連信号SSMDを可変長符号化処理し、ビットストリームとして出力する。
 図7Aは、図6Aで示した第1の予測モード推定部141、第2の予測モード推定部142、およびモード情報生成部143の動作の一例を示すフローチャートである。モード情報生成部143でのモード情報の生成について図7Aを用いてさらに詳しく説明する。
 まず、モード情報生成部143は、第1の予測モード推定部141で導出される第1の推定予測モードMPMを取得する(ステップS701)。選択予測モードSMDが第1の推定予測モードMPMと一致する場合(ステップS702でYES)、第1の推定予測モード指定フラグに「1(一致することを示す)」を設定し(ステップS703)、第1の推定予測モード指定フラグを符号化予測モード関連信号SSMDとして可変長符号化部131で符号化する(ステップS704)。
 一方、選択予測モードSMDが第1の推定予測モードMPMと一致しない場合(ステップS702でNO)、第1の推定予測モード指定フラグに「0(一致しないことを示す)」を設定し(ステップS705)、第1の推定予測モード指定フラグを符号化予測モード関連信号SSMDとして可変長符号化部131で符号化する(ステップS706)。
 次に、第1の推定予測モードMPMがDC・エッジ予測であった場合(ステップS707でYES)、選択予測モードSMDを選択モード符号化情報として設定し、フラグ情報に加えて符号化予測モード関連信号SSMDとして可変長符号化部131で符号化する(ステップS708)。
 また、第1の推定予測モードMPMがDC・エッジ予測であった場合(ステップS707でNO)、モード情報生成部143は制御信号を第2の予測モード推定部142に対して出力する。これにより、第2の予測モード推定部142は、DC・エッジ予測モードを第2の推定予測モードSPMとして設定し、モード情報生成部143に対して出力する(ステップS709)。
 次に、選択予測モードSMDが第2の推定予測モードSPMと一致する場合(ステップS710でYES)、第2の推定予測モード指定フラグに「1(一致することを示す)」を設定し(ステップS711)、第2の推定予測モード指定フラグを符号化予測モード関連信号SSMDとして可変長符号化部131で符号化する(ステップS712)。
 一方、選択予測モードSMDが第2の推定予測モードSPMと一致しない場合(ステップS710でNO)、第2の推定予測モード指定フラグに「0(一致しないことを示す)」を設定し(ステップS713)、第2の推定予測モード指定フラグを符号化予測モード関連信号SSMDとして可変長符号化部131で符号化する(ステップS714)。
 また、選択予測モードSMDを選択モード符号化情報として設定し、フラグ情報に加えて符号化予測モード関連信号SSMDとして可変長符号化部131で符号化する(ステップS715)。
 なお、ここでは、第1の推定予測モードMPMおよび第2の推定予測モードSPMと一致しない場合、選択予測モードSMDをそのまま選択モード符号化情報として符号化すると説明したが、これに限らない。例えば、式2で示すように推定予測モードと一致する番号が無いため、選択予測モードSMDのインデックス番号が推定予測モードのインデックス番号を超える場合には、推定予測モードの数(図6A及び図7Aの例では最大2)を引いた値を選択モード符号化情報として符号化してもよい。これにより、さらに符号量を削減することができる。
 第1の推定予測モードのMPMインデックス番号をMPM、選択予測モードSMDのインデックス番号をSMD、第1の推定予測モード指定フラグをMPMF、第2の推定予測モード指定フラグをSPMF、DC・エッジ予測のインデックス番号をDCEDGE、選択モード符号化情報をREMとした場合、前述の流れは例えば式5のように表すことができる。
Figure JPOXMLDOC01-appb-M000003
 なお、DC・予測モードに対応するインデックス番号を「0」としてもよい。この場合、常に第2の推定予測モードSPMのインデックス番号が「0」となるため、選択予測モードSMDのインデックス番号を符号化する際には、最低でも1を引いた値を符号化すればよくなり、さらに符号量を削減することができる。式5と同様に表記した例を式6に示す。
Figure JPOXMLDOC01-appb-M000004
 また、図6Aとは異なり、第1の予測モード推定部141と第2の予測モード推定部142との機能を入れ替えた構成をとってもよい。この構成を図6Bに示す。
 図6Bに示される第2の予測モード推定部142は、予測モード格納メモリ211と、第2の予測モード推定導出部213とを備える。
 なお、特に説明しない部分は、図6Aと同じように動作するものとする。
 第1の予測モード推定部141は、予め決められた方法で設定した第1の予測モードの推定値である第1の推定予測モードMPMをモード情報生成部143に対して出力する。
 ここで第1の推定予測モードMPMをDC・エッジ予測とすることにより、複数の予測モードを意味する1つのモード情報を効率よく符号化・復号することを可能とする。
 第2の予測モード推定部142は、モード情報生成部143より制御信号を受け取り、予測モード格納メモリ211から、既に符号化された符号化モード情報の中から、予め決められた手段で予測モードを推定した結果である第2の推定予測モードSPMを導出し、モード情報生成部143に対して出力する。
 ここで、第2の推定予測モードSPMの導出方法としては、図6Aの第1の推定予測モードMPMの導出方法と同じであるが、第1の推定予測モードMPMを取得し、第2の推定予測モードSPMと第1の推定予測モードMPMとが重ならないように決めてもよい。例えば、候補とするモードの中から第1の推定モードMPMを除外した後、予め決められた手法で第2の推定予測モードSPMを決めることにより、第1及び第2の推定予測モードに異なる候補を設定することが可能となり、符号量を削減することができる。
 モード情報生成部143は、第1の推定予測モードMPMと、第2の推定予測モードSPMと、符号化部110によって選択された選択予測モードSMDとに基づいてモード情報を生成し、符号化予測モード関連信号SSMDとして可変長符号化部131に対して出力する。可変長符号化部131は、符号化予測モード関連信号SSMDを可変長符号化処理し、ビットストリームとして出力する。
 図7Bは、図6Bで示した第1の予測モード推定部141、第2の予測モード推定部142、およびモード情報生成部143の動作の一例を示すフローチャートである。
 まず、モード情報生成部143は、第1の予測モード推定部141においてDC・エッジ予測モードが第1の推定予測モードMPMと設定され、設定された第1の推定予測モードMPMを取得する(ステップS801)。選択予測モードSMDが第1の推定予測モードMPMと一致する場合(ステップS802でYES)、第1の推定予測モード指定フラグに「1(一致することを示す)」を設定し(ステップS803)、第1の推定予測モード指定フラグを符号化予測モード関連信号SSMDとして可変長符号化部131で符号化する(ステップS804)。
 一方、選択予測モードSMDが第1の推定予測モードMPMと一致しない場合(ステップS802でNO)、第1の推定予測モード指定フラグに「0(一致しないことを示す)」を設定し(ステップS805)、第1の推定予測モード指定フラグを符号化予測モード関連信号SSMDとして可変長符号化部131で符号化する(ステップS806)。
 次に、モード情報生成部143は、制御信号を第2の予測モード推定部142に対して出力する。これにより、第2の予測モード推定部142は、予め決められた方法で第2の推定予測モードSPMを導出し、モード情報生成部143に対して出力する(ステップS807)。
 次に、選択予測モードSMDが第2の推定予測モードSPMと一致する場合(ステップS808でYES)、第2の推定予測モード指定フラグに「1(一致することを示す)」を設定し(ステップS7809)、第2の推定予測モード指定フラグを符号化予測モード関連信号SSMDとして可変長符号化部131で符号化する(ステップS810)。
 一方、選択予測モードSMDが第2の推定予測モードSPMと一致しない場合(ステップS808でNO)、第2の推定予測モード指定フラグに「0(一致しないことを示す)」を設定し(ステップS811)、第2の推定予測モード指定フラグを符号化予測モード関連信号SSMDとして可変長符号化部131で符号化する(ステップS812)。
 また、選択予測モードSMDを選択モード符号化情報として設定し、フラグ情報に加えて符号化予測モード関連信号SSMDとして可変長符号化部131で符号化する(ステップS813)。
 なお、ここでは、第1の推定予測モードMPMおよび第2の推定予測モードSPMと一致しない場合、選択予測モードSMDをそのまま選択モード符号化情報として符号化すると説明したが、これに限らない。例えば、式2で示すように推定予測モードと一致する番号が無いため、選択予測モードSMDのインデックス番号が推定予測モードのインデックス番号を超える場合には、推定予測モードの数(図6B及び図7Bの例では最大2)を引いた値を選択モード符号化情報として符号化してもよい。これにより、さらに符号量を削減することができる。式5、6と同様に表記した例を式7に示す。
Figure JPOXMLDOC01-appb-M000005
 なお、図7Aの場合と同様に、DC・予測モードに対応するインデックス番号を「0」としてもよい。この場合、常に第1の推定予測モードSPMのインデックス番号が「0」となるため、選択予測モードSMDのインデックス番号を符号化する際には、最低でも1引いた値を符号化すればよくなり、さらに符号量を削減することができる。式7と同様に表記した例を式8に示す。
Figure JPOXMLDOC01-appb-M000006
 上記のような構成をとることにより、平坦な部分の予測モードであるDCモードとエッジを含む部分の予測モードであるエッジ予測モードとのモード情報の符号化を効率よくすることが可能となる。その結果、予測モード符号量の削減だけでなく、予測性能の向上によって画質を向上させることができる。
 次に、図8を参照して、図7A及び図7Bの変形例を説明する。図8は、実施形態1の変形例に係るフローチャートである。なお、以降の説明は、図6Aに示される設定部140が図8の処理を実行する例であるが、これに限定されない。
 なお、図8のフローチャートに登場する「モード一致フラグ」とは、選択予測モードが第1及び第2の推定予測モードのいずれかと一致する(「1」が設定される)こと、又はどちらとも一致しない(「0」が設定される)ことを示す1ビットのフラグである。また、「予測モード特定フラグ」とは、選択予測モードが第1の推定予測モードと一致する(「0」が設定される)こと、又は選択予測モードが第2の推定予測モードと一致する(「1」が設定される)ことを示す1ビットのフラグである。そして、モード一致フラグ及び予測モード特定フラグは、符号化予測モード関連信号SSMDとして符号化される。
 まず、第1の予測モード推定部141は、第1の推定予測モードを決定する(S901)。第1の推定予測モードの決定方法は、既に説明した方法を用いることができる。ここでは、符号化対象ブロックに隣接し、且つ既に符号化された複数のブロックの予測モードのうち、インデックス番号の最も小さい予測モードを第1の予測モードとして決定するものとする。
 次に、第2の予測モード推定部142は、第2の推定予測モードを決定する(S902)。第2の推定予測モードが第1の推定予測モードと異なることは、既に述べた通りである。また、第2の推定予測モードの決定方法は特に限定されないが、例えば、以下のような方法で決定することができる。
 まず、第2の予測モード推定部142は、第1の推定予測モードがプラーナモードであるか否かを判断する。そして、第1の推定予測モードがプラーナモードであれば、第2の予測モード推定部142は、第2の推定予測モードをDCモードと決定する。一方、第1の推定予測モードがプラーナモードでなければ、第2の予測モード推定部142は、第2の推定予測モードをプラーナモードと決定する。
 次に、モード情報生成部143は、選択予測モードが第1及び第2の推定予測モードのいずれかと一致するか否かを判断する(S903)。そして、どちらかと一致する場合(S903でYes)、モード情報生成部143は、モード一致フラグに「1(どちらかと一致することを示す)」を設定する(S904)。
 次に、モード情報生成部143は、選択予測モードが第1の推定予測モードと一致するか否かを判断する(S905)。なお、ステップS905で選択予測モードと第2の推定予測モードとが一致するか否かを判断してもよいことは言うまでもない。
 そして、選択予測モードと第1の推定予測モードとが一致する場合(S905でYes)、モード情報生成部143は、予測モード特定フラグに「0(第1の推定予測モードと一致することを示す)」を設定する(S906)。一方、一致しない場合(S905でNo)、モード情報生成部143は、予測モード特定フラグに「1(第2の推定予測モードと一致することを示す)」を設定する(S907)。
 そして、ステップS904~ステップ907で設定されたモード一致フラグ及び予測モード特定フラグは、符号化予測モード関連信号SSMDとして、可変長符号化部131で符号化される(S908)。
 一方、ステップS903において、選択予測モードが第1及び第2の推定予測モードのどちらとも一致しない場合(S903でNo)、モード情報生成部143は、モード一致フラグに「0(どちらとも一致しないことを示す)」を設定する(S909)。そして、S909で設定されたモード一致フラグ及び選択予測モードを特定する情報は、符号化予測モード関連信号SSMDとして、可変長符号化部131で符号化される(S910)。
 なお、選択予測モードを特定する情報は、例えば、式5で決定することができる選択モード符号化情報に相当するが、復号側で選択予測モードを特定することのできる情報であれば、これに限定されない。
 図8に示されるフローチャートは、図7A及び図7Bに示されるフローチャートと比較すると、各フラグの示す意味内容や比較処理等の処理順序が相違するものの、2つの推定予測モードを使用してモード情報の符号量を削減する点で共通する。
 すなわち、図7A、図7B、及び図8に示される処理では、いずれも、選択予測モードが第1及び第2の推定予測モードのいずれかと一致する場合に、どちらと一致するのかを示すフラグ情報がモード情報として生成される。一方、選択予測モードが第1及び第2の推定予測モードのどちらとも一致しない場合に、どちらとも一致しないことを示すフラグ情報と、選択予測モードを特定する情報とがモード情報として生成される。
 以上、本発明の画像符号化装置、画像復号装置及び対応する方法について、実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を当該実施の形態に施したものも、本発明の範囲内に含まれる。
 例えば、選択予測モードSMDのインデックス番号の符号化において、インデックス番号順に符号化するのではなく、第1の推定予測モードMPMもしくは第2の推定予測モードSPMに近い方向ベクトルから、順番に小さい番号を付与して符号化してもよい。これにより、より小さい番号を符号化することになり、符号量を削減することができる。また、予測モードの出現頻度に応じて、各予測モードに割り当てるモード番号を動的に変更してもよい。具体的には、出現頻度の高い予測モードほど小さいモード番号が割り当てられるようにしてもよい。
 また、本発明は、H.264映像符号化規格に限定されず、非特許文献2のエッジ方向を利用したイントラ予測モード(エッジ予測モード)など、上述の従来のイントラ予測モード予測値、位置情報(動きベクトル)予測値に限定されない。事実、発明の予測モード推定方法は、いかなるブロックベースの映像符号化器に用いられてもよい。
 また、本発明の予測モード推定方法におけるエッジ検出部は、映像符号化方式の一部の機能と共有してもよい。例えば、エッジ予測モードを含む映像符号化方式に、本発明を適用することで、エッジ検出部を共に用いることができ、リソースを有効利用できる。
 また、本発明は、映像符号化アプリケーションに限られず、ブロックベースの静止画像符号化に用いられてもよい。
 また、本発明は、上述したように、画像符号化装置およびこれらの方法として実現できるだけではなく、本実施の形態の画像符号化方法のそれぞれをコンピュータに実行させるためのプログラムとして実現してもよい。また、当該プログラムを記録するコンピュータ読み取り可能なCD-ROMなどの記録媒体として実現してもよい。さらに、当該プログラムを示す情報、データ又は信号として実現してもよい。そして、これらプログラム、情報、データおよび信号は、インターネットなどの通信ネットワークを介して配信されてもよい。
 以上、本発明の画像符号化装置及び対応する方法について、実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を当該実施の形態に施したものも、本発明の範囲内に含まれる。
 例えば、本実施の形態によれば、DC予測とエッジ予測とを同じ予測インデックス番号として扱っている例を挙げた。しかしながら、本発明は、この点には限定されない。代わりに、エッジ予測と逐次的に予測画素を生成していく、方向予測と異なる方法で予測画素を生成する予測モードとエッジ予測とを同じ予測インデックスとして扱う場合であったとしても、同様の処理を行うことで、効率的に予測モードを符号化及び復号することが可能となる。
 (実施の形態2)
 次に、本実施の形態の画像復号装置300の構成について説明する。
 図9は、本実施の形態の画像復号装置300の構成の一例を示すブロック図である。
 画像復号装置300は、予測モードを用いた予測に従って画像データをブロック毎に符号化することで生成された符号化画像データを復号する。図9に示すように、画像復号装置300は、復号部310と、復元部320とを備える。
 復号部310は、復元部320によって復元された選択予測モードを用いた予測に従って、符号化画像データを構成する複数のブロックの1つである対象ブロックを復号することで、復号ブロックを生成する。生成された復号ブロックは、画像および映像データとして出力される。なお、複数の予測モード候補は、符号化器側と同様に、予測を行う際に選択されうる全ての予測モードであり、例えば、8個の方向予測モード、DC予測モードおよびエッジ予測モードなどを含んでいる。または、既に説明した最大33個の方向予測モードと、DC予測モードと、プラーナモードとを含んでもよい。
 復元部320は、符号化時に選択された予測モードを復元するためのモード情報に基づいて、複数の予測モード候補から選択予測モードを復元する。なお、モード情報は、符号化時に実行された予測モードの選択結果を示す情報である。図9に示すように、復元部320は、第1の予測モード推定部321と、第2の予測モード推定部322と、信号判定部323とを備える。
 第1の予測モード推定部321および第2の予測モード推定部322は、本発明に係る予測モード復元部の一例であって、DC・エッジ予測モードをどちらかが推定予測モードとして設定され、DC・エッジ予測モードに対する符号量が削減されたビットストリームの復元することができる。
 以上の構成により、本実施の形態の画像復号装置300は、複数の予測モードを推定することで、予測モードの符号量を少なくしたビットストリームを復号することを特徴とする。すなわち、本実施の形態の画像復号装置300は、少なくとも2以上の予測モードを推定することで、予測モードを復元することを特徴とする。
 以下では、本実施の形態の画像復号装置300が備える各処理部の詳細な構成及び動作について説明する。
 図10は、本実施の形態の画像復号装置300の詳細な構成の一例を示すブロック図である。同図に示すように、画像復号装置300は、復号部310と、復元部320と、可変長復号部330と、制御部340とを備える。
 また、図10に示すように、復号部310は、逆量子化部311と、逆周波数変換部312と、加算部313と、フレームメモリ314と、スイッチ315と、イントラ予測部316と、動き補償部317と、スイッチ318とを備える。なお、復元部320の詳細な構成については、図11A及び図11Bを用いて後で説明する。
 以下では、画像復号装置300が、ビットストリーム(符号化された映像データ)を復号するときの動作に沿って、各処理部の処理について説明する。本実施の形態の画像復号装置300は、予測残差を含む符号化映像データをブロック毎にイントラ又はインターフレーム予測符号化ブロックのいずれかとして復号し、映像データ又は画像データとして出力する。
 可変長復号部330は、ビットストリームを予め決められた手段に基づき可変長復号し、量子化周波数変換係数QTと、符号化予測モード関連信号SSMDとを出力する。復元部320には、符号化予測モード関連信号SSMDと既に復号された画像信号LDとが入力され、符号化モードMDと、イントラ予測モードIPM又は位置情報(動きベクトル)MVとを示す情報を出力する。なお、前述の通り、復元部320の詳細な構成については、図11A及び図11Bを用いて後で説明する。
 符号化モードMDは、制御部340に入力される。イントラ予測モードIPM又は位置情報(動きベクトル)MVを示す情報は、スイッチ315に入力される。量子化周波数変換係数QTは、逆量子化部311に入力される。
 制御部340は、符号化モードMDに基づいてスイッチ315、318を制御する。符号化モードMDがイントラ予測符号化を示す場合、スイッチ315は、端子“a”に接続され、イントラ予測モードIPMを示す情報がイントラ予測部316に入力される。符号化モードMDがインター予測符号化を示す場合、スイッチ315は、端子“b”に接続され、位置情報(動きベクトル)MVが動き補償部317に入力される。
 対象ブロックがイントラ予測符号化ブロックの場合、スイッチ315、318は、端子“a”に接続される。そして、イントラ予測モードIPMを示す情報は、イントラ予測部316に入力され、量子化周波数変換係数QTは、逆量子化部311に入力される。なお、量子化周波数変換係数QTが、符号化器(例えば、画像符号化装置100)によって符号化された予測残差に相当する。
 イントラ予測部316は、入力されたイントラ予測モードに基づいて、イントラ予測参照画素をフレームメモリ314から取得し、イントラ予測された画像(予測ブロック)を生成し、加算部313にイントラ予測画像を出力する。
 逆量子化部311は、量子化周波数変換係数QTを逆量子化し、逆量子化した周波数変換係数を逆周波数変換部312に出力する。そして、逆周波数変換部312は、逆量子化された周波数変換係数を逆周波数変換することで、復号された復号差分画像LDDを生成する。逆周波数変換部312は、生成した復号差分画像LDDを加算部313に出力する。
 加算部313は、復号差分画像LDDとイントラ予測画像IPとを加算することで、復号画像LDを生成する。生成した復号画像LDは、フレームメモリ314に格納される。なお、フレームメモリ314に格納された復号画像LDは、後の復号で参照ピクチャとして用いられる。また、復号画像LDは、復号映像データを成すように出力される。
 対象ブロックがインター予測ブロックの場合、スイッチ315、316は、端子“b”に接続される。そして、位置情報(動きベクトル)MVを示す情報が動き補償部317に入力され、量子化周波数変換係数QTが逆量子化部311に入力される。
 動き補償部317は、入力された位置情報(動きベクトル)MVに基づいて、参照画素をフレームメモリ314から取得し、予測されたピクチャを生成し、加算部313に予測ピクチャを出力する。
 逆量子化部311、逆周波数変換部312及び加算部313の処理は、イントラ予測ブロックの場合に説明した処理と同じである。復号画像LDは、フレームメモリ314に格納される。フレームメモリ314に格納された復号画像LDは、後の復号で参照ピクチャとして用いられる。また、復号画像LDは、復号映像データを成すように出力される。
 続いて、本実施の形態の復元部320の詳細な構成について図11A及び図11Bを用いて説明する。
 図11Aは、本実施の形態の復元部320の詳細な構成の一例を示す図である。同図及び図9に示すように、復元部320は、第1の予測モード推定部321と、第2の予測モード推定部322と、信号判定部323とを備える。
 また、第1の予測モード推定部321は、予測モード格納メモリ411と、第1の予測モード推定導出部412とを備える。
 復元部320には、符号化予測モード関連信号SSMDが入力され、符号化モードMDと、イントラ予測モードIPM又は位置情報(動きベクトル)MVとを示す情報を符号化モード情報SMDとして出力する。
 予測モード格納メモリ411は、入力された既に復号された符号化モード情報SMDを格納するメモリである。第1の予測モード推定導出部412は、予測モード格納メモリ411から、既に復号された符号化モード情報SMDの中から、予め決められた手段で予測モードを推定した結果である第1の推定予測モードMPMを導出し、信号判定部323に対して出力する。
 ここで第1の推定予測モードMPMの導出方法としては、例えば前述の式1で示すように、復号対象ブロックの上部に隣接する既に復号されたブロックの予測モードと、復号対象ブロックの左部に隣接する既に復号されたブロックの予測モードとのうち、予測モードと対応するインデックス番号が小さいものを第1の推定予測モードMPMとして用いても良い。また、復号対象ブロックの左上や右上に隣接するブロックの予測モードをさらに参照し、出現頻度の高いものを第1の推定予測モードMPMとして導出してもよい。第1の推定予測モードMPMの導出としては、最も発生されると推測される予測モードの導出方法であれば、前述の方法に限らない。また、この推定方法はビットストリームの符号化時と同じ方式を用いることとする。
 なお、ブロックサイズに応じて方向予測モードのモード数が異なる場合、復号対象ブロックで選択し得る方向予測モードのうち、上記の方法で選ばれた推定予測モードに最も近い方向予測モードを、第1の推定予測モードMPMとすればよい。
 第2の予測モード推定部322は、信号判定部323から制御信号を取得し、予め決められた方法で設定した第2の予測モードの推定値である第2の推定予測モードSPMを信号判定部323に対して出力する。
 信号判定部323は、第1の推定予測モードMPMと、第2の推定予測モードSPMと、可変長復号部330からビットストリームを可変長復号することによって得られる符号化予測モード関連信号SSMDとに基づいて符号化モード情報SMDを生成し、出力する。
 ここで第2の推定予測モードSPMをDC・エッジ予測とすることにより、複数の予測モードを意味する1つのモード情報を効率よく符号化・復号することを可能とする。
 図12Aは、図11Aで示した第1の予測モード推定部321、第2の予測モード推定部322、および信号判定部323の動作の一例を示すフローチャートである。信号判定部323での符号化モード情報の復号について、図12Aを用いてさらに詳しく説明する。
 まず、信号判定部323は、第1の予測モード推定部321で導出される第1の推定予測モードMPMを取得する(ステップS1201)。次に、信号判定部323は、符号化予測モード関連情報SSMDを取得し、第1の推定予測モード指定フラグを復号する(ステップS1202)。第1の推定予測モード指定フラグが「1」である場合(ステップS1203でYES)、選択予測モードSMDを第1の推定予測モードMPMとして設定し(ステップS1204)、出力する。
 一方、第1の推定予測モード指定フラグが「0」である場合(ステップS1203でNO)で、且つ第1の推定予測モードMPMがDC・エッジ予測モードである場合(ステップS1205でYES)には、続いて選択予測モード符号化情報を復号する(ステップS1206)。復号することにより得られる選択予測モード番号で示されるモードを選択予測モードSMDとして設定し(ステップS1207)、出力する。
 また、第1の推定予測モードMPMがDC・エッジ予測モードではない場合(ステップS1205でNO)、第2の推定予測モード指定フラグを復号する(ステップS1208)。第2の推定予測モード指定フラグが「1」である場合(ステップS1209でYES)、選択予測モードSMDを第2の推定予測モードSPMとして設定し(ステップS1210)、出力する。第2の推定予測モード指定フラグが「0」である場合(ステップS1209でNO)、選択予測モード符号化情報を復号する(ステップS1211)。復号することにより得られる選択予測モード番号で示されるモードを選択予測モードSMDとして設定し(ステップS1212)、出力する。
 なお、ここでは、第1の推定予測モードMPMおよび第2の推定予測モードSPMと一致しない場合、選択予測モードSMDをそのまま選択モード符号化情報として符号化されている場合について説明したが、これに限らない。例えば、式3で示すように推定予測モードと一致する番号が無いため、選択予測モードSMDのインデックス番号が推定予測モードのインデックス番号を超える場合には、推定予測モードの数(図6A及び図7Aの例では最大2)を減じて符号化することができる。そのため、復号時には、推定予測モードの数(図11A及び図12A最大2)を加えた値を選択モード符号化情報として復号する。これにより、さらに符号量を削減したビットストリームを復号することができる。
 parse()は、符号化予測モード関連信号SSMDから()内のデータを復号することを示し、第1の推定予測モードMPMのインデックス番号をMPM、選択予測モードSMDのインデックス番号をSMD、第1の推定予測モード指定フラグをMPMF、第2の推定予測モード指定フラグをSPMF、DC・エッジ予測のインデックス番号をDCEDGE、選択モード符号化情報をREMとした場合、前述の流れは例えば式9のように表すことができる。
Figure JPOXMLDOC01-appb-M000007
 なお、DC・予測モードに対応するインデックス番号を「0」としてもよい。この場合、常に第2の推定予測モードSPMのインデックス番号が「0」となるため、選択予測モードSMDのインデックス番号を符号化する際には、最低でも1を引いた値を符号化すればよくなる。そして、復号時には最低でも1を加えた値として復号することにより、さらに符号量を削減したビットストリームを復号することができる。式9と同様に表記した例を式10に示す。
Figure JPOXMLDOC01-appb-M000008
 また、図11Aとは異なり、第1の予測モード推定部321と第2の予測モード推定部322との機能を入れ替えた構成をとってもよい。この構成を図11Bに示す。図11Bに示すように、第2の予測モード推定部322は、予測モード格納メモリ411と、第2の予測モード推定導出部413とを備える。
 復元部320には、符号化予測モード関連信号SSMDが入力され、符号化モードMDと、イントラ予測モードIPM又は位置情報(動きベクトル)MVとを示す情報を符号化モード情報SMDとして出力する。
 予測モード格納メモリ411は、入力された既に復号された符号化モード情報SMDを格納するメモリである。第2の予測モード推定導出部413は、予測モード格納メモリ411から、既に復号された符号化モード情報SMDの中から、予め決められた手段で予測モードを推定した結果である第2の推定予測モードSPMを導出し、信号判定部323に対して出力する。
 ここで第2の推定予測モードSPMの導出方法としては、図11Aの第1の推定予測モードMPMの導出方法と同じであるが、第1の推定予測モードMPMを取得し、第2の推定予測モードSPMと第1の推定予測モードMPMとが重ならないように決めてもよい。例えば、候補とするモードの中から第1の推定予測モードMPMを除外した後、予め決められた手法で第2の推定予測モードSPMを決めることにより、第1及び第2の推定予測モードに異なる候補を設定することが可能となり、符号量を削減したビットストリームを復号することができる。また、この推定方法はビットストリームを符号化時と同じ方式を用いることとする。
 第1の予測モード推定部321は、信号判定部323に対し、予め決められた方法で設定した第1の予測モードの推定値である第1の推定予測モードMPMを信号判定部323に対して出力する。
 ここで第1の推定予測モードMPMをDC・エッジ予測とすることにより、複数の予測モードを意味する1つのモード情報を効率よく符号化及び復号することを可能とする。
 信号判定部323は、第1の推定予測モードMPMと、第2の推定予測モードSPMと、可変長復号部330からビットストリームを可変長復号することによって得られる符号化予測モード関連信号SSMDとに基づいて符号化モード情報SMDを生成し、出力する。
 図12Bは、図11Bで示した第1の予測モード推定部321、第2の予測モード推定部322、および信号判定部323の動作の一例を示すフローチャートである。信号判定部323での符号化モード情報SMDの復号について図12Bを用いてさらに詳しく説明する。
 まず、信号判定部323は、符号化予測モード関連情報SSMDを取得し、第1の推定予測モード指定フラグを復号する(ステップS1301)。第1の推定予測モード指定フラグが1である場合(ステップS1302でYES)、選択予測モードSMDを第1の推定予測モードMPMとして設定し(ステップS1303)、出力する。
 一方、第1の推定予測モード指定フラグが0である場合(ステップS1302でNO)、信号判定部323は、第2の予測モード推定部322で導出される第2の推定予測モードSPMを取得する(ステップS1304)。続いて、信号判定部323は、符号化予測モード関連情報SSMDから、第2の推定予測モード指定フラグを復号する(ステップS1305)。
 第2の推定予測モード指定フラグが「1」である場合(ステップS1306でYES)、選択予測モードSMDを第2の推定予測モードSPMとして設定し(ステップS1307)、出力する。第2の推定予測モード指定フラグが「0」である場合(ステップS1306でNO)、選択予測モード符号化情報を復号する(ステップS1308)。復号することにより得られる選択予測モード番号で示されるモードを選択予測モードSMDとして設定し(ステップS1309)、出力する。
 なお、ここでは、第1の推定予測モードMPMおよび第2の推定予測モードSPMと一致しない場合、選択予測モードSMDをそのまま選択モード符号化情報として符号化されている場合について説明したが、これに限らない。例えば、式3で示すように推定予測モードと一致する番号が無いため、選択予測モードSMDのインデックス番号が推定予測モードのインデックス番号を超える場合には、推定予測モードの数(図6B及び図7Bの例では最大2)を減じて符号化することができるため、復号時には、推定予測モードの数(図11B及び図12Bの例では最大2)を加えた値を選択モード符号化情報として復号する。これにより、さらに符号量を削減したビットストリームを復号することができる。式9、10と同様に表記した例を式11に示す。
Figure JPOXMLDOC01-appb-M000009
 なお、図12Aの場合と同様に、DC・予測モードに対応するインデックス番号を「0」としてもよい。この場合、常に第2の推定予測モードSPMのインデックス番号が「0」となるため、選択予測モードSMDのインデックス番号を符号化する際には、最低でも1引いた値を符号化すればよくなる。そして、復号時には最低でも1加えた値として復号することにより、さらに符号量を削減したビットストリームを復号することができる。式11と同様に表記した例を式12に示す。
Figure JPOXMLDOC01-appb-M000010
 上記のような構成をとることにより、平坦な部分の予測モードであるDCモードとエッジを含む部分の予測モードであるエッジ予測モードのモード情報を効率よく符号化したビットストリームの復号が可能となる。その結果、予測モード符号量の削減だけでなく、予測性能の向上によって画質を向上させることができる。
 次に、図13を参照して、図12A及び図12Bの変形例を説明する。図13は、実施形態2の変形例に係るフローチャートである。なお、以降の説明は、図11Aに示される復元部320が図13の処理を実行する例であるが、これに限定されない。また、図13に示されるフローチャートは、典型的には、図8の方法で符号化されたビットストリームを復号する際に用いられる。
 まず、第1の予測モード推定部321は、第1の推定予測モードを決定する(S1401)。第1の推定予測モードの決定方法は、既に説明した方法を用いることができる。ここでは、復号対象ブロックに隣接し、且つ既に復号された複数のブロックの予測モードのうち、インデックス番号の最も小さい予測モードを第1の予測モードとして決定するものとする。
 次に、第2の予測モード推定部322は、第2の推定予測モードを決定する(S1402)。第2の推定予測モードが第1の推定予測モードと異なることは、既に述べた通りである。また、第2の推定予測モードの決定方法は特に限定されないが、例えば、以下のような方法で決定することができる。
 まず、第2の予測モード推定部322は、第1の推定予測モードがプラーナモードであるか否かを判断する。そして、第1の推定予測モードがプラーナモードであれば、第2の予測モード推定部322は、第2の推定予測モードをDCモードと決定する。一方、第1の推定予測モードがプラーナモードでなければ、第2の予測モード推定部322は、第2の推定予測モードをプラーナモードと決定する。
 次に、信号判定部323は、可変長復号部330から取得した符号化予測モード関連信号SSMDに含まれるモード一致フラグに設定されている値を判断する(S1403)。そして、モード一致フラグに「1」が設定されている場合(S1403でYes)、信号判定部323は、符号化予測モード関連信号SSMDに含まれる予測モード特定フラグに設定されている値を判断する(S1404)。
 予測モード特定フラグに「0」が設定されている場合(S1404でYes)、信号判定部323は、選択予測モードを第1の推定予測モードに設定する(S1405)。一方、予測モード特定フラグに「1」が設定されている場合(S1404でNo)、信号判定部323は、選択予測モードを第2の推定予測モードに設定する(S1406)。
 一方、ステップS1403において、モード一致フラグに「0」が設定されている場合(S1403でNo)、信号判定部323は、選択予測モード符号化情報を復号する(S1407)。そして、信号判定部323は、復号することにより得られる選択予測モード番号で示される予測モードを、選択予測モードSMDとして設定する(ステップS1408)。
 図13に示されるフローチャートは、図12A及び図12Bに示されるフローチャートと比較すると、各フラグの示す意味内容や比較処理等の処理順序が相違するものの、2つの推定予測モードを使用して選択予測モードを復元する点で共通する。
 すなわち、図12A、図12B、及び図13に示される処理では、いずれも、フラグ情報が選択予測モードと第1の推定予測モードとが一致していることを示す場合に、第1の推定予測モードが選択予測モードと決定される。また、フラグ情報が選択予測モードと第2の推定予測モードとが一致していることを示す場合に、第2の推定予測モードが前記選択予測モードと決定される。そして、フラグ情報が選択予測モードと第1及び第2の推定予測モードとが一致していないことを示す場合に、モード情報にさらに含まれる選択予測モードを特定する情報に基づいて、選択予測モードが復元される。
 以上、本発明の画像復号装置及び対応する方法について、実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を当該実施の形態に施したものも、本発明の範囲内に含まれる。
 例えば、選択予測モードSMDのインデックス番号の符号化において、インデックス番号順に符号化するのではなく、第1の推定予測モードMPMもしくは第2の推定予測モードSPMに近い方向ベクトルから、順番に小さい番号を付与して符号化されているとして復号してもよい。これにより、より小さい番号を符号化したビットストリームを復号することになり、符号量を削減することができる。
 また、本発明は、H.264映像符号化規格に限定されず、非特許文献2のエッジ方向を利用したイントラ予測モード(エッジ予測モード)など、上述の従来のイントラ予測モード予測値、位置情報(動きベクトル)予測値に限定されない。事実、発明の予測モード推定方法は、いかなるブロックベースの映像符号化器に用いられてもよい。
 また、本発明の予測モード推定方法におけるエッジ検出部は、映像符号化方式の一部の機能と共有してもよい。例えば、エッジ予測モードを含む映像符号化方式に、本発明を適用することで、エッジ検出部を共に用いることができ、リソースを有効利用できる。
 また、本発明は、映像符号化アプリケーションに限られず、ブロックベースの静止画像符号化に用いられてもよい。
 また、本発明は、上述したように、画像復号装置およびこれらの方法として実現できるだけではなく、本実施の形態の画像復号方法のそれぞれをコンピュータに実行させるためのプログラムとして実現してもよい。また、当該プログラムを記録するコンピュータ読み取り可能なCD-ROMなどの記録媒体として実現してもよい。さらに、当該プログラムを示す情報、データ又は信号として実現してもよい。そして、これらプログラム、情報、データ及び信号は、インターネットなどの通信ネットワークを介して配信されてもよい。
 以上、本発明の画像復号装置及び対応する方法について、実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を当該実施の形態に施したものも、本発明の範囲内に含まれる。
 例えば、本実施の形態によれば、DC予測とエッジ予測を同じ予測インデックス番号として扱っている例を挙げた。しかしながら、本発明は、この点には限定されない。代わりに、エッジ予測と逐次的に予測画素を生成していく、方向予測と異なる方法で予測画素を生成する予測モードとエッジ予測とを同じ予測インデックスとして扱う場合であったとしても、同様の処理を行うことで、効率的に予測モードを符号化・復号することが可能となる。
 (実施の形態3)
 ここでは、前述の画像符号化装置100が備える設定部140、画像復号装置300が備える復元部320にそれぞれエッジ検出器を含むエッジベクトル判定部1401、1501を備える場合について説明する。
 図14は、実施の形態1で説明した画像符号化装置100の一部である設定部140がエッジベクトル判定部1401を含む構成の一例を示す図である。同図に示すように、設定部140は、第1の予測モード推定部141と、第2の予測モード推定部142と、モード情報生成部143と、エッジベクトル判定部1401とを備える。なお、図4、図6A、及び図6Bと同じ構成については、同じ参照符号を付している。
 設定部140は、選択予測モードSMDと、既に符号化され復号された画像信号LDとを取得し、対象ブロックに対する選択予測モードの符号化信号として、符号化予測モード関連信号SSMDを可変長符号化部131に対して出力する。
 エッジベクトル判定部1401は、前述の既に符号化され復号された周囲に位置する画像信号LDを取得し、エッジ検出処理を施し、周囲にエッジが存在するかどうかを判定する。この動作について、図18を用いて詳しく説明する。図18は、エッジの検出対象の一例を示す概略図である。一例として、符号化対象として4×4画素の処理対象ブロック1801に対するエッジ検出を行う例を示す。この処理単位は一例であり、予測ブロックの単位であれば、これに限らない。処理対象ブロック1801の周囲の符号化、復号済みの領域(対象ブロックの左、左上、上、右上の隣接領域とする)のうち斜線で示す領域1802に対して、エッジ検出処理を行う。1マスは1画素を示し、斜線で示す領域の1画素に対し、隣接する8画素を含む9画素に対して処理を行う。エッジ検出処理としては、式13で示すソーベル演算子を用いる。ソーベル演算子を用いて、水平、垂直方向に対するエッジの強度が得られる。この強度と方向を示すベクトルをエッジベクトルと呼ぶ。
 例えば、一定以上の強度を有するベクトル1803、1804を検出し、その中でもっとも大きさの強いベクトルをエッジベクトルとして検出する。
 ここで、エッジベクトル判定部1401は、前述の検出されたエッジベクトルに従い、DC・エッジ予測において、DC予測を行うかエッジ予測を行うかの判定を行い、モード情報生成部143に対して出力する。ここで判定の条件としては、最大強度のベクトルの大きさを用いて、例えば一定以上の大きさを有する場合には、エッジ予測を用いることとしてもよい。
 この構成での設定部140の動作について、図16を用いてさらに詳細に説明する。図16は、設定部140の動作の一例を示す図である。
 モード情報生成部143は、エッジベクトル判定部1401よりDC予測を行うかエッジ予測を行うかの判定の情報を取得する(ステップS1601)。エッジ予測を使用する条件である場合(ステップS1602でYES)、DC・エッジ予測モードを第1の推定予測モードMPMとして設定し(ステップS1603)、以降は図7Bと同じ流れ(ステップS801からS813)で符号化情報を決定し、決定した符号化予測モード関連信号SSMDを可変長符号化部131に対して出力する(ステップS1604)。
 一方、エッジ予測を使用しない条件である場合(ステップS1602でNO)、第1の予測モード推定部141によって導出された第1の推定予測モードMPMを取得する(ステップS1605)。以降、例えば非特許文献1で示す方法で、符号化情報を決定し、決定した符号化予測モード関連信号SSMDを可変長符号化部131に対して出力する(ステップS1606)。
 なお、上記の動作は一例であり、本発明はこれに限るものではない。例えばステップS1606で従来の方式で符号化するとしたが、第2の推定予測モードSPMを用いて符号化を行っても良い。このときの第2の推定予測モードSPMの導出方法としては、第1の推定予測モードMPMと重複しないもので、既に符号化されたブロックで使用頻度の高いモードを設定してもよい。これにより、さらに符号化効率を向上させることができる。
 なお、ステップS1604で図7Bと同じ動作を行う例について説明したが、この場合の第2の推定予測モードSPMを、エッジ検出で検出されたエッジの方向によって導出しても良い。この場合エッジベクトル判定部1401は、検出したエッジベクトルの方向の情報を第2の予測モード推定部142に対して出力する。
 エッジベクトルの方向から第2の推定予測モードSPMを決定する例としては、予測モード候補が、8個の方向予測モードとDC予測モードとエッジ予測モードのどちらかを示すDC・エッジ予測との計9個である場合において、9個の予測モード候補を、検出されたエッジの方向に近い方向予測モードを第2の推定予測モードSPMとしてもよい。
 このようにすることで、周囲で選択された予測モードの分布によって決めるより、さらに画像の特徴に合った予測モードを導出することができ、さらに符号量の削減をすることが可能となる。
 図15は、実施の形態2で説明した画像復号装置300の一部である復元部320がエッジベクトル判定部1501を含む構成の一例を示す図である。同図に示すように、復元部320は、第1の予測モード推定部321と、第2の予測モード推定部322と、信号判定部323と、エッジベクトル判定部1501とを備える。なお、図9、図11A及び図11Bと同じ構成については、同じ参照符号を付している。
 復元部320は、可変長復号された符号化予測モード関連信号SSMDと、既に符号化され復号された画像信号LDとを取得し、対象ブロックに対する選択予測モードの符号化信号として、選択予測モードSMDを出力する。
 エッジベクトル判定部1501は、前述の既に符号化され復号された周囲に位置する画像信号LDを取得し、エッジ検出処理を施し、周囲にエッジが存在するかどうかを判定する。動作については、符号化時の動作を同じ動作を行うものとする。
 この構成での復元部320の動作について、図17を用いてさらに詳細に説明する。図17は、復元部320の動作の一例を示す図である。
 信号判定部323は、エッジベクトル判定部1501よりDC予測を行うかエッジ予測を行うかの判定の情報を取得する(ステップS1701)。エッジ予測を使用する条件である場合(ステップS1702でYES)、第1の推定予測モードMPMをDC・エッジ予測モードと設定し(ステップS1703)、以降は図12Bと同じ流れ(ステップS1301からS1309)で復号処理を行い、選択予測モードSMDを出力する(ステップS1704)。
 一方、エッジ予測を使用しない条件である場合(ステップS1702でNO)、第1の予測モード推定部321によって導出された第1の推定予測モードMPMを取得する(ステップS1705)。以降、例えば非特許文献1で示す方法で、選択予測モードSMDを出力する(ステップS1706)。
 なお、上記の動作は一例であり、本発明はこれに限るものではなく、符号化方法と同じように変更が可能である。例えばステップS1706で従来の方式で符号化するとしたが、第2の推定予測モードSPMを用いて符号化を行った場合、復号側も同様することができる。このときの第2の推定予測モードSPMの導出方法としては、第1の推定予測モードMPMと重複しないもので、既に符号化されたブロックで使用頻度の高いモードを設定してもよい。これにより、さらに符号化効率を向上させることができる。
 なお、ステップS1704で図12Bと同じ動作を行う例について説明したが、この場合の第2の推定予測モードSPMを、エッジ検出で検出されたエッジの方向によって導出しても良い。この場合エッジベクトル判定部1501は、検出したエッジベクトルの方向の情報を第2の予測モード推定部322に対して出力する。
 エッジベクトルの方向から第2の推定予測モードSPMを決定する例としては、予測モード候補が、8個の方向予測モードとDC予測モードとエッジ予測モードのどちらかを示すDC・エッジ予測との計9個である場合において、9個の予測モード候補を、検出されたエッジの方向に近い方向予測モードを第2の推定予測モードSPMとしてもよい。
 このようにすることで、周囲で選択された予測モードの分布によって決めるより、さらに画像の特徴に合った予測モードを導出することができ、さらに符号量の削減をしたビットストリームを復号することが可能となる。
 なお、例えば、選択予測モードSMDのインデックス番号の符号化において、インデックス番号順に符号化するのではなく、検出したエッジベクトルに近い方向ベクトルから、順番に小さい番号を付与して符号化及び復号してもよい。これにより、より小さい番号を符号化及び復号することになり、符号量を削減することができる。
 例えば、本実施の形態によれば、ソーベル演算子を用いて勾配を算出することで、エッジの検出を行った。しかしながら、本発明は、この点には限定されない。代わりに、検出されたエッジの方向性が算出されれば、どのようなエッジ検出ツールが用いられてもよい。ソーベル演算子は、可能なエッジ検出技術の一例に過ぎない。例えば、式14に示すプレウィット演算子を用いてもよい。
Figure JPOXMLDOC01-appb-M000012
 なお、本実施の形態の画像符号化装置100及び画像復号装置300では、エッジ検出処理を行うために、図1Aに示す参照画素20だけではなく、参照画素20を含むブロックに含まれる全画素のデータを、参照ピクチャメモリ160及びフレームメモリ314に格納する必要がある。これに対して、周囲のブロックを復号すると同時に、すなわち、勾配の算出に必要な参照画素の画素値が得られると同時に、勾配の算出処理を行い、勾配の算出処理結果だけを参照ピクチャメモリ160及びフレームメモリ314、又は、他のメモリに格納してもよい。
 このとき、例えば、閾値を超えたノルム(又は、勾配値)のみを格納することで、よりメモリ資源を節約することができる。あるいは、各ブロックの最大のノルムとその画素位置のみを格納してもよい。この場合、算出したノルム(又は、勾配値)を参照ピクチャメモリ160及びフレームメモリ314などに格納する。
 これにより、画像符号化装置100及び画像復号装置300が備えるメモリ資源を有効に利用することができる。
 また、本発明は、H.264映像符号化規格に限定されず、非特許文献2のエッジ方向を利用したイントラ予測モード(エッジ予測モード)など、上述の従来のイントラ予測モード予測値、位置情報(動きベクトル)予測値に限定されない。事実、発明の予測モード推定方法は、いかなるブロックベースの映像符号化器に用いられてもよい。
 また、本発明の予測モード推定方法におけるエッジ検出部は、映像符号化方式の一部の機能と共有してもよい。例えば、エッジ予測モードを含む映像符号化方式に、本発明を適用することで、エッジ検出部を共に用いることができ、リソースを有効利用できる。
 また、本発明は、映像符号化アプリケーションに限られず、ブロックベースの静止画像符号化に用いられてもよい。
 また、本発明は、上述したように、画像符号化装置、画像復号装置及びこれらの方法として実現できるだけではなく、本実施の形態の画像符号化方法及び画像復号方法のそれぞれをコンピュータに実行させるためのプログラムとして実現してもよい。また、当該プログラムを記録するコンピュータ読み取り可能なCD-ROMなどの記録媒体として実現してもよい。さらに、当該プログラムを示す情報、データ又は信号として実現してもよい。そして、これらプログラム、情報、データ及び信号は、インターネットなどの通信ネットワークを介して配信されてもよい。
 (実施の形態4)
 上記各実施の形態で示した動画像符号化方法または動画像復号化方法の構成を実現するためのプログラムを記憶メディアに記録することにより、上記各実施の形態で示した処理を独立したコンピュータシステムにおいて簡単に実施することが可能となる。記憶メディアは、磁気ディスク、光ディスク、光磁気ディスク、ICカード、半導体メモリ等、プログラムを記録できるものであればよい。
 さらにここで、上記各実施の形態で示した動画像符号化方法や動画像復号化方法の応用例とそれを用いたシステムを説明する。
 図19は、コンテンツ配信サービスを実現するコンテンツ供給システムex100の全体構成を示す図である。通信サービスの提供エリアを所望の大きさに分割し、各セル内にそれぞれ固定無線局である基地局ex106、ex107、ex108、ex109、ex110が設置されている。
 このコンテンツ供給システムex100は、インターネットex101にインターネットサービスプロバイダex102および電話網ex104、および基地局ex106からex110を介して、コンピュータex111、PDA(Personal Digital Assistant)ex112、カメラex113、携帯電話ex114、ゲーム機ex115などの各機器が接続される。
 しかし、コンテンツ供給システムex100は図19のような構成に限定されず、いずれかの要素を組合せて接続するようにしてもよい。また、固定無線局である基地局ex106からex110を介さずに、各機器が電話網ex104に直接接続されてもよい。また、各機器が近距離無線等を介して直接相互に接続されていてもよい。
 カメラex113はデジタルビデオカメラ等の動画撮影が可能な機器であり、カメラex116はデジタルカメラ等の静止画撮影、動画撮影が可能な機器である。また、携帯電話ex114は、GSM(Global System for Mobile Communications)方式、CDMA(Code Division Multiple Access)方式、W-CDMA(Wideband-Code Division Multiple Access)方式、若しくはLTE(Long Term Evolution)方式、HSPA(High Speed Packet Access)の携帯電話機、またはPHS(Personal Handyphone System)等であり、いずれでも構わない。
 コンテンツ供給システムex100では、カメラex113等が基地局ex109、電話網ex104を通じてストリーミングサーバex103に接続されることで、ライブ配信等が可能になる。ライブ配信では、ユーザがカメラex113を用いて撮影するコンテンツ(例えば、音楽ライブの映像等)に対して上記各実施の形態で説明したように符号化処理を行い、ストリーミングサーバex103に送信する。一方、ストリーミングサーバex103は要求のあったクライアントに対して送信されたコンテンツデータをストリーム配信する。クライアントとしては、上記符号化処理されたデータを復号化することが可能な、コンピュータex111、PDAex112、カメラex113、携帯電話ex114、ゲーム機ex115等がある。配信されたデータを受信した各機器では、受信したデータを復号化処理して再生する。
 なお、撮影したデータの符号化処理はカメラex113で行っても、データの送信処理をするストリーミングサーバex103で行ってもよいし、互いに分担して行ってもよい。同様に配信されたデータの復号化処理はクライアントで行っても、ストリーミングサーバex103で行ってもよいし、互いに分担して行ってもよい。また、カメラex113に限らず、カメラex116で撮影した静止画像および/または動画像データを、コンピュータex111を介してストリーミングサーバex103に送信してもよい。この場合の符号化処理はカメラex116、コンピュータex111、ストリーミングサーバex103のいずれで行ってもよいし、互いに分担して行ってもよい。
 また、これら符号化・復号化処理は、一般的にコンピュータex111や各機器が有するLSIex500において処理する。LSIex500は、ワンチップであっても複数チップからなる構成であってもよい。なお、動画像符号化・復号化用のソフトウェアをコンピュータex111等で読み取り可能な何らかの記録メディア(CD-ROM、フレキシブルディスク、ハードディスクなど)に組み込み、そのソフトウェアを用いて符号化・復号化処理を行ってもよい。さらに、携帯電話ex114がカメラ付きである場合には、そのカメラで取得した動画データを送信してもよい。このときの動画データは携帯電話ex114が有するLSIex500で符号化処理されたデータである。
 また、ストリーミングサーバex103は複数のサーバや複数のコンピュータであって、データを分散して処理したり記録したり配信するものであってもよい。
 以上のようにして、コンテンツ供給システムex100では、符号化されたデータをクライアントが受信して再生することができる。このようにコンテンツ供給システムex100では、ユーザが送信した情報をリアルタイムでクライアントが受信して復号化し、再生することができ、特別な権利や設備を有さないユーザでも個人放送を実現できる。
 なお、コンテンツ供給システムex100の例に限らず、図20に示すように、デジタル放送用システムex200にも、上記各実施の形態の少なくとも動画像符号化装置または動画像復号化装置のいずれかを組み込むことができる。具体的には、放送局ex201では映像データに音楽データなどが多重化された多重化データが電波を介して通信または衛星ex202に伝送される。この映像データは上記各実施の形態で説明した動画像符号化方法により符号化されたデータである。これを受けた放送衛星ex202は、放送用の電波を発信し、この電波を衛星放送の受信が可能な家庭のアンテナex204が受信する。受信した多重化データを、テレビ(受信機)ex300またはセットトップボックス(STB)ex217等の装置が復号化して再生する。
 また、DVD、BD等の記録メディアex215に記録した多重化データを読み取り復号化する、または記録メディアex215に映像信号を符号化し、さらに場合によっては音楽信号と多重化して書き込むリーダ/レコーダex218にも上記各実施の形態で示した動画像復号化装置または動画像符号化装置を実装することが可能である。この場合、再生された映像信号はモニタex219に表示され、多重化データが記録された記録メディアex215により他の装置やシステムにおいて映像信号を再生することができる。また、ケーブルテレビ用のケーブルex203または衛星/地上波放送のアンテナex204に接続されたセットトップボックスex217内に動画像復号化装置を実装し、これをテレビのモニタex219で表示してもよい。このときセットトップボックスではなく、テレビ内に動画像復号化装置を組み込んでもよい。
 図21は、上記各実施の形態で説明した動画像復号化方法および動画像符号化方法を用いたテレビ(受信機)ex300を示す図である。テレビex300は、上記放送を受信するアンテナex204またはケーブルex203等を介して映像データに音声データが多重化された多重化データを取得、または出力するチューナex301と、受信した多重化データを復調する、または外部に送信する多重化データに変調する変調/復調部ex302と、復調した多重化データを映像データと、音声データとに分離する、または信号処理部ex306で符号化された映像データ、音声データを多重化する多重/分離部ex303を備える。
 また、テレビex300は、音声データ、映像データそれぞれを復号化する、またはそれぞれの情報を符号化する音声信号処理部ex304、映像信号処理部ex305を有する信号処理部ex306と、復号化した音声信号を出力するスピーカex307、復号化した映像信号を表示するディスプレイ等の表示部ex308を有する出力部ex309とを有する。さらに、テレビex300は、ユーザ操作の入力を受け付ける操作入力部ex312等を有するインタフェース部ex317を有する。さらに、テレビex300は、各部を統括的に制御する制御部ex310、各部に電力を供給する電源回路部ex311を有する。インタフェース部ex317は、操作入力部ex312以外に、リーダ/レコーダex218等の外部機器と接続されるブリッジex313、SDカード等の記録メディアex216を装着可能とするためのスロット部ex314、ハードディスク等の外部記録メディアと接続するためのドライバex315、電話網と接続するモデムex316等を有していてもよい。なお記録メディアex216は、格納する不揮発性/揮発性の半導体メモリ素子により電気的に情報の記録を可能としたものである。テレビex300の各部は同期バスを介して互いに接続されている。
 まず、テレビex300がアンテナex204等により外部から取得した多重化データを復号化し、再生する構成について説明する。テレビex300は、リモートコントローラex220等からのユーザ操作を受け、CPU等を有する制御部ex310の制御に基づいて、変調/復調部ex302で復調した多重化データを多重/分離部ex303で分離する。さらにテレビex300は、分離した音声データを音声信号処理部ex304で復号化し、分離した映像データを映像信号処理部ex305で上記各実施の形態で説明した復号化方法を用いて復号化する。復号化した音声信号、映像信号は、それぞれ出力部ex309から外部に向けて出力される。出力する際には、音声信号と映像信号が同期して再生するよう、バッファex318、ex319等に一旦これらの信号を蓄積するとよい。また、テレビex300は、放送等からではなく、磁気/光ディスク、SDカード等の記録メディアex215、ex216から多重化データを読み出してもよい。次に、テレビex300が音声信号や映像信号を符号化し、外部に送信または記録メディア等に書き込む構成について説明する。テレビex300は、リモートコントローラex220等からのユーザ操作を受け、制御部ex310の制御に基づいて、音声信号処理部ex304で音声信号を符号化し、映像信号処理部ex305で映像信号を上記各実施の形態で説明した符号化方法を用いて符号化する。符号化した音声信号、映像信号は多重/分離部ex303で多重化され外部に出力される。多重化する際には、音声信号と映像信号が同期するように、バッファex320、ex321等に一旦これらの信号を蓄積するとよい。なお、バッファex318、ex319、ex320、ex321は図示しているように複数備えていてもよいし、1つ以上のバッファを共有する構成であってもよい。さらに、図示している以外に、例えば変調/復調部ex302や多重/分離部ex303の間等でもシステムのオーバフロー、アンダーフローを避ける緩衝材としてバッファにデータを蓄積することとしてもよい。
 また、テレビex300は、放送等や記録メディア等から音声データ、映像データを取得する以外に、マイクやカメラのAV入力を受け付ける構成を備え、それらから取得したデータに対して符号化処理を行ってもよい。なお、ここではテレビex300は上記の符号化処理、多重化、および外部出力ができる構成として説明したが、これらの処理を行うことはできず、上記受信、復号化処理、外部出力のみが可能な構成であってもよい。
 また、リーダ/レコーダex218で記録メディアから多重化データを読み出す、または書き込む場合には、上記復号化処理または符号化処理はテレビex300、リーダ/レコーダex218のいずれで行ってもよいし、テレビex300とリーダ/レコーダex218が互いに分担して行ってもよい。
 一例として、光ディスクからデータの読み込みまたは書き込みをする場合の情報再生/記録部ex400の構成を図22に示す。情報再生/記録部ex400は、以下に説明する要素ex401、ex402、ex403、ex404、ex405、ex406、ex407を備える。光ヘッドex401は、光ディスクである記録メディアex215の記録面にレーザスポットを照射して情報を書き込み、記録メディアex215の記録面からの反射光を検出して情報を読み込む。変調記録部ex402は、光ヘッドex401に内蔵された半導体レーザを電気的に駆動し記録データに応じてレーザ光の変調を行う。再生復調部ex403は、光ヘッドex401に内蔵されたフォトディテクタにより記録面からの反射光を電気的に検出した再生信号を増幅し、記録メディアex215に記録された信号成分を分離して復調し、必要な情報を再生する。バッファex404は、記録メディアex215に記録するための情報および記録メディアex215から再生した情報を一時的に保持する。ディスクモータex405は記録メディアex215を回転させる。サーボ制御部ex406は、ディスクモータex405の回転駆動を制御しながら光ヘッドex401を所定の情報トラックに移動させ、レーザスポットの追従処理を行う。システム制御部ex407は、情報再生/記録部ex400全体の制御を行う。上記の読み出しや書き込みの処理はシステム制御部ex407が、バッファex404に保持された各種情報を利用し、また必要に応じて新たな情報の生成・追加を行うと共に、変調記録部ex402、再生復調部ex403、サーボ制御部ex406を協調動作させながら、光ヘッドex401を通して、情報の記録再生を行うことにより実現される。システム制御部ex407は例えばマイクロプロセッサで構成され、読み出し書き込みのプログラムを実行することでそれらの処理を実行する。
 以上では、光ヘッドex401はレーザスポットを照射するとして説明したが、近接場光を用いてより高密度な記録を行う構成であってもよい。
 図23に光ディスクである記録メディアex215の模式図を示す。記録メディアex215の記録面には案内溝(グルーブ)がスパイラル状に形成され、情報トラックex230には、予めグルーブの形状の変化によってディスク上の絶対位置を示す番地情報が記録されている。この番地情報はデータを記録する単位である記録ブロックex231の位置を特定するための情報を含み、記録や再生を行う装置において情報トラックex230を再生し番地情報を読み取ることで記録ブロックを特定することができる。また、記録メディアex215は、データ記録領域ex233、内周領域ex232、外周領域ex234を含んでいる。ユーザデータを記録するために用いる領域がデータ記録領域ex233であり、データ記録領域ex233より内周または外周に配置されている内周領域ex232と外周領域ex234は、ユーザデータの記録以外の特定用途に用いられる。情報再生/記録部ex400は、このような記録メディアex215のデータ記録領域ex233に対して、符号化された音声データ、映像データまたはそれらのデータを多重化した多重化データの読み書きを行う。
 以上では、1層のDVD、BD等の光ディスクを例に挙げ説明したが、これらに限ったものではなく、多層構造であって表面以外にも記録可能な光ディスクであってもよい。また、ディスクの同じ場所にさまざまな異なる波長の色の光を用いて情報を記録したり、さまざまな角度から異なる情報の層を記録したりなど、多次元的な記録/再生を行う構造の光ディスクであってもよい。
 また、デジタル放送用システムex200において、アンテナex205を有する車ex210で衛星ex202等からデータを受信し、車ex210が有するカーナビゲーションex211等の表示装置に動画を再生することも可能である。なお、カーナビゲーションex211の構成は例えば図21に示す構成のうち、GPS受信部を加えた構成が考えられ、同様なことがコンピュータex111や携帯電話ex114等でも考えられる。また、上記携帯電話ex114等の端末は、テレビex300と同様に、符号化器・復号化器を両方持つ送受信型端末の他に、符号化器のみの送信端末、復号化器のみの受信端末という3通りの実装形式が考えられる。さらに、デジタル放送用システムex200において、映像データに音楽データなどが多重化された多重化された多重化データを受信、送信するとして説明したが、音声データ以外に映像に関連する文字データなどが多重化されたデータであってもよいし、多重化データではなく映像データ自体であってもよい。
 このように、上記各実施の形態で示した動画像符号化方法あるいは動画像復号化方法を上述したいずれの機器・システムに用いることは可能であり、そうすることで、上記各実施の形態で説明した効果を得ることができる。
 また、本発明はかかる上記実施形態に限定されるものではなく、本発明の範囲を逸脱することなく種々の変形または修正が可能である。
 (実施の形態5)
 上記各実施の形態で示した動画像符号化方法または装置と、MPEG-2、MPEG4-AVC、VC-1など異なる規格に準拠した動画像符号化方法または装置とを、必要に応じて適宜切替えることにより、映像データを生成することも可能である。
 ここで、それぞれ異なる規格に準拠する複数の映像データを生成した場合、復号する際に、それぞれの規格に対応した復号方法を選択する必要がある。しかしながら、復号する映像データが、どの規格に準拠するものであるか識別できないため、適切な復号方法を選択することができないという課題を生じる。
 この課題を解決するために、映像データに音声データなどを多重化した多重化データは、映像データがどの規格に準拠するものであるかを示す識別情報を含む構成とする。上記各実施の形態で示す動画像符号化方法または装置によって生成された映像データを含む多重化データの具体的な構成を以下説明する。多重化データは、MPEG-2トランスポートストリーム形式のデジタルストリームである。
 図24は、多重化データの構成を示す図である。図24に示すように多重化データは、ビデオストリーム、オーディオストリーム、プレゼンテーショングラフィックスストリーム(PG)、インタラクティブグラファイックスストリームのうち、1つ以上を多重化することで得られる。ビデオストリームは映画の主映像および副映像を、オーディオストリーム(IG)は映画の主音声部分とその主音声とミキシングする副音声を、プレゼンテーショングラフィックスストリームは、映画の字幕をそれぞれ示している。ここで主映像とは画面に表示される通常の映像を示し、副映像とは主映像の中に小さな画面で表示する映像のことである。また、インタラクティブグラフィックスストリームは、画面上にGUI部品を配置することにより作成される対話画面を示している。ビデオストリームは、上記各実施の形態で示した動画像符号化方法または装置、従来のMPEG-2、MPEG4-AVC、VC-1などの規格に準拠した動画像符号化方法または装置によって符号化されている。オーディオストリームは、ドルビーAC-3、Dolby Digital Plus、MLP、DTS、DTS-HD、または、リニアPCMのなどの方式で符号化されている。
 多重化データに含まれる各ストリームはPIDによって識別される。例えば、映画の映像に利用するビデオストリームには0x1011が、オーディオストリームには0x1100から0x111Fまでが、プレゼンテーショングラフィックスには0x1200から0x121Fまでが、インタラクティブグラフィックスストリームには0x1400から0x141Fまでが、映画の副映像に利用するビデオストリームには0x1B00から0x1B1Fまで、主音声とミキシングする副音声に利用するオーディオストリームには0x1A00から0x1A1Fが、それぞれ割り当てられている。
 図25は、多重化データがどのように多重化されるかを模式的に示す図である。まず、複数のビデオフレームからなるビデオストリームex235、複数のオーディオフレームからなるオーディオストリームex238を、それぞれPESパケット列ex236およびex239に変換し、TSパケットex237およびex240に変換する。同じくプレゼンテーショングラフィックスストリームex241およびインタラクティブグラフィックスex244のデータをそれぞれPESパケット列ex242およびex245に変換し、さらにTSパケットex243およびex246に変換する。多重化データex247はこれらのTSパケットを1本のストリームに多重化することで構成される。
 図26は、PESパケット列に、ビデオストリームがどのように格納されるかをさらに詳しく示している。図26における第1段目はビデオストリームのビデオフレーム列を示す。第2段目は、PESパケット列を示す。図26の矢印yy1,yy2,yy3,yy4に示すように、ビデオストリームにおける複数のVideo Presentation UnitであるIピクチャ、Bピクチャ、Pピクチャは、ピクチャ毎に分割され、PESパケットのペイロードに格納される。各PESパケットはPESヘッダを持ち、PESヘッダには、ピクチャの表示時刻であるPTS(Presentation Time-Stamp)やピクチャの復号時刻であるDTS(Decoding Time-Stamp)が格納される。
 図27は、多重化データに最終的に書き込まれるTSパケットの形式を示している。TSパケットは、ストリームを識別するPIDなどの情報を持つ4ByteのTSヘッダとデータを格納する184ByteのTSペイロードから構成される188Byte固定長のパケットであり、上記PESパケットは分割されTSペイロードに格納される。BD-ROMの場合、TSパケットには、4ByteのTP_Extra_Headerが付与され、192Byteのソースパケットを構成し、多重化データに書き込まれる。TP_Extra_HeaderにはATS(Arrival_Time_Stamp)などの情報が記載される。ATSは当該TSパケットのデコーダのPIDフィルタへの転送開始時刻を示す。多重化データには図27下段に示すようにソースパケットが並ぶこととなり、多重化データの先頭からインクリメントする番号はSPN(ソースパケットナンバー)と呼ばれる。
 また、多重化データに含まれるTSパケットには、映像・音声・字幕などの各ストリーム以外にもPAT(Program Association Table)、PMT(Program Map Table)、PCR(Program Clock Reference)などがある。PATは多重化データ中に利用されるPMTのPIDが何であるかを示し、PAT自身のPIDは0で登録される。PMTは、多重化データ中に含まれる映像・音声・字幕などの各ストリームのPIDと各PIDに対応するストリームの属性情報を持ち、また多重化データに関する各種ディスクリプタを持つ。ディスクリプタには多重化データのコピーを許可・不許可を指示するコピーコントロール情報などがある。PCRは、ATSの時間軸であるATC(Arrival Time Clock)とPTS・DTSの時間軸であるSTC(System Time Clock)の同期を取るために、そのPCRパケットがデコーダに転送されるATSに対応するSTC時間の情報を持つ。
 図28はPMTのデータ構造を詳しく説明する図である。PMTの先頭には、そのPMTに含まれるデータの長さなどを記したPMTヘッダが配置される。その後ろには、多重化データに関するディスクリプタが複数配置される。上記コピーコントロール情報などが、ディスクリプタとして記載される。ディスクリプタの後には、多重化データに含まれる各ストリームに関するストリーム情報が複数配置される。ストリーム情報は、ストリームの圧縮コーデックなどを識別するためストリームタイプ、ストリームのPID、ストリームの属性情報(フレームレート、アスペクト比など)が記載されたストリームディスクリプタから構成される。ストリームディスクリプタは多重化データに存在するストリームの数だけ存在する。
 記録媒体などに記録する場合には、上記多重化データは、多重化データ情報ファイルと共に記録される。
 多重化データ情報ファイルは、図29に示すように多重化データの管理情報であり、多重化データと1対1に対応し、多重化データ情報、ストリーム属性情報とエントリマップから構成される。
 多重化データ情報は図29に示すようにシステムレート、再生開始時刻、再生終了時刻から構成されている。システムレートは多重化データの、後述するシステムターゲットデコーダのPIDフィルタへの最大転送レートを示す。多重化データ中に含まれるATSの間隔はシステムレート以下になるように設定されている。再生開始時刻は多重化データの先頭のビデオフレームのPTSであり、再生終了時刻は多重化データの終端のビデオフレームのPTSに1フレーム分の再生間隔を足したものが設定される。
 ストリーム属性情報は図30に示すように、多重化データに含まれる各ストリームについての属性情報が、PID毎に登録される。属性情報はビデオストリーム、オーディオストリーム、プレゼンテーショングラフィックスストリーム、インタラクティブグラフィックスストリーム毎に異なる情報を持つ。ビデオストリーム属性情報は、そのビデオストリームがどのような圧縮コーデックで圧縮されたか、ビデオストリームを構成する個々のピクチャデータの解像度がどれだけであるか、アスペクト比はどれだけであるか、フレームレートはどれだけであるかなどの情報を持つ。オーディオストリーム属性情報は、そのオーディオストリームがどのような圧縮コーデックで圧縮されたか、そのオーディオストリームに含まれるチャンネル数は何であるか、何の言語に対応するか、サンプリング周波数がどれだけであるかなどの情報を持つ。これらの情報は、プレーヤが再生する前のデコーダの初期化などに利用される。
 本実施の形態においては、上記多重化データのうち、PMTに含まれるストリームタイプを利用する。また、記録媒体に多重化データが記録されている場合には、多重化データ情報に含まれる、ビデオストリーム属性情報を利用する。具体的には、上記各実施の形態で示した動画像符号化方法または装置において、PMTに含まれるストリームタイプ、または、ビデオストリーム属性情報に対し、上記各実施の形態で示した動画像符号化方法または装置によって生成された映像データであることを示す固有の情報を設定するステップまたは手段を設ける。この構成により、上記各実施の形態で示した動画像符号化方法または装置によって生成した映像データと、他の規格に準拠する映像データとを識別することが可能になる。
 また、本実施の形態における動画像復号化方法のステップを図31に示す。ステップexS100において、多重化データからPMTに含まれるストリームタイプ、または、多重化データ情報に含まれるビデオストリーム属性情報を取得する。次に、ステップexS101において、ストリームタイプ、または、ビデオストリーム属性情報が上記各実施の形態で示した動画像符号化方法または装置によって生成された多重化データであることを示しているか否かを判断する。そして、ストリームタイプ、または、ビデオストリーム属性情報が上記各実施の形態で示した動画像符号化方法または装置によって生成されたものであると判断された場合には、ステップexS102において、上記各実施の形態で示した動画像復号方法により復号を行う。また、ストリームタイプ、または、ビデオストリーム属性情報が、従来のMPEG-2、MPEG4-AVC、VC-1などの規格に準拠するものであることを示している場合には、ステップexS103において、従来の規格に準拠した動画像復号方法により復号を行う。
 このように、ストリームタイプ、または、ビデオストリーム属性情報に新たな固有値を設定することにより、復号する際に、上記各実施の形態で示した動画像復号化方法または装置で復号可能であるかを判断することができる。従って、異なる規格に準拠する多重化データが入力された場合であっても、適切な復号化方法または装置を選択することができるため、エラーを生じることなく復号することが可能となる。また、本実施の形態で示した動画像符号化方法または装置、または、動画像復号方法または装置を、上述したいずれの機器・システムに用いることも可能である。
 (実施の形態6)
 上記各実施の形態で示した動画像符号化方法および装置、動画像復号化方法および装置は、典型的には集積回路であるLSIで実現される。一例として、図32に1チップ化されたLSIex500の構成を示す。LSIex500は、以下に説明する要素ex501、ex502、ex503、ex504、ex505、ex506、ex507、ex508、ex509を備え、各要素はバスex510を介して接続している。電源回路部ex505は電源がオン状態の場合に各部に対して電力を供給することで動作可能な状態に起動する。
 例えば符号化処理を行う場合には、LSIex500は、CPUex502、メモリコントローラex503、ストリームコントローラex504、駆動周波数制御部ex512等を有する制御部ex501の制御に基づいて、AV I/Oex509によりマイクex117やカメラex113等からAV信号を入力する。入力されたAV信号は、一旦SDRAM等の外部のメモリex511に蓄積される。制御部ex501の制御に基づいて、蓄積したデータは処理量や処理速度に応じて適宜複数回に分けるなどされ信号処理部ex507に送られ、信号処理部ex507において音声信号の符号化および/または映像信号の符号化が行われる。ここで映像信号の符号化処理は上記各実施の形態で説明した符号化処理である。信号処理部ex507ではさらに、場合により符号化された音声データと符号化された映像データを多重化するなどの処理を行い、ストリームI/Oex506から外部に出力する。この出力された多重化データは、基地局ex107に向けて送信されたり、または記録メディアex215に書き込まれたりする。なお、多重化する際には同期するよう、一旦バッファex508にデータを蓄積するとよい。
 なお、上記では、メモリex511がLSIex500の外部の構成として説明したが、LSIex500の内部に含まれる構成であってもよい。バッファex508も1つに限ったものではなく、複数のバッファを備えていてもよい。また、LSIex500は1チップ化されてもよいし、複数チップ化されてもよい。
 また、上記では、制御部ex510が、CPUex502、メモリコントローラex503、ストリームコントローラex504、駆動周波数制御部ex512等を有するとしているが、制御部ex510の構成は、この構成に限らない。例えば、信号処理部ex507がさらにCPUを備える構成であってもよい。信号処理部ex507の内部にもCPUを設けることにより、処理速度をより向上させることが可能になる。また、他の例として、CPUex502が信号処理部ex507、または信号処理部ex507の一部である例えば音声信号処理部を備える構成であってもよい。このような場合には、制御部ex501は、信号処理部ex507、またはその一部を有するCPUex502を備える構成となる。
 なお、ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
 また、集積回路化の手法はLSIに限るものではなく、専用回路または汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
 さらには、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適応等が可能性としてありえる。
 (実施の形態7)
 上記各実施の形態で示した動画像符号化方法または装置によって生成された映像データを復号する場合、従来のMPEG-2、MPEG4-AVC、VC-1などの規格に準拠する映像データを復号する場合に比べ、処理量が増加することが考えられる。そのため、LSIex500において、従来の規格に準拠する映像データを復号する際のCPUex502の駆動周波数よりも高い駆動周波数に設定する必要がある。しかし、駆動周波数を高くすると、消費電力が高くなるという課題が生じる。
 この課題を解決するために、テレビex300、LSIex500などの動画像復号化装置は、映像データがどの規格に準拠するものであるかを識別し、規格に応じて駆動周波数を切替える構成とする。図33は、本実施の形態における構成ex800を示している。駆動周波数切替え部ex803は、映像データが、上記各実施の形態で示した動画像符号化方法または装置によって生成されたものである場合には、駆動周波数を高く設定する。そして、上記各実施の形態で示した動画像復号化方法を実行する復号処理部ex801に対し、映像データを復号するよう指示する。一方、映像データが、従来の規格に準拠する映像データである場合には、映像データが、上記各実施の形態で示した動画像符号化方法または装置によって生成されたものである場合に比べ、駆動周波数を低く設定する。そして、従来の規格に準拠する復号処理部ex802に対し、映像データを復号するよう指示する。
 より具体的には、駆動周波数切替え部ex803は、図32のCPUex502と駆動周波数制御部ex512から構成される。また、上記各実施の形態で示した動画像復号化方法を実行する復号処理部ex801、および、従来の規格に準拠する復号処理部ex802は、図32の信号処理部ex507に該当する。CPUex502は、映像データがどの規格に準拠するものであるかを識別する。そして、CPUex502からの信号に基づいて、駆動周波数制御部ex512は、駆動周波数を設定する。また、CPUex502からの信号に基づいて、信号処理部ex507は、映像データの復号を行う。ここで、映像データの識別には、例えば、実施の形態5で記載した識別情報を利用することが考えられる。識別情報に関しては、実施の形態5で記載したものに限られず、映像データがどの規格に準拠するか識別できる情報であればよい。例えば、映像データがテレビに利用されるものであるか、ディスクに利用されるものであるかなどを識別する外部信号に基づいて、映像データがどの規格に準拠するものであるか識別可能である場合には、このような外部信号に基づいて識別してもよい。また、CPUex502における駆動周波数の選択は、例えば、図35のような映像データの規格と、駆動周波数とを対応付けたルックアップテーブルに基づいて行うことが考えられる。ルックアップテーブルを、バッファex508や、LSIの内部メモリに格納しておき、CPUex502がこのルックアップテーブルを参照することにより、駆動周波数を選択することが可能である。
 図34は、本実施の形態の方法を実施するステップを示している。まず、ステップexS200では、信号処理部ex507において、多重化データから識別情報を取得する。次に、ステップexS201では、CPUex502において、識別情報に基づいて映像データが上記各実施の形態で示した符号化方法または装置によって生成されたものであるか否かを識別する。映像データが上記各実施の形態で示した符号化方法または装置によって生成されたものである場合には、ステップexS202において、駆動周波数を高く設定する信号を、CPUex502が駆動周波数制御部ex512に送る。そして、駆動周波数制御部ex512において、高い駆動周波数に設定される。一方、従来のMPEG-2、MPEG4-AVC、VC-1などの規格に準拠する映像データであることを示している場合には、ステップexS203において、駆動周波数を低く設定する信号を、CPUex502が駆動周波数制御部ex512に送る。そして、駆動周波数制御部ex512において、映像データが上記各実施の形態で示した符号化方法または装置によって生成されたものである場合に比べ、低い駆動周波数に設定される。
 さらに、駆動周波数の切替えに連動して、LSIex500またはLSIex500を含む装置に与える電圧を変更することにより、省電力効果をより高めることが可能である。例えば、駆動周波数を低く設定する場合には、これに伴い、駆動周波数を高く設定している場合に比べ、LSIex500またはLSIex500を含む装置に与える電圧を低く設定することが考えられる。
 また、駆動周波数の設定方法は、復号する際の処理量が大きい場合に、駆動周波数を高く設定し、復号する際の処理量が小さい場合に、駆動周波数を低く設定すればよく、上述した設定方法に限らない。例えば、MPEG4-AVC規格に準拠する映像データを復号する処理量の方が、上記各実施の形態で示した動画像符号化方法または装置により生成された映像データを復号する処理量よりも大きい場合には、駆動周波数の設定を上述した場合の逆にすることが考えられる。
 さらに、駆動周波数の設定方法は、駆動周波数を低くする構成に限らない。例えば、識別情報が、上記各実施の形態で示した動画像符号化方法または装置によって生成された映像データであることを示している場合には、LSIex500またはLSIex500を含む装置に与える電圧を高く設定し、従来のMPEG-2、MPEG4-AVC、VC-1などの規格に準拠する映像データであることを示している場合には、LSIex500またはLSIex500を含む装置に与える電圧を低く設定することも考えられる。また、他の例としては、識別情報が、上記各実施の形態で示した動画像符号化方法または装置によって生成された映像データであることを示している場合には、CPUex502の駆動を停止させることなく、従来のMPEG-2、MPEG4-AVC、VC-1などの規格に準拠する映像データであることを示している場合には、処理に余裕があるため、CPUex502の駆動を一時停止させることも考えられる。識別情報が、上記各実施の形態で示した動画像符号化方法または装置によって生成された映像データであることを示している場合であっても、処理に余裕があれば、CPUex502の駆動を一時停止させることも考えられる。この場合は、従来のMPEG-2、MPEG4-AVC、VC-1などの規格に準拠する映像データであることを示している場合に比べて、停止時間を短く設定することが考えられる。
 このように、映像データが準拠する規格に応じて、駆動周波数を切替えることにより、省電力化を図ることが可能になる。また、電池を用いてLSIex500またはLSIex500を含む装置を駆動している場合には、省電力化に伴い、電池の寿命を長くすることが可能である。
 (実施の形態8)
 テレビや、携帯電話など、上述した機器・システムには、異なる規格に準拠する複数の映像データが入力される場合がある。このように、異なる規格に準拠する複数の映像データが入力された場合にも復号できるようにするために、LSIex500の信号処理部ex507が複数の規格に対応している必要がある。しかし、それぞれの規格に対応する信号処理部ex507を個別に用いると、LSIex500の回路規模が大きくなり、また、コストが増加するという課題が生じる。
 この課題を解決するために、上記各実施の形態で示した動画像復号方法を実行するための復号処理部と、従来のMPEG-2、MPEG4-AVC、VC-1などの規格に準拠する復号処理部とを一部共有化する構成とする。この構成例を図36(a)のex900に示す。例えば、上記各実施の形態で示した動画像復号方法と、MPEG4-AVC規格に準拠する動画像復号方法とは、エントロピー符号化、逆量子化、デブロッキング・フィルタ、動き補償などの処理において処理内容が一部共通する。共通する処理内容については、MPEG4-AVC規格に対応する復号処理部ex902を共有し、MPEG4-AVC規格に対応しない、本発明特有の他の処理内容については、専用の復号処理部ex901を用いるという構成が考えられる。特に、本発明は、分割領域の境界におけるフィルタ処理に特徴を有していることから、例えば、分割領域の境界におけるフィルタ処理については専用の復号処理部ex901を用い、それ以外のエントロピー符号化、デブロッキング・フィルタ、動き補償のいずれか、または、全ての処理については、復号処理部を共有することが考えられる。復号処理部の共有化に関しては、共通する処理内容については、上記各実施の形態で示した動画像復号化方法を実行するための復号処理部を共有し、MPEG4-AVC規格に特有の処理内容については、専用の復号処理部を用いる構成であってもよい。
 また、処理を一部共有化する他の例を図36(b)のex1000に示す。この例では、本発明に特有の処理内容に対応した専用の復号処理部ex1001と、他の従来規格に特有の処理内容に対応した専用の復号処理部ex1002と、本発明の動画像復号方法と他の従来規格の動画像復号方法とに共通する処理内容に対応した共用の復号処理部ex1003とを用いる構成としている。ここで、専用の復号処理部ex1001、ex1002は、必ずしも本発明、または、他の従来規格に特有の処理内容に特化したものではなく、他の汎用処理を実行できるものであってもよい。また、本実施の形態の構成を、LSIex500で実装することも可能である。
 このように、本発明の動画像復号方法と、従来の規格の動画像復号方法とで共通する処理内容について、復号処理部を共有することにより、LSIの回路規模を小さくし、かつ、コストを低減することが可能である。
 本発明の画像符号化方法及び画像復号方法は、符号化効率をより高めることができるという効果を奏し、例えば、デジタルカメラ、デジタルテレビ、BD(Blu-ray Disc)レコーダなどに利用することができる。
 10 対象ブロック
 20 参照画素
 30、40 周囲ブロック
 100 画像符号化装置
 110 符号化部
 111 減算部
 112 周波数変換部
 113 量子化部
 114 イントラ予測モード決定部
 115 動き検出部
 116、316 イントラ予測部
 117、317 動き補償部
 118、119、315、318 スイッチ
 120 復号部
 121、311 逆量子化部
 122、312 逆周波数変換部
 123、313 加算部
 130 出力部
 131、520 可変長符号化部
 140、510 設定部
 141、321 第1の予測モード推定部
 142、322 第2の予測モード推定部
 143、515 モード情報生成部
 150、314 フレームメモリ
 160 参照ピクチャメモリ
 170、340 制御部
 211、411、511、623 予測モード格納メモリ
 212、412 第1の予測モード推定導出部
 213、413 第2の予測モード推定導出部
 300 画像復号装置
 310 復号部
 320、620 復元部
 323、621 信号判定部
 330、610 可変長復号部
 1401、1501 エッジベクトル判定部
 1803、1804 エッジ

Claims (16)

  1.  予測モードに基づいた予測に従って画像データをブロック毎に符号化することで生成された符号化画像データを復号する画像復号方法であって、
     符号化時に実行された予測モードの推定結果を示すモード情報に基づいて、符号化時の予測に用いた予測モードである選択予測モードを復元する復元ステップと、
     前記選択予測モードに基づいた予測に従って、前記符号化画像データの対象ブロックを復号することで、復号ブロックを生成する復号ステップとを含み、
     前記復元ステップは、
     複数の予測モードから1つの予測モードを第1の推定予測モードとして決定する第1の予測モード推定ステップと、
     複数の予測モードから、前記第1の推定予測モードと異なる1つの予測モードを第2の推定予測モードとして決定する第2の予測モード推定ステップと、
     前記モード情報と前記第1の推定予測モードと前記第2の推定予測モードとに基づいて、前記選択予測モードを復元する予測モード復元ステップとを含む
     画像復号方法。
  2.  前記モード情報は、前記選択予測モードと前記第1及び第2の推定予測モードとの比較結果を示すフラグ情報を、少なくとも含み、
     前記予測モード復元ステップでは、
     前記フラグ情報が前記選択予測モードと前記第1の推定予測モードとが一致していることを示す場合に、前記第1の推定予測モードを前記選択予測モードと決定し、
     前記フラグ情報が前記選択予測モードと前記第2の推定予測モードとが一致していることを示す場合に、前記第2の推定予測モードを前記選択予測モードと決定し、
     前記フラグ情報が前記選択予測モードと前記第1及び第2の推定予測モードとが一致していないことを示す場合に、前記モード情報にさらに含まれる前記選択予測モードを特定する情報に基づいて、前記選択予測モードを復元する
     請求項1に記載の画像復号方法。
  3.  前記第1の推定予測モードと前記第2の推定予測モードとのいずれかが、DC・エッジ予測を示すモードである
     請求項1又は2記載の画像復号方法。
  4.  前記第1の予測モード推定ステップでは、前記対象ブロックに隣接し、且つ既に復号された複数のブロックの選択予測モードのうち、インデックス番号の最も小さい予測モードを前記第1の予測モードと決定する
     請求項1~3のいずれか1項に記載の画像復号方法。
  5.  前記第2の予測モード推定ステップでは、
     前記第1の推定予測モードがプラーナモードである場合に、前記第2の推定予測モードをDC予測モードと決定し、
     前記第1の推定予測モードがプラーナモードでない場合に、前記第2の推定予測モードをプラーナモードと決定する
     請求項1~4のいずれか1項に記載の画像復号方法。
  6.  画像データをブロック毎に符号化する画像符号化方法であって、
     予め定められた複数の予測モード候補の中から選択された選択予測モードに基づいた予測に従って、前記画像データの対象ブロックを符号化する符号化ステップと、
     符号化された対象ブロックを復号することで、復号ブロックを生成する復号ステップと、
     複数の予測モードから1つの予測モードを第1の推定予測モードとして決定する第1の予測モード推定ステップと、
     複数の予測モードから、前記第1の推定予測モードと異なる1つの予測モードを第2の推定予測モードとして決定する第2の予測モード推定ステップと、
     前記選択予測モードを復元するためのモード情報を、前記符号化された対象ブロックとともに出力する出力ステップとを含み、
     前記出力ステップは、前記第1の推定予測モードと前記第2の推定予測モードと前記選択予測モードとに基づいて前記モード情報を生成するモード情報生成ステップを含む
     画像符号化方法。
  7.  前記モード情報生成ステップでは、
     前記選択予測モードが前記第1及び第2の推定予測モードのいずれかと一致する場合に、どちらと一致するのかを示すフラグ情報を前記モード情報として生成し、
     前記選択予測モードが前記第1及び第2の推定予測モードのどちらとも一致しない場合に、どちらとも一致しないことを示すフラグ情報と、前記選択予測モードを特定する情報とを前記モード情報として生成する
     請求項6に記載の画像符号化方法。
  8.  前記第1の推定予測モードと前記第2の推定予測モードとのいずれかが、DC・エッジ予測を示すモードである
     請求項6又は7記載の画像符号化方法。
  9.  前記第1の予測モード推定ステップでは、前記対象ブロックに隣接し、且つ既に符号化された複数のブロックの選択予測モードのうち、インデックス番号の最も小さい予測モードを前記第1の予測モードと決定する
     請求項6~8のいずれか1項に記載の画像符号化方法。
  10.  前記第2の予測モード推定ステップでは、
     前記第1の推定予測モードがプラーナモードである場合に、前記第2の推定予測モードをDC予測モードと決定し、
     前記第1の推定予測モードがプラーナモードでない場合に、前記第2の推定予測モードをプラーナモードと決定する
     請求項6~9のいずれか1項に記載の画像符号化方法。
  11.  予測モードに基づいた予測に従って画像データをブロック毎に符号化することで生成された符号化画像データを復号する画像復号装置であって、
     符号化時に実行された予測モードの推定結果を示すモード情報に基づいて、符号化時の予測に用いた予測モードである選択予測モードを復元する復元部と、
     前記選択予測モードに基づいた予測に従って、前記符号化画像データの対象ブロックを復号することで、復号ブロックを生成する復号部とを備え、
     前記復元部は、
     複数の予測モードから1つの予測モードを第1の推定予測モードとして決定する第1の予測モード推定部と、
     複数の予測モードから、前記第1の推定予測モードと異なる1つの予測モードを第2の推定予測モードとして決定する第2の予測モード推定部と、
     前記モード情報と前記第1の推定予測モードと前記第2の推定予測モードとに基づいて、前記選択予測モードを復元する予測モード復元部とを備える
     画像復号装置。
  12.  画像データをブロック毎に符号化する画像符号化装置であって、
     予め定められた複数の予測モード候補の中から選択された選択予測モードに基づいた予測に従って、前記画像データの対象ブロックを符号化する符号化部と、
     符号化された対象ブロックを復号することで、復号ブロックを生成する復号部と、
     複数の予測モードから1つの予測モードを第1の推定予測モードとして決定する第1の予測モード推定部と、
     複数の予測モードから、前記第1の推定予測モードと異なる1つの予測モードを第2の推定予測モードとして決定する第2の予測モード推定部と、
     前記選択予測モードを復元するためのモード情報を、前記符号化された対象ブロックとともに出力する出力部とを備え、
     前記出力部は、前記第1の推定予測モードと前記第2の推定予測モードと前記選択予測モードとに基づいて前記モード情報を生成するモード情報生成部を備える
     画像符号化装置。
  13.  コンピュータに、予測モードに基づいた予測に従って画像データをブロック毎に符号化することで生成された符号化画像データを復号させるプログラムであって、
     符号化時に実行された予測モードの推定結果を示すモード情報に基づいて、符号化時の予測に用いた予測モードである選択予測モードを復元する復元ステップと、
     前記選択予測モードに基づいた予測に従って、前記符号化画像データの対象ブロックを復号することで、復号ブロックを生成する復号ステップとを、コンピュータに実行させ、
     前記復元ステップは、
     複数の予測モードから1つの予測モードを第1の推定予測モードとして決定する第1の予測モード推定ステップと、
     複数の予測モードから、前記第1の推定予測モードと異なる1つの予測モードを第2の推定予測モードとして決定する第2の予測モード推定ステップと、
     前記モード情報と前記第1の推定予測モードと前記第2の推定予測モードとに基づいて、前記選択予測モードを復元する予測モード復元ステップとを含む
     プログラム。
  14.  コンピュータに、画像データをブロック毎に符号化させるプログラムであって、
     予め定められた複数の予測モード候補の中から選択された選択予測モードに基づいた予測に従って、前記画像データの対象ブロックを符号化する符号化ステップと、
     符号化された対象ブロックを復号することで、復号ブロックを生成する復号ステップと、
     複数の予測モードから1つの予測モードを第1の推定予測モードとして決定する第1の予測モード推定ステップと、
     複数の予測モードから、前記第1の推定予測モードと異なる1つの予測モードを第2の推定予測モードとして決定する第2の予測モード推定ステップと、
     前記選択予測モードを復元するためのモード情報を、前記符号化された対象ブロックとともに出力する出力ステップとを、コンピュータに実行させ、
     前記出力ステップは、前記第1の推定予測モードと前記第2の推定予測モードと前記選択予測モードとに基づいて前記モード情報を生成するモード情報生成ステップを含む
     プログラム。
  15.  予測モードに基づいた予測に従って画像データをブロック毎に符号化することで生成された符号化画像データを復号する集積回路であって、
     符号化時に実行された予測モードの推定結果を示すモード情報に基づいて、符号化時の予測に用いた予測モードである選択予測モードを復元する復元部と、
     前記選択予測モードに基づいた予測に従って、前記符号化画像データの対象ブロックを復号することで、復号ブロックを生成する復号部とを備え、
     前記復元部は、
     複数の予測モードから1つの予測モードを第1の推定予測モードとして決定する第1の予測モード推定部と、
     複数の予測モードから、前記第1の推定予測モードと異なる1つの予測モードを第2の推定予測モードとして決定する第2の予測モード推定部と、
     前記モード情報と前記第1の推定予測モードと前記第2の推定予測モードとに基づいて、前記選択予測モードを復元する予測モード復元部とを備える
     集積回路。
  16.  画像データをブロック毎に符号化する集積回路であって、
     予め定められた複数の予測モード候補の中から選択された選択予測モードに基づいた予測に従って、前記画像データの対象ブロックを符号化する符号化部と、
     符号化された対象ブロックを復号することで、復号ブロックを生成する復号部と、
     複数の予測モードから1つの予測モードを第1の推定予測モードとして決定する第1の予測モード推定部と、
     複数の予測モードから、前記第1の推定予測モードと異なる1つの予測モードを第2の推定予測モードとして決定する第2の予測モード推定部と、
     前記選択予測モードを復元するためのモード情報を、前記符号化された対象ブロックとともに出力する出力部とを備え、
     前記出力部は、前記第1の推定予測モードと前記第2の推定予測モードと前記選択予測モードとに基づいて前記モード情報を生成するモード情報生成部を備える
     集積回路。
     
PCT/JP2011/005444 2010-09-30 2011-09-28 画像復号方法、画像符号化方法、画像復号装置、画像符号化装置、プログラム、及び集積回路 WO2012042860A1 (ja)

Priority Applications (16)

Application Number Priority Date Filing Date Title
ES11828426.4T ES2683793T3 (es) 2010-09-30 2011-09-28 Procedimiento de decodificación de imagen, procedimiento de codificación de imagen, dispositivo de decodificación de imagen, dispositivo de codificación de imagen, programa y circuito integrado
CA2806511A CA2806511C (en) 2010-09-30 2011-09-28 Decoding and encoding according to a prediction mode determined from multiple estimated prediction modes
KR1020177014640A KR101857935B1 (ko) 2010-09-30 2011-09-28 화상 복호 방법, 화상 부호화 방법, 화상 복호 장치, 화상 부호화 장치, 프로그램 및 집적 회로
JP2012536206A JP5395274B2 (ja) 2010-09-30 2011-09-28 画像復号方法、画像復号装置およびプログラム
KR1020137001290A KR101792308B1 (ko) 2010-09-30 2011-09-28 화상 복호 방법, 화상 부호화 방법, 화상 복호 장치, 화상 부호화 장치, 프로그램 및 집적 회로
EP18167183.5A EP3383046A1 (en) 2010-09-30 2011-09-28 Image decoding method, image decoding apparatus and program
MX2013001661A MX2013001661A (es) 2010-09-30 2011-09-28 Metodo de decodificacion de imagen, metodo de codificacion de imagen, aparato de decodificacion de imagen, aparato de codificacion de imagen, programa, y circuito integrado.
CN201180037651.2A CN103053162B (zh) 2010-09-30 2011-09-28 图像编码方法、图像编码装置
US13/814,255 US20130136178A1 (en) 2010-09-30 2011-09-28 Image decoding method, image coding method, image decoding apparatus, image coding apparatus, program, and integrated circuit
KR1020187012728A KR101966605B1 (ko) 2010-09-30 2011-09-28 화상 복호 방법, 화상 부호화 방법, 화상 복호 장치, 화상 부호화 장치, 프로그램 및 집적 회로
EP11828426.4A EP2624564B1 (en) 2010-09-30 2011-09-28 Image decoding method, image encoding method, image decoding device, image encoding device, program, and integrated circuit
PL11828426T PL2624564T3 (pl) 2010-09-30 2011-09-28 Sposób dekodowania obrazu, sposób kodowania obrazu, urządzenie dekodujące obraz, urządzenie kodujące obraz, program i układ scalony
US14/054,974 US9756338B2 (en) 2010-09-30 2013-10-16 Image decoding method, image coding method, image decoding apparatus, image coding apparatus, program, and integrated circuit
US14/546,111 US10306234B2 (en) 2010-09-30 2014-11-18 Image decoding method, image coding method, image decoding apparatus, image coding apparatus, program, and integrated circuit
US15/233,069 US10887599B2 (en) 2010-09-30 2016-08-10 Image decoding method, image coding method, image decoding apparatus, image coding apparatus, program, and integrated circuit
US17/106,685 US11206409B2 (en) 2010-09-30 2020-11-30 Image decoding method, image coding method, image decoding apparatus, image coding apparatus, program, and integrated circuit

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-222996 2010-09-30
JP2010222996 2010-09-30

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US13/814,255 A-371-Of-International US20130136178A1 (en) 2010-09-30 2011-09-28 Image decoding method, image coding method, image decoding apparatus, image coding apparatus, program, and integrated circuit
US14/054,974 Division US9756338B2 (en) 2010-09-30 2013-10-16 Image decoding method, image coding method, image decoding apparatus, image coding apparatus, program, and integrated circuit

Publications (1)

Publication Number Publication Date
WO2012042860A1 true WO2012042860A1 (ja) 2012-04-05

Family

ID=45892349

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/005444 WO2012042860A1 (ja) 2010-09-30 2011-09-28 画像復号方法、画像符号化方法、画像復号装置、画像符号化装置、プログラム、及び集積回路

Country Status (10)

Country Link
US (5) US20130136178A1 (ja)
EP (2) EP3383046A1 (ja)
JP (3) JP5395274B2 (ja)
KR (3) KR101792308B1 (ja)
CN (2) CN107682702B (ja)
CA (1) CA2806511C (ja)
ES (1) ES2683793T3 (ja)
MX (1) MX2013001661A (ja)
PL (1) PL2624564T3 (ja)
WO (1) WO2012042860A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014054267A1 (ja) * 2012-10-01 2014-04-10 パナソニック株式会社 画像符号化装置及び画像符号化方法
US10264280B2 (en) 2011-06-09 2019-04-16 Qualcomm Incorporated Enhanced intra-prediction mode signaling for video coding using neighboring mode
WO2020054060A1 (ja) * 2018-09-14 2020-03-19 株式会社ソシオネクスト 動画像符号化方法及び動画像符号化装置

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103385002A (zh) 2010-02-17 2013-11-06 韩国电子通信研究院 用于对超高清图像进行编码的装置及其方法、以及解码装置及其方法
CN103220506B (zh) 2012-01-19 2015-11-25 华为技术有限公司 一种编解码方法和设备
AU2016262259B2 (en) * 2015-05-12 2019-01-17 Samsung Electronics Co., Ltd. Image decoding method for performing intra prediction and device thereof, and image encoding method for performing intra prediction and device thereof
US20190215521A1 (en) * 2016-09-22 2019-07-11 Mediatek Inc. Method and apparatus for video coding using decoder side intra prediction derivation
CN110546956B (zh) * 2017-06-30 2021-12-28 华为技术有限公司 一种帧间预测的方法及装置
WO2019035658A1 (ko) * 2017-08-17 2019-02-21 엘지전자 주식회사 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
CN116389734A (zh) * 2017-12-22 2023-07-04 数码士有限公司 视频信号处理方法和设备
CN109996066A (zh) * 2017-12-29 2019-07-09 富士通株式会社 图像编码装置,图像解码装置和电子设备
JP7154770B2 (ja) * 2018-01-31 2022-10-18 株式会社豊田自動織機 ウォータージェット織機の水噴射装置
MX2021002968A (es) * 2018-09-19 2021-05-12 Fujitsu Ltd Aparato de codificacion de video, metodo de codificacion de video, programa de codificacion de video, aparato de decodificacion de video, metodo de decodificacion de video y programa de decodificacion de video.
JP7323014B2 (ja) * 2018-09-19 2023-08-08 富士通株式会社 映像復号方法
US10848763B2 (en) * 2018-11-14 2020-11-24 Tencent America LLC Method and apparatus for improved context design for prediction mode and coded block flag (CBF)
EP3829167A4 (en) 2018-12-25 2021-08-11 Guangdong Oppo Mobile Telecommunications Corp., Ltd. DECODING PREDICTION METHOD AND APPARATUS, AND COMPUTER STORAGE MEDIUM
KR20210005373A (ko) * 2019-07-03 2021-01-14 삼성디스플레이 주식회사 압축 영상 비트스트림을 복호화하여 영상을 표시하는 표시 장치, 및 표시 장치의 구동 방법
CN114786012B (zh) * 2022-06-16 2022-09-02 深圳比特微电子科技有限公司 一种码率控制方法、装置和可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003520531A (ja) * 2000-01-21 2003-07-02 ノキア コーポレイション イメージをコード化する方法およびイメージコーダ
JP2005528047A (ja) * 2002-05-28 2005-09-15 シャープ株式会社 画像符号化システム、画像復号システム、及び画像を分割したブロックの画素値の予測方法
JP2007116351A (ja) * 2005-10-19 2007-05-10 Ntt Docomo Inc 画像予測符号化装置、画像予測復号装置、画像予測符号化方法、画像予測復号方法、画像予測符号化プログラム、及び画像予測復号プログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7386048B2 (en) 2002-05-28 2008-06-10 Sharp Laboratories Of America, Inc. Methods and systems for image intra-prediction mode organization
US7289672B2 (en) 2002-05-28 2007-10-30 Sharp Laboratories Of America, Inc. Methods and systems for image intra-prediction mode estimation
US7236524B2 (en) 2002-05-28 2007-06-26 Sharp Laboratories Of America, Inc. Methods and systems for image intra-prediction mode communication
KR20050112445A (ko) * 2004-05-25 2005-11-30 경희대학교 산학협력단 예측 부호화/복호화 장치, 예측 부호화/복호화 방법 및 그방법을 수행하는 프로그램이 기록된 컴퓨터 판독가능한기록매체
DE102005051091A1 (de) * 2005-10-25 2007-04-26 Siemens Ag Verfahren und Vorrichtungen zur Bestimmung und Rekonstruktion eines prädizierten Bildbereichs
KR100750145B1 (ko) * 2005-12-12 2007-08-21 삼성전자주식회사 영상의 인트라 예측 부호화, 복호화 방법 및 장치
JP4908180B2 (ja) * 2006-12-20 2012-04-04 株式会社東芝 動画像符号化装置
EP2081386A1 (en) * 2008-01-18 2009-07-22 Panasonic Corporation High precision edge prediction for intracoding
KR101306834B1 (ko) 2008-09-22 2013-09-10 에스케이텔레콤 주식회사 인트라 예측 모드의 예측 가능성을 이용한 영상 부호화/복호화 장치 및 방법
KR101567974B1 (ko) * 2009-01-05 2015-11-10 에스케이 텔레콤주식회사 블록 모드 부호화/복호화 방법 및 장치와 그를 이용한 영상부호화/복호화 방법 및 장치
JP5158003B2 (ja) * 2009-04-14 2013-03-06 ソニー株式会社 画像符号化装置と画像符号化方法およびコンピュータ・プログラム
US8902978B2 (en) * 2010-05-30 2014-12-02 Lg Electronics Inc. Enhanced intra prediction mode signaling
US20110317757A1 (en) * 2010-06-25 2011-12-29 Qualcomm Incorporated Intra prediction mode signaling for finer spatial prediction directions
US9215470B2 (en) 2010-07-09 2015-12-15 Qualcomm Incorporated Signaling selected directional transform for video coding

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003520531A (ja) * 2000-01-21 2003-07-02 ノキア コーポレイション イメージをコード化する方法およびイメージコーダ
JP2005528047A (ja) * 2002-05-28 2005-09-15 シャープ株式会社 画像符号化システム、画像復号システム、及び画像を分割したブロックの画素値の予測方法
JP2007116351A (ja) * 2005-10-19 2007-05-10 Ntt Docomo Inc 画像予測符号化装置、画像予測復号装置、画像予測符号化方法、画像予測復号方法、画像予測符号化プログラム、及び画像予測復号プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
TOMOYUKI YAMAMOTO ET AL.: "Flexible Representation of Intra Prediction Modes", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/ SC29/WG11 2ND MEETING, 21 July 2010 (2010-07-21), GENEVA, CH, XP030007643 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10264280B2 (en) 2011-06-09 2019-04-16 Qualcomm Incorporated Enhanced intra-prediction mode signaling for video coding using neighboring mode
WO2014054267A1 (ja) * 2012-10-01 2014-04-10 パナソニック株式会社 画像符号化装置及び画像符号化方法
WO2020054060A1 (ja) * 2018-09-14 2020-03-19 株式会社ソシオネクスト 動画像符号化方法及び動画像符号化装置
US11516481B2 (en) 2018-09-14 2022-11-29 Socionext Inc. Video encoding method and video encoding device

Also Published As

Publication number Publication date
KR20170065668A (ko) 2017-06-13
US20160353114A1 (en) 2016-12-01
CN107682702B (zh) 2020-08-11
EP3383046A1 (en) 2018-10-03
US11206409B2 (en) 2021-12-21
KR101857935B1 (ko) 2018-05-14
JP5728062B2 (ja) 2015-06-03
ES2683793T3 (es) 2018-09-27
KR101966605B1 (ko) 2019-04-05
US20140044169A1 (en) 2014-02-13
PL2624564T3 (pl) 2018-11-30
MX2013001661A (es) 2013-03-21
CA2806511A1 (en) 2012-04-05
KR20130124285A (ko) 2013-11-13
CA2806511C (en) 2018-09-04
JP5436719B1 (ja) 2014-03-05
US9756338B2 (en) 2017-09-05
US20210084306A1 (en) 2021-03-18
JP5395274B2 (ja) 2014-01-22
JPWO2012042860A1 (ja) 2014-02-06
US10306234B2 (en) 2019-05-28
KR20180049267A (ko) 2018-05-10
JP2014042310A (ja) 2014-03-06
KR101792308B1 (ko) 2017-10-31
EP2624564A4 (en) 2015-06-24
EP2624564B1 (en) 2018-05-30
US10887599B2 (en) 2021-01-05
CN103053162B (zh) 2017-12-08
US20130136178A1 (en) 2013-05-30
US20150071342A1 (en) 2015-03-12
EP2624564A1 (en) 2013-08-07
CN107682702A (zh) 2018-02-09
JP2014042309A (ja) 2014-03-06
CN103053162A (zh) 2013-04-17

Similar Documents

Publication Publication Date Title
JP5728062B2 (ja) 画像符号化復号装置
JP5859692B2 (ja) 画像符号化復号化装置
JP5871906B2 (ja) 復号方法、プログラムおよび復号装置
JP6145820B2 (ja) 画像符号化方法、画像符号化装置、画像復号方法、及び画像復号装置
JP2017085651A (ja) フィルタリング方法およびフィルタリング装置
WO2013187060A1 (ja) 動画像符号化方法、動画像復号化方法、動画像符号化装置および動画像復号化装置
WO2012042893A1 (ja) 画像復号方法、画像符号化方法、画像復号装置、画像符号化装置、プログラムおよび集積回路
WO2013161203A1 (ja) 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、及び画像符号化復号装置
JP6004375B2 (ja) 画像符号化方法および画像復号化方法
JP2013526199A (ja) 予測誤差から導出されるブロック形状を用いた予測符号化
JP5936939B2 (ja) 画像符号化方法および画像復号化方法
WO2011129067A1 (ja) 動き補償方法、画像復号方法、画像符号化方法、動き補償装置、プログラム、及び集積回路
JP5873029B2 (ja) 動画像符号化方法及び動画像復号化方法
WO2012081225A1 (ja) 画像符号化方法、及び画像復号方法
WO2013001795A1 (ja) 画像符号化方法、画像復号方法、画像符号化装置、および画像復号装置
WO2012086166A1 (ja) 画像符号化方法及び画像復号化方法
WO2013046616A1 (ja) 画像符号化装置、画像復号装置、画像符号化方法及び画像復号方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180037651.2

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11828426

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012536206

Country of ref document: JP

ENP Entry into the national phase

Ref document number: 20137001290

Country of ref document: KR

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2806511

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: 13814255

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2011828426

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: MX/A/2013/001661

Country of ref document: MX

NENP Non-entry into the national phase

Ref country code: DE