WO2012172796A1 - 画像符号化装置、画像符号化方法及び画像符号化プログラム、並びに画像復号装置、画像復号方法及び画像復号プログラム - Google Patents

画像符号化装置、画像符号化方法及び画像符号化プログラム、並びに画像復号装置、画像復号方法及び画像復号プログラム Download PDF

Info

Publication number
WO2012172796A1
WO2012172796A1 PCT/JP2012/003863 JP2012003863W WO2012172796A1 WO 2012172796 A1 WO2012172796 A1 WO 2012172796A1 JP 2012003863 W JP2012003863 W JP 2012003863W WO 2012172796 A1 WO2012172796 A1 WO 2012172796A1
Authority
WO
WIPO (PCT)
Prior art keywords
prediction mode
intra
priority
priority prediction
target block
Prior art date
Application number
PCT/JP2012/003863
Other languages
English (en)
French (fr)
Inventor
徹 熊倉
福島 茂
上田 基晴
Original Assignee
株式会社Jvcケンウッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2011135321A external-priority patent/JP5477343B2/ja
Priority claimed from JP2011135322A external-priority patent/JP5252032B2/ja
Priority to KR1020147001105A priority Critical patent/KR101590733B1/ko
Priority to KR1020167002053A priority patent/KR101677003B1/ko
Priority to BR122020013891-2A priority patent/BR122020013891B1/pt
Priority to KR1020167031285A priority patent/KR101742932B1/ko
Application filed by 株式会社Jvcケンウッド filed Critical 株式会社Jvcケンウッド
Priority to KR1020177014186A priority patent/KR101842851B1/ko
Priority to CN201280028619.2A priority patent/CN103597826B/zh
Priority to EP12800165.8A priority patent/EP2723077B1/en
Priority to KR1020187007829A priority patent/KR101953522B1/ko
Priority to BR112013032349-3A priority patent/BR112013032349B1/pt
Publication of WO2012172796A1 publication Critical patent/WO2012172796A1/ja
Priority to US14/103,476 priority patent/US20140098865A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques

Definitions

  • the present invention relates to image coding and decoding technology, and more particularly to intra-screen coding and decoding technology.
  • MPEG-4 AVC which is an international standard for moving picture coding
  • Intra prediction is to create a predicted image of a processing target block by duplicating a decoded sample value adjacent to the processing target block in a designated prediction direction.
  • nine types of prediction directions shown in FIGS. 1A and 1B are defined, and an appropriate prediction direction is transmitted by transmitting the mode number of the intra prediction mode indicating the prediction direction in each block. It is configured to specify.
  • ⁇ ⁇ Predictive image quality can be improved by extending the number of prediction direction definitions.
  • symbol 201 of Fig.2 (a) shows the example of a definition of 17 types of prediction directions
  • symbol 202 of FIG.2 (b) shows the example of a definition of 34 types of prediction directions.
  • an increase in the number of definitions in the prediction direction leads to an increase in the amount of transmission information in the intra prediction mode.
  • the proportion of the intra prediction mode in the total amount of generated codes increases, so the need for an efficient transmission method increases.
  • Patent Document 1 describes means for reducing the code amount of the intra prediction mode by reducing the total number of intra prediction modes to be transmitted.
  • the method of Patent Literature 1 scans the intra prediction modes of a plurality of blocks for a predetermined integration unit, and when all the intra prediction modes in the integration unit are the same, one intra prediction mode for each integration unit. Is transmitted to reduce the in-screen prediction mode to be transmitted.
  • an intra prediction mode occurrence probability model that assumes that the same intra prediction mode as the intra prediction mode of the block adjacent to the encoding target block of the image is likely to be selected in the encoding target block.
  • the intra prediction mode is encoded on the assumption of
  • there is a method of simply setting the above occurrence probability model but it does not sufficiently reflect the occurrence probability of the actual intra prediction mode. It has been difficult to efficiently encode.
  • the method of adaptively setting an optimal occurrence probability model in each block enables efficient encoding of the intra prediction mode, but leads to complexity of the intra prediction process.
  • the present invention has been made in view of such circumstances, and an object thereof is to provide an image encoding and decoding technique capable of suppressing the complexity of intra prediction processing and further improving the encoding efficiency. is there.
  • an image encoding apparatus encodes an image signal using an intra-screen prediction mode selected from a plurality of intra-screen prediction modes on a block basis and selects the image signal.
  • An image encoding apparatus that encodes information for specifying a predicted intra prediction mode, an intra prediction mode selection unit (509) that selects an intra prediction mode of an encoding target block, and an encoded block
  • An intra-screen prediction mode storage unit (601) that stores an intra-screen prediction mode, and intra-screen prediction modes of a plurality of reference blocks used for intra-screen prediction processing of the encoding target block are acquired from the intra-screen prediction mode storage unit.
  • Priority prediction mode for creating a list of priority prediction modes that are candidates for the intra prediction mode of the encoding target block based on the acquired intra prediction mode.
  • the priority prediction mode index deriving unit (605) for deriving information specifying the priority prediction mode according to the list, and the intra prediction mode of the encoding target block is not
  • a non-priority prediction mode index deriving unit (607) for deriving information specifying the non-priority prediction mode based on the list when it is a priority prediction mode, and the intra prediction mode of the coding target block is the priority prediction mode.
  • the priority prediction mode list creation unit creates the list having a predetermined number of elements in any encoding target block regardless of the number of different intra prediction modes of the plurality of reference blocks.
  • Another aspect of the present invention is an image encoding method.
  • This method encodes an image signal using an intra-screen prediction mode selected from a plurality of intra-screen prediction modes in units of blocks, and encodes information specifying the selected intra-screen prediction mode.
  • An intra-screen prediction mode selection step for selecting an intra-screen prediction mode of a block to be encoded, and a memory for storing the intra-screen prediction mode of an encoded block.
  • the in-screen prediction modes of a plurality of reference blocks used for the in-screen prediction process are acquired, and a list of priority prediction modes that are candidates for the in-screen prediction mode of the encoding target block is created based on the acquired in-screen prediction mode.
  • Priority prediction mode list creation step and information indicating whether the intra prediction mode of the encoding target block is a priority prediction mode A priority prediction mode determination flag calculation step for calculating, and a priority prediction mode index derivation step for deriving information specifying the priority prediction mode according to the list when the intra prediction mode of the coding target block is the priority prediction mode.
  • the intra prediction mode of the encoding target block is the non-priority prediction mode
  • the non-priority prediction mode is specified.
  • the information that is to be encoded is the priority prediction mode in the intra prediction mode of the encoding target block.
  • the priority prediction mode list creation step creates the list having a predetermined number of elements in any coding target block regardless of the number of different intra-screen prediction modes of the plurality of reference blocks.
  • An image decoding apparatus decodes information for specifying an intra prediction mode in units of blocks from an encoded stream, and decodes an image signal by using the information for specifying the decoded intra prediction mode.
  • An image decoding apparatus wherein an intra-screen prediction mode storage unit (901) that stores an intra-screen prediction mode of a decoded block, and an intra-screen prediction mode of a plurality of reference blocks used for intra-screen prediction processing of a decoding target block
  • a priority prediction mode list creation unit (902) that obtains from the intra prediction mode storage unit and creates a list of priority prediction modes that are candidates for the intra prediction mode of the decoding target block based on the acquired intra prediction mode; , If the intra prediction mode of the decoding target block is a priority prediction mode, information specifying the priority prediction mode is stored in the decoding pair.
  • the priority prediction mode list creation unit (902) creates the list having a predetermined number of elements in any decoding target block regardless of the number of different intra prediction modes of the plurality of reference blocks.
  • This method is an image decoding method for decoding an image signal by decoding information for specifying an intra prediction mode in block units from an encoded stream, and using the information for specifying the decoded intra prediction mode, With reference to the memory storing the intra-screen prediction mode of the decoded block, the intra-screen prediction mode of a plurality of reference blocks used for the intra-screen prediction process of the decoding target block is acquired, and the above-described intra-screen prediction mode A priority prediction mode list creation step for creating a list of priority prediction modes that are candidates for the intra prediction mode of the decoding target block; and if the intra prediction mode of the decoding target block is the priority prediction mode, the priority prediction mode is selected.
  • the information to be identified is the non-priority prediction mode.
  • Decoding information for decoding together with information indicating whether the intra prediction mode of the decoding target block is a priority prediction mode, and information indicating whether the intra prediction mode is a priority prediction mode Based on the information that specifies the decoded priority prediction mode, the priority prediction mode derivation step that derives the priority prediction mode according to the list when it is determined that the intra prediction mode of the decoding target block is the priority prediction mode.
  • the priority prediction mode list creation step creates the list having a predetermined number of elements in any decoding target block regardless of the number of different intra-screen prediction modes of the plurality of reference blocks.
  • processing target block refers to an encoding target block in the case of encoding processing by an image encoding device, and refers to a decoding target block in the case of decoding processing by an image decoding device. is there.
  • Processed block refers to a decoded block that has been encoded in the case of encoding processing by the image encoding device, and a decoded block in the case of decoding processing by the image decoding device. is there.
  • this meaning is used.
  • FIG. 3 is a diagram illustrating a coding tree for coding the nine patterns of intra prediction modes in FIG.
  • the transmission method in the intra prediction mode in MPEG-4 AVC follows the coding tree indicated by reference numeral 301 in FIG.
  • an internal node (circle) is assigned a code
  • a leaf (square) is assigned an intra prediction mode number.
  • reference numeral 302 denotes a priority prediction mode. The priority prediction mode will be described later. For example, “1” is assigned to the priority prediction mode, and code “0111” is assigned to mode 7.
  • FIG. 4 is a diagram illustrating an encoding syntax for transmitting the intra prediction mode according to the encoding tree of FIG.
  • the prev_intra_pred_flag shown in FIGS. 4A and 4B is a syntax element that specifies whether the mode is the priority prediction mode
  • rem_intra_pred_mode is a syntax element that represents a mode number.
  • prev_intra_pred_flag 1-bit prev_intra_pred_flag is read from the encoded sequence, and when prev_intra_pred_flag is 1, the intra prediction mode is set as the priority prediction mode, and the next syntax is started. Otherwise, 3-bit prev_intra_pred_flag is read, and the intra prediction mode is set as the prediction mode indicated by rem_intra_pred_mode.
  • the already processed adjacent block is adjacent to the left side of the processing target block and located on the uppermost side (referred to as “reference block A”), and adjacent to the upper side of the processing target block and positioned on the leftmost side (see “Reference”). It is referred to as “Block B”.
  • An example of an already processed adjacent reference block will be described with reference to FIG. All the blocks (reference numerals 1802 to 1811) located on the upper side and / or the left side of the processing target block 1801 in the figure are already processed, and the other blocks (reference numerals 1812 to 1815) are not processed.
  • the block adjacent to the upper side of the processing target block 1801 is only the block 1803, and this block 1803 is referred to as a reference block B.
  • the advantage of adopting such a transmission method is that the code amount of the intra prediction mode can be reduced on average by assigning a short code word to the prediction mode whether the prediction mode to be processed is equal to the priority prediction mode. .
  • the coding efficiency is improved after suppressing the increase in circuit scale and the complexity of processing.
  • FIG. 5 is a block diagram showing a configuration of the image coding apparatus according to the embodiment.
  • the image coding apparatus according to the embodiment includes a subtracting unit 501, an orthogonal transform / quantization unit 502, an inverse quantization / inverse transform unit 503, an adder 504, a decoded image memory 505, and an intra prediction unit 506.
  • the intra prediction mode selection unit 509 selects an optimal intra prediction mode for each block of the image, and provides the selected intra prediction mode to the intra prediction unit 506 and the intra prediction mode encoding unit 508.
  • the intra prediction mode encoding unit 508 performs variable length encoding on the input intra prediction mode and outputs an intra prediction mode bitstream. The detailed configuration and operation of the intra prediction mode encoding unit 508 will be described later.
  • the intra prediction unit 506 generates an intra prediction image using the input intra prediction mode and the decoded image of the adjacent block stored in the decoded image memory 505, and gives the generated intra prediction image to the subtraction unit 501.
  • the subtraction unit 501 generates a difference image by subtracting the intra prediction image from the original image to be encoded, and gives the generated difference signal to the orthogonal transform / quantization unit 502.
  • the orthogonal transform / quantization unit 502 generates texture information by performing orthogonal transform / quantization on the difference image, and provides the generated texture information to the inverse quantization / inverse transform unit 503 and the texture information encoding unit 507.
  • Texture information encoding unit 507 entropy encodes texture information and outputs a texture information bitstream.
  • the inverse quantization / inverse transform unit 503 generates a decoded differential signal by performing inverse quantization / inverse orthogonal transform on the texture information received from the orthogonal transform / quantization unit 502, and adds the generated decoded differential signal to the adder 504. To give.
  • the addition unit 504 generates the decoded image by adding the intra-predicted image and the decoded differential signal, and stores the generated decoded image in the decoded image memory 505.
  • FIG. 8 is a block diagram showing the configuration of the video decoding apparatus according to the embodiment.
  • the image decoding apparatus according to the embodiment includes a texture information decoding unit 801, an inverse quantization / inverse conversion unit 802, an intra prediction mode decoding unit 803, an addition unit 804, a decoded image memory 805, and an intra prediction unit 806. Is provided. Since the embodiment of the present invention focuses on intra-screen prediction, constituent elements related to inter-screen prediction are not shown and description thereof is omitted.
  • the decoding process of the image decoding apparatus in FIG. 8 corresponds to the decoding process provided in the image encoding apparatus in FIG. 5, so the inverse quantization / inverse conversion unit 802 and the addition unit 804 in FIG. 8.
  • Each configuration of the decoded image memory 805 and the intra prediction unit 806 includes each of the inverse quantization / inverse transform unit 503, the addition unit 504, the decoded image memory 505, and the intra prediction unit 506 of the image encoding device in FIG. And corresponding functions.
  • the intra prediction mode decoding unit 803 generates an intra prediction mode by entropy decoding the input intra prediction mode bitstream, and provides the generated intra prediction mode to the intra prediction unit 806.
  • the detailed configuration and operation of the intra prediction mode decoding unit 803 will be described later.
  • the intra prediction unit 806 generates an intra prediction image using the input intra prediction mode and the decoded image of the adjacent block stored in the decoded image memory 805, and provides the generated intra prediction image to the adding unit 804.
  • Texture information decoding unit 801 generates texture information by entropy decoding the texture information.
  • the generated texture information is given to the inverse quantization / inverse transform unit 802.
  • the inverse quantization / inverse transform unit 802 performs inverse quantization / inverse orthogonal transform on the texture information received from the texture information decoding unit 801 to generate a decoded differential signal, and provides the generated decoded differential signal to the adding unit 804 .
  • the addition unit 804 generates a decoded image by adding the intra-predicted image and the decoded differential signal, stores the generated decoded image in the decoded image memory 805, and outputs the decoded image.
  • the intra prediction mode encoding and decoding processing according to the embodiment of the present invention is performed by the intra prediction mode encoding unit 508 of the video encoding device in FIG. 5 and the intra prediction mode decoding unit 803 of the video decoding device in FIG. To be implemented.
  • the intra prediction mode encoding and decoding processing according to the embodiment will be described.
  • Encoding block In the embodiment, as shown in FIG. 18, the screen is hierarchically divided into rectangular blocks, and each block is sequentially processed in a predetermined processing order. Each block to be divided is called a coding block.
  • a block 1817 in FIG. 18 is a maximum unit of division in the embodiment, and this is called a maximum encoding block.
  • a block 1816 in FIG. 18 is a minimum unit of division in the embodiment, and this is called a minimum coding block. In the following description, the minimum encoding block is 4 ⁇ 4 pixels and the maximum encoding block is 16 ⁇ 16 pixels.
  • a unit for performing intra prediction is called a prediction block.
  • the prediction block has a size of not less than the minimum coding block and not more than the maximum coding block.
  • blocks 1802, 1803 and 1804 are 16 ⁇ 16 blocks
  • blocks 1805, 1810, 1811 and 1801 are 8 ⁇ 8 blocks
  • blocks 1806, 1807, 1808 and 1809 are 4 ⁇ 4 blocks.
  • Blocks 1812, 1813, 1814, and 1815 are unprocessed blocks, and the encoding block size is not fixed.
  • an optimal prediction block size is determined and the prediction block size is transmitted.
  • the predicted block size is obtained from the bit stream.
  • the prediction block is described as a processing unit.
  • the reference block is a block A that is adjacent to the left side of the processing target block and located on the uppermost side, and a block B that is adjacent to the upper side of the processing target block and is positioned on the leftmost side.
  • the prediction mode of block A is refModeA
  • the prediction mode of block B is refModeB.
  • the intra prediction mode of each reference block is referred to as “reference intra prediction mode”.
  • the reference intra prediction mode when no reference block exists is set to a DC prediction mode (also referred to as “average value mode”).
  • the intra prediction mode configuration is switched according to the size of the prediction block.
  • 17 patterns of intra prediction modes shown by reference numeral 201 in FIG. 2A are defined.
  • 34 shown in reference numeral 202 in FIG. 2B are defined.
  • FIG. 6 is a block diagram of a detailed configuration of the first exemplary embodiment of the intra prediction mode encoding unit 508 of FIG.
  • the intra prediction mode encoding unit 508 according to the first embodiment includes an intra prediction mode memory 601, a priority prediction mode list creation unit 602, a priority prediction mode determination flag calculation unit 603, a priority prediction mode determination flag encoding unit 604, and priority prediction.
  • a mode index calculation unit 605, a priority prediction mode index encoding unit 606, a non-priority prediction mode index calculation unit 607, a non-priority prediction mode index encoding unit 608, and a priority prediction mode determination unit 609 are provided.
  • the encoding procedure in the intra prediction mode will be described with reference to the flowchart of FIG.
  • the priority prediction mode list creation unit 602 acquires the intra prediction modes refModeA and refModeB of adjacent blocks from the intra prediction mode memory 601, creates a priority prediction mode list mpMlist, and determines a priority prediction mode list size mpmlistsize (step S701). . Details of the procedure for creating the priority prediction mode list will be described later. Further, the target intra prediction mode is stored in the intra prediction mode memory 601. In the present embodiment, either 1 or 2 is set as the priority prediction mode list size mpmListSize, and when the reference modes refModeA and refModeB are equal, mpmListSize is 1, and when the reference modes refModeA and refModeB are different, mpmListSize is 2.
  • the priority prediction mode determination flag calculation unit 603 acquires the target prediction mode and the priority prediction mode list mpmList, and calculates a priority prediction mode determination flag mpmFlag.
  • the priority prediction mode index calculation unit 605 calculates the priority prediction mode index mpmIndex (step S702), and the priority prediction mode determination flag encoding unit 604 encodes the priority prediction mode determination flag ppmFlag (step S703). Details of the priority prediction mode determination flag and the priority prediction mode index calculation procedure will be described later.
  • the priority prediction mode determination unit 609 determines a priority prediction mode determination flag mpmFlag (step S704).
  • the priority prediction mode index encoding unit 606 determines the priority prediction mode index mpmIndex (step S705).
  • mpmListSize 1, the priority prediction mode index mpmIndex is always 0. Therefore, encoding of mpmIndex is not performed, and the process ends.
  • mpmListSize 2
  • the priority prediction mode index mpmIndex is encoded (step S706), and the process ends.
  • the non-priority prediction mode index calculation unit 607 calculates a non-priority prediction mode index remModeIndex (step S707), and the non-priority prediction mode index encoding unit 608 calculates The non-priority prediction mode remModeIndex is encoded (step S708). Details of the non-priority prediction mode index calculation procedure and the non-priority prediction mode encoding procedure will be described later.
  • the priority prediction mode list creation unit 602 acquires the intra prediction modes refModeA and refModeB of the adjacent blocks from the intra prediction mode memory 601, and compares refModeA and refModeB (step S1101).
  • mpmList [0] refModeA is set (step S1102)
  • mpmListSize 1 is set (step S1103), and the process proceeds to step S702 in FIG.
  • the process proceeds by scanning mpMlist in ascending order.
  • the priority prediction mode determination flag calculation unit 603 and the priority prediction mode index calculation unit 605 initialize the priority prediction mode determination flag mpmFlag and the priority prediction mode index mpmIndex with false and 0, respectively.
  • a variable i for scanning mpMlist is initialized with 0 (step S1201).
  • step S1202 If the variable i is less than mpmListSize (step S1202), that is, if all elements of mpmList have not been scanned yet, mpmList [i] is compared with currModeIndex (step S1203). When mpmList [i] and currModeIndex are equal, it indicates that the target prediction mode is equal to the i-th element of the priority prediction mode list, and mpmFlag is set to true and mpmIndex is set to i (step S1204). The process proceeds to step S703. If mpmList [i] and currModeIndex are different, i is incremented by 1 (step S1205) and scanning is continued.
  • step S1202 when the variable i is greater than or equal to mpmListSize, that is, when all elements of mpmList have been scanned, the priority prediction mode determination flag and priority prediction mode index calculation procedure is terminated, and the process proceeds to step S703 in FIG. move on.
  • Non-priority prediction mode index calculation procedure Details of the non-priority prediction mode index calculation procedure in step S707 of FIG. 7 will be described with reference to the flowchart of FIG.
  • the non-priority prediction mode index calculation unit 607 initializes the non-priority prediction mode index remModeIndex with the target prediction mode currModeIndex, and initializes a variable i for scanning mpmList with mpmListSize-1 (step S1301).
  • step S1302 If the variable i is greater than or equal to 0 (step S1302), that is, if all the elements of mpmList have not been scanned, remModeIndex and mpmList [i] are compared (step S1303). If remModeIndex is larger than mpmList [i], 1 is subtracted from the value of remModeIndex (step S1304). 1 is subtracted from the value of the variable i (step S1305), and scanning is continued.
  • step S1302 when the variable i is less than 0, that is, when all elements of mpmList have been scanned, the non-priority prediction mode index calculation procedure is terminated, and the process proceeds to step S708 in FIG.
  • Non-priority prediction mode index encoding procedure Details of the non-priority prediction mode index encoding procedure in step S708 of FIG. 7 will be described with reference to the flowchart of FIG.
  • the non-priority prediction mode index encoding unit 608 determines the target block size (step S1401).
  • step S1405 When remModeIndex is 31 or more (step S1405), if remModeIndex is 31, the 6-bit sequence “111110” is encoded (step S1406), and if remModeIndex is 32, the 6-bit sequence “111111” is encoded ( Step S1407), the process is terminated.
  • 17 patterns of reference numeral 201 in FIG. 2A are defined for 4 ⁇ 4 blocks.
  • the reason is to simply encode / decode a non-priority prediction mode index of 4 ⁇ 4 blocks.
  • 18 patterns of reference numeral 203 in FIG. 2C are defined instead of reference numeral 201.
  • the definition of 18 patterns has the advantage that it can express all prediction directions in units of 5 degrees, and the prediction accuracy seen in the code 201 is not lowered.
  • remModeIndex is converted to any value of [0, 16]
  • remModeIndex is [0, 15].
  • ] Will be converted into one of the following values.
  • the number of priority prediction modes is one, 16 patterns of non-priority prediction mode indexes can be taken, and variable length coding is performed as in the 8 ⁇ 8 block and 16 ⁇ 16 block examples of this embodiment. This needs to be done, and the process becomes complicated.
  • the 33 pattern of the code 204 in FIG. 2D is defined for 8 ⁇ 8 blocks and 16 ⁇ 16, a fixed length encoding of 5 bits is possible as in the 4 ⁇ 4 block processing.
  • the number of intra prediction mode candidates decreases, the encoding efficiency deteriorates.
  • the number of intra prediction mode candidates and the complexity of processing are in a trade-off relationship, but the 4 ⁇ 4 block has a smaller difference in prediction accuracy quality due to a smaller angle difference than the 8 ⁇ 8 and 16 ⁇ 16 blocks.
  • the influence of the amount of calculation related to the 4 ⁇ 4 block is larger than that of the 8 ⁇ 8 and 16 ⁇ 16 blocks, 17 patterns of the code 201 for the 4 ⁇ 4 block, 8 ⁇ 8, 16 34 patterns of reference numeral 202 are defined for the ⁇ 16 block.
  • FIG. 9 is a block diagram of a detailed configuration of the first exemplary embodiment of the intra prediction mode decoding unit 803 in FIG.
  • the intra prediction mode decoding unit 803 according to the first embodiment includes an intra prediction mode memory 901, a priority prediction mode list creation unit 902, a priority prediction mode determination flag decoding unit 903, a priority prediction mode index decoding unit 904, and a priority prediction mode calculation unit. 905, a non-priority prediction mode index decoding unit 906, and a non-priority prediction mode calculation unit 907.
  • the intra prediction mode memory 901 in FIG. 9 corresponds to the intra prediction mode encoding process in the intra prediction mode encoding unit 508 in FIG. 6, the intra prediction mode memory 901 in FIG.
  • Each configuration of the priority prediction mode list creation unit 902 has the same function as each configuration of the intra prediction mode memory 601 and the priority prediction mode list creation unit 602 in FIG.
  • the priority prediction mode list creation unit 902 acquires the intra prediction modes refModeA and refModeB of adjacent blocks from the intra prediction mode memory 901, creates the priority prediction mode list mpMList, and determines the size mpMlistSize of the priority prediction mode list (step S1001). ). Similar to the priority prediction mode list creation procedure in the priority prediction mode list creation unit 602 of FIG. 6, the priority prediction mode list creation procedure follows the procedure shown in the flowchart of FIG.
  • the priority prediction mode determination flag decoding unit 903 reads 1 bit from the encoded sequence, decodes the priority prediction mode determination flag ppmFlag (step S1002), and determines the value of the priority prediction mode determination flag ppmFlag (step S1003).
  • the priority prediction mode index decoding unit 904 determines the number mpmListSize of the priority prediction modes (step S1004). If there is one mpmListSize, the priority prediction mode index mpmIndex is set to 0 (step S1005). If there are two mpmListSizes, one more bit is read from the encoded sequence, and the priority prediction mode index mpmIndex is decoded (step S1006). Further, the priority prediction mode calculation unit 905 sets the mpmIndex-th element mpmList [mpmIndex] of the priority prediction mode list mpmList as the target prediction mode currModeIndex (step S1007), and ends the process.
  • the non-priority prediction mode index decoding unit 906 decodes the non-priority prediction mode index remModeIndex (step S1008), and the non-priority prediction mode calculation unit 907 calculates the calculated remModeIndex.
  • the target prediction mode currModeIndex is calculated based on the original (step S1009).
  • the target prediction mode currModeIndex is stored in the intra prediction mode memory 901, and the process ends. The decoding procedure of the non-priority prediction mode index and the target prediction mode calculation procedure will be described later.
  • Non-priority prediction mode index decoding procedure Details of the non-priority prediction mode index decoding procedure in step S1008 of FIG. 10 will be described with reference to the flowchart of FIG.
  • the non-priority prediction mode index decoding unit 906 determines the target block size (step S1501).
  • step S1502 When the target block is a 4 ⁇ 4 block, 4-bit fixed length decoding is performed to obtain remModeIndex (step S1502).
  • remModeIndex When the target block is an 8 ⁇ 8 block or a 16 ⁇ 16 block, first, 5-bit fixed length decoding is performed to obtain remModeIndex (step S1503). The value of remModeIndex is determined (step S1504).
  • nextBit is further decoded (step S1505), and the value of nextBit is determined (step S1506). If nextBit is “0”, remModeIndex is set to 31, the non-priority prediction mode index decoding procedure is terminated, and the process proceeds to step S1009 in FIG. If nextBit is “0”, remModeIndex is set to 32, the non-priority prediction mode index decoding procedure is terminated, and the process proceeds to step S1009 in FIG.
  • the process proceeds by scanning mpmList in ascending order of the index.
  • the non-priority prediction mode calculation unit 907 initializes the target prediction mode currModeIndex with the non-priority prediction mode index remModeIndex, and initializes a variable i for scanning mpMlist with 0 (step S1601).
  • currModeIndex and mpmList [i] are compared (step S1603). If currModeIndex is greater than or equal to mpmList [i], 1 is added to the value of currModeIndex (step S1604). 1 is added to the value of the variable i (step S1605), and scanning is continued.
  • step S1602 when i becomes greater than or equal to mpmListSize, that is, when all elements of mpmList have been scanned, the process is terminated.
  • FIG. 23 shows the coding syntax of the intra prediction mode of the coded stream that is output by the coding device of this embodiment and interpreted by the decoding device.
  • the intra prediction mode configuration is switched according to the size of the prediction block.
  • 18 patterns shown by reference numeral 203 in FIG. 2 are defined in the 4 ⁇ 4 block, and a pattern of reference numeral 202 is added to the pattern of reference numeral 201 in FIG. 2 for the 8 ⁇ 8 block and the 16 ⁇ 16 block.
  • 34 patterns are added.
  • the definition of 18 patterns and 34 patterns can represent all prediction directions in units of 11.25 degrees and 7.125 units, respectively. Compared with definitions of 17 patterns and 33 patterns having directions that cannot be expressed in part, the prediction accuracy There is an advantage that does not decrease.
  • the difference from the first embodiment is the 4 ⁇ 4 block intra prediction mode configuration. In this embodiment, since two priority prediction modes are always set, even when 18 patterns of intra prediction modes are defined, the non-priority prediction mode can always be fixed to 16 patterns. It is possible to perform code allocation that is not excessive or insufficient when the non-priority prediction mode is fixed-length encoded.
  • the priority prediction mode list creation unit 602 acquires an intra prediction mode of an adjacent block from the intra prediction mode memory 601, creates a priority prediction mode list mpmList, and determines a priority prediction mode list size mpmListSize (step S ⁇ b> 1701). Details of the procedure for creating the priority prediction mode list will be described later. Further, the target intra prediction mode is stored in the intra prediction mode memory 601. This embodiment is different from the first embodiment in that the priority prediction mode list mpmList is created so that the priority prediction mode list size mpmListSize is always 2.
  • the priority prediction mode determination flag calculation unit 603 and the priority prediction mode index calculation unit 605 acquire the target prediction mode and the priority prediction mode list mpmList, and calculate a priority prediction mode determination flag ppmFlag and a priority prediction mode index mpmIndex (step) S1702), the priority prediction mode determination flag ppmFlag is encoded (step S1703). Details of the priority prediction mode determination flag and the priority prediction mode index calculation procedure are the same as S702 in FIG.
  • the priority prediction mode determination unit 609 determines a priority prediction mode determination flag mpmFlag (step S1704).
  • the priority prediction mode index encoding unit 606 encodes the priority prediction mode index mpmIndex (step S1705) and ends the process.
  • the priority prediction mode list size mpmListSize is always set to 2
  • the priority prediction mode list size mpmListSize determination procedure is omitted.
  • the non-priority prediction mode index calculation unit 607 calculates a non-priority prediction mode index remModeIndex (step S1706), and the non-priority prediction mode index encoding unit 608 further calculates.
  • the non-priority prediction mode remModeIndex is encoded (step S1707).
  • the non-priority prediction mode index calculation procedure is the same as step S707 in FIG. Details of the non-priority prediction mode encoding procedure will be described later.
  • the priority prediction mode list creation unit 602 acquires the intra prediction modes refModeA and refModeB of the adjacent blocks from the intra prediction mode memory 601 and compares refModeA and refModeB (step S1901).
  • mpmList [1] is set to the average value mode when refModeA is not in the average value mode, but if mpMode [1] is set to the average value mode when refModeA is in the average value mode.
  • mpmList [1] and mpmList [0] are the same.
  • the value set in mpmList [1] is determined in advance and does not vary depending on refModeA, refModeB, and the encoding process.
  • mpmList [1] 1 (horizontal It is possible to make the predetermined value different so as to set the (direction prediction mode).
  • the value set here is preferably a prediction mode having a high occurrence frequency.
  • Non-priority prediction mode index encoding procedure Details of the non-priority prediction mode index encoding procedure in step S1707 of FIG. 17 will be described with reference to the flowchart of FIG.
  • the non-priority prediction mode index encoding unit 608 determines the target block size (step S2001).
  • the target block is a 4 ⁇ 4 block
  • 18 patterns of intra prediction are defined.
  • the number of priority prediction modes is two, and remModeIndex is converted to any value of [0, 15]. Since 4 bits are sufficient to represent remModeIndex with a fixed length, 4-bit fixed length encoding is performed on remModeIndex (step S2002), and the process is terminated.
  • remModeIndex is converted to any value of [0, 31]. Since 5 bits are sufficient to represent remModeIndex with a fixed length, 5 bits of fixed length encoding is performed on remModeIndex (step S2003), and the process is terminated.
  • the processing becomes complicated by applying variable length coding of the non-priority prediction mode, or intra This was accompanied by a decrease in encoding efficiency due to a decrease in the number of prediction mode candidates.
  • the non-priority prediction mode index is always fixed length code without reducing the number of intra prediction mode candidates. The coding efficiency can be further improved while maintaining a simple coding procedure.
  • the priority prediction mode list creation unit 902 acquires the intra prediction mode of the adjacent block from the intra prediction mode memory 901, creates the priority prediction mode list mpmList, and determines the size mpmListSize of the priority prediction mode list (step S2101).
  • the second embodiment is different from the first embodiment in that the priority prediction mode list mpmList is created so that the priority prediction mode list size mpmListSize is always 2.
  • the priority prediction mode list creation procedure follows the procedure shown in the flowchart of FIG.
  • the priority prediction mode determination flag decoding unit 903 reads 1 bit from the encoded sequence, decodes the priority prediction mode determination flag ppmFlag (step S2102), and determines the priority prediction mode determination flag ppmFlag (step S2103).
  • the priority prediction mode index decoding unit 904 reads 1 bit from the encoded sequence and decodes the priority prediction mode index mpmIndex (step S2104). Further, the priority prediction mode calculation unit 905 sets the mpmIndex-th element mpmList [mpmIndex] of the priority prediction mode list mpmList as the target prediction mode currModeIndex (step S2105), and ends the process.
  • the priority prediction mode list size mpMListSize is always set to 2
  • the priority prediction mode list size mpMlistSize determination procedure (step S1004) in FIG. 10 of the first embodiment is omitted.
  • the non-priority prediction mode index decoding unit 906 decodes the non-priority prediction mode index remModeIndex (step S2106), and the non-priority prediction mode calculation unit 907 calculates The target prediction mode currModeIndex is calculated based on remModeIndex (step S2107).
  • the target prediction mode currModeIndex is stored in the intra prediction mode memory 901, and the process ends. The procedure for decoding the non-priority prediction mode index will be described later. Since the target prediction mode calculation procedure is the same as that in step S1009 in FIG.
  • Non-priority prediction mode index decoding procedure Details of the non-priority prediction mode index decoding procedure in step S2106 of FIG. 21 will be described with reference to the flowchart of FIG.
  • the non-priority prediction mode calculation unit 907 determines the target block size (step S2201).
  • step S2202 When the target block is a 4 ⁇ 4 block, 4-bit fixed length decoding is performed to obtain remModeIndex (step S2202), the non-priority prediction mode index decoding procedure is terminated, and the process proceeds to step S2107 in FIG.
  • step S2203 When the target block is an 8 ⁇ 8 block or a 16 ⁇ 16 block, 5-bit fixed length decoding is performed to obtain remModeIndex (step S2203), the non-priority prediction mode index decoding procedure is terminated, and the process proceeds to step S2107 in FIG. .
  • FIG. 24 shows the coding syntax of the intra prediction mode of the coded stream that is output by the coding device of this embodiment and interpreted by the decoding device.
  • the priority prediction mode list creation unit 602 acquires the intra prediction modes refModeA and refModeB of adjacent blocks from the intra prediction mode memory 601 and compares refModeA and refModeB (step S2501).
  • the third embodiment differs from the second embodiment in the setting method of mpmList [1] when refModeA and refModeB are equal and not in the average value mode.
  • mode 0 is uniquely assigned to mpmList [1] when refModeA and refModeB are equal and not in the average value mode.
  • a mode adjacent to refModeA is assigned to mpmList [1]. Since the occurrence frequency of the mode adjacent to refModeA is expected to be high, the calculation amount of the priority prediction mode list creation procedure is increased as compared with the second embodiment, but a more effective priority prediction mode list can be created. Encoding efficiency can be improved.
  • the image encoding device and image decoding device according to the embodiment described above have the following operational effects.
  • a plurality of priority prediction modes are set from a plurality of intra prediction modes. Compared to a configuration in which the priority prediction mode is expressed by a single code, the number of priority prediction modes that can be expressed by short codewords is increased, and a code length allocation according to a more realistic probability model for each priority prediction mode. Therefore, the amount of generated codes in the intra prediction mode can be reduced.
  • Another priority prediction mode is implicitly determined even when the reference intra prediction modes are the same. Regardless of whether or not the reference intra prediction mode is the same, a fixed-length priority intra prediction mode list can always be created, so the branch of the priority intra prediction mode list creation processing in the encoding / decoding processing is deleted. Processing can be simplified. Furthermore, since the non-priority intra prediction mode list has a fixed length, the configuration related to encoding / decoding can be simplified and the circuit scale can be reduced.
  • Another priority prediction mode is obtained by using a reference prediction mode and an intra prediction mode that is set in advance regardless of the previous encoding / decoding process. An increase in load related to the calculation can be suppressed.
  • a decrease in coding efficiency can be suppressed by using a prediction mode that is generally high in frequency, for example, a vertical direction / horizontal direction / average value component prediction mode.
  • the moving image encoded stream output from the moving image encoding apparatus of the embodiment described above has a specific data format so that it can be decoded according to the encoding method used in the embodiment. Therefore, the moving picture decoding apparatus corresponding to the moving picture encoding apparatus can decode the encoded stream of this specific data format.
  • the encoded stream When a wired or wireless network is used to exchange an encoded stream between a moving image encoding device and a moving image decoding device, the encoded stream is converted into a data format suitable for the transmission form of the communication path. It may be transmitted.
  • a video transmission apparatus that converts the encoded stream output from the video encoding apparatus into encoded data in a data format suitable for the transmission form of the communication channel and transmits the encoded data to the network, and receives the encoded data from the network Then, a moving image receiving apparatus that restores the encoded stream and supplies the encoded stream to the moving image decoding apparatus is provided.
  • the moving image transmitting apparatus is a memory that buffers the encoded stream output from the moving image encoding apparatus, a packet processing unit that packetizes the encoded stream, and transmission that transmits the packetized encoded data via the network.
  • the moving image receiving apparatus generates a coded stream by packetizing the received data, a receiving unit that receives the packetized coded data via a network, a memory that buffers the received coded data, and packet processing. And a packet processing unit provided to the video decoding device.
  • the above processing relating to encoding and decoding can be realized as a transmission, storage, and reception device using hardware, and is also stored in a ROM (Read Only Memory), a flash memory, or the like. It can also be realized by firmware or software such as a computer.
  • the firmware program and software program can be provided by recording them on a computer-readable recording medium, provided from a server through a wired or wireless network, or provided as a data broadcast of terrestrial or satellite digital broadcasting. Is also possible.
  • the present invention can be used for image encoding and decoding technologies, particularly intra-screen encoding and decoding technologies.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

 イントラ予測モード選択部509は、符号化対象ブロックの画面内予測モードを選択する。優先予測モードリスト作成部602は、複数の参照ブロックの画面内予測モードを用いて、複数の符号化済みブロックの異なる画面内予測モードの数によらず、いずれの符号化対象ブロックでも所定数の要素を持つ優先予測モードのリストを作成する。優先予測モードインデックス算出部605は、符号化対象ブロックの画面内予測モードが優先予測モードである場合にその優先予測モードを特定する情報をリストにしたがって算出する。非優先予測モードインデックス算出部607は、符号化対象ブロックの画面内予測モードが非優先予測モードである場合にその非優先予測モードを特定する情報をリストに基づき算出する。

Description

画像符号化装置、画像符号化方法及び画像符号化プログラム、並びに画像復号装置、画像復号方法及び画像復号プログラム
 本発明は、画像符号化及び復号技術に関し、特に画面内符号化及び復号技術に関する。
 動画像符号化の国際標準であるMPEG-4 AVCでは、一画面内で処理を完結させる画面内符号化の方式としてイントラ予測と呼ばれる方式を採用している。イントラ予測は、処理対象となるブロックに隣接した既復号サンプル値を、指定された予測方向に複製することにより処理対象ブロックの予測画像を作り出すものである。MPEG-4 AVCでは図1(a)、(b)に示す9種類の予測方向が定義されており、各ブロックにおいて予測方向を示すイントラ予測モードのモード番号を伝送することにより、適切な予測方向を指定する構成をとる。
 予測方向の定義数を拡張することにより予測画像品質を高めることができる。図2(a)の符号201は、17種類の予測方向の定義例を示したものであり、図2(b)の符号202は、34種類の予測方向の定義例を示したものである。しかしながら予測方向の定義数の増加はイントラ予測モードの伝送情報量の増加につながる。予測方向の定義数が増加するにつれ、全発生符号量のうちイントラ予測モードの占める割合が増加するため、効率的な伝送方法の必要性が高まる。
 特許文献1には、伝送する画面内予測モードの総数を減らすことにより、画面内予測モードの符号量を削減する手段が記載されている。特許文献1の方法は、複数のブロックの画面内予測モードを所定の統合単位分走査して、統合単位内のすべての画面内予測モードが同一である場合に統合単位で一つの画面内予測モードを伝送することにより、伝送する画面内予測モードを減らすものである。
特開2009-246975号公報
 一般に、イントラ予測では、画像の符号化対象ブロックに隣接するブロックのイントラ予測モードと同一のイントラ予測モードが符号化対象ブロックにおいても選択される可能性が高いと仮定したイントラ予測モードの発生確率モデルを前提にイントラ予測モードを符号化している。現状用いられている方法の一例としては、簡易的に上記発生確率モデルを設定する方法があるが、現実のイントラ予測モードの発生確率を十分に反映させたものとなっておらず、イントラ予測モードを効率的に符号化することが難しかった。各ブロックで適応的に最適な発生確率モデルを設定する方法は、イントラ予測モードの効率的な符号化が可能になる一方、イントラ予測処理の複雑化に繋がる。
 特許文献1の方法は、適切な確率モデルを設定できるものでないから、上述の課題は依然として解決されない。
 本発明はこうした状況に鑑みてなされたものであり、その目的は、イントラ予測処理の複雑化を抑制し、符号化効率をより一層向上させることのできる画像符号化及び復号技術を提供することにある。
 上記課題を解決するために、本発明のある態様の画像符号化装置は、ブロック単位で複数の画面内予測モードから選択された画面内予測モードを用いて、画像信号を符号化するとともにその選択された画面内予測モードを特定する情報を符号化する画像符号化装置であって、符号化対象ブロックの画面内予測モードを選択する画面内予測モード選択部(509)と、符号化済みブロックの画面内予測モードを記憶する画面内予測モード記憶部(601)と、前記符号化対象ブロックの画面内予測処理に用いる複数の参照ブロックの画面内予測モードを前記画面内予測モード記憶部から取得し、その取得した画面内予測モードに基づき前記符号化対象ブロックの画面内予測モードの候補となる優先予測モードのリストを作成する優先予測モードリスト作成部(602)と、前記符号化対象ブロックの画面内予測モードが優先予測モードであるかどうかを示す情報を算出する優先予測モード判定フラグ算出部(603)と、前記符号化対象ブロックの画面内予測モードが優先予測モードである場合にその優先予測モードを特定する情報を前記リストにしたがって導出する優先予測モードインデックス導出部(605)と、前記符号化対象ブロックの画面内予測モードが非優先予測モードである場合にその非優先予測モードを特定する情報を前記リストに基づき導出する非優先予測モードインデックス導出部(607)と、前記符号化対象ブロックの画面内予測モードが優先予測モードである場合はその優先予測モードを特定する情報を、前記符号化対象ブロックの画面内予測モードが非優先予測モードである場合はその非優先予測モードを特定する情報を、前記符号化対象ブロックの画面内予測モードが優先予測モードであるかどうかを示す情報とともに符号化する符号化部(604、606、608)とを備える。前記優先予測モードリスト作成部(602)は、複数の前記参照ブロックの異なる画面内予測モードの数によらず、いずれの符号化対象ブロックでも所定数の要素を持つ前記リストを作成する。
 本発明の別の態様は、画像符号化方法である。この方法は、ブロック単位で複数の画面内予測モードから選択された画面内予測モードを用いて、画像信号を符号化するとともにその選択された画面内予測モードを特定する情報を符号化する画像符号化方法であって、符号化対象ブロックの画面内予測モードを選択する画面内予測モード選択ステップと、符号化済みブロックの画面内予測モードを記憶するメモリを参照して、前記符号化対象ブロックの画面内予測処理に用いる複数の参照ブロックの画面内予測モードを取得し、その取得した画面内予測モードに基づき前記符号化対象ブロックの画面内予測モードの候補となる優先予測モードのリストを作成する優先予測モードリスト作成ステップと、前記符号化対象ブロックの画面内予測モードが優先予測モードであるかどうかを示す情報を算出する優先予測モード判定フラグ算出ステップと、前記符号化対象ブロックの画面内予測モードが優先予測モードである場合にその優先予測モードを特定する情報を前記リストにしたがって導出する優先予測モードインデックス導出ステップと、前記符号化対象ブロックの画面内予測モードが非優先予測モードである場合にその非優先予測モードを特定する情報を前記リストに基づき導出する非優先予測モードインデックス導出ステップと、前記符号化対象ブロックの画面内予測モードが優先予測モードである場合はその優先予測モードを特定する情報を、前記符号化対象ブロックの画面内予測モードが非優先予測モードである場合はその非優先予測モードを特定する情報を、前記符号化対象ブロックの画面内予測モードが優先予測モードであるかどうかを示す情報とともに符号化する符号化ステップとを備える。前記優先予測モードリスト作成ステップは、複数の前記参照ブロックの異なる画面内予測モードの数によらず、いずれの符号化対象ブロックでも所定数の要素を持つ前記リストを作成する。
 本発明のある態様の画像復号装置は、符号化ストリームからブロック単位で画面内予測モードを特定する情報を復号し、復号された画面内予測モードを特定する情報を用いて、画像信号を復号する画像復号装置であって、復号済みブロックの画面内予測モードを記憶する画面内予測モード記憶部(901)と、復号対象ブロックの画面内予測処理に用いる複数の参照ブロックの画面内予測モードを前記画面内予測モード記憶部から取得し、その取得した画面内予測モードに基づき前記復号対象ブロックの画面内予測モードの候補となる優先予測モードのリストを作成する優先予測モードリスト作成部(902)と、前記復号対象ブロックの画面内予測モードが優先予測モードである場合はその優先予測モードを特定する情報を、前記復号対象ブロックの画面内予測モードが非優先予測モードである場合はその非優先予測モードを特定する情報を、前記復号対象ブロックの画面内予測モードが優先予測モードであるかどうかを示す情報とともに復号する復号部(903、904、906)と、前記画面内予測モードが優先予測モードであるかどうかを示す情報に基づき、前記復号対象ブロックの画面内予測モードを優先予測モードであると判定した場合に、復号された前記優先予測モードを特定する情報から前記リストにしたがって優先予測モードを導出する優先予測モード導出部(905)と、前記画面内予測モードが優先予測モードであるかどうかを示す情報に基づき、前記復号対象ブロックの画面内予測モードを非優先予測モードであると判定した場合に、復号された前記非優先予測モードを特定する情報から前記リストに基づき非優先予測モードを導出する非優先予測モード導出部(907)とを備える。前記優先予測モードリスト作成部(902)は、複数の前記参照ブロックの異なる画面内予測モードの数によらず、いずれの復号対象ブロックでも所定数の要素を持つ前記リストを作成する。
 本発明の別の態様は、画像復号方法である。この方法は、符号化ストリームからブロック単位で画面内予測モードを特定する情報を復号し、復号された画面内予測モードを特定する情報を用いて、画像信号を復号する画像復号方法であって、復号済みブロックの画面内予測モードを記憶するメモリを参照して、復号対象ブロックの画面内予測処理に用いる複数の参照ブロックの画面内予測モードを取得し、その取得した画面内予測モードに基づき前記復号対象ブロックの画面内予測モードの候補となる優先予測モードのリストを作成する優先予測モードリスト作成ステップと、前記復号対象ブロックの画面内予測モードが優先予測モードである場合はその優先予測モードを特定する情報を、前記復号対象ブロックの画面内予測モードが非優先予測モードである場合はその非優先予測モードを特定する情報を、前記復号対象ブロックの画面内予測モードが優先予測モードであるかどうかを示す情報とともに復号する復号ステップと、前記画面内予測モードが優先予測モードであるかどうかを示す情報に基づき、前記復号対象ブロックの画面内予測モードを優先予測モードであると判定した場合に、復号された前記優先予測モードを特定する情報から前記リストにしたがって優先予測モードを導出する優先予測モード導出ステップと、前記画面内予測モードが優先予測モードであるかどうかを示す情報に基づき、前記復号対象ブロックの画面内予測モードを非優先予測モードであると判定した場合に、復号された前記非優先予測モードを特定する情報から前記リストに基づき非優先予測モードを導出する非優先予測モード導出ステップとを備える。前記優先予測モードリスト作成ステップは、複数の前記参照ブロックの異なる画面内予測モードの数によらず、いずれの復号対象ブロックでも所定数の要素を持つ前記リストを作成する。
 なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
 本発明によれば、イントラ予測処理の複雑化を抑制し、符号化効率を向上させることができる。
9パターンのイントラ予測モードの予測方向を説明する図である。 17パターン、34パターン及び18パターンのイントラ予測モードの予測方向を説明する図である。 イントラ予測モードを符号化するための符号化木を説明する図である。 図3の符号化木に従いイントラ予測モードを伝送するための符号化構文を説明する図である。 実施の形態に係るイントラ予測モードの符号化方法を実行するための画像符号化装置の構成を示すブロック図である。 図5のイントラ予測モード符号化部の第1の実施例の詳細な構成を示すブロック図である。 図6のイントラ予測モード符号化部によるイントラ予測モード符号化手順を説明するフローチャートである。 実施の形態に係るイントラ予測モードの復号方法を実行するための画像復号装置の構成を示すブロック図である。 図8のイントラ予測モード復号部の第1の実施例の詳細な構成を示すブロック図である。 図9のイントラ予測モード復号部によるイントラ予測モード復号手順を説明するフローチャートである。 第1の実施例における優先予測モードリストを算出する手順を説明するフローチャートである。 第1の実施例における優先予測モード判定フラグ、優先予測モードインデックスを算出する手順を説明するフローチャートである。 第1の実施例における非優先予測モードインデックスを算出する手順を説明するフローチャートである。 第1の実施例における非優先予測モードインデックスを符号化する手順を説明するフローチャートである。 第1の実施例における非優先予測モードインデックスを復号する手順を説明するフローチャートである。 第1の実施例における対象予測モードを算出する手順を説明するフローチャートである。 第2の実施例のイントラ予測モード符号化部の動作を説明するフローチャートである。 画像のブロック構成と参照ブロックを説明する図である。 第2の実施例における優先予測モードリストを算出する手順を説明するフローチャートである。 第2の実施例における非優先予測モードインデックスを符号化する処理を説明するフローチャートである。 第2の実施例のイントラ予測モード復号部の動作を説明するフローチャートである。 第2の実施例における非優先予測モードインデックスを復号する手順を説明するフローチャートである。 第1の実施例の符号化装置/復号装置に対応するイントラ予測モードの符号化構文を説明する図である。 第2の実施例の符号化装置/復号装置に対応するイントラ予測モードの符号化構文を説明する図である。 第3の実施例における優先予測モードリストを算出する手順を説明するフローチャートである。 第3の実施例における優先予測モードリストの算出に用いる参照テーブルの例を示す図である。
 まず、本発明の実施の形態の前提となる技術を説明する。
 以下の説明において、「処理対象ブロック」とは、画像符号化装置による符号化処理の場合は、符号化対象ブロックのことであり、画像復号装置による復号処理の場合は、復号対象ブロックのことである。「既処理ブロック」とは、画像符号化装置による符号化処理の場合は、符号化済みの復号されたブロックのことであり、画像復号装置による復号処理の場合は、復号済みのブロックのことである。以下、断りのない限り、この意味で用いる。
 [符号化木]
 図3は、図1の9パターンのイントラ予測モードを符号化するための符号化木を説明する図である。MPEG-4 AVCにおけるイントラ予測モードの伝送方法は、図3(a)の符号301に示す符号化木に従う。図中、内部節点(円)は符号を、葉(四角)はイントラ予測のモード番号を割り当てる。葉のうち符号302は優先予測モードである。優先予測モードについては後述する。例えば、優先予測モードに対しては“1”が、モード7に対しては符号“0111”が割り当てられる。
 図4は、図3の符号化木に従いイントラ予測モードを伝送するための符号化構文を説明する図である。図4(a)、(b)に示すprev_intra_pred_flagは優先予測モードかどうかを特定する構文要素、rem_intra_pred_modeはモード番号を表す構文要素である。復号時にはまず1ビットのprev_intra_pred_flagを符号化系列から読み出し、prev_intra_pred_flagが1であるときにはイントラ予測モードを優先予測モードと設定し次の構文へ移る。そうでないときはさらに3ビットのprev_intra_pred_flagの読み出しを行い、イントラ予測モードをrem_intra_pred_modeが示す予測モードとして設定する。
 図2(a)に示す17パターンのイントラ予測モードを符号化するためには、図3(b)の符号303で示す符号化木に従い、同様の伝送方法を用いることができる。
 [優先予測モード]
 優先予測モードを決定するために、処理対象ブロックに隣接する既処理隣接ブロックを参照する。既処理隣接ブロックは、処理対象ブロックの左側に隣接しかつ最も上側に位置するブロック(「参照ブロックA」と呼ぶ)と、処理対象ブロックの上側に隣接しかつ最も左側に位置するブロック(「参照ブロックB」と呼ぶ)とする。
 既処理隣接参照ブロックの例について図18を用いて説明する。図中の処理対象ブロック1801に対し空間的に上側または/および左側に位置するブロック(符号1802から1811)はすべて既処理であり、そうでないブロック(符号1812から1815)は未処理となる。処理対象ブロック1801の左側に隣接するブロックはブロック1807とブロック1809の2つであるが、そのうち上側に位置するブロック1807を参照ブロックAとする。また処理対象ブロック1801の上側に隣接するブロックはブロック1803のみであり、このブロック1803を参照ブロックBとする。
 参照ブロックA、参照ブロックBのイントラ予測モード番号をそれぞれmodeIdxA,modeIdxBとするとき、処理対象ブロックの優先予測モードのインデックスmpmIdxを以下の式で表す。
 mpmIdx=min(modeIdxA,modeIdxB)
 すなわち優先予測モードは参照ブロックのイントラ予測モードのどちらかと一致する。
 [優先予測モードと符号化木の関係]
 図3の符号化木は、優先予測モードに対しては1ビットの符号を、そうでないモードには一様に1+3=4ビットの符号を割り当てるものであり、次の確率モデルに従うものである。
 p(mpm)≧0.5, ただしmpmは優先モードを表す。
 p(m)=0.0625=(1-p(mpm))/8, ただしm≠mpm
 このような伝送方法をとることの利点は、処理対象の予測モードが優先予測モードと等しいか予測モードに対し短い符号語を割り当てることにより、平均的にイントラ予測モードの符号量を削減できることである。
 しかしながら、実際の優先予測モードの発生確率は平均p(mpm)=0.2程度であり、図3の符号化木が必ずしも現実のイントラ予測モードの発生分布に則したものでなく、上記手法は符号化効率を向上させるための最適な方法とは言えない。
 符号化効率を向上させることにのみ着目するのであれば、例えば、既処理ブロックの予測モード分布に応じて符号化木を適応的に切り替える手法が有効であるが、そのような手法は各ブロックにおける条件判断、処理分岐が必要となり、回路規模の増大、処理の複雑化を伴う。
 本実施の形態では、回路規模の増大や処理の複雑化を抑えた上で符号化効率を向上させる。
 [符号化装置]
 本発明を実施する好適な画像符号化装置について図面を参照して説明する。図5は実施の形態に係る画像符号化装置の構成を示すブロック図である。実施の形態の画像符号化装置は、減算部501と、直交変換・量子化部502と、逆量子化・逆変換部503と、加算部504と、復号画像メモリ505と、イントラ予測部506と、テクスチャ情報符号化部507と、イントラ予測モード符号化部508と、イントラ予測モード選択部509とを備える。本発明の実施の形態は画面内予測に注目したものであるため、画面間予測に関連する構成要素については図示せず、説明を省略する。
 イントラ予測モード選択部509は、画像のブロック毎に最適なイントラ予測モードを選択し、選択されたイントラ予測モードをイントラ予測部506と、イントラ予測モード符号化部508に与える。
 イントラ予測モード符号化部508は、入力されたイントラ予測モードを可変長符号化してイントラ予測モードビットストリームを出力する。イントラ予測モード符号化部508の詳細な構成と動作については後述する。
 イントラ予測部506は、入力されたイントラ予測モードと、復号画像メモリ505に記憶した隣接ブロックの既復号画像を用いてイントラ予測画像を生成し、生成したイントラ予測画像を減算部501へ与える。
 減算部501は、符号化対象の原画像からイントラ予測画像を減ずることにより差分画像を生成し、生成した差分信号を直交変換・量子化部502に与える。
 直交変換・量子化部502は、差分画像に対し直交変換・量子化をしてテクスチャ情報を生成し、生成したテクスチャ情報を逆量子化・逆変換部503とテクスチャ情報符号化部507に与える。
 テクスチャ情報符号化部507は、テクスチャ情報をエントロピー符号化してテクスチャ情報ビットストリームを出力する。
 逆量子化・逆変換部503は、直交変換・量子化部502から受け取ったテクスチャ情報に対し逆量子化・逆直交変換をして復号差分信号を生成し、生成した復号差分信号を加算部504に与える。
 加算部504は、イントラ予測画像と復号差分信号を加算して復号画像を生成し、生成した復号画像を復号画像メモリ505に格納する。
 [復号装置]
 本発明を実施する好適な画像復号装置について図面を参照して説明する。図8は実施の形態に係る動画像復号装置の構成を示すブロック図である。実施の形態の画像復号装置は、テクスチャ情報復号部801と、逆量子化・逆変換部802と、イントラ予測モード復号部803と、加算部804と、復号画像メモリ805と、イントラ予測部806とを備える。本発明の実施の形態は画面内予測に注目したものであるため、画面間予測に関連する構成要素は図示せず、説明を省略する。
 図8の画像復号装置の復号処理は、図5の画像符号化装置の内部に設けられている復号処理に対応するものであるから、図8の逆量子化・逆変換部802、加算部804、復号画像メモリ805、およびイントラ予測部806の各構成は、図5の画像符号化装置の逆量子化・逆変換部503、加算部504、復号画像メモリ505、およびイントラ予測部506の各構成とそれぞれ対応する機能を有する。
 イントラ予測モード復号部803は、入力されたイントラ予測モードビットストリームをエントロピー復号してイントラ予測モードを生成し、生成したイントラ予測モードをイントラ予測部806に与える。イントラ予測モード復号部803の詳細な構成と動作については後述する。
 イントラ予測部806は、入力されたイントラ予測モードと、復号画像メモリ805に記憶した隣接ブロックの既復号画像を用いてイントラ予測画像を生成し、生成したイントラ予測画像を加算部804へ与える。
 テクスチャ情報復号部801は、テクスチャ情報をエントロピー復号してテクスチャ情報を生成する。生成したテクスチャ情報を逆量子化・逆変換部802に与える。
 逆量子化・逆変換部802は、テクスチャ情報復号部801から受け取ったテクスチャ情報に対し逆量子化・逆直交変換をして復号差分信号を生成し、生成した復号差分信号を加算部804に与える。
 加算部804は、イントラ予測画像と復号差分信号を加算して復号画像を生成し、生成した復号画像を復号画像メモリ805に格納し、出力する。
 本発明の実施の形態に係るイントラ予測モード符号化及び復号処理は、図5の動画像符号化装置のイントラ予測モード符号化部508及び図8の動画像復号装置のイントラ予測モード復号部803において実施される。以下、実施の形態に係るイントラ予測モード符号化及び復号処理の詳細を説明する。
 [符号化ブロック]
 実施の形態では、図18で示されるように、画面を矩形ブロックにて階層的に分割するとともに、各ブロックに対し所定の処理順による逐次処理を行う。分割する各ブロックを符号化ブロックとよぶ。図18のブロック1817は、実施の形態において分割の最大単位であり、これを最大符号化ブロックとよぶ。図18のブロック1816は、実施の形態において分割の最小単位であり、これを最小符号化ブロックとよぶ。以下最小符号化ブロックを4×4画素、最大符号化ブロックを16×16画素として説明を行う。
 [予測ブロック]
 符号化ブロックのうち、イントラ予測を行う単位を予測ブロックと呼ぶ。予測ブロックは最小符号化ブロック以上、最大符号化ブロック以下のいずれかの大きさを持つ。図18ではブロック1802、1803、および1804が16×16ブロック、ブロック1805、1810、1811、および1801が8×8ブロック、ブロック1806、1807、1808、1809が4×4ブロックである。ブロック1812、1813、1814、1815は未処理ブロックであり、符号化ブロックサイズが確定していない。符号化手順においては最適な予測ブロックサイズを決定し、予測ブロックサイズを伝送する。復号手順においてはビットストリームより予測ブロックサイズを取得する。以下、予測ブロックを処理単位として説明を行う。
 [参照ブロックと参照イントラ予測モード]
 参照ブロックは、処理対象ブロックの左側に隣接しかつ最も上側に位置するブロックであるブロックAと、処理対象ブロックの上側に隣接しかつ最も左側に位置するブロックであるブロックBである。ブロックAの予測モードをrefModeA、ブロックBの予測モードをrefModeBとする。各参照ブロックのイントラ予測モードを「参照イントラ予測モード」と呼ぶ。参照ブロックが存在しないときの参照イントラ予測モードは直流予測モード(「平均値モード」ともいう)に設定する。
 (第1の実施例)
 [予測ブロックサイズとイントラ予測モード]
 予測ブロックのサイズに応じて、イントラ予測モードの構成を切り替える。4×4ブロックでは図2(a)の符号201に示す17パターンのイントラ予測モードを定義し、8×8ブロックと16×16ブロックに対しては、図2(b)の符号202に示す34パターンのイントラ予測モードを定義する。
 [符号化手順]
 本発明に係る実施の形態によるイントラ予測モードの符号化方法の第1の実施例について説明する。図6は図5のイントラ予測モード符号化部508の第1の実施例の詳細な構成のブロック図である。第1の実施例のイントラ予測モード符号化部508は、イントラ予測モードメモリ601、優先予測モードリスト作成部602、優先予測モード判定フラグ算出部603、優先予測モード判定フラグ符号化部604、優先予測モードインデックス算出部605、優先予測モードインデックス符号化部606、非優先予測モードインデックス算出部607、非優先予測モードインデックス符号化部608、及び優先予測モード判定部609を備える。以下、図7のフローチャートも参照しながら、イントラ予測モードの符号化手順を説明する。
 優先予測モードリスト作成部602は、イントラ予測モードメモリ601から隣接ブロックのイントラ予測モードrefModeAとrefModeBを取得し、優先予測モードリストmpmListを作成し、優先予測モードリストサイズmpmlistsizeを決定する(ステップS701)。優先予測モードリスト作成手順の詳細については後述する。また、対象イントラ予測モードをイントラ予測モードメモリ601に記憶する。本実施例においては、優先予測モードリストサイズmpmListSizeは1もしくは2のどちらかが設定され、参照モードrefModeAとrefModeBが等しい時にmpmListSizeは1となり、参照モードrefModeAとrefModeBが異なる時にmpmListSizeは2となる。
 優先予測モード判定フラグ算出部603は、対象予測モードと優先予測モードリストmpmListを取得し、優先予測モード判定フラグmpmFlagを算出する。また、優先予測モードインデックス算出部605は、優先予測モードインデックスmpmIndexを算出し(ステップS702)、優先予測モード判定フラグ符号化部604は、優先予測モード判定フラグmpmFlagを符号化する(ステップS703)。優先予測モード判定フラグ、優先予測モードインデックス算出手順の詳細については後述する。
 優先予測モード判定部609は、優先予測モード判定フラグmpmFlagを判定する(ステップS704)。
 優先予測モード判定フラグmpmFlagがtrueである場合は、優先予測モードインデックス符号化部606は、優先予測モードインデックスmpmIndexを判定し(ステップS705)、mpmListSize=1のときは優先予測モードインデックスmpmIndexが常に0となるため、mpmIndexの符号化を行わず、処理を終了する。mpmListSize=2であるならば、優先予測モードインデックスmpmIndexを符号化し(ステップS706)、処理を終了する。
 優先予測モード判定フラグmpmFlagがfalseである場合は、非優先予測モードインデックス算出部607は、非優先予測モードインデックスremModeIndexを算出し(ステップS707)、非優先予測モードインデックス符号化部608は、算出した非優先予測モードremModeIndexの符号化を行う(ステップS708)。非優先予測モードインデックス算出手順、および非優先予測モード符号化手順の詳細については後述する。
 [優先予測モードリスト作成手順]
 図7のステップS701の優先予測モードリスト作成手順の詳細を図11のフローチャートを参照して説明する。
 優先予測モードリスト作成部602は、イントラ予測モードメモリ601から隣接ブロックのイントラ予測モードrefModeAとrefModeBを取得し、refModeAとrefModeBを比較する(ステップS1101)。
 refModeAとrefModeBが等しい場合は、mpmList[0]=refModeAと設定し(ステップS1102)、さらにmpmListSize=1と設定し(ステップS1103)、図7のステップS702へ進む。
 refModeAとrefModeB異なる場合は、mpmList[0]=min(refModeA,refModeB),mpmList[1]=max(refModeA,refModeB)と設定し(ステップS1104)、さらにmpmListSize=2と設定し(ステップS1105)、図7のステップS702へ進む。
 [優先予測モード判定フラグ、優先予測モードインデックス算出手順]
 図7のステップS702の優先予測モード判定フラグと優先予測モードインデックス算出手順の詳細を図12のフローチャートを参照して説明する。
 本手順においては、mpmListを昇順に走査することにより処理を進める。優先予測モード判定フラグ算出部603、及び優先予測モードインデックス算出部605は、優先予測モード判定フラグmpmFlagと、優先予測モードインデックスmpmIndexをそれぞれfalse、0で初期化する。mpmListを走査するための変数iを0で初期化する(ステップS1201)。
 変数iがmpmListSize未満であるなら(ステップS1202)、すなわちまだmpmListのすべての要素を走査し終えていないなら、mpmList[i]とcurrModeIndexを比較する(ステップS1203)。mpmList[i]とcurrModeIndexが等しい場合は、対象予測モードが優先予測モードリストのi番目の要素と等しいことを示し、mpmFlagをtrueに、mpmIndexをiにそれぞれ設定し(ステップS1204)、図7のステップS703へ進む。mpmList[i]とcurrModeIndexが異なる場合は、iを一つ増やし(ステップS1205)、走査を継続する。
 ステップS1202において、変数iがmpmListSize以上であるとき、すなわち、mpmListのすべての要素を走査し終えたときに、優先予測モード判定フラグ、優先予測モードインデックス算出手順を終了し、図7のステップS703へ進む。このときは対象予測モードが優先予測モードリストに含まれないことを示し、mpmFlagとmpmIndexの再設定は行われない。すなわち、mpmFlag=false、mpmIndex=0となる。
 [非優先予測モードインデックス算出手順]
 図7のステップS707の非優先予測モードインデックス算出手順の詳細を図13のフローチャートを参照して説明する。
 本手順においては、mpmListをインデックスの降順に走査することにより処理を進める。非優先予測モードインデックス算出部607は、非優先予測モードインデックスremModeIndexを対象予測モードcurrModeIndexで初期化し、mpmListを走査するための変数iをmpmListSize-1で初期化する(ステップS1301)。
 変数iが0以上であるなら(ステップS1302)、すなわちまだmpmListのすべての要素を走査し終えていないなら、remModeIndexとmpmList[i]を比較する(ステップS1303)。remModeIndexがmpmList[i]より大きいなら、remModeIndexの値から1を減ずる(ステップS1304)。変数iの値から1を減じて(ステップS1305)、走査を継続する。
 ステップS1302において、変数iが0未満であるとき、すなわちmpmListのすべての要素を走査し終えたときに、非優先予測モードインデックス算出手順を終了し、図7のステップS708へ進む。
 [非優先予測モードインデックス符号化手順]
 図7のステップS708の非優先予測モードインデックス符号化手順の詳細を図14のフローチャートを参照して説明する。
 非優先予測モードインデックス符号化部608は、対象ブロックサイズを判定する(ステップS1401)。
 対象ブロックが4×4ブロックであるとき、17パターンのイントラ予測が定義されている。上述した非優先予測モードインデックス算出手順において、優先予測モードの数が1つである場合はremModeIndexは[0,15]のいずれかの値に変換され、優先予測モードの数が2つである場合はremModeIndexは[0,14]のいずれかの値に変換されている。いずれの場合においてもremModeIndexを固定長で表現するのに4ビットで十分であるため、remModeIndexに対し4ビットの固定長符号化を行い(ステップS1402)、処理を終了する。
 対象ブロックが8×8ブロックまたは16×16ブロックであるとき、34パターンのイントラ予測が定義されている。上述した非優先予測モードインデックス算出手順において、優先予測モードの数が1つである場合はremModeIndexは[0,32]のいずれかの値に変換され、優先予測モードの数が2つである場合はremModeIndexは[0,31]のいずれかの値に変換されている。優先予測モードの数が1つである場合においては、33パターンの非優先予測モードインデックスを取り得るために、5ビットの固定長では十分でないため、可変長の符号化が必要となる。remModeIndexが31未満のときは(ステップS1403)、remModeIndexに対し5ビットの固定長符号化を行い(ステップS1404)、処理を終了する。remModeIndexが31以上のときは(ステップS1405)、remModeIndexが31であれば、6ビット系列“111110”を符号化し(ステップS1406)、 remModeIndexが32であれば、6ビット系列“111111”を符号化し(ステップS1407)、処理を終了する。
 本実施例においては、4×4ブロックに対し図2(a)の符号201の17パターンを定義した。その理由は、4×4ブロックの非優先予測モードインデックスを簡潔に符号化/復号するためである。符号201は、180度を16分割することによる11.25(=180/16)度単位で予測方向を表現することを基本とするが、モード9とモード8の間のみ25度の方向差が生まれ、当該方向の予測精度の低下を伴う。符号201でなく、図2(c)の符号203の18パターンを定義する場合を考える。18パターンの定義は、5度単位の予測方向をすべて表現でき、符号201に見られる予測精度の低下は見られないという長所がある。その場合は、優先予測モードの数が1つである場合はremModeIndexは[0,16]のいずれかの値に変換され、優先予測モードの数が2つである場合はremModeIndexは[0,15]のいずれかの値に変換されることになる。優先予測モードの数が1つである場合に16パターンの非優先予測モードインデックスを取りうることになり、本実施例の8×8ブロック、16×16ブロックの例と同様、可変長符号化を行う必要があり、処理が煩雑となる。8×8ブロック、16×16に対し図2(d)の符号204の33パターンを定義する構成を取った場合は、4x4ブロックの処理と同様5ビットの固定長符号化が可能となるが、イントラ予測モードの候補数が減るために、符号化効率の劣化が発生することになる。このように、イントラ予測モードの候補数と処理の煩雑度はトレードオフの関係となるが、4×4ブロックは、8×8、16×16ブロックと比較し小さい角度差による予測精度品質の差が少ないことと、4×4ブロックに係る演算量の影響が8×8、16×16ブロックと比較し大きいことから、4×4ブロックに対しては符号201の17パターン、8×8、16×16ブロックに対しては符号202の34パターンを定義するものとした。
 [復号手順]
 本発明に係る実施の形態によるイントラ予測モードの復号方法の第1の実施例について説明する。図9は図8のイントラ予測モード復号部803の第1の実施例の詳細な構成のブロック図である。第1の実施例のイントラ予測モード復号部803は、イントラ予測モードメモリ901、優先予測モードリスト作成部902、優先予測モード判定フラグ復号部903、優先予測モードインデックス復号部904、優先予測モード算出部905、非優先予測モードインデックス復号部906、及び非優先予測モード算出部907を備える。
 図9のイントラ予測モード復号部803におけるイントラ予測モード復号処理は、図6のイントラ予測モード符号化部508におけるイントラ予測モード符号化処理に対応するものであるから、図9のイントラ予測モードメモリ901、優先予測モードリスト作成部902の各構成は、図6のイントラ予測モードメモリ601、優先予測モードリスト作成部602の各構成とそれぞれ同一の機能を有する。
 以下、図10のフローチャートも参照しながら、イントラ予測モードの復号手順を説明する。
 優先予測モードリスト作成部902は、イントラ予測モードメモリ901から隣接ブロックのイントラ予測モードrefModeAとrefModeBを取得し、優先予測モードリストmpmListを作成し、優先予測モードリストのサイズmpmListSizeを決定する(ステップS1001)。優先予測モードリスト作成手順は図6の優先予測モードリスト作成部602における優先予測モードリスト作成手順と同様、図11のフローチャートで示す手続きに従うため、詳細説明を省略する。
 優先予測モード判定フラグ復号部903は、符号化系列から1ビット読み込み、優先予測モード判定フラグmpmFlagを復号し(ステップS1002)、優先予測モード判定フラグmpmFlagの値を判定する(ステップS1003)。
 優先予測モード判定フラグmpmFlagがtrueである場合は、優先予測モードインデックス復号部904は、優先予測モードの数mpmListSizeを判定する(ステップS1004)。mpmListSizeが1つであれば、優先予測モードインデックスmpmIndexを0に設定する(ステップS1005)。mpmListSizeが2つであれば、符号化系列からさらに1ビットを読み込み、優先予測モードインデックスmpmIndexを復号する(ステップS1006)。さらに、優先予測モード算出部905は、優先予測モードリストmpmListのmpmIndex番目の要素mpmList[mpmIndex]を対象予測モードcurrModeIndexとし(ステップS1007)、処理を終了する。
 優先予測モード判定フラグmpmFlagがfalseである場合は、非優先予測モードインデックス復号部906は、非優先予測モードインデックスremModeIndexを復号し(ステップS1008)、非優先予測モード算出部907は、算出したremModeIndexを元に対象予測モードcurrModeIndexを算出する(ステップS1009)。対象予測モードcurrModeIndexをイントラ予測モードメモリ901に格納し、処理を終了する。非優先予測モードインデックスの復号手順、および対象予測モード算出手順については後述する。
 [非優先予測モードインデックス復号手順]
 図10のステップS1008の非優先予測モードインデックス復号手順の詳細を図15のフローチャートを参照して説明する。
 非優先予測モードインデックス復号部906は、対象ブロックサイズを判定する(ステップS1501)。
 対象ブロックが4×4ブロックであるとき、4ビットの固定長復号を行い、remModeIndexとする(ステップS1502)。
 対象ブロックが8×8ブロックまたは16×16ブロックであるとき、まず5ビットの固定長復号を行い、remModeIndexとする(ステップS1503)。remModeIndexの値を判定する(ステップS1504)。
 remModeIndexが“11111”でないときは、非優先予測モードインデックス復号手順を終了し、図10のステップS1009に進む。
 remModeIndexが“11111”であるときは、さらに1ビットnextBitの復号を行い(ステップS1505)、nextBitの値を判定する(ステップS1506)。nextBitが“0”であれば、remModeIndexを31と設定した上で、非優先予測モードインデックス復号手順を終了し、図10のステップS1009に進む。nextBitが“0”であれば、remModeIndexを32と設定した上で、非優先予測モードインデックス復号手順を終了し、図10のステップS1009に進む。
 [予測モード算出手順]
 図10のステップS1009の予測モード算出手順の詳細を図16のフローチャートを参照して説明する。
 本手順においては、mpmListをインデックスの昇順に走査することにより処理を進める。非優先予測モード算出部907は、対象予測モードcurrModeIndexを非優先予測モードインデックスremModeIndexで初期化し、mpmListを走査するための変数iを0で初期化する(ステップS1601)。
 変数iがmpmListSize未満であるなら(ステップS1602)、すなわちまだmpmListのすべての要素を走査していないのであれば、currModeIndexとmpmList[i]を比較する(ステップS1603)。currModeIndexがmpmList[i]以上であれば、currModeIndexの値に1を加える(ステップS1604)。変数iの値に1を加えて(ステップS1605)、走査を継続する。
 ステップS1602において、iがmpmListSize以上になったとき、すなわちmpmListのすべての要素を走査し終えたときに処理を終了する。
 図23は本実施例の符号化装置により出力され、また復号装置で解釈される符号化ストリームのイントラ予測モードの符号化構文である。
 (第2の実施例)
 本実施例においては、優先予測モードリスト作成時に、refModeAとrefModeBが同一の場合に、参照予測モードと異なる予測モードを優先予測モードリストに追加することにより、常に2つの優先予測モードを設定する点が実施例1と異なる。このような動作を行うことにより、以降の符号化/復号処理の処理分岐を少なくし、処理の簡略化を実現するものである。
 [予測ブロックサイズとイントラ予測モード]
 本実施例では、予測ブロックのサイズに応じて、イントラ予測モード構成を切り替える。
 本実施例においては、4×4ブロックでは図2の符号203に示す18パターンを定義し、8×8ブロックと16×16ブロックに対しては、図2の符号201のパターンに符号202のパターンを加えた34パターンを定義する。18パターン及び34パターンの定義は、それぞれ11.25度単位、7.125単位のすべての予測方向を表現できる点で、一部表現できない方向を有する17パターン及び33パターンの定義と比べ、予測精度が低下しないという長所がある。実施例1との違いは、4×4ブロックのイントラ予測モード構成である。本実施例では、常に2つの優先予測モードを設定するものであるため、18パターンのイントラ予測モードを定義した場合であっても、常に非優先予測モードを16パターンに固定することができるため、非優先予測モードを固定長符号化するに当たり過不足ない符号割当てが可能である。
 [符号化手順]
 本発明に係る実施の形態によるイントラ予測モードの符号化方法の第2の実施例について説明する。第2の実施例におけるイントラ予測モード符号化部508の構成は、図6に示した第1の実施例と同様であるが、優先予測モードリスト作成部602、優先予測モードインデックス符号化部606、及び非優先予測モードインデックス符号化部608の詳細な動作は第1の実施例とは異なる。以下、図17のフローチャートを参照して、イントラ予測モードの符号化手順を説明する。
 優先予測モードリスト作成部602は、イントラ予測モードメモリ601から隣接ブロックのイントラ予測モードを取得し、優先予測モードリストmpmListを作成し、優先予測モードリストサイズmpmListSizeを決定する(ステップS1701)。優先予測モードリスト作成手順の詳細については後述する。また、対象イントラ予測モードをイントラ予測モードメモリ601に記憶する。本実施例においては、優先予測モードリストサイズmpmListSizeが常に2となるように優先予測モードリストmpmListを作成する点が第1の実施例とは異なる。
 優先予測モード判定フラグ算出部603、及び優先予測モードインデックス算出部605は、対象予測モードと優先予測モードリストmpmListを取得し、優先予測モード判定フラグmpmFlagと、優先予測モードインデックスmpmIndexを算出し(ステップS1702)、優先予測モード判定フラグmpmFlagを符号化する(ステップS1703)。優先予測モード判定フラグ、優先予測モードインデックス算出手順の詳細は図7のS702と同様であるため、説明を省略する。
 優先予測モード判定部609は、優先予測モード判定フラグmpmFlagを判定する(ステップS1704)。
 優先予測モード判定フラグmpmFlagがtrueである場合は、優先予測モードインデックス符号化部606は、優先予測モードインデックスmpmIndexを符号化し(ステップS1705)、処理を終了する。本実施例においては、優先予測モードリストサイズmpmListSizeを常に2と設定するものであるため、実施例1の図7における優先予測モードリストサイズmpmListSize判定手続き(ステップS705)が省略される。
 優先予測モード判定フラグmpmFlagがfalseである場合は、非優先予測モードインデックス算出部607は、非優先予測モードインデックスremModeIndexを算出し(ステップS1706)、さらに非優先予測モードインデックス符号化部608は、算出した非優先予測モードremModeIndexの符号化を行う(ステップS1707)。非優先予測モードインデックス算出手順については図7のステップS707と同様であるため、説明を省略する。非優先予測モード符号化手順の詳細については後述する。
 [優先予測モードリスト作成手順]
 図17のステップS701の参照イントラ予測モード決定手順の詳細を図19のフローチャートを参照して説明する。
 優先予測モードリスト作成部602は、イントラ予測モードメモリ601から隣接ブロックのイントラ予測モードrefModeAとrefModeBを取得し、refModeAとrefModeBを比較する(ステップS1901)。
 refModeAとrefModeBが等しい場合は、mpmList[0]=refModeAと設定する(ステップS1902)。refModeAが平均値モードであるかどうかを判定し(ステップS1903)、refModeAが平均値モードであるならば、mpmList[1]=0と設定する(ステップS1904)。refModeAが平均値モードでないならば、mpmList[1]=2と設定する(ステップS1905)。ただし、図2の符号201、202で参照されるように、0は垂直方向予測モード、2は平均値モードを示す。mpmList[1]は、mpmList[0]と値が異なるモードでなければならない。本実施例においては、refModeAが平均値モードでないときにmpmList[1]を平均値モードに設定するが、refModeAが平均値モードであるときはmpmList[1]に平均値モードを設定してしまうとmpmList[1]とmpmList[0]が同一になってしまう。mpmList[1]に設定する予測モードの候補は少なくとも2つ以上でなければならない。本実施例においては、mpmList[1]に設定する値は予め決定されたものであり、refModeA、refModeBおよび符号化過程により変動しないものとするが、例えばステップS1904においてmpmList[1]=1(水平方向予測モード)を設定するように、予め決定する値を異なるものにすることは可能である。ここで設定する値は、一般に発生頻度が高い予測モードであることが好ましい。さらにmpmListSize=2と設定し(ステップS1407)、図17のステップS1702へ進む。
 refModeAとrefModeB異なる場合は、mpmList[0]=min(refModeA,refModeB),mpmList[1]=max(refModeA,refModeB)と設定し(ステップS1906)、さらにmpmListSize=2と設定し(ステップS1907)、図17のステップS1702へ進む。
 [非優先予測モードインデックス符号化手順]
 図17のステップS1707の非優先予測モードインデックス符号化手順の詳細を図20のフローチャートを参照して説明する。
 非優先予測モードインデックス符号化部608は、対象ブロックサイズを判定する(ステップS2001)。
 対象ブロックが4×4ブロックであるとき、18パターンのイントラ予測が定義されている。上述した非優先予測モードインデックス算出手順において、優先予測モードの数は2つであり、remModeIndexは[0,15]のいずれかの値に変換されている。remModeIndexを固定長で表現するのに4ビットで十分であるため、remModeIndexに対し4ビットの固定長符号化を行い(ステップS2002)、処理を終了する。
 対象ブロックが8×8ブロックまたは16×16ブロックであるとき、34パターンのイントラ予測が定義されている。上述した非優先予測モードインデックス算出手順において、優先予測モードの数が2つであるため、remModeIndexは[0,31]のいずれかの値に変換されている。remModeIndexを固定長で表現するのに5ビットで十分であるため、remModeIndexに対し5ビットの固定長符号化を行い(ステップS2003)、処理を終了する。
 第1の実施例においては、優先予測モードの数に応じて、非優先予測モードの数が変動するために、非優先予測モードの可変長符号化を適用することによる処理の複雑化、もしくはイントラ予測モードの候補数減少による符号化効率の低下を伴うものであった。第2の実施例においては、優先予測モードの数が2つであることが保証されているために、イントラ予測モードの候補数の減少を伴うことなく、非優先予測モードインデックスを常に固定長符号化することができ、簡便な符号化手順を保った上で、さらなる符号化効率向上を実現できる。
 [復号手順]
 本発明に係る実施の形態によるイントラ予測モードの復号方法の第2の実施例について説明する。第2の実施例におけるイントラ予測モード復号部803の構成は、図9に示した第1の実施例と同様であるが、優先予測モードリスト作成部902、優先予測モードインデックス復号部904、及び非優先予測モードインデックス復号部906の詳細な動作は第1の実施例とは異なる。以下、図21のフローチャートを参照して、イントラ予測モードの復号手順を説明する。
 優先予測モードリスト作成部902は、イントラ予測モードメモリ901から隣接ブロックのイントラ予測モードを取得し、優先予測モードリストmpmListを作成し、優先予測モードリストのサイズmpmListSizeを決定する(ステップS2101)。第2の実施例においては、優先予測モードリストサイズmpmListSizeが常に2となるように優先予測モードリストmpmListを作成する点が第1の実施例とは異なる。優先予測モードリスト作成手順は図6の優先予測モードリスト作成部602における優先予測モードリスト作成手順と同様、図19のフローチャートで示す手続きに従うため、詳細説明を省略する。
 優先予測モード判定フラグ復号部903は、符号化系列から1ビット読み込み、優先予測モード判定フラグmpmFlagを復号し(ステップS2102)、優先予測モード判定フラグmpmFlagを判定する(ステップS2103)。
 優先予測モード判定フラグmpmFlagがtrueである場合は、優先予測モードインデックス復号部904は、符号化系列からさらに1ビットを読み込み、優先予測モードインデックスmpmIndexを復号する(ステップS2104)。さらに、優先予測モード算出部905は、優先予測モードリストmpmListのmpmIndex番目の要素mpmList[mpmIndex]を対象予測モードcurrModeIndexとし(ステップS2105)、処理を終了する。第2の実施例においては、優先予測モードリストサイズmpmListSizeを常に2と設定するため、第1の実施例の図10における優先予測モードリストサイズmpmListSize判定手続き(ステップS1004)が省略される。
 優先予測モード判定フラグmpmFlagがfalseである場合は、非優先予測モードインデックス復号部906は、非優先予測モードインデックスremModeIndexを復号し(ステップS2106)、さらに、非優先予測モード算出部907は、算出したremModeIndexを元に対象予測モードcurrModeIndexを算出する(ステップS2107)。対象予測モードcurrModeIndexをイントラ予測モードメモリ901に格納し、処理を終了する。非優先予測モードインデックスの復号手順については後述する。対象予測モード算出手順については図10のステップS1009と同様であるため、説明を省略する。
 [非優先予測モードインデックス復号手順]
 図21のステップS2106の非優先予測モードインデックス復号手順の詳細を図22のフローチャートを参照して説明する。
 非優先予測モード算出部907は、対象ブロックサイズを判定する(ステップS2201)。
 対象ブロックが4×4ブロックであるとき、4ビットの固定長復号を行い、remModeIndexとし(ステップS2202)、非優先予測モードインデックス復号手順を終了し、図21のステップS2107に進む。
 対象ブロックが8×8ブロックまたは16×16ブロックであるとき、5ビットの固定長復号を行い、remModeIndexとし(ステップS2203)、非優先予測モードインデックス復号手順を終了し、図21のステップS2107に進む。
 図24は本実施例の符号化装置により出力され、また復号装置で解釈される符号化ストリームのイントラ予測モードの符号化構文である。
 (第3の実施例)
 第3の実施例においては、優先予測モードリスト作成手順のみが第2の実施例と異なるため、優先予測モードリスト作成手順のみを説明し、その他の説明を省略する。
 [優先予測モードリスト作成手順]
 図17のステップS701の参照イントラ予測モード決定手順の詳細を図25のフローチャートを参照して説明する。
 優先予測モードリスト作成部602は、イントラ予測モードメモリ601から隣接ブロックのイントラ予測モードrefModeAとrefModeBを取得し、refModeAとrefModeBを比較する(ステップS2501)。
 refModeAとrefModeBが等しい場合は、mpmList[0]=refModeAと設定する(ステップS2502)。refModeAが平均値モードであるかどうかを判定し(ステップS2503)、refModeAが平均値モードであるならば、mpmList[1]=0と設定する(ステップS2504)。refModeAが平均値モードでないならば、mpmList[1]にrefModeAと予測方向の隣接した予測モードのうちモードインデックスが小さい予測モードをテーブル参照により設定する(ステップS2505)。図26は図2の符号201のイントラ予測モードに対する、隣接予測モード参照テーブルの一例である。予測モード0に隣接する予測モードは11と12であり、そのうち値の小さな11を予測モード0の隣接モードと設定する。さらにmpmListSize=2と設定し(ステップS2507)、図17のステップS1702へ進む。
 refModeAとrefModeB異なる場合は、mpmList[0]=min(refModeA,refModeB),mpmList[1]=max(refModeA,refModeB)と設定し(ステップS2506)、さらにmpmListSize=2と設定し(ステップS2507)、図17のステップS1702へ進む。
 第3の実施例では、refModeAとrefModeBが等しく、かつ平均値モードでないときのmpmList[1]の設定方法が第2の実施例とは異なる。第2の実施例では、refModeAとrefModeBが等しく、かつ平均値モードでないときにmpmList[1]に対し一意にモード0を割り当てる。第3の実施例では、refModeAとrefModeBが等しく、かつ平均値モードでないときにmpmList[1]に対しrefModeAに隣接するモードを割り当てるものである。refModeAに隣接するモードの発生頻度は高いことが期待されるため、優先予測モードリスト作成手順の演算量は第2の実施例と比べ増加するものの、より効果的な優先予測モードリストを作成でき、符号化効率の向上が可能となる。
 以上述べた第2および第3の実施例によれば、以下のような作用効果を奏する。
 (1)2つの優先予測モードを利用する符号化構成において、参照予測モードが同一の場合においても、異なる予測モードを優先予測モードに加えることにより、常に優先予測モードが2つ(固定)になるような符号化構成を実現する。これにより、優先予測モードの数に依存する処理の分岐を削除でき、処理の簡略化、回路規模の削減ができる。
 (2)参照予測モードが同一の場合に加える、異なる予測モードにおいては、符号化処理過程に依存しない予め設定したモードを適用する。追加候補としては水平方向予測/垂直方向予測/平均値予測等の平均的に発生頻度が高い予測モードを採用する。これにより、異なる予測モードを優先予測モードに設定する処理を低負荷で実現できるともに、平均的に優れた予測精度を担保することができる。
 (3)参照予測モードが同一の場合に加える、異なる予測モードについて、参照予測モードに隣接した予測モードを採用することも可能である。(2)の場合と比べ負荷は増加するが、より優秀な予測モードを優先予測モードに設定し、符号化効率を向上させることができる。
 以上述べた実施の形態の画像符号化装置および画像復号装置は、以下の作用効果を奏する。
 (1)複数のイントラ予測モードから、複数の優先予測モードを設定する。優先予測モードをただ一つで表現する構成と比べ、短い符号語で表現できる優先予測モードの数が増えること、また、各優先予測モードに対し、より現実的な確率モデルに従った符号長割り当てができることから、イントラ予測モードの発生符号量を削減することができる。
 (2)参照イントラ予測モードが同一である場合に対しても、暗黙的にもう一つの優先予測モードを決定する。参照イントラ予測モードが同一であるか否かに関わらず常に固定長の優先イントラ予測モードリストを作成することができるため、符号化/復号処理における優先イントラ予測モードリスト作成処理の分岐を削除して処理を簡略化することができる。さらに非優先イントラ予測モードリストが固定長であることから、符号化/復号に係る構成を単純化して、回路規模の縮小を図ることができる。
 (3)暗黙的に決定するもう一つの優先予測モードについては、参照予測モード、及びこれまでの符号化/復号過程に寄らず予め設定したイントラ予測モードを用いことにより、もう一つの優先予測モード算出に係る負荷の増加を抑えることができる。ここで用いるもう一つの優先予測モードは、一般に発生頻度が高い予測モード、例えば垂直方向/水平方向/平均値成分予測モードを用いることにより符号化効率の低下を抑えることができる。
 以上述べた実施の形態の動画像符号化装置が出力する動画像の符号化ストリームは、実施の形態で用いられた符号化方法に応じて復号することができるように特定のデータフォーマットを有しており、動画像符号化装置に対応する動画像復号装置がこの特定のデータフォーマットの符号化ストリームを復号することができる。
 動画像符号化装置と動画像復号装置の間で符号化ストリームをやりとりするために、有線または無線のネットワークが用いられる場合、符号化ストリームを通信路の伝送形態に適したデータ形式に変換して伝送してもよい。その場合、動画像符号化装置が出力する符号化ストリームを通信路の伝送形態に適したデータ形式の符号化データに変換してネットワークに送信する動画像送信装置と、ネットワークから符号化データを受信して符号化ストリームに復元して動画像復号装置に供給する動画像受信装置とが設けられる。
 動画像送信装置は、動画像符号化装置が出力する符号化ストリームをバッファするメモリと、符号化ストリームをパケット化するパケット処理部と、パケット化された符号化データをネットワークを介して送信する送信部とを含む。動画像受信装置は、パケット化された符号化データをネットワークを介して受信する受信部と、受信された符号化データをバッファするメモリと、符号化データをパケット処理して符号化ストリームを生成し、動画像復号装置に提供するパケット処理部とを含む。
 以上の符号化及び復号に関する処理は、ハードウェアを用いた伝送、蓄積、受信装置として実現することができるのは勿論のこと、ROM(リード・オンリ・メモリ)やフラッシュメモリ等に記憶されているファームウェアや、コンピュータ等のソフトウェアによっても実現することができる。そのファームウェアプログラム、ソフトウェアプログラムをコンピュータ等で読み取り可能な記録媒体に記録して提供することも、有線あるいは無線のネットワークを通してサーバから提供することも、地上波あるいは衛星ディジタル放送のデータ放送として提供することも可能である。
 以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
 501 減算部、 502 直交変換・量子化部、 503 逆量子化・逆変換部、 504 加算部、 505 復号画像メモリ、 506 イントラ予測部、 507 テクスチャ情報符号化部、 508 イントラ予測モード符号化部、 509 イントラ予測モード選択部、 601 イントラ予測モードメモリ、 602 優先予測モードリスト作成部、 603 優先予測モード判定フラグ算出部、 604 優先予測モード判定フラグ符号化部、 605 優先予測モードインデックス算出部、 606 優先予測モードインデックス符号化部、 607 非優先予測モードインデックス算出部、 608 非優先予測モードインデックス符号化部、 609 優先予測モード判定部、 801 テクスチャ情報復号部、 802 逆量子化・逆変換部、 803 イントラ予測モード復号部、 804 加算部、 805 復号画像メモリ、 806 イントラ予測部、 901 イントラ予測モードメモリ、 902 優先予測モードリスト作成部、 903 優先予測モード判定フラグ復号部、 904 優先予測モードインデックス復号部、 905 優先予測モード算出部、 906 非優先予測モードインデックス復号部、 907 非優先予測モード算出部。
 本発明は、画像符号化及び復号技術、特に画面内符号化及び復号技術に利用できる。

Claims (14)

  1.  ブロック単位で複数の画面内予測モードから選択された画面内予測モードを用いて、画像信号を符号化するとともにその選択された画面内予測モードを特定する情報を符号化する画像符号化装置であって、
     符号化対象ブロックの画面内予測モードを選択する画面内予測モード選択部と、
     符号化済みブロックの画面内予測モードを記憶する画面内予測モード記憶部と、
     前記符号化対象ブロックの画面内予測処理に用いる複数の参照ブロックの画面内予測モードを前記画面内予測モード記憶部から取得し、その取得した画面内予測モードに基づき前記符号化対象ブロックの画面内予測モードの候補となる優先予測モードのリストを作成する優先予測モードリスト作成部と、
     前記符号化対象ブロックの画面内予測モードが優先予測モードであるかどうかを示す情報を算出する優先予測モード判定フラグ算出部と、
     前記符号化対象ブロックの画面内予測モードが優先予測モードである場合にその優先予測モードを特定する情報を前記リストにしたがって導出する優先予測モードインデックス導出部と、
     前記符号化対象ブロックの画面内予測モードが非優先予測モードである場合にその非優先予測モードを特定する情報を前記リストに基づき導出する非優先予測モードインデックス導出部と、
     前記符号化対象ブロックの画面内予測モードが優先予測モードである場合はその優先予測モードを特定する情報を、前記符号化対象ブロックの画面内予測モードが非優先予測モードである場合はその非優先予測モードを特定する情報を、前記符号化対象ブロックの画面内予測モードが優先予測モードであるかどうかを示す情報とともに符号化する符号化部とを備え、
     前記優先予測モードリスト作成部は、複数の前記参照ブロックの異なる画面内予測モードの数によらず、いずれの符号化対象ブロックでも所定数の要素を持つ前記リストを作成することを特徴とする画像符号化装置。
  2.  前記優先予測モードリスト作成部は、複数の前記参照ブロックの画面内予測モードから得られた優先予測モードの候補の中に同一のものがあるときに、得られた候補には含まれない別の画面内予測モードを新たに候補に加えて、前記所定数の要素を持つ前記リストを作成することを特徴とする請求項1に記載の画像符号化装置。
  3.  前記優先予測モードリスト作成部は、複数の前記参照ブロックの画面内予測モードから得られた前記所定数未満の優先予測モードの候補の中に同一のものがあり、その同一のものが平均値モードである場合、優先予測モードとして予め設定した予測モードを新たに候補に加えて、前記所定数の要素を持つ前記リストを作成することを特徴とする請求項1または2に記載の画像符号化装置。
  4.  前記優先予測モードリスト作成部は、複数の前記参照ブロックの画面内予測モードから得られた前記所定数未満の優先予測モードの候補の中に同一のものがあり、その同一のものが平均値モードでない場合、平均値モードを新たに候補に加えて、前記所定数の要素を持つ前記リストを作成することを特徴とする請求項1から3のいずれかに記載の画像符号化装置。
  5.  前記優先予測モードリスト作成部は、複数の前記参照ブロックの画面内予測モードから得られた前記所定数未満の優先予測モードの候補の中に同一のものがあり、その同一のものが平均値モードでない場合、前記参照ブロックの画面内予測モードの予測方向と隣接する予測方向をもつ別の画面内予測モードを新たに候補に加えて、前記所定数の要素を持つ前記リストを作成することを特徴とする請求項1から4のいずれかに記載の画像符号化装置。
  6.  ブロック単位で複数の画面内予測モードから選択された画面内予測モードを用いて、画像信号を符号化するとともにその選択された画面内予測モードを特定する情報を符号化する画像符号化方法であって、
     符号化対象ブロックの画面内予測モードを選択する画面内予測モード選択ステップと、
     符号化済みブロックの画面内予測モードを記憶するメモリを参照して、前記符号化対象ブロックの画面内予測処理に用いる複数の参照ブロックの画面内予測モードを取得し、その取得した画面内予測モードに基づき前記符号化対象ブロックの画面内予測モードの候補となる優先予測モードのリストを作成する優先予測モードリスト作成ステップと、
     前記符号化対象ブロックの画面内予測モードが優先予測モードであるかどうかを示す情報を算出する優先予測モード判定フラグ算出ステップと、
     前記符号化対象ブロックの画面内予測モードが優先予測モードである場合にその優先予測モードを特定する情報を前記リストにしたがって導出する優先予測モードインデックス導出ステップと、
     前記符号化対象ブロックの画面内予測モードが非優先予測モードである場合にその非優先予測モードを特定する情報を前記リストに基づき導出する非優先予測モードインデックス導出ステップと、
     前記符号化対象ブロックの画面内予測モードが優先予測モードである場合はその優先予測モードを特定する情報を、前記符号化対象ブロックの画面内予測モードが非優先予測モードである場合はその非優先予測モードを特定する情報を、前記符号化対象ブロックの画面内予測モードが優先予測モードであるかどうかを示す情報とともに符号化する符号化ステップとを備え、
     前記優先予測モードリスト作成ステップは、複数の前記参照ブロックの異なる画面内予測モードの数によらず、いずれの符号化対象ブロックでも所定数の要素を持つ前記リストを作成することを特徴とする画像符号化方法。
  7.  ブロック単位で複数の画面内予測モードから選択された画面内予測モードを用いて、画像信号を符号化するとともにその選択された画面内予測モードを特定する情報を符号化する画像符号化プログラムであって、
     符号化対象ブロックの画面内予測モードを選択する画面内予測モード選択ステップと、
     符号化済みブロックの画面内予測モードを記憶するメモリを参照して、前記符号化対象ブロックの画面内予測処理に用いる複数の参照ブロックの画面内予測モードを取得し、その取得した画面内予測モードに基づき前記符号化対象ブロックの画面内予測モードの候補となる優先予測モードのリストを作成する優先予測モードリスト作成ステップと、
     前記符号化対象ブロックの画面内予測モードが優先予測モードであるかどうかを示す情報を算出する優先予測モード判定フラグ算出ステップと、
     前記符号化対象ブロックの画面内予測モードが優先予測モードである場合にその優先予測モードを特定する情報を前記リストにしたがって導出する優先予測モードインデックス導出ステップと、
     前記符号化対象ブロックの画面内予測モードが非優先予測モードである場合にその非優先予測モードを特定する情報を前記リストに基づき導出する非優先予測モードインデックス導出ステップと、
     前記符号化対象ブロックの画面内予測モードが優先予測モードである場合はその優先予測モードを特定する情報を、前記符号化対象ブロックの画面内予測モードが非優先予測モードである場合はその非優先予測モードを特定する情報を、前記符号化対象ブロックの画面内予測モードが優先予測モードであるかどうかを示す情報とともに符号化する符号化ステップとをコンピュータに実行させ、
     前記優先予測モードリスト作成ステップは、複数の前記参照ブロックの異なる画面内予測モードの数によらず、いずれの符号化対象ブロックでも所定数の要素を持つ前記リストを作成することを特徴とする画像符号化プログラム。
  8.  符号化ストリームからブロック単位で画面内予測モードを特定する情報を復号し、復号された画面内予測モードを特定する情報を用いて、画像信号を復号する画像復号装置であって、
     復号済みブロックの画面内予測モードを記憶する画面内予測モード記憶部と、
     復号対象ブロックの画面内予測処理に用いる複数の参照ブロックの画面内予測モードを前記画面内予測モード記憶部から取得し、その取得した画面内予測モードに基づき前記復号対象ブロックの画面内予測モードの候補となる優先予測モードのリストを作成する優先予測モードリスト作成部と、
     前記復号対象ブロックの画面内予測モードが優先予測モードである場合はその優先予測モードを特定する情報を、前記復号対象ブロックの画面内予測モードが非優先予測モードである場合はその非優先予測モードを特定する情報を、前記復号対象ブロックの画面内予測モードが優先予測モードであるかどうかを示す情報とともに復号する復号部と、
     前記画面内予測モードが優先予測モードであるかどうかを示す情報に基づき、前記復号対象ブロックの画面内予測モードを優先予測モードであると判定した場合に、復号された前記優先予測モードを特定する情報から前記リストにしたがって優先予測モードを導出する優先予測モード導出部と、
     前記画面内予測モードが優先予測モードであるかどうかを示す情報に基づき、前記復号対象ブロックの画面内予測モードを非優先予測モードであると判定した場合に、復号された前記非優先予測モードを特定する情報から前記リストに基づき非優先予測モードを導出する非優先予測モード導出部とを備え、
     前記優先予測モードリスト作成部は、複数の前記参照ブロックの異なる画面内予測モードの数によらず、いずれの復号対象ブロックでも所定数の要素を持つ前記リストを作成することを特徴とする画像復号装置。
  9.  前記優先予測モードリスト作成部は、複数の前記参照ブロックの画面内予測モードから得られた優先予測モードの候補の中に同一のものがあるときに、得られた候補には含まれない別の画面内予測モードを新たに候補に加えて、前記所定数の要素を持つ前記リストを作成することを特徴とする請求項8に記載の画像復号装置。
  10.  前記優先予測モードリスト作成部は、複数の前記参照ブロックの画面内予測モードから得られた前記所定数未満の優先予測モードの候補の中に同一のものがあり、その同一のものが平均値モードである場合、優先予測モードとして予め設定した予測モードを新たに候補に加えて、前記所定数の要素を持つ前記リストを作成することを特徴とする請求項8または9記載の画像復号装置。
  11.  前記優先予測モードリスト作成部は、複数の前記参照ブロックの画面内予測モードから得られた前記所定数未満の優先予測モードの候補の中に同一のものがあり、その同一のものが平均値モードでない場合、平均値モードを新たに候補に加えて、前記所定数の要素を持つ前記リストを作成することを特徴とする請求項8から10のいずれかに記載の画像復号装置。
  12.  前記優先予測モードリスト作成部は、複数の前記参照ブロックの画面内予測モードから得られた前記所定数未満の優先予測モードの候補の中に同一のものがあり、その同一のものが平均値モードでない場合、前記参照ブロックの画面内予測モードの予測方向と隣接する予測方向をもつ別の画面内予測モードを新たに候補に加えて、前記所定数の要素を持つ前記リストを作成することを特徴とする請求項8から11のいずれかに記載の画像復号装置。
  13.  符号化ストリームからブロック単位で画面内予測モードを特定する情報を復号し、復号された画面内予測モードを特定する情報を用いて、画像信号を復号する画像復号方法であって、
     復号済みブロックの画面内予測モードを記憶するメモリを参照して、復号対象ブロックの画面内予測処理に用いる複数の参照ブロックの画面内予測モードを取得し、その取得した画面内予測モードに基づき前記復号対象ブロックの画面内予測モードの候補となる優先予測モードのリストを作成する優先予測モードリスト作成ステップと、
     前記復号対象ブロックの画面内予測モードが優先予測モードである場合はその優先予測モードを特定する情報を、前記復号対象ブロックの画面内予測モードが非優先予測モードである場合はその非優先予測モードを特定する情報を、前記復号対象ブロックの画面内予測モードが優先予測モードであるかどうかを示す情報とともに復号する復号ステップと、
     前記画面内予測モードが優先予測モードであるかどうかを示す情報に基づき、前記復号対象ブロックの画面内予測モードを優先予測モードであると判定した場合に、復号された前記優先予測モードを特定する情報から前記リストにしたがって優先予測モードを導出する優先予測モード導出ステップと、
     前記画面内予測モードが優先予測モードであるかどうかを示す情報に基づき、前記復号対象ブロックの画面内予測モードを非優先予測モードであると判定した場合に、復号された前記非優先予測モードを特定する情報から前記リストに基づき非優先予測モードを導出する非優先予測モード導出ステップとを備え、
     前記優先予測モードリスト作成ステップは、複数の前記参照ブロックの異なる画面内予測モードの数によらず、いずれの復号対象ブロックでも所定数の要素を持つ前記リストを作成することを特徴とする画像復号方法。
  14.  符号化ストリームからブロック単位で画面内予測モードを特定する情報を復号し、復号された画面内予測モードを特定する情報を用いて、画像信号を復号する画像復号プログラムであって、
     復号済みブロックの画面内予測モードを記憶するメモリを参照して、復号対象ブロックの画面内予測処理に用いる複数の参照ブロックの画面内予測モードを取得し、その取得した画面内予測モードに基づき前記復号対象ブロックの画面内予測モードの候補となる優先予測モードのリストを作成する優先予測モードリスト作成ステップと、
     前記復号対象ブロックの画面内予測モードが優先予測モードである場合はその優先予測モードを特定する情報を、前記復号対象ブロックの画面内予測モードが非優先予測モードである場合はその非優先予測モードを特定する情報を、前記復号対象ブロックの画面内予測モードが優先予測モードであるかどうかを示す情報とともに復号する復号ステップと、
     前記画面内予測モードが優先予測モードであるかどうかを示す情報に基づき、前記復号対象ブロックの画面内予測モードを優先予測モードであると判定した場合に、復号された前記優先予測モードを特定する情報から前記リストにしたがって優先予測モードを導出する優先予測モード導出ステップと、
     前記画面内予測モードが優先予測モードであるかどうかを示す情報に基づき、前記復号対象ブロックの画面内予測モードを非優先予測モードであると判定した場合に、復号された前記非優先予測モードを特定する情報から前記リストに基づき非優先予測モードを導出する非優先予測モード導出ステップとをコンピュータに実行させ、
     前記優先予測モードリスト作成ステップは、複数の前記参照ブロックの異なる画面内予測モードの数によらず、いずれの復号対象ブロックでも所定数の要素を持つ前記リストを作成することを特徴とする画像復号プログラム。
PCT/JP2012/003863 2011-06-17 2012-06-13 画像符号化装置、画像符号化方法及び画像符号化プログラム、並びに画像復号装置、画像復号方法及び画像復号プログラム WO2012172796A1 (ja)

Priority Applications (10)

Application Number Priority Date Filing Date Title
BR112013032349-3A BR112013032349B1 (pt) 2011-06-17 2012-06-13 "dispositivo e método de codificação de imagem, dispositivo e método de decodificação de imagem, dispositivo é método de transmissão, e dispositivo e método de recepção
KR1020187007829A KR101953522B1 (ko) 2011-06-17 2012-06-13 화상 부호화 장치, 화상 부호화 방법 및 화상 부호화 프로그램, 및 화상 복호 장치, 화상 복호 방법 및 화상 복호 프로그램
KR1020167002053A KR101677003B1 (ko) 2011-06-17 2012-06-13 화상 부호화 장치, 화상 부호화 방법 및 화상 부호화 프로그램, 및 화상 복호 장치, 화상 복호 방법 및 화상 복호 프로그램
BR122020013891-2A BR122020013891B1 (pt) 2011-06-17 2012-06-13 Dispositivo e método para decodificação de imagem, dispositivo e método para transmissão, e dispositivo e método para recepção
KR1020167031285A KR101742932B1 (ko) 2011-06-17 2012-06-13 화상 부호화 장치, 화상 부호화 방법 및 화상 부호화 프로그램, 및 화상 복호 장치, 화상 복호 방법 및 화상 복호 프로그램
KR1020147001105A KR101590733B1 (ko) 2011-06-17 2012-06-13 화상 부호화 장치, 화상 부호화 방법 및 화상 부호화 프로그램, 및 화상 복호 장치, 화상 복호 방법 및 화상 복호 프로그램
KR1020177014186A KR101842851B1 (ko) 2011-06-17 2012-06-13 화상 부호화 장치, 화상 부호화 방법 및 화상 부호화 프로그램, 및 화상 복호 장치, 화상 복호 방법 및 화상 복호 프로그램
CN201280028619.2A CN103597826B (zh) 2011-06-17 2012-06-13 图像解码装置及图像解码方法
EP12800165.8A EP2723077B1 (en) 2011-06-17 2012-06-13 Image encoding device, image encoding method and image encoding program, as well as image decoding device, image decoding method and image decoding program
US14/103,476 US20140098865A1 (en) 2011-06-17 2013-12-11 Device, method, and program for picture coding, and device, method, and program for picture decoding

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2011-135322 2011-06-17
JP2011-135321 2011-06-17
JP2011135321A JP5477343B2 (ja) 2011-06-17 2011-06-17 画像符号化装置、画像符号化方法及び画像符号化プログラム
JP2011135322A JP5252032B2 (ja) 2011-06-17 2011-06-17 画像復号装置、画像復号方法、画像復号プログラム、受信装置、受信方法、及び受信プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/103,476 Continuation US20140098865A1 (en) 2011-06-17 2013-12-11 Device, method, and program for picture coding, and device, method, and program for picture decoding

Publications (1)

Publication Number Publication Date
WO2012172796A1 true WO2012172796A1 (ja) 2012-12-20

Family

ID=47356802

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/003863 WO2012172796A1 (ja) 2011-06-17 2012-06-13 画像符号化装置、画像符号化方法及び画像符号化プログラム、並びに画像復号装置、画像復号方法及び画像復号プログラム

Country Status (7)

Country Link
US (1) US20140098865A1 (ja)
EP (1) EP2723077B1 (ja)
KR (5) KR101677003B1 (ja)
CN (6) CN105187834B (ja)
BR (2) BR112013032349B1 (ja)
TW (5) TWI530166B (ja)
WO (1) WO2012172796A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2012276454B2 (en) * 2011-06-28 2016-02-25 Samsung Electronics Co., Ltd. Method and apparatus for coding video and method and apparatus for decoding video, accompanied with intra prediction

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140064359A1 (en) * 2012-08-31 2014-03-06 Qualcomm Incorporated Intra prediction most probable mode order improvement for scalable video coding
FR3051309A1 (fr) * 2016-05-10 2017-11-17 Bcom Procedes et dispositifs de codage et de decodage d'un flux de donnees representatif d'au moins une image
US10506228B2 (en) 2016-10-04 2019-12-10 Qualcomm Incorporated Variable number of intra modes for video coding
KR102391834B1 (ko) * 2017-11-17 2022-04-27 에프쥐 이노베이션 컴퍼니 리미티드 조정된 인트라 모드 목록에 기초한 비디오 데이터를 코딩하기 위한 디바이스 및 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009246975A (ja) 2008-03-28 2009-10-22 Samsung Electronics Co Ltd 画像のイントラ予測モード情報の符号化及び/又は復号化方法及び装置

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4130780B2 (ja) * 2002-04-15 2008-08-06 松下電器産業株式会社 画像符号化方法および画像復号化方法
WO2003101117A1 (en) * 2002-05-28 2003-12-04 Sharp Kabushiki Kaisha Methods and systems for image intra-prediction mode estimation, communication, and organization
CN100401781C (zh) * 2002-11-20 2008-07-09 松下电器产业株式会社 动态图像预测方法、编码方法及装置、解码方法及装置
CN101141651B (zh) * 2002-11-25 2010-11-10 松下电器产业株式会社 动态补偿方法、图像编码方法及图像解码方法
JP2006093777A (ja) * 2004-09-21 2006-04-06 Victor Co Of Japan Ltd 動画像符号化装置及び動画像符号化プログラム
CN100455021C (zh) * 2004-09-30 2009-01-21 华为技术有限公司 帧内预测模式的选择方法
CN1784016A (zh) * 2004-12-03 2006-06-07 松下电器产业株式会社 内部预测装置
CN100348051C (zh) * 2005-03-31 2007-11-07 华中科技大学 一种增强型帧内预测模式编码方法
KR100678911B1 (ko) * 2005-07-21 2007-02-05 삼성전자주식회사 방향적 인트라 예측의 적용을 확장하여 비디오 신호를인코딩하고 디코딩하는 방법 및 장치
JP4791129B2 (ja) * 2005-10-03 2011-10-12 ルネサスエレクトロニクス株式会社 画像符号化装置、画像符号化方法及び画像編集装置
KR100968920B1 (ko) * 2006-01-05 2010-07-14 니폰덴신뎅와 가부시키가이샤 영상 부호화 방법 및 복호 방법, 그들의 장치, 및 그들의프로그램 및 프로그램을 기록한 기억 매체
KR101365570B1 (ko) * 2007-01-18 2014-02-21 삼성전자주식회사 인트라 예측 부호화, 복호화 방법 및 장치
US8428133B2 (en) * 2007-06-15 2013-04-23 Qualcomm Incorporated Adaptive coding of video block prediction mode
EP2166769B1 (en) * 2007-06-29 2017-04-05 Sharp Kabushiki Kaisha Image encoding device, image encoding method, image decoding device, image decoding method, program, and recording medium
EP2187648A4 (en) * 2007-09-12 2012-07-11 Sony Corp IMAGE PROCESSING DEVICE AND IMAGE PROCESSING METHOD
CN100551075C (zh) * 2007-10-15 2009-10-14 中兴通讯股份有限公司 一种低复杂度的帧内预测模式选择方法
CN101202915A (zh) * 2007-12-06 2008-06-18 北京大学深圳研究生院 一种帧内预测模式的选择方法及装置
KR101433170B1 (ko) * 2008-01-05 2014-08-28 경희대학교 산학협력단 인접 블록의 공간 예측 방향성을 이용하여 화면 내 예측모드를 추정하는 인코딩 및 디코딩 방법, 그 장치
JP2009177447A (ja) * 2008-01-24 2009-08-06 Panasonic Corp 動画像送受信システム
CN101668202A (zh) * 2008-09-01 2010-03-10 中兴通讯股份有限公司 帧内预测模式的选择方法和装置
KR101306834B1 (ko) 2008-09-22 2013-09-10 에스케이텔레콤 주식회사 인트라 예측 모드의 예측 가능성을 이용한 영상 부호화/복호화 장치 및 방법
WO2010087157A1 (ja) * 2009-01-29 2010-08-05 パナソニック株式会社 画像符号化方法及び画像復号方法
KR101527085B1 (ko) * 2009-06-30 2015-06-10 한국전자통신연구원 인트라 부호화/복호화 방법 및 장치
KR101702553B1 (ko) * 2009-07-04 2017-02-03 에스케이 텔레콤주식회사 영상 부호화/복호화 방법 및 장치
KR101452860B1 (ko) * 2009-08-17 2014-10-23 삼성전자주식회사 영상의 부호화 방법 및 장치, 영상 복호화 방법 및 장치
US8902978B2 (en) 2010-05-30 2014-12-02 Lg Electronics Inc. Enhanced intra prediction mode signaling
CN101977317B (zh) * 2010-10-27 2012-07-04 无锡中星微电子有限公司 帧内预测方法及装置
WO2012092763A1 (en) * 2011-01-07 2012-07-12 Mediatek Singapore Pte. Ltd. Method and apparatus of improved intra luma prediction mode coding
US9654785B2 (en) * 2011-06-09 2017-05-16 Qualcomm Incorporated Enhanced intra-prediction mode signaling for video coding using neighboring mode
JP5386657B2 (ja) * 2011-06-13 2014-01-15 パナソニック株式会社 画像復号方法および画像復号装置
US10123008B2 (en) * 2011-06-17 2018-11-06 Hfi Innovation Inc. Method and apparatus for coding of intra prediction mode
KR101876173B1 (ko) * 2011-06-17 2018-07-09 엘지전자 주식회사 인트라 예측 모드 부호화/복호화 방법 및 장치
JP2013074327A (ja) * 2011-09-26 2013-04-22 Jvc Kenwood Corp 画像復号装置、画像復号方法及び画像復号プログラム
AU2012200345B2 (en) * 2012-01-20 2014-05-01 Canon Kabushiki Kaisha Method, apparatus and system for encoding and decoding the significance map residual coefficients of a transform unit

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009246975A (ja) 2008-03-28 2009-10-22 Samsung Electronics Co Ltd 画像のイントラ予測モード情報の符号化及び/又は復号化方法及び装置

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
EHSAN MAANI ET AL.: "Differential Coding of Intra Modes (DCIM)", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 2ND MEETING, 16 July 2010 (2010-07-16), GENEVA, CH, XP030007688 *
MEI GUO ET AL.: "Context Dependent Intra Mode Coding", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 5TH MEETING, 15 March 2011 (2011-03-15), GENEVA, SWITZERLAND, XP030008707 *
MEI GUO ET AL.: "Improved Intra Mode Coding", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT- VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 4TH MEETING, 15 January 2011 (2011-01-15), DAEGU, KOREA, XP030008206 *
See also references of EP2723077A4
TOMOYUKI YAMAMOTO ET AL.: "Flexible Representation of Intra Prediction Modes", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 2ND MEETING, 16 July 2010 (2010-07-16), GENEVA, CH, XP030007643 *
TORU KUMAKURA ET AL.: "Fixing the number of mpm candidates", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 6TH MEETING, 1 July 2011 (2011-07-01), TORINO, IT, XP030009363 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2012276454B2 (en) * 2011-06-28 2016-02-25 Samsung Electronics Co., Ltd. Method and apparatus for coding video and method and apparatus for decoding video, accompanied with intra prediction
US9451260B2 (en) 2011-06-28 2016-09-20 Samsung Electronics Co., Ltd. Method and apparatus for coding video and method and apparatus for decoding video, using intra prediction
US9473776B2 (en) 2011-06-28 2016-10-18 Samsung Electronics Co., Ltd. Method and apparatus for coding video and method and apparatus for decoding video, using intra prediction
US9479783B2 (en) 2011-06-28 2016-10-25 Samsung Electronics Co., Ltd. Method and apparatus for coding video and method and apparatus for decoding video, using intra prediction
US9485510B2 (en) 2011-06-28 2016-11-01 Samsung Electronics Co., Ltd. Method and apparatus for coding video and method and apparatus for decoding video, using intra prediction
US9503727B2 (en) 2011-06-28 2016-11-22 Samsung Electronics Co., Ltd. Method and apparatus for coding video and method apparatus for decoding video, accompanied with intra prediction

Also Published As

Publication number Publication date
KR20170063966A (ko) 2017-06-08
CN105245892A (zh) 2016-01-13
EP2723077A1 (en) 2014-04-23
EP2723077B1 (en) 2021-07-21
KR20160017107A (ko) 2016-02-15
TWI562617B (ja) 2016-12-11
TW201306600A (zh) 2013-02-01
KR101842851B1 (ko) 2018-03-27
CN105187836B (zh) 2017-07-18
TW201524199A (zh) 2015-06-16
CN103597826A (zh) 2014-02-19
CN105187834A (zh) 2015-12-23
TWI487333B (zh) 2015-06-01
CN105245894B (zh) 2017-08-08
CN105245894A (zh) 2016-01-13
KR101742932B1 (ko) 2017-06-01
TWI642298B (zh) 2018-11-21
EP2723077A4 (en) 2014-11-26
KR101953522B1 (ko) 2019-02-28
CN105187834B (zh) 2017-06-27
BR112013032349B1 (pt) 2022-09-13
KR101677003B1 (ko) 2016-11-16
KR20160133010A (ko) 2016-11-21
KR101590733B1 (ko) 2016-02-01
CN105187836A (zh) 2015-12-23
TW201616867A (zh) 2016-05-01
CN107197280A (zh) 2017-09-22
KR20140024461A (ko) 2014-02-28
KR20180032672A (ko) 2018-03-30
CN107197280B (zh) 2020-06-16
US20140098865A1 (en) 2014-04-10
TWI530166B (zh) 2016-04-11
CN103597826B (zh) 2017-05-17
CN105245892B (zh) 2017-03-29
BR112013032349A2 (pt) 2016-12-20
BR122020013891B1 (pt) 2022-09-13
TW201701673A (zh) 2017-01-01
TW201830970A (zh) 2018-08-16
TWI628951B (zh) 2018-07-01

Similar Documents

Publication Publication Date Title
US10015487B2 (en) Picture coding device, picture coding method and picture coding program as well as picture decoding device, picture decoding method, and picture decoding program
WO2012172796A1 (ja) 画像符号化装置、画像符号化方法及び画像符号化プログラム、並びに画像復号装置、画像復号方法及び画像復号プログラム
JP5664684B2 (ja) 画像復号装置、画像復号方法、画像復号プログラム、受信装置、受信方法、及び受信プログラム
JP5477343B2 (ja) 画像符号化装置、画像符号化方法及び画像符号化プログラム
JP5252032B2 (ja) 画像復号装置、画像復号方法、画像復号プログラム、受信装置、受信方法、及び受信プログラム
JP5664681B2 (ja) 画像復号装置、画像復号方法、画像復号プログラム、受信装置、受信方法、及び受信プログラム
JP5664682B2 (ja) 画像復号装置、画像復号方法、画像復号プログラム、受信装置、受信方法、及び受信プログラム
JP2013141075A (ja) 画像符号化装置、画像符号化方法及び画像符号化プログラム
JP2013074327A (ja) 画像復号装置、画像復号方法及び画像復号プログラム
JP5664683B2 (ja) 画像復号装置、画像復号方法、画像復号プログラム、受信装置、受信方法、及び受信プログラム
JP5983715B2 (ja) 画像復号装置、画像復号方法、及び画像復号プログラム
JP2013074326A (ja) 画像符号化装置、画像符号化方法及び画像符号化プログラム
JP2013141076A (ja) 画像復号装置、画像復号方法及び画像復号プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12800165

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112013032349

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 20147001105

Country of ref document: KR

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 112013032349

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20131216