WO2011046008A1 - 動画像符号化装置、および、動画像復号装置 - Google Patents

動画像符号化装置、および、動画像復号装置 Download PDF

Info

Publication number
WO2011046008A1
WO2011046008A1 PCT/JP2010/066445 JP2010066445W WO2011046008A1 WO 2011046008 A1 WO2011046008 A1 WO 2011046008A1 JP 2010066445 W JP2010066445 W JP 2010066445W WO 2011046008 A1 WO2011046008 A1 WO 2011046008A1
Authority
WO
WIPO (PCT)
Prior art keywords
partition
prediction vector
motion vector
prediction
vector
Prior art date
Application number
PCT/JP2010/066445
Other languages
English (en)
French (fr)
Inventor
友子 青野
嘉浩 北浦
知宏 猪飼
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Priority to EP10823276A priority Critical patent/EP2490449A1/en
Priority to JP2011536084A priority patent/JPWO2011046008A1/ja
Priority to CN2010800458607A priority patent/CN102577389A/zh
Priority to US13/501,713 priority patent/US20120207221A1/en
Publication of WO2011046008A1 publication Critical patent/WO2011046008A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock

Definitions

  • the present invention relates to a moving image encoding apparatus that encodes a moving image and generates encoded data.
  • the present invention also relates to a moving picture decoding apparatus that decodes encoded data generated using such a moving picture encoding apparatus.
  • a moving image encoding device In order to efficiently transmit or record moving images, a moving image encoding device is used. In addition, motion compensation prediction using a motion vector is used for encoding a moving image in the moving image encoding device.
  • motion compensation prediction using a motion vector As a moving image encoding method using motion compensation prediction, H.264 is available. H.264 / MPEG-4 AVC.
  • Non-Patent Document 1 divides an input moving image into a plurality of partitions for each frame, and on the left side of a partition to be encoded (hereinafter referred to as “target partition”) among the plurality of partitions. Estimate the prediction vector assigned to the target partition using the median (median value) of the motion vector assigned to each of the adjacent partition, the partition adjacent to the upper side of the target partition, and the upper right partition of the target partition.
  • a technique for encoding a vector is disclosed.
  • Non-Patent Document 2 describes a motion vector assigned to a collocated partition that is a partition that occupies the same position as the target partition in a frame before the frame including the partition to be encoded, and the periphery of the collocated partition.
  • the prediction vector candidate assigned to the target partition is generated using the median of the motion vector assigned to each of the plurality of partitions, and estimated based on the candidate and the technique described in Non-Patent Document 1.
  • a technique called MV Completion is disclosed in which prediction vector candidates with good coding efficiency among prediction vector candidates are used as prediction vectors.
  • ITU-T Recommendation H. H.264 (11/07) released in November 2007
  • ITU-T T09-SG16-VCEG-AC06 “Competition-Based Scheme for Motion, Vector Selection and Coding” (released in July 2006)
  • Non-Patent Document 2 it is necessary to transmit a flag indicating which prediction vector candidate has been selected as a prediction vector to be assigned to each partition to the decoding device. Have the problem of inviting. Further, when the technique described in Non-Patent Document 2 is applied to a case where the number of prediction vector candidates is 3 or more, the amount of the flag increases, resulting in a decrease in encoding efficiency. Have.
  • the present invention has been made in view of the above-described problem, and the purpose thereof is a flag amount indicating which prediction vector candidate is selected even when a prediction vector is selected from a plurality of prediction vector candidates. This is to realize a moving picture coding apparatus with a small amount of coding efficiency.
  • the moving picture encoding device provides a difference between a motion vector and a prediction vector assigned to each of a plurality of partitions obtained by dividing a frame constituting a moving picture.
  • the first motion vector group composed of the motion vectors assigned to the encoded partitions around the target partition in the target frame is referred to the target partition.
  • First calculation means for calculating a first prediction vector group that is a candidate for a prediction vector to be allocated, and a first motion vector that is allocated to a partition around a collocated partition that occupies the same position as the target partition in the encoded frame.
  • a second calculation unit that calculates a second prediction vector group that is a candidate for a prediction vector to be allocated to a partition, and a selection unit that selects a prediction vector to be allocated to the target partition, and belongs to the first prediction vector group Which prediction vector of a prediction vector and a prediction vector belonging to the second prediction vector group is allocated to the target partition is determined based on the variation of the first motion vector group and the second motion vector group. And selecting means for determining according to the variation.
  • the video encoding apparatus is a selection unit that selects a prediction vector to be allocated to the target partition, and includes a prediction vector belonging to the first prediction vector group and the second prediction vector.
  • Selection means for deciding which of the prediction vectors belonging to the group to be assigned to the target partition according to the variation of the first motion vector group and the variation of the second motion vector group; Therefore, which prediction vector is allocated to the target partition can be determined according to the variation of the first motion vector group and the variation of the second motion vector group.
  • the prediction vector assigned to the target partition in the encoding device is also based on the reproduced variation in the first motion vector group and variation in the second motion vector group in the decoding device. Can be reproduced.
  • a prediction vector can be selected from a plurality of prediction vector candidates, and a flag indicating which prediction vector candidate is selected is generated. Is unnecessary.
  • the moving picture decoding apparatus encodes, together with the moving picture, a difference vector between a motion vector and a prediction vector assigned to each of a plurality of partitions obtained by dividing a frame constituting the moving picture.
  • a moving picture decoding apparatus for decoding the encoded data obtained by referring to the first motion vector group consisting of motion vectors assigned to decoded partitions around the target partition in the target frame, and
  • a first calculation means for calculating a first prediction vector group that is a candidate for a prediction vector to be assigned to a first motion vector assigned to a partition around a collocated partition that occupies the same position as the target partition in a decoded frame.
  • a second calculation unit that calculates a second prediction vector group that is a candidate for a prediction vector to be allocated to a partition, and a selection unit that selects a prediction vector to be allocated to the target partition, and belongs to the first prediction vector group Which prediction vector of a prediction vector and a prediction vector belonging to the second prediction vector group is allocated to the target partition is determined based on the variation of the first motion vector group and the second motion vector group. And selecting means for determining according to the variation.
  • the prediction vector can be decoded without requiring a flag indicating which prediction vector candidate has been selected. Therefore, according to the above configuration, it is possible to decode the encoded data generated with high encoding efficiency without including a flag indicating which prediction vector has been selected.
  • the moving picture encoding apparatus uses the difference vector between the motion vector and the prediction vector assigned to each of the plurality of partitions obtained by dividing the frame constituting the moving picture as the moving picture.
  • a prediction vector candidate to be allocated to the target partition with reference to a first motion vector group consisting of motion vectors allocated to encoded partitions around the target partition in the target frame
  • a first motion vector group including a motion vector assigned to a partition around a collocated partition that occupies the same position as the target partition in the encoded frame; Refer to the above target partition.
  • a second calculation unit that calculates a second prediction vector group that is a candidate for a prediction vector to be assigned; and a selection unit that selects a prediction vector to be assigned to the target partition, the predictions belonging to the first prediction vector group Which one of the vectors and the prediction vectors belonging to the second prediction vector group is assigned to the target partition depends on the variation of the first motion vector group and the variation of the second motion vector group. Selecting means for determining according to.
  • (c) and (d) are cases where the target partition is a partition obtained by dividing a macroblock of 16 ⁇ 16 pixels into two equal parts, and one partition is adjacent to the left side of the macroblock, A case is shown in which two partitions are adjacent to the upper side of the macroblock.
  • (E) is a case where the target partition is a 16 ⁇ 16 pixel macroblock divided into left and right halves, where two partitions are adjacent to the left side of the macroblock, and the upper side of the macroblock Shows a case where two partitions are adjacent to each other.
  • (f) is a case where the target partition is a partition obtained by dividing a macroblock of 16 ⁇ 16 pixels into two equal left and right, and four partitions are adjacent to the left side of the macroblock, and the upper side of the macroblock Shows a case where three partitions are adjacent to each other. It is a figure for demonstrating operation
  • (A) shows a case where a partition having the same size as the target partition is adjacent to each of the left side and the upper side of the target partition.
  • (b) shows a case where a partition having a size larger than the target partition is adjacent to the left side and the upper side of the target partition one by one.
  • (C) is a case where the target partition is a 16 ⁇ 16 pixel macroblock divided into two equal parts, and one partition is adjacent to the macroblock on the left side and the upper side. Shows the case.
  • (d) is a case where the target partition is a partition obtained by dividing a macroblock of 16 ⁇ 16 pixels into two equal parts to the left and right, and one partition is adjacent to the macroblock on the left side and the upper side, respectively. Shows the case.
  • (A) schematically shows the positional relationship between the target partition and the collocated partition, and (b) shows a plurality of partitions adjacent to the periphery of the collocated partition. It is a figure for demonstrating operation
  • Moving picture encoding apparatus 1 A configuration of the moving picture encoding apparatus 1 according to the present embodiment will be described with reference to FIGS.
  • FIG. 2 is a block diagram showing a configuration of the moving picture encoding apparatus 1.
  • the moving image encoding device 1 includes a transform / quantization unit 11, a variable length encoding unit 12, an inverse quantization / inverse transform unit 13, a buffer memory 14, an intra predicted image generation unit 15, a prediction An image generation unit 16, a motion vector estimation unit 17, a prediction method control unit 18, a motion vector redundancy reduction unit 19, an adder 21, and a subtractor 22 are provided.
  • the input image # 1 is sequentially input to the moving image encoding device 1.
  • the input image # 1 is an image signal corresponding to each frame of video data, for example, an image signal corresponding to each frame of a 60 Hz progressive signal.
  • the moving image encoding apparatus 1 performs an encoding process on the input image # 1 and outputs encoded data # 2.
  • the transform / quantization unit 11 includes an input image # 1 divided into block images (hereinafter referred to as “macroblocks”) composed of a plurality of adjacent pixels, and a prediction output from a prediction method control unit 18 described later. After the difference image # 22 from the image # 18a is converted into a frequency component by DCT (Discrete Cosine Transform) conversion, the frequency component is quantized to generate quantized prediction residual data # 11.
  • the quantization is an operation for associating the frequency component with an integer value.
  • a macroblock to be processed is referred to as a “target macroblock”.
  • the size of the macroblock is, for example, 16 ⁇ 16 pixels, but the present invention is not limited by the specific size of the macroblock. That is, the present invention can be suitably applied even when the size of the macroblock is larger than 16 ⁇ 16 pixels, for example, 16 ⁇ 32 pixels, 32 ⁇ 32 pixels, and 64 ⁇ 64 pixels. it can.
  • the inverse quantization / inverse transform unit 13 decodes the quantized prediction residual data # 11 and generates a prediction residual # 13. Specifically, the inverse quantization / inverse transform unit 13 performs inverse quantization of the quantized prediction residual data # 11, that is, associates integer values constituting the quantized prediction residual data # 11 with frequency components. Then, inverse DCT transform of the frequency component, that is, inverse transform to the pixel component of the target macroblock based on the frequency component is performed to generate prediction residual # 13.
  • the adder 21 adds the prediction residual # 13 and the prediction image # 18a to generate a decoded image # 21.
  • the generated decoded image # 21 is stored in the buffer memory 14.
  • the intra-predicted image generation unit 15 extracts the local decoded image # 14a (the decoded area of the same frame as the target macroblock) from the decoded image # 21 stored in the buffer memory 14, and the frame based on the local decoded image # 14a Intra prediction is performed to generate an intra prediction image # 15.
  • the size of the intra predicted image # 15 is, for example, 16 ⁇ 16 pixels, 8 ⁇ 8 pixels, or 4 ⁇ 4 pixels, but the present invention is limited by the specific size of the intra predicted image # 15. It is not a thing. For example, when the size of the macroblock is larger than 16 ⁇ 16 pixels, such as 32 ⁇ 32 pixels and 64 ⁇ 64 pixels, the size of the intra prediction image # 15 is also larger than 16 ⁇ 16 pixels. Also good.
  • the motion vector estimation unit 17 divides the target macroblock into one or a plurality of partitions, and sequentially assigns a motion vector to each partition. Specifically, the motion vector estimation unit 17 has already decoded the entire frame for a partition to be processed (hereinafter referred to as “target partition”) among the plurality of partitions on the input image # 1.
  • the motion vector # 17 is calculated and assigned using an image stored in the buffer memory 14 (hereinafter referred to as reference image # 14b).
  • the calculated motion vector # 17 is output to the predicted image generation unit 16 and the motion vector redundancy reduction unit 19, and is stored in the buffer memory 14.
  • the size of the partition is, for example, 16 ⁇ 16 pixels, 16 ⁇ 8 pixels, 8 ⁇ 16 pixels, 8 ⁇ 8 pixels, 8 ⁇ 4 pixels, 4 ⁇ 8 pixels, or 4 ⁇ 4 pixels. Is not limited by the specific partition size. For example, when the size of the macroblock is larger than 16 ⁇ 16 pixels, such as 32 ⁇ 32 pixels and 64 ⁇ 64 pixels, the size of the partition may be larger than 16 ⁇ 16 pixels.
  • the predicted image generation unit 16 performs motion compensation based on the motion vector # 17 for each partition on the reference image # 14b stored in the buffer memory 14 to generate an inter predicted image # 16.
  • the prediction method control unit 18 compares the intra prediction image # 15, the inter prediction image # 16, and the input image # 1 in units of macro blocks, and the intra prediction image # 15 or the inter prediction image # 16. Any one of them is selected and output as a predicted image # 18a. Moreover, the prediction method control part 18 outputs prediction mode # 18b which is the information showing which was selected among intra prediction image # 15 or inter prediction image # 16. The predicted image # 18a is input to the subtracter 22.
  • the prediction mode # 18b is stored in the buffer memory 14 and input to the variable length encoding unit 12.
  • the motion vector redundancy reduction unit 19 assigns the motion vector # 17 to the target partition in the motion vector estimation unit 17 and then assigns the motion vector # 17 to another partition and stores the motion vector group # 14c stored in the buffer memory 14. To calculate a prediction vector. In addition, the motion vector redundancy reduction unit 19 calculates a difference between the prediction vector and the motion vector # 17, and generates a difference motion vector # 19a. The generated differential motion vector # 19a is output to the variable length encoding unit 12. In addition, when there are a plurality of prediction vectors, the motion vector redundancy reduction unit 19 may output a flag # 19b indicating which prediction vector is used to generate the differential motion vector # 19a. The details of the motion vector redundancy reducing unit 19 will be described in detail below, and the description thereof is omitted here.
  • variable length encoding unit 12 performs variable length encoding on the quantized prediction residual data # 11, the differential motion vector # 19a, the prediction mode # 18b, and the flag # 19b, and generates encoded data # 2. To do.
  • the subtracter 22 takes the difference between the input image # 1 and the predicted image # 18a for the target macroblock, and outputs the difference image # 22.
  • FIG. 1 is a block diagram showing a configuration of the motion vector redundancy reducing unit 19.
  • the motion vector redundancy reduction unit 19 includes a prediction vector generation unit 196 and a subtracter 195.
  • the prediction vector generation unit 196 includes a spatial direction prediction vector generation unit 191, a temporal direction prediction vector generation unit 192, a spatio-temporal direction prediction vector generation unit 193, and a prediction vector selection unit 194. ing.
  • FIG. 3 is a block diagram showing the configuration of the spatial direction prediction vector generation unit 191.
  • the spatial direction prediction vector generation unit 191 includes a spatial direction motion vector extraction unit 191 a and a spatial direction prediction vector calculation unit 191 b.
  • the spatial direction prediction vector calculation unit 191b includes a first calculation unit 191b1, a second calculation unit 191b2, a third calculation unit 191b3, and a first selection unit 191b4.
  • the spatial direction prediction vector generation unit 191 receives the motion vector group # 14c and outputs a spatial direction prediction vector # 191.
  • the spatial direction motion vector extraction unit 191a includes, from the motion vector group # 14c, a motion vector allocated to a partition adjacent to the left side of the target partition, a motion vector allocated to a partition adjacent to the upper side of the target partition, and the target partition And a motion vector assigned to a partition adjacent to the partition adjacent to the left side or the upper side of.
  • a motion vector group # 191a composed of a plurality of extracted motion vectors is input to the spatial direction prediction vector calculation unit 191b.
  • the spatial direction prediction vector calculation unit 191b calculates prediction vector candidates (hereinafter referred to as “prediction vector candidates”) to be allocated to the target partition, based on the motion vector group # 191a. For example, when a plurality of partitions are adjacent to the left side or the upper side of the target partition, the spatial direction prediction vector calculation unit 191b uses the motion vector assigned to each of the plurality of partitions, or the plurality of partitions and A plurality of prediction vector candidates are calculated from the motion vectors assigned to each of the partitions adjacent to the plurality of partitions by an average calculation process, a median calculation process, or a combination thereof. In addition, the spatial direction prediction vector calculation unit 191b selects one prediction vector candidate from the plurality of prediction vector candidates and outputs it as the spatial direction prediction vector # 191.
  • prediction vector candidates hereinafter referred to as “prediction vector candidates”
  • FIG. 4 is a diagram for explaining the operation of the spatial direction prediction vector calculation unit 191b when a plurality of partitions are adjacent to the left side or the upper side of the target partition.
  • 4A and 4B illustrate a case where two partitions are adjacent to the left side of the target partition and the other two partitions are adjacent to the upper side of the target partition.
  • FIGS. 4C and 4D show a case where the target partition is a partition obtained by dividing a 16 ⁇ 16 pixel macroblock into two equal parts, and one partition is adjacent to the left side of the macroblock. In this example, two partitions are adjacent to the upper side of the macroblock.
  • FIG. 4 is a diagram for explaining the operation of the spatial direction prediction vector calculation unit 191b when a plurality of partitions are adjacent to the left side or the upper side of the target partition.
  • 4A and 4B illustrate a case where two partitions are adjacent to the left side of the target partition and the other two partitions are adjacent to the upper side of the target partition.
  • FIG. 4E shows a case in which the target partition is a partition obtained by dividing a 16 ⁇ 16 pixel macroblock into two equal left and right, and two partitions are adjacent to the left side of the macroblock. A case is shown in which two partitions are adjacent to the upper side of the block. Further, (f) of FIG. 4 is a case where the target partition is a partition obtained by equally dividing a macroblock of 16 ⁇ 16 pixels into left and right, and four partitions are adjacent to the left side of the macroblock, and the macro A case where three partitions are adjacent to the upper side of the block is shown.
  • the first calculation unit 191b1 When the plurality of partitions are adjacent to the left side or the upper side of the target partition and the number of the plurality of partitions is an odd number, the first calculation unit 191b1 The motion vector assigned to the partition with the longest side that touches the target partition, the motion vector assigned to each of the plurality of partitions, and the rightmost partition of the partitions adjacent to the top side of the target partition. The median with the motion vector assigned to the partition adjacent to the right side is set as the prediction vector candidate # 191b1 assigned to the target partition. In addition, when the number of the plurality of partitions is an even number, the first calculation unit 191b1 determines the motion vector assigned to each of the plurality of partitions and the partition adjacent to the upper side of the target partition. The median of the motion vector allocated to the partition adjacent to the right side of the right partition and the median of the motion vector allocated to the target partition are set as the prediction vector candidate # 191b1.
  • the first calculation unit 191b1 assigns the motion vector median assigned to each of the partition a1, the partition a2, the partition b1, the partition b2, and the partition b3 adjacent to the right side of the partition b2 to the prediction vector candidate # 191b1.
  • the median is an arithmetic operation that takes the median of the elements
  • the vector median is a vector that takes the median for each corresponding component.
  • the first calculation unit 191b1 determines the partition a1 ′, the partition a2 ′, the partition b1 ′, the partition b1 ′, and the partition b3 ′ adjacent to the right side of the partition b1 ′.
  • the median of the motion vector assigned to each is set as a prediction vector candidate # 191b1 assigned to the target partition.
  • PMV1y median (MVa1', MVa2y ′, MVb1y ′, MVb1y ′, MVb3y ′).
  • the second calculation unit 191b2 calculates the average of the motion vectors assigned to each of the plurality of partitions and the target The median with the motion vector assigned to the partition adjacent to the right side of the rightmost partition among the partitions adjacent to the upper side of the partition is set as the prediction vector candidate # 191b2 assigned to the target partition.
  • the second calculation unit 191b2 assigns the average of the motion vector assigned to the partition a1 and the motion vector assigned to the partition a2 and the partition b1.
  • the median of the motion vector assigned to the partition b2 and the median of the motion vector assigned to the partition b2 and the motion vector assigned to the partition b3 are set to the prediction vector candidate # 191b2.
  • the third calculation unit 191b3 when a plurality of partitions are adjacent to the left side or the upper side of the target partition, predictive vector candidate # 191b3 that allocates the average of the motion vectors assigned to each of the plurality of partitions to the target partition Set to.
  • the first selection unit 191b4 selects any one of the prediction vector candidate # 191b1, the prediction vector candidate # 191b2, and the prediction vector candidate # 191b3 and outputs it as the spatial direction prediction vector # 191.
  • the first selection unit 191b4 selects the right side of the rightmost partition among the partition adjacent to the left side of the target partition, the partition adjacent to the top side of the target partition, and the partition adjacent to the top side of the target partition. If the variation of the motion vector assigned to each of the partitions adjacent to is less than or equal to a predetermined first threshold, the prediction vector candidate # 191b3 is output as the spatial direction prediction vector # 191, and the variation is When larger than the first threshold value, the prediction vector candidate # 191b1 or the prediction vector candidate # 191b2 is output as the spatial direction prediction vector # 191.
  • dispersion for example, dispersion, standard deviation, or the distance from the average value to the farthest value can be used, but the example of the definition does not limit the present invention. Various other definitions can be used.
  • the first selection unit 191b4 outputs the prediction vector candidate # 191b3 as the spatial direction prediction vector # 191 when the variation is equal to or less than a predetermined second threshold, and the variation is the second value. If it is greater than the threshold and less than or equal to the third threshold greater than the second threshold, the prediction vector candidate # 191b1 or the prediction vector candidate # 191b2 is output as the spatial direction prediction vector # 191. If the variation is larger than the third threshold, the zero vector may be output as the spatial direction prediction vector # 191.
  • prediction vector candidates # 191b1 and the prediction vector candidates # 191b2 may be predetermined for each frame or predetermined for each sequence. It may be. Further, it may be determined for each picture or for each slice.
  • the first selection unit 191b4 may output a prediction vector candidate with good coding efficiency out of the prediction vector candidate # 191b1 or the prediction vector candidate # 191b2 as the spatial direction prediction vector # 191.
  • the prediction vector candidate with high coding efficiency indicates, for example, a prediction vector candidate with high efficiency in terms of rate distortion characteristics.
  • the average used when calculating the prediction vector candidate # 191b2 and the prediction vector candidate # 191b3 is a weighted average corresponding to the length of the side where the partition to which the motion vector is allocated is adjacent to the target partition. There may be. In this way, by using the weighted average, it is possible to calculate a more accurate prediction vector candidate, that is, a prediction vector candidate that is more similar to the motion vector assigned to the target partition.
  • the spatial direction prediction vector calculation unit 191b performs an operation different from the above operation.
  • the first calculation unit 191b1 is an upper partition among the partitions obtained by dividing the partition having a size of 16 ⁇ 16 into two equal parts up and down, and there are even number of partitions on the upper side and the left side of the target partition. If adjacent, the motion vector assigned to each of the even number of partitions and the partition adjacent to the left or upper side of the target partition has the longest side that touches the target partition. The median with the motion vector assigned to is set as the prediction vector candidate # 191b1 assigned to the target partition. In addition, the first calculation unit 191b1 determines that the target partition is the upper partition and an odd number of partitions are adjacent to the upper side and the left side of the target partition. The median of the allocated motion vector is set to the prediction vector candidate # 191b1 allocated to the target partition.
  • the first calculation unit 191b1 is a lower partition among partitions obtained by dividing a partition having a target partition size of 16 ⁇ 16 into upper and lower parts, and one partition is adjacent to the left side of the target partition. If it is, the motion vector assigned to the one partition is set as a prediction vector candidate to be assigned to the target partition. The first calculation unit 191b1 assigns each of the plurality of partitions if the target partition is the lower partition and a plurality of partitions are adjacent to the left side of the target partition. The average of the motion vectors is set to the predicted vector candidate # 191b1 assigned to the target partition.
  • the target partition is a partition obtained by dividing a macroblock of 16 ⁇ 16 pixels into two equal parts (upper partition is called partition X1, and lower partition is called partition X2.
  • partition X1 upper partition
  • partition X2 lower partition
  • the first calculation unit 191b1 The median of the motion vector allocated to, the motion vector allocated to the partition b2, and the motion vector allocated to the partition a is set as a prediction vector candidate # 191b1 allocated to the partition X1.
  • the first calculation unit 191b1 sets the motion vector assigned to the partition a as the prediction vector candidate # 191b1 assigned to the partition X2.
  • the second calculation unit 191b2 is the upper partition among the partitions obtained by dividing the partition having a size of 16 ⁇ 16 into two equal parts, and there are a plurality of partitions on the upper side of the target partition.
  • the average of the motion vectors assigned to each of the plurality of partitions is set as prediction vector candidate # 191b2 assigned to the target partition.
  • the second calculation unit 191b2 is a lower partition among the partitions obtained by dividing the partition having a size of 16 ⁇ 16 into two equal parts, and one partition is on the left side of the target partition.
  • the motion vector allocated to the one partition is set as a prediction vector candidate to be allocated to the target partition.
  • the second calculation unit 191b2 is assigned to each of the plurality of partitions when the target partition is the lower partition and a plurality of partitions are adjacent to the left side of the target partition.
  • the motion vector average is set to the prediction vector candidate # 191b2 assigned to the target partition.
  • the second calculation unit 191b2 allocates an average of the motion vector allocated to the partition b1 and the motion vector allocated to the partition b2 to the partition X1.
  • the second calculation unit 191b2 sets the motion vector assigned to the partition a as a prediction vector candidate # 191b2 assigned to the partition X2.
  • the first selection unit 191b4 selects one of the prediction vector candidate # 191b1 assigned to the partition X1 and the prediction vector candidate # 191b2 assigned to the partition X1 in advance for each frame, each sequence, each picture, or each slice. Are predicted as the spatial direction prediction vector # 191 assigned to the partition X1.
  • the first selection unit 191b4 assigns, to the partition X1, a prediction vector candidate having a higher encoding efficiency among the prediction vector candidate # 191b1 assigned to the partition X1 and the prediction vector candidate # 191b2 assigned to the partition X1.
  • the prediction vector # 191 may be output. The same applies to the spatial direction prediction vector # 191 assigned to the partition X2.
  • the first selection unit 191b4 sets the predicted vector candidate # 191b2 as a space when the variation of the motion vector assigned to each of the partitions adjacent to the upper side of the partition X1 is equal to or less than a predetermined threshold.
  • the prediction vector candidate # 191b1 may be set as the spatial direction prediction vector # 191.
  • the third calculation unit 191b3 uses the motion vector assigned to each of the plurality of partitions adjacent to the left side or the upper side of the target partition.
  • the average may be set to the prediction vector candidate # 191b3 assigned to the target partition.
  • the third calculation unit 191b3 uses the prediction vector candidate # 191b3 that assigns the average of the motion vectors assigned to the partition a, the partition b1, and the partition b2 to the partition X1. You may make it set to.
  • the first selection unit 191b4 selects any one of the prediction vector candidate # 191b1, the prediction vector candidate # 191b2, and the prediction vector candidate # 191b3 and outputs it as the spatial direction prediction vector # 191. You can do it.
  • each unit of the spatial direction prediction vector calculation unit 191b when the size of the target partition is 8 ⁇ 16 pixels is substantially the same as that when the size of the target partition is 16 ⁇ 8 pixels.
  • the first calculation unit 191b1 determines that the target partition is a left partition among partitions obtained by equally dividing a partition having a size of 16 ⁇ 16 into left and right, and an even number is provided on the upper side and the left side of the target partition.
  • the motion vector assigned to each of the even number of partitions and the length of the side that touches the target partition is the longest among the partitions adjacent to the left or upper side of the target partition.
  • the median of the motion vector assigned to the long partition is set as the prediction vector candidate # 191b1 assigned to the target partition
  • the odd number of partitions are adjacent to the upper side and the left side of the target partition
  • the odd number of partitions The median of the motion vector assigned to each of the options is set as prediction vector candidate # 191b1 assigned to the target partition, and the target partition is divided into a right and left partition that is a 16 ⁇ 16 partition. If it is a partition, the motion vector assigned to the partition adjacent to the right side of the rightmost partition among the partitions adjacent to the upper side of the target partition is set as the prediction vector candidate # 191b1 assigned to the target partition.
  • a partition in which the target partition is a 16 ⁇ 16 pixel macroblock divided into two equal parts left partition is called partition X3, right partition is called partition X4, and so on.
  • partition X3 right partition is called partition X4, and so on.
  • the first calculation unit 191b1 is allocated to the partition a1.
  • the median of the motion vector, the motion vector assigned to the partition a2, and the motion vector assigned to the partition b1 is set as a prediction vector candidate # 191b1 assigned to the partition X3.
  • the first calculation unit 191b1 sets the motion vector assigned to the partition c adjacent to the right side of the partition b2 adjacent to the upper side of the partition X4 as the prediction vector candidate # 191b1 assigned to the partition X4.
  • the second calculation unit 191b2 is a left partition among partitions obtained by dividing a partition having a size of 16 ⁇ 16 into left and right, and a plurality of partitions are adjacent to the left side of the target partition.
  • the average motion vector assigned to each of the plurality of partitions is set to the prediction vector candidate # 191b2 assigned to the target partition, and the target partition is a 16 ⁇ 16 size partition.
  • the motion vector assigned to the partition adjacent to the right side of the rightmost partition among the partitions adjacent to the upper side of the target partition is the target partition. Is set to the prediction vector candidate # 191b2 to be assigned to the user.
  • the second calculation unit 191b2 assigns the motion vector assigned to each of the partitions a1 to a4. Is set to prediction vector candidate # 191b2 assigned to partition X3. In addition, the second calculation unit 191b2 sets the motion vector assigned to the partition c adjacent to the right side of the partition adjacent to the upper side of the partition X4 as the prediction vector candidate # 191b2 assigned to the partition X2.
  • the operation of the first selection unit 191b4 when the size of the target partition is 8 ⁇ 16 pixels is the same as the operation of the first selection unit 191b4 when the size of the target partition is 16 ⁇ 8 pixels.
  • the average used when calculating the prediction vector candidate # 191b2 and the prediction vector candidate # 191b3 is the motion vector
  • the assigned partition may be a weighted average corresponding to the length of the side adjacent to the target partition. As described above, by using the weighted average, more accurate prediction vector candidates can be calculated.
  • the operation of the spatial direction prediction vector calculation unit 191b when one partition is adjacent to the left side and the upper side of the target partition is as follows. Street.
  • spatial direction prediction is performed.
  • the vector calculation unit 191b applies the motion vector allocated to the partition a adjacent to the left side of the target partition, the motion vector allocated to the partition b adjacent to the upper side of the target partition, and the partition c adjacent to the right side of the partition b.
  • the median with the assigned motion vector is set as a prediction vector candidate assigned to the target partition, and the prediction vector candidate is output as a spatial direction prediction vector # 191 assigned to the target partition.
  • the spatial direction prediction vector calculation unit 191b may output the average of the motion vectors allocated to each of the partition a, the partition b, and the partition c as the spatial direction prediction vector # 191 that is allocated to the target partition. Good.
  • the average may be a weighted average corresponding to the length of the side in contact with the target partition.
  • the spatial direction prediction vector calculation unit 191b compares the prediction vector candidate calculated using the average as described above with the prediction vector candidate calculated using the weighted average, and assigns each of the partitions a to c to each other. Either one may be selected according to the variation of the assigned motion vector.
  • the target partition is a partition obtained by dividing a 16 ⁇ 16 pixel macroblock into two equal parts, one on each of the left side and the upper side of the macroblock.
  • the spatial direction prediction vector calculation unit 191b sets the motion vector assigned to the partition b adjacent to the upper side of the target macroblock as a prediction vector candidate to be assigned to the partition X1, and the prediction vector The candidate is output as a spatial direction prediction vector # 191 assigned to the partition X1.
  • the spatial direction prediction vector calculation unit 191b sets the motion vector assigned to the partition a adjacent to the left side of the macroblock as a prediction vector candidate to be assigned to the partition X2, and the spatial direction prediction vector to assign the prediction vector candidate to the partition X2. Output as # 191.
  • the target partition is a partition obtained by dividing a 16 ⁇ 16 pixel macroblock into left and right halves, one on each of the left side and the upper side of the macroblock. If the partitions are adjacent, the spatial direction prediction vector calculation unit 191b sets the motion vector assigned to the partition a adjacent to the left side of the macroblock as a prediction vector candidate to be assigned to the partition X3, and the prediction vector candidate Is output as a spatial direction prediction vector # 191 assigned to the partition X3.
  • the spatial direction prediction vector calculation unit 191b sets a motion vector assigned to the partition c adjacent to the right side of the partition b adjacent to the upper side of the partition X4 as a prediction vector candidate to be assigned to the partition X4, and uses the prediction vector candidate as the partition X4. Is output as a spatial direction prediction vector # 191 assigned to the.
  • FIG. 6 is a block diagram illustrating a configuration of the temporal direction prediction vector generation unit 192.
  • the temporal direction prediction vector generation unit 192 includes a temporal direction motion vector extraction unit 192a and a temporal direction prediction vector calculation unit 192b.
  • the temporal direction prediction vector calculation unit 192b includes a fourth calculation unit 192b1, a fifth calculation unit 192b2, and a second selection unit 192b3.
  • the temporal direction prediction vector generation unit 192 receives the motion vector group # 14c and outputs the temporal direction prediction vector # 192.
  • the time direction motion vector extraction unit 192a uses the motion vector group # 14c to assign motion to a collocated partition that is a partition occupying the same position as the target partition in a frame encoded before the frame including the target partition. A vector and a motion vector assigned to each of the partitions adjacent to the collocated partition are extracted. A motion vector group # 192a including a plurality of extracted motion vectors is input to the temporal direction prediction vector calculation unit 192b.
  • the frame encoded before the frame including the target partition is specifically encoded / decoded before the frame including the target partition is encoded and stored in the buffer memory 14. Refers to the frame.
  • the temporal direction prediction vector calculation unit 192b calculates a prediction vector candidate to be allocated to the target partition based on the motion vector group # 192a.
  • the temporal direction prediction vector calculation unit 192b includes a collocated partition that occupies the same position as the target partition and a partition adjacent to the periphery of the collocated partition in a frame encoded before the frame including the target partition.
  • a plurality of prediction vector candidates are calculated by an average calculation process, a median calculation process, or a combination of the motion vectors assigned to.
  • the temporal direction prediction vector calculation unit 192b selects one prediction vector candidate from the plurality of prediction vector candidates and outputs it as the temporal direction prediction vector # 192.
  • FIG. 7 is a diagram for explaining the operation of each unit of the temporal direction prediction vector calculation unit 192b.
  • 7A schematically shows the positional relationship between the target partition and the collocated partition
  • FIG. 7B shows a plurality of partitions adjacent to the periphery of the collocated partition.
  • Each of the fourth calculation unit 192b1 includes a motion vector assigned to a collocated partition that occupies the same position as the target partition and a partition adjacent to the periphery of the collocated partition in a frame encoded before the frame including the target partition.
  • the average of the motion vectors assigned to is set as a prediction vector candidate assigned to the target partition.
  • the fourth calculation unit 192b1 occupies the same position as the target partition A in the frame F2 encoded before the frame F1 including the target partition A.
  • the motion vector assigned to the collocated partition B which is a partition, and the partitions a1 to a3, partitions b1 to b4, partitions c1 to c4, and partitions d1 adjacent to the collocated partition B as shown in FIG.
  • the average of the motion vectors assigned to each of d3 to d3 is set to the prediction vector candidate # 192b1 assigned to the target partition A.
  • the fifth calculating unit 192b2 has the longest side adjacent to the target partition among the adjacent partitions.
  • the median of the motion vector assigned to the long adjacent partition and the motion vector assigned to each of the collocated partition and the adjacent partition is set as a prediction vector candidate to be assigned to the target partition.
  • the fifth calculating unit 192b2 includes a motion vector allocated to the collocated partition and a motion vector allocated to each of the adjacent partitions. Are set as prediction vector candidates to be assigned to the target partition.
  • the fifth calculation unit 192b2 performs the collocation partition B, the partitions a1 to a3, the partitions b1 to b4, the partitions c1 to c4, and the partitions d1 to
  • the median of the motion vector assigned to each of d3 is set to prediction vector candidate # 192b2 assigned to the target partition A.
  • the fifth calculating unit 192b2 When the sum of the collocated partition and the adjacent partition adjacent to the collocated partition is an even number, the fifth calculating unit 192b2 has the longest side adjacent to the target partition among the adjacent partitions.
  • the median may be calculated using the motion vector allocated to the collocated partition instead of the motion vector allocated to the adjacent partition.
  • the second selection unit 192b3 selects any one of the prediction vector candidate # 192b1 and the prediction vector candidate # 192b2, and outputs it as the spatial direction prediction vector # 191.
  • the second selection unit 192b3 includes a fourth motion vector in which variations of motion vectors assigned to the collocated partition and motion vectors assigned to adjacent partitions adjacent to the collocated partition are predetermined. If it is equal to or smaller than the threshold, the prediction vector candidate # 192b1 is output as the temporal direction prediction vector # 192. If the variation is larger than the fourth threshold, the prediction vector candidate # 192b2 is output as the temporal direction prediction vector # 192. Output as.
  • the collocated partition B is a partition that occupies the same position as the target partition A, but in general, the same position as the target partition A in the frame F2 may be shared by a plurality of partitions. possible. In such a case, the collocated partition B is a partition group constituted by the plurality of partitions. Even in such a case, the above-described processing can be applied.
  • the adjacent partition may include a partition that shares a vertex with the collocated partition. That is, the fourth calculation unit 192b1 includes the collocated partition B, the partitions a1 to a3, the partitions b1 to b4, the partitions c1 to c4, the partitions d1 to d3, and the collocated partition B, as shown in FIG.
  • the average of the motion vectors assigned to each of the partitions e1 to e4 sharing the vertex may be set to the prediction vector candidate # 192b1 assigned to the target partition A. The same applies to the fifth calculation unit 192b2.
  • the second selection unit 191b3 may output the prediction vector candidate # 192b1 or the prediction vector candidate with good coding efficiency among the prediction vector candidates # 192b2 as the temporal direction prediction vector # 192.
  • the average used when calculating the prediction vector candidate # 192b2 and the prediction vector candidate # 192b3 is a weighted average corresponding to the length of the side where the partition to which the motion vector is allocated is adjacent to the target partition. There may be. In this way, by using the weighted average, it is possible to calculate a more accurate prediction vector candidate, that is, a prediction vector candidate that is more similar to the motion vector assigned to the target partition.
  • the spatiotemporal direction prediction vector generation unit 193 receives the motion vector group # 14c and outputs a spatiotemporal direction prediction vector # 193.
  • the configuration of the spatio-temporal direction prediction vector generation unit 193 is substantially the same as the configuration of the temporal direction prediction vector generation unit 192, but differs in the following points.
  • the spatio-temporal direction prediction vector generation unit 193 calculates a prediction vector # 193 using the shift collocation partition C instead of the collocation partition B used in the temporal direction prediction vector generation unit 192.
  • the shift collocated partition C is a partition adjacent to the periphery of the target partition A, starting from the position occupied by the collocated partition B in the frame F2 encoded before the frame F1 including the target partition A. This partition occupies a position moved by a movement amount corresponding to the predicted vector candidate MVd of the target partition obtained from the motion vector assigned to.
  • the prediction vector candidate MVd for example, as shown in FIG. 5A, when one partition is adjacent to the left side and the upper side of the target partition A, the prediction vector candidate MVd is adjacent to the left side of the target partition A.
  • Motion vector assigned to partition a motion vector assigned to partition b adjacent to the upper side of target partition A
  • motion assigned to partition c adjacent to the right side of partition b adjacent to the upper side of target partition A
  • a median with a vector may be used.
  • any one of the above-described prediction vector candidates # 191b1 to # 191b3 is used. Use it.
  • the spatial direction prediction vector generation unit 191 uses only adjacent partitions other than the intra-predicted partition, and uses predicted vector candidates # 191b1 to # 191b #. It is preferable to generate 191b3.
  • the temporal direction prediction vector generation unit 192 uses only adjacent partitions other than the intra-predicted partition, and uses prediction vector candidates # 192b1 ⁇ It is preferable to generate # 192b2.
  • the spatio-temporal direction prediction vector generation unit 193 uses only adjacent partitions other than the intra-predicted partition, and uses the predicted vector candidate #. It is preferable to generate 193b1 to # 193b2.
  • the prediction vector selection unit 194 selects any one of the spatial direction prediction vector # 191, the temporal direction prediction vector # 192, and the spatio-temporal direction prediction vector # 193 and outputs it as the prediction vector # 194.
  • the prediction vector selection unit 194 receives the spatial direction prediction vector # 191, the temporal direction prediction vector # 192, and the spatiotemporal direction prediction vector # 193.
  • the prediction vector selection unit 194 includes prediction vector candidates # 191b1 to # 191b3 calculated by the spatial direction prediction vector generation unit 191, prediction vector candidates # 192b1 to # 192b2 calculated by the temporal direction prediction vector generation unit 192, Also, prediction vector candidates # 193b1 to # 193b2 respectively corresponding to the prediction vector candidates # 192b1 to # 192b2 calculated by the spatio-temporal direction prediction vector generation unit 193 are input.
  • the prediction vector selection unit 194 compares the variation of the prediction vector candidates # 191b1 to # 191b2 with the variation of the prediction vector candidates # 192b1 to # 192b2, and determines the spatial direction prediction vector # 191 or the temporal direction prediction vector # 192. Among them, a prediction vector selected from prediction vector candidates with smaller variations is output as a prediction vector # 194.
  • the prediction vector selection unit 194 converts the spatial direction prediction vector # 191 to the prediction vector # 194. Output as.
  • a prediction vector selected from prediction vector candidates with smaller variations is more similar to a motion vector actually allocated to the target partition. Therefore, as described above, by using the prediction vector selected from the prediction vector candidates having small variations as the prediction vector # 194, a more accurate prediction vector can be output. Also, by selecting the prediction vector # 194 in this way, the encoded data # 2 can be decoded in the moving picture decoding apparatus 2 described later without transmitting a flag indicating which prediction vector has been selected. it can. Therefore, encoding efficiency can be improved by outputting a prediction vector as described above.
  • predicted vector selection unit 194 may further use the predicted vector candidate # 191b3 in addition to the predicted vector candidates # 191b1 to # 191b2.
  • the prediction vector selection unit 194 may output, as the prediction vector # 194, a prediction vector having a higher encoding efficiency among the spatial direction prediction vector # 191 and the temporal direction prediction vector # 192. In such a case, the prediction vector selection unit 194 outputs a flag # 19b indicating which prediction vector is output.
  • the prediction vector selection unit 194 may output a predetermined prediction vector as the prediction vector # 194 out of the spatial direction prediction vector # 191 or the temporal direction prediction vector # 192.
  • the prediction vector selection unit 194 has a total variation of the prediction vector candidate group including the prediction vector candidates # 191b1 to # 191b2 and the prediction vector candidates # 192b1 to # 192b2 equal to or less than a predetermined fifth threshold. If so, the prediction vector selected from the prediction vector candidates with smaller variations as described above is output as the prediction vector # 194, and when the overall variation of the prediction vector candidate group is larger than the fifth threshold value, Alternatively, a prediction vector with higher encoding efficiency may be set as a prediction vector # 194 and output together with a flag indicating the prediction vector # 194.
  • the predicted vector selection unit 194 may output the 0 vector as the predicted vector candidate # 194 when the variation in the entire predicted vector candidate group is larger than the fifth threshold.
  • the use of the calculated prediction vector may reduce the encoding efficiency as compared with the case where the motion vector itself is encoded.
  • the motion vector itself actually assigned to the target partition is output by outputting the 0 vector as the prediction vector candidate # 194. Therefore, it is possible to prevent the encoding efficiency from being lowered.
  • the prediction vector selection unit 194 outputs the spatial direction prediction vector # 191 as the prediction vector # 194 when the variation of the prediction vector candidates # 191b1 to # 191b2 is equal to or smaller than a predetermined sixth threshold,
  • the variation of the prediction vector candidates # 191b1 to # 191b2 is larger than the sixth threshold value
  • the variation of the prediction vector candidates # 192b1 to # 192b2 is equal to or smaller than a predetermined seventh threshold value
  • the time The direction prediction vector # 192 may be output as the prediction vector # 194.
  • the prediction vector # 194 changes for each partition.
  • the prediction vector selection unit 194 uses the prediction vector candidates # 193b1 to # 193b2 instead of the prediction vector candidates # 192b1 to # 192b2 in the above description, so that the spatial direction prediction vector # 191 or the spatiotemporal direction Any one of the prediction vectors # 193 may be output as the prediction vector # 194.
  • Which one of prediction vector candidates # 192b1 to # 192b2 or prediction vector candidates # 193b1 to # 193b2 is to be used may be determined in advance, or in a predetermined unit, that is, for each sequence. Either one may be selected for each frame or each slice.
  • the temporal direction prediction vector # 192 is a more appropriate prediction vector for a region with a small motion vector, that is, a region with small motion
  • the spatio-temporal direction prediction vector # 193 is a region with a large motion vector, that is, This is a more appropriate prediction vector for a region with a large motion.
  • the prediction vector selection unit 194 has an eighth threshold value in which the variation of the prediction vector group including the spatial direction prediction vector # 191, the temporal direction prediction vector # 192, and the spatiotemporal direction prediction vector # 193 is determined in advance.
  • an average of the spatial direction prediction vector # 191, the temporal direction prediction vector # 192, and the spatiotemporal direction prediction vector # 193 may be output as the prediction vector # 194, or the spatial direction prediction Vector # 191 may be output.
  • the prediction vector selection unit 194 determines that when the variation of the prediction vector group is larger than the eighth threshold and not more than the ninth threshold larger than the eighth threshold, When the median of the group is output and the variation of the prediction vector group is larger than the ninth threshold value, the zero vector may be output as the prediction vector # 194. Note that the predicted vector selection unit 194 may output a flag indicating that the predicted vector is the 0 vector instead of outputting the 0 vector as the predicted vector # 194.
  • the prediction vector selection unit 194 selects the temporal direction prediction vector # 192, and all partitions adjacent to the collocated partition are intra-predicted. In the case of a partitioned partition, it is preferable to select the spatial direction prediction vector # 191.
  • the subtractor 195 obtains a difference between the prediction vector # 194 output from the prediction vector selection unit 194 and the motion vector # 17 assigned to the target partition by the above-described process, thereby calculating a difference motion vector # 19a. Is generated and output.
  • the present invention can be applied regardless of the specific size of the target partition.
  • the size of the target partition is 16 pixels ⁇ 16 pixels, 16 pixels ⁇ 8 pixels, 8 pixels ⁇ 16 pixels, 8 pixels ⁇ 8 pixels, 8 pixels ⁇ 4 pixels, 4 pixels ⁇ 8 pixels, 4 pixels.
  • the present invention can also be applied to the case of ⁇ 4 pixels, and can also be applied to the case where the size of the target partition is generally N pixels ⁇ M pixels (N and M are natural numbers).
  • the size of the macroblock when the size of the macroblock is larger than 16 ⁇ 16 pixels, for example, 32 ⁇ 32 pixels and 64 ⁇ 64 pixels, the size of the partition is larger than 16 ⁇ 16 pixels. Even can be applied. That is, for example, when the size of the macroblock is 64 ⁇ 64 pixels, the present invention is configured such that the partition size is 64 ⁇ 64 pixels, 64 ⁇ 32 pixels, 32 ⁇ 64 pixels, 32 ⁇ 32 pixels, 32 ⁇ 16 pixels, 16 ⁇ 32 pixels, 16 pixels ⁇ 16 pixels, 16 pixels ⁇ 8 pixels, 8 pixels ⁇ 16 pixels, 8 pixels ⁇ 8 pixels, 8 pixels ⁇ 4 pixels, 4 pixels ⁇ 8 pixels, 4 pixels ⁇ 4 It can be applied to the case of pixels.
  • FIG. 9 is a block diagram showing a configuration of the moving picture decoding apparatus 2.
  • the moving image decoding apparatus 2 includes a variable length code decoding unit 23, a motion vector restoration unit 24, a buffer memory 25, a predicted image generation unit 26, an intra predicted image generation unit 27, a prediction method determination unit 28, An inverse quantization / inverse transform unit 29 and an adder 30 are provided.
  • the video decoding device 2 receives the encoded data # 2 and sequentially outputs the output image # 3.
  • variable length code decoding unit 23 performs variable length decoding on the encoded data # 2, and outputs a differential motion vector # 23a, a prediction mode # 23b, and quantized prediction residual data # 23c.
  • variable length code decoding unit 23 outputs the flag # 19b to the motion vector restoration unit 24 when the encoded data # 2 includes the flag # 19b.
  • the motion vector restoration unit 24 includes a plurality of adjacent motion vectors allocated to each of a plurality of partitions adjacent to the target partition, and adjacent to a collocated partition occupying the same position as the target partition in a frame before the frame to which the target partition belongs. Variation of motion vectors assigned to each of the partitions, and a position obtained by moving a distance corresponding to a prediction vector candidate calculated from motion vectors assigned to neighboring partitions around the target partition from the collocated partition Variation of motion vectors assigned to each of a plurality of partitions adjacent to a shift collocated partition that occupies or a predicted vector candidate calculated from the motion vectors. Te, the variation of the prediction vector candidates to be allocated to the target partition, on the basis, decodes the differential motion vector # 23a.
  • the motion vector restoration unit 24 decodes the motion vector # 24 of the target partition from the differential motion vector # 23a and the motion vector # 25a that has already been decoded and stored in the buffer memory 25. Since the configuration of the motion vector restoration unit 24 will be described in detail below, a description thereof is omitted here.
  • the buffer memory 25 stores a decoded image # 3, a motion vector # 24, and a prediction mode # 23b described later.
  • the predicted image generation unit 26 generates an inter predicted image # 26 from the motion vector # 25c that has been decoded by the motion vector restoration unit 24 and passed through the buffer memory 25, and the decoded image # 3 stored in the buffer memory 25.
  • the motion vector # 25c includes the same motion vector as the motion vector # 24.
  • the intra-predicted image generation unit 27 generates an intra-predicted image # 27 from the locally decoded image # 25b in the same image as the target macroblock stored in the buffer memory 25.
  • the prediction method determination unit 28 selects either the intra prediction image # 27 or the inter prediction image # 26 based on the prediction mode # 23b, and outputs it as the prediction image # 28.
  • the inverse quantization / inverse transform unit 29 performs inverse quantization and inverse DCT transform on the quantized prediction residual data # 23c, and outputs a prediction residual # 29.
  • Adder 30 adds prediction residual # 29 and prediction image # 28, and outputs the result as decoded image # 3.
  • the output decoded image # 3 is stored in the buffer memory 25.
  • the motion vector restoration unit 24 includes a prediction vector generation unit 196 and an adder 241.
  • generation part 196 is the structure similar to the prediction vector production
  • the prediction vector generation unit 196 includes a spatial direction prediction vector generation unit 191, a temporal direction prediction vector generation unit 192, a spatiotemporal direction prediction vector generation unit 193, and a prediction vector selection unit 194.
  • the motion vector # 25a stored in the buffer memory 25 is input to the prediction vector generation unit 196 in place of the motion vector group # 14c input to the prediction vector generation unit 196 in the motion vector redundancy reduction unit 19. .
  • the spatial direction prediction vector generation unit 191 Since the configurations and operations of the spatial direction prediction vector generation unit 191, the temporal direction prediction vector generation unit 192, the spatio-temporal direction prediction vector generation unit 193, and the prediction vector selection unit 194 have already been described in detail, description thereof is omitted here. .
  • the adder 241 generates a motion vector # 24 by adding the prediction vector # 194 output from the prediction vector selection unit 194 and the difference motion vector # 23a, and outputs the motion vector # 24.
  • the motion vector restoration unit 24 replaces the prediction vector generation unit 196 with a prediction vector generation unit 196 ′ as shown in FIG.
  • the prediction vector generation unit 196 ′ may include a prediction vector selection unit 194 ′ instead of the prediction vector selection unit 194.
  • the prediction vector selection unit 194 ' can determine the prediction vector # 194 according to the flag # 19b.
  • the motion vector restoring unit 24 can determine the prediction vector # 194 according to the flag # 19b even when the encoded data # 2 includes the flag # 19b. it can.
  • FIG. 12 is a diagram showing a bit stream #MB for each macroblock of the encoded data # 2 generated using the moving image encoding device 1.
  • N represents the number of partitions included in the macroblock.
  • the block mode information Mod includes macroblock prediction mode # 18b, partition division information, and the like.
  • the index information Idxi includes a reference picture number referred to by each partition, which is necessary when performing motion compensation.
  • the flag # 19b is included in the bitstream only when necessary to select the prediction vector of each partition.
  • the motion vector information MVi includes a differential motion vector # 19a of each partition.
  • the selection unit calculates a prediction vector calculated with reference to a motion vector group having a smaller variation between the first motion vector and the second motion vector group. It is preferable to assign a prediction vector belonging to a group to the target partition.
  • a prediction vector belonging to a prediction vector group calculated by referring to a motion vector group having a smaller variation between the first motion vector and the second motion vector group is the target partition. Therefore, there is an additional effect that a prediction vector with high coding efficiency can be allocated.
  • the selection unit may include the first motion vector group and the first motion vector group when the variation of the first motion vector group and the variation of the second motion vector group are smaller than a predetermined threshold.
  • a prediction vector belonging to a prediction vector group calculated with reference to a motion vector group having a smaller variation from the two motion vector groups is allocated to the target partition; otherwise, the prediction vector group is assigned to the first prediction vector group. Assigning one of the prediction vectors belonging to the prediction vector belonging to the second prediction vector group and the prediction vector belonging to the second prediction vector group to the target partition and encoding a flag indicating the prediction vector assigned to the target partition; Is preferred.
  • the first motion vector and the second motion vector A prediction vector belonging to a prediction vector group calculated with reference to a motion vector group having a smaller variation from the motion vector group of the other motion vector group is assigned to the target partition. Otherwise, it belongs to the first prediction vector group.
  • any one of the prediction vectors and the prediction vectors belonging to the second prediction vector group can be allocated to the target partition by specifying a flag. Therefore, the flag is not used when the variation of the motion vector group is small (predictable), and the flag is used only when the variation of the motion vector group is large (predictable). Compared to the case, the amount of the flag can be reduced while maintaining the accuracy of the prediction.
  • the selection unit may include the first motion vector and the second motion vector when the variation of the first motion vector group and the variation of the second motion vector group are smaller than a predetermined threshold. Assigning a prediction vector belonging to a prediction vector group calculated with reference to a motion vector group having a smaller variation from the motion vector group to the target partition; otherwise, assigning a zero vector to the target partition Is preferred.
  • the difference between the calculated prediction vector and the motion vector that is actually allocated also increases. Also, if a prediction vector that is significantly different from the motion vector that is actually assigned is used, the encoding efficiency will be lower than when no prediction vector is used.
  • the moving image encoding apparatus encodes the surroundings of the target partition starting from a collocated partition occupying the same position as the target partition in the encoded frame, instead of the second calculation unit.
  • a second motion vector composed of motion vectors assigned to partitions around the shift collocated partition that occupies a position shifted by an estimated value of the motion vector assigned to the target partition, estimated from the motion vector assigned to the completed partition It is preferable that a second calculation unit that calculates a second prediction vector group that is a candidate for a prediction vector to be allocated to the target partition is referred to the group.
  • the target partition estimated from the motion vector allocated to the encoded partition around the target partition starting from a collocated partition that occupies the same position as the target partition
  • a second motion vector group consisting of motion vectors assigned to partitions around the shift collocated partition occupying a position shifted by the estimated value of the motion vector assigned to Since the second calculation means for calculating the second predicted vector group is provided, there is a further effect that an accurate predicted vector can be allocated even when there is a motion.
  • the selection means is a prediction vector calculated with reference to a motion vector group having a smaller variation between the first motion vector and the second motion vector group. It is preferable to assign a prediction vector belonging to a group to the target partition.
  • a prediction vector belonging to a prediction vector group calculated by referring to a motion vector group having a smaller variation between the first motion vector and the second motion vector group is the target partition. Therefore, it is possible to allocate a prediction vector without referring to a flag.
  • the selection unit may be configured such that variation in the first motion vector group and variation in the second motion vector group are smaller than a predetermined threshold value.
  • a prediction vector belonging to a prediction vector group calculated with reference to a motion vector group having a smaller variation between the first motion vector and the second motion vector group is allocated to the target partition, and
  • any one of the prediction vectors belonging to the first prediction vector group and the prediction vectors belonging to the second prediction vector group It is preferable to assign the prediction vector to which it belongs to the target partition.
  • a prediction vector belonging to a prediction vector group calculated with reference to a motion vector group having a smaller variation from the motion vector group of the above motion vector group
  • a prediction vector can be assigned without referring to a flag.
  • any one of a prediction vector belonging to the first prediction vector group and a prediction vector belonging to the second prediction vector group there is a further effect that a prediction vector belonging to one prediction vector group can be assigned to the target partition.
  • the flag is not used when the variation of the motion vector group is small (predictable), and the flag is used only when the variation of the motion vector group is large (predictable). Compared to the case, an accurate predicted image can be created with a small amount of flag.
  • the selection unit may be configured such that variation in the first motion vector group and variation in the second motion vector group are smaller than a predetermined threshold value.
  • a prediction vector belonging to a prediction vector group calculated with reference to a motion vector group having a smaller variation between the first motion vector and the second motion vector group is allocated to the target partition, and It is preferable to assign a zero vector to the target partition.
  • a zero vector is allocated. Therefore, a prediction vector or a zero vector can be allocated to a partition without referring to a flag on the decoding side. There is a further effect of being able to.
  • the moving picture decoding apparatus provides a decoded partition around the target partition starting from a collocated partition that occupies the same position as the target partition in the decoded frame, instead of the second calculation unit.
  • a second motion vector group consisting of motion vectors assigned to partitions around a shift collocated partition that occupies a position shifted by an estimated value of the motion vector assigned to the target partition, estimated from the motion vectors assigned to It is preferable to include a second calculation unit that calculates a second prediction vector group that is a candidate for a prediction vector to be allocated to the target partition.
  • the allocated frame is allocated to the target partition estimated from the motion vectors allocated to the decoded partitions around the target partition, starting from a collocated partition that occupies the same position as the target partition in the decoded frame.
  • the second motion vector group consisting of motion vectors assigned to the partitions around the shift collocated partition occupying the position moved by the estimated value of the motion vector is a candidate of a prediction vector to be assigned to the target partition. Since the second prediction vector group is calculated, there is a further effect that an accurate prediction vector can be assigned even when there is a motion.
  • a moving image encoding apparatus that encodes a difference vector between a motion vector assigned to each of a plurality of partitions obtained by dividing a frame constituting a moving image and a prediction vector together with the moving image
  • a first motion vector group made up of motion vectors assigned to encoded partitions around the target partition in the target frame
  • a first prediction vector group that is a candidate for a prediction vector assigned to the target partition is calculated.
  • First calculating means The second motion vector group consisting of the motion vectors assigned to the partition around the collocated partition that occupies the same position as the target partition in the encoded frame is referred to as a second candidate for a prediction vector to be assigned to the target partition.
  • Second calculating means for calculating a predicted vector group of Selection means for selecting a prediction vector to be assigned to the target partition, wherein any prediction vector of a prediction vector belonging to the first prediction vector group and a prediction vector belonging to the second prediction vector group is selected as the target partition; Selecting means for deciding whether to assign to the first motion vector group according to the variation of the first motion vector group and the variation of the second motion vector group, A moving picture coding apparatus characterized by the above.
  • the selection unit allocates a prediction vector belonging to a prediction vector group calculated with reference to a motion vector group having a smaller variation between the first motion vector and the second motion vector group to the target partition. , It is characterized by 1.
  • the selection means is: When the variation in the first motion vector group and the variation in the second motion vector group are smaller than a predetermined threshold, the first motion vector and the second motion vector group Assigning a prediction vector belonging to a prediction vector group calculated with reference to a motion vector group having a smaller variation to the target partition, Otherwise, one of the prediction vectors belonging to the first prediction vector group and the prediction vector belonging to the second prediction vector group is assigned to the target partition and assigned to the target partition.
  • Encoding a flag indicating a prediction vector It is characterized by 1.
  • the selection means is: When the variation in the first motion vector group and the variation in the second motion vector group are smaller than a predetermined threshold, the first motion vector and the second motion vector group Assigning a prediction vector belonging to a prediction vector group calculated with reference to a motion vector group having a smaller variation to the target partition, Otherwise, assign a zero vector to the target partition, It is characterized by 1.
  • the selection means is: When the variation of the first motion vector group is smaller than a predetermined threshold, assigning a prediction vector belonging to the first prediction vector group to the target partition, Otherwise, assign a prediction vector belonging to the second prediction vector group to the target partition, It is characterized by 1.
  • a selection means for selecting a prediction vector to be allocated to the target partition which is either a prediction vector selected from the first prediction vector or a prediction vector selected from the second prediction vector.
  • a position shifted from the collocated partition as a starting point by an estimated value of a motion vector allocated to the target partition, estimated from a motion vector allocated to the encoded partition around the target partition A third motion vector group consisting of motion vectors assigned to the partitions around the shift collocated partition occupying
  • the selection means a selection means for selecting a prediction vector to be allocated to the target partition, the prediction vector belonging to the first prediction vector group, the prediction vector belonging to the second prediction vector group, and the third Which of the prediction vectors belonging to the prediction vector group is allocated to the target partition, the variation of the first motion vector group, the variation of the second motion vector group, and the third Comprising a selection means for determining according to the variation of the motion vector group; It is characterized by 1.
  • the first prediction vector group when the number of adjacent partitions adjacent to the left side or the upper side of the target partition is an odd number, the length of the side of the adjacent partition that touches the target partition is the longest.
  • the first predictive vector group includes a motion vector assigned to each of the adjacent partitions and a motion assigned to the upper right partition.
  • Medals with vector Include emissions, It is characterized by 1.
  • the moving image encoding apparatus according to any one of the above.
  • the first prediction vector group is adjacent to the upper side of the target partition and the average or weighted average of the motion vectors assigned to each of the adjacent partitions adjacent to the left side or the upper side of the target partition. Contains the median with the motion vector assigned to the upper right partition adjacent to the right side of the rightmost partition of the partitions, It is characterized by 1.
  • the moving image encoding apparatus according to any one of the above.
  • the first prediction vector group includes an average or a weighted average of motion vectors assigned to each of adjacent partitions adjacent to the left side or the upper side of the target partition. It is characterized by 1.
  • the moving image encoding apparatus according to any one of the above.
  • the first prediction vector group includes As the first prediction vector, when the number of adjacent partitions adjacent to the left side or the upper side of the target partition is an odd number, allocation is made to the partition having the longest side adjacent to the target partition among the adjacent partitions Median of the motion vector assigned to each of the adjacent partitions and the motion vector assigned to the right upper partition adjacent to the right side of the rightmost partition among the partitions adjacent to the upper side of the target partition. And the median of the motion vector assigned to each of the adjacent partitions and the motion vector assigned to the upper right partition is included.
  • the second prediction vector includes the median of the average or weighted average of the motion vectors assigned to each of the adjacent partitions and the motion vector assigned to the upper right partition;
  • the third prediction vector includes an average or a weighted average of motion vectors assigned to each of the adjacent partitions, When the variation of the motion vector allocated to each of the adjacent partition and the upper right partition is smaller than a predetermined threshold, the selection unit selects the third prediction vector from the first prediction vector group. If not, select the first prediction vector or the second prediction vector from the first prediction vector group, It is characterized by 1. To 11.
  • the moving image encoding apparatus according to any one of the above.
  • the selection unit selects the third predicted vector group from the first predicted vector group.
  • the first prediction vector from the first prediction vector group, Or, when the second prediction vector is selected and the variation is larger than the second threshold, a zero vector is selected. 12. It is characterized by this.
  • the first prediction vector group includes When the target partition is an upper partition among partitions obtained by dividing a partition having a size of 16 pixels ⁇ 16 pixels into two equal parts, the number of adjacent partitions adjacent to the upper side or the left side of the target partition is an even number The median of the motion vector assigned to each of the adjacent partitions and the motion vector assigned to the partition having the longest side in contact with the target partition among the adjacent partitions is included. When the number of partitions is an odd number, the median of motion vectors assigned to each of the adjacent partitions is included, When the target partition is a lower partition among partitions obtained by dividing a partition having a size of 16 pixels ⁇ 16 pixels into two equal parts, it is assigned to each of the left adjacent partitions adjacent to the left side of the target partition. Including average or weighted average of motion vectors, It is characterized by 1. To 13. The moving image encoding apparatus according to any one of the above.
  • the first prediction vector group includes When the target partition is an upper partition among partitions obtained by dividing a partition having a size of 16 pixels ⁇ 16 pixels into two equal parts, a motion vector assigned to each of the partitions adjacent to the upper side of the target partition Including the average or weighted average of When the partition having a size of 16 pixels ⁇ 16 pixels is a lower partition among partitions obtained by dividing the partition into two equal parts, the motion vector assigned to each of the left adjacent partitions adjacent to the left side of the target partition Including average or weighted average, It is characterized by 1. To 13. The moving image encoding device according to any one of the above.
  • the first prediction vector group includes As the fourth prediction vector, when the number of adjacent partitions adjacent to the upper side or the left side of the target partition is an even number, the motion vector assigned to each of the adjacent partitions and the target among the adjacent partitions If the median with the motion vector assigned to the partition with the longest side that touches the partition is included, and the number of adjacent partitions is an odd number, the median of the motion vector assigned to each of the adjacent partitions Contains
  • the fifth prediction vector includes an average or a weighted average of motion vectors assigned to each of the partitions adjacent to the upper side of the target partition,
  • the selection means selects the fifth prediction vector from the first prediction vector group when the variation of the motion vector allocated to each of the adjacent partitions is smaller than a predetermined threshold value, and does not In the case, the fourth prediction vector is selected from the first prediction vector group. It is characterized by 1. To 15.
  • the moving image encoding apparatus according to any one
  • the first prediction vector group includes When the target partition is a left partition among partitions obtained by dividing a partition having a size of 16 pixels ⁇ 16 pixels into left and right parts, the number of adjacent partitions adjacent to the upper side or the left side of the target partition is an even number The median of the motion vector assigned to each of the adjacent partitions and the motion vector assigned to the partition having the longest side adjacent to the target partition among the adjacent partitions, If the number of adjacent partitions is an odd number, the median of the motion vector assigned to each of the adjacent partitions is included, Adjacent to the right side of the rightmost partition among the partitions adjacent to the upper side of the target partition when the target partition is a right partition among partitions obtained by dividing a partition having a size of 16 pixels ⁇ 16 pixels into left and right halves Contains the motion vector assigned to the partition It is characterized by 1. To 16. The moving image encoding apparatus according to any one of the above.
  • the first prediction vector group includes When the target partition is a left partition among partitions obtained by dividing a partition having a size of 16 pixels ⁇ 16 pixels into left and right parts, motion vectors assigned to each of the partitions adjacent to the left side of the target partition Including the average or weighted average of Adjacent to the right side of the rightmost partition among the partitions adjacent to the upper side of the target partition when the target partition is a right partition among partitions obtained by dividing a partition having a size of 16 pixels ⁇ 16 pixels into left and right halves Contains the motion vector assigned to the partition It is characterized by 1. To 17.
  • the moving image encoding apparatus according to any one of the above.
  • the first prediction vector group includes As the sixth prediction vector, when the number of adjacent partitions adjacent to the upper side or the left side of the target partition is an even number, the motion vector assigned to each of the adjacent partitions and the above-mentioned adjacent partitions If the median with the motion vector assigned to the partition with the longest side that touches the target partition is included and the number of adjacent partitions is an odd number, the motion vector assigned to each of the adjacent partitions Contains the median,
  • the seventh prediction vector includes an average or a weighted average of motion vectors assigned to each of the partitions adjacent to the left side of the target partition,
  • the selection means selects the seventh prediction vector from the first prediction vector group when the variation of the motion vector assigned to each of the adjacent partitions is smaller than a predetermined threshold, and so If not, the sixth prediction vector is selected from the first prediction vector group. It is characterized by 1. To 18.
  • the second prediction vector group includes an average or a weighted average of motion vectors assigned to each of the collocated partition and an adjacent partition adjacent to the collocated partition. It is characterized by 1. To 6. The moving image encoding apparatus according to any one of the above.
  • the length of the side adjacent to the collocated partition among the adjacent partitions Includes the median of the motion vector assigned to the longest partition and the motion vector assigned to each of the collocated partition and the adjacent partition, and the number of collocated partitions and the number of adjacent partitions adjacent to the collocated partition. If the sum with the number is an odd number, the median of the motion vector assigned to each of the collocated partition and the adjacent partition is included, It is characterized by 1. To 6.
  • the moving image encoding apparatus according to any one of the above.
  • the second prediction vector group includes The first prediction vector includes an average or a weighted average of motion vectors assigned to each of the collocated partition and the adjacent partition adjacent to the collocated partition, As a second prediction vector, when the number of adjacent partitions is an odd number, a motion vector assigned to a partition having the longest side adjacent to the collocated partition among the adjacent partitions, the collocated partition, and If the median with the motion vector assigned to each of the adjacent partitions is included and the number of the adjacent partitions is an even number, the median of the motion vector assigned to each of the collocated partition and the adjacent partition is included.
  • the selection unit selects the first prediction vector from the second prediction vector group. Select otherwise, select the second prediction vector from the second prediction vector group, It is characterized by 1. To 6.
  • the moving image encoding apparatus according to any one of the above.
  • the adjacent partition includes a partition sharing a vertex with the collocated partition.
  • To 22. The moving image encoding apparatus according to any one of the above.
  • the second prediction vector group includes an average or a weighted average of motion vectors allocated to each of the shift collocated partition and an adjacent partition adjacent to the shift collocated partition. It is characterized by the above.
  • the second prediction vector group is allocated to the partition having the longest side adjacent to the shift collocated partition among the adjacent partitions.
  • the second prediction vector group includes The first prediction vector includes an average or a weighted average of motion vectors assigned to each of the shift collocated partition and an adjacent partition adjacent to the shift collocated partition, As a second prediction vector, when the number of adjacent partitions is an odd number, a motion vector assigned to a partition having the longest side adjacent to the shift collocated partition among the adjacent partitions, and the shift collocated And the median of the motion vector assigned to each of the partition and the adjacent partition, and the number of the adjacent partitions is an even number, the median of the motion vector assigned to each of the shift collocated partition and the adjacent partition Contains When the variation of the motion vector assigned to each of the shift collocated partition and the adjacent partition is smaller than a predetermined threshold, the selecting means selects the first predicted vector from the second predicted vector group. If not, select the second prediction vector from the second prediction vector group, It is characterized by the above.
  • the adjacent partition includes a partition sharing a vertex with the shift collocated partition.
  • To 26. The moving image encoding apparatus according to any one of the above.
  • a decoding device A first motion vector group that is a candidate motion vector to be assigned to the target partition is calculated with reference to a first motion vector group that includes motion vectors assigned to decoded partitions around the target partition in the target frame. 1 calculating means;
  • a second motion vector group consisting of motion vectors assigned to a partition around a collocated partition that occupies the same position as the target partition in a decoded frame is referred to as a second predicted vector candidate to be assigned to the target partition.
  • Second calculating means for calculating a prediction vector group; Selection means for selecting a prediction vector to be assigned to the target partition, wherein any prediction vector of a prediction vector belonging to the first prediction vector group and a prediction vector belonging to the second prediction vector group is selected as the target partition; Selecting means for deciding whether to assign to the first motion vector group according to the variation of the first motion vector group and the variation of the second motion vector group, A moving picture decoding apparatus characterized by the above.
  • the prediction vector includes a first prediction vector group calculated with reference to a first motion vector group made up of motion vectors assigned to decoded partitions around the target partition in the target frame, and ahead of the target frame.
  • a moving image encoding method for encoding a difference vector between a motion vector assigned to each of a plurality of partitions obtained by dividing a frame constituting a moving image and a prediction vector together with the moving image Referring to a first motion vector group made up of motion vectors assigned to encoded partitions around the target partition in the target frame, a first prediction vector group that is a candidate for a prediction vector assigned to the target partition is calculated. A first calculation step; The second motion vector group consisting of the motion vectors assigned to the partition around the collocated partition that occupies the same position as the target partition in the encoded frame is referred to as a second candidate for a prediction vector to be assigned to the target partition.
  • a second calculation step of calculating a predicted vector group of A selection step of selecting a prediction vector to be allocated to the target partition, wherein any prediction vector of a prediction vector belonging to the first prediction vector group and a prediction vector belonging to the second prediction vector group is selected as the target partition;
  • a selection step of determining whether to allocate to the variation of the first motion vector group and the variation of the second motion vector group, A video encoding method characterized by the above.
  • the present invention can be suitably applied to a moving image encoding apparatus that encodes a moving image.

Abstract

 符号化済パーティションの動きベクトルからなる第1の動きベクトル群を参照して、第1の予測ベクトル群を算出する空間方向予測ベクトル生成部(191)と、コロケートパーティション周辺のパーティションの動きベクトルからなる第2の動きベクトル群を参照して、第2の予測ベクトル群を算出する時間方向予測ベクトル生成部(192)と、第1の予測ベクトル群に属する予測ベクトルと第2の予測ベクトル群に属する予測ベクトルとのうち何れの予測ベクトルを上記対象パーティションに割り付けるかを、上記第1および第2の動きベクトル群のばらつきに応じて決定する予測ベクトル選択部(194)と、を備えている。

Description

動画像符号化装置、および、動画像復号装置
 本発明は、動画像を符号化し符号化データを生成する動画像符号化装置に関する。また、そのような動画像符号化装置を用いて生成された符号化データを復号する動画像復号装置に関する。
 動画像を効率的に伝送または記録するために、動画像符号化装置が用いられている。また、動画像符号化装置における動画像の符号化には、動きベクトルを用いた動き補償予測が用いられている。動き補償予測を用いた動画像符号化方式としては、H.264/MPEG-4 AVCなどが挙げられる。
 非特許文献1には、入力される動画像をフレームごとに複数のパーティションに分割し、当該複数のパーティションのうち、符号化の対象となるパーティション(以下、「対象パーティション」と呼ぶ)の左辺に隣接するパーティション、対象パーティションの上辺に隣接するパーティション、および、対象パーティションの右上のパーティションの各々に割り付けられた動きベクトルのメジアン(中央値)を用いて対象パーティションに割り付ける予測ベクトルを推定し、その予測ベクトルを符号化する技術が開示されている。
 また、非特許文献2には、符号化の対象となるパーティションを含むフレームの前のフレームにおいて、当該対象パーティションと同じ位置を占めるパーティションであるコロケートパーティションに割り付けられた動きベクトルと、コロケートパーティションの周辺の複数のパーティションの各々に割り付けられた動きベクトルのメジアンを用いて当該対象パーティションに割り付ける予測ベクトルの候補を生成したうえで、当該候補と、非特許文献1に記載の技術に基づいて推定された予測ベクトル候補のうち、符号化効率のよい予測ベクトル候補を予測ベクトルとする、MV Competition と呼ばれる技術が開示されている。
ITU-T Recommendation H.264(11/07)(2007年11月公開) ITU-T T09-SG16-VCEG-AC06"Competition-Based Scheme for Motion Vector Selection and Coding"(2006年7月公開)
 しかしながら、非特許文献2に記載された技術においては、各パーティションに割り付ける予測ベクトルとして、いずれの予測ベクトル候補が選択されたかを示すフラグを復号装置に伝送する必要があるため、符号化効率の低下を招来するという問題を有している。また、非特許文献2に記載された技術を予測ベクトル候補の数が3以上であるような場合に適用すると、上記フラグの量が増大し、結果として符号化効率の低下を招来するという問題を有している。
 本発明は、上記の問題に鑑みてなされたものであり、その目的は、複数の予測ベクトル候補から予測ベクトルを選択する場合であっても、いずれの予測ベクトル候補が選択されたかを示すフラグ量が少なく、符号化効率の高い動画像符号化装置を実現することにある。
 上記の課題を解決するために、本発明に係る動画像符号化装置は、動画像を構成するフレームを分割して得られた複数のパーティションの各々に割り付けられた動きベクトルと予測ベクトルとの差分ベクトルを上記動画像と共に符号化する動画像符号化装置において、対象フレームにおいて対象パーティション周辺の符号化済パーティションに割り付けられた動きベクトルからなる第1の動きベクトル群を参照して、上記対象パーティションに割り付ける予測ベクトルの候補となる第1の予測ベクトル群を算出する第1の算出手段と、符号化済フレームにおいて上記対象パーティションと同じ位置を占めるコロケートパーティション周辺のパーティションに割り付けられた動きベクトルからなる第2の動きベクトル群を参照して、上記対象パーティションに割り付ける予測ベクトルの候補となる第2の予測ベクトル群を算出する第2の算出手段と、上記対象パーティションに割り付ける予測ベクトルを選択する選択手段であって、上記第1の予測ベクトル群に属する予測ベクトルと上記第2の予測ベクトル群に属する予測ベクトルとのうち何れの予測ベクトルを上記対象パーティションに割り付けるかを、上記第1の動きベクトル群のばらつき、および、上記第2の動きベクトル群のばらつきに応じて決定する選択手段と、を備えていることを特徴としている。
 本発明に係る動画像符号化装置は、上記のように、上記対象パーティションに割り付ける予測ベクトルを選択する選択手段であって、上記第1の予測ベクトル群に属する予測ベクトルと上記第2の予測ベクトル群に属する予測ベクトルとのうち何れの予測ベクトルを上記対象パーティションに割り付けるかを、上記第1の動きベクトル群のばらつき、および、上記第2の動きベクトル群のばらつきに応じて決定する選択手段と、を備えているため、何れの予測ベクトルを上記対象パーティションに割り付けるかを、上記第1の動きベクトル群のばらつき、および、上記第2の動きベクトル群のばらつきに応じて決定することができる。
 一方、上記符号化装置において上記対象パーティションに割り付けられた予測ベクトルは、復号装置においても、再現された上記第1の動きベクトル群のばらつき、および、上記第2の動きベクトル群のばらつきに基づいて再現することができる。
 すなわち、上記のように構成された動画像符号化装置によれば、複数の予測ベクトルの候補から予測ベクトルを選択することができ、かつ、いずれの予測ベクトル候補が選択されたかを示すフラグの生成が不要である。
 したがって、上記の構成によれば、複数の予測ベクトル候補から予測ベクトルを選択する場合であっても、符号化効率の高い動画像符号化装置を実現することができるという効果を奏する。
 また、本発明に係る動画像復号装置は、動画像を構成するフレームを分割して得られた複数のパーティションの各々に割り付けられた動きベクトルと予測ベクトルとの差分ベクトルを上記動画像と共に符号化して得られた符号化データを復号する動画像復号装置であって、対象フレームにおいて対象パーティション周辺の復号済パーティションに割り付けられた動きベクトルからなる第1の動きベクトル群を参照して、上記対象パーティションに割り付ける予測ベクトルの候補となる第1の予測ベクトル群を算出する第1の算出手段と、復号済フレームにおいて上記対象パーティションと同じ位置を占めるコロケートパーティション周辺のパーティションに割り付けられた動きベクトルからなる第2の動きベクトル群を参照して、上記対象パーティションに割り付ける予測ベクトルの候補となる第2の予測ベクトル群を算出する第2の算出手段と、上記対象パーティションに割り付ける予測ベクトルを選択する選択手段であって、上記第1の予測ベクトル群に属する予測ベクトルと上記第2の予測ベクトル群に属する予測ベクトルとのうち何れの予測ベクトルを上記対象パーティションに割り付けるかを、上記第1の動きベクトル群のばらつき、および、上記第2の動きベクトル群のばらつきに応じて決定する選択手段と、を備えていることを特徴としている。
 上記のように構成された動画像復号装置によれば、何れの予測ベクトル候補が選択されたかを示すフラグを必要とすることなく、上記予測ベクトルを復号化することができる。したがって、上記の構成によれば、何れの予測ベクトルが選択されたかを示すフラグを含むことなく、高い符号化効率で生成された符号化データを復号することができるという効果を奏する。
 このように、本発明に係る動画像符号化装置は、動画像を構成するフレームを分割して得られた複数のパーティションの各々に割り付けられた動きベクトルと予測ベクトルとの差分ベクトルを上記動画像と共に符号化する動画像符号化装置において、対象フレームにおいて対象パーティション周辺の符号化済パーティションに割り付けられた動きベクトルからなる第1の動きベクトル群を参照して、上記対象パーティションに割り付ける予測ベクトルの候補となる第1の予測ベクトル群を算出する第1の算出手段と、符号化済フレームにおいて上記対象パーティションと同じ位置を占めるコロケートパーティション周辺のパーティションに割り付けられた動きベクトルからなる第2の動きベクトル群を参照して、上記対象パーティションに割り付ける予測ベクトルの候補となる第2の予測ベクトル群を算出する第2の算出手段と、上記対象パーティションに割り付ける予測ベクトルを選択する選択手段であって、上記第1の予測ベクトル群に属する予測ベクトルと上記第2の予測ベクトル群に属する予測ベクトルとのうち何れの予測ベクトルを上記対象パーティションに割り付けるかを、上記第1の動きベクトル群のばらつき、および、上記第2の動きベクトル群のばらつきに応じて決定する選択手段と、を備えている。
 上記の構成によれば、複数の予測ベクトル候補から予測ベクトルを選択する場合であっても、いずれの予測ベクトル候補が選択されたかを示すフラグ量が少なく、符号化効率の高い動画像符号化装置を実現することができる。
実施形態に係る動画像符号化装置における動きベクトル冗長性削減部の構成を示すブロック図である。 実施形態に係る動画像符号化装置の構成を示すブロック図である。 実施形態に係る動画像符号化装置における空間方向予測ベクトル生成部の構成を示すブロック図である。 対象パーティションの左辺または上辺に複数のパーティションが隣接している場合の空間方向予測ベクトル算出部の動作を説明するための図である。(a)および(b)は、対象パーティションの左辺に2つのパーティションが隣接し、対象パーティションの上辺に他の2つのパーティションが隣接している場合を示している。また、(c)および(d)は、対象パーティションが16×16画素のマクロブロックを上下に2等分したパーティションである場合であって、当該マクロブロックの左辺に1つのパーティションが隣接し、当該マクロブロックの上辺に2つのパーティションが隣接している場合を示している。また、(e)は、対象パーティションが16×16画素のマクロブロックを左右に2等分したパーティションである場合であって、当該マクロブロックの左辺に2つのパーティションが隣接し、当該マクロブロックの上辺に2つのパーティションが隣接している場合を示している。さらに、(f)は、対象パーティションが16×16画素のマクロブロックを左右に2等分したパーティションである場合であって、当該マクロブロックの左辺に4つのパーティションが隣接し、当該マクロブロックの上辺に3つのパーティションが隣接している場合を示している。 対象パーティションの左辺および上辺にそれぞれ1つずつのパーティションが隣接している場合の空間方向予測ベクトル算出部の動作を説明するための図である。(a)は、対象パーティションと同じサイズのパーティションが、対象パーティションの左辺および上辺にそれぞれ1つずつ隣接している場合を示している。また、(b)は、対象パーティションより大きいサイズのパーティションが、対象パーティションの左辺および上辺にそれぞれ1つずつ隣接している場合を示している。また、(c)は、対象パーティションが16×16画素のマクロブロックを上下に2等分したパーティションである場合であって、当該マクロブロックに左辺および上辺にそれぞれ1つずつのパーティションが隣接している場合を示している。さらに、(d)は、対象パーティションが16×16画素のマクロブロックを左右に2等分したパーティションである場合であって、当該マクロブロックに左辺および上辺にそれぞれ1つずつのパーティションが隣接している場合を示している。 実施形態に係る動画像符号化装置における時間方向予測ベクトル生成部の構成を示すブロック図である。 実施形態に係る動画像符号化装置における時間方向予測ベクトル算出部の各部の動作を説明するための図である。(a)は、対象パーティションと、コロケートパーティションとの位置関係を模式的に示しており、(b)は、コロケートパーティションの周辺に隣接する複数のパーティションを示している。 時間方向予測ベクトル算出部の各部の動作を説明するためのものであって、対象パーティションと予測ベクトルの算出に用いるパーティションとの位置関係を模式的に示す図である。 実施形態に係る動画像復号装置の構成を示すブロック図である。 実施形態に係る動画像復号装置における動きベクトル復元部の構成を示すブロック図である。 実施形態に係る動画像復号装置における動きベクトル復元部の他の構成を示すブロック図である。 実施形態に係る動画像符号化装置を用いて生成した符号化データのマクロブロックごとのビットストリームを示す図である。
 (動画像符号化装置1)
 本実施形態に係る動画像符号化装置1の構成について図1~図8を参照して説明する。
 図2は動画像符号化装置1の構成を示すブロック図である。
 図2に示すように、動画像符号化装置1は、変換・量子化部11、可変長符号化部12、逆量子化・逆変換部13、バッファメモリ14、イントラ予測画像生成部15、予測画像生成部16、動きベクトル推定部17、予測方式制御部18、動きベクトル冗長性削減部19、加算器21、および、減算器22を備えている。
 動画像符号化装置1には、入力画像#1が逐次的に入力される。入力画像#1は、映像データの各フレームに対応する画像信号であり、例えば、60Hzのプログレッシブ信号の各フレームに対応する画像信号である。
 動画像符号化装置1は、入力画像#1の符号化処理を行い、符号化データ#2を出力する。
 変換・量子化部11は、隣接する複数の画素から構成されるブロック画像(以下「マクロブロック」と呼ぶ)に分割された入力画像#1と、後述する予測方式制御部18から出力される予測画像#18aとの差分画像#22を、DCT(Discrete Cosine Transform)変換により、周波数成分へ変換した後、当該周波数成分の量子化を行い、量子化予測残差データ#11を生成する。ここで、上記量子化とは、上記周波数成分を整数値に対応付ける演算のことである。以下では、処理の対象となるマクロブロックを「対象マクロブロック」と呼ぶ。
 なお、上記マクロブロックのサイズは、例えば、16×16画素であるが、本発明は、マクロブロックの具体的なサイズによって、限定されるものではない。すなわち、本発明は、上記マクロブロックのサイズが、例えば、16×32画素、32×32画素、64×64画素のように、16×16画素より大きい場合あっても、好適に適用することができる。
 逆量子化・逆変換部13は、量子化予測残差データ#11の復号を行い、予測残差#13を生成する。具体的には、逆量子化・逆変換部13は、量子化予測残差データ#11の逆量子化、すなわち、量子化予測残差データ#11を構成する整数値の周波数成分への対応付け、および、当該周波数成分の逆DCT変換、すなわち、当該周波数成分に基づいた対象マクロブロックの画素成分への逆変換を行い、予測残差#13を生成する。
 加算器21は、予測残差#13と、予測画像#18aとを加算し、復号画像#21を生成する。生成された復号画像#21は、バッファメモリ14に格納される。
 イントラ予測画像生成部15は、バッファメモリ14に格納された復号画像#21から局所復号画像#14a(対象マクロブロックと同じフレームの既復号領域)を抽出し、局所復号画像#14aに基づいてフレーム内予測を行い、イントラ予測画像#15を生成する。イントラ予測画像#15のサイズは、例えば、16×16画素、8×8画素、又は、4×4画素等であるが、本発明は、具体的なイントラ予測画像#15のサイズによって限定されるものではない。例えば、上記マクロブロックのサイズが32×32画素、64×64画素のように、16×16画素より大きい場合には、イントラ予測画像#15のサイズも、16×16画素より大きいサイズであってもよい。
 動きベクトル推定部17は、対象マクロブロックを1つ若しくは複数のパーティションに分割し、各々のパーティションに対して、順次、動きベクトルを割り付ける。具体的には、動きベクトル推定部17は、入力画像#1上の上記複数のパーティションのうち、処理の対象となるパーティション(以下、「対象パーティション」と呼ぶ)に対し、既にフレーム全体が復号され、バッファメモリ14に格納された画像(以下、参照画像#14bと呼ぶ)を用いて、動きベクトル#17を算出し、割り付ける。算出された動きベクトル#17は、予測画像生成部16、動きベクトル冗長性削減部19に対して出力されると共に、バッファメモリ14に格納される。
 上記パーティションのサイズは、例えば、16×16画素、16×8画素、8×16画素、8×8画素、8×4画素、4×8画素、又は、4×4画素であるが、本発明は、具体的なパーティションのサイズによって限定されるものではない。例えば、上記マクロブロックのサイズが32×32画素、64×64画素のように、16×16画素より大きい場合には、上記パーティションのサイズも、16×16画素より大きいサイズであってもよい。
 予測画像生成部16は、バッファメモリ14に格納された参照画像#14bに対し、パーティションごとに、動きベクトル#17に基づいた動き補償を行い、インター予測画像#16を生成する。
 予測方式制御部18は、マクロブロック単位で、イントラ予測画像#15と、インター予測画像#16と、入力画像#1とを比較し、イントラ予測画像#15、または、インター予測画像#16のうち、何れか一方を選択し、予測画像#18aとして出力する。また、予測方式制御部18は、イントラ予測画像#15、または、インター予測画像#16のうち、何れを選択したのかを表す情報である予測モード#18bを出力する。予測画像#18aは減算器22に入力される。
 予測モード#18bは、バッファメモリ14に格納されると共に、可変長符号化部12に入力される。
 動きベクトル冗長性削減部19は、動きベクトル推定部17において上記対象パーティションに動きベクトル#17が割り付けられた後、他のパーティションに割り付けられ、バッファメモリ14に格納された動きベクトル群#14cに基づいて予測ベクトルを算出する。また、動きベクトル冗長性削減部19は、当該予測ベクトルと、動きベクトル#17との差分をとり、差分動きベクトル#19aを生成する。生成された差分動きベクトル#19aは、可変長符号化部12に出力される。また、動きベクトル冗長性削減部19は、上記予測ベクトルが複数ある場合には、どの予測ベクトルを用いて差分動きベクトル#19aを生成したかを示すフラグ#19bを出力してもよい。動きベクトル冗長性削減部19の詳細については、以下で詳述するため、ここでは説明を省略する。
 可変長符号化部12は、量子化予測残差データ#11、差分動きベクトル#19a、予測モード#18b、および、フラグ#19bに対し、可変長符号化を行い、符号化データ#2を生成する。
 減算器22は、対象マクロブロックに対し、入力画像#1と、予測画像#18aとの差分をとり、差分画像#22を出力する。
 (動きベクトル冗長性削減部19)
 図1は、動きベクトル冗長性削減部19の構成を示すブロック図である。図1に示すように、動きベクトル冗長性削減部19は、予測ベクトル生成部196、および、減算器195を備えている。また、図1に示すように、予測ベクトル生成部196は、空間方向予測ベクトル生成部191、時間方向予測ベクトル生成部192、時空間方向予測ベクトル生成部193、および、予測ベクトル選択部194を備えている。
 以下では、各フレームの符号化処理が、各フレームの左上から横方向に、順次下側に向かって行われる場合について説明を行うが、本発明は具体的な符号化処理の方向によって限定されるものではない。例えば、各フレームの符号化処理が、各フレームの左上から縦方向に、順次右側に向かって行われるような場合には、下記の説明における「左辺」を「上辺」に、下記の説明における「上辺」を「左辺」に、下記の説明における「右辺」を「下辺」に、下記の説明における「右側」を「下側」に、それぞれ置き換えることによって、本発明を容易に適用することができる。また、フレームの符号化処理をその他の順序で行う場合にも、ほぼ同様の置き換えにより、本発明を容易に適用することができる。
 (空間方向予測ベクトル生成部191)
 まず、空間方向予測ベクトル生成部191について、図3~図5を参照して説明する。図3は、空間方向予測ベクトル生成部191の構成を示すブロック図である。図3に示すように、空間方向予測ベクトル生成部191は、空間方向動きベクトル抽出部191a、および、空間方向予測ベクトル算出部191bを備えている。
 また、図3に示すように、空間方向予測ベクトル算出部191bは、第1算出部191b1、第2算出部191b2、第3算出部191b3、および、第1選択部191b4を備えている。
 空間方向予測ベクトル生成部191は、動きベクトル群#14cを受け、空間方向予測ベクトル#191を出力する。
 空間方向動きベクトル抽出部191aは、動きベクトル群#14cから、対象パーティションの左辺に隣接するパーティションに割り付けられた動きベクトルと、対象パーティションの上辺に隣接するパーティションに割り付けられた動きベクトルと、対象パーティションの左辺または上辺に隣接するパーティションに隣接するパーティションに割り付けられた動きベクトルと、を抽出する。抽出された複数の動きベクトルから構成される動きベクトル群#191aは、空間方向予測ベクトル算出部191bに入力される。
 空間方向予測ベクトル算出部191bは、動きベクトル群#191aに基づいて、対象パーティションに割り付ける予測ベクトルの候補(以下、「予測ベクトル候補」と呼ぶ)を算出する。例えば、空間方向予測ベクトル算出部191bは、対象パーティションの左辺または上辺に複数のパーティションが隣接している場合に、当該複数のパーティションの各々に割り付けられた動きベクトルから、あるいは、当該複数のパーティションおよび当該複数のパーティションに隣接するパーティションの各々に割り付けられた動きベクトルから、平均算出処理、メジアン算出処理、またはそれらの組み合わせにより複数の予測ベクトル候補を算出する。また、空間方向予測ベクトル算出部191bは、当該複数の予測ベクトル候補から、1つの予測ベクトル候補を選択し、空間方向予測ベクトル#191として出力する。
 (空間方向予測ベクトル算出部191bの動作)
 以下では、空間方向予測ベクトル算出部191bの具体的な動作について、図4の(a)~(f)を参照して説明する。
 図4は、対象パーティションの左辺または上辺に複数のパーティションが隣接している場合の空間方向予測ベクトル算出部191bの動作を説明するための図である。図4の(a)および(b)は、対象パーティションの左辺に2つのパーティションが隣接し、対象パーティションの上辺に他の2つのパーティションが隣接している場合を示している。また、図4の(c)および(d)は、対象パーティションが16×16画素のマクロブロックを上下に2等分したパーティションである場合であって、当該マクロブロックの左辺に1つのパーティションが隣接し、当該マクロブロックの上辺に2つのパーティションが隣接している場合を示している。また、図4の(e)は、対象パーティションが16×16画素のマクロブロックを左右に2等分したパーティションである場合であって、当該マクロブロックの左辺に2つのパーティションが隣接し、当該マクロブロックの上辺に2つのパーティションが隣接している場合を示している。さらに、図4の(f)は、対象パーティションが16×16画素のマクロブロックを左右に2等分したパーティションである場合であって、当該マクロブロックの左辺に4つのパーティションが隣接し、当該マクロブロックの上辺に3つのパーティションが隣接している場合を示している。
 (対象パーティションのサイズが16×8画素、および、8×16画素以外の場合)
 以下では、まず、対象パーティションのサイズが16×8画素、および、8×16画素以外の場合の空間方向予測ベクトル算出部191bの各部の動作について説明する。
 第1算出部191b1は、対象パーティションの左辺または上辺に複数のパーティションが隣接している場合であって、上記複数のパーティションの数が奇数個である場合には、上記複数のパーティションのうち、上記対象パーティションに接する辺の長さが最も長いパーティションに割り付けられた動きベクトルと、上記複数のパーティションの各々に割り付けられた動きベクトルと、上記対象パーティションの上辺に隣接するパーティションのうち最も右側のパーティションの右辺に隣接するパーティションに割り付けられた動きベクトルとのメジアンを当該対象パーティションに割り付ける予測ベクトル候補#191b1に設定する。また、第1算出部191b1は、上記複数のパーティションの数が偶数個である場合には、上記複数のパーティションの各々に割り付けられた動きベクトルと、上記対象パーティションの上辺に隣接するパーティションのうち最も右側のパーティションの右辺に隣接するパーティションに割り付けられた動きベクトルと、のメジアンを当該対象パーティションに割り付ける予測ベクトル候補#191b1に設定する。
 例えば、図4の(a)に示すように、対象パーティションの左辺にパーティションa1、および、パーティションa2が隣接し、対象パーティションの上辺にパーティションb1、および、パーティションb2が隣接している場合には、第1算出部191b1は、パーティションa1、パーティションa2、パーティションb1、パーティションb2、および、パーティションb2の右辺に隣接するパーティションb3の各々に割り付けられた動きベクトルのメジアンを対象パーティションに割り付ける予測ベクトル候補#191b1に設定する。
 ここで、メジアンとは、要素の中央値をとる算術操作のことであり、ベクトルのメジアンとは、対応する成分ごとに中央値をとったベクトルのことである。
 上記の例では、パーティションai(i=1,2)に割り付けられた動きベクトルを(MVaix、MVaiy)、パーティションbj(j=1,2、3)に割り付けられた動きベクトルを(MVbjx、MVbjy)と表すと、予測ベクトル候補#191b1(PMV1x、PMV1y)は、PMV1x=median(MVa1x、MVa2x、MVb1x、MVb2x、MVb3x)、および、PMV1y=median(MVa1y、MVa2y、MVb1y、MVb2y、MVb3y)によって算出される。ここで、median(…)は、括弧内の要素の中央値をとることを意味する。
 また、例えば、対象パーティションの左辺にパーティションa1’、および、パーティションa2’が隣接し、対象パーティションの上辺にパーティションb1’が隣接している場合であって、上記対象パーティションに接する辺の長さが最も長いパーティションがパーティションb1’である場合には、第1算出部191b1は、パーティションa1’、パーティションa2’、パーティションb1’、パーティションb1’、および、パーティションb1’の右辺に隣接するパーティションb3’の各々に割り付けられた動きベクトルのメジアンを対象パーティションに割り付ける予測ベクトル候補#191b1に設定する。
 すなわち、上記の場合、パーティションai’(i=1,2)に割り付けられた動きベクトルを(MVaix’、MVaiy’)、パーティションbj’(j=1,3)に割り付けられた動きベクトルを(MVbjx’、MVbjy’)と表すと、予測ベクトル候補#191b1(PMV1x、PMV1y)は、PMV1x=median(MVa1x’、MVa2x’、MVb1x’、MVb1x’、MVb3x’)、および、PMV1y=median(MVa1y’、MVa2y’、MVb1y’、MVb1y’、MVb3y’)によって算出される。
 一方で、第2算出部191b2は、対象パーティションの左辺または上辺に複数のパーティションが隣接している場合に、当該複数のパーティションの各々に割り付けられた動きベクトルの上記辺ごとの平均と、上記対象パーティションの上辺に隣接するパーティションのうち最も右側のパーティションの右辺に隣接するパーティションに割り付けられた動きベクトルとのメジアンを当該対象パーティションに割り付ける予測ベクトル候補#191b2に設定する。
 例えば、図4の(b)に示すような場合には、第2算出部191b2は、パーティションa1に割り付けられた動きベクトルとパーティションa2に割り付けられた動きベクトルとの平均と、パーティションb1に割り付けられた動きベクトルとパーティションb2に割り付けられた動きベクトルとの平均と、パーティションb3に割り付けられた動きベクトルとのメジアンを当該対象パーティションに割り付ける予測ベクトル候補#191b2に設定する。
 上記の記号を用いて表すと、予測ベクトル候補#191b2(PMV2x、PMV2y)は、PMV2x=median((MVa1x+MVa2x)/2、(MVb1x+MVb2x)/2、MVb3x)、および、PMV2y=median((MVa1y+MVa2y)/2、(MVb1y+MVb2y)/2、MVb3y)によって算出される。
 第3算出部191b3は、対象パーティションの左辺または上辺に複数のパーティションが隣接している場合に、当該複数のパーティションの各々に割り付けられた動きベクトルの平均を当該対象パーティションに割り付ける予測ベクトル候補#191b3に設定する。
 例えば、図4の(a)および(b)に示すような場合には、上記の記号を用いて表すと、第3算出部191b3は、予測ベクトル候補#191b3(PMV3x、PMV3y)を、PMV3x=(MVa1x+MVa2x+MVb1x+MVb2x)/4、および、PMV3y=(MVa1y+MVa2y+MVb1y+MVb2y)/4によって算出する。
 なお、予測ベクトル候補#191b3は、対象パーティションの左辺または上辺に隣接した複数のパーティションの各々に割り付けられた動きベクトルと、対象パーティションの上辺に隣接しているパーティションのうち、最も右側のパーティションの右辺に隣接したパーティションに割り付けられた動きベクトルとの平均としてもよい。すなわち、図4の(a)および(b)に示すような場合には、第3算出部191b3は、予測ベクトル候補#191b3(PMV3x、PMV3y)を、PMV3x=(MVa1x+MVa2x+MVb1x+MVb2x+MVb3x)/5、および、PMV3y=(MVa1y+MVa2y+MVb1y+MVb2y+MVb3y)/5によって算出するようにしてもよい。
 第1選択部191b4は、予測ベクトル候補#191b1、予測ベクトル候補#191b2、予測ベクトル候補#191b3のうち、何れか1つを選択し、空間方向予測ベクトル#191として出力する。
 具体的には、第1選択部191b4は、対象パーティションの左辺に隣接するパーティション、当該対象パーティションの上辺に隣接するパーティション、および、当該対象パーティションの上辺に隣接するパーティションのうち最も右側のパーティションの右辺に隣接するパーティションの各々に割り付けられた動きベクトルのばらつきが予め定められた第1の閾値以下である場合には、予測ベクトル候補#191b3を空間方向予測ベクトル#191として出力し、上記ばらつきが上記第1の閾値より大きい場合には、予測ベクトル候補#191b1、または、予測ベクトル候補#191b2を空間方向予測ベクトル#191として出力する。
 なお、上記ばらつきの定義としては、例えば、分散、標準偏差、または、平均値から最も遠い値までの距離等を用いることができるが、上記定義の例は、本発明を限定するものではなく、他にも様々な定義を用いることができる。
 なお、第1選択部191b4は、上記ばらつきが予め定められた第2の閾値以下である場合には、予測ベクトル候補#191b3を空間方向予測ベクトル#191として出力し、上記ばらつきが上記第2の閾値より大きい場合であって、上記第2の閾値よりも大きい第3の閾値以下である場合には、予測ベクトル候補#191b1、または、予測ベクトル候補#191b2を空間方向予測ベクトル#191として出力し、上記ばらつきが上記第3の閾値より大きい場合には、0ベクトルを空間方向予測ベクトル#191として出力するようにしてもよい。
 また、第1選択部191b4が、予測ベクトル候補#191b1、または、予測ベクトル候補#191b2のうち、どちらを出力するかは、フレームごとに予め定められていてもよいし、シーケンスごとに予め定められていてもよい。また、ピクチャごと、または、スライスごとに定められていてもよい。
 また、第1選択部191b4は、予測ベクトル候補#191b1、または、予測ベクトル候補#191b2のうち符号化効率のよい予測ベクトル候補を空間方向予測ベクトル#191として出力するようにしてもよい。ここで、上記符号化効率のよい予測ベクトル候補とは、例えば、レート歪み特性の点で効率の良い予測ベクトル候補のことを指す。
 また、予測ベクトル候補#191b2、および、予測ベクトル候補#191b3を算出する際に用いた上記平均は上記動きベクトルが割り付けられたパーティションが上記対象パーティションに隣接する辺の長さに応じた加重平均であってもよい。このように、加重平均を用いることにより、より正確な予測ベクトル候補、すなわち、対象パーティションに割り付けられる動きベクトルにより類似した予測ベクトル候補の算出を行うことができる。
 (対象パーティションのサイズが16×8画素の場合)
 対象パーティションのサイズが16×8画素、すなわち、対象パーティションが横方向に16画素、縦方向に8画素から構成されている場合、および、対象パーティションのサイズが8×16画素、すなわち、対象パーティションが横方向に8画素、縦方向に16画素から構成されている場合には、空間方向予測ベクトル算出部191bは、上記の動作とは異なる動作を行う。
 以下では、対象パーティションのサイズが16×8画素の場合の空間方向予測ベクトル算出部191bの各部の動作について説明する。
 第1算出部191b1は、対象パーティションが、16×16のサイズであるパーティションを上下に2等分したパーティションのうち上側のパーティションであり、且つ、当該対象パーティションの上辺および左辺に偶数個のパーティションが隣接している場合には、当該偶数個のパーティションの各々に割り付けられた動きベクトルと、当該対象パーティションの左辺または上辺に隣接するパーティションのうち、上記対象パーティションに接する辺の長さが最も長いパーティションに割り付けられた動きベクトルとのメジアンを当該対象パーティションに割り付ける予測ベクトル候補#191b1に設定する。また、第1算出部191b1は、対象パーティションが上記上側のパーティションであり、且つ、当該対象パーティションの上辺および左辺に奇数個のパーティションが隣接している場合には、当該奇数個のパーティションの各々に割り付けられた動きベクトルのメジアンを当該対象パーティションに割り付ける予測ベクトル候補#191b1に設定する。
 また、第1算出部191b1は、対象パーティションが16×16のサイズであるパーティションを上下に2等分したパーティションのうち下側のパーティションであり、且つ、当該対象パーティションの左辺に1つのパーティションが隣接している場合には、当該1つのパーティションに割り付けられた動きベクトルを当該対象パーティションに割り付ける予測ベクトル候補に設定する。また、第1算出部191b1は、対象パーティションが上記下側のパーティションであり、且つ、当該対象パーティションの左辺に複数のパーティションが隣接している場合には、当該複数のパーティションの各々に割り付けられた動きベクトルの平均を当該対象パーティションに割り付ける予測ベクトル候補#191b1に設定する。
 例えば、図4の(c)に示すように、対象パーティションが16×16画素のマクロブロックを上下に2等分したパーティション(上側のパーティションをパーティションX1、下側のパーティションをパーティションX2と呼ぶ。以下同じ)である場合であって、当該マクロブロックの左辺にパーティションaが隣接し、当該マクロブロックの上辺にパーティションb1およびパーティションb2が隣接している場合には、第1算出部191b1は、パーティションb1に割り付けられた動きベクトルと、パーティションb2に割り付けられた動きベクトルと、パーティションaに割り付けられた動きベクトルとのメジアンを、パーティションX1に割り付ける予測ベクトル候補#191b1に設定する。
 また、第1算出部191b1は、パーティションaに割り付けられた動きベクトルを、パーティションX2に割り付ける予測ベクトル候補#191b1に設定する。
 一方で、第2算出部191b2は、対象パーティションが、16×16のサイズであるパーティションを上下に2等分したパーティションのうち上側のパーティションであり、且つ、当該対象パーティションの上辺に複数のパーティションが隣接している場合に、当該複数のパーティションの各々に割り付けられた動きベクトルの平均を当該対象パーティションに割り付ける予測ベクトル候補#191b2に設定する。また、第2算出部191b2は、対象パーティションが、16×16のサイズであるパーティションを上下に2等分したパーティションのうち下側のパーティションであり、且つ、当該対象パーティションの左辺に1つのパーティションが隣接している場合には、当該1つのパーティションに割り付けられた動きベクトルを当該対象パーティションに割り付ける予測ベクトル候補に設定する。また、第2算出部191b2は、対象パーティションが上記下側のパーティションであり、且つ、当該対象パーティションの左辺に複数のパーティションが隣接している場合には、当該複数のパーティションの各々に割り付けられた動きベクトルの平均を当該対象パーティションに割り付ける予測ベクトル候補#191b2に設定する。
 例えば、図4の(d)に示すような場合には、第2算出部191b2は、パーティションb1に割り付けられた動きベクトルと、パーティションb2に割り付けられた動きベクトルとの平均を、パーティションX1に割り付ける予測ベクトル候補#191b2に設定する。また、第2算出部191b2は、パーティションaに割り付けられた動きベクトルを、パーティションX2に割り付ける予測ベクトル候補#191b2に設定する。
 第1選択部191b4は、パーティションX1に割り付ける予測ベクトル候補#191b1とパーティションX1に割り付ける予測ベクトル候補#191b2とのうち、フレームごと、シーケンスごと、ピクチャごと、または、スライスごとに予め定められたいずれかの予測ベクトル候補を、パーティションX1に割り付ける空間方向予測ベクトル#191として出力する。また、第1選択部191b4は、パーティションX1に割り付ける予測ベクトル候補#191b1とパーティションX1に割り付ける予測ベクトル候補#191b2とのうち符号化効率がより高い方の予測ベクトル候補を、パーティションX1に割り付ける空間方向予測ベクトル#191として出力するようにしてもよい。パーティションX2に割り付ける空間方向予測ベクトル#191についても同様である。
 なお、第1選択部191b4は、パーティションX1の上辺に隣接しているパーティションの各々に割り付けられた動きベクトルのばらつきが、予め定められた閾値以下である場合には、予測ベクトル候補#191b2を空間方向予測ベクトル#191に設定し、上記ばらつきが、上記閾値よりも大きい場合には、予測ベクトル候補#191b1を空間方向予測ベクトル#191に設定するようにしてもよい。
 なお、対象パーティションのサイズが16×8画素の場合も、上述した場合と同様に、第3算出部191b3が、対象パーティションの左辺または上辺に隣接した複数のパーティションの各々に割り付けられた動きベクトルの平均を当該対象パーティションに割り付ける予測ベクトル候補#191b3に設定するようにしてもよい。
 例えば、図4の(c)のような場合、第3算出部191b3は、パーティションa、パーティションb1、および、パーティションb2のそれぞれに割り付けられた動きベクトルの平均をパーティションX1に割り付ける予測ベクトル候補#191b3に設定するようにしてもよい。このような場合、第1選択部191b4は、予測ベクトル候補#191b1、予測ベクトル候補#191b2、予測ベクトル候補#191b3のうち、何れか1つを選択し、空間方向予測ベクトル#191として出力するようにすればよい。
 (対象パーティションのサイズが8×16画素の場合)
 対象パーティションのサイズが8×16画素の場合の空間方向予測ベクトル算出部191bの各部の動作は、対象パーティションのサイズが16×8画素の場合とほぼ同様である。
 具体的には、第1算出部191b1は、対象パーティションが、16×16のサイズであるパーティションを左右に2等分したパーティションのうち左側のパーティションであって、当該対象パーティションの上辺および左辺に偶数個のパーティションが隣接しているときには、当該偶数個のパーティションの各々に割り付けられた動きベクトルと、当該対象パーティションの左辺または上辺に隣接するパーティションのうち、上記対象パーティションに接する辺の長さが最も長いパーティションに割り付けられた動きベクトルとのメジアンを当該対象パーティションに割り付ける予測ベクトル候補#191b1に設定し、当該対象パーティションの上辺および左辺に奇数個のパーティションが隣接しているときには、当該奇数個のパーティションの各々に割り付けられた動きベクトルのメジアンを当該対象パーティションに割り付ける予測ベクトル候補#191b1に設定し、対象パーティションが、16×16のサイズであるパーティションを左右に2等分したパーティションのうち右側のパーティションであるときには、当該対象パーティションの上辺に隣接するパーティションのうち最も右側のパーティションの右辺に隣接するパーティションに割り付けられた動きベクトルを当該対象パーティションに割り付ける予測ベクトル候補#191b1に設定する。
 例えば、図4の(e)に示すように、対象パーティションが16×16画素のマクロブロックを左右に2等分したパーティション(左側のパーティションをパーティションX3、右側のパーティションをパーティションX4と呼ぶ。以下同じ)である場合であって、パーティションX3の左辺にパーティションa1およびパーティションa2が隣接し、パーティションX3の上辺にパーティションb1が隣接している場合には、第1算出部191b1は、パーティションa1に割り付けられた動きベクトルと、パーティションa2に割り付けられた動きベクトルと、パーティションb1に割り付けられた動きベクトルとのメジアンを、パーティションX3に割り付ける予測ベクトル候補#191b1に設定する。
 また、第1算出部191b1は、パーティションX4の上辺に隣接しているパーティションb2の右辺に隣接しているパーティションcに割り付けられた動きベクトルをパーティションX4に割り付ける予測ベクトル候補#191b1に設定する。
 一方で、第2算出部191b2は、対象パーティションが、16×16のサイズであるパーティションを左右に2等分したパーティションのうち左側のパーティションであって、当該対象パーティションの左辺に複数のパーティションが隣接しているときに、当該複数のパーティションの各々に割り付けられた動きベクトルの平均を当該対象パーティションに割り付ける予測ベクトル候補#191b2に設定し、対象パーティションが、16×16のサイズであるパーティションを左右に2等分したパーティションのうち右側のパーティションであるときには、当該対象パーティションの上辺に隣接するパーティションのうち最も右側のパーティションの右辺に隣接するパーティションに割り付けられた動きベクトルを当該対象パーティションに割り付ける予測ベクトル候補#191b2に設定する。
 例えば、図4の(f)に示すように、パーティションX3の左辺にパーティションa1~a4が隣接している場合には、第2算出部191b2は、パーティションa1~a4のそれぞれに割り付けられた動きベクトルの平均を、パーティションX3に割り付ける予測ベクトル候補#191b2に設定する。また、第2算出部191b2は、パーティションX4に上辺に隣接するパーティションの右辺に隣接するパーティションcに割り付けられた動きベクトルを、パーティションX2に割り付ける予測ベクトル候補#191b2に設定する。
 また、対象パーティションのサイズが8×16画素の場合の第1選択部191b4の動作は、対象パーティションのサイズが16×8画素の場合における第1選択部191b4の動作と同様である。
 なお、対象パーティションのサイズが8×16画素、または、16×8画素の場合も、予測ベクトル候補#191b2、および、予測ベクトル候補#191b3を算出する際に用いた上記平均は、上記動きベクトルが割り付けられたパーティションが上記対象パーティションに隣接する辺の長さに応じた加重平均であってもよい。このように、加重平均を用いることにより、より正確な予測ベクトル候補の算出を行うことができる。
 また、図5の(a)~(d)に示すように、対象パーティションの左辺および上辺にそれぞれ1つずつのパーティションが隣接している場合の、空間方向予測ベクトル算出部191bの動作は以下の通りである。
 図5の(a)および(b)に示すように、対象パーティションと同じサイズ、または、対象パーティションより大きいサイズのパーティションが、対象パーティションの左辺または上辺に隣接している場合には、空間方向予測ベクトル算出部191bは、対象パーティションの左辺に隣接するパーティションaに割り付けられた動きベクトルと、対象パーティションの上辺に隣接するパーティションbに割り付けられた動きベクトルと、パーティションbの右辺に隣接するパーティションcに割り付けられた動きベクトルとのメジアンを当該対象パーティションに割り付ける予測ベクトル候補に設定し、当該予測ベクトル候補を当該対象パーティションに割り付ける空間方向予測ベクトル#191として出力する。
 なお、空間方向予測ベクトル算出部191bは、パーティションa、パーティションb、および、パーティションcの各々に割り付けられた動きベクトルの平均を当該対象パーティションに割り付ける空間方向予測ベクトル#191として出力するようにしてもよい。また、上記平均は対象パーティションに接する辺の長さに応じた加重平均であってもよい。
また、空間方向予測ベクトル算出部191bは、上記のように平均を用いて算出された予測ベクトル候補と、加重平均を用いて算出された予測ベクトル候補とを比較し、パーティションa~cの各々に割り付けられた動きベクトルのばらつきに応じてどちらか一方を選択するようにしてもよい。
 一方で、図5の(c)に示すように、対象パーティションが16×16画素のマクロブロックを上下に2等分したパーティションである場合であって、当該マクロブロックの左辺および上辺にそれぞれ1つずつのパーティションが隣接している場合には、空間方向予測ベクトル算出部191bは、対象マクロブロックの上辺に隣接するパーティションbに割り付けられた動きベクトルをパーティションX1に割り付ける予測ベクトル候補とし、当該予測ベクトル候補をパーティションX1に割り付ける空間方向予測ベクトル#191として出力する。また、空間方向予測ベクトル算出部191bは、当該マクロブロックの左辺に隣接するパーティションaに割り付けられた動きベクトルをパーティションX2に割り付ける予測ベクトル候補とし、当該予測ベクトル候補をパーティションX2に割り付ける空間方向予測ベクトル#191として出力する。
 また、図5の(d)に示すように、対象パーティションが16×16画素のマクロブロックを左右に2等分したパーティションである場合であって、当該マクロブロックに左辺および上辺にそれぞれ1つずつのパーティションが隣接している場合には、空間方向予測ベクトル算出部191bは、当該マクロブロックの左辺に隣接するパーティションaに割り付けられた動きベクトルをパーティションX3に割り付ける予測ベクトル候補とし、当該予測ベクトル候補をパーティションX3に割り付ける空間方向予測ベクトル#191として出力する。
 また、空間方向予測ベクトル算出部191bは、パーティションX4の上辺に隣接するパーティションbの右辺に隣接するパーティションcに割り付けられた動きベクトルをパーティションX4に割り付ける予測ベクトル候補とし、当該予測ベクトル候補をパーティションX4に割り付ける空間方向予測ベクトル#191として出力する。
 (時間方向予測ベクトル生成部192)
 続いて、時間方向予測ベクトル生成部192について、図6および図7を参照して説明する。図6は、時間方向予測ベクトル生成部192の構成を示すブロック図である。図6に示すように、時間方向予測ベクトル生成部192は、時間方向動きベクトル抽出部192aと時間方向予測ベクトル算出部192bとを備えている。
 また、図6に示すように、時間方向予測ベクトル算出部192bは、第4算出部192b1、第5算出部192b2、および、第2選択部192b3を備えている。
 時間方向予測ベクトル生成部192は、動きベクトル群#14cを受け、時間方向予測ベクトル#192を出力する。
 時間方向動きベクトル抽出部192aは、動きベクトル群#14cから、対象パーティションを含むフレームよりも前に符号化されたフレームにおいて、当該対象パーティションと同じ位置を占めるパーティションであるコロケートパーティションに割り付けられた動きベクトル、および、当該コロケートパーティションに隣接するパーティションの各々に割り付けられた動きベクトルを抽出する。抽出された複数の動きベクトルから構成される動きベクトル群#192aは、時間方向予測ベクトル算出部192bに入力される。
 ここで、対象パーティションを含むフレームよりも前に符号化されたフレームとは、具体的には、対象パーティションを含むフレームが符号化される以前に符号化・復号され、バッファメモリ14に格納されたフレームを指す。
 時間方向予測ベクトル算出部192bは、動きベクトル群#192aに基づいて、対象パーティションに割り付ける予測ベクトル候補を算出する。例えば、時間方向予測ベクトル算出部192bは、対象パーティションを含むフレームより前に符号化されたフレームにおいて、当該対象パーティションと同じ位置を占めるコロケートパーティション、および、当該コロケートパーティションの周辺に隣接するパーティションの各々に割り付けられた動きベクトルの平均算出処理、メジアン算出処理、または、それらの組み合わせにより、複数の予測ベクトル候補を算出する。また、時間方向予測ベクトル算出部192bは、当該複数の予測ベクトル候補から、1つの予測ベクトル候補を選択し、時間方向予測ベクトル#192として出力する。
 (時間方向予測ベクトル算出部192bの動作)
 以下では、時間方向予測ベクトル算出部192bの各部の具体的な動作について、図7の(a)~(b)を参照して説明する。
 図7は、時間方向予測ベクトル算出部192bの各部の動作を説明するための図である。図7の(a)は、対象パーティションと、コロケートパーティションとの位置関係を模式的に示しており、図7の(b)は、コロケートパーティションの周辺に隣接する複数のパーティションを示している。
 第4算出部192b1は、対象パーティションを含むフレームより前に符号化されたフレームにおいて、当該対象パーティションと同じ位置を占めるコロケートパーティションに割り付けられた動きベクトルと当該コロケートパーティションの周辺に隣接するパーティションの各々に割り付けられた動きベクトルとの平均を、上記対象パーティションに割り付ける予測ベクトル候補に設定する。
 具体的には、第4算出部192b1は、図7の(a)に示すように、対象パーティションAを含むフレームF1よりも前に符号化されたフレームF2において、対象パーティションAと同じ位置を占めるパーティションであるコロケートパーティションBに割り付けられた動きベクトルと、図7の(b)に示すように、コロケートパーティションBに隣接するパーティションa1~a3、パーティションb1~b4、パーティションc1~c4、および、パーティションd1~d3の各々に割り付けられた動きベクトルとの平均を対象パーティションAに割り付ける予測ベクトル候補#192b1に設定する。
 一方で、第5算出部192b2は、上記コロケートパーティションおよび上記コロケートパーティションに隣接する隣接パーティションの和が偶数である場合には、当該隣接パーティションのうち、上記対象パーティションに隣接する辺の長さが最も長い隣接パーティションに割り付けられた動きベクトルと、上記コロケートパーティションおよび上記隣接パーティションの各々に割り付けられた動きベクトルとのメジアンを当該対象パーティションに割り付ける予測ベクトル候補に設定する。また、第5算出部192b2は、上記コロケートパーティションおよび上記隣接パーティションの和が奇数個である場合には、上記コロケートパーティションに割り付けられた動きベクトルと、上記隣接パーティションの各々に割り付けられた動きベクトルとのメジアンを上記対象パーティションに割り付ける予測ベクトル候補に設定する。
 具体的には、図7の(b)に示すような場合には、第5算出部192b2は、コロケートパーティションB、パーティションa1~a3、パーティションb1~b4、パーティションc1~c4、および、パーティションd1~d3の各々に割り付けられた動きベクトルのメジアンを対象パーティションAに割り付ける予測ベクトル候補#192b2に設定する。
 なお、第5算出部192b2は、上記コロケートパーティションおよび上記コロケートパーティションに隣接する隣接パーティションの和が偶数である場合には、当該隣接パーティションのうち、上記対象パーティションに隣接する辺の長さが最も長い隣接パーティションに割り付けられた動きベクトルの代わりに、上記コロケートパーティションに割り付けられた動きベクトルを用いてメジアンを算出してもよい。
 第2選択部192b3は、予測ベクトル候補#192b1、予測ベクトル候補#192b2のうち、何れか1つを選択し、空間方向予測ベクトル#191として出力する。
 具体的には、第2選択部192b3は、上記コロケートパーティションに割り付けられた動きベクトル、および、上記コロケートパーティションに隣接する隣接パーティションの各々に割り付けられた動きベクトルのばらつきが予め定められた第4の閾値以下である場合には、予測ベクトル候補#192b1を時間方向予測ベクトル#192として出力し、上記ばらつきが上記第4の閾値より大きい場合には、予測ベクトル候補#192b2を時間方向予測ベクトル#192として出力する。
 なお、上記の説明において、コロケートパーティションBは、対象パーティションAと同じ位置を占めるパーティションであるとしたが、一般には、フレームF2における対象パーティションAと同じ位置が複数のパーティションによって共有されている場合もあり得る。そのような場合には、コロケートパーティションBは当該複数のパーティションによって構成されるパーティション群となる。そのような場合であっても、上述した処理を適用することができる。
 また、上記隣接パーティションには、上記コロケートパーティションと頂点を共有するパーティションが含まれていてもよい。すなわち、第4算出部192b1は、図7の(b)に示すように、コロケートパーティションB、パーティションa1~a3、パーティションb1~b4、パーティションc1~c4、パーティションd1~d3、および、コロケートパーティションBと頂点を共有するパーティションe1~e4の各々に割り付けられた動きベクトルの平均を対象パーティションAに割り付ける予測ベクトル候補#192b1に設定するようにしてもよい。第5算出部192b2についても同様である。
 また、第2選択部191b3は、予測ベクトル候補#192b1、または、予測ベクトル候補#192b2のうち符号化効率のよい予測ベクトル候補を時間方向予測ベクトル#192として出力するようにしてもよい。
 なお、予測ベクトル候補#192b2、および、予測ベクトル候補#192b3を算出する際に用いた上記平均は上記動きベクトルが割り付けられたパーティションが上記対象パーティションに隣接する辺の長さに応じた加重平均であってもよい。このように、加重平均を用いることにより、より正確な予測ベクトル候補、すなわち、対象パーティションに割り付けられる動きベクトルにより類似した予測ベクトル候補の算出を行うことができる。
 (時空間方向予測ベクトル生成部193)
 続いて、時空間方向予測ベクトル生成部193について図5の(a)および図8を参照して説明する。
 時空間方向予測ベクトル生成部193は、動きベクトル群#14cを受け、時空間方向予測ベクトル#193を出力する。
 時空間方向予測ベクトル生成部193の構成は、時間方向予測ベクトル生成部192の構成とほぼ同様であるが、以下の点で異なる。
 すなわち、時空間方向予測ベクトル生成部193は、時間方向予測ベクトル生成部192において用いたコロケートパーティションBの代わりに、シフトコロケートパーティションCを用いて、予測ベクトル#193を算出する。シフトコロケートパーティションCは、図8に示すように、対象パーティションAを含むフレームF1より前に符号化されたフレームF2において、コロケートパーティションBの占める位置を起点に、対象パーティションAの周辺に隣接するパーティションに割り付けられた動きベクトルから求めた当該対象パーティションの予測ベクトル候補MVdに相当する移動量だけ移動させた位置を占めるパーティションである。
 予測ベクトル候補MVdとしては、例えば、図5の(a)のように、対象パーティションAの左辺および上辺にそれぞれ1つずつのパーティションが隣接している場合には、対象パーティションAの左辺に隣接するパーティションaに割り付けられた動きベクトルと、対象パーティションAの上辺に隣接するパーティションbに割り付けられた動きベクトルと、対象パーティションAの上辺に隣接するパーティションbの右辺に隣接するパーティションcに割り付けられた動きベクトルとのメジアンを用いればよい。また、対象パーティションの左辺または上辺に複数のパーティションが隣接している場合には、予測ベクトル候補MVdとしては、例えば、上述した予測ベクトル候補#191b1~#191b3のうち何れか1つの予測ベクトル候補を用いればよい。
 なお、対象パーティションに隣接するパーティションがイントラ予測されたパーティションを含む場合には、空間方向予測ベクトル生成部191は、当該イントラ予測されたパーティション以外の隣接パーティションのみ用いて、予測ベクトル候補#191b1~#191b3の生成を行うことが好ましい。同様に、コロケートパーティションに隣接するパーティションがイントラ予測されたパーティションを含む場合には、時間方向予測ベクトル生成部192は、当該イントラ予測されたパーティション以外の隣接パーティションのみ用いて、予測ベクトル候補#192b1~#192b2の生成を行うことが好ましい。同様に、シフトコロケートパーティションに隣接するパーティションがイントラ予測されたパーティションを含む場合には、時空間方向予測ベクトル生成部193は、当該イントラ予測されたパーティション以外の隣接パーティションのみ用いて、予測ベクトル候補#193b1~#193b2の生成を行うことが好ましい。
 (予測ベクトル選択部194)
 続いて、予測ベクトル選択部194について説明する。
 予測ベクトル選択部194は、空間方向予測ベクトル#191、時間方向予測ベクトル#192、または、時空間方向予測ベクトル#193のうち、いずれか1つを選択し、予測ベクトル#194として出力する。
 予測ベクトル選択部194には、空間方向予測ベクトル#191、時間方向予測ベクトル#192、および、時空間方向予測ベクトル#193が入力される。また、予測ベクトル選択部194には、空間方向予測ベクトル生成部191において算出された予測ベクトル候補#191b1~#191b3、時間方向予測ベクトル生成部192において算出された予測ベクトル候補#192b1~#192b2、および、時空間方向予測ベクトル生成部193において算出された、上記予測ベクトル候補#192b1~#192b2にそれぞれ対応する予測ベクトル候補#193b1~#193b2が入力される。
 予測ベクトル選択部194は、予測ベクトル候補#191b1~#191b2のばらつきと、予測ベクトル候補#192b1~#192b2のばらつきとを比較し、空間方向予測ベクトル#191、または、時間方向予測ベクトル#192のうち、ばらつきのより小さい予測ベクトル候補から選択された予測ベクトルを予測ベクトル#194として出力する。
 例えば、予測ベクトル候補#191b1~#191b2のばらつきが、予測ベクトル候補#192b1~#192b2のばらつきに比べて小さい場合には、予測ベクトル選択部194は、空間方向予測ベクトル#191を予測ベクトル#194として出力する。
 一般に、ばらつきのより小さい予測ベクトル候補から選択された予測ベクトルは、対象パーティションに実際に割り付けられる動きベクトルにより類似している。したがって、上記のように、ばらつきの小さい予測ベクトル候補から選択された予測ベクトルを予測ベクトル#194とすることにより、より正確な予測ベクトルを出力することができる。また、このように予測ベクトル#194を選択することによって、どの予測ベクトルを選択したかを示すフラグを伝送することなく、後述する動画像復号装置2において符号化データ#2の復号を行うことができる。したがって、上記のように予測ベクトルを出力することによって、符号化効率を高めることができる。
 また、予測ベクトル選択部194は、予測ベクトル候補#191b1~#191b2に加えて、さらに予測ベクトル候補#191b3を用いてもよい。
 また、予測ベクトル選択部194は、空間方向予測ベクトル#191と時間方向予測ベクトル#192とのうち符号化効率のより高いほうの予測ベクトルを、予測ベクトル#194として出力してもよい。このような場合には、予測ベクトル選択部194は、どの予測ベクトルを出力したかを示すフラグ#19bを出力する。
 また、予測ベクトル選択部194は、空間方向予測ベクトル#191、または、時間方向予測ベクトル#192のうち、予め定められた予測ベクトルを予測ベクトル#194として出力してもよい。
 また、予測ベクトル選択部194は、予測ベクトル候補#191b1~#191b2、および、予測ベクトル候補#192b1~#192b2から構成される予測ベクトル候補群の全体のばらつきが予め定められた第5の閾値以下であれば、上記のようにばらつきのより小さい予測ベクトル候補から選択された予測ベクトルを予測ベクトル#194として出力し、上記予測ベクトル候補群の全体のばらつきが上記第5の閾値より大きい場合には、符号化効率のより高い予測ベクトルを予測ベクトル#194とし、予測ベクトル#194を示すフラグと共に出力するようにしてもよい。
 また、予測ベクトル選択部194は、上記予測ベクトル候補群の全体のばらつきが上記第5の閾値より大きい場合には、0ベクトルを予測ベクトル候補#194として出力するようにしてもよい。一般に、上記予測ベクトル候補群の全体のばらつきが大きい場合には、算出された予測ベクトルを用いることによって、動きベクトル自体を符号化する場合に比べて符号化効率が低下する場合がある。上記のように、上記予測ベクトル候補群の全体のばらつきが上記第5の閾値より大きい場合には、0ベクトルを予測ベクトル候補#194として出力することにより、対象パーティションに実際に割り付けられる動きベクトル自体を符号化することができるので、符号化効率が低下することを抑止することができる。
 また、予測ベクトル選択部194は、予測ベクトル候補#191b1~#191b2のばらつきが予め定められた第6の閾値以下である場合には、空間方向予測ベクトル#191を予測ベクトル#194として出力し、予測ベクトル候補#191b1~#191b2のばらつきが上記第6の閾値より大きい場合であって、予測ベクトル候補#192b1~#192b2のばらつきが予め定められた第7の閾値以下である場合には、時間方向予測ベクトル#192を予測ベクトル#194として出力するようにしてもよい。
 一般に、一様な動きの領域では、パーティションごとに変動の少ない予測ベクトル#194を用いることによって、符号化効率を高めることができる。一方で、空間方向予測ベクトル#191と時間方向予測ベクトル#192とがパーティションごとに交互に選択されるような場合には、予測ベクトル#194はパーティションごとに変化する。上記のように予測ベクトルを選択することによって、空間方向予測ベクトル#191が予測ベクトル#194に選択される傾向が強まるため、符号化効率を高めることができる。なお、言うまでも無く、空間方向予測ベクトル#191ではなく、時間方向予測ベクトル#192が予測ベクトルに選択される傾向が強まるような構成としてもよい。
 また、予測ベクトル選択部194は、上記の説明における予測ベクトル候補#192b1~#192b2の代わりに、予測ベクトル候補#193b1~#193b2を用いることによって、空間方向予測ベクトル#191、または、時空間方向予測ベクトル#193のうち、いずれか一方を予測ベクトル#194として出力するようにしてもよい。
 予測ベクトル候補#192b1~#192b2、または、予測ベクトル候補#193b1~#193b2のうち、どちらの予測ベクトル候補を用いるかは、予め定められていてもよいし、所定の単位、すなわち、シーケンスごと、フレームごと、または、スライスごと等にどちらかを選択するようにしてもよい。
 一般に、時間方向予測ベクトル#192は、動きベクトルの小さい領域、すなわち、動きの小さい領域に対して、より適切な予測ベクトルであり、時空間方向予測ベクトル#193は、動きベクトルの大きい領域、すなわち、動きの大きい領域に対して、より適切な予測ベクトルである。
 また、予測ベクトル選択部194は、空間方向予測ベクトル#191、時間方向予測ベクトル#192、および、時空間方向予測ベクトル#193から構成される予測ベクトル群のばらつきが予め定められた第8の閾値以下である場合には、空間方向予測ベクトル#191、時間方向予測ベクトル#192、および、時空間方向予測ベクトル#193の平均を予測ベクトル#194として出力するようにしてもよいし、空間方向予測ベクトル#191を出力するようにしてもよい。
 また、予測ベクトル選択部194は、上記予測ベクトル群のばらつきが、上記第8の閾値より大きい場合であって、上記第8の閾値より大きい第9の閾値以下である場合には、上記予測ベクトル群のメジアンを出力し、上記予測ベクトル群のばらつきが、上記第9の閾値よりも大きい場合には、0ベクトルを予測ベクトル#194として出力するようにしてもよい。なお、予測ベクトル選択部194は、0ベクトルを予測ベクトル#194として出力する代わりに、予測ベクトルが0ベクトルであることを示すフラグを出力するようにしてもよい。
 また、予測ベクトル選択部194は、対象パーティションに隣接する全てのパーティションがイントラ予測されたパーティションである場合には、時間方向予測ベクトル#192を選択し、コロケートパーティションに隣接する全てのパーティションがイントラ予測されたパーティションである場合には、空間方向予測ベクトル#191を選択することが好ましい。
 減算器195は、上記のような処理によって、予測ベクトル選択部194から出力された予測ベクトル#194と、対象パーティションに割り付けられた動きベクトル#17との差分をとることによって、差分動きベクトル#19aを生成し、出力する。
 なお、本発明は、対象パーティションの具体的なサイズに依らずに適用することができる。例えば、本発明は、対象パーティションのサイズが、16画素×16画素、16画素×8画素、8画素×16画素、8画素×8画素、8画素×4画素、4画素×8画素、4画素×4画素の場合にも適用することができるし、対象パーティションのサイズが、一般に、N画素×M画素(N、Mは自然数)の場合にも適用することができる。
 また、本発明は、マクロブロックのサイズが、例えば、32×32画素、64×64画素のように、16×16画素より大きい場合には、上記パーティションのサイズが、16×16画素より大きいサイズであっても適用することができる。すなわち、例えば、マクロブロックのサイズが、64×64画素である場合には、本発明は、上記パーティションのサイズが、64×64画素、64×32画素、32×64画素、32×32画素、32×16画素、16×32画素、16画素×16画素、16画素×8画素、8画素×16画素、8画素×8画素、8画素×4画素、4画素×8画素、4画素×4画素の場合に適用することができる。
 (動画像復号装置2)
 以下では、本実施形態に係る動画像復号装置2について、図9を参照して説明する。図9は、動画像復号装置2の構成を示すブロック図である。
 図9に示すように、動画像復号装置2は、可変長符号復号部23、動きベクトル復元部24、バッファメモリ25、予測画像生成部26、イントラ予測画像生成部27、予測方式決定部28、逆量子化・逆変換部29、および、加算器30を備えている。
 動画像復号装置2は、符号化データ#2を受け、出力画像#3を逐次的に出力する。
 可変長符号復号部23は、符号化データ#2を可変長復号し、差分動きベクトル#23a、予測モード#23b、および、量子化予測残差データ#23cを出力する。
 また、可変長符号復号部23は、符号化データ#2にフラグ#19bが含まれている場合には、動きベクトル復元部24に対して、フラグ#19bを出力する。
 動きベクトル復元部24は、対象パーティションに隣接する複数のパーティションの各々に割り付けられた動きベクトルのばらつき、対象パーティションが属するフレームの前のフレームにおいて当該対象パーティションと同じ位置を占めるコロケートパーティションに隣接する複数のパーティションの各々に割り付けられた動きベクトルのばらつき、当該コロケートパーティションを起点に上記対象パーティションの周辺に隣接するパーティションに割り付けられた動きベクトルから算出された予測ベクトル候補に相当する距離を移動させた位置を占めるシフトコロケートパーティションに隣接する複数のパーティションの各々に割り付けられた動きベクトルのばらつき、または、上記動きベクトルから算出された予測ベクトル候補であって、対象パーティションに割り付ける予測ベクトル候補のばらつき、に基づいて、差分動きベクトル#23aを復号する。
 また、動きベクトル復元部24は、差分動きベクトル#23a、および、すでに復号され、バッファメモリ25に格納された動きベクトル#25aから対象パーティションの動きベクトル#24を復号する。動きベクトル復元部24の構成については、以下に詳述するため、ここでは説明を省略する。
 バッファメモリ25には、後述する復号画像#3、動きベクトル#24、および、予測モード#23bが格納される。
 予測画像生成部26は、動きベクトル復元部24によって復号され、バッファメモリ25を経由した動きベクトル#25c、および、バッファメモリ25に格納された復号画像#3からインター予測画像#26を生成する。なお、動きベクトル#25cは、動きベクトル#24と同一の動きベクトルを含む。
 イントラ予測画像生成部27は、バッファメモリ25に格納された、対象マクロブロックと同じ画像内の局所復号画像#25bから、イントラ予測画像#27を生成する。
 予測方式決定部28は、予測モード#23bに基づいて、イントラ予測画像#27、または、インター予測画像#26のうち、何れか一方を選択し、予測画像#28として出力する。
 逆量子化・逆変換部29は、量子化予測残差データ#23cに対し、逆量子化、および、逆DCT変換を行い、予測残差#29を出力する。
 加算器30は、予測残差#29、および、予測画像#28を加算し、復号画像#3として出力する。また、出力された復号画像#3は、バッファメモリ25に格納される。
 (動きベクトル復元部24)
 以下では、動きベクトル復元部24の構成について、図10~図11を参照して説明する。図10に示すように、動きベクトル復元部24は、予測ベクトル生成部196、および、加算器241を備えている。なお、上記予測ベクトル生成部196は、動画像符号化装置1を構成する動きベクトル冗長性削減部19における予測ベクトル生成部196と同様の構成である。すなわち、上記予測ベクトル生成部196は、空間方向予測ベクトル生成部191、時間方向予測ベクトル生成部192、時空間方向予測ベクトル生成部193、および、予測ベクトル選択部194を備えている。
 上記予測ベクトル生成部196には、動きベクトル冗長性削減部19における予測ベクトル生成部196に入力される動きベクトル群#14cに代えて、バッファメモリ25に格納された動きベクトル#25aが入力される。
 空間方向予測ベクトル生成部191、時間方向予測ベクトル生成部192、時空間方向予測ベクトル生成部193、および、予測ベクトル選択部194の構成および動作については、すでに詳述したため、ここでは説明を省略する。
 加算器241は、予測ベクトル選択部194から出力される予測ベクトル#194と、差分動きベクトル#23aとを加算することによって動きベクトル#24を生成し、出力する。
 なお、符号化データ#2にフラグ#19bが含まれ得るような場合には、図11に示すように、動きベクトル復元部24は、予測ベクトル生成部196に代えて、予測ベクトル生成部196’を備え、予測ベクトル生成部196’は、予測ベクトル選択部194に代えて、予測ベクトル選択部194’を備えるようにすればよい。ここで、予測ベクトル選択部194’は、フラグ#19bに応じて、予測ベクトル#194を決定することができる。
 このような構成をとることによって、動きベクトル復元部24は、符号化データ#2にフラグ#19bが含まれる場合であっても、フラグ#19bに応じて、予測ベクトル#194を決定することができる。
 (符号化データ#2の構成)
 以下では、動画像符号化装置1を用いて生成した符号化データ#2の構成について、図12を参照して説明する。
 図12は、動画像符号化装置1を用いて生成した符号化データ#2のマクロブロックごとのビットストリーム#MBを示す図である。図12に示すように、ビットストリーム#MBは、ブロックモード情報Modと、インデクス情報Idxiと、フラグ#19bと、動きベクトル情報MVi(i=1~N)とを含んでいる。ここで、Nは、マクロブロックに含まれるパーティションの数を表している。
 ブロックモード情報Modには、マクロブロックの予測モード#18b、パーティション分割情報、などが含まれている。
 インデクス情報Idxiには、動き補償を行う際に必要になる、各パーティションが参照する参照ピクチャ番号が含まれている。なお、フラグ#19bは各パーティションの予測ベクトルを選択するために必要な場合にのみ、ビットストリーム中に含まれる。
 動きベクトル情報MViには、各パーティションの差分動きベクトル#19aが含まれている。
 (付記事項1)
 本発明に係る動画像符号化装置は、上記選択手段が、上記第1の動きベクトルと上記第2の動きベクトル群とのうちばらつきが小さい方の動きベクトル群を参照して算出された予測ベクトル群に属する予測ベクトルを上記対象パーティションに割り付ける、ことが好ましい。
 上記の構成によれば、上記第1の動きベクトルと上記第2の動きベクトル群とのうちばらつきが小さい方の動きベクトル群を参照して算出された予測ベクトル群に属する予測ベクトルを上記対象パーティションに割り付けることができるので、符号化効率の高い予測ベクトルを割り付けることができるという更なる効果を奏する。
 また、上記選択手段は、上記第1の動きベクトル群のばらつき、および、上記第2の動きベクトル群のばらつきが予め定められた閾値よりも小さい場合に、上記第1の動きベクトル群と上記第2の動きベクトル群とのうちばらつきが小さい方の動きベクトル群を参照して算出された予測ベクトル群に属する予測ベクトルを上記対象パーティションに割り付け、そうでない場合に、上記第1の予測ベクトル群に属する予測ベクトルと上記第2の予測ベクトル群に属する予測ベクトルとのうち、何れか一方の予測ベクトルを上記対象パーティションに割り付けると共に、上記対象パーティションに割り付けた予測ベクトルを示すフラグを符号化する、ことが好ましい。
 上記の構成によれば、上記第1の動きベクトル群のばらつき、および、上記第2の動きベクトル群のばらつきが予め定められた閾値よりも小さい場合に、上記第1の動きベクトルと上記第2の動きベクトル群とのうちばらつきが小さい方の動きベクトル群を参照して算出された予測ベクトル群に属する予測ベクトルを上記対象パーティションに割り付け、そうでない場合に、上記第1の予測ベクトル群に属する予測ベクトルと上記第2の予測ベクトル群に属する予測ベクトルとのうち何れか一方の予測ベクトルを、フラグを指定することにより上記対象パーティションに割り付けることができるという更なる効果を奏する。従って、動きベクトル群のばらつきが小さい(予測が当たりやすい)場合にはフラグを用いず、動きベクトル群のばらつきが大きい(予測が当たりにくい)場合にのみフラグを用いることで、全てをフラグで指定する場合に較べて、予測の正確さを維持しつつフラグの量を削減することができる。
 また、上記選択手段は、上記第1の動きベクトル群のばらつき、および、上記第2の動きベクトル群のばらつきが予め定められた閾値よりも小さい場合に、上記第1の動きベクトルと上記第2の動きベクトル群とのうちばらつきが小さい方の動きベクトル群を参照して算出された予測ベクトル群に属する予測ベクトルを上記対象パーティションに割り付け、そうでない場合に、零ベクトルを上記対象パーティションに割り付けることが好ましい。
 一般に、上記動きベクトル群のばらつきが大きくなると、算出された予測ベクトルと実際に割り付けられる動きベクトルとの差異も大きくなる。また、実際に割り付けられる動きベクトルとは大きく異なる予測ベクトルを用いると、予測ベクトルを全く用いない場合よりも符号化効率が低下してしまう。
 上記の構成によれば、上記動きベクトルのばらつきが、上記閾値以上である場合には、零ベクトルを割り付けるので、符号化効率の低下を抑止することができるという更なる効果を奏する。
 また、本発明に係る動画像符号化装置は、上記第2の算出手段に代えて、符号化済フレームにおいて、上記対象パーティションと同じ位置を占めるコロケートパーティションを起点として、上記対象パーティション周辺の符号化済パーティションに割り付けられた動きベクトルから推定された、上記対象パーティションに割り付けられる動きベクトルの推定値分だけ移動した位置を占めるシフトコロケートパーティション周辺のパーティションに割り付けられた動きベクトルからなる第2の動きベクトル群を参照して、上記対象パーティションに割り付ける予測ベクトルの候補となる第2の予測ベクトル群を算出する第2の算出手段を備えていることが好ましい。
 上記の構成によれば、符号化済フレームにおいて、上記対象パーティションと同じ位置を占めるコロケートパーティションを起点として、上記対象パーティション周辺の符号化済パーティションに割り付けられた動きベクトルから推定された、上記対象パーティションに割り付けられる動きベクトルの推定値分だけ移動した位置を占めるシフトコロケートパーティション周辺のパーティションに割り付けられた動きベクトルからなる第2の動きベクトル群を参照して、上記対象パーティションに割り付ける予測ベクトルの候補となる第2の予測ベクトル群を算出する第2の算出手段を備えているため、動きがある場合でも正確な予測ベクトルを割り付けることができるという更なる効果を奏する。
 本発明に係る上記動画像復号装置における、上記選択手段は、上記第1の動きベクトルと上記第2の動きベクトル群とのうちばらつきが小さい方の動きベクトル群を参照して算出された予測ベクトル群に属する予測ベクトルを上記対象パーティションに割り付ける、ことが好ましい。
 上記の構成によれば、上記第1の動きベクトルと上記第2の動きベクトル群とのうちばらつきが小さい方の動きベクトル群を参照して算出された予測ベクトル群に属する予測ベクトルを上記対象パーティションに割り付けることができるので、フラグを参照することなく、予測ベクトルを割り付けることができるという更なる効果を奏する。
 また、本発明に係る上記動画像復号装置における、上記選択手段は、上記第1の動きベクトル群のばらつき、および、上記第2の動きベクトル群のばらつきが予め定められた閾値よりも小さい場合に、上記第1の動きベクトルと上記第2の動きベクトル群とのうちばらつきが小さい方の動きベクトル群を参照して算出された予測ベクトル群に属する予測ベクトルを上記対象パーティションに割り付け、そうでない場合に、上記符号化データに含まれるフラグを参照して、上記第1の予測ベクトル群に属する予測ベクトルと上記第2の予測ベクトル群に属する予測ベクトルとのうち、何れか一方の予測ベクトル群に属する予測ベクトルを上記対象パーティションに割り付ける、ことが好ましい。
 上記の構成によれば、上記第1の動きベクトル群のばらつき、および、上記第2の動きベクトル群のばらつきが予め定められた閾値よりも小さい場合に、上記第1の動きベクトルと上記第2の動きベクトル群とのうちばらつきが小さい方の動きベクトル群を参照して算出された予測ベクトル群に属する予測ベクトルを上記対象パーティションに割り付けるため、フラグを参照することなく、予測ベクトルを割り付けることができるという更なる効果を奏する。また、そうでない場合には、上記符号化データに含まれるフラグを参照して、上記第1の予測ベクトル群に属する予測ベクトルと上記第2の予測ベクトル群に属する予測ベクトルとのうち、何れか一方の予測ベクトル群に属する予測ベクトルを上記対象パーティションに割り付けることができるという更なる効果を奏する。従って、動きベクトル群のばらつきが小さい(予測が当たりやすい)場合にはフラグを用いず、動きベクトル群のばらつきが大きい(予測が当たりにくい)場合にのみフラグを用いることで、全てをフラグで指定する場合に較べて、少ないフラグの量で正確な予測画像を作成することができる。
 また、本発明に係る上記動画像復号装置における、上記選択手段は、上記第1の動きベクトル群のばらつき、および、上記第2の動きベクトル群のばらつきが予め定められた閾値よりも小さい場合に、上記第1の動きベクトルと上記第2の動きベクトル群とのうちばらつきが小さい方の動きベクトル群を参照して算出された予測ベクトル群に属する予測ベクトルを上記対象パーティションに割り付け、そうでない場合に、零ベクトルを上記対象パーティションに割り付ける、ことが好ましい。
 上記の構成によれば、上記動きベクトルのばらつきが、上記閾値以上である場合には、零ベクトルを割り付けるので、復号側でフラグを参照することなく、予測ベクトルあるいは零ベクトルをパーティションに割り付けることができるという更なる効果を奏する。
 また、本発明に係る上記動画像復号装置は、上記第2の算出手段に代えて、復号済フレームにおいて、上記対象パーティションと同じ位置を占めるコロケートパーティションを起点として、上記対象パーティション周辺の復号済パーティションに割り付けられた動きベクトルから推定された、上記対象パーティションに割り付けられる動きベクトルの推定値分だけ移動した位置を占めるシフトコロケートパーティション周辺のパーティションに割り付けられた動きベクトルからなる第2の動きベクトル群を参照して、上記対象パーティションに割り付ける予測ベクトルの候補となる第2の予測ベクトル群を算出する第2の算出手段を備えている、ことが好ましい。
 上記の構成によれば、復号済フレームにおいて、上記対象パーティションと同じ位置を占めるコロケートパーティションを起点として、上記対象パーティション周辺の復号済パーティションに割り付けられた動きベクトルから推定された、上記対象パーティションに割り付けられる動きベクトルの推定値分だけ移動した位置を占めるシフトコロケートパーティション周辺のパーティションに割り付けられた動きベクトルからなる第2の動きベクトル群を参照して、上記対象パーティションに割り付ける予測ベクトルの候補となる第2の予測ベクトル群を算出するため、動きがある場合でも正確な予測ベクトルを割り付けることができるという更なる効果を奏する。
 (付記事項2)
 また、例えば、本発明は、以下のように表現することもできる。
 1.
 動画像を構成するフレームを分割して得られた複数のパーティションの各々に割り付けられた動きベクトルと予測ベクトルとの差分ベクトルを上記動画像と共に符号化する動画像符号化装置において、
 対象フレームにおいて対象パーティション周辺の符号化済パーティションに割り付けられた動きベクトルからなる第1の動きベクトル群を参照して、上記対象パーティションに割り付ける予測ベクトルの候補となる第1の予測ベクトル群を算出する第1の算出手段と、
 符号化済フレームにおいて上記対象パーティションと同じ位置を占めるコロケートパーティション周辺のパーティションに割り付けられた動きベクトルからなる第2の動きベクトル群を参照して、上記対象パーティションに割り付ける予測ベクトルの候補となる第2の予測ベクトル群を算出する第2の算出手段と、
 上記対象パーティションに割り付ける予測ベクトルを選択する選択手段であって、上記第1の予測ベクトル群に属する予測ベクトルと上記第2の予測ベクトル群に属する予測ベクトルとのうち何れの予測ベクトルを上記対象パーティションに割り付けるかを、上記第1の動きベクトル群のばらつき、および、上記第2の動きベクトル群のばらつきに応じて決定する選択手段と、を備えている、
ことを特徴とする動画像符号化装置。
 2.
 上記選択手段は、上記第1の動きベクトルと上記第2の動きベクトル群とのうちばらつきが小さい方の動きベクトル群を参照して算出された予測ベクトル群に属する予測ベクトルを上記対象パーティションに割り付ける、
ことを特徴とする1.に記載の動画像符号化装置。
 3.
 上記選択手段は、
  上記第1の動きベクトル群のばらつき、および、上記第2の動きベクトル群のばらつきが予め定められた閾値よりも小さい場合に、上記第1の動きベクトルと上記第2の動きベクトル群とのうちばらつきが小さい方の動きベクトル群を参照して算出された予測ベクトル群に属する予測ベクトルを上記対象パーティションに割り付け、
  そうでない場合に、上記第1の予測ベクトル群に属する予測ベクトルと上記第2の予測ベクトル群に属する予測ベクトルとのうちいづれか一方の予測ベクトルを上記対象パーティションに割り付けるとともに、上記対象パーティションに割り付けた予測ベクトルを示すフラグを符号化する、
ことを特徴とする1.に記載の動画像符号化装置。
 4.
 上記選択手段は、
  上記第1の動きベクトル群のばらつき、および、上記第2の動きベクトル群のばらつきが予め定められた閾値よりも小さい場合に、上記第1の動きベクトルと上記第2の動きベクトル群とのうちばらつきが小さい方の動きベクトル群を参照して算出された予測ベクトル群に属する予測ベクトルを上記対象パーティションに割り付け、
  そうでない場合に、零ベクトルを上記対象パーティションに割り付ける、
ことを特徴とする1.に記載の動画像符号化装置。
 5.
 上記選択手段は、
  上記第1の動きベクトル群のばらつきが予め定められた閾値よりも小さい場合に、上記第1の予測ベクトル群に属する予測ベクトルを上記対象パーティションに割り付け、
  そうでない場合に、上記第2の予測ベクトル群に属する予測ベクトルを上記対象パーティションに割り付ける、
ことを特徴とする1.に記載の動画像符号化装置。
 6.
 上記選択手段に代えて、上記対象パーティションに割り付ける予測ベクトルを選択する選択手段であって、上記第1の予測ベクトルから選択した予測ベクトルと上記第2の予測ベクトルから選択した予測ベクトルとのうちいづれか一方の予測ベクトルを上記対象パーティションに割り付けるとともに、上記対象パーティションに割り付けた予測ベクトルを示すフラグを出力する選択手段を備えている、
ことを特徴とする1.に記載の動画像符号化装置。
 7.
 上記第2の算出手段に代えて、符号化済フレームにおいて、上記対象パーティションと同じ位置を占めるコロケートパーティションを起点として、上記対象パーティション周辺の符号化済パーティションに割り付けられた動きベクトルから推定された、上記対象パーティションに割り付けられる動きベクトルの推定値分だけ移動した位置を占めるシフトコロケートパーティション周辺のパーティションに割り付けられた動きベクトルからなる第2の動きベクトル群を参照して、上記対象パーティションに割り付ける予測ベクトルの候補となる第2の予測ベクトル群を算出する第2の算出手段を備えている、
ことを特徴とする1.から6.までの何れかに記載の動画像符号化装置。
 8.
 上記符号化済フレームにおいて、上記コロケートパーティションを起点として、上記対象パーティション周辺の符号化済パーティションに割り付けられた動きベクトルから推定された、上記対象パーティションに割り付けられる動きベクトルの推定値分だけ移動した位置を占めるシフトコロケートパーティション周辺のパーティションに割り付けられた動きベクトルからなる第3の動きベクトル群を参照して、上記対象パーティションに割り付ける予測ベクトルの候補となる第3の予測ベクトル群を算出する第3の算出手段を更に備えており、
 上記選択手段に代えて、上記対象パーティションに割り付ける予測ベクトルを選択する選択手段であって、上記第1の予測ベクトル群に属する予測ベクトルと上記第2の予測ベクトル群に属する予測ベクトルと上記第3の予測ベクトル群に属する予測ベクトルとのうち何れの予測ベクトルを上記対象パーティションに割り付けるかを、上記第1の動きベクトル群のばらつき、上記第2の動きベクトル群のばらつき、および、上記第3の動きベクトル群のばらつきに応じて決定する選択手段を備えている、
ことを特徴とする1.に記載の動画像符号化装置。
 9.
 上記第1の予測ベクトル群には、上記対象パーティションの左辺または上辺に隣接している隣接パーティションの数が奇数個である場合、上記隣接パーティションのうち上記対象パーティションに接する辺の長さが最も長いパーティションに割り付けられた動きベクトルと、上記隣接パーティションの各々に割り付けられた動きベクトルと、上記対象パーティションの上辺に隣接するパーティションのうち最も右側のパーティションの右辺に隣接する右上パーティションに割り付けられた動きベクトルとのメジアンが含まれ、上記隣接パーティションの数が偶数個である場合、上記第1の予測ベクトル群には、上記隣接パーティションの各々に割り付けられた動きベクトルと、上記右上パーティションに割り付けられた動きベクトルとのメジアンが含まれる、
ことを特徴とする1.から8.までの何れかに記載の動画像符号化装置。
 10.
 上記第1の予測ベクトル群には、上記対象パーティションの左辺または上辺に隣接している隣接パーティションの各々に割り付けられた動きベクトルの辺ごとの平均または加重平均と、上記対象パーティションの上辺に隣接するパーティションのうち最も右側のパーティションの右辺に隣接する右上パーティションに割り付けられた動きベクトルとのメジアンが含まれる、
ことを特徴とする1.から9.までの何れかに記載の動画像符号化装置。
 11.
 上記第1の予測ベクトル群には、上記対象パーティションの左辺または上辺に隣接している隣接パーティションの各々に割り付けられた動きベクトルの平均または加重平均が含まれる、
ことを特徴とする1.から10.までの何れかに記載の動画像符号化装置。
 12.
 上記第1の予測ベクトル群には、
  第1の予測ベクトルとして、上記対象パーティションの左辺または上辺に隣接している隣接パーティションの数が奇数個である場合、上記隣接パーティションのうち上記対象パーティションに接する辺の長さが最も長いパーティションに割り付けられた動きベクトルと、上記隣接パーティションの各々に割り付けられた動きベクトルと、上記対象パーティションの上辺に隣接するパーティションのうち最も右側のパーティションの右辺に隣接する右上パーティションに割り付けられた動きベクトルとのメジアンが含まれ、上記隣接パーティションの数が偶数個である場合、上記隣接パーティションの各々に割り付けられた動きベクトルと、上記右上パーティションに割り付けられた動きベクトルとのメジアンが含まれ、
  第2の予測ベクトルとして、上記隣接パーティションの各々に割り付けられた動きベクトルの辺ごとの平均または加重平均と、上記右上パーティションに割り付けられた動きベクトルとのメジアンが含まれ、
  第3の予測ベクトルとして、上記隣接パーティションの各々に割り付けられた動きベクトルの平均または加重平均が含まれ、
 上記選択手段は、上記隣接パーティションおよび上記右上パーティションの各々に割り付けられた動きベクトルのばらつきが予め定められた閾値よりも小さい場合には、上記第1の予測ベクトル群から上記第3の予測ベクトルを選択し、そうでない場合には、上記第1の予測ベクトル群から上記第1の予測ベクトル、または、上記第2の予測ベクトルを選択する、
ことを特徴とする1.から11.までの何れかに記載の動画像符号化装置。
 13.
 上記選択手段は、上記隣接パーティションおよび上記右上パーティションの各々に割り付けられた動きベクトルのばらつきが予め定められた第1の閾値よりも小さい場合には、上記第1の予測ベクトル群から上記第3の予測ベクトルを選択し、上記ばらつきが上記第1の閾値よりも大きく、かつ、予め定められた第2の閾値よりも小さい場合には、上記第1の予測ベクトル群から上記第1の予測ベクトル、または、上記第2の予測ベクトルを選択し、上記ばらつきが上記第2の閾値よりも大きい場合には、零ベクトルを選択する、
ことを特徴とする12.に記載の動画像符号化装置。
 14.
 上記第1の予測ベクトル群には、
  上記対象パーティションが16画素×16画素のサイズであるパーティションを上下に2等分したパーティションのうち上側のパーティションであるとき、上記対象パーティションの上辺または左辺に隣接している隣接パーティションの数が偶数個の場合には、上記隣接パーティションの各々に割り付けられた動きベクトルと上記隣接パーティションのうち上記対象パーティションに接する辺の長さが最も長いパーティションに割り付けられた動きベクトルとのメジアンが含まれ、上記隣接パーティションの数が奇数個の場合には、上記隣接パーティションの各々に割り付けられた動きベクトルのメジアンが含まれ、
  上記対象パーティションが16画素×16画素のサイズであるパーティションを上下に2等分したパーティションのうち下側のパーティションであるとき、上記対象パーティションの左辺に隣接している左隣接パーティションの各々に割り付けられた動きベクトルの平均または加重平均が含まれる、
ことを特徴とする1.から13.までの何れかに記載の動画像符号化装置。
 15.
 上記第1の予測ベクトル群には、
  上記対象パーティションが16画素×16画素のサイズであるパーティションを上下に2等分したパーティションのうち上側のパーティションであるとき、上記対象パーティションの上辺に隣接しているパーティションの各々に割り付けられた動きベクトルの平均または加重平均が含まれ、
  16画素×16画素のサイズであるパーティションを上下に2等分したパーティションのうち下側のパーティションであるとき、上記対象パーティションの左辺に隣接している左隣接パーティションの各々に割り付けられた動きベクトルの平均または加重平均が含まれる、
ことを特徴とする1.から13.の何れかに記載の動画像符号化装置。
 16.
 上記対象パーティションが16画素×16画素のサイズであるパーティションを上下に2等分したパーティションのうち上側のパーティションであるとき、
 上記第1の予測ベクトル群には、
  第4の予測ベクトルとして、上記対象パーティションの上辺または左辺に隣接している隣接パーティションの数が偶数個の場合には、上記隣接パーティションの各々に割り付けられた動きベクトルと上記隣接パーティションのうち上記対象パーティションに接する辺の長さが最も長いパーティションに割り付けられた動きベクトルとのメジアンが含まれ、上記隣接パーティションの数が奇数個の場合には、上記隣接パーティションの各々に割り付けられた動きベクトルのメジアンが含まれ、
  第5の予測ベクトルとして、上記対象パーティションの上辺に隣接しているパーティションの各々に割り付けられた動きベクトルの平均または加重平均が含まれ、
 上記選択手段は、上記隣接パーティションの各々に割り付けられた動きベクトルのばらつきが予め定められた閾値よりも小さい場合には、上記第1の予測ベクトル群から第5の予測ベクトルを選択し、そうでない場合には、上記第1の予測ベクトル群から上記第4の予測ベクトルを選択する、
ことを特徴とする1.から15.までの何れかに記載の動画像符号化装置。
 17.
 上記第1の予測ベクトル群には、
  上記対象パーティションが16画素×16画素のサイズであるパーティションを左右に2等分したパーティションのうち左側のパーティションであるとき、上記対象パーティションの上辺または左辺に隣接している隣接パーティションの個数が偶数個である場合には、上記隣接パーティションの各々に割り付けられた動きベクトルと上記隣接パーティションのうち上記対象パーティションに接する辺の長さが最も長いパーティションに割り付けられた動きベクトルとのメジアンが含まれ、上記隣接パーティションの個数が奇数個である場合には、上記隣接パーティションの各々に割り付けられた動きベクトルのメジアンが含まれ、
  上記対象パーティションが16画素×16画素のサイズであるパーティションを左右に2等分したパーティションのうち右側のパーティションであるとき、上記対象パーティションの上辺に隣接するパーティションのうち最も右側のパーティションの右辺に隣接するパーティションに割り付けられた動きベクトルが含まれる、
ことを特徴とする1.から16.までの何れかに記載の動画像符号化装置。
 18.
 上記第1の予測ベクトル群には、
  上記対象パーティションが16画素×16画素のサイズであるパーティションを左右に2等分したパーティションのうち左側のパーティションであるとき、上記対象パーティションの左辺に隣接しているパーティションの各々に割り付けられた動きベクトルの平均または加重平均が含まれ、
  上記対象パーティションが16画素×16画素のサイズであるパーティションを左右に2等分したパーティションのうち右側のパーティションであるとき、上記対象パーティションの上辺に隣接するパーティションのうち最も右側のパーティションの右辺に隣接するパーティションに割り付けられた動きベクトルが含まれる、
ことを特徴とする1.から17.までの何れかに記載の動画像符号化装置。
 19.
 上記対象パーティションが16画素×16画素のサイズであるパーティションを左右に2等分したパーティションのうち左側のパーティションであるとき、
 上記第1の予測ベクトル群には、
  第6の予測ベクトルとして、上記対象パーティションの上辺または左辺に隣接している隣接パーティションの個数が偶数個である場合には、上記隣接パーティションの各々に割り付けられた動きベクトルと上記隣接パーティションのうち上記対象パーティションに接する辺の長さが最も長いパーティションに割り付けられた動きベクトルとのメジアンが含まれ、上記隣接パーティションの個数が奇数個である場合には、上記隣接パーティションの各々に割り付けられた動きベクトルのメジアンが含まれ、
  第7の予測ベクトルとして、上記対象パーティションの左辺に隣接しているパーティションの各々に割り付けられた動きベクトルの平均または加重平均が含まれ、
 上記選択手段は、上記隣接パーティションの各々に割り付けられた動きベクトルのばらつきが予め定められた閾値よりも小さい場合には、上記第1の予測ベクトル群から上記第7の予測ベクトルを選択し、そうでない場合には、上記第1の予測ベクトル群から上記第6の予測ベクトルを選択する、
ことを特徴とする1.から18.までの何れかに記載の動画像符号化装置。
 20.
 上記第2の予測ベクトル群には、上記コロケートパーティションおよび上記コロケートパーティションに隣接する隣接パーティションの各々に割り付けられた動きベクトルの平均または加重平均が含まれている、
ことを特徴とする1.から6.までの何れかに記載の動画像符号化装置。
 21.
 上記第2の予測ベクトル群には、上記コロケートパーティションの数と上記コロケートパーティションに隣接する隣接パーティションの数との和が偶数個である場合、上記隣接パーティションのうち上記コロケートパーティションに隣接する辺の長さが最も長いパーティションに割り付けられた動きベクトルと、上記コロケートパーティションおよび上記隣接パーティションの各々に割り付けられた動きベクトルとのメジアンが含まれ、上記コロケートパーティションの数と上記コロケートパーティションに隣接する隣接パーティションの数との和が奇数個である場合、上記コロケートパーティションおよび上記隣接パーティションの各々に割り付けられた動きベクトルのメジアンが含まれる、
ことを特徴とする1.から6.までの何れかに記載の動画像符号化装置。
 22.
 上記第2の予測ベクトル群には、
  第1の予測ベクトルとして、上記コロケートパーティションおよび上記コロケートパーティション隣接する隣接パーティションの各々に割り付けられた動きベクトルの平均または加重平均が含まれ、
  第2の予測ベクトルとして、上記隣接パーティションの数が奇数個である場合、上記隣接パーティションのうち上記コロケートパーティションに隣接する辺の長さが最も長いパーティションに割り付けられた動きベクトルと、上記コロケートパーティションおよび上記隣接パーティションの各々に割り付けられた動きベクトルとのメジアンが含まれ、上記隣接パーティションの数が偶数個である場合、上記コロケートパーティションおよび上記隣接パーティションの各々に割り付けられた動きベクトルのメジアンが含まれ、
 上記選択手段は、上記コロケートパーティションおよび上記隣接パーティションの各々に割り付けられた動きベクトルのばらつきが予め定められた閾値よりも小さい場合には、上記第2の予測ベクトル群から上記第1の予測ベクトルを選択し、そうでない場合には、上記第2の予測ベクトル群から上記第2の予測ベクトルを選択する、
ことを特徴とする1.から6.までの何れかに記載の動画像符号化装置。
 23.
 上記隣接パーティションには、上記コロケートパーティションと頂点を共有するパーティションが含まれていることを特徴とする20.から22.までの何れかに記載の動画像符号化装置。
 24.
 上記第2の予測ベクトル群には、上記シフトコロケートパーティションおよび上記シフトコロケートパーティションに隣接する隣接パーティションの各々に割り付けられた動きベクトルの平均または加重平均が含まれている、
ことを特徴とする7.に記載の動画像符号化装置。
 25.
 上記第2の予測ベクトル群には、上記シフトコロケートパーティションに隣接する隣接パーティションの数が奇数個である場合、上記隣接パーティションのうち上記シフトコロケートパーティションに隣接する辺の長さが最も長いパーティションに割り付けられた動きベクトルと、上記シフトコロケートパーティションおよび上記隣接パーティションの各々に割り付けられた動きベクトルとのメジアンが含まれ、上記隣接パーティションの数が偶数個である場合、上記シフトコロケートパーティションおよび上記隣接パーティションの各々に割り付けられた動きベクトルのメジアンが含まれる、
ことを特徴とする7.に記載の動画像符号化装置。
 26.
 上記第2の予測ベクトル群には、
  第1の予測ベクトルとして、上記シフトコロケートパーティションおよび上記シフトコロケートパーティションに隣接する隣接パーティションの各々に割り付けられた動きベクトルの平均または加重平均が含まれ、
  第2の予測ベクトルとして、上記隣接パーティションの数が奇数個である場合、上記隣接パーティションのうち上記シフトコロケートパーティションに隣接する辺の長さが最も長いパーティションに割り付けられた動きベクトルと、上記シフトコロケートパーティションおよび上記隣接パーティションの各々に割り付けられた動きベクトルとのメジアンが含まれ、上記隣接パーティションの数が偶数個である場合、上記シフトコロケートパーティションおよび上記隣接パーティションの各々に割り付けられた動きベクトルのメジアンが含まれ、
 上記選択手段は、上記シフトコロケートパーティションおよび上記隣接パーティションの各々に割り付けられた動きベクトルのばらつきが予め定められた閾値よりも小さい場合には、上記第2の予測ベクトル群から上記第1の予測ベクトルを選択し、そうでない場合には、上記第2の予測ベクトル群から上記第2の予測ベクトルを選択する、
ことを特徴とする7.に記載の動画像符号化装置。
 27.
 上記隣接パーティションには、上記シフトコロケートパーティションと頂点を共有するパーティションが含まれていることを特徴とする24.から26.までの何れかに記載の動画像符号化装置。
 28.
 動画像を構成するフレームを分割して得られた複数のパーティションの各々に割り付けられた動きベクトルと予測ベクトルとの差分ベクトルを上記動画像と共に符号化して得られた符号化データを復号する動画像復号装置であって、
 対象フレームにおいて対象パーティション周辺の復号済パーティションに割り付けられた動きベクトルからなる第1の動きベクトル群を参照して、上記対象パーティションに割り付ける予測ベクトルの候補となる第1の予測ベクトル群を算出する第1の算出手段と、
 復号済フレームにおいて上記対象パーティションと同じ位置を占めるコロケートパーティション周辺のパーティションに割り付けられた動きベクトルからなる第2の動きベクトル群を参照して、上記対象パーティションに割り付ける予測ベクトルの候補となる第2の予測ベクトル群を算出する第2の算出手段と、
 上記対象パーティションに割り付ける予測ベクトルを選択する選択手段であって、上記第1の予測ベクトル群に属する予測ベクトルと上記第2の予測ベクトル群に属する予測ベクトルとのうち何れの予測ベクトルを上記対象パーティションに割り付けるかを、上記第1の動きベクトル群のばらつき、および、上記第2の動きベクトル群のばらつきに応じて決定する選択手段と、を備えている、
ことを特徴とする動画像復号装置。
 29.
 動画像を構成するフレームを分割して得られた複数のパーティションの各々に割り付けられた動きベクトルと予測ベクトルとの差分ベクトルを上記動画像と共に符号化して得られた符号化データのデータ構造において、
 上記予測ベクトルは、対象フレームにおいて対象パーティション周辺の復号済パーティションに割り付けられた動きベクトルからなる第1の動きベクトル群を参照して算出された第1の予測ベクトル群と、上記対象フレームよりも先に復号されるフレームにおいて上記対象パーティションと同じ位置を占めるコロケートパーティション周辺のパーティションに割り付けられた動きベクトルからなる第2の動きベクトル群を参照して算出された第2の動きベクトル群とのうち、上記第1の動きベクトル群のばらつき、および、上記第2の動きベクトル群のばらつきに応じて選択された予測ベクトル群に属する予測ベクトルである、
ことを特徴とする符号化データのデータ構造。
 30.
 動画像を構成するフレームを分割して得られた複数のパーティションの各々に割り付けられた動きベクトルと予測ベクトルとの差分ベクトルを上記動画像と共に符号化する動画像符号化方法において、
 対象フレームにおいて対象パーティション周辺の符号化済パーティションに割り付けられた動きベクトルからなる第1の動きベクトル群を参照して、上記対象パーティションに割り付ける予測ベクトルの候補となる第1の予測ベクトル群を算出する第1の算出工程と、
 符号化済フレームにおいて上記対象パーティションと同じ位置を占めるコロケートパーティション周辺のパーティションに割り付けられた動きベクトルからなる第2の動きベクトル群を参照して、上記対象パーティションに割り付ける予測ベクトルの候補となる第2の予測ベクトル群を算出する第2の算出工程と、
 上記対象パーティションに割り付ける予測ベクトルを選択する選択工程であって、上記第1の予測ベクトル群に属する予測ベクトルと上記第2の予測ベクトル群に属する予測ベクトルとのうち何れの予測ベクトルを上記対象パーティションに割り付けるかを、上記第1の動きベクトル群のばらつき、および、上記第2の動きベクトル群のばらつきに応じて決定する選択工程と、を含んでいる、
ことを特徴とする動画像符号化方法。
 本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
 本発明は、動画像を符号化する動画像符号化装置に好適に適用することができる。
1 動画像符号化装置
11 変換・量子化部
12 可変長符号化部
13 逆量子化・逆変換部
14 バッファメモリ
15 イントラ予測画像生成部
16 予測画像生成部
17 動きベクトル推定部
18 予測方式制御部
19 動きベクトル冗長性削減部(算出手段、選択手段)
191 空間方向予測ベクトル生成部(第1の算出手段)
192 時間方向予測ベクトル生成部(第2の算出手段)
193 時空間方向予測ベクトル生成部(第2の算出手段)
194 予測ベクトル選択部(選択手段)
21 加算器
22 減算器
2 動画像復号装置
24 動きベクトル復元部

Claims (10)

  1.  動画像を構成するフレームを分割して得られた複数のパーティションの各々に割り付けられた動きベクトルと予測ベクトルとの差分ベクトルを上記動画像と共に符号化する動画像符号化装置において、
     対象フレームにおいて対象パーティション周辺の符号化済パーティションに割り付けられた動きベクトルからなる第1の動きベクトル群を参照して、上記対象パーティションに割り付ける予測ベクトルの候補となる第1の予測ベクトル群を算出する第1の算出手段と、
     符号化済フレームにおいて上記対象パーティションと同じ位置を占めるコロケートパーティション周辺のパーティションに割り付けられた動きベクトルからなる第2の動きベクトル群を参照して、上記対象パーティションに割り付ける予測ベクトルの候補となる第2の予測ベクトル群を算出する第2の算出手段と、
     上記対象パーティションに割り付ける予測ベクトルを選択する選択手段であって、上記第1の予測ベクトル群に属する予測ベクトルと上記第2の予測ベクトル群に属する予測ベクトルとのうち何れの予測ベクトルを上記対象パーティションに割り付けるかを、上記第1の動きベクトル群のばらつき、および、上記第2の動きベクトル群のばらつきに応じて決定する選択手段と、を備えている、
    ことを特徴とする動画像符号化装置。
  2.  請求項1に記載の動画像符号化装置であって、
     上記選択手段は、上記第1の動きベクトルと上記第2の動きベクトル群とのうちばらつきが小さい方の動きベクトル群を参照して算出された予測ベクトル群に属する予測ベクトルを上記対象パーティションに割り付ける、ことを特徴とする動画像符号化装置。
  3.  請求項1に記載の動画像符号化装置であって、
     上記選択手段は、
      上記第1の動きベクトル群のばらつき、および、上記第2の動きベクトル群のばらつきが予め定められた閾値よりも小さい場合に、上記第1の動きベクトル群と上記第2の動きベクトル群とのうちばらつきが小さい方の動きベクトル群を参照して算出された予測ベクトル群に属する予測ベクトルを上記対象パーティションに割り付け、
      そうでない場合に、上記第1の予測ベクトル群に属する予測ベクトルと上記第2の予測ベクトル群に属する予測ベクトルとのうち、何れか一方の予測ベクトルを上記対象パーティションに割り付けると共に、上記対象パーティションに割り付けた予測ベクトルを示すフラグを符号化する、ことを特徴とする動画像符号化装置。
  4.  請求項1に記載の動画像符号化装置であって、
     上記選択手段は、
      上記第1の動きベクトル群のばらつき、および、上記第2の動きベクトル群のばらつきが予め定められた閾値よりも小さい場合に、上記第1の動きベクトルと上記第2の動きベクトル群とのうちばらつきが小さい方の動きベクトル群を参照して算出された予測ベクトル群に属する予測ベクトルを上記対象パーティションに割り付け、
      そうでない場合に、零ベクトルを上記対象パーティションに割り付ける、ことを特徴とする動画像符号化装置。
  5.  請求項1から4までの何れか1項に記載の動画像符号化装置であって、
     上記第2の算出手段に代えて、符号化済フレームにおいて、上記対象パーティションと同じ位置を占めるコロケートパーティションを起点として、上記対象パーティション周辺の符号化済パーティションに割り付けられた動きベクトルから推定された、上記対象パーティションに割り付けられる動きベクトルの推定値分だけ移動した位置を占めるシフトコロケートパーティション周辺のパーティションに割り付けられた動きベクトルからなる第2の動きベクトル群を参照して、上記対象パーティションに割り付ける予測ベクトルの候補となる第2の予測ベクトル群を算出する第2の算出手段を備えている、
    ことを特徴とする動画像符号化装置。
  6.  動画像を構成するフレームを分割して得られた複数のパーティションの各々に割り付けられた動きベクトルと予測ベクトルとの差分ベクトルを上記動画像と共に符号化して得られた符号化データを復号する動画像復号装置であって、
     対象フレームにおいて対象パーティション周辺の復号済パーティションに割り付けられた動きベクトルからなる第1の動きベクトル群を参照して、上記対象パーティションに割り付ける予測ベクトルの候補となる第1の予測ベクトル群を算出する第1の算出手段と、
     復号済フレームにおいて上記対象パーティションと同じ位置を占めるコロケートパーティション周辺のパーティションに割り付けられた動きベクトルからなる第2の動きベクトル群を参照して、上記対象パーティションに割り付ける予測ベクトルの候補となる第2の予測ベクトル群を算出する第2の算出手段と、
     上記対象パーティションに割り付ける予測ベクトルを選択する選択手段であって、上記第1の予測ベクトル群に属する予測ベクトルと上記第2の予測ベクトル群に属する予測ベクトルとのうち何れの予測ベクトルを上記対象パーティションに割り付けるかを、上記第1の動きベクトル群のばらつき、および、上記第2の動きベクトル群のばらつきに応じて決定する選択手段と、を備えている、
    ことを特徴とする動画像復号装置。
  7.  請求項6に記載の動画像復号装置であって、
     上記選択手段は、上記第1の動きベクトルと上記第2の動きベクトル群とのうちばらつきが小さい方の動きベクトル群を参照して算出された予測ベクトル群に属する予測ベクトルを上記対象パーティションに割り付ける、ことを特徴とする動画像復号装置。
  8.  請求項6に記載の動画像復号装置であって、
     上記選択手段は、
      上記第1の動きベクトル群のばらつき、および、上記第2の動きベクトル群のばらつきが予め定められた閾値よりも小さい場合に、上記第1の動きベクトルと上記第2の動きベクトル群とのうちばらつきが小さい方の動きベクトル群を参照して算出された予測ベクトル群に属する予測ベクトルを上記対象パーティションに割り付け、
      そうでない場合に、上記符号化データに含まれるフラグを参照して、上記第1の予測ベクトル群に属する予測ベクトルと上記第2の予測ベクトル群に属する予測ベクトルとのうち、何れか一方の予測ベクトル群に属する予測ベクトルを上記対象パーティションに割り付ける、ことを特徴とする動画像復号装置。
  9.  請求項6に記載の動画像復号装置であって、
     上記選択手段は、
      上記第1の動きベクトル群のばらつき、および、上記第2の動きベクトル群のばらつきが予め定められた閾値よりも小さい場合に、上記第1の動きベクトルと上記第2の動きベクトル群とのうちばらつきが小さい方の動きベクトル群を参照して算出された予測ベクトル群に属する予測ベクトルを上記対象パーティションに割り付け、
      そうでない場合に、零ベクトルを上記対象パーティションに割り付ける、ことを特徴とする動画像復号装置。
  10.  請求項6から9までの何れか1項に記載の動画像復号装置であって、
     上記第2の算出手段に代えて、復号済フレームにおいて、上記対象パーティションと同じ位置を占めるコロケートパーティションを起点として、上記対象パーティション周辺の復号済パーティションに割り付けられた動きベクトルから推定された、上記対象パーティションに割り付けられる動きベクトルの推定値分だけ移動した位置を占めるシフトコロケートパーティション周辺のパーティションに割り付けられた動きベクトルからなる第2の動きベクトル群を参照して、上記対象パーティションに割り付ける予測ベクトルの候補となる第2の予測ベクトル群を算出する第2の算出手段を備えている、
    ことを特徴とする動画像復号装置。
PCT/JP2010/066445 2009-10-16 2010-09-22 動画像符号化装置、および、動画像復号装置 WO2011046008A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP10823276A EP2490449A1 (en) 2009-10-16 2010-09-22 Video coding device and video decoding device
JP2011536084A JPWO2011046008A1 (ja) 2009-10-16 2010-09-22 動画像符号化装置、および、動画像復号装置
CN2010800458607A CN102577389A (zh) 2009-10-16 2010-09-22 运动图像编码装置和运动图像解码装置
US13/501,713 US20120207221A1 (en) 2009-10-16 2010-09-22 Video coding device and video decoding device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009-239762 2009-10-16
JP2009239762 2009-10-16

Publications (1)

Publication Number Publication Date
WO2011046008A1 true WO2011046008A1 (ja) 2011-04-21

Family

ID=43876061

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/066445 WO2011046008A1 (ja) 2009-10-16 2010-09-22 動画像符号化装置、および、動画像復号装置

Country Status (5)

Country Link
US (1) US20120207221A1 (ja)
EP (1) EP2490449A1 (ja)
JP (1) JPWO2011046008A1 (ja)
CN (1) CN102577389A (ja)
WO (1) WO2011046008A1 (ja)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102769748A (zh) * 2012-07-02 2012-11-07 华为技术有限公司 运动矢量预测方法、装置及系统
WO2013067938A1 (en) * 2011-11-07 2013-05-16 LI, Yingjin Method of constructing merge list
WO2013132792A1 (ja) * 2012-03-06 2013-09-12 パナソニック株式会社 動画像符号化方法、動画像復号方法、動画像符号化装置、動画像復号装置、及び動画像符号化復号装置
CN104811725A (zh) * 2011-06-27 2015-07-29 三星电子株式会社 对运动信息进行解码的方法
JP2015195602A (ja) * 2011-08-03 2015-11-05 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 動画像復号化方法および動画像復号化装置
US9485518B2 (en) 2011-05-27 2016-11-01 Sun Patent Trust Decoding method and apparatus with candidate motion vectors
US9560373B2 (en) 2011-05-31 2017-01-31 Sun Patent Trust Image coding method and apparatus with candidate motion vectors
US9591328B2 (en) 2012-01-20 2017-03-07 Sun Patent Trust Methods and apparatuses for encoding and decoding video using temporal motion vector prediction
US9609320B2 (en) 2012-02-03 2017-03-28 Sun Patent Trust Image decoding method and image decoding apparatus
US9609356B2 (en) 2011-05-31 2017-03-28 Sun Patent Trust Moving picture coding method and apparatus with candidate motion vectors
US9615107B2 (en) 2011-05-27 2017-04-04 Sun Patent Trust Image coding method, image coding apparatus, image decoding method, image decoding apparatus, and image coding and decoding apparatus
RU2621970C1 (ru) * 2011-11-07 2017-06-08 Инфобридж Пте. Лтд. Способ декодирования видеоданных
US9826249B2 (en) 2011-05-24 2017-11-21 Velos Media, Llc Decoding method and apparatuses with candidate motion vectors
US9872036B2 (en) 2011-04-12 2018-01-16 Sun Patent Trust Moving picture coding method, moving picture coding apparatus, moving picture decoding method, moving picture decoding apparatus and moving picture coding and decoding apparatus
JP2019129371A (ja) * 2018-01-23 2019-08-01 富士通株式会社 動画像符号化装置、動画像符号化方法、動画像復号装置、動画像復号方法、及び動画像符号化用コンピュータプログラムならびに動画像復号用コンピュータプログラム
US10887585B2 (en) 2011-06-30 2021-01-05 Sun Patent Trust Image decoding method, image coding method, image decoding apparatus, image coding apparatus, and image coding and decoding apparatus
US11218708B2 (en) 2011-10-19 2022-01-04 Sun Patent Trust Picture decoding method for decoding using a merging candidate selected from a first merging candidate derived using a first derivation process and a second merging candidate derived using a second derivation process

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116320415A (zh) 2016-11-21 2023-06-23 松下电器(美国)知识产权公司 图像编码装置及方法、图像解码装置及方法
WO2018092868A1 (ja) 2016-11-21 2018-05-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法
JP2021536191A (ja) * 2018-09-07 2021-12-23 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America ビデオコーディング用システムおよび方法
CN111447454B (zh) * 2020-03-30 2022-06-07 浙江大华技术股份有限公司 编码方法及其相关装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06268992A (ja) * 1993-03-15 1994-09-22 Sony Corp 画像符号化方法、画像復号化方法、画像符号化装置、画像復号化装置及び記録媒体
JPH1175188A (ja) * 1997-08-12 1999-03-16 Daewoo Electron Co Ltd 動きベクトル符号化装置
JP2008211697A (ja) * 2007-02-28 2008-09-11 Sharp Corp 符号化装置及び復号装置
JP2008283490A (ja) * 2007-05-10 2008-11-20 Ntt Docomo Inc 動画像符号化装置、方法及びプログラム、並びに動画像復号化装置、方法及びプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002010269A (ja) * 2000-06-27 2002-01-11 Mitsubishi Electric Corp 動きベクトル検出方法及び、動画像符号化装置
JP4445463B2 (ja) * 2005-12-16 2010-04-07 株式会社東芝 動画像再符号化方法及び装置
JP4438749B2 (ja) * 2006-01-18 2010-03-24 ソニー株式会社 符号化装置、符号化方法およびプログラム
JP2007251815A (ja) * 2006-03-17 2007-09-27 Pioneer Electronic Corp 再符号化装置及び再符号化用プログラム
JP2007300209A (ja) * 2006-04-27 2007-11-15 Pioneer Electronic Corp 動画像再符号化装置およびその動きベクトル判定方法
CN101227614B (zh) * 2008-01-22 2010-09-08 炬力集成电路设计有限公司 视频编码系统的运动估计装置及其方法
CN101404774B (zh) * 2008-11-13 2010-06-23 四川虹微技术有限公司 运动搜索中宏块划分模式的选择方法
JP5277257B2 (ja) * 2008-12-03 2013-08-28 株式会社日立製作所 動画像復号化方法および動画像符号化方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06268992A (ja) * 1993-03-15 1994-09-22 Sony Corp 画像符号化方法、画像復号化方法、画像符号化装置、画像復号化装置及び記録媒体
JPH1175188A (ja) * 1997-08-12 1999-03-16 Daewoo Electron Co Ltd 動きベクトル符号化装置
JP2008211697A (ja) * 2007-02-28 2008-09-11 Sharp Corp 符号化装置及び復号装置
JP2008283490A (ja) * 2007-05-10 2008-11-20 Ntt Docomo Inc 動画像符号化装置、方法及びプログラム、並びに動画像復号化装置、方法及びプログラム

Cited By (87)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10178404B2 (en) 2011-04-12 2019-01-08 Sun Patent Trust Moving picture coding method, moving picture coding apparatus, moving picture decoding method, moving picture decoding apparatus and moving picture coding and decoding apparatus
US10382774B2 (en) 2011-04-12 2019-08-13 Sun Patent Trust Moving picture coding method, moving picture coding apparatus, moving picture decoding method, moving picture decoding apparatus and moving picture coding and decoding apparatus
US11917186B2 (en) 2011-04-12 2024-02-27 Sun Patent Trust Moving picture coding method, moving picture coding apparatus, moving picture decoding method, moving picture decoding apparatus and moving picture coding and decoding apparatus
US11012705B2 (en) 2011-04-12 2021-05-18 Sun Patent Trust Moving picture coding method, moving picture coding apparatus, moving picture decoding method, moving picture decoding apparatus and moving picture coding and decoding apparatus
US10609406B2 (en) 2011-04-12 2020-03-31 Sun Patent Trust Moving picture coding method, moving picture coding apparatus, moving picture decoding method, moving picture decoding apparatus and moving picture coding and decoding apparatus
US9872036B2 (en) 2011-04-12 2018-01-16 Sun Patent Trust Moving picture coding method, moving picture coding apparatus, moving picture decoding method, moving picture decoding apparatus and moving picture coding and decoding apparatus
US11356694B2 (en) 2011-04-12 2022-06-07 Sun Patent Trust Moving picture coding method, moving picture coding apparatus, moving picture decoding method, moving picture decoding apparatus and moving picture coding and decoding apparatus
US10536712B2 (en) 2011-04-12 2020-01-14 Sun Patent Trust Moving picture coding method, moving picture coding apparatus, moving picture decoding method, moving picture decoding apparatus and moving picture coding and decoding apparatus
US10129564B2 (en) 2011-05-24 2018-11-13 Velos Media, LCC Decoding method and apparatuses with candidate motion vectors
US11228784B2 (en) 2011-05-24 2022-01-18 Velos Media, Llc Decoding method and apparatuses with candidate motion vectors
US9826249B2 (en) 2011-05-24 2017-11-21 Velos Media, Llc Decoding method and apparatuses with candidate motion vectors
US10484708B2 (en) 2011-05-24 2019-11-19 Velos Media, Llc Decoding method and apparatuses with candidate motion vectors
US11895324B2 (en) 2011-05-27 2024-02-06 Sun Patent Trust Coding method and apparatus with candidate motion vectors
US10034001B2 (en) 2011-05-27 2018-07-24 Sun Patent Trust Image coding method, image coding apparatus, image decoding method, image decoding apparatus, and image coding and decoding apparatus
US10200714B2 (en) 2011-05-27 2019-02-05 Sun Patent Trust Decoding method and apparatus with candidate motion vectors
US11115664B2 (en) 2011-05-27 2021-09-07 Sun Patent Trust Image coding method, image coding apparatus, image decoding method, image decoding apparatus, and image coding and decoding apparatus
US11076170B2 (en) 2011-05-27 2021-07-27 Sun Patent Trust Coding method and apparatus with candidate motion vectors
US11570444B2 (en) 2011-05-27 2023-01-31 Sun Patent Trust Image coding method, image coding apparatus, image decoding method, image decoding apparatus, and image coding and decoding apparatus
US9615107B2 (en) 2011-05-27 2017-04-04 Sun Patent Trust Image coding method, image coding apparatus, image decoding method, image decoding apparatus, and image coding and decoding apparatus
US9485518B2 (en) 2011-05-27 2016-11-01 Sun Patent Trust Decoding method and apparatus with candidate motion vectors
US11575930B2 (en) 2011-05-27 2023-02-07 Sun Patent Trust Coding method and apparatus with candidate motion vectors
US10212450B2 (en) 2011-05-27 2019-02-19 Sun Patent Trust Coding method and apparatus with candidate motion vectors
US10708598B2 (en) 2011-05-27 2020-07-07 Sun Patent Trust Image coding method, image coding apparatus, image decoding method, image decoding apparatus, and image coding and decoding apparatus
US10721474B2 (en) 2011-05-27 2020-07-21 Sun Patent Trust Image coding method, image coding apparatus, image decoding method, image decoding apparatus, and image coding and decoding apparatus
US9723322B2 (en) 2011-05-27 2017-08-01 Sun Patent Trust Decoding method and apparatus with candidate motion vectors
US9883199B2 (en) 2011-05-27 2018-01-30 Sun Patent Trust Coding method and apparatus with candidate motion vectors
US10595023B2 (en) 2011-05-27 2020-03-17 Sun Patent Trust Image coding method, image coding apparatus, image decoding method, image decoding apparatus, and image coding and decoding apparatus
US9838695B2 (en) 2011-05-27 2017-12-05 Sun Patent Trust Image coding method, image coding apparatus, image decoding method, image decoding apparatus, and image coding and decoding apparatus
US10645413B2 (en) 2011-05-31 2020-05-05 Sun Patent Trust Derivation method and apparatuses with candidate motion vectors
US9609356B2 (en) 2011-05-31 2017-03-28 Sun Patent Trust Moving picture coding method and apparatus with candidate motion vectors
US10412404B2 (en) 2011-05-31 2019-09-10 Velos Media, Llc Image decoding method and image decoding apparatus using candidate motion vectors
US9900613B2 (en) 2011-05-31 2018-02-20 Sun Patent Trust Image coding and decoding system using candidate motion vectors
US10652573B2 (en) 2011-05-31 2020-05-12 Sun Patent Trust Video encoding method, video encoding device, video decoding method, video decoding device, and video encoding/decoding device
US10951911B2 (en) 2011-05-31 2021-03-16 Velos Media, Llc Image decoding method and image decoding apparatus using candidate motion vectors
US11057639B2 (en) 2011-05-31 2021-07-06 Sun Patent Trust Derivation method and apparatuses with candidate motion vectors
US9819961B2 (en) 2011-05-31 2017-11-14 Sun Patent Trust Decoding method and apparatuses with candidate motion vectors
US9560373B2 (en) 2011-05-31 2017-01-31 Sun Patent Trust Image coding method and apparatus with candidate motion vectors
US11949903B2 (en) 2011-05-31 2024-04-02 Sun Patent Trust Image decoding method and image decoding apparatus using candidate motion vectors
US11368710B2 (en) 2011-05-31 2022-06-21 Velos Media, Llc Image decoding method and image decoding apparatus using candidate motion vectors
US11509928B2 (en) 2011-05-31 2022-11-22 Sun Patent Trust Derivation method and apparatuses with candidate motion vectors
US11917192B2 (en) 2011-05-31 2024-02-27 Sun Patent Trust Derivation method and apparatuses with candidate motion vectors
CN104811725A (zh) * 2011-06-27 2015-07-29 三星电子株式会社 对运动信息进行解码的方法
US9432680B2 (en) 2011-06-27 2016-08-30 Samsung Electronics Co., Ltd. Method and apparatus for encoding motion information, and method and apparatus for decoding same
US10887585B2 (en) 2011-06-30 2021-01-05 Sun Patent Trust Image decoding method, image coding method, image decoding apparatus, image coding apparatus, and image coding and decoding apparatus
US10284872B2 (en) 2011-08-03 2019-05-07 Sun Patent Trust Video encoding method, video encoding apparatus, video decoding method, video decoding apparatus, and video encoding/decoding apparatus
US10129561B2 (en) 2011-08-03 2018-11-13 Sun Patent Trust Video encoding method, video encoding apparatus, video decoding method, video decoding apparatus, and video encoding/decoding apparatus
JP2015195602A (ja) * 2011-08-03 2015-11-05 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 動画像復号化方法および動画像復号化装置
US11553202B2 (en) 2011-08-03 2023-01-10 Sun Patent Trust Video encoding method, video encoding apparatus, video decoding method, video decoding apparatus, and video encoding/decoding apparatus
US10440387B2 (en) 2011-08-03 2019-10-08 Sun Patent Trust Video encoding method, video encoding apparatus, video decoding method, video decoding apparatus, and video encoding/decoding apparatus
US9456214B2 (en) 2011-08-03 2016-09-27 Sun Patent Trust Moving picture coding method, moving picture coding apparatus, moving picture decoding method, moving picture decoding apparatus, and moving picture coding and decoding apparatus
US11647208B2 (en) 2011-10-19 2023-05-09 Sun Patent Trust Picture coding method, picture coding apparatus, picture decoding method, and picture decoding apparatus
US11218708B2 (en) 2011-10-19 2022-01-04 Sun Patent Trust Picture decoding method for decoding using a merging candidate selected from a first merging candidate derived using a first derivation process and a second merging candidate derived using a second derivation process
US9338460B2 (en) 2011-11-07 2016-05-10 Infobridge Pte. Ltd. Method of constructing merge list
KR101496961B1 (ko) * 2011-11-07 2015-03-02 인포브릿지 피티이 엘티디 머지 리스트 구축 방법
US10158857B2 (en) 2011-11-07 2018-12-18 Infobridge Pte. Ltd. Method of constructing merge list
RU2621970C1 (ru) * 2011-11-07 2017-06-08 Инфобридж Пте. Лтд. Способ декодирования видеоданных
WO2013067938A1 (en) * 2011-11-07 2013-05-16 LI, Yingjin Method of constructing merge list
US8917772B2 (en) 2011-11-07 2014-12-23 Infobridge Pte. Ltd. Method of constructing merge list
US9912953B2 (en) 2011-11-07 2018-03-06 Infobridge Pte. Ltd. Method of constructing merge list
US11089307B2 (en) 2011-11-07 2021-08-10 Infobridge Pte. Ltd. Method of constructing merge list
RU2621972C2 (ru) * 2011-11-07 2017-06-08 Инфобридж Пте. Лтд. Способ декодирования видеоданных
US10362312B2 (en) 2011-11-07 2019-07-23 Infobridge Pte. Ltd. Method of constructing merge list
RU2621967C1 (ru) * 2011-11-07 2017-06-08 Инфобридж Пте. Лтд. Способ декодирования видеоданных
US9338459B2 (en) 2011-11-07 2016-05-10 Infobridge Pte. Ltd. Method of constructing merge list
RU2621966C1 (ru) * 2011-11-07 2017-06-08 Инфобридж Пте. Лтд. Способ декодирования видеоданных
US10616601B2 (en) 2012-01-20 2020-04-07 Sun Patent Trust Methods and apparatuses for encoding and decoding video using temporal motion vector prediction
US10129563B2 (en) 2012-01-20 2018-11-13 Sun Patent Trust Methods and apparatuses for encoding and decoding video using temporal motion vector prediction
US9591328B2 (en) 2012-01-20 2017-03-07 Sun Patent Trust Methods and apparatuses for encoding and decoding video using temporal motion vector prediction
US10334268B2 (en) 2012-02-03 2019-06-25 Sun Patent Trust Image coding method and image coding apparatus
US11812048B2 (en) 2012-02-03 2023-11-07 Sun Patent Trust Image coding method and image coding apparatus
US9648323B2 (en) 2012-02-03 2017-05-09 Sun Patent Trust Image coding method and image coding apparatus
US10623762B2 (en) 2012-02-03 2020-04-14 Sun Patent Trust Image coding method and image coding apparatus
US10034015B2 (en) 2012-02-03 2018-07-24 Sun Patent Trust Image coding method and image coding apparatus
US10904554B2 (en) 2012-02-03 2021-01-26 Sun Patent Trust Image coding method and image coding apparatus
US11451815B2 (en) 2012-02-03 2022-09-20 Sun Patent Trust Image coding method and image coding apparatus
US9883201B2 (en) 2012-02-03 2018-01-30 Sun Patent Trust Image coding method and image coding apparatus
US9609320B2 (en) 2012-02-03 2017-03-28 Sun Patent Trust Image decoding method and image decoding apparatus
US10560716B2 (en) 2012-03-06 2020-02-11 Sun Patent Trust Moving picture coding method, moving picture decoding method, moving picture coding apparatus, moving picture decoding apparatus, and moving picture coding and decoding apparatus
JPWO2013132792A1 (ja) * 2012-03-06 2015-07-30 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 動画像符号化方法、動画像復号方法、動画像符号化装置、動画像復号装置、及び動画像符号化復号装置
US11595682B2 (en) 2012-03-06 2023-02-28 Sun Patent Trust Moving picture coding method, moving picture decoding method, moving picture coding apparatus, moving picture decoding apparatus, and moving picture coding and decoding apparatus
US10880572B2 (en) 2012-03-06 2020-12-29 Sun Patent Trust Moving picture coding method, moving picture decoding method, moving picture coding apparatus, moving picture decoding apparatus, and moving picture coding and decoding apparatus
US10212447B2 (en) 2012-03-06 2019-02-19 Sun Patent Trust Moving picture coding method, moving picture decoding method, moving picture coding apparatus, moving picture decoding apparatus, and moving picture coding and decoding apparatus
WO2013132792A1 (ja) * 2012-03-06 2013-09-12 パナソニック株式会社 動画像符号化方法、動画像復号方法、動画像符号化装置、動画像復号装置、及び動画像符号化復号装置
US9479777B2 (en) 2012-03-06 2016-10-25 Sun Patent Trust Moving picture coding method, moving picture decoding method, moving picture coding apparatus, moving picture decoding apparatus, and moving picture coding and decoding apparatus
US11949907B2 (en) 2012-03-06 2024-04-02 Sun Patent Trust Moving picture coding method, moving picture decoding method, moving picture coding apparatus, moving picture decoding apparatus, and moving picture coding and decoding apparatus
CN102769748A (zh) * 2012-07-02 2012-11-07 华为技术有限公司 运动矢量预测方法、装置及系统
JP2019129371A (ja) * 2018-01-23 2019-08-01 富士通株式会社 動画像符号化装置、動画像符号化方法、動画像復号装置、動画像復号方法、及び動画像符号化用コンピュータプログラムならびに動画像復号用コンピュータプログラム

Also Published As

Publication number Publication date
EP2490449A1 (en) 2012-08-22
JPWO2011046008A1 (ja) 2013-03-04
US20120207221A1 (en) 2012-08-16
CN102577389A (zh) 2012-07-11

Similar Documents

Publication Publication Date Title
WO2011046008A1 (ja) 動画像符号化装置、および、動画像復号装置
JP7071453B2 (ja) 動き情報の復号化方法、符号化方法及び記録媒体
CN112740695B (zh) 使用间预测处理视频信号的方法和装置
US11109050B2 (en) Video encoding and decoding
JP6681758B2 (ja) デジタルビデオコンテンツのマクロブロックレベルにおける適応フレーム/フィールド符号化
JP2020205627A (ja) インタ予測方法及びその装置
WO2011048903A1 (ja) 動画像符号化装置、動画像復号装置、および、データ構造
KR102132410B1 (ko) 오차 보상을 이용한 영상 부호화/복호화 방법 및 장치
US20210203978A1 (en) Merge mode-based inter-prediction method and apparatus
TW201349876A (zh) 解碼影像的方法
WO2012124121A1 (ja) 動画像復号方法、動画像符号化方法、動画像復号装置及び動画像復号プログラム
JP2022008349A (ja) 低減されたメモリアクセスを用いてfrucモードでビデオデータを符号化又は復号する方法及び装置
JP6376130B2 (ja) 映像符号化装置、映像復号装置、映像符号化方法、映像復号方法及びプログラム
KR20170069917A (ko) 인트라 스킵 모드의 예측 방법을 나타내는 정보의 부호화 방법 및 장치, 복호화 방법 및 장치
JP2017079473A (ja) 画像復号装置、画像復号方法、画像符号化装置、画像符号化方法、および記録媒体
CN111263144A (zh) 一种运动信息确定方法及其设备
JP2023118926A (ja) 復号化方法、復号化デバイス、復号化側機器、電子機器及び不揮発性記憶媒体
CN111183641A (zh) 视频编码设备、视频解码设备、视频编码方法、视频解码方法和程序
JP5677576B2 (ja) 動画像復号化方法及び動画像符号化方法
CN113812149A (zh) 图像编译系统中的图像解码方法和设备以及图像编码方法和设备
JP5858119B2 (ja) 動画像復号方法、動画像符号化方法、動画像復号装置及び動画像復号プログラム
KR101479137B1 (ko) 예측 움직임벡터 색인부호화에 기반한 움직임정보 생성/복원 장치 및 방법, 및 그것을 이용한 영상 부호화/복호화 장치 및 방법
JP5957513B2 (ja) 動画像復号化方法
KR101676381B1 (ko) 예측 움직임벡터 색인부호화에 기반한 움직임정보 생성/복원 장치 및 방법, 및 그것을 이용한 영상 부호화/복호화 장치 및 방법
JP2022017254A (ja) 符号化装置、復号装置及びプログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080045860.7

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10823276

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13501713

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2011536084

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2010823276

Country of ref document: EP