WO2003092299A1 - Motion vector encoding method and motion vector decoding method - Google Patents

Motion vector encoding method and motion vector decoding method Download PDF

Info

Publication number
WO2003092299A1
WO2003092299A1 PCT/JP2003/004540 JP0304540W WO03092299A1 WO 2003092299 A1 WO2003092299 A1 WO 2003092299A1 JP 0304540 W JP0304540 W JP 0304540W WO 03092299 A1 WO03092299 A1 WO 03092299A1
Authority
WO
WIPO (PCT)
Prior art keywords
motion vector
block
motion
predicted value
decoding
Prior art date
Application number
PCT/JP2003/004540
Other languages
English (en)
French (fr)
Inventor
Satoshi Kondo
Shinya Kadono
Makoto Hagai
Kiyofumi Abe
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=29272326&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=WO2003092299(A1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Priority to MXPA03009608A priority Critical patent/MXPA03009608A/es
Priority to BRPI0304549-8A priority patent/BRPI0304549B1/pt
Priority to AU2003236034A priority patent/AU2003236034C1/en
Priority to DE2003620243 priority patent/DE60320243T2/de
Priority to CA 2443861 priority patent/CA2443861C/en
Priority to KR1020037013519A priority patent/KR100947692B1/ko
Priority to BR0304549A priority patent/BR0304549A/pt
Priority to US10/473,322 priority patent/US7394853B2/en
Priority to CNB038005190A priority patent/CN1271865C/zh
Priority to EP20030719091 priority patent/EP1499133B1/en
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Publication of WO2003092299A1 publication Critical patent/WO2003092299A1/ja
Priority to US11/980,661 priority patent/US8160147B2/en
Priority to US11/980,622 priority patent/US8213510B2/en
Priority to US11/980,606 priority patent/US8155200B2/en
Priority to US11/980,550 priority patent/US8194745B2/en
Priority to US11/980,681 priority patent/US8155201B2/en
Priority to US11/980,531 priority patent/US8179968B2/en
Priority to US13/484,368 priority patent/US8665961B2/en
Priority to US14/041,263 priority patent/US9020035B2/en
Priority to US14/041,320 priority patent/US9020037B2/en
Priority to US14/041,195 priority patent/US9020034B2/en
Priority to US14/041,177 priority patent/US9118930B2/en
Priority to US14/041,302 priority patent/US9031132B2/en
Priority to US14/041,283 priority patent/US9020036B2/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction

Definitions

  • the present invention relates to a motion vector coding method and a motion vector decoding method.
  • the present invention relates to a method for encoding and decoding motion vector information when encoding and decoding are performed using inter-picture prediction encoding.
  • inter-picture predictive coding is used as a method of utilizing temporal redundancy.
  • inter-picture prediction coding when a certain picture is coded, a certain picture that is temporally forward or backward is used as a reference picture. Then, the amount of motion from the reference picture is detected, and spatial information redundancy is removed from the difference between the motion-compensated picture and the picture to be coded, thereby reducing the amount of information compression. Do.
  • Non-Patent Document 1 MPEG-4 standard (1999, IS0 / IEC 14496-2: 1999 Information technology-Coding of audio-visual objects-Part2: Visual) pp.146-148, hereinafter MPEG-4
  • I-picture A picture that does not perform inter-picture prediction coding, that is, performs intra-picture coding
  • P-picture A picture that performs inter-picture predictive coding by referring to a picture that is temporally forward
  • P-picture an inter-picture that refers to both I and P pictures that are temporally forward and backward
  • the picture to be predictively coded is called a B picture.
  • FIG. 15 shows the prediction relationship of each picture in the above-mentioned video coding scheme.
  • the vertical lines indicate one picture.
  • the picture type (1, P, B) is shown at the lower right of each picture.
  • the arrow in FIG. 15 indicates that the picture at the end of the arrow is subjected to inter-picture prediction coding using the picture at the start of the arrow as a reference picture.
  • the second B picture from the top is encoded by using the first I picture and the fourth P picture from the top as reference images.
  • Non-Patent Document 1 when coding a motion vector, a difference value between a prediction value obtained from a motion vector of a neighboring block and a motion vector of a coding target block is coded.
  • the motion vector of the neighboring block has the same direction and magnitude on the spatial coordinates, so the difference between the motion vector of the neighboring block and the motion vector of the neighboring block is calculated.
  • the code amount of the torque can be reduced.
  • the motion vector (MV) of each block is the difference value from the predicted value obtained from the motion vectors (MV1, MV2, MV3) of three neighboring blocks.
  • the median value (median) obtained for each of the horizontal and vertical components of the three motion vectors MV1, MV2, and MV3 is used as the predicted value.
  • the surrounding blocks may not have a motion vector. For example, there are cases where the processing is performed as an intra block, and a case where the processing is performed as a direct mode in a B picture. If one such block exists in the peripheral block, the processing is performed with the motion vector of that block set to 0. If two exist, the motion vector of the remaining one block is used as the predicted value. Furthermore, if all three are blocks without a motion vector, The prediction value is set to 0, and the motion vector coding is performed.
  • a peripheral block in a B picture, can have two motion vectors, and both of them refer to a forward reference picture or both of them refer to a backward reference picture.
  • a forward reference picture In the above conventional motion vector coding method, in a B picture, a peripheral block can have two motion vectors, and both of them refer to a forward reference picture or both of them refer to a backward reference picture.
  • the present invention solves the above-described problems.
  • B-pictures it is possible to provide uniformity of a prediction value determination method in coding of a motion vector, and to improve the prediction performance.
  • An object of the present invention is to provide a vector encoding method and a motion vector decoding method. Disclosure of the invention
  • a motion vector encoding method generates a motion vector of an encoding target block and its predicted value, and calculates a difference between the motion vector and the predicted value.
  • a motion vector coding method in which a plurality of coded blocks around the current block are encoded in at least one block.
  • Encoded block of motion vector A generating step of generating a predicted value of a motion vector of the encoding target block based on a motion vector having the same identifier.
  • an identifier is assigned to the motion vector of the block to be encoded, and in the generating step, the encoding is performed among the motion vectors of the plurality of encoded blocks.
  • the prediction value of the motion vector of the encoding target block may be generated based on the motion vector having the same identifier as the identifier assigned to the target block.
  • an identifier may be assigned to two motion vectors for each of the encoded blocks based on the description order in the code string.
  • an identifier is determined based on one of a far picture order and a near picture order of a reference picture referred to by the motion vector. May be added.
  • a motion vector that refers to the same reference picture as the motion vector of the current block is selected from the motion vectors having the same identifier, and the selected motion vector is selected.
  • the prediction value may be generated based on the prediction value.
  • a median value of the selected motion vector may be generated as a predicted value.
  • the moving picture coding method the motion vector decoding method, the moving picture decoding method, the motion vector coding apparatus, the motion vector decoding apparatus, and their programs according to the present invention. Is configured.
  • the motion vector encoding method of the present invention when encoding the motion vector of each block, uses the motion vector of the already encoded peripheral block.
  • the motion vector is coded using the difference between the predicted value and the motion vector of the current block.
  • the prediction value when there are a plurality of motion vectors in the same direction (forward or backward), the motion vectors referencing the same picture are referred to in a predetermined order.
  • the motion vector to be referred is determined according to the motion vector order.
  • the second and subsequent motion vectors use the previous motion vector as a reference value, and refer to a motion vector that refers to a different picture.
  • the prediction value is generated by performing processing such as performing scaling according to the distance between the difference pictures.
  • the motion vector decoding method of the present invention uses a motion vector of a peripheral block that has already been decoded as a prediction value when decoding the motion vector of each block, and Decode the motion vector by adding it to the coded motion vector of the current block.
  • the motion vectors are arranged in a predetermined order by referring to the motion vectors referring to the same picture. Determine the motion vector to be referred according to the motion vector order.
  • the second and subsequent motion vectors use the previous motion vector as a reference value.
  • a predicted value is generated.
  • FIG. 1 is a block diagram illustrating a configuration of an image encoding device according to Embodiment 1 of the present invention.
  • FIG. 2 (a) is a diagram showing the order of pictures input to the frame memory.
  • FIG. 2B is a diagram showing the order of picture coding.
  • FIG. 3 (a) is a diagram showing an encoding target block (upper left of a macroblock) and an encoded peripheral block.
  • FIG. 3 (b) is a diagram showing an encoding target block (upper right of a macroblock) and encoded peripheral blocks.
  • FIG. 3 (c) is a diagram showing a current block to be coded (lower left of a macroblock) and coded peripheral blocks.
  • FIG. 3 (d) is a diagram showing the current block to be coded (lower right of the macroblock) and the coded peripheral blocks.
  • FIG. 4 (a) is a diagram showing a reference picture referred to by a motion vector of a current block to be coded and peripheral blocks that have been coded.
  • FIG. 4 (b) is a diagram showing reference pictures referred to by the motion vectors of the current block and the neighboring blocks that have been coded.
  • FIG. 4 (c) is a diagram showing a reference picture referred to by a motion vector of a current block to be coded and peripheral blocks that have been coded.
  • FIG. 5 is a diagram for explaining motion compensation when both reference pictures are located ahead.
  • FIG. 6 is an explanatory diagram in the case of scaling a motion vector.
  • FIG. 7 is a flowchart showing a predicted value generation method when the first predicted value generation method and the second predicted value generation method are mixed.
  • FIG. 8 is a diagram showing the order of the motion vectors described in the code string.
  • FIG. 9 is a block diagram showing a configuration of an image decoding apparatus according to Embodiment 2 of the present invention.
  • FIG. 10 (a) is a diagram showing a physical format of a flexible disk.
  • FIG. 10 (b) is a diagram showing the appearance, cross-sectional structure, and main body of the flexible disk as viewed from the front of the flexible disk.
  • FIG. 10 (c) is a diagram showing the appearance of an apparatus for writing and reading a program to and from a flexible disk.
  • FIG. 11 is a block diagram showing the overall configuration of the content supply system.
  • FIG. 12 is a diagram showing a mobile phone using a moving picture encoding method and a moving picture decoding method.
  • FIG. 13 is a block diagram showing a configuration of a mobile phone.
  • FIG. 14 is a diagram showing a digital broadcasting system.
  • FIG. 15 is a diagram showing a picture reference relationship in the related art.
  • FIG. 16 is a diagram showing peripheral blocks used for generating a predicted value.
  • FIG. 1 shows a frame memory 101, a difference operation unit 102, a prediction error encoding unit 103, a code sequence generation unit 104, a prediction error decoding unit 105, an addition operation unit 106, Frame memory 107, motion vector detection unit 108, mode selection unit 109, encoding control unit 110, switch 1 11 to 1 15, motion vector storage unit
  • FIG. 1 is a block diagram of an image encoding device including a motion vector encoding unit and a motion vector encoding unit, and performs motion vector encoding as part of image encoding. The input image is input to the frame memory 101 in temporal order in picture units. Fig.
  • FIG. 2 (a) shows the order of pictures input to the frame memory 101.
  • the vertical line indicates a picture
  • the symbol at the lower right of each picture indicates the picture type (P is P picture
  • B is B picture) in the first letter
  • 2 letters The numbers after the eye indicate the picture numbers in the order of display time.
  • the pictures input to the frame memory 101 are rearranged in the order of encoding. Rearrangement in the coding order is performed based on the reference relationship in the inter-picture prediction coding, and is rearranged so that the picture used as the reference picture is coded before the picture used as the reference picture. .
  • the reference relationship between the pictures B8 and B9 is as shown by the arrow in FIG. In FIG.
  • the starting point of the arrow indicates the picture to be referenced
  • the ending point of the arrow indicates the picture to be referenced.
  • the result of rearranging the pictures in Fig. 2 (a) is as shown in Fig. 2 (b).
  • each picture rearranged in the frame memory 101 is read out in macroblock units.
  • the macro block has a size of 16 horizontal pixels ⁇ 16 vertical pixels.
  • Motion compensation is performed in block units (here, the size of 8 x 8 pixels).
  • the encoding process of the picture B8 will be described in order.
  • Picture B 8 is a B picture, and pictures P 1, P 4, and P 7 as forward reference pictures, pictures PI 0 and PI 3 as backward reference pictures are used as reference pictures, and are used as macroblocks or blocks. It shall be coded using a maximum of two reference pictures out of one reference picture. Encoding of these reference pictures has already been completed, and local decoded images are stored in the frame memory 107.
  • the encoding control unit 110 turns on the switch 113. When the B picture is used as a reference picture for another picture, each switch is controlled so that switches 114 and 115 are turned on. If they are not used as reference pictures for other pictures, each switch is controlled so that switches 114 and 115 are turned off. Therefore, the picture B8 macroblock read from the frame memory 101 is first input to the motion vector detection unit 108, the mode selection unit 109, and the difference calculation unit 102. .
  • the motion vector detecting unit 108 uses the decoded image data of the pictures P 1, P 4, and P 7 stored in the frame memory 107 as forward reference pictures, and By using the decoded image data as a backward reference picture, the forward motion vector and the backward motion vector of each block included in the macroblock are detected.
  • the mode selection unit 109 determines the coding mode of the macroblock using the motion vector detected by the motion vector detection unit 108.
  • the coding mode of each block in the B picture is, for example, intra-picture coding, inter-picture prediction coding by referring to one forward picture, inter-picture prediction coding by referring to two forward pictures, and one backward picture It can be selected from the following: inter-picture predictive coding based on, inter-picture predictive coding using two backward pictures, and inter-picture predictive coding using a bidirectional motion vector.
  • the inter-picture predictive coding by referring to the two preceding pictures the inter-picture predictive coding by referring to the backward two pictures, and the inter-picture predictive coding using the bidirectional motion vector (refer to the forward and backward pictures one by one).
  • an image obtained by averaging two obtained reference images is used as a motion compensation image.
  • block X in picture B 8 is used as a forward reference picture using block Y of picture P 7 and block Z of picture P 4.
  • the average image of block Y and block z is used as the motion compensated image of block X.
  • the encoding mode determined by the mode selection unit 109 is output to the code sequence generation unit 104. Also, a reference image based on the encoding mode determined by the mode selection unit 104 is output to the difference calculation unit 102 and the addition calculation unit 106. However, if intra-picture encoding is selected, no reference image is output.
  • the control is performed so that the switch 111 is connected to a and the switch 112 is connected to c.
  • the predictive coding control is performed so that switch 1 1 1 is connected to b and switch 1 1 2 is connected to d.
  • the inter-picture prediction coding is selected by the mode selection unit 109 will be described.
  • the difference calculation unit 102 receives a reference image from the mode selection unit 109.
  • the difference calculation unit 102 calculates the difference between the macroblock of the picture B8 and the reference image, and generates and outputs a prediction error image.
  • the prediction error image is input to the prediction error encoding unit 103.
  • the prediction error encoding unit 103 generates and outputs encoded data by performing encoding processing such as frequency conversion and quantization on the input prediction error image.
  • the coded data output from the prediction error coding unit 103 is input to the code string generation unit 104.
  • the motion vector used in the encoding mode selected by the mode selection unit 109 is output to the motion vector storage unit 116 and the motion vector encoding unit 117.
  • the motion vector storage unit 116 stores the motion vector input from the mode selection unit 109. That is, the motion vector storage unit 116 stores the motion vector used in the already coded block.
  • the motion vector encoding unit 117 encodes the motion vector input from the mode selection unit 109. This operation will be described with reference to FIG. In FIG. 3, the blocks shown in bold frames indicate macroblocks of 16 ⁇ 16 pixels, among which there are four blocks of 8 ⁇ 8 pixels. In Figs. 3 (a) to (d), block A indicates the block being coded, and the motion vector of block A is that of three already coded peripheral blocks B, C, and D. It is encoded by the difference from the predicted value obtained from the motion vector. The motion vector of the peripheral block is obtained from the motion vector storage unit 116.
  • FIG. Figure 4 shows the motion vectors of blocks A to D.
  • the first motion vector is shown as MV1 and the second motion vector is shown as MV2.
  • the motion vector is “forward J”, it indicates that it is a forward reference motion vector.
  • the symbols and numbers in parentheses indicate the reference picture.
  • the predicted value for MV1 in block A is the median value of MV1 in blocks B, C, and D
  • the predicted value for MV2 in block A is Is the median value of MV 2.
  • the predicted value of block A for MV1 is the median of MV1 of blocks B, C, and D
  • the predicted value of block A for MV2 is the predicted value of MV2 of block C. The value itself.
  • the predicted value for MV 1 of block A is the median value of MV 1 and MV 2 of block B, MV 1 of block C, MV 1 and MV 2 of block D, and
  • the predicted value for MV 2 is the value of C MV 2 itself.
  • the predicted value for MV 1 in block A is the average value of MV 1 and MV 2 in block B, MV 1 in block C, and block D
  • the median of the three average values of MV 1 and MV 2 may be used.
  • the average value is set to the motion vector accuracy (for example, 1 Z 2 pixel accuracy, 1 Z 4 pixel accuracy, 18 pixel accuracy, etc.). Round.
  • the prediction value may be set to 0.
  • the median value is determined for each of the horizontal and vertical components.
  • a predicted value is created independently for MV 1 and MV 2 irrespective of the reference picture.
  • the arrangement of MV 1 and MV 2 in each block may be determined by a predetermined method. For example, they are arranged in order from the closest reference picture, arranged in order from the farthest reference picture, arranged in the order of forward and backward, arranged in the order of encoding (order of description in the code string), and so on.
  • the reference picture referred to by the motion vector of the current block and the reference picture of the motion vector selected as the predicted value are obtained.
  • the forward motion vector of the current block is encoded using the predicted value generated from the forward motion vector of the surrounding block, and the backward motion vector of the current block is encoded. Since the probability that a vector is coded using a predicted value generated from a backward motion vector of a neighboring block increases, the coding efficiency of the motion vector can be improved.
  • by arranging them in the order of encoding it is possible to simplify the method of managing peripheral blocks when generating predicted values. In the case of Fig.
  • the predicted value for MV1 in block A is the median of MV1 in predicted blocks B, C, and D, and The predicted value for V2 is the median of MV2 for blocks B, C, and D.
  • the predicted value for MV1 in block A is the median value of MV1 in blocks B, C, and D
  • the predicted value for MV2 in block A is It is the median value of MV 2 for B, C, and D.
  • the MV 1 In the third method of obtaining a predicted value, the MV 1 generates a predicted value from a peripheral block and uses the generated value as a value.
  • the value of MV1 may be used as the predicted value as it is, or a value obtained by scaling MV1 may be used as the predicted value.
  • scaling a method of matching the temporal distance from picture B8 to the reference picture of MV1 with the temporal distance from picture B8 to the reference picture of MV2 can be considered. An example will be described with reference to FIG. In FIG. 6, it is assumed that block A of picture B8 has motion vectors MV1 and MV2, and the respective reference pictures are pictures P7 and P4, respectively.
  • the motion vector MV 2 is MV 1 ′ obtained by scaling MV 1 to picture P 4 (in this case, the horizontal and vertical components of MV 1 are each quadrupled. ) Is the predicted value of MV2.
  • scaling may be performed using a predetermined value.
  • the arrangement of MV 1 and MV 2 in each block may be determined by a predetermined method. For example, order from the closest reference picture, order from the farthest reference picture, forward and backward There is a way of arranging such as arranging, arranging in encoding order.
  • the code sequence generation unit 104 performs variable length coding on the input coded data, and furthermore, the motion vector and mode selection unit input from the motion vector coding unit 117.
  • a code string is generated and output by adding information such as coding mode, header information, etc. input from 109.
  • the motion vector coding method of the present invention uses the motion vector of the already-encoded neighboring block as a prediction value when coding the motion vector of each block.
  • the motion vector is coded using the difference between the predicted value and the motion vector of the current block.
  • the motion vector referring to the same picture is referred to in a predetermined order.
  • the motion vector to be referred to is determined according to the order of the arranged motion vectors.
  • the second and subsequent motion vectors use the previous motion vector as a reference value and the motion vector referring to a different picture. For reference, perform processing such as scaling according to the distance between pictures, etc. Generate.
  • the motion vector encoding method of the present invention generates a motion vector of a current block to be encoded and its predicted value, and encodes a difference between the motion vector and the predicted value.
  • a motion vector coding method in which at least one or more blocks among a plurality of coded blocks around the block to be coded are used as reference pictures in the same direction on the display time axis.
  • an assigning step of assigning an identifier to the motion vector for each of the encoded blocks; and, of the motion vectors of the plurality of encoded blocks, And generating a predicted value of the motion vector of the current block based on the motion vector having the same identifier.
  • the above-mentioned providing step and generating step can be the following (a) or (b).
  • an identifier is assigned to a motion vector of the encoding target block
  • the generating step includes, among the motion vectors of the plurality of encoded blocks, A generation sub-step for generating a predicted value candidate for each identifier based on a motion vector having the same identifier as the identifier assigned to the block, and the predicted value for each identifier of the motion vector of the encoding target block. And a sub-step for associating candidates.
  • a method for encoding a vector can be defined, and the encoding efficiency of a motion vector can be improved.
  • a macroblock is a unit of 16 ⁇ 16 pixels horizontally
  • a motion compensation is a block of 8 ⁇ 8 pixels
  • a block prediction error image is 8 ⁇ 8 pixels.
  • the motion vector of three encoded neighboring blocks is used and the median value is used as the predicted value. May be other values or other methods. For example, there is a method in which the motion vector of the block on the left is used as a predicted value.
  • the position of the prediction block in the coding of the motion vector has been described with reference to FIG. 3, but this may be another position.
  • the block size is assumed to be 8 ⁇ 8 pixels, but when blocks of other sizes are mixed, the following block is used for the encoding target block A. May be used as encoded peripheral blocks B, C, and D.
  • block B is a block including the pixel adjacent to the left of the upper left pixel in block A
  • block C is a block including the pixel adjacent to the upper left pixel in block A
  • block D may be determined to be a block including pixels adjacent to the upper right end pixel in block A at an oblique upper right.
  • the motion vector is coded by taking the difference between the motion vector of the current block and the prediction value obtained from the motion vector of the peripheral block.
  • the motion vector may be encoded by a method other than the difference.
  • the first to third prediction value generation methods have been described as a method of generating a prediction value of motion vector coding, but these methods are used in combination. May be.
  • FIG. 3 shows an example in which the first predicted value generation method and the second predicted value generation method are mixed
  • block A shown in Figs. 3 (a) to 3 (d) is A process for generating a prediction value when two motion vectors of each block of peripheral blocks B to D both point to a reference block in the same direction (forward or backward) as a block. It is a flowchart shown below.
  • steps S 115 to S 118 are the first predicted value generation method described above.
  • Steps S111 to S114 are parts for determining the arrangement of the peripheral blocks in the second prediction value generation method described above.
  • the predetermined order in S112 may be the near order of the reference pictures, the far order, the order of encoding, or the like.
  • the order of encoding is the order of description in the code string as shown in FIG.
  • picture data corresponding to one picture in the code string is shown.
  • the picture data includes encoded data of each block following the header.
  • the motion vector is described in the coded data of the block.
  • the motion vectors of blocks B and C are in the order of early coding.
  • the motion vectors arranged in a predetermined order and having the same rank are classified as MV1 and MV2.
  • the processing is simplified by classifying the motion vectors of the peripheral blocks. In other words, if no classification is performed, the median of the motion vectors of at most 6 (2 motion vectors X 3 peripheral blocks) will be calculated.
  • the two motion vectors of the peripheral block B are arranged in the above-described predetermined order (S112), and are identified in this order.
  • a different child for example, 0, 1, 1, 2, MV1, MV2, etc.
  • S113 a different child
  • identifiers for example, 0, 1, 1, 2, MV1, MV2, etc.
  • identifiers are similarly assigned to the two motion vectors of the block A to be encoded.
  • a motion vector having the same identifier (for example, 0 or 1) is selected from among the motion vectors of the peripheral blocks B to D (S116), and is selected.
  • the median value of the estimated motion vector is used as the predicted value of the motion vector of the encoding target block A (S117). Similarly, the predicted value of the other motion vector is obtained.
  • the above two medians are calculated as candidates for prediction values, independently of the identifier of the motion vector of block A, and are calculated for each identifier of the motion vector of block A.
  • one of the candidates may be selected (or corresponded).
  • the assignment of the identifier in the loop 1 may not be performed when the predicted value of the block A is generated, but may be performed when detecting the motion vector of the peripheral blocks B, C, and D.
  • the assigned identifier is stored in the motion vector storage unit 116 together with the motion vector.
  • the method of generating the third predicted value is used instead of S115 to S118 in FIG. Should be executed.
  • a method of generating a prediction value of motion vector coding has been described as an example in which only a forward reference motion vector is used, but a backward reference picture is included. Can be considered in the same way.
  • the motion vector may be treated as the first or second motion vector.
  • the motion vector storage management method in the motion vector storage unit 116 in this embodiment includes: 1. The motion vectors of peripheral blocks and their order (whether the first motion vector is the first motion vector or not). , And an identifier indicating whether the block is the second motion vector), the first vector is obtained using the identifier when the motion vector of the peripheral block is obtained from the motion vector storage unit 116. Or, a method of acquiring the second motion vector, 2. Determine the positions where the first motion vector and the second motion vector of the peripheral blocks are stored in advance, and move the motion vectors of the peripheral blocks.
  • a management method such as a method of acquiring the first or second motion vector by accessing the memory location.
  • FIG. 9 shows a code string analysis unit 701, a prediction error decoding unit 702, a mode decoding unit 703, a motion compensation decoding unit 705, a motion vector storage unit 706, and a frame memory 70.
  • the code sequence of the picture B 8 is input to the code sequence analysis unit 70 1.
  • the code string analysis unit 701 extracts various data from the input code string.
  • various types of data include mode selection information and motion vector information.
  • the extracted mode selection information is output to mode decoding section 703.
  • the extracted motion vector information is output to the motion vector decoding unit 711.
  • the prediction error encoded data is output to prediction error decoding section 720.
  • the mode decoding section 703 controls the switches 709 and 710 with reference to the mode selection information extracted from the code string. If the mode selection is intra-picture coding, switch 709 is connected to a and switch 710 is connected to c. When the mode selection is the inter-picture prediction coding, control is performed so that the switch 709 is connected to b and the switch 710 is connected to d.
  • the mode decoding section 703 outputs mode selection information to the motion compensation decoding section 705 and the motion vector decoding section 711.
  • mode selection is the inter-picture prediction coding
  • the prediction error decoding unit 7202 decodes the input prediction error coded data to generate a prediction error image.
  • the generated prediction error image is output to the switch 709.
  • the prediction error image is output to the addition operation unit 708.
  • the motion vector decoding unit 71 1 performs a decoding process on the encoded motion vector input from the code sequence analysis unit 70 1.
  • the motion vector is decoded by using the motion vector of the decoded neighboring block. This operation will be described with reference to FIG.
  • the motion vector (MV) of the block A being decoded is the predicted value obtained from the motion vectors of the three neighboring blocks B, C, and D that have already been decoded, and the coded motion vector Calculated as the sum of.
  • the motion vector of the peripheral block is obtained from the motion vector storage unit 706.
  • blocks A through D 2 shows the motion vector possessed by.
  • the first motion vector is shown as MV1
  • the second motion vector is shown as MV2.
  • symbols and numbers in parentheses indicate the reference picture.
  • the predicted value for MV1 in block A is the median of MV1 in blocks A, C, and D
  • the predicted value for MV2 in block A is Is the median value of MV 2.
  • the predicted value of block A for MV1 is the median of MV1 of blocks B, C, and D
  • the predicted value of block A for MV2 is the predicted value of MV2 of block C. The value itself.
  • the predicted value for MV 1 of block A is the median value of MV 1 and MV 2 of block B, MV 1 of block C, MV 1 and MV 2 of block D, and
  • the predicted value for MV 2 is the value of C MV 2 itself.
  • the predicted value for MV 1 in block A is the median of the three values of MV 1 and MV 2 in block B, MV 1 in block C, and MV 1 and MV 2 in block D. It may be.
  • round the average value to the accuracy of the motion vector eg, 12 pixel accuracy, 14 pixel accuracy, 1/8 pixel accuracy, etc.
  • the prediction value may be set to 0.
  • the median value is determined for each of the horizontal and vertical components.
  • a predicted value ⁇ is created independently for MV 1 and MV 2 irrespective of the reference picture.
  • MV 1, M in each block The arrangement of V2 may be determined by a predetermined method. For example, they are arranged in order from the closest reference picture, arranged from the farthest reference picture, arranged in the order of forward and backward, arranged in the decoding order (order of description in the code string), and so on.
  • the predicted value for MV1 in block A is the median of MV1 in predicted blocks B, C, and D
  • the predicted value for MV2 in block A is , D is the median of MV 2.
  • the predicted value for MV1 in block A is the median value of MV1 in blocks B, C, and D
  • the predicted value for MV2 in block A is , The median value of MV 2 for blocks B, C, and D.
  • blocks B, C , D may be scaled. This scaling may be performed by a value determined by the temporal distance between pictures, or may be performed by a predetermined value.
  • the MV 1 In the third method of obtaining a predicted value, the MV 1 generates a predicted value from a peripheral block and uses it as a value.
  • the value of MVI may be used as the predicted value as it is, or a value obtained by scaling MV1 may be used as the predicted value.
  • scaling a method of matching the temporal distance from picture B8 to the reference picture of MV1 with the temporal distance from picture B8 to the reference picture of MV2 can be considered. An example will be described with reference to FIG. In FIG. 6, it is assumed that block A of picture B8 has motion vectors MV1 and MV2, and the respective reference pictures are pictures P7 and P4, respectively.
  • the motion vector MV2 is obtained by scaling MV1 to picture P4, and MV1 '(in this case, the horizontal and vertical components of MV1 are calculated as follows).
  • MV 2 is the predicted value of MV 2).
  • scaling may be performed using a predetermined value.
  • the arrangement of MV 1 and MV 2 in each block may be determined by a predetermined method. For example, there is a method of arranging the reference pictures in order from the closest one, arranging them in the order of distant reference pictures, arranging in the order of front and back, arranging in the order of decoding, and the like.
  • the decoded motion vector is output to the motion compensation decoding unit 705 and the motion vector storage unit 706.
  • the motion compensation decoding unit 705 acquires a motion compensation image from the frame memory 707 based on the input motion vector.
  • the motion-compensated image generated in this way is output to the addition operation unit 708.
  • the motion vector storage unit 706 stores the input motion vector. That is, the motion vector storage unit 706 stores the motion vector of the decoded block.
  • the addition operation unit 708 adds the input prediction error image and the motion compensated image to generate a decoded image.
  • the generated decoded image is output to the frame memory 7 0 7 via a sweep rate pitch 7 1 0.
  • the macroblocks of picture B8 are sequentially decoded.
  • the motion vector decoding method of the present invention decodes the motion vector of each block
  • the motion vector of the peripheral block that has already been decoded is used as a prediction value.
  • the motion vector is decoded by adding the predicted value and the encoded motion vector of the current block.
  • the motion vectors referencing the same picture are arranged in a predetermined order.
  • the motion vector to be referred to is determined according to the order of the motion vectors.
  • the second and subsequent motion vectors use the previous motion vector as a reference value, and refer to a motion vector that refers to a different picture. Then, processing such as performing scaling according to the distance between difference pictures is performed to generate a predicted value.
  • the motion vector decoding method of the present invention generates a predicted value of a block to be decoded, and decodes the motion vector encoded using the predicted value.
  • a decoding method wherein at least one or more of a plurality of decoded blocks around the current block to be decoded have a motion vector that refers to a reference picture in the same direction on the display time axis.
  • an assigning step of assigning an identifier to the motion vector for each of the decoded blocks, and based on a motion vector having the same identifier among the motion vectors of the plurality of decoded blocks.
  • the generation step can be the following (a) or (b).
  • the prediction value generated in the generation step is generated based on the motion vectors of the plurality of decoded blocks having the same identifier as the motion vector of the block to be decoded. .
  • the prediction value generated in the generation step includes: a prediction value candidate generated for each motion vector identified identically among the motion vectors of the decoded block; It is generated in correspondence with the motion vector of the target block.
  • the motion vector of the decoded block is identified based on either the farthest order or the nearest order of the reference picture referred to by the motion vector.
  • the median value is used as the predicted value using the motion vectors of the three decoded peripheral blocks, but the number of peripheral blocks and the prediction
  • the method of determining the value may be another value or another method. For example, there is a method of using the motion vector of the block on the left as a predicted value.
  • the block size is assumed to be 8 ⁇ 8 pixels.
  • the following block is used for the encoding target block A.
  • the position of the prediction block in the decoding of the motion vector has been described with reference to FIG. 3, but this may be another position.
  • the motion vector of the decoding target block is T JP03 / 04540
  • the first to third prediction value generation methods have been described as the generation method of the motion vector decoding predicted value, but these methods are used in combination. May be.
  • the predicted value may be generated according to the flow shown in FIG.
  • the generation of the third predicted value is performed instead of S115 to S118 in FIG. You just have to execute the method.
  • a method of generating a prediction value of motion vector coding has been described as an example in which only a forward reference motion vector is used, but a backward reference picketia is included. Can be considered in the same way.
  • the method of storing and managing the motion vector in the motion vector storage unit 706 includes: 1. The motion vectors of the peripheral blocks and their order (the first motion vector). The identifier is used to obtain the motion vector of the peripheral block from the motion vector storage unit 706 by storing the motion vector of the peripheral block or the second motion vector. Method of acquiring the first or second motion vector by performing the following steps: 2. Predetermining the positions where the first and second motion vectors of the peripheral blocks are stored, and determining the positions of the peripheral blocks.
  • a management method such as a method of obtaining the first or second motion vector by accessing the memory location. .
  • FIG. 10 is an explanatory diagram of a case in which the present invention is implemented by a computer system using a flexible disk storing the above program.
  • Fig. 10 (b) shows the appearance, cross-sectional structure, and flexible disk of the flexible disk as viewed from the front
  • Fig. 10 (a) shows an example of the physical format of the flexible disk, which is the main body of the recording medium.
  • the flexible disk FD is built in the case F, and a plurality of tracks Tr are formed concentrically from the outer circumference toward the inner circumference on the surface of the disk, and each track has 16 sectors in the angular direction. Se has been split. Therefore, in the flexible disk storing the program, an image encoding method as the program is recorded in an area allocated on the flexible disk FD.
  • FIG. 10 (c) shows a configuration for recording and reproducing the above program on the flexible disk FD.
  • the image encoding method or the image decoding method as the above program is written from the computer system Cs via the flexible disk drive.
  • the program is read from the flexible disk by a flexible disk drive and transferred to the computer system.
  • the same operation can be performed using an optical disk.
  • the recording medium is not limited to this, and any other recording medium such as an IC card, a ROM cassette, or the like can be used in the same manner.
  • FIGS. 11 to 14 are diagrams illustrating the device that performs the encoding process or the decoding process described in the first embodiment, and a system using this device.
  • FIG. 11 is a block diagram showing the overall configuration of a content supply system ex100 for realizing a content distribution service.
  • the communication service providing area is divided into desired sizes, and base stations ex107 to ex110, which are fixed radio stations, are installed in each cell.
  • the content supply system ex100 is, for example, connected to the Internet ex101 via an Internet service provider exl02 and a telephone network ex104, and base stations exl07 to ex110 via a computer.
  • Each device such as ex111, PDA (personal digital assistant) ex112, camera ex113, mobile phone ex114, camera-equipped mobile phone e115 is connected.
  • each device may be directly connected to the telephone network exl 04 without going through the base stations exl 07 to ex 110 which are fixed wireless stations.
  • the camera exl 13 is a device capable of shooting moving images, such as a digital video camera.
  • PDC Persona I Digita I Gommunications
  • CDMA Code Division Multiple Access
  • W-CDMA Wideband-Code Division on Mu 11 ip Ie Access
  • GSM Global System for obile Communications
  • PHS Persona I Handyphone System
  • the streaming server ex103 is connected to the camera ex111 via the base station ex109 and the telephone network ex104, and the code transmitted by the user using the camera ex113. Live distribution and the like based on the data that has been processed can be performed.
  • the encoding process of the photographed data may be performed by the camera ex113, or may be performed by a server or the like that performs the data transmission process.
  • the moving image data shot by the camera ex111 may be transmitted to the streaming server ex103 via the computer ex111.
  • the camera ex116 is a device such as a digital camera that can shoot still images and moving images. In this case, encoding of the moving image data may be performed by the camera exl16 or by the computer exl11.
  • the encoding process is performed by the LSI ex117 of the computer ex111 and the camera ex116.
  • the image encoding / decoding software may be incorporated in any storage medium (CD-ROM, flexible disk, hard disk, etc.) that is a recording medium readable by a computer ex111 or the like.
  • the moving image data may be transmitted by a camera-equipped mobile phone exl15. The moving image data at this time is data that has been encoded by the LSI included in the mobile phone ex "! 15.
  • the content (for example, video of live music) taken by the user with the camera exl13, the camera ex116, etc. is encoded in the same manner as in the above embodiment.
  • the streaming server ex103 transmits the content data to the streaming server ex103, while the streaming server ex103 streams the content data to the requested client.
  • Examples of the client include a computer ex111, a PDA ex112, a camera ex113, a mobile phone ex114, etc., which can decode the encoded data.
  • the content The supply system ex 1 o 0 can receive and play the encoded data at the client, and can also realize personal broadcasting by receiving, decoding, and playing the data in real time at the client It is a system that becomes
  • each device constituting this system may be performed using the moving picture coding apparatus or the moving picture decoding apparatus described in each of the above embodiments.
  • a mobile phone will be described as an example.
  • FIG. 12 is a diagram showing the mobile phone ex115 using the moving picture coding method and the moving picture decoding method described in the above embodiment.
  • the mobile phone ex 1 15 has an antenna ex 210 for transmitting and receiving radio waves to and from the base station ex 110, a camera unit ex 203 capable of taking images and still images of a CCD camera, etc.
  • Display unit ex202 such as a liquid crystal display, that displays data obtained by decoding the video captured by the camera unit ex203 and the video received by the antenna ex201, etc., and operation keys eX204 group.
  • the recording medium ex207 stores a flash memory device, a type of electrically erasable and programmable read only memory (EEPROM), a non-volatile memory that can be electrically rewritten and erased in a plastic case such as an SD card. Things.
  • EEPROM electrically erasable and programmable read only memory
  • the ex1 15 is a power supply circuit ex 3 1, whereas the main control unit ex 3 1 1 controls the parts of the main unit equipped with the display unit ex 20 2 and the operation keys ex 204 in a comprehensive manner.
  • demultiplexing unit ex308, the recording / reproducing unit ex307, the modulation / demodulation circuit unit ex306, and the audio processing unit ex305 are connected to each other via a synchronous bus ex310.
  • the power supply circuit ex310 supplies the camera-equipped digital mobile phone exl15 by supplying power from the battery pack to each unit when the user hangs up the call and the power key is turned on. Start up in an operable state.
  • the mobile phone exl 15 processes the audio signal collected by the audio input unit ex 205 in the voice call mode, based on the control of the main control unit ex3 11 consisting of CPU, ROM, RAM, etc.
  • the ex-305 unit converts the data into digital voice data, and this is subjected to spread spectrum processing in the modulation / demodulation circuit unit ex 306, and the digital-analog conversion processing and the frequency conversion processing in the transmission / reception circuit ex 310. After that, transmission is performed via the antenna ex201.
  • the mobile phone ex115 also amplifies the data received by the antenna ex201 in the voice call mode, performs frequency conversion processing and analog-to-digital conversion processing, and uses the modulation / demodulation circuit section ex306. After performing a spectrum despreading process and converting it into analog audio data by an audio processing unit ex305, this is output through an audio output unit ex208.
  • the e-mail text data entered by operating the operation key eX204 on the main unit is controlled via the operation input control unit ex304. It is sent to the section ex 3 1 1.
  • the main control unit ex311 sends the text data to the modulation and demodulation circuit unit ex306. JP03 / 04540
  • the signal After performing spread spectrum processing and performing digital-to-analog conversion processing and frequency conversion processing in the transmission / reception circuit unit ex301, the signal is transmitted to the base station ex110 via the antenna ex201.
  • the image data captured by the camera unit ex203 is supplied to the image encoding unit ex312 via the camera interface unit ex303.
  • the image data captured by the camera unit ex203 is displayed on the display unit ex203 via the camera interface unit ex303 and the LCD control unit ex302. It is also possible to display directly on 2.
  • the image encoding unit ex 312 has a configuration including the image encoding device described in the present invention, and performs image encoding shown in the above-described embodiment on image data supplied from the camera unit ex 203.
  • the data is converted into coded image data by compression coding according to the coding method used in the device, and is transmitted to the demultiplexing unit ex308.
  • the mobile phone ex115 simultaneously outputs the voice collected by the voice input unit ex205 during the imaging by the camera unit ex203 via the voice processing unit ex305.
  • the demultiplexer tij ' is set to ex308.
  • the demultiplexing unit ex308 multiplexes the encoded image data supplied from the image encoding unit ex312 and the audio data supplied from the audio processing unit ex305 in a predetermined manner, and obtains the result.
  • the multiplexed data is subjected to spread spectrum processing in the modulation and demodulation circuit section ex306, subjected to digital analog conversion processing and frequency conversion processing in the transmission / reception circuit section ex301, and then transmitted via the antenna ex201. I do.
  • the received data received from the base station ex110 through the antenna ex201 is scanned by the modem circuit ex306.
  • Pectoral despreading After processing, the resulting multiplexed data is sent to the demultiplexing unit ex308.
  • the demultiplexing unit ex308 demultiplexes the multiplexed data to obtain the bit stream of the re-image data.
  • the audio data is divided into a bit stream of the audio data, the encoded image data is supplied to an image decoding unit ex309 via a synchronous bus ex31, and the audio data is processed by the audio processing unit ex305. To supply.
  • the image decoding unit ex309 has a configuration including the image decoding device described in the present invention, and corresponds to the encoding method shown in the above-described embodiment.
  • the reproduced video data is generated by decoding with the above-described decoding method, and the reproduced video data is supplied to the display unit ex202 via the LCD control unit ex302.
  • the moving image data included in the moving image file is displayed.
  • the audio processing unit ex305 converts the audio data into analog audio data, and then supplies the analog audio data to the audio output unit ex208, whereby, for example, a moving image linked to a homepage
  • the audio data included in the image file is reproduced.
  • the bit stream of the video information is transmitted via radio waves to the communication or broadcasting satellite ex410.
  • the broadcasting satellite ex 410 receiving this transmits a radio wave for broadcasting, receives this radio wave with a home antenna ex 406 equipped with satellite broadcasting receiving equipment, and sets a television (receiver) ex 410 or A device such as a set-top box (STB) ex 407 decrypts the stream Play it.
  • STB set-top box
  • the image decoding device described in the above embodiment is also mounted on the reproducing device ex 403 that reads and decodes the bit stream recorded on the storage medium ex 402 such as GD or DVD, which is a recording medium. It is possible to do.
  • the reproduced video signal is displayed on the monitor ex404.
  • an image decoding device is installed in a set-top box ex 407 connected to a cable TV cable ex 405 or a satellite terrestrial broadcasting antenna ex 406, and this is connected to a TV monitor ex. A configuration in which playback is performed in 408 is also conceivable. At this time, the image decoding device may be incorporated in the television instead of the set-top box.
  • a signal is received from the car ex 4 10 having the antenna ex 4 11 from the satellite ex 4 10 or the base station ex 10 7 or the like, and the car navigation system ex 4 13 which the car ex 4 12 has is provided. It is also possible to play back the video on a display device such as.
  • an image signal can be encoded by the image encoding device described in the above embodiment and recorded on a recording medium.
  • a recorder eX420 such as a DVD recorder for recording an image signal on a DVD disk and a disk recorder for recording on a hard disk. It can also be recorded on an SD card e x 4 2 2. If the recorder ex420 has the image decoding device described in the above embodiment, the image signal recorded on the DVD disc eX421 or the SD card eX422 is reproduced, and the monitor eX42 is used. 408 can be displayed.
  • the configuration of the force navigation ex4 13 is, for example, the configuration shown in FIG. 13 excluding the camera unit ex203, the camera interface unit ex303, and the image encoding unit eX312. The same can be said for the combi- ter ex111 or TV (receiver) ex401.
  • terminals such as the above-mentioned mobile phone ex114 are transmission / reception terminals having both an encoder and a decoder, as well as a transmission terminal having only an encoder and a terminal having only a decoder.
  • the moving picture coding method or the moving picture decoding method described in the above embodiment can be used in any of the above-described device systems, and by doing so, the method described in the above embodiment can be used. The effect can be obtained.
  • the present invention generates a motion vector of a current block and its predicted value, encodes a difference between the motion vector and the predicted value, and describes the motion vector in a code sequence representing a moving image.
  • the present invention is used for an apparatus, a moving picture encoding apparatus, a motion vector decoding apparatus for decoding the above-mentioned code sequence, and a moving picture decoding apparatus.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Error Detection And Correction (AREA)

Description

明 細 書
動きべク トル符号化方法および動きべク トル復号化方法 技術分野
本発明は、 ピクチャ間予測符号化を用いて符号化および復号化を行う 際の、 動きべク トル情報の符号化および復号化を行う方法に関する。 背景技術
動画像符号化においては、 一般に動画像が有する空間方向および時間 方向の冗長性を利用して情報量の圧縮を行う。 ここで、 時間方向の冗長 性を利用する方法として、 ピクチャ間予測符号化が用いられる。 ピクチ ャ間予測符号化では、 あるピクチャを符号化する際に、 時間的に前方ま たは後方に.あるピクチャを参照ピクチャとする。 そして、 その参照ピク チヤからの動き量を検出し、 動き補償を行ったピクチャと符号化対象の ピクチャとの差分値に対して空間方向の冗長度を取り除く ことによリ情 報量の圧縮を行う。
非特許文献 1 ( M P E G — 4 規格書 ( 1 9 9 9 年、 IS0/IEC 14496-2: 1999 Information technology - Coding of audio - visual objects -- Part2: Visual) pp.146-148, 以下 M P E G— 4と呼ぶ。) 等の従来の動画像符号化方式では、 ピクチャ間予測符号化を行わない、 すなわちピクチャ内符号化を行う ピクチャを I ピクチャと呼ぶ。 また、 時間的に前方にあるピクチャを参照してピクチャ間予測符号化するピク チヤを Pピクチヤと呼び、 時間的に前方および後方にある I ピクチャま たは Pピクチャの両方を参照してピクチャ間予測符号化するピクチャを Bピクチャと呼ぶ。 図 1 5に上記の動画像符号化方式における、 各ピク チヤの予測関係を示す。 図 1 5において、 縦線は 1枚のピクチャを示し ており、 各ピクチャの右下にピクチャタイプ ( 1 、 P、 B ) を示してい る。 また図 1 5中の矢印は、 矢印の終端にあるピクチャが、 矢印の始端 にあるピクチャを参照ピクチャとして用いてピクチャ間予測符号化する ことを示している。 例えば、 先頭から 2枚目の Bピクチャは、 先頭の I ピクチャと先頭から 4枚目の Pピクチャを参照画像と して用いることに より符号化する。
また、 上記の非特許文献 1 では、 動きベク トルの符号化の際に、 周辺 ブロックの動きベク トルから求めた予測値と符号化対象ブロックの動き べク トルとの差分値を符号化する。 多くの場合には、 近傍のブロックの 動きべク トルは、 空間座標上で同じような方向および大きさを有するの で、 周辺ブロックの動きベク トルとの差分値を取ることにより、 動きべ ク トルの符号量の削減を図ることができる。 M P E G— 4における動き べク トルの符号化方法について、 図 1 6を用いて説明する。 図 1 6にお いて、 太枠で示したブロックは 1 6 X 1 6画素のマクロブロックを示し ており、 その中に 8 X 8画素のブロックが 4つ存在する。 図 1 6 ( a ) 〜 ( d ) において、 各ブロックの動きベク トル (M V ) は、 3つの周辺 ブロックの動きベク トル (M V 1 、 M V 2、 M V 3 ) から求めた予測値 との差分値により符号化される。 ここで予測値は、 3つの動きベク トル M V 1 、 M V 2、 M V 3の水平成分、 垂直成分毎に求めた中央値 (メデ イアン) を用いる。 ただし、 周辺ブロックが動きべク トルを有さない場 合もある。 例えば、 イントラブロックとして処理されている場合や、 B ピクチャにおいてダイレク トモードとして処理されている場合である。 周辺ブロックに、 このようなブロックが 1 つ存在する場合には、 そのブ ロックの動きベク トルを 0と して処理を行う。 また、 2つ存在する場合 には、 残りの 1 つのブロックの動きべク トルを予測値と して用いる。 さ らに、 3つすべてが動きべク トルを有さないブロックである場合には、 予測値は 0と して動きべク トル符号化の処理を行う。
—方、 現在標準規格化作業中である H . 2 6 L方式では、 Bピクチャ に対して新たな符号化が提案されている。 従来 Bピクチャでは、 参照ピ クチャと して既に符号化済み前方 1 枚と後方 1枚のピクチャを用いてい るが、 新たに提案された Bピクチヤでは、 既に符号化済の、 前方 2枚の ピクチャ、 または後方 2枚のピクチャ、 または前方 1 枚と後方 1 枚のピ クチャを用いることにより、 符号化を行う。
上記従来の動きべク トルの符号化方法では、 Bピクチャにおいて周辺 ブロックが 2つの動きべク トルを有することができ、 かつそれらが共に 前方参照ピクチャを参照している、 または共に後方参照ピクチャを参照 している場合に、 どちらの動きべク トルを予測値として用いれば良いか を統一的に決定する方法、またその際に効率的に符号化する方法がない。 本発明は上記問題点を解決するものであり、 Bピクチャにおいて、 動 きベク トルの符号化における予測値決定方法の統一性を持たせることが でき、 かつ予測能力を向上させることができる、 動きベク トル符号化方 法および動きぺク トル復号化方法を提供することを目的とする。 発明の開示
上記目的を達成するために、 本発明の動きべク トル符号化方法は、 符 号化対象ブロックの動きべク トルとその予測値とを生成し、 動きべク ト ルと予測値との差分を符号化し、 動画像を表す符号列に記述する動きべ ク トル符号化方法であって、 当該符号化対象ブロックの周辺にある複数 の符号化済の各ブロックのうち少なく とも 1 以上のブロックが、 表示時 間軸上で同一方向の参照ピクチャを参照する 2つの動きベク トルを有す る場合に、 当該符号化済のブロック毎に動きベク トルに識別子を付与す る付与ステップと、 前記複数の符号化済みプロックの動きべク トルのう ち、 同一の識別子を有する動きべク トルに基づいて、 前記符号化対象ブ ロックの動きベク トルの予測値を生成する生成ステップとを有する。 ここで、 前記付与ステップにおいて、 さらに、 前記符号化対象ブロッ クの動きべク トルに識別子を付与し、 記生成ステップにおいて、 前記複 数の符号化済みブロックの動きベク トルのうち、 前記符号化対象ブロッ クに付与された識別子と同一の識別子を有する動きベク トルに基づいて, 前記符号化対象ブロックの動きベク トルの予測値を生成するようにして もよい。
また、 前記付与ステップにおいて、 当該符号化済ブロック毎に 2つの 動きべク トルについて、 前記符号列での記述順に基づいて識別子を付与 するようにしてもよい。
ここで、 前記付与ステップにおいて、 当該符号化済ブロック毎に 2つ の動きべク トルに対して、 当該動きべク トルが参照する参照ピクチャの 遠い順と近い順との何れかに基づいて識別子を付与するようにしてもよ い。
ここで、 前記生成ステップにおいて、 前記同一の識別子を有する動き べク トルから、 符号化対象ブロックの動きべク トルと同じ参照ピクチャ を参照する動きべク トルを選択し、 選択した動きべク トルに基づいて予 測値を生成するようにしてもよい。
ここで、 前記生成ステップにおいて、 選択された動きべク トルの中央 値を予測値と して生成するようにしてもよい。
また、 本発明の動画像符号化方法、 動きべク トル復号化方法、 動画像 復号化方法、 動きべク トル符号化装置、 動きべク トル復号化装置、 及び それらのプログラムについても上記と同様に構成されている。
また、 本発明の動きべク トル符号化方法は、 各ブロックの動きべク 卜 ルを符号化する際に、 既に符号化済みの周辺ブロックの動きべク トルを 予測値として用い、 その予測値と現在のブロックの動きべク トルとの差 分値を用いて動きべク トルの符号化を行う。この予測値の生成の際には、 同一方向(前方向または後方向)に複数の動きベク トルを有する場合に、 同一ピクチャを参照する動きべク トルを参照する、 予め定めた順序で並 ベた動きベク トル順に従って参照する動きベク トルを決定する、 2番目 以降の動きべク トルはそれ以前の動きべク トルを参照値とする、 異なる ピクチャを参照する動きべク トルを参照する場合には、 差ピクチャ間距 離に応じたスケーリングを行う、 等の処理を行い、 予測値を生成する。
これにより、 動きベク トルの符号化において、 同一方向 (前方向また は後方向) に複数の動きべク トルを有する場合であっても、 統一的に動 きべク トルの符号化を行う方法を定義することができ、 かつ動きべク ト ルの符号化効率を向上させることができる。
また、 本発明の動きベク トル復号化方法は、 各ブロックの動きべク ト ルを復号化する際に、 既に復号化済みの周辺プロックの動きべク トルを 予測値として用い、 その予測値と現在のブロックの符号化された動きべ ク トルと加算することにより、 動きべク トルの復号化を行う。 この予測 値の生成の際には、 同一方向 (前方向または後方向) に複数の動きべク トルを有する場合に、同一ピクチャを参照する動きベク トルを参照する、 予め定めた順序で並べた動きべク トル順に従って参照する動きべク トル を決定する、 2番目以降の動きベク トルはそれ以前の動きベク トルを参 照値とする、 異なるピクチャを参照する動きべク トルを参照する場合に は、 差ピクチャ間距離に応じたスケーリングを行う、 等の処理を行い、 予測値を生成する。
これにより、 本発明の動きべク トル符号化方法により符号化が行われ た動きべク トルを正しく復号化することができる。 図面の簡単な説明
図 1 は、 本発明の実施の形態 1 における画像符号化装置の構成を示す ブロック図である。
図 2 ( a ) は、 フレームメモリに入力されるピクチャの順序を示す図 である。
図 2 ( b ) は、 ピクチャの符号化の順序を示す図である。
図 3 ( a ) は、 符号化対象ブロック (マクロブロック左上) と符号化 済の周辺ブロックとを示す図である。
図 3 ( b ) は、 符号化対象ブロック (マクロブロック右上) と符号化 済の周辺ブロックとを示す図である。
図 3 ( c ) は、 符号化対象ブロック (マクロブロック左下) と符号化 済の周辺ブロックとを示す図である。
図 3 ( d ) は、 符号化対象ブロック (マクロブロック右下) と符号化 済の周辺ブロックとを示す図である。
図 4 ( a ) は、 符号化対象ブロックと符号化済み周辺ブロックの動き ベク トルが参照する参照ピクチャを示す図である。
図 4 ( b ) は、 符号化対象ブロックと符号化済み周辺ブロックの動き ベク トルが参照する参照ピクチャを示す図である。
図 4 ( c ) は、 符号化対象ブロックと符号化済の周辺ブロックの動き べク トルが参照する参照ピクチャを示す図である。
図 5は、 参照ピクチャが 2枚とも前方にある場合の動き補償を説明す るための図である。
図 6は、 動きべク トルをスケーリングする場合の説明図である。 図 7は、 第 1 の予測値の生成方法と第 2の予測値の生成方法とを混合 した場合の予測値生成方法を示すフローチャー トである。
図 8は、 符号列に記述された動きべク トルの順序を示す図である。 図 9は、 本発明の実施の形態 2における画像復号化装置 構成を示す ブロック図である。
図 1 0 ( a ) は、 フレキシブルディスクの物理フォーマッ トを示す図 である。
図 1 0 ( b ) は、 フレキシブルディスクの正面からみた外観、 断面構 造、 及びフレキシブルディスク本体を示す図である。
図 1 0 ( c ) は、 フレキシブルディスクにプログラムの書き込み及び 読み出しを行う装置の外観を示す図である。
図 1 1 は、 コンテンツ供給システムの全体構成を示すブロック図であ る。
図 1 2は、 動画像符号化方法と動画 復号化方法を用いた携帯電話を 示す図である。
図 1 3は、 携帯電話の構成を示すブロック図である。
図 1 4は、 ディジタル放送用システムを示す図である。
図 1 5は、 従来技術におけるピクチャ参照関係を示す図である。
図 1 6は、 予測値の生成に用いる周辺ブロックを示す図である。 発明を実施するための最良の形態
(第 1 の実施の形態)
本発明の第 1 の実施の形態について、 図面を参照して説明する。 図 1 は、 フレームメモリ 1 0 1 、 差分演算部 1 0 2、 予測誤差符号化部 1 0 3、符号列生成部 1 0 4、予測誤差復号化部 1 0 5、加算演算部 1 0 6、 フ レームメモリ 1 0 7、 動きべク トル検出部 1 0 8、 モー ド選択部 1 0 9、 符号化制御部 1 1 0、 スィ ッチ 1 1 1 〜 1 1 5、 動きべク トル記憶 部 1 1 6、 動きべク トル符号化部 1 1 7から構成される画像符号化装置 のブロック図であり、 画像符号化の一部として動きべク トル符号化を行 入力画像は時間順にピクチャ単位でフレームメモリ 1 0 1 に入力され る。 フレームメモリ 1 0 1 に入力されるピクチャの順序を図 2 ( a ) に 示す。 図 2 ( a ) において、 縦線はピクチャを示し、 各ピクチャの右下 に示す記号は、 1 文字目のアルファベッ トがピクチャタイプ ( Pは Pピ クチャ、 Bは Bピクチヤ) を示し、 2文字目以降の数字が表示時間順の ピクチャ番号を示している。 フレームメモリ 1 0 1 に入力された各ピク チヤは、 符号化順に並び替えられる。 符号化順への並び替えは、 ピクチ ャ間予測符号化における参照関係に基づいて行われ、 参照ピクチャとし て用いられるピクチャが、 参照ピクチャとして用いるピクチャよりも先 に符号化されるように並び替える。 例えば、 ピクチャ B 8、 B 9の各ピ クチャの参照関係は、 図 2 ( a ) に示す矢印の通りとなる。 図 2 ( a ) において、 矢印の始点は参照されるピクチャを示し、 矢印の終点は参照 するピクチャを示している。 この場合、 図 2 ( a ) のピクチャを並び替 えた結果は図 2 ( b ) のようになる。
フレームメモリ 1 0 1 で並び替えが行われた各ピクチャは、 マクロブ ロックの単位で読み出されるとする。 ここでは、 マクロブロックは水平 1 6 X垂直 1 6画素の大きさであるとする。 また、 動き補償はブロック 単位 (ここでは 8 X 8画素の大きさとする) 単位で行うものとする。 以 下では、 ピクチャ B 8の符号化処理について順に説明する。
ピクチャ B 8は Bピクチャであり、 前方参照ピクチャとしてピクチャ P 1 、 P 4、 P 7 , 後方参照ピクチャと してピクチャ P I 0、 P I 3を 参照ピクチャと し、 マクロブロック単位やブロック単位で、 5つの参照 ピクチャのうち、 最大 2つの参照ピクチャを用いて符号化するものとす る。 これらの参照ピクチャは、 既に符号化が終了しており、 ローカルな 復号化画像がフレームメモリ 1 0 7に蓄積されている。 Bピクチャの符号化においては、 符号化制御部 1 1 0は、 スィッチ 1 1 3をオンにする。 また、 Bピクチャが他のピクチャの参照ピクチャと して用いられる場合には、 スィッチ 1 1 4、 1 1 5がオンになるように 各スィッチを制御する。 他のピクチャの参照ピクチャと して用いられな い場合には、 スィッチ 1 1 4、 1 1 5はオフになるように各スィッチを 制御する。 したがって、 フレームメモリ 1 0 1 から読み出されたピクチ ャ B 8のマクロブロックは、 まず動きべク トル検出部 1 0 8、 モード選 択部 1 0 9、 差分演算部 1 0 2に入力される。
動きべク トル検出部 1 0 8では、 フレームメモリ 1 0 7に蓄積された ピクチャ P 1 、 P 4、 P 7の復号化画像データを前方参照ピクチャとし て、 ピクチャ P 1 0、 P 1 3の復号化画像データを後方参照ピクチャと して用いることにより、 マクロブロックに含まれる各ブロックの前方動 きべク トルと後方動きべク トルの検出を行う。
モード選択部 1 0 9では、 動きベク トル検出部 1 0 8で検出した動き べク トルを用いて、マクロブロックの符号化モードを決定する。ここで、 Bピクチャにおける各ブロックの符号化モー ドは、 例えば、 ピクチャ内 符号化、 前方 1 枚参照によるピクチャ間予測符号化、 前方 2枚参照によ るピクチャ間予測符号化、 後方 1枚参照によるピクチャ間予測符号化、 後方 2枚参照によるピクチャ間予測符号化、 双方向動きべク トルを用い たピクチャ間予測符号化から選択することができるとする。 ここで、 前 方 2枚参照によるピクチャ間予測符号化、 後方 2枚参照によるピクチャ 間予測符号化、 双方向動きベク トル (前方、 後方 1 枚ずつの参照) を用 いたピクチャ間予測符号化の場合には、 得られた 2つの参照画像を平均 して得られる画像を動き補償画像として用いる。 その一例を図 5を用い て説明する。 今、 ピクチャ B 8にあるブロック Xを前方参照ピクチャで あるピクチャ P 7のブロック Yと、 ピクチャ P 4のブロック Zとを用い て動き補償する場合、 ブロック Yとブロック zの平均値画像をブロック Xの動き補償画像とする。
モード選択部 1 0 9で決定された符号化モードは符号列生成部 1 0 4 に対して出力される。 また、 モード選択部 1 0 4で決定された符号化モ 一ドに基づいた参照画像が差分演算部 1 0 2と加算演算部 1 0 6に出力 される。 ただし、 ピクチャ内符号化が選択された場合には、 参照画像は 出力されない。 また、 モード選択部 1 0 9でピクチャ内符号化が選択さ れた場合には、 スィ ッチ 1 1 1 は aに、 スィ ッチ 1 1 2は cに接続する ように制御し、 ピクチャ間予測符号化が選択された場合には、 スィッチ 1 1 1 は bに、 スィッチ 1 1 2は dに接続するように制御する。 以下で は、 モード選択部 1 0 9でピクチャ間予測符号化が選択された場合につ いて説明する。
差分演算部 1 0 2には、 モ一ド選択部 1 0 9から参照画像が入力され る。 差分演算部 1 0 2では、 ピクチャ B 8のマクロブロックと参照画像 との差分を演算し、 予測誤差画像を生成し出力する。
予測誤差画像は予測誤差符号化部 1 0 3に入力される。 予測誤差符号 化部 1 0 3では、 入力された予測誤差画像に対して周波数変換や量子化 等の符号化処理を施すことにより、 符号化データを生成して出力する。 予測誤差符号化部 1 0 3から出力された符号化データは、 符号列生成部 1 0 4に入力される。
また、 モー ド選択部 1 0 9で選択した符号化モードで用いる動きべク トルが、 動きべク トル記憶部 1 1 6と動きべク トル符号化部 1 1 7とに 出力される。
動きべク トル記憶部 1 1 6では、 モー ド選択部 1 0 9から入力された動 きべク トルを記憶する。 すなわち、 動きべク トル記憶部 1 1 6では、 既 に符号化済みのブロックで用いた動きベク トルを記憶する。 動きべク トル符号化部 1 1 7では、 モード選択部 1 0 9から入力された 動きベク トルの符号化を行う。 この動作を図 3を用いて説明する。 図 3 において、 太枠で示したブロックは 1 6 X 1 6画素のマクロブロックを 示しており、 その中に 8 X 8画素のブロックが 4つ存在する。 図 3 ( a ) ~ ( d ) において、 ブロック Aが符号化中のブロックを示しており、 ブ ロック Aの動きべク トルは、 既に符号化済みである 3つの周辺ブロック B、 C、 Dの動きベク トルから求めた予測値との差分値により符号化さ れる。 周辺ブロックの動きベク トルは、 動きベク トル記憶部 1 1 6から 得る。
予測値の求め方を図 4を用いて説明する。 図 4では、 ブロック A〜 D が有する動きべク トルを示している。 第 1 の動きべク トルを M V 1 、 第 2の動きベク トルを M V 2として示している。 ここで、 動きベク トルが 「前方 Jである場合は、前方参照動きベク トルであることを示す。また、 その際の括弧内の記号および数字は、 参照ピクチャを示している。
第 1 の予測値の求め方では、 参照ピクチャが同じであるもののみを選 択して、 予測値を生成する。 図 4 ( a ) の場合、 ブロック Aの M V 1 に 対する予測値は、 ブロック B、 C、 Dの M V 1 の中央値となり、 ブロッ ク Aの M V 2に対する予測値は、 ブロック B、 C、 Dの M V 2の中央値 となる。 また、 図 4 ( b ) の場合、 ブロック Aの M V 1 に対する予測値 は、 ブロック B、 C、 Dの M V 1 の中央値となり、 ブロック Aの M V 2 に対する予測値は、 ブロック Cの M V 2の値そのものとなる。 また、 図 4 ( c ) の場合、 ブロック Aの M V 1 に対する予測値は、 ブロック Bの M V 1 、 M V 2、 ブロック Cの M V 1 、 ブロック Dの M V 1 、 M V 2の 中央値となり、 ブロック Aの M V 2に対する予測値は、 Cの M V 2の値 そのものとなる。 この場合、 ブロック Aの M V 1 に対する予測値は、 ブ ロック Bの M V 1 、 M V 2の平均値、 ブロック Cの M V 1 、 ブロック D の M V 1 、M V 2の平均値の 3つの値の中央値としても良い。このとき、 ブロック Bの M V 1 、 M V 2の平均値を求める場合には、 平均値を動き ベク トルの精度 (例えば 1 Z 2画素精度、 1 Z 4画素精度、 1 8画素 精度、 など) に丸める。 この動きベク トルの精度は、 ブロック単位、 ピ クチャ単位、 シーケンス単位で決定されているものとする。 以上の場合 において、 周辺ブロック中に同じ参照ピクチャを参照している動きべク トルが存在しない場合には、予測値は 0とすれば良い。ここで中央値は、 水平成分、 垂直成分毎に求めるとする。
第 2の予測値の求め方では、 参照ピクチャに関係なく、 M V 1 、 M V 2で独立して予測値を作成する。 この場合、 各ブロックでの M V 1 、 M V 2の並び方は、 所定の方法により決定しておけばよい。 例えば、 参照 ピクチャの近いものから順に並べる、 参照ピクチャの遠いものから順に 並べる、 前方、 後方の順に並べる、 符号化順 (符号列への記述順) に並 ベる等の並び方がある。 例えば、 参照ピクチャの近いものまたは遠いも のから順に並べることにより、 符号化対象ブロックの動きベク トルが参 照する参照ピクチャと、 予測値と して選択した動きべク トルの参照ピク チヤとが、 時間的に近い参照ピクチャとなる確率が高くなリ、 動きべク トルの符号化効率の向上を図ることができる。 また、 前方、 後方の順に 並べることにより、 符号化対象ブロックの前方動きベク トルは、 周辺ブ ロックの前方動きベク トルから生成した予測値を用いて符号化し、 符号 化対象ブロックの後方動きべク トルは、 周辺ブロックの後方動きべク ト ルから生成した予測値を用いて符号化する確率が高くなるため、 動きべ ク トルの符号化効率の向上を図ることができる。 また、 符号化順に並べ ることにより、 予測値生成の際の周辺ブロックの管理方法を簡易化する ことができる。 図 4 ( a ) の場合、 ブロック Aの M V 1 に対する予測値 は、 予測ブロック B、 C、 Dの M V 1 の中央値となり、 ブロック Aの M V 2に対する予測値は、 ブロック B、 C、 Dの M V 2の中央値となる。 また、 図 4 ( b )、 ( c ) の場合も、 ブロック Aの M V 1 に対する予測値 は、 ブロック B、 C、 Dの M V 1 の中央値となり、 ブロック Aの M V 2 に対する予測値は、 ブロック B、 C、 Dの M V 2の中央値となる。 なお この際に、 ブロック Aの動きベク トルが参照するピクチャと、 ブロック Aの予測値と して用いるブロック B、 C、 Dの動きベク トルが参照する ピクチャが異なる場合には、 ブロック B、 C、 Dの動きベク トルに対し てスケーリングを施しても良い。 このスケーリングは、 ピクチャ間の時 間的距離で决まる値によって行っても良いし、 予め定められた値によつ て行っても良い。
第 3の予測値の求め方では、 M V 1 では周辺ブロックから予測値を生 成し、 値として用いる。 M V 2の予測値として M V 1 を用いる場合、 M V 1 の値をそのまま予測値と して用いても良いし、 M V 1 をスケーリン グしたものを予測値としても良い。 スケーリングして用いる場合には、 ピクチャ B 8から M V 1 の参照ピクチャまでの時間的距離と、 ピクチャ B 8から M V 2の参照ピクチャまでの時間的距離とを一致させる方法が 考えられる。 その例を図 6を用いて説明する。 図 6において、 ピクチャ B 8のブロック Aが動きベク トル M V 1 、 M V 2を有しているとし、 そ れぞれの参照ピクチャはそれぞれピクチャ P 7、 P 4であるとする。 こ の場合、 動きべク トル M V 2は、 M V 1 をピクチャ P 4までスケーリン グして得られる M V 1 ' (この場合には、 M V 1 の水平成分、 垂直成分を それぞれ 4倍したものとなる) を M V 2の予測値とする。 また他のスケ —リングの方法と して、 予め定められた値を用いてスケーリングを行つ ても良い。 また、 各ブロックでの M V 1 、 M V 2の並び方は、 所定の方 法により決定しておけばよい。 例えば、 参照ピクチャの近いものから順 に並べる、 参照ピクチャの遠いものから順に並べる、 前方、 後方の順に 並べる、 符号化順に並べる等の並び方がある。
以上の例においては、 ブロック B ~ Dがすべて動きべク トルを有する 場合について説明したが、 これらのブロックがイントラブロックやダイ レク トモードと して処理されている場合には、 例外的な処理を行っても 良い。 例えば、 ブロック B ~ D中にそのようなブロックが 1 つ存在する 場合には、 そのブロックの動きベク トルを 0と して処理を行う。 また、 2つ存在する場合には、 残りのブロックの動きべク トルを予測値として 用いる。 さらに、 3つすべてが動きべク トルを有さないブロックである 場合には、 予測値は 0として動きベク トル符号化の処理を行う、 という ような方法がある。
符号列生成部 1 0 4では、 入力された符号化データに対して、 可変長 符号化等を施し、 さらに動きべク トル符号化部 1 1 7から入力された動 きベク トル、 モード選択部 1 0 9から入力された符号化モード、 ヘッダ 情報、 等の情報を付加することにより符号列を生成し出力する。
同様の処理により、 ピクチャ B 8の残りのマクロブロックに対して、 符号化処理が行われる。
以上のように、 本発明の動きべク トル符号化方法は、 各ブロックの動 きべク トルを符号化する際に、 既に符号化済みの周辺ブロックの動きべ ク トルを予測値として用い、 その予測値と現在のブロックの動きべク ト ルとの差分値を用いて動きベク トルの符号化を行う。 この予測値の生成 の際には、 同一方向 (前方向または後方向) に複数の動きべク トルを有 する場合に、 同一ピクチャを参照する動きベク トルを参照する、 予め定 めた順序で並べた動きべク 卜ル順に従って参照する動きべク トルを決定 する、 2番目以降の動きべク トルはそれ以前の動きべク トルを参照値と する、 異なるピクチャを参照する動きベク トルを参照する場合には、 ピ クチャ間距離に応じたスケーリングを行う、 等の処理を行い、 予測値を 生成する。
さらに具体的に、 本発明の動きべク トル符号化方法は、 符号化対象ブ ロックの動きべク トルとその予測値とを生成し、 動きべク トルと予測値 との差分を符号化する動きべク トル符号化方法であって、 当該符号化対 象ブロックの周辺にある複数の符号化済の各ブロックのうち少なく とも 1 以上のブロックが、 表示時間軸上で同一方向の参照ピクチャを参照す る 2つの動きべク トルを有する場合に、 当該符号化済のブロック毎に動 きべク トルに識別子を付与する付与ステップと、 前記複数の符号化済み ブロックの動きべク トルのうち、 同一の識別子を有する動きべク トルに 基づいて、 前記符号化対象ブロックの動きベク トルの予測値を生成する 生成ステップとを有する。 ここで、 上記の付与ステップ、 生成ステップ は次の ( a ) 又は ( b ) とすることができる。
( a ) 前記付与ステップにおいて、 さらに、 前記符号化対象ブロック の動きべク トルに識別子を付与し、 前記生成ステップにおいて、 前記複 数の符号化済みブロックの動きべク トルのうち、 前記符号化対象ブロッ クに付与された識別子と同一の識別子を有する動きベク トルに基づいて. 前記符号化対象ブロックの動きベク トルの予測値を生成する。
( b ) 前記付与ステップにおいて、 さらに、 前記符号化対象ブロック の動きべク トルに識別子を付与し、 前記生成ステップは、 前記複数の符 号化済みブロックの動きベク トルのうち、 前記符号化対象ブロックに付 与された識別子と同一の識別子を有する動きベク トルに基づいて識別子 毎に予測値候補を生成する生成サブステツプと、 前記符号化対象ブロッ クの動きべク トルの識別子毎に前記予測値候補を対応付ける対応付けサ ブステップとを有する。
これにより、 動きべク トルの符号化において、 同一方向 (前方向また は後方向) に複数の動きベク トルを有する場合であっても、 統一的に動 きべク トルの符号化を行う方法を定義することができ、 かつ動きべク 卜 ルの符号化効率を向上させることができる。
なお、 本実施の形態においては、 マクロブロックは水平 1 6 X垂直 1 6画素の単位で、 動き補償は 8 X 8画素のブロック単位で、 ブロック予 測誤差画像の符号化は水平 8 X垂直 8画素の単位で処理する場合につい て説明したが、 これらの単位は別の画素数でも良い。
また、 本実施の形態においては、 3つの符号化済みの周辺ブロックの 動きべク トルを用いて、 その中央値を予測値として用いる場合について 説明したが、 この周辺ブロック数、 予測値の決定方法は、 他の値や他の 方法であっても良い。 例えば、 左隣のブロックの動きべク トルを予測値 として用いる方法、 等がある。
また、 本実施の形態においては、 図 3を用いて、 動きベク トルの符号 化における予測ブロックの位置を説明したが、 これは他の位置であって も良い。
たとえば、 本実施の形態ではブロックの大きさが 8 X 8画素であるも のと したが、 これ以外の大きさのブロックも混在する場合には、 符号化 対象ブロック Aに対して、以下のブロックを符号化済の周辺ブロック B、 C、 Dと して用いてもよい。 この場合、 ブロック Bはブロック Aにおけ る左上端の画素の左に隣接する画素を含むブロックと し、 ブロック Cは ブロック Aにおける左上端の画素の上に隣接する画素を含むブロックと し、 ブロック Dはブロック Aにおける右上端の画素の斜め右上に隣接す る画素を含むブロックと決定すればよい。
また、 本実施の形態においては、 符号化対象ブロックの動きベク トル と、 周辺ブロックの動きべク トルから得られた予測値との差分を取るこ とにより動きベク トルの符号化を行う場合について説明したが、 これは 差分以外の方法により動きベク トルの符号化を行っても良い。 また、 本実施の形態においては、 動きべク トル符号化の予測値の生成 方法と して、 第 1 〜第 3の予測値の生成方法について説明したが、 これ らの方法を混合して用いても良い。
その一例を図 7に示す。 同図は、 第 1 の予測値の生成方法と第 2の予 測値の生成方法とを混合した例であり、 図 3 ( a ) 〜図 3 ( d )に示した ブロック Aを符号化対象ブロックと し、 周辺のブロック B ~ Dの各プロ ックの 2つの動きべク トルが共に同一方向 (前方向または後方向) の参 照ブロックを指している場合の予測値を生成する処理を示すフローチヤ 一卜である。 同図においてステップ S 1 1 5 ~ S 1 1 8は既に説明した 第 1 の予測値の生成方法である。 またステップ S 1 1 1 ~ S 1 1 4は既 に説明した第 2の予測値の生成方法における周辺の各ブロックの並び方 を決定する部分である。
S 1 1 2における所定の順は、 参照ピクチャの近い順や、 遠い順や、 符号化の順等でよい。 ここで符号化の順は、 図 8に示すように符号列で の記述順である。 同図では符号列のうち 1枚のピクチャに相当するピク チヤデータを表している。 ピクチャデータはヘッダに続き各ブロックの 符号化データを含む。 動きべク トルはブロックの符号化データ内に記述 される。 同図の例では、 ブロック B、 Cの動きべク トルについて、 符号 化の早い順と している。
S 1 1 3では、 所定順に並べた動きベク トルについて、 同一順位のも のを M V 1 、 M V 2と分類している。 このように周辺ブロックの動きべ ク トルを分類することにより、 処理を簡易にしている。 つまり、 分類し なければ最大で 6つ(2つの動きベク トル X 3つの周辺ブロック)の動き べク トルの中央値を求めることになる。
より具体的には、 ループ 1 の処理において、 まず、 周辺ブロック Bの 2つの動きべク トルが上記の所定順に並べられ( S 1 1 2 )、 この順に識 別子 (例えば 0、 1 や、 1 、 2や、 M V 1 、 M V 2等でよい) が付与さ れる (S 1 1 3 )。 同様にして周辺ブロック C、 Dについても、 それぞれ の動きベク トルに識別子 (例えば 0、 1 や、 1 、 2や、 M V 1 、 M V 2 等でよい) が付与される。 このとき、 符号化対象のブロック Aの 2つの 動きベク トルに対しても、 同様に識別子が付与される。
さらに、 ループ 2の処理において、 まず、 周辺ブロック B〜 Dの動き ベク トルのうち、 同一の識別子 (例えば 0又は 1 ) を有する動きべク ト ルが選択され (S 1 1 6 )、 選択された動きべク トルの中央値を、 符号化 対象ブロック Aの動きベク トルの予測値とする(S 1 1 7 )。同様にして、 もう 1 つの動きべク トルの予測値も求められる。
なお、 ループ 2において、 ブロック Aの動きベク トルの識別子とは無 関係に、 2つの上記中央値を予測値の候補と して算出しておき、 ブロッ ク Aの動きべク トルの識別子毎に、 候補の何れかを選択する (あるいは 対応させる) ようにしてもよい。 また、 ループ 1 における識別子の付与 は、ブロック Aの予測値の生成時でなくてもよく、周辺ブロック B、 C、 Dの動きベク トル検出時に行ってもよい。 また、 付与された識別子は、 動きべク トルと共に動きべク トル記憶部 1 1 6に記憶される。
また、 第 2の予測値の生成方法と、 第 3の予測値の生成方法とを混合 する場合は、 図 7の S 1 1 5 ~ S 1 1 8の代わりに第 3の予測値の生成 方法を実行するようにすればよい。
また、 本実施の形態においては、 動きべク トル符号化の予測値の生成 方法とて、前方参照動きベク トルのみを有する場合を例と して上げたが、 後方参照ピクチャが含まれていても同様に考えれば良い。
また、 本実施の形態においては、 動きべク トル符号化の予測値を生成 する場合に、 周辺ブロックがすべて 2つの動きベク トルを有している場 合について説明したが、 周辺ブロックが 1 つしか動きべク 卜ルを有して いない場合には、 その動きべク トルを第 1 または第 2の動きべク トルと して扱えば良い。
また、 本実施の形態においては、 最大参照ピクチャ数が 2である場合 について説明したが、 これは 3以上の値であっても良い。
また、 本実施の形態における動きべク トル記憶部 1 1 6での動きべク トルの記憶管理方法としては、 1 . 周辺ブロックの動きベク トルとその 順序 (第 1 の動きベク トルであるか、 第 2の動きベク トルであるかを示 す識別子) とを保存することにより、 周辺ブロックの動きベク トルを動 きベク トル記憶部 1 1 6から取得する際に、 識別子を用いて第 1 または 第 2の動きベク トルを取得する方法、 2 . 周辺ブロックの第 1 の動きべ ク トルと第 2の動きべク トルを記憶する位置を予め決定しておき、 周辺 ブロックの動きべク トルを動きべク トル記憶部 1 1 6から取得する際に. そのメモリ位置にアクセスすることにより、 第 1 または第 2の動きべク トルを取得する方法、 等の管理方法がある。
(第 2の実施の形態)
本発明の第 2の実施の形態について、図 9を用いて説明する。図 9は、 符号列解析部 7 0 1 、 予測誤差復号化部 7 0 2、 モード復号部 7 0 3、 動き補償復号部 7 0 5、 動きベク トル記憶部 7 0 6、 フ レームメモリ 7 0 7、 加算演算部 7 0 8、 スィッチ 7 0 9、 7 1 0、 動きべク トル復号 化部 7 1 1 から構成される画像復号化装置のプロック図であり、 画像復 号化の一部として動きべク トル復号化を行う。
入力される符号列中のピクチャの順序は、 図 2 ( b ) の通りであると する。 以下では、 ピクチャ B 8の復号化処理について順に説明する。
ピクチャ B 8の符号列は符号列解析部 7 0 1 に入力される。 符号列解 析部 7 0 1 では、 入力された符号列から、 各種データの抽出を行う。 こ こで各種データとは、 モード選択の情報や動きべク トル情報等である。 抽出されたモード選択の情報は、 モード復号部 7 0 3に対して出力され る。 また、 抽出された動きべク トル情報は、 動きべク トル復号化部 7 1 1 に対して出力される。 さらに、 予測誤差符号化データは予測誤差復号 化部 7 0 2に対して出力される。
モード復号部 7 0 3では、 符号列から抽出されたモー ド選択の情報を 参照し、 スィッチ 7 0 9 と 7 1 0の制御を行う。 モード選択がピクチャ 内符号化である場合には、 スィッチ 7 0 9.は aに、 スィッチ 7 1 0は c に接続するように制御する。 また、 モード選択がピクチャ間予測符号化 である場合には、 スィッチ 7 0 9は bに、 スィッチ 7 1 0は dに接続す るように制御する。
またモード復号部 7 0 3では、 モード選択の情報を動き補償復号部 7 0 5、 動きベク トル復号化部 7 1 1 に対しても出力する。 以下では、 モ ード選択がピクチャ間予測符号化である場合について説明する。
予測誤差復号化部 7 0 2では、 入力された予測誤差符号化データの復 号化を行い、 予測誤差画像を生成する。 生成された予測誤差画像はスィ ツチ 7 0 9に対して出力される。 ここでは、 スィッチ 7 0 9は bに接続 されているので、予測誤差画像は加算演算部 7 0 8に対して出力される。 動きべク トル復号化部 7 1 1 は、符号列解析部 7 0 1 から入力された、 符号化された動きべク トルに対して、 復号化処理を行う。 動きべク トル の復号化は、 復号化済みの周辺ブロックの動きべク トルを用いて行う。 この動作について、 図 3を用いて説明する。 復号化中のブロック Aの動 きベク トル (M V ) は、 既に復号化済みである 3つの周辺ブロック B、 C、 Dの動きベク トルから求めた予測値と、 符号化された動きベク トル との加算値と して求める。 周辺ブロックの動きベク トルは、 動きべク ト ル記憶部 7 0 6から得る。
予測値の求め方を図 4を用いて説明する。 図 4では、 ブロック A〜 D が有する動きべク トルを示している。 第 1 の動きべク トルを MV 1 、 第 2の動きべク トルを M V 2として示している。 ここで、 動きべク トルカ《 「前方 Jである場合は、前方参照動きベク トルであることを示す。また、 その際の括弧内の記号および数字は、 参照ピクチャを示している。
第 1 の予測値の求め方では、 参照ピクチャが同じであるもののみを選 択して、 予測値を生成する。 図 4 ( a ) の場合、 ブロック Aの M V 1 に 対する予測値は、 ブロック巳、 C、 Dの M V 1 の中央値となり、 ブロッ ク Aの M V 2に対する予測値は、 ブロック B、 C、 Dの M V 2の中央値 となる。 また、 図 4 ( b ) の場合、 ブロック Aの M V 1 に対する予測値 は、 ブロック B、 C、 Dの M V 1 の中央値となり、 ブロック Aの M V 2 に対する予測値は、 ブロック Cの M V 2の値そのものとなる。 また、 図 4 ( c ) の場合、 ブロック Aの M V 1 に対する予測値は、 ブロック Bの M V 1 、 M V 2、 ブロック Cの M V 1 、 ブロック Dの M V 1 、 M V 2の 中央値となり、 ブロック Aの M V 2に対する予測値は、 Cの M V 2の値 そのものとなる。 この場合、 ブロック Aの M V 1 に対する予測値は、 ブ ロック Bの M V 1 、 M V 2の平均値、 ブロック Cの M V 1 、 ブロック D の M V 1 、M V 2の平均値の 3つの値の中央値と しても良い。このとき、 ブロック Bの M V 1 、 M V 2の平均値を求める場合には、 平均値を動き ベク トルの精度 (例えば 1 2画素精度、 1 4画素精度、 1 / 8画素 精度、 など) に丸める。 この動きべク トルの精度は、 ブロック単位、 ピ クチャ単位、 シーケンス単位で決定されているものとする。 以上の場合 において、 周辺ブロック中に同じ参照ピクチャを参照している動きべク トルが存在しない場合には、予測値は 0とすれば良い。ここで中央値は、 水平成分、 垂直成分毎に求めるとする。
第 2の予測値の求め方では、 参照ピクチャに関係なく、 M V 1 、 M V 2で独立して予測値夯作成する。 この場合、 各ブロックでの M V 1 、 M V 2の並び方は、 所定の方法により決定しておけばよい。 例えば、 参照 ピクチャの近いものから順に並べる、 参照ピクチャの遠いものから順に 並べる、 前方、 後方の順に並べる、 復号化順 (符号列での記述順) に並 ベる等の並び方がある。 図 4 ( a ) の場合、 ブロック Aの MV 1 に対す る予測値は、 予測ブロック B、 C、 Dの M V 1 の中央値となり、 ブロッ ク Aの M V 2に対する予測値は、 ブロック B、 C、 Dの M V 2の中央値 となる。 また、 図 4 ( b )、 ( c ) の場合も、 ブロック Aの MV 1 に対す る予測値は、 ブロック B、 C、 Dの M V 1 の中央値となり、 ブロック A の M V 2に対する予測値は、 ブロック B、 C、 Dの M V 2の中央値とな る。 なおこの際に、 ブロック Aの動きベク トルが参照するピクチャと、 ブロック Aの予測値と して用いるブロック B、 C、 Dの動きベク トルが 参照するピクチャが異なる場合には、 ブロック B、 C、 Dの動きべク ト ルに対してスケーリングを施しても良い。 このスケーリングは、 ピクチ ャ間の時間的距離で决まる値によって行っても良いし、 予め定められた 値によって行っても良い。
第 3の予測値の求め方では、 M V 1 では周辺ブロックから予測値を生 成し、 値と して用いる。 MV 2の予測値として MV 1 を用いる場合、 M V I の値をそのまま予測値と して用いても良いし、 MV 1 をスケーリン グしたものを予測値としても良い。 スケーリングして用いる場合には、 ピクチャ B 8から M V 1 の参照ピクチヤまでの時間的距離と、 ピクチャ B 8から M V 2の参照ピクチャまでの時間的距離とを一致させる方法が 考えられる。 その例を図 6を用いて説明する。 図 6において、 ピクチャ B 8のブロック Aが動きベク トル MV 1 、 MV 2を有しているとし、 そ れぞれの参照ピクチャはそれぞれピクチャ P 7、 P 4であるとする。 こ の場合、 動きべク トル MV 2は、 MV 1 をピクチャ P 4までスケ一リン グして得られる MV 1 ' (この場合には、 MV 1 の水平成分、 垂直成分を それぞれ 4倍したものとなる) を M V 2の予測値とする。 また他のスケ —リングの方法と して、 予め定められた値を用いてスケーリングを行つ ても良い。 また、 各ブロックでの M V 1 、 M V 2の並び方は、 所定の方 法により決定しておけばよい。 例えば、 参照ピクチャの近いものから順 に並べる、 参照ピクチャの遠いものから順に並べる、 前方、 後方の順に 並べる、 復号化順に並べる等の並び方がある。
以上の例においては、 ブロック B〜 Dがすべて動きべク 卜ルを有する 場合について説明したが、 これらのブロックがイントラブロックやダイ レク 卜モードと して処理されている場合には、 例外的な処理を行っても 良い。 例えば、 ブロック B〜 D中にそのようなブロックが 1 つ存在する 場合には、 そのブロックの動きべク トルを 0として処理を行う。 また、 2つ存在する場合には、 残りのプロックの動きべク トルを予測値と して 用いる。 さらに、 3つすべてが動きベク トルを有さないブロックである 場合には、 予測値は 0として動きベク トル復号化の処理を行う、 という ような方法がある。
そして、 復号化された動きべク トルは動き補償復号部 7 0 5と動きべ ク トル記憶部 7 0 6に出力される。
動き補償復号部 7 0 5では、 入力された動きベク トルに基づいて、 フレ ームメモリ 7 0 7から動き補償画像を取得する。 このようにして生成さ れた動き補償画像は加算演算部 7 0 8に対して出力される。
動きべク トル記憶部 7 0 6では、入力された動きべク トルを記億する。 すなわち、 動きベク トル記憶部 7 0 6では、 復号化済みのブロックの動 きべク 卜ルを記憶する。
加算演算部 7 0 8では、 入力された予測誤差画像と動き補償画像とを 加算し、 復号化画像を生成する。 生成された復号化画像はスィ ッチ 7 1 0を介してフレームメモリ 7 0 7に対して出力される。 以上のようにして、 ピクチャ B 8のマクロブロックが順に復号化され る。
以上のように、 本発明の動きべク トル復号化方法は、 各ブロックの動 きべク トルを復号化する際に、 既に復号化済みの周辺ブロックの動きべ ク トルを予測値として用い、 その予測値と現在のブロックの符号化され た動きべク トルと加算することにより、 動きべク トルの復号化を行う。 この予測値の生成の際には、 同一方向 (前方向または後方向) に複数の 動きべク トルを有する場合に、 同一ピクチャを参照する動きべク トルを 参照する、 予め定めた順序で並べた動きべク トル順に従って参照する動 きベク トルを決定する、 2番目以降の動きベク トルはそれ以前の動きべ ク トルを参照値とする、 異なるピクチャを参照する動きベク トルを参照 する場合には、 差ピクチャ間距離に応じたスケーリングを行う、 等の処 理を行い、 予測値を生成する。
さらに具体的に、 本発明の動きべク トル復号化方法は、 復号化対象ブ ロックの予測値を生成し、 予測値を用いて符号化された動きべク トルを 復号化する動きべク トル復号化方法であって、 当該復号化対象ブロック の周辺にある複数の復号化済の各ブロックのうち少なく とも 1 以上が表 示時間軸上で同一方向の参照ピクチャを参照する動きベク トルを有する 場合に、 当該復号化済ブロック毎に動きべク トルに識別子を付与する付 与ステップと、 前記複数の復号化済みブロックの動きベク トルのうち同 —の識別子を有する動きべク トルに基づいて、 前記復号化対象ブロック の動きべク トルの予測値を生成する生成ステップとを有している。 ここ で前記生成ステップは次の ( a ) 又は ( b ) とすることができる。
( a ) 前記生成ステップにおいて生成される予測値は、 前記復号化対 象ブロックの動きべク トルと同一の識別子を有する前記複数の復号化済 みブロックの動きべク トルに基づいて生成される。 ( b ) 前記生成ステップにおいて生成される予測値は、 前記復号化済 みブロックの動きべク トルのうち同一に識別された動きべク トル毎に生 成された予測値候補と、 前記復号化対象ブロックの動きべク トルとを対 応させて生成される。
前記復号化済ブロックが有する動きベク トルの識別は、 当該動きべク ト ルが参照する参照ピクチャの遠い順と近い順との何れかに基づいて識別 する。
これにより、 第一の実施の形態のような方法で符号化が行われた動き べク トルを正しく復号化することができる。
なお、 本実施の形態においては、 3つの復号化済みである周辺ブロッ クの動きべク トルを用いて、 その中央値を予測値として用いる場合につ いて説明したが、 この周辺ブロック数、 予測値の決定方法は、 他の値や 他の方法であっても良い。 例えば、 左隣のブロックの動きベク トルを予 測値と して用いる方法、 等がある。
たとえば、 本実施の形態ではブロックの大きさが 8 X 8画素であるも のとしたが、 これ以外の大きさのブロックも混在する場合には、 符号化 対象ブロック Aに対して、以下のブロックを復号化済の周辺ブロック B、 C、 Dと して用いてもよい。 すなわち、 ブロック Bはブロック Aにおけ る左上端の画素の左に隣接する画素を含むブロックと し、 ブロック Cは ブロック Aにおける左上端の画素の上に隣接する画素を含むブロックと し、 ブロック Dはブロック Aにおける右上端の画素の斜め右上に隣接す る画素を含むブロックと決定すればよい。
また、 本実施の形態においては、 図 3を用いて、 動きベク トルの復号 化における予測プロックの位置を説明したが、 これは他の位置であって も良い。
また、 本実施の形態においては、 復号化対象ブロックの動きべク トル T JP03/04540
と、 周辺ブロックの動きべク トルから得られた予測値との加算を行うこ とにより動きべク トルの復号化を行う場合について説明したが、 これは 加算以外の方法により動きベク トルの復号化を行っても良い。
また、 本実施の形態においては、 動きべク トル復号化の予測値の生成 方法と して、 第 1 〜第 3の予測値の生成方法について説明したが、 これ らの方法を混合して用いても良い。
たとえば、 第 1 の予測値の生成方法と第 2の予測値の生成方法とを混 合する場合は、 図 7に示したフローにより予測値を生成すればよい。 ま た、 第 2の予測値の生成方法と、 第 3の予測値の生成方法とを混合する 場合は、 図 7の S 1 1 5 ~ S 1 1 8の代わりに第 3の予測値の生成方法 を実行するようにすればよい。
また、 本実施の形態においては、 動きベク トル符号化の予測値の生成 方法とて、前方参照動きべク トルのみを有する場合を例と して上げたが、 後方参照ピケチヤが含まれていても同様に考えれば良い。
また、 本実施の形態においては、 最大参照ピクチャ数が 2である場合 について説明したが、 これは 3以上の値であっても良い。
また、 本実施の形態における動きべク トル記憶部 7 0 6での動きべク ト ルの記憶管理方法と しては、 1 . 周辺ブロックの動きベク トルとその順 序 (第 1 の動きベク トルであるか、 第 2の動きベク トルであるかを示す 識別子) とを保存することにより、 周辺ブロックの動きベク トルを動き べク トル記憶部 7 0 6から取得する際に、 識別子を用いて第 1 または第 2の動きベク トルを取得する方法、 2 . 周辺ブロックの第 1 の動きべク トルと第 2の動きべク トルを記憶する位置を予め決定しておき、 周辺ブ ロックの動きべク トルを動きべク トル記憶部 7 0 6から取得する際に、 そのメモリ位置にアクセスすることにより、 第 1 または第 2の動きべク トルを取得する方法、 等の管理方法がある。 さらに、 上記実施の形態で示した動きベク トル符号化方法、 それを含 む画像符号化方法、 動きべク トル復号化方法又はそれを含む画像復号化 方法の構成を実現するためのプログラムを、 フレキシブルディスク等の 記憶媒体に記録するようにすることにより、 上記実施の形態 1 で示した 処理を、 独立したコンピュータシステムにおいて簡単に実施することが 可能となる。
図 1 0は、上記プログラムを格納したフレキシブルディスクを用いて、 コンピュータシステムにより実施する場合の説明図である。
図 1 0 ( b ) は、 フレキシブルディスクの正面からみた外観、 断面構 造、 及びフレキシブルディスクを示し、 図 1 0 ( a ) は、 記録媒体本体 であるフレキシブルディスクの物理フォーマツ 卜の例を示している。 フ レキシブルディスク F Dはケース F内に内蔵され、 該ディスクの表面に は、 同心円状に外周からは内周に向かって複数の トラック T rが形成さ れ、 各トラックは角度方向に 1 6のセクタ S eに分割されている。 従つ て、 上記プログラムを格納したフレキシブルディスクでは、 上記フレキ シブルディスク F D上に割り当てられた領域に、 上記プログラムとして の画像符号化方法が記録されている。
また、 図 1 0 ( c ) は、 フレキシブルディスク F Dに上記プログラム の記録再生を行うための構成を示す。 上記プログラムをフレキシブルデ イスク F Dに記録する場合は、 コンピュータシステム C sから上記プロ グラムとしての画像符号化方法または画像復号化方法をフレキシブルデ イスク ドライブを介して書き込む。 また、 フレキシブルディスク内のプ ログラムによリ上記画像符号化方法をコンピュータシステム中に構築す る場合は、 フレキシブルディスク ドライブによりプログラムをフレキシ ブルディスクから読み出し、 コンピュータシステムに転送する。
なお、 上記説明では、 記録媒体としてフレキシブルディスクを用いて 0304540
説明を行ったが、光ディスクを用いても同様に行うことができる。また、 記録媒体はこれに限らず、 I Cカード、 R O Mカセッ ト等、 プログラム を記録できるものであれば同様に実施することができる。
図 1 1 から図 1 4は、 上記実施の形態 1 で示した符号化処理または復 号化処理を行う機器、 およびこの機器を用いたシステムを説明する図で ある。
図 1 1 は、 コンテンツ配信サービスを実現するコンテンツ供給シス亍 ム ex 1 00の全体構成を示すブロック図である。通信サービスの提供ェ リアを所望の大きさに分割し、 各セル内にそれぞれ固定無線局である基 地局 ex1 0 7〜ex1 1 0が設置されている。
このコンテンツ供給システム ex 1 00は、例えば、 インタ一ネッ ト ex 1 0 1 にインターネッ トサービスプロバイダ exl 0 2および電話網 ex 1 0 4、 および基地局 exl 07 ~ex 1 1 0を介して、 コンピュータ ex 1 1 1 、 P D A (personal digital assistant) ex 1 1 2、 カメラ ex 1 1 3、 携帯電話 ex 1 1 4、 カメラ付きの携帯電話 e χ 1 1 5などの各機 器が接続される。
しかし、 コンテンツ供給システム ex 1 00は図 1 1 のような組合せに 限定されず、いずれかを組み合わせて接続するようにしてもよい。また、 固定無線局である基地局 exl 0 7〜ex1 1 0を介さずに、各機器が電話 網 exl 04に直接接続されてもよい。
カメラ exl 1 3はデジタルビデオカメラ等の動画撮影が可能な機器 である。 また、 携帯電話は、 P D C (Persona I Di gi ta I Gommun i cations) 方式、 C DM A (Code Division Multiple Access) 方式、 W— C DMA ( Wideband-Code D i v i s i on Mu 11 i p I e Access ) 方式、 若しく は G S M (Global System for obi le Communications) 方式の携帯電話機、 また は P H S (Persona I Handyphone System) 等であり、 しゝずれでも構わな い。
また、ス トリーミングサーバ ex 1 0 3は、 カメラ ex 1 1 3から基地局 ex 1 0 9、電話網 ex 1 0 4を通じて接続されておリ、 カメラ ex 1 1 3を 用いてユーザが送信する符号化処理されたデータに基づいたライブ配信 等が可能になる。撮影したデータの符号化処理はカメラ ex 1 1 3で行つ ても、 データの送信処理をするサーバ等で行ってもよい。 また、 カメラ ex 1 1 6で撮影した動画データはコンピュータ ex 1 1 1 を介してス ト リーミングサーバ ex l 0 3に送信されてもよい。カメラ ex 1 1 6はデジ タルカメラ等の静止画、 動画が撮影可能な機器である。 この場合、 動画 データの符号化はカメラ ex l 1 6で行ってもコンピュータ ex l 1 1 で 行ってもどちらでもよい。 また、 符号化処理はコンピュータ ex l 1 1 や カメラ ex l 1 6が有する L S I ex 1 1 7において処理することになる。 なお、 画像符号化■復号化用のソフ トウェアをコンピュータ ex 1 1 1等 で読み取り可能な記録媒体である何らかの蓄積メディア( C D— R O M、 フレキシブルディスク、 ハードディスクなど) に組み込んでもよい。 さ らに、 カメラ付きの携帯電話 ex l 1 5で動画データを送信してもよい。 このときの動画データは携帯電話 ex "! 1 5が有する L S I で符号化処 理されたデータである。
このコンテンツ供給システム ex l 0 0では、ユーザがカメラ ex l 1 3 , カメラ ex 1 1 6等で撮影しているコンテンツ (例えば、 音楽ライブを撮 影した映像等) を上記実施の形態同様に符号化処理してス トリーミング サーバ ex 1 0 3に送信する一方で、ス トリーミングサーバ ex 1 0 3は要 求のあったクライアン 卜に対して上記コンテンツデータをス トリ一ム配 信する。 クライアン トとしては、 上記符号化処理されたデータを復号化 することが可能な、 コンピュータ ex l 1 1 、 P D A ex 1 1 2、 カメラ ex 1 1 3、 携帯電話 ex 1 1 4等がある。 このようにすることでコンテンツ 供給システム ex 1 o 0は、符号化されたデータをクライアントにおいて 受信して再生することができ、 さらにクライアン トにおいてリアルタイ ムで受信して復号化し、 再生することにより、 個人放送をも実現可能に なるシステムである。
このシステムを構成する各機器の符号化、 復号化には上記各実施の形 態で示した動画像符号化装置あるいは動画像復号化装置を用いるように すればよい。
その一例と して携帯電話について説明する。
図 1 2は、 上記実施の形態で説明した動画像符号化方法と動画像復号 化方法を用いた携帯電話 ex 1 1 5を示す図である。携帯電話 ex 1 1 5は、 基地局 ex 1 1 0との間で電波を送受信するためのアンテナ ex 2 0 1 、 C C Dカメラ等の映像、 静止画を撮ることが可能なカメラ部 ex2 0 3、 力 メラ部 ex2 0 3で撮影した映像、アンテナ ex2 0 1 で受信した映像等が 復号化されたデータを表示する液晶ディスプレイ等の表示部 ex 2 0 2、 操作キー e X 2 0 4群から構成される本体部、 音声出力をするためのス ピー力等の音声出力部 ex2 0 8、音声入力をするためのマイク等の音声 入力部 ex 2 0 5、 撮影した動画もしくは静止画のデータ、 受信したメ一 ルのデータ、 動画のデータもしくは静止画のデータ等、 符号化されたデ —タまたは復号化されたデータを保存するための記録メディア ex 2 0 7、携帯電話 ex 1 1 5に記録メディア ex 2 0 7を装着可能とするための スロッ ト部 ex 2 0 6を有している。記録メディア ex 2 0 7は S Dカード 等のプラスチックケース内に電気的に書き換えや消去が可能な不揮発性 メモリである E E P R O M (Electrical ly Erasable and Programmable Read Only Memory) の一種であるフラッシュメモリ素子を格納したもの である。
さらに、 携帯電話 ex 1 1 5について図 1 3を用いて説明する。 携帯電 話 ex1 1 5は表示部 ex 20 2及び操作キー e x 2 04を備えた本体部 の各部を統括的に制御するようになされた主制御部 ex 3 1 1 に対して、 電源回路部 ex 3 1 0、 操作入力制御部 ex 3 04、 画像符号化部 ex 3 1 2、 カメ ライ ンタ一フェース部 ex 3 0 3、 L C D (Liquid Crystal Display) 制御部 ex3 0 2、 画像復号化部 ex3 0 9、 多重分離部 ex 3 0 8、 記録再生部 ex 3 07、 変復調回路部 ex 3 0 6及び音声処理部 ex 3 05が同期バス ex 3 1 3を介して互いに接続されている。
電源回路部 ex3 1 0は、ユーザの操作によリ終話及び電源キーがオン 状態にされると、 バッテリパックから各部に対して電力を供給すること によりカメラ付ディ ジタル携帯電話 exl 1 5を動作可能な状態に起動 する。
携帯電話 exl 1 5は、 C P U、 R OM及び R A M等でなる主制御部 ex 3 1 1 の制御に基づいて、音声通話モー ド時に音声入力部 ex 2 0 5で集 音した音声信号を音声処理部 ex 3 0 5によってディジタル音声データ に変換し、 これを変復調回路部 ex 3 0 6でスぺク トラム拡散処理し、 送 受信回路部 ex 3 0 1 でディジタルアナログ変換処理及び周波数変換処 理を施した後にアンテナ ex 2 0 1 を介して送信する。また携帯電話機 ex 1 1 5は、音声通話モー ド時にアンテナ ex 2 0 1 で受信した受信データ を増幅して周波数変換処理及びアナ口グディジタル変換処理を施し、 変 復調回路部 ex 3 0 6でスぺク トラム逆拡散処理し、音声処理部 ex 3 0 5 によってアナログ音声データに変換した後、 これを音声出力部 ex 2 0 8 を介して出力する。
さらに、 データ通信モー ド時に電子メールを送信する場合、 本体部の 操作キー e X 204の操作によって入力された電子メールの亍キス 卜デ ータは操作入力制御部 ex 3 04を介して主制御部 ex 3 1 1 に送出され る。主制御部 ex 3 1 1 は、テキス トデータを変復調回路部 ex 3 0 6でス JP03/04540
ぺク トラム拡散処理し、送受信回路部 ex 3 0 1 でディジタルアナログ変 換処理及び周波数変換処理を施した後にアンテナ ex 2 0 1 ,を介して基 地局 ex 1 1 0へ送信する。
データ通信モー ド時に画像データを送信する場合、カメラ部 ex 2 0 3 で撮像された画像データをカメラインターフェース部 ex 3 0 3を介し て画像符号化部 ex 3 1 2に供給する。 また、 画像データを送信しない場 合には、 カメラ部 ex 2 0 3で撮像した画像データをカメラインターフエ ース部 ex 3 0 3及び L C D制御部 ex 3 0 2を介して表示部 ex 2 0 2に 直接表示することも可能である。
画像符号化部 ex 3 1 2は、本願発明で説明した画像符号化装置を備え た構成であリ、 カメラ部 ex 2 0 3から供給された画像データを上記実施 の形態で示した画像符号化装置に用いた符号化方法によつて圧縮符号化 することにより符号化画像データに変換し、 これを多重分離部 ex 3 0 8 に送出する。 また、 このとき同時に携帯電話機 ex 1 1 5は、 カメラ部 ex 2 0 3で撮像中に音声入力部 ex 2 0 5で集音した音声を音声処理部 ex 3 0 5を介してディジタルの音声データ と して多重分離部 ex 3 0 8に tij' る。
多重分離部 ex3 0 8は、画像符号化部 ex3 1 2から供給された符号化 画像データ と音声処理部 ex 3 0 5から供給された音声データとを所定 の方式で多重化し、その結果得られる多重化データを変復調回路部 ex 3 0 6でスぺク トラム拡散処理し、送受信回路部 ex 3 0 1 でディジタルァ ナログ変換処理及び周波数変換処理を施した後にアンテナ ex 2 0 1 を 介して送信する。
データ通信モード時にホームページ等にリンクされた動画像ファイル のデータを受信する場合、アンテナ ex 2 0 1 を介して基地局 ex 1 1 0か ら受信した受信データを変復調回路部 ex 3 0 6でスぺク トラム逆拡散 処理し、 その結果得られる多重化データを多重分離部 ex 3 0 8に送出す る。
また、 アンテナ ex 2 0 1 を介して受信された多重化データを復号化す るには、 多重分離部 ex 3 0 8は、 多重化データを分離することによリ画 像データのビッ トス トリームと音声データのビッ トス トリ一ムとに分け, 同期バス ex 3 1 3を介して当該符号化画像データを画像復号化部 ex 3 0 9に供給すると共に当該音声データを音声処理部 ex 3 0 5に供給す る。
次に、 画像復号化部 ex 3 0 9は、 本願発明で説明した画像復号化装置 を備えた構成であり、 画像データのビッ トス トリ一ムを上記実施の形態 で示した符号化方法に対応した復号化方法で復号することにより再生動 画像データを生成し、 これを L C D制御部 ex 3 0 2を介して表示部 ex 2 0 2に供給し、 これによリ、 例えばホームページにリンクされた動画 像ファイルに含まれる動画データが表示される。 このとき同時に音声処 理部 ex 3 0 5は、 音声データをアナログ音声データに変換した後、 これ を音声出力部 ex 2 0 8に供給し、 これによリ、 例えばホームページにリ ンクされた動画像ファイルに含まる音声データが再生される。
なお、 上記システムの例に限られず、 最近は衛星、 地上波によるディ ジタル放送が話題となつておリ、 図 1 4に示すようにディジタル放送用 システムにも上記実施の形態の少なく とも画像符号化装置または画像復 号化装置のいずれかを組み込むことができる。 具体的には、 放送局 ex 4 0 9では映像情報のビッ トス トリー厶が電波を介して通信または放送衛 星 ex 4 1 0に伝送される。 これを受けた放送衛星 ex 4 1 0は、放送用の 電波を発信し、 この電波を衛星放送受信設備をもつ家庭のアンテナ ex 4 0 6で受信し、 テレビ (受信機) ex 4 0 1 またはセッ ト トップボックス ( S T B ) ex 4 0 7などの装置によリ ビッ トス トリ一ムを復号化してこ れを再生する。 また、 記録媒体である GDや DVD等の蓄積メディア ex4 0 2に記録したビッ トス トリームを読み取リ、復号化する再生装置 ex 4 0 3にも上記実施の形態で示した画像復号化装置を実装することが可能 である。この場合、再生された映像信号はモニタ ex4 0 4に表示される。 また、 ケーブルテレビ用のケーブル ex4 0 5または衛星 地上波放送の アンテナ ex 4 0 6に接続されたセッ ト トップボックス ex 4 0 7内に画 像復号化装置を実装し、 これをテレビのモニタ ex 4 0 8で再生する構成 も考えられる。 このときセッ ト トップボックスではなく、 テレビ内に画 像復号化装置を組み込んでも良い。 また、 アン亍ナ ex4 1 1 を有する車 ex 4 1 2で衛星 ex 4 1 0からまたは基地局 ex 1 0 7等から信号を受信 し、車 ex 4 1 2が有するカーナビゲ一シヨン ex 4 1 3等の表示装置に動 画を再生することも可能である。
更に、画像信号を上記実施の形態で示した画像符号化装置で符号化し、 記録媒体に記録することもできる。 具体例としては、 DVD ディスクに画 像信号を記録する DVD レコーダや、 ハードディスクに記録するディスク レコーダなどのレコーダ e X4 2 0がある。 更に SDカード e x 4 2 2に 記録することもできる。 レコーダ e x 4 2 0が上記実施の形態で示した 画像復号化装置を備えていれば、 DVDディスク e X 4 2 1 や SDカード e X 4 2 2に記録した画像信号を再生し、 モニタ e X 4 0 8で表示するこ とができる。
なお、 力一ナビゲーシヨン ex4 1 3の構成は例えば図 1 3に示す構成 のうち、 カメラ部 ex 2 0 3とカメラインターフェース部 ex 3 0 3、画像 符号化部 e X 3 1 2を除いた構成が考えられ、 同様なことがコンビユー タ ex 1 1 1 やテレビ (受信機) ex 4 0 1等でも考えられる。
また、 上記携帯電話 ex 1 1 4等の端末は、 符号化器 '復号化器を両方 持つ送受信型の端末の他に、 符号化器のみの送信端末、 復号化器のみの 受信端末の 3通りの実装形式が考えられる。
このように、 上記実施の形態で示した動画像符号化方法あるいは動画 像復号化方法を上述したいずれの機器 ' システムに用いることは可能で あり、 そうすることで、 上記実施の形態で説明した効果を得ることがで きる。
また、 本発明はかかる上記実施形態に限定されるものではなく、 本発 明の範囲を逸脱することなく種々の変形または修正が可能である。
産業上の利用可能性
本発明は、 符号化対象ブロックの動きべク トルとその予測値とを生成 し、 動きベク トルと予測値との差分を符号化し、 動画像を表す符号列に 記述する動きべク トル符号化装置、 動画像符号化装置、 及び上記符号列 を復号化するう動きベク トル復号装置、動画像復号化装置に利用される。

Claims

請 求 の 範 囲 1 . 符号化対象ブロックの動きべク トルとその予測値とを生成し、 動 きべク トルと予測値との差分を符号化する動きべク トル符号化方法であ つて、
当該符号化対象ブロックの周辺にある複数の符号化済の各ブロックの うち少なく とも 1 以上のプロックが、 表示時間軸上で同一方向の参照ピ クチャを参照する 2つの動きべク トルを有する場合に、 当該符号化済の ブロック毎に動きベク トルに識別子を付与する付与ステップと、 前記複数の符号化済みブロックの動きベク トルのうち、 同一の識別子を 有する動きべク トルに基づいて、 前記符号化対象ブロックの動きべク 卜 ルの予測値を生成する生成ステップと
を有することを特徴とする動きべク トル符号化方法。
2 . 前記付与ステップにおいて、 さらに、 前記符号化対象ブロックの 動きべク トルに識別子を付与し、
前記生成ステップにおいて、 前記複数の符号化済みブロックの動きべク トルのうち、 前記符号化対象ブロックに付与された識別子と同一の識別 子を有する動きべク トルに基づいて、 前記符号化対象ブロックの動きべ ク トルの予測値を生成する
ことを特徴とする請求の範囲第 1 項に記載の動きベク トル符号化方法,
3 . 前記付与ステップにおいて、 当該符号化済ブロック毎に 2つの動 きべク トルについて、 符号列での記述順に基づいて識別子を付与する ことを特徴とする請求の範囲第 2項に記載の動きべク トル符号化方法,
4 . 前記付与ステップにおいて、 当該符号化済ブロック毎に 2つの動 きべク トルに対して、 当該動きべク トルが参照する参照ピクチャの遠い 順と近い順との何れかに基づいて識別子を付与する
ことを特徴とする請求の範囲第 2項に記載の動きベク トル符号化方法 (
5 . 前記生成ステップにおいて、 前記同一の識別子を有する動きべク トルから、 符号化対象ブロックの動きべク トルと同じ参照ピクチャを参 照する動きべク トルを選択し、 選択した動きべク トルに基づいて予測値 を生成する
ことを特徴とする請求の範囲第 2項に記載の動きべク トル符号化方法,
6 . 前記生成ステップにおいて、 選択された動きべク トルの中央値を 予測値として生成する
ことを特徴とする請求の範囲第 5項に記載の動きベク トル符号化方法,
7 . 前記付与ステップにおいて、 さらに、 前記符号化対象ブロックの 動きべク トルに識別子を付与し、
前記生成ステツプは、
前記複数の符号化済みプロックの動きベク トルのうち、 同一の識別子を 有する動きべク トルに基づいて識別子毎に予測値候補を生成する生成サ ブステップと
前記符号化対象プロックの動きべク トルの識別子毎に前記予測値候補を 対応付ける対応付けサブステツプと
を有することを特徴とする請求の範囲第 1項に記載の動きベク トル符 号化方法。
8 . 前記付与ステップにおいて、 当該符号化済ブロック毎に 2つの動 きべク トルについて、 前記符号列での記述順に基づいて識別子を付与す る
ことを特徴とする請求の範囲第 7項に記載の動きベク トル符号化方法。
9 . 前記付与ステップにおいて、 当該符号化済ブロック毎に 2つの動 きべク トルに対して、 当該動きべク トルが参照する参照ピクチャの遠い 順と近い順との何れかに基づいて識別子を付与する
ことを特徴とする請求の範囲第 7項に記載の動きベク トル符号化方法。
1 0 . 前記生成ステップにおいて、 前記同一の識別子を有する動きべ ク トルから、 符号化対象ブロックの動きべク トルと同じ参照ピクチャを 参照する動きべク トルを選択し、 選択した動きべク トルに基づいて予測 値を生成する
ことを特徴とする請求の範囲第 7項に記載の動きべク トル符号化方法。
1 1 . 前記生成ステップにおいて、 選択された動きべク トルの中央値 を予測値として生成する
ことを特徴とする請求の範囲第 1 0項に記載の動きべク トル符号化方 法。
1 2 . 復号化対象ブロックの予測値を生成し、 予測値を用いて符号化 された動きべク トルを復号化する動きべク トル復号化方法であって、 当該復号化対象ブロックの周辺にある複数の復号化済の各ブロックの うち少なく とも 1 以上が表示時間軸上で同一方向の参照ピクチャを参照 する動きべク トルを有する場合に、 当該復号化済ブロック毎に動きべク トルに識別子を付与する付与ステップと、
前記複数の復号化済みプロックの動きべク トルのうち同一の識別子を 有する動きべク トルに基づいて、 前記復号化対象ブロックの動きべク 卜 ルの予測値を生成する生成ステップと
を有することを特徴とする動きべク トル復号化方法。
1 3 . 前記生成ステップにおいて生成される予測値は、 前記復号化対 象ブロックの動きベク トルと同一の識別子を有する前記複数の復号化済 みブロックの動きべク トルに基づいて生成される
ことを特徴とする請求の範囲第 1 2項に記載の動きべク トル復号化方法
1 4 . 前記生成ステップにおいて生成される予測値は、 前記復号化済 みブロックの動きべク トルのうち同一の識別子を有する動きべク トル毎 に生成された予測値候補を、 前記復号化対象プロックの動きべク トルが 有する識別子に対応させて生成される
ことを特徴とする請求の範囲第 1 2項に記載の動きべク トル復号化方法,
1 5 . 復号化対象ブロックの予測値を生成し、 予測値を用いて符号化 された動きべク トルを復号化する動きべク トル復号化方法であって、 当該復号化対象ブロックの周辺にある複数の復号化済の各ブロックの うち少なく とも 1 以上のブロックが、 表示時間軸上で同一方向の参照ピ クチャを参照する 2つの動きべク トルを有する場合に、 当該復号化済の プロック毎に動きべク トルを識別しながら保持する保持ステップと、 前記複数の復号化済みブロックの動きベク トルのうち同一に識別され た動きべク トルに基づいて、 前記復号化対象ブロックの動きべク トルの 予測値を生成する生成ステップと を有することを特徴とする動きべク トル復号化方法。
1 6 . 前記生成ステップにおいて生成される予測値は、 前記復号化対 象ブロックの動きべク トルと同一に識別される前記複数の復号化済みブ ロックの動きベク トルに基づいて生成される
ことを特徴とする請求の範囲第 1 5項に記載の動きべク トル復号化方法 c
1 7 . 前記復号化対象ブロックの動きべク トルの識別は、 符号化され た動きべク トルの符号化順に基づいて識別する
ことを特徴とする請求の範囲第 1 6項に記載の動きべク トル復号化方 法。
1 8 . 前記復咢化済ブロックが有する動きベク トルの識別は、 当該動 きべク トルが参照する参照ピクチャの遠い順と近い順との何れかに基づ いて識別する
ことを特徴とする請求の範囲第 1 6項に記載の動きべク トル復号化方 法。
1 9 . さらに、 前記復号化対象ブロックの動きべク トルと同一に識別 される前記複数の復号化済みブロックの動きベク トルは、 前記復号化対 象ブロックの動きべク トルと同じ参照ピクチャを参照する動きべク トル から選択される
ことを特徴とする請求の範囲第 1 6項に記載の動きべク トル復号化方 法。
2 0 . 前記生成ステップにおいて、 選択された動きベク トルの中央値 を予測値と して生成する
ことを特徴とする請求の範囲第 1 9項に記載の動きべク トル復号化方 法。
2 1 . 前記生成ステップにおいて生成される予測値は、 前記復号化済 みブロックの動きべク トルのうち同一に識別された動きべク トル毎に生 成された予測値候補と、 前記復号化対象プロックの動きべク トルとを対 応させて生成される
ことを特徴とする請求の範囲第 1 5に項にの動きべク トル復号化方法。
2 2 . 前記復号化済みブロックの動きベク トルの識別は、 当該動きべ ク トルの符号化順に基づいて識別子を付与する
ことを特徴とする請求の範囲第 2 1項に記載の動きべク トル復号化方 法。
2 3 . 前記復号化済ブロックが有する動きベク トルの識別は、 当該動 きベク トルが参照する参照ピクチャの遠い順と近い順との何れかに基づ いて識別する
ことを特徴とする請求の範囲第 2 1 項に記載の動きべク トル復号化方 法。
2 4 . さらに、 前記復号化対象ブロックの動きべク トルと同一に識別 される前記複数の復号化済みブロックの動きべク トルは、 前記復号化対 象ブロックの動きべク トルと同じ参照ピクチャを参照する動きべク トル から選択される
ことを特徴とする請求の範囲第 2 1 項に記載の動きべク トル復号化方 法,
2 5 . 前記生成ステップにおいて、 選択された動きべク トルの中央値 を予測値として生成する
ことを特徴とする請求の範囲第 2 4項に記載の動きべク トル復号化方 法。
2 6 . 動画像符号化方法であって、
符号化対象ブロックに対して参照ピクチャを決定する決定ステップと、 決定された参照ピクチャが符号化対象プロックの属するピクチャから 表示時間軸上で同一方向にあるピクチャであって、 当該符号化対象プロ ックの周辺にある複数の符号化済の各ブロックのうち少なく とも 1 以上 が表示時間軸上で同一方向の参照ピクチャを参照する動きベク トルを有 する場合に、 当該符号化済ブロック毎に動きべク トルに識別子を付与す る付与ステップと、
前記複数の符号化済みブロックの動きベク トルのうち同一の識別子を 有する動きべク トルに基づいて、 前記符号化対象ブロックの動きべク ト ルの予測値を生成する生成ステップと、
符号化対象ブロックの動きベク トルとその予測値との差分を符号化す る符号化ステップと
を有することを特徴とする動画像符号化方法。
2 7 . 動画像復号化方法であって、
復号化対象プロックの参照ピクチャが復号化対象プロックの属するピ クチャから表示時間軸上で同一方向にあるピクチャであって、 当該復号 化対象ブロックの周辺にある複数の復号化済の各ブロックのうち少なく とも 1 以上のプロックが表示時間軸上で同一方向の参照ピクチャを参照 する 2つの動きべク トルを有する場合に、 当該復号化済ブロック毎に動 きベク トルを識別しながら保持する保持ステップと、
前記複数の復号化済みブロックの動きベク トルのうち同一に識別され た動きべク トルに基づいて、 前記復号化対象ブロックの動きべク トルの 予測値を生成する生成ステツプと、
復号化対象ブロックの符号化された動きベク トルを予測値を用いて復 号化する復号化ステップと
を有することを特徴とする動画像復号化方法。
2 8 . 符号化対象ブロックの動きべク トルとその予測値とを生成し、 動きべク トルと予測値との差分を符号化し、 動画像を表す符号列に記述 する動きべク トル符号化装置であって、
当該符号化対象ブロックの周辺にある複数の符号化済の各ブロックの うち少なく とも 1 以上のブロックが、 表示時間軸上で同一方向の参照ピ クチャを参照する 2つの動きべク トルを有する場合に、 当該符号化済の ブロック毎に動きベク トルに識別子を付与する付与手段と、
前記複数の符号化済みブロックの動きべク トルのうち、 同一の識別子を 有する動きべク トルに基づいて、 前記符号化対象プロックの動きべク ト ルの予測値を生成する生成手段と
を備えることを特徴とする動きべク トル符号化装置。。
2 9 . 復号化対象ブロックの予測値を生成し、 予測値を用いて符号化 された動きべク トルを復号化する動きべク トル復号化装置であって、 当該復号化対象プロックの周辺にある複数の復号化済の各ブロックの うち少なく とも 1 以上のブロックが表示時間軸上で同一方向の参照ピク チヤを参照する 2つの動きべク トルを有する場合に、 当該復号化済プロ ック毎に動きベク トルを識別しながら保持する保持手段と、
前記複数の復号化済みプロックの動きべク トルのうち同一に識別され た動きべク トルに基づいて、 前記復号化対象ブロックの動きべク トルの 予測値を生成する生成手段と
を備えることを特徴とする動きべク トル復号化装置。
3 0 . 動画像符号化装置であって、
符号化対象ブロックに対して参照ピクチャを決定する决定手段と、 決定された参照ピクチャが符号化対象プロックの属するピクチャから 表示時間軸上で同一方向にあるピクチャであって、 当該符号化対象プロ ックの周辺にある複数の符号化済の各ブロックのうち少なく とも 1 以上 が表示時間軸上で同一方向の参照ピクチャを参照する動きベク トルを有 する場合に、 当該符号化済ブロック毎に動きべク トルに識別子を付与す る付与手段と、
前記複数の符号化済みブロックの動きベク トルのうち同一の識別子を 有する動きべク トルに基づいて、 前記符号化対象ブロックの動きべク ト ルの予測値を生成する生成手段と、
符号化対象ブロックの動きベク トルとその予測値との差分を符号化す る符号化手段と
を備えることを特徴とする動画像符号化装置。
3 1 . 動画像復号化装置であって、
復号化対象ブロックの参照ピクチャが復号化対象ブロックの属するピ クチャから表示時間軸上で同一方向にあるピクチャであって、 当該復号 化対象ブロックの周辺にある複数の復号化済の各ブロックのうち少なく とも 1 以上のブロックが表示時間軸上で同一方向の参照ピクチャを参照 する 2つの動きべク トルを有する場合に、 当該復号化済ブロック毎に動 きべク トルを識別しながら保持する保持手段と、
前記複数の復号化済みブロックの動きベク トルのうち同一に識別され た動きべク トルに基づいて、 前記復号化対象プロックの動きべク トルの 予測値を生成する生成手段と、
復号化対象ブロックの動きベク トルを予測値を用いて復号化する復号 化手段と、
を備えることを特徴とする動画像復号化装置。
3 2 . 符号化対象ブロックの動きべク 卜ルとその予測値とを生成し、 動きべク トルと予測値との差分を符号化し、 動画を表す符号列に記述す るための動きべク トル符号化プログラムであって、
当該符号化対象ブロックの周辺にある複数の符号化済の各ブロック のうち少なく とも 1 以上のブロックが、 表示時間軸上で同一方向の参照 ピクチャを参照する 2つの動きべク トルを有する場合に、 当該符号化済 のブロック毎に動きべク トルに識別子を付与する付与ステップと、 前記複数の符号化済みブロックの動きべク トルのうち、 同一の識別子を 有する動きべク トルに基づいて、 前記符号化対象ブロックの動きべク 卜 ルの予測値を生成する生成ステップと
をコンピュータに実行させることを特徴とする動きベク トル符号化プ ログラム。
3 3 . 復号化対象ブロックの予測値を生成し、 予測値を用いて符号化 された動きべク トルを復号化するための動きべク トル復号化プログラム であって、 当該復号化対象ブロックの周辺にある複数の復号化済の各ブロック のうち少なく とも 1 以上のプロックが表示時間軸上で同一方向の参照ピ クチャを指す 2つの動きべク トルを有する場合に、 当該復号化済ブロッ ク毎に動きべク トルを識別しながら保持する保持ステツプと、
前記複数の復号化済みブロックの動きベク トルのうち同一に識別され た動きべク トルに基づいて、 前記復号化対象ブロックの動きべク トルの 予測値を生成する生成ステップと
をコンピュータに実行させることを特徴とする動きべク トル復号化プ ログラム。
3 4 . 符号化対象ブロックの動きべク トルとその予測値とを生成し、 動きべク トルと予測値との差分を符号化し、 動画を表す符号列に記述す るための動画像符号化プログラムであって、
符号化対象ブロックに対して参照ピクチャを決定する決定ステップと. 決定された参照ピクチャが符号化対象ブロックの属するピクチャから 表示時間軸上で同一方向にあるピクチャであって、 当該符号化対象プロ ックの周辺にある複数の符号化済の各ブロックのうち少なく とも 1 以上 が表示時間軸上で同一方向の参照ピクチャを参照する動きベク トルを有 する場合に、 当該符号化済ブロック毎に動きべク トルに識別子を付与す る付与ステップと、
前記複数の符号化済みブロックの動きベク トルのうち同一の識別子を 有する動きべク 卜ルに基づいて、 前記符号化対象ブロックの動きべク ト ルの予測値を生成する生成ステップと、
符号化対象ブロックの動きベク トルとその予測値との差分を符号化す る符号化ステップと
をコンピュータに実行させることを特徴とする動画像符号化プログラ ム,
3 5 . 復号化対象ブロックの予測値を生成し、 予測値を用いて符号化 された動きべク トルを復号化するための動画像復号化プログラムであつ て、
復号化対象ブロックの参照ピクチャが復号化対象プロックの属するピ クチャから表示時間軸上で同一方向にあるピクチャであって、 当該復号 化対象ブロックの周辺にある複数の復号化済の各ブロックのうち少なく とも 1 以上のブロックが表示時間軸上で同一方向の参照ピクチャを参照 する 2つの動きべク 卜ルを有する場合に、 当該復号化済ブロック毎に動 きベク トルを識別しながら保持する保持ステップと、
前記複数の復号化済みブロックの動きベク トルのうち同一に識別され た動きべク トルに基づいて、 前記復号化対象ブロックの動きべク トルの 予測値を生成する生成ステップと、
復号化対象ブロックの動きベク トルを予測値を用いて復号化する復号 化ステップと、
をコンピュータに実行させることを特徴とする動画像復号化プログラ ム。
PCT/JP2003/004540 2002-04-23 2003-04-10 Motion vector encoding method and motion vector decoding method WO2003092299A1 (en)

Priority Applications (23)

Application Number Priority Date Filing Date Title
EP20030719091 EP1499133B1 (en) 2002-04-23 2003-04-10 Motion vector encoding method and motion vector decoding method
BRPI0304549-8A BRPI0304549B1 (pt) 2002-04-23 2003-04-10 Method of coding vector movement and decoding method of vector motion
AU2003236034A AU2003236034C1 (en) 2002-04-23 2003-04-10 Motion Vector Coding Method and Motion Vector Decoding Method
DE2003620243 DE60320243T2 (de) 2002-04-23 2003-04-10 Bewegungsvektorcodierungsverfahren und bewegungsvektordecodierungsverfahren
CA 2443861 CA2443861C (en) 2002-04-23 2003-04-10 Motion vector coding method and motion vector decoding method
MXPA03009608A MXPA03009608A (es) 2002-04-23 2003-04-10 Metodos de codificacion y decodificacion de vector de movimiento.
KR1020037013519A KR100947692B1 (ko) 2002-04-23 2003-04-10 움직임 벡터 부호화 방법 및 움직임 벡터 복호화 방법
BR0304549A BR0304549A (pt) 2002-04-23 2003-04-10 Método de codificação de vetor de movimento e método de decodificação de vetor de movimento
US10/473,322 US7394853B2 (en) 2002-04-23 2003-04-10 Motion vector coding method and motion vector decoding method
CNB038005190A CN1271865C (zh) 2002-04-23 2003-04-10 动态矢量编码和译码的方法及装置
US11/980,531 US8179968B2 (en) 2002-04-23 2007-10-31 Motion vector coding and decoding methods
US11/980,661 US8160147B2 (en) 2002-04-23 2007-10-31 Motion vector coding and decoding methods
US11/980,681 US8155201B2 (en) 2002-04-23 2007-10-31 Motion vector coding and decoding methods
US11/980,622 US8213510B2 (en) 2002-04-23 2007-10-31 Motion vector coding and decoding methods
US11/980,606 US8155200B2 (en) 2002-04-23 2007-10-31 Motion vector coding and decoding method
US11/980,550 US8194745B2 (en) 2002-04-23 2007-10-31 Motion vector coding and decoding methods
US13/484,368 US8665961B2 (en) 2002-04-23 2012-05-31 Motion vector coding and decoding methods
US14/041,263 US9020035B2 (en) 2002-04-23 2013-09-30 Motion vector coding and decoding methods
US14/041,320 US9020037B2 (en) 2002-04-23 2013-09-30 Motion vector coding and decoding methods
US14/041,195 US9020034B2 (en) 2002-04-23 2013-09-30 Motion vector coding and decoding methods
US14/041,177 US9118930B2 (en) 2002-04-23 2013-09-30 Motion vector coding and decoding methods
US14/041,302 US9031132B2 (en) 2002-04-23 2013-09-30 Motion vector coding and decoding methods
US14/041,283 US9020036B2 (en) 2002-04-23 2013-09-30 Motion vector coding and decoding methods

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2002121051 2002-04-23
JP2002-121051 2002-04-23
JP2002-173865 2002-06-14
JP2002173865 2002-06-14

Related Child Applications (8)

Application Number Title Priority Date Filing Date
US10/473,322 A-371-Of-International US7394853B2 (en) 2002-04-23 2003-04-10 Motion vector coding method and motion vector decoding method
US10473322 A-371-Of-International 2007-04-10
US11/980,531 Continuation US8179968B2 (en) 2002-04-23 2007-10-31 Motion vector coding and decoding methods
US11/980,622 Continuation US8213510B2 (en) 2002-04-23 2007-10-31 Motion vector coding and decoding methods
US11/980,550 Continuation US8194745B2 (en) 2002-04-23 2007-10-31 Motion vector coding and decoding methods
US11/980,681 Continuation US8155201B2 (en) 2002-04-23 2007-10-31 Motion vector coding and decoding methods
US11/980,606 Continuation US8155200B2 (en) 2002-04-23 2007-10-31 Motion vector coding and decoding method
US11/980,661 Continuation US8160147B2 (en) 2002-04-23 2007-10-31 Motion vector coding and decoding methods

Publications (1)

Publication Number Publication Date
WO2003092299A1 true WO2003092299A1 (en) 2003-11-06

Family

ID=29272326

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2003/004540 WO2003092299A1 (en) 2002-04-23 2003-04-10 Motion vector encoding method and motion vector decoding method

Country Status (16)

Country Link
US (14) US7394853B2 (ja)
EP (6) EP2216995B1 (ja)
JP (4) JP4130783B2 (ja)
KR (4) KR100947689B1 (ja)
CN (5) CN1271865C (ja)
AT (3) ATE392092T1 (ja)
AU (1) AU2003236034C1 (ja)
BR (2) BR0304549A (ja)
CA (1) CA2443861C (ja)
DE (3) DE60320243T2 (ja)
DK (1) DK2216996T3 (ja)
ES (6) ES2400945T3 (ja)
MX (1) MXPA03009608A (ja)
MY (1) MY136457A (ja)
TW (2) TWI323614B (ja)
WO (1) WO2003092299A1 (ja)

Families Citing this family (90)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4114859B2 (ja) * 2002-01-09 2008-07-09 松下電器産業株式会社 動きベクトル符号化方法および動きベクトル復号化方法
JP2004023458A (ja) * 2002-06-17 2004-01-22 Toshiba Corp 動画像符号化/復号化方法及び装置
KR100906473B1 (ko) * 2002-07-18 2009-07-08 삼성전자주식회사 개선된 움직임 벡터 부호화 및 복호화 방법과 그 장치
JP4373702B2 (ja) * 2003-05-07 2009-11-25 株式会社エヌ・ティ・ティ・ドコモ 動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、動画像符号化プログラム及び動画像復号化プログラム
CN100594730C (zh) * 2003-06-25 2010-03-17 汤姆森许可贸易公司 帧间的快速模式确定编码方法及其装置
JP2006020095A (ja) * 2004-07-01 2006-01-19 Sharp Corp 動きベクトル検出回路、画像符号化回路、動きベクトル検出方法および画像符号化方法
JP5074924B2 (ja) * 2004-09-16 2012-11-14 トムソン ライセンシング インタフレームのための高速モード決定方法及び装置
CN101099394B (zh) * 2004-11-04 2010-08-18 汤姆森特许公司 用于视频编码器中b帧的快速模式决策的方法和装置
EP1897375B1 (en) * 2005-06-10 2018-08-15 Nxp B.V. Alternating up- and down-ward motion vector rounding
US8761259B2 (en) * 2005-09-22 2014-06-24 Qualcomm Incorporated Multi-dimensional neighboring block prediction for video encoding
JP2007166381A (ja) * 2005-12-15 2007-06-28 Univ Of Tokyo 多視点画像の圧縮符号化方法及び復号化方法
US20070274385A1 (en) * 2006-05-26 2007-11-29 Zhongli He Method of increasing coding efficiency and reducing power consumption by on-line scene change detection while encoding inter-frame
CN101573982B (zh) * 2006-11-03 2011-08-03 三星电子株式会社 利用运动矢量跟踪编码/解码图像的方法和装置
KR101356734B1 (ko) * 2007-01-03 2014-02-05 삼성전자주식회사 움직임 벡터 트랙킹을 이용한 영상의 부호화, 복호화 방법및 장치
JP4898415B2 (ja) * 2006-12-19 2012-03-14 キヤノン株式会社 動画像符号化装置及び動画像符号化方法
KR101356735B1 (ko) * 2007-01-03 2014-02-03 삼성전자주식회사 전역 움직임 벡터를 사용해서 움직임 벡터를 추정하기 위한방법, 장치, 인코더, 디코더 및 복호화 방법
TWI373696B (en) * 2007-04-04 2012-10-01 Mstar Semiconductor Inc Methods of calculating a motion estimation value and estimating a motion vector of an image
US8526499B2 (en) * 2007-06-15 2013-09-03 Sungkyunkwan University Foundation For Corporate Collaboration Bi-prediction coding method and apparatus, bi-prediction decoding method and apparatus, and recording medium
WO2008153262A1 (en) 2007-06-15 2008-12-18 Sungkyunkwan University Foundation For Corporate Collaboration Bi-prediction coding method and apparatus, bi-prediction decoding method and apparatus, and recording midium
CN100583649C (zh) * 2007-07-23 2010-01-20 华为技术有限公司 矢量编/解码方法、装置及流媒体播放器
KR101946376B1 (ko) 2007-10-16 2019-02-11 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
US8817878B2 (en) * 2007-11-07 2014-08-26 Broadcom Corporation Method and system for motion estimation around a fixed reference vector using a pivot-pixel approach
JP5322956B2 (ja) * 2008-01-29 2013-10-23 パナソニック株式会社 画像符号化装置および画像符号化方法
WO2009115901A2 (en) 2008-03-19 2009-09-24 Nokia Corporation Combined motion vector and reference index prediction for video coding
JP5401071B2 (ja) 2008-10-09 2014-01-29 株式会社Nttドコモ 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、動画像符号化プログラム、動画像復号プログラム、動画像処理システムおよび動画像処理方法
KR101377527B1 (ko) * 2008-10-14 2014-03-25 에스케이 텔레콤주식회사 복수 개의 참조 픽처의 움직임 벡터 부호화/복호화 방법 및장치와 그를 이용한 영상 부호화/복호화 장치 및 방법
US8804516B2 (en) 2008-12-04 2014-08-12 Cisco Technology, Inc. Opportunistic transmissions within MoCA
KR101590511B1 (ko) * 2009-01-23 2016-02-02 에스케이텔레콤 주식회사 움직임 벡터 부호화/복호화 장치 및 방법과 그를 이용한 영상 부호화/복호화 장치 및 방법
US8320455B2 (en) * 2009-03-05 2012-11-27 Qualcomm Incorporated System and method to process motion vectors of video data
BR122020003111B1 (pt) * 2009-06-18 2021-05-11 Kabushiki Kaisha Toshiba aparelhos de codificação e decodificação de vídeo, métodos de codificação e decodificação de vídeo
US9628794B2 (en) 2009-06-18 2017-04-18 Kabushiki Kaisha Toshiba Video encoding apparatus and a video decoding apparatus
JP2009290889A (ja) * 2009-08-07 2009-12-10 Ntt Docomo Inc 動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、動画像符号化プログラム及び動画像復号化プログラム
KR20110068793A (ko) * 2009-12-16 2011-06-22 한국전자통신연구원 영상 부호화 및 복호화를 위한 장치 및 방법
KR101348613B1 (ko) 2009-12-23 2014-01-10 한국전자통신연구원 영상의 부호화/복호화 장치 및 그 방법
KR101522850B1 (ko) * 2010-01-14 2015-05-26 삼성전자주식회사 움직임 벡터를 부호화, 복호화하는 방법 및 장치
WO2011093688A2 (ko) * 2010-02-01 2011-08-04 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
WO2011104993A1 (ja) * 2010-02-24 2011-09-01 シャープ株式会社 画像符号化装置、画像復号装置、および、データ構造
US9300970B2 (en) 2010-07-09 2016-03-29 Samsung Electronics Co., Ltd. Methods and apparatuses for encoding and decoding motion vector
KR101456499B1 (ko) * 2010-07-09 2014-11-03 삼성전자주식회사 움직임 벡터의 부호화 방법 및 장치, 그 복호화 방법 및 장치
JP5755243B2 (ja) 2010-11-24 2015-07-29 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 動きベクトル導出方法および動きベクトル導出装置
US20120163457A1 (en) * 2010-12-28 2012-06-28 Viktor Wahadaniah Moving picture decoding method, moving picture coding method, moving picture decoding apparatus, moving picture coding apparatus, and moving picture coding and decoding apparatus
CN106851306B (zh) * 2011-01-12 2020-08-04 太阳专利托管公司 动态图像解码方法和动态图像解码装置
KR102194079B1 (ko) 2011-02-22 2020-12-23 타지반 투 엘엘씨 필터 방법, 동화상 부호화 장치, 동화상 복호 장치 및 동화상 부호화 복호 장치
JP6108309B2 (ja) 2011-02-22 2017-04-05 サン パテント トラスト 動画像符号化方法、動画像符号化装置、動画像復号方法、および、動画像復号装置
AU2012221588B2 (en) 2011-02-22 2015-12-17 Sun Patent Trust Image coding method, image decoding method, image coding apparatus, image decoding apparatus, and image coding and decoding apparatus
WO2012117728A1 (ja) 2011-03-03 2012-09-07 パナソニック株式会社 動画像符号化方法、動画像復号方法、動画像符号化装置、動画像復号装置、及び動画像符号化復号装置
US9288501B2 (en) * 2011-03-08 2016-03-15 Qualcomm Incorporated Motion vector predictors (MVPs) for bi-predictive inter mode in video coding
TWI526056B (zh) 2011-04-27 2016-03-11 Jvc Kenwood Corp A moving picture coding apparatus, a motion picture coding method, a motion picture coding program, a transmission apparatus, a transmission method, a transmission program, a video decoding apparatus, a video decoding method, a video decoding program, a reception device, a reception method, Receiving program
JP5853842B2 (ja) * 2011-04-27 2016-02-09 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム、並びに、送信装置、送信方法、及び送信プログラム
WO2012147344A1 (ja) 2011-04-27 2012-11-01 株式会社Jvcケンウッド 動画像復号装置、動画像復号方法、及び動画像復号プログラム
JP5853841B2 (ja) * 2011-04-27 2016-02-09 株式会社Jvcケンウッド 動画像復号装置、動画像復号方法、及び動画像復号プログラム、並びに、受信装置、受信方法、及び受信プログラム
JP5786478B2 (ja) * 2011-06-15 2015-09-30 富士通株式会社 動画像復号装置、動画像復号方法、及び動画像復号プログラム
WO2012174990A1 (en) 2011-06-24 2012-12-27 Mediatek Inc. Method and apparatus for removing redundancy in motion vector predictors
KR102490375B1 (ko) * 2011-06-28 2023-01-19 엘지전자 주식회사 움직임 벡터 리스트 설정 방법 및 이러한 방법을 사용하는 장치
JP2014523708A (ja) * 2011-07-01 2014-09-11 モトローラ モビリティ エルエルシー 動きベクトル予測設計の簡易化
EP3661201B1 (en) 2011-07-19 2021-02-17 Tagivan Ii Llc Filtering method, moving image decoding method, moving image encoding method, moving image decoding apparatus, moving image encoding apparatus, and moving image encoding/decoding apparatus
MX351933B (es) * 2011-08-29 2017-11-01 Ibex Pt Holdings Co Ltd Método para generar un bloque de predicción en modo de predicción de vector de movimiento avanzada (amvp).
RU2604679C2 (ru) * 2011-10-27 2016-12-10 Сан Пэтент Траст Способ кодирования изображений, способ декодирования изображений, устройство кодирования изображений и устройство декодирования изображений
JP5383958B2 (ja) 2011-10-28 2014-01-08 パナソニック株式会社 復号方法および復号装置
WO2013061549A1 (ja) 2011-10-28 2013-05-02 パナソニック株式会社 画像符号化方法、画像復号方法、画像符号化装置および画像復号装置
JP5768662B2 (ja) 2011-10-31 2015-08-26 富士通株式会社 動画像復号装置、動画像符号化装置、動画像復号方法、動画像符号化方法、動画像復号プログラム及び動画像符号化プログラム
KR101616010B1 (ko) 2011-11-04 2016-05-17 구글 테크놀로지 홀딩스 엘엘씨 비균일 움직임 벡터 그리드에 대한 움직임 벡터 스케일링
US20140307783A1 (en) 2011-11-08 2014-10-16 Samsung Electronics Co., Ltd. Method and apparatus for motion vector determination in video encoding or decoding
TWI523497B (zh) * 2011-11-10 2016-02-21 Sony Corp Image processing apparatus and method
JP5795525B2 (ja) * 2011-12-13 2015-10-14 日本電信電話株式会社 画像符号化方法,画像復号方法,画像符号化装置,画像復号装置,画像符号化プログラムおよび画像復号プログラム
TWI577181B (zh) * 2011-12-28 2017-04-01 Jvc Kenwood Corp Dynamic video coding device, dynamic image coding method and dynamic image coding program
TWI466538B (zh) * 2012-01-20 2014-12-21 Altek Corp 影像處理方法及其裝置
US8908767B1 (en) 2012-02-09 2014-12-09 Google Inc. Temporal motion vector prediction
US20130208795A1 (en) * 2012-02-09 2013-08-15 Google Inc. Encoding motion vectors for video compression
JP2012138947A (ja) * 2012-03-12 2012-07-19 Ntt Docomo Inc 動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、動画像符号化プログラム及び動画像復号化プログラム
WO2013162273A1 (ko) * 2012-04-24 2013-10-31 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
US9172970B1 (en) 2012-05-29 2015-10-27 Google Inc. Inter frame candidate selection for a video encoder
US11317101B2 (en) 2012-06-12 2022-04-26 Google Inc. Inter frame candidate selection for a video encoder
KR101255230B1 (ko) * 2012-06-25 2013-04-16 세종대학교산학협력단 다시점 영상에서 적응적 움직임 벡터 예측 장치 및 방법
US9503746B2 (en) 2012-10-08 2016-11-22 Google Inc. Determine reference motion vectors
US9485515B2 (en) 2013-08-23 2016-11-01 Google Inc. Video coding using reference motion vectors
JP2014187580A (ja) * 2013-03-25 2014-10-02 Kddi Corp 映像符号化装置、映像復号装置、映像符号化方法、映像復号方法、およびプログラム
KR101445835B1 (ko) * 2013-05-28 2014-10-01 에스케이텔레콤 주식회사 움직임 벡터 부호화 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
US9313493B1 (en) 2013-06-27 2016-04-12 Google Inc. Advanced motion estimation
KR102039708B1 (ko) * 2013-11-13 2019-11-01 삼성전자주식회사 비휘발성 메모리 장치 및 그 제조 방법
JP5705948B2 (ja) * 2013-11-15 2015-04-22 株式会社Nttドコモ 動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、動画像符号化プログラム及び動画像復号化プログラム
EP3085085A4 (en) * 2014-01-29 2017-11-08 MediaTek Inc. Method and apparatus for adaptive motion vector precision
TWI595450B (zh) 2014-04-01 2017-08-11 能晶科技股份有限公司 物件偵測系統
CN104202606B (zh) * 2014-08-18 2017-11-03 山东大学 一种基于hevc运动估计起始点确定方法
CN106303544B (zh) 2015-05-26 2019-06-11 华为技术有限公司 一种视频编解码方法、编码器和解码器
KR101782154B1 (ko) * 2015-06-05 2017-09-26 인텔렉추얼디스커버리 주식회사 움직임 벡터 차분치를 이용하는 영상 부호화 및 복호화 방법과 영상 복호화 장치
US11272207B2 (en) * 2017-06-12 2022-03-08 Futurewei Technologies, Inc. Selection and signaling of motion vector (MV) precisions
US10284869B2 (en) 2017-09-28 2019-05-07 Google Llc Constrained motion field estimation for hardware efficiency
US10880573B2 (en) 2017-08-15 2020-12-29 Google Llc Dynamic motion vector referencing for video coding
JP7088606B2 (ja) * 2018-04-02 2022-06-21 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド 動画処理方法、画像処理装置、プログラム、符号化デバイス、及び復号化デバイス

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0537915A (ja) * 1991-07-31 1993-02-12 Matsushita Electric Ind Co Ltd 画像信号符号化方法と画像信号符号化装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DK0651574T3 (da) * 1993-03-24 2001-10-08 Sony Corp Fremgangsmåde og indretning til koding/dekodning af bevægelsesvektorer, og fremgangsmåde og indretning til kodning/dekodning af billedsignaler
JPH0799645A (ja) * 1993-09-28 1995-04-11 Toshiba Corp 動きベクトル検出回路
FR2725577B1 (fr) * 1994-10-10 1996-11-29 Thomson Consumer Electronics Procede de codage ou de decodage de vecteurs mouvement et dispositif de codage ou de decodage mettant en oeuvre ledit procede
JP3347954B2 (ja) * 1995-11-02 2002-11-20 三菱電機株式会社 動画像符号化装置及び動画像復号化装置
JPH10224795A (ja) * 1997-01-31 1998-08-21 Nippon Telegr & Teleph Corp <Ntt> 動画像符号化方法、復号方法、符号化器および復号器
JP4573366B2 (ja) * 1997-09-25 2010-11-04 株式会社大宇エレクトロニクス 動きベクトル符号化方法及び符号化装置
KR100487989B1 (ko) * 1997-10-23 2005-05-09 미쓰비시덴키 가부시키가이샤 화상 복호화 장치 및 화상 부호화 장치
DE69801209T2 (de) * 1998-03-20 2001-11-08 St Microelectronics Srl Hierarchischer rekursiver Bewegungsschätzer für Bewegtbildkodierer
JP4142180B2 (ja) * 1998-10-29 2008-08-27 富士通株式会社 動きベクトル符号化装置および復号装置
EP1172765A1 (en) 2000-07-12 2002-01-16 Deutsche Thomson-Brandt Gmbh Method for processing video pictures and apparatus for processing video pictures
KR100887524B1 (ko) * 2001-02-13 2009-03-09 코닌클리케 필립스 일렉트로닉스 엔.브이. 모션 정보 코딩 및 디코딩 방법
US6816552B2 (en) * 2001-07-11 2004-11-09 Dolby Laboratories Licensing Corporation Interpolation of video compression frames
US7266150B2 (en) * 2001-07-11 2007-09-04 Dolby Laboratories, Inc. Interpolation of video compression frames
US7308029B2 (en) * 2003-12-23 2007-12-11 International Business Machines Corporation Method and apparatus for implementing B-picture scene changes

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0537915A (ja) * 1991-07-31 1993-02-12 Matsushita Electric Ind Co Ltd 画像信号符号化方法と画像信号符号化装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"H.26L test model long term number 6(TML-6) draft0", ITU-TELECOMMUNICATIONS STANDARDIZATION SECTOR STUDY GROUP 16 IDEO CODING EXPERTS GROUP (VCEG), vol. VCEG-L45, 2001, pages 28 - 33, XP002971811, Retrieved from the Internet <URL:http://kbs.cs.tu-berlin-de/-stewe/vceg/TMLDocs/VCEG-L45do.doc> [retrieved on 20030528] *
SUKEKAZU MIKI, 30 September 1998, KOGYO CHOSAKAI PUBLISHING CO., LTD., ISBN: 4-7693-1167-2, article "MPEG-4 no subete", pages: 44 - 49, XP002971812 *

Also Published As

Publication number Publication date
US20120275520A1 (en) 2012-11-01
CN1522545A (zh) 2004-08-18
US8155201B2 (en) 2012-04-10
EP2216995B1 (en) 2012-12-05
US8179968B2 (en) 2012-05-15
ES2343656T3 (es) 2010-08-05
EP2216995A3 (en) 2011-05-04
US20080117979A1 (en) 2008-05-22
US8194745B2 (en) 2012-06-05
JP5167233B2 (ja) 2013-03-21
ATE392092T1 (de) 2008-04-15
US20040218674A1 (en) 2004-11-04
CN1874514A (zh) 2006-12-06
ES2400063T3 (es) 2013-04-05
EP2216996B1 (en) 2012-12-05
CN1874515A (zh) 2006-12-06
EP1499133B1 (en) 2008-04-09
DE60320243T2 (de) 2009-07-09
MY136457A (en) 2008-10-31
US20080069236A1 (en) 2008-03-20
US20140044183A1 (en) 2014-02-13
US9020037B2 (en) 2015-04-28
US20140044185A1 (en) 2014-02-13
DE60332974D1 (de) 2010-07-22
JP4130783B2 (ja) 2008-08-06
DK2216996T3 (da) 2013-01-07
TW200306749A (en) 2003-11-16
BR0304549A (pt) 2004-08-03
EP1821546B1 (en) 2008-10-29
KR20080041743A (ko) 2008-05-13
US20080260035A1 (en) 2008-10-23
TW200633542A (en) 2006-09-16
TWI323614B (en) 2010-04-11
US7394853B2 (en) 2008-07-01
ES2318822T3 (es) 2009-05-01
DE60324482D1 (de) 2008-12-11
ATE413068T1 (de) 2008-11-15
KR20080041741A (ko) 2008-05-13
EP1821546A1 (en) 2007-08-22
AU2003236034A1 (en) 2003-11-10
AU2003236034C1 (en) 2009-01-08
JP2010057206A (ja) 2010-03-11
JP5167232B2 (ja) 2013-03-21
ES2399675T3 (es) 2013-04-02
KR100947690B1 (ko) 2010-03-16
US9020035B2 (en) 2015-04-28
JP2006222985A (ja) 2006-08-24
ES2301790T3 (es) 2008-07-01
ATE471038T1 (de) 2010-06-15
US20140044173A1 (en) 2014-02-13
CN100542290C (zh) 2009-09-16
MXPA03009608A (es) 2004-03-09
US9031132B2 (en) 2015-05-12
US20140044172A1 (en) 2014-02-13
CN100515083C (zh) 2009-07-15
EP2216997A2 (en) 2010-08-11
KR20040105544A (ko) 2004-12-16
CN1882089A (zh) 2006-12-20
EP2216995A2 (en) 2010-08-11
ES2400945T3 (es) 2013-04-15
EP2216997B1 (en) 2012-11-28
EP1773067B1 (en) 2010-06-09
KR100947692B1 (ko) 2010-03-16
EP1499133A4 (en) 2006-08-23
KR100947689B1 (ko) 2010-03-16
KR20080041742A (ko) 2008-05-13
KR100947691B1 (ko) 2010-03-16
US20080063077A1 (en) 2008-03-13
US9118930B2 (en) 2015-08-25
JP2004072712A (ja) 2004-03-04
JP2010081648A (ja) 2010-04-08
EP1499133A1 (en) 2005-01-19
CN1271865C (zh) 2006-08-23
US20140044184A1 (en) 2014-02-13
US8160147B2 (en) 2012-04-17
CN100515084C (zh) 2009-07-15
US20140044182A1 (en) 2014-02-13
EP2216997A3 (en) 2011-05-04
EP1773067A1 (en) 2007-04-11
US20080069237A1 (en) 2008-03-20
US20080084931A1 (en) 2008-04-10
DE60320243D1 (de) 2008-05-21
US9020034B2 (en) 2015-04-28
US8213510B2 (en) 2012-07-03
CN1882088A (zh) 2006-12-20
TWI281353B (en) 2007-05-11
US9020036B2 (en) 2015-04-28
US8665961B2 (en) 2014-03-04
CN100542291C (zh) 2009-09-16
EP2216996A2 (en) 2010-08-11
EP2216996A3 (en) 2011-05-04
CA2443861C (en) 2012-09-04
JP4456087B2 (ja) 2010-04-28
US8155200B2 (en) 2012-04-10
BRPI0304549B1 (pt) 2017-12-19
CA2443861A1 (en) 2003-10-23
AU2003236034B2 (en) 2008-02-28

Similar Documents

Publication Publication Date Title
JP5167232B2 (ja) 動きベクトル符号化方法、装置およびデータ記憶媒体
KR100923380B1 (ko) 동화상 부호화 방법 및 동화상 복호화 방법
JP4114859B2 (ja) 動きベクトル符号化方法および動きベクトル復号化方法
JP4594448B1 (ja) 動きベクトル符号化方法
WO2003098939A1 (en) Moving image encoding method, moving image decoding method, and data recording medium

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2003236034

Country of ref document: AU

WWE Wipo information: entry into national phase

Ref document number: 2003719091

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 10473322

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2443861

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: 1020037013519

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: PA/a/2003/009608

Country of ref document: MX

AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NO NZ OM PH PL PT RO RU SC SD SE SG SK SL TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

WWE Wipo information: entry into national phase

Ref document number: 2028/CHENP/2003

Country of ref document: IN

WWE Wipo information: entry into national phase

Ref document number: 038005190

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWP Wipo information: published in national office

Ref document number: 2003719091

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 1020087008333

Country of ref document: KR

Ref document number: 1020087008335

Country of ref document: KR

Ref document number: 1020087008334

Country of ref document: KR

WWG Wipo information: grant in national office

Ref document number: 2003719091

Country of ref document: EP