WO2011099428A1 - 動きベクトル予測符号化方法、動きベクトル予測復号方法、動画像符号化装置、動画像復号装置およびそれらのプログラム - Google Patents

動きベクトル予測符号化方法、動きベクトル予測復号方法、動画像符号化装置、動画像復号装置およびそれらのプログラム Download PDF

Info

Publication number
WO2011099428A1
WO2011099428A1 PCT/JP2011/052361 JP2011052361W WO2011099428A1 WO 2011099428 A1 WO2011099428 A1 WO 2011099428A1 JP 2011052361 W JP2011052361 W JP 2011052361W WO 2011099428 A1 WO2011099428 A1 WO 2011099428A1
Authority
WO
WIPO (PCT)
Prior art keywords
motion vector
candidate reference
reference motion
primary candidate
decoding
Prior art date
Application number
PCT/JP2011/052361
Other languages
English (en)
French (fr)
Inventor
正樹 北原
清水 淳
真由子 渡邊
Original Assignee
日本電信電話株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社 filed Critical 日本電信電話株式会社
Priority to US13/576,617 priority Critical patent/US20120320985A1/en
Priority to KR1020127020438A priority patent/KR20120120280A/ko
Priority to CA2788876A priority patent/CA2788876A1/en
Priority to BR112012019671A priority patent/BR112012019671A2/pt
Priority to RU2012133436/08A priority patent/RU2523920C2/ru
Priority to CN201180008468.XA priority patent/CN102884793B/zh
Priority to KR1020147015904A priority patent/KR20140077988A/ko
Priority to JP2011553819A priority patent/JP5306485B2/ja
Priority to EP11742172.7A priority patent/EP2536147A4/en
Publication of WO2011099428A1 publication Critical patent/WO2011099428A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/521Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Definitions

  • the present invention relates to a moving picture coding technique for predictively coding a motion vector.
  • the present invention relates to a motion vector predictive encoding method, a motion vector predictive decoding method, a video encoding device, a video decoding device, and a motion vector for improving motion vector prediction efficiency and improving video encoding efficiency. It relates to those programs.
  • This application claims priority based on Japanese Patent Application No. 2010-26131 filed in Japan on February 9, 2010, the contents of which are incorporated herein by reference.
  • motion vector predictive coding is performed in order to efficiently encode a motion vector.
  • FIG. 11 shows a configuration example of a motion compensation unit in a conventional video encoding apparatus.
  • the motion compensation unit 100 in the conventional video encoding apparatus includes a motion search unit 101, a motion vector memory 102, a motion vector prediction unit 103, and a prediction residual calculation unit 104.
  • the motion search unit 101 When the video signal of the encoding target block is input, the motion search unit 101 performs a motion search by collating it with a decoded signal of the encoded reference image, calculates a motion vector, and stores it in the motion vector memory 102. To do.
  • the motion vector prediction unit 103 reads a motion vector used for encoding an already-encoded block near the encoding target block from the motion vector memory 102, and calculates a prediction motion vector using them as a reference motion vector. .
  • the prediction residual calculation unit 104 calculates a residual between the motion vector calculated by the motion search unit 101 and the prediction motion vector calculated by the motion vector prediction unit 103, and outputs a motion vector prediction residual. This motion vector prediction residual is encoded and output as motion vector encoding information.
  • FIG. 12 shows a configuration example of a motion compensation unit in a conventional video decoding device.
  • the motion compensation unit 200 in the conventional video decoding device includes a motion vector calculation unit 201, a prediction signal creation unit 202, a motion vector memory 203, and a motion vector prediction unit 204.
  • the motion vector calculation unit 201 generates a motion vector by adding the motion vector prediction residual decoded from the encoded stream and the prediction motion vector predicted by the motion vector prediction unit 204, and uses the motion vector as a motion vector memory.
  • the data is stored in 203 and output to the prediction signal creation unit 202.
  • the prediction signal creation unit 202 reads a decoded signal from the reference image that has been decoded according to the motion vector, and outputs the decoded signal as a prediction signal of the decoding target block.
  • the motion vector prediction unit 204 reads a motion vector used for decoding a decoded block in the vicinity of the decoding target block from the motion vector memory 203, and calculates a prediction motion vector using them as a reference motion vector.
  • FIG. 13 is a diagram for explaining an example of a conventional motion vector predictive coding method.
  • a motion vector encoded (the same applies to decoding)
  • a motion vector encoded motion vector
  • a motion vector encoded motion vector
  • an error (referred to as a motion vector prediction residual) between a motion vector of a block to be encoded and a predicted motion vector is encoded using a median of a reference motion vector as a predicted motion vector.
  • a coding device selects a motion vector to be used for prediction among reference motion vectors, and encodes an identifier of a reference motion vector to be used for prediction together with a motion vector prediction residual ( Non-patent document 2).
  • a technique for predicting a motion vector itself of a block to be encoded instead of encoding a motion vector by obtaining a motion vector prediction residual a technique for predicting a motion vector by template matching (hereinafter, conventional technique c) is used. Called).
  • This prior art c is a motion vector prediction method for performing motion compensation without encoding a motion vector on the encoding side (see Non-Patent Document 3).
  • FIG. 14 is a diagram illustrating motion vector prediction based on conventional template matching.
  • a set of pixels that are adjacent to the encoding target block and encoded (as shown in FIG. 14 as an inverted L-shaped region).
  • Is called a template) Is called a template
  • a motion search is performed for a predetermined search range on the reference image (this process is called template matching).
  • template matching a region in which the region at the same position as the template on the reference image is shifted by the motion vector and the template.
  • SAD Sum of Absolute Differences
  • the prediction efficiency of motion vectors decreases when there is no reference motion vector effective for prediction in neighboring blocks. It is conceivable to use not only the neighborhood of the block to be encoded but also the reference motion vectors of a large number of blocks included in a wider range for prediction. However, if this is done by the method of the prior art, the prediction efficiency and the coding efficiency will deteriorate.
  • FIG. 15 is a diagram for explaining a problem of the conventional technique.
  • the neighboring block of the block to be encoded is the boundary of the subject Obj and when there is occlusion (when the corresponding point of the neighboring block is hidden by some subject in the reference image), the subject is If it is not a rigid body, the reference motion vector of the neighboring block may not be suitable for motion vector prediction of the encoding target block, or intra coding may be performed and the reference motion vector itself may not exist. In such a case, the prediction efficiency is deteriorated in both the conventional technique a and the conventional technique b.
  • a motion vector of a block not included in a candidate such as a block indicated by a dotted line in FIG. 15, may be more effective for prediction.
  • the number of candidate blocks is increased, not just the nearest block.
  • the reference motion vector that is not appropriate in the prior art “a” may be included in the candidates, and the prediction efficiency may deteriorate.
  • the code amount of the identifier of the reference motion vector used for prediction is increased, there is a possibility that the coding efficiency may be deteriorated.
  • the conventional technique c is a motion vector prediction method for performing motion compensation without encoding a motion vector on the encoding side. Therefore, it is considered that this is applied to the above-described problems of the prior art. That is, it is considered that a prediction motion vector is created using template matching of the conventional technique c, and a motion vector prediction residual is obtained from this and a motion vector of an encoding target block obtained by normal motion search, and is encoded. . In this case, there is the following problem.
  • the search can be performed without using the encoded motion vectors of the neighboring blocks of the encoding target block. For this reason, even when the encoded motion vector is not effective for prediction, there is a possibility that an effective predicted motion vector can be created. However, since the prediction motion vector is determined only from the template, a motion vector indicating an area unrelated to the encoding target block is used as the prediction motion vector, and the prediction efficiency may deteriorate.
  • An object of the present invention is to solve the above-described problems, improve the prediction efficiency of motion vectors, and improve the encoding efficiency of moving images.
  • the prediction efficiency of the motion vector means the degree of similarity between the motion vector to be predicted and the predicted motion vector. Specifically, it is assumed that the prediction efficiency is high when the length of the difference vector between these two vectors is small.
  • the outline of the present invention is as follows.
  • the present invention performs motion vector prediction for each block on the encoding side and decoding side by the following method.
  • a large number (N) of primary candidate reference motion vectors are used.
  • the primary candidate reference motion vectors are narrowed down to a small number (M) of secondary candidate reference motion vectors whose reliability is greater than a predetermined threshold.
  • a predicted motion vector is created using a small number of secondary candidate reference motion vectors.
  • processing 1 to processing 3 are performed as preprocessing of motion vector predictive coding (processing 4 below) similar to the conventional one.
  • N motion vectors that are used to encode an already-encoded block in the vicinity of the encoding target block and a motion vector having a predetermined value (N is 2 or more). Extract at least one of (integer) motion vectors.
  • a primary candidate reference motion vector having a reliability greater than a predetermined threshold is selected as a secondary candidate reference motion vector.
  • a prediction motion vector of the encoding target block is calculated using the secondary candidate reference motion vector, and a residual between the motion vector obtained by the motion search of the encoding target block and the prediction motion vector is calculated as a motion vector. It encodes as encoding information.
  • a median value of M secondary candidate reference motion vectors is selected, or M secondary candidate reference motion vectors are selected. Conventional methods such as selecting a secondary candidate reference motion vector having the smallest prediction residual among the vectors and encoding the motion vector identifier together with the prediction residual can be used.
  • the present invention not only the neighboring blocks of the encoding target block but also a large number of motion vectors in a predetermined range are set as primary candidate reference motion vectors. Then, for each primary candidate reference motion vector, reliability is calculated using encoded information or decoded information. The primary candidate reference motion vector is narrowed down according to the reliability, and the narrowed result is set as the secondary candidate reference motion vector. Subsequent processing uses the secondary candidate reference motion vector as input, obtains a motion vector predictor using the same method as the conventional motion vector predictive coding, and encodes the prediction residual between the motion vector predictor and the motion vector.
  • not only the neighboring blocks of the decoding target block but also a number of surrounding motion vectors are set as primary candidate reference motion vectors.
  • reliability is calculated using decoded information.
  • the primary candidate reference motion vector is narrowed down according to the reliability, and the narrowed result is set as the secondary candidate reference motion vector.
  • Subsequent processing uses the secondary candidate reference motion vector as input, obtains a motion vector predictor using the same method as conventional motion vector predictive decoding, and calculates the motion vector by adding the motion vector predictor to the decoded prediction residual. To do.
  • the reference motion vectors are narrowed down by performing the above processes 1 to 3. This narrowing down can be realized on the decoding side without additional information from the encoding side, and the secondary candidate reference motion vector includes a motion vector effective for prediction. For this reason, prediction efficiency improves from the prior art a, b, and c mentioned above.
  • the entropy of the motion vector prediction residual is reduced and the code amount of the motion vector is reduced. Since the encoded data of the moving image includes the code amount of the motion vector, the encoding efficiency of the moving image is improved as compared with the method using the conventional techniques a, b, and c.
  • FIG. 2 is a block diagram illustrating a motion compensation unit illustrated in FIG. 1. It is a block diagram which shows the moving image decoding apparatus by one Embodiment of this invention.
  • FIG. 4 is a block diagram illustrating a motion compensation unit illustrated in FIG. 3. It is a flowchart which shows the motion vector prediction process by one Embodiment of this invention. It is a figure which shows the 1st example of a setting of the primary candidate reference motion vector by one Embodiment of this invention. It is a figure which shows the 2nd example of a setting of the primary candidate reference motion vector by one Embodiment of this invention.
  • FIG. 1 is a diagram illustrating a configuration example of a moving image encoding apparatus according to an embodiment of the present invention.
  • the motion compensation unit 18 is different from that of the prior art, and the other parts are H.264. It is the same as that of a conventional general video encoding apparatus used as an encoder in H.264 and others.
  • the moving picture encoding apparatus 1 receives a video signal to be encoded, divides a frame of the input video signal into blocks, encodes each block, and outputs the encoded data as a bit stream.
  • the prediction residual signal calculation unit 10 obtains a difference between the input video signal and the prediction signal output from the motion compensation unit 18 and outputs it as a prediction residual signal.
  • the orthogonal transform unit 11 performs orthogonal transform such as discrete cosine transform (DCT) on the prediction residual signal and outputs a transform coefficient.
  • the quantization unit 12 quantizes the transform coefficient and outputs the quantized transform coefficient.
  • the information source encoding unit 13 entropy-encodes the quantized transform coefficient and outputs it as a bit stream.
  • the quantized transform coefficient is also input to the inverse quantization unit 14 where it is inversely quantized.
  • the inverse orthogonal transform unit 15 performs inverse orthogonal transform on the transform coefficient output from the inverse quantization unit 14 and outputs a prediction residual decoded signal.
  • the decoded signal calculation unit 16 adds the prediction residual decoded signal and the prediction signal output from the motion compensation unit 18 to generate a coded decoded signal of the encoding target block.
  • the decoded signal is stored in the frame memory 17 for use as a motion compensation reference image in the motion compensation unit 18.
  • the motion compensation unit 18 performs a motion search on the video signal of the encoding target block with reference to the reference image stored in the frame memory 17 and outputs a prediction signal of the encoding target block.
  • the motion compensation unit 18 predicts a motion vector as a result of motion search, predicts a motion vector using encoded information, and obtains a motion vector as a result of motion search and a predicted motion. The difference from the vector is calculated, and the result is output to the information source encoding unit 13 as a motion vector prediction residual.
  • the motion compensation unit 18 does not simply use the motion vector of the encoded block in the vicinity of the encoding target block in predicting the motion vector. That is, the motion compensation unit 18 sets several primary candidate reference motion vectors, and calculates the reliability of these primary candidate reference motion vectors from the encoded information. Next, the motion compensation unit 18 narrows down the primary candidate reference motion vectors to a small number of secondary candidate reference motion vectors according to the reliability, and then calculates a predicted motion vector using the secondary candidate reference motion vectors. To do. The process of calculating the predicted motion vector using the secondary candidate reference motion vector can be performed using a motion vector prediction method similar to the conventional technique.
  • FIG. 2 is a diagram showing a detailed configuration example of the motion compensation unit 18 shown in FIG.
  • the motion compensation unit 18 includes a motion search unit 181, a motion vector memory 182, a primary candidate reference motion vector setting unit 183, a reliability calculation unit 184, a reference motion vector determination unit 185, and a motion vector prediction unit. 186.
  • a motion vector prediction residual calculation unit 187 is provided.
  • the motion search unit 181 performs a motion search for matching a block to be coded of an input video signal with a decoded signal of a reference image that has already been coded, and a prediction signal Is generated and output, and a motion vector indicating the matching position is output.
  • This motion vector is stored in the motion vector memory 182 and output to the motion vector prediction residual calculation unit 187.
  • the primary candidate reference motion vector setting unit 183 includes N (N is an integer of 2 or more) motion vectors that have been encoded in the past and stored in the motion vector memory 182 or motion vectors having a predetermined value.
  • the motion vector is set as the primary candidate reference motion vector and notified to the reliability calculation unit 184.
  • the reliability calculation unit 184 uses the encoded image information (decoded signal) to quantitatively evaluate the effectiveness in motion vector prediction in the encoding target block. Calculate the confidence level to represent.
  • the reference motion vector determination unit 185 compares the reliability calculated by the reliability calculation unit 184 with a predetermined threshold, and determines a primary candidate reference motion vector whose reliability is greater than the threshold as a secondary candidate reference motion. Elected as a vector.
  • the motion vector prediction unit 186 calculates a prediction motion vector of the encoding target block using the secondary candidate reference motion vector selected by the reference motion vector determination unit 185.
  • the motion vector prediction unit 186 may calculate the predicted motion vector in the same manner as in the prior art. For example, the median value in the secondary candidate reference motion vector is used as the predicted motion vector. Further, among the secondary candidate reference motion vectors, a motion vector that has a value closest to the motion vector obtained by the motion search unit 181 is set as a predicted motion vector, and an identifier indicating the motion vector is added to an encoding target, and then the decoding side It is also possible to notify.
  • the motion vector prediction residual calculation unit 187 calculates a residual between the motion vector calculated by the motion search unit 181 and the prediction motion vector calculated by the motion vector prediction unit 186, and uses the calculated residual as a motion vector prediction residual. Output as difference.
  • FIG. 3 is a diagram illustrating a configuration example of a video decoding device according to an embodiment of the present invention.
  • the motion compensation unit 25 is different from the conventional technology, and the other parts are H.264. It is the same as that of a conventional general video decoding device used as a decoder in H.264 and others.
  • the moving picture decoding apparatus 2 outputs the decoded signal of the decoded picture by inputting and decoding the bit stream encoded by the moving picture encoding apparatus 1 shown in FIG.
  • the information source decoding unit 20 entropy-decodes the quantized transform coefficient of the decoding target block and decodes the motion vector prediction residual based on the input bitstream.
  • the inverse quantization unit 21 receives the quantized transform coefficient, inversely quantizes it, and outputs a decoded transform coefficient.
  • the inverse orthogonal transform unit 22 performs inverse orthogonal transform on the decoded transform coefficient, and outputs a decoded prediction residual signal.
  • the decoded signal calculation unit 23 adds the prediction signal generated by the motion compensation unit 25 and the decoded prediction residual signal to generate a decoded signal of the decoding target block.
  • the decoded signal is output to an external device such as a display device and is stored in the frame memory 24 for use as a motion compensation reference image in the motion compensation unit 25.
  • the motion compensation unit 25 performs motion vector prediction using the decoded information stored in the frame memory 24, and adds the predicted motion vector and the motion vector prediction residual decoded by the information source decoding unit 20. A motion vector is calculated. Next, the motion compensation unit 25 refers to the reference image in the frame memory 24 based on the motion vector, and generates a prediction signal of the decoding target block.
  • the motion compensation unit 25 does not simply use the motion vector of the decoded block in the vicinity of the decoding target block in predicting the motion vector. That is, the motion compensation unit 25 sets several primary candidate reference motion vectors, and calculates the reliability of these primary candidate reference motion vectors from the decoded information. Next, the motion compensation unit 25 narrows down to a small number of secondary candidate reference motion vectors according to the reliability, and then calculates a predicted motion vector using the secondary candidate reference motion vectors. The process of calculating the predicted motion vector using the secondary candidate reference motion vector can be performed using a motion vector prediction method similar to the conventional technique.
  • FIG. 4 is a diagram showing a detailed configuration example of the motion compensation unit 25 shown in FIG.
  • the motion compensation unit 25 includes a motion vector calculation unit 251, a prediction signal creation unit 252, a motion vector memory 253, a primary candidate reference motion vector setting unit 254, a reliability calculation unit 255, and a reference motion vector determination.
  • Unit 256 and a motion vector prediction unit 257 are diagram showing a detailed configuration example of the motion compensation unit 25 shown in FIG.
  • the motion compensation unit 25 includes a motion vector calculation unit 251, a prediction signal creation unit 252, a motion vector memory 253, a primary candidate reference motion vector setting unit 254, a reliability calculation unit 255, and a reference motion vector determination.
  • Unit 256 and a motion vector prediction unit 257 includes a motion vector prediction unit 251, a prediction signal creation unit 252, a motion vector memory 253, a primary candidate reference motion vector setting unit 254, a reliability calculation unit 255, and a reference motion vector determination.
  • Unit 256 and a motion vector prediction unit 257 are diagram showing
  • the motion vector calculation unit 251 uses the motion vector prediction residual obtained by decoding the encoded bitstream and the information that the motion vector prediction unit 257 has decoded.
  • the predicted motion vector predicted is added, and a motion vector used for decoding is output.
  • This motion vector is stored in the motion vector memory 253 and is output to the prediction signal creation unit 252.
  • the prediction signal creation unit 252 reads the decoded signal at the reference image position indicated by the input motion vector, and outputs it as the prediction signal of the decoding target block.
  • the primary candidate reference motion vector setting unit 254 performs N motions (N is an integer equal to or greater than 2) consisting of motion vectors decoded in the past and stored in the motion vector memory 253 or motion vectors having a predetermined value.
  • the vector is set as the primary candidate reference motion vector and notified to the reliability calculation unit 255.
  • the reliability calculation unit 255 uses the decoded image information (decoded signal) for each of the N primary candidate reference motion vectors to quantitatively represent the effectiveness in motion vector prediction in the decoding target block. Calculate the degree.
  • the reference motion vector determination unit 256 compares the reliability calculated by the reliability calculation unit 255 with a predetermined threshold, and determines a primary candidate reference motion vector whose reliability is greater than the threshold as a secondary candidate reference motion. Elected as a vector.
  • the motion vector prediction unit 257 calculates a prediction motion vector of the decoding target block using the secondary candidate reference motion vector selected by the reference motion vector determination unit 256.
  • the motion vector predictor 257 calculates the motion vector predictor in the same manner as in the prior art. For example, the median value in the secondary candidate reference motion vector is used as the motion vector predictor. Or when the identifier of the motion vector used for prediction is designated on the encoding side, the motion vector indicated by the identifier is set as the predicted motion vector.
  • motion vector prediction processing related to the present invention will be described with reference to FIGS. 5 to 9B. To do. In the following description, the description will mainly focus on the motion vector prediction process on the encoding side, but the motion vector prediction process on the decoding side is exactly the same.
  • FIG. 5 shows a flowchart of motion vector prediction processing.
  • the primary candidate reference motion vector setting unit 183 sets N primary candidate reference motion vectors.
  • the following method can be used.
  • the value of the motion vector Vi can be arbitrarily determined in advance so as to be the same value on the encoding side and the decoding side.
  • the values of these motion vectors Vi may be stored in a table in advance.
  • the value can be used as a candidate. Therefore, for example, statistics of motion vectors of several frames that have been encoded and decoded in the past are sequentially calculated, and N primary candidate reference motion vectors having a large appearance probability are calculated from the statistics of the motion vectors. It is also possible to select.
  • the motion vectors of the encoded blocks and the motion vectors within a predetermined range with respect to these motion vectors are set as primary candidate reference motion vectors.
  • the predetermined range is a range of ⁇ 1 in the X and Y directions
  • the motion vector (9, 20) 20), (11, 20), (10, 19), (10, 21), (9, 19), (9, 21), (11, 19), and (11, 21) are also candidates. That is, a total of nine primary candidate reference motion vectors are candidates for the motion vector of one encoded block.
  • the number of motion vectors of an encoded block that is initially included in the candidate is K, and all the K surroundings are also included in the candidate, 9 ⁇ K primary candidate reference motion vectors are used. However, if it is common to the decoding side, the periphery of the motion vectors of all the encoded blocks is not included in the candidates but may be a part.
  • the effect of such setting is that the motion vector prediction efficiency is improved by taking into account the periphery of the motion vector of the encoded block.
  • the reliability calculation unit 184 calculates the reliability for each of the N primary candidate reference motion vectors set by the primary candidate reference motion vector setting unit 183 using the encoded information.
  • the reliability is a quantitative expression of the effectiveness of the primary candidate reference motion vector in the motion vector prediction in the encoding (decoding) target block. This reliability is calculated for only the N primary candidate reference motion vectors using only information that has already been decoded when decoding starts on the decoding side.
  • FIG. 7 is a flowchart showing an example of reliability calculation processing
  • FIG. 8 is a diagram for explaining how to obtain reliability using template matching.
  • the template 32 is a set of encoded pixels adjacent to the encoding target block 31 (in this example, an inverted L-shaped region composed of the left and upper pixel groups of the encoding target block 31).
  • the width (thickness) of the inverted L-shaped region is, for example, about 2 pixels, but may be 1 pixel or 3 pixels or more.
  • the reference image 4 is an encoded or decoded picture.
  • the corresponding position block 41 in the reference image 4 is a block at the same position as the position of the encoding target block 31 in the encoding target picture 3.
  • step S21 an attempt is made to calculate the reliability of the reference image 4 on the spatially same area as the template 32 (an inverted L-shaped area adjacent to the corresponding position block 41). A region shifted by the existing primary candidate reference motion vector Vi is obtained, and this is acquired as the matching target region 42.
  • step S22 the similarity between the template 32 of the encoding target block 31 and the matching target area 42 in the reference image 4 is calculated, and this is set as the reliability of the primary candidate reference motion vector Vi.
  • the similarity index is SAD (Sum (Absolute Differences).
  • SAD Sud (Absolute Differences).
  • the reliability index used in the reliability calculation unit 184 may be any other index as long as it indicates the similarity between the template 32 and the matching target region 42.
  • SSD Sum of Squared Differences
  • SATD Sum of Absolute Transformed Differences
  • Each of these is a scale indicating that the smaller the value, the higher the reliability.
  • the template 32 Since the template 32 has a high correlation with the image signal of the encoding target block 31, it is possible to specify a secondary candidate reference block effective for motion vector prediction by using the similarity.
  • the reference motion vector determination unit 185 (or 256) narrows the N primary candidate reference motion vectors to a small number of secondary candidate reference motion vectors based on the reliability information of each primary candidate reference motion vector.
  • FIG. 9A is a flowchart of the reference motion vector determination process.
  • the reference motion vector determination unit 185 compares the reliability of each primary candidate reference motion vector calculated by the reliability calculation unit 184 with a predetermined threshold and compares the reliability of the primary candidate reference motion vector. If the degree exceeds the predetermined threshold, the process proceeds to step S312.
  • a primary candidate reference motion vector whose reliability is greater than a predetermined threshold is set as a secondary candidate reference motion vector. If the reliability is not greater than a predetermined threshold, the primary candidate reference motion vector is excluded from the candidates.
  • the motion vector prediction efficiency can be improved as compared with the prior art, and the encoding efficiency can be improved.
  • FIG. 9B is a flowchart of another reference motion vector determination process, showing an example of the reference motion vector determination process when the number of primary candidate reference motion vectors is limited to a predetermined number M.
  • step S321 it is determined whether or not the reliability of the primary candidate reference motion vector to be processed exceeds a predetermined threshold. If the reliability of the primary candidate reference motion vector exceeds a predetermined threshold value, the process proceeds to step S322; otherwise, the process proceeds to step S323.
  • step S322 a primary candidate reference motion vector whose reliability is greater than a predetermined threshold is set as a highly reliable reference motion vector.
  • step S323 it is determined whether or not the processing has been completed for all primary candidate reference motion vectors. In step S323, if there is an unprocessed primary candidate reference motion vector, the process returns to step S321 and similarly continues the process of selecting a reliable reference motion vector.
  • step S324 among the reliable reference motion vectors, the top M reliable reference motion vectors (M is a predetermined integer) with respect to the reliability are set as secondary candidate reference motion vectors.
  • FIG. 10 is a flowchart of still another reference motion vector determination process. This figure shows an example of reference motion vector determination processing in the case where there are only M ′ primary candidate reference motion vectors that exceed a predetermined threshold with respect to reliability.
  • step S331 it is determined whether or not the reliability of the primary candidate reference motion vector to be processed exceeds a predetermined threshold value. If the reliability of the primary candidate reference motion vector exceeds a predetermined threshold value, the process proceeds to step S332; otherwise, the process proceeds to step S333.
  • step S332 a primary candidate reference motion vector whose reliability is greater than a predetermined threshold is set as a highly reliable reference motion vector.
  • step S333 it is determined whether or not the processing has been completed for all primary candidate reference motion vectors. In step S333, if there is an unprocessed primary candidate reference motion vector, the process returns to step S331 and similarly continues the process of selecting a reliable reference motion vector.
  • step S334 it is determined whether the number M ′ of reliable reference vectors is greater than a predetermined number M.
  • M ′ is larger than the predetermined number M
  • step S335 among the reliable reference motion vectors, the top M reliable reference motion vectors for reliability are set as secondary candidate reference motion vectors. To do.
  • step S336 all of the M ′ reliable reference motion vectors are set as secondary candidate reference motion vectors.
  • the motion vector prediction unit 186 uses the secondary candidate reference motion vector selected by the reference motion vector determination unit 185 to create a prediction motion vector of the encoding target block.
  • An important point in the present embodiment is that a prediction for calculating a motion vector prediction residual using a secondary candidate reference motion vector with high reliability by narrowing down a large number of primary candidate reference motion vectors with reliability. The point is to obtain a motion vector. Therefore, the process of obtaining the predicted motion vector from the secondary candidate reference motion vector may be the same as the process of the motion vector predicting unit 103 (or 204) of the prior art described with reference to FIGS. However, the processing does not necessarily have to be the same as that of the conventional technology, and the present embodiment can also be implemented by obtaining a predicted motion vector by different processing.
  • the motion vector predictive encoding and motion vector predictive decoding processes described above can also be realized by a computer and a software program.
  • the program can be recorded on a computer-readable recording medium or provided through a network.
  • the present invention can be used for a moving picture coding and moving picture decoding technique for predictively coding a motion vector. According to the present invention, motion vector prediction efficiency can be improved, and moving picture encoding efficiency can be improved.
  • Video coding apparatus 2 Video decoding apparatus 10 Prediction residual signal calculation part 11 Orthogonal transformation part 12 Quantization part 13 Information source coding part 14, 21 Inverse quantization part 15, 22 Inverse orthogonal transformation part 16 Decoding signal calculation Unit 17, 24 frame memory 18, 25 motion compensation unit 181 motion search unit 182, 253 motion vector memory 183, 254 primary candidate reference motion vector setting unit 184, 255 reliability calculation unit 185, 256 reference motion vector determination unit 186 257 Motion vector prediction unit 187 Motion vector prediction residual calculation unit 20 Information source decoding unit 23 Decoded signal calculation unit 251 Motion vector calculation unit 252 Prediction signal generation unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

 動画像符号化装置において、1次候補参照動きベクトル設定部は、N個の1次候補参照動きベクトルを設定する。信頼度計算部は,符号化済みまたは復号済みの画像情報を利用して,符号化対象ブロックの動きベクトル予測における有効性を表す各1次候補参照動きベクトルの信頼度を算出する。参照動きベクトル決定部は,N個の1次候補参照動きベクトルから信頼度が所定の閾値より大きい2次候補参照動きベクトルを選出する。動きベクトル予測部は,信頼度の高いM個(M<N)の2次候補参照動きベクトルを利用して符号化対象ブロックの予測動きベクトルを作成する。

Description

動きベクトル予測符号化方法、動きベクトル予測復号方法、動画像符号化装置、動画像復号装置およびそれらのプログラム
 本発明は、動きベクトルを予測符号化する動画像符号化技術に関する。特に、本発明は、動きベクトルの予測効率を向上させ、動画像の符号化効率を向上させるための動きベクトル予測符号化方法、動きベクトル予測復号方法、動画像符号化装置、動画像復号装置およびそれらのプログラムに関する。
 本願は、2010年2月9日に日本に出願された特願2010-26131号に基づき優先権を主張し、その内容をここに援用する。
 H.264に代表されるような、動き補償を用いた動画像符号化方式では、動きベクトルを効率的に符号化するために、動きベクトルの予測符号化を行う。
 図11は、従来の動画像符号化装置における動き補償部の構成例を示す。従来の動画像符号化装置における動き補償部100は、動き探索部101と、動きベクトルメモリ102と、動きベクトル予測部103と、予測残差算出部104を備える。
 動き探索部101は、符号化対象ブロックの映像信号が入力されると、符号化済みの参照画像の復号信号と照合することにより動き探索を行い、動きベクトルを算出して動きベクトルメモリ102に格納する。動きベクトル予測部103は、符号化対象ブロックの近隣にある符号化済みブロックの符号化に用いられた動きベクトルを動きベクトルメモリ102から読み出し、それらを参照動きベクトルとして用いて予測動きベクトルを算出する。予測残差算出部104は、動き探索部101が算出した動きベクトルと、動きベクトル予測部103が算出した予測動きベクトルとの残差を算出し、動きベクトル予測残差を出力する。この動きベクトル予測残差が符号化されて、動きベクトルの符号化情報として出力される。
 図12は、従来の動画像復号装置における動き補償部の構成例を示す。従来の動画像復号装置における動き補償部200は、動きベクトル算出部201と、予測信号作成部202と、動きベクトルメモリ203と、動きベクトル予測部204とを備える。
 動きベクトル算出部201は、符号化ストリームから復号された動きベクトル予測残差と、動きベクトル予測部204が予測した予測動きベクトルとを加算して動きベクトルを生成し、この動きベクトルを動きベクトルメモリ203に格納するとともに、予測信号作成部202に出力する。予測信号作成部202は、動きベクトルに従って復号済みの参照画像から復号信号を読み出し、復号対象ブロックの予測信号として出力する。動きベクトル予測部204は、復号対象ブロックの近隣にある復号済みブロックの復号に用いられた動きベクトルを動きベクトルメモリ203から読み出し、それらを参照動きベクトルとして用いて予測動きベクトルを算出する。
 以上のような動きベクトル予測符号化に関する技術として、従来、以下のような技術がある。
(a)メディアン予測符号化(H.264など)〔以下、従来技術aという〕
(b)参照動きベクトル指定による予測符号化〔以下、従来技術bという〕
 図13は、従来の動きベクトルの予測符号化方式の例を説明する図である。従来技術aおよび従来技術bでは、動きベクトルを符号化(復号も同様)する際に、図13に示すような符号化対象ブロックの近隣の符号化済みブロックの動きベクトル(符号化済み動きベクトル)を参照動きベクトルとして用いて予測を行って、動きベクトルの符号化を行う。
 具体的には、従来技術aでは、参照動きベクトルのメディアンを予測動きベクトルとして用いて、符号化対象ブロックの動きベクトルと、予測動きベクトルとの誤差(動きベクトル予測残差という)を符号化する(非特許文献1参照)。
 また、従来技術bでは、参照動きベクトルのうち、予測に利用する動きベクトルを符号化装置(エンコーダ)が選択し、動きベクトル予測残差とともに予測に利用する参照動きベクトルの識別子を符号化する(非特許文献2参照)。
 また、従来、動きベクトル予測残差を求めて動きベクトルを符号化するのではなく、符号化対象ブロックの動きベクトルそのものを予測する技術として、テンプレートマッチングによる動きベクトル予測の技術(以下、従来技術cという)がある。この従来技術cは、符号化側において動きベクトルを符号化しないで動き補償をするための動きベクトル予測方法である(非特許文献3参照)。
 図14は、従来のテンプレートマッチングによる動きベクトル予測を説明する図である。従来技術cでは、符号化対象ブロックの動きベクトルを予測するにあたり、図14に逆L字型の領域として示されるような、符号化対象ブロックの近隣で、なおかつ符号化済みの画素の集合(これをテンプレートと呼ぶ)を利用して、参照画像上で所定の探索範囲について動き探索を行う(この処理をテンプレートマッチングと呼ぶ)。具体的には、所定の探索範囲内の各動きベクトルについて、参照画像上でテンプレートと同じ位置にある領域を動きベクトル分だけずらした領域(マッチング領域と呼ぶ)と、テンプレートとの間でSAD(Sum of Absolute Differences)などの類似度を求めて探索をする。それによって得られた動きベクトルを利用して動き補償を行う。復号側でも復号済み画素の集合であるテンプレートで同じ処理が可能であるため、動きベクトルを符号化しないで動き補償ができる利点がある。
角野、菊池、鈴木、"改訂三版H.264/AVC教科書"、インプレスR&D発行、2009, pp.123-125. T. Yamamoto, "A new scheme for motion vector predictor encoding", ITU-T SG16/Q6, 32nd VCEG Meeting, San Jose, April 2007. 小林、鈴木、ブン、堀越、"テンプレートマッチングを用いた動き予測方法に伴う予測情報量削減"、画像符号化シンポジウム資料、2005,pp.17-18.
 前述した従来技術a、bでは、近隣のブロックに予測に有効な参照動きベクトルがない場合に、動きベクトルの予測効率が低下する。符号化対象ブロックの近隣だけでなく、より広範囲に含まれる多数のブロックの参照動きベクトルを予測に利用することも考えられる。しかし、従来技術の方法でこれを行った場合、予測効率や符号化効率の悪化をまねく。
 図15は、従来技術の問題を説明する図である。図15に示すように、符号化対象ブロックの近隣ブロックが被写体Objの境界である場合とオクルージョンがある場合(参照画像において近隣ブロックの対応点が何らかの被写体で隠れている場合)、また、被写体が剛体でない場合には、当該近隣ブロックの参照動きベクトルが、符号化対象ブロックの動きベクトル予測に適していないか、イントラ符号化が行われて参照動きベクトル自体が存在しないことがある。このような場合、従来技術aおよび従来技術bのいずれにおいても、予測効率が悪くなる。
 一方、図15に点線で示すブロックのように、候補に含まれないブロックの動きベクトルのほうが予測に有効になる場合がある。このような動きベクトルを予測に利用するために、最近隣のブロックだけを候補とするのではなく、候補となるブロックを多くすることが容易に類推できる。しかしながら、候補となるブロックを多くした場合、従来技術aにおいては適切でない参照動きベクトルが候補に含まれて予測効率が逆に悪化するおそれがある。また、従来技術bでは、予測に利用する参照動きベクトルの識別子の符号量の増加を招くため、符号化効率が逆に悪化するおそれがある。
 これに対して、従来技術cは、符号化側で動きベクトルを符号化しないで動き補償をするための動きベクトル予測方法である。そこで、これを前述の従来技術の課題に対して応用することを考える。すなわち、従来技術cのテンプレートマッチングを用いて予測動きベクトルを作成し、これと通常の動き探索により求めた符号化対象ブロックの動きベクトルとから動きベクトル予測残差を求めて符号化することを考える。この場合、次の問題がある。
 従来技術cによる動きベクトル予測では、従来技術aや従来技術bと異なり、符号化対象ブロックの近隣ブロックの符号化済み動きベクトルを利用しないで探索を行うことができる。このため、符号化済み動きベクトルが予測に有効でない場合にも、有効な予測動きベクトルを作成できる可能性がある。しかしながら、テンプレートのみから予測動きベクトルを決定してしまうため、符号化対象ブロックとは無関係な領域を指す動きベクトルを予測動きベクトルとしてしまい、予測効率が悪化する場合がある。
 本発明は、上記課題の解決を図り、動きベクトルの予測効率を向上させ、動画像の符号化効率を向上させることを目的とする。ここで、動きベクトルの予測効率とは、予測の対象となる動きベクトルと予測動きベクトルとの類似の度合いを意味する。具体的には、これらの2つのベクトルの差分ベクトルの長さが小さい場合に予測効率が高いとする。
 本発明の概要は、以下のとおりである。本発明は、符号化側および復号側の各ブロックについて、以下の方法で動きベクトル予測を行う。
(1)多数(N個)の1次候補参照動きベクトルを利用する。
(2)復号側で符号化(復号)対象ブロックを復号開始する時点ですでに復号済みの情報のみを利用して、各1次候補参照動きベクトルがどれだけ予測に適しているかを示す評価値(以下、信頼度)を求める。
(3)1次候補参照動きベクトルを、信頼度が所定の閾値より大きい少数(M個)の2次候補参照動きベクトルに絞り込む。
(4)少数の2次候補参照動きベクトルを利用して予測動きベクトルを作成する。
 詳しくは、本発明の実施形態では、従来と同様な動きベクトル予測符号化(下記の処理4)の前処理として、以下の処理1~処理3を行う。
 [処理1]まず、1次候補参照動きベクトルとして、符号化対象ブロックの近隣にある符号化済みブロックの符号化に用いた動きベクトルおよび所定値の動きベクトルからなるN個(Nは2以上の整数)の動きベクトルの少なくとも一方を抽出する。
 [処理2]次に、N個の1次候補参照動きベクトルのそれぞれについて、符号化対象ブロックでの動きベクトル予測における有効性を定量的に表す信頼度を、符号化済み、または復号済みの画像情報を用いて算出する。
 [処理3]N個の1次候補参照動きベクトルの中で、信頼度が所定の閾値より大きい1次候補参照動きベクトルを、2次候補参照動きベクトルとして選出する。
 [処理4]2次候補参照動きベクトルを用いて符号化対象ブロックの予測動きベクトルを算出し、符号化対象ブロックの動き探索で求めた動きベクトルと、予測動きベクトルとの残差を、動きベクトルの符号化情報として符号化する。2次候補参照動きベクトルを用いて符号化対象ブロックの予測動きベクトルを算出する処理としては、例えば、M個の2次候補参照動きベクトルの中央値を選ぶとか、M個の2次候補参照動きベクトルの中で最も予測残差が小さくなる2次候補参照動きベクトルを選択し、その動きベクトルの識別子を予測残差とともに符号化するなどの、従来方法を用いることができる。
 以上のように、本発明では、符号化対象ブロックの近隣のブロックだけでなく、予め定められた範囲の多数の動きベクトルを1次候補参照動きベクトルとする。そして、各々の1次候補参照動きベクトルについて、符号化済みの情報または復号済みの情報を利用して信頼度の計算を行う。1次候補参照動きベクトルを信頼度に応じて絞り込み、絞り込んだ結果を2次候補参照動きベクトルとする。以降の処理は、2次候補参照動きベクトルを入力として、従来の動きベクトル予測符号化と同じ方法を用いて予測動きベクトルを求め、予測動きベクトルと動きベクトルとの予測残差を符号化する。
 本発明による動きベクトル予測復号の場合にも、復号対象ブロックの近隣のブロックだけでなく、周辺の多数の動きベクトルを1次候補参照動きベクトルとする。次に、各々の1次候補参照動きベクトルについて、復号済みの情報を利用して信頼度の計算を行う。1次候補参照動きベクトルを信頼度に応じて絞り込み、絞り込んだ結果を2次候補参照動きベクトルとする。以降の処理は、2次候補参照動きベクトルを入力として、従来の動きベクトル予測復号と同じ方法を用いて予測動きベクトルを求め、復号した予測残差に予測動きベクトルを加算して動きベクトルを算出する。
 本発明では、上記処理1~3を行うことで、参照動きベクトルの絞り込みを行う。この絞り込みは、復号側でも符号化側からの付加情報なしで実現でき、なおかつ、2次候補参照動きベクトルには、予測に有効な動きベクトルが含まれる。このため、前述した従来技術a,bおよびcより予測効率が向上する。
 また、一般的に、動きベクトルの予測効率が向上すると、動きベクトル予測残差のエントロピーが減少し、動きベクトルの符号量が小さくなる。動画像の符号化データは動きベクトルの符号量を含むため、従来技術a,bおよびcを利用した方式よりも動画像の符号化効率が向上する。
本発明の一実施形態による動画像符号化装置を示すブロック図である。 図1に示された動き補償部を示すブロック図である。 本発明の一実施形態による動画像復号装置を示すブロック図である。 図3に示された動き補償部を示すブロック図である。 本発明の一実施形態による動きベクトル予測処理を示すフローチャートである。 本発明の一実施形態による1次候補参照動きベクトルの第1の設定例を示す図である。 本発明の一実施形態による1次候補参照動きベクトルの第2の設定例を示す図である。 本発明の一実施形態による信頼度算出処理の一例を示すフローチャートである。 本発明の一実施形態によるテンプレートマッチングを用いた信頼度の求め方を示す図である。 本発明の一実施形態による参照動きベクトル決定処理の一例を示すフローチャートである。 本発明の一実施形態による参照動きベクトル決定処理の他の例を示すフローチャートである。 本発明の一実施形態による参照動きベクトル決定処理のさらに他の例を示すフローチャートである。 従来の動画像符号化装置における動き補償部を示すブロック図である。 従来の動画像復号装置における動き補償部を示すブロック図である。 従来の動きベクトルの予測符号化方式の例を示す図である。 従来のテンプレートマッチングによる動きベクトル予測を示す図である。 従来技術の問題を示す図である。
 以下、図面を用いて、本発明の実施形態を詳細に説明する。
 図1は、本発明の一実施形態による動画像符号化装置の構成例を示す図である。本実施形態の動画像符号化装置1は、特に動き補償部18が従来技術と異なり、他の部分は、H.264その他でエンコーダとして用いられている従来の一般的な動画像符号化装置と同様である。
 動画像符号化装置1は、符号化対象の映像信号を入力し、入力映像信号のフレームをブロックに分割してブロックごとに符号化し、その符号化データをビットストリームとして出力する。
 この符号化のため、予測残差信号算出部10は、入力映像信号と動き補償部18の出力である予測信号との差分を求め、それを予測残差信号として出力する。直交変換部11は、予測残差信号に対して離散コサイン変換(DCT)等の直交変換を行い、変換係数を出力する。量子化部12は、変換係数を量子化し、その量子化された変換係数を出力する。情報源符号化部13は、量子化された変換係数をエントロピー符号化し、ビットストリームとして出力する。
 一方、量子化された変換係数は、逆量子化部14にも入力され、ここで逆量子化される。逆直交変換部15は、逆量子化部14の出力である変換係数を逆直交変換し、予測残差復号信号を出力する。復号信号算出部16では、この予測残差復号信号と動き補償部18の出力である予測信号とを加算し、符号化した符号化対象ブロックの復号信号を生成する。この復号信号は、動き補償部18における動き補償の参照画像として用いるために、フレームメモリ17に格納される。
 動き補償部18は、符号化対象ブロックの映像信号について、フレームメモリ17に格納された参照画像を参照して動き探索を行い、符号化対象ブロックの予測信号を出力する。また、動き補償部18は、動き探索の結果の動きベクトルについても予測符号化するために、符号化済みの情報を用いて動きベクトルの予測を行い、動き探索の結果の動きベクトルと、予測動きベクトルとの差分を算出して、結果を動きベクトル予測残差として情報源符号化部13へ出力する。
 ここで、動き補償部18は、動きベクトルの予測にあたって、単に符号化対象ブロックの近隣にある符号化済みブロックの動きベクトルだけを用いるのではない。すなわち、動き補償部18は、いくつかの1次候補参照動きベクトルを設定し、それらの1次候補参照動きベクトルの信頼度を符号化済みの情報から算出する。次に、動き補償部18は、信頼度に応じてそれらの1次候補参照動きベクトルを少数の2次候補参照動きベクトルに絞り込んでから、2次候補参照動きベクトルを用いて予測動きベクトルを算出する。2次候補参照動きベクトルを用いて予測動きベクトルを算出する処理は、従来技術と同様な動きベクトルの予測手法を用いて行うことができる。
 図2は、図1に示す動き補償部18の詳細な構成例を示す図である。動き補償部18は、図2に示すように、動き探索部181、動きベクトルメモリ182、1次候補参照動きベクトル設定部183、信頼度計算部184、参照動きベクトル決定部185、動きベクトル予測部186、動きベクトル予測残差算出部187を備える。
 符号化対象ブロックの符号化における動き補償において、まず、動き探索部181は、入力映像信号の符号化対象ブロックについて、既に符号化済みの参照画像の復号信号と照合する動き探索を行い、予測信号を生成して出力するとともに、マッチング位置を示す動きベクトルを出力する。この動きベクトルは動きベクトルメモリ182に格納され、また、動きベクトル予測残差算出部187に出力される。
 1次候補参照動きベクトル設定部183は、過去に符号化されて動きベクトルメモリ182に格納されている動きベクトルまたは予め定められた値の動きベクトルからなるN個(Nは2以上の整数)の動きベクトルを、1次候補参照動きベクトルとして設定し、信頼度計算部184に通知する。
 信頼度計算部184は、N個の1次候補参照動きベクトルのそれぞれについて、符号化済みの画像情報(復号信号)を用いて、符号化対象ブロックでの動きベクトル予測における有効性を定量的に表す信頼度を算出する。
 参照動きベクトル決定部185は、信頼度計算部184が算出した信頼度と予め定められた閾値との大小を比較し、信頼度が閾値より大きい1次候補参照動きベクトルを、2次候補参照動きベクトルとして選出する。
 動きベクトル予測部186は、参照動きベクトル決定部185が選出した2次候補参照動きベクトルを用いて、符号化対象ブロックの予測動きベクトルを算出する。この動きベクトル予測部186での予測動きベクトルの算出方法は従来技術と同様でよく、例えば2次候補参照動きベクトルの中の中央値(メディアン)を予測動きベクトルとする。また、2次候補参照動きベクトルの中で動き探索部181が求めた動きベクトルと最も近い値を持つものを予測動きベクトルとし、その動きベクトルを示す識別子を符号化対象に加えて、復号側へ通知するようなことも可能である。
 動きベクトル予測残差算出部187は、動き探索部181が算出した動きベクトルと、動きベクトル予測部186が算出した予測動きベクトルとの残差を算出し、算出された残差を動きベクトル予測残差として出力する。
 図3は、本発明の一実施形態による動画像復号装置の構成例を示す図である。本実施形態の動画像復号装置2は、特に動き補償部25が従来技術と異なり、他の部分は、H.264その他でデコーダとして用いられている従来の一般的な動画像復号装置と同様である。
 動画像復号装置2は、図1に示す動画像符号化装置1により符号化されたビットストリームを入力して復号することにより復号画像の復号信号を出力する。
 この復号のため、情報源復号部20は、入力されたビットストリームに基づいて、復号対象ブロックの量子化変換係数をエントロピー復号するとともに、動きベクトル予測残差を復号する。逆量子化部21は、量子化変換係数を入力し、それを逆量子化して復号変換係数を出力する。逆直交変換部22は、復号変換係数に逆直交変換を施し、復号予測残差信号を出力する。復号信号算出部23では、動き補償部25で生成された予測信号と復号予測残差信号とを加算することで、復号対象ブロックの復号信号を生成する。この復号信号は、表示装置等の外部の装置に出力されるとともに、動き補償部25における動き補償の参照画像として用いるために、フレームメモリ24に格納される。
 動き補償部25は、フレームメモリ24に格納された復号済みの情報を用いて動きベクトルの予測を行い、その予測動きベクトルと情報源復号部20が復号した動きベクトル予測残差とを加算して動きベクトルを算出する。次に、動き補償部25は、その動きベクトルをもとにフレームメモリ24の参照画像を参照して、復号対象ブロックの予測信号を生成する。
 ここで、動き補償部25は、動きベクトルの予測にあたって、単に復号対象ブロックの近隣にある復号済みブロックの動きベクトルだけを用いるのではない。すなわち、動き補償部25は、いくつかの1次候補参照動きベクトルを設定し、それらの1次候補参照動きベクトルの信頼度を復号済みの情報から算出する。次に、動き補償部25は、信頼度に応じて少数の2次候補参照動きベクトルに絞り込んでから、2次候補参照動きベクトルを用いて予測動きベクトルを算出する。2次候補参照動きベクトルを用いて予測動きベクトルを算出する処理は、従来技術と同様な動きベクトルの予測手法を用いて行うことができる。
 図4は、図3に示す動き補償部25の詳細な構成例を示す図である。動き補償部25は、図4に示すように、動きベクトル算出部251、予測信号作成部252、動きベクトルメモリ253、1次候補参照動きベクトル設定部254、信頼度計算部255、参照動きベクトル決定部256、動きベクトル予測部257を備える。
 復号対象ブロックの復号における動き補償において、まず、動きベクトル算出部251は、符号化ビットストリームを復号して得られた動きベクトル予測残差と、動きベクトル予測部257が復号済みの情報を用いて予測した予測動きベクトルとを加算し、復号に用いる動きベクトルを出力する。この動きベクトルは動きベクトルメモリ253に格納され、また、予測信号作成部252に出力される。予測信号作成部252は、入力した動きベクトルが示す参照画像位置の復号信号を読み出し、復号対象ブロックの予測信号として出力する。
 1次候補参照動きベクトル設定部254は、過去に復号されて動きベクトルメモリ253に格納されている動きベクトルまたは予め定められた値の動きベクトルからなるN個(Nは2以上の整数)の動きベクトルを、1次候補参照動きベクトルとして設定し、信頼度計算部255に通知する。
 信頼度計算部255は、N個の1次候補参照動きベクトルのそれぞれについて、復号済みの画像情報(復号信号)を用いて、復号対象ブロックでの動きベクトル予測における有効性を定量的に表す信頼度を算出する。
 参照動きベクトル決定部256は、信頼度計算部255が算出した信頼度と予め定められた閾値との大小を比較し、信頼度が閾値より大きい1次候補参照動きベクトルを、2次候補参照動きベクトルとして選出する。
 動きベクトル予測部257は、参照動きベクトル決定部256が選出した2次候補参照動きベクトルを用いて、復号対象ブロックの予測動きベクトルを算出する。この動きベクトル予測部257での予測動きベクトルの算出方法は従来技術と同様でよく、例えば2次候補参照動きベクトルの中の中央値(メディアン)を予測動きベクトルとする。または、符号化側で予測に用いる動きベクトルの識別子を指定している場合には、その識別子が示す動きベクトルを予測動きベクトルとする。
 次に、動画像符号化装置1における動き補償部18および動画像復号装置2における動き補償部25が行う処理のうち、本発明に関連する動きベクトル予測の処理について、図5~図9Bに従って説明する。以下では、主に符号化側の動きベクトル予測の処理を中心に説明するが、復号側における動きベクトル予測の処理もまったく同様である。
 図5は、動きベクトル予測処理のフローチャートを示している。
 [ステップS1の処理]
 最初に、1次候補参照動きベクトル設定部183(または254)は、N個の1次候補参照動きベクトルを設定する。このN個の1次候補参照動きベクトルを設定する方法として、例えば次のような方法を用いることができる。
 〔1次候補参照動きベクトル設定例1〕
 図6Aに示すように、符号化対象ブロック31の位置を基準として、それから所定の範囲内の予め定められたN個の動きベクトルVi(i=1,2,…,N)を、1次候補参照動きベクトルとする。この動きベクトルViの値は、符号化側と復号側で同じ値となるように予め任意に決めることができる。これらの動きベクトルViの値を、予めテーブル化して保持しておくようにしてもよい。
 また、動きベクトルViの値を符号化することなく、符号化側と復号側とで共通の値を用いることができるという条件が満たされるならば、その値を候補として用いることができる。したがって、例えば過去の符号化・復号済みの何枚かのフレームの動きベクトルの統計量を逐次算出しておき、その動きベクトルの統計量から出現確率の大きいN個の1次候補参照動きベクトルを選出することも可能である。
 〔1次候補参照動きベクトル設定例2〕
 図6Bに示すように、符号化対象ピクチャ3において、符号化対象ブロック31の近隣にある多数(この例では10個)の符号化済みブロックB1~B10の符号化に用いた動きベクトルを、1次候補参照動きベクトルとして設定する。この場合にも、復号側では、符号化側で用いた1次候補参照動きベクトルと同じ動きベクトルを、復号済みの動きベクトルから設定することができる。
 〔1次候補参照動きベクトル設定例3〕
 前述した設定例1でN1個の1次候補参照動きベクトルを選び、設定例2でN2個の1次候補参照動きベクトルを選んで、合計N個(N=N1+N2)の1次候補参照動きベクトルを設定する。
 〔1次候補参照動きベクトル設定例4〕
 この設定例4では、符号化済みブロックの動きベクトルと、これらの動きベクトルについて所定範囲内の動きベクトルとを、1次候補参照動きベクトルとする。例えば、ある符号化済みベクトルの動きベクトル(10,20)について、所定範囲を、X,Y方向にそれぞれ±1の範囲とした場合、動きベクトル(10,20)に加え、動きベクトル(9,20)、(11,20)、(10,19)、(10,21)、(9,19)、(9,21)、(11,19)、および(11,21)も候補とする。すなわち、1つの符号化済みブロックの動きベクトルに対して合計9個の1次候補参照動きベクトルが候補となる。最初に候補に入れる符号化済みブロックの動きベクトルをK個として、K個すべての周辺も候補に入れると、9×K個の1次候補参照動きベクトルを利用することになる。ただし、復号側と共通であれば、すべての符号化済みブロックの動きベクトルの周辺を候補に入れるのではなく、一部分でもよい。
 このような設定の効果としては、符号化済みブロックの動きベクトルの周辺も考慮に入れることにより、動きベクトルの予測効率が向上するということが挙げられる。
 [ステップS2の処理]
 信頼度計算部184(または255)は、1次候補参照動きベクトル設定部183が設定したN個の1次候補参照動きベクトルの各々について、符号化済みの情報を用いて信頼度を算出する。ここで、信頼度は、符号化(復号)対象ブロックでの動きベクトル予測における1次候補参照動きベクトルの有効性を定量的に表現したものである。この信頼度は、N個の1次候補参照動きベクトルについて、復号側で符号化対象ブロックを復号開始する時点ですでに復号済みの情報のみを利用して計算する。
 図7は、信頼度算出処理の一例を示すフローチャート、図8は、テンプレートマッチングを用いた信頼度の求め方を説明する図である。
 信頼度の求め方の一例として、テンプレートマッチングを応用する方法について説明する。図8の符号化対象ピクチャ3において、符号化対象ブロック31の予測動きベクトルを求めるものとする。テンプレート32は、符号化対象ブロック31に隣接する、符号化済み画素の集合(この例では符号化対象ブロック31の左と上の画素群で構成される逆L字型の領域)である。なお、逆L字型の領域の幅(厚さ)は、例えば2画素程度であるが1画素でも3画素以上でもよい。参照画像4は、符号化済みまたは復号済みのピクチャである。参照画像4における対応位置ブロック41は、符号化対象ピクチャ3内の符号化対象ブロック31の位置と同じ位置にあるブロックである。
 図7の信頼度算出処理において、ステップS21では、参照画像4上で、テンプレート32と空間的に同じ領域(対応位置ブロック41に隣接する逆L字型の領域)を、信頼度を計算しようとしている1次候補参照動きベクトルVi分だけずらした領域を求め、これをマッチング対象領域42として取得する。
 次に、ステップS22では、符号化対象ブロック31のテンプレート32と、参照画像4におけるマッチング対象領域42との類似度を算出し、これを1次候補参照動きベクトルViの信頼度として設定する。
 類似度指標の一例としては、SAD(Sum of Absolute Differences)がある。SADが小さいほど、当該1次候補参照動きベクトルViは、符号化対象ブロック31の動きに近い可能性が高いため、信頼度が高い参照動きベクトルと捉える。信頼度計算部184で利用する信頼度の指標としては、テンプレート32とマッチング対象領域42の類似度を示すものであれば、他のものでもよい。前述のSADの他にはSSD(Sum of Squared Differences)、SATD(Sum of Absolute Transformed Differences)などを用いることができる。これらは、いずれも値が小さいほど信頼度が高いことを示す尺度となる。
 テンプレート32は、符号化対象ブロック31の画像信号と相関が高いため、これによる類似度を用いると、動きベクトル予測に有効な2次候補参照ブロックを特定することができる。
 [ステップS3の処理]
 次に、参照動きベクトル決定部185(または256)において、各1次候補参照動きベクトルの信頼度情報に基づき、N個の1次候補参照動きベクトルを少数の2次候補参照動きベクトルに絞り込む。
 図9Aは、参照動きベクトル決定処理のフローチャートである。ステップS311では、参照動きベクトル決定部185は、信頼度計算部184で計算した各1次候補参照動きベクトルの信頼度について、所定の閾値との大小比較を行い、1次候補参照動きベクトルの信頼度が所定の閾値を超えていれば、ステップS312に進む。ステップS312では、信頼度が所定の閾値より大きい1次候補参照動きベクトルを2次候補参照動きベクトルとして設定する。信頼度が所定の閾値より大きくない場合、その1次候補参照動きベクトルは候補から外す。
 こうすることにより、2次候補参照動きベクトルに予測に適さないものが含まれることを抑制できる。したがって、従来技術に比べて動きベクトルの予測効率を向上させることができ、符号化効率の向上を実現することができる。
 図9Bは、他の参照動きベクトル決定処理のフローチャートであり、1次候補参照動きベクトルの数を所定の個数Mに限定する場合の参照動きベクトル決定処理の例を示している。
 まず、ステップS321では、処理対象の1次候補参照動きベクトルの信頼度が、所定の閾値より超えているかどうかを判定する。1次候補参照動きベクトルの信頼度が所定の閾値を超えていれば、処理はステップS322へ進み、そうでなければ、ステップS323へ進む。ステップS322では、信頼度が所定の閾値より大きい1次候補参照動きベクトルを高信頼参照動きベクトルとして設定する。ステップS323では、すべての1次候補参照動きベクトルについて処理を完了したかどうかを判定する。ステップS323において、未処理の1次候補参照動きベクトルがあれば、処理はステップS321へ戻って、同様に高信頼参照動きベクトルの選択処理を続ける。
 すべての1次候補参照動きベクトルについて処理が完了した場合、処理がステップS324へ進む。ステップS324では、高信頼参照動きベクトルのうち、信頼度について上位M個(Mは所定の整数)の高信頼参照動きベクトルを、2次候補参照動きベクトルとして設定する。
 2次候補参照動きベクトルの個数を所定のM個に限定することにより、従来技術bによって動きベクトルを符号化した場合に比べて、動きベクトル符号量を削減することができ、符号化効率の向上を実現することができる。
 図10は、さらに他の参照動きベクトル決定処理のフローチャートである。この図は、信頼度について所定の閾値を超える1次候補参照動きベクトルが、所定の数Mより小さいM′個しかなかった場合の参照動きベクトル決定処理の例を示している。
 まず、ステップS331では、処理対象の1次候補参照動きベクトルの信頼度が、所定の閾値より超えているかどうかを判定する。1次候補参照動きベクトルの信頼度が所定の閾値を超えていれば、処理がステップS332へ進み、そうでなければ、ステップS333へ進む。ステップS332では、信頼度が所定の閾値より大きい1次候補参照動きベクトルを高信頼参照動きベクトルとして設定する。ステップS333では、すべての1次候補参照動きベクトルについて処理を完了したかどうかを判定する。ステップS333において、未処理の1次候補参照動きベクトルがあれば、処理はステップS331へ戻って、同様に高信頼参照動きベクトルの選択処理を続ける。
 すべての1次候補参照動きベクトルについて処理が完了した場合、処理はステップS334へ進み、ステップS334では、高信頼参照ベクトルの数M′が、所定の数Mより大きいかどうかを判定する。M′が所定の数Mより大きい場合、ステップS335へ進み、ステップS335では、高信頼参照動きベクトルのうち、信頼度について上位M個の高信頼参照動きベクトルを、2次候補参照動きベクトルとして設定する。
 一方、M′が所定の数Mより小さい場合、処理はステップS336へ進む。ステップS336では、M′個の高信頼参照動きベクトルのすべてを、2次候補参照動きベクトルとして設定する。
 これより、2次候補参照動きベクトルの個数を符号化対象ブロックの状況に応じて変更できるので、さらなる動きベクトル予測効率の向上、符号化効率の向上を実現することができる。
 [ステップS4の処理]
 動きベクトル予測部186(または257)は、参照動きベクトル決定部185が選出した2次候補参照動きベクトルを利用して、符号化対象ブロックの予測動きベクトルを作成する。本実施形態において重要なポイントは、多数の1次候補参照動きベクトルを信頼度によって絞り込むことにより、信頼度の高い2次候補参照動きベクトルを用いて、動きベクトル予測残差を算出するための予測動きベクトルを求める点にある。したがって、2次候補参照動きベクトルから予測動きベクトルを求める処理は、図11や図12で説明した従来技術の動きベクトル予測部103(または204)の処理と同様でよい。しかし、必ずしも従来技術と同じ処理でなければならないわけではなく、異なる処理によって予測動きベクトルを求めて、本実施形態を実施することもできる。
 以上説明した動きベクトル予測符号化および動きベクトル予測復号の処理は、コンピュータとソフトウェアプログラムとによっても実現することができる。また、そのプログラムをコンピュータ読み取り可能な記録媒体に記録することも、ネットワークを通して提供することも可能である。
 以上、本発明の実施形態について図面を参照して説明したが、具体的な構成はこれらの実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計等(構成の付加、)省略、置換、およびその他の変更)も含まれる。本発明は前述した説明によって限定されず、添付された請求の範囲によってのみ限定される。
 本発明は、動きベクトルを予測符号化する動画像符号化および動画像復号技術に用いることができる。本発明によれば、動きベクトルの予測効率を向上させ、動画像の符号化効率を向上させることができる。
 1  動画像符号化装置
 2  動画像復号装置
 10 予測残差信号算出部
 11 直交変換部
 12 量子化部
 13 情報源符号化部
 14,21 逆量子化部
 15,22 逆直交変換部
 16 復号信号算出部
 17,24 フレームメモリ
 18,25 動き補償部
 181 動き探索部
 182,253 動きベクトルメモリ
 183,254 1次候補参照動きベクトル設定部
 184,255 信頼度計算部
 185,256 参照動きベクトル決定部
 186,257 動きベクトル予測部
 187 動きベクトル予測残差算出部
 20 情報源復号部
 23 復号信号算出部
 251 動きベクトル算出部
 252 予測信号作成部

Claims (14)

  1.  符号化対象画像を複数のブロックに分割し、前記ブロックごとに動き補償を用いて符号化する動画像符号化方式における動きベクトル予測符号化方法において、
     符号化済みの参照画像を用いて、前記符号化対象画像における符号化対象ブロックの動き探索を行うことによって動きベクトルを算出するステップと、
     符号化済みブロックの符号化に用いた動きベクトルまたは所定値の動きベクトルからなるN個(Nは2以上の整数)の動きベクトルを1次候補参照動きベクトルとして抽出するステップと、
     前記符号化対象ブロックでの動きベクトル予測における有効性を定量的に表す前記1次候補参照動きベクトルの信頼度を、前記N個の1次候補参照動きベクトルのそれぞれについて符号化済みの画像情報を用いて算出するステップと、
     前記N個の1次候補参照動きベクトルのうち前記信頼度が所定の閾値より大きい1次候補参照動きベクトルを2次候補参照動きベクトルとして選出するステップと、
     前記2次候補参照動きベクトルを用いて前記符号化対象ブロックの予測動きベクトルを算出し、前記動き探索によって算出された動きベクトルと、前記予測動きベクトルとの残差を、動きベクトルの符号化情報として符号化するステップと、
     を有する動きベクトル予測符号化方法。
  2.  請求項1記載の動きベクトル予測符号化方法において、
     前記1次候補参照動きベクトルを2次候補参照動きベクトルとして選出するステップでは、前記1次候補参照動きベクトルの信頼度が所定の閾値より大きい1次候補参照動きベクトルを高信頼参照動きベクトルとして設定し、前記高信頼参照動きベクトルのうち、信頼度が大きい上位M個(Mは1以上かつN未満の所定の整数)の高信頼参照動きベクトルを、前記2次候補参照動きベクトルとして選出する
     動きベクトル予測符号化方法。
  3.  請求項2記載の動きベクトル予測符号化方法において、
     前記高信頼参照動きベクトルの個数が前記M個より小さいM′個の場合、M′個の高信頼参照動きベクトルを、前記2次候補参照動きベクトルとして選出する
     動きベクトル予測符号化方法。
  4.  請求項1から3のいずれか1項に記載の動きベクトル予測符号化方法において、
     前記1次候補参照動きベクトルの信頼度を算出するステップでは、前記符号化対象ブロックに隣接する符号化済み画素の集合をテンプレートとして用い、前記参照画像上で前記1次候補参照動きベクトル分だけ前記テンプレートの領域をずらした領域をマッチング対象領域として設定し、前記テンプレートの前記符号化済み画素の集合と前記マッチング対象領域における画素の集合との類似度を前記信頼度として算出する
     動きベクトル予測符号化方法。
  5.  請求項1から4のいずれか1項に記載の動きベクトル予測符号化方法において、
     前記1次候補参照動きベクトルを抽出するステップでは、前記符号化済みブロックの符号化に用いた動きベクトルに加え、当該動きベクトルの各々を基準とした所定の範囲内の動きベクトルを設定する
     動きベクトル予測符号化方法。
  6.  複数のブロックに分割されて符号化された動画像の復号対象画像を、前記ブロックごとに動き補償を用いて復号する動画像復号方式における動きベクトル予測復号方法において、
     復号対象ブロックの動きベクトル予測残差を復号するステップと、
     復号済みブロックの復号に用いた動きベクトルまたは所定値の動きベクトルからなるN個(Nは2以上の整数)の動きベクトルを1次候補参照動きベクトルとして抽出するステップと、
     前記復号対象ブロックでの動きベクトル予測における有効性を定量的に表す前記1次候補参照動きベクトルの信頼度を、前記N個の1次候補参照動きベクトルのそれぞれについて復号済みの画像情報を用いて算出するステップと、
     前記N個の1次候補参照動きベクトルのうち前記信頼度が所定の閾値より大きい1次候補参照動きベクトルを2次候補参照動きベクトルとして選出するステップと、
     前記2次候補参照動きベクトルを用いて前記復号対象ブロックの予測動きベクトルを算出し、前記復号された動きベクトル予測残差と前記予測動きベクトルとを加算して前記復号対象ブロックの動きベクトルを算出するステップと、
     を有する動きベクトル予測復号方法。
  7.  請求項6記載の動きベクトル予測復号方法において、
     前記1次候補参照動きベクトルを2次候補参照動きベクトルとして選出するステップでは、前記1次候補参照動きベクトルの信頼度が所定の閾値より大きい1次候補参照動きベクトルを高信頼参照動きベクトルとして設定し、前記高信頼参照動きベクトルのうち、信頼度が大きい上位M個(Mは1以上かつN未満の所定の整数)の高信頼参照動きベクトルを、前記2次候補参照動きベクトルとして選出する
     動きベクトル予測復号方法。
  8.  請求項7記載の動きベクトル予測復号方法において、
     前記高信頼参照動きベクトルの個数が前記M個より小さいM′個の場合、M′個の高信頼参照動きベクトルを、前記2次候補参照動きベクトルとして選出する
     動きベクトル予測復号方法。
  9.  請求項6から8のいずれか1項に記載の動きベクトル予測復号方法において、
     前記1次候補参照動きベクトルの信頼度を算出するステップでは、前記復号対象ブロックに隣接する復号済み画素の集合をテンプレートとして用い、復号済みの参照画像上で前記1次候補参照動きベクトル分だけ前記テンプレートの領域をずらした領域をマッチング対象領域として設定し、前記テンプレートの前記復号済み画素の集合と前記マッチング対象領域における画素の集合との類似度を信頼度として算出する
     動きベクトル予測復号方法。
  10.  請求項6から9のいずれか1項に記載の動きベクトル予測復号方法において、
     前記1次候補参照動きベクトルを抽出するステップでは、前記復号済みブロックの復号に用いた動きベクトルに加え、当該動きベクトルの各々を基準とした所定の範囲内の動きベクトルを設定する
     動きベクトル予測復号方法。
  11.  符号化対象画像を複数のブロックに分割し、前記ブロックごとに動き補償を用いて動画像を符号化する動画像符号化装置において、
     符号化済みの参照画像を用いて、符号化対象画像における符号化対象ブロックの動き探索を行うことによって動きベクトルを算出する動き探索部と、
     符号化済みブロックの符号化に用いた動きベクトルまたは所定値の動きベクトルからなるN個(Nは2以上の整数)の動きベクトルを1次候補参照動きベクトルとして抽出する1次候補参照動きベクトル設定部と、
     前記符号化対象ブロックでの動きベクトル予測における有効性を定量的に表す前記1次候補参照動きベクトルの信頼度を、前記N個の1次候補参照動きベクトルのそれぞれについて符号化済みの画像情報を用いて算出する信頼度計算部と、
     前記N個の1次候補参照動きベクトルのうち前記信頼度が所定の閾値より大きい1次候補参照動きベクトルを、2次候補参照動きベクトルとして選出する参照動きベクトル決定部と、
     前記2次候補参照動きベクトルを用いて前記符号化対象ブロックの予測動きベクトルを算出し、前記動き探索によって算出された動きベクトルと前記予測動きベクトルとの残差を、動きベクトルの符号化情報として符号化する動きベクトル予測部と、
     を備える動画像符号化装置。
  12.  複数のブロックに分割されて符号化された動画像の復号対象画像を、前記ブロックごとに動き補償を用いて復号する動画像復号装置において、
     復号対象ブロックの動きベクトル予測残差を復号する情報源復号部と、
     復号済みブロックの復号に用いた動きベクトルまたは所定値の動きベクトルからなるN個(Nは2以上の整数)の動きベクトルを1次候補参照動きベクトルとして抽出する1次候補参照動きベクトル設定部と、
     前記復号対象ブロックでの動きベクトル予測における有効性を定量的に表す前記1次候補参照動きベクトルの信頼度を、前記N個の1次候補参照動きベクトルのそれぞれについて復号済みの画像情報を用いて算出する信頼度計算部と、
     前記N個の1次候補参照動きベクトルのうち前記信頼度が所定の閾値より大きい1次候補参照動きベクトルを2次候補参照動きベクトルとして選出する参照動きベクトル決定部と、
     前記2次候補参照動きベクトルを用いて前記復号対象ブロックの予測動きベクトルを算出し、前記復号され動きベクトル予測残差と前記予測動きベクトルとを加算して前記復号対象ブロックの動きベクトルを算出する動きベクトル予測部と、
     を備える動画像復号装置。
  13.  請求項1から5のいずれか1項に記載の動きベクトル予測符号化方法をコンピュータに実行させるための動きベクトル予測符号化プログラム。
  14.  請求項6から10のいずれか1項に記載の動きベクトル予測復号方法をコンピュータに実行させるための動きベクトル予測復号プログラム。
PCT/JP2011/052361 2010-02-09 2011-02-04 動きベクトル予測符号化方法、動きベクトル予測復号方法、動画像符号化装置、動画像復号装置およびそれらのプログラム WO2011099428A1 (ja)

Priority Applications (9)

Application Number Priority Date Filing Date Title
US13/576,617 US20120320985A1 (en) 2010-02-09 2011-02-04 Motion vector predictive encoding method, motion vector predictive decoding method, moving picture encoding apparatus, moving picture decoding apparatus, and programs thereof
KR1020127020438A KR20120120280A (ko) 2010-02-09 2011-02-04 움직임 벡터 예측 부호화 방법, 움직임 벡터 예측 복호 방법, 동화상 부호화 장치, 동화상 복호 장치 및 그들의 프로그램
CA2788876A CA2788876A1 (en) 2010-02-09 2011-02-04 Motion vector predictive encoding method, motion vector predictive decoding method, moving picture encoding apparatus, moving picture decoding apparatus, and programs thereof
BR112012019671A BR112012019671A2 (pt) 2010-02-09 2011-02-04 método de codificação de previsão de vetor de movimento, método de decodificação de previsão de vetor de movimento, aparelho de codificação de gravura em movimento, aparelho de decodificação de gravura em movimento e programas dos mesmos.
RU2012133436/08A RU2523920C2 (ru) 2010-02-09 2011-02-04 Способ кодирования с предсказанием вектора движения, способ декодирования с предсказанием вектора движения, устройство кодирования фильма, устройство декодирования фильма и их программы
CN201180008468.XA CN102884793B (zh) 2010-02-09 2011-02-04 运动向量预测编码方法、运动向量预测解码方法、活动图像编码装置及活动图像解码装置
KR1020147015904A KR20140077988A (ko) 2010-02-09 2011-02-04 움직임 벡터 예측 부호화 방법, 움직임 벡터 예측 복호 방법, 동화상 부호화 장치, 동화상 복호 장치 및 그들의 프로그램
JP2011553819A JP5306485B2 (ja) 2010-02-09 2011-02-04 動きベクトル予測符号化方法、動きベクトル予測復号方法、動画像符号化装置、動画像復号装置およびそれらのプログラム
EP11742172.7A EP2536147A4 (en) 2010-02-09 2011-02-04 Predictive coding method for motion vector, predictive decoding method for motion vector, video coding device, video decoding device, and programs therefor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010026131 2010-02-09
JP2010-026131 2010-02-09

Publications (1)

Publication Number Publication Date
WO2011099428A1 true WO2011099428A1 (ja) 2011-08-18

Family

ID=44367702

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/052361 WO2011099428A1 (ja) 2010-02-09 2011-02-04 動きベクトル予測符号化方法、動きベクトル予測復号方法、動画像符号化装置、動画像復号装置およびそれらのプログラム

Country Status (10)

Country Link
US (1) US20120320985A1 (ja)
EP (1) EP2536147A4 (ja)
JP (1) JP5306485B2 (ja)
KR (2) KR20120120280A (ja)
CN (1) CN102884793B (ja)
BR (1) BR112012019671A2 (ja)
CA (1) CA2788876A1 (ja)
RU (1) RU2523920C2 (ja)
TW (1) TWI458356B (ja)
WO (1) WO2011099428A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012090397A1 (ja) * 2010-12-28 2012-07-05 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム、並びに動画像復号装置、動画像復号方法及び動画像復号プログラム
JP2013102296A (ja) * 2011-11-07 2013-05-23 Canon Inc 動きベクトル符号化装置、動きベクトル符号化方法及びプログラム、動きベクトル復号装置、動きベクトル復号方法及びプログラム
RU2737315C1 (ru) * 2016-02-06 2020-11-27 Хуавей Текнолоджиз Ко., Лтд. Способ и устройство кодирования изображения и способ и устройство декодирования изображения

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8605786B2 (en) * 2007-09-04 2013-12-10 The Regents Of The University Of California Hierarchical motion vector processing method, software and devices
EP2536150B1 (en) * 2010-02-09 2017-09-13 Nippon Telegraph And Telephone Corporation Predictive coding method for motion vector, predictive decoding method for motion vector, video coding device, video decoding device, and programs therefor
RU2520377C2 (ru) * 2010-02-09 2014-06-27 Ниппон Телеграф Энд Телефон Корпорейшн Способ кодирования с предсказанием вектора движения, способ декодирования с предсказанием вектора движения, устройство кодирования фильма, устройство декодирования фильма и их программы
KR20140089596A (ko) * 2010-02-09 2014-07-15 니폰덴신뎅와 가부시키가이샤 움직임 벡터 예측 부호화 방법, 움직임 벡터 예측 복호 방법, 동화상 부호화 장치, 동화상 복호 장치 및 그들의 프로그램
JP5786478B2 (ja) * 2011-06-15 2015-09-30 富士通株式会社 動画像復号装置、動画像復号方法、及び動画像復号プログラム
KR20170096088A (ko) * 2016-02-15 2017-08-23 삼성전자주식회사 영상처리장치, 영상처리방법 및 이를 기록한 기록매체
CN110495177B (zh) * 2017-04-13 2023-10-20 松下电器(美国)知识产权公司 解码装置、解码方法及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008171247A (ja) * 2007-01-12 2008-07-24 Sony Corp 動き検出装置、方法、及びプログラム
JP2008283490A (ja) * 2007-05-10 2008-11-20 Ntt Docomo Inc 動画像符号化装置、方法及びプログラム、並びに動画像復号化装置、方法及びプログラム
WO2010001917A1 (ja) * 2008-07-01 2010-01-07 ソニー株式会社 画像処理装置および方法
JP2010026131A (ja) 2008-07-17 2010-02-04 Ricoh Co Ltd 画像記録装置

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6011870A (en) * 1997-07-18 2000-01-04 Jeng; Fure-Ching Multiple stage and low-complexity motion estimation for interframe video coding
JP4573366B2 (ja) * 1997-09-25 2010-11-04 株式会社大宇エレクトロニクス 動きベクトル符号化方法及び符号化装置
JP3540142B2 (ja) * 1998-01-30 2004-07-07 株式会社東芝 動きベクトル検出回路および動きベクトル検出方法
US6058143A (en) * 1998-02-20 2000-05-02 Thomson Licensing S.A. Motion vector extrapolation for transcoding video sequences
JP4003128B2 (ja) * 2002-12-24 2007-11-07 ソニー株式会社 画像データ処理装置および方法、記録媒体、並びにプログラム
US7336707B2 (en) * 2003-06-06 2008-02-26 Samsung Electronics Co., Ltd. Method and apparatus for detecting improper area for motion compensation in video signal
KR20050078706A (ko) * 2004-01-31 2005-08-08 삼성전자주식회사 메모리 액세스 방법 및 메모리 액세스 장치
US9088802B2 (en) * 2005-01-07 2015-07-21 Nippon Telegraph And Telephone Corporation Video encoding method and apparatus, video decoding method and apparatus, programs therefor, and storage media for storing the programs
US20060153300A1 (en) * 2005-01-12 2006-07-13 Nokia Corporation Method and system for motion vector prediction in scalable video coding
KR101276720B1 (ko) * 2005-09-29 2013-06-19 삼성전자주식회사 카메라 파라미터를 이용하여 시차 벡터를 예측하는 방법,그 방법을 이용하여 다시점 영상을 부호화 및 복호화하는장치 및 이를 수행하기 위한 프로그램이 기록된 기록 매체
JP2008109632A (ja) * 2006-09-28 2008-05-08 Toshiba Corp 動きベクトル検出装置及びその方法
BRPI0808567A2 (pt) * 2007-03-14 2014-09-02 Nippon Telegraph & Telephone Método e aparelho de pesquisa de vetor de movimento, programa para o mesmo, e meio de armazenamento, que armazena o programa
KR101228020B1 (ko) * 2007-12-05 2013-01-30 삼성전자주식회사 사이드 매칭을 이용한 영상의 부호화 방법 및 장치, 그복호화 방법 및 장치
US8953685B2 (en) * 2007-12-10 2015-02-10 Qualcomm Incorporated Resource-adaptive video interpolation or extrapolation with motion level analysis
JP4513034B2 (ja) * 2008-02-20 2010-07-28 ソニー株式会社 画像信号処理装置、画像信号処理方法、およびプログラム
JP2012504925A (ja) * 2008-10-06 2012-02-23 エルジー エレクトロニクス インコーポレイティド ビデオ信号の処理方法及び装置
EP2536150B1 (en) * 2010-02-09 2017-09-13 Nippon Telegraph And Telephone Corporation Predictive coding method for motion vector, predictive decoding method for motion vector, video coding device, video decoding device, and programs therefor
RU2520377C2 (ru) * 2010-02-09 2014-06-27 Ниппон Телеграф Энд Телефон Корпорейшн Способ кодирования с предсказанием вектора движения, способ декодирования с предсказанием вектора движения, устройство кодирования фильма, устройство декодирования фильма и их программы
KR20140089596A (ko) * 2010-02-09 2014-07-15 니폰덴신뎅와 가부시키가이샤 움직임 벡터 예측 부호화 방법, 움직임 벡터 예측 복호 방법, 동화상 부호화 장치, 동화상 복호 장치 및 그들의 프로그램

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008171247A (ja) * 2007-01-12 2008-07-24 Sony Corp 動き検出装置、方法、及びプログラム
JP2008283490A (ja) * 2007-05-10 2008-11-20 Ntt Docomo Inc 動画像符号化装置、方法及びプログラム、並びに動画像復号化装置、方法及びプログラム
WO2010001917A1 (ja) * 2008-07-01 2010-01-07 ソニー株式会社 画像処理装置および方法
JP2010026131A (ja) 2008-07-17 2010-02-04 Ricoh Co Ltd 画像記録装置

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
KADONO; KIKUCHI; SUZUKI: "H.264/AVC textbook", 2009, IMPRESS R&D, pages: 123 - 125
KOBAYASHI; SUZUKI; BOON; HORIKOSHI: "Reduction of Predictive Information Amount with Motion Prediction Method Using Template Matching", THE PROCEEDINGS OF PICTURE CODING SYMPOSIUM OF JAPAN, 2005, pages 17 - 18
See also references of EP2536147A4
T. YAMAMOTO: "A new scheme for motion vector predictor encoding", ITU-T SG16/Q6, 32ND VCEG MEETING, April 2007 (2007-04-01)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012090397A1 (ja) * 2010-12-28 2012-07-05 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム、並びに動画像復号装置、動画像復号方法及び動画像復号プログラム
JP2013102296A (ja) * 2011-11-07 2013-05-23 Canon Inc 動きベクトル符号化装置、動きベクトル符号化方法及びプログラム、動きベクトル復号装置、動きベクトル復号方法及びプログラム
US9681126B2 (en) 2011-11-07 2017-06-13 Canon Kabushiki Kaisha Motion vector coding apparatus, method and program for coding motion vector, motion vector decoding apparatus, and method and program for decoding motion vector
US10397567B2 (en) 2011-11-07 2019-08-27 Canon Kabushiki Kaisha Motion vector coding apparatus, method and program for coding motion vector, motion vector decoding apparatus, and method and program for decoding motion vector
US10986333B2 (en) 2011-11-07 2021-04-20 Canon Kabushiki Kaisha Motion vector coding apparatus, method and program for coding motion vector, motion vector decoding apparatus, and method and program for decoding motion vector
RU2737315C1 (ru) * 2016-02-06 2020-11-27 Хуавей Текнолоджиз Ко., Лтд. Способ и устройство кодирования изображения и способ и устройство декодирования изображения
RU2748360C1 (ru) * 2016-02-06 2021-05-24 Хуавей Текнолоджиз Ко., Лтд. Способ и устройство кодирования изображения и способ и устройство декодирования изображения
US11394994B2 (en) 2016-02-06 2022-07-19 Huawei Technologies Co., Ltd. Image encoding method and apparatus, and image decoding method and apparatus
US11412248B2 (en) 2016-02-06 2022-08-09 Huawei Technologies Co., Ltd. Image encoding method and apparatus, and image decoding method and apparatus

Also Published As

Publication number Publication date
JPWO2011099428A1 (ja) 2013-06-13
CN102884793B (zh) 2016-03-23
BR112012019671A2 (pt) 2019-09-24
RU2523920C2 (ru) 2014-07-27
EP2536147A4 (en) 2017-03-15
CN102884793A (zh) 2013-01-16
TW201143453A (en) 2011-12-01
KR20140077988A (ko) 2014-06-24
US20120320985A1 (en) 2012-12-20
CA2788876A1 (en) 2011-08-18
RU2012133436A (ru) 2014-03-27
TWI458356B (zh) 2014-10-21
JP5306485B2 (ja) 2013-10-02
EP2536147A1 (en) 2012-12-19
KR20120120280A (ko) 2012-11-01

Similar Documents

Publication Publication Date Title
JP5306485B2 (ja) 動きベクトル予測符号化方法、動きベクトル予測復号方法、動画像符号化装置、動画像復号装置およびそれらのプログラム
JP5367097B2 (ja) 動きベクトル予測符号化方法、動きベクトル予測復号方法、動画像符号化装置、動画像復号装置およびそれらのプログラム
JP5367098B2 (ja) 動きベクトル予測符号化方法,動きベクトル予測復号方法,動画像符号化装置,動画像復号装置およびそれらのプログラム
JP4213646B2 (ja) 画像符号化装置、画像符号化方法、画像符号化プログラム、画像復号装置、画像復号方法、及び画像復号プログラム。
JP5306486B2 (ja) 動きベクトル予測符号化方法,動きベクトル予測復号方法,動画像符号化装置,動画像復号装置およびそれらのプログラム
JP5216710B2 (ja) 復号化処理方法
JP2009111691A (ja) 画像符号化装置及び符号化方法、画像復号化装置及び復号化方法
KR20090095012A (ko) 연속적인 움직임 추정을 이용한 영상 부호화, 복호화 방법및 장치
JP2016154395A (ja) 以前ブロックの動きベクトルを現在ブロックの動きベクトルとして用いる映像符号化/復号化方法及び装置
JP7228980B2 (ja) 予測画像補正装置、画像符号化装置、画像復号装置、及びプログラム
JP5281597B2 (ja) 動きベクトル予測方法,動きベクトル予測装置および動きベクトル予測プログラム
WO2020059616A1 (ja) 画像符号化装置、画像復号装置、及びプログラム
JP5281596B2 (ja) 動きベクトル予測方法,動きベクトル予測装置および動きベクトル予測プログラム
JP2017028372A (ja) 符号化方式変換装置、方法及びプログラム
JP2013517733A (ja) 以前ブロックの動きベクトルを現在ブロックの動きベクトルとして用いる映像符号化/復号化方法及び装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180008468.X

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11742172

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2011553819

Country of ref document: JP

ENP Entry into the national phase

Ref document number: 2788876

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: 13576617

Country of ref document: US

ENP Entry into the national phase

Ref document number: 20127020438

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 6852/CHENP/2012

Country of ref document: IN

Ref document number: 2011742172

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2012133436

Country of ref document: RU

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112012019671

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 112012019671

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20120806