WO2011074121A1 - 動きベクトル検出装置及び方法 - Google Patents

動きベクトル検出装置及び方法 Download PDF

Info

Publication number
WO2011074121A1
WO2011074121A1 PCT/JP2009/071174 JP2009071174W WO2011074121A1 WO 2011074121 A1 WO2011074121 A1 WO 2011074121A1 JP 2009071174 W JP2009071174 W JP 2009071174W WO 2011074121 A1 WO2011074121 A1 WO 2011074121A1
Authority
WO
WIPO (PCT)
Prior art keywords
vector
block
motion vector
hierarchy
candidate
Prior art date
Application number
PCT/JP2009/071174
Other languages
English (en)
French (fr)
Inventor
琢麿 山本
三島 直
泰豊 武山
金子 敏充
利幸 小野
Original Assignee
株式会社 東芝
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 東芝 filed Critical 株式会社 東芝
Priority to PCT/JP2009/071174 priority Critical patent/WO2011074121A1/ja
Priority to JP2011545919A priority patent/JP5492223B2/ja
Publication of WO2011074121A1 publication Critical patent/WO2011074121A1/ja
Priority to US13/405,522 priority patent/US9406376B2/en

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C11/00Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor
    • G11C11/56Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using storage elements with more than two stable states represented by steps, e.g. of voltage, current, phase, frequency
    • G11C11/5621Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using storage elements with more than two stable states represented by steps, e.g. of voltage, current, phase, frequency using charge storage in a floating gate
    • G11C11/5642Sensing or reading circuits; Data output circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/53Multi-resolution motion estimation; Hierarchical motion estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C2211/00Indexing scheme relating to digital stores characterized by the use of particular electric or magnetic storage elements; Storage elements therefor
    • G11C2211/56Indexing scheme relating to G11C11/56 and sub-groups for features not covered by these groups
    • G11C2211/563Multilevel memory reading aspects
    • G11C2211/5634Reference cells

Definitions

  • the present invention relates to a motion vector detection apparatus and method for detecting a motion vector used for image processing such as video encoding from video data.
  • the motion search is used, for example, for frame interpolation processing for improving a frame rate by interpolating a new frame between moving image frames, moving image coding, camera shake correction, and the like.
  • Patent Document 1 discloses a method of dividing a frame included in moving image data into a plurality of blocks and detecting a motion vector for each block. However, if there is a flat area in the frame that is larger than the block size and hardly changes in luminance, there is a problem that the accuracy of detecting a motion vector is lowered.
  • the frames are hierarchized, and motion vectors that have already been detected in a higher layer than the target layer for detecting motion vectors are further added to the candidate vectors described in Patent Document 1.
  • Motion vectors are detected.
  • erroneous detection occurs in the upper layer, there is a problem that motion vectors in the lower layer that are determined as candidate vectors may be erroneously detected.
  • the present invention has been made to solve the above problems, and an object thereof is to provide a motion vector detection apparatus and method capable of detecting a motion vector with high accuracy.
  • a motion vector detection device includes: A hierarchization unit for generating a plurality of hierarchies having different resolutions indicating the number of blocks to be set for each of the first image and the second image to be displayed at a different time from the first image; A first motion block that extracts an assigned motion vector as a spatial candidate vector for a first reference block in a layer to which the block of interest belongs in any block corresponding to the first image. An extractor of Assigned motion vectors to a second reference block in the same hierarchy as the hierarchy to which the block of interest corresponds to a third image to be displayed at a different time from the first and second images.
  • a second extraction unit for extracting as a time candidate vector;
  • a motion vector assigned to a third reference block in a hierarchy corresponding to the first image and having a lower resolution than the hierarchy to which the block of interest belongs is extracted as a hierarchy candidate vector.
  • the block corresponding to the second image specified by assigning the spatial candidate vector, the temporal candidate vector, and the hierarchical candidate vector to the target block is correlated with the target block based on the block correlation.
  • a motion vector determination unit for determining a motion vector to be assigned to a block It is characterized by comprising.
  • FIG. 1 schematically shows a configuration of a motion vector detection device according to an embodiment.
  • the motion vector detection device includes an optimal vector determination unit 101, a vector memory 102, a hierarchical vector memory 103, a space candidate extraction unit 104, a time candidate extraction unit 105, and a hierarchy candidate extraction unit 106. ing.
  • the optimal vector determination unit 101 receives moving image data from an external device (not shown), and temporarily holds a plurality of frames (still images) included in the moving image data.
  • the optimum vector determination unit 101 divides the held frame into blocks of a predetermined size, and determines a motion vector for each divided block by calculation.
  • the block includes a plurality of pixels. As an example, the size of the block is set to 5 pixels ⁇ 5 pixels.
  • a block for which a motion vector is detected is referred to as a target block.
  • the motion vector to be assigned to the block of interest is determined by the optimal vector determination unit 101 based on the spatial candidate vector, temporal candidate vector, and hierarchical candidate vector described later. This motion vector indicates the shift amount and its direction for each block between a reference frame and a frame to be displayed at a time different from this frame.
  • the optimal vector determination unit 101 generates a plurality of reduced images by reducing the frame, and stratifies the frames.
  • the reduced image of each layer is divided into blocks of a predetermined size, and a motion vector is determined for each divided block.
  • the motion vector determined by the optimal vector determination unit 101 is sent to the vector memory 102 as an optimal vector.
  • the vector memory 102 stores the motion vector received from the optimum vector determination unit 101 in association with information indicating the block position.
  • these motion vectors stored in the vector memory 102 are sent to the hierarchical vector memory 103.
  • the hierarchical vector memory 103 stores the motion vector received from the vector memory 102 in association with information indicating the position of the hierarchy and the block.
  • the space candidate extraction unit (first extraction unit) 104 selects, as a reference block, a block within a predetermined range corresponding to the position of the target block among the blocks in the hierarchy to which the target block belongs. Further, the space candidate extraction unit 104 extracts a motion vector assigned to the selected reference block from the vector memory 102 as a space candidate vector.
  • the time candidate extraction unit (second extraction unit) 105 is a block included in a frame to be displayed at a time different from the frame including the block of interest, and is a block in the same hierarchy as the hierarchy to which the block of interest belongs. Among them, a block within a predetermined range corresponding to the position of the target block is selected as a reference block. Further, the time candidate extraction unit 105 extracts the motion vector assigned to the selected reference block from the hierarchical vector memory 103 as a time candidate vector.
  • the hierarchy candidate extraction unit (third extraction unit) 106 selects, as a reference block, a block within a predetermined range corresponding to the position of the target block among the blocks in the hierarchy higher than the hierarchy to which the target block belongs. . Further, the hierarchy candidate extraction unit 106 extracts the motion vector assigned to the selected reference block from the hierarchy vector memory 103 as a hierarchy candidate vector.
  • the candidate vectors extracted by the space candidate extraction unit 104, the time candidate extraction unit 105, and the hierarchy candidate extraction unit 106 described above are sent to the optimum vector determination unit 101. Details of the processing of the optimum vector determination unit 101 after this will be described below.
  • FIG. 2 schematically shows the configuration of the optimum vector determination unit 101.
  • the optimal vector determination unit 101 includes a reduced image generation unit 201 that generates a reduced image from a frame included in moving image data received from an external device, and an optimal candidate vector from the candidate vector by block matching or the like. And a search unit 203 that searches for an optimal vector based on the selected optimal candidate vector.
  • the optimal candidate selection unit 202 and the search unit 203 are collectively referred to as a motion vector determination unit 204.
  • a reduced image generation unit (also referred to as a hierarchization unit) 201 illustrated in FIG. 2 generates a predetermined number (for example, L ⁇ 1) of reduced images by reducing the frames, and hierarchizes the frames.
  • the reduced image generation unit 201 generates a reduced image by reducing a frame that is an original image according to a resolution set in advance for each layer.
  • the resolution means the number of blocks into which an image is divided. For example, assuming that the frame size included in the moving image data is 500 pixels ⁇ 500 pixels, the block size is 5 pixels ⁇ 5 pixels, and the number of layers L is 3, the resolution of the third layer is 100 blocks ⁇ 100. It becomes a block.
  • the resolution of the second layer is 50 blocks ⁇ 50 blocks.
  • the resolution of the first layer is 25 blocks ⁇ 25 blocks.
  • the reduced image with the lowest resolution is referred to as the first hierarchy, and is referred to as the second hierarchy, the third hierarchy, etc. in order from the lowest resolution.
  • the lower resolution is higher and the higher resolution is lower.
  • the first hierarchy is the highest hierarchy.
  • FIG. 3 shows a state in which motion vectors are assigned to each of the frame 301 displayed at time t and the frame 311 displayed at time t ⁇ 1 prior to time t.
  • a frame 301 at time t indicates a frame for which a motion vector is to be detected, and is also referred to as a first frame or a target frame.
  • a motion vector assigned to each block corresponding to the first frame 301 indicates a motion vector for a frame at time t + 1 (also referred to as a second frame).
  • a frame 311 at time t ⁇ 1 indicates a frame from which a time candidate vector is extracted, and is also referred to as a third frame.
  • the motion vector assigned to each block corresponding to the third frame 311 indicates a motion vector for the first frame 301.
  • the first, second, and third frames may be frames that are displayed at different times, and the second and third frames are frames that are displayed at a time before the first frame, respectively. It may be a frame displayed at a time later than the frame of interest.
  • the target block is located in the h-th layer.
  • the motion vector of each block from the first layer to the (h-1) th layer is determined.
  • the motion vector has not been determined yet since the motion vector has already been determined. And undecided blocks.
  • the motion vector of each block in each layer is already determined.
  • the already determined spatial candidate vector, temporal candidate vector, and hierarchical candidate vector are recursively propagated to calculate the motion vector of each block.
  • the generated reduced image is temporarily held in the reduced image generation unit 201 shown in FIG.
  • the reduced image generation unit 201 generates images with different resolutions by repeatedly performing reduction after performing smoothing processing using a Gaussian filter or the like on the frame.
  • the hierarchized frame is sent to the optimal candidate selection unit 202 and the search unit 203.
  • frame hierarchization is not limited to the example in which the original image is reduced by the reduced image generation unit 201 as described above, and is realized by dividing the original image with a larger block size in a higher hierarchy. Also good. For example, assuming that the size of the original image is 500 pixels ⁇ 500 pixels and the number of layers L is 3, the block size is set to 5 pixels ⁇ 5 pixels in the third layer without changing the size of the original image.
  • the second layer may be set to 10 pixels ⁇ 10 pixels, and the first layer may be set to 20 pixels ⁇ 20 pixels. Even in this way, it is possible to generate images having different resolutions for each layer.
  • FIG. 4 shows the h-th layer 302 and the h-1 layer 303 of the first frame 301 and the h-th layer 312 of the third frame 311 shown in FIG.
  • the optimal candidate selection unit 202 in FIG. 2 determines a motion vector for each layer in order from the upper layer, that is, from the first layer to the Lth layer.
  • the motion vector of each block is determined in order from the block located at the upper left to the block located at the lower right. More specifically, the motion vector of each block is determined from the left to the right in the uppermost row, and the motion vector of each block is determined from the left to the right by moving to the next lower row.
  • a horizontal direction is defined as a direction corresponding to the scanning line direction when the frame is displayed on the display device
  • a vertical direction is defined as a direction corresponding to the signal line direction.
  • the left and upper blocks 305 and 306 of the block of interest 304 are shown as reference blocks (in FIG. 3 and FIG. 4, shown as spatial candidate blocks). Selected).
  • Space candidate extraction unit 104 as described below Equation 1, for extracting a motion vector assigned to the reference block 305 and 306 as a set C s spatial candidate vectors.
  • u t h (x) is the h-th hierarchy 302 of the first frame 301, shows the motion vectors of the block specified by position vector x
  • b indicates the position vector of the target block 304.
  • T means transposition.
  • the space candidate vector is not limited to the example shown in Equation 1, and may be extracted from any block as long as it is a block in the vicinity of the block of interest 304 and a motion vector has already been determined.
  • the space candidate extraction unit 104 extracts the motion vectors assigned to the blocks adjacent to the upper left side and the upper right side of the block of interest 304 as a set C ′ s of space candidate vectors, as in Equation 2 below. May be.
  • the union set (C s C ′ s ) of the set Cs and the set C ′ s described above may be set as a set of space candidate vectors.
  • the set Cs may include a zero vector.
  • the set of spatial candidate vectors is an empty set or includes a zero vector.
  • the block 313 specified by the same position vector as the target block 304, and the blocks 314 and 315 on the right and bottom of the block 313 are reference blocks (see FIGS. 3 and 4). Is selected as a time candidate block).
  • Time candidate extraction unit 105 as in the following Equation 3, the motion vector assigned to the reference block 313, 314, and 315 is extracted as a set C t time candidate vectors.
  • the time candidate vector is not limited to the example shown in Equation 3, and may be extracted from any block in the vicinity of the position corresponding to the target block 304 in a frame at a different time.
  • the time candidate extraction unit 105 uses the motion vector assigned to the reference block 313 corresponding to the frame of interest in the h-th layer 312 of the third frame 311 as well as the reference block 313, as shown in Equation 4 below.
  • the motion vectors assigned to the blocks on the lower right and the lower left may be extracted as a set C ′ t of time candidate vectors.
  • the union of the set C t the set C't above (Ct ⁇ C't) may be set to the set time candidate vectors.
  • a block 307 corresponding to the block of interest 304 is selected as a reference block (shown as a layer candidate block in FIGS. 3 and 4).
  • the hierarchical candidate extraction unit 106 sets the motion vector assigned to the reference block 307 in the h ⁇ 1 hierarchical layer 303, which is a hierarchical layer one level higher than the hierarchical level to which the block of interest 304 belongs, in accordance with Equation 5 below. It is extracted as C h.
  • K represents the reduction ratio of the reduced image. Since the (h ⁇ 1) th layer 303 is reduced by the reduction rate k compared to the hth layer 302, the extracted motion vector is multiplied by the coefficient 1 / k so as to correspond to the hth layer 302. Is done.
  • the hierarchical candidate vector is not limited to the example shown in Equation 5, and may be extracted from any block as long as it is a block near the position corresponding to the target block 304 in the upper hierarchy.
  • the hierarchy candidate extraction unit 106 is a block included in the (h ⁇ 1) -th hierarchy 313 of the first frame 301 and is a motion vector assigned to the block 307 corresponding to the frame of interest, as shown in Equation 6 below.
  • motion vectors assigned to blocks adjacent to the block 307 in the vertical and horizontal directions may be extracted as a set of layer candidate vectors C ′ h .
  • the hierarchy candidate extraction unit 106 may select a hierarchy candidate vector from a plurality of upper hierarchies, for example, blocks included in the h-1 hierarchy 313 and the h-2 hierarchy as shown in Equation 7 below.
  • the motion vector assigned to the block corresponding to the target block may be extracted as a set C ′′ h of hierarchical candidate vectors.
  • reference blocks are selected as shown in FIG. 5 according to Equation 1, Equation 3, and Equation 5, and motion vectors assigned to these reference blocks are extracted as candidate vectors.
  • Each extracted candidate vector is sent to the optimal candidate selection unit 202.
  • the optimal candidate selection unit 202 shown in FIG. 2 selects an optimum candidate vector to be assigned to the block of interest from candidate vectors.
  • the optimal candidate selection unit 202 receives a spatial candidate vector from the spatial candidate extraction unit 104, a temporal candidate vector from the temporal candidate extraction unit 105, and a hierarchical candidate vector from the hierarchical candidate extraction unit 106.
  • the optimal candidate selection unit 202 calculates the correlation between the block of interest and the block corresponding to the second frame specified by the position vector of the block of interest and the extracted candidate vector based on the block correlation. Then, the optimal candidate selection unit 202 specifies a candidate vector having the largest correlation value, and selects the specified candidate vector as the optimal candidate vector represented by the following Expression 8.
  • the optimal candidate selection unit 202 selects a candidate vector that minimizes the value of the evaluation function D (b, u) from among a plurality of candidate vectors, for example, as in Equation 9 below, as the optimal candidate vector of Equation 8. .
  • C 1 C s ⁇ C t ⁇ C h
  • D (b, u) represents an evaluation function for the motion vector u.
  • the evaluation function D (b, u) is defined by the following formula 10, for example.
  • I src (x) is a block corresponding to the first frame 301 and indicates the pixel value of the block specified by the position vector x
  • I dst (x) corresponds to the third frame.
  • B (b) indicates a set of position vectors of the pixels in the block specified by the position vector b.
  • means the absolute value of A when A is a scalar value, and means the number of elements of A when A is a set.
  • the pixel value for evaluating the correlation between the blocks may be luminance, or may be a value in RGB space indicating color information regarding red, green, and blue.
  • the absolute values of the pixel value differences are summed.
  • the present invention is not limited to this.
  • the square of the pixel value differences may be summed.
  • the total absolute value of the pixel value differences is divided by the number of elements, but it is not necessary to divide.
  • the weight ⁇ indicates the correlation between the target block and the reference block
  • e indicates the position vector from the target block to the reference block.
  • the weight ⁇ can be expressed as Equation 12 below.
  • weight ⁇ is not limited to the example shown in Expression 12, and may be calculated by squaring the absolute value, or may be normalized as in Expression 13 below.
  • the search unit 203 searches the local region based on the optimal candidate vector of Expression 8, and determines the optimal vector expressed by Expression 14 below.
  • the search unit 203 calculates a local vector that minimizes the evaluation function from among the optimal candidate vector and a plurality of local vectors generated by minutely changing the optimal candidate vector, as shown in Equation 15 below.
  • the optimum vector shown in Equation 14 is determined.
  • the set C 2 of the local vectors include, for example, as in the following equation 16, the best candidate vectors represented by the following equation 17, and a minute change by local vector in the vertical and horizontal directions of the optimal candidate vector.
  • is a small constant.
  • indicates a distance between pixels.
  • Equation 16 the set C 2 of the local vector is not limited to the example shown in Equation 16, as in the following Equation 18 may be wider set the search range.
  • the optimal vector may be determined by performing a local search for all candidate vectors as in the following Expression 19 and Expression 20. In this case, the optimal vector is determined without selecting the optimal candidate vector.
  • the optimal vector determination unit 101 determines the motion vector of the target block based on the candidate vectors including the space candidate vector, the time candidate vector, and the hierarchy candidate vector.
  • one of a spatial candidate vector, a temporal candidate vector, and a hierarchical candidate vector is selected as an optimal candidate vector for calculating a motion vector of each block of each hierarchy.
  • the motion vector can be determined with high accuracy.
  • FIG. 7 when calculating a motion vector of a block 706 located in the second layer 703 of the first frame 701, the spatial candidate vector extracted from the second layer 703, and the first Even if the layer candidate vector extracted from the layer 704 is erroneously calculated, by selecting the time candidate vector extracted from the second layer 713 of the third frame 711, the motion vector of this block 706 is accurately determined. Can be calculated.
  • the motion vector of the block 706 of the second layer 703 as a layer candidate vector in the block 705 of the third layer 702
  • a spatial candidate vector extracted from the third layer 702 of the first frame 701 and Even if the time candidate vector extracted from the third layer 712 of the third frame 711 is incorrect, the motion vector can be accurately calculated.
  • motion vector errors can be gradually reduced by performing recursive processing using the calculated motion vector for calculation of the next block. Furthermore, a motion vector with few errors can be estimated by performing recursive processing sequentially over space, time, and hierarchy.
  • the vector memory 102 temporarily stores the motion vector of each block in the hierarchy including the block of interest. Therefore, it is only necessary to prepare a capacity capable of storing motion vectors by the number of blocks included in the hierarchy having the largest number of blocks, that is, the lowest hierarchy. As in the example described above, when the resolution of the third layer, which is the lowest layer, is 100 blocks ⁇ 100 blocks, the vector memory 102 is provided with a capacity capable of storing 10,000 motion vectors. That's fine. In the vector memory 102, the motion vector is stored in association with information indicating the position of the block.
  • the hierarchical vector memory 103 is assigned an area for storing a motion vector for each hierarchy, and stores the determined motion vector for each hierarchy.
  • the resolution of the third layer which is the lowest layer, is 100 blocks ⁇ 100 blocks
  • the resolution of the second layer is 50 blocks ⁇ 50 blocks
  • the resolution of the first layer is 25 blocks ⁇ 25 blocks.
  • the hierarchical vector memory 103 only needs to have a capacity capable of storing a total of 13125 motion vectors.
  • the motion vector is stored in association with information indicating the position of the hierarchy and the block.
  • the number of layers L is 3, the first layer is divided into 3 blocks ⁇ 3 blocks, the second layer is divided into 4 blocks ⁇ 4 blocks, and the third layer
  • An example of the operation of the vector memory 102 and the hierarchical vector memory 103 in the case where is divided into 6 blocks ⁇ 6 blocks is shown.
  • the layer vector memory 103 stores the first to third layers of the frame at time t ⁇ 1.
  • the motion vector calculated in each block is stored.
  • the optimal candidate selection unit 202 calculates a motion vector of each block in the first hierarchy with reference to the space candidate vector, the time candidate vector, and the hierarchy candidate vector.
  • the hierarchy candidate vector to be referred to is a zero vector.
  • the time candidate vector is extracted from the area for the first hierarchy allocated to the hierarchy vector memory 103.
  • the information stored in the vector memory 102 is copied to the area for the first hierarchy in the hierarchy vector memory. . Therefore, in the hierarchical vector memory 103, the motion vector related to the frame at time t is stored in the area for the first hierarchy, and the area for the second and third hierarchies is related to the frame at time t-1.
  • the motion vector to be stored is stored.
  • the information in the vector memory 102 may be deleted after the copy is completed, or may be overwritten with information on the next second layer.
  • a hierarchy candidate vector is extracted from the area for the first hierarchy assigned to the hierarchy vector memory 103 and assigned to the hierarchy vector memory 103.
  • a time candidate vector is extracted from the obtained second layer region, and a space candidate vector is extracted from the vector memory 102.
  • FIG. 8D when the motion vectors of all the blocks in the second hierarchy are determined, the information stored in the vector memory 102 is copied to the area for the second hierarchy in the hierarchy vector memory. .
  • a hierarchy candidate vector is extracted from the area for the second hierarchy allocated to the hierarchy vector memory 103, and the hierarchy vector memory is extracted.
  • a time candidate vector is extracted from the region for the third hierarchy assigned to 103, and a space candidate vector is extracted from the vector memory 102.
  • FIG. 8F when the motion vectors of all the blocks in the third hierarchy are determined, the information stored in the vector memory 102 is copied to the area for the third hierarchy in the hierarchy vector memory. .
  • the information stored in the vector memory 102 that is, the information including the motion vector of each block of the frame at time t is output to the outside. Processing of the frame at time t + 1 is started.
  • the information stored in the hierarchical vector memory 103 is information related to the frame at time t.
  • the hierarchical vector memory 103 is overwritten as needed with information stored in the vector memory 102.
  • the present invention is not limited to this. It is good also as a structure which stores the motion vector information relevant to. By storing motion vector information related to frames at a plurality of times in the hierarchical vector memory 103, motion vectors related to a plurality of frames at times different from the time of the frame of interest can be extracted as time candidate vectors.
  • step S901 a block of interest is selected according to a predetermined order.
  • the space candidate extraction unit 104 selects a space candidate vector from a specific reference block as shown in, for example, Expression 1 or Expression 2.
  • the time candidate extraction unit 105 selects a time candidate vector from a specific reference block as shown in, for example, Expression 3 or Expression 4.
  • the hierarchy candidate extraction unit 106 selects a hierarchy candidate vector from a specific reference block as shown in Expression 5, Expression 6, or Expression 7, for example.
  • the order of steps S902 to S904 can be changed as appropriate.
  • candidate vectors including a spatial candidate vector, a temporal candidate vector, and a hierarchical candidate vector are selected.
  • step S905 the optimal vector of the block of interest is determined based on the candidate vector selected in steps S902 to S904. Step S905 will be described later with reference to FIG.
  • step S906 the selected optimum vector is stored in the vector memory 102.
  • step S907 it is determined whether or not the motion vectors of all the blocks in the hierarchy being processed have been determined. If there is a block whose motion vector has not been determined, the process returns to step S901, and the next block of interest is selected. When steps S901 to S906 are repeated and the motion vectors of all the blocks in the hierarchy being processed are determined, the process proceeds to step S908.
  • step S908 information stored in the vector memory 102 is copied to the hierarchical vector memory 103.
  • step S909 it is determined whether all layers of the frame of interest have been processed. That is, it is determined whether or not the lowest layer (for example, the Lth layer) of the frame of interest has been processed. If there is an unprocessed hierarchy, the process returns to step S901.
  • step S910 information stored in the vector memory 102 is output to an image processing apparatus (not shown), and a series of processing ends.
  • step S1001 the reduced image generation unit 201 generates a reduced image corresponding to the hierarchy to be processed.
  • the generation of the reduced image shown in step S1001 may be executed in advance when a frame is received.
  • step S1002 for example, as shown in Equation 9, the optimal candidate selection unit 202 specifies a reference block having the highest correlation with the block of interest, and selects the specified reference block candidate vector as the optimal candidate vector.
  • step S1003 as shown in, for example, Expression 15 and Expression 16, the search unit 203 determines an optimal vector based on the selected optimal candidate vector.
  • the motion vector of the block of interest is recursively calculated using the already determined motion vector, thereby improving the accuracy of detecting the motion vector. be able to.
  • the motion vector detection device can be applied to various fields.
  • a motion vector detection device is used when generating a frame to be interpolated between frames of a moving image when used in a frame interpolation technique that improves the image quality of a television by realizing a high frame rate.
  • the improvement in detection accuracy of the motion vector detection device according to the present invention can improve the encoding efficiency in moving image encoding, and can improve the performance of camera shake correction.
  • the motion vector detection apparatus according to the present invention can also be used for a technique for estimating three-dimensional depth information from two-dimensional image information.
  • the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying constituent elements without departing from the scope of the invention in the implementation stage.
  • various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment.
  • constituent elements over different embodiments may be appropriately combined.
  • the motion vector detection device can be used for various image processing techniques, for example, a frame interpolation technique.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)

Abstract

 動きベクトル検出装置においては、第1、第2及び第3のフレームの各々を階層化する階層化部と、注目ブロックの属する階層内の第1の参照ブロックに対して割り当てられている動きベクトルを、空間候補ベクトルとして抽出する空間候補抽出部と、第3のフレームに対応する注目ブロックの属する階層と同じ階層内の第2の参照ブロックに対して割り当てられている動きベクトルを、時間候補ベクトルとして抽出する時間候補抽出部と、第1のフレームに対応する階層であって、注目ブロックの属する階層より上位の階層内の第3の参照ブロックに割り当てられている動きベクトルを、階層候補ベクトルとして抽出する階層候補抽出部と、抽出された各候補ベクトルに基づいて、ブロックマッチング等により注目ブロックに割り当てるべき動きベクトルを決定する動きベクトル決定部と、を具備する。

Description

動きベクトル検出装置及び方法
 本発明は、動画像符号化等の画像処理に用いられる動きベクトルを動画像データから検出する動きベクトル検出装置及び方法に関する。
 従来、動画像処理における基礎的な処理として、異なる時刻のフレーム間での物体の移動方向及び大きさを示す動きベクトルを検出する動き探索がある。動き探索は、例えば、動画像のフレーム間に新たなフレームを内挿することでフレームレートを向上させるフレーム補間処理、動画像符号化、カメラの手ぶれ補正等に利用される。
 特許文献1には、動画像データに含まれるフレームを複数のブロックに分割して、ブロック毎に動きベクトルを検出する方法が開示されている。しかしながら、フレーム中に、ブロックのサイズより大きくかつ輝度変化の殆ど無いフラットな領域が存在する場合、動きベクトルを検出する精度が低下する問題がある。
 また、特許文献2に開示される方法では、フレームを階層化し、動きベクトルを検出する対象となる階層よりも上位階層において既に検出済みの動きベクトルを、特許文献1で説明した候補ベクトルにさらに加えて動きベクトルを検出している。しかしながら、上位階層で誤検出が発生した場合、それらを候補ベクトルとして決定された下位階層の動きベクトルも誤検出されることがある問題がある。
特許第3147893号公報 特開2004-241880号公報
 本発明は、上記問題点を解決するためになされたものであり、動きベクトルを精度良く検出することができる動きベクトル検出装置及び方法を提供することを目的とする。
 本発明の一態様に係る動きベクトル検出装置は、
 第1の画像及び前記第1の画像とは異なる時刻に表示すべき第2の画像の夫々に対して、設定されるブロックの数を示す解像度が異なる複数の階層を生成する階層化部と、
 前記第1の画像に対応するいずれかの階層内の注目ブロックで、前記注目ブロックの属する階層内の第1の参照ブロックに対して、割り当てられている動きベクトルを空間候補ベクトルとして抽出する第1の抽出部と、
 前記第1及び第2の画像とは異なる時刻に表示すべき第3の画像に対応する前記注目ブロックの属する階層と同じ階層内の第2の参照ブロックに対して、割り当てられている動きベクトルを時間候補ベクトルとして抽出する第2の抽出部と、
 前記第1の画像に対応する階層であって、前記注目ブロックの属する階層よりも前記解像度が低い階層内の第3の参照ブロックに対して割り当てられている動きベクトルを階層候補ベクトルとして抽出する第3の抽出部と、
 前記注目ブロックに、前記空間候補ベクトル、時間候補ベクトル及び階層候補ベクトル夫々を割り当てることで特定される前記第2の画像に対応するブロックと、前記注目ブロックとの相関をブロック相関に基づいて前記注目ブロックに割り当てる動きベクトルを決定する動きベクトル決定部と、
 を具備することを特徴とする。
 動きベクトルを精度良く検出することできる。
一実施形態に係る動きベクトル検出装置の構成例を示すブロック図である。 最適ベクトル決定部の構成例を示すブロック図である。 ベクトルメモリ及び階層ベクトルメモリの記憶領域を示す模式図である。 ベクトルメモリ及び階層ベクトルメモリの記憶領域を抜粋して示す模式図である。 空間候補抽出部、時間候補抽出部及び階層候補抽出部により選定される参照ブロックを示す模式図である。 探索部が最適候補ベクトルから最適ベクトルを決定する方法を説明する図である。 誤検出された動きベクトルが再帰処理により訂正される例を示す図である。 ベクトルメモリ及び階層ベクトルメモリの動作を説明する図である。 ベクトルメモリ及び階層ベクトルメモリの動作を説明するため図である。 ベクトルメモリ及び階層ベクトルメモリの動作を説明する図である。 ベクトルメモリ及び階層ベクトルメモリの動作を説明する図である。 ベクトルメモリ及び階層ベクトルメモリの動作を説明する図である。 ベクトルメモリ及び階層ベクトルメモリの動作を説明する図である。 動きベクトルを検出する手順の一例を示すフローチャートである。 最適ベクトル決定部が、最適ベクトルを決定する手順の一例を示す図である。
 以下、必要に応じて図面を参照しながら、本発明の一実施形態に係る動きベクトル検出装置を説明する。なお、以下の実施形態では、同じ番号を付した部分については同様の動作を行うものとして、重ねての説明を省略する。
 図1は、一実施形態に係る動きベクトル検出装置の構成を概略的に示している。この動きベクトル検出装置は、図1に示されるように、最適ベクトル決定部101、ベクトルメモリ102、階層ベクトルメモリ103、空間候補抽出部104、時間候補抽出部105、及び階層候補抽出部106を備えている。
 最適ベクトル決定部101は、図示しない外部装置から動画像データを受け取り、動画像データに含まれる複数のフレーム(静止画像)を一時的に保持する。また、最適ベクトル決定部101は、保持しているフレームを所定サイズのブロックに分割し、分割したブロック毎に動きベクトルを演算により決定する。ブロックは、複数の画素を含む。一例として、ブロックのサイズは、5画素×5画素に設定される。
 本明細書では、動きベクトルを検出する対象となっているブロックを注目ブロックと称す。注目ブロックに対して割り当てるべき動きベクトルは、最適ベクトル決定部101によって、後に説明される空間候補ベクトル、時間候補ベクトル及び階層候補ベクトルに基づいて決定される。この動きベクトルは、基準となるフレームと、このフレームとは異なる時間に表示すべきフレームとの間におけるブロック毎のシフト量及びその方向を示す。
 さらに、最適ベクトル決定部101は、フレームを縮小して複数の縮小画像を生成し、フレームを階層化する。各階層の縮小画像は、所定サイズのブロックに分割され、分割されたブロック毎に動きベクトルが決定される。最適ベクトル決定部101で決定された動きベクトルは、最適ベクトルとしてベクトルメモリ102へ送られる。
 ベクトルメモリ102は、最適ベクトル決定部101から受け取った動きベクトルを、ブロックの位置を示す情報と関連づけて記憶する。ある階層内の全てのブロックの動きベクトルが決定されると、ベクトルメモリ102に記憶されているこれらの動きベクトルは、階層ベクトルメモリ103へ送られる。階層ベクトルメモリ103は、ベクトルメモリ102から受け取った動きベクトルを、階層及びブロックの位置を示す情報に関連づけて記憶する。
 空間候補抽出部(第1の抽出部)104は、注目ブロックが属している階層内のブロックのうちの、注目ブロックの位置に応じた所定範囲内のブロックを、参照ブロックとして選定する。また、空間候補抽出部104は、選定した参照ブロックに割り当てられている動きベクトルを空間候補ベクトルとして、ベクトルメモリ102から抽出する。
 時間候補抽出部(第2の抽出部)105は、注目ブロックを含むフレームとは異なる時刻に表示すべきフレームに含まれるブロックであって、注目ブロックが属している階層と同じ階層内のブロックのうちの、注目ブロックの位置に応じた所定範囲内のブロックを、参照ブロックとして選定する。また、時間候補抽出部105は、選定した参照ブロックに割り当てられている動きベクトルを時間候補ベクトルとして、階層ベクトルメモリ103から抽出する。
 階層候補抽出部(第3の抽出部)106は、注目ブロックが属している階層より上位の階層内のブロックのうちの、注目ブロックの位置に応じた所定範囲内のブロックを参照ブロックとして選定する。また、階層候補抽出部106は、選定した参照ブロックに割り当てられている動きベクトルを階層候補ベクトルとして、階層ベクトルメモリ103から抽出する。
 上述した空間候補抽出部104、時間候補抽出部105及び階層候補抽出部106で抽出された各候補ベクトルは、最適ベクトル決定部101に送られる。この後の最適ベクトル決定部101の処理の詳細は以下に示される。
 図2は、最適ベクトル決定部101の構成を概略的に示している。最適ベクトル決定部101は、図2に示されるように、外部装置から受信した動画像データに含まれるフレームから縮小画像を生成する縮小画像生成部201と、ブロックマッチング等によって候補ベクトルから最適候補ベクトルを選択する最適候補選択部202と、選択された最適候補ベクトルに基づいて最適ベクトルを探索する探索部203と、を備えている。また、最適候補選択部202及び探索部203をまとめて動きベクトル決定部204と称す。
 図2に示される縮小画像生成部(階層化部ともいう)201は、フレームを縮小して所定数(例えば、L-1個)の縮小画像を生成し、フレームを階層化する。この縮小画像生成部201は、階層毎に予め設定された解像度に応じて、原画像であるフレームを縮小して縮小画像を生成する。本明細書では、解像度とは、画像を分割するブロックの数を意味する。例えば、動画像データに含まれるフレームのサイズが500画素×500画素、ブロックサイズが5画素×5画素、階層数Lが3である場合を想定すると、第3階層の解像度は、100ブロック×100ブロックとなる。また、この例において、第3階層の画像を縦及び横方向に1/2に縮小して、第2階層の画像を生成すると、第2階層の解像度は、50ブロック×50ブロックとなる。同様にして、第1階層の解像度は、25ブロック×25ブロックとなる。
 ここで、階層化されたフレームにおいて、最も解像度の低い縮小画像を第1階層と称し、解像度の低い順に第2階層、第3階層等と称す。また、階層化されたフレームでは、解像度が低い方を上位、解像度が高い方を下位とする。この場合、第1階層が最も上位の階層となる。
 図3は、時刻tに表示されるフレーム301、及び時刻tより前の時刻t-1に表示されるフレーム311の夫々に関して、動きベクトルが割り当てられている様子を示している。時刻tのフレーム301は、動きベクトルを検出する対象となっているフレームを示し、第1のフレーム、注目フレームとも称す。第1のフレーム301に対応する各ブロックに割り当てられている動きベクトルは、時刻t+1のフレーム(第2のフレームともいう)に対する動きベクトルを示す。
 時刻t-1のフレーム311は、時間候補ベクトルを抽出する対象となるフレームを示し、第3のフレームとも称す。また、第3のフレーム311に対応する各ブロックに割り当てられている動きベクトルは、第1のフレーム301に対する動きベクトルを示す。第1、第2及び第3のフレームは、互いに異なる時刻に表示されるフレームであればよく、第2及び第3のフレームは、夫々、第1のフレームより前の時刻に表示されるフレームであってもよく、注目フレームより後の時刻に表示されるフレームであってもよい。
 図3に示される例では、第1のフレーム301では、第h階層に注目ブロックが位置している。第1のフレーム301においては、第1階層から第h-1階層までの各ブロックの動きベクトルが決定されていて、第h階層は、動きベクトルが既に決定されているブロックと、動きベクトルがまだ決定されていないブロックとを含んでいる。第3のフレーム311においては、各階層の各ブロックの動きベクトルが既に決定されている。本実施形態では、既に決定されている空間候補ベクトル、時間候補ベクトル及び階層候補ベクトルが再帰的に伝搬されて各ブロックの動きベクトルが算出される。
 生成された縮小画像は、図2に示される縮小画像生成部201に一時的に保持される。一例として、縮小画像生成部201は、フレームに対してガウシアンフィルタ等による平滑化処理を行った後に、縮小を繰り返すことで、異なる解像度の画像を生成する。階層化されたフレームは、最適候補選択部202及び探索部203へ送られる。
 なお、フレームの階層化は、上述したような縮小画像生成部201で原画像を縮小する例に限定されず、より上位の階層では、より大きいブロックサイズで原画像を分割することで実現されてもよい。例えば、原画像のサイズが500画素×500画素、階層数Lが3である場合を想定すると、原画像のサイズを変更せずに、ブロックサイズを、第3階層では、5画素×5画素とし、第2階層では、10画素×10画素とし、第1階層では、20画素×20画素と設定してもよい。このようにしても、階層毎に異なる解像度の画像を生成することができる。
 ここで、図3及び図4を参照して、各候補ベクトルを選定する方法を説明する。 
 図4は、図3に示される第1のフレーム301の第h階層302及び第h-1階層303、並びに第3のフレーム311の第h階層312を抜き出して示している。図2の最適候補選択部202は、上位の階層から順番に、即ち、第1階層から第L階層へ向かって階層毎に動きベクトルを決定する。図4に示されるように、一例として、各階層では、各ブロックの動きベクトルは、左上に位置されるブロックから右下に位置されるブロックに向けて順番に決定される。より具体的には、最も上段の行において、左から右に向かって各ブロックの動きベクトルを決定し、1つ下の行に移行して左から右に向かって各ブロックの動きベクトルを決定する。本明細書では、フレームが表示装置に表示される際の走査線方向に対応する方向を水平方向とし、信号線方向に対応する方向を垂直方向として、上下左右、行及び列を定義する。
 第1のフレーム301の第h階層302では、図4に示されるように、例えば、注目ブロック304の左及び上のブロック305、306が参照ブロック(図3及び図4では、空間候補ブロックと示される)として選定される。空間候補抽出部104は、下記数式1のように、参照ブロック305、306に割り当てられている動きベクトルを空間候補ベクトルの集合Cとして抽出する。
Figure JPOXMLDOC01-appb-M000001
 ここで、u (x)は、第1のフレーム301の第h階層302において、位置ベクトルxで特定されるブロックの動きベクトルを示し、bは、注目ブロック304の位置ベクトルを示す。図4に示される注目ブロック304の位置は、例えば、b=(4,3)と表される。ここで、Tは、転置を意味する。なお、記号C、u、b及びx、並びに以下に示される記号B及びe等は、各々ベクトルを示し、数式中では太字で示されている。
 なお、空間候補ベクトルは、数式1に示される例に限定されず、注目ブロック304の近傍のブロックであって、動きベクトルが既に決定されているブロックであれば、どのブロックから抽出されてもよい。例えば、空間候補抽出部104は、下記数式2のように、注目ブロック304の左斜め上及び右斜め上に隣接するブロックに割り当てられている動きベクトルを、空間候補ベクトルの集合C´として抽出してもよい。
Figure JPOXMLDOC01-appb-M000002
 他の例では、上述の集合Csと集合C´との和集合(C∪C´)が、空間候補ベクトルの集合に設定されてもよい。さらに他の例では、集合Csは、ゼロベクトルを含んでもよい。また、例えば、階層内で最初に動きベクトルが決定される左上のブロックが注目ブロックである場合、空間候補ベクトルの集合は、空集合となるか、或いは、ゼロベクトルを含む。
 第3のフレーム311の第h階層312では、例えば、注目ブロック304と同じ位置ベクトルで特定されるブロック313、並びにこのブロック313の右及び下のブロック314、315が参照ブロック(図3及び図4では、時間候補ブロックと示される)として選定される。時間候補抽出部105は、下記数式3のように、参照ブロック313、314、315に割り当てられている動きベクトルを、時間候補ベクトルの集合Cとして抽出する。
Figure JPOXMLDOC01-appb-M000003
 なお、時間候補ベクトルは、数式3に示される例に限定されず、異なる時刻のフレームにおいて、注目ブロック304に対応する位置の近傍のブロックであればどのブロックから抽出されてもよい。例えば、時間候補抽出部105は、下記数式4のように、第3のフレーム311の第h階層312において、注目フレームに対応する参照ブロック313に割り当てられている動きベクトル、並びにこの参照ブロック313の右斜め下及び左斜め下のブロックに割り当てられている動きベクトルを、時間候補ベクトルの集合C´として抽出してもよい。
Figure JPOXMLDOC01-appb-M000004
 他の例では、上述の集合Cと集合C´との和集合(Ct∪C´t)が時間候補ベクトルの集合に設定されてもよい。
 さらに、第1フレーム301の第h-1階層303では、注目ブロック304に対応するブロック307が参照ブロック(図3及び図4では、階層候補ブロックと示される)として選定される。階層候補抽出部106は、下記数式5に従って、注目ブロック304の属する階層より一つ上の階層である第h-1階層303内の参照ブロック307に割り当てられている動きベクトルを階層候補ベクトルの集合Cとして抽出する。
Figure JPOXMLDOC01-appb-M000005
 また、kは、縮小画像の縮小率を示す。第h-1階層303は、第h階層302と比較して縮小率kだけ縮小されているため、抽出された動きベクトルは、係数1/kを掛けて第h階層302に対応するように伸長される。
 なお、階層候補ベクトルは、数式5に示される例に限定されず、上位階層における注目ブロック304に対応する位置の近傍のブロックであれば、どのブロックから抽出されてもよい。例えば、階層候補抽出部106は、下記数式6のように、第1のフレーム301の第h-1階層313に含まれるブロックであって、注目フレームに対応するブロック307に割り当てられている動きベクトル、並びにこのブロック307の上下左右に隣接するブロックに割り当てられている動きベクトルを、階層候補ベクトルの集合C´として抽出してもよい。
Figure JPOXMLDOC01-appb-M000006
 さらに、階層候補抽出部106は、複数の上位階層から階層候補ベクトルを選定してもよく、例えば、下記数式7のように、第h-1階層313及び第h-2階層に含まれるブロックであって、注目ブロックに対応するブロックに割り当てられている動きベクトルを階層候補ベクトルの集合C″として抽出してもよい。
Figure JPOXMLDOC01-appb-M000007
 上述のようにして、例えば数式1、数式3及び数式5に従って参照ブロックが図5に示されるように選定され、これら参照ブロックに割り当てられている動きベクトルが候補ベクトルとして抽出される。抽出された各候補ベクトルは、最適候補選択部202へ送られる。
 次に、図2に示される最適候補選択部202が、候補ベクトルの中から注目ブロックに割り当てるべき最適候補ベクトルを選定する方法を説明する。
 最適候補選択部202は、空間候補抽出部104から空間候補ベクトルを、時間候補抽出部105から時間候補ベクトルを、階層候補抽出部106から階層候補ベクトルを受け取る。
 最適候補選択部202は、注目ブロックと、注目ブロックの位置ベクトル及び抽出された候補ベクトルで特定される第2のフレームに対応するブロックとの相関をブロック相関に基づいて算出する。そして、最適候補選択部202は、相関値が最も大きくなる候補ベクトルを特定し、特定した候補ベクトルを下記数式8に示される最適候補ベクトルとして選択する。
Figure JPOXMLDOC01-appb-M000008
 最適候補選択部202は、例えば下記数式9のように、複数の候補ベクトルのうちの、評価関数D(b,u)の値を最も小さくする候補ベクトルを、数式8の最適候補ベクトルとして選択する。
Figure JPOXMLDOC01-appb-M000009
ここで、C=C∪C∪Cであり、D(b,u)は、動きベクトルuに対する評価関数を示す。評価関数D(b,u)は、例えば、下記数式10で定義される。
Figure JPOXMLDOC01-appb-M000010
 ここで、Isrc(x)は、第1のフレーム301に対応するブロックであって、位置ベクトルxで特定されるブロックの画素値を示し、Idst(x)は、第3のフレームに対応するブロックであって、位置ベクトルxで特定されるブロックの画素値を示し、B(b)は、位置ベクトルbで特定されるブロック内の画素の位置ベクトルの集合を示す。また、|A|は、Aがスカラー値のときはAの絶対値を意味し、Aが集合のときはAの要素数を意味する。ブロック間の相関を評価するための画素値は、輝度であってもよく、或いは、赤と緑と青に関する色の情報を示すRGB空間での値であってもよい。
 なお、上記の評価関数では、画素値の差の絶対値を合計しているが、これに限定されず、例えば、画素値の差を二乗したものを合計してもよい。さらに、上記評価関数では、画素値の差の絶対値の合計を要素数で除算しているが、除算しなくてもよい。
 画像中において、多くの場合、注目ブロックの近傍は、輝度分布が類似したブロックが存在すると仮定されるが、物体境界ではこの仮定が成り立たないことがある。そこで、下記数式11のように、注目ブロックと参照ブロックとの相関をペナルティ項(重みともいう)αとして評価関数に加えることで、注目ブロックと類似したブロックの候補ベクトルを選択されやすくする。従って、重みαを加えることにより、注目ブロックと相関の高い参照ブロックが優先的に選択されるようになる。
Figure JPOXMLDOC01-appb-M000011
 ここで、重みαは、注目ブロックと参照ブロックとの相関を示し、eは注目ブロックから見た参照ブロックへの位置ベクトルを示す。例えば、注目ブロック304の上のブロック306を候補ベクトルuとして参照する場合、重みαは、下記数式12のように表すことができる。
Figure JPOXMLDOC01-appb-M000012
 なお、重みαは、数式12に示される例に限定されず、絶対値を二乗して算出されてもよく、或いは、下記数式13のように正規化されてもよい。
Figure JPOXMLDOC01-appb-M000013
 探索部203は、図6に示されるように、数式8の最適候補ベクトルに基づいて局所領域内を探索して、下記数式14に示される最適ベクトルを決定する。
Figure JPOXMLDOC01-appb-M000014
 具体的には、探索部203は、下記数式15のように、最適候補ベクトル、及びこの最適候補ベクトルを微小変化させて生成した複数の局所ベクトルの中から、評価関数を最小にする局所ベクトルを数式14に示される最適ベクトルに決定する。
Figure JPOXMLDOC01-appb-M000015
 ここで、局所ベクトルの集合Cは、例えば下記数式16のように、下記数式17に示される最適候補ベクトル、及びこの最適候補ベクトルの上下左右方向に微小変化した局所ベクトルを含む。
Figure JPOXMLDOC01-appb-M000016
Figure JPOXMLDOC01-appb-M000017
 ここで、εは微小定数である。例えば、εは、画素間の距離を示す。
 なお、局所ベクトルの集合Cは、数式16に示される例に限定されず、下記数式18のように、探索範囲をより広く設定されてもよい。
Figure JPOXMLDOC01-appb-M000018
 また、上述したように、最適候補ベクトルを選択した後に局所探索を行うのではなく、下記数式19及び数式20のように、全ての候補ベクトルに関して局所探索して最適ベクトルが決定されてもよい。この場合、最適候補ベクトルを選定することなく、最適ベクトルが決定されることとなる。
Figure JPOXMLDOC01-appb-M000019
Figure JPOXMLDOC01-appb-M000020
 上述のように、最適ベクトル決定部101では、空間候補ベクトル、時間候補ベクトル及び階層候補ベクトルを含む候補ベクトルに基づいて、注目ブロックの動きベクトルが決定される。
 本実施形態に係る動きベクトル検出装置においては、各階層の各ブロックの動きベクトルの算出に、空間候補ベクトル、時間候補ベクトル及び階層候補ベクトルのうちのいずれか1つを最適候補ベクトルとして選定することで、精度良く動きベクトルを決定することができる。一例として、図7に示されるように、第1のフレーム701の第2階層703に位置されるブロック706の動きベクトルを算出する場合、第2階層703から抽出される空間候補ベクトル、及び第1階層704から抽出される階層候補ベクトルが誤って算出されていたとしても、第3のフレーム711の第2階層713から抽出された時間候補ベクトルを選択することで、このブロック706の動きベクトルを正確に算出することができる。また、第3階層702のブロック705において、第2階層703のブロック706の動きベクトルを階層候補ベクトルとして参照することで、第1のフレーム701の第3階層702から抽出された空間候補ベクトル、及び第3のフレーム711の第3階層712から抽出された時間候補ベクトルが誤っていたとしても、動きベクトルを正確に算出することができる。
 このように、本実施形態に係る動きベクトル検出装置においては、算出された動きベクトルを次のブロックの計算に使用する再帰処理を行うことによって、漸次的に動きベクトルの誤りを減少させることができる。さらに、再帰処理を空間、時間、階層にわたって逐次行うことにより誤りの少ない動きベクトルを推定することができる。
 次に、図8Aから図8Fを参照して、ベクトルメモリ102及び階層ベクトルメモリ103の構造を具体的に説明する。 
 ベクトルメモリ102は、注目ブロックを含む階層の各ブロックの動きベクトルを一時的に保存する。このため、ブロック数が最も多い階層、即ち、最も下位の階層に含まれるブロックの数だけ動きベクトルを格納可能な容量が用意されればよい。上述した例のように、最も下位の階層である第3階層の解像度が100ブロック×100ブロックである場合、ベクトルメモリ102には、10000個の動きベクトルを格納することができる容量が用意されればよい。ベクトルメモリ102では、動きベクトルは、ブロックの位置を示す情報と関連づけて記憶される。
 階層ベクトルメモリ103は、階層毎に動きベクトルを記憶するための領域が割り当てられ、決定された動きベクトルを階層毎に記憶する。上述した例のように、最も下位の階層である第3階層の解像度が100ブロック×100ブロック、第2階層の解像度が50ブロック×50ブロック、第1階層の解像度が25ブロック×25ブロックである場合、階層ベクトルメモリ103は、合計13125個の動きベクトルを格納可能な容量が用意されればよい。階層ベクトルメモリ103では、動きベクトルは、階層及びブロックの位置を示す情報と関連づけて記憶される。
 図8Aから図8Fでは、簡単にするために、階層数Lが3であり、第1階層が3ブロック×3ブロックに分割され、第2階層が4ブロック×4ブロックに分割され、第3階層が6ブロック×6ブロックに分割される場合における、ベクトルメモリ102及び階層ベクトルメモリ103の動作例が示されている。
 図8Aに示されるように、時刻tのフレームの第1階層において注目ブロックの動きベクトルを算出しているときには、階層ベクトルメモリ103には、時刻t-1のフレームの第1から第3階層の各ブロックにおいて算出された動きベクトルが格納されている。最適候補選択部202は、空間候補ベクトル、時間候補ベクトル及び階層候補ベクトルを参照して、第1階層内の各ブロックの動きベクトルを算出する。第1階層内のブロックの動きベクトルを算出する場合、第1階層より上位の階層が存在しないために、仮想的な階層が存在するものとして、参照する階層候補ベクトルはゼロベクトルとする。時間候補ベクトルは、階層ベクトルメモリ103に割り当てられた第1階層用の領域から抽出される。
 図8Bに示されるように、第1階層内の全てのブロックの動きベクトルが決定されると、ベクトルメモリ102に記憶されている情報が階層ベクトルメモリ内の第1階層用の領域へコピーされる。従って、階層ベクトルメモリ103では、第1階層用の領域には、時刻tのフレームに関連する動きベクトルが記憶され、第2及び第3階層用の領域には、時刻t-1のフレームに関連する動きベクトルが記憶されている。ベクトルメモリ102内の情報は、コピー終了後に消去されてもよく、或いは、次の第2階層に関する情報で上書きされてもよい。
 図8Cに示されるように、第2階層内のブロックの動きベクトルを算出するときには、階層ベクトルメモリ103に割り当てられた第1階層用の領域から階層候補ベクトルが抽出され、階層ベクトルメモリ103に割り当てられた第2階層用の領域から時間候補ベクトルが抽出され、ベクトルメモリ102から空間候補ベクトルが抽出される。図8Dに示されるように、第2階層内の全てのブロックの動きベクトルが決定されると、ベクトルメモリ102に記憶されている情報が階層ベクトルメモリ内の第2階層用の領域へコピーされる。
 続いて、図8Eに示されるように、第3階層内のブロックの動きベクトルを算出するときには、階層ベクトルメモリ103に割り当てられた第2階層用の領域から階層候補ベクトルが抽出され、階層ベクトルメモリ103に割り当てられた第3階層用の領域から時間候補ベクトルが抽出され、ベクトルメモリ102から空間候補ベクトルが抽出される。図8Fに示されるように、第3階層内の全てのブロックの動きベクトルが決定されると、ベクトルメモリ102に記憶されている情報が階層ベクトルメモリ内の第3階層用の領域へコピーされる。
 時刻tのフレームの全ての階層について動きベクトルの計算が終了すると、ベクトルメモリ102に記憶されている情報、即ち、時刻tのフレームの各ブロックの動きベクトルを含む情報が外部へ出力され、次の時刻t+1のフレームの処理が開始される。ここで、時刻t+1のフレームの処理を開始するときには、階層ベクトルメモリ103に記憶されている情報は、時刻tのフレームに関連する情報になっている。
 なお、上述の説明では、階層ベクトルメモリ103は、ベクトルメモリ102に記憶されている情報で随時上書きされるが、これに限定されず、階層ベクトルメモリ103の容量を増やして、複数の時刻のフレームに関連する動きベクトル情報を格納する構成としてもよい。複数の時刻のフレームに関連する動きベクトル情報を階層ベクトルメモリ103に格納することで、注目フレームの時刻と異なる時刻の複数のフレームに関連する動きベクトルを時間候補ベクトルとして抽出することができる。
 次に、図9を参照して、注目フレームの各ブロックの動きベクトルを決定する手順を説明する。 
 まず、ステップS901において、注目ブロックが所定の順序に従って選定される。ステップS902では、空間候補抽出部104によって空間候補ベクトルが、例えば数式1又は数式2に示されるように、特定の参照ブロックから選定される。ステップS903では、時間候補抽出部105によって時間候補ベクトルが、例えば数式3又は数式4に示されるように、特定の参照ブロックから選定される。ステップS904では、階層候補抽出部106によって階層候補ベクトルが、例えば数式5、数式6又は数式7に示されるように、特定の参照ブロックから選定される。ステップS902からS904は、適宜順序を入れ替えることができる。ステップS902からS904では、空間候補ベクトル、時間候補ベクトル及び階層候補ベクトルを含む候補ベクトルが選定される。
 ステップS905では、ステップS902からS904で選定された候補ベクトルに基づいて、注目ブロックの最適ベクトルが決定される。ステップS905は、図10を参照して後に説明される。ステップS906では、選定された最適ベクトルがベクトルメモリ102に記憶される。
 ステップS907では、処理中の階層内の全てのブロックの動きベクトルが決定されたか否かが判断される。動きベクトルが未決定のブロックが存在する場合、ステップS901に戻され、次の注目ブロックが選定される。ステップS901からS906が繰り返されて、処理中の階層内の全てのブロックの動きベクトルが決定されると、ステップS908に進む。
 ステップS908では、ベクトルメモリ102に記憶されている情報が階層ベクトルメモリ103へコピーされる。ステップS909では、注目フレームの全ての階層が処理されたか否かが判断される。即ち、注目フレームの最も下位の階層(例えば、第L階層)が処理されたか否かが判断される。未処理の階層が存在する場合、ステップS901に戻される。注目フレームの全ての階層が処理された場合、ステップS910において、ベクトルメモリ102に記憶されている情報が図示しない画像処理装置に出力され、一連の処理が終了する。
 次に、図10を参照して、注目ブロックの最適ブロックを決定する手順を説明する。 
 まず、ステップS1001では、縮小画像生成部201によって、これから処理する階層に応じた縮小画像が生成される。このステップS1001に示される縮小画像の生成は、フレーム受信時に予め実行されてもよい。ステップS1002では、例えば数式9に示されるように、最適候補選択部202によって、注目ブロックとの相関が最も大きい参照ブロックが特定され、特定された参照ブロックの候補ベクトルが最適候補ベクトルとして選択される。ステップS1003では、例えば数式15及び数式16に示されるように、探索部203によって、選定された最適候補ベクトルに基づいて最適ベクトルが決定される。
 以上のように、本実施形態に係る動きベクトル検出装置においては、既に決定された動きベクトルを使用して注目ブロックの動きベクトルを再帰的に算出することで、動きベクトルを検出する精度を向上することができる。
 本発明に係る動きベクトル検出装置は、種々の分野に応用することができる。例えば、動きベクトル検出装置は、高フレームレートを実現してテレビの画質を向上させるフレーム補間技術への利用では、動画像のフレーム間に内挿するフレームを生成する際に利用される。また、本発明に係る動きベクトル検出装置の検出精度の向上は、動画像符号化における符号化効率を向上させたり、カメラの手ぶれ補正の性能を向上させることができる。さらに、本発明に係る動きベクトル検出装置は、2次元の画像情報から3次元の奥行き情報を推定する技術にも利用することができる。
 なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
 上記の各実施形態に係る動きベクトル検出装置は、種々の画像処理技術、例えば、フレーム補間技術に利用することができる。
101…最適ベクトル決定部、102…ベクトルメモリ、103…階層ベクトルメモリ、104…空間候補抽出部、105…時間候補抽出部、106…階層候補抽出部、201…縮小画像生成部、202…最適候補選択部、203…探索部、204…動きベクトル決定部、301,302…フレーム、304…注目ブロック、305,306,307,313,314,315…参照ブロック

Claims (8)

  1.  第1の画像及び前記第1の画像とは異なる時刻に表示すべき第2の画像の夫々に対して、設定されるブロックの数を示す解像度が異なる複数の階層を生成する階層化部と、
     前記第1の画像に対応するいずれかの階層内の注目ブロックで、前記注目ブロックの属する階層内の第1の参照ブロックに対して、割り当てられている動きベクトルを空間候補ベクトルとして抽出する第1の抽出部と、
     前記第1及び第2の画像とは異なる時刻に表示すべき第3の画像に対応する前記注目ブロックの属する階層と同じ階層内の第2の参照ブロックに対して、割り当てられている動きベクトルを時間候補ベクトルとして抽出する第2の抽出部と、
     前記第1の画像に対応する階層であって、前記注目ブロックの属する階層よりも前記解像度が低い階層内の第3の参照ブロックに対して割り当てられている動きベクトルを階層候補ベクトルとして抽出する第3の抽出部と、
     前記注目ブロックに、前記空間候補ベクトル、時間候補ベクトル及び階層候補ベクトル夫々を割り当てることで特定される前記第2の画像に対応するブロックと、前記注目ブロックとの相関をブロック相関に基づいて前記注目ブロックに割り当てる動きベクトルを決定する動きベクトル決定部と、
     を具備することを特徴とする動きベクトル検出装置。
  2.  前記動きベクトル決定部は、前記空間候補ベクトル、時間候補ベクトル及び階層候補ベクトルのうち前記ブロック相関が最も大きくなる1つを最適候補ベクトルに選択し、当該最適候補ベクトルを変化させて複数の局所ベクトルを生成し、当該複数の局所ベクトルのうち、当該複数の局所ベクトルの夫々で特定される前記第1及び第2の画像に対応する画素間の相関が最も大きくなる1つを最適ベクトルとして選択し、当該最適ベクトルを前記注目ブロックに割り当てることを特徴とする請求項1に記載の動きベクトル検出装置。
  3.  前記階層化部は、前記第1及び第2の画像を縮小することで、或いは、分割するブロックのサイズを変更することで、前記第1及び第2の画像を階層化することを特徴とする請求項2に記載の動きベクトル検出装置。
  4.  前記階層候補抽出部は、前記注目ブロックが属している前記階層より、上位の複数の階層から前記第3の参照ブロックを選択することを特徴とする請求項2に記載の動きベクトル検出装置。
  5.  前記動きベクトル決定部は、前記第1、第2及び第3の参照ブロックの各々と、前記注目ブロックとの相関を重みとして加えて、前記ブロック相関を算出することを特徴とする請求項2に記載の動きベクトル検出装置。
  6.  前記動きベクトル決定部は、前記空間候補ベクトル、時間候補ベクトル及び階層候補ベクトルの各々を変化させて生成される局所ベクトルを含めて、前記ブロック相関を算出して前記最適ベクトルを決定することを特徴とする請求項1に記載の動きベクトル検出装置。
  7.  前記動きベクトル決定部は、前記階層毎に動きベクトルを決定することを特徴とする請求項1に記載の動きベクトル検出装置。
  8.  第1の画像及び前記第1の画像とは異なる時刻に表示すべき第2の画像の夫々に対して、設定されるブロックの数を示す解像度が異なる複数の階層を生成し、
     前記第1の画像に対応するいずれかの階層内に位置する注目ブロックの属する階層内の第1の参照ブロックに対して、割り当てられている動きベクトルを空間候補ベクトルとして抽出し、
     前記第1及び第2の画像とは異なる時刻に表示すべき第3の画像に対応する前記注目ブロックの属する階層と同じ階層内の第2の参照ブロックに対して、割り当てられている動きベクトルを時間候補ベクトルとして抽出し、
     前記第1の画像に対応する階層であって、前記注目ブロックの属する階層よりも前記解像度が低い階層内の第3の参照ブロックに対して割り当てられている動きベクトルを階層候補ベクトルとして抽出しと、
     前記注目ブロックに、前記空間候補ベクトル、時間候補ベクトル及び階層候補ベクトル夫々を割り当てることで特定される前記第2の画像に対応するブロックと、前記注目ブロックとの相関をブロック相関に基づいて前記注目ブロックに割り当てる動きベクトルを決定する、
     ことを特徴とする動きベクトル検出方法。
PCT/JP2009/071174 2009-12-18 2009-12-18 動きベクトル検出装置及び方法 WO2011074121A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2009/071174 WO2011074121A1 (ja) 2009-12-18 2009-12-18 動きベクトル検出装置及び方法
JP2011545919A JP5492223B2 (ja) 2009-12-18 2009-12-18 動きベクトル検出装置及び方法
US13/405,522 US9406376B2 (en) 2009-12-18 2012-02-27 Motion vector detection apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/071174 WO2011074121A1 (ja) 2009-12-18 2009-12-18 動きベクトル検出装置及び方法

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US13/405,522 Continuation US9406376B2 (en) 2009-12-18 2012-02-27 Motion vector detection apparatus and method
US13/405,523 Continuation US8509007B2 (en) 2012-02-27 2012-02-27 Hybrid read scheme for multi-level data

Publications (1)

Publication Number Publication Date
WO2011074121A1 true WO2011074121A1 (ja) 2011-06-23

Family

ID=44166910

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/071174 WO2011074121A1 (ja) 2009-12-18 2009-12-18 動きベクトル検出装置及び方法

Country Status (3)

Country Link
US (1) US9406376B2 (ja)
JP (1) JP5492223B2 (ja)
WO (1) WO2011074121A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014093602A (ja) * 2012-11-01 2014-05-19 Toshiba Corp 画像処理装置、画像処理方法、画像処理プログラム、および立体画像表示装置
JP2015176441A (ja) * 2014-03-17 2015-10-05 キヤノン株式会社 画像処理装置、その制御方法、および制御プログラム
US9582893B2 (en) 2014-04-24 2017-02-28 Kabushiki Kaisha Toshiba Motion vector detector, distance detector, motion vector detection method and computer program product
JP2017085598A (ja) * 2016-12-08 2017-05-18 株式会社東芝 画像処理装置、画像処理方法、画像処理プログラム、および立体画像表示装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6297822B2 (ja) * 2013-11-19 2018-03-20 ルネサスエレクトロニクス株式会社 検知装置、検知システム及び検知方法
US10891997B2 (en) 2017-12-28 2021-01-12 Spin Memory, Inc. Memory array with horizontal source line and a virtual source line

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004241880A (ja) * 2003-02-04 2004-08-26 Sony Corp 画像処理装置および方法、記録媒体、並びにプログラム
JP2009295029A (ja) * 2008-06-06 2009-12-17 Sony Corp 動き量検出装置及び動き量検出方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5072293A (en) 1989-08-29 1991-12-10 U.S. Philips Corporation Method of estimating motion in a picture signal
US7480334B2 (en) * 2003-12-23 2009-01-20 Genesis Microchip Inc. Temporal motion vector filtering
JP2008219141A (ja) * 2007-02-28 2008-09-18 Sanyo Electric Co Ltd 動きベクトル検出装置、それを用いた画像符号化装置および撮像装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004241880A (ja) * 2003-02-04 2004-08-26 Sony Corp 画像処理装置および方法、記録媒体、並びにプログラム
JP2009295029A (ja) * 2008-06-06 2009-12-17 Sony Corp 動き量検出装置及び動き量検出方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014093602A (ja) * 2012-11-01 2014-05-19 Toshiba Corp 画像処理装置、画像処理方法、画像処理プログラム、および立体画像表示装置
US10003782B2 (en) 2012-11-01 2018-06-19 Kabushiki Kaisha Toshiba Image processing device, method, computer-readable medium and 3D image display
JP2015176441A (ja) * 2014-03-17 2015-10-05 キヤノン株式会社 画像処理装置、その制御方法、および制御プログラム
US9582893B2 (en) 2014-04-24 2017-02-28 Kabushiki Kaisha Toshiba Motion vector detector, distance detector, motion vector detection method and computer program product
JP2017085598A (ja) * 2016-12-08 2017-05-18 株式会社東芝 画像処理装置、画像処理方法、画像処理プログラム、および立体画像表示装置

Also Published As

Publication number Publication date
JPWO2011074121A1 (ja) 2013-04-25
JP5492223B2 (ja) 2014-05-14
US9406376B2 (en) 2016-08-02
US20120213285A1 (en) 2012-08-23

Similar Documents

Publication Publication Date Title
JP6016061B2 (ja) 画像生成装置、画像表示装置及び画像生成方法並びに画像生成プログラム
CN105517671B (zh) 一种基于光流法的视频插帧方法及系统
RU2454721C2 (ru) Устройство и способ для формирования изображения, программа для его реализации и носитель информации, который хранит программу
TWI455588B (zh) 以雙向、局部及全域移動評估為基礎之框率轉換
US7936950B2 (en) Apparatus for creating interpolation frame
JP5492223B2 (ja) 動きベクトル検出装置及び方法
KR20100139030A (ko) 이미지들의 수퍼 해상도를 위한 방법 및 장치
RU2438179C1 (ru) Устройство и способ для формирования изображения, программа для его реализации и носитель информации, который хранит программу
JP2004104656A (ja) 動きベクトル検出方法、フレーム補間画像作成方法及び画像表示システム
KR20160004379A (ko) 이미지 안정화를 위한 이미지 융합 방법
JP2000244851A (ja) 画像処理装置、方法及びコンピュータ読み取り可能な記憶媒体
EP1815441B1 (en) Rendering images based on image segmentation
JP7233150B2 (ja) 奥行推定装置およびそのプログラム
JP2004356747A (ja) 画像のマッチング方法および装置
JP2014052855A (ja) 画像処理装置、その制御方法、および制御プログラム
JP2006215657A (ja) 動きベクトル検出方法、動きベクトル検出装置、動きベクトル検出プログラム及びプログラム記録媒体
JP5400655B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム、及び、電子機器
JP2013126123A (ja) 画像処理装置、撮像装置及び画像処理方法
JP2009065283A (ja) 画像ぶれ補正装置
JP2009187138A (ja) 対応点探索装置
JP2003134523A (ja) 撮像装置及び撮像方法
RU2308817C1 (ru) Способ и устройство масштабирования динамического видеоизображения
JP5963166B2 (ja) 画像復元装置、方法、及びプログラム
US9438908B1 (en) Motion vector interpolation based on true motion and layer information
JP2009004919A (ja) 動きベクトル処理装置、動きベクトル検出方法、動きベクトル検出プログラム、および該プログラムを記録した記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09852312

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2011545919

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09852312

Country of ref document: EP

Kind code of ref document: A1