WO2011036851A1 - 画像変換パラメータ算出装置、画像変換パラメータ算出方法およびプログラム - Google Patents

画像変換パラメータ算出装置、画像変換パラメータ算出方法およびプログラム Download PDF

Info

Publication number
WO2011036851A1
WO2011036851A1 PCT/JP2010/005518 JP2010005518W WO2011036851A1 WO 2011036851 A1 WO2011036851 A1 WO 2011036851A1 JP 2010005518 W JP2010005518 W JP 2010005518W WO 2011036851 A1 WO2011036851 A1 WO 2011036851A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
image
parameter
calculation
pixels
Prior art date
Application number
PCT/JP2010/005518
Other languages
English (en)
French (fr)
Inventor
仙田修司
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to US13/498,263 priority Critical patent/US8897601B2/en
Priority to JP2011532899A priority patent/JP5712925B2/ja
Publication of WO2011036851A1 publication Critical patent/WO2011036851A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform

Definitions

  • the present invention relates to an image conversion parameter calculation device, an image conversion parameter calculation method, and an image conversion parameter calculation program.
  • the position of the object in the image may be shifted due to a camera position shift or the like.
  • one image is converted and the images are aligned so that the position of the object included in the image is the same as the position of the object in the other images.
  • Such a method for obtaining conversion parameters for image alignment can be classified into a feature point-based method and a region-based method.
  • the feature point-based method is a method of extracting a feature point from each of two images to be aligned, associating the feature point between images, and obtaining a conversion parameter.
  • the region-based method is a method for specifying a conversion that minimizes the difference in luminance (pixel value) between images.
  • a gradient method is known as this method.
  • the region-based method is also called the Lucas-Kanade method.
  • Non-Patent Document 1 A region-based technique is described in Non-Patent Document 1.
  • the update amount of the conversion parameter is obtained, and the conversion parameter is converged while repeatedly updating the conversion parameter.
  • the update mode of the conversion parameter is classified into an additive algorithm (Additive Algorithm) and a synthetic algorithm (Compositional Algorithm).
  • the additive algorithm is an algorithm for updating the conversion parameter by adding the update amount of the conversion parameter to the conversion parameter.
  • the synthetic algorithm is an algorithm for updating the conversion parameter by synthesizing the update amount of the conversion parameter with the conversion parameter.
  • Non-Patent Document 1 when one image is converted and matched with the other image (reference image), the update amount of the conversion parameter is derived based on either the converted image or the reference image. From the viewpoint of whether to do so, it is classified into a forward algorithm and an inverse algorithm.
  • the forward algorithm is an algorithm for obtaining the update amount of the conversion parameter based on the image to be converted.
  • the inverse algorithm is an algorithm for obtaining the update amount of the conversion parameter based on the reference image.
  • Patent Document 1 describes an image registration method that is an extension of the method described in Non-Patent Document 1.
  • a region of interest is set in the reference image, and pixels smaller than all pixels in the region of interest are selected from all pixels in the region of interest.
  • a method for selecting and estimating a conversion parameter using only the selected pixel is described.
  • a method for selecting pixels smaller than all the pixels from all the pixels in the attention area a method of spatially thinning out the pixels in the attention area is shown. More specifically, it is shown that spatially discrete pixels are selected from the pixels in the region of interest. For example, it is shown that every ten pixels are selected for the pixels in the attention area.
  • Patent Document 1 also describes that a pixel is selected based on partial differentiation with respect to a deformation parameter of all pixels of the reference image. More specifically, it is shown that partial differentiation is determined for each pixel, and a pixel whose partial differentiation is larger than a threshold value is selected. It is also shown that the importance calculated from the partial differentiation is determined for each pixel, and a pixel having the importance greater than the threshold is selected.
  • Patent Document 2 describes a hierarchical Lucas-Kanade method (Pyramidal Lucas Kanade method).
  • the hierarchical Lucas-Kanade method alignment is possible even when the degree of deformation between images to be aligned is large.
  • the feature point-based method has a problem that the accuracy of the conversion parameter is lowered when an appropriate feature point cannot be extracted or when the feature points cannot be accurately associated with each other.
  • the region-based method is difficult to execute processing at high speed due to a large amount of calculation.
  • the amount of processing depends on the size of the image (that is, the number of pixels in the image), and if the size of the image becomes huge, the amount of processing increases.
  • Patent Document 1 shows a case where every tenth pixel is selected, but as the image becomes larger, the number of pixels to be selected increases, and as a result, the processing amount increases. Even in the hierarchical Lucas-Kanade method described in Patent Document 2, the processing amount increases as the processing target image increases.
  • pixels are thinned out spatially.
  • the pixel value of the image is periodic, there is a problem that the pixel value of the selected pixel is biased. For example, if the interval between selected pixels when selecting pixels by spatially thinning out the pixels matches the period of change in pixel value, the pixel values of the selected pixels will all be the same value, and accuracy The conversion parameter cannot be calculated well.
  • the present invention provides an image conversion parameter calculation apparatus, an image conversion parameter calculation method, and an image conversion parameter calculation method capable of accurately calculating conversion parameters for image alignment with a processing amount that does not depend on the size of an image to be aligned.
  • An object is to provide an image conversion parameter calculation program.
  • An image conversion parameter calculation apparatus includes a pixel selection unit that selects a predetermined number of pixels or a predetermined number of pixels or less at random from a first image, and a selection that is a pixel selected by the pixel selection unit.
  • Parameter derivation means for deriving conversion parameters for converting the second image to be image-aligned together with the first image into the first image by performing processing on the pixels is provided.
  • the image conversion parameter calculation method randomly selects a predetermined number or a predetermined number of pixels or less from the first image, and performs processing on the selected pixel that is the selected pixel.
  • a conversion parameter for deriving the second image to be subjected to image alignment together with the first image into the first image is derived.
  • the image conversion parameter calculation program selects, in a computer, a pixel selection process that selects a predetermined number of pixels or a predetermined number of pixels or less at random from the first image, and a pixel selection process.
  • a parameter derivation process for deriving a conversion parameter for converting the second image to be image-aligned with the first image into the first image is executed. It is characterized by.
  • the present invention it is possible to accurately calculate the conversion parameter for image alignment with a processing amount that does not depend on the size of the image to be aligned.
  • FIG. FIG. 1 is a block diagram showing an example of an image conversion parameter calculation apparatus according to the first embodiment of the present invention.
  • the image conversion parameter calculation apparatus 1 of the present invention holds a reference image and converts the input image so that the position of the object in the input image input from the outside matches the position of the object in the reference image.
  • the reference image may be input from the outside together with the input image.
  • the reference image may be represented by the symbol T and the input image may be represented by the symbol I.
  • the image conversion parameter calculation apparatus 1 includes a pixel selection unit 2, a selected pixel storage unit 5, and a parameter derivation unit 6.
  • Pixel selection means 2 selects pixels randomly from the reference image. The number of pixels to be selected from the reference image may be determined in advance.
  • the position of the pixel selected from the reference image is determined in advance. You only need to determine the number.
  • This pixel selection position is determined in advance as a random position without regularity.
  • the pixel selection means 2 should just select a pixel from each pixel selection position determined beforehand among the pixels in a reference
  • the pixel selection unit 2 determines, for example, the minimum value to the maximum value of the pixel coordinates for each of the x coordinate and the y coordinate. Random numbers may be generated in the range up to and a pixel having the generated random number as a coordinate value may be selected. Alternatively, the pixel selection unit 2 may generate a random number so that the pixel can be uniquely specified from each generated random number, and select a pixel that is uniquely determined from the generated random number. Then, the pixel selection means 2 may generate a random number and repeat the process of selecting a pixel determined by the random number a predetermined number of times.
  • the pixels to be selected are also overlapped, and the number of pixels to be selected is smaller than the number of random numbers generated. That is, even if a random number is generated a predetermined number of times in order to select a desired number of pixels, the number of pixels to be selected may be smaller than the desired number. However, such a decrease in pixels is negligible.
  • the pixel selection means 2 may increase the number of random number generation until a desired number of pixels is obtained when random numbers are generated in duplicate, but the processing amount increases accordingly. Therefore, the pixel selection unit 2 may end the pixel selection when the process of generating a random number and selecting a pixel is repeated a predetermined number of times.
  • the pixel selecting means 2 may create a random set of pixels in which all the pixels of the reference image are arranged in a random order, and select a predetermined number of pixels from the set. Also in this case, pixels can be selected at random.
  • the above pixel selection processing is an example, and the pixel selection processing by the pixel selection means 2 is not limited to the above example.
  • the pixel selection unit 2 may select pixels from the reference image by other methods as long as the process selects the pixels of the reference image at random.
  • each pixel (selection pixel) of the pixel selecting unit 2 selects the reference image T, and be represented by the symbol T R.
  • T R without using the symbols T R, sometimes simply referred to such as "selected pixels".
  • the selected pixel storage means 5 is a storage device that stores the pixel position and pixel value (luminance value) of the reference image selected by the pixel selection means 2.
  • the pixel selection unit 2 causes the selected pixel storage unit 5 to store the position and pixel value of the selected pixel.
  • the pixel selection unit 2 may store, for example, coordinates as the position of the selected pixel. Further, when the pixel can be uniquely identified from the individual random numbers generated by the pixel selection unit 2 and the random number value represents the position of the pixel, the pixel selection unit 2 uses the generated random number value instead of the coordinates. You may memorize
  • the parameter deriving unit 6 performs a process on the selected pixel selected by the pixel selecting unit 2 to derive a conversion parameter for converting the input image so as to match the reference image.
  • the parameter deriving unit 6 does not execute processing related to pixels that are not selected by the pixel selecting unit 2.
  • the parameter derivation means 6 includes preprocessing means 3 and parameter calculation means 4.
  • the parameter calculation means 4 determines the conversion parameter for converting the input image into the reference image by obtaining the update amount of the conversion parameter and repeating the update of the conversion parameter. At this time, the parameter calculation means 4 should just start a process from the predetermined initial value of the conversion parameter. By updating the conversion parameter from this initial value, the parameter calculation means 4 determines the conversion parameter.
  • the preprocessing unit 3 and the parameter calculation unit 4 refer to the position and pixel value of the selected pixel stored in the selected pixel storage unit 5 and perform processing on the selected pixel.
  • the preprocessing unit 3 performs preprocessing of the processing of the parameter calculation unit 4.
  • the preprocessing unit 3 includes a differentiation unit 31 and a parameter update amount calculation preprocessing unit 32.
  • Differentiating means 3 calculates the derivative (slope) at the pixel T R selected from the reference image T. This differential, expressed as ⁇ T R. Differentiating means 3 calculates the ⁇ T R for each selected pixel T R. In calculating the ⁇ T R for each selected pixel, differential unit 3, using the pixel values of pixels around the selected pixel that is the calculation target of ⁇ T R. That is, the differential unit 3 is, rather than computing the ⁇ T R from the entire reference image T, calculate the ⁇ T R from pixels around the selected pixel. In this embodiment, the differential unit 3 calculates the ⁇ T R from the pixel values of pixels adjacent to the selected pixel. It will be described later calculation of specific ⁇ T R.
  • the parameter update amount calculation preprocessing means 32 performs preprocessing of the conversion parameter update amount calculation by the parameter calculation means 4.
  • a case where an inverse compositional algorithm is applied will be described as an example.
  • the parameter update amount calculation pre-processing means 32 to which the inverse compositional algorithm is applied will be described later.
  • the parameter update amount calculation preprocessing unit 32 may perform preprocessing according to the algorithm.
  • the parameter calculation unit 4 includes a post-conversion pixel value calculation unit 41, a difference calculation unit 42, a parameter update amount calculation unit 43, a parameter update unit 44, and a condition determination unit 45.
  • the converted pixel value calculation means 41 converts the coordinates of the pixel position in the input image I corresponding to the selected pixel selected from the reference image T based on the conversion parameter, and interpolates the pixel value.
  • the post-conversion pixel value calculation means 41 obtains the pixel value at the post-conversion pixel position when the coordinates of the pixel of the input image corresponding to the selected pixel are converted by this processing.
  • the conversion of the coordinates of the pixel position X by the conversion parameter p is represented by the symbol W (X; p).
  • the converted pixel value obtained by the converted pixel value calculation unit 41 is represented by I (W (X; p)). I (W (X; p)) is not obtained by the process for the entire image, but by the process for the selected pixel.
  • the conversion W (X; p) is shown.
  • the translation can be expressed by using two parameters (referred to as p 1 and p 2 ) as the conversion parameter p.
  • the transformation W (X; p) can be expressed as in the following formula (1).
  • the affine transformation can be expressed using six parameters (p 1 to p 6 ) as the transformation parameter p.
  • the transformation W (X; p) can be expressed as shown in the following equation (2).
  • the difference calculation unit 42 converts the pixel value I (W (X; p)) at the pixel position after conversion when the coordinates of the pixel of the input image corresponding to the selected pixel are converted, and the pixel of the selected pixel from the reference image T.
  • the difference from the value (denoted T R (X)) is calculated. That is, the difference calculation means 42 calculates I (W (X; p)) ⁇ T R (X) for the corresponding I (W (X; p)) and T R (X).
  • the parameter update amount calculation unit 43 calculates the update amount of the conversion parameter using the processing result of the preprocessing unit 3.
  • the update amount of this conversion parameter is denoted by ⁇ p.
  • a method of calculating ⁇ p in the inverse compositional algorithm will be described later.
  • the parameter update unit 44 updates the current conversion parameter using the conversion parameter update amount ⁇ p.
  • the parameter updating unit 44 updates the conversion parameter by synthesizing ⁇ p with the current conversion parameter.
  • the parameter update amount calculation means 43 may calculate ⁇ p by a method according to the algorithm.
  • the parameter updating unit 44 may also update the conversion parameter by a method according to the algorithm.
  • the condition determining means 45 determines whether or not a predetermined condition is satisfied. When a predetermined condition is satisfied, the latest conversion parameter updated by the parameter update unit 44 is determined to be a conversion parameter representing conversion from the input image to the reference image.
  • Preprocessing means 3 differentiation means 31 and parameter update amount calculation preprocessing means 32
  • parameter calculation means 4 post-conversion pixel value calculation means 41, difference calculation means 42, parameter update amount calculation means 43, parameter update means 44 and conditions
  • the parameter derivation means 6 including the determination means 45) and the pixel selection means 2 are realized by a CPU of a computer that operates according to an image conversion parameter calculation program, for example.
  • a program storage device (not shown) of the computer stores the image conversion parameter calculation program, and the CPU reads the program, and each of the pixel selection means 2 and the parameter derivation means 6 included in the program according to the program. What is necessary is just to operate
  • FIG. 2 is a flowchart illustrating an example of processing progress of the first embodiment. It is assumed that the input image has already been input to the image conversion parameter calculation device.
  • the pixel selection means 2 randomly selects a predetermined number of pixels from the reference image (step S1).
  • the pixel selection unit 2 may repeat, for example, a predetermined number of times by generating a random number and selecting a pixel corresponding to the random number.
  • a predetermined number of pixels may be randomly selected by another method.
  • the number of selected pixels may not reach a predetermined number due to duplication of random numbers, but such a decrease in pixels is negligible, so it is strictly predetermined. The number of pixels may not be selected.
  • the pixel selection means 2 stores the pixel position and pixel value of the pixel selected from the reference image in the selected pixel storage means 5 in step S1.
  • the preprocessing means 3 performs preprocessing (step S2).
  • the parameter calculation means 4 determines the conversion parameter by repeatedly obtaining the update amount of the conversion parameter using the result of the preprocessing and updating the conversion parameter (step S3).
  • FIG. 3 is a flowchart showing an example of the progress of the pre-processing (step S2).
  • the first differential unit 31 calculates the differential ⁇ T R at each selected pixel is randomly selected from the reference image (step S1). Specifically, the differential unit 31 calculates the ⁇ T R in the x direction, and a ⁇ T R in the y direction.
  • the coordinates of the selected pixel T R (x, y) is taken as the ⁇ T R and y ⁇ T R in the x direction at the selected pixel, respectively ⁇ T Rx (x, y), ⁇ T Ry ( x, y).
  • the differentiating means 31 when calculating the ⁇ T R about the selected pixel, using the pixel values of pixels adjacent to the selected pixel. That is, the differentiating means 31 performs a process of convolving the filter ( ⁇ 1 0 1) on the selected pixel when obtaining ⁇ T Rx (x, y). Specifically, the differentiating means 31 calculates ⁇ T Rx (x, y) by calculation of the following formula (3).
  • ⁇ T Rx (x, y) ⁇ T R (x + 1, y) ⁇ T R (x ⁇ 1, y) ⁇ / 2 Equation (3)
  • the differentiation means 31 performs a process of convolving the filter ( ⁇ 1 0 1) T with respect to the selected pixel when obtaining ⁇ T Ry (x, y).
  • This T represents a transposed matrix. That is, the differentiating means 31 calculates ⁇ T Ry (x, y) by calculation of the following formula (4).
  • ⁇ T Ry (x, y) ⁇ T R (x, y + 1) ⁇ T R (x, y ⁇ 1) ⁇ / 2 Equation (4)
  • the parameter update amount calculation preprocessing means 32 calculates a Jacobian matrix related to the transformation W (X; p) for each selected pixel (step S12). However, here, (X; p) in the transformation W (X; p) is assumed to be (X; 0).
  • T is represented, W (X; p)
  • the Jacobian matrix related to is expressed as shown in Equation (5) below.
  • the Jacobian matrix is not obtained by processing the entire image, but by processing related to the selected pixel.
  • step S12 the parameter update amount calculation pre-processing means 32, for each selected pixel, calculating a ⁇ T R calculated in step S11, the product of the Jacobian matrix calculated in step S12. That is, the following equation (6) is calculated (step S13).
  • the parameter update amount calculation preprocessing means 32 calculates the Hessian matrix H using the result obtained in step S13 for each selected pixel (step S14).
  • the parameter update amount calculation pre-processing means 32 may obtain the Hessian matrix H by the calculation of the following equation (7).
  • FIG. 4 is a flowchart showing an example of the progress of the conversion parameter calculation process (step S3 shown in FIG. 2).
  • the converted pixel value calculation means 41 converts the coordinates of the pixel position in the input image I corresponding to the selected pixel selected from the reference image T based on the conversion parameter, and interpolates the pixel value.
  • the post-conversion pixel value calculation means 41 calculates the pixel value I (W (X; p)) at the post-conversion pixel position when the coordinates of the pixel of the input image corresponding to the selected pixel are transformed by this processing ( Step S21).
  • the post-conversion pixel value calculation means 41 performs this process for each pixel of the input image corresponding to the selected pixel selected from the reference image T.
  • the difference calculation means 42 calculates the difference between I (W (X; p)) calculated in step S21 and the pixel value T R (X) of the selected pixel selected from the reference image T ( Step S22). That is, the difference calculation means 42 calculates I (W (X; p)) ⁇ T R (X) for the corresponding I (W (X; p)) and T R (X).
  • the parameter update amount calculation unit 43 calculates the result of the preprocessing step S13 (see FIG. 3) and the step S22.
  • the following formula (8) is calculated using the difference calculated in (Step S23).
  • the parameter update amount calculation means 43 performs, for each selected pixel, a process of multiplying the transposed matrix of the matrix obtained as a result of step S13 (see equation (6)) by the difference calculated in step S22, and multiplying the selected pixel. Calculate the sum of the results.
  • the parameter update amount calculation means 43 calculates the conversion parameter update amount ⁇ p using the calculation result of step S23 and the Hessian matrix (step S24).
  • the conversion parameter update amount ⁇ p can be expressed by the following equation (9).
  • the parameter update amount calculation means 43 calculates ⁇ p by multiplying the inverse matrix of the Hessian matrix H calculated in the preprocessing step S14 (see FIG. 3) by the calculation result of Expression (8).
  • the parameter update unit 44 synthesizes ⁇ p with the conversion parameter by the following equation (10), and updates the conversion parameter (step S25).
  • step S25 composition according to the conversion model may be performed.
  • condition determination unit 45 determines whether or not a predetermined condition for ending the repetition of the conversion parameter update is satisfied (step S26).
  • condition determination means 45 determines whether or not the following expression (11) is satisfied with respect to ⁇ p calculated in the latest step S24, and if the expression (11) is satisfied: If it is determined that the predetermined condition is satisfied.
  • Equation (11) is a predetermined threshold value. That is, Expression (11) indicates that the conversion parameter update amount ⁇ p is smaller than a predetermined reference.
  • the condition determination unit 45 determines the conversion parameter calculated in the latest step S25 as a parameter representing conversion from the input image to the reference image ( Step S27).
  • the condition determining unit 45 determines that the predetermined condition is not satisfied.
  • the parameter calculation means 4 repeats the process after step S21 using the conversion parameter updated by the latest step S25.
  • the parameter calculation means 4 ends the process by determining the conversion parameter in step S27.
  • the pixel selection unit 2 randomly selects a pixel from the reference image, and the parameter deriving unit 6 performs a process on the selected pixel to derive a conversion parameter. Since the pixel selection unit 2 selects pixels at random, the number of pixels to be selected can be reduced to a certain number or less without depending on the size of the reference image. Therefore, even if the number of pixels of the reference image changes, the processing cost for conversion parameter calculation can be kept constant.
  • the method described in Patent Document 1 selects discrete pixels spatially, so that if the number of pixels in the reference image increases, the pixel to be selected The number increases, and as a result, the processing cost for conversion parameter calculation also increases.
  • the pixel selection unit 2 randomly selects pixels from the reference image without depending on the number of pixels of the reference image, the number of selected pixels is kept constant regardless of the number of pixels of the reference image. Can be suppressed. As a result, in the present invention, even when the number of pixels of the reference image is large, the processing cost for conversion parameter calculation can be kept constant.
  • the pixel selection unit 2 randomly selects a pixel from the reference image, even if the pixel value of the reference image has periodicity, the pixel value of the pixel to be selected is prevented from being biased. Can do. Therefore, the conversion parameter can be calculated with high accuracy.
  • FIG. FIG. 5 is a block diagram showing an example of an image conversion parameter calculation apparatus according to the second embodiment of the present invention. Constituent elements similar to those in the first embodiment are denoted by the same reference numerals as those in FIG. 1, and detailed description thereof is omitted.
  • the image conversion parameter calculation device 1a according to the second embodiment includes a pixel selection unit 2a, a selected pixel storage unit 5, and a parameter derivation unit 6.
  • the selected pixel storage means 5 and the parameter derivation means 6 are the same as in the first embodiment. That is, the image conversion parameter calculation device 1a according to the second embodiment includes a pixel selection unit 2a instead of the pixel selection unit 2 according to the first embodiment.
  • the pixel selection means 2a randomly extracts a pixel from the reference image, and when the pixel satisfies a predetermined standard, selects the pixel as a pixel used for calculation of the conversion parameter. By repeating this process, the pixel selector 2a selects a predetermined number of pixels to be used for calculating the conversion parameter.
  • the pixel selection unit 2 a includes a pixel extraction unit 21 and a reference determination unit 22.
  • Pixel extraction means 21 extracts (takes out) pixels randomly from the reference image.
  • extraction means simply extracting a pixel, and distinguishing it from selecting it as a pixel used for calculation of a conversion parameter.
  • the reference determination means 22 determines whether or not the pixel extracted by the pixel extraction means 21 satisfies the reference, and if it satisfies the reference, selects the pixel as a pixel used for calculation of the conversion parameter.
  • An example of this criterion is a criterion that the partial differentiation in the extracted pixel is equal to or greater than a predetermined threshold.
  • the reference determined by the reference determination means 22 is not limited to this reference. For example, a criterion that “the extracted pixel is not a pixel in a region where noise occurs in the reference image” may be used.
  • Pixel selection unit 2a (pixel extraction unit 21 and reference determination unit 22) is realized by a CPU of a computer that operates according to an image conversion parameter calculation program, for example.
  • the CPU may read the image conversion parameter calculation program and operate as each unit included in the pixel extraction unit 21, the reference determination unit 22, and the parameter derivation unit 6 of the pixel selection unit 2a according to the program.
  • each unit shown in FIG. 5 may be realized by different hardware.
  • the image conversion parameter calculation device 1a also executes processing in the order of the flowchart shown in FIG. That is, the pixel selection unit 2a selects a pixel from the reference image (step S1). Then, the preprocessing unit 3 executes preprocessing (step S2), and the parameter calculation unit 4 determines conversion parameters for conversion from the input image I to the reference image T (step S3).
  • the pixel selection process (step S1) is different from the first embodiment.
  • FIG. 6 is a flowchart showing an example of the process progress of the pixel selection process (step S1) in the second embodiment.
  • the pixel extracting means 21 creates a random set of pixels in which all the pixels of the reference image are arranged in a random order (step S31).
  • this set of pixels is referred to as a random set.
  • the pixel extracting means 21 extracts one pixel from the random set (step S32).
  • the reference determination means 22 determines whether or not the pixel extracted in step S32 satisfies a predetermined reference (step S33).
  • a reference a reference that contributes to improving the accuracy of the conversion parameter is determined in advance.
  • the reference determination unit 22 calculates a partial differential with respect to the conversion parameter for the pixel extracted in step S32, and determines whether the partial differential is equal to or greater than a predetermined threshold. If the partial differentiation is equal to or greater than the threshold value, the criterion is satisfied. If the partial differentiation is less than the threshold value, the criterion is not satisfied.
  • the pixel selecting unit 2a repeats the processes in and after step S32.
  • the reference determination unit 22 selects the pixel extracted in step S32 as a pixel used for calculation of the conversion parameter. Then, the pixel position (coordinates) and pixel value of the pixel are stored in the selected pixel storage means 5.
  • the reference determination unit 22 determines whether or not the number of pixels (selected pixels) selected as pixels used for calculation of the conversion parameter has reached a predetermined number (step S35). For example, the reference determination unit 22 may determine whether or not the number of pixels whose pixel positions and pixel values are stored in the selected pixel storage unit 5 has reached a predetermined number.
  • the pixel selecting means 2a repeats the processing after step S32.
  • step S1 when the number of selected pixels reaches a predetermined number, the pixel selecting means 2a ends the pixel selecting process (step S1, see FIG. 2).
  • step S2 Subsequent preprocessing (step S2) and conversion parameter calculation (step S3) are the same as those in the first embodiment, and a description thereof will be omitted.
  • the pixel selection unit 2a selects pixels that are randomly extracted and satisfy a predetermined criterion. Then, the preprocessing unit 3 and the parameter calculation unit 4 perform processing on the pixel to calculate the conversion parameter. Therefore, according to the second embodiment, the same effect as that of the first embodiment can be obtained, and the accuracy of the conversion parameter can be further improved.
  • the reference determination unit 22 determines whether or not the pixel satisfies the reference. Therefore, it is not determined whether or not all the pixels of the reference image satisfy the standard, and thus an increase in processing cost can be prevented.
  • a desired number of pixels satisfying the criterion can be selected at random regardless of how many desired selection pixels are set. Comparing the method described in Patent Document 1 with the present invention, even in the method described in Patent Document 1, a pixel whose importance is equal to or greater than a threshold value is selected. However, since the method described in Patent Document 1 selects spatially discrete pixels, the number of selected pixels cannot be suppressed to a desired number, and when the number of pixels of the reference image is large, the selected pixel The number also increases and the processing cost increases.
  • a case is shown in which a partial differential with respect to the extracted pixel is calculated and the partial differential is compared with a threshold value.
  • the reference determination unit 22 may further calculate an index indicating the goodness of the pixel from the calculated partial differentiation, and compare the index with a threshold value. Then, it may be determined that the criterion is satisfied if the index is equal to or greater than the threshold, and that the criterion is not satisfied if the index is less than the threshold.
  • the “pixel goodness” is appropriateness of the pixel from the viewpoint that the accuracy of the conversion parameter can be improved.
  • Pixel partial differentiation is also an aspect of this index.
  • the reference determination means 22 converts this index (which may be the result of partial differentiation itself) to a value in the range of 0 to 1, and whether or not the reference is satisfied by comparison with a random number. May be determined. Specifically, the reference determination unit 22 converts the index into a value in the range of 0 to 1. Then, the reference determination unit 22 generates a random number having a value in the range of 0 to 1. The reference determination means 22 may determine that the criterion is satisfied if the converted index is equal to or greater than the random value, and may determine that the criterion is not satisfied if the converted index is less than the random value. By performing the determination process in step S33 in this way, it is possible to prevent the pixel having a small index from being selected. That is, the robustness of random pixel selection can be improved.
  • a criterion that “the extracted pixel is not a pixel in a region where noise occurs in the reference image” may be used.
  • the reference determination unit 22 determines whether or not the pixel extracted by the pixel extraction unit 21 is a region where noise is generated (hereinafter referred to as a noise region). If the pixel is not a pixel in the noise region, it may be determined that the criterion is satisfied (Yes in step S33). If the extracted pixel is a pixel in the noise region, it may be determined that the criterion is not satisfied (No in step S33).
  • the reference determination unit 22 may determine whether or not the extracted pixel is a noise region pixel using a bilateral filter.
  • FIG. FIG. 7 is a block diagram illustrating an example of an image conversion parameter calculation apparatus according to the third embodiment of the present invention. Constituent elements similar to those in the first embodiment are denoted by the same reference numerals as those in FIG. 1, and detailed description thereof is omitted.
  • the image conversion parameter calculation device 1b according to the third embodiment includes a pixel selection unit 2, a selected pixel storage unit 5, and a parameter derivation unit 6b.
  • the pixel selection unit 2 and the selected pixel storage unit 5 are the same as those in the first embodiment.
  • the parameter deriving means 6b performs preprocessing and parameter calculation once, and then performs second preprocessing and parameter calculation.
  • Parameter deriving means 6b is a first pre-treatment, as compared to the second pre-processing is calculated blurred ⁇ T R. Then, in the parameter calculation after the second preprocessing, the parameter deriving means 6b calculates the conversion parameter using the conversion parameter obtained by the parameter calculation after the first preprocessing.
  • the parameter deriving unit 6b includes a preprocessing unit 3b that executes preprocessing and a parameter calculation unit 4 that calculates conversion parameters using the result of the preprocessing.
  • the preprocessing unit 3b performs preprocessing and the parameter calculation unit 4 performs parameter calculation twice.
  • the preprocessing unit 3b includes a differentiating unit 31, a second differentiating unit 31b, and a parameter update amount calculation preprocessing unit 32.
  • Differentiating means 31 is similar to the differentiation means 31 in the first embodiment and the second embodiment, taking the derivative ⁇ T R in the selected pixel. However, differentiation means 31 calculates the ⁇ T R in the second pre-processing. The second differentiating means 31b also calculates the differential ⁇ T R in the selected pixel. However, the second differentiating means 31b calculates the ⁇ T R by the first pre-processing.
  • Second differentiating means 31b when calculating the ⁇ T R by the first pre-processing, as compared with the calculation of ⁇ T R of differentiating means 31 is carried out in the second pre-processing is calculated blur ⁇ T R .
  • the second differentiating means 31b not only pixels adjacent to the selected pixel, further also calculates the ⁇ T R with the surrounding pixels.
  • Parameter update amount calculation preprocessing unit 32 is the same as the parameter update amount calculation preprocessing means 32 in the first embodiment, the pre-processing of the update amount calculation of transformation parameters using ⁇ T R.
  • Parameter update amount calculation pre-processing means 32 is a first pre-processing, performs pre-processing of the update amount calculation of transformation parameters using ⁇ T R calculated in the second differentiating means 31b. Further, in the second pre-processing, the pre-processing of the update amount calculation of transformation parameters using ⁇ T R calculated in the differential unit 31.
  • the parameter calculation unit 4 includes a post-conversion pixel value calculation unit 41, a difference calculation unit 42, a parameter update amount calculation unit 43, a parameter update unit 44, and a condition determination unit 45.
  • the post-conversion pixel value calculation unit 41, the difference calculation unit 42, the parameter update amount calculation unit 43, the parameter update unit 44, and the condition determination unit 45 are respectively the post-conversion pixel value calculation unit 41 and the difference calculation unit in the first embodiment. 42, the same process as the parameter update amount calculation unit 43, the parameter update unit 44, and the condition determination unit 45 is performed. However, the parameter calculation means 4 performs the parameter calculation processing after the two preprocessings.
  • Preprocessing means 3b differentiated means 31, second differentiation means 31b and parameter update amount calculation preprocessing means 32
  • parameter calculation means 4 converted pixel value calculation means 41, difference calculation means 42, parameter update amount calculation means 43
  • the parameter deriving unit 6b including the parameter updating unit 44 and the condition determining unit 45) and the pixel selecting unit 2 are realized by a CPU of a computer that operates according to an image conversion parameter calculation program, for example.
  • the program storage device (not shown) of the computer stores the image conversion parameter calculation program, and the CPU reads the program, and each of the pixel selection means 2 and the parameter derivation means 6b included in the program according to the program. What is necessary is just to operate
  • FIG. 8 is a flowchart illustrating an example of processing progress of the third embodiment.
  • the pixel selection means 2 randomly selects a predetermined number of pixels from the reference image (step S41).
  • the pixel selection process in step S41 is the same as step S1 in the first embodiment.
  • the preprocessing means 3b performs the first preprocessing (step S42).
  • the first preprocessing (step S42) will be described with reference to the flowchart shown in FIG.
  • first, second differentiating means 31b calculates the differential ⁇ T R at each selected pixel selected from the reference image (step S11). Specifically, the second differentiating means 31b calculates ⁇ T Rx (x, y) in the x direction and ⁇ T Ry (x, y) in the y direction. This is the same as in the first embodiment. However, the second differentiating means 31b, in the processing prior to the first, in comparison with ⁇ T R calculated in the second pre-processing by the differentiating means 31, calculates blurring the ⁇ T R.
  • FIG. 9 is an explanatory diagram showing an example of a filter used for the calculation of ⁇ T R by the first pre-processing.
  • the second differentiating unit 31b may calculate (T Rx (x, y) by performing convolution on the selected pixel using the filter shown in FIG.
  • ⁇ T Rx (x, y) for example, the element in the central vertical column is 0, each element on the right side of the central vertical column is 1, and the left side of the central vertical column is 1 A filter in which each element is 1 can be used (see FIG. 9A).
  • the convolution according to FIG. 9A corresponds to the convolution of two filters shown in FIG. 9B.
  • the second differentiating unit 31b may calculate ⁇ T Ry (x, y) by performing convolution on the selected pixel using a filter shown in FIG. 9C, for example.
  • ⁇ T Ry (x, y) for example, the elements in the central horizontal row are 0, the elements above the central horizontal row are ⁇ 1, and from the central horizontal row Also, a filter in which each lower element is 1 can be used (see FIG. 9C). Note that the convolution according to FIG. 9C corresponds to the convolution of two filters shown in FIG.
  • Filter shown in FIG. 9 (a), (c) is an illustration of a filter used for the calculation of ⁇ T R by the first pre-processing, the second differentiating means 31b may use other filters.
  • the parameter update amount calculation pre-processing means 32 After the calculation of ⁇ T R, the parameter update amount calculation pre-processing means 32, for each selected pixel, converting W; computing the (X p) regarding Jacobian matrix (step S12). Next, the parameter updating amount calculating pre-processing means 32, for each selected pixel, calculating a ⁇ T R calculated in step S11, the product of the calculated Jacobian matrix at step S12 (step S13). Next, the parameter update amount calculation preprocessing means 32 calculates a Hessian matrix H (step S14). The processes in steps S12 to S14 are the same as in the first embodiment.
  • the parameter calculation means 4 performs the first parameter calculation process (step S43).
  • the first parameter calculation process will be described with reference to the flowchart shown in FIG.
  • the converted pixel value calculation unit 41 converts the coordinates of the pixel position in the input image I corresponding to the selected pixel selected from the reference image T based on the conversion parameter, and interpolates the pixel value.
  • the post-conversion pixel value calculation means 41 calculates I (W (X; p)) by this processing (step S21).
  • the difference calculation means 42 calculates the difference between I (W (X; p)) calculated in step S21 and the pixel value T R (X) of the selected pixel (step S22).
  • the parameter update amount calculation means 43 calculates Equation (8) using the calculation result of Step S13 in the first preprocessing and the difference calculated in Step S22 (Step S23).
  • the parameter update amount calculation means 43 calculates the conversion parameter update amount ⁇ p using the calculation result and the Hessian matrix (step S24).
  • the parameter update unit 44 combines ⁇ p with the conversion parameter according to the equation (10), and updates the conversion parameter (step S25).
  • the processes in steps S21 to S25 are the same as in the first embodiment.
  • the condition determination means 45 determines whether or not a predetermined condition for ending the repetition of the conversion parameter update is satisfied (step S26). This determination may be performed in the same manner as in the first embodiment. If the predetermined condition is not satisfied (No in step S26), the parameter calculation unit 4 repeats the processing after step S21 using the updated conversion parameter. If the predetermined condition is satisfied (Yes in step S26), the condition determining unit 45 determines the conversion parameter calculated in the latest step S25 as the first conversion parameter calculation result (step S27). With the above processing, the parameter calculation means 4 ends the first parameter calculation processing (step S43).
  • the preprocessing means 3b performs the second preprocessing (step S44).
  • the second preprocessing (step S44) will be described with reference to the flowchart shown in FIG.
  • differentiating means 31 calculates the differential ⁇ T R at each selected pixel selected from the reference image (step S11).
  • differentiating means 31 without blurring the ⁇ T R, compute the similarly ⁇ T R in the first embodiment. That is, the differentiating unit 31 performs calculation of Expression (3) and Expression (4) using the pixel value of the pixel adjacent to the selected pixel, and ⁇ T Rx (x, y) and ⁇ T Ry (x, y) is calculated.
  • the parameter update amount calculation pre-processing means 32 After the calculation of ⁇ T R, the parameter update amount calculation pre-processing means 32, as in the case of first pre-processing, the steps S12 ⁇ S14. However, the parameter update amount calculation pre-processing means 32 performs the steps S12 ⁇ S14 using ⁇ T R calculated by the differentiating means 31.
  • the parameter calculation means 4 performs a second parameter calculation process (step S46).
  • the loop process of steps S21 to S26 shown in FIG. 4 is executed with the conversion parameter obtained in the first parameter calculation process (step S43) as an initial value. If the predetermined condition is satisfied in step S26 (Yes in step S26), the condition determining unit 45 determines the conversion parameter calculated in the latest step S25 as the second conversion parameter calculation result (step S26). S27). Each process of steps S21 to S27 is the same as the first parameter calculation process (step S43).
  • the conversion parameter determined in step S27 executed in the second parameter calculation process (step S45) is the finally obtained conversion parameter.
  • calculation is performed by blurring ⁇ T in the first preprocessing (step S42).
  • the conversion parameter update amount per loop processing does not have to be reduced.
  • the conversion parameter can be calculated in more detail based on the conversion parameter calculated in step S43 without blurring ⁇ T.
  • the degree of freedom of the parameters of the conversion model may be reduced in the first preprocessing as compared to the second preprocessing.
  • the first preprocessing calculation is performed by applying a translation with a parameter degree of freedom of 2 as the transformation W (X; p), and in the second preprocessing, an affine transformation with a parameter degree of freedom of 6 is applied. May be used.
  • the method of applying the conversion model is not limited to this example.
  • translation may be applied in the first preprocessing, and homography conversion may be performed in the second preprocessing.
  • the post-conversion pixel value calculation unit 41, the difference calculation unit 42, the parameter update amount calculation unit 43, and the parameter update unit 44 use the same conversion model as the first preprocessing when calculating the parameters after the first preprocessing. Calculation is performed using the applied W (X; p), and calculation is performed using W (X; p) to which the same conversion model as the second preprocessing is applied at the time of parameter calculation after the second preprocessing. .
  • FIG. 10 is a block diagram illustrating an example of an image conversion parameter calculation apparatus according to the fourth embodiment of the present invention. Constituent elements similar to those in the first embodiment are denoted by the same reference numerals as those in FIG. 1, and detailed description thereof is omitted.
  • the image conversion parameter calculation device 1c according to the fourth embodiment includes a pixel selection unit 2, a selected pixel storage unit 5, a parameter derivation unit 6c, and a moving object pixel determination unit 7.
  • the pixel selection unit 2 and the selected pixel storage unit 5 are the same as those in the first embodiment.
  • the parameter deriving means 6c repeats preprocessing and parameter calculation.
  • the moving object pixel determining unit 7 selects pixels in an area (moving object area) corresponding to a subject that moves between images (hereinafter referred to as a moving object) from the selected pixels. Is excluded. If the conversion parameter is calculated using pixels in the moving object region, the accuracy of the conversion parameter decreases. In the present embodiment, the moving object pixel determination unit 7 excludes such pixels from the selected pixel and performs preprocessing and parameter calculation again, thereby deriving a highly accurate conversion parameter.
  • the parameter deriving means 6c repeats the preprocessing and the parameter calculation
  • the parameter deriving means 6c partially changes the processes of the preprocessing and the parameter calculation depending on the number of repetitions.
  • the case where preprocessing and parameter calculation are repeated three times will be described as an example.
  • the parameter deriving unit 6c includes a preprocessing unit 3c that executes preprocessing and a parameter calculation unit 4c that calculates conversion parameters using the result of the preprocessing.
  • the parameter calculation unit 4c calculates the conversion parameter
  • the moving object pixel determination unit 7 determines a pixel in the moving object region based on the conversion parameter, and excludes the pixel from the selected pixel. Thereafter, the preprocessing means 31c and the parameter calculation means 4c execute the respective processes again.
  • the preprocessing unit 3c includes a differentiation unit 31c and a parameter update amount calculation preprocessing unit 32c.
  • Differentiating means 31c calculates the differential ⁇ T R in the selected pixel.
  • Parameter update amount calculation preprocessing means 32c performs preprocessing of the update amount calculation of transformation parameters using ⁇ T R calculated in the differential unit 31c.
  • the processes of the differentiating means 31c and the parameter update amount calculation preprocessing means 32c are the same as the processes of the differentiating means 31 and the parameter update amount calculation preprocessing means 32 in the first embodiment. However, it differs from the first embodiment in that the preprocessing means 3c executes the preprocessing a plurality of times.
  • the parameter calculation unit 4c includes a post-conversion pixel value calculation unit 41c, a difference calculation unit 42c, a parameter update amount calculation unit 43c, a parameter update unit 44c, and a condition determination unit 45c.
  • the post-conversion pixel value calculation unit 41c, the difference calculation unit 42c, the parameter update amount calculation unit 43c, the parameter update unit 44c, and the condition determination unit 45c are respectively the post-conversion pixel value calculation unit 41 and the difference calculation unit in the first embodiment. 42, the same process as the parameter update amount calculation unit 43, the parameter update unit 44, and the condition determination unit 45 is performed. However, the parameter calculation unit 4c performs parameter calculation processing for each pre-processing.
  • condition determining means 45c sets the loop processing end conditions in steps S21 to S26 (refer to FIG. 4) more severely in the later times in the parameter calculation processing after each pre-processing from the first time to the third time. Then, condition determination is performed. It can be said that this condition is a conversion parameter convergence determination condition.
  • the moving object pixel determination unit 7 determines a pixel in the moving object region from the selected pixels based on the conversion parameter, and excludes the pixel from the selected pixels. Similarly, after the second pre-processing and parameter calculation, the moving object pixel determination unit 7 determines a pixel in the moving object region from the selected pixels based on the conversion parameter, and further excludes the pixel from the selected pixels. To do.
  • Preprocessing means 3c differentiation means 31c and parameter update amount calculation preprocessing means 32c
  • parameter calculation means 4c post-conversion pixel value calculation means 41c, difference calculation means 42c, parameter update amount calculation means 43c, parameter update means 44c and conditions
  • the parameter derivation means 6c including the determination means 45c), the pixel selection means 2, and the moving object pixel determination means 7 are realized by, for example, a CPU of a computer that operates according to an image conversion parameter calculation program.
  • the program storage device (not shown) of the computer stores the image conversion parameter calculation program, and the CPU reads the program, and in accordance with the program, the pixel selection means 2, the moving object pixel determination means 7, and the parameter derivation. What is necessary is just to operate
  • FIG. 11 is a flowchart illustrating an example of processing progress of the fourth embodiment.
  • the pixel selection unit 2 randomly selects a predetermined number of pixels from the reference image (step S51).
  • the pixel selection process in step S51 is the same as step S1 in the first embodiment.
  • the preprocessing means 3c performs the first preprocessing (step S52).
  • the first preprocessing (step S52) will be described with reference to the flowchart shown in FIG.
  • step S52 differentiating means 31c calculates the differential ⁇ T R at each selected pixel selected from the reference image (step S11). Specifically, the differentiating means 31c calculates ⁇ T Rx (x, y) in the x direction and ⁇ T Ry (x, y) in the y direction. The calculation is similar to calculation of ⁇ T R in the first embodiment. Specifically, ⁇ T Rx (x, y) and ⁇ T Ry (x, y) may be calculated by calculating Equation (3) and Equation (4).
  • the parameter update amount calculation preprocessing means 32c After the calculation of ⁇ T R, the parameter update amount calculation preprocessing means 32c, for each selected pixel, converting W; computing the (X p) regarding Jacobian matrix (step S12). Next, the parameter updating amount calculation preprocessing means 32c, for each selected pixel, calculating a ⁇ T R calculated in step S11, the product of the calculated Jacobian matrix at step S12 (step S13). Next, the parameter update amount calculation preprocessing means 32 calculates a Hessian matrix H (step S14). The processing in steps S12 to S14 is the same as that in the first embodiment.
  • the parameter calculation means 4c performs the first parameter calculation process (step S53).
  • the first parameter calculation process will be described with reference to the flowchart shown in FIG.
  • the post-conversion pixel value calculation unit 41c converts the coordinates of the pixel position in the input image I corresponding to the selected pixel selected from the reference image T based on the conversion parameter, and interpolates the pixel value.
  • the post-conversion pixel value calculation means 41c calculates I (W (X; p)) by this processing (step S21).
  • the difference calculating unit 42c calculates the difference between I (W (X; p)) calculated in step S21 and the pixel value T R (X) of the selected pixel (step S22).
  • the parameter update amount calculation unit 43c calculates Equation (8) using the calculation result of Step S13 in the first preprocessing and the difference calculated in Step S22 (Step S23).
  • the parameter update amount calculation means 43c calculates the conversion parameter update amount ⁇ p using the calculation result and the Hessian matrix (step S24).
  • the parameter update unit 44c synthesizes ⁇ p with the conversion parameter according to the equation (10), and updates the conversion parameter (step S25).
  • the processes in steps S21 to S25 are the same as in the first embodiment.
  • the condition determination unit 45c determines whether or not a predetermined condition for ending the repetition of the conversion parameter update is satisfied (step S26).
  • a predetermined condition for ending the repetition of the conversion parameter update is satisfied if Expression (11) holds.
  • the value of the threshold value ⁇ used for the right side of Equation (11) is the largest in the first parameter calculation process (step S53), the second parameter calculation process (step S56), and the third parameter calculation process (step S59). In order, set to decrease. That is, the later the parameter calculation process, the stricter the condition for ending the loop process in steps S21 to S26.
  • Expression (11) is taken as an example, but the same applies to the case where other end conditions are used.
  • the parameter calculation unit 4c repeats the processing after step S21 using the updated conversion parameter.
  • step S26 If the expression (11) is established (Yes in step S26), the condition determination unit 45c determines the conversion parameter calculated in the latest step S25 as the first conversion parameter calculation result. With the above process, the parameter calculation unit 4c ends the first parameter calculation process (step S53).
  • the moving object pixel determining means 7 determines a pixel in the moving object region from the selected pixels using the conversion parameter calculated in step S53, and excludes the pixel from the selected pixels (step S54).
  • the moving object pixel determination means 7 may determine the pixel corresponding to the moving object region as follows, for example.
  • the moving object pixel determination means 7 calculates a difference in pixel value between the pixel in the input image converted to the selected pixel in the reference image by the conversion parameter calculated in step S53 and the converted pixel.
  • the moving pixel determination means 7 determines that the selected pixel is a pixel in the moving area if the difference is equal to or greater than a predetermined threshold, and if the difference is less than the threshold, the selected pixel is the moving area. What is necessary is just to determine that it is not this pixel.
  • the method of determining whether or not the selected pixel is a pixel in the moving object region is not limited to this method, and the moving object pixel determination unit 7 may determine by another method.
  • the moving object pixel determining unit 7 may delete the information on the selected pixel from the selected pixel storage unit 5.
  • the preprocessing unit 31c performs preprocessing on the selected pixels that remain without being excluded (step S55). This preprocessing corresponds to the second preprocessing.
  • the preprocessing unit 31c may perform the same processing as the first preprocessing (step S52) on the selected pixels remaining without being excluded.
  • the processing in steps S11 to S13 (see FIG. 3) for the selected pixels remaining without being excluded is the same processing as the processing in steps S11 to S13 performed in the first preprocessing (step S52). Results are obtained. Accordingly, in the third pre-processing, the processing in steps S11 to S13 may be omitted and the results of steps S11 to S13 in the first pre-processing (step S52) may be used.
  • the calculation result for the Hessian matrix H is different from the first preprocessing.
  • the parameter update amount calculation preprocessing unit 32c executes the calculation of the Hessian matrix H (step S14) without omission in step S55.
  • the parameter update amount calculation preprocessing unit 32c may obtain the Hessian matrix H by the calculation of Expression (7).
  • step S56 the parameter calculation means 4c performs a second parameter calculation process.
  • the second parameter calculation process (step S56) is the same as step S53, except that the right side threshold value ⁇ of equation (11) used in the determination in step S26 is set to a value smaller than the first time (step S53). is there.
  • the moving object pixel determining means 7 determines a pixel in the moving object region from the selected pixels using the conversion parameter calculated in step S56, and excludes the pixel from the selected pixels (step S57). This process is the same as step S54.
  • the preprocessing unit 31c performs preprocessing on the selected pixels remaining without being excluded (step S58). This preprocessing corresponds to the third preprocessing.
  • the preprocessing unit 31c may perform the same processing as the first preprocessing (step S52) on the selected pixels that remain without being excluded.
  • the processes in steps S11 to S13 are the same as the processes in steps S11 to S13 performed in the first preprocess (step S52). Processing, and the same processing result is obtained. Accordingly, similarly to the second pre-processing, the processing of steps S11 to S13 may be omitted in the third pre-processing, and the results of steps S11 to S13 in the first pre-processing (step S52) may be used.
  • the parameter update amount calculation pre-processing means 32c executes the calculation of the Hessian matrix H (step S14) without omitting it in step S58.
  • the parameter update amount calculation preprocessing unit 32c may obtain the Hessian matrix H by the calculation of Expression (7).
  • step S59 the parameter calculation means 4c performs a third parameter calculation process.
  • the third parameter calculation process (step S59) is the same as step S56, except that the right side threshold value ⁇ of equation (11) used in the determination in step S26 is set to a value smaller than the second time (step S56). is there.
  • the condition determination unit 45c determines the conversion parameter obtained in step S59 as a parameter representing conversion from the input image to the reference image.
  • the moving object pixel determination unit 7 determines a pixel belonging to the moving object region from the selected pixels and excludes the pixel. Then, the preprocessing unit 3c and the parameter calculation unit 4c process the selected pixels remaining without being excluded (that is, selected pixels other than the moving object region), and calculate the conversion parameters. Therefore, it is possible to calculate the conversion parameter with high accuracy without being affected by the subject moving between the input image and the reference image.
  • the conversion parameter obtained in step S56 may be determined as a parameter representing the conversion from the input image to the reference image without performing the processing of steps S57 to S59.
  • the parameter deriving unit 6c determines that there is no moving object, and does not perform the subsequent processing and obtains it in step S53.
  • the obtained conversion parameter may be determined as a parameter representing conversion from the input image to the reference image.
  • the parameter deriving unit 6c determines that there is no moving object, and does not perform the subsequent processing, but in step S56.
  • the obtained conversion parameter may be determined as a parameter representing conversion from the input image to the reference image.
  • step S59 the same processing as the processing of steps S57 to S59 may be repeated.
  • the number of repetitions is not particularly limited. However, since conversion parameters with high accuracy can be obtained by the third conversion parameter calculation (step S59), it is preferable to end the processing in step S59 from the viewpoint of preventing an increase in processing amount.
  • the preprocessing unit 3c executes steps S11 to S14 (see FIG. 3) in the first preprocessing (see step S52, FIG. 11), and in the second and subsequent preprocessing, the step The case where the calculation of the Hessian matrix H (step S14) is performed without omitting S11 to S13 is shown.
  • the preprocessing means 3c omits steps S11 to S13 by using the results of steps S11 to S13 in the first preprocessing in the second and subsequent preprocessing (steps S55 and S58).
  • the preprocessing unit 3c omits the calculation of the Hessian matrix H (step S14) in the second and subsequent preprocessing (steps S55 and S58).
  • the configuration may be such that the second and subsequent parameter calculations (steps S56 and S59) are performed using the Hessian matrix H calculated in the second preprocessing. That is, in the second and subsequent preprocessing (steps S55 and S58), the parameter update amount calculation preprocessing unit 32c may omit the calculation of the Hessian matrix H.
  • the pre-processing means 3c executes all steps S11 to S14 including the calculation of the Hessian matrix H without omitting them. By omitting the calculation of the Hessian matrix in the second and subsequent preprocessing, the amount of processing in the preprocessing can be reduced.
  • the parameter calculation means 4c uses the Hessian matrix H calculated in the first preprocessing to perform the second and subsequent parameter calculations (steps S56 and S59). This means that the Hessian matrix calculated in the first preprocessing is used. H is used as an approximate value of the Hessian matrix.
  • the parameter update amount calculation pre-processing means 32c uses the Hessian matrix H instead of using the approximate value of the Hessian matrix in the second and subsequent parameter calculations (steps S56 and S59). What is necessary is just to set it as the structure performed without abbreviate
  • the calculation of the Hessian matrix may be omitted in the second and subsequent preprocessing (steps S55 and S58) as in steps S11 to S13.
  • the third embodiment may be applied to the fourth embodiment. That is, in the first pre-processing (step S52), compared to the second and subsequent pre-processing (step S55, S58), may be calculated blur ⁇ T R.
  • the degree of freedom of the parameters of the conversion model may be reduced in the first preprocessing as compared to the second and subsequent preprocessing.
  • the first preprocessing calculation is performed by applying parallel movement with a parameter degree of freedom of 2 as the transformation W (X; p), and affine transformation with a parameter degree of freedom of 6 is applied in the second and subsequent preprocessing. Then, the calculation may be performed.
  • the method of applying the conversion model is not limited to this example. For example, translation may be applied in the first preprocessing, and homography conversion may be performed in the second and subsequent preprocessing.
  • the post-conversion pixel value calculation unit 41c, the difference calculation unit 42c, the parameter update amount calculation unit 43c, and the parameter update unit 44c perform the first before the parameter calculation after the first preprocessing (step S53).
  • the calculation is performed using W (X; p) to which the same conversion model as that of the process is applied, and at the time of parameter calculation after the second and subsequent preprocessing (steps S56 and S59), the second and subsequent preprocessing (step S55).
  • S58 the calculation is performed using W (X; p) to which the same conversion model is applied.
  • the preprocessing unit 3c redoes all the processes of steps S11 to S14 in the second preprocess (step S55).
  • the processing in steps S11 to S13 may be omitted, and the results of steps S11 to S13 in the second preprocessing (step S55) may be used.
  • the calculation of the Hessian matrix (step S14) is performed again.
  • the image conversion parameter calculation devices 1b and 1c replace the pixel selection unit 2 (see FIGS. 7 and 10) with the pixel selection unit 2a (see FIG. 5). And pixels may be selected at random by the same method as in the second embodiment.
  • the image conversion parameter calculation apparatus may convert the input image using the conversion parameter after obtaining the conversion parameter.
  • FIG. 12 is a block diagram showing an example of the minimum configuration of the present invention.
  • the image conversion parameter calculation apparatus of the present invention includes a pixel selection unit 2 and a parameter derivation unit 6.
  • Pixel selection means 2 selects a predetermined number of pixels or a predetermined number of pixels or less at random from the first image.
  • the parameter deriving unit 6 performs a process on a selected pixel that is a pixel selected by the pixel selecting unit, thereby converting a second image to be image-aligned together with the first image into a first image. Deriving parameters.
  • the pixel selection unit 2 randomly selects a predetermined number of pixels or a predetermined number of pixels or less from the first image, performs processing on the selected pixels, and sets conversion parameters. To derive. Therefore, the number of selected pixels can be suppressed to a certain number or less without depending on the size of the reference image, and as a result, the processing cost for conversion parameter calculation can be kept constant. In addition, since the pixels are selected at random, even if the pixel value of the reference image has periodicity, it is possible to prevent the pixel value of the selected pixel from being biased, so that the conversion parameter can be calculated with high accuracy.
  • the above embodiment discloses a characteristic configuration of an image conversion parameter calculation apparatus as shown in (Appendix 1) to (Appendix 12) below.
  • Processing is performed on a pixel selection unit that selects a predetermined number of pixels or a predetermined number of pixels or less at random from the first image, and a selected pixel that is a pixel selected by the pixel selection unit.
  • a parameter deriving unit for deriving a conversion parameter for converting the second image to be subjected to image alignment together with the first image into the first image.
  • the pixel selection means determines whether the pixel extracted by the pixel extraction means which extracts a pixel from the 1st image at random, and the pixel extraction means satisfy
  • the image conversion parameter calculation apparatus further comprising: a reference determination unit that selects the pixel as a pixel used for derivation of the conversion parameter on the condition that
  • the criterion determination unit determines whether or not the pixel extracted by the pixel extraction unit is a pixel in the noise region of the first image, and satisfies the criterion that the pixel is not a pixel in the noise region.
  • region is determined among the selection pixels selected by the pixel selection means, and the selected pixel determined to be a pixel of a moving body area Are selected from the selected pixels selected by the pixel selecting means, and the parameter deriving means performs processing on the remaining selected pixels that are not excluded by the moving pixel determining means.
  • the image conversion parameter calculation apparatus according to any one of appendix 1 to appendix 4, wherein a conversion parameter for converting the image into a first image is derived again.
  • Differentiating means for example, differentiating means 31 in the third embodiment
  • the parameter deriving means calculates the derivative at each selected pixel selected by the pixel selecting means, and pixels in a wider range of pixels than the differentiating means
  • a second differentiating unit (for example, the second differentiating unit 31b in the third embodiment) that calculates a derivative at each selected pixel from the value; a Jacobian matrix at each selected pixel selected by the pixel selecting unit; and a selected pixel Parameter update calculation pre-processing means (for example, parameter update amount calculation pre-processing means 32) for calculating a Hessian matrix relating to the group, and differentiation, Jacobian matrix, and Hessian matrix at the selected pixel until a predetermined convergence determination condition is satisfied.
  • Parameter calculation means for repeatedly updating the conversion parameter using the second differentiation means for each selection
  • the differential in the prime is calculated
  • the parameter update calculation preprocessing means calculates the Jacobian matrix and the Hessian matrix using the differentiation
  • the parameter calculation means uses the differentiation, the Jacobian matrix and the Hessian matrix for the first parameter.
  • Update repetitive processing is performed, the differentiation means calculates the derivative at each selected pixel, the parameter update calculation preprocessing means calculates the Jacobian matrix and Hessian matrix using the differentiation, and the parameter calculation means calculates the differentiation, Jacobian.
  • the image conversion parameter calculation apparatus according to any one of appendix 1 to appendix 4, wherein a second parameter update repetition process is performed using a matrix and a Hessian matrix.
  • Processing is performed on a pixel selection unit that selects a predetermined number of pixels or a predetermined number of pixels or less at random from the first image, and a selected pixel that is a pixel selected by the pixel selection unit.
  • a parameter deriving unit for deriving a conversion parameter for converting the second image to be image-aligned together with the first image into the first image.
  • the pixel selection part determines whether the pixel extracted from the 1st image at random and the pixel extracted by the pixel extraction part satisfy
  • the image conversion parameter calculation apparatus further comprising: a reference determination unit that selects the pixel as a pixel used for derivation of the conversion parameter on condition that the reference is satisfied.
  • the reference determination unit determines whether or not the pixel extracted by the pixel extraction unit is a pixel in the noise region of the first image, and satisfies the criterion that the pixel is not a pixel in the noise region.
  • the image conversion parameter calculation apparatus according to appendix 8, wherein the pixel is selected as a pixel used for deriving a conversion parameter as a condition.
  • a selection pixel that is a pixel of the moving object region among the selected pixels selected by the pixel selecting unit is determined, and the selected pixel that is determined to be a pixel of the moving object region Is selected from the selected pixels selected by the pixel selection unit, and the parameter deriving unit performs processing on the selected pixels that are not excluded by the moving pixel determination unit, thereby obtaining the second image.
  • the image conversion parameter calculation apparatus according to appendix 7, wherein a conversion parameter for converting the image into a first image is derived again.
  • the parameter deriving unit calculates a differentiation in each selected pixel selected by the pixel selection unit (for example, the differentiation unit 31 in the third embodiment), and a wider range of pixels than the differentiation unit.
  • a second differentiating unit (for example, the second differentiating means 31b in the third embodiment) that calculates a derivative in each selected pixel from the pixel value, a Jacobian matrix in each selected pixel selected by the pixel selecting unit, and a selection
  • a parameter update calculation pre-processing unit (for example, parameter update amount calculation pre-processing means 32) that calculates a Hessian matrix related to the pixel group, and differentiation, Jacobian matrix, and Hessian matrix in the selected pixel until a predetermined convergence determination condition is satisfied.
  • a parameter calculation unit that repeatedly updates the conversion parameter using The parameter update calculation preprocessing unit calculates a Jacobian matrix and a Hessian matrix using the differentiation, and the parameter calculation unit repeats the first parameter update using the differentiation, the Jacobian matrix and the Hessian matrix. Processing, a differentiation unit calculates a derivative at each selected pixel, a parameter update calculation pre-processing unit calculates a Jacobian matrix and a Hessian matrix using the differentiation, and a parameter calculation unit calculates the differentiation, the Jacobian matrix, and The image conversion parameter calculation apparatus according to appendix 7, wherein a second parameter update repetition process is performed using a Hessian matrix.
  • the present invention is preferably applied to an image conversion parameter calculation apparatus that calculates an image conversion parameter in image alignment.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

位置あわせの対象となる画像の大きさに依存しない処理量で、精度よく、画像位置あわせの変換パラメータを算出することができる画像変換パラメータ算出装置を提供する。画素選択手段2は、第1の画像からランダムに、予め定められた所定数または当該所定数以下の画素を選択する。パラメータ導出手段6は、画素選択手段によって選択された画素である選択画素に関して処理を行うことによって、第1の画像とともに画像位置あわせの対象となる第2の画像を第1の画像に変換する変換パラメータを導出する。

Description

画像変換パラメータ算出装置、画像変換パラメータ算出方法およびプログラム
 本発明は、画像変換パラメータ算出装置、画像変換パラメータ算出方法および画像変換パラメータ算出プログラムに関する。
 同一対象物を撮影した場合であっても、カメラ位置のずれ等の原因により、画像内における物体の位置がずれることがある。このような場合に、一つの画像を変換して、その画像に含まれる物体の位置が他の画像におけるその物体の位置と同じになるように、画像の位置合わせを行う。このような画像の位置合わせを行う変換の変換パラメータを求める手法は、特徴点ベースの手法と領域ベースの手法に分類できる。
 特徴点ベースの手法は、位置合わせの対象とする2つの画像からそれぞれ特徴点を抽出し、画像間で特徴点を対応付けて、変換パラメータを求める手法である。
 領域ベースの手法は、画像同士の輝度(画素値)の差が最小になるような変換を特定する方法である。この方法として勾配法が知られている。また、領域ベースの手法は、ルーカス・カナデ法(Lucas Kanade法)とも呼ばれている。
 領域ベースの手法が、非特許文献1に記載されている。非特許文献1に記載された方法では、変換パラメータの更新量を求め、変換パラメータを更新することを繰り返しながら、変換パラメータを収束させる。非特許文献1では、変換パラメータの更新の態様を、加法的アルゴリズム(Additive Algorithm)と、合成的アルゴリズム(Compositional Algorithm )とに分類している。加法的アルゴリズムは、変換パラメータに、変換パラメータの更新量を加算することによって、変換パラメータを更新するアルゴリズムである。合成的アルゴリズムは、変換パラメータに対して、変換パラメータの更新量を合成することによって、変換パラメータを更新するアルゴリズムである。
 また、非特許文献1では、一方の画像を変換してもう一方の画像(基準画像)に合わせる場合に、変換される側の画像と基準画像のどちらに基づいて、変換パラメータの更新量を導出するかという観点から、フォワードアルゴリズムと、インバースアルゴリズムに分類している。フォワードアルゴリズムは、変換される側の画像に基づいて変換パラメータの更新量を求めるアルゴリズムである。インバースアルゴリズムは、基準画像に基づいて変換パラメータの更新量を求めるアルゴリズムである。
 加法的アルゴリズムおよび合成的アルゴリズムが、それぞれフォワードアルゴリズムとインバースアルゴリズムに分類できるので、4種類のアルゴリズムが得られる。
 また、非特許文献1に記載された方法を発展させた画像位置合わせ方法が特許文献1に記載されている。特許文献1に記載された方法では、入力画像と基準画像との位置合わせを行う際に、基準画像に注目領域を設定し、注目領域の全画素から、その注目領域の全画素より少ない画素を選択し、選択した画素のみを利用して、変換パラメータを推定する方法が記載されている。注目領域の全画素から、その全画素より少ない画素を選択する方法として、注目領域内の画素を空間的に間引く方法が示されている。より具体的には、注目領域内の画素から、空間的にとびとびの画素を選択することが示されている。例えば、注目領域内の画素に対して10画素おきのとびとびの画素を選択することが示されている。
 また、特許文献1には、基準画像の全ての画素の変形パラメータに対する偏微分に基づき、画素を選択することも記載されている。より具体的には、画素毎に、偏微分を判断し、その偏微分が閾値より大きい画素を選択することが示されている。また、画素毎に、偏微分から計算される重要度を判断し、その重要度が閾値より大きい画素を選択することも示されている。
 また、特許文献2には、階層型ルーカス・カナデ法(Pyramidal Lucas Kanade法)が記載されている。階層型ルーカス・カナデ法では、位置合わせの対象とする画像間の変形の度合いが大きい場合でも、位置合わせができる。
特開2009-104228号公報 特開2009-116730号公報
エス. ベイカー(S. Baker),アイ. マシューズ(I. Matthews)、「ルーカス・カナデ 20 イヤーズ オン: ア ユニファイング フレームワーク(Lucas-Kanade 20 Years On: A Unifying Framework)」,インターナショナル ジャーナル オブ コンピュータ ビジョン(International Journal of Computer Vision),第56巻,第3号,pp.221-255,2004年
 特徴点ベースの手法には、適切な特徴点を抽出できない場合や、特徴点同士の対応付けが正確に行えない場合に、変換パラメータの精度が低下するという問題があった。
 また、一般に、領域ベースの手法では、計算量が多いため高速に処理を実行することが困難であった。特許文献1に記載の方法では、選択した画素のみを利用して、変換パラメータを推定することによって、計算量を減少することができる。しかし、画像の大きさ(すなわち、画像内の画素数)に処理量が依存し、画像の大きさが巨大になれば、処理量は増加してしまう。例えば、特許文献1には、10画素おきのとびとびの画素を選択する場合が示されているが、画像が大きくなるほど、選択する画素数も増加し、その結果、処理量が増加してしまう。特許文献2に記載された階層型ルーカス・カナデ法でも、処理対象画像が大きくなれば処理量が増加する。
 また、特許文献1に記載された方法では、画素を空間的に間引く。この方法では、画像の画素値に周期性があると、選択した画素の画素値に偏りが生じてしまうという問題も生じる。例えば、画素を空間的に間引いて画素を選択するときの選択画素同士の間隔と、画素値の変化の周期が一致すると、選択した画素の画素値がいずれも同様の値になってしまい、精度よく変換パラメータを算出することができない。
 そこで、本発明は、位置あわせの対象となる画像の大きさに依存しない処理量で、精度よく、画像位置あわせの変換パラメータを算出することができる画像変換パラメータ算出装置、画像変換パラメータ算出方法および画像変換パラメータ算出プログラムを提供することを目的とする。
 本発明による画像変換パラメータ算出装置は、第1の画像からランダムに、予め定められた所定数または当該所定数以下の画素を選択する画素選択手段と、画素選択手段によって選択された画素である選択画素に関して処理を行うことによって、第1の画像とともに画像位置あわせの対象となる第2の画像を第1の画像に変換する変換パラメータを導出するパラメータ導出手段とを備えることを特徴とする。
 また、本発明による画像変換パラメータ算出方法は、第1の画像からランダムに、予め定められた所定数または当該所定数以下の画素を選択し、選択した画素である選択画素に関して処理を行うことによって、第1の画像とともに画像位置あわせの対象となる第2の画像を第1の画像に変換する変換パラメータを導出することを特徴とする。
 また、本発明による画像変換パラメータ算出プログラムは、コンピュータに、第1の画像からランダムに、予め定められた所定数または当該所定数以下の画素を選択する画素選択処理、および、画素選択処理で選択された画素である選択画素に関して処理を行うことによって、第1の画像とともに画像位置あわせの対象となる第2の画像を第1の画像に変換する変換パラメータを導出するパラメータ導出処理を実行させることを特徴とする。
 本発明によれば、位置あわせの対象となる画像の大きさに依存しない処理量で、精度よく、画像位置あわせの変換パラメータを算出することができる。
本発明の第1の実施形態の画像変換パラメータ算出装置の例を示すブロック図である。 第1の実施形態の処理経過の例を示すフローチャートである。 前処理(ステップS2)の処理経過の例を示すフローチャートである。 変換パラメータ計算処理(ステップS3)の処理経過の例を示すフローチャートである。 本発明の第2の実施形態の画像変換パラメータ算出装置の例を示すブロック図である。 第2の実施形態における画素選択処理の処理経過の例を示すフローチャートである。 本発明の第3の実施形態の画像変換パラメータ算出装置の例を示すブロック図である。 第3の実施形態の処理経過の例を示すフローチャートである。 第3の実施形態における1回目の前処理で∇Tの計算に用いるフィルタの例を示す説明図である。 本発明の第4の実施形態の画像変換パラメータ算出装置の例を示すブロック図である。 第4の実施形態の処理経過の例を示すフローチャートである。 本発明の最小構成の例を示すブロック図である。
 以下、本発明の実施形態を図面を参照して説明する。
 加法的アルゴリズムと合成的アルゴリズムのいずれか一方と、フォワードアルゴリズムとインバースアルゴリズムのいずれか一方とを組み合わせることで4種類のアルゴリズムが得られる。本発明は、この4種類のアルゴリズムのいずれも適用可能である。以下の説明では、合成的アルゴリズムとインバースアルゴリズムとの組み合わせを本発明に適用した場合を例にして説明する。なお、合成的アルゴリズムとインバースアルゴリズムとを組み合わせたアルゴリズムを、以下、インバース・コンポジショナルアルゴリズムと称する。
実施形態1.
 図1は、本発明の第1の実施形態の画像変換パラメータ算出装置の例を示すブロック図である。以下の説明では、本発明の画像変換パラメータ算出装置1が基準画像を保持し、外部から入力される入力画像内の物体の位置を基準画像内の物体の位置に合わせるように入力画像を変換する変換パラメータを算出する場合を例にして説明する。ただし、基準画像も入力画像と合わせて外部から入力される構成であってもよい。なお、以下の説明において、基準画像を記号Tで表し、入力画像を記号Iで表す場合がある。
 本発明の画像変換パラメータ算出装置1は、画素選択手段2と、選択画素記憶手段5と、パラメータ導出手段6とを備える。
 画素選択手段2は、基準画像からランダムに画素を選択する。基準画像から選択する画素数は、予め定めておけばよい。
 基準画像および入力画像の画素数が一定数に定められている場合には(すなわち画像の大きさが固定的に定められている場合には)、基準画像から選択される画素の位置を予め所定数だけ決定しておけばよい。この画素選択位置は、規則性のないランダムな位置として予め決定しておく。この場合、画素選択手段2は、基準画像内の画素のうち、予め決定されている各画素選択位置から画素を選択すればよい。このように画素を選択すれば、基準画像の画素数が一定であるという前提の元で基準画像を入れ替えても、ランダムに画素を選択することができる。
 また、画像位置合わせに用いる基準画像の画素数が一定数であるとは限らない場合には、画素選択手段2は、例えば、x座標、y座標それぞれに関して、画素の座標の最小値から最大値までの範囲で乱数を発生させ、発生させた乱数を座標値とする画素を選択すればよい。あるいは、画素選択手段2は、発生させる個々の乱数から画素を一意に特定できるように乱数を発生させ、発生させた乱数から一意に定まる画素を選択してもよい。そして、画素選択手段2は、乱数を発生させ、乱数によって定まる画素を選択する処理を所定回繰り返せばよい。なお、この場合、同一乱数が重複して発生すると、選択する画素も重複し、選択する画素数は、乱数発生回数より少なくなる。すなわち、所望の画素数を選択するために、乱数を所定回数発生させても、選択する画素数は所望の数より少なくなる場合があり得る。しかし、そのような画素の減少は無視できる程度である。画素選択手段2は、乱数が重複して発生した場合に、所望の画素数が得られるまで乱数発生回数を増加してもよいが、その分、処理量が増える。そのため、画素選択手段2は、乱数を発生させて画素を選択する処理を所定回数繰り返した時点で、画素選択を終了してもよい。
 また、画素選択手段2は、基準画像の全画素をランダムな順番に並べた、画素のランダムな集合を作成し、その集合から、所定数の画素を選択してもよい。この場合にも、ランダムに画素を選択することができる。
 なお、上記の画素選択処理は例示であり、画素選択手段2による画素選択処理は、上記の例に限定されない。画素選択手段2は、基準画像の画素をランダムに選択する処理であれば、他の方法で基準画像から画素を選択してもよい。
 以下、画素選択手段2が基準画像Tから選択した各画素(選択画素)を記号で表す場合、記号Tで表すこととする。ただし、記号Tを用いずに、単に「選択画素」等のように記す場合もある。
 選択画素記憶手段5は、画素選択手段2によって選択された基準画像の画素の位置および画素値(輝度値)を記憶する記憶装置である。画素選択手段2は、選択した画素の位置および画素値を選択画素記憶手段5に記憶させる。なお、画素選択手段2は、選択画素の位置として、例えば、座標を記憶させればよい。また、画素選択手段2が発生させる個々の乱数から画素を一意に特定でき、乱数の値が画素の位置を表す場合には、画素選択手段2は、座標ではなく、発生させた乱数の値を選択画素の位置を示す情報として記憶させてもよい。
 パラメータ導出手段6は、画素選択手段2に選択された選択画素に関して処理を行うことによって、入力画像を基準画像に合うように変換させる変換パラメータを導出する。パラメータ導出手段6は、画素選択手段2に選択されていない画素に関する処理は実行しない。
 パラメータ導出手段6は、前処理手段3と、パラメータ計算手段4とを含む。パラメータ計算手段4は、変換パラメータの更新量を求め、変換パラメータを更新することを繰り返すことによって、入力画像を基準画像に変換するための変換パラメータを決定する。このとき、パラメータ計算手段4は、予め定められた変換パラメータの初期値から処理を開始すればよい。この初期値から変換パラメータを更新していくことによって、パラメータ計算手段4は、変換パラメータを決定する。前処理手段3およびパラメータ計算手段4は、選択画素記憶手段5に記憶された選択画素の位置および画素値を参照して、選択画素に関して処理を行う。
 前処理手段3は、パラメータ計算手段4の処理の前処理を実行する。
 前処理手段3は、微分手段31と、パラメータ更新量計算前処理手段32とを有する。
 微分手段3は、基準画像Tから選択した画素Tにおける微分(勾配)を計算する。この微分を、∇Tと表す。微分手段3は、各選択画素Tに関して∇Tを計算する。個々の選択画素について∇Tを計算する際に、微分手段3は、∇Tの計算対象としている選択画素の周辺の画素の画素値を用いる。すなわち、微分手段3は、基準画像T全体から∇Tを計算するのではなく、選択画素の周辺の画素から∇Tを計算する。本実施形態では、微分手段3は、選択画素に隣接する画素の画素値から∇Tを計算する。具体的な∇Tの計算方法については後述する。
 パラメータ更新量計算前処理手段32は、パラメータ計算手段4による変換パラメータの更新量計算の前処理を行う。パラメータ更新量計算前処理手段32は、∇Tを用いて、この前処理を行う。本実施形態では、インバース・コンポジショナルアルゴリズムを適用した場合を例にして説明する。インバース・コンポジショナルアルゴリズムを適用したパラメータ更新量計算前処理手段32については、後述する。
 なお、他のアルゴリズムを適用した場合には、パラメータ更新量計算前処理手段32は、そのアルゴリズムに応じて、前処理を行えばよい。
 パラメータ計算手段4は、変換後画素値計算手段41と、差分計算手段42と、パラメータ更新量計算手段43と、パラメータ更新手段44と、条件判定手段45とを備える。
 変換後画素値計算手段41は、基準画像Tから選択された選択画素に対応する入力画像I内の画素位置の座標を変換パラメータに基づいて変換し、画素値を補間する。変換後画素値計算手段41は、この処理によって、選択画素に対応する入力画像の画素の座標を変換したときの変換後の画素位置における画素値を求める。なお、変換パラメータpで画素位置Xの座標を変換することを、記号W(X;p)で表すこととする。また、変換後画素値計算手段41によって求められる変換後の画素値を、I(W(X;p))で表すこととする。I(W(X;p))は、画像全体に対する処理で求められるのではなく、選択画素に関する処理によって求められる。
 なお、ここで、変換W(X;p)の例を示す。例えば、平行移動は、変換パラメータpとして、2つのパラメータ(p,pとする。)を用いて表すことができる。平行移動の場合、変換W(X;p)は、以下に示す式(1)のように表すことができる。
Figure JPOXMLDOC01-appb-M000001
 また、例えば、アフィン変換は、変換パラメータpとして、6個のパラメータ(p~pとする。)を用いて表すことができる。アフィン変換の場合、変換W(X;p)は、以下に示す式(2)のように表すことができる。
Figure JPOXMLDOC01-appb-M000002
 差分計算手段42は、選択画素に対応する入力画像の画素の座標を変換したときの変換後の画素位置における画素値I(W(X;p))と、基準画像Tからの選択画素の画素値(T(X)と記す。)との差分を計算する。すなわち、差分計算手段42は、対応するI(W(X;p))およびT(X)に関して、I(W(X;p))-T(X)を計算する。
 なお、選択画素Tの画素位置を座標(x,y)で表したときに、その画素の画素値をT(x,y)と記す場合もある。また、その周囲の画素の画素値に関しても、その座標を用いて、T(x+1,y),T(x-1,y),T(x,y+1),T(x,y-1)と記す。
 パラメータ更新量計算手段43は、前処理手段3の処理結果を用いて、変換パラメータの更新量を計算する。この変換パラメータの更新量をΔpと記す。インバース・コンポジショナルアルゴリズムにおけるΔpの計算方法については後述する。
 パラメータ更新手段44は、変換パラメータの更新量Δpを用いて、現在の変換パラメータを更新する。ここでは、インバース・コンポジショナルアルゴリズムを適用した場合を例にしているので、パラメータ更新手段44は、現在の変換パラメータにΔpを合成することによって、変換パラメータを更新する。
 インバース・コンポジショナルアルゴリズム以外のアルゴリズムを適用する場合、パラメータ更新量計算手段43は、そのアルゴリズムに応じた方法でΔpを計算すればよい。また、パラメータ更新手段44も、そのアルゴリズムに応じた方法で変換パラメータを更新すればよい。
 条件判定手段45は、所定の条件が満たされたか否かを判定する。所定の条件が満たされた場合には、パラメータ更新手段44が更新した最新の変換パラメータを、入力画像から基準画像への変換を表す変換パラメータであると決定する。
 前処理手段3(微分手段31およびパラメータ更新量計算前処理手段32)とパラメータ計算手段4(変換後画素値計算手段41、差分計算手段42、パラメータ更新量計算手段43、パラメータ更新手段44および条件判定手段45)とを含むパラメータ導出手段6と、画素選択手段2は、例えば、画像変換パラメータ算出プログラムに従って動作するコンピュータのCPUによって実現される。この場合、コンピュータのプログラム記憶装置(図示せず。)が画像変換パラメータ算出プログラムを記憶し、CPUがそのプログラムを読み込んで、そのプログラムに従って、画素選択手段2、およびパラメータ導出手段6に含まれる各手段として動作すればよい。また、図1に示す各手段が、それぞれ別のハードウェアで実現されていてもよい。
 次に、動作について説明する。
 図2は、第1の実施形態の処理経過の例を示すフローチャートである。なお、入力画像は既に画像変換パラメータ算出装置に入力されているものとする。
 まず、画素選択手段2が、基準画像から、予め定められた数の画素をランダムに選択する(ステップS1)。既に説明したように、画素選択手段2は、例えば、乱数を発生させて、乱数に応じた画素を選択することを、予め定められた所定数だけ繰り返してもよい。あるいは、他の方法で、予め定められた数の画素をランダムに選択してもよい。また、乱数を利用して画素を選択する場合、乱数の重複により、選択画素数が所定数に達しないこともあるが、そのような画素の減少は無視し得る程度であるので、厳密に所定数の画素が選択されなくてもよい。
 画素選択手段2は、ステップS1において、基準画像から選択した画素の画素位置および画素値を選択画素記憶手段5に記憶させる。
 次に、前処理手段3が前処理を行う(ステップS2)。続いて、パラメータ計算手段4が、前処理の結果を用いて、変換パラメータの更新量を求め、変換パラメータを更新することを繰り返すことにより、変換パラメータを決定する(ステップS3)。
 図3は、前処理(ステップS2)の処理経過の例を示すフローチャートである。前処理(ステップS2)において、まず、微分手段31が、基準画像からランダムに選択された各選択画素における微分∇Tを計算する(ステップS1)。具体的には、微分手段31は、x方向の∇Tと、y方向の∇Tとを計算する。選択画素Tの座標を(x,y)としたときに、その選択画素におけるx方向の∇Tおよびy方向の∇Tを、それぞれ∇TRx(x,y),∇TRy(x,y)と表すこととする。
 第1の実施形態では、選択画素に関する∇Tを計算するときに、選択画素に隣接する画素の画素値を用いる。すなわち、微分手段31は、∇TRx(x,y)を求める場合には、選択画素に対してフィルタ(-1 0 1)を畳み込む処理を行う。具体的には、微分手段31は、以下に示す式(3)の計算により、∇TRx(x,y)を算出する。
 ∇TRx(x,y)={T(x+1,y)-T(x-1,y)}/2  式(3)
 また、微分手段31は、∇TRy(x,y)を求める場合には、選択画素に対してフィルタ(-1 0 1)を畳み込む処理を行う。このTは、転置行列を表す。すなわち、微分手段31は、以下に示す式(4)の計算により、∇TRy(x,y)を算出する。
 ∇TRy(x,y)={T(x,y+1)-T(x,y-1)}/2  式(4)
 次に、パラメータ更新量計算前処理手段32は、選択画素毎に、変換W(X;p)に関するヤコビアン行列を計算する(ステップS12)。ただし、ここでは、変換W(X;p)における(X;p)は、(X;0)であるものとする。
 W(X;p)をx成分およびy成分で表し、W(X;p)=(W(X;p),W(X;p))と表すと、W(X;p)に関するヤコビアン行列は、以下に示す式(5)のように表される。
Figure JPOXMLDOC01-appb-M000003
 ヤコビアン行列は、画像全体に対する処理で求められるのではなく、選択画素に関する処理によって求められる。
 ステップS12の後、パラメータ更新量計算前処理手段32は、選択画素毎に、ステップS11で計算された∇Tと、ステップS12で計算したヤコビアン行列との積を計算する。すなわち、以下に示す式(6)を計算する(ステップS13)。
Figure JPOXMLDOC01-appb-M000004
 次に、パラメータ更新量計算前処理手段32は、選択画素毎にステップS13で求めた結果を用いて、ヘシアン行列Hを計算する(ステップS14)。パラメータ更新量計算前処理手段32は、以下に示す式(7)の計算により、ヘシアン行列Hを求めればよい。
Figure JPOXMLDOC01-appb-M000005
 ステップS14を終えることで、前処理(図2に示すS2)を終える。
 次に、前処理後に行われる変換パラメータ計算処理(図2に示すステップS3)について説明する。図4は、変換パラメータ計算処理(図2に示すステップS3)の処理経過の例を示すフローチャートである。
 まず、変換後画素値計算手段41は、基準画像Tから選択された選択画素に対応する入力画像I内の画素位置の座標を変換パラメータに基づいて変換し、画素値を補間する。変換後画素値計算手段41は、この処理によって、選択画素に対応する入力画像の画素の座標を変換したときの変換後の画素位置における画素値I(W(X;p))を計算する(ステップS21)。変換後画素値計算手段41は、この処理を、基準画像Tから選択された選択画素に対応する入力画像の画素毎に行う。
 次に、差分計算手段42は、ステップS21で計算されたI(W(X;p))と、基準画像Tから選択された選択画素の画素値T(X)との差分を計算する(ステップS22)。すなわち、差分計算手段42は、対応するI(W(X;p))およびT(X)に関して、I(W(X;p))-T(X)を計算する。
 各選択画素についてI(W(X;p))-T(X)が計算された後、パラメータ更新量計算手段43は、前処理のステップS13(図3参照)の計算結果と、ステップS22で計算された差分とを用いて、以下に示す式(8)を計算する(ステップS23)。
Figure JPOXMLDOC01-appb-M000006
 すなわち、パラメータ更新量計算手段43は、ステップS13の結果として得られる行列(式(6)参照)の転置行列に、ステップS22で計算された差分を乗じる処理を、選択画素毎に行い、その乗算結果の総和を計算する。
 次に、パラメータ更新量計算手段43は、ステップS23の計算結果と、ヘシアン行列とを用いて、変換パラメータの更新量Δpを計算する(ステップS24)。変換パラメータの更新量Δpは、以下に示す式(9)で表すことができる。
Figure JPOXMLDOC01-appb-M000007
 すなわち、パラメータ更新量計算手段43は、前処理のステップS14(図3参照)で計算されたヘシアン行列Hの逆行列に、式(8)の計算結果を乗じることによって、Δpを算出する。
 次に、パラメータ更新手段44は、以下に示す式(10)により、変換パラメータにΔpを合成し、変換パラメータを更新する(ステップS25)。
Figure JPOXMLDOC01-appb-M000008
式(10)の右辺に示す以下の演算子
Figure JPOXMLDOC01-appb-M000009
は、座標変換の合成を表す演算子である。また、座標変換の合成演算は、変換モデルに応じて異なる。ステップS25では、変換モデルに応じた合成を行えばよい。
 次に、条件判定手段45は、変換パラメータの更新の繰り返しを終了する所定の条件が満たされたか否かを判定する(ステップS26)。本実施形態では、条件判定手段45は、直近のステップS24で計算されたΔpに関して、以下に示す式(11)が成立しているか否かを判定し、式(11)が成立しているならば、所定の条件が満たされたと判定する。
Figure JPOXMLDOC01-appb-M000010
 式(11)の右辺のεは、予め定められた閾値である。すなわち、式(11)は、変換パラメータの更新量Δpが、定められた基準よりも小さいことを示している。この条件が満たされていると判定した場合(ステップS26のYes)、条件判定手段45は、直近のステップS25で計算した変換パラメータを、入力画像から基準画像への変換を表すパラメータとして決定する(ステップS27)。
 また、式(11)が成立していない場合(ステップS26のNo)、条件判定手段45は、所定の条件は満たされていないと判定する。この場合、パラメータ計算手段4は、直近のステップS25で更新された変換パラメータを用いて、ステップS21以降の処理を繰り返す。
 また、パラメータ計算手段4は、ステップS27で変換パラメータを決定することにより、処理を終了する。
 本実施形態によれば、画素選択手段2が、基準画像からランダムに画素を選択し、パラメータ導出手段6が、その選択された画素に関して処理を行うことで、変換パラメータを導出する。画素選択手段2は、ランダムに画素を選択するので、基準画像の大きさに依存せずに、選択する画素数を一定数以下にすることができる。従って、基準画像の画素数が変化しても、変換パラメータ算出の処理コストを一定に抑えることができる。
 特許文献1に記載された方法と本発明とを比較すると、特許文献1に記載された方法では、空間的にとびとびの画素を選択するので、基準画像の画素数が大きくなれば、選択する画素数も多くなり、その結果、変換パラメータ算出の処理コストも増えることになる。一方、本発明では、画素選択手段2が、基準画像の画素数に依存せずに、基準画像からランダムに画素を選択するので、基準画像の画素数に依らずに、選択画素数を一定に抑えることができる。その結果、本発明では、基準画像の画素数が多い場合であっても、変換パラメータ算出の処理コストを一定のまま抑えることができる。
 また、本発明では、画素選択手段2が基準画像からランダムに画素を選択するので、基準画像の画素値に周期性があったとしても、選択する画素の画素値に偏りが生じることを防ぐことができる。従って、高い精度で変換パラメータを計算することができる。
実施形態2.
 図5は、本発明の第2の実施形態の画像変換パラメータ算出装置の例を示すブロック図である。第1の実施形態と同様の構成要素については、図1と同一の符号を付し、詳細な説明を省略する。第2の実施形態の画像変換パラメータ算出装置1aは、画素選択手段2aと、選択画素記憶手段5と、パラメータ導出手段6とを備える。選択画素記憶手段5およびパラメータ導出手段6は、第1の実施形態と同様である。すなわち、第2の実施形態の画像変換パラメータ算出装置1aは、第1の実施形態における画素選択手段2の代わりに、画素選択手段2aを備える。
 画素選択手段2aは、基準画像からランダムに画素を抽出し、その画素が所定の基準を満たしている場合に、その画素を、変換パラメータの算出に用いる画素として選択する。画素選択手2aは、この処理を繰り返すことにより、変換パラメータの算出に用いる画素を、定められた個数選択する。
 画素選択手段2aは、画素抽出手段21と、基準判定手段22とを含む。
 画素抽出手段21は、基準画像からランダムに画素を抽出する(取り出す)。ここで、「抽出」とは、単に画素を取り出すことを意味し、変換パラメータの算出に用いる画素として選択することとは区別する。
 基準判定手段22は、画素抽出手段21に抽出された画素が基準を満たしているか否かを判定し、基準を満たしていれば、その画素を、変換パラメータの算出に用いる画素として選択する。この基準の例として、抽出された画素における偏微分が所定の閾値以上であるという基準が挙げられる。ただし、基準判定手段22が判定する基準は、この基準に限定されない。例えば、「抽出された画素が、基準画像内のノイズの生じている領域の画素でない。」という基準を用いてもよい。
 画素選択手段2a(画素抽出手段21および基準判定手段22)は、例えば、画像変換パラメータ算出プログラムに従って動作するコンピュータのCPUによって実現される。この場合、CPUが、画像変換パラメータ算出プログラムを読み込んで、そのプログラムに従って、画素選択手段2aの画素抽出手段21、基準判定手段22、およびパラメータ導出手段6に含まれる各手段として動作すればよい。また、図5に示す各手段が、それぞれ別のハードウェアで実現されていてもよい。
 次に、第2の実施形態の動作について説明する。
 本実施形態の画像変換パラメータ算出装置1aも、図2に示すフローチャートの順に処理を実行する。すなわち、画素選択手段2aが、基準画像から画素を選択する(ステップS1)。そして、前処理手段3が前処理を実行し(ステップS2)、パラメータ計算手段4が、入力画像Iから基準画像Tへの変換の変換パラメータを決定する(ステップS3)。ただし、第2の実施形態では、画素選択処理(ステップS1)が、第1の実施形態と異なる。
 図6は、第2の実施形態における画素選択処理(ステップS1)の処理経過の例を示すフローチャートである。まず、画素抽出手段21が、基準画像の全画素をランダムな順番に並べた、画素のランダムな集合を作成する(ステップS31)。以下、この画素の集合をランダム集合と記す。
 次に、画素抽出手段21は、ランダム集合から1つの画素を抽出する(ステップS32)。
 次に、基準判定手段22は、ステップS32で抽出された画素が、予め定められた基準を満たしているか否かを判定する(ステップS33)。基準として、変換パラメータの精度向上に寄与する基準を予め定めておく。ここでは、抽出された画素における変換パラメータに対する偏微分が所定の閾値以上であるという基準が予め定められている場合を例にして説明する。この場合、基準判定手段22は、ステップS32で抽出された画素に関して、変換パラメータに対する偏微分を計算し、その偏微分が所定の閾値以上であるか否かを判定する。偏微分が閾値以上であれば、基準を満たしている。また、偏微分が閾値未満であれば、基準を満たしていないことになる。
 抽出された画素に関する偏微分が閾値未満である場合(ステップS33のNo)、画素選択手段2aはステップS32以降の処理を繰り返す。
 また、抽出された画素に関する偏微分が閾値以上である場合(ステップS33のYes)、基準判定手段22は、ステップS32で抽出された画素を、変換パラメータの算出に用いる画素として選択する。そして、その画素の画素位置(座標)および画素値を選択画素記憶手段5に記憶させる。
 続いて、基準判定手段22は、変換パラメータの算出に用いる画素として選択した画素(選択画素)が所定数に達したか否かを判定する(ステップS35)。例えば、基準判定手段22は、選択画素記憶手段5に画素位置および画素値を記憶させた画素の数が所定数に達したか否かを判定すればよい。
 選択画素が所定数に達していなければ、画素選択手段2aはステップS32以降の処理を繰り返す。
 一方、選択画素が所定数に達したならば、画素選択手段2aは、画素選択処理(ステップS1。図2参照。)を終了する。以降の、前処理(ステップS2)および変換パラメータ計算(ステップS3)は、第1の実施形態と同様であり、説明を省略する。
 第2の実施形態では、画素選択手段2aが、ランダムに抽出された画素であって、所定の基準を満たす画素を選択する。そして、前処理手段3およびパラメータ計算手段4が、その画素に関して処理を行って、変換パラメータを計算する。従って、第2の実施形態によれば、第1の実施形態と同様の効果が得られ、さらに、変換パラメータの精度を向上させることができる。
 また、本実施形態では、基準画像からランダムに画素を抽出してから、基準判定手段22が、その画素が基準を満たしているか否かを判定する。従って、基準画像の全画素について基準を満たしているか否かを判定するわけではないので、処理コストの増加を防止することができる。
 また、本実施形態では、所望の選択画素数をいくつに定めたとしても、基準を満たす画素をランダムに所望数だけ選択することができる。特許文献1に記載された方法と本発明とを比較すると、特許文献1に記載された方法でも、画素の偏微分、または偏微分から計算した重要度が閾値以上となる画素を選択する。しかし、特許文献1に記載された方法は、空間的にとびとびの画素を選択するので、選択画素数を所望の数に抑えることができず、基準画像の画素数が多い場合には、選択画素数も増加していき、処理コストが増加してしまう。また、特許文献1に記載された方法において、とびとびの画素を抽出し、そのうち、偏微分が閾値以上の画素を所定個選択した時点で画素選択を終了することも考えられる。しかし、その場合には、選択画素が基準画像内の特定の領域(例えば上部)に偏っている等の問題が生じる。それに対し本発明では、ランダムに所望の数の画素を選択することができる。
 なお、上記の例では、抽出された画素に関する偏微分を計算し、その偏微分と閾値とを比較する場合を示した。基準判定手段22は、計算した偏微分からさらに、画素の良さを示す指標を計算し、その指標と、閾値とを比較してもよい。そして、指標が閾値以上であれば基準を満たし、指標が閾値未満であれば基準を満たさないと判定してもよい。なお、この「画素の良さ」とは、変換パラメータの精度を向上させることができるという観点による画素の適切さである。画素の偏微分も、この指標の一態様である。
 また、基準判定手段22は、この指標(偏微分の結果自体でもよい。)を、0~1の範囲の値になるように変換し、乱数との比較によって、基準を満足しているか否かを判定してもよい。具体的には、基準判定手段22は、指標を0~1の範囲の値に変換する。そして、基準判定手段22は、0~1の範囲の値をとる乱数を発生させる。基準判定手段22は、変換後の指標が乱数値以上であれば、基準を満たすと判定し、変換後の指標が乱数値未満であれば基準を満たさないと判定してもよい。このようにステップS33の判定処理を行うことで、指標が小さな値となる画素が絶対に選ばれなくなることを防止することができる。すなわち、ランダムな画素選択の頑健性を向上させることができる。
 また、ステップS33の判定基準として、「抽出された画素が、基準画像内のノイズの生じている領域の画素でない。」という基準を用いてもよい。この場合、基準判定手段22は、ステップS33において、画素抽出手段21に抽出された画素がノイズの生じている領域(以下、ノイズ領域と記す。)であるか否かを判定し、抽出された画素がノイズ領域の画素でなければ基準を満たしていると判定すればよい(ステップS33のYes)。また、抽出された画素がノイズ領域の画素であれば基準を満たしていないと判定すればよい(ステップS33のNo)。
 ただし、抽出された画素がノイズ領域の画素であるか否かを判定するアルゴリズムとして、その抽出された画素に関する処理のみで判定を行うことができるアルゴリズムを採用する。このようなアルゴリズムを適用することで、基準画像の大きさに依らず、処理量を一定に抑えることができる。例えば、基準判定手段22は、抽出された画素がノイズ領域の画素であるか否かを、バイラテラルフィルタ(Bilateral Filter)によって判定すればよい。
 抽出された画素がノイズ領域の画素でないという基準を採用した場合でも、変換パラメータの精度を向上させることができる。
実施形態3.
 図7は、本発明の第3の実施形態の画像変換パラメータ算出装置の例を示すブロック図である。第1の実施形態と同様の構成要素については、図1と同一の符号を付し、詳細な説明を省略する。第3の実施形態の画像変換パラメータ算出装置1bは、画素選択手段2と、選択画素記憶手段5と、パラメータ導出手段6bとを備える。画素選択手段2および選択画素記憶手段5は、第1の実施形態と同様である。
 第3の実施形態では、パラメータ導出手段6bが、前処理およびパラメータ計算を1度行った後、更に、2回目の前処理およびパラメータ計算を行う。パラメータ導出手段6bは、1回目の前処理では、2回目の前処理に比べて、∇Tをぼかして計算する。そして、パラメータ導出手段6bは、2回目の前処理後のパラメータ計算では、1回目の前処理後のパラメータ計算で求めた変換パラメータを用いて、変換パラメータを計算する。
 パラメータ導出手段6bは、前処理を実行する前処理手段3bと、前処理の結果を用いて変換パラメータを計算するパラメータ計算手段4とを備える。前処理手段3bが前処理を行い、パラメータ計算手段4がパラメータ計算を行う処理を、2回繰り返す。
 前処理手段3bは、微分手段31と、第2の微分手段31bと、パラメータ更新量計算前処理手段32とを備える。
 微分手段31は、第1の実施形態や第2の実施形態における微分手段31と同様であり、選択画素における微分∇Tを計算する。ただし、微分手段31は、2回目の前処理で∇Tを計算する。また、第2の微分手段31bも、選択画素における微分∇Tを計算する。ただし、第2の微分手段31bは、1回目の前処理で∇Tを計算する。
 第2の微分手段31bは、1回目の前処理で∇Tを計算する時に、微分手段31が2回目の前処理で行う∇Tの計算に比べて、∇Tをぼかして計算する。具体的には、第2の微分手段31bは、選択画素に隣接する画素だけでなく、さらにその周囲の画素も用いて∇Tを計算する。2回目の前処理において、微分手段31は、第1の実施形態と同様に、選択画素に隣接する画素の画素値を用いて∇Tを計算する。すなわち、第2の微分手段31bは、1回目の前処理において、2回目の前処理での微分手段31による∇T計算よりも広い範囲の画素を用いて∇Tを計算する。
 パラメータ更新量計算前処理手段32は、第1の実施形態におけるパラメータ更新量計算前処理手段32と同様であり、∇Tを用いて変換パラメータの更新量計算の前処理を行う。パラメータ更新量計算前処理手段32は、1回目の前処理では、第2の微分手段31bに計算された∇Tを用いて変換パラメータの更新量計算の前処理を行う。また、2回目の前処理では、微分手段31に計算された∇Tを用いて変換パラメータの更新量計算の前処理を行う。
 パラメータ計算手段4は、変換後画素値計算手段41と、差分計算手段42と、パラメータ更新量計算手段43と、パラメータ更新手段44と、条件判定手段45とを備える。変換後画素値計算手段41、差分計算手段42、パラメータ更新量計算手段43、パラメータ更新手段44および条件判定手段45は、それぞれ、第1の実施形態における変換後画素値計算手段41、差分計算手段42、パラメータ更新量計算手段43、パラメータ更新手段44、条件判定手段45と同様の処理を行う。ただし、パラメータ計算手段4は、2回の前処理後にそれぞれパラメータ計算処理を行う。
 前処理手段3b(微分手段31、第2の微分手段31bおよびパラメータ更新量計算前処理手段32)とパラメータ計算手段4(変換後画素値計算手段41、差分計算手段42、パラメータ更新量計算手段43、パラメータ更新手段44および条件判定手段45)とを含むパラメータ導出手段6bと、画素選択手段2とは、例えば、画像変換パラメータ算出プログラムに従って動作するコンピュータのCPUによって実現される。この場合、コンピュータのプログラム記憶装置(図示せず。)が画像変換パラメータ算出プログラムを記憶し、CPUがそのプログラムを読み込んで、そのプログラムに従って、画素選択手段2、およびパラメータ導出手段6bに含まれる各手段として動作すればよい。また、図7に示す各手段が、それぞれ別のハードウェアで実現されていてもよい。
 次に、動作について説明する。
 図8は、第3の実施形態の処理経過の例を示すフローチャートである。まず、画素選択手段2が、基準画像から、予め定められた数の画素をランダムに選択する(ステップS41)。ステップS41の画素選択処理は、第1の実施形態におけるステップS1と同様である。
 次に、前処理手段3bが1回目の前処理を行う(ステップS42)。図3に示すフローチャートを参照して、1回目の前処理(ステップS42)について説明する。
 1回目の前処理(ステップS42)では、まず、第2の微分手段31bが、基準画像から選択された各選択画素における微分∇Tを計算する(ステップS11)。具体的には、第2の微分手段31bは、x方向の∇TRx(x,y)と、y方向の∇TRy(x,y)とを計算する。この点は第1の実施形態と同様である。ただし、第2の微分手段31bは、1回目の前処理において、微分手段31による2回目の前処理での∇T計算に比べて、∇Tをぼかして計算する。
 図9は、1回目の前処理で∇Tの計算に用いるフィルタの例を示す説明図である。第2の微分手段31bは、例えば、図9(a)に示すフィルタを用いて選択画素に対する畳み込みを実行することによって∇TRx(x,y)を計算すればよい。∇TRx(x,y)の計算には、例えば、中央の縦1列の要素が0であり、中央の縦1列より右側の各要素が1であり、中央の縦1列よりも左側の各要素が1であるフィルタを用いることができる(図9(a)参照)。なお、図9(a)による畳み込みは、図9(b)に示す2つのフィルタの畳み込みに相当する。
 同様に、第2の微分手段31bは、例えば、図9(c)に示すフィルタを用いて選択画素に対する畳み込みを実行することによって∇TRy(x,y)を計算すればよい。∇TRy(x,y)の計算には、例えば、中央の横1列の要素が0であり、中央の横1列よりも上側の各要素が-1であり、中央の横1列よりも下側の各要素が1であるフィルタを用いることができる(図9(c)参照)。なお、図9(c)による畳み込みは、図9(d)に示す2つのフィルタの畳み込みに相当する。
 図9(a),(c)に示すフィルタは、1回目の前処理で∇Tの計算に用いるフィルタの例示であり、第2の微分手段31bは他のフィルタを用いてもよい。
 ∇Tの計算後、パラメータ更新量計算前処理手段32は、選択画素毎に、変換W(X;p)に関するヤコビアン行列を計算する(ステップS12)。次に、パラメータ更新量計算前処理手段32は、選択画素毎に、ステップS11で計算された∇Tと、ステップS12で計算したヤコビアン行列との積を計算する(ステップS13)。次に、パラメータ更新量計算前処理手段32は、ヘシアン行列Hを計算する(ステップS14)。ステップS12~S14の処理は、第1の実施形態と同様である。
 次に、パラメータ計算手段4が、1回目のパラメータ計算処理を行う(ステップS43)。図4に示すフローチャートを参照して、1回目のパラメータ計算処理について説明する。
 まず、変換後画素値計算手段41は、基準画像Tから選択された選択画素に対応する入力画像I内の画素位置の座標を変換パラメータに基づいて変換し、画素値を補間する。変換後画素値計算手段41は、この処理によって、I(W(X;p))を計算する(ステップS21)。次に、差分計算手段42は、ステップS21で計算されたI(W(X;p))と、選択画素の画素値T(X)との差分を計算する(ステップS22)。次に、パラメータ更新量計算手段43は、1回目の前処理におけるステップS13の計算結果と、ステップS22で計算された差分とを用いて、式(8)の計算を行う(ステップS23)。さらに、パラメータ更新量計算手段43は、その計算結果と、ヘシアン行列とを用いて、変換パラメータの更新量Δpを計算する(ステップS24)。次に、パラメータ更新手段44は、式(10)により、変換パラメータにΔpを合成し、変換パラメータを更新する(ステップS25)。このステップS21~S25の処理は、第1の実施形態と同様である。
 ステップS25の後、条件判定手段45は、変換パラメータの更新の繰り返しを終了する所定の条件が満たされたか否かを判定する(ステップS26)。この判定も、第1の実施形態ど同様に行えばよい。所定の条件が満たされていなければ(ステップS26のNo)、パラメータ計算手段4は、更新後の変換パラメータを用いて、ステップS21以降の処理を繰り返す。所定の条件が満たされていれば(ステップS26のYes)、条件判定手段45は、直近のステップS25で計算した変換パラメータを、一回目の変換パラメータ計算結果として決定する(ステップS27)。以上の処理によって、パラメータ計算手段4は、1回目のパラメータ計算処理(ステップS43)を終了する。
 次に、前処理手段3bは、2回目の前処理を実行する(ステップS44)。図3に示すフローチャートを参照して、2回目の前処理(ステップS44)について説明する。
 2回目の前処理(ステップS44)では、まず、微分手段31が、基準画像から選択された各選択画素における微分∇Tを計算する(ステップS11)。2回目の前処理では、微分手段31は、∇Tをぼかさずに、第1の実施形態と同様に∇Tを計算する。すなわち、微分手段31は、選択画素に隣接する画素の画素値を用いて、式(3)、式(4)の計算を行って、∇TRx(x,y)および∇TRy(x,y)を計算する。
 ∇Tの計算後、パラメータ更新量計算前処理手段32は、1回目の前処理の時と同様に、ステップS12~S14を行う。ただし、パラメータ更新量計算前処理手段32は、微分手段31によって計算された∇Tを用いてステップS12~S14を行う。1回目の前処理(ステップS42)と2回目の前処理(ステップS43)とでは、微分手段31による∇Tの計算と、第2の微分手段31bによる∇Tの計算とが異なるだけで、他の処理内容は、同じである。ただし、∇Tの違いにより、得られる結果は、1回目の前処理と2回目の前処理で異なる。
 次に、パラメータ計算手段4が、2回目のパラメータ計算処理を行う(ステップS46)。2回目のパラメータ計算処理では、1回目のパラメータ計算処理(ステップS43)で求めた変換パラメータを初期値として、図4に示すステップS21~S26のループ処理を実行する。そして、ステップS26で所定の条件が満たされていれば(ステップS26のYes)、条件判定手段45は、直近のステップS25で計算した変換パラメータを、2回目の変換パラメータ計算結果として決定する(ステップS27)。ステップS21~S27の各処理は、1回目のパラメータ計算処理(ステップS43)と同様である。
 この2回目のパラメータ計算処理(ステップS45)内で実行するステップS27で決定された変換パラメータが、最終的に求める変換パラメータとなる。
 第3の実施形態によれば、1回目の前処理(ステップS42)で∇Tをぼかして計算する。その結果、その後のパラメータ計算処理(ステップS43)におけるループ処理(図4に示すステップS21~S26参照)で、1回のループ処理当たりの変換パラメータの更新量が小さくならずに済む。また、局所解を得てしまって、真の解となる変換パラメータが得られなくなることを防止することができる。そして、2回目の前処理(ステップS44)では∇Tをぼかさず、ステップS43で計算した変換パラメータを元に、変換パラメータをより詳細に計算することができる。この結果、基準画像と入力画像との間の変化が大きい場合や、選択画素数が少ない場合であっても、解となる変換パラメータを安定的に求めることができる。また、高速に変換パラメータを求めることができる。
 また、第3の実施形態において、1回目の前処理では、2回目の前処理に比べて、変換モデルのパラメータの自由度を減少させてもよい。例えば、1回目の前処理では、変換W(X;p)として、パラメータ自由度2の平行移動を適用して演算を行い、2回目の前処理では、パラメータ自由度6のアフィン変換を適用して演算を行ってもよい。なお、変換モデルの適用のさせ方は、この例に限定されない。例えば、1回目の前処理で、平行移動を適用し、2回目の前処理でホモグラフィ変換をしてもよい。
 この場合、変換後画素値計算手段41、差分計算手段42、パラメータ更新量計算手段43およびパラメータ更新手段44は、1回目の前処理後のパラメータ計算時には、1回目の前処理と同じ変換モデルを適用したW(X;p)を用いて演算を行い、2回目の前処理後のパラメータ計算時には、2回目の前処理と同じ変換モデルを適用したW(X;p)を用いて演算を行う。
実施形態4.
 図10は、本発明の第4の実施形態の画像変換パラメータ算出装置の例を示すブロック図である。第1の実施形態と同様の構成要素については、図1と同一の符号を付し、詳細な説明を省略する。第4の実施形態の画像変換パラメータ算出装置1cは、画素選択手段2と、選択画素記憶手段5と、パラメータ導出手段6cと、動体画素判定手段7とを備える。画素選択手段2および選択画素記憶手段5は、第1の実施形態と同様である。
 第4の実施形態では、パラメータ導出手段6cが、前処理およびパラメータ計算を繰り返す。そして、前処理およびパラメータ計算が行われると、動体画素判定手段7が、選択画素の中から、画像間で動きのある被写体(以下、動体と記す。)に相当する領域(動体領域)の画素を除外する。動体領域の画素を用いて変換パラメータを計算すると、変換パラメータの精度が低下する。本実施形態では、動体画素判定手段7が、選択画素からそのような画素を除外し、再度、前処理およびパラメータ計算を行うことで、高精度の変換パラメータを導出する。
 ただし、パラメータ導出手段6cは、前処理およびパラメータ計算を繰り返す場合、繰り返し回数が何回目であるかによって、前処理およびパラメータ計算の処理を一部、変更する。以下に示す例では、前処理およびパラメータ計算を3回繰り返す場合を例にして説明する。
 パラメータ導出手段6cは、前処理を実行する前処理手段3cと、前処理の結果を用いて変換パラメータを計算するパラメータ計算手段4cとを備える。パラメータ計算手段4cが変換パラメータを計算すると、動体画素判定手段7が、その変換パラメータに基づいて、動体領域の画素を判定し、その画素を選択画素から除外する。その後、前処理手段31cおよびパラメータ計算手段4cは、それぞれの処理を再度実行する。
 前処理手段3cは、微分手段31cと、パラメータ更新量計算前処理手段32cとを備える。
 微分手段31cは、選択画素における微分∇Tを計算する。パラメータ更新量計算前処理手段32cは、微分手段31cに計算された∇Tを用いて変換パラメータの更新量計算の前処理を行う。微分手段31cおよびパラメータ更新量計算前処理手段32cの処理は、第1の実施形態における微分手段31およびパラメータ更新量計算前処理手段32の処理と同様である。ただし、前処理手段3cが前処理を複数回実行する点で第1の実施形態と異なる。
 パラメータ計算手段4cは、変換後画素値計算手段41cと、差分計算手段42cと、パラメータ更新量計算手段43cと、パラメータ更新手段44cと、条件判定手段45cとを備える。変換後画素値計算手段41c、差分計算手段42c、パラメータ更新量計算手段43c、パラメータ更新手段44c、条件判定手段45cは、それぞれ、第1の実施形態における変換後画素値計算手段41、差分計算手段42、パラメータ更新量計算手段43、パラメータ更新手段44、条件判定手段45と同様の処理を行う。ただし、パラメータ計算手段4cは、前処理毎にパラメータ計算処理を行う。また、条件判定手段45cは、1回目から3回目までの各前処理後のパラメータ計算処理時において、後の回になるほど、ステップS21~S26(図4参照)のループ処理の終了条件を厳しく設定して、条件判定を行う。この条件は、変換パラメータの収束判定条件であるということができる。
 動体画素判定手段7は、1回目の前処理およびパラメータ計算の後に、その変換パラメータに基づいて、選択画素の中から動体領域の画素を判定し、その画素を選択画素から除外する。同様に、動体画素判定手段7は、2回目の前処理およびパラメータ計算の後に、その変換パラメータに基づいて、選択画素の中から動体領域の画素を判定し、さらに、その画素を選択画素から除外する。
 前処理手段3c(微分手段31cおよびパラメータ更新量計算前処理手段32c)とパラメータ計算手段4c(変換後画素値計算手段41c、差分計算手段42c、パラメータ更新量計算手段43c、パラメータ更新手段44cおよび条件判定手段45c)とを含むパラメータ導出手段6cと、画素選択手段2と、動体画素判定手段7は、例えば、画像変換パラメータ算出プログラムに従って動作するコンピュータのCPUによって実現される。この場合、コンピュータのプログラム記憶装置(図示せず。)が画像変換パラメータ算出プログラムを記憶し、CPUがそのプログラムを読み込んで、そのプログラムに従って、画素選択手段2、動体画素判定手段7、およびパラメータ導出手段6cに含まれる各手段として動作すればよい。また、図10に示す各手段が、それぞれ別のハードウェアで実現されていてもよい。
 次に、動作について説明する。
 図11は、第4の実施形態の処理経過の例を示すフローチャートである。まず、画素選択手段2が、基準画像から、予め定められた数の画素をランダムに選択する(ステップS51)。ステップS51の画素選択処理は、第1の実施形態におけるステップS1と同様である。
 次に、前処理手段3cが1回目の前処理を行う(ステップS52)。図3に示すフローチャートを参照して、1回目の前処理(ステップS52)について説明する。
 1回目の前処理(ステップS52)では、まず、微分手段31cが、基準画像から選択された各選択画素における微分∇Tを計算する(ステップS11)。具体的には、微分手段31cは、x方向の∇TRx(x,y)と、y方向の∇TRy(x,y)とを計算する。この計算は第1の実施形態における∇Tの計算と同様である。具体的には、式(3)、式(4)の計算を行って、∇TRx(x,y)および∇TRy(x,y)を計算すればよい。
 ∇Tの計算後、パラメータ更新量計算前処理手段32cは、選択画素毎に、変換W(X;p)に関するヤコビアン行列を計算する(ステップS12)。次に、パラメータ更新量計算前処理手段32cは、選択画素毎に、ステップS11で計算された∇Tと、ステップS12で計算したヤコビアン行列との積を計算する(ステップS13)。次に、パラメータ更新量計算前処理手段32は、ヘシアン行列Hを計算する(ステップS14)。ステップS12~S14の処理も、第1の実施形態と同様である。
 次に、パラメータ計算手段4cが、1回目のパラメータ計算処理を行う(ステップS53)。図4に示すフローチャートを参照して、1回目のパラメータ計算処理について説明する。
 まず、変換後画素値計算手段41cは、基準画像Tから選択された選択画素に対応する入力画像I内の画素位置の座標を変換パラメータに基づいて変換し、画素値を補間する。変換後画素値計算手段41cは、この処理によって、I(W(X;p))を計算する(ステップS21)。次に、差分計算手段42cは、ステップS21で計算されたI(W(X;p))と、選択画素の画素値T(X)との差分を計算する(ステップS22)。次に、パラメータ更新量計算手段43cは、1回目の前処理におけるステップS13の計算結果と、ステップS22で計算された差分とを用いて、式(8)の計算を行う(ステップS23)。さらに、パラメータ更新量計算手段43cは、その計算結果と、ヘシアン行列とを用いて、変換パラメータの更新量Δpを計算する(ステップS24)。次に、パラメータ更新手段44cは、式(10)により、変換パラメータにΔpを合成し、変換パラメータを更新する(ステップS25)。このステップS21~S25の処理は、第1の実施形態と同様である。
 ステップS25の後、条件判定手段45cは、変換パラメータの更新の繰り返しを終了する所定の条件が満たされたか否かを判定する(ステップS26)。ここでは、説明を簡単にするため、式(11)が成立しているならば、所定の条件が満たされたと判定する場合を例にして説明する。式(11)の右辺に用いる閾値εの値は、1回目のパラメータ計算処理(ステップS53)が最も大きく、2回目のパラメータ計算処理(ステップS56)、3回目のパラメータ計算処理(ステップS59)の順に、小さくなっていくように設定する。すなわち、後のパラメータ計算処理ほど、ステップS21~S26のループ処理の終了条件を厳しくする。ここでは、式(11)を用いて終了判定を行う場合を例にしているが、他の終了条件を用いる場合にも同様である。
 式(11)が成立していなければ(ステップS26のNo)、パラメータ計算手段4cは、更新後の変換パラメータを用いて、ステップS21以降の処理を繰り返す。
 式(11)が成立していれば(ステップS26のYes)、条件判定手段45cは、直近のステップS25で計算した変換パラメータを、一回目の変換パラメータ計算結果として決定する。以上の処理によって、パラメータ計算手段4cは、1回目のパラメータ計算処理(ステップS53)を終了する。
 次に、動体画素判定手段7は、ステップS53で計算された変換パラメータを用いて、選択画素の中から動体領域の画素を判定し、その画素を選択画素から除外する(ステップS54)。
 動体画素判定手段7は、動体領域に該当する画素を、例えば、以下のように判定すればよい。動体画素判定手段7は、ステップS53で計算した変換パラメータによって基準画像内の選択画素に変換される入力画像内の画素と、その変換画素とで、画素値の差分を計算する。動体画素判定手段7は、その差分が、予め定められた閾値以上であれば、その選択画素は動体領域の画素であると判定し、その差分が閾値未満であれば、その選択画素は動体領域の画素でないと判定すればよい。ただし、選択画素が動体領域の画素であるか否かを判定する方法は、この方法に限定されず、動体画素判定手段7は、他の方法で判定してもよい。
 また、動体画素判定手段7は、動体領域の画素であると判定された選択画素を除外する時には、その選択画素の情報を選択画素記憶手段5から削除すればよい。
 ステップS54の後、前処理手段31cは、除外されずに残った選択画素に関して、前処理を行う(ステップS55)。この前処理は、2回目の前処理に該当する。
 2回目の前処理(ステップS55)では、前処理手段31cは、除外されずに残っている選択画素に関して、1回目の前処理(ステップS52)と同様の処理を行ってもよい。ただし、除外されずに残った選択画素に対するステップS11~S13(図3参照)の処理は、1回目の前処理(ステップS52)で行うステップS11~S13の処理と同一の処理であり、同じ処理結果が得られる。従って、3回目の前処理では、ステップS11~S13の処理を省略して、1回目の前処理(ステップS52)におけるステップS11~S13の結果を用いればよい。ただし、選択画素数が減少したことにより、ヘシアン行列Hに関しては、1回目の前処理と計算結果が異なる。従って、パラメータ更新量計算前処理手段32cは、ヘシアン行列Hの計算(ステップS14)に関しては、ステップS55において省略せずに実行する。パラメータ更新量計算前処理手段32cは、ヘシアン行列Hを式(7)の計算で求めればよい。
 次に、パラメータ計算手段4cが、2回目のパラメータ計算処理を行う(ステップS56)。2回目のパラメータ計算処理(ステップS56)は、ステップS26における判定で用いる式(11)の右辺の閾値εを、1回目(ステップS53)よりも小さな値に設定する他は、ステップS53と同様である。
 次に、動体画素判定手段7は、ステップS56で計算された変換パラメータを用いて、選択画素の中から動体領域の画素を判定し、その画素を、選択画素から除外する(ステップS57)。この処理は、ステップS54と同様である。
 ステップS57の後、前処理手段31cは、除外されずに残った選択画素に関して、前処理を行う(ステップS58)。この前処理は、3回目の前処理に該当する。
 3回目の前処理(ステップS58)では、前処理手段31cは、除外されずに残っている選択画素に関して、1回目の前処理(ステップS52)と同様の処理を行ってもよい。ただし、既に説明したように、除外されずに残った選択画素に対するステップS11~S13(図3参照)の処理は、1回目の前処理(ステップS52)で行うステップS11~S13の処理と同一の処理であり、同じ処理結果が得られる。従って、2回目の前処理と同様に、3回目の前処理でも、ステップS11~S13の処理を省略して、1回目の前処理(ステップS52)におけるステップS11~S13の結果を用いればよい。ただし、選択画素数が減少したことにより、ヘシアン行列Hに関しては、1回目や2回目の前処理と計算結果が異なる。従って、パラメータ更新量計算前処理手段32cは、ヘシアン行列Hの計算(ステップS14)に関しては、ステップS58において省略せずに実行する。パラメータ更新量計算前処理手段32cは、ヘシアン行列Hを式(7)の計算で求めればよい。
 次に、パラメータ計算手段4cが、3回目のパラメータ計算処理を行う(ステップS59)。3回目のパラメータ計算処理(ステップS59)は、ステップS26における判定で用いる式(11)の右辺の閾値εを、2回目(ステップS56)よりも小さな値に設定する他は、ステップS56と同様である。
 条件判定手段45cは、ステップS59で得られた変換パラメータを、入力画像から基準画像への変換を表すパラメータとして決定する。
 第4の実施形態によれば、パラメータ計算手段4cが計算した変換パラメータを用いて、動体画素判定手段7が、選択画素の中から動体領域に属する画素を判定し、その画素を除外する。そして、前処理手段3cおよびパラメータ計算手段4cは、除外されずに残った選択画素(すなわち、動体領域以外の選択画素)に関して処理を行って、変換パラメータを計算する。従って、入力画像と基準画像間で動きのある被写体の影響を受けずに、高い精度で変換パラメータを計算することができる。
 なお、ステップS57~S59の処理を行わずに、ステップS56で得られた変換パラメータを、入力画像から基準画像への変換を表すパラメータとして決定してもよい。
 また、ステップS54において除外された選択画素の数が予め定めた閾値以下である場合には、パラメータ導出手段6cは、動体が存在しないと判定し、以降の処理を行わずに、ステップS53で得られた変換パラメータを、入力画像から基準画像への変換を表すパラメータとして決定してもよい。同様に、ステップS57において除外された選択画素の数が予め定めた閾値以下である場合にも、パラメータ導出手段6cは、動体が存在しないと判定し、以降の処理を行わずに、ステップS56で得られた変換パラメータを、入力画像から基準画像への変換を表すパラメータとして決定してもよい。
 また、ステップS59の後にも、ステップS57~S59の処理と同様の処理を繰り返してもよい。この繰り返し数は、特に限定されない。ただし、3回目の変換パラメータ計算(ステップS59)までに、精度の高い変換パラメータが得られるので、処理量の増加を防ぐ観点からステップS59で処理を終えることが好ましい。
 また、上記の説明では、前処理手段3cが、1回目の前処理(ステップS52、図11参照)では、ステップS11~S14(図3参照)を実行し、2回目以降の前処理では、ステップS11~S13を省略してヘシアン行列Hの計算(ステップS14)に関しては省略せずに実行する場合を示した。このとき、前処理手段3cは、2回目以降の前処理(ステップS55,S58)では、1回目の前処理におけるステップS11~S13の結果を用いることで、ステップS11~S13を省略している。上記の実施形態の変形例として、前処理手段3cが、2回目以降の前処理(ステップS55,S58)において、ヘシアン行列Hの計算(ステップS14)に関しても省略し、パラメータ計算手段4cは、1回目の前処理で計算されたヘシアン行列Hを用いて、2回目以降のパラメータ計算(ステップS56,S59)を行う構成としてもよい。すなわち、2回目以降の前処理(ステップS55,S58)において、パラメータ更新量計算前処理手段32cがヘシアン行列Hの計算を省略してもよい。なお、1回目の前処理では、前処理手段3cは、ヘシアン行列Hの計算を含むステップS11~S14を全て省略せずに実行する。2回目以降の前処理でヘシアン行列の計算も省略することにより、前処理における処理量を減少させることができる。
 1回目の前処理で計算されたヘシアン行列Hを用いて、パラメータ計算手段4cが2回目以降のパラメータ計算(ステップS56,S59)を行うということは、1回目の前処理で計算されたヘシアン行列Hを、ヘシアン行列の近似値として用いるということである。計算する変換パラメータの精度を高くする場合には、2回目以降のパラメータ計算(ステップS56,S59)でヘシアン行列の近似値を用いるのではなく、パラメータ更新量計算前処理手段32cがヘシアン行列Hの計算を省略せずに実行する構成とすればよい。
 一方、前処理の処理量を減少させる場合には、2回目以降の前処理(ステップS55,S58)で、ステップS11~S13と同様にヘシアン行列の計算も省略する構成とすればよい。
 また、第4の実施形態に第3の実施形態を適用してもよい。すなわち、1回目の前処理(ステップS52)では、2回目以降の前処理(ステップS55,S58)に比べて、∇Tをぼかして計算してもよい。
 また、第4の実施形態に第3の実施形態を適用する場合、1回目の前処理では、2回目以降の前処理に比べて、変換モデルのパラメータの自由度を減少させてもよい。例えば、1回目の前処理では、変換W(X;p)として、パラメータ自由度2の平行移動を適用して演算を行い、2回目以降の前処理では、パラメータ自由度6のアフィン変換を適用して演算を行ってもよい。なお、変換モデルの適用のさせ方は、この例に限定されない。例えば、1回目の前処理で、平行移動を適用し、2回目以降の前処理でホモグラフィ変換をしてもよい。この場合、変換後画素値計算手段41c、差分計算手段42c、パラメータ更新量計算手段43cおよびパラメータ更新手段44cは、1回目の前処理後のパラメータ計算時(ステップS53)には、1回目の前処理と同じ変換モデルを適用したW(X;p)を用いて演算を行い、2回目以降の前処理後のパラメータ計算時(ステップS56,S59)には、2回目以降の前処理(ステップS55,S58)と同じ変換モデルを適用したW(X;p)を用いて演算を行う。
 第4の実施形態に第3の実施形態を適用する場合において、1回目の前処理と、2回目以降の前処理とでは、∇Tが異なることになる。従って、前処理手段3cは、2回目の前処理(ステップS55)においてステップS11~S14の処理を全てやり直す。3回目の前処理では、ステップS11~S13の処理を省略し、2回目の前処理(ステップS55)におけるステップS11~S13の結果を用いればよい。ただし、既に説明したように、ヘシアン行列の計算(ステップS14)はやり直す。
 また、第3の実施形態および第4の実施形態において、画像変換パラメータ算出装置1b,1cが、画素選択手段2(図7、図10参照)の代わりに、画素選択手段2a(図5参照)を備え、第2の実施形態と同様の方法で、ランダムに画素を選択してもよい。
 上記の各実施形態において、画像変換パラメータ算出装置が、変換パラメータを求めた後に、その変換パラメータを用いて入力画像を変換してもよい。
 次に、本発明の最小構成の例について説明する。図12は、本発明の最小構成の例を示すブロック図である。本発明の画像変換パラメータ算出装置は、画素選択手段2と、パラメータ導出手段6とを備える。
 画素選択手段2は、第1の画像からランダムに、予め定められた所定数または当該所定数以下の画素を選択する。
 パラメータ導出手段6は、画素選択手段によって選択された画素である選択画素に関して処理を行うことによって、第1の画像とともに画像位置あわせの対象となる第2の画像を第1の画像に変換する変換パラメータを導出する。
 そのような構成によれば、画素選択手段2は、第1の画像からランダムに、予め定められた所定数または当該所定数以下の画素を選択し、その選択画素に関して処理を行って変換パラメータを導出する。従って、基準画像の大きさに依存せずに、選択画素数を一定数以下に抑え、その結果、変換パラメータ算出の処理コストを一定に抑えることができる。また、ランダムに画素を選択するので、基準画像の画素値に周期性があったとしても、選択画素の画素値に偏りが生じることを防止できるので、精度よく変換パラメータを算出することができる。
 なお、上記の実施形態には、以下の(付記1)~(付記12)に示すような画像変換パラメータ算出装置の特徴的な構成が開示されている。
(付記1)第1の画像からランダムに、予め定められた所定数または当該所定数以下の画素を選択する画素選択手段と、画素選択手段によって選択された画素である選択画素に関して処理を行うことによって、第1の画像とともに画像位置あわせの対象となる第2の画像を第1の画像に変換する変換パラメータを導出するパラメータ導出手段とを備えることを特徴とする画像変換パラメータ算出装置。
(付記2)画素選択手段が、第1の画像からランダムに画素を抽出する画素抽出手段と、画素抽出手段によって抽出された画素が所定の基準を満たすか否かを判定し、その画素が基準を満たすことを条件に、その画素を変換パラメータの導出に用いる画素として選択する基準判定手段とを含む付記1に記載の画像変換パラメータ算出装置。
(付記3)基準判定手段が、画素抽出手段によって抽出された画素の偏微分に基づいて、その画素が基準を満たすか否かを判定する付記2に記載の画像変換パラメータ算出装置。
(付記4)基準判定手段が、画素抽出手段によって抽出された画素が第1の画像のノイズ領域の画素であるか否かを判定し、画素がノイズ領域の画素でないという基準を満たすことを条件に、画素を変換パラメータの導出に用いる画素として選択する付記2に記載の画像変換パラメータ算出装置。
(付記5)パラメータ導出手段が導出した変換パラメータを用いて、画素選択手段によって選択された選択画素のうち動体の領域の画素となる選択画素を判定し、動体の領域の画素と判定した選択画素を、画素選択手段によって選択された選択画素から除外する動体画素判定手段を備え、パラメータ導出手段が、動体画素判定手段によって除外されずに残った選択画素に関して処理を行うことによって、第2の画像を第1の画像に変換する変換パラメータを再度導出する付記1から付記4のうちのいずれかに記載の画像変換パラメータ算出装置。
(付記6)パラメータ導出手段が、画素選択手段によって選択された各選択画素における微分を算出する微分手段(例えば、第3の実施形態における微分手段31)と、微分手段よりも広範囲の画素の画素値から各選択画素における微分を算出する第2の微分手段(例えば、第3の実施形態における第2の微分手段31b)と、画素選択手段によって選択された各選択画素におけるヤコビアン行列と、選択画素群に関するヘシアン行列を算出するパラメータ更新計算前処理手段(例えば、パラメータ更新量計算前処理手段32)と、予め定められた収束判定条件が満たされるまで、選択画素における微分、ヤコビアン行列およびヘシアン行列を用いて変換パラメータの更新を繰り返すパラメータ計算手段とを含み、第2の微分手段が、各選択画素における微分を算出し、パラメータ更新計算前処理手段が、その微分を用いてヤコビアン行列およびヘシアン行列を算出し、パラメータ計算手段が、その微分、ヤコビアン行列およびヘシアン行列を用いて、1回目のパラメータ更新繰り返し処理を行い、微分手段が、各選択画素における微分を算出し、パラメータ更新計算前処理手段が、その微分を用いてヤコビアン行列およびヘシアン行列を算出し、パラメータ計算手段が、その微分、ヤコビアン行列およびヘシアン行列を用いて、2回目のパラメータ更新繰り返し処理を行う付記1から付記4のうちのいずれかに記載の画像変換パラメータ算出装置。
(付記7)第1の画像からランダムに、予め定められた所定数または当該所定数以下の画素を選択する画素選択部と、画素選択部によって選択された画素である選択画素に関して処理を行うことによって、第1の画像とともに画像位置あわせの対象となる第2の画像を第1の画像に変換する変換パラメータを導出するパラメータ導出部とを備えることを特徴とする画像変換パラメータ算出装置。
(付記8)画素選択部が、第1の画像からランダムに画素を抽出する画素抽出部と、画素抽出部によって抽出された画素が所定の基準を満たすか否かを判定し、前記画素が前記基準を満たすことを条件に、前記画素を変換パラメータの導出に用いる画素として選択する基準判定部とを含む付記7に記載の画像変換パラメータ算出装置。
(付記9)基準判定部が、画素抽出部によって抽出された画素の偏微分に基づいて、前記画素が基準を満たすか否かを判定する付記8に記載の画像変換パラメータ算出装置。
(付記10)基準判定部が、画素抽出部によって抽出された画素が第1の画像のノイズ領域の画素であるか否かを判定し、前記画素がノイズ領域の画素でないという基準を満たすことを条件に、前記画素を変換パラメータの導出に用いる画素として選択する付記8に記載の画像変換パラメータ算出装置。
(付記11)パラメータ導出部が導出した変換パラメータを用いて、画素選択部によって選択された選択画素のうち動体の領域の画素となる選択画素を判定し、動体の領域の画素と判定した選択画素を、画素選択部によって選択された選択画素から除外する動体画素判定部を備え、パラメータ導出部が、動体画素判定部によって除外されずに残った選択画素に関して処理を行うことによって、第2の画像を第1の画像に変換する変換パラメータを再度導出する付記7に記載の画像変換パラメータ算出装置。
(付記12)パラメータ導出部が、画素選択部によって選択された各選択画素における微分を算出する微分部(例えば、第3の実施形態における微分手段31)と、前記微分部よりも広範囲の画素の画素値から各選択画素における微分を算出する第2の微分部(例えば、第3の実施形態における第2の微分手段31b)と、画素選択部によって選択された各選択画素におけるヤコビアン行列と、選択画素群に関するヘシアン行列を算出するパラメータ更新計算前処理部(例えば、パラメータ更新量計算前処理手段32)と、予め定められた収束判定条件が満たされるまで、選択画素における微分、ヤコビアン行列およびヘシアン行列を用いて変換パラメータの更新を繰り返すパラメータ計算部とを含み、第2の微分部が、各選択画素における微分を算出し、パラメータ更新計算前処理部が、前記微分を用いてヤコビアン行列およびヘシアン行列を算出し、パラメータ計算部が、前記微分、ヤコビアン行列およびヘシアン行列を用いて、1回目のパラメータ更新繰り返し処理を行い、微分部が、各選択画素における微分を算出し、パラメータ更新計算前処理部が、前記微分を用いてヤコビアン行列およびヘシアン行列を算出し、パラメータ計算部が、前記微分、ヤコビアン行列およびヘシアン行列を用いて、2回目のパラメータ更新繰り返し処理を行う付記7に記載の画像変換パラメータ算出装置。
 以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2009年9月28日に出願された日本出願特願2009-223038を基礎とする優先権を主張し、その開示の全てをここに取り込む。
産業上の利用の可能性
 本発明は、画像位置合わせにおける画像の変換パラメータを算出する画像変換パラメータ算出装置に好適に適用される。
 1,1a,1b,1c 画像変換パラメータ算出装置
 2,2a 画素選択手段
 3,3b,3c 前処理手段
 4,4c パラメータ計算手段
 5 選択画素記憶手段
 6,6b,6c パラメータ導出手段
 7 動体画素判定手段
 21 画素抽出手段
 22 基準判定手段
 31,31c 微分手段
 31b 第2の微分手段
 32,32c パラメータ更新量計算前処理手段
 41,41c 変換後画素値計算手段
 42,42c 差分計算手段
 43,43c パラメータ更新量計算手段
 44,44c パラメータ更新手段
 45,45c 条件判定手段

Claims (10)

  1.  第1の画像からランダムに、予め定められた所定数または当該所定数以下の画素を選択する画素選択手段と、
     画素選択手段によって選択された画素である選択画素に関して処理を行うことによって、第1の画像とともに画像位置あわせの対象となる第2の画像を第1の画像に変換する変換パラメータを導出するパラメータ導出手段とを備える
     ことを特徴とする画像変換パラメータ算出装置。
  2.  画素選択手段は、
     第1の画像からランダムに画素を抽出する画素抽出手段と、
     画素抽出手段によって抽出された画素が所定の基準を満たすか否かを判定し、前記画素が前記基準を満たすことを条件に、前記画素を変換パラメータの導出に用いる画素として選択する基準判定手段とを含む
     請求項1に記載の画像変換パラメータ算出装置。
  3.  基準判定手段は、画素抽出手段によって抽出された画素の偏微分に基づいて、前記画素が基準を満たすか否かを判定する
     請求項2に記載の画像変換パラメータ算出装置。
  4.  基準判定手段は、画素抽出手段によって抽出された画素が第1の画像のノイズ領域の画素であるか否かを判定し、前記画素がノイズ領域の画素でないという基準を満たすことを条件に、前記画素を変換パラメータの導出に用いる画素として選択する
     請求項2に記載の画像変換パラメータ算出装置。
  5.  パラメータ導出手段が導出した変換パラメータを用いて、画素選択手段によって選択された選択画素のうち動体の領域の画素となる選択画素を判定し、動体の領域の画素と判定した選択画素を、画素選択手段によって選択された選択画素から除外する動体画素判定手段を備え、
     パラメータ導出手段は、動体画素判定手段によって除外されずに残った選択画素に関して処理を行うことによって、第2の画像を第1の画像に変換する変換パラメータを再度導出する
     請求項1から請求項4のうちのいずれか1項に記載の画像変換パラメータ算出装置。
  6.  パラメータ導出手段は、
     画素選択手段によって選択された各選択画素における微分を算出する微分手段と、
     前記微分手段よりも広範囲の画素の画素値から各選択画素における微分を算出する第2の微分手段と、
     画素選択手段によって選択された各選択画素におけるヤコビアン行列と、選択画素群に関するヘシアン行列を算出するパラメータ更新計算前処理手段と、
     予め定められた収束判定条件が満たされるまで、選択画素における微分、ヤコビアン行列およびヘシアン行列を用いて変換パラメータの更新を繰り返すパラメータ計算手段とを含み、
     第2の微分手段が、各選択画素における微分を算出し、
     パラメータ更新計算前処理手段が、前記微分を用いてヤコビアン行列およびヘシアン行列を算出し、
     パラメータ計算手段が、前記微分、ヤコビアン行列およびヘシアン行列を用いて、1回目のパラメータ更新繰り返し処理を行い、
     微分手段が、各選択画素における微分を算出し、
     パラメータ更新計算前処理手段が、前記微分を用いてヤコビアン行列およびヘシアン行列を算出し、
     パラメータ計算手段が、前記微分、ヤコビアン行列およびヘシアン行列を用いて、2回目のパラメータ更新繰り返し処理を行う
     請求項1から請求項5のうちのいずれか1項に記載の画像変換パラメータ算出装置。
  7.  第1の画像からランダムに、予め定められた所定数または当該所定数以下の画素を選択し、
     選択した画素である選択画素に関して処理を行うことによって、第1の画像とともに画像位置あわせの対象となる第2の画像を第1の画像に変換する変換パラメータを導出する
     ことを特徴とする画像変換パラメータ算出方法。
  8.  第1の画像からランダムに画素を抽出し、
     抽出した画素が所定の基準を満たすか否かを判定し、前記画素が前記基準を満たすことを条件に、前記画素を変換パラメータの導出に用いる画素として選択する
     請求項7に記載の画像変換パラメータ算出方法。
  9.  コンピュータに、
     第1の画像からランダムに、予め定められた所定数または当該所定数以下の画素を選択する画素選択処理、および、
     画素選択処理で選択された画素である選択画素に関して処理を行うことによって、第1の画像とともに画像位置あわせの対象となる第2の画像を第1の画像に変換する変換パラメータを導出するパラメータ導出処理
     を実行させるための画像変換パラメータ算出プログラム。
  10.  コンピュータに、
     画素選択処理で、
     第1の画像からランダムに画素を抽出する画素抽出処理、および、
     画素抽出処理で抽出された画素が所定の基準を満たすか否かを判定し、前記画素が前記基準を満たすことを条件に、前記画素を変換パラメータの導出に用いる画素として選択する基準判定処理
     を実行させる請求項9に記載の画像変換パラメータ算出プログラム。
PCT/JP2010/005518 2009-09-28 2010-09-09 画像変換パラメータ算出装置、画像変換パラメータ算出方法およびプログラム WO2011036851A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US13/498,263 US8897601B2 (en) 2009-09-28 2010-09-09 Image conversion parameter calculation device, image conversion parameter calculation method, and program
JP2011532899A JP5712925B2 (ja) 2009-09-28 2010-09-09 画像変換パラメータ算出装置、画像変換パラメータ算出方法およびプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009-223038 2009-09-28
JP2009223038 2009-09-28

Publications (1)

Publication Number Publication Date
WO2011036851A1 true WO2011036851A1 (ja) 2011-03-31

Family

ID=43795621

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/005518 WO2011036851A1 (ja) 2009-09-28 2010-09-09 画像変換パラメータ算出装置、画像変換パラメータ算出方法およびプログラム

Country Status (3)

Country Link
US (1) US8897601B2 (ja)
JP (1) JP5712925B2 (ja)
WO (1) WO2011036851A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014533857A (ja) * 2011-11-17 2014-12-15 コーニンクレッカ フィリップス エヌ ヴェ 画像処理
WO2022190663A1 (ja) * 2021-03-08 2022-09-15 日本電産株式会社 表面検査装置およびプログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2544786A (en) * 2015-11-27 2017-05-31 Univ Of East Anglia Method and system for generating an output image from a plurality of corresponding input image channels
US11403773B2 (en) * 2020-03-28 2022-08-02 Wipro Limited Method of stitching images captured by a vehicle, and a system thereof
CN113077378B (zh) * 2021-03-31 2024-02-09 重庆长安汽车股份有限公司 一种基于车载摄像头的图像处理及目标识别方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08235357A (ja) * 1995-02-24 1996-09-13 Mitsubishi Electric Corp 画像処理装置
JP2002516440A (ja) * 1998-05-18 2002-06-04 データキューブ,インコーポレイテッド 画像認識および相関システム
JP2009104228A (ja) * 2007-10-19 2009-05-14 Tokyo Institute Of Technology 画像位置合わせ方法及び画像位置合わせプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4662969B2 (ja) * 2007-11-08 2011-03-30 株式会社半導体理工学研究センター 画像処理装置及び方法
JP4465002B2 (ja) 2007-11-16 2010-05-19 オリンパス株式会社 ノイズ低減システム、ノイズ低減プログラム及び撮像システム。

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08235357A (ja) * 1995-02-24 1996-09-13 Mitsubishi Electric Corp 画像処理装置
JP2002516440A (ja) * 1998-05-18 2002-06-04 データキューブ,インコーポレイテッド 画像認識および相関システム
JP2009104228A (ja) * 2007-10-19 2009-05-14 Tokyo Institute Of Technology 画像位置合わせ方法及び画像位置合わせプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014533857A (ja) * 2011-11-17 2014-12-15 コーニンクレッカ フィリップス エヌ ヴェ 画像処理
WO2022190663A1 (ja) * 2021-03-08 2022-09-15 日本電産株式会社 表面検査装置およびプログラム

Also Published As

Publication number Publication date
JPWO2011036851A1 (ja) 2013-02-14
JP5712925B2 (ja) 2015-05-07
US8897601B2 (en) 2014-11-25
US20130064451A1 (en) 2013-03-14

Similar Documents

Publication Publication Date Title
JP3935500B2 (ja) 動きベクトル演算方法とこの方法を用いた手ぶれ補正装置、撮像装置、並びに動画生成装置
US9191589B2 (en) Image processing device
JP4480760B2 (ja) 画像データ処理方法および画像処理装置
JP5712925B2 (ja) 画像変換パラメータ算出装置、画像変換パラメータ算出方法およびプログラム
JP5107409B2 (ja) 動き領域の非線形スムージングを用いた動き検出方法およびフィルタリング方法
CN114731408A (zh) 使用结构化神经网络进行视频帧插值的系统、设备和方法
JP2009509408A (ja) 適応的な動き検索範囲
JP2007000205A (ja) 画像処理装置及び画像処理方法並びに画像処理プログラム
JP2012208553A (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP5158262B2 (ja) 画像処理方法および画像処理装置
CN113724155A (zh) 用于自监督单目深度估计的自提升学习方法、装置及设备
JP2020086891A (ja) 画像処理装置、画像処理システム、撮像装置、画像処理方法、プログラム、および、記憶媒体
KR101875532B1 (ko) 계층적 스테레오 매칭 장치 및 방법
WO2012029238A1 (ja) 画像処理システム、画像処理方法および画像処理プログラム
JPWO2008102898A1 (ja) 画質改善処理装置、画質改善処理方法及び画質改善処理プログラム
JP6282133B2 (ja) 撮像装置、その制御方法、および制御プログラム
JP4985542B2 (ja) 対応点探索装置
JP2010506482A (ja) ビデオストリームの視差回復方法及びフィルタ
JP2012003503A (ja) 画像処理装置およびその制御方法、並びにプログラム
CN114339030B (zh) 一种基于自适应可分离卷积的网络直播视频稳像方法
CN101473350A (zh) 全局运动估计
JP4956464B2 (ja) 画像高解像度化装置、学習装置および方法
JP5927053B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6109699B2 (ja) 姿勢パラメータ推定装置、姿勢パラメータ推定方法、およびプログラム
JP2009187138A (ja) 対応点探索装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10818532

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2011532899

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 13498263

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 10818532

Country of ref document: EP

Kind code of ref document: A1