WO2012096163A1 - 画像処理装置、画像処理方法、及びそのプログラム - Google Patents

画像処理装置、画像処理方法、及びそのプログラム Download PDF

Info

Publication number
WO2012096163A1
WO2012096163A1 PCT/JP2012/000106 JP2012000106W WO2012096163A1 WO 2012096163 A1 WO2012096163 A1 WO 2012096163A1 JP 2012000106 W JP2012000106 W JP 2012000106W WO 2012096163 A1 WO2012096163 A1 WO 2012096163A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
sub
feature
feature point
feature points
Prior art date
Application number
PCT/JP2012/000106
Other languages
English (en)
French (fr)
Inventor
整 山田
シェンメイ シェン
ボー リ
チンペク オン
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to US13/583,646 priority Critical patent/US9070042B2/en
Priority to JP2012519262A priority patent/JP5954712B2/ja
Priority to CN201280000903.9A priority patent/CN102859555B/zh
Publication of WO2012096163A1 publication Critical patent/WO2012096163A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows

Definitions

  • the present invention relates to an image processing apparatus and the like.
  • the present invention relates to an image processing apparatus and the like for aligning an image.
  • Techniques for detecting feature points from images and techniques for extracting feature points that satisfy predetermined conditions from the detected feature points are known.
  • the detection and extraction of feature points is also simply referred to as extraction of feature points.
  • Techniques for extracting feature points are widely used in the fields of, for example, matching of images, recognition of specific objects included in images, alignment of images, and calibration at the time of 3D image generation.
  • matching points are pairs of points that represent the same spatial position between different images.
  • a stereoscopic image is generated from two images having a predetermined parallax.
  • the two images may include, in addition to the parallax in the horizontal direction as viewed from the viewer, which is necessary for stereoscopic viewing, the parallax in the vertical direction that occurs due to an assembly error of the lens, blurring at the time of shooting, and the like.
  • the parallax in the vertical direction is a factor that hinders comfortable stereoscopic vision. Therefore, processing to convert one image into the other image is generally performed to suppress parallax in the vertical direction. Specifically, it is necessary to generate a warping matrix for warping one image to the other based on certain conditions so that the difference in vertical position between corresponding feature points becomes smaller.
  • SIFT Scale Invariant Feature Transform
  • SURF Speeded-up Robust Feature
  • U.S. Patent Application Publication No. 2009/0052780 describes a technique for dividing an image into a plurality of areas for a multiprocessor system.
  • DoG Difference of Gaussian
  • SIFT difference of Gaussian
  • the number of feature points extracted from each region is variable, which is determined by the DoG threshold.
  • Patent Document 2 (US Pat. No. 5,731,851) describes a motion compensation method based on feature points.
  • the feature points of the moving object are searched in an area, and the grids associated with these feature points are formed in a hierarchical structure for encoding.
  • Patent Document 3 (US Pat. No. 5,617,459) describes a method for extracting a plurality of feature points in the outline of one object.
  • feature point extraction processing first, feature amounts at a plurality of points included in an image are calculated. Thereafter, a point whose feature amount value is larger than a predetermined threshold is extracted as a feature point.
  • the contrast at a certain point is higher, the value of the feature amount of the point is larger. Therefore, in one image, many feature points are extracted from a portion with high contrast, but feature points are hardly extracted from a portion with low contrast. As a result, in the portion where feature points are hardly extracted, the accuracy of image alignment is degraded.
  • an object of the present invention is to provide an image processing apparatus that further improves the accuracy of image alignment.
  • One aspect of the image processing apparatus extracts a feature point for aligning the vertical direction of the first image and the second image, which are images obtained by photographing the same object from different viewpoints.
  • An image processing apparatus comprising: a division unit that divides each of the first image and the second image into a plurality of sub-regions; and an extraction unit that performs feature point extraction processing for each of the sub-regions.
  • the extraction unit may set the value of the number of the feature points extracted by the extraction process so that the value indicating the degree of variation among the plurality of sub-regions is equal to or less than a predetermined value. It is an image processing apparatus that performs extraction processing.
  • the image processing apparatus extracts feature points so as to suppress variation in the number of feature points extracted for each sub-region. Therefore, feature points can be extracted so as to be uniformly distributed in the image. As a result, the image processing apparatus can further improve the accuracy of image alignment.
  • the present invention can be realized not only as such an image processing apparatus, but also as an image processing method in which characteristic means included in the image processing apparatus are taken as steps, or such characteristic steps are used as a computer. It can also be realized as a program to be executed. It goes without saying that such a program can be distributed via a recording medium such as a compact disc read only memory (CD-ROM) and a transmission medium such as the Internet.
  • a recording medium such as a compact disc read only memory (CD-ROM) and a transmission medium such as the Internet.
  • CD-ROM compact disc read only memory
  • the present invention can be realized as a semiconductor integrated circuit (LSI) that realizes part or all of the functions of such an image processing apparatus, or as an image processing system including such an image processing apparatus.
  • LSI semiconductor integrated circuit
  • FIG. 1 is a conceptual view showing strong features and weak features distributed in an image.
  • FIG. 2 is a diagram showing functional blocks of the image processing apparatus according to the first embodiment of the present invention.
  • FIG. 3 is a flowchart showing an entire process performed by the image processing apparatus according to the first embodiment of the present invention.
  • FIG. 4A is a diagram showing the positions of a plurality of feature points included in a certain image.
  • FIG. 4B is a diagram showing the result of extracting feature points from the image shown in FIG. 4A according to the prior art.
  • FIG. 4C is a diagram showing the result of extracting feature points from the image shown in FIG. 4A by the image processing apparatus according to Embodiment 1 of the present invention.
  • FIG. 4A is a diagram showing the positions of a plurality of feature points included in a certain image.
  • FIG. 4B is a diagram showing the result of extracting feature points from the image shown in FIG. 4A according to the prior art.
  • FIG. 4C is a diagram showing
  • FIG. 5 is a diagram showing functional blocks of the extraction unit according to Embodiment 1 of the present invention.
  • FIG. 6 is a flowchart illustrating in more detail the flow of processing of the image processing apparatus according to the first embodiment of the present invention.
  • FIG. 7 is a flowchart illustrating in more detail the process performed by the extraction unit in step S308a of FIG.
  • FIG. 8 is a flowchart showing a flow of processing performed by the image processing apparatus when the adjustment unit adaptively extracts a feature point by adjusting the contrast.
  • FIG. 9 is a flowchart illustrating in more detail the process performed by the extraction unit in step S308b of FIG.
  • FIG. 10 is a flow chart for explaining the flow of processing for correcting the parallax between the reference image and the target image.
  • FIG. 11 is a conceptual diagram for explaining a process of generating a virtual feature point performed by the image processing apparatus according to the second embodiment of the present invention.
  • FIG. 12 is a diagram showing functional blocks of an extraction unit included in the image processing apparatus according to the second embodiment.
  • FIG. 13 is a diagram showing functional blocks of the virtual feature point generator.
  • FIG. 14 is a conceptual diagram for explaining in detail the process performed by the virtual feature point generator.
  • FIG. 15 is a detailed flowchart illustrating an example of image alignment processing using virtual feature points performed by the image processing apparatus according to the second embodiment.
  • FIG. 16A is a diagram showing a result of feature point extraction by the image processing apparatus according to the first embodiment.
  • FIG. 16B is a diagram showing the result of matching of feature points with respect to the feature points shown in FIG. 16A.
  • FIG. 16A is a diagram showing a result of feature point extraction by the image processing apparatus according to the first embodiment.
  • FIG. 16B is a diagram showing the result of matching of feature points with respect to
  • FIG. 16C is a diagram showing an image obtained by superimposing two images whose deviations have been corrected by the matched feature point pair.
  • FIG. 17 is a block diagram showing the hardware configuration of a computer system that implements the image processing apparatus according to Embodiments 1 and 2 of the present invention.
  • One aspect of the image processing apparatus extracts a feature point for aligning the vertical direction of the first image and the second image, which are images obtained by photographing the same object from different viewpoints.
  • An image processing apparatus comprising: a division unit that divides each of the first image and the second image into a plurality of sub-regions; and an extraction unit that performs feature point extraction processing for each of the sub-regions.
  • the extraction unit may set the value of the number of the feature points extracted by the extraction process so that the value indicating the degree of variation among the plurality of sub-regions is equal to or less than a predetermined value. Perform extraction processing.
  • the image processing apparatus extracts feature points so as to suppress variation in the number of feature points extracted for each sub-region. Therefore, feature points can be extracted so as to be uniformly distributed in the image. As a result, the image processing apparatus can further improve the accuracy of image alignment.
  • the image processing apparatus further includes an alignment unit that aligns the first image and the second image based on the feature points, and the alignment unit includes the first image and the second image.
  • the feature point included in one of the images is matched with the feature point corresponding to it, which is included in the other image, and the difference between the coordinate values in the vertical direction between the matched feature points is more Coordinate conversion may be performed on at least one image so as to be smaller.
  • the image processing apparatus can keep the number of feature points extracted from each sub region within a certain range.
  • the extraction unit is configured such that the difference between the number of feature points extracted from the sub-region and the predetermined number N is equal to or less than a predetermined value,
  • the feature point extraction process may be performed.
  • the image processing apparatus 100 can adjust the number of feature points extracted from the sub region by adjusting the size of the feature point threshold value for each sub region.
  • the extraction unit corresponds, in each of the plurality of sub regions, a feature amount calculation unit that calculates a feature amount corresponding to each of the plurality of pixels included in the sub region, and corresponds among the plurality of pixels.
  • a feature point extraction unit that extracts pixels having feature values equal to or greater than a predetermined feature point threshold as feature points, and the number of feature points extracted by the feature point extraction unit in each of the plurality of sub-regions
  • the image processing apparatus may further include an adjusting unit configured to adjust the size of the feature point threshold in the sub region such that the difference with N is equal to or less than the predetermined value.
  • the image processing apparatus can generate virtual feature points instead of the missing feature points. Therefore, the image alignment can be performed more accurately even for an image for which it is difficult to extract a predetermined number of feature points, such as an image with a small change in contrast.
  • the extraction unit further generates virtual feature points in a first sub region of the plurality of sub regions based on the feature points extracted by the feature point extraction unit.
  • the virtual feature point generation unit is configured such that, in the first sub-region, the difference between the sum of the number of extracted feature points and the number of virtual feature points and the N is less than or equal to the predetermined value
  • the virtual feature points may be generated by the number corresponding to
  • the image processing apparatus can generate virtual feature points in the first image and the second image based on the two points already extracted in the first image.
  • the virtual feature point generation unit is configured to calculate a first virtual point, which is a virtual feature point in the first image, based on a first feature point, which is a feature point included in the first image, and a second feature point.
  • a first virtual point generation unit for generating a distance between the first virtual point and the first feature point in the first image, and a distance between the first virtual point and the second feature point; ,
  • a third feature point which is a point in the second image corresponding to the first feature point, and a point in the second image corresponding to the second feature point.
  • a corresponding point acquisition unit for acquiring a fourth feature point that is the second feature point, and a second virtual point as a virtual feature point corresponding to the first virtual point in the second image by referring to the reference information;
  • a two virtual point generation unit may be provided.
  • the image processing apparatus 100 can adjust the number of extracted feature points by adjusting the contrast of the image for each sub region instead of adjusting the feature point threshold.
  • the extraction unit corresponds, in each of the plurality of sub regions, a feature amount calculation unit that calculates a feature amount corresponding to each of the plurality of pixels included in the sub region, and corresponds among the plurality of pixels.
  • a feature point extraction unit that extracts pixels having feature values equal to or greater than a predetermined feature point threshold as feature points, and the number of feature points extracted by the feature point extraction unit in each of the plurality of sub-regions
  • the image processing apparatus may further include an adjusting unit configured to adjust the size of the image contrast in the sub region such that the difference with N is equal to or less than the predetermined value.
  • the image processing apparatus can extract feature points such that the difference between the number of feature points extracted from each sub region for each sub region falls within a certain range.
  • the extraction unit may calculate the number of feature points extracted from the first sub-regions included in the plurality of sub-regions and the feature points extracted from the second sub-region different from the first sub-region.
  • a feature point extraction process may be performed from the first sub-region and the second sub-region such that the difference between the first sub-region and the second sub-region is less than or equal to a predetermined threshold value.
  • FIG. 1 shows how strong and weak features are distributed in the image.
  • any feature can be used as the feature of the image.
  • FIG. 2 shows functional blocks of the image processing apparatus according to the present embodiment, which solves this problem.
  • the image processing apparatus 100 shown in FIG. 2 is characterized in that the first image and the second image are used to align the first image and the second image, which are images obtained by photographing the same object from different viewpoints.
  • Image processing apparatus for extracting The first image and the second image are, for example, an image for left eye and an image for right eye for stereoscopic vision.
  • the image processing apparatus 100 includes a division unit 102, an extraction unit 104, and a registration unit 106.
  • the dividing unit 102 divides each of the first image and the second image acquired as image data into a plurality of sub-regions.
  • the extraction unit 104 performs feature point extraction processing for each sub-region. More specifically, the extraction unit 104 performs feature point extraction processing so that the value indicating the degree of variation among the plurality of sub-regions of the number of extracted feature points is equal to or less than a predetermined value. . Specifically, for each sub region, the extraction unit 104 is characterized by a number such that the difference between the number of feature points extracted from the sub region by the extraction processing and the predetermined number N is equal to or less than a predetermined value. Perform point extraction processing. The extraction unit 104 also calculates a feature descriptor for each of the extracted feature points. The specific process performed by the extraction unit 104 will be described later.
  • the alignment unit 106 performs alignment based on the extracted feature points such that the parallax in the vertical direction between the first image and the second image is smaller.
  • the alignment unit 106 first adds a feature point included in one of the first image and the second image and a feature point corresponding to the feature point and included in the other image.
  • the corresponding feature points are feature points that represent the same spatial position.
  • the alignment unit 106 determines, for each of the feature points included in the first image, a feature whose feature descriptor is most similar among the feature points included in the second image. By searching for points, feature points between both images are matched.
  • the alignment unit 106 performs coordinate conversion on at least one of the images so that the difference between the coordinate values in the vertical direction between the matched feature points becomes smaller.
  • coordinate conversion is performed on the second image based on the first image.
  • the alignment unit 106 outputs data representing the first image and the coordinate-transformed second image.
  • the image processing apparatus 100 may not include the alignment unit 106.
  • the image processing apparatus 100 outputs coordinate values of feature points extracted for each of the first image and the second image. Since the process performed by the alignment unit 106 is a process according to the related art, for example, when the external device of the image processing apparatus 100 performs the process corresponding to the alignment unit 106, the same effect of the invention can be obtained. Further, the alignment unit 106 may not perform coordinate conversion after matching feature points between both images. In this case, the alignment unit 106 outputs a pair of coordinate values of the matched feature points.
  • FIG. 3 is a flowchart showing an example of the entire processing performed by the image processing apparatus 100.
  • step S100 a plurality of images (for example, a first image and a second image) are input to the image processing apparatus 100.
  • step S102 the division unit 102 divides each input image into a plurality of subregions.
  • the number of divisions is not particularly limited. Also, the first image and the second image may be divided similarly, or the first image and the second image may be divided differently.
  • step S104 the extraction unit 104 performs feature point extraction processing continuously or in parallel from each sub-region using the threshold value adaptively changed for each sub-region.
  • step S106 the extraction unit 104 calculates a feature descriptor for each feature point extracted in the previous step.
  • step S108 the alignment unit 106 matches feature points between different images. Specifically, a feature point having a feature amount descriptor most similar to a feature amount descriptor of a certain feature point, which is selected from feature points included in the first image, is included in the second image Select from among the feature points. The two feature points selected in this manner are used as matched feature points.
  • step S110 a pair of coordinate values of the matched feature points is output.
  • the alignment unit 106 may perform tracking of feature points instead of matching the feature points.
  • the image processing apparatus 100 may omit the process of at least one of steps S108 and S110. In this case, the same effect of the invention can be obtained by performing the process corresponding to the step in which the external device is omitted.
  • the feature points extracted by the conventional technique are compared with the feature points extracted by the extracting unit 104 provided in the image processing apparatus 100.
  • FIG. 4A shows the positions of feature points included in an image 200.
  • a feature point indicated by a filled triangle indicates a feature point whose feature is strong (that is, the feature amount of the feature point is large).
  • a feature point indicated by a triangle in which a dot is sung indicates a feature point of which the feature is medium (that is, the size of the feature amount of the feature point is medium).
  • the feature point indicated by an open triangle indicates a feature point having a weak feature (that is, a feature amount of the feature point is small).
  • FIG. 4B shows the result of extracting feature points from the image 200 according to the prior art.
  • the prior art most of the extracted feature points are occupied by feature points with strong features. This is because in the related art, in the entire image 200, a point having a feature amount equal to or more than a predetermined threshold value is extracted as a feature point.
  • the extracted feature points are unevenly distributed around the upper right of the image 200.
  • the entire image is incorrectly represented due to the non-uniform distribution of feature points.
  • FIG. 4C shows the result of extracting feature points from the image 200 by the image processing apparatus 100 according to the present embodiment.
  • feature points are uniformly extracted from the entire image.
  • the extracted feature points include strong feature points, relatively strong (i.e., medium) feature points, and weak feature points.
  • strong feature points relatively strong (i.e., medium) feature points
  • weak feature points As shown in FIG. 4C, if the distribution of the extracted feature points is uniform, the alignment of the image based on the feature points is more robust and stable.
  • FIG. 5 shows functional blocks of the extraction unit 104 according to the present embodiment.
  • the extraction unit 104 includes a feature amount calculation unit 112, a feature point extraction unit 114, and an adjustment unit 116.
  • the feature amount calculation unit 112 calculates, in each of the plurality of sub-areas divided by the division unit 102, a feature amount corresponding to each of the plurality of pixels included in the sub-area. As described above, although any feature amount can be used, the feature amount calculation unit 112 calculates the feature amount using, for example, the contrast value of the pixel. More specifically, it is conceivable to use gradient-based features such as SIFT features or SURF features.
  • the feature point extraction unit 114 extracts, as a feature point, a pixel whose corresponding feature amount is equal to or greater than a predetermined feature point threshold among a plurality of pixels. Thereafter, the feature point extraction unit 114 outputs the coordinate values of the extracted feature points.
  • Adjustment unit 116 determines that the difference between the number of feature points extracted by feature point extraction unit 114 and the target number of feature points to be extracted in each of the plurality of sub-regions is a predetermined value or less The size of the feature point threshold in the sub region is adjusted so that
  • the adjustment unit 116 further reduces the size of the feature point threshold. Conversely, when the number of feature points extracted by the feature point extraction unit 114 is larger than N, the size of the feature point threshold is increased.
  • FIG. 6 is a flowchart for explaining the process flow of the image processing apparatus 100 in more detail.
  • step S302 the dividing unit 102 divides the reference image and the target image into a plurality of sub-regions.
  • One of the first and second images described above corresponds to a reference image, and the other corresponds to a target image.
  • step S304 the extraction unit 104 calculates a contrast value for each sub region included in each of the reference image and the target image.
  • the extraction unit 104 performs feature point extraction processing for each sub region using a predetermined feature point threshold value in step S306 based on the contrast value. Note that the extraction processing of the feature points may be performed continuously for each sub region by the extraction unit 104, or may be performed in parallel between the sub regions.
  • the extraction unit 104 adaptively adjusts the feature point threshold so that each sub region has a sufficient number of feature points.
  • the extraction unit 104 may adjust the feature point threshold so that the difference between the number of feature points included in the sub area for each sub area is equal to or less than a predetermined value.
  • the extraction unit 104 calculates a feature descriptor for each extracted feature point.
  • the feature descriptor is, for example, information representing a feature amount for each direction at each extracted feature point.
  • the feature amount is, for example, information indicating the gradient of the luminance value calculated for each direction.
  • step S312 the alignment unit 106 matches corresponding feature points representing the same spatial position between the reference image and the target image.
  • step S314 the alignment unit 106 outputs a pair of coordinate values of the matched feature points.
  • FIG. 7 is a flowchart illustrating in more detail the process performed by the extraction unit 104 in step S308a of FIG.
  • step S402 the extraction unit 104 selects an arbitrary one of the plurality of sub-regions. Thereafter, the feature amount calculation unit 112 calculates feature amounts for a plurality of points included in the selected sub-region. For example, the feature amount calculation unit 112 may calculate the feature amounts for all the pixels in the sub region, or may calculate the feature amounts for a plurality of pixels sampled without bias in the sub region.
  • step S404 the feature point extraction unit 114 extracts feature points in the selected sub-region using a predetermined feature point threshold.
  • step S406 the adjustment unit 116 determines whether the number of extracted feature points has reached or is close to N. In other words, the adjustment unit 116 determines whether the difference between the number of extracted feature points and N is equal to or less than a predetermined value.
  • the adjustment unit 116 outputs the feature points extracted in the sub-region.
  • step S410 the extraction unit 104 determines whether there is no subregion not selected yet in step S402 among the plurality of subregions (that is, the subregion selected in step S402 is selected by the extraction unit 104). Determine if it is the last sub-region to be processed).
  • the extraction unit 104 selects the next sub-region and performs the same processing (S402) ).
  • the extraction unit 104 extracts feature points extracted for all the sub-regions. Output coordinates.
  • the adjustment unit 116 determines in step S408 that the feature point threshold value new for the target sub-region. Set Specifically, when the number of extracted feature points is larger than N, the feature point threshold is increased. In addition, when the number of extracted feature points is smaller than N, the feature point threshold is made smaller.
  • the extraction unit 104 causes the feature point extraction unit 114 to extract feature points in the sub-region again (S404).
  • the adjustment unit 116 extracts feature points by adjusting the feature point threshold for each sub region.
  • the adjustment unit 116 may extract feature points by adjusting the contrast of the image for each sub region.
  • FIG. 8 is a flowchart showing a flow of processing performed by the image processing apparatus 100 when the adjustment unit 116 adaptively extracts a feature point by adjusting the contrast.
  • step S308b The processes shown in FIG. 8 are the same as those in FIG. 6 except for step S308b. Thus, the process of step S308b will be described here.
  • step S308b the adjustment unit 116 sharpens weak features by adaptively adjusting the image contrast for each sub region.
  • the feature point extraction unit 114 can easily extract weak features.
  • the extraction unit 104 can perform feature point extraction processing so that each sub region reliably includes a sufficient number of feature points.
  • the extraction unit 104 may adjust the feature point threshold so that the difference between the number of feature points included in the sub area for each sub area is equal to or less than a predetermined value.
  • FIG. 9 is a flowchart illustrating in more detail the process performed by the extraction unit 104 in step S308b of FIG. Note that among the processes performed by the extraction unit 104, the difference from FIG. 7 is only step S409. Therefore, the process of step S409 will be mainly described.
  • the adjustment unit 116 adjusts the contrast in the target sub-region in step S409. Specifically, when the number of extracted feature points is smaller than N, the adjustment unit 116 makes the contrast value larger. Conversely, if the number of extracted feature points is larger than N, the contrast value is made smaller. As described above, the adjustment unit 116 adaptively adjusts the contrast for each sub region.
  • the extraction unit 104 causes the feature point extraction unit 114 to extract feature points in the sub-region again (S404).
  • the extraction unit 104 calculates the feature amount corresponding to each of the plurality of pixels included in the sub-region, and the corresponding feature among the plurality of pixels.
  • the number and N of feature points extracted by the feature point extracting unit 114 in each of the plurality of sub-regions and the feature point extracting unit 114 extracting a pixel whose amount is equal to or more than a predetermined feature point threshold as a feature point
  • the adjustment unit 116 configured to adjust the size of the image contrast in the sub region so that the difference between
  • FIG. 10 is a flowchart for explaining the flow of processing in which the image processing apparatus 100 corrects the parallax between the reference image and the target image.
  • step S502 the division unit 102 divides the reference image and the target image into a plurality of subregions.
  • step S504 the extraction unit 104 calculates a contrast value for each image. Based on the contrast value, in step S506, the extraction unit 104 performs feature point extraction processing for each sub-region using a predetermined threshold.
  • step S508 the extraction unit 104 adaptively adjusts the threshold value to extract from each sub-region the feature points that are sufficient in number for alignment and have the same number in each sub-region. .
  • step S510 the extraction unit 104 calculates a feature descriptor for each extracted feature point.
  • step S512 the alignment unit 106 matches feature points between the reference image and the target image.
  • the alignment unit 106 calculates a warp matrix based on the matched feature points.
  • the alignment unit 106 calculates, for example, a matrix that suppresses the difference in the vertical direction with respect to the image among the coordinate values of the matched feature points, as a warp matrix.
  • the warping matrix is represented, for example, in the form of an affine transformation matrix or a rotation matrix.
  • step S514 the alignment unit 106 adjusts the positional relationship between the reference image and the target image to be suitable for stereoscopic vision by applying the warping matrix to the reference image.
  • the image processing apparatus 100 divides one image into sub-regions, and extracts feature points so that the number of feature points extracted in each sub-region is not biased. In order to adjust the threshold used for each subregion.
  • the image processing apparatus 100 can perform image alignment at higher speed.
  • Second Embodiment Also in the image processing apparatus 100 according to the first embodiment, for example, in a region where there is almost no difference in contrast, it becomes difficult to extract an appropriate feature point by adjusting the threshold value.
  • the image processing apparatus generates virtual feature points in order to solve this problem. A more detailed description will be given below.
  • FIG. 11 is a conceptual diagram for explaining the process of generating virtual feature points.
  • FP1 and FP2 are assumed to be two true feature points extracted in the reference image.
  • No_T is a sub-region (textureless region) not including a texture.
  • No_T indicates the generated virtual feature point FakePt.
  • the position of the virtual feature point FakePt is a point derived using the two extracted true feature points by specifying the distance d1 between FakePt and FP1 and the distance d2 between FakePt and FP2 is there.
  • the same method is applied to the target image. This is to arrange virtual feature points at the same distance as the distances d1 and d2 respectively from the two true feature points extracted in the target image, which respectively match the two true feature points in the reference image It takes place in
  • virtual feature points can be generated in the textureless region included in the target image and the reference image.
  • FIG. 12 shows functional blocks of the extraction unit 104A included in the image processing apparatus according to the present embodiment.
  • the extraction unit 104A includes a feature amount calculation unit 112, a feature point extraction unit 114A, an adjustment unit 116, and a virtual feature point generation unit 118.
  • a feature amount calculation unit 112 the extraction unit 104A includes a feature amount calculation unit 112 and a feature point extraction unit 114A.
  • an adjustment unit 116 the adjustment unit 116 and a virtual feature point generation unit 118.
  • a virtual feature point generation unit 118 As illustrated in FIG. 12, the extraction unit 104A includes a feature amount calculation unit 112, a feature point extraction unit 114A, an adjustment unit 116, and a virtual feature point generation unit 118.
  • the feature point extraction unit 114A causes the virtual feature point generation unit 118 to generate virtual feature points when it is determined that the required number of feature points can not be extracted even by adjusting the feature point threshold value by the adjustment unit 116.
  • the virtual feature point generation unit 118 generates a virtual feature point in the first sub-region included in the plurality of sub-regions based on the feature point extracted by the feature point extraction unit 114A. More specifically, in the first sub-region, the virtual feature point generation unit 118 sets the difference between the sum of the number of extracted feature points and the number of virtual feature points and the predetermined number N. The virtual feature points are generated by the number that is equal to or less than a predetermined value.
  • the first sub-region is a sub-region in which a required number of feature points could not be extracted by the adjustment unit 116 because the change in luminance is small.
  • the sub-region indicated as No_T in FIG. 11 corresponds.
  • FIG. 13 shows functional blocks of the virtual feature point generator 118.
  • the virtual feature point generation unit 118 includes a first virtual point generation unit 122, a reference information acquisition unit 124, a corresponding point acquisition unit 126, and a second virtual point generation unit 128.
  • the first virtual point generation unit 122 generates a virtual feature in the first image based on the first feature point and the second feature point, which are feature points extracted from the first image by the feature point extraction unit 114A. Generate points. This virtual feature point is also referred to as a first virtual point.
  • the reference information acquisition unit 124 acquires reference information including each of the distance between the first virtual point and the first feature point and the distance between the first virtual point and the second feature point in the first image.
  • the corresponding point obtaining unit 126 sets a third feature point which is a point in the second image corresponding to the first feature point, and a fourth feature point which is a point in the second image corresponding to the second feature point.
  • the second virtual point generation unit 128 generates a second virtual point as a virtual feature point corresponding to the first virtual point in the second image by referring to the reference information.
  • the first virtual point generation unit 122 determines that the number of extracted feature points does not reach the predetermined number N among the plurality of sub-regions.
  • the first sub-region is selected as the region.
  • the first virtual point generation unit 122 may, for example, select a first feature point (also referred to as FP1) from among the feature points extracted by the extraction unit 104A within a predetermined distance from the first sub-region.
  • a feature point (also referred to as FP2) is selected.
  • the first virtual point generation unit 122 sets a feature point included in a sub-region outside the first sub-region as the closest feature point to the first sub-region as FP1 and a second closest feature point as FP2. You may choose.
  • the first virtual point generation unit 122 generates a virtual feature point as a point at which the line segment connecting FP1 and FP2 is divided at a predetermined ratio.
  • the first virtual point generation unit 122 determines the ratio of dividing the line segment connecting FP1 and FP2 to be proportional to the strength (the size of the feature amount) of the features of FP1 and FP2, for example. It is also good.
  • the virtual feature point may be determined to be located in the sub-region from which the feature point is not extracted. Alternatively, it may be determined as the midpoint of FP1 and FP2.
  • the reference information acquisition unit 124 acquires the distance d1 between FP1 and the virtual feature point, and the distance d2 between FP2 and the virtual feature point.
  • Information including d1 and d2 is referred to as reference information.
  • the corresponding point acquisition unit 126 is a third feature point (also referred to as FP3) and a fourth feature point (also FP4) which are feature points extracted in the second image and are points corresponding to FP1 and FP2, respectively.
  • FP3 and FP1 correspond to the same spatial position.
  • FP4 and FP2 correspond to the same spatial position.
  • the second virtual point generation unit 128 sets a point located at a distance from FP3 to d1 and at a distance from FP4 to d2 as a virtual feature point.
  • the second virtual point generation unit 128 is the feature that is most similar to the virtual feature point among the points included in a certain area centering on a point that is at a distance from FP3 to d1 and from FP4 to d2.
  • a point having a descriptor may be set as a virtual feature point.
  • FIG. 15 shows an example of image alignment processing using virtual feature points in the present embodiment.
  • step S702 an image filter is applied to the input image pair, and the response is calculated.
  • an image filter a low pass filter, a band pass filter, etc. are considered, for example.
  • step S704 the division unit 102 divides the image into a plurality of subregions. Note that the division unit 102 may divide the image into sub-regions before this.
  • step S706 the extraction unit 104A performs feature point extraction processing from each sub region. Furthermore, in step S708, the extraction unit 104A confirms whether the extracted feature points are sufficient and whether they are uniformly distributed over the entire image.
  • the alignment unit 106 performs the process on the extracted feature points in step S716. Perform the matching process. Subsequently, in step S718, a warp matrix is generated using the pair of corresponding feature points matched in step S716. Finally, the alignment unit 106 aligns the image pair in step S720.
  • the extraction unit 104A determines that a sufficient number of feature points can not be uniformly extracted from the entire image (No in step S708), the extraction unit 104A adjusts the feature point threshold in step S710, Extract feature points with weak features.
  • step S716 when the extraction unit 104A determines that a sufficient number of feature points have been uniformly extracted from the entire image (yes in S711), the process proceeds to step S716.
  • the extraction unit 104A determines in step S712 whether adjustment of the feature point threshold has been performed a predetermined number of times or more.
  • the extraction unit 104A adjusts the feature point threshold again in step S710. If the predetermined number of times has been reached (yes in step S712), the virtual feature point generation unit 118 generates a virtual feature point in step S713.
  • the image processing apparatus in an image including a sub-region whose contrast is weak enough to make it difficult to extract feature points, the image processing apparatus according to the first embodiment can A virtual feature point is generated as a pair of a virtual point and a second virtual point corresponding thereto.
  • the image processing apparatus in addition to the pair of true feature points extracted by the extraction unit 104, the image processing apparatus can perform image alignment with higher accuracy by using the pair of virtual feature points in combination.
  • FIGS. 16A to 16C a comparison of the result of image registration by the image processing apparatus according to the present invention with the result of image registration by the conventional method is shown as an example.
  • An image 802 shown in FIG. 16A, an image 804 shown in FIG. 16B, and an image 806 shown in FIG. 16C show the results of feature point extraction by the image processing apparatus according to the present invention.
  • an image 808 shown in FIG. 16A, an image 810 shown in FIG. 16B, and an image 812 shown in FIG. 16C show results of extracting feature points based on pixel values included in the entire frame by a conventional method.
  • feature points are extracted from sub-region 822 in image 802, but no feature points are extracted from sub-region 882 in image 808.
  • the image 802 is extracted so that feature points are more uniformly distributed in the entire image than in the case of the image 808. Specifically, many feature points in the image 808 gather on the right side of the image. This non-uniform distribution of feature points affects the results of feature matching and image registration as described below.
  • FIG. 16B shows the result of matching of feature points.
  • White lines shown in the image indicate positional deviations between feature points of matched pairs.
  • the image 804 is a result of matching the feature points in two images (for example, the image for the left eye and the image for the right eye) in which the feature points are extracted using the image processing apparatus according to the present invention
  • an image 810 shows the result of matching of feature points in two images in which feature points are extracted using the prior art.
  • the matching results in image 804 are more uniformly distributed in the image than in image 810, which shows the results of matching with feature points extracted by the conventional method.
  • the feature point pair 842 indicates one pair of feature points matched between the reference image and the target image.
  • FIG. 16C shows an image obtained by superimposing two images whose deviations have been corrected by the pair of matched feature points.
  • the image 806 is an image obtained by superimposing two images aligned using the image processing apparatus according to the present invention.
  • an image 812 is an image obtained by superimposing two images aligned using the conventional technique.
  • image 806 the result of registration of the image based on feature point extraction according to the present invention is more reasonable and consistent throughout the image. Specifically, distant objects have small parallaxes and near objects have larger parallaxes.
  • image 812 the result of image registration based on conventional feature point extraction is inaccurate and inconsistent across the entire image. Specifically, the distant object has a large disparity. Thus, in many cases high quality results are obtained in the registration of images according to the invention. This shows that the distribution of uniform feature points extracted by the feature point extraction method by the image processing apparatus described in the present invention is useful.
  • the image processing apparatus first performs a process of dividing the acquired reference image and target image into sub-regions. However, before extracting the feature points for each sub region, the image processing apparatus extracts the feature points for the entire image of one sheet, and only when the distribution of the extracted feature points is biased, the image May be divided into a plurality of subregions. For example, referring to FIG. 6, before the dividing unit 102 divides each of the reference image and the target image into a plurality of regions in step S302, the extracting unit 104 extracts the entire image region of each of the reference image and the target image. Extract feature points. After that, the extraction unit 104 may perform the process after step S302 if the deviation of the distribution position in each image of the extracted feature points is equal to or more than a predetermined threshold.
  • the extraction unit compares the number of feature points extracted for each sub-region with the number N determined in advance, and the difference is equal to or less than a predetermined value.
  • the feature point threshold was adjusted. However, if the extraction unit can extract feature points so that the degree of variation between the sub-regions of the number of feature points extracted for each sub-region is less than or equal to a predetermined value, the feature points are obtained by another method. The threshold may be adjusted.
  • the extraction unit is configured to calculate the number of feature points extracted from the first sub-region and the number of feature points extracted from the second sub-region different from the first sub-region among the plurality of sub-regions
  • the feature points may be extracted from the first sub-region and the second sub-region such that the difference of is equal to or less than a predetermined threshold.
  • the extraction unit In each of them, the feature points may be extracted by the number such that the difference between the number of feature points extracted from the sub-region and the number N determined in advance is equal to or less than a predetermined value.
  • FIG. 17 is a block diagram showing the hardware configuration of a computer system for realizing the image processing apparatus according to the present invention.
  • the image processing apparatus is executed by a computer 34, a keyboard 36 and a mouse 38 for giving instructions to the computer 34, a display 32 for presenting information such as calculation results of the computer 34, and the computer 34.
  • a program which is a process performed by the image processing apparatus according to the present invention is stored in a CD-ROM 42 which is a computer readable medium, and read by the CD-ROM device 40. Alternatively, it is read by the communication modem 52 through a computer network.
  • the computer 34 includes a central processing unit (CPU) 44, a read only memory (ROM) 46, a random access memory (RAM) 48, a hard disk 50, a communication modem 52, and a bus 54.
  • CPU central processing unit
  • ROM read only memory
  • RAM random access memory
  • the CPU 44 executes the program read via the CD-ROM device 40 or the communication modem 52.
  • the ROM 46 stores programs and data necessary for the operation of the computer 34.
  • the RAM 48 stores data such as parameters at the time of program execution.
  • the hard disk 50 stores programs, data, and the like.
  • the communication modem 52 communicates with other computers via a computer network.
  • the bus 54 mutually connects the CPU 44, the ROM 46, the RAM 48, the hard disk 50, the communication modem 52, the display 32, the keyboard 36, the mouse 38 and the CD-ROM device 40 to one another.
  • the system LSI is a super-multifunctional LSI manufactured by integrating a plurality of components on one chip, and more specifically, a computer system including a microprocessor, a ROM, a RAM, and the like. .
  • a computer program is stored in the RAM.
  • the system LSI achieves its functions by the microprocessor operating according to the computer program.
  • IC card or module is a computer system including a microprocessor, a ROM, a RAM, and the like.
  • the IC card or module may include the above-described ultra-multifunctional LSI.
  • the IC card or module achieves its functions by the microprocessor operating according to the computer program. This IC card or this module may be tamper resistant.
  • the present invention may be the method described above.
  • the present invention may also be a computer program that implements these methods by a computer. Also, it may be a digital signal consisting of a computer program.
  • the present invention is a computer-readable recording medium that can read the computer program or the digital signal, such as a flexible disk, a hard disk, a CD-ROM, an MO, a DVD, a DVD-ROM, a DVD-RAM, a BD (Blu-ray Disc (Registered trademark), a memory card such as a USB memory or an SD card, or a semiconductor memory may be used. Further, the present invention may be the digital signal recorded on these recording media.
  • the computer program or the digital signal may be transmitted via a telecommunications line, a wireless or wired communication line, a network represented by the Internet, data broadcasting, and the like.
  • the present invention may be a computer system comprising a microprocessor and a memory, wherein the memory stores the computer program, and the microprocessor operates according to the computer program.
  • the present invention can be applied to an image processing apparatus, and in particular, to an image processing apparatus that aligns an image.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

 同一の物体を異なる視点から撮影した画像である第1画像と第2画像との垂直方向の視差を抑制する位置合わせの精度をより向上させるため、本発明に係る画像処理装置(100)は、第1画像及び第2画像のそれぞれを、複数のサブ領域へ分割する分割部(102)と、サブ領域ごとに、特徴点の抽出処理を行う抽出部(104)とを備え、抽出部(104)は、抽出された特徴点の数の、複数のサブ領域間におけるばらつき度合いを示す値が、事前に定められた値以下となるように、特徴点の抽出処理を行う。

Description

画像処理装置、画像処理方法、及びそのプログラム
 本発明は、画像処理装置等に関する。特に、画像の位置合わせをする画像処理装置等に関する。
 画像から特徴点を検出する技術、及び検出した特徴点から所定の条件を満たす特徴点を抽出する技術が知られている。以後、特徴点の検出及び抽出を、単に、特徴点の抽出ともいう。特徴点を抽出する技術は、例えば、画像のマッチング、画像に含まれる特定オブジェクトの認識、画像の位置合わせ、及び3D画像生成時のキャリブレーションなどの分野において広く用いられている。
 これらの分野においては、同一の物体を異なる視点から撮影した複数の画像のそれぞれに対して、特徴点を抽出した後、異なる画像間で対応する特徴点のペアであるマッチングポイントを見つける。
 すなわち、マッチングポイントとは、異なる画像間において同一の空間位置を表す点のペアである。
 例えば、所定の視差を有する2枚の画像から立体視用の画像を生成する場合を考える。ここで、2枚の画像には、立体視に必要な、視聴者から見た水平方向の視差に加え、レンズの組み付け誤差や撮影時のブレ等により生じる垂直方向の視差が含まれうる。垂直方向の視差は、快適な立体視を妨げる要因となる。したがって、垂直方向の視差を抑制するように一方の画像を他方の画像にあわせて変換する処理が一般に行われる。具体的には、対応する特徴点間の垂直位置の差がより小さくなるように、一定の条件に基づいて一方の画像を他方にワープするためのワープ行列を生成することが必要である。
 したがって、画像の位置合わせにおいては、まず、2枚の画像それぞれから特徴点を抽出する。次に、抽出した特徴点のうち、2枚の画像間で対応するマッチングペアを見つける。その後、マッチングペアに含まれる垂直視差を抑制するようにワープ行列を生成する。最後に、一方の画像にワープ行列による変換処理を施す。これにより、好適な立体視画像を生成できる。
 画像から特徴点を抽出するには多くの方法が知られている。例えば、回転及び拡大・縮小等の変換に不変な特徴量であるSIFT(Scale Invariant Feature Transform)特徴量、又はSURF(Speeded-up Robust Feature)特徴量等を用いた、種々の特徴点の抽出方法が知られている。
 例えば、特許文献1(米国特許出願公開第2009/0052780号明細書)には、マルチプロセッサシステム用に画像を複数の領域に分割する技術が記載されている。この文献では、SIFTによる特徴の抽出にDoG(Difference of Gaussian)を用いている。ここでは、各領域から抽出される特徴点の数は可変であり、これはDoGの閾値によって決定される。
 また、特許文献2(米国特許第5731851号明細書)には、特徴点に基づく動き補償方式が記載されている。移動オブジェクトの特徴点をある領域内で検索し、これらの特徴点に関連付けられているグリッドが、符号化用に階層構造で形成される。
 また、特許文献3(米国特許第5617459号明細書)には、1つのオブジェクトの輪郭における複数の特徴点を抽出する方法が記載されている。
米国特許出願公開第2009/0052780号明細書 米国特許第5731851号明細書 米国特許第5617459号明細書
 しかしながら、上記いずれの従来技術によっても、1枚の画像から抽出される特徴点の画像内における位置の分布が不均一となるために、画像の位置合わせの精度が低下するという課題がある。
 従来技術に係る特徴点の抽出処理においては、まず画像に含まれる複数の点における特徴量を算出する。その後、特徴量の値が所定の閾値よりも大きな点を、特徴点として抽出する。
 ここで、ある点におけるコントラストが高いほど、当該点の特徴量の値は大きくなる。したがって、1枚の画像において、コントラストが高い部分からは多くの特徴点が抽出されるが、コントラストが低い部分からはほとんど特徴点が抽出されない。その結果、ほとんど特徴点が抽出されなかった部分において、画像の位置合わせの精度が低下してしまう。
 そこで、本発明は、画像の位置合わせの精度をより向上させる画像処理装置を提供することを目的とする。
 本発明に係る画像処理装置の一態様は、同一の物体を異なる視点から撮影した画像である第1画像と第2画像との垂直方向の視差を抑制する位置合わせをするための特徴点を抽出する画像処理装置であって、前記第1画像及び前記第2画像のそれぞれを、複数のサブ領域へ分割する分割部と、前記サブ領域ごとに、特徴点の抽出処理を行う抽出部とを備え、前記抽出部は、前記抽出処理により抽出される前記特徴点の数の、前記複数のサブ領域間におけるばらつき度合いを示す値が、事前に定められた値以下となるように、前記特徴点の抽出処理を行う画像処理装置である。
 この構成によると、画像処理装置は、サブ領域ごとに抽出される特徴点の数にばらつきを抑えるように、特徴点を抽出する。したがって、画像内で均一に分布するように特徴点を抽出することができる。その結果、画像処理装置は、画像の位置合わせの精度をより向上させることができる。
 なお、本発明は、このような画像処理装置として実現できるだけでなく、画像処理装置に含まれる特徴的な手段をステップとする画像処理方法として実現したり、そのような特徴的なステップをコンピュータに実行させるプログラムとして実現したりすることもできる。そして、そのようなプログラムは、CD-ROM(Compact Disc Read Only Memory)等の記録媒体及びインターネット等の伝送媒体を介して流通させることができるのはいうまでもない。
 さらに、本発明は、このような画像処理装置の機能の一部又は全てを実現する半導体集積回路(LSI)として実現したり、このような画像処理装置を含む画像処理システムとして実現したりできる。
 画像内で均一に分布するように特徴点を抽出することにより、画像の位置合わせの精度をより向上させる画像処理装置を提供できる。
図1は、画像内に分布する強い特徴と弱い特徴とを示す概念図である。 図2は、本発明の実施の形態1に係る画像処理装置の機能ブロックを示す図である。 図3は、本発明の実施の形態1に係る画像処理装置が行う全体の処理を示すフローチャートである。 図4Aは、ある画像に含まれる複数の特徴点の位置を示す図である。 図4Bは、従来技術により図4Aに示される画像から特徴点を抽出した結果を示す図である。 図4Cは、本発明の実施の形態1に係る画像処理装置により、図4Aに示される画像から特徴点を抽出した結果を示す図である。 図5は、本発明の実施の形態1に係る抽出部の機能ブロックを示す図である。 図6は、本発明の実施の形態1に係る画像処理装置の処理の流れをより詳細に説明するフローチャートである。 図7は、図6のステップS308aにおいて抽出部が行う処理をより詳細に説明するフローチャートである。 図8は、調整部がコントラストを調整することにより適応的に特徴点を抽出する場合における、画像処理装置が行う処理の流れを示すフローチャートである。 図9は、図8のステップS308bにおいて抽出部が行う処理をより詳細に説明するフローチャートである。 図10は、参照画像と対象画像との視差を補正する処理の流れを説明するフローチャートである。 図11は、本発明の実施の形態2に係る画像処理装置が行う、仮想特徴点を生成する処理を説明する概念図である。 図12は、実施の形態2に係る画像処理装置が備える抽出部の機能ブロックを示す図である。 図13は、仮想特徴点生成部の機能ブロックを示す図である。 図14は、仮想特徴点生成部が行う処理を詳細に説明する概念図である。 図15は、実施の形態2に係る画像処理装置が行う、仮想特徴点を用いた画像の位置合わせ処理の一例を示す詳細なフローチャートである。 図16Aは、実施の形態1に係る画像処理装置による特徴点抽出の結果を示す図である。 図16Bは、図16Aで示される特徴点に対して、特徴点のマッチングを行った結果を示す図である。 図16Cは、マッチングさせた特徴点のペアによりズレを修正した2枚の画像を重ね合わせた画像を示す図である。 図17は、本発明の実施の形態1及び2に係る画像処理装置を実現するコンピュータシステムのハードウェア構成を示すブロック図である。
 本発明に係る画像処理装置の一態様は、同一の物体を異なる視点から撮影した画像である第1画像と第2画像との垂直方向の視差を抑制する位置合わせをするための特徴点を抽出する画像処理装置であって、前記第1画像及び前記第2画像のそれぞれを、複数のサブ領域へ分割する分割部と、前記サブ領域ごとに、特徴点の抽出処理を行う抽出部とを備え、前記抽出部は、前記抽出処理により抽出される前記特徴点の数の、前記複数のサブ領域間におけるばらつき度合いを示す値が、事前に定められた値以下となるように、前記特徴点の抽出処理を行う。
 この構成によると、画像処理装置は、サブ領域ごとに抽出される特徴点の数にばらつきを抑えるように、特徴点を抽出する。したがって、画像内で均一に分布するように特徴点を抽出することができる。その結果、画像処理装置は、画像の位置合わせの精度をより向上させることができる。
 具体的には、さらに、前記特徴点に基づいて、前記第1画像と前記第2画像との位置合わせを行う位置合わせ部を備え、前記位置合わせ部は、前記第1画像及び前記第2画像の一方の画像に含まれる特徴点と、これに対応する特徴点であって、他方の画像に含まれる特徴点とをマッチングさせ、マッチングされた特徴点同士の垂直方向の座標値の差がより小さくなるように、少なくとも一方の画像に対して座標変換を施すとしてもよい。
 これによると、画像処理装置は、各サブ領域から抽出する特徴点の数を、一定の範囲に保つことができる。
 より具体的には、前記抽出部は、前記複数のサブ領域の各々において、当該サブ領域から抽出した特徴点の数と事前に定められた数Nとの差が所定値以下となる個数だけ、前記特徴点の抽出処理を行うとしてもよい。
 これによると、画像処理装置100は、サブ領域ごとに特徴点閾値の大きさを調整することにより、当該サブ領域から抽出される特徴点の数を調整することができる。
 また、前記抽出部は、前記複数のサブ領域の各々において、当該サブ領域に含まれる複数の画素のそれぞれに対応する特徴量を算出する特徴量算出部と、前記複数の画素のうち、対応する特徴量が事前に定められた特徴点閾値以上となる画素を特徴点として抽出する特徴点抽出部と、前記複数のサブ領域の各々において、前記特徴点抽出部によって抽出された特徴点の数と前記Nとの差が前記所定値以下となるように、当該サブ領域における前記特徴点閾値の大きさを調整する調整部とを有するとしてもよい。
 これによると、画像処理装置は、不足する特徴点に代わりに、仮想的な特徴点を生成することができる。したがって、コントラストの変化が少ない画像など、所定の数だけ特徴点を抽出することが困難な画像に対しても、より精度よく画像の位置合わせを行うことができる。
 具体的には、前記抽出部は、さらに、前記特徴点抽出部によって抽出された前記特徴点に基づいて、前記複数のサブ領域のうち第1サブ領域に仮想特徴点を生成する仮想特徴点生成部を有し、前記仮想特徴点生成部は、前記第1サブ領域において、抽出された特徴点の数と前記仮想特徴点の数との合計値と、前記Nとの差が前記所定値以下となる個数だけ、前記仮想特徴点を生成するとしてもよい。
 これによると、画像処理装置は、第1画像で既に抽出された2点に基づき、第1画像及び第2画像において仮想特徴点を生成することができる。
 また、前記仮想特徴点生成部は、前記第1画像に含まれる特徴点である第1特徴点と第2特徴点とに基づいて、当該第1画像中の仮想特徴点である第1仮想点を生成する第1仮想点生成部と、当該第1画像における、前記第1仮想点と前記第1特徴点との距離、及び当該第1仮想点と前記第2特徴点との距離の各々を含む参照情報を取得する参照情報取得部と、前記第1特徴点に対応する前記第2画像中の点である第3特徴点と、前記第2特徴点に対応する前記第2画像中の点である第4特徴点とを取得する対応点取得部と、前記参照情報を参照することにより、前記第2画像において前記第1仮想点に対応する仮想特徴点として第2仮想点を生成する第2仮想点生成部とを有するとしてもよい。
 これによると、画像処理装置100は、特徴点閾値を調整する代わりにサブ領域ごとに画像のコントラストを調整することで、抽出される特徴点の数を調整することができる。
 また、前記抽出部は、前記複数のサブ領域の各々において、当該サブ領域に含まれる複数の画素のそれぞれに対応する特徴量を算出する特徴量算出部と、前記複数の画素のうち、対応する特徴量が事前に定められた特徴点閾値以上となる画素を特徴点として抽出する特徴点抽出部と、前記複数のサブ領域の各々において、前記特徴点抽出部によって抽出された特徴点の数と前記Nとの差が前記所定値以下となるように、当該サブ領域における画像コントラストの大きさを調整する調整部とを有するとしてもよい。
 これによると、画像処理装置は、各サブ領域から抽出された特徴点の数のサブ領域ごとの差が一定範囲に収まるように、特徴点を抽出することができる。
 また、前記抽出部は、前記複数のサブ領域に含まれる第1のサブ領域から抽出された特徴点の数と、前記第1のサブ領域とは異なる第2のサブ領域から抽出された特徴点の数との差が、事前に定められた閾値以下となるように、前記第1のサブ領域及び前記第2のサブ領域から特徴点の抽出処理を行うとしてもよい。
 以下、本発明に係る画像処理装置の実施の形態について、図面を参照しながら詳細に説明する。
 なお、以下で説明する実施の形態は、いずれも本発明の好ましい一具体例を示すものである。以下の実施の形態で示される数値、形状、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。本発明は、請求の範囲だけによって限定される。よって、以下の実施の形態における構成要素のうち、本発明の最上位概念を示す独立請求項に記載されていない構成要素については、本発明の課題を達成するのに必ずしも必要ではないが、より好ましい形態を構成するものとして説明される。
 (実施の形態1)
 図1は、画像内に強い特徴と弱い特徴とが分布する様子を示す。ここで、本発明において、画像の特徴には任意の特徴が利用可能である。例えば、画素ごとのコントラスト値などを画像の特徴として利用することが考えられる。
 従来の特徴点抽出においては、ある所定の閾値に基づいて、強い特徴を有する特徴点のみが画像から抽出される。これは、抽出される特徴点の数が多すぎないようにすることを目的としている。
 しかし、前述のように、強い特徴が画像内において偏在している場合、画像の一部の領域のみから特徴点が抽出されてしまう。その結果、位置合わせの精度が低下するという問題が生じる。
 図2は、この課題を解決する、本実施の形態に係る画像処理装置の機能ブロックを示す。
 図2に示される画像処理装置100は、同一の物体を異なる視点から撮影した画像である第1画像と第2画像とを位置合わせをするために、第1画像と第2画像とから特徴点を抽出する画像処理装置である。第1画像及び第2画像は、例えば、立体視用の左眼用画像及び右眼用画像である。
 画像処理装置100は、分割部102と、抽出部104と、位置合わせ部106とを備える。
 分割部102は、画像データとして取得した第1画像及び第2画像のそれぞれを、複数のサブ領域へ分割する。
 抽出部104は、サブ領域ごとに、特徴点の抽出処理を行う。より詳細には、抽出部104は、抽出された特徴点の数の、複数のサブ領域間におけるばらつき度合いを示す値が事前に定められた値以下となるように、特徴点の抽出処理を行う。具体的には、抽出部104は、サブ領域ごとに、抽出処理により当該サブ領域から抽出される特徴点の数と事前に定められた数Nとの差が所定値以下となる個数だけ、特徴点の抽出処理を行う。また、抽出部104は、抽出した各特徴点について、特徴記述子を算出する。なお、抽出部104が行う具体的な処理については、後述する。
 位置合わせ部106は、抽出された特徴点に基づいて、第1画像と第2画像との垂直方向の視差がより小さくなるように位置合わせを行う。
 具体的には、位置合わせ部106は、まず、第1画像及び第2画像の一方の画像に含まれる特徴点と、これに対応する特徴点であって、他方の画像に含まれる特徴点とをマッチングさせる。ここで対応する特徴点とは、同じ空間位置を表す特徴点である。
 例えば、第1画像を基準とする場合、位置合わせ部106は、第1画像に含まれる特徴点の各々に対して、第2画像に含まれる特徴点のうちで特徴記述子が最も類似する特徴点を探索することで、両画像間の特徴点同士をマッチングさせる。
 次に、位置合わせ部106は、マッチングされた特徴点同士の垂直方向の座標値の差がより小さくなるように、少なくとも一方の画像に対して座標変換を施す。なお、ここでは、第1画像を基準として、第2画像に対して座標変換を施したとする。その後、位置合わせ部106は、第1画像、及び座標変換された第2画像を表すデータを出力する。
 なお、画像処理装置100は、位置合わせ部106を備えなくてもよい。この場合、画像処理装置100は、第1の画像及び第2の画像のそれぞれについて抽出した特徴点の座標値を出力する。位置合わせ部106が行う処理は、従来技術に係る処理であるため、例えば、画像処理装置100の外部装置が、位置合わせ部106に相当する処理を行うことで、同様の発明の効果を奏する。また、位置合わせ部106は、両画像間の特徴点同士をマッチングさせた後に、座標変換を行わなくてもよい。この場合、位置合わせ部106は、マッチングさせた特徴点の座標値のペアを出力する。
 図3は、画像処理装置100が行う全体の処理の一例を示すフローチャートである。
 まず、ステップS100において、画像処理装置100に複数の画像(例えば、第1画像及び第2画像)が入力される。
 次に、ステップS102において、分割部102は、入力された各画像を複数のサブ領域に分割する。分割数は特に限定されない。また、第1画像と第2画像とで同様に分割してもよく、又は第1画像と第2画像とで異なる分割を行ってもよい。
 次に、ステップS104において、抽出部104は、サブ領域ごとに適応的に変更した閾値を用いて、各サブ領域から連続又は並行して特徴点の抽出処理を行う。
 さらに、ステップS106において、抽出部104は、先のステップで抽出された各特徴点に対して、特徴記述子を算出する。
 次に、ステップS108において、位置合わせ部106は、異なる画像間で特徴点をマッチングさせる。具体的には、第1の画像に含まれる特徴点の中から選択された、ある特徴点の特徴量記述子と最も類似する特徴量記述子を有する特徴点を、第2の画像に含まれる特徴点の中から選択する。こうして選択された2つの特徴点を、マッチングされた特徴点とする。
 その後、ステップS110において、マッチングされた特徴点の座標値のペアを出力する。なお、位置合わせ部106は、ステップS108において、特徴点のマッチングに代わり、特徴点のトラッキングを行ってもよい。
 なお、画像処理装置100は、ステップS108及びステップS110の少なくとも一方の処理を省略してもよい。この場合、外部装置が省略されたステップに相当する処理を行うことで、同様の発明の効果を奏する。
 次に、図4A~図4Cを参照して、従来技術により抽出された特徴点と、画像処理装置100が備える抽出部104により抽出された特徴点とを比較する。
 図4Aは、ある画像200に含まれる特徴点の位置を示す。図4Aにおいて、特徴点222のように、塗りつぶされた三角形で示される特徴点は、特徴が強い(すなわち、特徴点の特徴量が大きい)特徴点を示す。また、特徴点224のように、ドットがうたれた三角形で示される特徴点は、特徴が中程度(すなわち、特徴点の特徴量の大きさが中程度)の特徴点を示す。また、特徴点226のように、白抜きの三角形で示される特徴点は、特徴が弱い(すなわち、特徴点の特徴量が小さい)特徴点を示す。
 図4Bは、従来技術により画像200から特徴点を抽出した結果を示す。従来技術によると、抽出される特徴点の大部分は、特徴が強い特徴点が占めている。これは、従来技術においては、画像200全体において、所定の閾値以上の特徴量を有する点を特徴点として抽出するためである。その結果、図4Bに示されるように、抽出された特徴点が画像200の右上を中心に偏在している。したがって、このような特徴点を、画像の位置合わせ等の何らかの用途の変換行列の生成に用いると、特徴点の分布が不均一であることによって画像全体が不正確に表わされる。
 一方、図4Cは、本実施の形態に係る画像処理装置100により、画像200から特徴点を抽出した結果を示す。画像処理装置100によると、画像全体からまんべんなく特徴点が抽出されている。抽出された特徴点は、強い特徴点と、比較的強い(すなわち中程度の)特徴点と、弱い特徴点とを含む。図4Cに示されるように、抽出された特徴点の分布が均一であれば、特徴点に基づく画像の位置合わせがより頑健になり、かつ安定する。
 次に、図5~図9を参照して、画像処理装置100が備える抽出部104について、より詳細に説明する。
 図5は、本実施の形態に係る抽出部104の機能ブロックを示す。
 図5に示される様に、抽出部104は、特徴量算出部112と、特徴点抽出部114と、調整部116とを有する。
 特徴量算出部112は、分割部102によって分割された複数のサブ領域の各々において、当該サブ領域に含まれる複数の画素のそれぞれに対応する特徴量を算出する。前述の通り、特徴量は任意のものが使用できるが、特徴量算出部112は、例えば、画素のコントラスト値等を利用して特徴量を算出する。より具体的には、SIFT特徴量、又はSURF特徴量等の勾配ベースの特徴量等を利用することが考えられる。
 特徴点抽出部114は、複数の画素のうち、対応する特徴量が事前に定められた特徴点閾値以上となる画素を特徴点として抽出する。その後、特徴点抽出部114は抽出した特徴点の座標値を出力する。
 調整部116は、複数のサブ領域の各々において、特徴点抽出部114によって抽出された特徴点の数と抽出すべき特徴点の目標数として事前に定められた値Nとの差が所定値以下となるように、当該サブ領域における特徴点閾値の大きさを調整する。
 具体的には、調整部116は、特徴点抽出部114によって抽出された特徴点の数がNよりも小さかった場合には、特徴点閾値の大きさをより小さくする。逆に、特徴点抽出部114によって抽出された特徴点の数がNよりも大きかった場合には、特徴点閾値の大きさをより大きくする。
 図6は、画像処理装置100の処理の流れをより詳細に説明するフローチャートである。
 図6において、まず、ステップS302において、分割部102が、参照画像及び対象画像を複数のサブ領域に分割する。なお、前述の第1画像及び第2画像のうち、一方が参照画像に対応し、他方が対象画像に対応する。
 次に、ステップS304において、抽出部104は、参照画像及び対象画像それぞれに含まれる各サブ領域に対してコントラスト値を算出する。抽出部104は、このコントラスト値に基づき、ステップS306において、所定の特徴点閾値を用いてサブ領域ごとに特徴点の抽出処理を行う。なお、この特徴点の抽出処理は、抽出部104により、サブ領域ごとに連続して処理してもよく、又はサブ領域同士で並列的に処理してもよい。
 次に、ステップS308aにおいて、抽出部104は、特徴点閾値を適応的に調整することにより、各サブ領域が十分な数の特徴点を有するようにする。なお、抽出部104は、サブ領域に含まれる特徴点の数のサブ領域ごとの差が所定値以下となるように、特徴点閾値を調整してもよい。
 次に、ステップS310において、抽出部104は、抽出された各特徴点に対して特徴記述子を算出する。特徴記述子とは、例えば、抽出された各特徴点において、方向ごとに特徴量を表現した情報である。特徴量は、例えば、方向ごとに算出した輝度値の勾配を示す情報等である。
 次に、ステップS312において、位置合わせ部106は、参照画像と対象画像との間で同じ空間位置を表す、対応する特徴点同士をマッチングする。
 最後に、ステップS314において、位置合わせ部106は、マッチングされた特徴点の座標値のペアを出力する。
 図7は、図6のステップS308aにおいて抽出部104が行う処理をより詳細に説明するフローチャートである。
 まず、ステップS402において、抽出部104は、複数のサブ領域のうちの任意の1つのサブ領域を選択する。その後、特徴量算出部112は、選択されたサブ領域に含まれる複数の点について、特徴量を算出する。例えば、特徴量算出部112は、サブ領域内の全ての画素について特徴量を算出してもよく、又は、サブ領域内で偏りなくサンプリングされた複数の画素について特徴量を算出してもよい。
 次に、ステップS404において、特徴点抽出部114は、選択されたサブ領域において、所定の特徴点閾値を用いて特徴点を抽出する。
 次に、ステップS406において、調整部116は、抽出された特徴点の数が、Nに達しているか又はNに近いかを判定する。言いかえれば、調整部116は、抽出された特徴点の数と、Nとの差が所定値以下であるか否かを判定する。
 ここで、特徴点の数がNに達するか又はNに近い場合(ステップS406でyes)、調整部116は、当該サブ領域において抽出した特徴点を出力する。
 その後、ステップS410において、抽出部104は、複数のサブ領域のうちステップS402において未だ選択されていないサブ領域が存在しないか否か(すなわち、ステップS402において選択されたサブ領域が、抽出部104によって処理されるべき最後のサブ領域であるか否か)を判定する。ここで、ステップS402において選択されたサブ領域が、処理されるべき最後のサブ領域ではない場合(S410でno)、抽出部104は、次のサブ領域を選択し、同様の処理を行う(S402)。また、ステップS402において選択されたサブ領域が、処理されるべき最後のサブ領域である場合(S410でyes)、ステップS412において、抽出部104は、全てのサブ領域について、抽出された特徴点の座標を出力する。
 一方、調整部116は、抽出された特徴点の数とNとの差が所定値を超えている場合(ステップS406でno)、ステップS408において、対象のサブ領域に対して新たな特徴点閾値を設定する。具体的には、抽出された特徴点の数がNよりも大きい場合、特徴点閾値をより大きくする。また、抽出された特徴点の数がNよりも小さい場合、特徴点閾値をより小さくする。
 その後、抽出部104は、再度、特徴点抽出部114に当該サブ領域において特徴点を抽出させる(S404)。
 なお、図7のフローチャートにおいて、調整部116は、サブ領域ごとに特徴点閾値を調整することにより、特徴点を抽出した。しかし、調整部116は、特徴点閾値を調整する代わりに、サブ領域ごとに画像のコントラストを調整することにより、特徴点を抽出してもよい。以下、図8及び図9を参照して、より詳細に説明する。
 図8は、調整部116がコントラストを調整することにより適応的に特徴点を抽出する場合における、画像処理装置100が行う処理の流れを示すフローチャートである。
 なお、図8に示される各処理は、ステップS308bを除き、図6と共通する。よって、ここでは、ステップS308bの処理について説明する。
 ステップS308bにおいて、調整部116は、サブ領域ごとに画像コントラストを適応的に調整することで、弱い特徴を鮮明にする。この処理により、特徴点抽出部114は、弱い特徴を抽出しやすくなる。その結果、抽出部104は、各サブ領域が十分な数の特徴点を確実に含むように、特徴点の抽出処理を行うことが可能である。なお、抽出部104は、サブ領域に含まれる特徴点の数のサブ領域ごとの差が所定値以下となるように、特徴点閾値を調整してもよい。
 図9は、図8のステップS308bにおいて抽出部104が行う処理をより詳細に説明するフローチャートである。なお、抽出部104が行う処理のうち、図7との違いは、ステップS409のみである。よって、ステップS409の処理を中心に説明する。
 調整部116は、抽出された特徴点の数とNとの差が所定値を超えている場合(ステップS406でno)、ステップS409において、対象のサブ領域におけるコントラストを調整する。具体的には、調整部116は、抽出された特徴点の数がNよりも少ない場合には、コントラスト値をより大きくする。逆に、抽出された特徴点の数がNよりも多い場合には、コントラスト値をより小さくする。このように、調整部116は、サブ領域ごとに、コントラストを適応的に調整する。
 その後、抽出部104は、再度、特徴点抽出部114に当該サブ領域において特徴点を抽出させる(S404)。
 すなわち、抽出部104は、複数のサブ領域の各々において、当該サブ領域に含まれる複数の画素のそれぞれに対応する特徴量を算出する特徴量算出部112と、複数の画素のうち、対応する特徴量が事前に定められた特徴点閾値以上となる画素を特徴点として抽出する特徴点抽出部114と、複数のサブ領域の各々において、特徴点抽出部114によって抽出された特徴点の数とNとの差が所定値以下となるように、当該サブ領域における画像コントラストの大きさを調整する調整部116とを有してもよい。
 次に、図10を参照して、画像処理装置100が参照画像に座標変換処理を施すことにより、位置合わせがなされた2枚の画像を生成する場合の処理の流れについて説明する。
 図10は、画像処理装置100が、参照画像と対象画像との視差を補正する処理の流れを説明するフローチャートである。
 まず、ステップS502において、分割部102は、参照画像及び対象画像を複数のサブ領域に分割する。
 次に、ステップS504において、抽出部104は、各画像に対してコントラスト値を算出する。このコントラスト値に基づき、ステップS506において、抽出部104は、所定の閾値を用いて、サブ領域ごとに特徴点の抽出処理を行う。
 通常、均一に分布した特徴点が画像から確実に抽出されるような閾値を事前に決定することは困難である。したがって、抽出部104は、ステップS508において、適応的に閾値を調整することにより、位置合わせに十分な数であり、かつ、各サブ領域同士で同じ数となる特徴点を各サブ領域から抽出する。
 次に、ステップS510において、抽出部104は、抽出された各特徴点について特徴記述子を算出する。
 次に、ステップS512において、位置合わせ部106は、参照画像と対象画像との間で特徴点をマッチングさせる。
 次に、ステップS512において、位置合わせ部106は、マッチングさせた特徴点に基づいてワープ行列を算出する。位置合わせ部106は、例えば、マッチングさせたそれぞれの特徴点の座標値のうち、画像に対して垂直方向の差を抑制するような行列をワープ行列として算出する。したがって、ワープ行列は、例えばアフィン変換行列、又は回転行列等の形で表される。
 最後に、ステップS514において、位置合わせ部106は、ワープ行列を参照画像に適用することにより、参照画像と対象画像との位置関係を、立体視に適するように調整する。
 以上述べたように、本実施の形態に係る画像処理装置100は、1枚の画像をサブ領域に分け、各サブ領域において抽出される特徴点の数が偏らないように、特徴点を抽出するために使用する閾値をサブ領域ごとに調整する。
 その結果、画像内で均一に分布するように特徴点を抽出することができる。したがって、画像処理装置100によると、画像の位置合わせの精度をより向上させることができる。
 また、特徴点の抽出後におけるマッチング処理をサブ領域ごとに行うことで、マッチング処理時の探索を並行処理により行うことができる。その結果、画像処理装置100は、画像の位置合わせをより高速に行うことができる。
 (実施の形態2)
 実施の形態1に係る画像処理装置100においても、例えばコントラストの差がほとんどない領域等においては、閾値の調整により適切な特徴点を抽出することは困難となる。
 実施の形態2に係る画像処理装置は、この課題を解決するため、仮想特徴点を生成する。以下、より詳細に説明する。
 図11は、仮想特徴点を生成する処理を説明する概念図である。ここでは、FP1及びFP2は、参照画像において抽出された2つの真の特徴点であるとする。No_Tはテクスチャを含まないサブ領域(テクスチャレス領域)である。また、No_Tには、生成された仮想特徴点FakePtが示されている。ここで、仮想特徴点FakePtの位置は、FakePtとFP1との距離d1、及びFakePtとFP2との距離d2を特定することにより、抽出された真の2つの特徴点を用いて導き出された点である。
 さらに、同じ手法を対象画像にも適用する。これは、参照画像内の2つの真の特徴点とそれぞれマッチングする、対象画像内において抽出された2つの真の特徴点から、それぞれ距離d1、及びd2と同じ距離に仮想特徴点を配置することで行われる。
 その結果、仮想特徴点を、対象画像及び参照画像に含まれるテクスチャレス領域において生成させることができる。
 図12は、本実施の形態に係る画像処理装置が備える抽出部104Aの機能ブロックを示す。
 図12に示されるように、抽出部104Aは、特徴量算出部112と、特徴点抽出部114Aと、調整部116と、仮想特徴点生成部118とを有する。なお、以下の説明では、図5に示される抽出部104と異なる構成要素を中心に説明する。
 特徴点抽出部114Aは、調整部116による特徴点閾値の調整によっても、必要な数の特徴点が抽出できないと判断した場合には、仮想特徴点生成部118に仮想特徴点を生成させる。
 仮想特徴点生成部118は、特徴点抽出部114Aによって抽出された特徴点に基づいて、複数のサブ領域に含まれる第1のサブ領域に仮想特徴点を生成する。より詳細には、仮想特徴点生成部118は、第1のサブ領域において、抽出された特徴点の数と仮想特徴点の数との合計値と、事前に定められた数Nとの差が所定値以下となる個数だけ、仮想特徴点を生成する。
 ここで、第1のサブ領域は、輝度変化が小さいために調整部116によって必要な数の特徴点が抽出できなかったサブ領域である。例えば図11でNo_Tとして示されるサブ領域が該当する。
 図13は、仮想特徴点生成部118の機能ブロックを示す。
 図13に示されるように、仮想特徴点生成部118は、第1仮想点生成部122と、参照情報取得部124と、対応点取得部126と、第2仮想点生成部128とを有する。
 第1仮想点生成部122は、特徴点抽出部114Aにより第1画像の中から抽出された特徴点である第1特徴点と第2特徴点とに基づいて、第1画像の中に仮想特徴点を生成する。この仮想特徴点を第1仮想点ともいう。
 参照情報取得部124は、当該第1画像における、第1仮想点と第1特徴点との距離、及び当該第1仮想点と第2特徴点との距離の各々を含む参照情報を取得する。
 対応点取得部126は、第1特徴点に対応する第2画像の中の点である第3特徴点と、第2特徴点に対応する第2画像の中の点である第4特徴点とを取得する。
 第2仮想点生成部128は、参照情報を参照することにより、第2画像において、第1仮想点に対応する仮想特徴点として第2仮想点を生成する。
 より具体的には、図14を参照して、まず、第1仮想点生成部122は、複数のサブ領域のうち、抽出された特徴点の数が事前に定められた数Nに満たないサブ領域として第1のサブ領域を選択する。さらに、第1仮想点生成部122は、例えば、第1のサブ領域から所定の距離以内の、抽出部104Aにより抽出された特徴点の中から、第1特徴点(FP1ともいう)と第2特徴点(FP2ともいう)とを選択する。例えば、第1仮想点生成部122は、第1サブ領域外のサブ領域に含まれる特徴点であって、第1サブ領域から最も近い特徴点をFP1とし、2番目に近い特徴点をFP2として選択してもよい。
 次に、第1仮想点生成部122は、FP1とFP2とを結ぶ線分を所定の比で分割する点として、仮想特徴点を生成する。ここで、第1仮想点生成部122は、FP1とFP2とを結ぶ線分を分割する比を、例えばFP1及びFP2の特徴の強さ(特徴量の大きさ)に比例するように決定してもよい。又は、特徴点が抽出されていないサブ領域内に仮想特徴点が位置するように決定してもよい。又は、FP1及びFP2の中点として決定してもよい。
 次に、参照情報取得部124は、第1画像において、FP1と仮想特徴点との距離d1、及びFP2と仮想特徴点との距離d2を取得する。d1及びd2を含む情報を参照情報と呼ぶ。
 次に、対応点取得部126は、第2画像において抽出された特徴点であって、それぞれFP1及びFP2に対応する点である第3特徴点(FP3ともいう)及び第4特徴点(FP4ともいう)を取得する。すなわち、FP3とFP1とは同じ空間位置に対応する。また、FP4とFP2とは同じ空間位置に対応する。
 最後に、第2仮想点生成部128は、参照情報を参照して、FP3からd1の距離にあり、かつ、FP4からd2の距離にある点を仮想特徴点とする。なお、第2仮想点生成部128は、FP3からd1の距離にあり、かつ、FP4からd2の距離にある点を中心に、一定領域に含まれる点のうち、仮想特徴点と最も類似する特徴記述子を有する点を、仮想特徴点としてもよい。
 図15は、本実施の形態における仮想特徴点を用いた画像の位置合わせ処理の一例を示す。
 ステップS702において、入力された画像対に対して画像フィルタを適用し、その応答を算出する。画像フィルタとしては、例えばローパスフィルタ、バンドパスフィルタ等が考えられる。
 次に、ステップS704において、分割部102は、画像を複数のサブ領域に分ける。なお、分割部102は、画像のサブ領域への分割を、これより前に行っていてもよい。
 次に、ステップS706において、抽出部104Aは、各サブ領域から特徴点の抽出処理を行う。さらに、ステップS708において、抽出部104Aは、抽出された特徴点が十分であるか、及び画像全体に均一に分布しているか否かを確認する。ここで、十分な数の特徴点が画像全体から均一に抽出できたと抽出部104Aが判断した場合(ステップS708でyes)、位置合わせ部106は、ステップS716においてこの抽出された特徴点に対して、マッチング処理を行う。続けて、ステップS718において、ステップS716でマッチングされた対応する特徴点同士のペアを用いてワープ行列を生成する。最後に、位置合わせ部106は、ステップS720において画像対の位置合わせを行う。
 一方、十分な数の特徴点が画像全体から均一に抽出できていないと抽出部104Aが判断した場合(ステップS708でno)、抽出部104Aは、ステップS710において、特徴点閾値を調整してより弱い特徴を有する特徴点を抽出する。
 その結果、十分な数の特徴点が画像全体から均一に抽出できたと抽出部104Aが判断した場合(S711でyes)、ステップS716の処理へ進む。
 一方、抽出された特徴点の数が不十分の場合には(ステップS711でno)、抽出部104Aは、ステップS712において、特徴点閾値の調整を既定回数以上行ったか否かを判定する。ここで、まだ既定回数に達していない場合には(ステップS712でno)、抽出部104Aは、ステップS710において再度、特徴点閾値の調整を行う。また、既定回数に達した場合には(ステップS712でyes)、仮想特徴点生成部118が、ステップS713において仮想特徴点を生成する。
 以上述べたように、本実施の形態に係る画像処理装置は、特徴点を抽出することが困難なほどコントラストが弱いサブ領域等を含む画像においては、既に抽出できた特徴点に基づき、第1仮想点及びこれに対応する第2仮想点のペアとして仮想特徴点を生成する。その結果、画像処理装置は、抽出部104によって抽出された真の特徴点のペアに加え、仮想特徴点のペアを併用することにより、より精度よく画像の位置合わせを行うことができる。
 次に図16A~図16Cを参照して、本発明に係る画像処理装置による画像位置合わせの結果と、従来の方法による画像位置合わせの結果との比較を一例として示す。
 図16Aに示す画像802、図16Bに示す画像804、及び図16Cに示す画像806は、本発明に係る画像処理装置による特徴点抽出の結果を示す。一方、図16Aに示す画像808、図16Bに示す画像810、及び図16Cに示す画像812は、従来の方法によって、フレーム全体に含まれる画素値に基づいて特徴点を抽出した結果を示す。
 まず図16Aを参照して、画像802におけるサブ領域822からは、特徴点が抽出されているが、画像808のサブ領域882からは、特徴点が1つも抽出されていない。また、画像802は、画像全体において、画像808の場合よりも特徴点がより均一に分布するよう抽出されている。具体的には、画像808における特徴点は、画像の右側に多く集まっている。このように特徴点の分布が不均一であると、以下に述べるように特徴のマッチング及び画像の位置合わせの結果に影響を及ぼす。
 図16Bは、特徴点のマッチングを行った結果を示す。画像に示される白線は、マッチングされたペアの特徴点間の位置のズレを示す。より詳細には、画像804は、本発明に係る画像処理装置を用いて特徴点を抽出した2枚の画像(例えば左眼用画像及び右眼用画像)において、特徴点のマッチングを行った結果を示す。また、画像810は、従来技術を用いて特徴点を抽出した2枚の画像において、特徴点のマッチングを行った結果を示す。
 画像804におけるマッチングの結果は、従来の方法によって抽出された特徴点によるマッチングの結果を示す画像810よりも、画像内でより均一に分布している。特徴点ペア842は、参照画像と対象画像との間でマッチングされた特徴点の1つのペアを示す。
 図16Cは、マッチングさせた特徴点のペアによりズレを修正した2枚の画像を重ね合わせた画像を示す。より詳細には、画像806は、本発明に係る画像処理装置を用いて位置合わせをした2枚の画像を重ね合わせた画像である。また、画像812は、従来技術を用いて位置合わせをした2枚の画像を重ね合わせた画像である。画像806においては、本発明に係る特徴点抽出に基づく画像の位置合わせの結果がより合理的で画像全体にわたって一貫している。具体的には、遠いオブジェクトは小さな視差を有し、かつ近いオブジェクトはより大きな視差を有している。一方、画像812では、従来の特徴点抽出に基づく画像の位置合わせの結果が不正確であり、画像全体にわたって一貫していない。具体的には、遠いオブジェクトが大きな視差を有している。このように、多くの場合、本発明による画像の位置合わせにおいて質の高い結果が得られる。これは、本発明において説明した画像処理装置による特徴点抽出方法によって抽出された均一な特徴点の分布が役立つことを示す。
 なお、上記実施の形態1及び2に係る画像処理装置は、取得した参照画像及び対象画像に対して、まず、サブ領域に分割する処理を行った。しかし、画像処理装置は、サブ領域ごとに特徴点を抽出する前に、1枚の画像全体に対して特徴点を抽出し、抽出された特徴点の分布に偏りがある場合にのみ、当該画像を複数のサブ領域に分割してもよい。例えば、図6を参照して、ステップS302において分割部102が参照画像及び対象画像のそれぞれを複数の領域に分ける前の段階で、抽出部104が参照画像及び対象画像それぞれの全画像領域から、特徴点を抽出する。その後、抽出部104は、抽出された特徴点の、各画像における分布位置の偏りが事前に定められた閾値以上であれば、ステップS302以降の処理を行ってもよい。
 このように全画像領域における分布の適切性を最初に判断することにより、画像処理装置が行う処理の無駄を省くことができる。
 また、上記実施の形態1及び2に係る抽出部は、サブ領域ごとに抽出された特徴点の数と事前に定められた数Nとを比較し、その差が所定値以下となるように、特徴点閾値を調整した。しかし、抽出部は、サブ領域ごとに抽出された特徴点の数の、サブ領域間におけるばらつき度合いが、事前に定められた値以下となるように特徴点を抽出できれば、他の方法により特徴点閾値を調整してもよい。
 例えば、抽出部は、複数のサブ領域のうち、第1のサブ領域から抽出された特徴点の数と、第1のサブ領域とは異なる第2のサブ領域から抽出された特徴点の数との差が、事前に定められた閾値以下となるように、第1のサブ領域及び第2のサブ領域から特徴点を抽出してもよい。さらに、この場合であっても、抽出部は、第1のサブ領域又は第2のサブ領域から抽出された特徴点の数が事前に定められた値M以下であれば、複数のサブ領域の各々において、当該サブ領域から抽出した特徴点の数と事前に定められた数Nとの差が所定値以下となる個数だけ、特徴点を抽出してもよい。
 これにより、複数のサブ領域の各々から、偏りなく、かつ、画像の位置合わせを精度よく行うために必要な数の特徴点を抽出することができる。
 なお、実施形態1及び2で説明した画像処理装置は、コンピュータにより実現することも可能である。図17は、本発明に係る画像処理装置を実現するコンピュータシステムのハードウェア構成を示すブロック図である。
 本発明に係る画像処理装置は、コンピュータ34と、コンピュータ34に指示を与えるためのキーボード36及びマウス38と、コンピュータ34の演算結果等の情報を提示するためのディスプレイ32と、コンピュータ34で実行されるプログラムを読み取るためのCD-ROM(Compact Disc-Read Only Memory)装置40及び通信モデム(図示せず)とを含む。
 本発明に係る画像処理装置が行う処理であるプログラムは、コンピュータで読取可能な媒体であるCD-ROM42に記憶され、CD-ROM装置40で読み取られる。又は、コンピュータネットワークを通じて通信モデム52で読み取られる。
 コンピュータ34は、CPU(Central Processing Unit)44と、ROM(Read Only Memory)46と、RAM(Random Access Memory)48と、ハードディスク50と、通信モデム52と、バス54とを含む。
 CPU44は、CD-ROM装置40又は通信モデム52を介して読み取られたプログラムを実行する。ROM46は、コンピュータ34の動作に必要なプログラムやデータを記憶する。RAM48は、プログラム実行時のパラメタなどのデータを記憶する。ハードディスク50は、プログラムやデータなどを記憶する。通信モデム52は、コンピュータネットワークを介して他のコンピュータとの通信を行う。バス54は、CPU44、ROM46、RAM48、ハードディスク50、通信モデム52、ディスプレイ32、キーボード36、マウス38及びCD-ROM装置40を相互に接続する。
 さらに、上記の各装置を構成する構成要素の一部又は全部は、1個のシステムLSI(Large Scale Integrated Circuit:大規模集積回路)から構成されているとしてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。RAMには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、システムLSIは、その機能を達成する。
 さらにまた、上記の各装置を構成する構成要素の一部又は全部は、各装置に脱着可能なICカード又は単体のモジュールから構成されているとしてもよい。ICカード又はモジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。ICカード又はモジュールは、上記の超多機能LSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、ICカード又はモジュールは、その機能を達成する。このICカード又はこのモジュールは、耐タンパ性を有するとしてもよい。
 また、本発明は、上記に示す方法であるとしてもよい。また、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしてもよい。また、コンピュータプログラムからなるデジタル信号であるとしてもよい。
 さらに、本発明は、上記コンピュータプログラム又は上記デジタル信号をコンピュータ読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD-ROM、MO、DVD、DVD-ROM、DVD-RAM、BD(Blu-ray Disc(登録商標))、USBメモリ、SDカードなどのメモリカード、半導体メモリなどに記録したものとしてもよい。また、これらの記録媒体に記録されている上記デジタル信号であるとしてもよい。
 また、本発明は、上記コンピュータプログラム又は上記デジタル信号を、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送してもよい。
 また、本発明は、マイクロプロセッサとメモリを備えたコンピュータシステムであって、上記メモリは、上記コンピュータプログラムを記憶しており、上記マイクロプロセッサは、上記コンピュータプログラムに従って動作するとしてもよい。
 また、上記プログラム又は上記デジタル信号を上記記録媒体に記録して移送することにより、又は上記プログラム又は上記デジタル信号を、上記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。
 さらに、上記実施の形態及び上記変形例をそれぞれ組み合わせるとしてもよい。
 今回開示された実施の形態は全ての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて請求の範囲によって示され、請求の範囲と均等の意味及び範囲内での全ての変更が含まれることが意図される。
 本発明は、画像処理装置に適用でき、特に画像の位置合わせをする画像処理装置等に適用できる。
32 ディスプレイ
34 コンピュータ
36 キーボード
38 マウス
40 CD-ROM装置
42 CD-ROM
44 CPU
46 ROM
48 RAM
50 ハードディスク
52 通信モデム
54 バス
100 画像処理装置
102 分割部
104、104A 抽出部
106 位置合わせ部
112 特徴量算出部
114、114A 特徴点抽出部
116 調整部
118 仮想特徴点生成部
122 第1仮想点生成部
124 参照情報取得部
126 対応点取得部
128 第2仮想点生成部
200、802、804、806、808,810、812 画像
222、224、226 特徴点
822、882 サブ領域
842 特徴点ペア

Claims (11)

  1.  同一の物体を異なる視点から撮影した画像である第1画像と第2画像との垂直方向の視差を抑制する位置合わせをするための特徴点を抽出する画像処理装置であって、
     前記第1画像及び前記第2画像のそれぞれを、複数のサブ領域へ分割する分割部と、
     前記サブ領域ごとに、特徴点の抽出処理を行う抽出部とを備え、
     前記抽出部は、前記抽出処理により抽出される前記特徴点の数の、前記複数のサブ領域間におけるばらつき度合いを示す値が、事前に定められた値以下となるように、前記特徴点の抽出処理を行う
     画像処理装置。
  2.  さらに、前記特徴点に基づいて、前記第1画像と前記第2画像との位置合わせを行う位置合わせ部を備え、
     前記位置合わせ部は、
     前記第1画像及び前記第2画像の一方の画像に含まれる特徴点と、これに対応する特徴点であって、他方の画像に含まれる特徴点とをマッチングさせ、
     マッチングされた特徴点同士の垂直方向の座標値の差がより小さくなるように、少なくとも一方の画像に対して座標変換を施す
     請求項1に記載の画像処理装置。
  3.  前記抽出部は、前記複数のサブ領域の各々において、当該サブ領域から抽出した特徴点の数と事前に定められた数Nとの差が所定値以下となる個数だけ、前記特徴点の抽出処理を行う
     請求項1又は請求項2に記載の画像処理装置。
  4.  前記抽出部は、前記複数のサブ領域の各々において、当該サブ領域に含まれる複数の画素のそれぞれに対応する特徴量を算出する特徴量算出部と、
     前記複数の画素のうち、対応する特徴量が事前に定められた特徴点閾値以上となる画素を特徴点として抽出する特徴点抽出部と、
     前記複数のサブ領域の各々において、前記特徴点抽出部によって抽出された特徴点の数と前記Nとの差が前記所定値以下となるように、当該サブ領域における前記特徴点閾値の大きさを調整する調整部とを有する
     請求項3に記載の画像処理装置。
  5.  前記抽出部は、さらに、前記特徴点抽出部によって抽出された前記特徴点に基づいて、前記複数のサブ領域のうち第1サブ領域に仮想特徴点を生成する仮想特徴点生成部を有し、
     前記仮想特徴点生成部は、前記第1サブ領域において、抽出された特徴点の数と前記仮想特徴点の数との合計値と、前記Nとの差が前記所定値以下となる個数だけ、前記仮想特徴点を生成する
     請求項4に記載の画像処理装置。
  6.  前記仮想特徴点生成部は、
     前記第1画像に含まれる特徴点である第1特徴点と第2特徴点とに基づいて、当該第1画像中の仮想特徴点である第1仮想点を生成する第1仮想点生成部と、
     当該第1画像における、前記第1仮想点と前記第1特徴点との距離、及び当該第1仮想点と前記第2特徴点との距離の各々を含む参照情報を取得する参照情報取得部と、
     前記第1特徴点に対応する前記第2画像中の点である第3特徴点と、前記第2特徴点に対応する前記第2画像中の点である第4特徴点とを取得する対応点取得部と、
     前記参照情報を参照することにより、前記第2画像において前記第1仮想点に対応する仮想特徴点として第2仮想点を生成する第2仮想点生成部とを有する
     請求項5に記載の画像処理装置。
  7.  前記抽出部は、前記複数のサブ領域の各々において、当該サブ領域に含まれる複数の画素のそれぞれに対応する特徴量を算出する特徴量算出部と、
     前記複数の画素のうち、対応する特徴量が事前に定められた特徴点閾値以上となる画素を特徴点として抽出する特徴点抽出部と、
     前記複数のサブ領域の各々において、前記特徴点抽出部によって抽出された特徴点の数と前記Nとの差が前記所定値以下となるように、当該サブ領域における画像コントラストの大きさを調整する調整部とを有する
     請求項3に記載の画像処理装置。
  8.  前記抽出部は、前記複数のサブ領域に含まれる第1のサブ領域から抽出された特徴点の数と、前記第1のサブ領域とは異なる第2のサブ領域から抽出された特徴点の数との差が、事前に定められた閾値以下となるように、前記第1のサブ領域及び前記第2のサブ領域から特徴点の抽出処理を行う
     請求項1に記載の画像処理装置。
  9.  同一の物体を異なる視点から撮影した画像である第1画像と第2画像との垂直方向の視差を抑制する位置合わせをするための特徴点を抽出する画像処理方法であって、
     前記第1画像及び前記第2画像のそれぞれを、複数のサブ領域へ分割する分割ステップと、
     前記サブ領域ごとに特徴点の抽出処理を行う抽出ステップとを含み、
     前記抽出ステップにおいては、前記抽出処理により抽出される前記特徴点の数の、前記複数のサブ領域間におけるばらつき度合いが、事前に定められた値以下となるように、前記特徴点の抽出処理を行う
     画像処理方法。
  10.  請求項9に記載の方法をコンピュータに実行させる
     プログラム。
  11.  同一の物体を異なる視点から撮影した画像である第1画像と第2画像との垂直方向の視差を抑制する位置合わせをするための特徴点を抽出する集積回路であって、
     前記第1画像及び前記第2画像のそれぞれを、複数のサブ領域へ分割する分割部と、
     前記サブ領域ごとに特徴点の抽出処理を行う抽出部とを備え、
     前記抽出部は、前記抽出処理により抽出される前記特徴点の数の、前記複数のサブ領域間におけるばらつき度合いが、事前に定められた値以下となるように、前記特徴点の抽出処理を行う
     集積回路。
     
PCT/JP2012/000106 2011-01-13 2012-01-11 画像処理装置、画像処理方法、及びそのプログラム WO2012096163A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US13/583,646 US9070042B2 (en) 2011-01-13 2012-01-11 Image processing apparatus, image processing method, and program thereof
JP2012519262A JP5954712B2 (ja) 2011-01-13 2012-01-11 画像処理装置、画像処理方法、及びそのプログラム
CN201280000903.9A CN102859555B (zh) 2011-01-13 2012-01-11 图像处理装置及图像处理方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-004937 2011-01-13
JP2011004937 2011-01-13

Publications (1)

Publication Number Publication Date
WO2012096163A1 true WO2012096163A1 (ja) 2012-07-19

Family

ID=46507072

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/000106 WO2012096163A1 (ja) 2011-01-13 2012-01-11 画像処理装置、画像処理方法、及びそのプログラム

Country Status (4)

Country Link
US (1) US9070042B2 (ja)
JP (1) JP5954712B2 (ja)
CN (1) CN102859555B (ja)
WO (1) WO2012096163A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014010263A1 (ja) * 2012-07-11 2014-01-16 オリンパス株式会社 画像処理装置及び画像処理方法
EP2741485A3 (en) * 2012-12-10 2014-09-10 LG Electronics, Inc. Input device having a scan function and image processing method thereof
JP2014229030A (ja) * 2013-05-21 2014-12-08 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP2015179426A (ja) * 2014-03-19 2015-10-08 富士通株式会社 情報処理装置、パラメータの決定方法、及びプログラム
JP2015191622A (ja) * 2014-03-28 2015-11-02 富士重工業株式会社 車外環境認識装置
KR20180136057A (ko) * 2017-06-14 2018-12-24 현대모비스 주식회사 어라운드 뷰 모니터링 시스템의 카메라 각도 추정 방법
JP7341712B2 (ja) 2018-05-09 2023-09-11 キヤノン株式会社 画像処理装置、画像処理方法、撮像装置、およびプログラム

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5746550B2 (ja) * 2011-04-25 2015-07-08 キヤノン株式会社 画像処理装置、画像処理方法
US8666169B2 (en) * 2011-10-24 2014-03-04 Hewlett-Packard Development Company, L.P. Feature descriptors
EP2677733A3 (en) * 2012-06-18 2015-12-09 Sony Mobile Communications AB Array camera imaging system and method
EP3331231A1 (en) * 2013-08-28 2018-06-06 Ricoh Company Ltd. Image processing apparatus, image processing method, and imaging system
TW201531960A (zh) * 2013-11-14 2015-08-16 Sicpa Holding Sa 用於驗證產品的圖像分析
KR102113813B1 (ko) * 2013-11-19 2020-05-22 한국전자통신연구원 정합 쌍을 이용한 신발 영상 검색 장치 및 방법
CN105224582B (zh) * 2014-07-03 2018-11-09 联想(北京)有限公司 信息处理方法和设备
US9659384B2 (en) * 2014-10-03 2017-05-23 EyeEm Mobile GmbH. Systems, methods, and computer program products for searching and sorting images by aesthetic quality
KR102281184B1 (ko) 2014-11-20 2021-07-23 삼성전자주식회사 영상 보정 방법 및 장치
US10931933B2 (en) * 2014-12-30 2021-02-23 Eys3D Microelectronics, Co. Calibration guidance system and operation method of a calibration guidance system
CN105447857B (zh) * 2015-11-17 2018-05-04 电子科技大学 脉冲涡流红外热图像的特征提取方法
CN105574873B (zh) * 2015-12-16 2018-05-22 西安空间无线电技术研究所 一种数量可控的图像特征点检测方法
CN105740802A (zh) * 2016-01-28 2016-07-06 北京中科慧眼科技有限公司 基于视差图的障碍物检测方法和装置及汽车驾驶辅助系统
US10453204B2 (en) * 2016-12-06 2019-10-22 Adobe Inc. Image alignment for burst mode images
CN106910210B (zh) * 2017-03-03 2018-09-11 百度在线网络技术(北京)有限公司 用于生成图像信息的方法和装置
WO2018198025A1 (fr) 2017-04-24 2018-11-01 Patek Philippe Sa Geneve Procédé d'identification d'une pièce d'horlogerie
CN108717069B (zh) * 2018-05-29 2020-08-11 电子科技大学 一种基于行变步长分割的高压容器热成像缺陷检测方法
CN110660090B (zh) * 2019-09-29 2022-10-25 Oppo广东移动通信有限公司 主体检测方法和装置、电子设备、计算机可读存储介质
FI20196125A1 (en) * 2019-12-23 2021-06-24 Truemed Oy A method for identifying the authenticity of an object
CN113298187B (zh) * 2021-06-23 2023-05-12 展讯通信(上海)有限公司 图像处理方法及装置、计算机可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1115951A (ja) * 1997-06-24 1999-01-22 Sharp Corp ずれ検出装置および画像合成装置
WO2004077356A1 (ja) * 2003-02-28 2004-09-10 Fujitsu Limited 画像結合装置、画像結合方法
JP2007102458A (ja) * 2005-10-04 2007-04-19 Yamaguchi Univ 画像処理による注目部分を自動描出する方法及びそのための装置並びにプログラムを記録した記録媒体

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2679423B2 (ja) * 1991-02-05 1997-11-19 日本ビクター株式会社 多次元画像圧縮伸張方式
EP0692772A1 (fr) 1994-07-12 1996-01-17 Laboratoires D'electronique Philips S.A.S. Procédé et dispositif pour détecter des points clés situés sur le contour d'un objet
KR0181029B1 (ko) 1995-03-15 1999-05-01 배순훈 에지를 이용한 특징점 선정장치
JPH09282080A (ja) * 1996-04-16 1997-10-31 Canon Inc 情報入力方法とその装置
JP3534551B2 (ja) * 1996-09-20 2004-06-07 シャープ株式会社 動き検出装置
US6215914B1 (en) * 1997-06-24 2001-04-10 Sharp Kabushiki Kaisha Picture processing apparatus
JP2000331160A (ja) * 1999-05-24 2000-11-30 Nec Corp 画像マッチング装置、画像マッチング方法及び画像マッチング用プログラムを記録した記録媒体
US6873723B1 (en) * 1999-06-30 2005-03-29 Intel Corporation Segmenting three-dimensional video images using stereo
US7103211B1 (en) * 2001-09-04 2006-09-05 Geometrix, Inc. Method and apparatus for generating 3D face models from one camera
US20050196070A1 (en) 2003-02-28 2005-09-08 Fujitsu Limited Image combine apparatus and image combining method
EP1840832A4 (en) * 2005-01-19 2013-02-06 Nec Corp PRINTING INFORMATION RECORDING APPARATUS, METHOD AND PROGRAM THEREOF, FILTERING SYSTEM
JP4961850B2 (ja) * 2006-06-15 2012-06-27 ソニー株式会社 動き検出方法、動き検出方法のプログラム、動き検出方法のプログラムを記録した記録媒体及び動き検出装置
JP4321645B2 (ja) * 2006-12-08 2009-08-26 ソニー株式会社 情報処理装置および情報処理方法、認識装置および情報認識方法、並びに、プログラム
JP4967666B2 (ja) * 2007-01-10 2012-07-04 オムロン株式会社 画像処理装置および方法、並びに、プログラム
JP4989308B2 (ja) * 2007-05-16 2012-08-01 キヤノン株式会社 画像処理装置及び画像検索方法
US8306366B2 (en) 2007-08-23 2012-11-06 Samsung Electronics Co., Ltd. Method and apparatus for extracting feature points from digital image
JP4362528B2 (ja) * 2007-09-10 2009-11-11 シャープ株式会社 画像照合装置、画像照合方法、画像データ出力処理装置、プログラム、及び記録媒体
US8260061B2 (en) * 2007-09-21 2012-09-04 Sharp Kabushiki Kaisha Image data output processing apparatus and image data output processing method
EP2211302A1 (en) * 2007-11-08 2010-07-28 Nec Corporation Feature point arrangement checking device, image checking device, method therefor, and program
JP4852591B2 (ja) * 2008-11-27 2012-01-11 富士フイルム株式会社 立体画像処理装置、方法及び記録媒体並びに立体撮像装置
JP5430138B2 (ja) * 2008-12-17 2014-02-26 株式会社トプコン 形状測定装置およびプログラム
JP5166230B2 (ja) * 2008-12-26 2013-03-21 富士フイルム株式会社 画像処理装置および方法並びにプログラム
JP4752918B2 (ja) * 2009-01-16 2011-08-17 カシオ計算機株式会社 画像処理装置、画像照合方法、および、プログラム
JP5363878B2 (ja) * 2009-06-02 2013-12-11 株式会社トプコン ステレオ画像撮影装置及びその方法
JP5269707B2 (ja) * 2009-07-01 2013-08-21 富士フイルム株式会社 画像合成装置及び方法
US8385689B2 (en) * 2009-10-21 2013-02-26 MindTree Limited Image alignment using translation invariant feature matching
US8791996B2 (en) * 2010-03-31 2014-07-29 Aisin Aw Co., Ltd. Image processing system and position measurement system
JP5661359B2 (ja) * 2010-07-16 2015-01-28 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
US8571350B2 (en) * 2010-08-26 2013-10-29 Sony Corporation Image processing system with image alignment mechanism and method of operation thereof
US8494254B2 (en) * 2010-08-31 2013-07-23 Adobe Systems Incorporated Methods and apparatus for image rectification for stereo display
TWI433530B (zh) * 2010-11-01 2014-04-01 Ind Tech Res Inst 具有立體影像攝影引導的攝影系統與方法及自動調整方法
US8554016B2 (en) * 2010-11-10 2013-10-08 Raytheon Company Image registration system and method for registering images for deformable surfaces
US8903133B2 (en) * 2011-02-21 2014-12-02 Nissan Motor Co., Ltd. Periodic stationary object detection system and periodic stationary object detection method
JP5768684B2 (ja) * 2011-11-29 2015-08-26 富士通株式会社 ステレオ画像生成装置、ステレオ画像生成方法及びステレオ画像生成用コンピュータプログラム
KR20130127868A (ko) * 2012-05-15 2013-11-25 삼성전자주식회사 점 대응을 찾기 위한 방법, 상기 방법을 수행할 수 있는 장치, 및 이를 포함하는 시스템

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1115951A (ja) * 1997-06-24 1999-01-22 Sharp Corp ずれ検出装置および画像合成装置
WO2004077356A1 (ja) * 2003-02-28 2004-09-10 Fujitsu Limited 画像結合装置、画像結合方法
JP2007102458A (ja) * 2005-10-04 2007-04-19 Yamaguchi Univ 画像処理による注目部分を自動描出する方法及びそのための装置並びにプログラムを記録した記録媒体

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014010263A1 (ja) * 2012-07-11 2014-01-16 オリンパス株式会社 画像処理装置及び画像処理方法
US9881227B2 (en) 2012-07-11 2018-01-30 Olympus Corporation Image processing apparatus and method
EP2741485A3 (en) * 2012-12-10 2014-09-10 LG Electronics, Inc. Input device having a scan function and image processing method thereof
US9185261B2 (en) 2012-12-10 2015-11-10 Lg Electronics Inc. Input device and image processing method thereof
JP2014229030A (ja) * 2013-05-21 2014-12-08 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP2015179426A (ja) * 2014-03-19 2015-10-08 富士通株式会社 情報処理装置、パラメータの決定方法、及びプログラム
JP2015191622A (ja) * 2014-03-28 2015-11-02 富士重工業株式会社 車外環境認識装置
KR20180136057A (ko) * 2017-06-14 2018-12-24 현대모비스 주식회사 어라운드 뷰 모니터링 시스템의 카메라 각도 추정 방법
KR102325690B1 (ko) * 2017-06-14 2021-11-15 현대모비스 주식회사 어라운드 뷰 모니터링 시스템의 카메라 각도 추정 방법
JP7341712B2 (ja) 2018-05-09 2023-09-11 キヤノン株式会社 画像処理装置、画像処理方法、撮像装置、およびプログラム

Also Published As

Publication number Publication date
CN102859555B (zh) 2016-04-20
US9070042B2 (en) 2015-06-30
US20130004079A1 (en) 2013-01-03
JP5954712B2 (ja) 2016-07-20
CN102859555A (zh) 2013-01-02
JPWO2012096163A1 (ja) 2014-06-09

Similar Documents

Publication Publication Date Title
WO2012096163A1 (ja) 画像処理装置、画像処理方法、及びそのプログラム
JP6767743B2 (ja) 映像補正方法及び装置
RU2612378C1 (ru) Способ замены объектов в потоке видео
KR101706216B1 (ko) 고밀도 삼차원 영상 재구성 장치 및 방법
EP2549762A1 (en) Stereovision-image position matching apparatus, stereovision-image position matching method, and program therefor
JP6570296B2 (ja) 画像処理装置、画像処理方法およびプログラム
EP2561683B1 (en) Image scaling
US10116917B2 (en) Image processing apparatus, image processing method, and storage medium
US20140340486A1 (en) Image processing system, image processing method, and image processing program
JP2010152521A (ja) 画像立体化処理装置及び方法
WO2013035457A1 (ja) 立体画像処理装置、立体画像処理方法、及びプログラム
US20080226159A1 (en) Method and System For Calculating Depth Information of Object in Image
KR102362345B1 (ko) 이미지 처리 방법 및 장치
KR101797035B1 (ko) 오버레이 영역의 3d 영상 변환 방법 및 그 장치
US10096116B2 (en) Method and apparatus for segmentation of 3D image data
CN113313707A (zh) 原始图像处理方法、装置、设备及可读存储介质
KR102516358B1 (ko) 영상 처리 방법 및 영상 처리 장치
KR20160101762A (ko) 색상 정보를 활용한 자동 정합·파노라믹 영상 생성 장치 및 방법
US20130208976A1 (en) System, method, and computer program product for calculating adjustments for images
KR101196573B1 (ko) 영역 분할을 이용한 3디 입체영상의 밝기 보상 방법
JP2014191430A (ja) 画像処理装置及び画像処理方法
JP6131256B2 (ja) 映像処理装置及びその映像処理方法
JP6131256B6 (ja) 映像処理装置及びその映像処理方法
KR20140118370A (ko) 입체 영상 제작 시스템 및 다시점 영상 정렬방법
CN117689609A (zh) 视差获取方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201280000903.9

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2012519262

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12734461

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13583646

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12734461

Country of ref document: EP

Kind code of ref document: A1