WO2015178001A1 - 画像照合システム、画像照合方法、およびプログラムを記憶する記録媒体 - Google Patents

画像照合システム、画像照合方法、およびプログラムを記憶する記録媒体 Download PDF

Info

Publication number
WO2015178001A1
WO2015178001A1 PCT/JP2015/002475 JP2015002475W WO2015178001A1 WO 2015178001 A1 WO2015178001 A1 WO 2015178001A1 JP 2015002475 W JP2015002475 W JP 2015002475W WO 2015178001 A1 WO2015178001 A1 WO 2015178001A1
Authority
WO
WIPO (PCT)
Prior art keywords
contour
image
geometric
representative point
parameter
Prior art date
Application number
PCT/JP2015/002475
Other languages
English (en)
French (fr)
Inventor
雄馬 松田
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2016520931A priority Critical patent/JPWO2015178001A1/ja
Publication of WO2015178001A1 publication Critical patent/WO2015178001A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes

Definitions

  • the present invention relates to a system or the like for recognizing or searching for an object or shape included in image information, and more particularly to a system or the like for satisfactorily matching an object or shape including shielding or contact.
  • General object recognition is a technique for recognizing an object included in an unrestricted real-world scene image using general names (Category names).
  • General object recognition is regarded as one of the most difficult tasks in image recognition research.
  • General object recognition technology can be applied to various applications. For example, appropriate classification of image data stored without being classified in a database, search for necessary image data, extraction of a desired scene from a moving image, or cropping of only a desired scene It can be applied to re-editing.
  • Non-Patent Document 1 a technique using a feature amount called SIFT (Scale Invariant Feature Transform) using a histogram in which local intensity gradients of images are accumulated as shown in Non-Patent Document 1 is widely recognized. Since this method uses a feature common to many objects such as a local intensity gradient of an image, it can be applied to various objects. Further, the same image with geometric transformation, shielding, and contact can be recognized as the same by this method. This method is a method for determining whether or not two images are the same.
  • SIFT Scale Invariant Feature Transform
  • this method gives information on how similar two images (or image regions) are, and what category (animal, plant, structure, etc.) they belong to Do not mean.
  • this method uses a feature value based on the intensity gradient of the image, this method can be applied to objects that do not undergo drastic changes in intensity, for example, objects composed of fewer colors. Is difficult.
  • Most methods using feature quantities, including this method have problems in application to general object recognition technology.
  • Patent Document 2 describes an image search device that uses a feature amount extracted from an object region separated from a background by an outline specified by a user to search an image similar to the object region in a database. Yes.
  • Non-Patent Document 2 a recognition method using the distribution information of the curvature of the object contour that is commonly included in any object has already been devised (see Non-Patent Document 2 above). This method can also be applied when the object is geometrically transformed, or when a part of the contour is occluded. As described above, by using the method, it is possible to recognize a general object under a general condition including shielding.
  • curvature arrangement information is acquired from a contour different from the true contour of the object. Using such curvature arrangement information that is not obtained from the true contour of the object may adversely affect the accuracy of the object recognition result.
  • the accuracy of the object recognition result may be reduced.
  • the image search device described in Patent Document 2 performs an image search using feature quantities extracted in an object region separated by a contour line designated by a user. Therefore, in the technique of Patent Document 2, when the object area is separated into a plurality of areas by occlusion, the accuracy of the image search is reduced as follows. For example, when the user designates the outline of the separated partial area, the feature amount extracted from only a part of the object is used for the image search. Therefore, the accuracy of image search is reduced. When the user designates a contour line so as to include all of the separated object regions, the contour line includes a shielding object region that shields the object region. Therefore, the feature amount extracted from the area of the shielding object that shields the object area is also used. Therefore, the accuracy of image search is reduced.
  • One of the objects of the present invention is to provide an image collation system, an image collation method, and a program for accurately performing collation based on similarity of objects or shapes including occlusions and contacts included in an image based on the above problems. It is to be.
  • An image matching system extracts a set of contour representative points from contours extracted in a first image region and a second image region, and specifies a geometric parameter based on each of the contour representative points.
  • the geometric representative point between the contour representative points in a combination of the contour representative point extracting means and the contour representative points included in the first image region and the contour representative points included in the second image region.
  • a geometric transformation parameter deriving unit for deriving a combined geometric difference value, which is a representative difference value, as a geometric transformation parameter, and the geometric parameter of the contour representative point included in the set of the first image region.
  • One or both of the matching target and the matching target of the second image region are converted based on the geometric transformation parameter, and then the matching pair. Calculating a similarity between, and a contour matching means for performing matching based on the calculated degree of similarity.
  • An image matching method extracts a set of contour representative points from contours extracted in a first image region and a second image region, and specifies a geometric parameter based on each of the contour representative points. And a representative difference value of the geometric parameter between the contour representative points in a combination of the contour representative points included in the first image region and the contour representative points included in the second image region.
  • a certain combination geometric difference value is derived as a geometric transformation parameter, and the matching target represented by the geometric parameter of the contour representative point included in the set of the first image region, and the second image region
  • the similarity between the verification targets is calculated, and the verification based on the calculated similarity To run.
  • a computer-readable recording medium extracts a set of contour representative points from contours extracted in a first image region and a second image region, and each of the contour representative points is extracted from the computer.
  • a contour representative point extracting means for specifying a geometric parameter based on the contour representative point in a combination of the contour representative point included in the first image region and the contour representative point included in the second image region.
  • a geometric transformation parameter deriving means for deriving a combined geometric difference value, which is a representative difference value of the geometric parameters between the two, as a geometric transformation parameter, and the contour representative points included in the set of the first image region.
  • One or both of the collation target represented by the geometric parameter and the collation target of the second image region is used as the geometric transformation parameter.
  • the converted Zui stores a program for operating as a contour matching means for calculating a degree of similarity, executes the verification based on the calculated degree of similarity between the matching target.
  • the present invention is also realized by a program stored in the above-described storage medium.
  • an image matching system it is possible to provide an image matching system, an image matching method, and a program for accurately performing matching based on similarity of objects or shapes including occlusions and contacts included in an image.
  • FIG. 1 is a configuration diagram of an image matching system 100 according to the first embodiment of the present invention.
  • FIG. 2A is an explanatory diagram illustrating an example of information acquired from the image information acquisition unit 101.
  • FIG. 2B is an explanatory diagram illustrating an example of information acquired from the image information acquisition unit 101.
  • FIG. 3A is an explanatory diagram illustrating an example of a contour extracted by the contour extraction unit 102.
  • FIG. 3B is an explanatory diagram illustrating an example of a contour extracted by the contour extraction unit 102.
  • FIG. 4A is an explanatory diagram illustrating an example of a contour representative point group extracted by the contour representative point extraction unit 103.
  • FIG. 4B is an explanatory diagram illustrating an example of a contour representative point group extracted by the contour representative point extraction unit 103.
  • FIG. 5 is an explanatory diagram visualizing an example of distribution information related to a geometric transformation parameter derived as a progress of the geometric transformation parameter deriving unit 104.
  • FIG. 6 is a flowchart showing an example of the operation of the object or shape image matching system according to the first embodiment of the present invention.
  • FIG. 7 is an explanatory diagram visualizing the validity of the comparison result between the acquired images in FIG. 2.
  • FIG. 8 is an explanatory diagram visibly illustrating distribution data of parameter difference values existing between contour representative points to be collated.
  • FIG. 9 is an explanatory diagram for explaining an intention to collect a plurality of distribution data sets when converting the difference values of parameters existing between contour representative points to be collated.
  • FIG. 10 is a configuration diagram of an image matching system 100A according to the second embodiment of the present invention.
  • FIG. 11 is an explanatory diagram illustrating an example of a multi-resolution image.
  • FIG. 12 is a flowchart showing an example of the operation of the image matching system 100A according to the second embodiment of the present invention.
  • FIG. 13 is a configuration diagram of an image matching system 100B according to the third embodiment of the present invention.
  • FIG. 14 is a flowchart showing an example of the operation of the image matching system 100B according to the third embodiment of the present invention.
  • FIG. 15 is a block diagram illustrating an example of a configuration of an image matching system 100C according to the fourth embodiment of the present invention.
  • FIG. 16 is a diagram illustrating an example of a hardware configuration of a computer 1000 that can realize the image matching systems 100, 100A, 100B, and 100C.
  • the above-mentioned recognition method using the distribution information of the curvature of the object contour does not generate a set of feature points in the contour of each object.
  • the accuracy of For example, when the contour of an object is occluded at two or more locations and the contour is separated into two or more parts in the image, the two or more separated contours are integrated as a single object contour. It may not be. Further, when the contours of a plurality of objects are in contact, the contours of the individual objects may not be separated.
  • the inventor proposes a system for performing image collation as follows.
  • the processing operation of this verification system can be shown in 4 steps.
  • the collation system acquires two images to be collated or two areas of one image.
  • Each of the two image regions includes an object or graphic image (hereinafter also referred to as “object shape”) as a comparison target.
  • the collation system extracts a contour representative point group in the contour representing the object shape from each of the two image regions.
  • This collation system expresses each object shape which is a collation object by the geometric parameter in the extracted outline representative point group.
  • the collation system acquires the values of known geometric parameters of the image used for collation and contour representative point cloud information extracted in advance and stored in a collation database or the like. The acquired information may be used for image collation.
  • the above-described contour representative point group is a set of contour representative points extracted in one image region.
  • the contour representative point is a point having a predetermined feature among points detected as points included in the contour.
  • the contour representative point is also referred to as “contour representative point”.
  • the geometric parameter may be expressed as “geometric parameter”.
  • the geometric parameter may be a combination of two or more types of parameters. The geometric parameters will be described later in detail.
  • the collation system performs geometric analysis in the combination of the contour representative point included in one contour representative point group and the contour representative point included in the other contour representative point group extracted in the second step.
  • the difference value of a typical parameter may calculate, for example, geometric parameter difference values for all possible combinations of contour representative points.
  • the matching system uses the calculated distribution information of the difference value of the geometric parameter, and the contour representative point of the object included in one image region and the contour representative point of the object included in the other image region. Determine a combination of representative difference values of the geometric parameters.
  • the collation system sets the determined combination as a geometric transformation parameter. Note that this collation system may derive geometric transformation parameters using combinations of some contour representative points, instead of all possible combinations of contour representative points.
  • the above third step can be rephrased as follows.
  • the collation system extracts the difference value of the geometric parameter in the combination of the contour representative point included in one contour representative point group and the contour representative point included in the other contour representative point group extracted in the second step.
  • the matching system may calculate geometric parameter difference values, for example, for all possible combinations of contour representative points.
  • the collation system may calculate the geometric parameter difference values for some combinations of contour representative points, instead of all possible combinations of contour representative points. And this collation system produces
  • the collation system determines a representative difference value of the geometric parameter using the calculated distribution information of the difference value of the geometric parameter. In other words, the matching system determines a combination of representative difference values of geometric parameters.
  • the geometric parameter may be two or more parameters.
  • a typical difference value of the geometric parameter is represented by a combination of a plurality of difference values.
  • a representative difference value represented by a combination of a plurality of difference values is also expressed as a combination of representative difference values.
  • the collation system sets the determined combination as a geometric transformation parameter.
  • the representative difference value is, for example, a difference value having the maximum or maximum appearance frequency counted by a predetermined method.
  • the difference value of the geometric parameter between the contour representative point of the object included in one image region and the contour representative point of the object included in the other image region is a representative difference value. It is expected to be detected.
  • the collation system determines the similarity between the two collation targets using the geometric transformation parameter derived in the third step, and additionally specifies the position where the object exists in the image. As a result, a matching result is obtained.
  • the object recognized in the present invention is, for example, an object or a shape.
  • the object is a tangible object in a three-dimensional space, such as an object, an animal, or a plant.
  • the shape is, for example, a figure that is recognized based on a difference in surface color or reflectance of an object or the like. Furthermore, in the following description, the object and the figure are collectively expressed simply as “object” or “object etc.”.
  • the image matching system 100 can accurately perform matching based on similarity of objects or shapes including shielding and contact included in an image.
  • FIG. 1 is a block diagram illustrating a configuration of an image matching system 100 according to the first embodiment.
  • an image matching system 100 according to the first embodiment includes a control unit 10, a memory 20, an image information acquisition unit 101, a contour extraction unit 102, a matching unit 110, and a matching result output unit 106. And an image information storage unit 201 and a contour representative point information storage unit 202.
  • the matching unit 110 includes a contour representative point extraction unit 103, a geometric transformation parameter derivation unit 104, and a contour matching unit 105.
  • the control unit 10 manages the entire information processing operation related to the image identification process while using the memory 20.
  • the image information acquisition unit 101 captures image information (that is, image data) of an image such as a moving image or a photo specified by the user into the image collation system 100 and stores it in the image information storage unit 201.
  • image information representing an image is also simply referred to as “image”.
  • storing image information representing an image in the image information storage unit 201 is expressed as “store an image in the image information storage unit 201”.
  • the image information acquisition unit 101 may store the image designated by the user in the image information storage unit 201 as it is.
  • the image information acquisition unit 101 may store the acquired image in the image information storage unit 201 after performing preprocessing such as black-and-white conversion and filtering on the acquired image to assist the following processing, for example.
  • the image information acquisition unit 101 may acquire both an image to be collated and an image of a known object or shape that is an object recognition target.
  • the image information acquisition unit 101 acquires image information of an unknown image and image information of a registered image.
  • An unknown image is an image in which the contained object is unknown.
  • the registered image is an image including an object that is an object recognition target (that is, an object to be detected in an unknown image).
  • FIGS. 2A and 2B Examples of image information acquired by the image information acquisition unit 101 are illustrated in FIGS. 2A and 2B.
  • the image information acquisition unit 101 may acquire an image designated by the user from images stored in advance in the image information storage unit 201 when acquiring the image.
  • an image stored in the image information storage unit 201 may be used as a collation database.
  • the contour extraction unit 102 extracts a contour from each image acquired by the image information acquisition unit 101.
  • the image information storage unit 201 may store a collation database including contour information representing the contour of a collation image (the above-described registered image that is one image to be compared).
  • the contour extraction unit 102 may acquire the contour information of the verification image by reading it from the verification database stored in the image information storage unit 201.
  • An example of the contour information extracted by the contour extraction unit 102 is shown in FIGS. 3A and 3B.
  • the contour extraction unit 102 extracts a contour from the image acquired by the image information acquisition unit 101.
  • the contour extraction unit 102 uses a Laplacian Gaussian filter as a contour point that is a point included in the contour, for example, a point where at least one of hue, saturation, brightness, and the like in the image changes abruptly. Extract using a filter such as The contour extraction unit 102 specifies the coordinates of each extracted contour point.
  • the coordinates of the contour point are expressed as (x, y), for example, using an orthogonal coordinate system.
  • the contour is represented by a set of contour points (hereinafter also referred to as “contour point group”).
  • the method of contour extraction is not limited to the above method.
  • the contour representative point extraction unit 103 extracts a set of contour representative points (hereinafter referred to as “contour representative point group”) from the extracted contour.
  • the contour representative point extraction unit 103 stores the extracted contour representative point group in the contour representative point information storage unit 202. Even if the collation database or the contour representative point information storage unit 202 stores the contour representative point group of the preliminarily extracted collation image (the registered image which is one image to be compared as described above). Good. Then, the contour representative point extraction unit 103 may read out the contour representative point group stored in the collation database or the contour representative point information storage unit 202. An example of the contour representative point information extracted by the contour representative point extraction unit 103 is shown in FIGS. 4A and 4B.
  • the contour representative point extraction unit 103 may, for example, divide the contour at equal intervals and extract the end point or the center point of the partitioned section as the representative point.
  • the contour representative point extraction unit 103 may, for example, divide the contour at a predetermined interval and extract the end point or the center point of the partitioned section as the representative point.
  • the contour representative point extraction unit 103 may extract a point such as a center point of an image pixel corresponding to the contour as a representative point.
  • the contour representative point extraction unit 103 may extract a geometric feature point from the contour as a representative point.
  • the contour representative point extraction unit 103 may extract, for example, a point having a feature that takes into account the local curvature of the contour as a geometric feature point on the contour.
  • the contour representative point extraction unit 103 may extract feature points as contour representative points, for example, according to the following method.
  • curvature is an amount such as Euclidean curvature, Euclidean curvature radius, or affine curvature, which represents how much the curve is distorted compared to a straight line.
  • the contour representative point extraction unit 103 may use any amount of the Euclidean curvature, the Euclidean curvature radius, the affine curvature, or the like as the amount representing the degree of curve bending.
  • a method of extracting an inflection point based on the Euclidean curvature as a representative point will be described.
  • Inflection point means the point where the curvature changes from minus to plus.
  • the inflection point based on the Euclidean curvature (hereinafter also referred to as “the inflection point of the Euclidean curvature”) is a point at which the Euclidean curvature changes from minus to plus.
  • the inflection point based on the Euclidean curvature is invariant to the projective transformation.
  • the contour representative point extraction unit 103 extracts an inflection point of the Euclidean curvature, for example, according to the following method.
  • the contour representative point extraction unit 103 determines the contour coordinates t so as to go around the contour with one point selected as appropriate as a starting point.
  • the contour representative point extraction unit 103 calculates the Euclidean curvature defined by the following equation (1) at each point included in the contour.
  • the contour representative point extraction unit 103 extracts a point where the value of the Euclidean curvature is zero as a feature point of the contour (that is, a contour representative point).
  • the first-order differential value represents the first-order differential value with respect to t.
  • the second order differential value represents the second order differential value with respect to t.
  • the contour representative point extraction unit 103 may perform image smoothing to some extent as preprocessing performed before processing for calculating the Euclidean curvature.
  • Image smoothing as preprocessing has an effect of reducing the influence of fluctuations due to local bending noise on extracted feature points even in a noisy outline.
  • the method of extracting the contour representative point is not limited to the method of extracting the contour representative point (feature point) using the inflection point of the Euclidean curvature described above.
  • the inflection point of the Euclidean curvature is not so much included in the contour with few irregularities.
  • the contour representative point extraction unit 103 may extract the maximum point and the minimum point of the Euclidean curvature (corresponding to the peak portion of the contour unevenness) as the contour representative point.
  • the contour representative point extraction unit 103 specifies one or a plurality of geometric parameters of the extracted contour representative point group.
  • the contour representative point extraction unit 103 specifies at least one type of geometric parameter that is predetermined in each contour representative point included in the extracted contour representative point group.
  • the geometric parameter may be at least one of various parameters indicating the geometric characteristics of the contour representative point.
  • the contour representative point extraction unit 103 specifies, for example, the following geometric parameters of the extracted contour representative point group. A good similarity determination result can be obtained by performing similarity determination described later using the geometric parameters shown below.
  • the first example of the geometric parameter is the position of the contour representative point.
  • a second example of the geometric parameter is an orientation such as a tangent line or a normal line of the contour at the contour representative point.
  • a third example of the geometric parameter is the curvature of the contour at the contour representative point.
  • a fourth example of the geometric parameter is the luminance in the peripheral region of the contour representative point.
  • the contour representative point extraction unit 103 may specify at least one of these four parameters as a geometric parameter of the contour representative point.
  • the accuracy of geometric transformation by the geometric transformation parameters based on the geometric parameters can be improved.
  • the amount of calculation increases as the types of parameters increase. For this reason, it is important to select an appropriate type of geometric parameter and the number of geometric parameters according to the desired accuracy and the amount of calculation processing.
  • the geometric transformation parameter derivation unit 104 determines a geometric parameter difference value for a combination of a contour representative point included in one of two contour representative points extracted from two image regions and a contour representative point included in the other. Calculate The geometric transformation parameter derivation unit 104 may calculate a geometric parameter difference value for all possible combinations.
  • the geometric transformation parameter deriving unit 104 derives distribution information by statistically processing the distribution of the calculated difference values of the geometric parameters.
  • the geometric transformation parameter deriving unit 104 uses the derived distribution information to determine a combination of representative difference values of geometric parameters (combined geometric difference values) between the contour representative point groups respectively included in the two image regions. To do.
  • the representative difference value (also referred to as a representative value of the difference value) is determined based on the number of combinations of contour representative points whose geometric parameter difference values are approximated by the representative geometric difference value, for example. It is an approximate value of the difference value.
  • the geometric transformation parameter derivation unit 104 sets the determined combination geometric difference value as a geometric transformation parameter.
  • the geometric transformation parameter deriving unit 104 may derive the geometric transformation parameters based on some (for example, a predetermined number) of combinations of contour representative points instead of all possible combinations of contour representative points. Further, the geometric transformation parameter deriving unit 104 may determine a plurality of combined geometric difference values instead of a single combined geometric difference value as a geometric transformation parameter.
  • the collation target is represented by a contour representative point group and three types of geometric parameters at each contour representative point.
  • the three types of geometric parameters are position, orientation, and ambient brightness.
  • the two image areas to be collated are the image area A and the image area B.
  • the number of extracted contour representative point in the image area A is C I.
  • the number of extracted contour representative point in the image area B is C J.
  • the position of the contour representative point P i A is (x i A , y i A ), the direction is ⁇ i A , and the peripheral luminance is M i A.
  • the position of the contour representative point P j B is (x j B , y j B ), the orientation is ⁇ j B , and the peripheral luminance is M j B.
  • the azimuth is, for example, an angle in a predetermined rotation direction (for example, counterclockwise) with respect to a predetermined direction in the image region in a direction from the predetermined origin to the contour representative point in the image region.
  • the peripheral luminances M i A and M j B are N ⁇ N matrices.
  • the value of each element of the matrix representing the peripheral luminance represents the luminance of the pixels around the contour representative point.
  • the contour representative point group ⁇ P i A ⁇ included in the image region A is the position (x i A) of each contour representative point P i A included in the contour representative point group ⁇ P i A ⁇ . , Y i A ), azimuth ⁇ i A , and peripheral luminance M i A.
  • the contour representative point group ⁇ P j B ⁇ included in the image region B is the position (x j B , y j) of each contour representative point P j B included in the contour representative point group ⁇ P j B ⁇ . B ), azimuth ⁇ j B , and peripheral luminance M j B.
  • the geometric transformation parameter deriving unit 104 calculates a representative combination geometric difference value between the contour representative point group ⁇ P i A ⁇ and the contour representative point group ⁇ P j B ⁇ , for example, according to the following method.
  • the rotation center in the image A is (x 0 A , y 0 A ), and the rotation center in the image B is (x 0 B , y 0 B ).
  • Geometric transformation parameter deriving section 104 the rotational center (x 0 A, y 0 A ) located around the (x i A, y i A ) and a position obtained by d [theta] k rotating the rotational center (x 0 B, y 0 located mainly in B) (x j B, misalignment between y j B) was allowed to d [theta] k rotational position (dx, dy) is calculated.
  • the geometric transformation parameter derivation unit 104 obtains (dx, dy) for all combinations of i and j, and generates a distribution (for example, a frequency distribution) regarding the value of (dx, dy).
  • the distribution is represented by, for example, a histogram.
  • the geometric transformation parameter deriving unit 104 may rotate the position of the contour representative point of any one of the images (for example, the image B).
  • the geometric transformation parameter deriving unit 104 may calculate (dx, dy) represented by the following equation (2) for each combination of i and j. Then, the geometric transformation parameter derivation unit 104 may generate a distribution of difference values between the parameters represented by the calculated (dx, dy) as a two-dimensional histogram.
  • the position of the rotation center (for example, the rotation center (x 0 B , y 0 B ) in Expression (2)) is the position of the contour representative point group (for example, (x j B , y j B ) for each j). (For example, the position of the center of gravity).
  • the geometric transformation parameter deriving unit 104 may derive the distribution data of the value of (dx, dy) by basic “voting”. That is, the geometric transformation parameter deriving unit 104 may count “one point” per one positional deviation (dx, dy) for a section including the positional deviation (dx, dy). Then, the geometric transformation parameter deriving unit 104 may calculate the cumulative “score” for each calculated positional deviation (dx, dy) as the cumulative value of the distribution (for example, the frequency of the frequency distribution represented by the histogram). .
  • the section represents, for example, a plurality of finite areas in which a plane on which two-dimensional coordinates are set is divided. Note that the counting method of the accumulated value (for example, frequency) is not limited to the above method. The counting method may be appropriately adopted according to the geometric parameter.
  • the geometric transformation parameter deriving unit 104 further inverts the position of the contour representative point group of one of the images (for example, the image B) with respect to a predetermined straight line passing through the rotation center of the image (for example, the image B).
  • the above-described distribution may be generated.
  • the geometric transformation parameter deriving unit 104 may accumulate points determined based on the similarity of peripheral luminance instead of accumulating one point per one positional deviation. For example, the geometric transformation parameter deriving unit 104 converts the peripheral luminance of the contour representative point P i A and the contour representative point P i B represented by the matrices M i A and M j B into the difference in orientation as described above. Based on the conversion, the similarity of the peripheral luminance may be calculated. Then, the geometric transformation parameter deriving unit 104 may determine the number of points to be counted based on the calculated similarity.
  • the geometric transformation parameter deriving unit 104 calculates the degree of similarity after rotating each element of the matrix representing the peripheral luminance of one of the images by the angle represented by d ⁇ k as described above. May be. Then, for example, the geometric transformation parameter deriving unit 104 may determine the number of points to be counted so that the higher the similarity is, the closer the value is to “1 point”, and the lower the value is, the closer the value is to “0”. Good. The geometric transformation parameter deriving unit 104 may count the determined number of points for each calculated displacement (dx, dy) for each combination of i and j.
  • the geometric transformation parameter deriving unit 104 generates the above-described distribution for all k (that is, k from 1 to K).
  • the geometric transformation parameter deriving unit 104 determines, from the generated distribution, a position and angle difference pair (dx, dy, d ⁇ k ) having a maximum accumulated value (that is, a value obtained by accumulating the above points), Extracted as a representative combination geometric difference value.
  • the geometric transformation parameter deriving unit 104 may further extract a set of position and angle differences (dx, dy, d ⁇ k ) having a cumulative maximum value as a representative combination geometric difference value.
  • the geometric transformation parameter deriving unit 104 further has a predetermined number of cumulative maximum values (hereinafter also referred to as “upper values”), and a set of positional and angular differences (dx, dy, d ⁇ k ). May be extracted as a representative combination geometric difference value.
  • d ⁇ k is also expressed as “d ⁇ ”.
  • the geometric transformation parameter deriving unit 104 employs the extracted representative combination geometric difference value as a geometric transformation parameter between the contour representative point P i A and the contour representative point P j B.
  • the method of deriving a representative combination geometric difference value between the contour representative point P i A and the contour representative point P j B is not limited to the above method.
  • a method of deriving a representative combination geometric difference value between the contour representative point P i A and the contour representative point P j B what is the method of deriving the combination geometric difference value by statistics based on the data structure of the distribution information? A method may be used.
  • the geometric transformation parameter deriving unit 104 may generate a plurality of types of distributions having different bin sizes (segment range sizes).
  • the window size of the histogram of one type may be, for example, half the size of the segment range in the distribution of the other type.
  • the division range is a range of values generated by, for example, dividing the value range of the geometric parameter difference value at the boundary of the division range (that is, dividing the value range at the boundary).
  • the geometric transformation parameter deriving unit 104 may derive a representative combination geometric difference value using data (for example, histograms) of a plurality of types of distributions. Processing for extracting distribution features with high accuracy using a plurality of types of distribution data will be described in detail later.
  • One or a plurality of representative combination geometric difference values (dx, dy, d ⁇ ) obtained in this way are used as geometric transformation parameters.
  • the geometric transformation parameter is not limited to the geometric difference value (dx, dy, d ⁇ ) represented by the position and orientation difference values.
  • the type and number of geometric transformation parameters may be set based on various geometric transformations such as shear deformation and projective deformation.
  • the contour matching unit 105 after converting one or both of the two matching targets based on the geometric transformation parameter derived by the geometric transformation parameter deriving unit 104, performs matching between contour representative point groups or between contour points, Output the verification result.
  • the contour matching unit 105 may use the distribution value in (dx, dy, d ⁇ ) derived by the geometric transformation parameter deriving unit 104 for the matching process.
  • the contour matching unit 105 may geometrically convert each point (contour representative point or contour point) of one or both images using the derived (dx, dy, d ⁇ ). Then, the contour matching unit 105 integrates the distance (geometric parameter difference amount) between the point of one image after the conversion and the point of the other image closest to the point, etc. May be used.
  • the geometric transformation parameter the points to be compared are transformed so as to overlap each other.
  • the contour matching unit 105 outputs the determination result determined based on the similarity between the images A and B calculated using the contour representative point group or the contour point group and the geometric transformation parameter as a result of the matching process. May be.
  • the contour matching unit 105 may output the similarity as a result of the matching process.
  • the contour matching unit 105 may output the position of the contour representative point group or the contour point group existing in the image. For example, if the degree of similarity is greater than a predetermined value, the contour matching unit 105 may output a message or graphic indicating “matched” (matched). Further, the contour matching unit 105 may visually display the matching result by superimposing the image B deformed by using the derived geometric transformation parameter on the image A, for example.
  • the contour matching unit 105 converts both of the matching target (that is, the contour point group or the contour representative point group) represented by the contour point group or the contour representative point group based on the geometric transformation parameter, and the converted 2 You may perform the collation process of one collation object.
  • the contour matching unit 105 performs, for example, conversion represented by a geometric transformation parameter having a value half of the derived geometric transformation parameter for each point (contour representative point or contour point) of one image and the other image. The inverse transformation of the transformation may be performed on each point.
  • the contour matching unit 105 determines that, for each point of one image, the values of some of the geometric parameters included in the combined geometric difference value are half of the derived values.
  • a conversion in which the value of the geometric parameter is a derived value may be performed.
  • the contour matching unit 105 determines that the values of some of the geometric parameters described above are half of the derived values and the values of the other geometric parameters are zero for each point of the other image.
  • a certain conversion may be performed. As a result, the accuracy can be improved depending on the type of geometric parameter employed as the geometric transformation parameter.
  • the collation result output unit 106 outputs a collation result (collation result) performed by the contour collation unit 105 to a monitor or the like.
  • the collation result output unit 106 may output the collation result to the recording device.
  • the collation result output unit 106 may display the classification to which the identification target belongs among the classifications prepared in advance as the collation result.
  • the collation result output unit 106 may tag the collation result and embed the tagged collation result in the image.
  • the matching result output unit 106 may link similar images determined to be matched by the contour matching unit 105.
  • FIG. 6 is a flowchart illustrating an example of the operation of the first embodiment.
  • the image information acquisition unit 101 first acquires an image area designated by the user (S1001).
  • the image information acquisition unit 101 may acquire two image regions (for example, the above-described unknown image and registered image) each including an image to be collated.
  • the image information acquisition unit 101 is not limited to the image area specified by the user, and the system may acquire the image area automatically / semi-automatically.
  • the image information acquisition unit 101 only needs to acquire one image.
  • the contour extracting unit 102 extracts a contour from each image area acquired by the image information acquiring unit 101 (S1002).
  • the contour representative point extraction unit 103 extracts a contour representative point group from the contours of the respective image regions (S1003).
  • the geometric transformation parameter deriving unit 104 performs all the combinations of the contour representative point extracted from one image region and the contour point extracted from the other image region by the contour representative point extracting unit 103.
  • a geometric difference value is calculated (S1004).
  • the geometric transformation parameter deriving unit 104 generates statistical information of geometric difference values (for example, a distribution such as a frequency distribution).
  • the geometric transformation parameter deriving unit 104 derives a representative combination geometric difference value (representative geometric difference value) between the two matching targets using the generated statistical information, and derives the representative combination thus derived.
  • the geometric difference value is set as a geometric transformation parameter (S1005).
  • the contour matching unit 105 performs matching based on similarity based on the information obtained in the processing up to step S1005 (S1006).
  • the collation result output unit 106 outputs the collation result (S1007).
  • This embodiment has an effect that it is possible to provide a method for accurately performing collation based on similarity of objects or shapes including shielding or contact included in an image.
  • FIG. 7 is an explanatory diagram that visualizes that the corresponding feature points are successfully acquired between the images to be compared.
  • FIG. 7 shows an example of the matching result of the matching target shown in FIGS. 2A and 2A.
  • FIG. 7 shows the contour representatives of image A and image B transformed using the derived geometric transformation parameters (above (dx, dy, d ⁇ )) in the process of obtaining the similarity between the images A and B to be collated.
  • Point clouds are displayed under the same coordinate system.
  • a line in FIG. 7 indicates a contour representative point pair (a set of a contour representative point of image A and a contour representative point of image B) having a combined geometric difference value set as a geometric transformation parameter.
  • FIG. 8 is an example of a histogram visually showing the distribution data of geometric parameter difference values existing between contour representative points to be collated.
  • the horizontal axis represents the segment range
  • the vertical axis represents the integrated value of the detected difference values.
  • the number of division ranges for dividing the horizontal axis may be determined as appropriate in consideration of the amount of calculation.
  • the number of segment ranges may be obtained based on at least one of the number of contour representative point pairs and the number of geometric parameters.
  • the number of division ranges may be determined in advance.
  • the example shown in FIG. 8 is a one-dimensional histogram.
  • the geometric transformation parameter is one-dimensional data.
  • the geometric transformation parameters may be expressed by a multidimensional matrix corresponding to the number of geometric parameters.
  • the resolution of the geometric parameters can be increased (that is, a precise distribution can be obtained) by narrowing the range in which the cumulative value is calculated.
  • the azimuth resolution is improved by narrowing the azimuth division range.
  • the amount of calculation increases by narrowing the division range.
  • the geometric transformation parameter deriving unit 104 performs statistical processing (processing for generating a distribution) for each geometric parameter based on a segment range obtained by sliding the segment range of the distribution by half the size of the segment range. ).
  • the geometric transformation parameter deriving unit 104 generates, for each geometric parameter, a plurality of distributions (one parameter distribution data set) based on segment ranges having the same size but different ranges.
  • distributed data set group By using the data structure of the combination of distribution data sets described above (hereinafter also referred to as “distribution data set group”), it is possible to reduce the amount of calculation for deriving a representative combination geometric difference value.
  • FIG. 9 is an explanatory diagram visually illustrating a plurality of distribution data sets of difference values of a certain geometric parameter existing between two contour representative point groups to be collated.
  • the distribution on the left side of the distribution data set shown in FIG. 9 corresponds to the distribution shown in FIG.
  • the distribution on the right side of the distribution data set shown in FIG. 9 is a distribution based on a segment range obtained by sliding the segment range of the distribution shown in FIG.
  • the accuracy can be improved without increasing the resolution of the geometric parameters.
  • the multiple distribution data sets described above are based on the distribution of differences generated based on unaltered horizontal segment ranges and the segment ranges obtained by sliding the horizontal segment ranges half the size of the segment ranges.
  • the geometric transformation parameter deriving unit 104 uses these two distributions as one data set group.
  • true difference values can be extracted more accurately. For example, when the true difference value is near the boundary of the distribution range of one distribution, the accumulated value based on the true difference value is divided into a plurality of distribution ranges of the distribution. However, in this case, since the vicinity of the center value of the other distribution data division range corresponds to the true difference value, the true difference value appears as a cumulative value in one division range.
  • the number of frequency distributions is not limited to two.
  • the geometric transformation parameter deriving unit 104 when generating N frequency distributions, the geometric transformation parameter deriving unit 104 generates the frequency distribution based on the divided ranges obtained by sliding the divided ranges on the horizontal axis by 1 / N of the size of the divided ranges. Also good.
  • a method for determining a candidate difference value of a geometric parameter based on a distribution or a distribution data set is a value indicating a division range on the horizontal axis of the distribution (0.45 in the example shown in FIG. 8 and 0.525 ( (0.65-0.4) /2+0.4)) may be used as it is.
  • the difference value candidate of the geometric parameter may be an average value of the difference values included in the detected range of the horizontal axis. This average value may be a weighted average value.
  • the candidate for the difference value of the geometric parameter is a segment range having a cumulative value peak whose ratio to the largest cumulative value is greater than a predetermined ratio. May be a candidate determined based on In this way, by obtaining a plurality of difference value candidates, it is possible to obtain a difference value candidate based on those peaks in a distribution having a plurality of peaks.
  • the candidate for the difference value of the geometric parameter may be a candidate determined based on a segment range having a cumulative value peak larger than a predetermined threshold.
  • the candidate for the difference value of the geometric parameter may be a candidate determined based on a segment range having a cumulative value peak whose magnitude ranking is a predetermined value or more. At least one of the minimum number and the maximum number of difference value candidates to be extracted may be set.
  • the condition for extracting the difference value candidates may be a condition in which the above conditions are appropriately combined.
  • At least one candidate for difference value may be derived for each geometric parameter. Even if a combination of a plurality of geometric parameters of one difference value selected from one or more difference values derived for individual geometric parameters is set as a representative combination geometric difference value (geometric transformation parameter) Good.
  • the contour representative point groups are extracted from the same object shape, there may be a large difference in the interval at which the contour representative points are extracted between the two contour representative point groups.
  • a contour feature point group extracted from an image of an object shape that occupies a small part of the entire image area (for example, a background) and an outline feature extracted from an image of an object shape that occupies a wide area at the center of the image area The number of pixels included in the object-shaped image is greatly different from that of the point group.
  • a large difference is easily generated in the interval at which the contour feature point is extracted between the two contour representative point groups.
  • a difference may occur in the interval at which the contour feature points are extracted.
  • FIG. 10 is a block diagram illustrating a configuration of an image matching system 100A according to the second embodiment.
  • description is simplified or abbreviate
  • the detailed description of the components of the image matching system 100A of the present embodiment that are the same as the components of the image matching system 100 of the first embodiment will be omitted.
  • the contour extracting unit 102 of the first embodiment is replaced with a multi-resolution contour extracting unit 112.
  • some components have functions different from those of the first embodiment.
  • the multi-resolution contour extraction unit 112 generates a multi-resolution image from the image acquired by the image information acquisition unit 101. That is, the multi-resolution outline extraction unit 112 generates a plurality of images having different resolutions from the image acquired by the image information acquisition unit 101. Then, the multi-resolution contour extraction unit 112 extracts a contour for each resolution. That is, the multi-resolution contour extraction unit 112 extracts a contour from each of a plurality of images having different resolutions.
  • the interval between the contour representative points extracted by the contour representative point extracting unit 103 is substantially multiplexed.
  • the multi-resolution outline extraction unit 112 may refer to the resolutions of the two image areas and have a mechanism for aligning the sizes of the filters that generate the multi-resolution image. As a result, it becomes easy to extract contour representative point groups with equal intervals as a result. In particular, there is a good influence when object recognition is performed in a partial area selected from an image.
  • the contour representative point extraction unit 103 extracts a contour representative point group from each of the contours included in a multi-resolution contour (that is, contours extracted from a plurality of images having different resolutions). Then, the contour representative point extraction unit 103 uses the extracted contour representative point group to express the collation target using a geometric parameter. That is, the contour representative point extraction unit 103 specifies a geometric parameter at each contour representative point included in the contour representative point group for each extracted contour representative point group.
  • the contour representative point extraction unit 103 records each extracted contour representative point group in the contour representative point information storage unit 202. That is, the contour representative point extraction unit 103 stores geometric parameters in the contour representative point information storage unit 202 for each contour phrase vertex group.
  • the collation unit 110 is less likely to perform a large scale conversion, which has a favorable effect on collation accuracy.
  • the matching accuracy when contour representative points are not extracted at a similar interval to some extent, the matching accuracy may be deteriorated depending on the matching target.
  • the possibility of collation accuracy being reduced is reduced.
  • FIG. 11 is an explanatory diagram showing an example of a multi-resolution image obtained by the multi-resolution outline extraction unit 112.
  • the image matching system 100A of the present embodiment generates images of various resolutions such as the multi-resolution image shown in FIG. 11, extracts a contour from each of the generated images, and represents a contour representative point from the extracted contour. Extract groups.
  • the contour representative points are easily extracted at equal intervals.
  • the collation unit 110 is less likely to perform a large scale conversion, which has a favorable effect on the collation accuracy.
  • the multi-resolution outline extraction unit 112 generates a plurality of images with different resolutions by performing, for example, convolution with a plurality of Gaussian filters with different resolutions on the image acquired by the image information acquisition unit 101. Then, the multi-resolution contour extracting unit 112 generates a multi-resolution contour by extracting a contour from a plurality of images having different resolutions.
  • the method by which the multi-resolution contour extraction unit 112 generates the multi-resolution image is not limited to the method using the Gaussian filter described above. As a method by which the multi-resolution contour extraction unit 112 generates a multi-resolution image, any of various methods that achieve at least one of the above-described effects can be adopted.
  • the multi-resolution outline extraction unit 112 may perform convolution with filters having different resolutions using a filter other than a Gaussian filter.
  • the multi-resolution contour extraction unit 112 performs Fourier transform, extracts data values of various ranges of frequencies from the results of the Fourier transform, and performs inverse Fourier transform on the extracted data values of various ranges of frequencies. Also good.
  • a Fourier descriptor can be used for generating a multi-resolution image by the multi-resolution outline extraction unit 112.
  • the multi-resolution contour extraction unit 112 generates a multi-resolution image from each of the image regions acquired in S1001 (S1101).
  • the multi-resolution outline extraction unit 112 may refer to the resolutions of the two image areas.
  • the multi-resolution contour extraction unit 112 reduces the image area so that the resolution of the low-resolution image generated from the image area having the high resolution matches the resolution of the image area having the low resolution of the two image areas.
  • a multi-resolution image may be generated by performing the resolution.
  • the multi-resolution contour extraction unit 112 may multiplex the two image regions so that the multi-resolution image generated from the two image regions includes an image having the same resolution.
  • the multi-resolution contour extracting unit 112 extracts a contour for each resolution from each multi-resolution image obtained in this way (S1102).
  • the image processing system 100A performs the processing from S1003 to S1006 on the multi-resolution outline, and outputs the collation result (S1007).
  • the present embodiment it is possible to accurately perform collation based on the similarity of an object shape where there is shielding or contact in an image. In addition, according to the present embodiment, it is possible to prevent a deterioration in collation accuracy that may occur when a large scale conversion is performed in the collation process.
  • the matching process in which the contour irregularities are sufficiently reflected is not performed.
  • the shape of the small scale appearing on the contour is, for example, an unevenness having a sufficiently small size compared to the size of the entire object or a waveform having a sufficiently small amplitude compared to the size of the entire object shape.
  • FIG. 13 is a block diagram illustrating a configuration of an image matching system 100B according to the third embodiment.
  • description is simplified or abbreviate
  • detailed description of the image collating system 100B of the present embodiment that is the same as the configuration of the image collating system 100 of the first embodiment or the image collating system 100A of the second embodiment is omitted.
  • the collation unit 110 of the image collation system 100B according to the present embodiment further includes a contour representative point region extraction unit 113.
  • some elements of the image matching system 100B of the present embodiment are given the same names of the image matching system 100 of the first embodiment or the image matching system 100A of the second embodiment. It has a function different from that of the element.
  • the configuration illustrated in FIG. 13 is a configuration in which an area between contour representative points 113 is added to the configuration of the image matching system 100A of the second embodiment.
  • the configuration of the image matching system 100B of the present embodiment may be a configuration in which the contour representative point region extracting unit 113 is added to the configuration of the image matching system 100 of the first embodiment.
  • the contour representative point-to-contour area extraction unit 113 obtains the feature of the contour shape between the contour representative point extracted from the contour by the contour representative point extraction unit 103 and the contour representative point adjacent to the contour representative point on the contour.
  • the contour area information to be expressed is extracted.
  • the contour between the contour representative point and the contour representative point adjacent to the contour representative point on the contour is also referred to as “region between contour representative points” or “contour region”.
  • the contour representative point region extracting unit 113 extracts a contour region for each contour representative point of each contour.
  • the contour region of the contour representative point (target representative point) is the contour representative point (hereinafter referred to as “first adjacent representative point”) having the shortest clockwise distance from the target representative point on the contour line, for example.
  • the contour region of the contour representative point is a contour feature point having the shortest counterclockwise distance from the target representative point on the contour line, for example, from the target representative point (hereinafter, “second adjacent representative point”). It may be a contour between the two.
  • the contour region of the contour representative point (target representative point) may be a contour between the first adjacent representative point and the second adjacent representative point of the target representative point.
  • the contour representative point region extracting unit 113 may further extract a representative point (hereinafter also referred to as “region representative point”) in each contour region.
  • the method for extracting the representative points in the contour region may be the same as the method for extracting the contour representative points described above. However, the contour representative point region extracting unit 113 does not extract the contour representative points as region representative points.
  • the contour representative point region extracting unit 113 may set the geometric parameter at the representative point extracted in the contour region in the contour region information of the contour region.
  • the geometric parameter difference between the contour representative point extracted in one image region and the contour representative point extracted in the other image region is referred to as “first difference”.
  • a parameter difference between the contour region extracted in one image region and the contour region extracted in the other image region is referred to as “second difference”.
  • the second difference may be a geometric parameter difference between a region representative point extracted in one image region and a region representative point extracted in the other image region.
  • the geometric transformation parameter derivation unit 104 of the present embodiment may derive the geometric transformation parameters based on the first difference and the second difference.
  • the geometric transformation parameter deriving unit 104 of the present embodiment may derive the geometric transformation parameters based on the second difference instead of the first difference. This makes it possible to perform a favorable collation process even on an object shape having features of a small scale shape, such as an object shape having a small scale unevenness (for example, a waveform) on the surface.
  • the geometric transformation parameter deriving unit 104 derives a geometric transformation parameter based on the geometric parameter difference between the contour representative points (that is, the first difference described above), and in addition, the geometric parameter difference between the region representative points.
  • the geometric transformation parameter may be derived based on (that is, the above-described second difference).
  • the geometric transformation parameter deriving unit 104 may select one geometric transformation parameter as a best geometric transformation parameter from among the separately derived geometric transformation parameters by a predetermined method.
  • the geometric transformation parameter derivation unit 104 may set the geometric transformation parameters derived separately as geometric transformation parameter candidates.
  • the geometric transformation parameter deriving unit 104 may select a plurality of geometric transformation parameter candidates from separately derived geometric transformation parameters.
  • the geometric transformation parameter derivation unit 104 weights at least one of the first difference and the second difference. You may hang it. The weight for the first difference and the weight for the second difference may be different. The weight may be determined in advance. Then, the geometric transformation parameter deriving unit 104 may derive a cumulative value based on the first difference and the second difference in which at least one is weighted for each section range. The geometric transformation parameter deriving unit 104 may not apply weight to the first difference and the second difference.
  • the geometric transformation parameter deriving unit 104 may derive a geometric transformation parameter using a distribution based on the second difference instead of the first difference.
  • the geometric transformation parameter deriving unit 104 may derive a geometric transformation parameter using a distribution based on the first difference and the second difference.
  • the other components of the image collation system 100B of this embodiment are the same as those of the image collation system 100A of the second embodiment shown in FIG. Is omitted.
  • the contour representative point region extracting unit 113 extracts contour region information representing the shape characteristics of the contour region for each of the contours (contour regions) between the contour representative points extracted in steps up to S1003 (S1201). .
  • This contour area information is used for subsequent processing.
  • the contour region information is, for example, a geometric parameter at a region representative point further extracted in the contour region.
  • the geometric transformation parameter deriving unit 104 calculates, for each combination of the contour representative point extracted from one image region and the contour representative point extracted from the other image region, the geometric parameter difference of the contour representative point included in the combination. calculate. Further, the geometric transformation parameter deriving unit 104 calculates a parameter difference between the contour region extracted in one image region and the contour region extracted in the other image region. The geometric transformation parameter deriving unit 104, for example, for each combination of the region representative point extracted from one image region and the region representative point extracted from the other image region, the geometric parameter of the region representative point included in the combination. What is necessary is just to calculate a difference. (S1204). Then, the geometric transformation parameter deriving unit 104 generates a distribution of geometric parameter differences, and derives one or more geometric transformation parameters based on the generated distribution (S1005).
  • the present embodiment it is possible to accurately perform collation based on similarity of objects or shapes including shielding and contact included in an image. In addition, according to the present embodiment, it is possible to perform collation that can reflect changes such as contour irregularities.
  • FIG. 15 is a block diagram illustrating an example of the configuration of an image matching system 100C according to the present embodiment.
  • the image matching system 100 ⁇ / b> C of this embodiment includes a contour representative point extracting unit 103, a geometric transformation parameter deriving unit 104, and a contour matching unit 105.
  • the contour representative point extraction unit 103 extracts a set of contour representative points from the contours extracted in the first image region and the second image region, and specifies a geometric parameter based on each of the contour representative points.
  • the geometric transformation parameter deriving unit 104 derives the combined geometric difference value as a geometric transformation parameter.
  • the combined geometric difference value is a representative geometric parameter between the contour representative points in the combination of the contour representative points included in the first image region and the contour representative points included in the second image region. The difference value.
  • the contour matching unit 105 includes one of the matching target represented by the geometric parameter of the contour representative point included in the set of the first image region and the matching target of the second image region, or Both are transformed based on the geometric transformation parameters. Then, the contour matching unit 105 calculates the similarity between the matching targets, and executes matching based on the calculated similarity.
  • the collation method according to the operation of the image collation system according to each embodiment of the present invention is a collation method having a low collation and good collation accuracy that enables general object recognition and the like from an image. .
  • the image collation system (image collation systems 100, 100A, 100B, and 100C) according to each embodiment of the present invention can be realized by using a combination of a computer and a program that controls the computer.
  • the image collation system according to each embodiment of the present invention can be realized by dedicated hardware.
  • the image collation system according to each embodiment of the present invention can be realized using a combination of a computer and a program and dedicated hardware.
  • the dedicated hardware described above may be, for example, a circuit such as one or more LSIs (Large Scale Integration) operating as each unit of the image matching system.
  • the computer includes a RAM (Random Access Memory), a control unit (CPU (Central Processing Unit)), and the like.
  • the control unit loads the above-described program into the RAM and executes the loaded program, thereby causing the computer to function as each unit of the image collation system. Further, this program may be recorded non-temporarily on a recording medium. Then, the recording medium may be distributed. The program recorded on the recording medium is read into the memory via wired, wireless, or the recording medium itself, and causes the computer to operate as an image verification system.
  • the recording medium is, for example, an optical disk, a magnetic disk, a semiconductor memory device, or a hard disk.
  • the image collation system according to each embodiment of the present invention can be realized by a single information processing apparatus such as a computer or a server.
  • the image matching system according to each embodiment of the present invention may be realized as a cloud system or a mobile terminal.
  • the image collation system according to each embodiment of the present invention may be realized by a combination of a cloud system that performs collation and an information processing terminal that are communicably connected via a network.
  • the above-described program causes the information processing system to operate as, for example, the image information acquisition unit 101, the contour representative point extraction unit 103, the geometric transformation parameter derivation unit 104, and the matching result output unit 106.
  • the above-described program may further cause the information processing system to operate as the multi-resolution contour extraction unit 112, the contour representative point region extraction unit 113, and the like. As described above, an image matching system is realized.
  • FIG. 16 is a diagram illustrating an example of a hardware configuration of a computer 1000 that can realize the image matching systems 100, 100A, 100B, and 100C.
  • a computer 1000 includes a processor 1001, a memory 1002, a storage device 1003, and an I / O (Input / Output) interface 1004.
  • the computer 1000 can access the recording medium 1005.
  • the memory 1002 and the storage device 1003 are storage devices such as a RAM (Random Access Memory) and a hard disk, for example.
  • the recording medium 1005 is, for example, a storage device such as a RAM or a hard disk, a ROM (Read Only Memory), or a portable recording medium.
  • the storage device 1003 may be the recording medium 1005.
  • the processor 1001 can read and write data and programs from and to the memory 1002 and the storage device 1003.
  • the processor 1001 can access, for example, a collation result output device (not shown) via the I / O interface 1004.
  • the processor 1001 can access the recording medium 1005.
  • the recording medium 1005 stores a program that causes the computer 1000 to operate as the image matching system 100, 100A, 100B, or 100C.
  • the processor 1001 loads a program stored in the recording medium 1005 that causes the computer 1000 to operate as the image matching system 100, 100A, 100B, or 100C into the memory 1002. Then, when the processor 1001 executes the program loaded in the memory 1002, the computer 1000 operates as the image matching system 100, 100A, 100B, or 100C.
  • Each unit of the following first group is realized by, for example, a dedicated program that can read the function of each unit read from the recording medium 1005 that stores the program into the memory 1002 and a processor 1001 that executes the program. Can do.
  • the first group includes an image information acquisition unit 101, a contour extraction unit 102, a contour representative point extraction unit 103, a geometric transformation parameter derivation unit 104, a contour matching unit 105, a matching result output unit 106, a multi-resolution contour.
  • An extraction unit 112 and a contour representative point region extraction unit 113 are included.
  • Each part of the following second group can be realized by a memory 1002 included in the computer 1000 and a storage device 1003 such as a hard disk device.
  • the second group includes an image information storage unit 201 and a contour representative point information storage unit 202. Part or all of the units included in the first group and the units included in the second group may be realized by a dedicated circuit that realizes the function of each unit.
  • an image matching system As described above, according to the present invention, it is possible to provide an image matching system, an image matching method, and a program for accurately performing matching based on the similarity of an object or shape including an occlusion or a contact included in an image.
  • the specific configuration of the present invention is not limited to the above-described embodiment, and even if there is a change in the range that does not depart from the gist of the present invention, such as separation / merging of block configurations, replacement of procedures, etc. include.
  • An image matching system for matching an object or shape contained in an image A contour representative point extracting means for extracting a contour representative point group describing the contour of an object contained in the image information, and expressing a collation target by the contour representative point group and a geometric parameter;
  • Geometric transformation parameter deriving means for deriving a certain geometrical difference value as a geometric transformation parameter; After comparing one or both of all or some collation objects contained in the image or region to be compared and collated based on the geometric transformation parameter, the similarity between the collation objects is calculated, and the similarity result Contour matching means for performing matching based on An image matching system comprising:
  • the geometric transformation parameter derivation means includes: Generate distribution information of difference values between geometric parameters that existed between contour representative points of each combination, In the distribution information, The maximum value in the distribution information, or Maxima in the distribution information, or Maximum value in the distribution information that is greater than the preset value, The difference value between one or more geometric parameters indicating The image collation system according to claim 1, wherein the geometric conversion parameter is set as the representative combination geometric difference value.
  • the contour representative point extracting means includes: Contour representative point group extracted from image information to be verified Position information of each contour representative point, or Orientation information expressing the orientation of the peripheral contour of each contour representative point, or Curvature information expressing the curvature of the peripheral contour of each contour representative point, or Luminance information of the area around each contour representative point, Any, some, or all of the information is expressed using geometric parameters, The image collation system according to appendix 1 or 2.
  • Multi-resolution contour extraction means for extracting a multi-resolution contour from image information to be collated,
  • the contour representative point extracting unit extracts a contour representative point group on each contour from the multi-resolution contour, and expresses a collation target by a geometric parameter using the contour representative point group.
  • the image collation system as described in one.
  • the multi-resolution contour extracting means refers to the resolution of the image information to be collated when extracting the contour of each resolution, and selects the other image in accordance with one resolution that is lower in resolution than the other.
  • the image collation system according to appendix 4 wherein the contour of each resolution is extracted after the resolution is reduced.
  • the contour representative point extraction means identifies the contour representative points extracted from the contour, refers to the contour representative point area on the contour, and refers to the contour shape of the extraction source, and uses information about the shape of the contour of the extraction source as region information
  • the geometric transformation parameter deriving means refers to individual contour representative points with reference to a combination of individual contour representative points between the contour representative point groups to be compared and / or a combination of individual region information of the region group between the contour representative points to be compared.
  • the image according to any one of appendices 1 to 6, wherein distribution data indicating a parameter difference existing between them is generated, and a combination of representative parameters based on the distribution frequency appearing in the distribution data is derived as a geometric transformation parameter Matching system.
  • the geometric transformation parameter deriving means when summarizing the statistics of the difference values between the individual geometric parameters as distribution data, represents each of the geometric parameters as a plurality of distribution data in which the range value of the segment range is different.
  • the information processing system includes: In deriving the geometric transformation parameters, Generate distribution information of difference values between geometric parameters that existed between contour representative points of each combination, In the distribution information, The maximum value in the distribution information, or Maxima in the distribution information, or Maximum value in the distribution information that is greater than the preset value, The difference value between one or more geometric parameters indicating The image matching method according to claim 9, wherein the geometric transformation parameter is set as the representative combination geometric difference value.
  • the information processing system includes: When extracting contour representative points, Contour representative point group extracted from image information to be verified Position information of each contour representative point, or Orientation information expressing the orientation of the peripheral contour of each contour representative point, or Curvature information expressing the curvature of the peripheral contour of each contour representative point, or Luminance information of the area around each contour representative point, Any, some, or all of the information is expressed using geometric parameters, The image collating method according to appendix 9 or 10.
  • the information processing system includes: Extract multi-resolution contours from image information to be collated, The image collating method according to any one of appendices 9 to 11, wherein a contour representative point group on each contour is extracted from the multi-resolution contour, and a collation target is expressed by a geometric parameter using the contour representative point group. .
  • the information processing system includes: When extracting the outline of each resolution, refer to the resolution of the image information to be collated, and reduce the resolution of the other image to one resolution that is lower than the other, The image collating method according to appendix 12, wherein contours of each resolution are extracted.
  • the information processing system includes: As each of the contour representative points, An intermediate point on the contour, or Points that divide the contour at equal intervals, or An inflection point where the sign of curvature on the contour changes, or The point on which the curvature on the contour reaches a maximum, The image collating method according to any one of appendices 9 to 12, wherein any one of the above is used.
  • the information processing system includes: The contour representative points extracted from the contour are identified, the region between the contour representative points on the contour is extracted with reference to the contour shape of the extraction source, and information regarding the shape of the contour of the extraction source is extracted as region information,
  • the individual contours are referred to by combining individual contour representative points between the contour representative point groups to be compared and / or individual region information of the region groups between the contour representative points to be compared.
  • the distribution data indicating the parameter difference existing between the representative points is generated, and a combination of representative parameters based on the distribution frequency appearing in the distribution data is derived as a geometric transformation parameter. Any one of Supplementary notes 9 to 14 Image matching method.
  • Appendix 16 The information processing system, when deriving the geometric transformation parameters, aggregates the statistical values of the difference values between the individual geometric parameters as distribution data, and varies the range values of the division ranges for each geometric parameter. Any one of appendices 9 to 15, wherein a representative combination geometric difference value is derived as a geometric transformation parameter by using a data structure represented by a plurality of distribution data and referring to the data structure represented by a plurality of different division ranges.
  • the image collation method as described in any one.
  • a contour representative point extracting means for extracting a contour representative point group describing the contour of an object contained in the image information, and expressing a collation target by the contour representative point group and a geometric parameter;
  • Geometric transformation parameter deriving means for deriving a certain geometrical difference value as a geometric transformation parameter;
  • geometric transformation parameter derivation means Generate distribution information of difference values between geometric parameters that existed between contour representative points of each combination, In the distribution information, The maximum value in the distribution information, or Maxima in the distribution information, or Maximum value in the distribution information that is greater than the preset value, The difference value between one or more geometric parameters indicating The program according to appendix 17, wherein the geometric transformation parameter is set as the representative combination geometric difference value.
  • contour representative point extracting means Contour representative point group extracted from image information to be verified Position information of each contour representative point, or Orientation information expressing the orientation of the peripheral contour of each contour representative point, or Curvature information expressing the curvature of the peripheral contour of each contour representative point, or Luminance information of the area around each contour representative point, Any, some, or all of the information is expressed using geometric parameters, The program according to appendix 17 or 18.
  • Appendix 20 The information processing system; Operate as a multi-resolution contour extraction means for extracting a multi-resolution contour from image information to be collated, Any one of appendixes 17 to 19, wherein the contour representative point extracting unit extracts a contour representative point group on each contour from the multi-resolution contour, and uses the contour representative point group to represent a collation target by a geometric parameter.
  • the program according to one.
  • the information processing system The contour representative point extracted from the contour by the contour representative point extracting means is identified, the region between the contour representative points on the contour is referred to the contour shape of the extraction source, and information regarding the shape of the contour of the extraction source is used as region information.
  • the geometric transformation parameter deriving means refers to the individual contour representative points with reference to the combination of individual contour representative points between the contour representative point groups to be compared and / or the combination of individual region information of the region group between the contour representative points to be compared.
  • a program according to any one of appendices 17 to 22, which generates distribution data indicating a parameter difference existing between them and derives a combination of representative parameters based on the distribution frequency appearing in the distribution data as a geometric transformation parameter .
  • each geometric parameter is expressed by a plurality of distribution data with different range values of the segment range.
  • Appendix 25 A computer-readable recording medium storing the program according to any one of appendices 17 to 24.
  • the present invention is applicable to uses such as searching for a desired image and classifying an image in recognition of an object in a general image or moving image.
  • the present invention is particularly applicable to uses such as retrieval and classification of similar but different images.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

画像内に含まれる遮蔽や接触を含む物体または形状の類似性に基づく照合を精度よく実施可能な画像照合装置などを提供する。 本発明の一態様に係る画像照合システムは、第1の画像領域及び第2の画像領域において抽出された輪郭から輪郭代表点の集合を抽出し、前記輪郭代表点の各々に基づく幾何パラメータを特定する輪郭代表点抽出手段と、前記第1の画像領域に含まれる前記輪郭代表点及び前記第2の画像領域に含まれる前記輪郭代表点の組み合わせにおける、前記輪郭代表点の間の前記幾何パラメータの代表的な差異値である組合せ幾何差異値を、幾何変換パラメータとして導出する幾何変換パラメータ導出手段と、前記第1の画像領域の、前記集合に含まれる前記輪郭代表点の前記幾何パラメータによって表される照合対象と、前記第2の画像領域の前記照合対象と、の一方又は両方を、前記幾何変換パラメータに基づいて変換したうえで、前記照合対象の間の類似度を算出し、算出された前記類似度に基づく照合を実行する輪郭照合手段と、を備える。

Description

画像照合システム、画像照合方法、およびプログラムを記憶する記録媒体
 本発明は、画像情報に含まれる物体または形状の認識や検索などを行うためのシステム等に関し、特に、遮蔽や接触を含む物体または形状の照合を良好に実施するシステム等に関する。
 近年、デジタルカメラを始めとするデジタル映像機器の急速な普及に伴い、撮影された画像や映像のなかに、どのような物体が含まれているのかを認識する一般物体認識への期待が高まっている。一般物体認識(General object recognition)は、制約の無い実世界シーンの画像の中に含まれる物体を一般的な名称(Category names)で認識する技術である。一般物体認識は、画像認識研究の最も困難な課題の一つとされている。一般物体認識技術は様々な用途に応用できる。例えば、データベース内等に分類されずに格納されている画像データの適切な分類や、必要な画像データの検索、さらには動画像の中からの所望のシーンの抽出や、所望のシーンだけを切り取っての再編集等、に応用できる。
 画像から物体を認識する技術として、例えば顔認識や指紋認識等、様々な認識技術がこれまでに開発されてきた。しかし、これらはすべて、特定の制約下で撮影された画像を認識する技術である。そして、これらの用途は特定用途に限定されている。その理由は、用途を限定することにより、認識すべき対象の特徴を限定することができるからである。さらに、認識すべき対象のデータを数多く学習することにより、認識精度を向上させることが可能になるからである。しかし、こうした手法の認識技術を別の用途に利用しようとする場合には、認識すべき特徴が認識できる特徴に含まれず、学習すべきデータが学習されていないために、必然的に認識率が下がるという問題が生じる。こうした課題を解決しうる、一般的な物体のパターン認識を行う技術の開発が期待されている。
 一般物体の認識技術として、非特許文献1に示される、画像の局所的な強度勾配を集積したヒストグラムを用いたSIFT(Scale Invariant Feature Transform)という特徴量を用いた手法が広く認知されている。本手法は、画像の局所的な強度勾配という、多くの物体に共通する特徴を利用するので、様々な物体に適用することが可能である。さらに、本手法によって、幾何変換や遮蔽、接触を伴う同一画像を、同一であると認識することが可能である。本手法は、二つの画像が同一であるか否かを判断するための手法である。
 しかし、本手法は、類似する二つの画像(或いは画像領域)に対して、どの程度似ているのか、また、どういったカテゴリー(動物、植物、構造物など)に属するのかについての情報を与えるわけではない。また、本手法は、画像の強度勾配に基づく特徴量を利用しているために、本手法を、強度の激しい変化を伴わない物体、例えば、少ない色で構成される物体に対して適用することは難しい。さらに、数多くのサンプルデータを用意できない対象に対しても、本手法の適用を行うことは難しい。本手法をはじめ、特徴量を用いるほとんどの手法は、一般物体認識技術への適用に課題を抱えている。
 こうした課題に対処するため、発明者らは、多重解像度画像における輪郭の曲率の分布情報によって物体を表現する手法を既に考案している(特許文献1及び非特許文献2参照)。このように多重解像度画像を照合技術に用いることによって、物体の大局的な特徴と微細な特徴とを分離して物体認識を行うことが可能になる。その結果、照合結果が、撮像状況などに依存的なノイズに左右されることが少なくなる。また、画像内の物体を、曲率の分布情報という、あらゆる物体が有する特徴量によって表現することによって、多くの一般的な物体を適切に表現することが可能である。この曲率の分布情報を用いた物体表現は、似た形状を近い数値で表現することが可能である。従って、一つの対象(例えば、ある物体を示した幾何パラメータ)を物体認識するために、数多くのサンプルデータを用意する必要がない。さらに、曲率の分布情報は、輪郭の遮断がある場合にも変わることなく、一連の曲率の並び情報として表現される。従って、物体の一部分が遮蔽されている場合にも、良好な物体認識が可能である。このように、本手法を用いることによって、一般的な物体の認識を、遮蔽を含む一般的な条件下で行うことが可能である。一方で、上記手法にも改善した方がよい点がある。 
 特許文献2には、ユーザによって指定された輪郭線によって背景から分離されたオブジェクト領域において抽出された特徴量を使用して、オブジェクト領域に類似した画像をデータベースにおいて検索する画像検索装置が記載されている。
国際公開第2012/147844号 特開2011-002965号公報
David G. Lowe, "Object Recognition from Local Scale-Invariant Features," Proceedings of the International Conference on Computer Vision (ICCV '99), pp.1150-1157, 1999. Yuma Matsuda, Masatsugu Ogawa, Masafumi Yano, "Visual shape representation with geometrically characterized contour partitions," Biological Cybernetics, Volume 106, Issue 4-5, pp 295-305, 2012.
 一般的な物体を認識する場合、限定された対象を認識する場合とは異なり、前もって注目すべき特徴量を限定することができない。さらに、学習するサンプルデータの数も、一つ或いは限られた数しか準備できない場合も多い。
 このような背景から、どのような物体にも共通して含まれる、物体輪郭の曲率の分布情報を利用した認識手法が、既に考案されている(上述の非特許文献2を参照)。当該手法は、物体が、幾何的に変換されている場合や、また、輪郭の一部分に遮蔽が起こっている場合にも適用可能である。このように、当該手法を用いることによって、一般的な物体の認識を、遮蔽を含む一般的な条件下で行うことが可能である。
 一方で、上記手法にも改善した方がよい点がある。例えば画像内の物体を表す輪郭の2つ以上の個所に遮蔽がある画像では、物体の真の輪郭とは異なる輪郭から、曲率の並び情報が取得される。このような、物体の真の輪郭から得られていない曲率の並び情報を用いることは、物体認識結果の精度に悪い影響を与えかねない。同様に、例えば画像内の物体の多くの輪郭が接触しているために、個々の物体を分離できない画像において対象物を認識する場合にも、物体認識結果の精度が低下する可能性がある。
 特許文献2に記載されている画像検索装置は、ユーザによって指定された輪郭線によって分離されたオブジェクト領域において抽出された特徴量を使用して、画像検索を行う。従って、特許文献2の技術では、オブジェクト領域が遮蔽によって複数の領域に分離している場合、以下のように画像検索の精度が低下する。例えば、ユーザが、分離している部分領域の輪郭線を指定した場合、オブジェクトの一部のみから抽出された特徴量が画像検索に使用される。従って、画像検索の精度は低下する。ユーザが、分離しているオブジェクト領域の全てを含むように輪郭線を指定した場合、輪郭線内に、オブジェクト領域を遮蔽する遮蔽物の領域が含まれる。そのため、オブジェクト領域を遮蔽する遮蔽物の領域から抽出された特徴量も使用される。従って、画像検索の精度が低下する。
 本発明の目的の1つは、上記問題を踏まえ、画像内に含まれる遮蔽や接触を含む物体または形状の類似性に基づく照合を精度よく実施する画像照合システム、画像照合方法、およびプログラムを提供することである。
 本発明の一態様に係る画像照合システムは、第1の画像領域及び第2の画像領域において抽出された輪郭から輪郭代表点の集合を抽出し、前記輪郭代表点の各々に基づく幾何パラメータを特定する輪郭代表点抽出手段と、前記第1の画像領域に含まれる前記輪郭代表点及び前記第2の画像領域に含まれる前記輪郭代表点の組み合わせにおける、前記輪郭代表点の間の前記幾何パラメータの代表的な差異値である組合せ幾何差異値を、幾何変換パラメータとして導出する幾何変換パラメータ導出手段と、前記第1の画像領域の、前記集合に含まれる前記輪郭代表点の前記幾何パラメータによって表される照合対象と、前記第2の画像領域の前記照合対象と、の一方又は両方を、前記幾何変換パラメータに基づいて変換したうえで、前記照合対象の間の類似度を算出し、算出された前記類似度に基づく照合を実行する輪郭照合手段と、を備える。
 本発明の一態様に係る画像照合方法は、第1の画像領域及び第2の画像領域において抽出された輪郭から輪郭代表点の集合を抽出し、前記輪郭代表点の各々に基づく幾何パラメータを特定し、前記第1の画像領域に含まれる前記輪郭代表点及び前記第2の画像領域に含まれる前記輪郭代表点の組み合わせにおける、前記輪郭代表点の間の前記幾何パラメータの代表的な差異値である組合せ幾何差異値を、幾何変換パラメータとして導出し、前記第1の画像領域の、前記集合に含まれる前記輪郭代表点の前記幾何パラメータによって表される照合対象と、前記第2の画像領域の前記照合対象と、の一方又は両方を、前記幾何変換パラメータに基づいて変換したうえで、前記照合対象の間の類似度を算出し、算出された前記類似度に基づく照合を実行する。
 本発明の一態様に係るコンピュータ読み取り可能な記録媒体は、コンピュータを、第1の画像領域及び第2の画像領域において抽出された輪郭から輪郭代表点の集合を抽出し、前記輪郭代表点の各々に基づく幾何パラメータを特定する輪郭代表点抽出手段と、前記第1の画像領域に含まれる前記輪郭代表点及び前記第2の画像領域に含まれる前記輪郭代表点の組み合わせにおける、前記輪郭代表点の間の前記幾何パラメータの代表的な差異値である組合せ幾何差異値を、幾何変換パラメータとして導出する幾何変換パラメータ導出手段と、前記第1の画像領域の、前記集合に含まれる前記輪郭代表点の前記幾何パラメータによって表される照合対象と、前記第2の画像領域の前記照合対象と、の一方又は両方を、前記幾何変換パラメータに基づいて変換したうえで、前記照合対象の間の類似度を算出し、算出された前記類似度に基づく照合を実行する輪郭照合手段として動作させるプログラムを記憶する。本発明は、上述の記憶媒体が記憶するプログラムによっても実現される。
 本発明によれば、画像内に含まれる遮蔽や接触を含む物体または形状の類似性に基づく照合を精度よく実施する画像照合システム、画像照合方法、およびプログラムを提供できる。
図1は、本発明の第1の実施形態における画像照合システム100の構成図である。 図2Aは、画像情報取得部101から取得される情報の一例を示す説明図である。 図2Bは、画像情報取得部101から取得される情報の一例を示す説明図である。 図3Aは、輪郭抽出部102によって抽出される輪郭の一例を示す説明図である。 図3Bは、輪郭抽出部102によって抽出される輪郭の一例を示す説明図である。 図4Aは、輪郭代表点抽出部103によって抽出される輪郭代表点群の一例を示す説明図である。 図4Bは、輪郭代表点抽出部103によって抽出される輪郭代表点群の一例を示す説明図である。 図5は、幾何変換パラメータ導出部104の途中経過として導出される幾何変換パラメータに関する分布情報の一例を可視化した説明図である。 図6は、本発明の第1の実施形態における物体または形状の画像照合システムの動作の一例を示すフローチャートである。 図7は、図2の取得画像間の照合結果の正当性を可視化した説明図である。 図8は、照合する輪郭代表点間に存在するパラメータの差異値の分布データを可視的に例示した説明図である。 図9は、照合する輪郭代表点間に存在するパラメータの差異値をデータ化する際に、複数の分布データセットで収集する意図を説明するための説明図である。 図10は、本発明の第2の実施形態における画像照合システム100Aの構成図である。 図11は、多重解像度画像の一例を示す説明図である。 図12は、本発明の第2の実施形態における画像照合システム100Aの動作の一例を示すフローチャートである。 図13は、本発明の第3の実施形態における画像照合システム100Bの構成図である。 図14は、本発明の第3の実施形態における画像照合システム100Bの動作の一例を示すフローチャートである。 図15は、本発明の第4の実施形態の画像照合システム100Cの構成の例を表すブロック図である。 図16は、画像照合システム100、100A、100B及び100Cを実現することができる、コンピュータ1000のハードウェア構成の一例を表す図である。
 以下、本発明に係る実施形態について説明する。
 情報処理システムによる、画像に含まれる一般物体の認識処理では、統計的学習及びユーザの経験が必要でなく、さらに、物体の大きさに対して不変に抽出できる特徴量を用いる手法が望まれる。
 このために有効な手法として提案されている、物体輪郭の曲率の分布情報を利用する上述の認識手法には、個々の物体の輪郭における特徴点の集合が生成されない場合、照合正答率(すなわち照合の精度)が低下するという問題がある。例えば、物体の輪郭が2箇所以上で遮蔽されることによって、画像において輪郭が2つ以上の部分に分離している場合、分離している2つ以上の輪郭は、1つの物体の輪郭として統合されない可能性がある。また、複数の物体の輪郭が接触している場合、個々の物体の輪郭が分離されない可能性がある。
 こうした課題に対して、発明者は以下のように画像照合を行なうシステムを提案する。
 本照合システムの処理動作は、4つのステップで示すことができる。
 第1のステップでは、本照合システムは、照合したい2つの画像、又は、1つの画像の2つの領域を取得する。
 以下の説明では、これらの2つの画像又は2つの画像領域を、2つの「画像領域」とも表記する。2つの画像領域は、それぞれ、照合対象としての物体又は図形の像(以下、「物体形状」とも表記)を含む。
 第2のステップでは、本照合システムは、2つの画像領域のそれぞれから、物体形状を表す輪郭における輪郭代表点群を抽出する。本照合システムは、照合対象であるそれぞれの物体形状を、抽出された輪郭代表点群における幾何パラメータによって表現する。なお、第1及び第2のステップでは、本照合システムは、あらかじめ抽出され、照合用データベースなどに記憶されている、照合に用いる画像の既知の幾何パラメータの値及び輪郭代表点群の情報を取得し、取得した情報を画像照合に用いてもよい。
 上述の輪郭代表点群は、1つの画像領域において抽出された輪郭代表点の集合である。輪郭代表点は、輪郭に含まれる点として検出された点の中で、所定の特徴を備える点である。以下の説明において、輪郭代表点は、「輪郭の代表点」とも表記される。幾何パラメータは、「幾何的なパラメータ」と表記されることもある。幾何パラメータは、2つ以上の種類のパラメータの組み合わせであってもよい。幾何パラメータについては、後で詳細に説明する。
 第3のステップでは、本照合システムは、第2のステップにおいて抽出した、一方の輪郭代表点群に含まれる輪郭代表点と他方の輪郭代表点群に含まれる輪郭代表点との組み合わせにおける、幾何的なパラメータの差異値を計算する。本照合システムは、例えば、可能な全ての輪郭代表点の組み合わせについて、幾何的なパラメータの差異値を計算してもよい。そのうえで、本照合システムは、計算した幾何的なパラメータの差異値の分布情報を用いて、一方の画像領域に含まれる物体の輪郭代表点と、他方の画像領域に含まれる物体の輪郭代表点との間の、幾何的なパラメータの代表的な差異値の組み合わせを決定する。本照合システムは、決定した組み合わせを幾何変換パラメータとして設定する。なお、本照合システムは、輪郭代表点の取り得る全ての組み合わせではなく、幾つかの輪郭代表点の組合せを使用して幾何変換パラメータを導出してもよい。
 以上の第3のステップは、以下のように言い換えることもできる。本照合システムは、第2のステップにおいて抽出した、一方の輪郭代表点群に含まれる輪郭代表点と他方の輪郭代表点群に含まれる輪郭代表点との組み合わせにおける、幾何的なパラメータの差異値を計算する。上述のように、本照合システムは、例えば、可能な全ての輪郭代表点の組み合わせについて、幾何的なパラメータの差異値を計算してもよい。本照合システムは、輪郭代表点の取り得る全ての組み合わせではなく、幾つかの輪郭代表点の組合せについて、幾何的なパラメータの差異値を計算してもよい。そして、本照合システムは、計算した幾何的なパラメータの差異値の分布情報を生成する。本照合システムは、計算した幾何的なパラメータの差異値の分布情報を用いて、幾何的なパラメータの、代表的な差異値を決定する。言い換えると、本照合システムは、幾何的なパラメータの、代表的な差異値の組み合わせを決定する。前述のように、幾何的なパラメータは、2つ以上のパラメータであってもよい。その場合、幾何学的なパラメータの代表的な差異値は、複数の差異値の組み合わせによって表される。本発明の各実施形態の説明では、複数の差異値の組み合わせによって表される代表的な差異値を、代表的な差異値の組み合わせとも表記する。本照合システムは、決定した組み合わせを幾何変換パラメータとして設定する。代表的な差異値は、例えば、あらかじめ定められた方法でカウントされた出現頻度が最大又は極大である差異値である。例えば、一方の画像領域に含まれる物体の輪郭代表点と、他方の画像領域に含まれるその物体の輪郭代表点との間の、幾何学的なパラメータの差異値は、代表的な差異値として検出されることが期待される。
 第4のステップでは、本照合システムは、第3のステップにおいて導出した幾何変換パラメータを用いて、2つの照合対象の類似度を判定し、加えて、画像中の物体が存在する位置を特定することによって、照合結果を得る。
 以上の4つのステップを実施することにより、画像内において、遮蔽や接触を多く含む物体または形状等の照合を精度よく実施することが可能となる。
 本発明において認識される対象は、例えば、物体又は形状などである。物体は、例えば、物、動物、植物等の、3次元空間における有形物である。形状は、例えば、物体等の表面の色や反射率の違いによって認識される図形である。さらに、以下の説明において、物体及び図形は、まとめて単に「物体」又は「物体等」とも表記される。
 以下、各ステップを実行する画像照合システムの実施形態について、図面を用いて説明する。まず、第1の実施形態を図1ないし図7を参照して説明する。
 [第1の実施形態]
 本発明の第1の実施形態の画像照合システム100は、画像に含まれる遮蔽や接触を含む物体または形状の類似性に基づく照合を精度よく実施できる。
 [構成の説明]
 図1は、第1の実施形態の画像照合システム100の構成を示すブロック図である。なお、本発明に関連が薄い構成については、説明を簡略化又は省略する。 
 図1を参照すると、第1の実施形態の画像照合システム100は、制御部10と、メモリ20と、画像情報取得部101と、輪郭抽出部102と、照合部110と、照合結果出力部106と、画像情報記憶部201と、輪郭代表点情報記憶部202と、を含む。照合部110は、輪郭代表点抽出部103と、幾何変換パラメータ導出部104と、輪郭照合部105とを含む。
 制御部10は、メモリ20を利用しながら、画像識別処理に関連する情報処理の動作全体を管理する。
 画像情報取得部101は、ユーザが指定した、動画や写真などの画像の画像情報(すなわち画像データ)を画像照合システム100に取り込み、画像情報記憶部201に格納する。以下の説明において、画像を表す画像情報を、単に「画像」とも表記する。例えば、画像を表す画像情報を画像情報記憶部201に格納することを、「画像を画像情報記憶部201に格納する」と表記する。画像情報取得部101は、ユーザが指定した画像を、そのまま画像情報記憶部201に格納してもよい。画像情報取得部101は、例えば以下の処理を補助するために、取得した画像に白黒変換やフィルタリング処理などの前処理を施したうえで、画像情報記憶部201に格納してもよい。
 画像情報取得部101は、一般物体認識を行う場合、照合される画像と、物体認識対象である、既知の物体または形状の画像の双方を取得すればよい。
 言い換えると、一般物体認識を行う場合、画像情報取得部101は、未知画像の画像情報と、登録画像の画像情報とを取得する。未知画像は、含まれる物体が未知である画像である。登録画像は、物体認識対象である物体等(すなわち、未知画像において検出したい物体等)が含まれる画像である。
 画像情報取得部101によって取得される画像情報の例を図2A及び図2Bに例示する。
 また、画像情報取得部101は、画像を取得する際に、画像情報記憶部201に予め格納されている画像の中から、ユーザによって指定された画像を取得してもよい。換言すれば、画像情報記憶部201に格納されている画像等が、照合用データベースとして用いられてもよい。
 輪郭抽出部102は、画像情報取得部101によって取得されたそれぞれの画像から輪郭を抽出する。なお、例えば画像情報記憶部201に照合用画像(比較する一方の画像である、上述の登録画像)の輪郭を表す輪郭情報を含む照合用データベースなどが格納されていてもよい。輪郭抽出部102は、照合用画像の輪郭情報を、画像情報記憶部201が記憶する照合用データベースから読み出すことによって、取得してもよい。輪郭抽出部102によって抽出される輪郭情報の一例を図3A及び図3Bに示す。
 輪郭抽出部102は、画像情報取得部101によって取得された画像から、輪郭を抽出する。具体的には、輪郭抽出部102は、輪郭に含まれる点である輪郭点として、例えば、画像における、色相、彩度、及び明度などの少なくともいずれかが急激に変化する点を、ラプラシアンガウシアンフィルタなどのフィルタを用いて抽出する。輪郭抽出部102は、抽出されたそれぞれの輪郭点の座標を特定する。輪郭点の座標は、例えば、直交座標系を用いて(x,y)などのように表される。輪郭は、輪郭点の集合(以下、「輪郭点群」とも表記)によって表される。輪郭抽出の方法は、上記の方法に限られない。
 次に、輪郭代表点抽出部103は、抽出された輪郭から輪郭の代表点の集合(以下、「輪郭代表点群」と表記)を抽出する。輪郭代表点抽出部103は、抽出した輪郭代表点群を、輪郭代表点情報記憶部202に格納する。なお、照合用データベース又は輪郭代表点情報記憶部202などに、あらかじめ抽出された照合用画像(上述のように、比較する一方の画像である登録画像)の輪郭代表点群が格納されていてもよい。そして、輪郭代表点抽出部103は、照合用データベース又は輪郭代表点情報記憶部202などに格納されている、輪郭代表点群を読み出してもよい。輪郭代表点抽出部103によって抽出される輪郭代表点情報の一例を図4A及び図4Bに示す。
 輪郭代表点抽出部103が輪郭代表点を抽出する方法として、様々な方法が適用可能である。輪郭代表点抽出部103は、例えば、等間隔で輪郭を区切り、区切られた区画の端点又は中心点を、代表点として抽出してもよい。輪郭代表点抽出部103は、例えば、あらかじめ定められた間隔で輪郭を区切り、区切られた区画の端点又は中心点を、代表点として抽出してもよい。輪郭代表点抽出部103は、例えば、輪郭に該当する画像ピクセルの中心点などの点を、代表点として抽出してもよい。
 また、輪郭代表点抽出部103は、輪郭から幾何的な特徴点を代表点として抽出してもよい。
 輪郭代表点抽出部103は、例えば、輪郭上での幾何的な特徴点として、輪郭の局所的な曲がり具合を考慮した特徴を持つ点を抽出してもよい。輪郭代表点抽出部103は、例えば以下の方法に従って、輪郭代表点として特徴点を抽出してもよい。
 上述の「曲がり具合」とは、曲線が直線と比較してどの程度歪んでいるかを表す、例えば、ユークリッド曲率、ユークリッド曲率半径、又は、アフィン曲率などの量である。輪郭代表点抽出部103は、ユークリッド曲率、ユークリッド曲率半径、又は、アフィン曲率などのうち、どの量を曲線の曲がり具合を表す量として利用してもよい。以下では、ユークリッド曲率に基づく変曲点を、代表点として抽出する方法について説明する。
 変曲点とは、曲率がマイナスからプラスに変化する点を意味する。ユークリッド曲率に基づく変曲点(以下、「ユークリッド曲率の変曲点」とも表記)は、ユークリッド曲率がマイナスからプラスに変化する点である。ユークリッド曲率に基づく変曲点は、射影変換に対して不変である。従って、ユークリッド曲率を用いる効果は、幾何変換に対してロバストに特徴点を決定できるということである。
 輪郭代表点抽出部103は、例えば以下に示す方法に従って、ユークリッド曲率の変曲点を抽出する。まず、輪郭代表点抽出部103は、適宜選択した1点を始点として輪郭を一周するように輪郭座標tを定める。輪郭代表点抽出部103は、輪郭に含まれるそれぞれの点において、以下の式(1)によって定義されるユークリッド曲率を計算する。輪郭代表点抽出部103は、ユークリッド曲率の値がゼロとなる点を、輪郭の特徴点(すなわち輪郭代表点)として抽出する。式(1)において、一階微分値は、tについての一階微分値を表す。同様に、二階微分値は、tについての二階微分値を表す。
Figure JPOXMLDOC01-appb-M000001
 輪郭代表点抽出部103は、ユークリッド曲率を計算する処理の前に行う前処理として、ある程度の画像平滑化を行ってもよい。前処理として画像平滑化には、ノイズの多い輪郭においても、局所的な曲がり具合のノイズによる変動の、抽出される特徴点に対する影響を軽減することができるという効果がある。
 輪郭代表点を抽出する方法は、以上で説明した、ユークリッド曲率の変曲点を用いた輪郭代表点(特徴点)を抽出する方法に限らない。例えば、ユークリッド曲率の変曲点は凹凸の少ない輪郭にはあまり含まれない。輪郭代表点抽出部103は、ユークリッド曲率の極大点及び極小点(輪郭の凹凸のピーク部に対応)を輪郭代表点として抽出してもよい。
 その後、輪郭代表点抽出部103は、抽出した輪郭代表点群の、1又は複数の幾何パラメータを特定する。
 言い換えると、輪郭代表点抽出部103は、抽出した輪郭代表点群に含まれる各輪郭代表点における、あらかじめ定められている、少なくとも1種類の幾何パラメータを特定する。
 幾何パラメータは、輪郭代表点の幾何的特徴を示す様々なパラメータの少なくともいずれかであればよい。輪郭代表点抽出部103は、例えば、抽出した輪郭代表点群の、例えば次に示す幾何パラメータを特定する。以下に示す幾何パラメータを使用して、後述する類似性の判定を行うことによって、良好な類似性判定結果が得られる。
 幾何パラメータの第1の例は、輪郭代表点の位置である。幾何パラメータの第2の例は、輪郭代表点における輪郭の接線又は法線等の方位である。幾何パラメータの第3の例は、輪郭代表点における輪郭の曲率である。幾何パラメータの第4の例は、輪郭代表点の周辺領域における輝度である。
 輪郭代表点抽出部103は、これらの4つのパラメータのうち少なくともいずれか1つを、輪郭代表点の幾何パラメータとして特定すればよい。
 幾何パラメータの種類が増えるほど、輪郭代表点抽出部103に後続する幾何変換パラメータ導出部104による、詳しくは後述される、幾何パラメータに基づく幾何変換パラメータによる幾何変換の精度が向上し得る。一方でパラメータの種類が増えるほど演算量が増加する。このため、所望の精度や演算処理量などに従って適切な幾何パラメータの種類及び幾何パラメータの数を選択することが重要である。
 幾何変換パラメータ導出部104は、2つの画像領域からそれぞれ抽出された2つの輪郭代表点群の一方に含まれる輪郭代表点と、他方に含まれる輪郭代表点との組み合わせについて、幾何パラメータの差異値を計算する。幾何変換パラメータ導出部104は、可能な全ての組み合わせについて、幾何パラメータの差異値を計算してもよい。幾何変換パラメータ導出部104は、計算した、幾何パラメータの差異値の分布を統計処理することによって、分布情報を導出する。幾何変換パラメータ導出部104は、導出した分布情報を用いて、2つの画像領域にそれぞれ含まれる輪郭代表点群の間における、幾何パラメータの代表的な差異値の組み合わせ(組合せ幾何差異値)を決定する。代表的な差異値(差異値の代表値とも表記)は、例えば、その代表的な幾何差異値によって幾何パラメータの差異値が近似される輪郭代表点の組み合わせの数の多さに基づいて決定された、差異値の近似値である。幾何変換パラメータ導出部104は、決定した組合せ幾何差異値を、幾何変換パラメータとして設定する。
 なお、幾何変換パラメータ導出部104は、輪郭代表点の可能な全ての組み合わせではなく、輪郭代表点の一部の(例えば所定数の)組み合わせに基づいて、幾何変換パラメータを導出してもよい。また、幾何変換パラメータ導出部104は、幾何変換パラメータとして、1つの組合せ幾何差異値ではなく、複数の組合せ幾何差異値を決定してもよい。
 以下では、幾何変換パラメータの導出プロセスの一例を説明する。以下に示す例では、照合対象が輪郭代表点群と、それぞれの輪郭代表点における3種類の幾何パラメータによって表されている。3種類の幾何パラメータは、位置、方位、及び、周辺輝度である。以下の説明では、照合が行われる2つの画像領域は、画像領域A及び画像領域Bである。画像領域Aにおいて抽出された輪郭代表点の個数はCである。画像領域Aにおいて抽出された輪郭代表点は、輪郭代表点P (i=1…,C)である。画像領域Aにおいて抽出された輪郭代表点群は、輪郭代表点群{P }(i=1,…,C)である。画像領域Bにおいて抽出された輪郭代表点の個数はCである。画像領域Bにおいて抽出された輪郭代表点は、輪郭代表点P (j=1,…,C)である。画像領域Bにおいて抽出された輪郭代表点群が、輪郭代表点群{P }(j=1,…,C)である。輪郭代表点P の位置は、(x ,y )であり、方位はθ であり、周辺輝度はM である。輪郭代表点P の位置は、(x ,y )であり、方位はθ であり、周辺輝度はM である。方位は、例えば、画像領域においてあらかじめ定められている原点から輪郭代表点への方向の、画像領域においてあらかじめ定められている方向に対する、所定回転方向(例えば反時計回り)の角度である。周辺輝度M 及びM は、N×N行列である。周辺輝度を表す行列の各要素の値は、輪郭代表点の周辺の画素の輝度を表す。より具体的には、画像領域Aに含まれる輪郭代表点群{P }は、輪郭代表点群{P }に含まれるそれぞれの輪郭代表点P の、位置(x ,y )と、方位θ と、周辺輝度M とによって表される。同様に、画像領域Bに含まれる輪郭代表点群{P }は、輪郭代表点群{P }に含まれるそれぞれの輪郭代表点P の、位置(x ,y )と、方位θ と、周辺輝度M とによって表される。
 幾何変換パラメータ導出部104は、輪郭代表点群{P }と輪郭代表点群{P }との間の、代表的な組合せ幾何差異値を、例えば以下に示す方法に従って計算する。
 まず、方位θ と方位θ との差異を、dθ(k=1,2,…,K)とする。すなわち、θ =θ +dθとする。さらに、dθ=2πk/Kとする。そして、幾何変換パラメータ導出部104は、1からKまでのkについてのすべてのdθについて、以下に示す統計処理の「投票」を実施する。
 画像Aにおける回転中心を(x ,y )とし、画像Bにおける回転中心を(x ,y )とする。幾何変換パラメータ導出部104は、回転中心(x ,y )を中心に位置(x ,y )をdθ回転させた位置と、回転中心(x ,y )を中心に位置(x ,y )をdθ回転させた位置との位置ずれ(dx,dy)を計算する。幾何変換パラメータ導出部104は、すべてのi及びjの組み合わせについて(dx,dy)を求め、(dx,dy)の値に関する分布(例えば度数分布)を生成する。分布は、例えば、ヒストグラムによって表される。幾何変換パラメータ導出部104は、いずれか一方の画像(例えば画像B)の輪郭代表点の位置を回転させてもよい。
 幾何変換パラメータ導出部104は、例えば、iとjとの組み合わせの各々について、下記の式(2)によって表される(dx,dy)を算出してもよい。そして、幾何変換パラメータ導出部104は、算出した(dx,dy)によって表されるパラメータ間の差異値の分布を、二次元のヒストグラムとして生成してもよい。なお、回転中心の位置(例えば式(2)における回転中心(x ,y ))は、輪郭代表点群の位置(例えばそれぞれのjについての(x ,y ))によって定まる位置(例えば重心の位置など)であればよい。
Figure JPOXMLDOC01-appb-M000002
 幾何変換パラメータ導出部104は、基本的な「投票」によって、(dx,dy)の値の分布データを導出してもよい。すなわち、幾何変換パラメータ導出部104は、ひとつの位置ずれ(dx,dy)あたり「1点」を、位置ずれ(dx,dy)が含まれる区分についてカウントしてもよい。そして、幾何変換パラメータ導出部104は、算出された各位置ずれ(dx,dy)についての累積「点数」を分布の累積値(例えばヒストグラムによって表される度数分布の度数)として算出してもよい。区分は、例えば、2次元の座標が設定されている平面が分割された、複数の有限な領域を表す。なお、累積値(例えば度数)のカウント方法は上記手法に限定されない。カウント手法は幾何パラメータに合わせて適宜採用されればよい。
 幾何変換パラメータ導出部104は、さらに、いずれか一方の画像(例えば画像B)の輪郭代表点群の位置を、例えばその画像(画像B)の回転中心を通る所定の直線に関して反転させた上で、上述の分布を生成してもよい。
 幾何変換パラメータ導出部104は、1つの位置ずれあたり1点を累積するのではなく、周辺輝度の類似度に基づいて定まる点数を累積してもよい。幾何変換パラメータ導出部104は、例えば、このマトリクスM 及びM によって表される、輪郭代表点P 及び輪郭代表点P の周辺輝度を、上述のように方位の差異に基づいて変換したうえで、周辺輝度の類似度を算出してもよい。そして、幾何変換パラメータ導出部104は、算出した類似度に基づいて、カウントする点数を決定してもよい。
 換言すれば、幾何変換パラメータ導出部104は、いずれか一方の画像の周辺輝度を表すマトリクスの各要素を、上述のようにdθによって表される角度回転させたうえで、類似度を算出してもよい。そして、幾何変換パラメータ導出部104は、例えば、類似度が高いほど「1点」に近い値を取り、低いほど「0点」に近い値を取るように、カウントされる点数を決定してもよい。幾何変換パラメータ導出部104は、i及びjのそれぞれの組み合わせについて、算出された位置ずれ(dx,dy)あたり、決定した点数をカウントしてもよい。
 幾何変換パラメータ導出部104は、すべてのk(すなわち、1からKまでのk)について、上述の分布を生成する。幾何変換パラメータ導出部104は、生成した分布から、累積値(すなわち、上述の点数が累積された値)の最大値を持つ、位置及び角度の差異の組(dx,dy,dθ)を、代表的な組合せ幾何差異値として抽出する。幾何変換パラメータ導出部104は、さらに、累積値の極大値を持つ、位置及び角度の差異の組(dx,dy,dθ)を、代表的な組合せ幾何差異値として抽出してもよい。幾何変換パラメータ導出部104は、さらに、大きい方から所定個数の、累積値の極大値(以下、「上位値」とも表記)を持つ、位置及び角度の差異の組(dx,dy,dθ)を、代表的な組合せ幾何差異値として抽出してもよい。以下では、dθを「dθ」とも表記する。幾何変換パラメータ導出部104は、抽出した代表的な組合せ幾何差異値を、輪郭代表点P と輪郭代表点P との間の幾何変換パラメータに採用する。位置の差異、及び方位の差異ごとに集計された、周辺輝度の類似度に基づく点数の分布が可視化された、2次元ヒストグラム(分布)の一例を図5に示す。輪郭代表点P と輪郭代表点P との間の代表的な組合せ幾何差異値を導出する方法は、上記方法に限られない。輪郭代表点P と輪郭代表点P との間の代表的な組合せ幾何差異値を導出する方法として、分布情報のデータ構造に基づいて統計によって組合せ幾何差異値を導出するどのような方法が用いられてもよい。また、例えば精度を向上させるため、幾何変換パラメータ導出部104は、ビンのサイズ(区分範囲の大きさ)が異なる、複数の種類の分布を生成してもよい。その場合、一方の種類のヒストグラムのウィンドウサイズは、例えば、他方の種類の分布における区分範囲の大きさの半分であってもよい。なお、区分範囲は、例えば、幾何パラメータの差異値の値域に、区分範囲の境界における区分を行う(すなわち、境界において値域を区分する)ことによって生成された、値の範囲である。幾何変換パラメータ導出部104は、複数の種類の分布のデータ(例えばヒストグラム)を用いて、代表的な組合せ幾何差異値を導出してもよい。複数の種類の分布データによる、高精度に分布特徴を抽出する処理については、後で詳細に説明する。こうして得られた1つ又は複数の、代表的な組合せ幾何差異値(dx,dy,dθ)を、幾何変換パラメータとする。幾何変換パラメータは、位置及び方位の差異値によって表される幾何差異値(dx,dy,dθ)に限られない。幾何変換パラメータ種類及び個数は、せん断変形や射影変形など様々な幾何変換に基づいて設定されてもよい。
 輪郭照合部105は、幾何変換パラメータ導出部104が導出した幾何変換パラメータに基づいて、2つの照合対象の一方又は両方を変換したうえで、輪郭代表点群間又は輪郭点間の照合を行い、照合の結果を出力する。
 輪郭照合部105は、照合処理に、幾何変換パラメータ導出部104によって導出された、(dx,dy,dθ)における分布の値を用いてもよい。輪郭照合部105は、導出された(dx,dy,dθ)を用いて、一方または両方の画像の各点(輪郭代表点又は輪郭点)を幾何的に変換してもよい。そして、輪郭照合部105は、変換を行った後の、一方の画像の点と、他方の画像の、その点に最も近接する点との距離(幾何パラメータの差異量)を積算した累積値などを利用してもよい。幾何変換パラメータを用いることによって、比較される点同士が重なるように変換される。輪郭照合部105は、照合処理の結果として、輪郭代表点群又は輪郭点群と幾何変換パラメータとを用いて算出される、画像AおよびBの類似度に基づいて判定した判定の結果を出力してもよい。輪郭照合部105は、照合処理の結果として、類似度を出力してもよい。輪郭照合部105は、画像中に存在する輪郭代表点群又は輪郭点群の位置を出力してもよい。輪郭照合部105は、例えば、類似度が、前もって定めた値より大きければ、「照合した」(マッチした)ことを表すメッセージや図形などを出力してもよい。また、輪郭照合部105は、例えば、画像A上に、導出された幾何変換パラメータを使用して変形させた画像Bを重ねることによって、照合結果を視覚的に表示してもよい。
 また、輪郭照合部105は、輪郭点群又は輪郭代表点群によって表される照合対象(すなわち輪郭点群又は輪郭代表点群)の両方を、幾何変換パラメータに基づいて変換し、変換された2つの照合対象の照合処理を行ってもよい。輪郭照合部105は、例えば、一方の画像の各点(輪郭代表点或いは輪郭点)に対して、導出した幾何変換パラメータの半分の値の幾何変換パラメータによって表される変換を行い、他方の画像の各点に対して、その変換の逆変換を行ってもよい。また、輪郭照合部105は、一方の画像の各点に対して、組み合わせ幾何差異値に含まれる幾何パラメータのうち一部の幾何パラメータの値が、導出された値の半分の値であり、他の幾何パラメータの値が導出された値である変換を行ってもよい。その場合、輪郭照合部105は、他方の画像の各点に対して、上述の一部の幾何パラメータの値が、導出された値の半分の値であり、他の幾何パラメータの値がゼロである変換を行えばよい。これにより、幾何変換パラメータに採用された幾何パラメータの種類によっては、確度の向上を図れる。
 照合結果出力部106は、輪郭照合部105によって行われた照合の結果(照合結果)をモニタ等に出力する。照合結果出力部106は、照合結果を記録装置に出力してもよい。照合結果出力部106は、照合結果として、予め準備された分類の中で、識別対象が属する分類を表示してもよい。照合結果出力部106は、照合結果をタグ化し、タグ化された照合結果を画像に埋め込んでもよい。照合結果出力部106は、輪郭照合部105によってマッチすると判定された類似画像を紐付けてもよい。
 [動作の説明]
 次に、第1の実施形態の動作例について説明する。図6は、第1の実施形態の動作の例を示すフローチャートである。
 本実施形態では、画像情報取得部101は、まず、ユーザが指定する画像領域を取得する(S1001)。画像情報取得部101は、照合対象の像をそれぞれ含む2つの画像領域(例えば上述の未知画像及び登録画像)を取得すればよい。画像情報取得部101は、ユーザが指定した画像領域に限らず、システムが自動的/半自動的に画像領域を取得してもよい。また、登録画像又は登録画像の輪郭をデータベースから取得する場合、画像情報取得部101は、1つの画像を取得すればよい。
 次のステップでは、輪郭抽出部102は、画像情報取得部101によって取得されたそれぞれの画像領域から輪郭を抽出する(S1002)。
 次に、輪郭代表点抽出部103は、それぞれの画像領域の輪郭から輪郭代表点群を抽出する(S1003)。
 次のステップでは、幾何変換パラメータ導出部104は、輪郭代表点抽出部103によって、一方の画像領域から抽出された輪郭代表点と他方の画像領域から抽出された輪郭点とのすべての組合せに関して、幾何的な差異値を算出する(S1004)。さらに、幾何変換パラメータ導出部104は、幾何的な差異値の統計情報(例えば度数分布等の分布)を生成する。幾何変換パラメータ導出部104は、生成した統計情報用いて、2つの照合対象の間の、代表的な組合せ幾何差異値(代表的な幾何的な差異値)を導出し、導出した代表的な組合せ幾何差異値を幾何変換パラメータとして設定する(S1005)。
 輪郭照合部105は、ステップS1005までの処理において得られた情報をもとに、類似性に基づく照合を実行する(S1006)。
 照合結果出力部106は、照合結果を出力する(S1007)。
 本実施形態には、画像内に含まれる遮蔽や接触を含む物体または形状の類似性に基づく照合を精度よく実施する手法を提供できるという効果がある。
 ここで、上記アルゴリズムによる照合結果の正当性について、簡単に説明する。
 図7は、対比する画像間で対応する特徴点が良好に取得できていることを可視化した説明図である。図7では、図2A及び図2Aに示された照合対象の照合結果の例を示している。
 図7には、照合対象の画像A及びBの類似度を求める過程で、導出した幾何変換パラメータ(上記(dx,dy,dθ))を用いて変換された、画像Aと画像Bの輪郭代表点群が、同一の座標系のもとで表示されている。図7における線は、幾何変換パラメータとして設定された組合せ幾何差異値を有する輪郭代表点ペア(画像Aの輪郭代表点と画像Bの輪郭代表点との組)を示している。
 図7に示す輪郭代表点ペアを結ぶ線の連続性を参照すれば、画像Aと画像Bのように、画像に含まれる物体形状に多くの遮蔽や接触があっても、本実施形態によれば良好な結果を得られることが理解できる。
 次に、幾何変換パラメータ導出部104が行う、複数の分布データによる高精度分布特徴抽出処理を説明する。 
 図8は、照合される輪郭代表点間に存在する、幾何パラメータの差異値の分布のデータを可視的に示したヒストグラムの例である。
 図8では、横軸が区分範囲を表し、縦軸が検出された差異値の積算値を示す。横軸を区分する区分範囲の数は、演算量などを考慮して適宜定められていればよい。区分範囲の数は、輪郭代表点ペアの数及び幾何パラメータの数の少なくともいずれかに基づいて求められていてもよい。区分範囲の数は、あらかじめ定められていてもよい。
 図8に示す例は、1次元のヒストグラムである。この場合、幾何変換パラメータは、1次元のデータである。幾何変換パラメータは、幾何パラメータの数に応じた多次元マトリクスによって表わされていればよい。
 生成される、幾何パラメータの分布において、累積値が算出される区分範囲を狭くすることによって、その幾何パラメータの分解能を高めることができる(すなわち、緻密な分布を得ることができる)。例えば、方位の区分範囲を狭くすることによって、方位の分解能が向上する。ただし、区分範囲を狭くすることにより、演算量が増加する。
 高精度分布特徴抽出処理では、幾何変換パラメータ導出部104は、個々の幾何パラメータについて、分布の区分範囲をその区分範囲の大きさの半分スライドさせた区分範囲に基づく統計処理(分布を生成する処理)をさらに実施する。幾何変換パラメータ導出部104は、幾何パラメータ毎に、大きさが同一であり範囲が異なる区分範囲に基づく複数の分布(1パラメータの分布データセット)を生成する。
 上述の分布データセットの組み合わせ(以下、「分布データセット群」とも表記)のデータ構造を用いることによって、代表的な組合せ幾何差異値を導出する演算量の削減を図ることができる。
 図9は、照合される2つの輪郭代表点群の間に存在するある幾何パラメータの差異値の複数の分布データセットを視覚的に例示する説明図である。図9に示す分布データセットの左側の分布は、図8に示す分布に対応する。図9に示す分布データセットの右側の分布は、図8に示す分布の区分範囲をスライドさせた区分範囲に基づく分布である。このように、幾何パラメータの差異値の複数の分布データセットを使用することによって、幾何パラメータの分解能を上げずに確度の向上を図ることができる。
 上述の複数の分布データセットは、変更されていない横軸の区分範囲に基づいて生成した差異の分布と、横軸の区分範囲をそれらの区分範囲の大きさの半分スライドさせた区分範囲に基づいて生成した差異の分布を表すデータセットとを表す。幾何変換パラメータ導出部104は、この2つの分布が1つのデータセット群として使用する。2つの度数分布を用いることにより、真の差異値の抽出がより正確に行われる。例えば、真の差異値が一方の分布の区分範囲の境界付近にある場合、真の差異値に基づく累積値が分布の複数の区分範囲に分割される。しかし、この場合、他方の分布データの区分範囲のセンタ値付近が真の差異値に当たるため、真の差異値は1つの区分範囲における累積値として現れる。なお、度数分布の数は2つに限られない。例えばN個の度数分布を生成する場合、幾何変換パラメータ導出部104は、横軸の区分範囲をそれらの区分範囲の大きさの1/Nスライドさせた区分範囲に基づいて度数分布を生成してもよい。
 このことにより、区分範囲の大きさを小さくした(すなわち分割数を多くした)場合と同様な効果が得られる。
 その結果、以上で説明した高精度分布特徴抽出処理によって、高分解能な幾何変換パラメータを得るために必要な演算量を削減できる。
 なお、分布又は分布データセットに基づいて、幾何パラメータの差異値の候補を定める手法は、分布の横軸の区分範囲を示す値(図8に示す例では0.45、図9に示す例では0.525((0.65-0.4)/2+0.4))をそのまま用いる方法であってもよい。幾何パラメータの差異値の候補は、検出された横軸の区分範囲に含まれる差異値の平均値であってもよい。この平均値は、重み付けられた平均値であってもよい。
 また、幾何パラメータの差異値の候補は、分布において累積値が最も大きい区分範囲に基づいて定められた候補に加えて、最も大きい累積値に対する比率が所定比率より大きい累積値のピークを有する区分範囲に基づいて定められた候補であってもよい。このように、複数の差異値の候補を求めることによって、複数のピークを有する分布において、それらのピークに基づく差異値の候補を求めることができる。幾何パラメータの差異値の候補は、所定閾値より大きい累積値のピークを持つ区分範囲に基づいて定められた候補であってもよい。幾何パラメータの差異値の候補は、大きさの順位が所定値以上である累積値のピークを持つ区分範囲に基づいて定められた候補であってもよい。抽出される差異値の候補の最小数及び最大数の少なくとも一方が設定されていてもよい。差異値の候補を抽出する条件は、以上の条件が適宜組み合わされた条件であってもよい。
 以上で説明したように、個々の幾何パラメータについて、少なくとも1つの差異値の候補が導出されてもよい。個々の幾何パラメータについて導出された1つ以上の差異値から選択された1つの差異値の、複数の幾何パラメータについての組み合わせが、代表的な組合せ幾何差異値(幾何変換パラメータ)として設定されてもよい。
 [第2の実施形態]
 次に、本発明の第2の実施形態について、図面を参照して詳細に説明する。本実施形態を採用することにより、第1の実施形態において一定の条件下で生じる問題を解消し得る。
 第1の実施形態では、同じ物体形状から抽出された輪郭代表点群であっても、2つの輪郭代表点群において、輪郭代表点が抽出される間隔に大きな差が生じることがある。例えば、画像領域全体の(例えば背景などの)ごく一部を占める物体形状の像から抽出される輪郭特徴点群と、画像領域の中心の広い領域を占める物体形状の像から抽出される輪郭特徴点群とでは、物体形状の像に含まれる画素数が大きく異なる。このような場合、同一の方法で、輪郭及び輪郭代表点群の少なくとも一方を抽出した場合、2つの輪郭代表点群の間で、輪郭特徴点が抽出される間隔に大きな差が生じやすい。 
 また、同じ物体形状が撮影されている高解像度画像と低解像度画像とから抽出された輪郭代表点群でも、輪郭特徴点が抽出される間隔に差が生じることがある。
 従って、的確な幾何変換パラメータの導出や類似判定に悪い影響を与える可能性がある。
 [構成の説明]
 図10は、第2の実施形態の画像照合システム100Aの構成を示すブロック図である。なお、本発明に関連が薄い構成については、説明を簡略化又は省略する。また、第1の実施形態の画像照合システム100の構成要素と同様な、本実施形態の画像照合システム100Aの構成要素についての詳細な説明は省略する。
 本実施形態では、第1の実施形態の輪郭抽出部102が、多重解像度輪郭抽出部112に置き換わっている。このほか、いくつかの構成要素は第1の実施形態とは異なる機能を有する。
 多重解像度輪郭抽出部112は、画像情報取得部101によって取得された画像から多重解像度画像を生成する。すなわち、多重解像度輪郭抽出部112は、画像情報取得部101によって取得された画像から、解像度が異なる複数の画像を生成する。そして、多重解像度輪郭抽出部112は、解像度毎に輪郭を抽出する。すなわち、多重解像度輪郭抽出部112は、解像度が異なる複数の画像の各々から輪郭を抽出する。
 このように、解像度を多重化することにより、実質的に、輪郭代表点抽出部103によって抽出される輪郭代表点の間隔を多重化する。
 多重解像度輪郭抽出部112は、2つの画像領域の解像度を参照し、多重解像度画像を生成するフィルタのサイズを揃える仕組みを持っていてもよい。この仕組みによって、結果的に同等な間隔の輪郭代表点群が抽出されやすくなる。特に、画像から選択された一部の領域において物体認識を行う場合に良好な影響がある。
 輪郭代表点抽出部103は、多重解像度輪郭(すなわち、解像度が異なる複数の画像から抽出された輪郭)に含まれる輪郭の各々から、輪郭代表点群を抽出する。そして、輪郭代表点抽出部103は、抽出されたそれぞれの輪郭代表点群を用いて照合対象を幾何パラメータによって表現する。すなわち、輪郭代表点抽出部103は、抽出されたそれぞれの輪郭代表点群について、輪郭代表点群に含まれる各輪郭代表点における幾何パラメータを特定する。輪郭代表点抽出部103は、抽出したそれぞれの輪郭代表点群を輪郭代表点情報記憶部202に記録する。すなわち、輪郭代表点抽出部103は、それぞれの輪郭投句頂点群について、幾何パラメータを輪郭代表点情報記憶部202に格納する。
 他の処理は、第1の実施形態における処理と同様である。
 このように画像解像度を多重化することによって、照合部110によって、大きな縮尺の変換がなされることが少なくなるので、照合精度に良好な影響がある。
 第1の実施形態では、ある程度同じような間隔で輪郭代表点が抽出されていない場合、照合対象によっては照合精度が劣化する可能性がある。多重輪郭を用いることによって、照合精度が劣化する可能性が低減する。
 図11は、多重解像度輪郭抽出部112によって得られる多重解像度画像の一例を示す説明図である。本実施形態の画像照合システム100Aは、図11に示す多重解像度画像のような、さまざまな解像度の画像を生成し、生成された画像の各々から輪郭を抽出し、抽出された輪郭から輪郭代表点群を抽出する。そのことによって、2つの画像領域における照合対象の大きさの違い及び2つの画像領域の解像度の違いが存在する場合であっても、同等の間隔で輪郭代表点が抽出されやすくなる。その結果、照合部110において、大きな縮尺の変換が行われることが少なくなるので、照合精度に良好な影響がある。
 多重解像度輪郭抽出部112は、画像情報取得部101によって取得された画像に対して、例えば、解像度が異なる複数のガウシアンフィルタによる畳み込みなどを行うことによって、解像度が異なる複数の画像を生成する。そして、多重解像度輪郭抽出部112は、解像度が異なる複数の画像から輪郭を抽出することによって、多重解像度輪郭の生成を行う。多重解像度輪郭抽出部112が多重解像度画像を生成する方法は、上述の、ガウシアンフィルタを使用する方法に限られない。多重解像度輪郭抽出部112が多重解像度画像を生成する方法として、上述の効果の少なくとも何れかが達成されるさまざまな方法のうちのいずれかが採用されることも可能である。
 例えば、多重解像度輪郭抽出部112は、ガウシアンフィルタ以外のフィルタを用いて、解像度の異なるフィルタによる畳み込みを行ってもよい。多重解像度輪郭抽出部112は、フーリエ変換を行い、フーリエ変換の結果からさまざまな範囲の周波数のデータ値を抽出し、抽出されたさまざまな範囲の周波数のデータ値に対して逆フーリエ変換を行ってもよい。また、多重解像度輪郭抽出部112による多重解像度画像の生成に、フーリエ記述子を採用することも可能である。
 [動作の説明]
 次に、図12を参照し、本発明を実施するための第2の実施形態の画像処理システム100Aの動作について説明する。なお、図6と同様な処理は説明を省略する。
 多重解像度輪郭抽出部112は、S1001において取得された画像領域の各々から、多重解像度画像を生成する(S1101)。ステップS1101において、多重解像度輪郭抽出部112は、2つの画像領域の解像度を参照してもよい。そして、多重解像度輪郭抽出部112は、2つの画像領域のうち、低い解像度を持つ画像領域の解像度に、高い解像度を持つ画像領域から生成される低解像度画像の解像度を合わせるように画像領域の低解像化を行うことによって、多重解像度画像を生成してもよい。このように、多重解像度輪郭抽出部112は、2つの画像領域から生成された多重解像度画像に、解像度が同等である画像が含まれるように、2つの画像領域を多重化してもよい。
 多重解像度輪郭抽出部112は、こうして得られたそれぞれの多重解像度画像から解像度毎の輪郭を抽出する(S1102)。
 以後、画像処理システム100Aは、多重解像度輪郭に対して、S1003からS1006の処理を実施し、照合結果を出力する(S1007)。
 本実施形態によれば、画像において遮蔽や接触が存在する物体形状の、類似性に基づく照合を精度よく実施できる。加えて、本実施形態によれば、照合処理において大きな縮尺の変換がなされた場合に生じる可能性がある、照合精度の劣化を予防できる。
 [第3の実施形態]
 次に、本発明の第3の実施形態について、図面を参照して詳細に説明する。本実施形態によれば、第1及び第2の実施形態において一定の条件下で生じる問題を解消し得る。
 第2の実施形態において、画像領域に含まれる物体形状によっては、輪郭の凹凸が十分に反映されている照合処理が行われない場合がある。例えば、輪郭に小さいスケールの形が表れる物体形状の像を含む画像領域を照合する場合、結果として高い照合精度が得られにくい。輪郭上に現れる小さいスケールの形は、例えば、物体全体の大きさと比べて十分小さい大きさの凹凸、又は、物体形状全体の大きさと比べて十分小さい振幅を持つ波形などである。
 [構成の説明]
 図13は、第3の実施形態の画像照合システム100Bの構成を示すブロック図である。なお、本発明に関連が薄い構成については、説明を簡略化又は省略する。また、本実施形態の画像照合システム100Bの、第1の実施形態の画像照合システム100又は第2の実施形態の画像照合システム100Aの構成と同様な部分の詳細な説明は省略する。
 本実施形態の画像照合システム100Bの照合部110は、輪郭代表点間領域抽出部113をさらに含む。このほか、後述されるように、本実施形態の画像照合システム100Bのいくつかの要素は、第1の実施形態の画像照合システム100又は第2の実施形態の画像照合システム100Aの同じ名称が付与されている要素とは異なる機能を有する。なお、図13に示す構成は、第2の実施形態の画像照合システム100Aの構成に輪郭代表点間領域抽出部113が加えてられている構成である。本実施形態の画像照合システム100Bの構成は、第1の実施形態の画像照合システム100の構成に、輪郭代表点間領域抽出部113が加えられた構成であってもよい。
 輪郭代表点間領域抽出部113は、輪郭代表点抽出部103によって輪郭から抽出された輪郭代表点と、輪郭上においてその輪郭代表点と隣接する輪郭代表点との間の輪郭の形状の特徴を表す輪郭領域情報を抽出する。以下の説明では、輪郭代表点と、輪郭上においてその輪郭代表点と隣接する輪郭代表点との間の輪郭は、「輪郭代表点間領域」又は「輪郭領域」とも表記される。輪郭代表点間領域抽出部113は、それぞれの輪郭のそれぞれの輪郭代表点について、輪郭領域を抽出する。輪郭代表点(対象代表点)の輪郭領域は、その対象代表点と、例えば輪郭線上におけるその対象代表点からの時計回りの距離が最も短い輪郭特徴点(以下、「第1隣接代表点」と表記)との間の輪郭であってもよい。輪郭代表点(対象代表点)の輪郭領域は、その対象代表点と、例えば輪郭線上におけるその対象代表点からの反時計回りの距離が最も短い輪郭特徴点(以下、「第2隣接代表点」と表記)との間の輪郭であってもよい。輪郭代表点(対象代表点)の輪郭領域は、その対象代表点の第1隣接代表点と第2の隣接代表点との間の輪郭であってもよい。輪郭代表点間領域抽出部113は、各輪郭領域において、さらに代表点(以下、「領域代表点」とも表記)を抽出してもよい。輪郭領域において代表点を抽出する方法は、上述の輪郭代表点を抽出する方法と同じでよい。ただし、輪郭代表点間領域抽出部113は、輪郭代表点を領域代表点として抽出しない。輪郭代表点間領域抽出部113は、輪郭領域において抽出された代表点における幾何パラメータを、その輪郭領域の輪郭領域情報に設定してもよい。
 本実施形態の説明では、一方の画像領域において抽出された輪郭代表点と他方の画像領域において抽出された輪郭代表点の間における幾何パラメータの差異を、「第1差異」と表記する。さらに、一方の画像領域において抽出された輪郭領域と、他方の画像領域において抽出された輪郭領域との間のパラメータの差異を、「第2差異」と表記する。第2差異は、一方の画像領域において抽出された領域代表点と、他方の画像領域において抽出された領域代表点との間の、幾何パラメータの差異であってもよい。本実施形態の幾何変換パラメータ導出部104は、第1差異と第2差異とに基づいて、幾何変換パラメータを導出してもよい。本実施形態の幾何変換パラメータ導出部104は、第1差異ではなく、第2差異に基づいて、幾何変換パラメータを導出してもよい。このことにより、小さいスケールの凹凸(例えば波形)を表面に有する物体形状のような、小さいスケールの形状の特徴を有する物体形状に対しても良好な照合処理が実施できる。
 なお、幾何変換パラメータ導出部104は、輪郭代表点間の幾何パラメータの差異(すなわち上述の第1差異)に基づいて幾何変換パラメータを導出し、加えて、領域代表点の間の幾何パラメータの差異(すなわち上述の第2差異)に基づいて幾何変換パラメータを導出してもよい。幾何変換パラメータ導出部104は、別々に導出した幾何変換パラメータの中から、最良の幾何変換パラメータとして、1つの幾何変換パラメータを所定の方法によって選択してもよい。幾何変換パラメータ導出部104は、別々に導出した幾何変換パラメータを、幾何変換パラメータの候補として設定してもよい。幾何変換パラメータ導出部104は、別々に導出した幾何変換パラメータから、複数の幾何変換パラメータの候補を選択してもよい。
 幾何変換パラメータを導出において、上述の第1差異と第2差異とに基づいて同一の分布を生成する場合、幾何変換パラメータ導出部104は、第1差異及び第2差異の少なくともいずれかに重みを掛けてもよい。第1差異への重みと第2差異への重みは、異なっていてもよい。重みは、あらかじめ決められていればよい。そして、幾何変換パラメータ導出部104は、少なくとも一方に重みが掛けられた第1差異及び第2差異に基づく累積値を、区分範囲毎に導出してもよい。幾何変換パラメータ導出部104は、第1差異及び第2差異に重みを掛けなくてもよい。
 以上で説明したように、幾何変換パラメータ導出部104は、第1差異の代わりに第2差異に基づく分布を使用して幾何変換パラメータを導出してもよい。幾何変換パラメータ導出部104は、第1差異及び第2差異に基づく分布を使用して幾何変換パラメータを導出してもよい。
 本実施形態の画像照合システム100Bのその他の構成要素は、図10に示す第2の実施形態の画像照合システム100Aの同じ番号が付与されている構成要素と同様であるので、それらの詳細な説明は省略する。
 [動作の説明]
 次に、図14を参照して、本発明の第3の実施形態の画像照合システム100Bの動作について説明する。なお、図6及び図12に示すフローチャートにおける処理と同様な処理の説明は省略する。
 輪郭代表点間領域抽出部113は、S1003までのステップにおいて抽出された輪郭代表点の間における輪郭(輪郭領域)のそれぞれについて、輪郭領域の形状の特徴を表す輪郭領域情報を抽出する(S1201)。この輪郭領域情報を以後の処理に利用する。上述のように、輪郭領域情報は、例えば、輪郭領域においてさらに抽出された領域代表点における幾何パラメータである。
 幾何変換パラメータ導出部104は、一方の画像領域から抽出された輪郭代表点と他方の画像領域から抽出された輪郭代表点の組み合わせの各々について、組み合わせに含まれる輪郭代表点の幾何パラメータの差異を算出する。
また、幾何変換パラメータ導出部104は、一方の画像領域において抽出された輪郭領域と他方の画像領域において抽出された輪郭領域との間のパラメータの差異を算出する。幾何変換パラメータ導出部104は、例えば、一方の画像領域から抽出された領域代表点と他方の画像領域から抽出された領域代表点の組み合わせの各々について、組み合わせに含まれる領域代表点の幾何パラメータの差異を算出すればよい。(S1204)。そして、幾何変換パラメータ導出部104は、幾何パラメータの差異の分布を生成し、生成された分布に基づいて、1つ以上の幾何変換パラメータを導出する(S1005)。
 本実施形態の画像照合システム100Bの動作における他のステップは、第1の実施形態の画像照合システム100の動作又は第2の実施形態の画像照合システム100Aの動作における、同じ番号が付与されているステップの動作と同様である。
 本実施形態によれば、画像内に含まれる遮蔽や接触を含む物体または形状の類似性に基づく照合を精度よく実施できる。加えて、本実施形態によれば、輪郭の凹凸などの変化を反映し得る照合が行える。
 [第4の実施形態]
 次に、本発明の第4の実施形態について、図面を参照して詳細に説明する。図15は、本実施形態の画像照合システム100Cの構成の例を表すブロック図である。
 図15を参照すると、本実施形態の画像照合システム100Cは、輪郭代表点抽出部103と、幾何変換パラメータ導出部104と、輪郭照合部105と、を備える。輪郭代表点抽出部103は、第1の画像領域及び第2の画像領域において抽出された輪郭から輪郭代表点の集合を抽出し、前記輪郭代表点の各々に基づく幾何パラメータを特定する。幾何変換パラメータ導出部104は、組合せ幾何差異値を、幾何変換パラメータとして導出する。組み合わせ幾何差異値は、前記第1の画像領域に含まれる前記輪郭代表点及び前記第2の画像領域に含まれる前記輪郭代表点の組み合わせにおける、前記輪郭代表点の間の前記幾何パラメータの代表的な差異値である。輪郭照合部105は、前記第1の画像領域の、前記集合に含まれる前記輪郭代表点の前記幾何パラメータによって表される照合対象と、前記第2の画像領域の前記照合対象と、の一方又は両方を、前記幾何変換パラメータに基づいて変換する。そして、輪郭照合部105は、前記照合対象の間の類似度を算出し、算出された前記類似度に基づく照合を実行する。
 本実施形態によれば、画像内に含まれる遮蔽や接触を含む物体または形状の類似性に基づく照合を精度よく実施できる。
 以上説明したように、本発明の各実施形態に係る画像照合システムが動作する際に従う照合方法は、画像から一般物体認識等を可能にする低演算量で良好な照合精度を有する照合方法である。
 なお、本発明の各実施形態に係る画像照合システム(画像照合システム100、100A、100B及び100C)は、コンピュータ及びそのコンピュータを制御するプログラムの組み合わせを用いて実現することができる。本発明の各実施形態に係る画像照合システムは、専用のハードウェアによって実現することができる。本発明の各実施形態に係る画像照合システムは、コンピュータ及びプログラムの組み合わせと、専用のハードウェアとを用いて実現することができる。上述の専用のハードウェアは、例えば、画像照合システムの各部として動作する、1つ以上のLSI(Large Scale Integration)等の回路であってもよい。上述のコンピュータは、RAM(Random Access Memory)及び制御部(CPU(Central Processing Unit))等を備える。制御部が、RAMに上述のプログラムをロードし、ロードしたプログラムを実行することによって、コンピュータを画像照合システムの各部として機能させる。また、このプログラムは、記録媒体に非一時的に記録されていてもよい。そして、その記録媒体が頒布されてもよい。その記録媒体に記録されたプログラムは、有線、無線、又は記録媒体そのものを介して、メモリに読込まれ、コンピュータを画像照合システムとして動作させる。記録媒体は、例えば、オプティカルディスク、磁気ディスク、半導体メモリ装置、又はハードディスクなどである。
 本発明の各実施形態に係る画像照合システムは、コンピュータ又はサーバ等の情報処理装置単体によって実現できる。また、本発明の各実施形態に係る画像照合システムは、クラウドシステムやモバイル端末として実現されていてもよい。また、本発明の各実施形態に係る画像照合システムは、ネットワークを介して通信可能に接続されている、照合を行うクラウドシステムと情報処理端末との組み合わせによって実現されていてもよい。
 言い換えると、上述のプログラムは、情報処理システムを、例えば、画像情報取得部101、輪郭代表点抽出部103、幾何変換パラメータ導出部104、及び、照合結果出力部106などとして動作させる。上述のプログラムは、その情報処理システムを、さらに、多重解像度輪郭抽出部112、及び輪郭代表点間領域抽出部113などとして動作させてもよい。以上により、画像照合システムが実現される。
 以上について、さらに詳しく説明する。
 図16は、画像照合システム100、100A、100B及び100Cを実現することができる、コンピュータ1000のハードウェア構成の一例を表す図である。図16を参照すると、コンピュータ1000は、プロセッサ1001と、メモリ1002と、記憶装置1003と、I/O(Input/Output)インタフェース1004とを含む。また、コンピュータ1000は、記録媒体1005にアクセスすることができる。メモリ1002と記憶装置1003は、例えば、RAM(Random Access Memory)、ハードディスクなどの記憶装置である。記録媒体1005は、例えば、RAM、ハードディスクなどの記憶装置、ROM(Read Only Memory)、可搬記録媒体である。記憶装置1003が記録媒体1005であってもよい。プロセッサ1001は、メモリ1002と、記憶装置1003に対して、データやプログラムの読み出しと書き込みを行うことができる。プロセッサ1001は、I/Oインタフェース1004を介して、例えば、照合結果出力装置など(図示されない)にアクセスすることができる。プロセッサ1001は、記録媒体1005にアクセスすることができる。記録媒体1005には、コンピュータ1000を、画像照合システム100、100A、100B又は100Cとして動作させるプログラムが格納されている。
 プロセッサ1001は、記録媒体1005に格納されている、コンピュータ1000を、画像照合システム100、100A、100B又は100Cとして動作させるプログラムを、メモリ1002にロードする。そして、プロセッサ1001が、メモリ1002にロードされたプログラムを実行することにより、コンピュータ1000は、画像照合システム100、100A、100B又は100Cとして動作する。
 下記第1グループの各部は、例えば、プログラムを記憶する記録媒体1005からメモリ1002に読み込まれた、各部の機能を実現することができる専用のプログラムと、そのプログラムを実行するプロセッサ1001により実現することができる。第1グループは、画像情報取得部101と、輪郭抽出部102と、輪郭代表点抽出部103と、幾何変換パラメータ導出部104と、輪郭照合部105と、照合結果出力部106と、多重解像度輪郭抽出部112と、輪郭代表点間領域抽出部113とを含む。また、下記第2グループの各部は、コンピュータ1000が含むメモリ1002やハードディスク装置等の記憶装置1003により実現することができる。第2グループは、画像情報記憶部201と、輪郭代表点情報記憶部202とを含む。第1グループに含まれる部及び第2グループに含まれる部の一部又は全部を、各部の機能を実現する専用の回路によって実現することもできる。
 以上説明したように、本発明によれば、画像内に含まれる遮蔽や接触を含む物体または形状の類似性に基づく照合を精度よく実施する画像照合システム、画像照合方法、およびプログラムを提供できる。
 また、本発明の具体的な構成は前述の実施の形態に限られるものではなく、ブロック構成の分離併合、手順の入れ替えなどの、この発明の要旨を逸脱しない範囲の変更があってもこの発明に含まれる。
 また、上記の実施形態の一部又は全部は、以下のようにも記載されうる。尚、以下の付記は本発明をなんら限定するものではない。
 [付記1]
 画像内に含まれる物体または形状を照合する画像照合システムであって、
 画像情報内に含有される物体の輪郭を記述する輪郭代表点群を抽出して、該輪郭代表点群と幾何パラメータによって照合対象を表現する輪郭代表点抽出手段と、
 比較照合する画像或いは領域に含有された全て或いは幾つかの輪郭代表点の組合せを参照して 各組合せの輪郭代表点間に存在していた 代表的な幾何的なパラメータ間の差異値の組み合わせである組合せ幾何差異値を幾何変換パラメータとして導出する幾何変換パラメータ導出手段と、
 比較照合する画像或いは領域に含有された全て或いは幾つかの照合対象について、その一方又は両方を、前記幾何変換パラメータに基づいて変換したうえで、照合対象間の類似度を算定し、その類似結果に基づいた照合を実行する輪郭照合手段と、
 を備える画像照合システム。
 [付記2]
 前記幾何変換パラメータ導出手段は、
 各組合せの輪郭代表点間に存在していた幾何的なパラメータ間の差異値の分布情報を生成し、
 該分布情報において、
 分布情報内における最大値、または、
 分布情報内における極大値、または、
 分布情報内における、前もって設定した値以上の極大値、
を示した1ないし複数の幾何的なパラメータ間の差異値を、
前記代表的な組合せ幾何差異値として幾何変換パラメータに設定する
 付記1に記載の画像照合システム。
 [付記3]
 前記輪郭代表点抽出手段は、
 照合対象とする画像情報から抽出した輪郭代表点群について、
  各輪郭代表点の位置情報、または、
  各輪郭代表点の周辺輪郭の方位を表現する方位情報、または、
  各輪郭代表点の周辺輪郭の曲率を表現する曲率情報、または、
  各輪郭代表点の周辺領域の輝度情報、
 のうち何れか、または幾つか、またはすべての情報を、幾何パラメータを用いて表現する、
 付記1又は2に記載の画像照合システム。
 [付記4]
 照合対象とする画像情報から多重解像度輪郭を抽出する多重解像度輪郭抽出手段を備え、
 前記輪郭代表点抽出手段は、前記多重解像度輪郭から各々の輪郭上の輪郭代表点群を抽出すると共に、該輪郭代表点群を用いて照合対象を幾何パラメータによって表現する
 付記1乃至3のいずれか1つに記載の画像照合システム。
 [付記5]
 前記多重解像度輪郭抽出手段は、各々の解像度の輪郭を抽出する際に、照合対象とする画像情報の解像度を参照して、他方に比べ低解像である一方の解像度に合わせて 他方の画像を低解像化したうえで、各々の解像度の輪郭を抽出する
 付記4に記載の画像照合システム。
 [付記6]
 前記各輪郭代表点として、
  前記輪郭上の中間の点、或いは、
  前記輪郭を等間隔に区切る点、或いは、
  前記輪郭上の曲率の符号が変化する変曲点、或いは、
  前記輪郭上の曲率が極大値に達する点、
 の何れかを用いる
 付記1乃至4のいずれか1つに記載の画像照合システム。
 [付記7]
 前記輪郭代表点抽出手段が輪郭から抽出した輪郭代表点を識別し、輪郭上の輪郭代表点間領域を、抽出元の輪郭形状を参照して、抽出元の輪郭の形状に関する情報を領域情報として抽出する輪郭代表点間領域抽出手段を備え、
 前記幾何変換パラメータ導出手段は、対比する輪郭代表点群間の個々の輪郭代表点の組み合わせ 及び/又は 対比する輪郭代表点間領域群の個々の領域情報の組み合わせ を参照して個々の輪郭代表点間に存在したパラメータ差異を示す分布データを生成し、その分布データに現れた分布度数に基づく代表的なパラメータの組み合わせを幾何変換パラメータとして導出する
 付記1乃至6のいずれか1つに記載の画像照合システム。
 [付記8]
 前記幾何変換パラメータ導出手段は、個々の幾何的なパラメータ間の差異値の統計を分布データとして集計する際に、各々の幾何パラメータについて 区分範囲の範囲値を異ならせた複数の分布データで表現するデータ構造を用いると共に、複数の異なる区分範囲で表した前記データ構造を参照して、代表的な組合せ幾何差異値を幾何変換パラメータとして導出する
 付記1乃至7のいずれか1つに記載の画像照合システム。
 [付記9]
 画像内に含まれる物体または形状を照合する際の照合対象となる画像情報を取得し、
 取得された画像情報から 該画像情報内に含有される物体の輪郭を記述する輪郭代表点群を抽出して、該輪郭代表点群と幾何パラメータによって照合対象を表現し、
 比較照合する画像或いは領域に含有された全て或いは幾つかの輪郭代表点の組合せを参照して 各組合せの輪郭代表点間に存在していた 代表的な幾何的なパラメータ間の差異値の組み合わせである組合せ幾何差異値を幾何変換パラメータとして導出し、
 比較照合する画像或いは領域に含有された全て或いは幾つかの照合対象について、その一方又は両方を、前記幾何変換パラメータに基づいて変換したうえで、照合対象間の類似度を算定し、その類似結果に基づいた照合を実行する
 情報処理システムによる画像照合方法。
 [付記10]
 前記情報処理システムは、
 前記幾何変換パラメータを導出する際に、
 各組合せの輪郭代表点間に存在していた幾何的なパラメータ間の差異値の分布情報を生成し、
 該分布情報において、
  分布情報内における最大値、または、
  分布情報内における極大値、または、
  分布情報内における、前もって設定した値以上の極大値、
 を示した1ないし複数の幾何的なパラメータ間の差異値を、
 前記代表的な組合せ幾何差異値として前記幾何変換パラメータに設定する
 付記9に記載の画像照合方法。
 [付記11]
 前記情報処理システムは、
 輪郭代表点を抽出する際に、
 照合対象とする画像情報から抽出した輪郭代表点群について、
  各輪郭代表点の位置情報、または、
  各輪郭代表点の周辺輪郭の方位を表現する方位情報、または、
  各輪郭代表点の周辺輪郭の曲率を表現する曲率情報、または、
  各輪郭代表点の周辺領域の輝度情報、
 のうち何れか、または幾つか、またはすべての情報を、幾何パラメータを用いて表現する、
 付記9又は10に記載の画像照合方法。
 [付記12]
 前記情報処理システムは、
 照合対象とする画像情報から多重解像度輪郭を抽出し、
 前記多重解像度輪郭から各々の輪郭上の輪郭代表点群を抽出すると共に、該輪郭代表点群を用いて照合対象を幾何パラメータによって表現する
 付記9乃至11のいずれか1つに記載の画像照合方法。
 [付記13]
 前記情報処理システムは、
 各々の解像度の輪郭を抽出する際に、照合対象とする画像情報の解像度を参照して、他方に比べ低解像である一方の解像度に合わせて 他方の画像を低解像化したうえで、各々の解像度の輪郭を抽出する
 付記12に記載の画像照合方法。
 [付記14]
 前記情報処理システムは、
 前記各輪郭代表点として、
  前記輪郭上の中間の点、或いは、
  前記輪郭を等間隔に区切る点、或いは、
  前記輪郭上の曲率の符号が変化する変曲点、或いは、
  前記輪郭上の曲率が極大値に達する点、
 の何れかを用いる
 付記9乃至12のいずれか1つに記載の画像照合方法。
 [付記15]
 前記情報処理システムは、
 輪郭から抽出した輪郭代表点を識別し、輪郭上の輪郭代表点間領域を、抽出元の輪郭形状を参照して、抽出元の輪郭の形状に関する情報を領域情報として抽出し、
 前記幾何変換パラメータを導出する際に、対比する輪郭代表点群間の個々の輪郭代表点の組み合わせ 及び/又は 対比する輪郭代表点間領域群の個々の領域情報の組み合わせ を参照して個々の輪郭代表点間に存在したパラメータ差異を示す分布データを生成し、その分布データに現れた分布度数に基づく代表的なパラメータの組み合わせを幾何変換パラメータとして導出する
 付記9乃至14のいずれか1つに記載の画像照合方法。
 [付記16]
 前記情報処理システムは、前記幾何変換パラメータを導出する際に、個々の幾何的なパラメータ間の差異値の統計を分布データとして集計する際に、各々の幾何パラメータについて 区分範囲の範囲値を異ならせた複数の分布データで表現するデータ構造を用いると共に、複数の異なる区分範囲で表した前記データ構造を参照して、代表的な組合せ幾何差異値を幾何変換パラメータとして導出する
 付記9乃至15のいずれか1つに記載の画像照合方法。
 [付記17]
 画像内に含まれる物体または形状を照合する情報処理システムを、
 画像情報内に含有される物体の輪郭を記述する輪郭代表点群を抽出して、該輪郭代表点群と幾何パラメータによって照合対象を表現する輪郭代表点抽出手段と、
 比較照合する画像或いは領域に含有された全て或いは幾つかの輪郭代表点の組合せを参照して 各組合せの輪郭代表点間に存在していた 代表的な幾何的なパラメータ間の差異値の組み合わせである組合せ幾何差異値を幾何変換パラメータとして導出する幾何変換パラメータ導出手段と、
 比較照合する画像或いは領域に含有された全て或いは幾つかの照合対象について、その一方又は両方を、前記幾何変換パラメータに基づいて変換したうえで、照合対象間の類似度を算定し、その類似結果に基づいた照合を実行する輪郭照合手段、
 として動作させるプログラム。
 [付記18]
 前記幾何変換パラメータ導出手段に、
 各組合せの輪郭代表点間に存在していた幾何的なパラメータ間の差異値の分布情報を生成させ、
 該分布情報において、
  分布情報内における最大値、または、
  分布情報内における極大値、または、
  分布情報内における、前もって設定した値以上の極大値、
 を示した1ないし複数の幾何的なパラメータ間の差異値を、
 前記代表的な組合せ幾何差異値として幾何変換パラメータに設定させる
 付記17記載のプログラム。
 [付記19]
 前記輪郭代表点抽出手段に、
 照合対象とする画像情報から抽出した輪郭代表点群について、
  各輪郭代表点の位置情報、または、
  各輪郭代表点の周辺輪郭の方位を表現する方位情報、または、
  各輪郭代表点の周辺輪郭の曲率を表現する曲率情報、または、
  各輪郭代表点の周辺領域の輝度情報、
 のうち何れか、または幾つか、またはすべての情報を、幾何パラメータを用いて表現させる、
 付記17又は18に記載のプログラム。
 [付記20]
 前記情報処理システムを、
 照合対象とする画像情報から多重解像度輪郭を抽出する多重解像度輪郭抽出手段をとして動作させ、
 前記輪郭代表点抽出手段に、前記多重解像度輪郭から各々の輪郭上の輪郭代表点群を抽出すると共に、該輪郭代表点群を用いて照合対象を幾何パラメータによって表現させる
 付記17乃至19のいずれか1つに記載のプログラム。
 [付記21]
 前記多重解像度輪郭抽出手段に、各々の解像度の輪郭を抽出する際に、照合対象とする画像情報の解像度を参照して、他方に比べ低解像である一方の解像度に合わせて 他方の画像を低解像化したうえで、各々の解像度の輪郭を抽出させる
 付記20に記載のプログラム。
 [付記22]
 前記各輪郭代表点として、
  前記輪郭上の中間の点、或いは、
  前記輪郭を等間隔に区切る点、或いは、
  前記輪郭上の曲率の符号が変化する変曲点、或いは、
  前記輪郭上の曲率が極大値に達する点、
 の何れかを用いさせる
 付記17乃至20のいずれか1つに記載のプログラム。
 [付記23]
 前記情報処理システムを、
 前記輪郭代表点抽出手段で輪郭から抽出した輪郭代表点を識別し、輪郭上の輪郭代表点間領域を、抽出元の輪郭形状を参照して、抽出元の輪郭の形状に関する情報を領域情報として抽出する輪郭代表点間領域抽出手段として動作させ、
 前記幾何変換パラメータ導出手段に、対比する輪郭代表点群間の個々の輪郭代表点の組み合わせ 及び/又は 対比する輪郭代表点間領域群の個々の領域情報の組み合わせ を参照して個々の輪郭代表点間に存在したパラメータ差異を示す分布データを生成し、その分布データに現れた分布度数に基づく代表的なパラメータの組み合わせを幾何変換パラメータとして導出させる
 付記17乃至22のいずれか1つに記載のプログラム。
 [付記24]
 前記幾何変換パラメータ導出手段に、個々の幾何的なパラメータ間の差異値の統計を分布データとして集計する際に、各々の幾何パラメータについて 区分範囲の範囲値を異ならせた複数の分布データで表現するデータ構造を用いると共に、複数の異なる区分範囲で表した前記データ構造を参照して、代表的な組合せ幾何差異値を幾何変換パラメータとして導出させる
 付記17乃至23のいずれか1つに記載のプログラム。
 [付記25]
 付記17乃至24のいずれか1つに記載のプログラムを記憶するコンピュータ読み取り可能な記録媒体。
 この出願は、2014年5月19日に出願された日本出願特願2014-103065を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 本発明は、一般的な画像や動画内での物体の認識において、所望の画像の検索や、画像の分類といった用途に適用可能である。本発明は、特に、類似するが異なる画像の検索や分類といった用途に適用可能である。
 10  制御部
 20  メモリ
 100  画像照合システム
 101  画像情報取得部
 102  輪郭抽出部
 103  輪郭代表点抽出部
 104  幾何変換パラメータ導出部
 105  輪郭照合部
 106  照合結果出力部
 110  照合部
 112  多重解像度輪郭抽出部
 113  輪郭代表点間領域抽出部
 201  画像情報記憶部
 202  輪郭代表点情報記憶部
 1000  コンピュータ
 1001  プロセッサ
 1002  メモリ
 1003  記憶装置
 1004  I/Oインタフェース
 1005  記録媒体

Claims (10)

  1.  第1の画像領域及び第2の画像領域において抽出された輪郭から輪郭代表点の集合を抽出し、前記輪郭代表点の各々に基づく幾何パラメータを特定する輪郭代表点抽出手段と、
     前記第1の画像領域に含まれる前記輪郭代表点及び前記第2の画像領域に含まれる前記輪郭代表点の組み合わせにおける、前記輪郭代表点の間の前記幾何パラメータの差異値の代表値である組合せ幾何差異値を、幾何変換パラメータとして導出する幾何変換パラメータ導出手段と、
     前記第1の画像領域の、前記集合に含まれる前記輪郭代表点の前記幾何パラメータによって表される照合対象と、前記第2の画像領域の前記照合対象と、の一方又は両方を、前記幾何変換パラメータに基づいて変換したうえで、前記照合対象の間の類似度を算出し、算出された前記類似度に基づく照合を実行する輪郭照合手段と、
     を備える画像照合システム。
  2.  前記幾何変換パラメータ導出手段は、前記組合せに含まれる前記輪郭代表点の間の前記幾何パラメータの差異値の頻度の分布を生成し、当該分布における前記頻度の最大値、極大値、又は、所定値以上の極大値における前記幾何パラメータの差異値を、前記組合せ幾何差異値として幾何変換パラメータに設定する
     請求項1に記載の画像照合システム。
  3.  前記輪郭代表点に基づく前記幾何パラメータは、前記輪郭代表点の位置、前記輪郭代表点の位置における前記輪郭の方位、前記輪郭代表点の位置における前記輪郭の曲率、及び、前記輪郭代表点の周辺領域における輝度情報の少なくともいずれかである
     請求項1又は2に記載の画像照合システム。
  4.  前記第1の画像領域及び第2の画像領域から、異なる複数の解像度における輪郭の集合である多重解像度輪郭を抽出する多重解像度輪郭抽出手段を備え、
     前記輪郭代表点抽出手段は、前記多重解像度輪郭に含まれる前記輪郭の各々から前記輪郭代表点の集合を抽出する
     請求項1から3の何れか一項に記載の画像照合システム。
  5.  前記多重解像度輪郭抽出手段は、前記第1の画像領域と前記第2の画像領域のうち、解像度が高い画像領域である高解像度画像領域を、解像度が低い画像領域である低解像度画像領域の解像度に変換後の解像度が合うように変換することによって生成された画像領域を含む、異なる複数の解像度を持つ画像領域の各々から、前記輪郭を抽出することによって、前記多重解像度輪郭を抽出する
     請求項4に記載の画像照合システム。
  6.  前記各輪郭代表点は、前記輪郭を等間隔に区切る点、前記輪郭が等間隔に区切られた区間の中間の点、前記輪郭の曲率の符号が変化する変曲点、又は、前記輪郭の曲率が極大値である点である
     請求項1から4の何れか一項に記載の画像照合システム。
  7.  前記輪郭代表点と、前記輪郭上で前記輪郭代表点に隣接する前記輪郭代表点との間の前記輪郭の形状の特徴を、輪郭領域情報として抽出する輪郭代表点間領域抽出手段を備え、
     前記第1の画像領域に含まれる前記輪郭代表点及び前記第2の画像領域に含まれる前記輪郭代表点の組み合わせにおける、前記輪郭代表点の間の前記幾何パラメータの差異値と、前記第1の画像領域に含まれる前記輪郭領域及び前記第2の画像領域に含まれる前記輪郭領域の組み合わせにおける、前記輪郭領域の間の前記幾何パラメータの差異値と、の少なくともいずれかの頻度の分布を生成し、生成した前記分布に基づいて、前記組合せ幾何差異値を、前記幾何変換パラメータとして導出する
     請求項1から6の何れか一項に記載の画像照合システム。
  8.  前記幾何変換パラメータ導出手段は、前記幾何パラメータの差異値の値域に、境界における区分を行うことによって生成された、区分範囲の各々に含まれる前記幾何パラメータの差異値の個数に基づく累積値によって表される前記分布を、異なる複数の前記区分毎に生成し、生成された前記分布に基づいて、幾何変換パラメータを導出する
     請求項1ないし7の何れか一項に記載の画像照合システム。
  9.  第1の画像領域及び第2の画像領域において抽出された輪郭から輪郭代表点の集合を抽出し、前記輪郭代表点の各々に基づく幾何パラメータを特定し、
     前記第1の画像領域に含まれる前記輪郭代表点及び前記第2の画像領域に含まれる前記輪郭代表点の組み合わせにおける、前記輪郭代表点の間の前記幾何パラメータの代表的な差異値である組合せ幾何差異値を、幾何変換パラメータとして導出し、
     前記第1の画像領域の、前記集合に含まれる前記輪郭代表点の前記幾何パラメータによって表される照合対象と、前記第2の画像領域の前記照合対象と、の一方又は両方を、前記幾何変換パラメータに基づいて変換したうえで、前記照合対象の間の類似度を算出し、算出された前記類似度に基づく照合を実行する、
     画像照合方法。
  10.  コンピュータを、
     第1の画像領域及び第2の画像領域において抽出された輪郭から輪郭代表点の集合を抽出し、前記輪郭代表点の各々に基づく幾何パラメータを特定する輪郭代表点抽出手段と、
     前記第1の画像領域に含まれる前記輪郭代表点及び前記第2の画像領域に含まれる前記輪郭代表点の組み合わせにおける、前記輪郭代表点の間の前記幾何パラメータの代表的な差異値である組合せ幾何差異値を、幾何変換パラメータとして導出する幾何変換パラメータ導出手段と、
     前記第1の画像領域の、前記集合に含まれる前記輪郭代表点の前記幾何パラメータによって表される照合対象と、前記第2の画像領域の前記照合対象と、の一方又は両方を、前記幾何変換パラメータに基づいて変換したうえで、前記照合対象の間の類似度を算出し、算出された前記類似度に基づく照合を実行する輪郭照合手段と
     して動作させるプログラムを記憶するコンピュータ読み取り可能な記録媒体。
PCT/JP2015/002475 2014-05-19 2015-05-18 画像照合システム、画像照合方法、およびプログラムを記憶する記録媒体 WO2015178001A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016520931A JPWO2015178001A1 (ja) 2014-05-19 2015-05-18 画像照合システム、画像照合方法、およびプログラムを記憶する記録媒体

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-103065 2014-05-19
JP2014103065 2014-05-19

Publications (1)

Publication Number Publication Date
WO2015178001A1 true WO2015178001A1 (ja) 2015-11-26

Family

ID=54553683

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/002475 WO2015178001A1 (ja) 2014-05-19 2015-05-18 画像照合システム、画像照合方法、およびプログラムを記憶する記録媒体

Country Status (2)

Country Link
JP (1) JPWO2015178001A1 (ja)
WO (1) WO2015178001A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021145347A1 (ja) * 2020-01-15 2021-07-22 Dmg森精機株式会社 画像処理装置、工作機及び画像処理方法
US20220337755A1 (en) * 2021-04-20 2022-10-20 Beijing Ambow Shengying Education And Technology Co., Ltd. Method and apparatus for controlling video frame image in live classroom

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001092963A (ja) * 1999-09-27 2001-04-06 Fujitsu Ltd 画像照合方法および装置
JP2007172409A (ja) * 2005-12-22 2007-07-05 Matsushita Electric Works Ltd 画像処理方法
JP2011232851A (ja) * 2010-04-26 2011-11-17 Ricoh Co Ltd 対象物検出方法及び対象物検出プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001092963A (ja) * 1999-09-27 2001-04-06 Fujitsu Ltd 画像照合方法および装置
JP2007172409A (ja) * 2005-12-22 2007-07-05 Matsushita Electric Works Ltd 画像処理方法
JP2011232851A (ja) * 2010-04-26 2011-11-17 Ricoh Co Ltd 対象物検出方法及び対象物検出プログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021145347A1 (ja) * 2020-01-15 2021-07-22 Dmg森精機株式会社 画像処理装置、工作機及び画像処理方法
US20220337755A1 (en) * 2021-04-20 2022-10-20 Beijing Ambow Shengying Education And Technology Co., Ltd. Method and apparatus for controlling video frame image in live classroom
US11812152B2 (en) * 2021-04-20 2023-11-07 Beijing Ambow Shengying Education And Technology Co., Ltd. Method and apparatus for controlling video frame image in live classroom

Also Published As

Publication number Publication date
JPWO2015178001A1 (ja) 2017-04-20

Similar Documents

Publication Publication Date Title
EP2783328B1 (en) Text detection using multi-layer connected components with histograms
EP2565844B1 (en) Creation method and creation device of three-dimensional object recognition-use image database
CN110853033B (zh) 基于帧间相似度的视频检测方法和装置
JP5706647B2 (ja) 情報処理装置、およびその処理方法
US10007678B2 (en) Image processing apparatus, image processing method, and recording medium
WO2012070474A1 (ja) 物体または形状の情報表現方法
JP2013206458A (ja) 画像における外観及びコンテキストに基づく物体分類
JPWO2019069617A1 (ja) 個体識別装置
KR101836811B1 (ko) 이미지 상호간의 매칭을 판단하는 방법, 장치 및 컴퓨터 프로그램
JP2008251029A (ja) 文字認識装置、ナンバープレート認識システム
CN110516731B (zh) 一种基于深度学习的视觉里程计特征点检测方法及系统
WO2015178001A1 (ja) 画像照合システム、画像照合方法、およびプログラムを記憶する記録媒体
US20160292529A1 (en) Image collation system, image collation method, and program
JP2014056415A (ja) 画像照合システム、画像照合方法、およびプログラム
JP4264332B2 (ja) 文字認識装置、ナンバープレート認識システム
KR101306576B1 (ko) 차분 성분을 고려한 조명 변화에 강인한 얼굴 인식 시스템
JP2014112347A (ja) 画像照合システム、画像照合方法、およびプログラム
Yang et al. An improved system for real-time scene text recognition
WO2013154062A1 (ja) 画像識別システム、画像識別方法、およびプログラム
JP6399651B2 (ja) 登録装置及び検索装置並びに方法及びプログラム
CN111340090B (zh) 图像特征比对方法及装置、设备、计算机可读存储介质
US20230377188A1 (en) Group specification apparatus, group specification method, and computer-readable recording medium
Liu Digits Recognition on Medical Device
WO2012147844A1 (ja) 物体又は形状の認識又は検索方法およびそのシステムおよびそのプログラム
Freitas 3D face recognition under unconstrained settings using low-cost sensors

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15796878

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016520931

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15796878

Country of ref document: EP

Kind code of ref document: A1