WO2004008392A1 - 3次元物体モデルを用いた画像照合システム、画像照合方法及び画像照合プログラム - Google Patents

3次元物体モデルを用いた画像照合システム、画像照合方法及び画像照合プログラム Download PDF

Info

Publication number
WO2004008392A1
WO2004008392A1 PCT/JP2003/008642 JP0308642W WO2004008392A1 WO 2004008392 A1 WO2004008392 A1 WO 2004008392A1 JP 0308642 W JP0308642 W JP 0308642W WO 2004008392 A1 WO2004008392 A1 WO 2004008392A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
object model
representative
storage unit
reference image
Prior art date
Application number
PCT/JP2003/008642
Other languages
English (en)
French (fr)
Inventor
Masahiko Hamanaka
Original Assignee
Nec Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nec Corporation filed Critical Nec Corporation
Priority to EP03741264A priority Critical patent/EP1530157B1/en
Priority to JP2004521151A priority patent/JP4560832B2/ja
Priority to CN03816308XA priority patent/CN1669052B/zh
Priority to CA002491727A priority patent/CA2491727A1/en
Priority to AU2003281007A priority patent/AU2003281007B2/en
Priority to KR1020057000443A priority patent/KR100651010B1/ko
Priority to US10/520,661 priority patent/US7545973B2/en
Priority to DE60316690T priority patent/DE60316690T2/de
Publication of WO2004008392A1 publication Critical patent/WO2004008392A1/ja
Priority to US12/433,951 priority patent/US7873208B2/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Definitions

  • the present invention relates to an image matching system, an image matching method, and an image matching program using a three-dimensional object model, and more particularly to input of an object (person's face) photographed under different conditions of posture and lighting.
  • the present invention relates to an image matching system, an image matching method, and an image matching program that can search for a reference image in a database (DB) after the input image.
  • DB database
  • the image matching system of the first prior art includes an image input unit 10, an image matching unit 40, a result display unit 80, a reference image storage unit 70, , A reference image registration unit 75.
  • the conventional image matching system having such a configuration operates as follows.
  • reference images such as reference face images of persons
  • the reference image registration unit 75 reference images (such as reference face images of persons) of various objects shot by the reference image registration unit 75 are stored in advance.
  • the image input unit 10 is realized by a camera or the like, and stores a captured input image in a memory (not shown).
  • the image matching unit 40 compares the input image obtained from the image input unit 10 with each reference image obtained from the reference image storage unit 70, The similarity (or distance value) is calculated, and the reference image with the largest similarity (or the smallest distance) for each object is selected.
  • Each image is represented by a gray-scale feature. For example, normalized correlation and Euclidean distance are used for calculating the similarity between features and calculating the distance value.
  • the result display unit 80 displays a reference image of the selected object having the highest similarity among the reference images as a comparison result (or displays candidate reference images in descending order of the similarity).
  • a conventional image matching system is described in Japanese Patent Application Laid-Open No. 2000-322577 (hereinafter, referred to as a second conventional technology). As shown in FIG. 28, this conventional image matching system includes an image input unit 10, an image conversion unit 35, a partial image matching unit 45, a result display unit 80, and a reference image storage unit.
  • the conventional image matching system having such a configuration operates as follows.
  • the representative three-dimensional object model storage unit 20 stores one or more representative three-dimensional object models obtained from the three-dimensional object model registration unit 25 in advance.
  • the image conversion unit 35 is obtained from the representative three-dimensional object model storage unit 20 with respect to a common partial region of the input image obtained from the image input unit 10 and each reference image obtained from the reference image storage unit 70.
  • a partial image is generated by transforming the input image and / or the reference image so that the input conditions (for example, posture conditions) are the same.
  • a partial area is a characteristic part such as an eye or a nose or mouth, as shown in Fig. 29, for example, and feature points are specified in advance for each image and 3D object model. Can respond.
  • the partial image matching unit 45 compares the converted input image obtained from the image conversion unit 35 with the partial image of each reference image, calculates the average similarity, and determines the reference having the highest similarity for each object. Select an image.
  • the result display unit 80 displays an object having the highest similarity of the reference image as a comparison result.
  • the input image or the reference image is transformed so that the posture matches, and the comparison is performed.
  • the number of reference images of the three-dimensional object model is not sufficient or the posture is largely different,
  • the distortion due to the conversion became large and the matching could not be performed correctly.
  • it is very difficult to adjust the lighting conditions by the conversion and there is a problem that a common area must exist for comparing images in a common area.
  • each conventional technique has a problem that it takes a long time to perform the matching.
  • An object of the present invention is to provide an image matching system capable of retrieving a reference image registered in a database from an input image with respect to an image photographed under different conditions of posture and illumination for each object even when only a small number of reference images exist.
  • An object of the present invention is to provide a system, an image matching method, and an image matching program.
  • Another object of the present invention is to perform collation with a small number of reference images of a three-dimensional object model without performing processing such as transforming an input image or a reference image so that the orientation matches, and to perform an area common to each image. It is an object of the present invention to provide an image collating system, an image collating method, and an image collating program, which can perform collation even if they do not necessarily exist.
  • Another object of the present invention is to provide an image matching system, an image matching method, and an image matching program capable of matching images without generating a necessary number of three-dimensional object models for all objects. It is in.
  • Still another object of the present invention is to provide an image matching system, an image matching method, and an image matching method that can search at high speed even when reference images related to many objects are registered in a database.
  • An image matching program is provided.
  • an image matching system that searches for a reference image similar to an input image, a unit that matches the input image with a plurality of representative 3D object models; Means for matching a three-dimensional object model, a result of matching the input image with the plurality of representative three-dimensional object models, and a result of matching the reference image and the plurality of representative three-dimensional object models. And means for searching for the reference image similar to the input image.
  • the above-mentioned image matching system comprising: means for obtaining a reference three-dimensional object model corresponding to the reference image similar to the input image; and using the reference three-dimensional object model and the input image to resemble the input image. Means for newly searching for the reference image to be performed.
  • the image collating system includes: means for obtaining a reference three-dimensional object model corresponding to the reference image similar to the input image; and, based on the reference three-dimensional object model, at least one of the input image and the reference image.
  • a conversion unit that converts the input image and the reference image into input conditions by converting the input image and the reference image, and compares the input image with the input conditions and the reference image to obtain the reference image corresponding to the input image.
  • means for retrieving images is provided.
  • the conversion unit may convert the reference image in advance and match an input condition of the input image with an input condition of the reference image.
  • the image collating system includes: an image input unit that inputs the input image; a representative three-dimensional object model storage unit that stores a plurality of the representative three-dimensional object models; and a representative three-dimensional object model storage unit.
  • Image generating means for generating at least one comparative image having a similar input condition to the input image for each representative 3D object model, based on the plurality of the representative 3D object models, the input image, and the image
  • the similarity between each comparative image generated by the generating means is calculated, and the maximum similarity is selected for the comparative image corresponding to each representative 3D object model, and the maximum similarity is calculated with the input image and the input image.
  • Image matching means for determining the degree of similarity with the representative 3D object model; a reference image storage unit for storing the reference image of each object; and each reference stored in the reference image storage unit
  • a result collating unit for extracting the reference image similar to the input image.
  • the above image matching system is a three-dimensional object model registration unit that registers each representative three-dimensional object model in the representative three-dimensional object model storage unit, and a reference image registration unit that registers each reference image in the reference image storage unit
  • a new representative 3D object model is registered in the representative 3D object model storage unit by the 3D object model registration unit, or a new reference to the reference image storage unit by the reference image registration unit.
  • the similarity is calculated by the image matching means for the combination of the reference image newly generated by the registration and the representative 3D object model, and the result of the calculation is referred to as the above.
  • a reference image comparison result updating means added to the image comparison result storage unit.
  • the image matching unit calculates a similarity between the input image and the representative 3D object model for each partial area
  • the reference image matching result storage unit includes the reference image storage unit
  • the similarity between each reference image stored in the storage unit and each representative three-dimensional object model stored in the representative three-dimensional object model storage unit is stored for each partial region.
  • the reference image similar to the input image may be extracted on the basis of the similarity of each of the regions with the three-dimensional object model.
  • the result matching unit may determine a similarity between the input image and each representative 3D object model and a similarity between each reference image and each representative 3D object model. And calculating the similarity between the input image and each of the comparative images and the representative three-dimensional object model.
  • the image collating system includes: an image input unit that inputs the input image; a representative three-dimensional object model storage unit that stores a plurality of the representative three-dimensional object models; and a representative three-dimensional object model storage unit.
  • Image generating means for generating at least one comparison image having a similar input condition to the input image for each representative 3D object model based on the plurality of stored representative 3D object models; and Calculating the similarity between each comparative image generated by the image generating means, selecting the maximum similarity for the comparative image corresponding to each representative 3D object model, and inputting the maximum similarity to the input.
  • Image matching means for determining the degree of similarity between the image and the representative 3D object model; a reference image storage unit for storing the reference image of each object; and each reference image stored in the reference image storage unit.
  • a reference image matching result storage unit that stores a similarity between each representative 3D object model stored in the representative 3D object model storage unit; and the input image and each representative that are calculated by the image matching unit.
  • a result matching unit that extracts the similar reference image, a reference three-dimensional object model storage unit that stores a reference three-dimensional object model corresponding to each reference image stored in the reference image storage unit, and the result matching unit
  • the reference 3D object model corresponding to each reference image extracted from the means is obtained from the reference 3D object model storage unit, and the input image and the input are obtained based on the obtained reference 3D object models.
  • Second comparison with close conditions Second image generating means for generating at least one image for each reference three-dimensional object model; similarity between the input image and each second comparative image generated by the second image generating means The maximum similarity is selected for the second comparison image corresponding to each reference 3D object model, and the maximum similarity is defined as the second similarity between the input image and the reference 3D object model.
  • the image collating means may be provided.
  • the above image matching system is a three-dimensional object model registration unit that registers each representative three-dimensional object model in the representative three-dimensional object model storage unit, and a reference image registration unit that registers each reference image in the reference image storage unit
  • a new representative 3D object model is registered in the representative 3D object model storage unit by the 3D object model registration unit, or a reference image is stored in the reference image storage unit by the reference image registration unit.
  • the similarity is calculated by the image matching means, and the calculation result is stored in the reference image matching result storage unit.
  • the 3 + -dimensional object model generating unit includes: a reference image stored in the reference image storage unit; and a representative three-dimensional object stored in the representative three-dimensional object model storage unit.
  • the representative 3D object model stored in the representative 3D object model storage unit is synthesized for each partial area based on the similarity of each partial area with the object model, and the reference corresponding to each reference image is obtained.
  • a three-dimensional object model may be generated, and the generated reference three-dimensional object model may be registered in the reference three-dimensional object model storage unit.
  • the image matching unit calculates a similarity between the input image and the representative 3D object model for each partial area
  • the reference image matching result storage unit includes the reference image storage unit
  • the similarity between each reference image stored in the storage unit and each representative three-dimensional object model stored in the representative three-dimensional object model storage unit is stored for each partial area
  • the result matching unit includes: The similarity of each partial area between the input image calculated by the image matching means and each representative 3D object model, and the reference image and each representative 3 stored in the reference image matching result storage unit.
  • the reference image similar to the input image may be extracted based on a part between the two-dimensional object model and the 9D region.
  • the result matching unit may determine a similarity between the input image and each representative 3D object model and a similarity between each reference image and each representative 3D object model. Calculating a similarity between the input image and each comparative image based on the candidate ranking of the similarity between each of the comparative images and each of the representative three-dimensional object models. You can weight it.
  • the image collating system includes: an image input unit that inputs the input image; a representative three-dimensional object model storage unit that stores a plurality of the representative three-dimensional object models; and a representative three-dimensional object model storage unit.
  • Image generating means for generating at least one comparative image having a similar input condition to the input image for each representative 3D object model, based on the plurality of the representative 3D object models, the input image, and the image The similarity between each comparative image generated by the generating means is calculated, and the maximum similarity is selected for the comparative image corresponding to each representative 3D object model, and the maximum similarity is calculated with the input image and the input image.
  • Image matching means for determining the degree of similarity with the representative three-dimensional object model; a reference image storage unit for storing the reference image of each object; each reference image stored in the reference image storage unit; Table A reference image matching result storage unit that stores the similarity between each representative 3D object model stored in the 3D object model storage unit, and the input image calculated by the image matching unit and Based on the similarity between the representative 3D object model and the similarity between each reference image stored in the reference image matching result storage unit and each representative 3D object model, A result comparing unit that extracts the similar reference image, a reference three-dimensional object model storage unit that stores a reference three-dimensional object model corresponding to each reference image stored in the reference image storage unit, and the result matching unit.
  • Each reference 3D object model corresponding to each reference image extracted from the reference 3D object model storage unit is obtained from the reference 3D object model storage unit, and based on the obtained reference 3D object models, the input image and the By means of result matching
  • the input conditions of the input image and the reference image extracted by the result matching unit are aligned, and the input image and the reference image of which the input conditions are aligned are aligned.
  • the above image matching system is a three-dimensional object model registration unit that registers each representative three-dimensional object model in the representative three-dimensional object model storage unit, and a reference image registration unit that registers each reference image in the reference image storage unit
  • a new representative 3D object model is registered in the representative 3D object model storage unit by the 3D object model registration means
  • the image matching unit compares the similarity with the combination of the reference image newly generated by the registration and the representative 3D object model.
  • a reference image comparison result updating unit that stores the calculation result in the reference image comparison result storage unit.
  • the reference image comparison result storage unit stores the reference image in the reference image comparison result storage unit.
  • the reference 3D object model corresponding to the reference image is stored in the representative 3D object model storage unit based on the similarity.
  • the representative 3D object model is generated by synthesizing the reference 3D object model, and the generated reference 3D object model is registered in the reference 3D object model storage unit. Means may be further provided.
  • the three-dimensional object model generating means includes: a reference image stored in the reference image storage unit; and a representative three-dimensional object stored in the representative three-dimensional object model storage unit.
  • the representative 3D object model stored in the representative 3D object model storage unit is synthesized for each partial region based on the similarity of each partial region with the model, and the reference 3 corresponding to each reference image is synthesized.
  • a three-dimensional object model may be generated, and the generated reference three-dimensional object model may be registered in the reference three-dimensional object model storage unit.
  • the image matching unit calculates a similarity between the input image and the representative 3D object model / let for each partial area
  • the reference image matching result storage unit stores the reference image.
  • the similarity between each reference image stored in the storage unit and each representative 3D object model stored in the representative 3D object model storage unit is stored for each partial area
  • the result matching unit Is the similarity for each partial region between the input image calculated by the image matching means and each representative 3D object model, and each reference image stored in the reference image matching result storage unit.
  • the reference image similar to the input image may be extracted based on the similarity of each region with the representative three-dimensional object model.
  • the result matching unit may determine a similarity between the input image and each representative 3D object model and a similarity between each reference image and each representative 3D object model. Calculating the similarity between the input images, Each similarity may be weighted based on the degree of similarity between the comparative image and each representative 3D object model.
  • the object may be a human face. According to the present invention, the following effects are achieved.
  • the first effect is that even when there is only one or a small number of reference images for each object, search for the same object's reference image is performed for input images of objects captured under different input conditions such as posture and lighting conditions. What you can do.
  • image matching can be performed without necessarily generating a predetermined number of 3D object models for all objects.
  • the reference image is retrieved by comparing the matching result between the input image and the representative 3D object model and the matching result between the reference image and the representative 3D object model.
  • the reference 3D object model is generated by synthesizing the representative 3D object model, and is collated.
  • the second effect is that a reference image can be searched at high speed from an input image.
  • FIG. 1 is a block diagram showing a configuration of an image matching system according to a first embodiment of the present invention.
  • FIG. 2 is a flowchart showing an operation at the time of matching in the first embodiment.
  • FIG. 3 is a diagram showing a specific example of a representative three-dimensional object model according to the first embodiment. It is.
  • FIG. 4 is a diagram showing a specific example of a reference image according to the first embodiment.
  • FIG. 5 is a diagram showing a specific example of a reference image comparison result according to the first embodiment.
  • FIG. 6 is a diagram showing a specific example of an input image according to the first embodiment.
  • FIG. 7 is a diagram showing a specific example of an input image collation result in the first embodiment.
  • FIG. 8 is a diagram showing a specific example of the result matching in the first embodiment.
  • FIG. 9 is a block diagram showing the configuration of the image matching system according to the second embodiment of the present invention.
  • FIG. 10 is a flowchart showing the operation of registering a three-dimensional object model in the second embodiment.
  • FIG. 11 is a flowchart showing an operation at the time of reference image registration in the second embodiment.
  • FIG. 12 is a diagram showing a specific example of a result of matching a registered three-dimensional object model according to the second embodiment.
  • FIG. 13 is a diagram showing a specific example of updating the reference image matching result in the second embodiment.
  • FIG. 14 is a diagram showing a specific example of the result of matching registered reference images according to the second embodiment.
  • FIG. 15 is a diagram showing a specific example of updating the reference image comparison result according to the second embodiment.
  • FIG. 16 is a block diagram showing a configuration of an image matching system according to the third embodiment of the present invention.
  • FIG. 17 is a flowchart showing the operation at the time of matching in the third embodiment.
  • FIG. 18 is a diagram showing a specific example of a reference three-dimensional object model according to the third embodiment.
  • FIG. 19 is a diagram showing a specific example of a reference image comparison result according to the third embodiment.
  • FIG. 20 shows a configuration of an image matching system according to the fourth embodiment of the present invention. It is a block diagram.
  • FIG. 21 is a flowchart showing an operation of registering a three-dimensional object model according to the fourth embodiment.
  • FIG. 22 is a flowchart showing an operation of registering a reference image according to the fourth embodiment.
  • FIG. 23 is a block diagram showing the configuration of the image matching system according to the fifth embodiment of the present invention.
  • FIG. 24 is a flowchart showing an operation at the time of matching according to the fifth embodiment.
  • FIG. 25 is a block diagram showing the configuration of the image matching system according to the sixth embodiment of the present invention.
  • FIG. 26 is a block diagram showing a configuration of an image matching system according to the first conventional technique.
  • FIG. 27 is a diagram showing a specific example of the coordinates of the three-dimensional object model.
  • FIG. 28 is a block diagram showing a configuration of an image matching system according to a second conventional technique.
  • FIG. 2.9 is a diagram showing a specific example of a partial area according to the second conventional technique.
  • an image matching system includes an image input unit 10, an image generating unit 30, an image matching unit 40, a result matching unit 60, A result display unit 80, a reference image storage unit 70, a representative three-dimensional object model storage unit 20 and a reference image comparison result storage unit 50 are provided.
  • the representative three-dimensional object model storage unit 20 stores a representative three-dimensional object model (the three-dimensional shape of the object and the texture of the object surface).
  • a three-dimensional shape measuring device described in Japanese Patent Application Laid-Open No. 2000-125925 or a number of cameras described in Japanese Patent Application Laid-Open No. 9-91436 are used. It can be generated by using a device that restores the three-dimensional shape from the multiple images obtained.
  • the three-dimensional object model is composed of the shape P Q , y, z) and the texture T Q (R, G, B) in the three-dimensional space (X, y, z) of the object surface. As information.
  • Q represents the index of a point on the object surface. For example, it corresponds to the coordinates of a point Q (s, t) obtained by projecting a point on the object surface from the center of gravity to a sphere centered on the center of gravity of the object.
  • a learning CG image under various lighting conditions is generated by computer graphics using various 3D object models in advance, and a base image group is obtained by principal component analysis of the learning CG image. Keep it.
  • the image generation unit 30 is based on the representative three-dimensional object model obtained from the representative three-dimensional object model storage unit 20, and assuming posture conditions, the input image obtained from the image input unit 10 and the illumination conditions are close. Generate a plurality of comparison images.
  • the generation of the comparison image whose illumination conditions are close to the input image is performed by performing coordinate transformation based on a posture condition assuming a base image group obtained in advance, and a linear sum of the coordinate transformed base image is generated in the input image. It can be realized by finding the coefficient of the linear sum by the least squares method so as to be close.
  • the image matching unit 40 compares the input image obtained from the image input unit 10 with each comparative image obtained from the image generating unit 30 and calculates the similarity between the input image and each comparative image. Then, the posture is estimated by selecting the comparison image having the highest similarity for each object.
  • the reference image comparison result storage unit 50 stores the reference images in the reference image storage unit 70, which is a database (DB) for storing reference images, as input images, using the image generation unit 30 and the image comparison unit 40.
  • DB database
  • the result of matching each representative 3D object model in the representative 3D object model storage unit 20 with each reference image is stored in advance.
  • the result collating unit 60 compares the result of the collation performed by the image generating unit 30 and the image collating unit 40 on the input image obtained from the image input unit 10 and each reference in the reference image collating result storage unit 50.
  • the image is compared with the matching result, and reference images with similar matching results are extracted in descending order of similarity.
  • the result display section 80 illuminates the object having the highest similarity. The result is displayed.
  • the representative three-dimensional object model storage unit 20 stores a plurality of representative three-dimensional object models.
  • the input image is obtained by the image input unit 10 (step 100 in FIG. 2).
  • the image generation unit 30 compares the input image with the input conditions such as the posture and illumination, that is, the comparison image that is easy to compare with each representative 3D object model in the representative 3D object model storage unit 20. Is generated (step 101).
  • the image matching unit 40 obtains a similarity between the input image and each of the comparison images (Step 102).
  • the result matching unit 60 calculates the similarity between the matching result and the matching result of each reference image in the reference image matching result storage unit 50, and extracts reference images having similar matching results in descending order of similarity. (Step 103). Finally, the reference image having a high similarity is displayed (step 104).
  • the reference image is searched by comparing the matching result between the input image and the representative 3D object model and the matching result between the reference image and the representative 3D object model. Therefore, even when there is only one or a small number of reference images for each object, a reference image can be searched for an input image of an object photographed under different conditions of posture and lighting conditions.
  • the search time depends on the number of image matching.
  • the representative three-dimensional object model storage unit 20 stores N representative representative three-dimensional object models Cj (j-1, 2,..., N).
  • the reference image matching result storage section 50 by the processing at the time of registration of the reference image, the matching result the representative three-dimensional object models C j of each reference image Ri (similarity) S i3 is stored (in FIG. 5, the similarity is displayed in descending order of similarity, but in actuality, it may be stored in the order of the model;).
  • an input image I (u, V) as shown in FIG. 6 has been obtained by the image input unit 10 (step 100 in FIG. 2).
  • the image matching unit 40 obtains a similarity S (I, G jk ) between the input image I (u, V) and each of the comparative images G jk (u, v), and
  • the maximum similarity S oj ma Xk S (1, G jk ) is calculated (step 102 ).
  • the matching result (similarity) S 0 j is, for example, as shown in FIG.
  • the result matching unit 60 determines the matching result S. j and the matching result S ij of each reference image in the reference image matching result storage unit 50 (S oj , S H ) is calculated, and reference images with high similarity Di of the matching result are sequentially extracted (step 103).
  • the extraction result is, for example, as shown in Fig. 8, which is likely to be an image of the same object as the input image.
  • R 5 and R 2 are obtained in order as a reference image.
  • the reference image having a high similarity is displayed (step 104).
  • a normalized correlation, a rank correlation, or the like can be used as a method of calculating the similarity Di (S. j, S n ) of the matching result.
  • Rank correlation is the correlation between the catching ranks of the matching results.
  • the Spearman's rank correlation for example, can be obtained from 1 6 ⁇ j (A 0j — Aij) V ⁇ N (N 2 -l) ⁇ .
  • the similarity may be calculated after converting each variable (S. 3 ;] . ⁇ 0 into a variable.
  • one or both of the candidate ranks A oj and A i3 may be used.
  • the weight of the upper candidate becomes higher.
  • the image matching system includes an image input unit 10, an image generation unit 30, an image matching unit 40, a result matching unit 60, a result display unit 80, and a reference image storage.
  • a reference image registration unit 75, a three-dimensional object model registration unit 25, and a reference image comparison result update unit 55 are added to the configuration of the first embodiment.
  • the three-dimensional object model registration unit 25 newly registers the representative three-dimensional object model (the three-dimensional shape of the object and the texture of the object surface) in the representative three-dimensional object model storage unit 20.
  • the reference image matching result updating unit 55 5 when a representative 3D object model is registered in the representative 3D object model storage unit 20 and when a reference image is registered in the reference image storage unit 70 by the reference image registration unit 75
  • the combination of the representative three-dimensional object models is collated by the image generation unit 30 and the image collation unit 40, and the collation result is added to the reference image collation result storage unit 50.
  • the reference image registration unit 75 registers a reference image, which is a two-dimensional image of the object to be searched, in the reference image storage unit 70.
  • the reference image to be registered has no restrictions on the input conditions including its lighting and posture, and at least one image is registered for one object (search target).
  • the 3D object model registration unit 25 is the same as the 3D object model registration unit 25 in the second related art shown in FIG. 28, and is stored in the representative 3D object model storage unit 20. Represents a representative three-dimensional object model obtained from the three-dimensional object model registration unit 25 in advance.
  • the operation at the time of collation of the input image is exactly the same as the operation shown in FIG. 2 of the first embodiment.
  • the input image is obtained by the image input unit 10 (step 100 in FIG. 2).
  • the image generation unit 30 compares the input image with the input conditions such as posture and illumination, which are close to the input image, that is, a comparative image that can be easily compared with each representative 3D object model in the representative 3D object model storage unit 20. Is generated (step 101).
  • the image matching unit 40 obtains a similarity between the input image and each of the comparison images (Step 102).
  • the result matching unit 60 calculates the similarity between the matching result and the matching result of each reference image in the reference image matching result storage unit 50, and extracts reference images having similar matching results in descending order of similarity. (Step 103). Finally, the reference image having a high similarity is displayed (step 104).
  • the 3D object model registration unit 25 When registering the representative 3D object model (the 3D shape of the object and the texture of the object surface), first, the 3D object model registration unit 25 first stores the new representative 3D object in the representative 3D object model storage unit 20. Register the model (step 200 in FIG. 10). Next, the reference image matching result update unit 55 sends each reference image in the reference image storage unit 70 to the image input unit 10 as an input image, and stores the reference image and the registered representative 3D object. The comparison image by the image generation unit 30 based on the model is collated by the image collation unit 40, and each similarity is obtained (step 201). Finally, the matching result is added to the matching result of each reference image in the reference image matching result storage unit 50 (step 202).
  • the reference image registration unit 75 registers a new reference image in the reference image storage unit 70 (step 210 in FIG. 11).
  • the reference image matching result updating unit 55 sends the reference image registered in the reference image storage unit 70 to the image input unit 10 as an input image, and the reference image and the representative three-dimensional object model / restore.
  • the image comparison unit 40 checks the comparison image by the image generation unit 30 based on the representative three-dimensional object model in the storage unit 20, and obtains each similarity (step 211). Finally, the matching result is added to the reference image matching result storage unit 50 (Step 2 1 2) o
  • the second embodiment is configured to search for a reference image by comparing a matching result between an input image and a representative 3D object model and a matching result between a reference image and a representative 3D object model. Therefore, even when there is only one or a small number of reference images for each object, a reference image can be searched for an input image of an object photographed under different conditions of posture and lighting conditions.
  • the configuration is such that image matching is performed by comparing with a representative three-dimensional object model having a smaller number of objects than the number of objects, and similarity calculation of the matching result is performed, high-speed search can be performed. Since the time required to calculate the similarity of the matching result is shorter than that of image matching, the search time depends on the number of image matching.
  • an input image I (u, v) as shown in FIG. 6 is obtained by the image input unit 10 at the time of input image collation (step 100 in FIG. 2).
  • the image matching unit 40 obtains a similarity S (1, G jk ) between the input image I (u, V) and each of the comparative images G jk (u, v), and calculates the similarity S (1, G jk ) for each representative three-dimensional object model.
  • Request the maximum similarity similarity S 0 j m a x k S (1, G jk) ( step 1 02).
  • the collation result (similarity) S oj is, for example, as shown in FIG.
  • the reference images with the higher similarity Di are sequentially extracted (step 103). Extraction result, for example, as FIG. 8, an image is a possibly the reference image of the input image and the same object, R 5, R 2 is found in order. Finally, the reference image having a high similarity is displayed (step 104).
  • the 51st new representative 3D object model C 5 i is registered (step 200 in FIG. 10).
  • the reference image matching result updating unit 55 sends each reference image R i in the reference image storage unit 70 to the image input unit 10 as an input image, and the reference three-dimensional object registered as the reference image R i is registered.
  • the matching result (similarity) Si, 51 is, for example, as shown in FIG.
  • the matching result is added to the matching result of each reference image in the reference image matching result storage unit 50 (step 202).
  • the reference image comparison result update unit 55 updates the reference image R 1 registered in the reference image storage unit 70. i is sent to the image input unit 10 as an input image to obtain the reference image R. i and the representative 3D object model C j in the representative 3D object model storage unit 20 are collated by the image generation unit 30 and the image collation unit 40, and each similarity is compared. (R 101 , G jk ) (Step 21 l) o
  • the matching result (similarity) is as shown in Fig. 14, for example. Finally, as shown in FIG. 15, the matching result is added to the reference image matching result storage unit 50 (step 212).
  • an image matching system includes an image input unit 10, an image generating unit 30, an image matching unit 40, a result matching unit 60, a second image Generating unit 31, second image matching unit 41, result display unit 80, reference image storage unit 70, representative 3D object model storage unit 20, reference image matching result storage unit 50, and reference 3D An object model storage unit 21 is provided.
  • M works as follows.
  • the image storage unit 70 and the representative three-dimensional object model storage unit 20 perform the same processing as the processing in the first embodiment of the present invention shown in FIG.
  • the reference 3D object model storage corresponding to the reference image is registered in the reference 3D object model storage unit 21.
  • the reference three-dimensional object model is synthesized from the representative three-dimensional object model in the representative three-dimensional object model storage unit 20 based on the information of the reference image comparison result registered in the reference image comparison result storage unit 50. Can be generated by Alternatively, as in the case of the registration of the representative 3D object model described above, if the 3D shape measurement device has generated a 3D object model of the same object as the reference image, the 3D object model is used. May be.
  • the second image generation unit 31 refers to each reference image corresponding to the reference image obtained from the reference three-dimensional object model storage unit 21 with respect to the reference image of the top candidate of the matching result obtained from the result matching unit 60. Based on the three-dimensional object model, a comparative image in which the input image obtained from the image input unit 10 is close to the input conditions such as the posture and the lighting conditions is generated.
  • the second image matching unit 41 compares the input image obtained from the image input unit 10 with each comparison image obtained from the second image generation unit 31 and calculates the similarity.
  • steps 100, 101, 102, and 103 are performed in the first embodiment shown in FIG. It is the same as the operation in the form.
  • the second image generation unit 31 refers to each reference image corresponding to the reference image obtained from the reference three-dimensional object model storage unit 21 with respect to the reference image of the top candidate of the matching result obtained from the result matching unit 60.
  • a comparative image in which the input image obtained from the image input unit 10 is close to the input conditions such as posture and lighting conditions is generated (step 111).
  • the second image collating unit 41 compares the input image obtained from the image input unit 10 with each comparative image obtained from the second image generating unit 31 and calculates the similarity.
  • Step 1 1 2 the reference image having a high degree of similarity is displayed (step 104).
  • the reference 3D object model generated by combining the representative 3D object models is configured to be collated, even when only one reference image exists for each object, the reference A reference image can be retrieved from an input image of an object captured under different input conditions such as posture and lighting conditions using a three-dimensional object model. Further, in the present embodiment, further, a reference image having high similarity is extracted from the representative three-dimensional object model, and then the upper candidate is compared with the reference three-dimensional object model. As a result, reference images can be searched at high speed.
  • the matching result (similarity) of each reference image 1 ⁇ with respect to the representative 3D object model Cj is stored.
  • the second image generation unit 31 uses the reference three-dimensional object model storage unit 21 based on the comparison result obtained by the result comparison unit 60, for example, with respect to the reference images of the top three R 1 R 5 and R 2.
  • the generation of the comparison image H jk (u, v) is performed in the same manner as in step S101 .
  • each reference 3D object model B i (j 1,
  • the second image matching unit 41 obtains the similarity S (1, H jk ) between the input image I (u, v) and each of the comparative images H jk (u, v), and calculates the similarity for each model.
  • the maximum similarity S 0j maXk S (1, H jk ) is determined (step 112).
  • the matching result is, for example, as shown in Fig. 19.
  • S 05 > S 01 > S 02 , R 5 , R, and R 2 are reference images that are highly likely to be images of the same object as the input image. In order. Finally, the reference image having a high similarity is displayed (step 104).
  • an image matching system according to a fourth embodiment of the present invention will be described in detail with reference to FIG.
  • the image collating system includes an image input unit 10, an image generating unit 30, an image collating unit 40, a result collating unit 60, a second Image generation unit 31, second image comparison unit 41, result display unit 80, reference image storage unit 70, reference image registration unit 75, representative 3D object model storage unit 20, and 3D object model It includes a registration unit 25, a reference image comparison result storage unit 50, a reference image comparison result update unit 55, a reference three-dimensional object model storage unit 21, and a three-dimensional object model generation unit 27.
  • a reference image registration unit 75 a three-dimensional object model registration unit 25, a reference image comparison result update unit 55, and a three-dimensional object model generation are added to the configuration of the third embodiment. Part 27 is added.
  • the model storage unit 20, the three-dimensional object model registration unit 25, and the reference image matching result update unit 55 include the first embodiment of this effort shown in FIG. 1 and the second embodiment shown in FIG. The same processing as the processing in the embodiment is performed. Also, the reference three-dimensional object model storage unit 21, the second image generation unit 31, and the second image comparison unit 41 are the same as the processes in the third embodiment shown in FIG. Perform processing.
  • the three-dimensional object model generation unit 27 uses the information of the reference image comparison result. Then, a reference three-dimensional object model corresponding to the reference image is generated by combining the representative three-dimensional object model in the representative three-dimensional object model storage unit 20, and the reference three-dimensional object model is referred to. 21 Registered or referenced in 1 3D object model storage unit 21 Updates the referenced 3D object model in 1.
  • the second image generation unit 31 refers to each reference image corresponding to the reference image obtained from the reference three-dimensional object model storage unit 21 with respect to the reference image of the top candidate of the matching result obtained from the result matching unit 60. Based on the three-dimensional object model, a comparative image in which the input image obtained from the image input unit 10 is close to the input conditions such as the posture and the lighting conditions is generated.
  • the second image matching unit 41 compares the input image obtained from the image input unit 10 with each comparison image obtained from the second image generation unit 31 and calculates the similarity. Next, the overall operation of the fourth embodiment will be described in detail with reference to FIG. 20 and the flowcharts of FIGS. 17, 21, and 22.
  • steps 100, 101, 102, and 103 are performed in the first embodiment shown in FIG. It is the same as the operation in the form.
  • the second image generation unit 31 sends a reference image corresponding to the reference image obtained from the reference three-dimensional object model storage unit 21 to the reference image of the higher candidate of the matching result obtained by the result matching unit 60.
  • a comparison image in which the input image obtained from the image input unit 10 is close to the input conditions such as the posture and the lighting conditions is generated (step 111).
  • the second image collating unit 41 compares the input image obtained from the image input unit 10 with each comparative image obtained from the second image generating unit 31 and calculates the similarity. Step 1 1 2).
  • the reference image having a high degree of similarity is displayed (step 104).
  • Steps 200, 201, and 202 correspond to the second embodiment shown in FIG. In Operation is the same.
  • the 3D object model generation unit 27 represents the reference 3D object model corresponding to each reference image based on the information of each reference image comparison result in the reference image comparison result storage unit 50.
  • the reference 3D object model is regenerated by combining the representative 3D object models in the model storage unit 20, and the reference 3D object model is referenced.
  • the reference 3D object model registered or stored in the 3D object model storage unit 21 is replaced. Yes (Step 220).
  • steps 210, 211, and 212 are performed according to the operation in the second embodiment shown in FIG. Same.
  • the 3D object model generation unit 27 represents the reference 3D object model corresponding to the reference image based on the information of the reference image comparison result newly registered in the reference image comparison result storage unit 50.
  • the reference three-dimensional object model is generated by synthesizing the representative three-dimensional object model in the three-dimensional object model storage unit 20 and the reference three-dimensional object model is additionally registered in the reference three-dimensional object model storage unit 21 (step 2 21).
  • the reference three-dimensional object model is generated and synthesized by combining the representative three-dimensional object models, so that even when there is only one reference image for each object, A reference image can be searched for from an input image of an object taken under different input conditions such as posture and lighting conditions using a reference 3D object model. Further, in the present embodiment, after extracting a reference image having a high similarity based on the representative 3D object model / relation, the upper candidate is compared with the reference 3D object model. , So that reference images can be searched at high speed.
  • the reference three-dimensional object model storage unit 21 stores a reference image.
  • M reference 3D object models B i (i 1, 2,..., M) corresponding to the reference image R; are stored.
  • the second image generator 31, the comparison result obtained from the result matching section 60, R have R 5 is, for example, the top three candidates.
  • the reference three-dimensional object models SL ⁇ 21 each reference three-dimensional object model BB 5 to more corresponding, B 2 acquires an image input unit compares the image H 3 near the input image and pose and lighting conditions obtained from 10 k (u, v)
  • the second image matching unit 41 calculates the similarity S (1, H jk ) between the input image I (u, v) and each of the comparative images H jk (u, v), and calculates the similarity S for each model.
  • the maximum similarity S 0j max k S (1, H jk ) is obtained (step 1 12).
  • the matching result is, for example, as shown in FIG. 19, and R 5 , R t , and R 2 are sequentially obtained as reference images that are likely to be images of the same object as the input image. Finally, the reference image having a high similarity is displayed (step 104).
  • the reference image matching result update section 5 matching result of each reference image in the reference image matching result storage section 50 to update the S j i (step 20 1, 202).
  • the representative 3D object model Cj is regenerated by synthesis, and the reference 3D object model B i is replaced with the reference 3D object model already stored in the reference 3D object model storage unit 21 (step 220). .
  • T Qi (R, G, B) ⁇ jf (ST Qj (R, G, B)
  • f is monotonically increasing with increasing S i 3
  • the reference image registration unit 75 sets the first new reference image to register R 101 (step 2 1 0 of Fig. 22).
  • the reference image matching result updating unit 55 causes the reference image R! .
  • Corresponding to ⁇ is added to the reference image matching result storage unit 50 (steps 211, 212).
  • the three-dimensional object model generation unit 27 generates the reference image R based on the information of the reference image comparison result S101ij in the reference image comparison result storage unit 50 .
  • Reference corresponding to i 3D object model B! Is generated by combining the representative three-dimensional object model Cj in the representative three-dimensional object model storage unit 20, and the reference three-dimensional object model B 1 is generated. Is added to the 3D object model storage unit 21 (step 221).
  • the image collating system includes an image input unit 10, an image generating unit 30, an image collating unit 40, a result collating unit 60, and an image converting unit 36.
  • Image input unit 10 image generation unit 30, image comparison unit 40, result comparison unit 60, result display unit 80, reference image storage unit 70, representative 3D object model
  • the storage unit 20 performs the same processing as the processing in the first embodiment of the present invention shown in FIG.
  • the image conversion unit 36 generates a reference image corresponding to the reference image obtained from the reference three-dimensional object model storage unit 21 with respect to the reference image of the higher rank of the matching result obtained from the result matching unit 60. Based on the two-dimensional object model, a partial image is generated by transforming the input image and / or the reference image so that the input conditions (for example, posture conditions) are the same.
  • the image conversion unit 36 is similar to the second conventional image conversion unit 35 shown in FIG.
  • the partial image matching unit 45 compares the converted input image obtained by the image converting unit 36 with the partial image of the reference image, and calculates the similarity between the two. The calculation of the similarity is performed in the same manner as in step S102 described above.
  • steps 100, 101, 102, and 103 are performed in the first embodiment shown in FIG. It is the same as the operation in the form.
  • the image conversion unit 36 generates a reference three-dimensional image corresponding to the reference image obtained from the reference three-dimensional object model storage unit 21 with respect to the reference image of the higher candidate of the matching result obtained by the result matching unit 60. Based on the object model, a partial image is generated by converting the input image and / or the reference image so that input conditions (for example, posture conditions) are the same. (Steps 1 2 1).
  • the partial image matching unit 45 compares the converted input image obtained by the image converting unit 36 with the partial image of the reference image, and calculates the respective iJ i degrees (step 122). Finally, the reference image having a high degree of similarity is displayed (step 104).
  • the image conversion unit 36 converts one or any of the input image and the reference image.
  • the reference image is converted in advance into standard input conditions (for example, posture Condition), and store the input image in the image conversion unit 36. May be converted into standard input conditions (for example, posture conditions). By doing so, it is not necessary to convert the reference image every time collation is performed, and the collation time can be reduced.
  • the image collating system comprises an image input unit 10, an image generating unit 30, an image collating unit 40, and a result collating unit 60.
  • Image input unit 10 Image generation unit 30, Image comparison unit 40, Result comparison unit 60, Result display unit 80, Reference image storage unit 70, Reference image registration unit 7 5, a representative three-dimensional object model storage unit 20, a three-dimensional object model registration unit 25, and a reference image matching result update unit 55 are the same as those of the first embodiment of the present invention shown in FIG.
  • Reference image storage unit 70 Reference image registration unit 7 5
  • a representative three-dimensional object model storage unit 20 a three-dimensional object model registration unit 25, and a reference image matching result update unit 55
  • the same processing as the processing in the second embodiment shown in FIG. 9 is performed.
  • reference three-dimensional object model storage unit 21 and the three-dimensional object model / record generation unit 27 correspond to the third embodiment shown in FIG. 16 and the third embodiment of the present invention shown in FIG. The same processing as the processing in the fourth embodiment is performed.
  • the image conversion unit 36 generates a reference 3D image corresponding to the reference image obtained from the reference 3D object model storage unit 21 with respect to the reference image of the higher candidate of the matching result obtained from the result matching unit 60. Based on the object model, a partial image is generated by transforming the input image and / or the reference image so that input conditions (for example, posture conditions) are the same.
  • the partial image matching unit 45 compares the converted input image obtained by the image converting unit 36 with the partial image of the reference image, and calculates the similarity.
  • first, steps 100, 101, 102, and 103 are the same as the operations in the first embodiment shown in FIG.
  • the image conversion unit 36 generates a reference 3D object model corresponding to the reference image obtained from the reference 3D object model storage unit 21 with respect to the reference image of the higher candidate of the matching result obtained by the result matching unit 60. Based on, the input image and / or the reference image are converted to generate a partial image so that the input conditions (for example, posture conditions) are the same. (Step 121).
  • the partial image matching unit 45 compares the converted input image obtained by the image converting unit 36 with the partial image of the reference image, and calculates the similarity (step 122). Finally, the reference image having a high similarity is displayed (step 104).
  • the image conversion unit 36 converts both or one of the input image and the reference image.
  • the reference image is converted into standard input conditions (for example, posture conditions) in advance.
  • the input image may be converted into standard input conditions (for example, posture conditions) in the image conversion unit 36.
  • the similarity S (1, G jk ) between the input image I (u, v) and each comparison image G jk (u, v) when seeking, although total seek one similarity S (1, G ik) we obtain the similarity S (1, G 'jkm) for each partial region m, the maximum similarity for each model
  • the similarity S ′ 0jB ni aXk S (1, G, j km ) may be obtained.
  • the partial area is, for example, an area as shown in FIG.
  • the result matching unit 60 ⁇ .Similarity D ⁇ SJD ( S'0jm , S'i .) Between m and the reference result S 'of each reference image in the reference image comparison result storage unit 50; Also, the 3D object model generation unit 27 in the fourth and sixth embodiments may synthesize a representative 3D object model for each partial region.
  • the threshold value for determining the similarity between the input image and the specific reference image in the second image matching unit 41 and the partial image matching unit 45 is used. It can be determined by whether it is greater than.
  • the image matching system includes an image matching program 500 for realizing the functions of the components described above in a computer, as well as realizing the functions of the components as hardware. It can also be realized by reading and executing.
  • the image collation program 500 is stored on a magnetic disk, a semiconductor memory, or another recording medium, and the computer reads the image collation program 500 from the recording medium.
  • INDUSTRIAL APPLICABILITY The present invention can be used for identification of a person using an image of a face or the like, personal authentication, and the like.

Description

3次元物体モデルを用いた画像照合システム、 画像照合方法
及び画像照合プログラム 技術分野 本発明は、 3次元物体モデルを用いた画像照合システム、 画像照合方法及び画 像照合プログラムに関し、 特に姿勢や照明の異なる条件で撮影された物体 (人物 の顔) の入力画像に対し、 当該入力画後からデータベース (D B ) にある参照画 像を検索できる画像照合システム、 画像照合方法及び画像照合プログラムに関す る。 背景技術 従来の画像照合システムの一例が、 1 9 9 5年、 電子情報通信学会論文誌 D— I I、 第 J 7 8— D— II卷、 第 1 1号、 1 6 3 9頁〜 1 6 4 9頁、 窵田ら、 「顔 の向きによらない人物識別のための辞書構成法」 に記載されている (以下、 第 1 の従来技術と称する)。第 2 6図に示すように、この第 1の従来技術の画像照合シ ステムは、 画像入力部 1 0と、 画像照合部 4 0と、 結果表示部 8 0と、 参照画像 記憶部 7 0と、 参照画像登録部 7 5とを備える。
このような構成を有する従来の画像照合システムは、 以下のように動作する。 参照画像記憶部 7 0には、 予め参照画像登録部 7 5より撮影された様々な物体 の参照画像 (人物の参照顔画像等) が記憶されている。 ただし、 参照画像につい ては、撮影するときの条件(姿勢や照明等の条件)によって大きく変化するため、 一つの物体に対して様々な条件で撮影した複数 (多数)の画像が記憶されている。 画像入力部 1 0は、 カメラ等により実現され、 撮影した入力画像をメモリ (図 示せず) に記憶する。 画像照合部 4 0は、 画像入力部 1 0より得られる入力画像 と、 参照画像記憶部 7 0より得られる各参照画像とを比較し、 それぞれ特徴の類 似度(又は距離値) を計算し、各物体で最も類似度の大きい (又は距離の小さレ、) 参照画像を選出する。 各画像は濃淡特徴で表現され、 特徴間の類似度計算や距離 値計算には例えば正規化相関やユークリッド距離などが使用される。 結果表示部 8 0は、 当該参照画像のうち選出された類似度の最も大きい物体の参照画像を照' 合結果として表示する(又は類似度の大きい順に候補となる参照画像を表示する)。 従来の画像照合システムの他の一例が、 特開 2 0 0 0— 3 2 2 5 7 7号に記载 されている (以下、第 2の従来技術と称する)。 第 2 8図に示すように、 この従来 の画像照合システムは、 画像入力部 1 0と、 画像変換部 3 5と、 部分画像照合部 4 5と、 結果表示部 8 0と、 参照画像記憶部 7 0と、 参照画像登録部 7 5と、 代 表 3次元物体モデル記憶部 2 0と、 3次元物体モデル登録部 2 5とを備える。 このような構成を有する従来の画像照合システムは、 以下のように動作する。 代表 3次元物体モデル記憶部 2 0には、 予め 3次元物体モデル登録部 2 5より 得られる代表的な 1つ又は複数の 3次元物体モデルが記憶されている。 画像変換 部 3 5は、 画像入力部 1 0より得られる入力画像と参照画像記憶部 7 0より得ら れる各参照画像の共通する部分領域に関して、 代表 3次元物体モデル記憶部 2 0 より得られる 3次元物体モデルを用いて、 入力条件 (例えば姿勢条件) が同じに なるように、 当該入力画像と当該参照画像の両方又はいずれかを変換し部分画像 を生成する。
部分領域とは、 例えば第 2 9図に示すように、 目 ■鼻 ·口のような特徴的な部 分であり、 予め各画像と 3次元物体モデルに対して特徴点を指定しておくことに より対応をとることができる。 部分画像照合部 4 5は、 画像変換部 3 5より得ら れる変換された入力画像と各参照画像の部分画像を比較し、 それぞれ平均類似度 を計算し、各物体で最も類似度の大きい参照画像を選出する。結果表示部 8 0は、 当該参照画像の類似度の最も大きい物体を照合結果として表示する。 発明の開示 上述した従来技術においては、 次に述べるような種々の問題点を有している。 第 1に、 上述した第 1及び第 2の従来技術においては、 登録される物体に対し て様々な条件で撮影された多数の参照画像が必要になるという問題点があった。 その理由は、 入力画像と参照面像を直接比較するため、 入力画像の撮影条件が 限定されない場合、 多数の姿勢や照明条件に対応するためには、 予め入力画像の 撮影条件に近い参照画像が用意されている必要があるためである。 し力 し、 実際 には姿勢や照明条件には無限の可能性が存在し、 様々な条件に対応した多数の画 像を予め用意することは現実的に不可能である。
第 2に、 第 2の従来技術では、 入力画像又は参照画像を姿勢が合うように変換 して比較するため、 3次元物体モデルの参照画像の数が十分になかったり、 姿勢 が大きく異なると、 変換による歪みが大きくなり正しく照合できないという問題 を有していた。 また、 変換により照明条件を合わせるのが非常に困難であると共 に、 共通する領域で画像を比較するため、 必ず共通する領域が存在する必要があ るという問題があった。
第 3に、 各従来技術では照合に時間がかかるという問題点があった。
その理由は、 従来技術では、 入力画像と各物体の複数の参照画像を比較するた め、 物体数が M個、 各物体の参照画像数が L個の場合、 少なくとも L X M回の画 像の比較が必要であるためである。
本発明の目的は、 少数の参照画像しか存在しない場合でも、 物体毎に姿勢や照 明の異なる条件で撮影された画像に対し、 入力画像からデータベースに登録して ある参照画像を検索できる画像照合システム、 画像照合方法及ぴ画像照合プログ ラムを提供することにある。
本発明の他の目的は、 入力画像又は参照画像を姿勢が合うように変換するとい つた処理を行うことなく、 少ない 3次元物体モデルの参照画像で照合が行えると 共に、 各画像に共通する領域が必ずしも存在しなくとも照合が行える画像照合シ ステム、 画像照合方法及び画像照合プログラムを提供することにある。
本発明の他の目的は、 全ての物体に対して必ずしもある必要な数の 3次元物体 モデルを生成しなくとも画像の照合が可能な画像照合システム、 画像照合方法及 ぴ画像照合プログラムを提供することにある。
本発明の更に他の目的は、 多数の物体に関する参照画像がデータベースに登録 されている場合でも、 高速に検索できる画像照合システム、 画像照合方法及び画 像照合プログラムを提供することにある。
本発明によれば、 入力画像に類似する参照画像を検索する画像照合システムに おいて、 前記入力画像と複数の代表 3次元物体モデルとを照合する手段と、 前記 参照画像と複数の前記代表 3次元物体モデルとを照合する手段と、 前記入力画像 と複数の前記代表 3次元物体モデルとを照合した結果と、 前記参照画像と複数の 前記代表 3次元物体モデルとを照合した結果とを用いて、 前記入力画像に類似す る前記参照画像を検索する手段と、 を備えることを特徴とする画像照合システム が提供される。
上記の画像照合システムは、 前記入力画像に類似する前記参照画像に対応する 参照 3次元物体モデルを求める手段と、 前記参照 3次元物体モデルと前記入力画 像とを用いて、 前記入力画像に類似する前記参照画像を新たに検索する手段と、 を更に備えていてもよい。
上記の画像照合システムは、 前記入力画像に類似する前記参照画像に対応する 参照 3次元物体モデルを求める手段と、 前記参照 3次元物体モデルに基づいて、 前記入力画像と前記参照画像の両方又はいずれかを変換することにより前記入力 画像と前記参照画像の入力条件を揃える変換手段と、 前記入力条件が揃つた前記 入力画像と前記参照画像とを照合することにより、 前記入力画像に対応する前記 参照画像を検索する手段と、 を更に備えていてもよい。
上記の画像照合システムにおいて、 前記変換手段は、 前記参照画像を予め変換 しておき、前記入力画像の入力条件を前記参照画像の入力条件に合わせてもよレ、。 上記の画像照合システムは、 前記入力画像を入力する画像入力手段と、 複数の 前記代表 3次元物体モデルを記憶する代表 3次元物体モデル記憶部と、 前記代表 3次元物体モデル記憶部に記憶されている複数の前記代表 3次元物体モデルを基 に、 前記入力画像と入力条件が近い比較画像を各代表 3次元物体モデルにつき少 なくとも 1つ生成する画像生成手段と、 前記入力画像と、 前記画像生成手段によ り生成された各比較画像との間の類似度を計算し、 各代表 3次元物体モデルに対 応する比較画像について最大類似度を選出し、 当該最大類似度を前記入力画像と 代表 3次元物体モデルとの間の類似度とする画像照合手段と、 各物体の前記参照 画像を記憶する参照画像記憶部と、 前記参照画像記憶部に記憶されている各参照 画像と、 前記代表 3次元物体モデル記憶部に記憶されている各代表 3次元物体モ デルとの間の類似度を記憶する参照画像照合結果記憶部と、 前記画像照合手段に より計算された前記入力画像と各代表 3次元物体モデルとの間の類似度と、 前記 参照画像照合結果記憶部に記憶されている各参照画像と各代表 3次元物体モデル との間の類俊度とを基に、 前記入力画像に類似する前記参照画像を抽出する結果 照合手段と、 を備えていてもよい。
上記の画像照合システムは、 前記代表 3次元物体モデル記憶部に各代表 3次元 物体モデルを登録する 3次元物体モデル登録手段と、 前記参照画像記憶部に各参 照画像を登録する参照画像登録手段と、 前記 3次元物体モデル登録手段により前 記代表 3次元物体モデル記憶部に新たな代表 3次元物体モデルが登録された時、 又は、 前記参照画像登録手段により前記参照画像記憶部に新たな参照画像が登録 された時に、 登録により新たに生じた参照画像と代表 3次元物体モデルとの組み 合わせに対して、 前記画像照合手段により前記類似度の計算を行い、 該計算の結 果を前記参照画像照合結果記憶部に追加する参照画像照合結果更新手段と、 を更 に備えていてもよい。
上記の画像照合システムにおいて、 前記画像照合手段は、 前記入力画像と代表 3次元物体モデルとの間の類似度を部分領域毎に計算し、 前記参照画像照合結果 記憶部は、 前記参照画像記憶部に記憶されている各参照画像と、 前記代表 3次元 物体キデル記憶部に記憶されている各代表 3次元物体モデルとの間の類似度を部 分領域毎に記憶し、 前記結果照合手段は、 前記画像照合手段により計算された前 記入力画像と各代表 3次元物体モデルとの間の部分領域毎の類似度と、 前記参照 画像照合結果記憶部に記憶されている各参照画像と各代表 3次元物体モデルとの 間の部^ ^域毎の類似度とを基に、 前記入力画像に類似する前記参照画像を抽出 してもよい。
上記の画像照合システムにおいて、 前記結果照合手段は、 前記入力画像と各代 表 3次元物体モデルとの間の類似度と、 各参照画像と各代表 3次元物体モデルと の間の類似度との間の類似度を計算し、 該計算において、 前記入力画像および各 比較画像と各代表 3次元物体モデルとの間の類似度の候捕順位に基づき各類似度 に重み付けをしてもよい。 上記の記載の画像照合システムは、 前記入力画像を入力する画像入力手段と、 複数の前記代表 3次元物体モデルを記憶する代表 3次元物体モデル記憶部と、 前 記代表 3次元物体モデル記憶部に記憶されている複数の前記代表 3次元物体モデ ルを基に、 前記入力画像と入力条件が近い比較画像を各代表 3次元物体モデルに つき少なくとも 1つ生成する画像生成手段と、 前記入力画像と、 前記画像生成手 段により生成された各比較画像との間の類似度を計算し、 各代表 3次元物体モデ ルに対応する比較画像について最大類似度を選出し、 当該最大類 度を前記入力 画像と代表 3次元物体モデルとの間の類似度とする画像照合手段と、 各物体の前 記参照画像を記憶する参照画像記憶部と、 前記参照画像記憶部に記憶されている 各参照画像と、 前記代表 3次元物体モデル記憶部に記憶されている各代表 3次元 物体モデルとの間の類似度を記憶する参照画像照合結果記憶部と、 前記画像照合 手段により計算された前記入力画像と各代表 3次元物体モデルとの間の類似度と、 前記参照画像照合結果記憶部に記憶されている各参照画像と各代表 3次元物体モ デルとの間の類似度とを基に、 前記入力画像に類似する前記参照画像を抽出する 結果照合手段と、 前記参照画像記憶部に記憶されている各参照画像に対応する参 照 3次元物体モデルを記憶する参照 3次元物体モデル記憶部と、 前記結果照合手 段より抽出された各参照画像に対応する各参照 3次元物体モデルを前記参照 3次 元物体モデル記憶部より得て、 得られた各参照 3次元物体モデルを基に、 入力画 像と入力条件の近い第 2の比較画像を各参照 3次元物体モデルにつき少なくとも 1つ生成する第 2の画像生成手段と、 前記入力画像と、 前記第 2の画像生成手段 により生成された各第 2の比較画像との間の類似度を計算し、 各参照 3次元物体 モデルに対応する第 2の比較画像について最大類似度を選出し、 当該最大類似度 を前記入力画像と参照 3次元物体モデルとの間の類似度とする第 2の画像照合手 段と、 を備えていてもよい。
上記の画像照合システムは、 前記代表 3次元物体モデル記憶部に各代表 3次元 物体モデルを登録する 3次元物体モデル登録手段と、 前記参照画像記憶部に各参 照画像を登録する参照画像登録手段と、 前記 3次元物体モデル登録手段により前 記代表 3次元物体モデル記憶部に新たな代表 3次元物体モデルが登録された時、 又は、 前記参照画像登録手段により前記参照画像記憶部に参照画像が登録された 時に、 登録により新たに生じた参照画像と代表 3次元物体モデルとの組み合わせ に対して、 前記画像照合手段により前記類似度の計算を行い、 該計算の結果を前 記参照画像照合結果記憶部に する参照画像照合結果更新手段と、 前記参照画 像照合結果更新手段により参照画像照合結果記憶部に前記参照画像と前記代表 3 次元物体モデルとの間の類似度が登録された時、 該類似度を基に、 当該参照画像 に対応する前記参照 3次元物体モデルを前記代表 3次元物体モデル記憶部に記憶 されている前記代表 3次元物体モデルを合成することにより生成し、 生成された 参照 3次元物体モデルを前記参照 3次元物体モデル記憶部に登録する 3次元物体 モデル生成手段と、 を更に備えていてもよい。
上記の画像照合システムにおいて、 前記 3+次元物体モデル生成手段は、 前記参 照画像記憶部に記憶されている各参照画像と、 前記代表 3次元物体モデル記憶部 に記憶されている各代表 3次元物体モデルとの間の部分領域毎の類似度を基に、 前記代表 3次元物体モデル記憶部に記憶されている代表 3次元物体モデルを部分 領域毎に合成することにより各参照画像に対応する参照 3次元物体モデルを生成 し、 生成された参照 3次元物体モデルを前記参照 3次元物体モデル記憶部に登録 してもよい。
上記の画像照合システムにおいて、 前記画像照合手段は、 前記入力画像と代表 3次元物体モデルとの間の類似度を部分領域毎に計算し、 前記参照画像照合結果 記憶部は、 前記参照画像記憶部に記憶されている各参照画像と、 前記代表 3次元 物体モデノレ記憶部に記憶されている各代表 3次元物体モデルとの間の類似度を部 分領域毎に記憶し、 前記結果照合手段は、 前記画像照合手段により計算された前 記入力画像と各代表 3次元物体モデルとの間の部分領域毎の類似度と、 前記参照 画像照合結果記憶部に記憶されている各参照画像と各代表 3次元物体モデ /レとの 間の部: 9 ^域毎の類似度とを基に、 前記入力画像に類似する前記参照画像を抽出 してもよい。
上記の画像照合システムにおいて、 前記結果照合手段は、 前記入力画像と各代 表 3次元物体モデルとの間の類似度と、 各参照画像と各代表 3次元物体モデルと の間の類似度との間の類似度を計算し、 該計算において、 前記入力画像および各 比較画像と各代表 3次元物体モデルとの間の類似度の候補順位に基づき各類似度 に重み付けをしてもよレ、。
上記の画像照合システムは、 前記入力画像を入力する画像入力手段と、 複数の 前記代表 3次元物体モデルを記憶する代表 3次元物体モデル記憶部と、 前記代表 3次元物体モデル記憶部に記憶されている複数の前記代表 3次元物体モデルを基 に、 前記入力画像と入力条件が近い比較画像を各代表 3次元物体モデルにつき少 なくとも 1つ生成する画像生成手段と、 前記入力画像と、 前記画像生成手段によ り生成された各比較画像との間の類似度を計算し、 各代表 3次元物体モデルに対 応する比較画像について最大類似度を選出し、 当該最大類似度を前記入力画像と 代表 3次元物体モデルとの間の類似度とする画像照合手段と、 各物体の前記参照 画像を記憶する参照画像記憶部と、 前記参照画像記憶部に記憶されている各参照 画像と、 前記代表 3次元物体モデル記憶部に記憶されている各代表 3次元物体モ デルとの間の類似度を記憶する参照画像照合結果記憶部と、 前記画像照合手段に より計算された前記入力画像と各代表 3次元物体モデルとの間の類似度と、 前記 参照画像照合結果記憶部に記憶されている各参照画像と各代表 3次元物体モデル との間の類似度とを基に、 前記入力画像に類似する前記参照画像を抽出する結果 照合手段と、 前記参照画像記憶部に記憶されている各参照画像に対応する参照 3 次元物体モデルを記憶する参照 3次元物体モデル記憶部と、 前記結果照合手段よ り抽出された各参照画像に対応する各参照 3次元物体モデルを前記参照 3次元物 体モデル記憶部より得て、 得られた各参照 3次元物体モデルを基に、 前記入力画 像と前記結果照合手段により抽出された参照画像の両方又はいずれかを変換する ことにより前記入力画像と前記結果照合手段により抽出された前記参照画像の入 力条件を揃え、 入力条件の揃つた前記入力画像と前記参照画像の部分画像をそれ ぞれ生成する画像変換手段と、 前記画像変換手段により生成された前記入力画像 の部分画像と前記参照画像の部分画像との間の類似度を計算する部分画像照合手 段と、 を備えていてもよい。
上記の画像照合システムは、 前記代表 3次元物体モデル記憶部に各代表 3次元 物体モデルを登録する 3次元物体モデル登録手段と、 前記参照画像記憶部に各参 照画像を登録する参照画像登録手段と、 前記 3次元物体モデノレ登録手段により前 記代表 3次元物体モデル記憶部に新たな代表 3次元物体モデ が登録された時、 又は、 前記参照画像登録手段により前記参照画像記憶部に参照画像が登録された 時に、 登録により新たに生じた参照画像と代表 3次元物体モデルとの組み合わせ に対して、 前記画像照合手段により前記類似度の計算を行い、 該計算の結果を前 記参照画像照合結果記憶部に ϋ¾ιする参照画像照合結果更新手段と、 前記参照画 像照合結果更新手段により参照画像照合結果記憶部に前記参照画像と前記代表 3 次元物体モデルとの間の類似度が登録された時、 該類似度を基に、 当該参照画像 に対応する前記参照 3次元物体モデルを前記代表 3次元物体モデル記憶部に記憶 されている前記代表 3次元物体モデルを合成することにより生成し、 生成された 参照 3次元物体モデルを前記参照 3次元物体モデル記憶部に登録する 3次元物体 モデノレ生成手段と、 を更に備えていてもよい。
上記の画像照合システムにおいて、 前記 3次元物体モデル生成手段は、 前記参 照画像記憶部に記憶されている各参照画像と、 前記代表 3次元物体モデル記憶部 に記憶されている各代表 3次元物体モデルとの間の部分領域毎の類似度を基に、 前記代表 3次元物体モデル記憶部に記憶されている代表 3次元物体モデルを部分 領域毎に合成することにより各参照画像に対応する参照 3次元物体モデルを生成 し、 生成された参照 3次元物体モデルを前記参照 3次元物体モデル記憶部に登録 してもよい。
上記の画像照合システムにおいて、 前記画像照合手段は、 前記入力画像と代表 3次元物体モデ /レとの間の類似度を部分領域毎に計算し、 前記参照画像照合結果 記憶部は、 前記参照画像記憶部に記憶されている各参照画像と、 前記代表 3次元 物体モデル記憶部に記憶されている各代表 3次元物体モデルとの間の類似度を部 分領域毎に記憶し、 前記結果照合手段は、 前記画像照合手段により計算された前 記入力画像と各代表 3次元物体モデルとの間の部分領域毎の類似度と、 前記参照 画像照合結果記憶部に記憶されている各参照画像と各代表 3次元物体モデルとの 間の部 域毎の類似度とを基に、 前記入力画像に類似する前記参照画像を抽出 してもよい。
上記の画像照合システムにおいて、 前記結果照合手段は、 前記入力画像と各代 表 3次元物体モデルとの間の類似度と、 各参照画像と各代表 3次元物体モデルと の間の類似度との間の類似度を計算し、 該計算において、 前記入力画像おょぴ各 比較画像と各代表 3次元物体モデルとの間の類似度の候捕順位に基づき各類似度 に重み付けをしてもよい。
上記の画像照合システムにおいて、 前記物体が、 人間の顔であってもよい。 本発明によれば、 次に述べるような効果が達成される。
第 1の効果は、 参照画像が物体毎に 1つ乃至少数しか存在しない場合でも、 姿 勢や照明条件等の異なる入力条件で撮影された物体の入力画像に対し、 同一物体 の参照画像を検索できることである。 また、 入力画像又は参照画像を姿勢が合う ように変換するといった処理を行うことなく、 少ない' 3次元物体モデルの参照画 像で照合が行えると共に、 各画像に共通する領域が必ずしも存在しなくとも照合 が行える。 さらに、 全ての物体に対して必ずしも所定数の 3次元物体モデルを生 成しなくとも画像の照合が可能となる。
その理由は、 入力画像と代表 3次元物体モデルとの照合結果と、 参照画像と代 表 3次元物体モデルとの照合結果の比較により、 参照画像を検索するというよう に構成されているためである。 また、 代表 3次元物体モデルの合成により参照 3 次元物体モデルを生成し照合するというように構成されているためである。 第 2の効果は、 入力画像から高速に参照画像を検索できることにある。
その理由は、 物体数に比べて少数の代表 3次元物体モデルとの照合と、 照合結 果の類似度計算により画像照合するというように構成されているためである。 ま た、 参照 3次元物体モデルとの照合を行う場合も、 代表 3次元物体モデルにより 類似性の高い参照画像を抽出した後、 上位候補に対して参照 3次元物体モデルと の照合を行うとレヽうように構成されているためである。 図面の簡単な説明 第 1図は、 本発明の第 1の実施の形態による画像照合システムの構成を示すブ 口ック図である。
第 2図は、 第 1の実施の形態における照合時の動作を示すフローチヤ一トであ る。
第 3図は、 第 1の実施の形態における代表 3次元物体モデルの具体例を示す図 である。
第 4図は、 第 1の実施の形態における参照画像の具体例を示す図である。 第 5図は、 第 1の実施の形態における参照画像照合結果の具体例を示す図であ る。
第 6図は、 第 1の実施の形態における入力画像の具体例を示す図である。 第 7図は、 第 1の実施の形態における入力画像照合結果の具体例を示す図であ る。
第 8図は、 第 1の実施の形態における結果照合の具体例を示す図である。 第 9図は、 本発明の第 2の実施の形態による画像照合システムの構成を示すブ ロック図である。
第 1 0図は、 第 2の実施の形態における 3次元物体モデル登録時の動作を示す フローチヤ一トである。
第 1 1図は、 第 2の実施の形態における参照画像登録時の動作を示すフローチ ヤートである。
第 1 2図は、 第 2の実施の形態における登録された 3次元物体モデルの照合結 果の具体例を示す図である。
第 1 3図は、 第 2の実施の形態における参照画像照合結果の更新の具体例を示 す図である。
第 1 4図は、 第 2の実施の形態における登録された参照画像の照合結果の具体 例を示す図である。
第 1 5図は、 第 2の実施の形態における参照画像照合結果の更新の具体例を示 す図である。
第 1 6図は、 本発明の第 3の実施の形態による画像照合システムの構成を示す プロック図である。
第 1 7図は、 第 3の実施の形態の照合時の動作を示すフローチャートである。 第 1 8図は、 第 3の実施の形態の参照 3次元物体モデルの具体例を示す図であ る。
第 1 9図は、 第 3の実施の形態の参照画像照合結果の具体例を示す図である。 第 2 0図は、 本発明の第 4の実施の形態による画像照合システムの構成を示す プロック図である。
第 2 1図は、 第 4の実施の形態の 3次元物体モデル登録時の動作を示すフ口一 チヤ一トである。
第 2 2図は、 第 4の実施の形態の参照画像登録時の動作を示すフローチャート である。
第 2 3図は、 本発明の第 5の実施の形態による画像照合システムの構成を示す ブロック図である。
第 2 4図は、 第 5の実施の形態の照合時の動作を示すフローチャートである。 第 2 5図は、 本発明の第 6の実施の形態による画像照合システムの構成を示す ブロック図である。
第 2 6図は、 第 1の従来技術による画像照合システムの構成を示すブロック図 である。
第 2 7図は、 3次元物体モデルの座標の具体例を示す図である。
第 2 8図は、 第 2の従来技術による画像照合システムの構成を示すブロック図 である。
第 2· 9図は、 第 2の従来技術の部分領域の具体例を示す図である。 発明を実施するための最良の形態 以下、 本発明の実施の形態について図面を参照して詳細に説明する。
第 1図を参照すると、 本発明の第 1の実施の形態による画像照合システムは、 画像入力部 1 0と、 画像生成部 3 0と、 画像照合部 4 0と、 結果照合部 6 0と、 結果表示部 8 0と、参照画像記憶部 7 0と、代表 3次元物体モデノレ記憶部 2 0と、 参照画像照合結果記憶部 5 0とを備えている。
代表 3次元物体モデル記憶部 2 0には、 代表的な 3次元物体モデル (物体の 3 次元形状と物体表面のテクスチャ) が登録されている。 3次元物体モデルについ ては、例えば特開 2 0 0 1— 1 2 9 2 5号記載の 3次元形状測定装置を用いたり、 特開平 9— 9 1 4 3 6号記載の多数のカメラで撮影された複数画像から 3次元形 状を復元する装置を用いることにより生成することができる。 3次元物体モデルは、第 2 7図に示すように、物体表面の 3次元空間( X, y, z ) 内での形状 P Q , y , z ) とテクスチャ TQ (R, G, B) を情報として 持っている。 Qは物体表面上の点のインデックスを表し、 例えば物体の重心を中 心とした球体へ物体表面上の点を重心から射影した点 Q ( s, t ) の座標に対応 している。 照合のために、 予め各 3次元物体モデルを使用して、 様々な照明条件 による学習用 C G画像をコンピュータグラフィックスにより生成し、 当該学習用 C G画像を主成分分析することにより基底画像群を求めておく。
画像生成部 3 0は、 代表 3次元物体モデル記憶部 2 0より得られる代表 3次元 物体モデルを基に、 姿勢条件を仮定しながら画像入力部 1 0より得られる入力画 像と照明条件が近い比較画像を複数生成する。 ここで、 入力画像と照明条件が近 い比較画像の生成は、 予め求めておいた基底画像群を仮定した姿勢条件に基づき 座標変換し、 当該座標変換した基底画像の線形和が当該入力画像に近くなるよう に、 線形和の係数を最小二乗法により求めることにより実現できる。
この 3次元物体モデルから入力画像に近レ、比較画像を生成する技術については、 例えば、 2 0 0 1年、 電子情報通信学会技術研究報告 Vol. 101 No. 524 PRMU200 1- 153〜175、 5 9頁〜 6 4頁 「照明条件と姿勢の両者の自動補正による顔照合 J に記載されている。
画像照合部 4 0は、 画像入力部 1 0より得られる入力画像と、 画像生成部 3 0 より得られる各比較画像とを比較し、 入力画像と各比較画像との間の類似度を計 算し、 各物体で最も類似度の大きい比較画像を選出することにより姿勢を推定す る。
参照画像照合結果記憶部 5 0には、 参照画像を記憶するデータベース (D B ) である参照画像記憶部 7 0の各参照画像を入力画像として、 画像生成部 3 0及ぴ 画像照合部 4 0により、 代表 3次元物体モデル記憶部 2 0の各代表 3次元物体モ デルと各参照画像とを照合した結果が予め記憶されている。
結果照合部 6 0は、 画像入力部 1 0より得られる入力画像に対して画像生成部 3 0及び画像照合部 4 0により照合を行つた結果と、 参照画像照合結果記憶部 5 0における各参照画像の照合結果とを比較し、 照合結果の類似する参照画像を類 似度の高い順に抽出する。 結果表示部 8 0は、 当該類似度の最も大きい物体を照 合結果として表示する。
参照画像記憶部 7 0には、 検索対象である物体の 2次元の画像である参照画像 が登録される。 この参照画像は、 その照明や姿勢を含む入力条件に制限がなく、 1つの物体 (検索対象) について少なくとも 1つの画像が登録されている。 代表 3次元物体モデル記憶部 2 0には、 代表的な複数の代表 3次元物体モデル が記憶されている。
次に、 第 1図と、 第 2図のフローチャートを参照して第 1の実施の形態の全体 の動作について詳細に説明する。
入力画像の照合時においては、 まず、 画像入力部 1 0により入力画像が得られ る (第 2図のステップ 1 0 0 )。 次に、画像生成部 3 0は、 代表 3次元物体モデル 記憶部 2 0における各代表 3次元物体モデルに対して、 入力画像と姿勢や照明等 の入力条件の近い、 すなわち比較を行い易い比較画像を生成する (ステップ 1 0 1 )。
更に、 画像照合部 4 0は、 当該入力画像と当該各比較画像との類似度を求める (ステップ 1 0 2 )。結果照合部 6 0は、当該照合結果と参照画像照合結果記憶部 5 0における各参照画像の照合結果との類似度を計算し、 照合結果が類似する参 照画像を類似度の高い順に抽出する (ステップ 1 0 3 )。最後に、類似度の高い当 該参照画像を表示する (ステップ 1 0 4 )。
次に、 上記のように構成され動作する第 1の実施の形態の効果について説明す る。
第 1の実施の形態では、 入力画像と代表 3次元物体モデルとの照合結果と、 参 照画像と代表 3次元物体モデルとの照合結果の比較により、 参照画像を検索する ように構成されているため、 参照画像が物体毎に 1つ乃至少数しか存在しない場 合でも、 姿勢や照明条件の異なる条件で撮影された物体の入力画像に対し、 参照 画像を検索することができる。
また、 本実施の形態では、 更に、 物体数に比べて少数の代表 3次元物体モデル との照合と、 照合結果の類似度計算により画像照合するという構成としているた め、 高速に検索できる。 照合結果の類似度計算にかかる時間は、 画像照合に比べ て短いので、 検索時間は画像照合に数に依存する。 例えば、 代表 3次元物体モデ ルの数 Nが物体数 (参照画像数) Mに対して N=M 1 00の場合、 画像生成部 30において生成される各代表 3次元物体モデルの比較画像が L個とすると、 L X N = L XM/ 1 00回の画像照合で済み、 従来の 1 Z 1 00の照合回数で検索 できる。
更に、 具体的な実施例を示す第 3図〜第 8図を用いて第 1の実施の形態の動作 を説明する。
第 3図に示すように、 代表 3次元物体モデル記憶部 20には、 代表的な代表 3 次元物体モデル Cj ( j - 1, 2, …, N) が N個記憶されている。 また、 第 4図 に示すように、 参照画像記憶部 70には、 各物体の参照画像 Ri ( i = l, 2, …, M) が M個記憶されている (物体毎に複数の参照画像が存在しても構わない 力 ここでは 1個として説明する)。
更に、 第 5図に示すように、 参照画像照合結果記憶部 50には、 参照画像の登 録時の処理により、 各参照画像 Riの代表 3次元物体モデル C jに対する照合結果 (類似度) S i 3が記憶されている(第 5図では類似度の高い順に表示しているが、 実際はモデルの順番に記憶するようにしてもよレ、;)。
入力画像の照合時においては、 第 6図に示すような入力画像 I (u, V) が画 像入力部 1 0により得られたとする (第 2図のステップ 1 00)。次に、画像生成 部 30は、 代表 3次元物体モデル記憶部 20における各代表 3次元物体モデル C , ( j = 1, …, N) に対して、 入力画像の姿勢や照明等の入力条件に近い比較 画像 Gj k (u, v) ( j = 1, …, N、 k = l, …, L) を L個生成する (ステ ップ 1 01)。
更に、画像照合部 40は、当該入力画像 I ( u, V ) と当該各比較画像 G j k (u, v) との類似度 S (I, Gj k) を求め、 代表 3次元物体モデル毎に類似度の最大 となる類 度 So j=maXkS (1, Gj k) を求める (ステップ 1 0 2)。 照合結果 (類似度) S0 jは、 例えば第 7図のようになる。
結果照合部 60は、当該照合結果 S。 jと参照画像照合結果記憶部 50における 各参照画像の照合結果 S i jと
Figure imgf000017_0001
(So j, S H) を計算し、 当該照 合結果の類似度 Diの高い参照画像を順に抽出する (ステップ 103)。 抽出結果 は、 例えば第 8図のようになり、 入力画像と同一物体の画像である可能性が高い 参照画像として、 R5, R2が順に求まる。 最後に、 .類似度の高い当該参照 画像を表示する (ステップ 104)。
ここで、 照合結果の類似度 Di (S。j, S n) の計算方法としては、 正規化相 関や順位相関などが利用できる。 順位相関とは、 照合結果の候捕順位の相関であ る。入力画像の照合結果 S。 jの候補順位を A0 jとすると、第 7図の照合結果の場 合は、 A。,2=l, A。,6=2, A。, 3=3などとなる。 各参照画像の照合結果 S ; 3 の侯捕順位を A とすると、 例えばスピアマンの順位相関は、 1一6∑j (A0j — Aij) V {N (N2-l)} により求められる。
また、 類似度計算においては、 各変数 (S。 3; ].ゃ 0 を変数変換 してから類似度を計算してもよい。 また、 侯補順位 Aoj, Ai3のいずれかまたは 両方に基づいた重み g (AQj, を用いて、 各変数に重み付けをして類似度 を計算してもよい。 例えば、 g (Aoj, Au) =1/ (Aoj+A ) とし、 類似 度 Soj, S を SojZ (Aoj+Ai3), S Z (A0j+A ) に変換すると、 上 位侯補の比重が高くなる。 更に、 下位候補を除外して類似度計算してもよい。 本発明の第 2の実施の形態による画像照合システムについて第 9図以下を参照 して説明する。
本発明の第 2の実施の形態による画像照合システムは、 画像入力部 10と、 画 像生成部 30と、 画像照合部 40と、 結果照合部 60と、 結果表示部 80と、 参 照画像記憶部 70と、 参照画像登録部 75と、 代表 3次元物体モデル記憶部 20 と、 3次元物体モデル登録部 25と、 参照画像照合結果記憶部 50と、 参照画像 照合結果更新部 55とを備えており、 第 1の実施の形態の構成に、 参照画像登録 部 75と、 3次元物体モデル登録部 25と、 参照画像照合結果更新部 55を加え た構成となっている。
第 2の実施の形態による画像照合システムの第 1の実施の形態と同じ構成要素 については説明を省略し、 本実施の形態で追加された構成要素について説明を進 める。
3次元物体モデル登録部 25は、 代表 3次元物体モデル記憶部 20に新しレ、代 表 3次元物体モデル (物体の 3次元形状と物体表面のテクスチャ) を登録する。 参照画像照合結果更新部 55は、 登録時において、 3次元物体モデル登録部 2 5により代表 3次元物体モデル記憶部 2 0に代表 3次元物体モデルが登録された 時、 及び参照画像登録部 7 5により参照画像記憶部 7 0に参照画像が登録された 時、 新しい参照画像と代表 3次元物体モデルの組み合わせに対して、 画像生成部 3 0及び画像照合部 4 0により照合を行い、 当該照合結果を参照画像照合結果記 憶部 5 0に追加する。
参照画像登録部 7 5は、検索対象である物体の 2次元の画像である参照画像を、 参照画像記憶部 7 0に対して登録する。 この登録する参照画像は、 その照明や姿 勢を含む入力条件に制限がなく、 1つの物体 (検索対象) について少なくとも 1 つの画像が登録される。
なお、 3次元物体モデル登録部 2 5は、 第 2 8図に示した第 2の従来技術にお ける 3次元物体モデル登録部 2 5と同一であり、 代表 3次元物体モデル記憶部 2 0には、 予め 3次元物体モデル登録部 2 5より得られる代表 3次元物体モデルが 記憶される。
次に、 第 9図と、 第 2図、 第 1 0図、 第 1 1図のフローチャートを参照して第 2の実施の形態の全体の動作について詳細に説明する。
入力画像の照合時における動作については、 第 1の実施の形態の第 2図に示す 動作と全く同じである。
入力画像の照合時においては、 まず、 画像入力部 1 0により入力画像が得られ る (第 2図のステップ 1 0 0 )。 次に、画像生成部 3 0は、代表 3次元物体モデノレ 記憶部 2 0における各代表 3次元物体モデルに対して、 入力画像と姿勢や照明等 の入力条件の近い、 すなわち比較を行い易い比較画像を生成する (ステップ 1 0 1 )。
更に、 画像照合部 4 0は、 当該入力画像と当該各比較画像との類似度を求める (ステップ 1 0 2 )。結果照合部 6 0は、当該照合結果と参照画像照合結果記憶部 5 0における各参照画像の照合結果との類似度を計算し、 照合結果が類似する参 照画像を類似度の高い順に抽出する (ステップ 1 0 3 )。最後に、類似度の高い当 該参照画像を表示する (ステップ 1 0 4 )。
ここで、 代表 3次元物体モデルの登録時と、 参照画像の登録時における動作に ついて説明する。 代表 3次元物体モデル (物体の 3次元形状と物体表面のテクスチャ) の登録時 においては、 まず、 3次元物体モデル登録部 2 5は、 代表 3次元物体モデル記憶 部 2 0に新しい代表 3次元物体モデルを登録する (第 1 0図のステップ 2 0 0 )。 次に、 参照画像照合結果更新部 5 5は、 参照画像記憶部 7 0における各参照画 像を入力画像として画像入力部 1 0に送り、 当該各参照画像と登録された当該代 表 3次元物体モデルに基づく画像生成部 3 0による比較画像とを画像照合部 4 0 で照合し、各類似度を求める (ステップ 2 0 1 )。最後に、 当該照合結果を参照画 像照合結果記憶部 5 0における各参照画像の照合結果に追加する (ステップ 2 0 2 )。
参照画像の登録時においては、 まず、 参照画像登録部 7 5は、 参照画像記憶部 7 0に新しい参照画像を登録する (第 1 1図のステップ 2 1 0 )。
次に、 参照画像照合結果更新部 5 5は、 参照画像記憶部 7 0に登録された当該 参照画像を入力画像として画像入力部 1 0に送り、 当該参照画像と代表 3次元物 体モデ/レ記憶部 2 0における代表 3次元物体モデルに基づく画像生成部 3 0によ る比較画像とを画像照合部 4 0により照合し、 各類似度を求める (ステップ 2 1 1 )。最後に、 当該照合結果を参照画像照合結果記憶部 5 0に追加する (ステップ 2 1 2 ) o
次に、 上記のように構成され動作する第 2の実施の形態の効果について説明す る。
第 2の実施の形態では、 入力画像と代表 3次元物体モデルとの照合結果と、 参 照画像と代表 3次元物体モデルとの照合結果の比較により、 参照画像を検索する ように構成されているため、 参照画像が物体毎に 1つ乃至少数しか存在しない場 合でも、 姿勢や照明条件の異なる条件で撮影された物体の入力画像に対し、 参照 画像を検索することができる。
また、 本実施の形態では、 更に、 物体数に比べて少数の代表 3次元物体モデル との照合と、 照合結果の類似度計算により画像照合するという構成としているた め、 高速に検索できる。 照合結果の類似度計算にかかる時間は、 画像照合に比べ て短いので、 検索時間は画像照合に数に依存する。 例えば、 代表 3次元物体モデ ルの数 Nが物体数 (参照画像数) Mに対して Ν=ΜΖ 1 0 0の場合、 画像生成部 30において生成される各代表 3次元物体モデルの比較画像が L個とすると、 L XN=L XM/ 100回の画像照合で済み、 従来の 1/1 00の照合回数で検索 できる。
更に、 具体的な実施例を用いて第 2の実施の形態の動作を説明する。
ここでは、 第 1の実施の形態と同様に、 第 3図に示すように、 代表 3次元物体モ デル記憶部 20には、 代表的な代表 3次元物体モデル Cj ( j = 1, 2, …, N) が N個記憶され、 第 4図に示すように、 参照画像記憶部 70には、 各物体の参照 画像 Ri ( i = 1, 2, …, M) が M個記憶されているとする。 第 5図に示すよ うに、 参照画像照合結果記憶部 50には、 参照画像の登録時の処理により、 各参 照画像 1^の代表 3次元物体モデル C jに対する照合結果 (類似度) S! jが記憶さ れている。
入力画像の照合時において、 第 6図に示すような入力画像 I (u, v) が画像 入力部 10により得られたとする (第 2図のステップ 1 00)。次に、画像生成部 30は、 代表 3次元物体モデル記憶部 20における各代表 3次元物体モデル C j (j = 1, …, N) に対して、 入力画像の姿勢や照明等の入力条件に近い比較画 像 G (u, v) ( j = 1, …, N、 k= l, ···, L) を L個生成する (ステツ プ 10 1)。
更に、画像照合部 40は、当該入力画像 I (u, V)と当該各比較画像 Gj k (u, v) との類似度 S (1, Gj k) を求め、 代表 3次元物体モデル毎に類似度の最大 となる類似度 S0 j=maxkS (1, Gj k) を求める (ステップ 1 02)。 照合結果 (類似度) So jは、 例えば第 7図のようになる。
結果照合部 60は、当該照合結果 So jと参照画像照合結果記憶部 50における 各参照画像の照合結果 S i』との類似度 Di = D (So j, S n) を計算し、 当該照 合結果の類似度 Diの高い参照画像を順に抽出する (ステップ 1 03)。 抽出結果 は、 例えば第 8図のようになり、 入力画像と同一物体の画像である可能性が高い 参照画像として、 R5, R2が順に求まる。 最後に、 類似度の高い当該参照 画像を表示する (ステップ 1 04)。
代表 3次元物体モデ/レの登録時においては、 まず、 3次元物体モデル登録部 2 5は、 代表 3次元物体モデル記憶部 20に既に N= 50個の代表 3次元物体モデ ルが登録されている時、 51番目の新しい代表 3次元物体モデル C 5 iを登録する (第 10図のステップ 200)。
次に、 参照画像照合結果更新部 55は、 参照画像記憶部 70における各参照画 像 R iを入力画像として画像入力部 10に送り、 当該各参照画像 R iと登録された 当該代表 3次元物体モデル C 5 ,を画像生成部 30及び画像照合部 40により照 合し、 各類似度31, 51
Figure imgf000022_0001
(Ri5 G51> k) を求める (ステップ 201)。 照合結果 (類似度) Si,51は、 例えば第 12図のようになる。 最後に、 第 13 図に示すように、 当該照合結果を参照画像照合結果記憶部 50における各参照画 像の照合結果に追加する (ステップ 202)。
参照画像の登録時においては、 まず、 参照画像登録部 75は、 参照画像記憶部 70に既に M=l 00個の参照画像が記憶されている時、 101番目の新しい参 照画像 R101を登録する (第 11図のステップ 210)。
次に、 参照画像照合結果更新部 55は、 参照画像記憶部 70に登録された当該 参照画像 R 1。 iを入力画像として画像入力部 10に送り、当該参照画像 R 。 iと代 表 3次元物体モデル記憶部 20における各代表 3次元物体モデル C jを画像生成 部 30及び画像照合部 40により照合し、各類似度
Figure imgf000022_0002
(R101, G j k) を求める (ステップ 21 l)o
照合結果 (類似度) は、 例えば第 14図のようになる。 最後に、 第 1 5図のように、 当該照合結果を参照画像照合結果記憶部 50に追加する (ステツ プ 212)
次に、 本発明の第 3の実施の形態による画像照合システムについて第 16図以 下を参照して詳細に説明する。
第 16図を参照すると、本発明の第 3の実施の形態による画像照合システムは、 画像入力部 10と、 画像生成部 30と、 画像照合部 40と、 結果照合部 60と、 第 2の画像生成部 31と、 第 2の画像照合部 41と、 結果表示部 80と、 参照画 像記憶部 70と、 代表 3次元物体モデル記憶部 20と、 参照画像照合結果記憶部 50と、 参照 3次元物体モデル記憶部 21とを備えている。
これらの部分はそれぞ; M略次のように動作する。 画像入力部 10と、 画像生 成部 30と、 画像照合部 40と、 結果照合部 60と、 結果表示部 80と、 参照画 像記憶部 7 0と、 代表 3次元物体モデル記憶部 2 0は、 第 1図に示した本発明の 第 1の実施の形態における処理と同一の処理を行う。
参照 3次元物体モデル記憶部 2 1には、 当該参照画像に対応する参照 3次元物 体モデノレが登録されている。 当該参照 3次元物体モデルは、 参照画像照合結果記 憶部 5 0に登録されている参照画像照合結果の情報を基に、 代表 3次元物体モデ ル記憶部 2 0における代表 3次元物体モデルの合成により生成することができる。 または、 前述の代表 3次元物体モデルの登録と同様に、 3次元形状測定装置によ り、 参照画像と同じ物体の 3次元物体モデルが生成されている場合は、 当該 3次 元物体モデルを使用してもよい。
第 2の画像生成部 3 1は、 結果照合部 6 0より得られる照合結果の上位候補の 参照画像に対して、 参照 3次元物体モデル記憶部 2 1より得られる当該参照画像 に対応する各参照 3次元物体モデルを基に、 画像入力部 1 0より得られる入力画 像と姿勢や照明条件等の入力条件の近い比較画像を生成する。
第 2の画像照合部 4 1は、 画像入力部 1 0より得られる入力画像と、 第 2の画 像生成部 3 1より得られる各比較画像とを比較し、 それぞれ類似度を計算する。 次に、 第 1 6図と、 第 1 7図のフローチャートを参照して第 3の実施の形態の 全体の動作について詳細に説明する。
入力画像の照合時においては、 第 1 7図を参照すると、 まず、 ステップ 1 0 0 と、 1 0 1と、 1 0 2と、 1 0 3は、 第 2図に示した第 1の実施の形態における 動作と同一である。
第 2の画像生成部 3 1は、 結果照合部 6 0より得られる照合結果の上位候補の 参照画像に対して、 参照 3次元物体モデル記憶部 2 1より得られる当該参照画像 に対応する各参照 3次元物体モデルを基に、 画像入力部 1 0より得られる入力画 像と姿勢や照明条件等の入力条件の近い比較画像を生成する (ステップ 1 1 1 )。 第 2の画像照合部 4 1は、 画像入力部 1 0より得られる入力画像と、 第 2の画 像生成部 3 1より得られる各比較画像とを比較し、それぞれ類似度を計算する(ス テツプ 1 1 2 )。最後に、類似度の高い当該参照画像を表示する(ステップ 1 0 4 )。 次に、 上記のように構成され動作する第 3の実施の形態の効果について説明す る。 この第 3の実施の形態では、 代表 3次元物体モデルの合成により生成した参照 3次元物体モデルを照合するように構成されているため、 参照画像が物体毎に 1 つしか存在しない場合でも、 参照 3次元物体モデルにより姿勢や照明条件等の入 力条件の異なる条件で撮影された物体の入力画像に対し、参照画像を検索できる。 また、 本実施の形態では、 更に、 代表 3次元物体モデルにより類似性の高い参 照画像を抽出した後、 上位候補に対して参照 3次元物体モデルとの照合を行うと いうように構成されているため、 高速に参照画像を検索できる。
次に、 具体的な実施例を用いて第 3の実施の形態の動作を説明する。
第 1の実施の形態の動作と同様、 代表 3次元物体モデル記憶部 20には、 第 3 図に示すような代表 3次元物体モデル Cj (j =l, 2, …, N) ί 参照画像記 憶部 70には、 第 4図に示すような各物体の参照画像 Ri ( i = 1, 2, ···, M) 1 参照画像照合結果記憶部 50には、第 5図に示すような各参照画像 1^の代表 3次元物体モデル Cjに対する照合結果 (類似度) が記憶されている。
更に、 第 18図に示すように、 参照 3次元物体モデル記憶部 21には、 当該参 照画像 に対応する参照 3次元物体モデル B; (i = l, 2, ···, M) が M個記 憶されている。
入力画像の照合時においては、 第 6図に示すような入力画像 I (u, v) が画 像入力部 10により得られたとする. (第 16図のステップ 100)。第 1の実施の 形態の動作と同じ処理により、 画像生成部 30と、 画像照合部 40と、 結果照合 部 60と、 結果照合部 60により、 入力画像と同一物体の画像である可能性が高 い参照画像として、 第 8図のように、 R5, R2が順に求まる (ステップ 1 01, 102, 103)。
第 2の画像生成部 31は、 結果照合部 60より得られる照合結果から、 例えば 上位 3侯捕である R1 R5, R2の参照画像に対して、 参照 3次元物体モデル記 憶部 21より対応する各参照 3次元物体モデル B 15 B 5, B 2を取得し、 画像入 力部 10より得られる入力画像と姿勢や照明条件の近い比較画像 Hj k (u, v) (j =l, 5, 2、 k = l, ···, L) を生成する (ステップ 111)。 比較画像 H jk (u, v) の生成は、 ステップ S 101と同様の方法により行う。 すなわち、 参照 3次元物体モデル記憶部 21における各参照 3次元物体モデル B i ( j = 1, 5, 2)に対して、入力画像の姿勢や照明等の入力条件に近い比較画像 Hj k (u, v) (j =l, 5, 2、 k = l, ···, L) を L個生成する。 第 2の画像照合部 41 は、当該入力画像 I (u, v) と当該各比較画像 Hj k (u, v) との類似度 S (1, Hj k) を求め、 モデル毎に類似度の最大となる類似度 S0j=maXkS (1, Hj k) を求める (ステップ 112)。
照合結果は、 例えば第 19図のようになり、 入力画像と同一物体の画像である 可能性が高い参照画像として、 S05>S01>S02の場合、 R5, R,, R2が順に 求まる。 最後に、 類似度の高い当該参照画像を表示する (ステップ 104)。 次に、 本発明の第 4の実施の形態による画像照合システムについて第 20図以 下を参照して詳細に説明する。
第 20図を参照すると、本努明の第 4の実施の形態による画像照合システムは、 画像入力部 10と、 画像生成部 30と、 画像照合部 40と、 結果照合部 60と、 第 2の画像生成部 31と、 第 2の画像照合部 41と、 結果表示部 80と、 参照画 像記憶部 70と、 参照画像登録部 75と、 代表 3次元物体モデル記憶部 20と、 3次元物体モデル登録部 25と、 参照画像照合結果記憶部 50と、 参照画像照合 結果更新部 55と、 参照 3次元物体モデル記憶部 21と、 3次元物体モデル生成 部 27とを備えている。
この第 4の実施の形態においては、 第 3の実施の形態の構成に、 参照画像登録 部 75と、 3次元物体モデル登録部 25と、 参照画像照合結果更新部 55と、 3 次元物体モデル生成部 27を加えた構成となっている。
第 4の実施の形態による画像照合システムの第 3の実施の形態と同じ構成要素 については説阴を省略し、 本実施の形態で追加された構成要素について説明を進 める。
これらの部分はそれぞ; W略次のように動作する。 画像入力部 10と、 画像生 成部 30と、 画像照合部 40と、 結果照合部 60と、 結果表示部 80と、 参照画 像記憶部 70と、 参照画像登録部 75と、 代表 3次元物体モデル記憶部 20と、 3次元物体モデノレ登録部 25と、 参照画像照合結果更新部 55は、 第 1図に示し た本努明の第 1の実施の形態と第 9図に示した第 2の実施の形態における処理と 同一の処理を行う。 また、 参照 3次元物体モデル記憶部 2 1、 第 2の画像生成部 3 1、 第 2の画像 照合部 4 1については、 第 1 6図に示した第 3の実施の形態における処理と同一 の処理を行う。
3次元物体モデル生成部 2 7は、 登録時において、 参照画像照合結果更新部 5 5により参照画像照合結果記憶部 5 0に参照画像照合結果が登録された時、 参照 画像照合結果の情報を基に、 当該参照画像に対応する参照 3次元物体モデルを代 表 3次元物体モデル記憶部 2 0における代表 3次元物体モデルの合成により生成 し、 当該参照 3次元物体モデルを参照 3次元物体モデル記憶部 2 1に登録し又は 参照 3次元物体モデル記憶部 2 1の参照 3次元物体モデルを更新する。
第 2の画像生成部 3 1は、 結果照合部 6 0より得られる照合結果の上位候補の 参照画像に対して、 参照 3次元物体モデル記憶部 2 1より得られる当該参照画像 に対応する各参照 3次元物体モデルを基に、 画像入力部 1 0より得られる入力画 像と姿勢や照明条件等の入力条件の近い比較画像を生成する。
第 2の画像照合部 4 1は、 画像入力部 1 0より得られる入力画像と、 第 2の画 像生成部 3 1より得られる各比較画像とを比較し、 それぞれ類似度を計算する。 次に、 第 2 0図と、 第 1 7図、 第 2 1図、 第 2 2図のフローチャートを参照し て第 4の実施の形態の全体の動作について詳細に説明する。
入力画像の照合時においては、 第 1 7図を参照すると、 まず、 ステップ 1 0 0 と、 1 0 1と、 1 0 2と、 1 0 3は、 第 2図に示した第 1の実施の形態における 動作と同一である。
第 2の画像生成部 3 1は、 結果照合部 6 0より得られる照合結果の上位侯補の 参照画像に対して、 参照 3次元物体モデル記憶部 2 1より得られる当該参照画像 に対応する各参照 3次元物体モデルを基に、 画像入力部 1 0より得られる入力画 像と姿勢や照明条件等の入力条件の近い比較画像を生成する (ステップ 1 1 1 )。 第 2の画像照合部 4 1は、 画像入力部 1 0より得られる入力画像と、 第 2の画 像生成部 3 1より得られる各比較画像とを比較し、それぞれ類似度を計算する(ス テツプ 1 1 2 )。最後に、類似度の高い当該参照画像を表示する(ステップ 1 0 4 )。
3次元物体モデルの登録時においては、 第 2 1図を参照すると、 まず、 ステツ プ 2 0 0と、 2 0 1と、 2 0 2は、 第 1 0図に示した第 2の実施の形態における 動作と同一である。 最後に、 3次元物体モデル生成部 2 7は、 参照画像照合結果 記憶部 5 0における各参照画像照合結果の情報を基に、 各参照画像に対応する参 照 3次元物体モデルを代表 3次元物体モデル記憶部 2 0における代表 3次元物体 モデルの合成により再生成し、 当該参照 3次元物体モデルを参照 3次元物体モデ ル記憶部 2 1に登録し又は記憶されている参照 3次元物体モデルと置換する (ス テツプ 2 2 0 )。
参照画像の登録時においては、 第 2 2図を参照すると、 まず、 ステップ 2 1 0 と、 2 1 1と、 2 1 2は、 第 1 1図に示した第 2の実施の形態における動作と同 —である。 最後に、 3次元物体モデル生成部 2 7は、 参照画像照合結果記憶部 5 0に新しく登録された当該参照画像照合結果の情報を基に、 当該参照画像に対応 する参照 3次元物体モデルを代表 3次元物体モデル記憶部 2 0における代表 3次 元物体モデルの合成により生成し、 当該参照 3次元物体モデルを参照 3次元物体 モデル記憶部 2 1に追加登録する (ステップ 2 2 1 )。
次に、 上記のように構成され動作する第 4の実施の形態の効果について説明す る。
この第 4の実施の形態では、 代表 3次元物体モデルの合成により参照 3次元物 体モデルを生成し照合するように構成されているため、 参照画像が物体毎に 1つ しか存在しない場合でも、 参照 3次元物体モデルにより姿勢や照明条件等の入力 条件の異なる条件で撮影された物体の入力画像に対し、 参照画像を検索できる。 また、 本実施の形態では、 更に、 代表 3次元物体モデ /レにより類似性の高レ、参 照画像を抽出した後、 上位候補に対して参照 3次元物体モデルとの照合を行うと いうように構成されているため、 高速に参照画像を検索できる。
次に、 具体的な実施例を用いて第 4の実施の形態の動作を説明する。
第 1の実施の形態の動作と同様、 代表 3次元物体モデル記憶部 2 0には、 第 3 図に示すような代表 3次元物体モデル Cj ( j = 1 , 2 , ···, N) I 参照画像記 憶部 7 0には、 第 4図に示すような各物体の参照画像 R i ( i = l, 2 , …, M) 力 参照画像照合結果記憶部 5 0には、第 5図に示すような各参照画像 の代表 3次元物体モデル C jに対する照合結果 (類似度) S が記憶されている。
更に、 第 1 8図に示すように、 参照 3次元物体モデル記憶部 2 1には、 参照画 像の登録時の処理により、 当該参照画像 R;に対応する参照 3次元物体モデル B i (i = l, 2, …, M) が M個記憶されている。
入力画像の照合時においては、 第 6図に示すような入力画像 I (u, v) が画 像入力部 10により得られたとする(第 16図のステップ 100)。第 1の実施の 形態の動作と同じ処理により、 画像生成部 30と、 画像照合部 40と、 結果照合 部 60と、 結果照合部 60により、 入力画像と同一物体の画像である可能性が高 い参照画像として、 第 8図のように、 R5, R2が順に求まる (ステップ 1 01, 102, 103)。
第 2の画像生成部 31は、 結果照合部 60より得られる照合結果から、 例えば 上位 3候補である Rい R5,. R2の参照画像に対して、 参照 3次元物体モデル記 憶部 21より対応する各参照 3次元物体モデル B B5, B2を取得し、 画像入 力部 10より得られる入力画像と姿勢や照明条件の近い比較画像 H3 k (u, v)
( j =1, 5, 2、 k= 1, ···, L) を生成する (ステップ 1 11)。 第 2の画像 照合部 41は、 当該入力画像 I (u, v) と当該各比較画像 Hj k (u, v) との 類似度 S (1, Hj k) を求め、 モデル毎に類似度の最大となる類似度 S0j=max kS (1, Hj k) を求める (ステップ 1 12)。
照合結果は、 例えば第 1 9図のようになり、 入力画像と同一物体の画像である 可能性が高い参照画像として、 R5, Rt, R2が順に求まる。 最後に、 類似度の 高い当該参照画像を表示する (ステップ 104)。
3次元物体モデルの登録時においては、まず、 3次元物体モデル登録部 25は、 代表 3次元物体モデル記憶部 20に既に N= 50個の 3次元物体モデルが登録さ れている時、 51番目の新しい代表 3次元物体モデル C 51を登録する (第 21図 のステップ 200)。
次に、 第 2の実施の形態の動作と同じ処理により、 参照画像照合結果更新部 5 5は、参照画像照合結果記憶部 50における各参照画像の照合結果 S j iを更新す る (ステップ 20 1, 202)。
最後に、 3次元物体モデル生成部 27は、 参照画像照合結果記憶部 50におけ る各参照画像照合結果 Si jの情報を基に、 各参照画像 (i =l, 2, ···, M) に対応する参照 3次元物体モデル B;を代表 3次元物体モデル記憶部 20におけ る代表 3次元物体モデル Cjの合成により再生成し、当該参照 3次元物体モデル B iを参照 3次元物体モデル記憶部 21に既に記憶されている参照 3次元物体モデ ルと置換する (ステップ 220)。
ここで、 代表 3次元物体モデル Cj ( j = 1, 2, …, N) の形状とテクスチャ をそれぞれ PQj (x, y, Z)、 TQj (R, G, B) とし、 参照 3次元物体モデ ル ( i = 1, 2, ···, M) の形状とテクスチャをそれぞれ PQi (x, y, z)、 TQi (R, G, B) とすると、 参照 3次元物体モデルは例えば下式により計算さ れる。
PQi (x, y, z) =∑」 f (Su) PQj (x, y, z)
TQi (R, G, B) =∑j f (S TQj (R, G, B)
ここで、 f は S i 3の増加に対して単調増加し、 f (Sij) = 1を満たす関数 で、 最も単純な例としては f (Sij) =Si5/∑5 により実現できる。
参照画像の登録時においては、 まず、 参照画像登録部 75は、 参照画像記憶部 70に既に M= l 00個の参照画像が記憶されている時、 1 0 1番目の新しレヽ参 照画像 R101を登録する (第 22図のステップ 2 1 0)。
次に、 第 2の実施の形態の動作と同じ処理により、 参照画像照合結果更新部 5 5は、参照画像 R!。丄に対応する照合結果 S 101,3.を参照画像照合結果記憶部 50 に追加する (ステップ 21 1, 2 1 2)。
最後に、 3次元物体モデル生成部 27は、 参照画像照合結果記憶部 5 0におけ る当該参照画像照合結果 S101i jの情報を基に、当該参照画像 R 。 iに対応する参 照 3次元物体モデル B!。 を代表 3次元物体モデル記憶部 20における代表 3次 元物体モデル Cjの合成により生成し、 当該参照 3次元物体モデル B 1。 を参照 3 次元物体モデル記憶部 2 1に追加する (ステップ 22 1)。
次に、 本発明の第 5の実施の形態による画像照合システムについて第 23図以 下を参照して詳細に説明する。
第 23図を参照すると、本発明の第 5の実施の形態による画像照合システムは、 画像入力部 10と、 画像生成部 30と、 画像照合部 40と、 結果照合部 60と、 画像変換部 36と、 部分画像照合部 45と、 結果表示部 80と、 参照画像記憶部 70と、 代表 3次元物体モデル記憶部 20と、 参照画像照合結果記憶部 50と、 参照 3次元物体モデル記憶部 2 1とを備えている。
これらの部分はそれぞれ概略次のように動作する。 画像入力部 1 0と、 画像生 成部 3 0と、 画像照合部 4 0と、 結果照合部 6 0と、 結果表示部 8 0と、 参照画 像記憶部 7 0と、 代表 3次元物体モデル記憶部 2 0は、 第 1図に示した本発明の 第 1の実施の形態における処理と同一の処理を行う。
画像変換部 3 6は、 結果照合部 6 0より得られる照合結果の上位侯捕の参照画 像に対して、 参照 3次元物体モデル記憶部 2 1より得られる当該参照画像に対応 する各参照 3次元物体モデルを基に、 入力条件 (例えば姿勢条件) が同じになる ように、 当該入力画像と当該参照画像の両方又はいずれかを変換することで部分 画像を生成する。 画像変換部 3 6は、 図 2 8に示す第 2の従来技術の画像変換部 3 5と同様なものである。
部分画像照合部 4 5は、 前記画像変換部 3 6より得られる変換された入力画像 と参照画像との部分画像を比較し、 それぞれ類似度を計算する。 類似度の計算は 上述のステップ S 1 0 2と同様に行う。
次に、 第 2 3図及び第 2 4図のフローチャートを参照して第 5の実施の形態の 全体の動作について詳細に説明する。
入力画像の照合時においては、 第 2 4図を参照すると、 まず、 ステップ 1 0 0 と、 1 0 1と、 1 0 2と、 1 0 3は、 第 2図に示した第 1の実施の形態における 動作と同一である。 画像変換部 3 6は、 結果照合部 6 0より得られる照合結果の 上位候補の参照画像に対して、 参照 3次元物体モデル記憶部 2 1より得られる当 該参照画像に対応する各参照 3次元物体モデルを基に、 入力条件 (例えば姿勢条 件) が同じになるように、 当該入力画像と当該参照画像の両方又はいずれかを変 換し部分画像を生成する。 (ステップ 1 2 1 )。
部分画像照合部 4 5は、 前記画像変換部 3 6より得られる変換された入力画像 と参照画像との部分画像を比較し、それぞれ類 iJ¾度を計算する(ステップ 1 2 2 )。 最後に、 類似度の高い当該参照画像を表示する (ステップ 1 0 4 )。
本発明の第 5の実施の形態では、 画像変換部 3 6において、 入力画像と参照画 像の两方又はいずれかを変換するとしているが、 参照画像を予め標準的な入力条 件 (例えば姿勢条件) に変換し記憶しておき、 画像変換部 3 6において入力画像 を標準的な入力条件 (例えば姿勢条件) に変換するようにしてもよい。 こうする ことにより、 照合の度に参照画像を変換する必要が無くなり、 照合時間を短縮さ せることができる。
次に、 本発明の第 6の実施の形態による画像照合システムについて第 2 5図を 参照して詳細に説明する。
第 2 5図を参照すると、本発明の第 6の実施の形態による画像照合システムは、 画像入力部 1 0と、 画像生成部 3 0と、 画像照合部 4 0と、 結果照合部 6 0と、 画像変換部 3 6と、 部分画像照合部 4 5と、 結果表示部 8 0と、 参照画像記憶部 7 0と、 参照画像登録部 7 5と、 代表 3次元物体モデル記憶部 2 0と、 3次元物 体モデル登録部 2 5と、 参照画像照合結果記憶部 5 0と、 参照画像照合結果更新 部 5 5と、 参照 3次元物体モデル記憶部 2 1と、 3次元物体モデル生成部 2 7と を備えている。
これらの部分はそれぞれ概略次のように動作する。 画像入力部 1 0と、 画像生 成部 3 0と、 画像照合部 4 0と、 結果照合部 6 0と、 結果表示部 8 0と、 参照画 像記憶部 7 0と、 参照画像登録部 7 5と、 代表 3次元物体モデノレ記憶部 2 0と、 3次元物体モデル登録部 2 5と、 参照画像照合結果更新部 5 5は、 第 1図に示し た本発明の第 1の実施の形態と第 9図に示した第 2の実施の形態における処理と 同一の処理を行う。
また、 参照 3次元物体モデル記憶部 2 1と、 3次元物体モデ/レ生成部 2 7は、 第 1 6図に示した第 3の実施の形態と第 2 0図に示した本発明の第 4の実施の形 態における処理と同一の処理を行う。
画像変換部 3 6は、 結果照合部 6 0より得られる照合結果の上位候補の参照画 像に対して、 参照 3次元物体モデル記憶部 2 1より得られる当該参照画像に対応 する各参照 3次元物体モデルを基に、 入力条件 (例えば姿勢条件) が同じになる ように、 当該入力画像と当該参照画像の両方又はいずれかを変換することで部分 画像を生成する。 部分画像照合部 4 5は、 前記画像変換部 3 6より得られる変換 された入力画像と参照画像との部分画像を比較し、 それぞれ類似度を計算する。 次に、 第 2 5図及ぴ第 2 4図のフローチャートを参照して第 6の実施の形態の 全体の動作について詳細に説明する。 入力画像の照合時においては、 第 24図を参照すると、 まず、 ステップ 100 と、 101と、 102と、 103は、 第 2図に示した第 1の実施の形態における 動作と同一である。 画像変換部 36は、 結果照合部 60より得られる照合結果の 上位侯補の参照画像に対して、 参照 3次元物体モデル記憶部 21より得られる当 該参照画像に対応する各参照 3次元物体モデルを基に、 入力条件 (例えば姿勢条 件) が同じになるように、 当該入力画像と当該参照画像の両方又はいずれかを変 換し部分画像を生成する。 (ステップ 121)。
部分画像照合部 45は、 前記画像変換部 36より得られる変換された入力画像 と参照画像との部分画像を比較し、それぞれ類似度を計算する(ステップ 122)。 最後に、 類似度の高い当該参照画像を表示する (ステップ 104)。
本発明の第 6の実施の形態では、 画像変換部 36において、 入力画像と参照画 像の両方又はいずれかを変換するとしているが、 参照画像を予め標準的な入力条 件 (例えば姿勢条件) に変換し記憶しておき、 画像変換部 36において入力画像 を標準的な入力条件 (例えば姿勢条件) に変換するようにしてもよい。
本発明の第 1から第 6の実施の形態では、 画像照合部 40において、 入力画像 I (u, v) と各比較画像 Gjk (u, v) との類似度 S (1, Gjk) を求める際、 全体で一つの類似度 S (1, Gik)を求めているが、部分領域 m毎に類似度 S (1, G' jkm) を求め、 モデル毎に類似度の最大となる類似度 S'0jB=niaXkS (1, G , j km) を求めてもよい。
部分領域は、 例えば第 29図に示すような領域である。 この場合、 参照画像照 合結果記憶部 50にも、 部分領域 m毎の類似度 S'ijn=maxkS (Ri5 G' i k を 記憶しておく。 結果照合部 60は、 当該照合結果 S '。 ^ mと参照画像照合結果記憶 部 50における各参照画像の照合結果 S'; jBとの類似度 D^SJD (S'0jm, S' i . を計算し、当該照合結果の類似度 Diの高い参照画像を順に抽出する。また、 第 4及び第 6の 施の形態における 3次元物体モデル生成部 27においても、 各 部分領域毎に代表 3次元物体モデルを合成すればよい。
また、 本発明の第 1から第 6の実施の形態では、 多数の参照画像の中から入力 画像と同一の物体の画像を検索する動作について説明したが、 特定の参照画像に 対して入力画像と同一の物体であるかを判定する一対一照合に適用することも可 能である。
第 1 、 2の実施の形態では、例えば特定の参照画像を 1^とすると、結果照合部 6 0は、 入力画像の照合結果 S。 jと参照画像 の照合結果 Sェ :-との類似度 D 1 =D ( S。j, S x j ) を計算し、 この類似度 があるしきい値より大きければ、 は入力画像と同一物体と判定できる。 また、 第 3、 4及ぴ第 5、 6の実施の形 態では、 第 2の画像照合部 4 1及び部分画像照合部 4 5における入力画像と特定 の参照画像の類似度があるしきい値より大きいかどうかで判定できる。
本発明の画像照合システムは、 構成要素である各部分の機能をハードウエア的 に実現することは勿論として、 上記した各部分の機能をコンピュータに実現させ るための画像照合プログラム 5 0 0をコンピュータが読み込んで実行することに よっても実現することができる。 この画像照合プログラム 5 0 0は、 磁気ディス ク、 半導体メモリその他の記録媒体に格納され、 コンピュータはその記録媒体か ら画像照合プログラム 5 0 0を読み込む。 産業上の利用可能性 本発明は、顔等の画像を用いた人物特定、個人認証等に利用することができる。

Claims

請求の範囲
1 . 入力画像に類似する参照画像を検索する画像照合システムにおいて、 前記入力画像と複数の代表 3次元物体モデルとを照合する手段と、
前記参照画像と複数の前記代表 3次元物体モデルとを照合する手段と、 前記入力画像と複数の前記代表 3次元物体モデルとを照合した結果と、 前記参 照画像と複数の前記代表 3次元物体モデルとを照合した結果とを用いて、 前記入 力画像に類似する前記参照画像を検索する手段と、
を備えることを特徴とする画像照合システム。
2 . 請求項 1に記載の画像照合システムにおいて、
前記入力画像に類俊する前記参照画像に対応する参照 3次元物体モデルを求め る手段と、
前記参照 3次元物体モデルと前記入力画像とを用いて、 前記入力画像に類似す る前記参照画像を新たに検索する手段と、
を更に備えることを特徴とする画像照合システム。
3 . 請求項 1に記載の画像照合システムにおいて、
前記入力画像に類似する前記参照画像に対応する参照 3次元物体モデルを求め る手段と、
前記参照 3次元物体モデルに基づいて、 前記入力画像と前記参照画像の両方又 はいずれかを変換することにより前記入力画像と前記参照画像の入力条件を揃え る変換手段と、
前記入力条件が揃った前記入力画像と前記参照画像とを照合することにより、 前記入力画像に対応する前記参照画像を検索する手段と、
を更に備えることを特徴とする画像照合システム。
4 . 請求項 3に記載の画像照合システムにおいて、
前記変換手段は、 前記参照画像を予め変換しておき、 前記入力画像の入力条件 を前記参照画像の入力条件に合わせることを特徴とする画像照合システム。
5 . 請求項 1に記載の画像照合システムにおいて、
前記入力画像を入力する画像入力手段と、
複数の前記代表 3次元物体モデルを記憶する代表 3次元物体モデル記憶部と、 前記代表 3次元物体モデル記憶部に記憶されている複数の前記代表 3次元物体 モデノレを基に、 前記入力画像と入力条件が近い比較画像を各代表 3次元物体モデ ルにっき少なくとも 1つ生成する画像生成手段と、
前記入力画像と、 前記画像生成手段により生成された各比較画像との間の類俊 度を計算し、 各代表 3次元物体モデルに対応する比較画像について最大類俊度を 選出し、 当該最大類似度を前記入力画像と代表 3次元物体モデルとの間の類似度 とする画像照合手段と、
各物体の前記参照画像を記憶する参照画像記憶部と、
前記参照画像記憶部に記憶されている各参照画像と、 前記代表 3次元物体モデ ル記憶部に記憶されている各代表 3次元物体モデルとの間の類似度を記憶する参 照画像照合結果記憶部と、
前記画像照合手段により計算された前記入力画像と各代表 3次元物体モデルと の間の類似度と、 前記参照画像照合結果記憶部に記憶されている各参照画像と各 代表 3次元物体モデルとの間の類似度とを基に、 前記入力画像に類似する前記参 照画像を抽出する結果照合手段と、
を備えることを特徴とする画像照合システム。
6 . 請求項 5に記載の画像照合システムにおいて、
前記代表 3次元物体モデル記憶部に各代表 3次元物体モデルを登録する 3次元 物体モデル登録手段と、
前記参照画像記憶部に各参照画像を登録する参照画像登録手段と、
前記 3次元物体モデル登録手段により前記代表 3次元物体モデル記憶部に新た な代表 3次元物体モデルが登録された時、 又は、 前記参照画像登録手段により前 記参照画像記憶部に新たな参照画像が登録された時に、 登録により新たに生じた 参照画像と代表 3次元物体モデルとの組み合わせに対して、 前記画像照合手段に より前記類似度の計算を行い、 該計算の結果を前記参照画像照合結果記憶部に追 加する参照画像照合結果更新手段と、
を更に備えることを特徴とする画像照合システム。
7 . 請求項 5に記載の画像照合システムにおいて、
前記画像照合手段は、 tins入力画像と代表 3次元物体モデルとの間の類似度を 部分領域毎に計算し、
前記参照画像照合結果記憶部は、 前記参照画像記憶部に記憶されている各参照 画像と、 前記代表 3次元物体モデル記憶部に記憶されている各代表 3次元物体モ デルとの間の類似度を部^ B域毎に記憶し、
前記結果照合手段は、 前記画像照合手段により計算された前記入力画像と各代表 3次元物体モデルとの間の部^域毎の類似度と、 前記参照画像照合結果記憶部 に記憶されている各参照画像と各代表 3次元物体モデルとの間の部分領域毎の類 似度とを基に、 前記入力画像に類似する前記参照画像を抽出することを特徴とす る画像照合システム。
8 . 請求項 5に記載の画像照合システムにおいて、
前記結果照合手段は、 前記入力画像と各代表 3次元物体モデノレとの間の類似度 と、 各参照画像と各代表 3次元物体モデルとの間の類似度との間の類似度を計算 し、 該計算において、 前記入力画像および各比較画像と各代表 3次元物体モデル との間の類似度の候補順位に基づき各類似度に重み付けをすることを特徴とする 画像照合システム。
9 . 請求項 2に記載の画像照合システムにおいて、
前記入力画像を入力する画像入力手段と、
複数の前記代表 3次元物体モデルを記憶する代表 3次元物体モデル記憶部と、 前記代表 3次元物体モデル記憶部に記憶されている複数の前記代表 3次元物体 モデルを基に、 前記入力画像と入力条件が近い比較画像を各代表 3次元物体モデ ルにっき少なくとも 1つ生成する画像生成手段と、
前記入力画像と、 前記画像生成手段により生成された各比較画像との間の類似 度を計算し、 各代表 3次元物体モデルに対応する比較画像について最大類似度を 選出し、 当該最大類似度を前記入力画像と代表 3次元物体モデルとの間の類似度 とする画像照合手段と、
各物体の前記参照画像を記憶する参照画像記憶部と、
前記参照画像記憶部に記憶されている各参照画像と、 前記代表 3次元物体モデ ル記憶部に記憶されている各代表 3次元物体モデルとの間の類似度を記憶する参 照画像照合結果記憶部と、 tin己画像照合手段により計算された前記入力画像と各代表 3次元物体モデルと の間の類似度と、 前記参照画像照合結果記憶部に記憶されている各参照画像と各 代表 3次元物体モデルとの間の類似度とを基に、 前記入力画像に類似する前記参 照画像を抽出する結果照合手段と、
前記参照画像記憶部に記憶されている各参照画像に対応する参照 3次元物体モ デルを記憶する参照 3次元物体モデル記憶部と、
前記結果照合手段より抽出された各参照画像に対応する各参照 3次元物体モデ ルを前記参照 3次元物体モデル記憶部より得て、 得られた各参照 3次元物体モデ ルを基に、 入力画像と入力条件の近い第 2の比較画像を各参照 3次元物体モデル にっき少なくとも 1つ生成する第 2の画像生成手段と、
前記入力画像と、 前記第 2の画像生成手段により生成された各第 2の比較画像 との間の類似度を計算し、 各参照 3次元物体モデルに対応する第 2の比較画像に ついて最大類似度を選出し、 当該最大類似度を前記入力画像と参照 3次元物体モ デルとの間の類似度とする第 2の画像照合手段と、
を備えることを特徴とする画像照合システム。
1 0 . 請求項 9に記載の画像照合システムにおいて、
前記代表 3次元物体モデル記憶部に各代表 3次元物体モデルを登録する 3次元 物体モデル登録手段と、
前記参照画像記憶部に各参照画像を登録する参照画像登録手段と、
前記 3次元物体モデル登録手段により前記代表 3次元物体モデル記憶部に新た な代表 3次元物体モデルが登録された時、 又は、 前記参照画像登録手段により前 記参照画像記憶部に参照画像が登録された時に、 登録により新たに生じた参照画 像と代表 3次元物体モデルとの組み合わせに対して、 前記画像照合手段により前 記類似度の計算を行い、 該計算の結果を前記参照画像照合結果記憶部に追加する 参照画像照合結果更新手段と、
前記参照画像照合結果更新手段により参照画像照合結果記憶部に前記参照画像 と前記代表 3次元物体モデルとの間の類似度が登録された時、 該類 度を基に、 当該参照画像に対応する前記参照 3次元物体モデルを前記代表 3次元物体モデル 記憶部に記憶されている前記代表 3次元物体モデルを合成することにより生成し、 生成された参照 3次元物体モデルを前記参照 3次元物体モデル記憶部に登録する 3次元物体モデル生成手段と、
を更に備えることを特徴とする画像照合システム。
1 1 . 請求項 1 0に記載の画像照合システムにおいて、 .
前記 3次元物体モデル生成手段は、 前記参照画像記憶部に記憶されている各参 照画像と、 前記代表 3次元物体モデル記憶部に記憶されている各代表 3次元物体 モデルとの間の部分領域毎の類似度を基に、 前記代表 3次元物体モデル記憶部に 記憶されている代表 3次元物体モデルを部^ 1g域毎に合成することにより各参照 画像に対応する参照 3次元物体モデルを生成し、 生成された参照 3次元物体モデ ルを前記参照 3次元物体モデル記憶部に登録することを特徴とする画像照合シス テム。
1 2 . 請求項 9に記載の画像照合システムにおいて、
前記画像照合手段は、 前記入力画像と代表 3次元物体モデルとの間の類似度を 部^ 域毎に計算し、
前記参照画像照合結果記憶部は、 前記参照画像記憶部に記憶されている各参照 画像と、 前記代表 3次元物体モデル記憶部に記憶されている各代表 3次元物体モ デルとの間の類似度を部分領域毎に記憶し、
前記結果照合手段は、 前記画像照合手段により計算された前記入力画像と各代 表 3次元物体モデルとの間の部分領域毎の類似度と、 前記参照面像照合結果記憶 部に記憶されている各参照画像と各代表 3次元物体モデルとの間の部分領域毎の 類似度とを基に、 前記入力画像に類似する前記参照画像を抽出することを特徴と する画像照合システム。
1 3 . 請求項 9に記載の画像照合システムにおいて、
前記結果照合手段は、 前記入力画像と各代表 3次元物体モデルとの間の類似度 と、 各参照画像と备代表 3次元物体モデルとの間の類似度との間の類 度を計算 し、 該計算において、 前記入力画像および各比較画像と各代表 3次元物体モデル との間の類似度の侯補順位に基づき各類似度に重み付けをすることを特徴とする 画像照合システム。
1 4 . 請求項 3に記载の画像照合システムにおいて、 前記入力画像を入力する画像入力手段と、
複数の前記代表 3次元物体モデルを記憶する代表 3次元物体モデル記憶部と、 前記代表 3次元物体モデル記憶部に記憶されている複数の前記代表 3次元物体 モデルを基に、 前記入力画像と入力条件が近い比較画像を各代表 3次元物体モデ ルにっき少なくとも 1つ生成する画像生成手段と、
前記入力画像と、 前記画像生成手段により生成された各比較画像との間の類似 度を計算し、 各代表 3次元物体モデルに対応する比較画像について最大類似度を 選出し、 当該最大類似度を前記入力画像と代表 3次元物体モデルとの間の類似度 とする画像照合手段と、
各物体の前記参照画像を記憶する参照画像記憶部と、
前記参照画像記憶部に記憶されている各参照画像と、 前記代表 3次元物体モデ ル記憶部に記憶されている各代表 3次元物体モデルとの間の類似度を記憶する参 照画像照合結果記憶部と、
前記画像照合手段により計算された前記入力画像と各代表 3次元物体モデルと の間の類似度と、 前記参照画像照合結果記憶部に記憶されている各参照画像と各 代表 3次元物体モデルとの間の類似度とを基に、 前記入力画像に類似する前記参 照画像を抽出する結果照合手段と、
前記参照画像記憶部に記憶されている各参照画像に対応する参照 3次元物体モ デルを記憶する参照 3次元物体モデル記憶部と、
前記結果照合手段より抽出された各参照画像に対応する各参照 3次元物体モデ ルを前記参照 3次元物体モデル記憶部より得て、 得られた各参照 3次元物体モデ ルを基に、 前記入力画像と前記結果照合手段により抽出された参照画像の両方又 はレ、ずれかを変換することにより前記入力画像と前記結果照合手段により抽出さ れた前記参照画像の入力条件を揃え、 入力条件の揃つた前記入力画像と前記参照 画像の部分画像をそれぞれ生成する画像変換手段と、
前記画像変換手段により生成された前記入力画像の部分画像と前記参照画像の 部分画像との間の類似度を計算する部分画像照合手段と、
を備えることを特徴とする画像照合システム。
1 5 . 請求項 1 4に記載の画像照合システムにおいて、 前記代表 3次元物体モデル記憶部に各代表 3次元物体モデルを登録する 3次元 物体モデル登録手段と、
前記参照画像記憶部に各参照画像を登録する参照画像登録手段と、
前記 3次元物体モデル登録手段により前記代表 3次元物体モデル記憶部に新た な.代表 3次元物体モデルが登録された時、 又は、 前記参照画像登録手段により前 記参照画像記憶部に参照画像が登録された時に、 登録により新たに生じた参照画 像と代表 3次元物体モデルとの組み合わせに対して、 前記画像照合手段により前 記類似度の計算を行い、 該計算の結果'を前記参照画像照合結果記憶部に追加する 参照画像照合結果更新手段と、 '
前記参照画像照合結果更新手段により参照画像照合結果記憶部に前記参照画像 と前記代表 3次元物体モデルとの間の類似度が登録された時、 該類似度を基に、 当該参照画像に対応する前記参照 3次元物体モデルを前記代表 3次元物体モデル 記憶部に記憶されている前記代表 3次元物体モデルを合成することにより生成し、 生成された参照 3次元物体モデルを前記参照 3次元物体モデル記憶部に登録十る 3次元物体モデル生成手段と、
を更に備えることを特徴とする画像照合システム。
1 6 . 請求項 1 5に記載の画像照合システムにおいて、
前記 3次元物体モデル生成手段は、 前記参照画像記憶部に記憶されている各参 照画像と、 前記代表 3次元物体モデル記憶部に記憶されている各代表 3次元物体 モデルとの間の部分領域毎の類似度を基に、 前記代表 3次元物体モデル記憶部に 記憶されている代表 3次元物体モデルを部^ S域毎に合成することにより各参照 画像に対応する参照 3次元物体モデルを生成し、 生成された参照 3次元物体モデ ルを前記参照 3次元物体モデル記憶部に登録することを特徴とする画像照合シス テム。
1 7 . 請求項 1 4に記載の画像照合システムにおいて、
前記画像照合手段は、 前記入力画像と代表 3次元物体モデルとの間の類似度を 部分領域毎に計算し、
前記参照画像照合結果記憶部は、 前記参照画像記憶部に記憶されている各参照 画像と、 前記代表 3次元物体モデル記憶部に記憶されている各代表 3次元物体モ デルとの間の類似度を部: 9ϋ域毎に記憶し、
前記結果照合手段は、 前記画像照合手段により計算された前記入力画像と各代 表 3次元物体モデルとの間の部分領域毎の類似度と、 前記参照画像照合結果記憶 部に記憶されている各参照画像と各代表 3次元物体モデルとの間の部 貝域毎の 類似度とを基に、 前記入力画像に類 {Κする前記参照画像を抽出することを特徴と する画像照合システム。
1 8. 請求項 1 4に記載の画像照合システムにおいて、
前記結果照合手段は、 前記入力画像と各代表 3次元物体モデルとの間の類似度 と、 各参照画像と各代表 3次元物体モデルとの間の類似度との間の類似度を計算 し、 該計算において、 前記入力画像および各比較画像と各代表 3次元物体モデル との間の類似度の候補順位に基づき各類似度に重み付けをすることを特徴とする 画像照合システム。
1 9. 請求項 1に記載の画像照合システムにおいて、 前記物体が、 人間の顏であ ることを特徴とする画像照合システム。
2 0 . 入力画像に類似する参照画像を検索する画像照合方法において、
前記入力画像と複数の代表 3次元物体モデルとを照合するステツプと、 : 前記参照画像と複数の前記代表 3次元物体モデルとを照合するステップと、 前記入力画像と複数の前記代表 3次元物体モデルとを照合した結果と、 前記参 照画像と複数の前記代表 3次元物体モデルとを照合した結果とを用いて、 前記入 力画像に類似する前記参照画像を検索するステップと、
を備えることを特徴とする画像照合方法。
2 1 . 請求項 2 0に記載の画像照合方法において、
前記入力画像に類似する前記参照画像に対応する参照 3次元物体モデルを求め るステップと、
前記参照 3次元物体モデルと前記入力画像とを用いて、 前記入力画像に類似す る前記参照画像を新たに検索するステップと、
を更に備えることを特徴とする画像照合方法。
2 2. 請求項 2 0に記載の画像照合方法において、
前記入力画像に類似する前記参照画像に対応する参照 3次元物体モデルを求め るステップと、
前記参照 3次元物体モデルに基づいて、 前記入力画像と前記参照画像の両方又 はレヽずれかを変換することにより前記入力画像と前記参照画像の入力条件を揃え る変換ステップと、
前記入力条件が揃つた前記入力画像と前記参照画像とを照合することにより、 前記入力画像に対応する前記参照画像を検索するステップと、
を更に備えることを特徴とする画像照合方法。
2 3 . 請求項 2 2に記載の画像照合方法において、
前記変換ステップは、 前記参照画像を予め変換しておき、 前記入力画像の入力 条件を前記参照画像の入力条件に合わせることを特徴とする画像照合方法。
2 4 . 請求項 2 0に記載の画像照合方法において、
前記入力画像を入力する画像入力ステップと、
複数の前記代表 3次元物体モデルを代表 3次元物体モデル記憶部に記憶するス テツプと、
前記代表 3次元物体モデル記憶部に記憶されている複数の前記代表 3次元物体 モデルを基に、 前記入力画像と入力条件が近い比較画像を各代表 3次元物体モデ ルにっき少なくとも 1つ生成する画像生成ステップと、
前記入力画像と、 前記画像生成ステツプにより生成された各比較画像との間の 類似度を計算し、 各代表 3次元物体モデルに対応する比較画像について最大類似 度を選出し、 当該最大類似度を前記入力画像と代表 3次元物体モデルとの間の類 似度とする画像照合ステツプと、
各物体の前記参照画像を参照画像記憶部に記憶するステップと、
前記参照画像記憶部に記憶されている各参照画像と、 前記代表 3次元物体モデ ル記憶部に記憶されている各代表 3次元物体モデルとの間の類似度を参照画像照 合結果記憶部に記憶するステップと、
前記画像照合ステツプにより計算された前記入力画像と各代表 3次元物体モデ ルとの間の類似度と、 前記参照画像照合結果記憶部に記憶されている各参照画像 と各代表 3次元物体モデルとの間の類似度とを基に、 前記入力画像に類似する前 記参照画像を抽出する結果照合ステップと、 を備えることを特徴とする画像照合方法。
2 5 . 請求項 2 4に記載の画像照合方法において、
前記代表 3次元物体モデル記憶部に各代表 3次元物体モデルを登録する 3次元 物体モデル登録ステツプと、
前記参照画像記憶部に各参照画像を登録する参照画像登録ステツプと、 前記 3次元物体モデル登録ステツプにより前記代表 3次元物体モデル記憶部に 新たな代表 3次元物体モデルが登録された時、 又は、 前記参照画像登録ステップ により前記参照画像記憶部に新たな参照画像が登録された時に、 登録により新た に生じた参照画像と代表 3次元物体モデルとの組み合わせに対して、 前記画像照 合ステップにより前記類似度の計算を行い、 該計算の結果を前記参照画像照合結 果記憶部に追加する参照画像照合結果更新ステツプと、
を更に備えることを特徴とする画像照合方法。
2 6 . 請求項 2 4に記載の画像照合方法において、
前記画像照合ステツプは、 前記入力画像と代表 3次元物体モデルとの間の類似 度を部分領域毎に計算し、
前記参照画像照合結果記憶部は、 前記参照画像記憶部に記憶されている各参照 画像と、 前記代表 3次元物体モデル記憶部に記憶されている各代表 3次元物体モ デルとの間の類 度を部分領域毎に記憶し、
前記結果照合ステップは、 前記画像照合手段により計算された前記入力画像と 各代表 3次元物体モデ /レとの間の部 ¾U域毎の類 ί以度と、 前記参照画像照合結果 記憶部に記憶されている各参照画像と各代表 3次元物体モデルとの間の部分領域 毎の類似度とを基に、 前記入力画像に類似する前記参照画像を抽出することを特 徴とする画像照合方法。
2 7 . 請求項 2 4に記載の画像照合方法において、
前記結果照合ステツプは、 前記入力画像と各代表 3次元物体モデルとの間の類 似度と、 各参照画像と各代表 3次元物体モデルとの間の類似度との間の類似度を 計算し、 該計算において、 前記入力画像おょぴ各比較画像と各代表 3次元物体モ デルとの間の類似度の侯補順位に基づき各類似度に重み付けをすることを特徴と する画像照合方法。
2 8 . 請求項 2 1に記載の画像照合方法において、
前記入力画像を入力する画像入力ステップと、
複数の前記代表 3次元物体モデルを代表 3次元物体モデル記憶部に記憶するス テツプと、
前記代表 3次元物体モデル記憶部に記憶されている複数の前記代表 3次元物体 モデルを基に、 前記入力画像と入力条件が近い比較画像を各代表 3次元物体モデ ルにっき少なくとも 1つ生成する画像生成ステツプと、
前記入力画像と、 前記画像生成ステップにより生成された各比較画像との間の 類似度を計算し、 各代表 3次元物体モデルに対応する比較画像について最大類似 度を選出し、 当該最大類似度を前記入力画像と代表 3次元物体モデルとの間の類 似度とする画像照合ステップと、
各物体の前記参照画像を参照画像記憶部に記憶するステツプと、
前記参照画像記憶部に記憶されている各参照画像と、 前記代表 3次元物体モデ ル記憶部に記憶されている各代表 3次元物体モデルとの間の類似度を参照画像照 合結果記憶部に記憶するステップと、
前記画像照合ステツプにより計算された前記入力画像と各代表 3次元物体モデ ルとの間の類似度と、 前記参照画像照合結果記憶部に記憶されている各参照画像 と各代表 3次元物体モデルとの間の類似度とを基に、 前記入力画像に類似する前 記参照画像を抽出する結果照合ステップと、
前記参照画像記憶部に記憶されている各参照画像に対応する参照 3次元物体モ デルを参照 3次元物体モデル記憶部に記憶するステップと、
前記結果照合ステップより抽出された各参照画像に対応する各参照 3次元物体 モデルを前記参照 3次元物体モデル記憶部より得て、 得られた各参照 3次元物体 モデノレを基に、 入力画像と入力条件の近い第 2の比較画像を各参照 3次元物体モ デルにつき少なくとも 1つ生成する第 2の画像生成ステップと、
前記入力画像と、 前記第 2の画像生成ステップにより生成された各第 2の比較 画像との間の類似度を計算し、 各参照 3次元物体モデルに対応する第 2の比較画 像について最大類似度を選出し、 当該最大類似度を前記入力画像と参照 3次元物 体モデルとの間の類似度とする第 2の画像照合ステップと、 を備えることを特徴とする画像照合方法。
2 9 . 請求項 2 8に記載の画像照合方法において、
前記代表 3次元物体モデル記憶部に各代表 3次元物体モデルを登録する 3次元 物体モデノレ登録ステツプと、
前記参照画像記憶部に各参照画像を登録する参照画像登録ステツプと、 前記 3次元物体モデル登録ステップにより前記代表 3次元物体モデル記憶部に 新たな代表 3次元物体モデルが登録された時、 又は、 前記参照画像登録ステップ により前記参照画像記憶部に参照画像が登録された時に、 登録により新たに生じ た参照画像と代表 3次元物体モデルとの組み合わせに対して、 前記画像照合ステ ップにより前記類似度の計算を行い、 該計算の結果を前記参照画像照合結果記憶 部に追加する参照画像照合結果更新ステツプと、
前記参照画像照合結果更新ステップにより参照画像照合結果記憶部に前記参照 画像と前記代表 3次元物体モデルとの間の類似度が登録された時、 該類似度を基 に、 当該参照画像に対応する前記参照 3次元物体モデルを前記代表 3次元物体モ デル記憶部に記憶されている前記代表 3次元物体モデルを合成することにより生 成し、 生成された参照 3次元物体モデルを前記参照 3次元物体モデル記憶部に登 録する 3次元物体モデル生成ステップと、
を更に備えることを特徴とする画像照合方法。 .
3 0 . 請求項 2 9に記載の画像照合方法において、
前記 3次元物体モデル生成ステップは、 前記参照画像記憶部に記憶されている 各参照画像と、 前記代表 3次元物体モデル記憶部に記憶されている各代表 3次元 物体モデルとの間の類似度を基に、 前記代表 3次元物体モデル記憶部に記憶され ている代表 3次元物体モデルを部分領域毎に合成することにより各参照画像に対 応する参照 3次元物体モデルを生成し、 生成された参照 3次元物体モデルを前記 参照 3次元物体モデル記憶部に登録することを特徴とする画像照合方法。
3 1 . 請求項 2 8に記載の画像照合方法において、
前記画像照合ステップは、 前記入力画像と代表 3次元物体モデルとの間の類似 度を部分領域毎に計算し、
前記参照画像照合結果記憶部は、 前記参照画像記憶部に記憶されている各参照 画像と、 前記代表 3次元物体モデル記憶部に記憶されている各代表 3次元物体モ デルとの間の類似度を部^ S域毎に記憶し、
前記結果照合ステップは、 前記画像照合手段により計算された前記入力画像と 各代表 3次元物体モデルとの間の部^ g域毎の類似度と、 前記参照画像照合結果 記憶部に記憶されている各参照画像と各代表 3次元物体モデルとの間の部: 域 毎の類似度とを基に、 前記入力画像に類似する前記参照画像を抽出することを特 徴とする画像照合方法。
3 2 . 請求項 2 8に記載の画像照合方法において、
前記結果照合ステップは、 前記入力画像と各代表 3次元物体モデルとの間の類 似度と、 各参照画像と各代表 3次元物体モデルとの間の類似度との間の類似度を 計算し、 該計算において、 前記入力画像および各比較画像と各代表 3次元物体モ デルとの間の類似度の候捕順位に基づき各類似度に重み付けをすることを特徴と する画像照合方法。
3 3 . 請求項 2 2に記載の画像照合方法において、
前記入力画像を入力する画像入力ステップと、
複数の前記代表 3次元物体モデルを代表 3次元物体モデル記憶部に記憶するス テツプと、
前記代表 3次元物体モデル記憶部に記憶されている複数の前記代表 3次元物体 モデルを基に、 前記入力画像と入力条件が近い比較画像を各代表 3次元物体モデ ルにつき少なくとも 1つ生成する画像生成ステツプと、
前記入力画像と、 前記画像生成手段により生成された各比較画像との間の類似 度を計算し、 各代表 3次元物体モデノレに対応する比較画像について最大類似度を 選出し、 当該最大類似度を前記入力画像と代表 3次元物体モデルとの間の類似度 とする画像照合ステップと、
各物体の前記参照画像を参照画像記憶部に記憶するステップと、
前記参照画像記憶部に記憶されている各参照画像と、 前記代表 3次元物体モデ ル記憶部に記憶されている各代表 3次元物体モデルとの間の類似度を参照画像照 合結果記憶部に記憶するステップと、
前記画像照合ステツプにより計算された前記入力画像と各代表 3次元物体モデ ルとの間の類似度と、 前記参照画像照合結果記憶部に記憶されている各参照画像 と各代表 3次元物体モデノレとの間の類似度とを基に、 前記入力画像に類似する前 記参照画像を抽出する結果照合ステップと、
前記参照画像記憶部に記憶されている各参照画像に対応する参照 3次元物体モ デルを参照 3次元物体モデル記憶部に記憶するステップと、
前記結果照合ステップより抽出された各参照画像に対応する各参照 3次元物体 モデルを前記参照 3次元物体モデル記憶部より得て、 得られた各参照 3次元物体 モデ /レを基に、 前記入力画像と前記結果照合ステップにより抽出された参照画像 の両方又はいずれかを変換することにより前記入力画像と前記結果照合ステップ により抽出された前記参照画像の入力条件を揃え、 入力条件の揃った前記入力画 像と前記参照画像の部分画像をそれぞれ生成する画像変換ステツプと、
前記画像変換ステップにより生成された前記入力画像の部分画像と前記参照画 像の部分画像との間の類似度を計算する部分画像照合ステツプと、
を備えることを特徴とする画像照合方法。
3 4. 請求項 3 3に記載の画像照合方法において、
前記代表 3次元物体モデル記憶部に各代表 3次元物体モデルを登録する 3次元 物体モデル登録ステツプと、
前記参照画像記憶部に各参照画像を登録する参照画像登録ステツプと、 前記 3次元物体モデル登録ステツプにより前記代表 3次元物体モデル記憶部に 新たな代表 3次元物体モデルが登録された時、 又は、 前記参照画像登録ステップ により前記参照画像記憶部に参照画像が登録された時に、 登録により新たに生じ た参照画像と代表 3次元物体モデルとの組み合わせに対して、 前記画像照合ステ ップにより前記類似度の計算を行い、 該計算の結果を前記参照画像照合結果記憶 部に追加する参照画像照合結果更新ステツプと、
前記参照画像照合結果更新ステツプにより参照画像照合結果記憶部に前記参照 画像と前記代表 3次元物体モデルとの間の類似度が登録された時、 該類似度を基 に、 当該参照画像に対応する前記参照 3次元物体モデルを前記代表 3次元物体モ デル記憶部に記憶されている前記代表 3次元物体モデルを合成することにより生 成し、 生成された参照 3次元物体モデルを前記参照 3次元物体モデル記憶部に登 録する 3次元物体モデル生成ステップと、
を更に備えることを特徴とする画像照合方法。
3 5 . 請求項 3 4に記載の画像照合方法において、
前記 3次元物体モデル生成ステップは、 前記参照画像記憶部に記憶されている 各参照画像と、 前記代表 3次元物体モデル記憶部に記憶されている各代表 3次元 物体モデルとの間の類似度を基に、 前記代表 3次元物体モデル記憶部に記憶され ている代表 3次元物体モデルを部: ¾1S域毎に合成することにより各参照画像に対 応する参照 3次元物体モデルを生成し、 生成された参照 3次元物体モデルを前記 参照 3次元物体モデル記憶部に登録することを特徵とする画像照合方法。
3 6 . 請求項 3 3に記載の画像照合方法において、
前記画像照合ステップは、 前記入力画像と代表 3次元物体モデルとの間の類似 度を部分領域毎に計算し、
前記参照画像照合結果記憶部は、 前記参照画像記憶部に記憶されている各参照 画像と、 前記代表 3次元物体モデル記憶部に記憶されている各代表 3次元物体モ デルとの間の類似度を部分領域毎に記憶し、
前記結果照合ステップは、 前記画像照合ステップにより計算された前記入力画 像と各代表 3次元物体モデルとの間の部; 9 ^域毎の類似度と、 前記参照画像照合 結果記憶部に記憶されている各参照画像と各代表 3次元物体モデルとの間の部分 領域毎の類似度とを基に、 前記入力画像に類 ί¾する前記参照画像を抽出すること を特徴とする画像照合方法。
3 7 . 請求項 3 3に記載の画像照合方法において、
前記結果照合ステップは、 前記入力画像と各代表 3次元物体モデルとの間の類 似度と、 各参照画像と各代表 3次元物体モデルとの間の類似度との間の類似度を 計算し、 該計算において、 前記入力画像および各比較画像と各代表 3次元物体モ デルとの間の類似度の候補順位に基づき各類似度に重み付けをすることを特徴と する画像照合方法。
3 8 . 請求項 2 0に記載の画像照合方法において、 前記物体が、 人間の顔である ことを特徴とする画像照合方法。
3 9 . 入力画像に類似する参照画像を検索する画像照合方法をコンピュータに実 行させるための画像照合プログラムにおいて、
前記画像照合方法は、
前記入力画像と複数の代表 3次元物体モデルとを照合するステップと、 前記参照画像と複数の前記代表 3次元物体モデルとを照合するステップと、 前記入力画像と複数の前記代表 3次元物体モデルとを照合した結果と、 前記参 照画像と複数の前記代表 3次元物体モデルとを照合した結果とを用いて、 前記入 力画像に類似する前記参照画像を検索するステップと、
を備えることを特徴とする画像照合プログラム。
4 0 . 請求項 3 9に記載の画像照合プログラムにおレヽて、
前記画像照合方法は、
前記入力画像に類似する前記参照画像に対応する参照 3次元物体モデルを求め るステップと、
前記参照 3次元物体モデノレと前記入力画像とを用いて、 前記入力画像に類似す る前記参照画像を新たに検索するステップと、
を更に備えることを特徴とする画像照合プロダラム。
4 1 . 請求項 3 9に記載の画像照合プログラムにおいて、
前記画像照合方法は、
前記入力画像に類似する前記参照画像に対応する参照 3次元物体モデルを求め るステップと、
前記参照 3次元物体モデノレに基づいて、 前記入力画像と前記参照画像の両方又 はいずれかを変換することにより前記入力画像と前記参照画像の入力条件を揃え る変換ステップと、
前記入力条件が揃った前記入力画像と前記参照画像とを照合することにより、 前記入力画像に対応する前記参照画像を検索するステップと、
を更に備えることを特徴とする画像照合プログラム。
4 2. 請求項 4 1に記載の画像照合プログラムにおいて、
前記変換ステップは、 前記参照画像を予め変換しておき、 前記入力画像の入力 条件を前記参照画像の入力条件に合わせることを特徴とする画像照合プログラム。
4 3 . 請求項 3 9に記載の画像照合プログラムにおいて、 前記画像照合方法は、
ΙΐΠ己入力画像を入力する画像入力ステップと、
複数の前記代表 3次元物体モデルを代表 3次元物体モデル記憶部に記憶するス テツプと、
前記代表 3次元物体モデル記憶部に記憶されている複数の前記代表 3次元物体 モデ /レを基に、 前記入力画像と入力条件が近い比較画像を各代表 3次元物体モデ ルにっき少なくとも 1つ生成する画像生成ステップと、
前記入力画像と、 前記画像生成ステップにより生成された各比較画像との間の 類似度を計算し、 各代表 3次元物体モデルに対応する比較画像について最大類似 度を選出し、 当該最大類似度を前記入力画像と代表 3次元物体モデルとの間の類 似度とする画像照合ステップと、
各物体の前記参照画像を参照画像記憶部に記憶するステップと、
前記参照画像記憶部に記憶されている各参照画像と、 前記代表 3次元物体モデ ル記憶部に記憶されている各代表 3次元物体モデルとの間の類似度を参照画像照 合結果記憶部に記憶するステップと、
前記画像照合ステツプにより計算された前記入力画像と各代表 3次元物体モデ ルとの間の類俊度と、 前記参照画像照合結果記憶部に記憶されてレヽる各参照画像 と各代表 3次元物体モデルとの間の類似度とを基に、 前記入力画像に類似する前 記参照画像を抽出する結果照合ステツプと、
を備えることを特徴とする画像照合プログラム。
4 4 . 請求項 4 3に記載の画像照合プログラムにおいて、
前記画像照合方法は、
前記代表 3次元物体モデル記憶部に各代表 3次元物体モデルを登録する 3次元 物体モデル登録ステツプと、
前記参照画像記憶部に各参照画像を登録する参照画像登録ステツプと、 前記 3次元物体モデル登録ステツプにより前記代表 3次元物体モデル記憶部に 新たな代表 3次元物体モデルが登録された時、 又は、 前記参照画像登録ステップ により前記参照画像記憶部に新たな参照画像が登録された時に、 登録により新た に生じた参照画像と代表 3次元物体モデルとの組み合わせに対して、 前記画像照 合ステップにより前記類似度の計算を行い、 該計算の結果を前記参照画像照合結 果記憶部に 口する参照画像照合結果更新ステップと、
を更に備えることを特徴とする画像照合プログラム。
4 5. 請求項 4 3に記載の画像照合プログラムにおいて、
前記画像照合ステツプは、 前記入力画像と代表 3次元物体モデルとの間の類似 度を部 域毎に計算し、
前記参照画像照合結果記憶部は、 前記参照画像記憶部に記憶されている各参照 画像と、 前記代表 3次元物体モデル記憶部に記憶されている各代表 3次元物体モ デルとの間の類似度を部分領域毎に記憶し、
前記結果照合ステップは、 前記画像照合手段により計算された前記入力画像と 各代表 3次元物体モデルとの間の部 ϋ域毎の類似度と、 前記参照画像照合結果 記憶部に記憶されている各参照画像と各代表 3次元物体モデルとの間の部: 域 毎の類似度とを基に、 前記入力画像に類似する前記参照画像を抽出することを特 徴とする画像照合プログラム。
4 6 . 請求項 4 3に記載の画像照合プログラムにおいて、
前記結果照合ステップは、 前記入力画像と各代表 3次元物体モデルとの間の類 似度と、 各参照画像と各代表 3次元物体モデルとの間の類似度との間の類似度を 計算し、 該計算において、 前記入力画像および各比較画像と各代表 3次元物体モ デルとの間の類似度の候補順位に基づき各類似度に重み付けをすることを特徴と する画像照合プログラム。
4 7 . 請求項 4 0に記載の画像照合プログラムにおいて、
前記画像照合方法は、
前記入力画像を入力する画像入力ステップと、
複数の前記代表 3次元物体モデルを代表 3次元物体モデル記憶部に記憶するス テツプと、
前記代表 3次元物体モデル記憶部に記憶されている複数の前記代表 3次元物体 モデ /レを基に、 前記入力画像と入力条件が近い比較画像を各代表 3次元物体モデ ルにっき少なくとも 1つ生成する画像生成ステップと、
前記入力画像と、 前記画像生成ステップにより生成された各比較画像との間の 類似度を計算し、 各代表 3次元物体モデルに対応する比較画像について最大類似 度を選出し、 当該最大類似度を前記入力画像と代表 3次元物体モデルとの間の類 似度とする画像照合ステップと、 ,
各物体の前記参照画像を参照画像記憶部に記憶するステップと、
前記参照画像記憶部に記憶されている各参照画像と、 前記代表 3次元物体モデ ル記憶部に記憶されている各代表 3次元物体モデルとの間の類似度を参照画像照 合結果記憶部に記憶するステップと、
前記画像照合ステップにより計算された前記入力画像と各代表 3次元物体モデ ルとの間の類似度と、 前記参照画像照合結果記憶部に記憶されている各参照画像 と各代表 3次元物体モデルとの間の類似度とを基に、 前記入力画像に類似する前 記参照画像を抽出する結果照合ステップと、
前記参照画像記憶部に記憶されている各参照画像に対応する参照 3次元物体モ デルを参照 3次元物体モデル記憶部に記憶するステップと、
前記結果照合ステップより抽出された各参照画像に対応する各参照 3次元物体 モデルを前記参照 3次元物体モデル記憶部より得て、 得られた各参照 3次元物体 モデルを基に、 入力画像と入力条件の近い第 2の比較画像を各参照 3次元物体モ デルにつき少なくとも 1つ生成する第 2の画像生成ステップと、
前記入力画像と、 前記第 2の画像生成ステップにより生成された各第 2の比較 画像との間の類似度を計算し、 各参照 3次元物体モデルに対応する第 2の比較画 像について最大類似度を選出し、 当該最大類似度を前記入力画像と参照 3次元物 体モデルとの間の類似度とする第 2の画像照合ステツプと、
を備えることを特徴とする画像照合プログラム。
4 8 . 請求項 4 7に記載の画像照合プログラムにおいて、
前記画像照合方法は、
前記代表 3次元物体モデル記憶部に各代表 3次元物体モデルを登録する 3次元 物体モデル登録ステツプと、
前記参照画像記憶部に各参照画像を登録する参照画像登録ステップと、 前記 3次元物体モデル登録ステツプにより前記代表 3次元物体モデル記憶部に 新たな代表 3次元物体モデルが登録された時、 又は、 前記参照画像登録 により前記参照画像記憶部に参照画像が登録された時に、 登録により新たに生じ た参照画像と代表 3次元物体モデルとの組み合わせに対して、 前記画像照合ステ ップにより前記類似度の計算を行い、 該計算の結果を前記参照画像照合結果記憶 部に追加する参照画像照合結果更新ステツプと、
前記参照画像照合結果更新ステップにより参照画像照合結果記憶部に前記参照 画像と前記代表 3次元物体モデルとの間の類似度が登録された時、 該類似度を基 に、 当該参照画像に対応する前記参照 3次元物体モデルを前記代表 3次元物体モ デル記憶部に記憶されている前記代表 3次元物体モデルを合成することにより生 成し、 生成された参照 3次元物体モデルを前記参照 3次元物体モデル記憶部に登 録する 3次元物体モデル生成ステップと、
を更に備えることを特徴とする画像照合プログラム。
4 9 . 請求項 4 8に記載の画像照合プログラムにおいて、
前記 3次元物体モデル生成ステップは、 前記参照画像記憶部に記憶されている 各参照画像と、 前記代表 3次元物体モデル記憶部に記憶されている各代表 3次元 物体モデルとの間の類似度を基に、 前記代表 3次元物体モデル記憶部に記憶され ている代表 3次元物体モデルを部分領域毎に合成することにより各参照画像に対 応する参照 3次元物体モデルを生成し、 生成された参照 3次元物体モデルを前記 参照 3次元物体モデル記憶部に登録することを特徴とする画像照合プログラム。
5 0 . 請求項 4 7に記載の画像照合プログラムにおいて、
前記画像照合ステップは、 前記入力画像と代表 3次元物体モデルとの間の類似 度を部: ^貝域毎に計算し、
前記参照画像照合結果記憶部は、 前記参照画像記憶部に記憶されている各参照 画像と、 前記代表 3次元物体モデル記憶部に記憶されている各代表 3次元物体モ デルとの間の類似度を部分領域毎に記憶し、
前記結果照合ステップは、 前記画像照合手段により計算された前記入力画像と 各代表 3次元物体モデルとの間の部分領域毎の類似度と、 前記参照画像照合結果 記憶部に記憶されている各参照画像と各代表 3次元物体モデルとの間の部^域 毎の類似度とを基に、 前記入力画像に類似する前記参照画像を抽出することを特 徴とする画像照合プログラム。
5 1 . 請求項 4 7に記載の画像照合プログラムにおいて、
前記結果照合ステップは、 前記入力画像と各代表 3次元物体モデルとの間の類 似度と、 各参照画像と各代表 3次元物体モデルとの間の類似度との間の類似度を 計算し、 該計算において、 前記入力画像および各比較画像と各代表 3次元物体モ デルとの間の類似度の候補順位に基づき各類似度に重み付けをすることを特徴と する画像照合プログラム。
5 2. 請求項 4 1に記載の画像照合プログラムにおいて、
前記画像照合方法は、
前記入力画像を入力する画像入力ステップと、
複数の少なくとも 1つの前記代表 3次元物体モデルを代表 3次元物体モデル記 憶部に記憶するステップと、
前記代表 3次元物体モデル記憶部に記憶されている複数の前記代表 3次元物体 モデルを基に、 前記入力画像と入力条件が近い比較画像を各代表 3次元物体モデ ルにっき少なくとも 1つ生成する画像生成ステップと、
前記入力画像と、 前記画像生成手段により生成された各比較画像との間の類似 度を計算し、 各代表 3次元物体モデルに対応する比較画像について最大類似度を 選出し、 当該最大類似度を前記入力画像と代表 3次元物体モデルとの間の類似度 とする画像照合ステップと、
各物体の前記参照画像を参照画像記憶部に記憶するステップと、
前記参照画像記憶部に記憶されている各参照画像と、 前記代表 3次元物体モデ ル記憶部に記憶されている各代表 3次元物体モデルとの間の類似度を参照画像照 合結果記憶部に記憶するステップと、
前記画像照合ステツプにより計算された前記入力画像と各代表 3次元物体モデ ルとの間の類似度と、 前記参照画像照合結果記憶部に記憶されている各参照画像 と各代表 3次元物体モデルとの間の類似度とを基に、 前記入力画像に類似する前 記参照画像を抽出する結果照合ステップと、
前記参照画像記憶部に記憶されている各参照画像に対応する参照 3次元物体モ デルを参照 3次元物体モデル記憶部に記憶するステップと、
前記結果照合ステップより抽出された各参照画像に対応する各参照 3次元物体 モデルを前記参照 3次元物体モデル記憶部より得て、 得られた各参照 3次元物体 モデルを基に、 前記入力画像と前記結果照合ステップにより抽出された参照画像 の両方又はいずれかを変換することにより前記入力画像と前記結果照合ステップ により抽出された前記参照画像の入力条件を揃え、 入力条件の揃った前記入力画 像と前記参照画像の部分画像をそれぞれ生成する画像変換ステツプと、
前記画像変換ステツプにより生成された前記入力画像の部分画像と前記参照画 像の部分画像との間の類似度を計算する部分画像照合ステップと、
を備えることを特徴とする画像照合プログラム。
5 3 . 請求項 5 2に記載の画像照合プログラムにおいて、
前記画像照合方法は、
前記代表 3次元物体モデル記憶部に各代表 3次元物体モデルを登録する 3次元 物体モデル登録ステツプと、
前記参照画像記憶部に各参照画像を登録する参照画像登録ステップと、 前記 3次元物体モデル登録ステツプにより前記代表 3次元物体モデル記憶部に 新たな代表 3次元物体モデルが登録された時、 又は、 前記参照画像登録ステップ により前記参照画像記憶部に参照画像が登録された時に、 登録により新たに生じ た参照画像と代表 3次元物体モデルとの組み合わせに対して、 前記画像照合ステ ップにより前記類似度の計算を行い、 該計算の結果を前記参照画像照合結果記憶 部に追加する参照画像照合結果更新ステップと、
前記参照画像照合結果更新ステツプにより参照画像照合結果記憶部に前記参照 画像と前記代表 3次元物体モデルとの間の類似度が登録された時、 該類似度を基 に、 当該参照画像に対応する前記参照 3次元物体モデルを前記代表 3次元物体モ デル記憶部に記憶されている前記代表 3次元物体モデルを合成することにより生 成し、 生成された参照 3次元物体モデルを前記参照 3次元物体モデル記憶部に登 録する 3次元物体モデル生成ステツプと、
を更に備えることを特徴とする画像照合プログラム。
5 4 . 請求項 5 3に記載の画像照合プログラムにおいて、
前記 3次元物体モデル生成ステップは、 前記参照画像記憶部に記憶されている 各参照画像と、 前記代表 3次元物体モデル記憶部に記憶されている各代表 3次元 物体モデルとの間の類似度を基に、 前記代表 3次元物体モデル記憶部に記憶され ている代表 3次元物体モデルを部分領域毎に合成することにより各参照画像に対 応する参照 3次元物体モデルを生成し、 生成された参照 3次元物体モデルを前記 参照 3次元物体モデル記憶部に登録することを特徴とする画像照合プログラム。
5 5 . 請求項 5 2に記載の画像照合プログラムにおいて、
前記画像照合手段は、 前記入力画像と代表 3次元物体モデルとの間の類似度を 部 域毎に計算し、
前記参照画像照合結果記憶部は、 前記参照画像記憶部に記憶されている各参照 画像と、 前記代表 3次元物体モデル記憶部に記憶されている各代表 3次元物体モ デルとの間の類似度を部 貝域毎に記憶し、
前記結果照合手段は、 前記画像照合手段により計算された前記入力画像と各代 表 3次元物体モデ/レとの間の部分領域毎の類似度と、 前記参照画像照合結果記憶 部に記憶されている各参照画像と各代表 3次元物体モデルとの間の部分領域毎の 類似度とを基に、 前記入力画像に類似する前記参照画像を抽出することを特徴と する画像照合プログラム。
5 6 . 請求項 5 2に記載の画像照合プログラムにおいて、
前記結果照合ステツプは、 前記入力画像と各代表 3次元物体モデルとの間の類 似度と、 各参照画像と各代表 3次元物体モデルとの間の類似度との間の類似度を 計算し、 該計算において、 前記入力画像および各比較画像と各代表 3次元物体モ デルとの間の類似度の候補順位に基づき各類似度に重み付けをすることを特徴と する画像照合プログラム。
5 7 · 請求項 3 9に記載の画像照合プログラムにおいて、 前記物体が、 人間の顔 であることを特徴とする画像照合プロダラム。
PCT/JP2003/008642 2002-07-10 2003-07-08 3次元物体モデルを用いた画像照合システム、画像照合方法及び画像照合プログラム WO2004008392A1 (ja)

Priority Applications (9)

Application Number Priority Date Filing Date Title
EP03741264A EP1530157B1 (en) 2002-07-10 2003-07-08 Image matching system using 3-dimensional object model, image matching method, and image matching program
JP2004521151A JP4560832B2 (ja) 2002-07-10 2003-07-08 3次元物体モデルを用いた画像照合システム及び画像照合プログラム
CN03816308XA CN1669052B (zh) 2002-07-10 2003-07-08 使用三维物体模型的图像匹配系统以及图像匹配方法
CA002491727A CA2491727A1 (en) 2002-07-10 2003-07-08 Image matching system using 3-dimensional object model, image matching method, and image matching program
AU2003281007A AU2003281007B2 (en) 2002-07-10 2003-07-08 Image matching system using 3-dimensional object model, image matching method, and image matching program
KR1020057000443A KR100651010B1 (ko) 2002-07-10 2003-07-08 3차원 물체 모델을 사용한 화상 대조 시스템, 화상 대조 방법 및 화상 대조 프로그램을 기록한 컴퓨터 판독 가능한 기록매체
US10/520,661 US7545973B2 (en) 2002-07-10 2003-07-08 Image matching system using 3-dimensional object model, image matching method, and image matching program
DE60316690T DE60316690T2 (de) 2002-07-10 2003-07-08 System zur bildvergleichung mit verwendung eines dreidimensionalen objectmodelles, bildvergleichverfahren und bildvergleichprogramm
US12/433,951 US7873208B2 (en) 2002-07-10 2009-05-01 Image matching system using three-dimensional object model, image matching method, and image matching program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002-201118 2002-07-10
JP2002201118 2002-07-10

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US10520661 A-371-Of-International 2003-07-08
US12/433,951 Continuation US7873208B2 (en) 2002-07-10 2009-05-01 Image matching system using three-dimensional object model, image matching method, and image matching program

Publications (1)

Publication Number Publication Date
WO2004008392A1 true WO2004008392A1 (ja) 2004-01-22

Family

ID=30112549

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2003/008642 WO2004008392A1 (ja) 2002-07-10 2003-07-08 3次元物体モデルを用いた画像照合システム、画像照合方法及び画像照合プログラム

Country Status (10)

Country Link
US (2) US7545973B2 (ja)
EP (1) EP1530157B1 (ja)
JP (1) JP4560832B2 (ja)
KR (1) KR100651010B1 (ja)
CN (1) CN1669052B (ja)
AT (1) ATE374978T1 (ja)
AU (1) AU2003281007B2 (ja)
CA (1) CA2491727A1 (ja)
DE (1) DE60316690T2 (ja)
WO (1) WO2004008392A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007272578A (ja) * 2006-03-31 2007-10-18 Toyota Motor Corp 画像処理装置および画像処理方法
US7817861B2 (en) 2006-11-03 2010-10-19 Symantec Corporation Detection of image spam
JP2011258240A (ja) * 2006-03-17 2011-12-22 Nec Corp 3次元データ処理システム
JPWO2014013686A1 (ja) * 2012-07-19 2016-06-30 日本電気株式会社 照合装置及び照合装置の制御方法、並びにコンピュータ・プログラム

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1669052B (zh) * 2002-07-10 2010-05-26 日本电气株式会社 使用三维物体模型的图像匹配系统以及图像匹配方法
SE528068C2 (sv) * 2004-08-19 2006-08-22 Jan Erik Solem Med Jsolutions Igenkänning av 3D föremål
JP2007072620A (ja) * 2005-09-05 2007-03-22 Toshiba Corp 画像認識装置及びその方法
JP4456617B2 (ja) 2007-04-16 2010-04-28 富士通株式会社 類似分析装置、画像表示装置、および画像表示プログラム
JP4378413B2 (ja) * 2007-05-01 2009-12-09 シャープ株式会社 画像処理装置、画像形成装置、画像読取装置、画像処理システム、画像処理方法、画像処理プログラムおよびその記録媒体
CN101201845B (zh) * 2007-09-24 2012-01-11 覃征 基于中轴点集分层螺旋信息的三维模型检索方法
JP5337161B2 (ja) * 2007-11-02 2013-11-06 コーニンクレッカ フィリップス エヌ ヴェ 自動動画飛行経路計算
KR20090067913A (ko) * 2007-12-21 2009-06-25 삼성디지털이미징 주식회사 영상 트리밍 장치 및 방법
JP5472891B2 (ja) * 2008-01-21 2014-04-16 株式会社東芝 医用画像処理装置
JP5278881B2 (ja) * 2008-04-30 2013-09-04 公立大学法人大阪府立大学 3次元物体認識用画像データベースの作成方法、処理装置および処理用プログラム
US8369625B2 (en) 2008-06-30 2013-02-05 Korea Institute Of Oriental Medicine Method for grouping 3D models to classify constitution
JP5300387B2 (ja) * 2008-09-12 2013-09-25 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP2010210585A (ja) * 2009-03-12 2010-09-24 Omron Corp 3次元視覚センサにおけるモデル表示方法および3次元視覚センサ
US8606774B1 (en) * 2009-05-18 2013-12-10 Google Inc. Methods and systems for 3D shape retrieval
CN103109307B (zh) * 2010-04-28 2015-11-25 奥林巴斯株式会社 用于制作三维物体识别用图像数据库的方法和装置
CN102024273A (zh) * 2010-12-10 2011-04-20 中国人民解放军国防科学技术大学 基于隐式向量空间的非刚性注册方法
TWI479435B (zh) * 2012-04-03 2015-04-01 Univ Chung Hua 人臉辨識方法
JP2014053749A (ja) * 2012-09-06 2014-03-20 Sony Corp 画像処理装置、画像処理方法およびプログラム
JP2015184054A (ja) * 2014-03-20 2015-10-22 株式会社東芝 同定装置、方法及びプログラム
US9878447B2 (en) * 2015-04-10 2018-01-30 Microsoft Technology Licensing, Llc Automated collection and labeling of object data
JP6491959B2 (ja) * 2015-06-03 2019-03-27 新日鉄住金ソリューションズ株式会社 情報処理装置、情報処理方法及びプログラム
CN106557728B (zh) * 2015-09-30 2019-06-18 佳能株式会社 查询图像处理和图像检索方法和装置以及监视系统
CN109389015A (zh) * 2017-08-10 2019-02-26 丽宝大数据股份有限公司 脸部相似度评估方法与电子装置
CN108340405B (zh) * 2017-11-10 2021-12-07 广东康云多维视觉智能科技有限公司 一种机器人三维扫描系统及方法
WO2019205069A1 (en) * 2018-04-27 2019-10-31 Beijing Didi Infinity Technology And Development Co., Ltd. Systems and methods for updating 3d model of building
US11521460B2 (en) 2018-07-25 2022-12-06 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US10878657B2 (en) 2018-07-25 2020-12-29 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US10771867B1 (en) 2019-03-08 2020-09-08 Shutterstock, Inc. Video-generating systems and methods
JP7163947B2 (ja) * 2020-10-22 2022-11-01 セイコーエプソン株式会社 投写領域の設定支援方法、設定支援システム、及びプログラム
US11527104B2 (en) * 2021-02-09 2022-12-13 Danny Rittman Systems and methods of facial and body recognition, identification and analysis

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1139262A2 (en) * 2000-03-29 2001-10-04 Ford Motor Company On-line reporting related to orders for consumer products having specific configurations
EP1143375A2 (en) * 2000-04-03 2001-10-10 Nec Corporation Device, method and record medium for image comparison

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0644282B2 (ja) 1985-10-02 1994-06-08 富士通株式会社 物体検索方式
US4970666A (en) * 1988-03-30 1990-11-13 Land Development Laboratory, Inc. Computerized video imaging system for creating a realistic depiction of a simulated object in an actual environment
JPH08315152A (ja) 1995-05-22 1996-11-29 Sony Corp 画像認識装置
JP3330790B2 (ja) 1995-08-30 2002-09-30 株式会社日立製作所 三次元形状認識装置、建設支援装置、物体検査装置、種類認識装置、及び物体認識方法
JPH0991436A (ja) 1995-09-21 1997-04-04 Toyota Central Res & Dev Lab Inc 画像処理方法及びその装置
US6002782A (en) * 1997-11-12 1999-12-14 Unisys Corporation System and method for recognizing a 3-D object by generating a 2-D image of the object from a transformed 3-D model
EP0944018B1 (en) * 1998-03-19 2011-08-24 Panasonic Corporation Method and apparatus for recognizing image pattern, method and apparatus for judging identity of image patterns, recording medium for recording the pattern recognizing method and recording medium for recording the pattern identity judging method
JP2000293687A (ja) * 1999-02-02 2000-10-20 Minolta Co Ltd 3次元形状データ処理装置および3次元形状データ処理方法
JP3611239B2 (ja) * 1999-03-08 2005-01-19 富士通株式会社 三次元cgモデル作成装置および処理プログラムを記録した記録媒体
JP2000306099A (ja) 1999-04-20 2000-11-02 Ntt Data Corp 三次元物体の認識方法及びシステム、記録媒体
JP3417377B2 (ja) 1999-04-30 2003-06-16 日本電気株式会社 三次元形状計測方法及び装置並びに記録媒体
JP3926059B2 (ja) 1999-05-12 2007-06-06 日本電気株式会社 画像照合装置及びその画像照合方法並びにその制御プログラムを記録した記録媒体
US6975755B1 (en) * 1999-11-25 2005-12-13 Canon Kabushiki Kaisha Image processing method and apparatus
US6674877B1 (en) * 2000-02-03 2004-01-06 Microsoft Corporation System and method for visually tracking occluded objects in real time
JP4341135B2 (ja) * 2000-03-10 2009-10-07 コニカミノルタホールディングス株式会社 物体認識装置
US6580821B1 (en) * 2000-03-30 2003-06-17 Nec Corporation Method for computing the location and orientation of an object in three dimensional space
US6956569B1 (en) * 2000-03-30 2005-10-18 Nec Corporation Method for matching a two dimensional image to one of a plurality of three dimensional candidate models contained in a database
JP3575679B2 (ja) * 2000-03-31 2004-10-13 日本電気株式会社 顔照合方法と該照合方法を格納した記録媒体と顔照合装置
US6847733B2 (en) * 2001-05-23 2005-01-25 Eastman Kodak Company Retrieval and browsing of database images based on image emphasis and appeal
US7221809B2 (en) * 2001-12-17 2007-05-22 Genex Technologies, Inc. Face recognition system and method
CN1669052B (zh) * 2002-07-10 2010-05-26 日本电气株式会社 使用三维物体模型的图像匹配系统以及图像匹配方法
US6947579B2 (en) * 2002-10-07 2005-09-20 Technion Research & Development Foundation Ltd. Three-dimensional face recognition
EP1594085A4 (en) * 2003-02-13 2008-02-27 Nec Corp DEVICE AND METHOD FOR DETECTING UNEMPLOYED PERSONS
US7715619B2 (en) * 2003-10-21 2010-05-11 Nec Corporation Image collation system and image collation method
TW200725433A (en) * 2005-12-29 2007-07-01 Ind Tech Res Inst Three-dimensional face recognition system and method thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1139262A2 (en) * 2000-03-29 2001-10-04 Ford Motor Company On-line reporting related to orders for consumer products having specific configurations
EP1143375A2 (en) * 2000-04-03 2001-10-10 Nec Corporation Device, method and record medium for image comparison

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011258240A (ja) * 2006-03-17 2011-12-22 Nec Corp 3次元データ処理システム
JP2007272578A (ja) * 2006-03-31 2007-10-18 Toyota Motor Corp 画像処理装置および画像処理方法
US7817861B2 (en) 2006-11-03 2010-10-19 Symantec Corporation Detection of image spam
JPWO2014013686A1 (ja) * 2012-07-19 2016-06-30 日本電気株式会社 照合装置及び照合装置の制御方法、並びにコンピュータ・プログラム
US10068073B2 (en) 2012-07-19 2018-09-04 Nec Corporation Verification device and control method for verifiction device, as well as computer program

Also Published As

Publication number Publication date
JPWO2004008392A1 (ja) 2005-11-10
AU2003281007A1 (en) 2004-02-02
CN1669052A (zh) 2005-09-14
ATE374978T1 (de) 2007-10-15
EP1530157B1 (en) 2007-10-03
KR100651010B1 (ko) 2006-11-30
KR20050017117A (ko) 2005-02-21
JP4560832B2 (ja) 2010-10-13
US7545973B2 (en) 2009-06-09
US20060120589A1 (en) 2006-06-08
CN1669052B (zh) 2010-05-26
EP1530157A4 (en) 2006-02-08
AU2003281007B2 (en) 2009-11-19
DE60316690T2 (de) 2008-07-17
US20090245624A1 (en) 2009-10-01
CA2491727A1 (en) 2004-01-22
US7873208B2 (en) 2011-01-18
DE60316690D1 (de) 2007-11-15
EP1530157A1 (en) 2005-05-11

Similar Documents

Publication Publication Date Title
WO2004008392A1 (ja) 3次元物体モデルを用いた画像照合システム、画像照合方法及び画像照合プログラム
JP4553141B2 (ja) 重み情報を用いた物体姿勢推定・照合システム
KR100816607B1 (ko) 화상 대조 시스템, 화상 대조 방법 및 컴퓨터로 판독가능한 기록 매체
JP5424819B2 (ja) 画像処理装置、画像処理方法
JP4951498B2 (ja) 顔画像認識装置、顔画像認識方法、顔画像認識プログラムおよびそのプログラムを記録した記録媒体
CN108491754B (zh) 一种基于骨骼特征的动态表示和匹配的人体行为识别方法
JP4721830B2 (ja) 画像検索方法及び装置
JP3926059B2 (ja) 画像照合装置及びその画像照合方法並びにその制御プログラムを記録した記録媒体
Ratan et al. Object detection and localization by dynamic template warping
WO2019111550A1 (ja) 人物照合装置、方法、及び非一時的なコンピュータ可読媒体
AU2013271337A1 (en) Biometric verification
JP2016167164A (ja) 画像認識装置、画像認識方法、及び画像認識プログラム
JPH1185988A (ja) 顔画像認識システム
TWI620076B (zh) 人體動作的分析系統
JP4446383B2 (ja) 画像処理装置および画像認識装置
JP2004288222A (ja) 画像照合装置及びその画像照合方法並びにその制御プログラムを記録した記録媒体
JP2004046567A (ja) 画像照会用情報構築方法および画像照会方法
JP2013218604A (ja) 画像認識装置、画像認識方法及びプログラム
González-Jiménez et al. Automatic pose correction for local feature-based face authentication
JP2023046567A (ja) 特定プログラム、特定方法および情報処理装置
JP2023046553A (ja) 特定プログラム、特定方法および情報処理装置
JP4325605B2 (ja) 画像合成装置およびそれを用いた画像照合装置ならびに画像合成方法
CN116958859A (zh) 基于视频的高尔夫挥杆评测方法及系统

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AU CA CN JP KR SG US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2004521151

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2491727

Country of ref document: CA

ENP Entry into the national phase

Ref document number: 2006120589

Country of ref document: US

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 10520661

Country of ref document: US

Ref document number: 2003816308X

Country of ref document: CN

Ref document number: 1020057000443

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 2003741264

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2003281007

Country of ref document: AU

WWP Wipo information: published in national office

Ref document number: 1020057000443

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 2003741264

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 10520661

Country of ref document: US

WWG Wipo information: grant in national office

Ref document number: 2003741264

Country of ref document: EP