WO2007119870A1 - 照合装置および照合方法 - Google Patents

照合装置および照合方法 Download PDF

Info

Publication number
WO2007119870A1
WO2007119870A1 PCT/JP2007/058477 JP2007058477W WO2007119870A1 WO 2007119870 A1 WO2007119870 A1 WO 2007119870A1 JP 2007058477 W JP2007058477 W JP 2007058477W WO 2007119870 A1 WO2007119870 A1 WO 2007119870A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
model
parameter
target
value
Prior art date
Application number
PCT/JP2007/058477
Other languages
English (en)
French (fr)
Inventor
Rui Ishiyama
Original Assignee
Nec Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nec Corporation filed Critical Nec Corporation
Priority to US12/297,136 priority Critical patent/US8295614B2/en
Priority to JP2008511027A priority patent/JP4957921B2/ja
Priority to EP07741913A priority patent/EP2012272A1/en
Publication of WO2007119870A1 publication Critical patent/WO2007119870A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Definitions

  • the present invention collates images and 3D data taken in various fluctuating environments with reference data, and recognizes what the subject is, the state of the subject, or the environment at the time of shooting.
  • the present invention relates to a collation device and a collation method.
  • the element to be recognized is the personality of the face, and other image variation elements include the face posture and lighting conditions. If the change in image brightness value caused by changes in posture or lighting is greater than the change in image brightness value caused by individual differences, there is an error such as determining that the image data of the same person is another person. It was a cause.
  • Prior art document 2 below discloses an example of the above technique. This technology is based on 3D face models of many people gathered in advance, and the elements of individual differences, that is, facial features
  • This technology creates a model that generates a 3D face model based on parameters that represent the individuality of the 3D shape and texture.
  • a face image under the situation represented by the posture and illumination parameters is generated from the three-dimensional face model data using computer graphics according to parameters representing the facial posture and lighting conditions.
  • the above model is an example of an image change model that can generate a face image under such conditions when individuality, facial posture, and lighting conditions are given as parameters.
  • a morphable model of the face (hereinafter also referred to as MM) It is called.
  • MM is fitted to each of a reference image (hereinafter also referred to as a gallery image) and a recognition target image (hereinafter also referred to as a probe image), and personality, posture, and illumination
  • a technique is shown in which parameters representing each element are estimated and both images are collated based on the estimated parameters. Specifically, the following two technologies are shown.
  • the similarity of only the target parameter is calculated and matched.
  • the value of the target parameter is the value obtained from the recognition target image, and the image when the other parameters are estimated from the registered image is generated from the MM as the comparison image. The similarity is calculated and collated.
  • the technique (1) is configured as shown in FIG.
  • the model fitting means 1 0 0 1 determines the parameters of the image variation model 1 0 0 3 so as to be as similar as possible to the gear image Ig.
  • the parameter corresponding to the purpose of collation is the target parameter ptg
  • the other parameters are the external parameters peg.
  • the model image I'g is the image generated at this time It is a statue.
  • the objective parameter ptg is a personality parameter
  • the external parameter peg is a parameter that represents each element of posture and lighting.
  • the target parameter ptp and the external parameter pep of the image variation model 1 0 0 3 are obtained so that the model fitting means 1 0 0 2 can obtain a model image ⁇ p that is as similar as possible to the probe plane image Ip. Is determined. Then, the parameter matching means 1 0 0 4 calculates the similarity between the target parameters ptg and ptp. This calculation result is used as the similarity between the gear image Ig and the probe image Ip. When there are multiple gear images Ig, the same calculation is performed for the other gallery images, and the gallery image Ig having the highest similarity is used as the matching result.
  • the value of the target parameter is the value of the target parameter ptp obtained from the probe image
  • the other parameter is the value of the external parameter peg estimated from the gallery image.
  • the degree of similarity between this comparison image and the original gallery image Ig is calculated. This similarity is defined as the similarity between the gear image Ig and the probe image Ip.
  • the same calculation is performed for the other gallery images, and the gallery image Ig having the highest similarity is used as the collation result.
  • Prior Art Document 3 which shows a technique for speeding up the fitting process of the technique described in Prior Art Document 2
  • both of the above techniques (1) and (2) are used. Since recognition is performed based on the similarity of the estimated parameter values, the matching performance is strongly influenced by the absolute accuracy of the model fitting process. The same applies to the case of using the technology of Prior Art Document 3.
  • the model fitting process is a nonlinear optimization process for many parameters, the estimation becomes unstable depending on the situation, and it tends to fall into a local solution. Furthermore, the accuracy of the estimated value is affected by the initial value given. It is difficult to improve absolute accuracy.
  • the techniques (1) and (2) above show the similarity between the probe image and the gallery image that correctly matches it, the probe image, and the other gallery. Since there is no clear difference in the similarity between images, there is a problem that the matching accuracy is greatly reduced.
  • the object of the present invention is to reduce the absolute accuracy of the fitting process when estimating the fluctuation factors by fitting the image fluctuation model or the three-dimensional data fluctuation model to the image or the three-dimensional data to be recognized. To reduce the impact.
  • the collation device is a device for collating target data, which is an image of an object or three-dimensional data, with reference data, by adjusting values of a plurality of parameters, A storage unit that can generate model data that is three-dimensional data, a storage unit that stores a variation model, and a variation model that is stored in the storage unit.
  • a storage unit that can generate model data that is three-dimensional data, a storage unit that stores a variation model, and a variation model that is stored in the storage unit.
  • the target model data is similar to the target data under the condition that the target parameter is the target parameter, the other parameters are external parameters, and the target parameter is the same value for the target data and the reference data.
  • the reference model data similar to the reference data is estimated from the variation model to estimate the optimal parameter value And Dell fitting means, wherein under the estimated parameters And a model fitness evaluation means for calculating a model fitness of the target model data and the reference model data with respect to the target data and the reference data.
  • the collation device compares the calculated model suitability with a predetermined threshold value, thereby matching the target parameter between the target data and the reference data. It is characterized by comprising a collating means for judging the sex.
  • the collation device repeats the processing by the model fitting means and the model suitability evaluation means for each combination of a plurality of reference data and the target data, thereby obtaining the best model suitability. And a matching means for using the value of the target parameter in the combination obtained as an estimated value of the target parameter of the target data.
  • the collation apparatus repeats the processing by the model fitting means and the model suitability evaluation means for a combination of each of a plurality of reference data and the target data, and exceeds a predetermined threshold value or more.
  • a collating unit is provided that uses values calculated from the objective parameters in a plurality of combinations from which the model suitability is obtained as an estimated value of the objective parameter of the target data.
  • the model suitability evaluation means includes an error between the generated target model data and the target data, and the generated reference model data. An error with respect to the reference data is calculated, and the model suitability is calculated from the calculated error.
  • the model suitability evaluation means refers to a predetermined parameter criterion information indicating a parameter certainty factor indicating the certainty of the estimated parameter value. And calculating the model suitability from the calculated parameter certainty factor.
  • the model suitability evaluation means includes an error between the generated target model data and the target data, and the generated reference model data. While calculating an error with the reference data, a parameter certainty factor indicating the certainty of the estimated parameter value is determined in advance. It is calculated with reference to parameter criterion information, and the model suitability is calculated from the calculated error and parameter confidence.
  • the collation device is characterized in that the parameter reference information is a value range that the value of the parameter can take.
  • the collation device is characterized in that the parameter reference information is a correct value of the parameter.
  • the collation apparatus is characterized in that the parameter criterion information is a probability distribution of the parameter values.
  • the collating apparatus is characterized in that the model fitting means includes an optimum parameter value for generating target individual model data similar to the target data from the variation model, and
  • the optimal parameter value for generating the reference individual model data similar to the reference data from the variation model is the condition that the target parameter value is not necessarily the same in the target data and the reference data.
  • the model suitability evaluation means uses the parameter value of the estimated target individual model data and the parameter value of the reference individual model data as the parameter criterion information.
  • the model fitting means includes an optimum parameter value for generating target individual model data similar to the target data from the variation model, and
  • the optimal parameter value for generating the reference individual model data similar to the reference data from the variation model is the condition that the target parameter value is not necessarily the same in the target data and the reference data.
  • the model fitness evaluation means estimates an error between the target individual model data and the target data, an error between the reference individual model data and the reference data, the target model data and the target The error between the individual model data and at least one error between the reference model data and the reference individual model data.
  • the model suitability is calculated in consideration of the above.
  • the collation apparatus includes a three-dimensional model of various objects as the variation model, and a three-dimensional model of a specified object according to a parameter for specifying the object.
  • Select Dell transform the selected 3D model according to parameters such as the state of the object, posture, lighting conditions, camera characteristics, etc. It is characterized by using an image variation model that generates images.
  • the collation device calculates, as the variation model, a three-dimensional model of an object in the state in accordance with a parameter that specifies the individuality and state of the object, and the calculated three-dimensional model is It is characterized by using an image variation model that generates an image under the condition represented by the parameter using computer graphics, which is deformed according to parameters such as the posture of the object, lighting conditions, camera characteristics, etc. To do.
  • the collation device includes a three-dimensional model of various objects as the variation model, selects a three-dimensional model of a specified object according to a parameter for specifying the object, and It is characterized by using a three-dimensional data variation model that transforms the selected three-dimensional model according to parameters such as the state of the object, posture, lighting conditions, and camera characteristics.
  • the collation apparatus calculates, as the variation model, a three-dimensional model of an object in the state according to a parameter that specifies the individuality and state of the object, and the calculated three-dimensional model is calculated. It is characterized by using a three-dimensional data variation model that deforms according to parameters such as the posture of the object, lighting conditions, and camera characteristics.
  • the objective parameter is a parameter describing a type of an object
  • the collation means determines whether the object of the target data and the reference data are the same It is a means.
  • the variation model is a model that generates a face image or three-dimensional data
  • the objective parameter is a parameter that describes the individuality of a person
  • the collation means It is a means for collating whether the target data and the reference data are the same person.
  • the objective parameter is a parameter for specifying the position or orientation of an object
  • the collation means is the position or orientation of the object in the target data and the reference data. Is a means for checking whether or not they are the same. To do.
  • the collation apparatus is the collation device, wherein the variation model is a model for generating a facial image or three-dimensional data, and the objective parameter is a parameter for specifying a facial expression of a person,
  • the means is a means for collating whether the facial expressions of the target data and the reference data are the same.
  • the collation method is a method of collating target data, which is an image of an object or three-dimensional data, with reference data using a computer, wherein the computer includes a plurality of parameter values.
  • a variation model that can generate model data that is an image of an object or three-dimensional data by adjusting the object, it is a target to determine whether the target data and the reference data are the same among the plurality of parameters
  • the target model data and the reference data are similar to the target data under the condition that the target parameter is the target parameter, the other parameters are external parameters, and the target parameter is the same value for the target data and the reference data.
  • the computer includes a second step of calculating a model suitability of the target model data and the reference model data with respect to the target data and the reference data under the estimated parameters.
  • the computer compares the calculated model suitability with a predetermined threshold value, so that the target parameter between the target data and the reference data is
  • the method further includes a third step of determining identity.
  • the collation method according to the third aspect of the present invention is the computer model, wherein the first and second steps are repeated for a combination of each of the plurality of reference data and the target data to obtain the best model fitness.
  • the method further includes a third step in which the value of the target parameter in the combination obtained is an estimated value of the target parameter of the target data.
  • the computer uses the first and second scans for a combination of each of a plurality of reference data and the target data.
  • Step 3 is repeated, and a third step is further performed in which the value calculated from the target parameter in a plurality of combinations that have obtained a model fitting degree equal to or greater than a predetermined threshold is used as an estimated value of the target parameter of the target data. It is characterized by including.
  • the error between the generated target model data and the target data, and the generated reference model data and the reference An error with respect to data is calculated, and the model suitability is calculated from the calculated error.
  • a parameter certainty factor indicating the certainty of the estimated parameter value is calculated with reference to predetermined parameter reference information.
  • the model suitability is calculated from the calculated parameter certainty factor.
  • the error between the generated target model data and the target data and the generated reference model data Calculating an error with respect to the reference data, calculating a parameter certainty factor indicating the certainty of the estimated parameter value with reference to predetermined parameter criterion information, and calculating the calculated error and the parameter certainty factor.
  • the model suitability is calculated from the degree.
  • the collation method according to the eighth aspect of the present invention is characterized in that the parameter reference information is a value range that can be taken by the value of the parameter.
  • the collation method according to the ninth aspect of the present invention is characterized in that the parameter reference information is a correct value of the parameter.
  • the collation method according to the tenth aspect of the present invention is characterized in that the parameter criterion information is a probability distribution of the parameter values.
  • the collation method according to the first aspect of the present invention is characterized in that the computer is configured to generate optimal target individual model data similar to the target data from the variation model, and the reference data.
  • the optimal parameter value for generating the reference individual model data similar to that from the variation model is estimated under the condition that the target parameter value is not necessarily the same between the target data and the reference data.
  • the parameter value of the estimated target individual model data and the parameter value of the reference individual model data are used as the parameter criterion information.
  • the collation method is characterized in that the computer is configured to generate the target individual model data that is similar to the target data from the variation model, and the parameter value that is optimal for the target data.
  • the optimum parameter value for generating the reference individual model data similar to the variation model is estimated under the condition that the target parameter value is not necessarily the same between the target data and the reference data.
  • the model fitness is calculated by further taking into account at least one error between the data and the reference individual model data. It is characterized by that.
  • a variation model that can generate model data that is an image of an object or three-dimensional data by adjusting values of a plurality of parameters is used, and among the plurality of parameters, the target data and the reference data
  • the target parameter for determining whether or not they are the same is the target parameter, and the other parameters are external parameters.
  • To generate target model data similar to the target data and reference model data similar to the reference data from the variation model under the condition that the target parameter is the same value in the target data and the reference data A value of the parameter that is optimal for the estimated parameter, and a model suitability of the target model data and the reference model data with respect to the target data and the reference data under the estimated parameter is calculated.
  • the identity of the objective parameter between the target data and the reference data is determined by comparing the determined model suitability with a predetermined threshold.
  • a predetermined threshold As an example of the model fitness, an error between the generated target model data and the target data and an error between the generated reference model data and the reference data are calculated.
  • a value derived from the calculated error can be used, and as another example, parameter confidence information indicating the certainty of the estimated parameter value can be used. Range of possible values, correct values of parameters, probability distribution of parameter values, etc.), and values derived from the calculated parameter certainty can be used, and these can be used in combination. You can also Further, the optimum individual parameter value for generating the target individual model data similar to the target data from the variation model, and the reference individual model data similar to the reference data are generated from the variation model.
  • An optimal parameter value for the target data is estimated under a condition that the target parameter value is not necessarily the same between the target data and the reference data, and the parameter value of the estimated target individual model data and The parameter value of the reference individual model data may be the parameter criterion information.
  • an optimal parameter value for generating target individual model data similar to the target data from the variation model, and an optimal value for generating reference individual model data similar to the reference data from the variation model is estimated under a condition that the target parameter value is not necessarily the same between the target data and the reference data, and the parameter value of the estimated target individual model data and The parameter value of the reference individual model data may be the parameter criterion information.
  • an optimal parameter value for generating target individual model data similar to the target data from the variation model and an optimal value for generating reference individual model data similar to the reference data from the variation model.
  • the parameter value is estimated under the condition that the target parameter value is not necessarily the same between the target data and the reference data, and an error between the target individual model data and the target data, An error between the reference individual model data and the reference data, an error between the target model data and the target individual model data, the reference model data and the previous It is also possible to calculate the model suitability by further taking into account at least one error between the reference individual model data and the reference individual model data.
  • the absolute accuracy of the fitting process is reduced.
  • the impact can be reduced.
  • the target parameter value to be matched differs between the target data and the reference data, the fitting process with the same target parameter will never find model data similar to both data, so the model fit will be low.
  • the model fit is good because the model data similar to both data is always found. This is because the difference in the value of the model suitability when the target parameter to be verified is the same for both data is different from that when the target parameter to be verified is different.
  • FIG. 1 is an explanatory diagram of the prior art.
  • FIG. 2 is a block diagram of the first embodiment of the present invention.
  • FIG. 3 is a diagram showing a flow of processing in the first embodiment of the present invention.
  • FIG. 4 is a diagram showing the configuration of the 2D model fitting means and the flow of the processing in the first embodiment of the present invention.
  • FIG. 5 is a block diagram of the second exemplary embodiment of the present invention.
  • FIG. 6 is a diagram showing a flow of processing in the second embodiment of the present invention.
  • FIG. 7 is a diagram showing the configuration of the 3D model fitting means and the flow of its processing in the second embodiment of the present invention.
  • FIG. 8 is a block diagram of the third embodiment of the present invention.
  • FIG. 9 is a diagram showing a flow of processing in the third embodiment of the present invention.
  • FIG. 10 is a diagram showing a configuration of 2D 3D model fitting means and a flow of processing thereof in the third embodiment of the present invention.
  • FIG. 11 is a block diagram of a fourth embodiment of the present invention.
  • FIG. 12 is a diagram showing the flow of processing in the fourth embodiment of the present invention.
  • FIG. 13 is a diagram showing the configuration of the 2D 3D model fitting means and the flow of its processing in the fourth embodiment of the present invention.
  • FIG. 14 is a block diagram of the fifth embodiment of the present invention.
  • FIG. 15 is a diagram showing a flow of processing in the fifth embodiment of the present invention.
  • FIG. 16 is a block diagram of the sixth embodiment of the present invention.
  • FIG. 17 is a diagram showing a flow of processing in the sixth embodiment of the present invention.
  • FIG. 18 is a block diagram of the seventh embodiment of the present invention.
  • FIG. 19 is a diagram showing a flow of processing in the seventh embodiment of the present invention. Best Mode for Carrying Out the Invention:
  • a processing device 1 2 0 0 operated by program control, an image input device 1 1 0 0 connected to the processing device 1 2 0 0, and a storage device 1 3 0 0, an input device 1 5 0 0 and an output device 1 6 0 0.
  • the probe image as the recognition target is collated with the gallery image as the reference image.
  • the image input device 1 1 0 0 is a device that inputs a probe image to the processing device 1 2 0 0, and may be a camera, read a probe image from a storage device (not shown), or probe image through a network. It may be a device that receives.
  • the storage device 1 3 0 0 stores programs executed by the processing device 1 2 0 0 and various data used for verification. Various data includes data on gallery images and image variation models. The gallery image may be stored in the storage device 1 3 0 0 in advance, or may be read together with the probe image.
  • the image variation model is based on the object type, object state, posture, lighting conditions, camera, etc. This model describes how the captured image varies depending on various image variation factors.
  • the image variation model is used to generate a model image under the condition that various image variation factors are given.
  • the data related to the image variation model includes all data required in the process of generating the model image.
  • model 1 As an example of the image variation model (referred to as model 1), there is a model as described in the above prior art document 2.
  • This model uses computer graphics technology to give various human face images parameters that represent 3D-shaped personality, texture personality, facial expression, facial posture, lighting conditions, and camera characteristics. It is a generated image variation model.
  • Model 2 there is a model described in Prior Art Document 1.
  • This model includes 3D shape data and lighting base data for each person to be collated, specifies the person, and gives parameters representing the posture of the face, lighting, and camera characteristics.
  • This is an image variation model that generates a samurai image of the person.
  • texture brightness values under various lighting conditions are calculated for each 3D model of each person's face, the data is subjected to principal component analysis, a base texture group is calculated, and stored in the storage unit.
  • image variation model given as an example above is merely an example. In addition to this, various image variation models can be used. As an example of an image variation model that does not use three-dimensional data, “Active Appearance Model J” described in Prior Art Document 4 can be used in the same manner.
  • the processing device 1 2 0 0 includes 2D model fitting means 1 2 0 1, model fitness evaluation means 1 2 0 2, and matching means 1 2 0 3.
  • the 2D model fitting means 1 2 0 1 inputs both the gallery image Ig and the probe image IP, and the objective parameter pt representing the recognition target element is the both images Ig and IP.
  • the parameter pe which takes the same value and represents other variables, may have different values for both images Ig and IP Using image variation model 1 2 0 4 as close as possible to each image Ig, IP
  • the values of the parameters pt and pe are calculated so that the model images g and i ′ p can be generated (so that the value of the cost function shown below becomes small).
  • This technique is different from the technique described in the above prior art document 1 in which both the target parameter pt and the external parameter pe are estimated independently for each of the probe image IP and the gallery image Ig. That is, assuming that the objective parameter pt has the same value in both images, the objective parameter pt and the external parameter pe are estimated for both images simultaneously.
  • peg is the external parameter pe estimated for the gallery image Ig
  • pep is the external parameter pe estimated for the probe image IP.
  • the objective parameter pt is a parameter representing personality
  • the external parameter pe is a parameter related to the posture of the face, lighting conditions, and camera properties.
  • a 3D vector representing the direction and intensity of illumination can be used as an example.
  • the above parameter setting method is only an example, and can be changed in various ways according to the image variation model to be used.
  • the objective parameter pt is the orientation parameter
  • the external parameter pe is a parameter related to the type of object, lighting conditions, and camera properties. is there. If only a specific object is to be recognized, there is no need for an object type parameter. Also, if the image has the same lighting condition and the force is not recognized, there is no need for a lighting condition parameter. In this way, parameters can be set as needed.
  • 2D model fitting means 1 2 0 1 includes initial value estimation means 2 1 0 1, model image generation means 2 1 0 2, cost evaluation means 2 1 0 3, parameter estimation Means 2 1 0 4. Each of these means generally operates as follows.
  • the initial value estimating means 2 1 0 1 obtains initial values of the image variation element parameters pt, peg, and pep for each of the probe image IP and the gear image Ig. this is, It may be a known value given in advance, a value measured by a separate sensor or the like, or may be input as information given to each image IP, Ig. As an example, in the case of face image recognition, reference point position data indicating the position of the eyes, nose, mouth, etc. of the face in the image is set as additional information, and an approximate value of the face posture is initially determined from the given information. Can be calculated as a value.
  • the personality parameter can have an average value as an initial value. For other parameters, timely values may be set in advance.
  • the initial value of the target parameter pt for both images IP and Ig, the initial value of the external parameter pep for the probe image IP, and the initial value of the external parameter peg for the gallery image Ig are output to the model image generating means 2 1 0 2.
  • the model image generation means 2 1 0 2 uses the target parameter pt and the external parameters pep and peg output as initial values from the initial value estimation means 2 1 0 1 when the first model image is generated. Sometimes the target parameter pt and the external parameters pep and peg updated by the parameter estimation means 2 1 0 4 are used.
  • the model image generation means 2 1 0 2 uses the image variation model 1 2 0 4 to generate an image under the situation represented by these parameters ⁇ pt, pep, peg ⁇ as a model image. If there are multiple parameters, ⁇ P t, pep, peg ⁇ will be vector.
  • the model image generation means 2 1 0 2 uses the corresponding 3D shape data and the basis based on the parameter representing the individuality. Select a texture group.
  • the model image generation means 2 1 0 2 calculates the luminance value of the 3D data surface under the illumination condition by calculating a linear combination of the base texture groups using the illumination parameter as a coupling coefficient.
  • computer graphics technology Is used to calculate the correspondence between each point on the surface of the 3D data and the position of each pixel in the image, and a model image is generated by setting the luminance value of the corresponding 3D data surface as the luminance value of the pixel. .
  • the probe model image ⁇ p and the gallery model image ⁇ g are generated.
  • the target parameter pt is assumed to be the same value and is a common parameter. Since the external parameter pe may take different values, it is a different parameter.
  • parameters that describe the personality of the shape and texture of the face are parameters that describe the target parameter pt, face posture, lighting conditions, camera characteristics, etc.
  • External parameter pe is an example, in a system that recognizes the orientation of an object, the parameter that represents the posture of the object is the target parameter pt, and the parameters that represent the object type and shape, surface color, lighting conditions, camera characteristics, etc. are external.
  • the parameter is pe.
  • the cost evaluation means 2 1 0 3 compares the probe model image ⁇ ⁇ with the probe image ⁇ , the gear model image g and the gallery image Ig, and calculates the cost function of model fitting.
  • the cost function can be a sum of square errors of luminance values of both images to be compared, as shown in the following equation.
  • I [IpT, wglgTlT... 2
  • Ip is a vector in which the luminance values of each pixel in the probe image are arranged
  • Ig is a vector in which the luminance values of each pixel in the gallery image are arranged
  • is a probe model image.
  • I'g is a vector in which the luminance values of each pixel in the image are arranged
  • I'g is a vector in which the luminance values of each pixel in the gallery image are arranged.
  • Image vector I is a vector in which Ip and wglg are arranged
  • model image vector vector ⁇ is a vector in which ⁇ and Wgl 'g are arranged.
  • the Wg value may be determined in advance, but as an example, it may be a value obtained by dividing the number of pixels of the probe image by the number of pixels of the gallery image.
  • a cost term representing the prior probability of the value of each parameter can be added to the cost function value of Equation 2 as in the technique of Prior Art Document 2.
  • the parameter estimation means 2104 updates the values of the target parameter pt and the external parameters pep and peg so as to improve the cost function value of Equation 2 (in the case of Equation 2 to a smaller value).
  • Various optimization methods can be used for this, but one example is the steepest descent method.
  • p be the total parameter vector where each parameter (pt, pep, peg) is arranged, change the value of each element pi by a predetermined small amount Ai, and change each element minutely by the model image generation means 2102 A model image (p + Ai) is generated ( ⁇ is a vector where element i is Ai and other elements are zero).
  • the cost evaluation means 2103 calculates the cost function value C (p + Ai) by the following equation.
  • the value of the gradient vector VC of the cost function is calculated by the following equation by dividing the difference between the changed cost function value and the original cost function value by the minute change amount.
  • is a predetermined gain constant.
  • the value may be 1.0. It can also be changed adaptively according to the situation.
  • the above method is only an example, and various other optimization methods such as the Gauss-Newton method can be used.
  • the Jacobian matrix J can be obtained by the following equation.
  • p (t + 1) p (t)-a (JTJ) — 1 J ( ⁇ - ⁇ '(p)) ⁇ ⁇ ⁇ (7)
  • the parameter representing personality is a person number and does not take a continuous value.
  • the model image generation means 2 1 0 2 and the cost evaluation means 2 1 0 3 It is possible to calculate the value of the cost function by repeating the process, and use the value that obtained the best cost value as the estimated value.
  • the value of the parameter that minimizes the cost function value is obtained by applying the above-mentioned methods and various optimization methods.
  • the model fitness evaluation means 1 2 0 2 evaluates whether or not the parameter estimation is properly performed by the processing of the model fitting means 1 2 0 1.
  • processing was performed assuming that the target parameter pt is the same value in the gallery image and the probe image, but the model fitness is a measure for measuring whether this assumption is matched with the fact. Is calculated.
  • the model suitability evaluation means 1 2 0 2 in the present embodiment is configured such that the gallery model image I ′ g and the gallery image Ig generated by the 2D model fitting means 1 2 0 1, the probe model image ⁇ p, and the probe image Ip Each error is calculated and the sum of the two is output as the model fit V.
  • the error various image feature amounts can be used. As an example, a square error sum of the luminance values of the image can be used as shown in the following equation.
  • V vp
  • vp and vg are coefficients for adjusting the weights for the probe image and gallery image, and appropriate values are determined in advance.
  • the recognition performance can be improved by reducing vg.
  • dispersion of errors (
  • the variance of the error between the image and the probe model image (
  • the inverse of each variance is the value of vg and vp, respectively.
  • the method for calculating the model suitability V shown above is only an example.
  • various image feature values such as using the brightness error of the brightness value by using the brightness error by generating an edge image Can be used.
  • the model adaptability V is the amount obtained by adding an error of some image feature amount between the probe model image and the probe image and an error of some image feature amount between the gallery model image and the gear image. be able to.
  • the matching means 1 2 0 3 performs matching judgment between the gallery image Ig and the probe image Ip using the model fitness V calculated by the model fitness evaluation means 1 2 0 2.
  • a threshold value is set in advance, and when the model suitability V is better than the threshold value (the value is smaller in the case of Equation 8), the probe image There is a method for determining that the target parameter pt of Ip is the same as the target parameter pt of the gallery image Ig.
  • the probe image Ip is collated with multiple sets of gallery images Ig, 2D model fitting means 1 2 0 1 and model fit evaluation are performed for each gallery image Ig and probe image Ip combination.
  • the model fit V is calculated by processing with means 1 2 0 2.
  • Gallery image with the best model fit small value if using Eq. 8
  • the target parameter pt force S of Ig and the target parameter pt of the professional image are judged to be close to each other.
  • a personal identification system using face images will be described as an example. Assuming that the probe image is collated against three gallery images of the faces of three people A, B, and C, and that the gallery image of person B has the best model and good model fit, it is shown in the probe image. Is recognized as person B. At this time, even if external parameters such as face orientation and lighting conditions are different for each of the three gallery images, the external parameters do not affect the model suitability, so that individual identification can be performed correctly.
  • the probe image is collated against nine gallery images taken at 90 ° intervals from 90 ° left to 90 ° to the front, 90 ° to the right, and 70 ° to the right. If the gallery image has the best model fit, the orientation of the object in the probe image is recognized as 70 degrees to the right. At this time, even if the 19 gallery images have different external parameters such as lighting conditions and camera characteristics, the external parameters do not affect the model suitability, so the posture of the object can be recognized correctly.
  • both the probe image Ip and the gallery image Ig are input, the model fitting process is performed on the assumption that the target parameter pt to be collated is the same for both the images Ip and Ig, and the model fitting is performed.
  • the model fit V which is a measure of the processing accuracy, is calculated, and matching is performed with this model fit V. Therefore, the probe image and the gallery image are not significantly affected by the absolute accuracy of the model fitting process. Can be verified. The reason is as follows.
  • the model image ⁇ p, g similar to the images Ip and Ig is never obtained, and the model fitness V is extremely deteriorated.
  • the model image ⁇ p, g similar to the images I P and Ig is basically found. V indicates a good value. Therefore, the difference in the value of the model fit V when the target parameter pt to be matched is different from when the target parameters pt and Ig are the same is significant.
  • the model fit V calculated for the combination of the gallery image Ig and the probe image Ip whose target parameter pt is the same as that of the probe image was calculated for the other combinations. The model fits well from V and shows a good value. Therefore, even if the accuracy of the fitting process is slightly reduced and the value of the model fitness V is slightly increased or decreased, the gallery image in which the target parameter pt is the best match with the probe image is identified without being affected by it. can do.
  • the target parameter ptp and the external parameter pep are estimated from the probe image Ip, and the target parameter ptg and the external parameter peg are estimated independently from the gallery image Ig by the fitting process.
  • the similarity of ptg is compared. For this reason, the difference in the similarity between ptp and ptg when the target parameters ptp and ptg to be compared are the same for both images Ip and Ig is different from the difference in the value of model fit V in this embodiment. Not noticeable. For this reason, it is strongly influenced by the absolute accuracy of the fitting process.
  • FIG. 5 a three-dimensional data input device 1 4 0 0 is provided instead of the image input device 1 1 0 0.
  • processing device 1 2 0 0 is 2 D model fitting means 1 2 0 1 and model fitness evaluation means 1 2 0 2 instead of 3 D model fitting means 1 2 2 1 and model fitness evaluation means 1 2 2 Different in having 2.
  • the three-dimensional data input device 1 4 0 0 is a device that inputs probe data, which is 3D data, to the processing device 1 2 0 0, and may be a 3D shape measurement device or from a storage device (not shown) It may be a device that reads probe data or receives probe data over a network.
  • the storage device 1 3 0 0 stores various data used for program matching executed by the processing device 1 2 0 0.
  • the various data includes gallery data that is 3D data and data related to 3D data fluctuation models.
  • the gallery data may be stored in advance in the storage device 1300, or may be read together with the probe data each time.
  • the 3D data variation model is a model that describes how the measured 3D data varies depending on various variable factors such as the type of object, the state of the object, and the posture. Given these parameters, 3D data can be generated under these conditions.
  • the data group required in this process is stored in the storage device 1 3 0 0.
  • Model 3 3D shape data of various people is collected in advance, and the 3D data of the person is output by giving parameters to specify the person.
  • the model to do may be used.
  • 3D data of the specified posture can be generated by multiplying the 3D coordinates of the 3D data by a rotation matrix that rotates. .
  • model 4 As another example of the 3D data fluctuation model (model 4), as described in the prior art document 2, 3D data of various human faces, 3D shape personality, texture personality There is a 3D data variation model that is calculated by giving parameters that represent facial expressions, age, etc., respectively.
  • this model the process of collecting 3D data of a large number of human faces in advance, performing principal component analysis on each data of the shape and texture, calculating the base 3D data group and the base texture group, and storing them A step is executed.
  • the cubic of the calculated 3D data By applying a rotation matrix that rotates to the original coordinates to the original coordinates, it is possible to generate model 3D data of the specified posture.
  • the reference 3D shape data is SO
  • the reference texture data is TO
  • the 100 parameters representing the individuality of the 3D shape are al, ⁇ , & 100
  • the base shape data corresponding to each parameter is Sl, " ', S100, cl, ---, 010 for 10 parameters representing facial expression changes
  • S101,-, S1 10 for base shape data representing deformation due to facial expression changes bl
  • the base texture data corresponding to each parameter is ⁇ 1, ..., ⁇ 100
  • the base texture data representing the texture change due to facial expression change is T101, ' ⁇ , ⁇ 1 10
  • the parameters indicating the posture are x, y , ⁇ axis rotation angle rx, ry, rz and parallel movement amount tx, ty, tz, 3D coordinates S, (i), texture of point i of model 3D data shape data S ' Data T 'is given by the following equation.
  • the storage means 1300 stores data of S 0, S 1,..., S 1 10, ⁇ 0, ⁇ 1,.
  • 100 individual parameters and 10 facial expression change parameters are merely examples, and various changes can be made.
  • the 3D data fluctuation model mentioned above is only an example, and various other 3D data fluctuation models can be used.
  • 3D model fitting means 1 221 inputs both 3D data of gallery data Dg and probe data Dp, and the target parameter pt representing the element of recognition target has the same value in both data.
  • Model data D'g, D 'as close as possible to the respective 3D data Dg, Dp using the 3D data fluctuation model 1 224 as described above (the value of the cost function shown below is small) Calculate the values of parameters pt and pe so that p can be generated.
  • the 3D model fitting means 1221 estimates the parameters independently for each of the probe data Dp and the gear data Dg, and does not compare the estimated results of the target parameters.
  • the target parameter pt and the external parameter pe are estimated for both data at the same time.
  • the objective parameter pt is a parameter (al, ', al 0 ° and bl, •••, bl OO) representing personality, external
  • the parameter pe is a parameter (expression c 1,..., C 10, rx, ry, rz, tx, ty, tz) relating to the facial expression and the facial posture.
  • the target parameter pt is the orientation parameter (rx, ry, rz, tx, ty, and tz), and the external parameter pe is the type of object.
  • Status (al, “” al 00, bl,...:! 00, cl,...
  • the 3D model fitting unit 1221 includes an initial value estimation unit 2121, a 3D model data generation unit 2122, a cost evaluation unit 2123, and a parameter estimation unit 2124.
  • Initial value estimating means 2121, the probe data Dp and gallery data Dg Noso respectively, each parameter Pt of variables of 3 D data, Pep, Ru obtains an initial value of P eg. This may be a known value given in advance, a value measured by a separate sensor, etc., or may be input as information added to 3D data.
  • the eyes, nose, and mouth of the face in the 3D data By providing reference point position data indicating the position, etc. as added information, the position and posture of the face (the rx, ry, rz, tx, ty, tz) and shape (the a 1, ..., a 1 The approximate value of 0 0) can be calculated as the initial value.
  • the initial value of the target parameter Pt for both the probe data Dp and the gallery data Dg, the initial value of the external parameter Pep for the probe data Dp, and the external parameter Peg for the gallery data Dg is the 3D model. Output to data generation means 2 1 2 2.
  • 3D model data generation means 2 1 2 2 uses the target parameter pt and the external parameters Pep and Peg output as initial values from the initial value estimation means 2 1 2 1 at the time of initial model data generation. In subsequent iterations, the target parameter pt and the external parameters Pep and Peg updated by the parameter estimation means 2 1 2 4 are used, and the parameters Pt, Pep and Peg are used using the 3D data variation model 1 2 2 4 respectively. Generates and outputs probe model data D 'p and gallery model data D' g under the conditions indicated by.
  • model 3 When model 3 is used as the 3D data variation model 1 2 2 4, the parameters that represent the individuality are the number of the person, etc., and the model 3D data is generated by reading the 3D data of the corresponding person it can. Furthermore, when using posture parameters, model 3D data for the posture can be generated by applying a rotation matrix. In addition to this, it is also possible to generate a model 3D data that takes into account changes in facial expressions by further modifying the 3D data by adding a deformation model based on facial expressions and parameters describing it.
  • model 4 When model 4 is used as a 3D data variation model, by calculating the linear combination of the base 3D data and the base texture data using the parameters representing individuality, age, body type, etc. as the coupling coefficient, 3D face data is calculated. Next, depending on the attitude parameters, the calculated 3D data is rotated. By applying the sequence, model 3D data in the pose is generated.
  • the shape data S ′ and the texture data T ′ of the model 3D data are calculated by Expression 9. Both are combined into model data D '.
  • the setting of these parameters is only an example, and in addition to this, parameters such as transformation by facial expression can be added to further deform the 3D data to generate model 3D data.
  • the probe model data D′ p and the gallery model data D′ g are generated.
  • the target parameter pt is the same value, but the external parameters pep and peg are different values.
  • pe [c 1, ⁇ , c 10, rx, ry, rz , tx, ty, tz].
  • the cost evaluation means 2123 compares the probe and gallery data Dp and Dg with the generated model data D'p and D'g, and calculates the fitting cost function.
  • this cost function can be the weighted square error sum of the three-dimensional coordinates and luminance values of both data to be compared, as shown in the following equation.
  • C is calculated first.
  • 2)) is also possible. It is also possible to update values in the process of iterative processing.
  • cost function shown here is only an example, and various other cost functions can be used.
  • a cost term representing the prior probability of each parameter can be added to the cost function value.
  • the following cost function can be used.
  • the parameter estimation means 2124 updates the values of the target parameter pt and the external parameters pep and peg so as to improve the cost function value.
  • Various optimization methods can be used for this, but one example is the steepest descent method.
  • p be the total parameter vector in which each parameter (pt, pep, peg) is arranged, and change the value of each element pi by a minute amount ⁇ , one by one, and use the model data generation means 2122 to change each element.
  • the cost evaluation means 21 23 calculates the value C ( P + Ai) of the cost function by the following equation.
  • the cost function value after the change is calculated by dividing the difference between the original cost function value and the original cost function value by the small change amount. Is done.
  • ⁇ C [(C (p + Al) —C ( P )) / ⁇ 1, (C (p + A2) —C (p)) / ⁇ 2, ⁇ (14)
  • the value of parameter ⁇ is updated by the following formula by the steep descent method.
  • is a gain constant determined in advance.
  • the value may be 1.0. It can also change adaptively depending on the situation.
  • the above method is just an example, and other parameters that minimize the value of the cost function C using various optimization methods such as the Gauss-Newton method, as in the first embodiment. It is also possible to obtain the value of.
  • the parameter representing personality is a person number and does not take a continuous value.
  • the 3D model data generation means 2122 and cost evaluation are performed for each of the possible values (ie, for each individual person's individual 3D data) without calculating the fractional value.
  • the value of the cost function is calculated. For this reason, the value with the best cost value can be used as the estimated value.
  • the value of the parameter that minimizes the cost function value can be obtained by applying the methods described above and various optimization methods.
  • the model fitness evaluation means 1222 evaluates the accuracy of the model fitting process of the 3D model fitting means 1 221.
  • processing was performed assuming that the objective parameter pt is the same, but based on this assumption, it indicates whether the 3D data variation model 1224 fits the probe data Dp and the gear data Dg.
  • a process of calculating the model suitability V is performed.
  • the model fitness evaluation means 1222 calculates the error between the gallery model data D'g and the gallery data Dg generated by the 3D model fitting means 1221 and the probe model data D and p and the probe data Dp. Each is calculated, and both are added together and output as model adaptability V.
  • Various features can be used to calculate the error.
  • the three-dimensional coordinates and text A weighted square error sum of the cheer luminance values can be used.
  • V vp (
  • vt, vp and vg are weight constants, and appropriate values are determined in advance.
  • the error between the 3D coordinates and the texture luminance value is used, but it is of course possible to use other errors such as normal vector errors and feature values such as texture edges. Note that the model fit V represents an error, so the smaller the value of V, the better.
  • the accuracy of model fitting varies greatly with each gallery data Dg (difference between gallery data Dg and gallery model data D'g varies).
  • the recognition performance can be improved by reducing vg.
  • the error (
  • the collation means 1203 is the same as that of the first embodiment, and collation judgment between the gallery data Dg and the probe data Dp is performed using the value of the model fitness V calculated by the model fitness evaluation means 1222.
  • a threshold value is set in advance, and if the model fit V is better than the threshold value (the smaller value in the case of Equation 16), the probe data Processing to recognize that the target parameter pt of Dp is the same as the target parameter pt of the gallery data Dg. can give.
  • 3D model fitting means 1 2 2 1 and model fitness evaluation means 1 2 2 2 are processed for each set of gallery data Dg and probe data Dp. Then, the process of calculating the model fit V is executed. Then, it is determined that the target parameter pt of the gallery data Dg of the set that obtained the best model fit (small value when using Equation 8) is close to the target parameter pt of the probe data Dp. .
  • the value of the target parameter pt of the probe data Dp is estimated by interpolation or catching using the value of the target parameter pt of multiple gallery data Dg that has obtained a better model fit than a certain threshold. Also good.
  • the probe data is matched against three gallery data of three persons A, B and C, and the gallery data of person B is the best model fit. If the degree is obtained, the professional data is recognized as the 3D data of person B. At this time, even if external parameters such as face orientation differ for each of the three pieces of gallery data, the external parameters do not affect the model suitability, so that individual identification can be performed correctly.
  • an object is measured at 90 degrees from the left 90 degrees to the front and 90 degrees to the right.
  • the probe 3D data is collated against the gallery 3D data of the, and the gallery data in the direction of 70 degrees to the right has the best model fit.
  • the direction of the object when the probe data is measured is recognized to be 70 degrees to the right.
  • the external parameters do not affect the degree of modernity, so the posture of the object is recognized correctly. Can do.
  • the model fitting process is performed assuming that the 3D data of both the probe data Dp and the gallery data Dg are input, and the target parameter pt to be collated is the same for both data Dp and Dg.
  • the model fitting V which is a measure of the accuracy of the model fitting process, is calculated, and matching is performed with this model fitting V, so that it is not affected by the absolute accuracy of the model fitting process. And gallery data can be verified. The reason is as follows.
  • the value of the target parameter pt to be verified differs between the two data Dp and Dg, model data D, p, and D'g similar to the data Dp and Dg are never obtained, so the model fitness V is extremely low. Getting worse.
  • the value is both data Dp of the target parameter pt to be collated, if it is same as in D g, since data Dp, the model data D 'p, D' similar to Dg g always determined basically, The model fit V is also good. Therefore, the difference in the value of the model fit V when the target parameter pt to be verified is different from when the data Dp and Dg are the same is significant.
  • model suitability V force S calculated for the combination of gallery data Dg and probe data Dp whose target parameter pt is the same as the probe data other combinations because the model fits well from the model fit V calculated for, and shows a good value, even if the accuracy of the fitting process is slightly reduced and the model fit V is slightly up or down, it is not affected
  • the gallery data whose target parameter pt best matches the probe data can be identified.
  • the target parameter ptp and the external parameter pep are obtained from the probe data D, and the target parameter ptg and the external parameter pep are obtained from the gallery data Dg.
  • the parameter peg is estimated independently by the fitting process, and the process of comparing the similarity between ptp and ptg is executed.
  • the collation apparatus inputs a probe image and collates it with gallery data that is three-dimensional data.
  • the processing device 1 2 0 0 is a 2D model fitting means 1 2 0 1 and a model suitability evaluation means 1
  • the difference is that instead of 2 0 2 2D 3D model fitting means 1 2 3 1 open model fitness evaluation means 1 2 3 2 is provided.
  • the storage device 1 3 0 0 stores a program executed by the processing device 1 2 0 0 and various data used for collation.
  • gallery data that is 3D data, image fluctuation models, and data related to 3D data fluctuation models are included.
  • the gallery data may be stored in advance in the storage device 130, or may be read from a three-dimensional data input device (not shown) together with the probe image each time.
  • the 3D data variation model is a model that describes how the measured 3D data varies depending on various variation factors such as the type of object, the state of the object, and the posture. Given the parameters of various variables, 3D data under that condition is generated. A data group necessary for this process is stored in the storage device 1300. Examples of 3D data fluctuation models include model 3 and model 4 described in the second embodiment, but these are just examples, and there are various other 3D data fluctuation models. Is available.
  • the image variation model is based on the 3D data generated by the 3D data variation model. This is an image variation model that generates images under such conditions, depending on the parameters representing camera orientation, position, lighting conditions, camera characteristics, and so on.
  • This image variation model includes various camera models (pinhole camera, parallel projection model, etc.), illumination models (complete scattering model, Phong model, etc.) It is possible to use a combination of technologies that use the illumination base of
  • the 2D 3D model fitting means 1 2 3 1 inputs the probe image Ip and gallery data Dg, and the target parameter pt that represents the variation factor of the recognition purpose is the same in both data Ip and Dg. If it is assumed that the parameter pe that takes the value and represents the other variables may be different between the two data Ip and Dg, the 3D data variation model 1 2 3 4 described above can be used for the gallery data Dg.
  • Generate model data D'g that is as close as possible (such that the cost function value shown below is small) and use the image variation model 1 2 3 5 described above to model image p as close as possible to probe image Ip Calculate the value of each parameter pt, pe that generates.
  • the external parameter of the probe image Ip is pep and the external parameter of the gear data Dg is peg.
  • pt is a parameter that represents the personality of the face shape and texture
  • pep is the expression, lighting conditions, camera position, and orientation. This is a parameter such as focal length
  • peg is a parameter such as facial expression and facial posture.
  • pt is a parameter that represents the posture of the face
  • pep is the personality, facial expression, lighting conditions, camera Parameters such as position, orientation, focal length, etc.
  • peg is a parameter of individual 1 "raw, facial expression, etc. This is just an example, and the number and type of parameters vary depending on the model It can be changed.
  • 2D 3D model fitting means 1 2 3 1 includes initial value estimation means 2 1 3 1, 2D 3D model data generation means 2 1 3 2, and cost evaluation means. Stage 2 1 3 3 and parameter estimation means 2 1 3 4 are provided.
  • the initial value estimating means 2 1 3 1 obtains an initial value for each of the image fluctuation element parameter of the probe image Ip and the 3D data fluctuation element parameter of the gallery data Dg. This may be a known value given in advance or a value measured by a separate sensor, or may be input as information to be given to the probe image Ip or the gallery data Dg. .
  • the initial value for the probe image Ip can be performed by the same processing as the initial value estimation means 2 1 0 1 in the first embodiment, and the initial value for the gallery data Dg is estimated by the initial value in the second embodiment. It can be performed in the same manner as the means 2 1 2 1.
  • the initial value calculation method described above is only an example, and can be changed in various ways.
  • the initial value of the target parameter pt for both the probe image I P and the gallery data Dg, the initial value of the external parameter pep for the probe image Ip, and the initial value of the external parameter peg for the gallery data Dg are 2D 3D model data generation Output to means 2 1 3 2.
  • model data generation means 2 1 3 2 uses the target parameter pt and external parameters Pep and Peg output as initial values from the initial value estimation means 2 1 3 1 when generating the first model data In subsequent iterations, the target parameter pt and the external parameters Pep and Peg updated by the parameter estimation means 2 1 3 4 are used, respectively.
  • 3D data variation model 1 2 3 4 and image variation model 1 2 3 5 is used to generate and output the probe model image ⁇ ⁇ and gallery model data D ′ g under the conditions represented by parameters Pt, Pep, and Peg.
  • the model image generation in the first embodiment It can be done in exactly the same way as means 2 1 0 2.
  • the 3D data fluctuation model 1 2 3 4 to generate 3D data as the gallery model data D ′ g under the conditions indicated by the current values of the target parameter pt and the gallery external parameter peg This can be done in exactly the same way as the 3D model data generating means 2 1 2 2 in the embodiment. Both treatments are expressed by the following equations: It becomes like this.
  • the cost evaluation means 2133 compares the probe image Ip with the probe model image ⁇ , the gear data Dg and the gallery model data D ′ g, and calculates the fitting cost function C.
  • this cost function C can be the weighted square error sum of the two data to be compared, as shown in the following equation.
  • Sg and Tg are the 3D shape and texture data of the gallery data
  • S, g, T, and g are the 3D shape and texture data of the gallery model data
  • wt is a coefficient that adjusts the 3D coordinates and texture weights. is there.
  • Wg is a coefficient that adjusts the weight of the image and the 3D data.
  • wt value For example, the value of (
  • cost function shown here is only an example, and various other cost functions can be used.
  • a cost term representing the prior probability of each parameter can be added to the cost function value. For example, if you know that the values of pt, pep, and peg are close to ptO, pepO, and pegO, you can use the following cost function.
  • the parameter estimation means 2134 updates the values of the target parameter Pt and the external parameters Pep and Peg so as to improve the value of the cost function C. This includes a variety of Optimization methods are available, but one example is the steepest descent method.
  • model data generation means 2 1 3 2 Shape data of probe model image data I'p (p + Ai) and gallery model data D'g (p + Ai) when each element is slightly changed by 2 1 3 2 Sg '( ⁇ + ⁇ ), And texture data Tg (p + Ai) is generated ( ⁇ is a vector in which element i is Ai and other elements are zero).
  • the cost evaluation means 2 1 3 3 executes a process for calculating the value C (p + Ai) of the cost function by the following equation.
  • ⁇ C [(C (p + ⁇ 1) —C (p)) / Al, (C (p + A2) —C (p)) / ⁇ 2,-] ⁇ ... (21) Parameter by the steepest descent method The value of p is updated by the following formula.
  • is a gain constant determined in advance.
  • the value may be 1.0. It can also change adaptively depending on the situation.
  • the above method is only an example, and other parameters that minimize the value of the cost function C using various optimization methods such as the Gauss-Newton method, as in the first embodiment. It is also possible to obtain the value of.
  • the model fitness evaluation means 1 23 2 evaluates the accuracy of the model fitting process of the 2D 3D model fitting means 1 2 3 1. That is, in the model fitting process, the process was performed assuming that the objective parameter pt is the same. Based on this assumption, the model conformity evaluation means 1 2 3 2 is a model fit that indicates whether the image variation model ⁇ 2 3 5 and the 3D data variation model 1 2 34 conform to the probe image Ip and the gear data Dg. Calculate degree V.
  • the model suitability evaluation means 1 2 3 2 of this embodiment is a probe model image. Image p, probe image Ip, gallery model data D'g and gear gallery data Dg are input, and their errors are added together and output as model fitness V.
  • Various feature quantities can be used to calculate the error.
  • a weighted sum of squared errors of 3D coordinates and texture luminance values can be used as in the following equation.
  • V vp
  • vt, vp, and vg are weight constants, and appropriate values are determined in advance.
  • the weighted sum of each of the image luminance value, 3D coordinates, and texture luminance value is used as an example, but this force is also used for features such as normal vector errors and image / texture edges.
  • the value of the cost function C of Equation 18 or Equation 20 may be used as the model fitness V. Note that model fit V represents an error, so the smaller the value of V, the better.
  • the matching means 1 2 0 3 is the same as that in the first embodiment. Using the value of the model fitness V calculated by the model fitness evaluation means 1 2 3 2, the gallery data Dg and the probe image Ip Perform collation judgment. As an example, the matching means 1 2 0 3 sets a threshold value in advance, and when the model fit V is better than the threshold value (small value in the case of Equation 16), the target parameter pt of the probe image Ip Is the same as the target parameter pt of the gear data Dg.
  • 2D 3D model fitting means 1 2 3 1 and model fitness evaluation means 1 2 3 2 are processed by combining probe images Ip for each gallery data.
  • the model fit V for each set is calculated.
  • the collating means 1 2 0 3 recognizes that the value of the objective parameter pt of the set of gallery data Dg that has obtained the best model fitness is the value of the objective parameter pt of the probe image Ip.
  • the value of the target parameter pt of the probe image Ip may be estimated by internal interpolation using the values of the objective parameter pt of the plurality of gallery data Dg that have obtained a better model fit V than a certain threshold.
  • both 3D shape data and texture data are included as 3D data as gallery data.
  • gallery data composed only of 3D shape data. It is possible to perform processing.
  • the probe image and the gallery data are described as one, but even when one or both are plural, the number of weighting coefficients in the external parameter pe, Equation 1 8, and Equation 23 is the image or 3D. It only increases by the number of data and can be processed in exactly the same way.
  • the model fitting process is performed assuming that the probe image Ip and the gallery data Dg are input and the target parameter pt to be matched is the same for both data Ip and Dg.
  • a model fit V which is a measure of accuracy, is calculated, and matching is performed with this model fit V.
  • the probe image and the gallery data can be collated without being greatly affected by the absolute accuracy of the model fitting process. The reason is as follows. If the value of the target parameter pt to be matched differs between the two data Ip and Dg, the model data ⁇ p and D 'g similar to the data Ip and Dg are never obtained, so the model fitness V is extremely bad. I'll do it.
  • the value of the target parameter pt to be verified is the same for both data Ip and Dg. If the same, the model data I'p, D'g similar to the data Ip, Dg are always found, so the model fit V also shows a good value. Therefore, the difference in the value of the model fit V when the target parameter pt to be verified is different from when the data Ip and Dg are the same is significant.
  • a threshold value is set to an intermediate value in the collation judgment with one set of gallery data Dg, even if the accuracy of the fitting process is slightly reduced and the value of model suitability V is slightly increased or decreased, Since the distance to the threshold is large, the gallery data whose objective parameter pt is the same as that of the probe image and the gallery data which is not so can be clearly distinguished without being affected by the distance. Also, in the matching judgment with multiple sets of gear data Dg, the model fit V calculated for the combination of the gallery data Dg and the probe image Ip whose target parameter pt is the same as the probe image is calculated for the other combinations. The model fits well above the model fit V and shows a good value, so even if the fitting accuracy drops slightly and the model fit V value goes up or down slightly, The gallery data whose parameter pt best matches the probe image can be identified.
  • the target parameter ptp and the external parameter pep are estimated from the probe image Ip, and the target parameter ptg and the external parameter peg are estimated independently from the gallery data Dg by the fitting process, and the similarities of ptp and ptg are compared.
  • the target parameter ptp and ptg is both data Ip to be collated, the model goodness of fit V at distance one embodiment of similarity ptp and ptg when different from the gas to be the same with D g Since it does not become prominent like the value gap, it is strongly influenced by the absolute accuracy of the fitting process.
  • the probe image Ip is input and collated with the three-dimensional gear gear data Dg.
  • the collation device inputs the three-dimensional probe data Dp and receives the gear image. Match with Ig.
  • the three-dimensional data input device 1 4 0 0 is a device that inputs probe data, which is 3D data, to the processing device 1 2 0 0, and may be a 3D shape measurement device or from a storage device (not shown) It may be a device that reads probe data or receives probe data over a network.
  • the storage device 1 3 0 0 stores a program executed by the processing device 1 2 0 0 and various data used for collation.
  • the various data includes data related to gallery images, image variation models, and 3D data variation models.
  • the gear image may be stored in the storage device 1 3 0 0 in advance.
  • the gallery image may be read together with the probe data from an image input device (not shown) each time.
  • Image variation model The 3D data variation model is the same as the image variation model 1 2 3 5 and 3D data variation model 1 2 3 4 in the third embodiment.
  • 2D 3D model fitting means 1 2 3 1 inputs the probe data Dp and the gallery image Ig, and the target parameter pt representing the variation factor of the recognition purpose is the two data Dp and Ig.
  • the parameter pe which takes the same value and represents other variables, may be different for both data Dp and Ig
  • Model data p as close as possible to Dp is generated, and the model image as close as possible to the gallery image Ig using the image variation model 1 2 3 5 described above Calculate the value of each parameter pt, pe that generates I '.
  • the external parameter of the probe data Dp is pep
  • the external parameter of the gallery image Ig is peg.
  • 2D 3D model fitting means 1 2 3 1 is similar to the third embodiment in that initial value estimation means 2 1 3 1 and 2D 3D model data generation means 2 1 3 2, cost evaluation means 2 1 3 3, and parameter estimation means 2 1 3 4.
  • Initial value estimation means 2 1 3 1 is the 3D data variable element parameter of probe data Dp, In addition, an initial value is obtained for each of the image variation element parameters of the gallery image Ig. This may be a known value given in advance or a value measured by a separate sensor, or may be input as information to be added to the image Ig or 3D data Dp. .
  • the initial value for the gallery image Ig can be obtained by the same process as the initial value estimating means 2 1 0 1 in the first embodiment, and the initial value for the probe data Dp is the initial value estimated in the second embodiment. It can be performed in the same manner as the means 2 1 2 1.
  • the initial value of the target parameter pt for both the probe data Dp and gallery image Ig data, the initial value of the external parameter p for the probe data Dp, and the initial value of the external parameter peg for the gallery image Ig are 2D 3D model data generation Output to means 2 1 3 2.
  • model data generation means 2 1 3 2 uses the target parameter pt and external parameters Pep and Peg output as initial values from the initial value estimation means 2 1 3 1 when generating the first model data In subsequent iterations, the target parameter pt and the external parameters Pep and Peg updated by the parameter estimation means 2 1 3 4 are used, respectively.
  • 3D data variation model 1 2 3 4 and image variation model 1 2 3 5 Is used to generate and output probe model data D 'p and gear model image I' g under the conditions indicated by parameters Pt, Pep, and Peg.
  • the cost evaluation means 2 1 3 3 compares the probe data Dp with the probe model data D and p, the gallery image Ig and the gallery model image I ′ g, and calculates the fitting cost function.
  • this cost function can be a weighted square error sum of both data to be compared, as in the third embodiment.
  • the parameter estimation means 2 1 3 4 updates the values of the target parameter Pt and the external parameters Pep and Peg so as to improve the value of the cost function C.
  • various optimization methods can be used.
  • the steepest descent method can be used as in the third embodiment.
  • the model conformity evaluation means 1 2 3 2 evaluates the accuracy of the model fitting process of the 2D 3D model fitting means 1 2 3 1. That is, model fitness The processing was performed assuming that the target parameter pt was the same. Based on this assumption, the model conformity evaluation means 1 2 3 2 determines whether the image variation model 1 2 3 5 and the 3D data variation model 1 2 3 4 conform to the gallery image Ig and the probe data Dp. The model goodness of fit V that represents is calculated.
  • Model suitability evaluation means 1 2 3 2 of this embodiment inputs probe model data D 'p and probe data Dp, gear model image g and gallery image Ig, and adds the respective errors to model suitability. Output as V.
  • Various feature quantities can be used for the error calculation. As an example, as in the third embodiment, a weighted square error sum of the three-dimensional coordinates and the texture luminance value can be used.
  • the matching means 1 2 0 3 uses the value of the model fitness V calculated by the model fitness evaluation means 1 2 3 2 to calculate the gallery image Ig and the probe data Dp. Perform collation judgment.
  • probe data Dp and gallery image Ig are input, model fitting processing is performed assuming that the target parameter pt to be verified is the same for both data Dp and Ig, and the accuracy of the model fitting processing is
  • the model goodness-of-fit V which is a measure of, is calculated, and matching is performed with this model goodness-of-fit V. For this reason, the probe data and the gallery image can be collated without being greatly affected by the absolute accuracy of the model fitting process. The reason is as follows.
  • the model data D 'p and ⁇ g similar to the data Dp and Ig are never found, so the model fitness V is extremely deteriorated. To do.
  • the model data D'p and I'g similar to the data Dp and Ig are always found. Goodness of fit V also shows a good value. Therefore, the difference in the value of the model fit V when the target parameter pt to be verified is different from when the data Dp and Ig are the same is significant.
  • the threshold value is set to an intermediate value in the collation judgment with one set of gear image Ig, the accuracy of the fitting process is slightly reduced, and the value of the model fit V is slightly increased or decreased. Because the distance to the threshold is large Without being affected, it is possible to clearly distinguish between a gallery image whose target parameter pt is the same as that of the probe data and a gallery image which is not. Also, in the matching judgment with multiple sets of gallery images Ig, the model fitness V calculated for the combination of gallery image Ig and probe data Dp whose target parameter pt is the same as the probe data is calculated for the other combinations. A good value is obtained by pulling out one head from the model fit V. Therefore, even if the accuracy of the fitting process is slightly reduced and the value of the Modenotre fit V is slightly increased or decreased, the gallery image in which the target parameter pt is best matched with the probe data without being affected by it. Can be specified.
  • the target parameter ptp and the external parameter pep are estimated from the probe data Dp, and the target parameter ptg and the external parameter peg are estimated independently from the gallery image Ig, respectively.
  • the degree is being compared. For this reason, the difference in the similarity between ptp and ptg when the target parameters ptp and ptg to be compared are the same in both data Dp and Ig is different from the difference in the value of model suitability V in this embodiment. Therefore, it is strongly influenced by the absolute accuracy of the fitting process.
  • the processing device 1 2 0 0 is the model fitting instead of the model fitting evaluation means 1 2 0 2
  • storage device 1 3 0 0 reference information on the parameters of the gallery image and probe image used to calculate the model suitability in the model suitability assessment means 1 2 4 2 are different in that they are stored.
  • the parameters of the gallery image can be used for the parameters of the gallery image. Examples include the range of values that each parameter can take, the probability distribution that takes the values, and a separately estimated or known correct value.
  • the reference information regarding the parameters of the probe image includes, for example, a range of values that each parameter can take, a probability distribution that takes the values, a separately estimated or known correct value, and the like. Referring to FIG.
  • the model fitness evaluation means 1 2 4 2 performs the same operation as that in the first embodiment 2
  • some methods for calculating the model fit U are described.
  • the model fitness evaluation means 1 2 4 2 evaluates the parameters pt, pep, peg force S estimated by the 2D model fitting means 1 2 0 1 and whether they are within the allowable range. .
  • the gallery image parameter reference information 1 2 4 5 and the probe image parameter reference information 1 2 4 6 data indicating the range of values that can be taken by the estimated value pi of the i-th parameter is stored in advance in the storage device 1 3 0 Processing stored in 0 is executed.
  • the range is given as the upper and lower limit values (piO, pil) and piO ⁇ pi ⁇ pil
  • the model fit U is calculated by the following equation and output is executed: .
  • wi is a weight that determines the importance of each parameter, and an appropriate value is determined in advance. For example, 1 may be all.
  • the model fitness evaluation means 1 2 4 2 is the 2D model fitting
  • the process of calculating the model suitability U is executed using the error between the parameter pt, pep, and peg values estimated by the scanning means 1 2 0 1 and the parameter values known in advance.
  • the gallery image parameter reference information 1 2 4 5 and the professional image parameter reference information 1 2 4 6 know that the correct value of pi is piO, calculate the model fitness U using the following formula: Is executed.
  • wi is a weight that determines the importance of each parameter, and an appropriate value is determined in advance. For example, 1 may be all.
  • the model fitness evaluation means 1 2 4 2 is the parameter of the parameters pt, pep, peg estimated by the 2D model fitting means 1 2 0 1 Calculate the probability of taking the value and calculate the model fit U. If the gallery image parameter reference information 1 2 4 5 and the probe image parameter reference information 1 2 4 6 specify that the parameters pi force S, variance ⁇ ⁇ , and mean pim follow a normal distribution, the model fits using the following formula: Degree U is calculated. However, parameters with unknown probability distribution are excluded.
  • the matching means 1 2 0 3 is the same as in the first embodiment, and whether the target parameters of the probe image and the gallery image are the same by using the value of the model fitness U instead of the value of the model fitness V. Judge whether or not the value of the objective parameter of the probe image is estimated using the value of the objective parameter of the gallery image that has obtained a good model fit.
  • both the probe image Ip and the gallery image Ig are input, and it is assumed that the target parameter pt to be collated is the same for both images Ip and Ig.
  • the model fitting degree U which is a measure of the accuracy of the model fitting process, is calculated, and the matching process is performed with this model fitting degree U. Therefore, the probe image and the gallery image can be collated without being greatly affected by the absolute accuracy of the model fitting process. The reason is as follows.
  • model images I'P and I'g similar to the images Ip and Ig are never obtained. For this reason, the estimated parameters pt, pep, and peg become abnormal values, and the model fit U is extremely deteriorated.
  • the model images ⁇ p and ⁇ g similar to the images Ip and Ig are always obtained.
  • the values of the estimated parameters pt, pep, and peg are normal values, and the model suitability U is also a good value. Therefore, the difference in the value of the model suitability U when the target parameter pt to be verified is different for both images Ip and Ig is significant. For this reason, in the collation judgment with one set of gallery images Ig, if a threshold value is set to an intermediate value between them, the accuracy of the fitting process is slightly reduced and the value of the model suitability U is slightly increased or decreased. Since the distance from the threshold is large, the gallery image whose target parameter pt is the same as that of the probe image can be clearly distinguished from the gallery image which is not so.
  • the model suitability U calculated for the combination of the gallery image Ig and the probe image Ip whose target parameter pt is the same as the probe image is the other combination.
  • One head is extracted from the calculated model suitability U and shows a good value. Therefore, even if the accuracy of the fitting process is slightly reduced and the value of model suitability U is slightly increased or decreased, the gallery image in which the target parameter pt is the best match with the probe image is not affected. Can be specified.
  • the target parameter ptp and the external parameter pep are estimated from the probe image Ip, and the target parameter ptg and the external parameter peg are estimated independently from the gallery image Ig by the fitting process, and ptp and ptg Compare similarities ing. For this reason, the difference in the similarity between ptp and ptg when the target parameters ptp and ptg to be compared are the same in both images Ip and Ig is different from the difference in the value of the model suitability U in this embodiment. Not noticeable. Therefore, it is strongly influenced by the absolute accuracy of the fitting process.
  • the present embodiment is a system for collating images with each other and has been described by comparison with the first embodiment
  • the model fitness evaluation means 1 2 2 2 is used in the second embodiment.
  • An embodiment in which the model conformity evaluation means 1 2 4 2 of this embodiment is replaced is also conceivable.
  • an embodiment in which the model fitness evaluation means 1 2 3 2 is replaced with the model fitness evaluation means 1 2 4 2 of the present embodiment is also conceivable.
  • model conformity evaluation means 1 2 5 2 includes: gallery image Ig, gallery model image ⁇ g, probe image Ip, probe model image ⁇ p, target parameter pt, gallery external parameter peg, probe external Inputs parameter pep, gallery image parameter reference information 1 2 4 5 and probe image parameter reference information 1 2 4 6, and calculates and outputs model fitness W using model fitness V and model fitness U together.
  • the model conformity evaluation means 1 2 5 2 includes two evaluation units 1 2 5 3 and an evaluation unit 1 2 5 4, and an integration unit 1 2 5 5.
  • the evaluation unit 1 2 5 3 corresponds to the model suitability evaluation means 1 2 0 2 of FIG. 2 in the first embodiment, and includes a gear image Ig, a gallery model image ⁇ g, a probe image Ip, and a probe model image ⁇ p Is used as an input, the error is evaluated, and the model fit V is calculated and output.
  • the evaluation unit 1 2 5 4 corresponds to the model conformity evaluation means 1 2 4 2 of FIG. 14 in the fifth embodiment, and the gallery image parameter reference information 1 2 4 5 and the probe image parameter Data reference information 1 2 4 6 is referenced, and the confidence of each parameter pt, peg, pep estimated by model fitting means 1 2 0 1 is calculated, and model suitability U is output.
  • the integration unit 1 2 5 5 calculates and outputs a model fitness W obtained by integrating the model fitness V and the model fitness U.
  • Various methods can be used to calculate the model fitness W.
  • Model fitness W is calculated by the following formula.
  • the collating means 1 2 0 3 is almost the same as in the first embodiment. However, it is different in that the model suitability W is used instead of the model suitability V value, and whether the target parameters of the probe image and the gallery image are the same, or the value of the target parameter is estimated. . At this time, for the same reason as the first embodiment and the fifth embodiment, the probe image and the gallery image are not affected by the absolute accuracy of the model fitting process. Verification can be performed.
  • the present embodiment is a system for collating images with each other and has been described by comparison with the fifth embodiment
  • the model conformity evaluation means 1 2 2 2 is used in the second embodiment.
  • An embodiment in which the model conformity evaluation means 1 2 5 2 of this embodiment is replaced is also conceivable.
  • an embodiment in which the model fitness evaluation means 1 2 3 2 is replaced with the model fitness evaluation means 1 2 5 2 of the present embodiment is also conceivable.
  • model conformity assessment means 1 2 6 2 is provided instead of model conformity assessment means 1 2 5 2.
  • the first 2D model fitting means is the 2D model fitting means 1 2 0 1 of the sixth embodiment. Is used to perform simultaneous fitting of the gallery image and the probe image, and the remaining second 2D model fitting means 1 2 0 1 inputs only one of the gallery image and the probe image. It is used to generate model images and estimate parameters by fitting an image variation model to only those images.
  • the model fitness evaluation means 1 2 6 2 calculates the error between the model fitting result for a single image and the model fitting results for both images as the model fitness W.
  • the first model fitting means 1 2 0 1 uses the image variation model as an input by inputting both the probe image Ip to be recognized and the gallery image Ig to be collated with the input.
  • the model fitting process is performed using the target variable element as a common parameter, and the parameter value is determined so that an image as close as possible to both images Ip and Ig can be generated.
  • the generated probe model image ⁇ ⁇ , gallery model image I ′ g, estimated objective parameter pt, probe external parameter pep, and gear external parameter peg are output to the model fitness evaluation means 1 2 6 2.
  • the first second model fitting means 1 2 0 1 takes only the probe surface image Ip as an input, and obtains a parameter value that can generate an image as close as possible using an image variation model.
  • various methods corresponding to the image variation model can be used.
  • the technique of Prior Art Document 1 and the technique of Prior Art Document 2 can be used.
  • the estimated objective parameter is the probe individual objective parameter qtp
  • the external parameter is the probe individual external parameter qep
  • these are combined into probe image parameter information qp. Together with these, the generated probe individual model image I 'ps is output.
  • the second second model fitting means 1 2 0 1 inputs only the gallery image Ig, and obtains a parameter value that can generate an image as close as possible using the image variation model.
  • Various methods corresponding to the image variation model can be used.
  • the technique of Prior Art Document 1 and the technique of Prior Art Document 2 can be used.
  • the estimated objective parameter is the gallery individual objective parameter qtg
  • the external parameter is the gallery.
  • the individual external parameter qeg is combined, and the generated gallery individual model image I'gs is output together with these parameters as the gallery image parameter information qg.
  • Model suitability evaluation means 1 262 includes gallery image Ig, gallery model image I 'g, gallery individual model image gs, probe image Ip, probe model image ⁇ p, probe individual model image ps, objective parameter pt, external gallery Inputs parameter peg, profile external parameter pep, gallery image parameter information qg and probe image parameter information qp, and calculates and outputs model fitness W using model fitness V and model fitness U together.
  • the model suitability evaluation means 1262 includes two evaluation units 1263 and 1264, and an integration unit 1265.
  • the evaluation unit 1264 and the evaluation unit 1254 in the sixth embodiment are the same except for the following points.
  • Gallery image parameter reference information 1 254 and the second model off German output probe image parameter information q g and Giyarari image parameter information qg of computing means 1201 refer to the place of the probe image path Rameta reference information 1 246, a first The difference is that the parameter certainty factor is calculated based on the error from the values of the target parameter pt, the probe external parameter pep, and the gallery external parameter peg output by the model fitting means 1201 and output as the model suitability U.
  • model suitability U There are various methods for calculating the model suitability U, but the model suitability U may be calculated by the following equation.
  • wl, w2, w3, and w4 are weighting factors, and set appropriate values in advance. Note that the calculation method of the model suitability U described here is only an example, and can be changed to various calculation methods.
  • the evaluation unit 1263 corresponds to the evaluation unit 1253 in the sixth embodiment.
  • the evaluation unit 1263 includes a probe image Ip, a gear image Ig, a probe model image ⁇ p output from the first model fitting means 1 201, a gallery model image ⁇ g, 2 Model fitting means 1 2 0 1 output probe individual model image I 'ps and gallery individual model image ⁇ gs is input, and this individually generated model image
  • Model fit V is calculated by taking into account errors between I 'PS, rg S and model images r P , r g generated by using both the probe and gallery images.
  • the square error sum of the luminance values of the image can be used as shown in the following equation.
  • vp, vg, vps, and vgs are coefficients for adjusting the weight, and are set to appropriate values in advance.
  • the reciprocal of the number of pixels in each image may be used. It can also be changed adaptively depending on the situation.
  • various calculation methods can be used such as adding an error between Ip and I ′ ps and Ig and I ′ gs to Equation 29.
  • the difference in the luminance value of the image is used here, it is also possible to use various image feature amount errors such as edges and frequency components.
  • the integration unit 1 2 6 5 calculates and outputs a model fitness W obtained by integrating the model fitness V and the model fitness U.
  • Various methods can be used to calculate the model fitness W, but the above Equation 2: 7 can be used as an example.
  • the verification means 1 2 0 3 uses the model fitness W instead of the model fitness V value to verify whether the target parameters of the probe image and the gallery image are the same, or the objective parameter
  • the second embodiment is the same as the first embodiment except that the value of is estimated. At this time, for the same reason as in the first embodiment and the fifth embodiment, the probe image and the gear image can be collated without being greatly affected by the absolute accuracy of the model fitting process. it can.
  • this embodiment is a system for collating images with images, and has been described by comparison with the sixth embodiment.
  • the model fitness evaluation means 1 2 2 2 is replaced with the model fitness evaluation means 1 2 6 2 of the present embodiment is also conceivable.
  • the model suitability evaluation means 1 2 3 2 is replaced with the model suitability evaluation means 1 2 6 2 of this embodiment. Embodiments obtained are also conceivable.
  • the verification device of the present invention can be realized by a computer and a program, as well as by realizing the functions of the verification device in hardware.
  • the program is provided by being recorded on a computer-readable recording medium such as a magnetic disk or a semiconductor memory, and is read by the computer when the computer is started up and the computer is controlled by controlling the operation of the computer.
  • the above-described processing is executed by functioning as the verification device in each of the embodiments.
  • the parameter of the parameter estimated by reducing the accuracy of the blinking is calculated. It can be used for object recognition systems, methods, and programs that can achieve high recognition performance even in situations where accuracy is reduced.
  • the images to be recognized and 3D data taken in various variable environments are compared with the registered images and 3D data, and the captured object is the same, the state of the object, the posture, and the lighting conditions It can be used in an object recognition system, method, and program that can recognize with high accuracy whether the situation of the photographed camera is the same.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

 2Dモデルフィッティング手段1201は、画像変動モデル1204によってプローブ画像に類似するプローブモデル画像およびギャラリ画像に類似するギャラリモデル画像を生成するために最適なパラメタの値を推定する。その際、画像変動モデル1204の複数のパラメタのうちプローブ画像とギャラリ画像間で同一かどうかを判定する対象となるパラメタの値を両画像で同じ値にする。モデル適合度評価手段1202は、推定されたパラメタの下でのプローブモデル画像およびギャラリモデル画像のプローブ画像およびギャラリ画像に対するモデル適合度を算出する。照合手段1203は、モデル適合度を閾値と比較し、プローブ画像とギャラリ画像の同一性を判定する。

Description

照合装置および照合方法
技術分野:
本発明は、 変動する多様な環境下で撮影された画像や 3次元データを参照デー タと照合し、 被写体が何であるか、 または、 被写体の状態、 または、 撮影時の環 境などを認識する照合装置およぴ照合方法に関する。
明 田
背景技術:
画像に含まれる被写体が何である力、 その被写体の状態 (姿勢、 表情など)、 撮 影時の環境 (照明条件、 カメラの種類) などの要素を認識する方法がある。 その 一方法として、 認識対象となる画像と比較対象の参照画像との類似度を評価し、 両者の同一性を判定する方法が知られている。
しかし、 認識対象画像と参照画像との間で、 認識したい要素でないその他の要 素が変動する場合、 それらによって生じる画像の変動が認識目的の要素に起因す る変動よりも大きくなると、 認識したい要素が同一であってもそれが同一である と認識することが困難となり、 認識性能が低下する問題があった。
—例として、 人物の顔画像を入力として個人識別を行う顔照合システムにおい ては、 認識したい要素は顔の個人性であり、 その他の画像変動要素として顔の姿 勢、照明条件などがある。姿勢や照明の変化によって生じる画像輝度値の変化が、 個人差によって生じる画像輝度値の変動より大きい場合、 同一人物の画像データ どうしであっても、 他人であると判定してしまうといった誤照合が起こる原因と なっていた。
このような問題を改善するために、 画像変動を生じさせる多様な要素とその結 果として生じる画像変動との関係をあらかじめ用意した学習データ群などからモ デル化し、 各要素をパラメタ (パラメ一タと同義) として与えると、 その状況に おける画像を生成できる画像変動モデルを利用する方法が種々提案されている。 すなわち、 与えられた入力画像に対して画像変動モデ^/によって生成される画像 ができるだけ近くなるようなパラメタの値を推定するモデルフィッティング処理 を行い、 得られたパラメタ値のうち認識対象のパラメタ値に基づいて認識を行う 技術である。
以下の先行技術文献 2には、 上記技術の一例が開示されている。 同技術は、 あ らかじめ集めた多くの人物の 3次元顔モデルを元に、 個人差の要素すなわち顔の
3次元形状とテクスチャとの個性を表すパラメタによって 3次元顔モデルを生成 するモデルを作成する技術である。
さらに、 顔の姿勢と照明条件とを表すパラメタによって、 3次元顔モデルデー タからコンピュータグラフィクスを用いて前記姿勢おょぴ照明パラメタのあらわ す状況下での顔画像が生成される。 以上のモデルは、 個人性、 顔の姿勢、 照明条 件をパラメタとして与えると、 それらの状況における顔画像を生成できる画像変 動モデルの一例であり、 顔のモーファブルモデル (以下 MMとも称す) と呼ばれ る。
そして、 先行技術文献 2では、 参照画像 (以下ギャラリ画像とも称す) と認識 対象画像 (以下プローブ画像とも称す) とのそれぞれの画像に対して MMをフィ ッティングして、 個人性、 姿勢、 照明の各要素を表すパラメタを推定し、 この推 定したパラメタ群に基づいて両画像を照合する技術が示されている。具体的には、 以下の 2つの技術が示されている。
( 1 ) 推定されたパラメタ群のうち、 目的パラメタのみの類似度を計算して照 合する。 (2 ) 目的パラメタの値を認識対象画像から求めた値とし、 その他のパラ メタを登録画像から推定した値にしたときの画像を比較画像として MMから生成 し、 この生成した画像と登録画像との類似度を計算して照合する。
上記 (1 ) の技術は、 図 1に示されるように構成されている。 図 1において、 モデルフィッティング手段 1 0 0 1は、ギヤラリ画像 Igにできるだけ類似するよ うに画像変動モデル 1 0 0 3のパラメタを決定する。 このとき決定された一連の パラメタのうち、 照合の目的に対応するパラメタが目的パラメタ ptg、 それ以外 のパラメタが外部パラメタ pegである。 モデル画像 I' gはこのとき生成された画 像である。 例えば、 個人の顔の照合を行う場合、 目的パラメタ ptgは個人性パラ メタ、 外部パラメタ pegは姿勢や照明の各要素を表すパラメタとなる。 同様に、 モデルフイツティング手段 1 0 0 2によって、プローブ面像 Ipにできるだけ類似 するようなモデル画像 Γ pが得られるように、 画像変動モデル 1 0 0 3の目的パ ラメタ ptpおよび外部パラメタ pepが決定される。 そして、 パラメタ照合手段 1 0 0 4において、 目的パラメタ ptg, ptp どうしの類似度が計算される。 この計算 結果を当該ギヤラリ画像 Igとプローブ画像 Ipの類似度とする。 ギヤラリ画像 Ig が複数存在する場合、 他のギャラリ画像について同様の計算を行い、 最も類似度 の高かったギャラリ画像 Igを照合結果とする。
上記 (2 ) の技術では、 目的パラメタの値をプローブ画像から求めた目的パラ メタ ptpの値とし、 その他のパラメタをギャラリ画像から推定した外部パラメタ peg の値としたときの画像が比較画像として、 画像変動モデル 1 0 0 3から生成 される。 この比較画像と元のギャラリ画像 Igとの類似度が計算される。 この類似 度を当該ギヤラリ画像 Igとプローブ画像 Ipの類似度とする。ギヤラリ画像 Igが 複数存在する場合、 他のギャラリ画像についても同様の計算が行なわれ、 最も類 似度の高かったギャラリ画像 Igが照合結果となる。
•先行技術文献 1 :特開 2 0 0 2 - 1 5 7 5 9 5号公報
•先行技 fe"乂献 2 : Volker Blanz, Thomas Vetter, Face Recognition Based on Fitting a 3 D Morphable Model", IEEE Trans. PAMI, vol. 25, no. 9, pp. 1063-1074, 2003
•先行技 文献 3 : Sami Romdhani, Volker Blanz, Thomas Vetter, Face Identification by Fitting a 3 D Morphable Model using Linear Shape and Texture Error Functions", Proc. ECCV 2002, pp. 3 - 19, 2002
•先行技術文献 4 : Andreas Lanitis, Chris J. Taylor, Timothy F. Cootes, "Automatic Interpretation and Coding of Face Images Using Flexible Models", IEEE Trans. PATTERN ANALYSIS AND MACHINE INTELLIGENCE, VOL. 19, NO. 7, JULY 1997 発明の開示:
発明が解決しょうとする課題:
しかし、 上記した先行技術文献 2に記載される技術のフィッティング処理の高 速化技術を示している先行技術文献 3において指摘されているように、上記(1 ) および (2 ) のどちらの技術も推定されたパラメタの値の類似度に基づいて認識 を行うため、 照合性能がモデルフィッティング処理の絶対的な精度に強く影響さ れる。 これは、 先行技術文献 3の技術を用いた場合も同様である。
モデルフィッティング処理は、多数のパラメタの非線形最適化処理であるため、 状況によって推定が不安定になり、 また局所解に陥りやすくなり、 さらに、 与え る初期値によつて推定値の精度が影響されるなどの問題があり、 絶対的な精度を 高めるのは難しい。 推定されるパラメタの値の精度が低下すると、 上記 (1 ) お よび (2 ) の技術では、 プローブ画像とそれに正しく合致するギャラリ画像との 間の類似度と、 プロ一ブ画像とその他のギャラリ画像との間の類似度とに明確な 差が現れないため、 照合精度が大きく低下するという問題があった。
本発明の目的は、 認識対象となる画像や 3次元データに対して画像変動モデル や 3次元データ変動モデルをフィッティングして変動要素を推定する際に、 フィ ッティング処理の絶対的な精度の低下による影響を軽減することにある。
課題を解決するための手段:
本発明の第 1の態様に係る照合装置は、 物体の画像または 3次元データである 対象データと参照データとを照合する装置であって、 複数のパラメタの値を調整 することにより物体の画像または 3次元データであるモデルデータを生成できる 変動モデルを記憶する記憶手段と、前記記憶手段に記憶された変動モデルを用い、 前記複数のパラメタのうち、 前記対象データと前記参照データ間で同一かどうか を判定する対象となるパラメタを目的パラメタ、 それ以外のパラメタを外部パラ メタとし、 対象データと参照データとで目的パラメタを同一の値にした条件の下 で、 前記対象データに類似する対象モデルデータと前記参照データに類似する参 照モデルデータとを前記変動モデルから生成するために最適な前記パラメタの値 を推定するモデルフィッティング手段と、 前記推定されたパラメタの下での前記 対象モデルデータおよび前記参照モデルデータの前記対象データおよび前記参照 データに対するモデル適合度を算出するモデル適合度評価手段とを備えることを 特徴とする。
本発明の第 2の態様に係る照合装置は、 前記算出されたモデル適合度と予め定 められた閾値とを比較することにより、 前記対象データと前記参照データ間にお ける前記目的パラメタの同一性を判定する照合手段を備えることを特徴とする。 本発明の第 3の態様に係る照合装置は、 複数の参照データのそれぞれと前記対 象データとの組み合わせについて前記モデルフィッティング手段おょぴモデル適 合度評価手段による処理を繰り返し、 最も良いモデル適合度が得られた組み合わ せにおける目的パラメタの値を前記対象データの目的パラメタの推定値とする照 合手段を備えることを特徴とする。
本発明の第 4の態様に係る照合装置は、 複数の参照データのそれぞれと前記対 象データとの組み合わせについて前記モデルフィッティング手段およびモデル適 合度評価手段による処理を繰り返し、 予め定められた閾値以上のモデル適合度が 得られた複数の組み合わせにおける目的パラメタから計算した値を、 前記対象デ ータの目的パラメタの推定値とする照合手段を備えることを特徴とする。
本発明の第 5の態様に係る照合装置は、 前記モデル適合度評価手段は、 前記生 成された前記対象モデルデータと前記対象データとの間の誤差および前記生成さ れた前記参照モデルデータと前記参照データとの間の誤差を計算し、 該計算した 誤差から前記モデル適合度を算出することを特徴とする。
本発明の第 6の態様に係る照合装置は、 前記モデル適合度評価手段は、 前記推 定されたパラメタの値の確からしさを示すパラメタ確信度を予め定められたパラ メタ基準情報を参照して計算し、 該計算したパラメタ確信度から前記モデル適合 度を算出することを特徴とする。
本発明の第 7の態様に係る照合装置は、 前記モデル適合度評価手段は、 前記生 成された前記対象モデルデータと前記対象データとの間の誤差および前記生成さ れた前記参照モデルデータと前記参照データとの間の誤差を計算すると共に、 前 記推定されたパラメタの値の確からしさを示すパラメタ確信度を予め定められた パラメタ基準情報を参照して計算し、 前記計算した誤差およびパラメタ確信度か ら前記モデル適合度を算出することを特徴とする。
本発明の第 8の態様に係る照合装置は、 前記パラメタ基準情報が、 前記パラメ タの値の取り得る値域であることを特徴とする。
本発明の第 9の態様に係る照合装置は、 前記パラメタ基準情報が、 前記パラメ タの正解値であることを特徴とする。
本発明の第 1 0の態様に係る照合装置は、 前記パラメタ基準情報が、 前記パラ メタの値の確率分布であることを特徴とする。
本発明の第 1 1の態様に係る照合装置は、 前記モデルフイツティング手段は、 前記対象データに類似する対象個別モデルデータを前記変動モデルから生成する ための最適な前記パラメタの値、 および、 前記参照データに類似する参照個別モ デルデータを前記変動モデルから生成するための最適な前記パラメタの値を、 前 記対象データと前記参照データとで目的パラメタの値が必ずしも同一でないとの 条件の下に推定し、 前記モデル適合度評価手段は、 前記推定された対象個別モデ ルデータの前記パラメタの値およぴ前記参照個別モデルデータの前記パラメタの 値を、 前記パラメタ基準情報とすることを特徴とする。
本発明の第 1 2の態様に係る照合装置は、 前記モデルフイツティング手段は、 前記対象データに類似する対象個別モデルデータを前記変動モデルから生成する ための最適な前記パラメタの値、 および、 前記参照データに類似する参照個別モ デルデータを前記変動モデルから生成するための最適な前記パラメタの値を、 前 記対象データと前記参照データとで目的パラメタの値が必ずしも同一でないとの 条件の下に推定し、 前記モデル適合度評価手段は、 前記対象個別モデルデータと 前記対象データとの間の誤差、 前記参照個別モデルデータと前記参照データとの 間の誤差、 前記対象モデルデータと前記対象個別モデルデータとの間の誤差、 前 記参照モデルデータと前記参照個別モデルデータとの間の誤差の少なくとも一つ の誤差をさらに考慮に入れて前記モデル適合度を算出することを特徴とする。 本発明の第 1 3の態様に係る照合装置は、 前記変動モデルとして、 様々な物体 の 3次元モデルを含み、 物体を指定するパラメタに応じて指定の物体の 3次元モ デルを選択し、 該選択した 3次元モデルを、 物体の状態、 姿勢、 照明条件、 カメ ラの特性などのパラメタに応じて変形し、 さらに、 コンピュータグラフィクスを 用いて前記パラメタの表す状況下での画像を生成する画像変動モデルを使用する ことを特徴とする。
本発明の第 1 4の態様に係る照合装置は、 前記変動モデルとして、 物体の個性 や状態を指定するパラメタに応じて該状態における物体の 3次元モデルを計算し、 該計算した 3次元モデルを、 物体の姿勢、 照明条件、 カメラの特性などのパラメ タに応じて変形し、 さらに、 コンピュータグラフィクスを用いて前記パラメタの 表す状況下での画像を生成する画像変動モデルを使用することを特徴とする。 本発明の第 1 5の態様に係る照合装置は、 前記変動モデルとして、 様々な物体 の 3次元モデルを含み、 物体を指定するパラメタに応じて指定の物体の 3次元モ デルを選択し、 該選択した 3次元モデルを、 物体の状態、 姿勢、 照明条件、 カメ ラの特性などのパラメタに応じて変形する 3次元データ変動モデルを使用するこ とを特徴とする。
本発明の第 1 6の態様に係る照合装置は、 前記変動モデルとして、 物体の個性 や状態を指定するパラメタに応じて該状態における物体の 3次元モデルを計算し、 該計算した 3次元モデルを、 物体の姿勢、 照明条件、 カメラの特性などのパラメ タに応じて変形する 3次元データ変動モデルを使用することを特徴とする。
本発明の第 1 7の態様に係る照合装置は、 前記目的パラメタが物体の種類を記 述するパラメタであり、 前記照合手段が前記対象データと前記参照データの物体 が同一であるかを判定する手段であることを特徴とする。
本発明の第 1 8の態様に係る照合装置は、 前記変動モデルが顔の画像または 3 次元データを生成するモデルであり、 前記目的パラメタが人物の個性を記述する パラメタであり、 前記照合手段が前記対象データと前記参照データの人物が同一 であるかを照合する手段であることを特徴とする。
本発明の第 1 9の態様に係る照合装置は、 前記目的パラメタが物体の位置また は姿勢を特定するパラメタであり、 前記照合手段が前記対象データと前記参照デ ータの物体の位置または姿勢が同一であるかを照合する手段であることを特徴と する。
本発明の第 2 0の態様に係る照合装置は、 前記変動モデルが顔の画像または 3 次元データを生成するモデルであり、 前記目的パラメタが人物の顔の表情を特定 するパラメタであり、 前記照合手段が前記対象データと前記参照データの顔の表 情が同一であるかを照合する手段であることを特徴とする。
本発明の第 1の態様に係る照合方法は、 コンピュータを用いて物体の画像また は 3次元データである対象データと参照データとを照合する方法であって、 前記 コンピュータが、 複数のパラメタの値を調整することにより物体の画像または 3 次元データであるモデルデータを生成できる変動モデルを用い、 前記複数のパラ メタのうち、 前記対象データと前記参照データ間で同一かどうかを判定する対象 となるパラメタを目的パラメタ、 それ以外のパラメタを外部パラメタとし、 対象 データと参照データとで目的パラメタを同一の値にした条件の下で、 前記対象デ 一タに類似する対象モデルデータと前記参照データに類似する参照モデルデータ とを前記変動モデルから生成するために最適な前記パラメタの値を推定する第 1 のステップと、 前記コンピュータが、 前記推定されたパラメタの下での前記対象 モデルデータおよび前記参照モデルデータの前記対象データおよぴ前記参照デー タに対するモデル適合度を算出する第 2のステップとを含むことを特徴とする。 本発明の第 2の態様に係る照合方法は、 前記コンピュータが、 前記算出された モデル適合度と予め定められた閾値とを比較することにより、 前記対象データと 前記参照データ間における前記目的パラメタの同一性を判定する第 3のステップ をさらに含むことを特徴とする。
本発明の第 3の態様に係る照合方法は、 前記コンピュータ力 複数の参照デー タのそれぞれと前記対象データとの組み合わせについて前記第 1およぴ第 2のス テツプを繰り返し、 最も良いモデル適合度が得られた組み合わせにおける目的パ ラメタの値を前記対象データの目的パラメタの推定値とする第 3のステップをさ らに含むことを特徴とする。
本発明の第 4の態様に係る照合方法は、 前記コンピュータが、 複数の参照デー タのそれぞれと前記対象データとの組み合わせについて前記第 1および第 2のス テップを繰り返し、 予め定められた閾値以上のモデル適合度が得られた複数の組 み合わせにおける目的パラメタから計算した値を、 前記対象データの目的パラメ タの推定値とする第 3のステップをさらに含むことを特徴とする。
本発明の第 5の態様に係る照合方法は、 前記第 2のステップにおいては、 前記 生成された前記対象モデルデータと前記対象データとの間の誤差および前記生成 された前記参照モデルデータと前記参照データとの間の誤差を計算し、 該計算し た誤差から前記モデル適合度を算出することを特徴とする。
本発明の第 6の態様に係る照合方法は、 前記第 2のステップにおいては、 前記 推定されたパラメタの値の確からしさを示すパラメタ確信度を予め定められたパ ラメタ基準情報を参照して計算し、 該計算したパラメタ確信度から前記モデル適 合度を算出することを特徴とする。
本発明の第 7の態様に係る照合方法は、 前記第 2のステップにおいては、 前記 生成された前記対象モデルデータと前記対象データとの間の誤差およぴ前記生成 された前記参照モデルデータと前記参照データとの間の誤差を計算すると共に、 前記推定されたパラメタの値の確からしさを示すパラメタ確信度を予め定められ たパラメタ基準情報を参照して計算し、 前記計算した誤差およびパラメタ確信度 から前記モデル適合度を算出することを特徴とする。
本発明の第 8の態様に係る照合方法は、 前記パラメタ基準情報が、 前記パラメ タの値の取り得る値域であることを特徴とする。
本発明の第 9の態様に係る照合方法は、 前記パラメタ基準情報が、 前記パラメ タの正解値であることを特徴とする。
本発明の第 1 0の態様に係る照合方法は、 前記パラメタ基準情報が、 前記パラ メタの値の確率分布であることを特徴とする。
本発明の第 1 1の態様に係る照合方法は、 前記コンピュータが、 前記対象デー タに類似する対象個別モデルデータを前記変動モデルから生成するための最適な 前記パラメタの値、 および、 前記参照データに類似する参照個別モデルデータを 前記変動モデルから生成するための最適な前記パラメタの値を、 前記対象データ と前記参照データとで目的パラメタの値が必ずしも同一でないとの条件の下に推 定し、 該推定した対象個別モデルデータの前記パラメタの値および前記参照個別 モデルデータの前記パラメタの値を、 前記パラメタ基準情報とすることを特徴と する。
本発明の第 1 2の態様に係る照合方法は、 前記コンピュータが、 前記対象デー タに類似する対象個別モデルデータを前記変動モデルから生成するための最適な 前記パラメタの値、 および、 前記参照データに類似する参照個別モデルデータを 前記変動モデルから生成するための最適な前記パラメタの値を、 前記対象データ と前記参照データとで目的パラメタの値が必ずしも同一でないとの条件の下に推 定し、 前記対象個別モデルデータと前記対象データとの間の誤差、 前記参照個別 モデルデータと前記参照データとの間の誤差、 前記対象モデルデータと前記対象 個別モデルデータとの間の誤差、 前記参照モデルデータと前記参照個別モデルデ ータとの間の誤差の少なくとも一つの誤差をさらに考慮に入れて前記モデル適合 度を算出することを特徴とする。
本発明では、 プローブ画像とギャラリ画像との間での、 認識目的とする画像変 動要素の類似性判定には、 その要素をあらわすパラメタの値自体を推定する必要 はなく、 両画像においてその要素が同一であるかどう力 \ すなわち、 同一である ことの確からしさだけが分かればよいことを利用する。 さらに本発明では、 ある 画像変動要素が同じである複数の画像に対して、 当該同じである要素をあらわす パラメタを共通にして、 画像変動モデルを両方の画像にフイツティングさせる処 理はそれなりの精度で行えるのに対し、 逆に、 ある画像変動要素が異なっている 画像群に対して、 当該異なっている要素をあらわすパラメタを共通にして、 画像 変動モデルを両方の画像にフィッティングさせる処理は極端にその精度が低下す る現象を利用する。 プローブ画像とギャラリデータ、 プローブデータとギャラリ 画像、 プローブデータとギャラリデータとの類似性判定についても同様である。 すなわち本発明では、 複数のパラメタの値を調整することにより物体の画像ま たは 3次元データであるモデルデータを生成できる変動モデルを用い、 前記複数 のパラメタのうち、 前記対象データと前記参照データ間で同一かどうかを判定す る対象となるパラメタを目的パラメタ、それ以外のパラメタを外部パラメタとし、 対象データと参照データとで目的パラメタを同一の値にした条件の下で、 前記対 象データに類似する対象モデルデータと前記参照データに類似する参照モデルデ 一タとを前記変動モデルから生成するために最適な前記パラメタの値を推定し、 前記推定されたパラメタの下での前記対象モデルデータおよび前記参照モデルデ ータの前記対象データおょぴ前記参照データに対するモデル適合度を算出し、 該 算出されたモデル適合度と予め定められた閾値とを比較することにより、 前記対 象データと前記参照データ間における前記目的パラメタの同一性を判定する。 前記モデル適合度としては、 一例として、 前記生成された前記対象モデルデー タと前記対象データとの間の誤差および前記生成された前記参照モデルデータと 前記参照データとの間の誤差を計算し、 該計算した誤差から導出される値を用い ることができ、 また、 他の例として、 前記推定されたパラメタの値の確からしさ を示すパラメタ確信度を予め定められたパラメタ基準情報 (例えばパラメタの値 の取り得る値域、 パラメタの正解値、 パラメタの値の確率分布など) を参照して 計算し、 該計算したパラメタ確信度から導出される値を用いることができ、 さら にこれらを組み合わせて使用することもできる。 また、 前記対象データに類似す る対象個別モデルデータを前記変動モデルから生成するための最適な前記パラメ タの値、 および、 前記参照データに類似する参照個別モデルデータを前記変動モ デルから生成するための最適な前記パラメタの値を、 前記対象データと前記参照 データとで目的パラメタの値が必ずしも同一でないとの条件の下に推定し、 この 推定された対象個別モデルデータの前記パラメタの値および前記参照個別モデル データの前記パラメタの値を、 前記パラメタ基準情報とすることもできる。 また前記対象データに類似する対象個別モデルデータを前記変動モデルから生 成するための最適な前記パラメタの値、 および、 前記参照データに類似する参照 個別モデルデータを前記変動モデルから生成するための最適な前記パラメタの値 を、 前記対象データと前記参照データとで目的パラメタの値が必ずしも同一でな いとの条件の下に推定し、 前記対象個別モデルデータと前記対象データとの間の 誤差、 前記参照個別モデルデータと前記参照データとの間の誤差、 前記対象モデ ルデータと前記対象個別モデルデータとの間の誤差、 前記参照モデルデータと前 記参照個別モデルデータとの間の誤差の少なくとも一つの誤差をさらに考慮に入 れて前記モデル適合度を算出することもできる。
発明の効果:
本発明によれば、 認識対象となる画像や 3次元データに対して画像変動モデル や 3次元データ変動モデルをフィッティングして変動要素を推定する際に、 フィ ッティング処理の絶対的な精度の低下による影響を軽減することができる。 その 理由は、 照合したい目的パラメタの値が対象データと参照データで異なる場合に は、 目的パラメタを共通にしたフィッティング処理では両データに類似したモデ ルデータが決して求まらないためにモデル適合度が極端に悪化し、 逆に、 照合し たい目的パラメタの値が両データで同じである場合には、 両データに類似したモ デルデータが基本的には必ず求まるためにモデル適合度が良 、値を示す点を利用 し、 照合したい目的パラメタが両データで同じであるときと異なるときのモデル 適合度の値の隔たりを顕著化させているためである。 図面の簡単な説明 :
図 1は、 従来技術の説明図である。
図 2は、 本発明の第 1の実施の形態のプロック図である。
図 3は、 本発明の第 1の実施の形態における処理の流れを示す図である。 図 4は、 本発明の第 1の実施の形態における 2 Dモデルフィッティング手段の 構成とその処理の流れを示す図である。
図 5は、 本発明の第 2の実施の形態のプロック図である。
図 6は、 本発明の第 2の実施の形態における処理の流れを示す図である。 図 7は、 本発明の第 2の実施の形態における 3 Dモデルフィッティング手段の 構成とその処理の流れを示す図である。
図 8は、 本発明の第 3の実施の形態のプロック図である。
図 9は、 本発明の第 3の実施の形態における処理の流れを示す図である。 図 1 0は、 本発明の第 3の実施の形態における 2 D 3 Dモデルフィッティング 手段の構成とその処理の流れを示す図である。 図 1 1は、 本発明の第 4の実施の形態のブロック図である。
図 1 2は、 本発明の第 4の実施の形態における処理の流れを示す図である。 図 1 3は、 本発明の第 4の実施の形態における 2 D 3 Dモデルフィッティング 手段の構成とその処理の流れを示す図である。
図 1 4は、 本発明の第 5の実施の形態のプロック図である。
図 1 5は、 本発明の第 5の実施の形態における処理の流れを示す図である。 図 1 6は、 本発明の第 6の実施の形態のブロック図である。
図 1 7は、 本発明の第 6の実施の形態における処理の流れを示す図である。 図 1 8は、 本発明の第 7の実施の形態のブロック図である。
図 1 9は、 本発明の第 7の実施の形態における処理の流れを示す図である。 発明を実施するための最良の形態:
次に、 本発明を実施するための最良の形態について、 図面を参照して詳細に説 明する。
(第 1の実施の形態)
図 2を参照すると、 本実施の形態は、 プログラム制御により動作する処理装置 1 2 0 0と、 この処理装置 1 2 0 0に接続された画像入力装置 1 1 0 0、 記憶装 置 1 3 0 0、 入力装置 1 5 0 0および出力装置 1 6 0 0とから構成される。 認識 対象であるプロ一ブ画像と参照画像であるギャラリ画像とが照合される。
画像入力装置 1 1 0 0は、 プローブ画像を処理装置 1 2 0 0に入力する装置で あり、 カメラであってもよいし、 図示しない記憶装置からプローブ画像を読み込 んだり、 ネットワークを通じてプローブ画像を受信する装置であっても良い。 記憶装置 1 3 0 0は、 処理装置 1 2 0 0で実行するプログラムおよび照合に用 いる各種のデータを記憶する。 各種データには、 ギャラリ画像および画像変動モ デルに関するデータが含まれる。 ギャラリ画像は、 あらかじめ記憶装置 1 3 0 0 に記憶しておいても良いし、 プローブ画像と共に、 その都度、 読み込まれても良 レ、。
画像変動モデルは、 物体の種類、 物体の状態、 姿勢、 照明条件、 カメラなどの 多様な画像変動要素によって、 撮影される画像がどのように変動するかを記述し たモデルである。 画像変動モデルは、 付与される多様な画像変動要素という条件 の下におけるモデル画像を生成するために使用される。 画像変動モデルに関する データには、モデル画像を生成する過程で必要とされる一切のデータが含まれる。 画像変動モデルの一例 (モデル 1と称す) として、 上記先行技術文献 2に記載 されているようなモデルがある。 このモデルは、 多様な人物の顔画像を、 3 D形 状の個性、 テクスチャの個性、 表情、 顔の姿勢、 照明条件、 カメラの性質をそれ ぞれ現すパラメタを与えることによってコンピュータグラフィクスの技術により 生成される画像変動モデルである。 この場合、 あらかじめ多数の人物の顔の 3 D データが集められ、形状およびテクスチャのそれぞれのデータが主成分分析され、 基底 3 Dデータ群およぴ基底テクスチヤ群が計算され、 記憶部に記憶される。 画像変動モデルの別の例 (モデル 2と称す) として、 上記先行技術文献 1に記 載されているモデルがある。 このモデルは、 照合したい人物のそれぞれの 3 D形 状データと照明基底データを備え、 人物を指定し、 顔の姿勢、 照明、 カメラの性 質をそれぞれあらわすパラメタを与えることによって、 該条件での該人物の顏画 像を生成するような画像変動モデルである。 この場合、 各人物の顔の 3 Dモデル それぞれについて、 多様な照明条件下でのテクスチャ輝度値が計算され、 それら データが主成分分析され、 基底テクスチャ群が計算され、 記憶部に記憶される。 上記した例としてあげた画像変動モデルはあくまで一例である。 このほかにも 様々な画像変動モデルを利用することが可能である。 3次元データを用いない画 像変動モデルの一例として、 上記先行技術文献 4に記載された 「Active Appearance Model J なども同様に利用可能である。
処理装置 1 2 0 0は、 2 Dモデルフィッティング手段 1 2 0 1と、 モデル適合 度評価手段 1 2 0 2と、 照合手段 1 2 0 3とを備える。
2 Dモデルフィッティング手段 1 2 0 1は、 図 3に示されるように、 ギャラリ 画像 Igおよびプローブ画像 IPの両者を入力して、 認識目的の要素をあらわす目 的パラメタ ptが両画像 Ig, IPで同一の値をとり、その他の変動要素をあらわすパ ラメタ peが両画像 Ig, IPで異なる値をとる場合があると仮定すると、前述したよ うな画像変動モデル 1 2 0 4を用いてそれぞれの画像 Ig,IP にできるだけ近い
(以下に示したコスト関数の値が小さくなるような) モデル画像 g,i' pを生成 できるように、 各パラメタ pt,peの値が計算される。 この技術は、 上記先行技術 文献 1に記載の技術のように、 プロープ画像 IPとギャラリ画像 Igのそれぞれに 対して独立に目的パラメタ ptと外部パラメタ peの両者を推定するという技術と は異なる。 すなわち、 この目的パラメタ ptが両画像で同じ値を取ると仮定して、 両画像に対して同時に目的パラメタ ptおよび外部パラメタ peが推定される。 こ こで、 ギャラリ画像 Igについて推定された外部パラメタ peを peg、 プローブ画 像 IPについて推定された外部パラメタ peを pepとする。
一例として、 顔画像によって人物を識別する個人認識システムを例にすると、 目的パラメタ ptは個人性をあらわすパラメタ、 外部パラメタ peは顔の姿勢、 照 明条件、 カメラの性質に関するパラメタである。 顔の姿勢のパラメタとして、 顔 の 3次元的な位置座標と、 顔の 3次元的な向きを表す 3つの回転角度がある。 照 明条件のパラメタとしては、 照明の方向と強度をあらわす 3次元べクトルを一例 として利用できる。 以上のパラメタの設定方法はあくまで一例であり、 使用する 画像変動モデルに合わせて様々に変更可能である。
別の例として、 物体の位置や向きを推定する位置姿勢推定システムを例にする と、 目的パラメタ ptは姿勢パラメタであり、 外部パラメタ peは物体の種類、 照 明条件、 カメラの性質に関するパラメタである。 ある特定の物体しか認識対象と しない場合には、 物体の種類のパラメタはなくてもよレ、。 また、 照明条件が同じ である画像し力認識しない場合には、 照明条件のパラメタはなくてもよレ、。 この ように、 必要に応じてパラメタを設定することができる。
図 4を参照すると、 2 Dモデルフィッティング手段 1 2 0 1は、 初期値推定手 段 2 1 0 1と、 モデル画像生成手段 2 1 0 2と、 コスト評価手段 2 1 0 3と、 パ ラメタ推定手段 2 1 0 4とを備える。 これらの手段はそれぞれ概略つぎのように 動作する。
初期値推定手段 2 1 0 1は、 プローブ画像 IPおよびギヤラリ画像 Igのそれぞ れについて、 画像変動要素のパラメタ pt、 peg, pepの初期値を求める。 これは、 あらかじめ与えられた既知の値でもよいし、 別途のセンサーなどによって計測さ れる値でもよく、 また、 各画像 IP, Igに付与される情報として入力されるもので もよい。 その一例として、 顔画像認識の場合は、 画像中の顔の目や鼻、 口の位置 などを示す基準点位置データを付与情報としておくことにより、 該付与情報から 顔の姿勢の概算値を初期値として計算することができる。
個人性のパラメタは平均値を初期値とすることができる。 その他のパラメタも 適時値をあらかじめ定めておいてもよい。 両画像 IP, Igに対する目的パラメタ pt の初期値、 プローブ画像 IPに対する外部パラメタ pep の初期値、 ギャラリ画像 Igに対する外部パラメタ pegの初期値は、 モデル画像生成手段 2 1 0 2へ出力さ れる。
モデル画像生成手段 2 1 0 2では、 初回のモデル画像の生成時は、 初期値推定 手段 2 1 0 1から初期値として出力された目的パラメタ pt および外部パラメタ pep, peg が使用され、 以後の繰り返し時にはパラメタ推定手段 2 1 0 4によって 更新された目的パラメタ ptおよび外部パラメタ pep, pegが使用される。
モデル画像生成手段 2 1 0 2は、 画像変動モデル 1 2 0 4を用いて、 これらパ ラメタ {pt, pep, peg}の表す状況下における画像をモデル画像として生成する。 パ ラメタが複数ある場合、 {Pt, pep, peg}はそれぞれべクトノレとなる。
画像変動モデル 1 2 0 4として前記先行技術文献 2に記載のモデルを用いた場 合、 個人性をあらわすパラメタを結合係数とした基底 3 Dデータおよび基底テク スチヤデータそれぞれの線形結合を計算することにより、 特定人物の顔の 3 Dデ ータが計算される。 次に、 姿勢、 照明、 カメラ特性のパラメタにより、 コンビュ 一タグラフィタスの技術を用いてモデル画像が生成される。
モデル画像生成手段 2 1 0 2は、 画像変動モデル 1 2 0 4として前記先行技術 文献 1に記載のモデルを用いた場合、 個人性をあらわすパラメタを元に、 対応す る 3 D形状データと基底テクスチャ群が選択する。 モデル画像生成手段 2 1 0 2 は、 次に、 照明パラメタを結合係数として前記基底テクスチャ群の線形結合を計 算することにより、 該照明条件における 3 Dデータ表面の輝度値を計算する。 次 に、 姿勢、 カメラ特性などのパラメタにより、 コンピュータグラフィクスの技術 を用いて 3 Dデータ表面の各点と画像の各画素の位置の対応関係が計算され、 対 応する 3 Dデータ表面の輝度値を画素の輝度値とすることにより、 モデル画像が 生成される。
以上の処理を、 プローブ画像 Ipおよびギャラリ画像 Igそれぞれに対して行う ことにより、 プロ一プモデル画像 Γ pおよびギャラリモデル画像 Γ gが生成され る。 ただし、 各モデル画像の生成過程において、 目的パラメタ ptは同一の値であ ると仮定し共通パラメタとする。外部パラメタ peは異なる値をとる可能性がある ので異なるパラメタとする。
一例として、 顔の画像から人物を特定する個人識別システムの場合は、 顔の形 状やテクスチャの個人性を現すパラメタが目的パラメタ pt、顔の姿勢、照明条件、 カメラ特性などを記述するパラメタが外部パラメタ peとなる。また他の例として 物体の向きを認識するシステムにおいては、 物体の姿勢をあらわすパラメタが目 的パラメタ ptであり、物体の種類や形状、 表面色、 照明条件、 カメラの特性など をあらわすパラメタが外部パラメタ peとなる。
プローブ画像の外部パラメタを pep、ギャラリ画像の外部パラメタを pegとし、 上述した画像変動モデルによる画像生成を関数 M(pt, pe)であらわすと、 プローブ モデル画像 Γ pおよびギヤラリモデル画像 gは次式で与えられる。
I p=M(pt, pep)
- (1)
I g=M、pt, peg)
コスト評価手段 2 1 0 3は、 プローブモデル画像 Γ ρとプローブ画像 Ιρ、 ギヤ ラリモデル画像 gとギャラリ画像 Igをそれぞれ比較し、モデルフイツティング のコスト関数を計算する。 コスト関数は、 一例として次式に示すように、 比較す る両画像の輝度値の二乗誤差和とすることができる。
C= | I一 I' | 2
I= [IpT, wglgTlT …②
= LI pT, wgi gT]T
ただし、式 2において、 Ipはプローブ画像の各画素の輝度値を並べたベタトル、 Igはギャラリ画像の各画素の輝度値を並べたベタトル、 ρはプローブモデル画 像の各画素の輝度値を並べたベタ トル、 I'g はギャラリ画像の各画素の輝度値を 並べたベタトルであり、 画像べク トル Iは Ipと wglgを並べたべクトル、 モデル 画像べクトノレ Γは Γρと Wgl' gを並べたべクトルとする。 Wgの値はあらかじめ適 当な値を定めておけばよいが、 一例として、 プローブ画像の画素数をギャラリ画 像の画素数で割った値としてもよい。
他の例として、 前記先行技術文献 2の技術のように、 各パラメタの値の事前確 率を表すコスト項を、 式 2のコスト関数値に加算することもできる。
パラメタ推定手段 2104は、式 2のコスト関数値を改良(式 2の場合は小さい 値に)するように、 目的パラメタ ptおよび外部パラメタ pep、 pegそれぞれの値を 更新する。 これには様々な最適化手法が利用可能であるが、 一例として最急降下 法がある。
各パラメタ(pt, pep, peg)を並べた全パラメタべクトルを pとし、各要素 piの値 をあらかじめ決めた微小な量 Ai だけ変化させて、 モデル画像生成手段 2102 によりそれぞれの要素を微小変化させたときのモデル画像 (p+Ai)が生成され る(Δίは要素 iが Ai、 他の要素がゼロのベク トル)。 次に、 コスト評価手段 21 03によってコスト関数の値 C(p+Ai)が次式により計算される。
C(p+Ai) = |l-r (ρ+Δΐ)|2 -(3)
次に、 変化後のコスト関数値と元のコスト関数値の差分を前記微小変化量で割 ることによって、 コスト関数の勾配べクトル VCの値が次式により計算される。
VC=[(C(p+Al)-C(p))/Al, ½(Ρ+Δ2)_〇(ρ))ΖΔ2,···]Τ …(4) 最急降下法によって、 パラメタ ρの値は次式で更新される。
p(t+l)=p(t)-a VC ---(5)
αは事前に決めたゲイン定数とする。 一例として値は 1.0でもよレ、。 また、 状 況に応じて適応的に変化させることもできる。
以上の方法はあくまで一例であり、他にも Gauss- Newton法などの様々な最適化 手法を利用することが可能である。 一例として Gauss - Newton法を用いる場合は、 ャコビ行列 Jを次式で求めることができる。
J=[(I-I' (ρ+Δ1))/厶 1, (I一 I, (ρ+Δ2))ノ Δ2,…] …(6) パラメタ pは次式で更新される。
p (t+1) =p (t) - a (JTJ)— 1 J (Ι-Ι' (p) ) · · · (7)
この他にも、 様々な最適化手法を適用して、 コスト関数 Cの値を最小にするよ うなパラメタの値を求めることももちろん可能である。
なお、 画像変動モデル 1 2 0 4として前記モデル 2を用いた場合、 個人性をあ らわすパラメタは人物の番号であり連続的な値を取らない。 このような場合は、 微分値を計算せずに、 取りえる値のそれぞれについて (すなわち、 個々の人物の 顔のそれぞれについて)、モデル画像生成手段 2 1 0 2とコスト評価手段 2 1 0 3 の処理を線り返し行ってコスト関数の値を計算し、 最良のコスト値を得た値を推 定値とすることができる。このとき、他の連続的な値を取るパラメタについては、 上述した方法や様々な最適化手法を適用してコスト関数値を最小にするパラメタ の値が求められる。
再び図 2およぴ図 3を参照すると、 モデル適合度評価手段 1 2 0 2は、 モデル フィッティング手段 1 2 0 1の処理によってパラメタ推定が適正に行われたかど うかを評価する。 すなわち、 モデルフィッティング処理においては、 目的パラメ タ ptがギャラリ画像とプローブ画像で同じ値であると仮定して処理を行ったが、 この仮定が事実と適合したかどうかをはかる尺度であるモデル適合度が計算され る。
本実施の形態におけるモデル適合度評価手段 1 2 0 2は、 2 Dモデルフイツテ イング手段 1 2 0 1によって生成されたギャラリモデル画像 I' gとギャラリ画像 Ig、プローブモデル画像 Γ pとプローブ画像 Ipの誤差をそれぞれ計算し、両者を 合算した値をモデル適合度 Vとして出力する。 誤差としては様々な画像特徴量を 用いることができるが、 一例として、 次式に示すように画像の輝度値の二乗誤差 和を用いることができる。
V=vp | lp-I' p | 2+vg | lg-I' g | 2 …(8)
式 8において、 vp,vg はプローブ画像とギャラリ画像それぞれに対する重みを 調整する係数であり、あらかじめ適当な値を定めておく。一例として、 vp= 1, vg=wg としてもよい。 また各画像の画素数の逆数としてもよいし、 状況によって適応的 に変更することも可能である。 モデル適合度 Vは誤差を表しているので、 Vの値 が小さいほど良いという点に注意する。
さらに、 プローブ画像を複数のギャラリ画像と照合するシステムにおいて、 そ れぞれのギヤラリ画像でモデルフイツティングの精度が大きく変動する (ギヤラ リ画像とギャラリモデル画像の差分が変動する) 場合には、 vgを小さくすること で認識性能を向上することができる。 その一例として、 プローブ画像とそれぞれ のギャラリ画像の組に対してモデルフィッティング手段 1 2 0 1の処理を行った 結果のギャラリ画像とギャラリモデル画像の誤差(| lg— Ig | 2)の分散、 プローブ 画像とプローブモデル画像の誤差(| lp— Ip' | 2)の分散がそれぞれ計算される。 前 記各分散の逆数がそれぞれ vg, vpの値となる。
以上に示したモデル適合度 Vの計算方法はあくまで一例であり、 このほかにも ェッジ画像を生成してその輝度誤差を用いる、 輝度値の正規化相関値を用いるな ど、 様々な画像特徴量を用いることが可能である。 すなわち、 プローブモデル画 像とプローブ画像との間の何らかの画像特徴量の誤差と、 ギャラリモデル画像と ギヤラリ画像との間の何らかの画像特徴量の誤差とを足した量を、 モデル適合度 Vとすることができる。
照合手段 1 2 0 3は、 モデル適合度評価手段 1 2 0 2によって計算されたモデ ル適合度 Vを用いて、 ギャラリ画像 Igとプローブ画像 Ipの照合判定を行う。 1 セットのギャラリ画像 Igとの照合判定を行う場合の一例として、あらかじめ閾値 を定めておき、 その閾値よりモデル適合度 Vが良い (式 8の場合は値が小さレ、) 場合に、 プローブ画像 Ipの目的パラメタ ptがギャラリ画像 Igの目的パラメタ ptと同じであると判定する方法がある。
他方、 プローブ画像 Ipを複数セットのギャラリ画像 Igと照合する場合には、 それぞれのギャラリ画像 Igとプローブ画像 Ipの組み合わせに対して、 2 Dモデ ルブイッティング手段 1 2 0 1とモデル適合度評価手段 1 2 0 2との処理を行つ て、 モデル適合度 Vが計算される。 もっとも良いモデル適合度 (式 8を用いる場 合にはもつとも小さい値) を得たギャラリ画像 Igの目的パラメタ pt力 S、 プロ一 プ画像の目的パラメタ ptにもつとも近い値であると判定される。 一例として、 顔画像による個人識別システムを例に説明する。 3人の人物 A, B, Cの顔を撮影したギャラリ画像 3枚に対してプローブ画像を照合し、 人物 B のギャラリ画像がもっとも良レ、モデル適合度を得たとすると、 プロープ画像に写 つている人物は人物 Bであると認識される。 このとき、 ギャラリ画像の 3枚それ ぞれで、 顔の向きや照明条件などの外部パラメタが異なっていても、 外部パラメ タはモデル適合度に影響しないため正しく個人識別を行うことができる。
さらに別の例として、 物体の姿勢を認識するシステムを例に説明する。 一例と して物体を左 9 0度から正面、 右 9 0度まで 1 0度間隔の向きに置いて撮影した 1 9枚のギャラリ画像に対してプローブ画像を照合し、 右 7 0度の向きのギャラ リ画像がもっとも良いモデル適合度を得たとすると、 プローブ画像に写つている 物体の向きは右 7 0度である、 と認識される。 このとき、 ギャラリ画像の 1 9枚 それぞれで、 照明条件やカメラの特性といった外部パラメタが異なっていても、 外部パラメタはモデル適合度に影響しないため正しく物体の姿勢を認識すること ができる。
次に本実施の形態の効果を説明する。
本実施の形態では、 プローブ画像 Ipとギャラリ画像 Igの双方の画像を入力と し、照合したい目的パラメタ ptが両画像 Ip, Igで同じであると仮定してモデルフ ィッティング処理を行い、 そのモデルフィッティング処理の精度の尺度であるモ デル適合度 Vを計算し、 このモデル適合度 Vを持つて照合を行うため、 モデルフ ィッティング処理の絶対的な精度にあまり影響を受けずにプローブ画像とギャラ リ画像との照合を行うことができる。 その理由は以下の通りである。
照合したい目的パラメタ ptの値が両画像 Ip, Igで異なる場合には、 画像 Ip, Ig に類似したモデル画像 Γ p, gが決して求まらないため、 モデル適合度 Vは極端 に悪化する。他方、 照合したい目的パラメタ ptの値が両画像 Ip, Igで同じである 場合には、 画像 IP, Igに類似したモデル画像 Γ p, gが基本的には必ず求まるた め、 モデル適合度 Vは良い値を示す。 したがって、 照合したい目的パラメタ ptが 両画像 Ip, Igで同じであるときと異なるときのモデル適合度 Vの値の隔たりが顕 著になる。 このため、 1セットのギャラリ画像 Igとの照合判定では、 その中間の 値に閾値を設定しておけば、 フィッティング処理の精度が多少低下してモデル適 合度 Vの値が多少上下しても、閾値との距離が大きいためにその影響を受けずに、 目的パラメタ pt がプローブ画像と同じであるギャラリ画像とそうでないギャラ リ画像とを明確に区別することができる。 また、複数セットのギヤラリ画像 Igと の照合判定では、 目的パラメタ ptがプローブ画像と同じであるギャラリ画像 Ig とプローブ画像 Ipの組み合わせについて計算されたモデル適合度 V 、それ以外 の組み合わせについて計算されたモデル適合度 Vより頭一つ抜きん出て良好な値 を示す。 このため、 フィッティング処理の精度が多少低下してモデル適合度 Vの 値が多少上下しても、 その影響を受けずに、 目的パラメタ ptがプローブ画像と一 番良く合致しているギャラリ画像を特定することができる。
これに対して、 従来技術においては、 プローブ画像 Ip からその目的パラメタ ptpと外部パラメタ pepと、 ギャラリ画像 Igからその目的パラメタ ptgと外部パ ラメタ pegとがそれぞれ独立にフィッティング処理で推定され、 ptp と ptgの類 似度が比較される。 このため照合したい目的パラメタ ptp と ptgが両画像 Ip, Ig で同じであるときと異なるときの ptpと ptgの類似度の隔たりが、 本実施の形態 におけるモデル適合度 Vの値の隔たりのように顕著にならない。 このため、 フィ ッティング処理の絶対的な精度の影響を強く受けることになる。
以上の説明においては、 プ口ーブ画像が 1枚の画像である場合について説明し たが、 複数枚の画像を認識する場合についてもまったく同様である。 また、 ギヤ ラリ画像が複数枚の画像を 1セットとしている場合についても同様である。
(第 2の実施の形態)
次に、 本発明の第 2の実施の形態について説明する。 前述した第 1の実施形態 は画像どうしを照合したが、 本実施の形態は 3次元データどうしを照合する。 図 5に示される本実施の形態と図 2に示される第 1の実施の形態とを比較する と、 画像入力装置 1 1 0 0の代わりに 3次元データ入力装置 1 4 0 0を備えてい る点、 処理装置 1 2 0 0が 2 Dモデルフィッティング手段 1 2 0 1およびモデル 適合度評価手段 1 2 0 2の代わりに 3 Dモデルフィッティング手段 1 2 2 1およ びモデル適合度評価手段 1 2 2 2を有する点で相違する。 3次元データ入力装置 1 4 0 0は、 3次元データであるプローブデータを処理 装置 1 2 0 0に入力する装置であり、 3次元形状計測装置であってもよいし、 図 示しない記憶装置からプローブデータを読み込んだり、 ネットワークを通じてプ ローブデータを受信する装置であってもよい。
記憶装置 1 3 0 0には、 処理装置 1 2 0 0で実行するプログラムおょぴ照合に 用いる各種のデータが記憶されている。 各種データのうちには、 3次元データで あるギャラリデータおよび 3次元データ変動モデルに関するデータが含まれる。 ギャラリデータは、 あらかじめ記憶装置 1 3 0 0に記憶しておいても良いし、 プ ローブデータと共に、 その都度、 読み込まれても良い。
3次元データ変動モデルは、 物体の種類、 物体の状態、 姿勢などの多様な変動 要素によって、 計測される 3次元データがどのように変動するかを記述したモデ ルであり、 前記多様な変動要素のパラメタを与えると、 該条件における 3 Dデー タが生成されうる。 この処理過程で必要とされるデータ群は記憶装置 1 3 0 0に 記憶される。
前記 3 Dデータ変動モデルの一例 (モデル 3と称す) としては、 多様な人物の それぞれの 3 D形状データをあらかじめ集めておき、 人物を指定するパラメタを 与えることによってその人物の 3 Dデータを出力するというモデルが用いられて も良い。 さらに、 姿勢のパラメタを与えられた場合には、 該 3 Dデータの 3次元 座標に対し、 その姿勢に回転する回転行列をかけることにより、 指定された姿勢 の 3 Dデータを生成することができる。
前記 3 Dデータ変動モデルの別の例 (モデル 4 ) としては、 前記先行技術文献 2に記載されているような、 多様な人物の顔の 3 Dデータを、 3 D形状の個性、 テクスチャの個性、 表情、 年齢、 などをそれぞれあらわすパラメタを与えること によって計算する 3 Dデータ変動モデルがある。 このモデルの場合、 あらかじめ 多数の人物の顔の 3 Dデータを集め、 形状おょぴテクスチャのそれぞれのデータ を主成分分析し、 基底 3 Dデータ群および基底テクスチャ群を計算し、 記憶する という処理ステップが実行される。
さらに、 姿勢のパラメタを与えられた場合には、 計算された 3 Dデータの 3次 元座標に対し、 その姿勢に回転する回転行列をかけることにより、 指定された姿 勢のモデル 3 Dデータを生成することができる。
該モデルでは、 基準 3D形状データを SO、 基準テクスチャデータを TO、 3D 形状の個人性をあらわす 100個のパラメタを al, ·'·,&100、 各パラメタに対 応した基底形状データを Sl, "',S100、 表情の変化を表す 10個のパラメタを cl, ---,010、表情変化による変形を表す基底形状データを S101, -,S1 10、 個人性をあらわす 100個のパラメタを bl, 00、 各パラメタに対応した基底テクスチャデータを Τ1,···,Τ100、 表情変化による テクスチャの変化を表す基底テクスチャデータを T101, '··,Τ1 10、 姿勢をあ らわすパラメタを x, y, ζ軸それぞれの軸周りの回転角度 rx, ry, rz と平行移動量 tx, ty, tzとすると、モデル 3 Dデータの形状データ S'の点 iの 3次元座標 S, (i)、 テクスチャデータ T'は次式で与えられる。
Figure imgf000026_0001
ここで Rは回転行列、 t=[tx, ty, tz]とする。 記憶手段 1300には、 S 0, S 1, ···, S1 10,Τ0,Τ1,···,Τ1 10のデータが記憶される。 ここで、個人性のパラメ タを 100個、表情変化のパラメタを 10個としたのはあくまで一例であり、様々 に変更可能である。
以上にあげた 3 Dデータ変動モデルはあくまで一例であり、 このほかにも様々 な 3 Dデータ変動モデルを利用可能である。
図 6を参照すると、 3 Dモデルフイツティング手段 1 221は、 ギャラリデー タ Dgおよびプローブデータ Dpの両 3Dデータを入力し、 認識目的の要素をあら わす目的パラメタ ptが両データで同一の値をとると仮定し、その他の変動要素を あらわすパラメタ peは各データで個別に異なる可能性があると仮定した場合、前 述したような 3 Dデータ変動モデル 1 224を用いてそれぞれの 3 Dデータ Dg, Dp にできるだけ近い (以下に示したコス ト関数の値が小さくなるような) モ デルデータ D'g,D'pを生成できるように、 各パラメタ pt,peの値を計算する。 す なわち、 3 Dモデルフィッティング手段 1221は、 プローブデータ Dpとギヤラ リデータ Dgのそれぞれに対して独立にパラメタを推定し、目的パラメタの推定結 果を比較するのではなく、 目的パラメタ ptが両データで同じ値であると仮定し、 両データに対して同時に目的パラメタ ptおよび外部パラメタ peを推定する。 顔の 3 Dデータを入力として人物を識別する個人認識システムを例にすると、 目的パラメタ ptは個人性をあらわすパラメタ (前記 al, ',al 0◦および bl, •••,bl O O)、 外部パラメタ peは表情および顔の姿勢に関するパラメタ (前記 c 1 , ··-, c 10 , rx, ry, rz, tx, ty, tz) となる。
物体の位置や向きを推定する位置姿勢推定システムを例にすると、 目的パラメ タ ptは姿勢パラメタ (前記 rx, ry, rz, tx, ty, tz) であり、 外部パラメタ peは物 体の種類と状態 (前記 al, "''al 00,bl,… :! 00,cl, ·'·,ο10)、 3次元 形状計測装置の性質に関するパラメタである。
ある特定の物体しか認識対象としない場合には、 物体の種類のパラメタはなく てもよいし、 同じ計測装置を用いるなら装置の特性パラメタは不要である。 この ように、 必要に応じてパラメタを設定し、 その要素による 3Dデータの変形を記 述する 3 Dデータ変動モデルを用意することができる。
図 Ίを参照すると、 3 Dモデルフイツティング手段 1221は、 初期値推定手 段 2121と、 3 Dモデルデータ生成手段 21 22と、 コスト評価手段 2123 と、 パラメタ推定手段 2124とを備える。
初期値推定手段 2121は、 プローブデータ Dpおよびギャラリデータ Dgのそ れぞれについて、 3 Dデータの変動要素の各パラメタ Pt,Pep,Pegの初期値を求め る。 これは、 あらかじめ与えられた既知の値でもよいし、 別途のセンサーなどに よって計測される値でもよく、 また、 3Dデータに付与される情報として入力さ れるものでもよレ、。
その一例として、 顔認識システムの場合は、 3Dデータ中の顔の目や鼻、 口の 位置などを示す基準点位置データを付与情報としておくことにより、 この情報か ら顔の位置と姿勢 (前記 rx, ry, rz, tx, ty, tz)や形状 (前記 a 1 ,…, a 1 0 0 )の概算 値を初期値として計算することができる。 3 D形状やテクスチャの個人性のパラ メタ、 表情のパラメタなどは多数の人物のデータに対する平均値 (一例としては a l ~a 1 0 0 = 0 , b l ~b 1 0 0 = 0 , c l ~c l 0 = 0 )を初期値としてもよいし、特定 の人物の値を初期値としても良い。 その他のパラメタも適当な値をあらかじめ定 めておいてもよい。 プローブデータ Dpとギャラリデータ Dgの両 3 Dデータに対 する目的パラメタ Ptの初期値、 プローブデータ Dpに対する外部パラメタ Pepの 初期値、およびギャラリデータ Dgに対する外部パラメタ Pegの初期値は、 3 Dモ デルデータ生成手段 2 1 2 2へ出力される。
3 Dモデルデータ生成手段 2 1 2 2は、 初回のモデルデータの生成時は、 初期 値推定手段 2 1 2 1から初期値として出力された目的パラメタ pt および外部パ ラメタ Pep,Pegを使用し、 以後の繰り返し時にはパラメタ推定手段 2 1 2 4によ つて更新された目的パラメタ ptおよび外部パラメタ Pep, Pegを使用し、それぞれ 3 Dデータ変動モデル 1 2 2 4を用いて、パラメタ Pt, Pep, Pegの表す状況下にお けるプローブモデルデータ D' pおよびギャラリモデルデータ D' gを生成し、 出力 する。
3 Dデータ変動モデル 1 2 2 4として前記モデル 3を用いた場合、 個人性をあ らわすパラメタは人物の番号などであり、 対応する人物の 3 Dデータを読み出す ことによってモデル 3 Dデータを生成できる。 さらに、 姿勢パラメタを用いる場 合には、 回転行列を適用することで、 該姿勢におけるモデル 3 Dデータを生成で きる。 このほかにも、 表情による変形モデルとそれを記述するパラメタを追加し て、 3 Dデータをさらに変形して表情変化を加味したモデル 3 Dデータを生成す ることもできる。
3 Dデータ変動モデルとして前記モデル 4を用いた場合、 個人性、 年齢、 体型 などをあらわすパラメタを結合係数とした基底 3 Dデータおよび基底テクスチヤ データそれぞれの線形結合を計算することにより、 特定人物の顔の 3 Dデータが 計算される。 次に、 姿勢のパラメタにより、 前記計算された 3 Dデータに回転行 列を適用することで、 該姿勢におけるモデル 3Dデータが生成される。
前述したモデル 4の一例では、 式 9によってモデル 3 Dデータの形状データ S' およびテクスチャデータ T'が計算される。両者をまとめてモデルデータ D'とする。 これらのパラメタの設定はあくまで一例であり、 このほかにも、 表情による変形 などのパラメタを追加して、 3Dデータをさらに変形してモデル 3 Dデータを生 成することもできる。
以上の処理を、 プローブデータ Dpおよびギャラリデータ Dgのそれぞれの変動 パラメタを用いて行うことにより、 プローブモデルデータ D'pおよびギャラリモ デルデータ D'gが生成される。 ただし、 各モデルデータの生成過程において、 目 的パラメタ ptは同一の値であるが、外部パラメタ pep,pegは異なる値とする。 前 述した個人識別システムの例では、 pt=[al, ·'·,3ΐ 00,bl, '··,ΐ3ΐ 00]、 pe=[c 1 , ···, c 10 , rx, ry, rz, tx, ty, tz]となる。 プローブデータの外部パラメタの値を pep, ギャラリデータの外部パラメタの値を pegとし、 上述した 3 Dデータ変動モ デルによる式 9を用いた 3D形状データおよびテクスチャデータの生成過程をま とめて関数 N(pt,pe)であらわすと、 プローブデータ Dpとギャラリデータ Dgそれ ぞれに対するモデルデータ D, p, D, gは次式で与えられる。
D, ρ=Ν ΐ, pep)
, , ヽ … 。)
D g=N(pt,peg)
コスト評価手段 21 23は、 プローブおよびギャラリそれぞれのデータ Dp, Dg と生成されたモデルデータ D'p, D'gを比較し、 フイツティングのコスト関数を計 算する。 このコス ト関数は一例として、 次式に示すように比較する両データの 3 次元座標およぴ輝度値の重みつき二乗誤差和とすることができる。
C=|Sp-Sp' |2+wt|Tp-Tp' |2+ g(|Sg-Sg' |2+wt|Tg-Tg' |2) 〜(11) ここで、 Sp, Tp はプローブデータ Dp の 3 D形状おょぴテクスチャデータ、 S'p,T'pはプローブモデルデータ D'pの 3D形状おょぴテクスチャデータ、 Sg,Tg はギャラリデータ Dgの 3 D形状およびテクスチャデータ、 S'g,T'gはギャラリモ デルデータ D' gの 3 D形状おょぴテクスチャデータである。 また、 wtは 3次元座 標とテクスチヤの重みを調整する係数、 wgはプローブとギャラリの重みを調整す る係数であり、 あらかじめ適当な値を定めておく。 wtの値の一例としては、 Cを 最初に計算する時の(|Sp— Sp' |2/|Τρ-Τρ' |2)の値、 wg の値の一例としては、 C を最初に計算する時の((|Sp— Sp' |2 + wt|Tp— Tp' |2)/(|Sg— Sg' |2 + wt|Tg- Tg |2))の値とすることも可能である。 また、繰り返し処理の過程で値を更新して いくことも可能である。
ここに示したコスト関数はあくまで一例であり、 このほかにも様々なコスト関 数を利用可能である。 例として、 各パラメタの事前確率を表すコス ト項をコスト 関数値に加算することもできる。
たとえば pt, pep, pegの各値が ptO, pepO, pegOに近い値になることがわかってい る場合には、 次のようなコスト関数を用いることも可能である。
C=|Sp-Sp' |2+wt|Tp-Tp' |2+wg(|Sg-Sg' |2+wt|Tg-Tg' |2)
+wpt (pt— pt0)2+ pep (pep— pepO) 2+ peg (peg— pegO) 2 … (12) ここで、 wpt, wpep, wpegの値はあらかじめ適当な値を定めておく。
パラメタ推定手段 2124は、 コスト関数値を改良するように、 目的パラメタ ptおよび外部パラメタ pep, pegそれぞれの値を更新する。 これには様々な最適化 手法が利用可能であるが、 一例として最急降下法がある。
各パラメタ(pt, pep, peg)を並べた全パラメタべクトルを pとし、 その各要素 pi の値をひとつずつあらかじめ決めた微小な量 Δί だけ変化させ、 モデルデータ生 成手段 2122によりそれぞれの要素を微小変化させたときのプローブモデルデ ータ D,p(p+Ai)の形状データ Sp' (p+厶 i)とテクスチャデータ Τρ' (ρ+Δί)、 およ ぴ、ギャラリモデルデータ D,g (ρ+ Δ i)の形状データ Sg (p+ Δ i)とテクスチャデー タ Tg (p+Ai)が生成される(Aiは要素 iが Δί、 他の要素がゼロのベタトルとす る)。 次に、 コスト評価手段 21 23によって、 コスト関数の値 C(P+Ai)が次式 により計算される。
C(p+Ai) = |Sp-Sp' (ρ+Δί) |2+wt|Tp-Tp' (ρ+Δϊ) |2
+wg(|Sg-Sg' (ρ+Δί) |2+wt|Tg-Tg' (ρ+Δΐ) |2) …(13) 次に、 次式に示すように、 変化後のコスト関数値と元のコス ト関数値の差分を 前記微小変化量で割ることによって、 コスト関数の勾配べク トル VC の値が計算 される。
▽ C=[(C(p+Al)— C(P))/厶 1, (C(p+A2)— C(p))/厶 2,···]Τ ·'·(14) 最急降下法によって、 パラメタ ρの値は次式で更新される。
p(t+l)=p(t)—ひ VC ---(15)
αは事前に決めたゲイン定数とする。 一例として値は 1.0でもよい。 また、 状 況に応じて適応的に変化することもできる。
以上の方法はあくまで一例であり、 他にも第 1の実施の形態と同様に Gauss-Newton法などの様々な最適化手法を利用して、 コス ト関数 Cの値を最小に するようなパラメタの値を求めることも可能である。
なお、 3Dデータ変動モデルとして前記モデル 3を用いた場合、 個人性をあら わすパラメタは人物の番号であり連続的な値を取らない。 このような場合は、 微 分値を計算せずに、 取りえる値のそれぞれについて (すなわち、 個々の人物それ ぞれ個別の 3 Dデータについて)、 3 Dモデルデータ生成手段 2122とコス ト評 価手段 2123の処理を繰り返し行うことによって、 コスト関数の値が計算され る。 このため最良のコス ト値を得た値を推定値とすることができる。 このとき、 他の連続的な値を取るパラメタについては、 上述した方法や様々な最適化手法を 適用してコスト関数値を最小にするパラメタの値が求められる。
再び図 5およぴ図 6を参照すると、 モデル適合度評価手段 1222は、 3 Dモ デルフィッティング手段 1 221のモデルフィッティング処理の精度を評価する。 すなわち、 モデルフィッティング処理においては、 目的パラメタ ptが同一である と仮定して処理を行ったが、 この仮定の上で、 3Dデータ変動モデル 1224が プローブデータ Dpおよびギヤラリデータ Dgに適合したかどうかを表すモデル適 合度 Vを計算する処理が行なわれる。
本実施の形態の場合、 モデル適合度評価手段 1222は、 3Dモデルフィッテ ィング手段 1221によって生成されたギャラリモデルデータ D'gとギャラリデ ータ Dg、 プローブモデルデータ D,p とプローブデータ Dpの誤差をそれぞれ計算 し、 両者を合算してモデル適合度 Vとして出力する。 誤差の計算には様々な特徴 量を用いることができるが、 一例として、 次式に示すような 3次元座標とテクス チヤ輝度値の重みつき二乗誤差和を用いることができる。
V=vp(|Sp-Sp' |2 + vt|Tp-Tp' |2) +vg(|Sg— Sg, |2+vt|Tg— Tg, |2) …(16) ここで、 vt,vp,vgは重み定数であり、 適当な値をあらかじめ決めておく。 値の 一例としては、 vp= 1, vg=wg, vt=wt としてもよい。 ここでは一例として 3次元座 標とテクスチャ輝度値の誤差を用いたが、 このほかにも、 法線ベク トルの誤差や テクスチャのエッジなどの特徴量の誤差を用いることももちろん可能である。 こ のモデル適合度 Vは誤差を表しているので、 Vの値が小さいほど良いという点に 注意する。
プローブデータ DPを複数のギャラリデータ Dgと照合するシステムにおいて、 各ギャラリデータ Dgでモデルフイツティングの精度が大きく変動する (ギャラリ データ Dg とギャラリモデルデータ D'gの差分が変動する) 場合には、 vgを小さ くすることで認識性能を向上することができる。 その一例として、 プローブデー タ DPとそれぞれのギャラリデータ Dgの組に対して、 3 Dモデルフィッティング 手段 1 221の処理を行った結果のギヤラリデータ Dg とギャラリモデルデータ 0'§の誤差(|3§—3^ |2+vt|Tg-Tg' |2)の分散、 プローブデータ Dpとプローブモ デルデータ D'pの誤差(|Sp— Sp' |2+vt|Tp-Tp' 12)の分散をそれぞれ計算する処 理が実行され、 その結果それぞれの逆数を vp, vgの値とすることができる。 以上に示したモデル適合度 Vの計算方法はあくまで一例であり、 式 1 1のコス ト関数 Cの値を用いてもよい。 この他にも、 3次元座標の代わりに 3次元形状表 面の法線べク トルを計算してその誤差を用いる方法や、 3次元座標の正規化相関 値を用いる方法、 テクスチャのエッジなどの特徴量を用いる方法など、 様々な計 算方法を用いることができる。
照合手段 1 203は、 第 1の実施の形態と同じであり、 モデル適合度評価手段 1222によって計算されたモデル適合度 Vの値を用いて、ギャラリデータ Dgと プローブデータ Dpの照合判定を行う。 1セットのギャラリデータ D' pとの照合判 定を行う場合の一例として、 あらかじめ閾値を定めておき、 その閾値よりモデル 適合度 Vが良い (式 16の場合は小さい値) 場合に、 プローブデータ Dpの目的パ ラメタ ptがギャラリデータ Dgの目的パラメタ ptと同じであると認識する処理が あげられる。
ギャラリデータ Dgが複数セットある場合には、 それぞれのギャラリデータ Dg とプローブデータ Dpとの組に対して、 3 Dモデルフィッティング手段 1 2 2 1と モデル適合度評価手段 1 2 2 2における処理が行なわれ、 モデル適合度 Vを計算 する処理が実行される。 そして、 もっとも良いモデル適合度 (式 8を用いる場合 にはもつとも小さい値) を得た組のギャラリデータ Dgの目的パラメタ pt力 プ ローブデータ Dpの目的パラメタ ptにもつとも近い値であると判定される。 また は、ある閾値より良いモデル適合度を得た複数のギャラリデータ Dgの目的パラメ タ ptの値を用いて、内挿や捕間によつてプローブデータ Dpの目的パラメタ ptの 値を推定しても良い。
顔の 3 Dデータによる個人識別システムをあげて説明すると、 一例として 3人 の人物 A, B , Cのギャラリデータ 3個に対してプローブデータを照合し、 人物 Bのギャラリデータがもっとも良いモデル適合度を得たとすると、 プロ一ブデー タは人物 Bの 3 Dデータであると認識される。 このとき、 ギャラリデータの 3枚 それぞれで、 顔の向きなどの外部パラメタが異なっていても、 外部パラメタはモ デル適合度に影響しないため正しく個人識別を行うことができる。
また別の例として、 物体の姿勢を認識するシステムをあげて説明すると、 一例 として物体を左 9 0度から正面、 右 9 0度まで 1 0度間隔の向きに置いて計測し た 1 9個のギャラリ 3 Dデータに対してプローブ 3 Dデータを照合し、 右 7 0度 の向きのギャラリデータがもっとも良いモデル適合度を得たとする。 この場合、 プローブデータを計測したときの物体の向きは右 7 0度であると認識される。 こ のとき、 ギャラリデータ 1 9個それぞれで、 3次元計測装置の特性などの外部パ ラメタが異なっていても、 外部パラメタはモデノレ適合度に影響しないため、 正し く物体の姿勢を認識することができる。
以上の説明においては、 3 Dデータとして 3 D形状データおょぴテクスチャデ ータの両者が含まれるものとして説明したが、 テクスチャデータが存在しない 3 D形状データのみから構成される 3 Dデータについてもまったく同様に処理を行 うことが可能である。 次に本実施の形態の効果を説明する。
本実施の形態では、 プローブデータ Dpとギャラリデータ Dgの双方の 3次元デ ータを入力とし、照合したい目的パラメタ ptが両データ Dp, Dgで同じであると仮 定してモデルフィッティング処理を行い、 そのモデルフィッティング処理の精度 の尺度であるモデル適合度 Vを計算し、 このモデル適合度 Vを持って照合を行う ため、 モデルフィッティング処理の絶対的な精度にあまり影響を受けずにプロ一 プデータとギャラリデータとの照合を行うことができる。 その理由は以下の通り である。
照合したい目的パラメタ pt の値が両データ Dp,Dgで異なる場合には、 データ Dp, Dgに類似したモデルデータ D, p, D' gが決して求まらないため、モデル適合度 V は極端に悪化する。他方、 照合したい目的パラメタ ptの値が両データ Dp,Dgで同 じである場合には、 データ Dp, Dgに類似したモデルデータ D' p, D' gが基本的には 必ず求まるため、 モデル適合度 Vも良い値を示す。 したがって、 照合したい目的 パラメタ ptが両データ Dp, Dgで同じであるときと異なるときのモデル適合度 Vの 値の隔たりが顕著になる。 このため、 1セットのギャラリデータ Dgとの照合判定 では、 その中間の値に閾値を設定しておけば、 フィッティング処理の精度が多少 低下してモデル適合度 Vの値が多少上下しても、 閾値との距離が大きいためにそ の影響を受けずに、目的パラメタ ptがプローブデータと同じであるギャラリデー タとそうでないギャラリデータとを明確に区別することができる。 また、 複数セ ットのギャラリデータ Dgとの照合判定では、 目的パラメタ ptがプローブデータ と同じであるギャラリデータ Dgとプローブデータ Dpの組み合わせについて計算 されたモデル適合度 V力 S、 それ以外の組み合わせについて計算されたモデル適合 度 Vより頭一つ抜きん出て良好な値を示すため、 フィッティング処理の精度が多 少低下してモデル適合度 Vの値が多少上下しても、 その影響を受けずに、 目的パ ラメタ pt がプローブデータと一番良く合致しているギャラリデータを特定する ことができる。
これに対して、従来技術においては、 プローブデータ D からその目的パラメタ ptpと外部パラメタ pepを、 ギャラリデータ Dgからその目的パラメタ ptgと外部 パラメタ pegをそれぞれ独立にフィッティング処理で推定し、 ptp と ptgの類似 度を比較する処理が実行される。
したがって、 照合したい目的パラメタ ptpと ptgが両データ Dp, Dgで同じであ るときと異なるときの ptpと ptgの類似度の隔たりが、 本実施の形態におけるモ デル適合度 Vの値の隔たりのように顕著にならない。 このため、 フィッティング 処理の絶対的な精度の影響を強く受けることになる。
(第 3の実施の形態)
次に、 本発明の第 3の実施の形態について説明する。 前述した第 1の実施形態 は画像どうしを照合しているのに対し、 本実施の形態に係る照合装置は、 プロ一 ブ画像を入力し、 3次元データであるギャラリデータと照合する。
図 8に示される本実施の形態と図 2に示される第 1の実施の形態とを比較する と、 処理装置 1 2 0 0が 2 Dモデルフィッティング手段 1 2 0 1およびモデル適 合度評価手段 1 2 0 2の代わりに 2 D 3 Dモデルフィッティング手段 1 2 3 1お ょぴモデル適合度評価手段 1 2 3 2を有する点で相違する。
記憶装置 1 3 0 0には、 処理装置 1 2 0 0で実行するプログラムおよび照合に 用いる各種のデータが記憶されている。 各種データのうちには、 3次元データで あるギャラリデータ、 画像変動モデルおょぴ 3次元データ変動モデルに関するデ ータが含まれる。 ギャラリデータは、 あらかじめ記憶装置 1 3 0 0に記憶してお いても良いし、 プローブ画像と共に、 その都度、 図示しない 3次元データ入力装 置から読み込まれても良い。
3次元データ変動モデルは、 物体の種類、 物体の状態、 姿勢などの多様な変動 要素によって、 計測される 3 Dデータがどのように変動するかを記述したモデル である。 多様な変動要素のパラメタを与えると、 その条件下における 3 Dデータ が生成される。 この処理過程で必要とされるデータ群が記憶装置 1 3 0 0に記憶 されている。 3 Dデータ変動モデルの一例としては、 第 2の実施の形態で説明し たモデル 3およぴモデル 4が挙げられるが、 これらはあくまで一例であり、 この ほかにも様々な 3 Dデータ変動モデルを利用可能である。
画像変動モデルは、 3 Dデータ変動モデルによって生成される 3 Dデータから、 カメラの向きや位置、 照明条件、 カメラ特性などをあらわすパラメタによって、 その状況下における画像を生成する画像変動モデルである。 この画像変動モデル には、 様々なカメラのモデル (ピンホールカメラ、 平行投影モデルなど)、 照明の モデル (完全散乱モデル、 P h o n gのモデルなどのコンピュータグラフィクス の標準技術、 または、 特許文献 1に記載の照明基底を用いる技術など) などを組 み合わせて利用することが可能である。
以上にあげた 3 Dデータ変動モデルと画像変動モデルはあくまで一例であり、 このほかにも様々な画像変動モデルを利用可能である。
図 9を参照すると、 2 D 3 Dモデルフィッティング手段 1 2 3 1は、 プローブ 画像 Ipとギャラリデータ Dgを入力し、 認識目的の変動要素をあらわす目的パラ メタ ptが両データ Ip, Dgで同一の値をとり、その他の変動要素をあらわすパラメ タ peは両データ Ip,Dgで個別に異なる可能性があると仮定する場合、前述した 3 Dデータ変動モデル 1 2 3 4を用いてギャラリデータ Dgにできるだけ近い(以下 に示したコスト関数の値が小さくなるような)モデルデータ D' gを生成し、かつ、 前述した画像変動モデル 1 2 3 5を用いてプロープ画像 Ip にできるだけ近いモ デル画像 pを生成するような、 各パラメタ pt,peの値を計算する。 ここで、 プ ローブ画像 Ipの外部パラメタを pep、 ギヤラリデータ Dgの外部パラメタを peg とする。
顔画像を 3 D顔データと照合し、 個人識別を行うシステムを例にすれば、 ptは 顔の形状やテクスチャの個人性を表すパラメタであり、 pep は表情、 照明条件、 カメラの位置、 向き、 焦点距離などのパラメタであり、 peg は表情、 顔の姿勢な どのパラメタになる。 また、 顔画像を 3 D顔データと照合し、 顔の姿勢を認識す るシステムを例にすれば、 ptは顔の姿勢を表すパラメタであり、 pepは個人性、 表情、 照明条件、 カメラの位置、 向き、 焦点距離などのパラメタであり、 peg は 個人 1"生、 表情などのパラメタになる。 ここに示したのはあくまで一例であり、 パ ラメタの数や種類はモデルに応じて様々に変更可能である。
図 1 0を参照すると、 2 D 3 Dモデルフィッティング手段 1 2 3 1は、 初期値 推定手段 2 1 3 1と、 2 D 3 Dモデルデータ生成手段 2 1 3 2と、 コスト評価手 段 2 1 3 3と、 パラメタ推定手段 2 1 3 4とを備える。
初期値推定手段 2 1 3 1は、プローブ画像 Ipの画像変動要素パラメタ、および、 ギャラリデータ Dg の 3 Dデータ変動要素パラメタのそれぞれについて初期値を 求める。 これは、 あらかじめ与えられた既知の値でもよいし、 別途のセンサーな どによって計測される値でもよく、 また、 プローブ画像 Ipやギャラリデータ Dg に付与される情報として入力されるものでもよレ、。プローブ画像 Ipに対する初期 値は第 1の実施の形態における初期値推定手段 2 1 0 1と同様な処理で行うこと ができ、ギャラリデータ Dgに対する初期値は第 2の実施の形態における初期値推 定手段 2 1 2 1と同様な処理で行うことができる。 以上に述べた初期値の計算方 法はあくまで一例であり、 様々に変更可能である。
プローブ画像 IPとギャラリデータ Dgの両データに対する目的パラメタ ptの初 期値、 プローブ画像 Ipに対する外部パラメタ pepの初期値、 ギャラリデータ Dg に対する外部パラメタ pegの初期値は、 2 D 3 Dモデルデータ生成手段 2 1 3 2 へ出力される。
2 D 3 Dモデルデータ生成手段 2 1 3 2は、 初回のモデルデータの生成時は、 初期値推定手段 2 1 3 1から初期値として出力された目的パラメタ pt および外 部パラメタ Pep,Pegを使用し、 以後の繰り返し時にはパラメタ推定手段 2 1 3 4 によつて更新された目的パラメタ ptおよぴ外部パラメタ Pep, Pegを使用し、それ ぞれ 3 Dデータ変動モデル 1 2 3 4および画像変動モデル 1 2 3 5を用いて、 パ ラメタ Pt, Pep, Pegの表す状況下におけるプローブモデル画像 Γ ρおよびギャラリ モデルデータ D' gを生成し、 出力する。
画像変動モデル 1 2 3 5を用いて、目的パラメタ ptおよび外部パラメタ pepの 現在の値の表す状況下における画像をプローブモデル画像 ρとして生成する処 理は、 第 1の実施の形態におけるモデル画像生成手段 2 1 0 2とまったく同様に 行える。 また、 3 Dデータ変動モデル 1 2 3 4を用いて、 目的パラメタ ptおよび ギャラリ外部パラメタ pegの現在の値の表す状況下における 3 Dデータをギャラ リモデルデータ D' gとして生成する処理は、 第 2の実施の形態における 3 Dモデ ルデータ生成手段 2 1 2 2とまったく同様に行える。 両処理を式で表すと次式の ようになる。
p=M(pt, pep)
, …ひ?)
D' g=N(pt, peg)
コスト評価手段 2133は、 プローブ画像 Ipとプローブモデル画像 ρ、 ギヤ ラリデータ Dgとギャラリモデルデータ D' gを比較し、フィッティングのコスト関 数 Cを計算する。 このコスト関数 Cは一例として、 次式に示すように比較する両 データの重みつき二乗誤差和とすることができる。
Figure imgf000038_0001
|2+wt|Tg-Tg' 12) …(18)
ここで、 Sg, Tgはギャラリデータの 3 D形状およびテクスチャデータ、 S, g, T, g はギャラリモデルデータの 3 D形状およびテクスチャデータ、 wtは 3次元座標と テクスチャの重みを調整する係数である。 また、 wgは画像と 3Dデータの重みを 調整する係数であり、 あらかじめ適当な値を定めておく。
wtの値の決定方法はさまざまな方法が利用可能であるが、 一例として、 Cを最 初に計算する時の(|Sg_Sg |2/|Τρ-Τρ' |2)の値としてもよい。
wgの値の決定方法はさまざまな方法が利用可能であるが、 一例として、 Cを最 初に計算する時の((は ー1 12)/(|3 ー3§' |2+wt|Tg-Tg' 12))の値としてもよ い。
また、 繰り返し処理の過程でこれらの値を更新していくことも可能である。 ここに示したコスト関数はあくまで一例であり、 このほかにも様々なコスト関 数を利用可能である。 その一例として、 各パラメタの事前確率を表すコスト項を コス ト関数値に加算するこ と もできる。 たとえば pt, pep, peg の各値が ptO, pepO, pegO に近い値になることがわかっている場合には、 次のようなコスト 関数を用いることも可能である。
C=|lp-I'p|2+wg(|Sg-Sg' |2+wt|Tg-Tg' |2)
+wpt (pt— ptO) 2+wpep pep— pepO 2+wpeg (peg— pegO) 2 … (19) wpt, pep, wpegの値はあらかじめ適当な値を定めておく。
パラメタ推定手段 2134は、 コスト関数 Cの値を改良するように、 目的パラ メタ Ptおよび外部パラメタ Pep, Pegそれぞれの値を更新する。これには様々な最 適化手法が利用可能であるが、 一例として最急降下法がある。
各パラメタ(pt, pep, peg)を並べた全パラメタべクトルを pとし、 その各要素 pi の値をひとつずつあらかじめ決めた微小な量 Ai だけ変化させたとき、 およぴモ デルデータ生成手段 2 1 3 2によりそれぞれの要素を微小変化させたときの、 プ ローブモデル画像データ I'p(p+Ai)、 ギャラリモデルデータ D'g(p+Ai)の形状 データ Sg' (ρ+Δί)、 およびテクスチャデータ Tg (p+Ai)が生成される(Δί は要 素 iが Ai、 他の要素がゼロのべクトルとする)。 次に、 コスト評価手段 2 1 3 3 によって、 コスト関数の値 C(p+Ai)を次式により計算する処理が実行される。
C(p+Ai) = |lp-Ip' (ρ+Δί) 12
+wg(|Sg-Sg' (p+Ai) |2+wt|Tg— Tg, (ρ+Δί) |2) …(20) 次に、 次式に示すように、 変化後のコスト関数値と元のコスト関数値の差分を 前記微小変化量で割ることによって、 コスト関数の勾配べクトル VC の値を計算 する処理が実行される。
▽ C=[(C(p+厶 1)— C(p))/Al, (C(p+A2)—C(p))/厶 2, -] Ί …(21) 最急降下法によって、 パラメタ pの値は次式で更新される。
p(t+l)=p(t)- a VC ー(22)
αは事前に決めたゲイン定数とする。 一例として値は 1. 0でもよい。 また、 状 況に応じて適応的に変化することもできる。
以上の方法はあく まで一例であり、 他にも第 1の実施の形態と同様に Gauss-Newton法などの様々な最適化手法を利用して、 コスト関数 Cの値を最小に するようなパラメタの値を求めることも可能である。
再び図 8および図 9を参照すると、 モデル適合度評価手段 1 23 2は、 2 D 3 Dモデルフィッティング手段 1 2 3 1のモデルフィッティング処理の精度を評価 する。 すなわち、 モデルフィッティング処理において、 目的パラメタ ptが同一で あると仮定して処理を行っていた。 モデル適合度評価手段 1 2 3 2は、 この仮定 の上で、 画像変動モデ^ 2 3 5および 3Dデータ変動モデル 1 2 34がプロ一 ブ画像 Ipおよびギヤラリデータ Dgに適合したかどうかを表すモデル適合度 Vを 計算する。 本実施の形態のモデル適合度評価手段 1 2 3 2は、 プローブモデル画 像 pとプローブ画像 Ip、 ギャラリモデルデータ D' gとギヤラリデータ D gを入 力とし、 それぞれの誤差を合算してモデル適合度 Vとして出力する。
誤差の計算には様々な特徴量を用いることができるが、 一例として、 次式のよ うな 3次元座標とテクスチャ輝度値の重みつき二乗誤差和を用いることができる。
V=vp | lp-Ip' | 2+vg ( | Sg-Sg' | 2 + vt | Tg-Tg' | 2) …(23)
ここで、 vt,vp, vgは重み定数であり、 適当な値をあらかじめ決めておく。 値の 一例としては、 vp= 1, vg=wg, vt=wt としてもよい。 ここでは一例として画像輝度 値、 3次元座標、 テクスチャ輝度値のそれぞれの誤差の重み付き和を用いたが、 このほ力 こも、 法線べクトルの誤差や画像 ·テクスチャのエッジなどの特徴量の 誤差などを用いることももちろん可能である。 また、 式 1 8または式 2 0のコス ト関数 Cの値をモデル適合度 Vとして用いてもよい。 モデル適合度 Vは誤差を表 しているので、 Vの値が小さいほど良いという点に注意する。
照合手段 1 2 0 3は、 第 1の実施の形態と同じであり、 モデル適合度評価手段 1 2 3 2によって計算されたモデル適合度 Vの値を用いて、ギャラリデータ Dgと プローブ画像 Ipの照合判定を行う。 一例として、 照合手段 1 2 0 3は、 あらかじ め閾値を定めておき、 その閾値よりモデル適合度 Vが良い (式 1 6の場合は小さ い値)場合に、プローブ画像 Ipの目的パラメタ ptがギヤラリデータ Dgの目的パ ラメタ ptと同じであると認識する。
ギャラリデータ Dgが複数セットある場合には、それぞれのギャラリデータに対 してプローブ画像 Ipを組み合わせて、 2 D 3 Dモデルフィッティング手段 1 2 3 1とモデル適合度評価手段 1 2 3 2の処理が行なわれ、 それぞれの組についての モデル適合度 Vが計算される。 照合手段 1 2 0 3は、 もっとも良いモデル適合度 を得た組のギャラリデータ Dgの目的パラメタ ptの値が、プローブ画像 Ipの目的 パラメタ ptの値であると認識する。
または、ある閾値より良いモデル適合度 Vを得た複数のギャラリデータ Dgの目 的パラメタ ptの値を用いて、 内揷ゃ補間によってプローブ画像 Ipの目的パラメ タ ptの値を推定しても良い。
より具体的な例を持って説明する。 顔の 3 Dデータによる個人識別システムを 例にすると、 一例として 3人の人物 A, B, Cのギャラリデータ 3個に対してプ ロープデータを照合し、 人物 Bのギャラリデータがもっとも良いモデル適合度を 得たとすると、 プローブデータは人物 Bの 3 Dデータであると認識される。 この とき、 ギャラリデータの 3枚それぞれで、 顔の向きなどの外部パラメタが異なつ ていても、 外部パラメタはモデル適合度に影響しないため正しく個人識別を行う ことができる。
さらに別の例として、 物体の姿勢を認識するシステムを例にすると、 一例とし て物体を左 9 0度から正面、 右 9 0度まで 1 0度間隔の向きに置いて計測した 1 9個のギャラリ 3 Dデータに対してプローブ 3 Dデータを照合し、 右 7 0度の向 きのギャラリデータがもっとも良いモデル適合度を得たとすると、 プローブデー タを計測したときの物体の向きは右 7 0度である、 と認識される。
本実施の形態においては、 ギャラリデータである 3 Dデータとして 3 D形状デ ータおよびテクスチャデータの両者が含まれるものとして説明したが、 3 D形状 データのみから構成されるギャラリデータについてもまったく同様に処理を行う ことが可能である。 また、 プローブ画像とギャラリデータが 1つであるとして説 明したが、 一方または双方が複数である場合にも、 外部パラメタ peや式 1 8、 式 2 3における重み係数の数が画像または 3 Dデータの数だけ増えるだけであり、 まったく同様に処理可能である。
次に本実施の形態の効果を説明する。
本実施の形態では、 プローブ画像 Ipとギャラリデータ Dgを入力とし、 照合し たい目的パラメタ ptが両データ Ip, Dgで同じであると仮定してモデルフィッティ ング処理が行なわれ、 そのモデルフィッティング処理の精度の尺度であるモデル 適合度 Vが計算され、このモデル適合度 Vを持って照合が行なわれる。このため、 モデルフィッティング処理の絶対的な精度にあまり影響を受けずにプローブ画像 とギャラリデータとの照合を行うことができる。 その理由は以下の通りである。 照合したい目的パラメタ ptの値が両データ Ip, Dgで異なる場合には、 データ Ip, Dgに類似したモデルデータ Γ p, D' gが決して求まらないため、モデル適合度 V は極端に悪ィ匕する。他方、照合したい目的パラメタ ptの値が両データ Ip,Dgで同 じである場合には、 データ Ip,Dgに類似したモデルデータ I' p,D' gが基本的には 必ず求まるため、 モデル適合度 Vも良い値を示す。 したがって、 照合したい目的 パラメタ ptが両データ Ip, Dgで同じであるときと異なるときのモデル適合度 Vの 値の隔たりが顕著になる。 このため、 1セットのギャラリデータ Dgとの照合判定 では、 その中間の値に閾値を設定しておけば、 フィッティング処理の精度が多少 低下してモデル適合度 Vの値が多少上下しても、 閾値との距離が大きいためにそ の影響を受けずに、目的パラメタ ptがプローブ画像と同じであるギャラリデータ とそうでないギャラリデータとを明確に区別することができる。 また、 複数セッ トのギヤラリデータ Dgとの照合判定では、 目的パラメタ ptがプローブ画像と同 じであるギャラリデータ Dgとプローブ画像 Ipの組み合わせについて計算された モデル適合度 Vが、 それ以外の組み合わせについて計算されたモデル適合度 Vよ り頭一つ抜きん出て良好な値を示すため、 フイツティング処理の精度が多少低下 してモデル適合度 Vの値が多少上下しても、 その影響を受けずに、 目的パラメタ ptがプローブ画像と一番良く合致しているギャラリデータを特定することができ る。
これに対して、 プローブ画像 Ipからその目的パラメタ ptpと外部パラメタ pep を、ギャラリデータ Dgからその目的パラメタ ptgと外部パラメタ pegをそれぞれ 独立にフィッティング処理で推定し、 ptp と ptgの類似度を比較する従来技術に おいては、 照合したい目的パラメタ ptpと ptgが両データ Ip, Dgで同じであると きと異なるときの ptpと ptgの類似度の隔たり 1 本実施の形態におけるモデル 適合度 Vの値の隔たりのように顕著にならないため、 フィッティング処理の絶対 的な精度の影響を強く受けることになる。
(第 4の実施の形態)
第 3の実施の形態では、プローブ画像 Ipを入力して 3次元データのギヤラリデ ータ Dgと照合したが、本実施の形態に係る照合装置は、 3次元のプローブデータ Dpを入力してギヤラリ画像 Igと照合する。
図 1 1に示される本実施の形態と図 8に示される第 3の実施の形態とを比較す ると、 画像入力装置 1 1 0 0の代わりに 3次元データ入力装置 1 4 0 0を備えて いる点で両者は相違する。
3次元データ入力装置 1 4 0 0は、 3次元データであるプローブデータを処理 装置 1 2 0 0に入力する装置であり、 3次元形状計測装置であってもよいし、 図 示しない記憶装置からプローブデータを読み込んだり、 ネットワークを通じてプ ローブデータを受信する装置であってもよい。 記憶装置 1 3 0 0には、 処理装置 1 2 0 0で実行するプログラムおよび照合に 用いる各種のデータが記憶されている。 各種データのうちには、 ギャラリ画像、 画像変動モデルおょぴ 3次元データ変動モデルに関するデータが含まれる。 ギヤ ラリ画像をあらかじめ記憶装置 1 3 0 0に記憶しておいても良い。 当該ギャラリ 画像はプローブデータと共に、 その都度、 図示しない画像入力装置から読み込ま れても良い。 画像変動モデルおょぴ 3次元データ変動モデルは、 第 3の実施の形 態における画像変動モデル 1 2 3 5および 3 Dデータ変動モデル 1 2 3 4と同じ である。
図 1 2を参照すると、 2 D 3 Dモデルフィッティング手段 1 2 3 1は、 プロ一 ブデータ Dpとギャラリ画像 Igを入力し、 認識目的の変動要素をあらわす目的パ ラメタ ptが両データ Dp, Igで同一の値をとり、その他の変動要素をあらわすパラ メタ peは両データ Dp, Igで個別に異なる可能性があると仮定した場合、前述した 3 Dデータ変動モデル 1 2 3 4を用いてプローブデータ Dpにできるだけ近い(以 下に示したコスト関数の値が小さくなるような) モデルデータ pを生成し、 か つ、前述した画像変動モデル 1 2 3 5を用いてギャラリ画像 Igにできるだけ近い モデル画像 I' を生成するような、 各パラメタ pt,peの値を計算する。 ここで、 プローブデータ Dpの外部パラメタを pep、ギャラリ画像 Igの外部パラメタを peg とする。
図 1 3を参照すると、 2 D 3 Dモデルフィッティング手段 1 2 3 1は、 第 3の 実施の形態と同様に、 初期値推定手段 2 1 3 1と、 2 D 3 Dモデルデータ生成手 段 2 1 3 2と、 コスト評価手段 2 1 3 3と、 パラメタ推定手段 2 1 3 4とを備え る。
初期値推定手段 2 1 3 1は、プローブデータ Dpの 3 Dデータ変動要素パラメタ、 および、ギャラリ画像 Igの画像変動要素パラメタのそれぞれについて初期値を求 める。 これは、 あらかじめ与えられた既知の値でもよいし、 別途のセンサーなど によって計測される値でもよく、 また、 画像 Igや 3 Dデータ Dpに付与される情 報として入力されるものでもよレ、。ギャラリ画像 Igに対する初期値は第 1の実施 の形態における初期値推定手段 2 1 0 1と同様な処理で行うことができ、 プロ一 ブデータ Dp に対する初期値は第 2の実施の形態における初期値推定手段 2 1 2 1と同様な処理で行うことができる。
プローブデータ Dpとギャラリ画像 Igの両データに対する目的パラメタ ptの初 期値、 プローブデータ Dpに対する外部パラメタ p印の初期値、 ギャラリ画像 Ig に対する外部パラメタ pegの初期値は、 2 D 3 Dモデルデータ生成手段 2 1 3 2 へ出力される。
2 D 3 Dモデルデータ生成手段 2 1 3 2は、 初回のモデルデータの生成時は、 初期値推定手段 2 1 3 1から初期値として出力された目的パラメタ pt および外 部パラメタ Pep, Pegを使用し、 以後の繰り返し時にはパラメタ推定手段 2 1 3 4 によって更新された目的パラメタ ptおよび外部パラメタ Pep, Pegを使用し、それ ぞれ 3 Dデータ変動モデル 1 2 3 4および画像変動モデル 1 2 3 5を用いて、 パ ラメタ Pt, Pep, Pegの表す状況下におけるプローブモデルデータ D' pおよびギヤラ リモデル画像 I' gを生成し、 出力する。
コスト評価手段 2 1 3 3は、 プローブデータ Dp とプローブモデルデータ D,p、 ギャラリ画像 Igとギャラリモデル画像 I' gを比較し、フィッティングのコスト関 数を計算する。 このコスト関数は一例として、 第 3の実施の形態と同様に、 比較 する両データの重みつき二乗誤差和とすることができる。
パラメタ推定手段 2 1 3 4は、 コスト関数 Cの値を改良するように、 目的パラ メタ Ptおよび外部パラメタ Pep, Pegそれぞれの値を更新する。これには様々な最 適化手法が利用可能であるが、 一例として第 3の実施の形態と同様に、 最急降下 法が利用可能である。
モデル適合度評価手段 1 2 3 2は、 2 D 3 Dモデルフイツティング手段 1 2 3 1のモデノレフィッティング処理の精度を評価する。 すなわち、 モデルフイツティ ング処理において、 目的パラメタ ptが同一であると仮定して処理を行っていた。 モデル適合度評価手段 1 2 3 2は、 この仮定の上で、 画像変動モデル 1 2 3 5お よび 3 Dデータ変動モデル 1 2 3 4がギャラリ画像 Igおよぴプロープデータ Dp に適合したかどうかを表すモデル適合度 Vを計算する。 本実施の形態のモデル適 合度評価手段 1 2 3 2は、 プローブモデルデータ D' pとプローブデータ Dp、 ギヤ ラリモデル画像 gとギャラリ画像 Igを入力し、それぞれの誤差を合算してモデ ル適合度 Vとして出力する。 誤差の計算には様々な特徴量を用いることができる が、 一例として、 第 3の実施の形態と同様に、 3次元座標とテクスチャ輝度値の 重みつき二乗誤差和を用いることができる。
照合手段 1 2 0 3は、 第 3の実施の形態と同様に、 モデル適合度評価手段 1 2 3 2によって計算されたモデル適合度 Vの値を用いて、ギャラリ画像 Igとプロ一 ブデータ Dpの照合判定を行う。
次に本実施の形態の効果を説明する。
本実施の形態では、 プローブデータ Dpとギャラリ画像 Igを入力し、 照合した い目的パラメタ ptが両データ Dp, Igで同じであると仮定してモデルフィッティン グ処理を行い、 そのモデルフィッティング処理の精度の尺度であるモデル適合度 Vを計算し、 このモデル適合度 Vを持って照合を行う。 このため、 モデルフイツ ティング処理の絶対的な精度にあまり影響を受けずにプローブデータとギャラリ 画像との照合を行うことができる。 その理由は以下の通りである。
照合したい目的パラメタ pt の値が両データ Dp, Igで異なる場合には、 データ Dp, Igに類似したモデルデータ D' p, Γ gが決して求まらないため、モデル適合度 V は極端に悪化する。他方、照合したい目的パラメタ ptの値が両データ Dp, I で同 じである場合には、 データ Dp, Igに類似したモデルデータ D' p, I' gが基本的には 必ず求まるため、 モデル適合度 Vも良い値を示す。 したがって、 照合したい目的 パラメタ ptが両データ Dp, Igで同じであるときと異なるときのモデル適合度 Vの 値の隔たりが顕著になる。 このため、 1セットのギヤラリ画像 Igとの照合判定で は、 その中間の値に閾値を設定しておけば、 フィッティング処理の精度が多少低 下してモデノレ適合度 Vの値が多少上下しても、 閾値との距離が大きいためにその 影響を受けずに、目的パラメタ ptがプローブデータと同じであるギヤラリ画像と そうでないギャラリ画像とを明確に区別することができる。 また、 複数セットの ギャラリ画像 Igとの照合判定では、 目的パラメタ ptがプローブデータと同じで あるギャラリ画像 Igとプローブデータ Dpの組み合わせについて計算されたモデ ル適合度 Vが、 それ以外の組み合わせについて計算されたモデル適合度 Vより頭 一つ抜きん出て良好な値を示す。 このため、 フィッティング処理の精度が多少低 下してモデノレ適合度 Vの値が多少上下しても、 その影響を受けずに、 目的パラメ タ pt がプローブデータと一番良く合致しているギャラリ画像を特定することが できる。
これに対して、従来技術では、 プローブデータ Dpからその目的パラメタ ptpと 外部パラメタ pepを、ギャラリ画像 Igからその目的パラメタ ptgと外部パラメタ pegをそれぞれ独立にフィッティング処理で推定し、 ptpと ptgの類似度を比較し ている。 このため、 照合したい目的パラメタ ptpと ptgが両データ Dp, Igで同じ であるときと異なるときの ptpと ptgの類似度の隔たりが、 本実施の形態におけ るモデル適合度 Vの値の隔たりのように顕著にならないため、 フィッティング処 理の絶対的な精度の影響を強く受けることになる。
(第 5の実施の形態)
次に、 本発明の第 5の実施の形態について説明する。
図 1 4に示される本実施の形態と図 2に示した第 1の実施の形態とを比較する と、 処理装置 1 2 0 0が、 モデル適合度評価手段 1 2 0 2の代わりにモデル適合 度評価手段 1 2 4 2を備えている点、 記憶装置 1 3 0 0に、 モデル適合度評価手 段 1 2 4 2におけるモデル適合度の計算に使用するギャラリ画像とプローブ画像 のパラメタに関する基準情報が格納されている点で両者は相違する。
ギャラリ画像のパラメタに関する基準情報としては様々なものが利用できるが、 一例として、 各パラメタの取りえる値の範囲、 値を取る確率分布、 別途推定され たまたは既知の正しい値、 などが挙げられる。 同様に、 プローブ画像のパラメタ に関する基準情報としては、 一例として、 各パラメタの取りえる値の範囲、 値を 取る確率分布、 別途推定されたまたは既知の正しい値、 などが挙げられる。 図 1 5を参照すると、 モデル適合度評価手段 1 2 4 2は、 第 1の実施の形態に おけるものと同様な動作を行う 2 Dモデルフィッティング手段 1 2 0 1により推 定されたパラメタ群 p (目的パラメタ pt、 プローブ外部パラメタ pep、 ギャラリ外 部パラメタ pegを並べたベタトルとする)の値の確からしさ(パラメタ確信度)を、 記憶装置 1 3 0 0に記憶されたギャラリ画像パラメタ基準情報 1 2 4 5およぴプ ローブ画像パラメタ基準情報 1 2 4 6を参照して評価し、 そのパラメタ確信度を モデル適合度 Uとして出力する。 以下、 モデル適合度 Uの計算方法を幾つか説明 する。
1 ) モデル適合度 Uの第 1の計算方法
この方法の場合、 モデル適合度評価手段 1 2 4 2は、 2 Dモデルフィッティン グ手段 1 2 0 1により推定されたパラメタ pt, pep, peg力 S、取りえる範囲に入って いるかどうかを評価する。 この場合、 ギャラリ画像パラメタ基準情報 1 2 4 5お よびプローブ画像パラメタ基準情報 1 2 4 6として、 推定された i番目のパラメ タの値 pi の取りえる値域を示すデータをあらかじめ記憶装置 1 3 0 0に記憶す る処理が実行される。 そして、 一例として、 値域が上下限の値 (piO, pil)として与 えられ、 piO≤pi≤pilであるとすると、 モデル適合度 Uを次式で計算し、 出力す る処理が実行される。
U= z, iwiui
ui = | pi— ρϊθ | 2 uf piく piO)
= 0 (if piO≤pi≤pil) …(24)
= | pi -pil | 2 (if pi >pil)
ここで、 wiは各パラメタの重要度を決める重みであり、 適当な値を事前に決め ておく。 一例としては全て 1でもよい。
ここでは全てのパラメタ (pt, pep, peg) について値域が与えられている場合を 説明したが、 一部のパラメタについてしか情報がない場合には、 情報のないパラ メタは除外して式 2 4を計算すればよレ、。
2 ) モデル適合度 Uの第 2の計算方法
この方法の場合、 モデル適合度評価手段 1 2 4 2は、 2 Dモデルフィッティン グ手段 1 2 0 1により推定されたパラメタ pt, pep, pegの値と、事前にわかってい るパラメタの値との誤差を用いてモデル適合度 Uを計算する処理が実行される。 ギャラリ画像パラメタ基準情報 1 2 4 5およびプロ一プ画像パラメタ基準情報 1 2 4 6によって、 piの正しい値が piOであることが知られている場合、 次式でモ デル適合度 Uを訐算する処理が実行される。
U=∑iwi | pi -pi0 | 2 …(25)
ただし、 一部のパラメタについてしか値がわからなレ、場合、 不明なパラメタは 除外して計算される。 wiは各パラメタの重要度を決める重みであり、 適当な値を 事前に決めておく。 一例としては全て 1でもよい。
3 ) モデル適合度 Uの第 3の計算方法
この方法では、 各パラメタの値の確率分布が与えられており、 モデル適合度評 価手段 1 2 4 2は、 2 Dモデルフィッティング手段 1 2 0 1により推定されたパ ラメタ pt, pep, pegの値をとる確率を計算し、モデル適合度 Uを計算する。 ギャラ リ画像パラメタ基準情報 1 2 4 5およびプローブ画像パラメタ基準情報 1 2 4 6 によって、 パラメタ pi力 S、 分散 σ ί、 平均値 pimの正規分布に従うと指定されて いる場合、 次式でモデル適合度 Uが計算される。 ただし、 確率分布の不明である パラメタは除外して計算される。
U= -∑i (pi -pim) 2/ o x …(26)
以上の第 1乃至第 3の方法で計算されるモデル適合度 Uは、 値が小さいほど良 いことに注意する。 また、 ここに説明したモデル適合度 Uの値の計算方法はあく まで一例であり、 様々に変更可能である。
照合手段 1 2 0 3は第 1の実施形態と同じであり、 モデル適合度 Vの値のかわ りにモデル適合度 Uの値を用いて、 プローブ画像とギャラリ画像の目的パラメタ が同一であるかどうかを判定し、 または、 良いモデル適合度を得たギャラリ画像 の目的パラメタの値を用いてプローブ画像の目的パラメタの値を推定する。
次に本実施の形態の効果を説明する。
本実施の形態では、 プローブ画像 Ipとギャラリ画像 Igの双方の画像を入力と し、照合したい目的パラメタ ptが両画像 Ip, Igで同じであると仮定してモデルフ ィッティング処理を行い、 そのモデルフィッティング処理の精度の尺度であるモ デル適合度 Uを計算し、 このモデル適合度 Uを持って照合を行う処理が実行され る。 このため、 モデルフィッティング処理の絶対的な精度にあまり影響を受けず にプローブ画像とギャラリ画像との照合を行うことができる。 その理由は以下の 通りである。
照合したい目的パラメタ ptの値が両画像 Ip, Igで異なる場合には、 画像 Ip, Ig に類似したモデル画像 I' P,I' gが決して求まらない。 このため、 推定されるパラ メタ pt, pep, pegの値が異常な値となり、 モデル適合度 Uは極端に悪化する。
他方、 照合したい目的パラメタ ptの値が両画像 Ip, Igで同じである場合には、 画像 Ip, Igに類似したモデル画像 Γ p, Γ gが基本的には必ず求まる。 このため、 推定されるパラメタ pt, pep, pegの値も正常な値となり、モデル適合度 Uも良い値 を示す。 したがって、 照合したい目的パラメタ ptが両画像 Ip,Igで同じであると きと異なるときのモデル適合度 Uの値の隔たりが顕著になる。 このため、 1セッ トのギャラリ画像 Igとの照合判定では、 その中間の値に閾値を設定しておけば、 フィッティング処理の精度が多少低下してモデル適合度 Uの値が多少上下しても. 閾値との距離が大きいためにその影響を受けずに、目的パラメタ ptがプローブ画 像と同じであるギャラリ画像とそうでないギャラリ画像とを明確に区別すること ができる。
また、 複数セットのギャラリ画像 Igとの照合判定では、 目的パラメタ ptがプ ロープ画像と同じであるギャラリ画像 Igとプローブ画像 Ipの組み合わせについ て計算されたモデル適合度 Uが、 それ以外の組み合わせについて訐算されたモデ ル適合度 Uより頭一つ抜きん出て良好な値を示す。 このため、 フィッティング処 理の精度が多少低下してモデル適合度 Uの値が多少上下しても、 その影響を受け ずに、目的パラメタ ptがプローブ画像と一番良く合致しているギャラリ画像を特 定することができる。
これに対して、従来技術では、 プローブ画像 Ipからその目的パラメタ ptpと外 部パラメタ pepを、 ギャラリ画像 Igからその目的パラメタ ptg と外部パラメタ pegをそれぞれ独立にフィッティング処理で推定し、 ptpと ptgの類似度を比較し ている。 このため、 照合したい目的パラメタ ptpと ptgが両画像 Ip, Igで同じで あるときと異なるときの ptpと ptgの類似度の隔たりが、 本実施の形態における モデル適合度 Uの値の隔たりのように顕著にならない。 したがって、 フイツティ ング処理の絶対的な精度の影響を強く受けることになる。
なお、 本実施の形態は画像と画像を照合するシステムであり、 第 1の実施の形 態との比較によって説明したが、 第 2の実施の形態において、 モデル適合度評価 手段 1 2 2 2を本実施の形態のモデル適合度評価手段 1 2 4 2に置き換えた実施 の形態も考えられる。 また、 第 3または第 4の実施形態において、 モデル適合度 評価手段 1 2 3 2を本実施の形態のモデル適合度評価手段 1 2 4 2に置き換えた 実施の形態も考えられる。
(第 6の実施の形態)
― 次に本発明の第 6の実施の形態について説明する。
図 1 6に示される本実施の形態と図 1 4に示した第 5の実施の形態とを比較す ると、 処理装置 1 2 0 0が、 モデル適合度評価手段 1 2 4 2に代えてモデル適合 度評価手段 1 2 5 2を備えている点で両者は相違する。
図 1 7を参照すると、 モデル適合度評価手段 1 2 5 2は、 ギャラリ画像 Ig、 ギ ャラリモデル画像 Γ g、 プローブ画像 Ip、 プローブモデル画像 Γ p、 目的パラメ タ pt、 ギャラリ外部パラメタ peg、 プローブ外部パラメタ pep、 ギャラリ画像パ ラメタ基準情報 1 2 4 5およびプローブ画像パラメタ基準情報 1 2 4 6を入力し、 モデル適合度 Vとモデル適合度 Uを併用してモデル適合度 Wを計算し出力する。 モデル適合度評価手段 1 2 5 2は、 二つの評価部 1 2 5 3および評価部 1 2 5 4と、 統合部 1 2 5 5とを備える。
評価部 1 2 5 3は、 第 1の実施の形態における図 2のモデル適合度評価手段 1 2 0 2に相当し、 ギヤラリ画像 Ig、 ギャラリモデル画像 Γ g、 プローブ画像 Ip、 プローブモデル画像 Γ pを入力とし、 それらの誤差を評価してモデル適合度 Vを 計算して出力する。
評価部 1 2 5 4は、 第 5の実施形態における図 1 4のモデル適合度評価手段 1 2 4 2に相当し、 ギャラリ画像パラメタ基準情報 1 2 4 5とプローブ画像パラメ タ基準情報 1 2 4 6を参照し、 モデルフィッティング手段 1 2 0 1の推定した各 パラメタ pt,peg,pepの確信度を計算し、 モデル適合度 Uを出力する。
統合部 1 2 5 5は、 モデル適合度 Vとモデル適合度 Uを統合したモデル適合度 Wを計算して出力する。モデル適合度 Wの計算には様々な方法が利用可能である。 モデル適合度 Wは次式で計算される。
W=V+wuU ·'· (27)
ここで、 はモデル適合度 Vとモデル適合度 Uの重視度を決める重み係数であ り、 事前に適当な値を決めておく。
照合手段 1 2 0 3は、 第 1の実施の形態とほぼ同じである。 ただし、 モデル適 合度 Vの値の代わりに、 モデル適合度 Wを用いて、 プローブ画像とギャラリ画像 の目的パラメタが同一であるかの照合、 または、 目的パラメタの値の推定を行う 点が相違する。 この際、 第 1の実施の形態おょぴ第 5の実施の形態と同様の理由 により、 モデルフイツティング処理の絶対的な精度にあまり影響を受けずにプロ ーブ画像とギャラリ画像との照合を行うことができる。
なお、 本実施の形態は画像と画像を照合するシステムであり、 第 5の実施の形 態との比較によって説明したが、 第 2の実施の形態において、 モデル適合度評価 手段 1 2 2 2を本実施の形態のモデル適合度評価手段 1 2 5 2に置き換えた実施 の形態も考えられる。 また、 第 3または第 4の実施形態において、 モデル適合度 評価手段 1 2 3 2を本実施の形態のモデル適合度評価手段 1 2 5 2に置き換えた 実施の形態も考えられる。
(第 7の実施の形態)
次に本発明の第 7の実施の形態について説明する。
図 1 8に示される本実施の形態と図 1 6に示した第 6の実施の形態を比較する と、 処理装置 1 2 0 0力 2 Dモデルフィッティング手段 1 2 0 1を複数備えて いる点、 モデル適合度評価手段 1 2 5 2に代えてモデル適合度評価手段 1 2 6 2 を備えている点で両者は相違する。
複数の 2 Dモデルフィッティング手段 1 2 0 1のうち、 第 1の 2 Dモデルフィ ッティング手段は、 第 6の実施の形態の 2 Dモデルフイツティング手段 1 2 0 1 と同様にギャラリ画像とプロープ画像との同時フィッティングを行うために使用 され、 残りの第 2の 2 Dモデルフィッティング手段 1 2 0 1は、 ギャラリ画像と プローブ画像の一方のみを入力し、 この単一の画像のみに対して画像変動モデル をフィッティングしてモデル画像の生成おょぴパラメタ推定を行うために使用さ れる。
モデル適合度評価手段 1 2 6 2は、単一画像へのモデルフィッティング結果と、 両画像へのモデルフィッティング結果との誤差を、 モデル適合度 Wとして計算す る。
図 1 9を参照すると、 第 1のモデルフイツティング手段 1 2 0 1は、 認識対象 であるプローブ画像 Ipおよびそれと照合されるギャラリ画像 Igの両者を入力と し、 画像変動モデルを用い、 照合目的となる変動要素を共通のパラメタとしてモ デルフィッティング処理を行い、 両画像 Ip, Igにできるだけ近い画像を生成でき るようなパラメタの値を求める。 生成されたプローブモデル画像 Γ ρ、 ギャラリ モデル画像 I' g、 推定された目的パラメタ pt、 プローブ外部パラメタ pep、 ギヤ ラリ外部パラメタ pegは、 モデル適合度評価手段 1 2 6 2に出力される。
1つ目の第 2のモデルフィッティング手段 1 2 0 1は、プローブ面像 Ipのみを 入力とし、 画像変動モデルを用いてできるだけそれに近い画像を生成できるよう なパラメタの値を求める。 これには画像変動モデルに対応した様々な方法が利用 可能であり、 一例として、 先行技術文献 1の技術や先行技術文献 2の技術を利用 することは可能である。推定された目的パラメタをプロープ個別目的パラメタ qtp、 外部パラメタをプローブ個別外部パラメタ qep とし、 これらを合わせてプローブ 画像パラメタ情報 qpとする。 これらと共に、 生成されたプローブ個別モデル画像 I' psが出力される。
2つ目の第 2のモデルフィッティング手段 1 2 0 1は、ギャラリ画像 Igのみを 入力し、 画像変動モデルを用いてできるだけそれに近い画像を生成できるような パラメタの値を求める。画像変動モデルに対応した様々な方法が利用可能である。 一例として、 先行技術文献 1の技術や先行技術文献 2の技術が利用できる。 推定 された目的パラメタをギャラリ個別目的パラメタ qtg、 外部パラメタをギャラリ 個別外部パラメタ qegとし、これらを合わせてギャラリ画像パラメタ情報 qgとし て、 これらパラメタとともに、生成されたギャラリ個別モデル画像 I'gsが出力さ れる。
モデル適合度評価手段 1 262は、ギャラリ画像 Ig、ギャラリモデル画像 I' g、 ギャラリ個別モデル画像 gs、 プローブ画像 Ip、 プローブモデル画像 Γ p、 プロ ープ個別モデル画像 ps、 目的パラメタ pt、 ギャラリ外部パラメタ peg、 プロ一 プ外部パラメタ pep、 ギャラリ画像パラメタ情報 qgおよびプロ一ブ画像パラメタ 情報 qpを入力し、モデル適合度 Vとモデル適合度 Uを併用してモデル適合度 Wを 計算し出力する。
モデル適合度評価手段 1262は、 二つの評価部 1263および評価部 1 26 4と、 統合部 1265とを備える。
評価部 1264と第 6の実施の形態における評価部 1254とは以下の点を除 いて同じである。 ギャラリ画像パラメタ基準情報 1 254およびプローブ画像パ ラメタ基準情報 1 246の代わりに第 2のモデルフイツティング手段 1201の 出力したプローブ画像パラメタ情報 qgおよびギヤラリ画像パラメタ情報 qgを参 照し、 第 1のモデルフィッティング手段 1201の出力した目的パラメタ pt、 プ ローブ外部パラメタ pep、 ギャラリ外部パラメタ pegの値との誤差に基づいてパ ラメタ確信度を計算し、 モデル適合度 Uとして出力する点が相違する。
このモデル適合度 Uの計算方法は様々あるが、 次式でモデル適合度 Uを計算し てもよい。
U=wl|pt-qtp|2+w2|pt-qtg|2
+w3| pep— qep |2+w4|peg-qeg|2 "- (28)
ここで、 wl,w2,w3,w4は重み係数であり、 あらかじめ適当な値を設定してお く。なお、 ここで説明したモデル適合度 Uの計算方法はあくまで一例であり、様々 な計算方法に変更可能である。
評価部 1263は、 第 6の実施の形態における評価部 1253に相当する。 評 価部 1263は、 プローブ画像 Ip、 ギヤラリ画像 Ig、 第 1のモデルフィッティン グ手段 1 201の出力するプローブモデル画像 Γ p、 ギャラリモデル画像 Γ g、第 2のモデルフィッティング手段 1 2 0 1の出力するプローブ個別モデル画像 I' ps 及ぴギャラリ個別モデル画像 Γ gs を入力し、 この個別に生成されたモデル画像
I' PS, r gS と、 プローブおよびギャラリ両画像を併用して生成されたモデル画像 rP,r gとの誤差をも加味して、 モデル適合度 Vを計算する。
その計算方法は様々な方法が利用可能である。 一例として、 次式に示すように 画像の輝度値の二乗誤差和を用いることができる。
V=vp | lp— Ip | 2+vg| Ig— Ig | 2 + vps | l p— I ps | 2+vgs |丄 g— I,gs | 2
- (29)
ここで、 vp, vg, vps, vgs は、 重みを調整する係数であり、 あらかじめ適当な値 に定められている。 一例として、 各画像の画素数の逆数としてもよい。 また、 状 況によって適応的に変更することも可能である。 このほかにも、 式 2 9にさらに Ipと I' ps、 Igと I' gsの誤差を加算するなど様々な計算方法が利用可能である。 また、 ここでは画像の輝度値の差分を用いたが、 エッジや周波数成分など様々な 画像特徴量の誤差を用いることも可能である。
統合部 1 2 6 5は、 モデル適合度 Vとモデル適合度 Uを統合したモデル適合度 Wを計算して出力する。 モデル適合度 Wの計算には様々な方法が利用可能である が、 一例として前記式 2: 7を使用することができる。
照合手段 1 2 0 3は、 モデル適合度 Vの値の代わりに、 モデル適合度 Wを用い て、 プローブ画像とギャラリ画像の目的パラメタが同一であるか否かの照合、 ま たは、 目的パラメタの値の推定を行う点以外は第 1の実施の形態と同じである。 この際、 第 1の実施の形態および第 5の実施の形態と同様の理由により、 モデル フィッティング処理の絶対的な精度にあまり影響を受けずにプローブ画像とギヤ ラリ画像との照合を行うことができる。
なお、 本実施の形態は画像と画像を照合するシステムであり、 第 6の実施の形 態との比較によって説明した。 なお、 第 2の実施の形態において、 モデル適合度 評価手段 1 2 2 2を本実施の形態のモデル適合度評価手段 1 2 6 2に置き換えた 実施の形態も考えられる。 また、 第 3または第 4の実施形態において、 モデル適 合度評価手段 1 2 3 2を本実施の形態のモデル適合度評価手段 1 2 6 2に置き換 えた実施の形態も考えられる。
以上本発明の実施の形態について説明したが、本発明は以上の例に限定されず、 その他各種の付加変更が可能である。 また、 本発明の照合装置は、 その有する機 能をハードウェア的に実現することは勿論、 コンピュータとプログラムとで実現 することができる。 プログラムは、 磁気ディスクや半導体メモリ等のコンビユー タ可読記録媒体に記録されて提供され、 コンピュータの立ち上げ時などにコンビ ユータに読み取られ、 そのコンピュータの動作を制御することにより、 そのコン ピュータを前述した各実施の形態における照合装置として機能させ、 前述した処 理を実行させる。
産業上の利用可能性:
本発明は、 認識対象となる画像や 3次元データに対して画像変動モデルや 3次 元データ変動モデルをフィッティングして変動要素を推定する際に、 ブイッティ ング精度が低下して推定されるパラメタの精度が低下する状況においても、 高い 認識性能を得ることができる物体認識システム、 方法、 およぴプログラムに利用 できる。 特に、 多様な変動環境において撮影された認識対象画像や 3次元データ と、 登録されている画像や 3次元データを比較し、 写っている物体が同一である か、 物体の状態、 姿勢、 照明条件、 撮影したカメラなどの状況が同一であるかな どを高精度で認識できる物体認識システム、 方法、 およびプログラムに利用でき る。

Claims

請 求 の 範 囲
1 . 物体の画像または 3次元データである対象データと参照データとを照合 する装置であって、
複数のパラメタの値を調整することにより物体の画像または 3次元データであ るモデルデータを生成できる変動モデルを記憶する記憶手段と、
前記記憶手段に記憶された変動モデルを用い、 前記複数のパラメタのうち、 前 記対象データと前記参照データ間で同一かどうかを判定する対象となるパラメタ を目的パラメタ、 それ以外のパラメタを外部パラメタとし、 対象データと参照デ ータとで目的パラメタを同一の値にした条件の下で、 前記対象データに類似する 対象モデルデータと前記参照データに類似する参照モデルデータとを前記変動モ デルから生成するために最適な前記パラメタの値を推定するモデルフィッティン グ手段と、
前記推定されたパラメタの下での前記対象モデルデータおよぴ前記参照モデル データの前記対象データおよび前記参照データに対するモデル適合度を算出する モデル適合度評価手段
を備えることを特徴とする照合装置。
2 . 前記算出されたモデル適合度と予め定められた閾値とを比較することに より、 前記対象データと前記参照データ間における前記目的パラメタの同一性を 判定する照合手段を備えることを特徴とする請求項 1記載の照合装置。
3 . 複数の参照データのそれぞれと前記対象データとの組み合わせについて 前記モデルフイツティング手段およびモデル適合度評価手段による処理を繰り返 し、 最も良いモデル適合度が得られた組み合わせにおける目的パラメタの値を前 記対象データの目的パラメタの推定値とする照合手段を備えることを特徴とする 請求項 1記載の照合装置。
4 . 複数の参照データのそれぞれと前記対象データとの組み合わせについて 前記モデルフイツティング手段およびモデル適合度評価手段による処理を繰り返 し、 予め定められた閾値以上のモデル適合度が得られた複数の組み合わせにおけ る目的パラメタから計算した値を、 前記対象データの目的パラメタの推定値とす る照合手段を備えることを特徴とする請求項 1記載の照合装置。
5 . 前記モデル適合度評価手段は、
前記生成された前記対象モデルデータと前記対象データとの間の誤差おょぴ前 記生成された前記参照モデルデータと前記参照データとの間の誤差を計算し、 該計算した誤差から前記モデル適合度を算出する
ことを特徴とする請求項 1記載の照合装置。
6 . 前記モデル適合度評価手段は、
前記推定されたパラメタの値の確からしさを示すパラメタ確信度を予め定めら れたパラメタ基準情報を参照して計算し、
該計算したパラメタ確信度から前記モデル適合度を算出する
ことを特徴とする請求項 1記載の照合装置。
7 . 前記モデル適合度評価手段は、
前記生成された前記対象モデルデータと前記対象データとの間の誤差およぴ前 記生成された前記参照モデルデータと前記参照データとの間の誤差を計算すると 共に、 前記推定されたパラメタの値の確からしさを示すパラメタ確信度を予め定 められたパラメタ基準情報を参照して計算し、
前記計算した誤差およびパラメタ確信度から前記モデル適合度を算出する ことを特徴とする請求項 1記載の照合装置。
8 . 前記パラメタ基準情報が、 前記パラメタの値の取り得る値域であること を特徴とする請求項 6または 7記載の照合装置。
9 . 前記パラメタ基準情報が、 前記パラメタの正解値であることを特徴とす る請求項 6または 7記載の照合装置。
1 0 . 前記パラメタ基準情報が、 前記パラメタの値の確率分布であることを 特徴とする請求項 6または 7記載の照合装置。
1 1 . 前記モデルフィッティング手段は、 前記対象データに類似する対象個 別モデルデータを前記変動モデルから生成するための最適な前記パラメタの値、 および、 前記参照データに類似する参照個別モデルデータを前記変動モデルから 生成するための最適な前記パラメタの値を、 前記対象データと前記参照データと で目的パラメタの値が必ずしも同一でないとの条件の下に推定し、
前記モデル適合度評価手段は、 前記推定された対象個別モデルデータの前記パ ラメタの値おょぴ前記参照個別モデルデータの前記パラメタの^ tを、 前記パラメ タ基準情報とすることを特徴とする請求項 6または 7記載の照合装置。
1 2 . 前記モデルフィッティング手段は、 前記対象データに類似する対象個 別モデルデータを前記変動モデルから生成するための最適な前記パラメタの値、 および、 前記参照データに類似する参照個別モデルデータを前記変動モデルから 生成するための最適な前記パラメタの値を、 前記対象データと前記参照データと で目的パラメタの値が必ずしも同一でないとの条件の下に推定し、
前記モデル適合度評価手段は、 前記対象個別モデルデータと前記対象データと の間の誤差、 前記参照個別モデルデータと前記参照データとの間の誤差、 前記対 象モデルデータと前記対象個別モデルデータとの間の誤差、 前記参照モデルデー タと前記参照個別モデルデータとの間の誤差の少なくとも一つの誤差をさらに考 慮に入れて前記モデル適合度を算出することを特徴とする請求項 5または 7記載 の照合装置。
1 3 . 前記変動モデルとして、 様々な物体の 3次元モデルを含み、 物体を指 定するパラメタに応じて指定の物体の 3次元モデルを選択し、 該選択した 3次元 モデルを、 物体の状態、 姿勢、 照明条件、 カメラの特性などのパラメタに応じて 変形し、 さらに、 コンピュータグラフィクスを用いて前記パラメタの表す状況下 での画像を生成する画像変動モデルを使用することを特徴とする請求項 1記載の 照合装置。
1 4 . 前記変動モデルとして、 物体の個性や状態を指定するパラメタに応じ て該状態における物体の 3次元モデルを計算し、 該計算した 3次元モデルを、 物 体の姿勢、 照明条件、 カメラの特性などのパラメタに応じて変形し、 さらに、 コ ンピュータグラフイクスを用いて前記パラメタの表す状況下での画像を生成する 画像変動モデルを使用することを特徴とする請求項 1記載の照合装置。
1 5 . 前記変動モデルとして、 様々な物体の 3次元モデルを含み、 物体を指 定するパラメタに応じて指定の物体の 3次元モデルを選択し、 該選択した 3次元 モデルを、 物体の状態、 姿勢、 照明条件、 カメラの特性などのパラメタに応じて 変形する 3次元データ変動モデルを使用することを特徴とする請求項 1記載の照 合装置。
1 6 . 前記変動モデルとして、 物体の個性や状態を指定するパラメタに応じ て該状態における物体の 3次元モデルを計算し、 該計算した 3次元モデルを、 物 体の姿勢、 照明条件、 カメラの特性などのパラメタに応じて変形する 3次元デー タ変動モデルを使用することを特徴とする請求項 1記載の照合装置。
1 7 . 前記目的パラメタが物体の種類を記述するパラメタであり、 前記照合 手段が前記対象データと前記参照データの物体が同一であるかを判定する手段で あることを特徴とする請求項 2または 3記載の照合装置。
1 8 . 前記変動モデルが顔の画像または 3次元データを生成するモデルであ り、 前記目的パラメタが人物の個性を記述するパラメタであり、 前記照合手段が 前記対象データと前記参照データの人物が同一であるかを照合する手段であるこ とを特徴とする請求項 2または 3記載の照合装置。
1 9 . 前記目的パラメタが物体の位置または姿勢を特定するパラメタであり、 前記照合手段が前記対象データと前記参照データの物体の位置または姿勢が同一 であるかを照合する手段であることを特徴とする請求項 2または 3記載の照合装 置。
2 0 . 前記変動モデルが顔の画像または 3次元データを生成するモデルであ り、 前記目的パラメタが人物の顔の表情を特定するパラメタであり、 前記照合手 段が前記対象データと前記参照データの顔の表情が同一であるかを照合する手段 であることを特徴とする請求項 2または 3記載の照合装置。
2 1 . コンピュータを用いて物体の画像または 3次元データである対象デー タと参照データとを照合する方法であって、
前記コンピュータが、 複数のパラメタの値を調整することにより物体の画像ま たは 3次元データであるモデルデータを生成できる変動モデルを用い、 前記複数 のパラメタのうち、 前記対象デ一タと前記参照データ間で同一かどうかを判定す る対象となるパラメタを目的パラメタ、それ以外のパラメタを外部パラメタとし、 対象データと参照データとで目的パラメタを同一の値にした条件の下で、 前記対 象データに類似する対象モデルデータと前記参照データに類似する参照モデルデ ータとを前記変動モデルから生成するために最適な前記パラメタの値を推定する 第 1のステップと、
前記コンピュータが、 前記推定されたパラメタの下での前記対象モデルデータ およぴ前記参照モデルデータの前記対象データおよび前記参照データに対するモ デル適合度を算出する第 2のステップ
を含むことを特 ί敷とする照合方法。
2 2 . 前記コンピュータが、 前記算出されたモデル適合度と予め定められた 閾値とを比較することにより、 前記対象データと前記参照データ間における前記 目的パラメタの同一性を判定する第 3のステップをさらに含むことを特徴とする 請求項 2 1記載の照合方法。
2 3 . 前記コンピュータが、 複数の参照データのそれぞれと前記対象データ との組み合わせについて前記第 1およぴ第 2のステップを繰り返し、 最も良レヽモ デル適合度が得られた組み合わせにおける目的パラメタの値を前記対象データの 目的パラメタの推定値とする第 3のステップをさらに含むことを特徴とする請求 項 2 1記載の照合方法。
2 4 . 前記コンピュータが、 複数の参照データのそれぞれと前記対象データ との組み合わせについて前記第 1および第 2のステップを繰り返し、 予め定めら れた閾値以上のモデル適合度が得られた複数の組み合わせにおける目的パラメタ から計算した値を、 前記対象データの目的パラメタの推定値とする第 3のステツ プをさらに含むことを特徴とする請求項 2 1記載の照合方法。
2 5 . 前記第 2のステツプにおいては、 前記生成された前記対象モデルデー タと前記対象データとの間の誤差および前記生成された前記参照モデルデータと 前記参照データとの間の誤差を計算し、 該計算した誤差から前記モデル適合度を 算出することを特徴とする請求項 2 1記載の照合方法。
2 6 . 前記第 2のステップにおいては、 前記推定されたパラメタの値の確か らしさを示すパラメタ確信度を予め定められたパラメタ基準情報を参照して計算 し、 該計算したパラメタ確信度から前記モデル適合度を算出することを特徴とす る請求項 2 1記載の照合方法。
2 7 . 前記第 2のステップにおいては、 前記生成された前記対象モデルデー タと前記対象データとの間の誤差および前記生成された前記参照モデルデータと 前記参照データとの間の誤差を計算すると共に、 前記推定されたパラメタの値の 確からしさを示すパラメタ確信度を予め定められたパラメタ基準情報を参照して 計算し、 前記計算した誤差およびパラメタ確信度から前記モデル適合度を算出す ることを特徴とする請求項 2 1記載の照合方法。
2 8 . 前記パラメタ基準情報が、 前記パラメタの値の取り得る値域であるこ とを特徴とする請求項 2 6または 2 7記載の照合方法。
2 9 . 前記パラメタ基準情報が、 前記パラメタの正解値であることを特徴と する請求項 2 6または 2 7記載の照合方法。
3 0 . 前記パラメタ基準情報が、 前記パラメタの値の確率分布であることを 特徴とする請求項 2 6または 2 7記載の照合方法。
3 1 . 前記コンピュータが、 前記対象データに類似する対象個別モデルデー タを前記変動モデルから生成するための最適な前記パラメタの値、 および、 前記 参照データに類似する参照個別モデルデータを前記変動モデルから生成するため の最適な前記パラメタの値を、 前記対象データと前記参照データとで目的パラメ タの値が必ずしも同一でないとの条件の下に推定し、
該推定した対象個別モデルデータの前記パラメタの値およぴ前記参照個別モデ ルデータの前記パラメタの値が前記パラメタ基準情報となる
ことを特徴とする請求項 2 6または 2 7記載の照合方法。
3 2 . 前記コンピュータが、
前記対象データに類似する対象個別モデルデータを前記変動モデルから生成す るための最適な前記パラメタの値、 および、 前記参照データに類似する参照個別 モデルデータを前記変動モデルから生成するための最適な前記パラメタの値を、 前記対象データと前記参照データとで目的パラメタの値が必ずしも同一でないと の条件の下に推定し、
前記対象個別モデルデータと前記対象データとの間の誤差、 前記参照個別モデ ルデータと前記参照データとの間の誤差、 前記対象モデルデータと前記対象個別 モデルデータとの間の誤差、 前記参照モデルデータと前記参照個別モデルデータ との間の誤差の少なくとも一つの誤差をさらに考慮に入れて前記モデル適合度を 算出する
ことを特徴とする請求項 2 5または 2 7記載の照合方法。
3 3 . 複数のパラメタの値を調整することにより物体の画像または 3次元デ ータであるモデルデータを生成できる変動モデルを記憶する記憶手段を有し、 物 体の画像または 3次元データである対象データと参照データとを照合するコンビ ュ1 ~~タを- 前記記憶手段に記憶された変動モデルを用い、 前記複数のパラメタのうち、 前 記対象データと前記参照データ間で同一かどうかを判定する対象となるパラメタ を目的パラメタ、 それ以外のパラメタを外部パラメタとし、 対象データと参照デ ータとで目的パラメタを同一の値にした条件の下で、 前記対象データに類似する 対象モデルデータと前記参照データに類似する参照モデルデータとを前記変動モ デルから生成するために最適な前記パラメタの値を推定するモデルフィッティン グ手段として機能させ、
前記推定されたパラメタの下での前記対象モデルデータおよぴ前記参照モデル データの前記対象データおよび前記参照データに対するモデル適合度を算出する モデル適合度評価手段として機能させるためのプログラム。
3 4 . 前記コンピュータを、 さらに、 前記算出されたモデル適合度と予め定 められた閾値とを比較することにより、 前記対象データと前記参照データ間にお ける前記目的パラメタの同一性を判定する照合手段として機能させるための請求 項 3 3記載のプログラム。
3 5 . 前記コンピュータを、 さらに、 複数の参照データのそれぞれと前記対 象データとの組み合わせについて前記モデルフィッティング手段おょぴモデル適 合度評価手段による処理を繰り返し、 最も良いモデル適合度が得られた組み合わ せにおける目的パラメタの値を前記対象データの目的パラメタの推定値とする照 合手段として機能させるための請求項 3 3記載のプログラム。
3 6 . 前記コンピュータを、 さらに、 複数の参照データのそれぞれと前記対 象データとの組み合わせについて前記モデルフィッティング手段おょぴモデル適 合度評価手段による処理を繰り返し、 予め定められた閾値以上のモデル適合度が 得られた複数の組み合わせにおける目的パラメタから計算した値を、 前記対象デ ータの目的パラメタの推定値とする照合手段として機能させるための請求項 3 3 記載のプログラム。
3 7 . 前記モデル適合度評価手段は、
前記生成された前記対象モデルデータと前記対象データとの間の誤差および前 記生成された前記参照モデルデータと前記参照データとの間の誤差を計算し、 該計算した誤差から前記モデル適合度を算出する
ことを特徴とする請求項 3 3記載のプログラム。
3 8 . 前記モデル適合度評価手段は、 前記推定されたパラメタの値の確から しさを示すパラメタ確信度を予め定められたパラメタ基準情報を参照して計算し、 該計算したパラメタ確信度から前記モデル適合度を算出することを特徴とする請 求項 3 3記載のプログラム。
3 9 . 前記モデル適合度評価手段は、
前記生成された前記対象モデルデータと前記対象データとの間の誤差おょぴ前 記生成された前記参照モデルデータと前記参照データとの間の誤差を計算すると 共に、 前記推定されたパラメタの値の確からしさを示すパラメタ確信度を予め定 められたパラメタ基準情報を参照して計算し、
前記計算した誤差およびパラメタ確信度から前記モデル適合度を算出する ことを特徴とする請求項 3 3記載のプログラム。
4 0 . 前記パラメタ基準情報が、 前記パラメタの値の取り得る値域であるこ とを特徴とする請求項 3 8または 3 9記載のプログラム。
4 1 . 前記パラメタ基準情報が、 前記パラメタの正解値であることを特徴と する請求項 3 8または 3 9記載のプログラム。
4 2 . 前記パラメタ基準情報が、 前記パラメタの値の確率分布であることを 特徴とする請求項 3 8または 3 9記載のプログラム。
4 3 . 前記モデルフィッティング手段は、 前記対象データに類似する対象個 別モデルデータを前記変動モデルから生成するための最適な前記パラメタの値、 および、 前記参照データに類似する参照個別モデルデータを前記変動モデルから 生成するための最適な前記パラメタの値を、 前記対象データと前記参照データと で目的パラメタの値が必ずしも同一でないとの条件の下に推定し、
前記モデル適合度評価手段は、 前記推定された対象個別モデルデータの前記パ ラメタの値および前記参照個別モデルデータの前記パラメタの値を、 前記パラメ タ基準情報とする
ことを特徴とする請求項 3 8または 3 9記載のプログラム。
4 4 . 前記モデルフィッティング手段は、 前記対象データに類似する対象個 別モデルデータを前記変動モデルから生成するための最適な前記パラメタの値、 および、 前記参照データに類似する参照個別モデルデータを前記変動モデルから 生成するための最適な前記パラメタの値を、 前記対象データと前記参照データと で目的パラメタの値が必ずしも同一でないとの条件の下に推定し、
前記モデル適合度評価手段は、 前記対象個別モデルデータと前記対象データと の間の誤差、 前記参照個別モデルデータと前記参照データとの間の誤差、 前記対 象モデルデータと前記対象個別モデルデータとの間の誤差、 前記参照モデルデー タと前記参照個別モデルデータとの間の誤差の少なくとも一つの誤差をさらに考 慮に入れて前記モデル適合度を算出する
ことを特徴とする請求項 3 7または 3 9記載のプログラム。
PCT/JP2007/058477 2006-04-14 2007-04-12 照合装置および照合方法 WO2007119870A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US12/297,136 US8295614B2 (en) 2006-04-14 2007-04-12 Collation apparatus and collation method
JP2008511027A JP4957921B2 (ja) 2006-04-14 2007-04-12 照合装置および照合方法
EP07741913A EP2012272A1 (en) 2006-04-14 2007-04-12 Checking device and checking method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006-112048 2006-04-14
JP2006112048 2006-04-14

Publications (1)

Publication Number Publication Date
WO2007119870A1 true WO2007119870A1 (ja) 2007-10-25

Family

ID=38609624

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/058477 WO2007119870A1 (ja) 2006-04-14 2007-04-12 照合装置および照合方法

Country Status (4)

Country Link
US (1) US8295614B2 (ja)
EP (1) EP2012272A1 (ja)
JP (1) JP4957921B2 (ja)
WO (1) WO2007119870A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013101552A (ja) * 2011-11-09 2013-05-23 Nippon Telegr & Teleph Corp <Ntt> 物体座標系変換行列推定成否判定装置および物体座標系変換行列推定成否判定方法ならびにそのプログラム

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007069260A1 (en) * 2005-12-16 2007-06-21 Technion Research & Development Foundation Ltd. Method and apparatus for determining similarity between surfaces
US8086043B2 (en) * 2007-12-21 2011-12-27 Ati Technologies Ulc System and method of image correlation based on image structure
US8165354B1 (en) * 2008-03-18 2012-04-24 Google Inc. Face recognition with discriminative face alignment
KR101626057B1 (ko) * 2009-11-19 2016-05-31 삼성전자주식회사 3뷰 영상의 디스패리티 추정 방법 및 장치
CN102679867A (zh) * 2011-03-15 2012-09-19 鸿富锦精密工业(深圳)有限公司 测头管理系统及方法
US9251402B2 (en) * 2011-05-13 2016-02-02 Microsoft Technology Licensing, Llc Association and prediction in facial recognition
US9323980B2 (en) 2011-05-13 2016-04-26 Microsoft Technology Licensing, Llc Pose-robust recognition
FR2998402B1 (fr) * 2012-11-20 2014-11-14 Morpho Procede de generation d'un modele de visage en trois dimensions
JP2014164697A (ja) * 2013-02-27 2014-09-08 Canon Inc 画像処理装置および画像処理方法、プログラム、並びに記憶媒体
US9577910B2 (en) * 2013-10-09 2017-02-21 Verisign, Inc. Systems and methods for configuring a probe server network using a reliability model
US20150235073A1 (en) * 2014-01-28 2015-08-20 The Trustees Of The Stevens Institute Of Technology Flexible part-based representation for real-world face recognition apparatus and methods
CN108027883A (zh) * 2015-06-30 2018-05-11 美国日本电气公司 面部识别系统
US10534955B2 (en) * 2016-01-22 2020-01-14 Dreamworks Animation L.L.C. Facial capture analysis and training system
JP6991771B2 (ja) * 2017-07-31 2022-01-13 キヤノン株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
US11521460B2 (en) 2018-07-25 2022-12-06 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
AU2019208182B2 (en) 2018-07-25 2021-04-08 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002157595A (ja) 2000-11-20 2002-05-31 Nec Corp 物体照合方法,物体照合装置,およびそのプログラムを記録した記録媒体

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7436988B2 (en) * 2004-06-03 2008-10-14 Arizona Board Of Regents 3D face authentication and recognition based on bilateral symmetry analysis
US20060120571A1 (en) * 2004-12-03 2006-06-08 Tu Peter H System and method for passive face recognition
US7609860B2 (en) * 2005-06-14 2009-10-27 Mitsubishi Electric Research Laboratories, Inc. Bilinear illumination model for robust face recognition
US7756325B2 (en) * 2005-06-20 2010-07-13 University Of Basel Estimating 3D shape and texture of a 3D object based on a 2D image of the 3D object

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002157595A (ja) 2000-11-20 2002-05-31 Nec Corp 物体照合方法,物体照合装置,およびそのプログラムを記録した記録媒体

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
ANDREAS LANITIS; CHRIS J. TAYLOR; TIMOTHY F. COOTES: "Automatic Interpretation and Coding of Face Images Using Flexible Models", IEEE TRANS. PATTERN ANALYSIS AND MACHINE INTELLIGENCE, vol. 19, no. 7, July 1997 (1997-07-01)
BLANZ V. AND VETTER T.: "Face Recognition Based on Fitting a 3D Morphable Model", IEEE TRANS. PAMI, vol. 25, no. 9, 2003, pages 1063 - 1074, XP001185137 *
ROMDHANI S. ET AL.: "Identification by Fitting a 3D Morphable Model using linear Shape and Texture Error Functions", PROC. ECCV, 2002, pages 1 - 15, XP003018283 *
SAMI ROMDHANI; VOLKER BLANZ; THOMAS VETTER: "Face Identification by Fitting a 3D Morphable Model using Linear Shape and Texture Error Functions", PROC. ECCV 2002, 2002, pages 3 - 19
VOLKER BLANZ; THOMAS VETTER: "Face Recognition Based on Fitting a 3D Morphable Model", IEEE TRANS. PAMI, vol. 25, no. 9, 2003, pages 1063 - 1074

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013101552A (ja) * 2011-11-09 2013-05-23 Nippon Telegr & Teleph Corp <Ntt> 物体座標系変換行列推定成否判定装置および物体座標系変換行列推定成否判定方法ならびにそのプログラム

Also Published As

Publication number Publication date
JPWO2007119870A1 (ja) 2009-08-27
EP2012272A1 (en) 2009-01-07
JP4957921B2 (ja) 2012-06-20
US20090180672A1 (en) 2009-07-16
US8295614B2 (en) 2012-10-23

Similar Documents

Publication Publication Date Title
WO2007119870A1 (ja) 照合装置および照合方法
EP1677250B1 (en) Image collation system and image collation method
JP4553141B2 (ja) 重み情報を用いた物体姿勢推定・照合システム
US7415152B2 (en) Method and system for constructing a 3D representation of a face from a 2D representation
AU762625B2 (en) Face sub-space determination
CN101964064B (zh) 一种人脸比对方法
JP4692773B2 (ja) 物体の姿勢推定及び照合システム、物体の姿勢推定及び照合方法、並びにそのためのプログラム
CN109299643B (zh) 一种基于大姿态对准的人脸识别方法及系统
US20030123713A1 (en) Face recognition system and method
US20070269111A1 (en) Shape detection using coherent appearance modeling
Lee et al. Tensor-based AAM with continuous variation estimation: Application to variation-robust face recognition
EP2005367A1 (en) Method of locating features of an object
Bowden Learning non-linear Models of Shape and Motion
Guo et al. Building a 3D morphable face model by using thin plate splines for face reconstruction
EP3965002B1 (en) Anisotropic loss function for training a model to localise feature points
Wei et al. Automatic facial pose determination of 3D range data for face model and expression identification
Thimm et al. Illumination-robust pattern matching using distorted color histograms
Wimmer et al. Face model fitting based on machine learning from multi-band images of facial components
Mayer et al. Face model fitting with learned displacement experts and multi-band images

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07741913

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
DPE2 Request for preliminary examination filed before expiration of 19th month from priority date (pct application filed from 20040101)
WWE Wipo information: entry into national phase

Ref document number: 2008511027

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 12297136

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2007741913

Country of ref document: EP

DPE2 Request for preliminary examination filed before expiration of 19th month from priority date (pct application filed from 20040101)