WO2006134821A1 - 画像合成装置、それを用いた画像照合装置、画像合成方法およびプログラム - Google Patents

画像合成装置、それを用いた画像照合装置、画像合成方法およびプログラム Download PDF

Info

Publication number
WO2006134821A1
WO2006134821A1 PCT/JP2006/311509 JP2006311509W WO2006134821A1 WO 2006134821 A1 WO2006134821 A1 WO 2006134821A1 JP 2006311509 W JP2006311509 W JP 2006311509W WO 2006134821 A1 WO2006134821 A1 WO 2006134821A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
information
unit
illumination condition
estimated
Prior art date
Application number
PCT/JP2006/311509
Other languages
English (en)
French (fr)
Inventor
Mihoko Shimano
Kenji Nagao
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Nagao, Etsuko
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd., Nagao, Etsuko filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to US11/887,257 priority Critical patent/US7974447B2/en
Publication of WO2006134821A1 publication Critical patent/WO2006134821A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Definitions

  • Image composition apparatus image collation apparatus using the same, image composition method, and program
  • the present invention relates to an image matching device that compares and compares an input two-dimensional image with a pre-recorded two-dimensional image, and in particular, an image synthesizing device that creates a registered image group used for image matching and the same.
  • the present invention relates to an image collation apparatus and an image composition method used.
  • an image collation apparatus that compares and collates an input two-dimensional image with a two-dimensional image that has been preliminarily recorded has been put into practical use.
  • various image collation devices for realizing a face authentication method which is one of the authentication methods using biometrics, have been proposed.
  • face images of a plurality of persons who can be authenticated hereinafter referred to as registered persons
  • authenticated persons hereinafter referred to as “registered persons”. If the face image of the person to be authenticated is determined to match or similar to the registered image of the registered person, The person to be authenticated is authenticated as being a registered person.
  • the registered image power of one sheet also has the shape of the face at the time of shooting ( When estimating error components other than (normal vectors) and diffuse reflection components, each pixel that makes up the registered image is calculated as an independent pixel. In such a case, the normal vector and reflectivity at that pixel (, the so-called normal albedo vector) are not necessarily estimated correctly, and as a result, a group of registered images that match reality can be found. There was a problem that could not be created.
  • the present invention has been made in view of such a problem, and even when a pixel to be calculated is shaded, a normal vector and a reflectance for the pixel can be correctly estimated.
  • the present invention provides a technique capable of creating a registered image group that matches reality.
  • An image composition device of the present invention is an image composition device for compositing a second image of a subject under a predetermined illumination condition from a first image of a subject, and the luminance value power of the first image.
  • the illumination condition estimation unit for estimating the illumination condition for the subject in the first image, and the normal direction of the subject of the predetermined pixel in the first image based on the illumination condition estimated by the illumination condition estimation unit
  • a normal information estimation unit that estimates normal information including the error information of a predetermined pixel of the first image and information on error components other than the diffuse reflection component.
  • Error component information estimation unit for estimating error component information in a predetermined illumination condition, subject normal information estimated by the normal information estimation unit, and error component information estimation unit And an image composition unit that synthesizes a second image of the subject under the predetermined illumination condition from the information of the error component under the predetermined illumination condition estimated in step (2). This is characterized by estimating normal information of a given pixel.
  • the normal information estimation unit estimates normal information, it is possible to estimate normal information from information of a plurality of pixels in the first image. Even if the target pixel is shaded, other normal pixels can be used to correctly estimate the normal vector and reflectivity of the pixel, and the registered images that match the reality Can be created.
  • the error component information estimation unit may be configured such that the information power of a plurality of pixels in the first image also estimates information on error components of a predetermined pixel.
  • the normal information estimation unit is configured to estimate the normal direction based on a statistical model calculated based on information on a plurality of pixels, which is calculated in advance using a learning image. May be.
  • the error component information estimation unit is configured to estimate error component information based on a statistical model calculated based on information of a plurality of pixels, which is calculated in advance using a learning image.
  • the configuration may be a statistical model of each vector of the image generation model represented by
  • an illumination condition input unit for inputting illumination conditions including a plurality of illumination angles different from each other is provided, and the image composition unit outputs a second image in each of the plurality of illumination conditions input by the illumination condition input unit force. Even if it is a composition to synthesize.
  • the image collation device of the present invention compares the image composition device of the present invention with a registered image group storage unit that stores the second image created by the image composition device as a registered image group.
  • a comparison image input unit for inputting power comparison images and a comparison / collation unit for comparing and collating the comparison image input from the comparison image input unit with the registered image group stored in the registered image group storage unit are provided. It is said.
  • the normal information estimating unit estimates normal information
  • the normal information of a plurality of pixels in the first image is simultaneously estimated by the image composition device of the present invention. Therefore, even if the pixel to be calculated is shaded, use another pixel with high reliability and set the normal vector and reflectivity for that pixel.
  • a registered image group that can be estimated correctly and that matches the actual situation can be created, and the registered image group and the comparative image are compared and compared, so that a configuration with a high verification rate can be realized.
  • a comparison image illumination condition estimation unit that estimates an illumination condition in the comparison image input by the comparison image input unit, and a registered image of the illumination condition estimated by the comparison image illumination condition estimation unit are registered image group storage unit And a comparison / collation unit that collates the registered image retrieved by the image retrieval unit with the comparison image.
  • the comparative image force also estimates the illumination condition, and searches the registered image group stored in the registered image group storage unit for a registered image corresponding to the estimated illumination condition.
  • a first feature amount calculation unit that calculates the feature amount of the second image created by the image composition device, and a second feature that calculates the feature amount of the comparison image input by the comparison image input unit.
  • the registered image group storage unit stores the feature amount of the second image, and the comparison and collation unit compares and matches the registered image group and the comparison image with the feature amount. It's okay.
  • the registered image group storage unit stores the feature amount data calculated by the feature amount calculation unit, and thus stores the image information itself of the registered image group.
  • the required storage capacity can be reduced, and the comparison and collation unit performs comparison and collation using the respective feature amounts output from the registered image group storage unit and the feature amount calculation unit.
  • the computation processing in the comparison / collation unit is small, and a configuration suitable for a small device that can reduce the computation load on the CPU and the like can be realized.
  • the image composition method of the present invention is an image composition method for compositing a second image of a subject under a predetermined illumination condition, wherein the first image power of the subject is a brightness of the first image.
  • the first step of estimating the illumination condition for the subject in the first image from the value, and the object law of the predetermined pixel in the first image based on the illumination condition estimated in the first step A second step of estimating normal information including the line direction, and estimating information on error components other than the diffuse reflection component out of the luminance values of the predetermined pixels of the first image.
  • the third step for estimating the error component information in the predetermined illumination condition from the information of the subject, the normal information of the subject estimated in the second step, and the predetermined illumination estimated in the third step Composite the second image of the subject under the conditions
  • the second step is characterized by estimating the normal information of the information force predetermined pixel of the plurality of pixels in the first image.
  • the program of the present invention is a program for synthesizing the second image of the subject under the predetermined illumination conditions with the first image force of the subject, and the computer is used to store the luminance value of the first image.
  • Force The first step of estimating the illumination condition for the subject in the first image, and the normal direction of the subject of the predetermined pixel in the first image based on the illumination condition estimated in the first step.
  • the second step of estimating the normal information and the information of the error component other than the diffuse reflection component in the luminance value of the predetermined pixel of the first image are estimated, and from the information of the estimated error component, Estimate information on error components in a given lighting condition Third step, subject normal information estimated in the second step, and error in a given lighting condition estimated in the third step
  • Ingredient information Then, the fourth step of combining the second image of the subject under a predetermined illumination condition is executed, and in the second step, the information power of a plurality of pixels in the first image is obtained. It is characterized by estimating.
  • the normal information is estimated by causing the computer to execute such a program, it is possible to estimate the information power normal information of a plurality of pixels in the first image. Even if the target pixel is shaded, other normal pixels can be used to correctly estimate the normal vector and reflectivity for that pixel, creating a registered image group that matches the reality. .
  • the image composition device of the present invention As described above, if the image composition device of the present invention, the image collation device using the image composition device, and the image composition method are used, even if the pixel to be calculated is shaded, It is possible to provide a technology that can correctly estimate the normal vector and reflectance of a pixel and create a registered image group that matches the reality.
  • FIG. 1 is a block diagram showing a configuration of an image collating apparatus according to a first embodiment of the present invention.
  • FIG. 2 is a functional block diagram of a registered image group creation unit of the image collating apparatus according to the first embodiment of the present invention.
  • FIG. 3 is a flowchart showing operation steps of a registered image group creation unit of the image collating apparatus according to the first embodiment of the present invention.
  • FIG. 4 is a diagram conceptually showing an example of a registered image in the first embodiment of the present invention.
  • FIG. 5 is a diagram conceptually showing an example of a registered image group in the first embodiment of the present invention.
  • FIG. 6 is a diagram conceptually showing an example of a comparative image in the embodiment of the present invention.
  • FIG. 7 is a block diagram showing a configuration of an image collating apparatus according to the second embodiment of the present invention.
  • FIG. 8 is a block diagram showing a configuration of an image collating apparatus according to the third embodiment of the present invention.
  • FIG. 1 is a block diagram showing the configuration of the image collating apparatus 1 according to the first embodiment of the present invention.
  • the image collating apparatus 1 includes a registered image input unit 2 and a registered image input unit 2 to which registered images of registered persons are input.
  • a registered image group 3 for creating a registered image group under a plurality of illumination conditions from the input registered image, and a registered image for storing the registered image group created by the registered image group creating unit 3 Group storage unit 4, comparison image input unit 5 to which the face image of the person to be authenticated (hereinafter referred to as comparison image) is input, comparison image input from comparison image input unit 5, and registered image stored in group storage unit 4
  • a comparison / collation unit 8 that compares and collates the registered image group and outputs the result, and an output unit that outputs information such as the result output from the comparison / collation unit 8 to other devices connected to the outside With nine.
  • the registered image input unit 2 and the comparative image input unit 5 may be configured to input an image from a known storage medium, or may be configured using a known reading unit such as a scanner. Alternatively, an image captured by a camera or the like may be input. Further, the image collating apparatus 1 in the first embodiment of the present invention is not limited to a configuration in which the registered image input unit 2 and the comparison image input unit 5 are provided independently of each other. It may be configured to.
  • the registered image group storage unit 4 a known recording medium such as a hard disk drive (HDD) or a semiconductor memory can be selected.
  • HDD hard disk drive
  • semiconductor memory a semiconductor memory
  • the output unit 9 may be configured to output the signal indicating whether or not collation is possible from the comparison and collation unit 8 as it is, or notify the person to be authenticated of the collation result by video or audio. It may be a configuration.
  • comparison / collation unit 8 As a function of the comparison / collation unit 8, for example, a known image comparison / collation method such as an eigenspace method, a subspace method, or a KNN method can be used.
  • a known image comparison / collation method such as an eigenspace method, a subspace method, or a KNN method can be used.
  • FIG. 2 is a functional block diagram of the registered image group creation unit 3 of the image collating apparatus 1 according to the first embodiment of the present invention
  • FIG. 3 is an image according to the first embodiment of the present invention
  • 5 is a flowchart showing operation steps of a registered image group creation unit 3 of the collation device 1.
  • the function of the registered image group creation unit 3 can be realized by either hardware or software.
  • the processing from step S1 to step S8 in FIG. 3 to be described later is described in software and executed by a computer.
  • the registered image group creating unit 3 illuminates the subject in the registered image based on the luminance value of the registered image input from the registered image input unit 2.
  • the illumination condition estimation unit 41 and the illumination condition estimation unit 41 for estimating conditions normals for estimating normal information including the normal direction of the subject of a predetermined pixel in the registered image
  • the information estimation unit 42 estimates the error component information other than the diffuse reflection component from the luminance value of the predetermined pixel of the registered image, and the error component information in the predetermined illumination condition from the estimated error component information.
  • the registered image 20 is input from the registered image input unit 2 to the illumination condition estimating unit 41 of the registered image group creating unit 3 (Sl).
  • the registered image 20 is a single face image of a person to be registered.
  • FIG. 4 is a diagram conceptually showing an example of the registered image 20 in the first embodiment of the present invention.
  • the registered image 20 an image of a total of 10800 pixels of 120 ⁇ 90 is captured of the subject with front force. This invention is not limited to this image size.
  • the correlation between the face shape and the position of the reflection characteristics was considered from the brightness (luminance value) observed at any position on the face surface!
  • Calculate statistics Specifically, after calculating the normal vector, albedo, and error values for each person in the bootstrap image set prepared in advance separately from the registered image, the calculated normals for multiple people (K people) are calculated. Calculate the statistic using vector, albedo, and error values.
  • the bootstrap image set used here is composed of a set of images taken for a plurality of persons under J known illumination conditions s. For the first person, the set of images taken under J light sources ( ⁇ ⁇ ) is
  • each symbol is a set of images 1 (1) obtained under J lighting conditions of person 1, a normal albedo matrix B (1) of the face of person 1, and J lightings.
  • Illumination condition set S ′ representing the direction and its intensity, and error matrix ⁇ ) for J illumination conditions.
  • the face normal vector and error statistics are estimated for all persons in the bootstrap image set, and the face normal albedo matrix ⁇ (1) and error matrix ⁇ (1 ) And is obtained as follows.
  • each matrix ⁇ ⁇ ) is expanded into a 3d dimensional vector for ⁇ people, and its mean vector / ⁇ ⁇ (3d dimensional vector) and covariance matrix CB (3d X 3d matrix) Ask.
  • the mean vector / zv (s) can be calculated from K error vectors v (1) (s) for each lighting condition s.
  • the covariance matrix Cv of dj X dj is the same as the method of obtaining the normal albedo matrix B (1) force of the covariance matrix CB, and from the K error matrices E (1) Calculated.
  • an algorithm that can take into account the correlation between face surface positions is used, and normal vectors and error components are detected. Find the statistics used for estimation.
  • the illumination condition estimation unit 41 of the registered image group creation unit 3 performs the illumination direction and its intensity at the time of shooting one registered image 20 (hereinafter referred to as these). (Collectively referred to as lighting conditions) (S2). Estimating the lighting conditions of the registered image 20 is to set J lighting conditions in the learning image set for calculating the statistics as s,
  • the width of the kernel is set as ⁇
  • the average of each lighting pattern of the learning image is set as a
  • the image is b, it can be performed by simple kernel regression as shown in the following equations (1) to (3).
  • the width ⁇ of the Gaussian kernel is determined according to the description in Non-Patent Document 1 described above.
  • the illumination vector s It is also possible to estimate only the direction. For example, when the lighting conditions differ greatly between the bootstrap image and the registered image, the values that are normally entered as a and b are used.
  • the illumination can be estimated with higher accuracy.
  • the normal information estimation unit 42 of the registered image group creation unit 3 is normal information that takes into account the normal direction and the reflectance of the subject from the luminance value of each pixel of the registered image 20.
  • the normal albedo vector is a vector obtained by integrating the albedo (reflectance) with the normal direction vector of the subject.
  • step S3 The method for estimating the value of the normal albedo vector in step S3 will be described in detail.
  • Equation (4) a model representing reflection in a subject that can express luminance values for d pixels included in each image together is introduced.
  • reflection components other than the Lambertian component can be expressed as in error term V in Eq. (4) while explicitly taking into account the correlation between pixels, and the bootstrap image force is also a statistic for this error term V. Can be earned. This makes it possible to estimate highlights, interreflections, and subtle reflection components such as shadows under new lighting conditions.
  • the d-pixel image vector Y is composed of the illumination matrix L T in which the transposed matrix S T of the illumination matrix S is placed diagonally and the normal albedo vector B of the d pixel.
  • the value of the error vector V of d pixels is the luminance vector i for each pixel arranged for d pixels.
  • the normal albedo vector b for each pixel is arranged for d pixels is the normal albedo vector B.
  • the error vector V is the error vector e of d pixels.
  • the luminance vector i (m dimension) is the luminance vector for each of m lighting patterns in one pixel
  • the normal albedo beta (three dimension) in one pixel is the normal altitude.
  • the vector b is the vector e (m dimension), which is the vector b, and the error component values for each of the m illumination patterns per pixel (m dimensional), and indicates the direction and intensity of the light source (3 X m)
  • the matrix of the illumination condition s is the illumination matrix S.
  • Equation (5) MAP (Maximum A Posteriori) estimation
  • a Gaussian distribution is described as N (, C) using a mean vector and a covariance matrix C.
  • the conditional distribution P (BIY) of the normal albedo vector B given the image vector Y and the image vector given the normal albedo vector B The conditional distribution P (YI ⁇ ) of Y and the distribution ⁇ ( ⁇ ) of the normal albedo vector ⁇ are respectively
  • ⁇ ) ⁇ ⁇ ⁇ + ⁇ ⁇ , ⁇ (
  • ⁇ ( ⁇ ) ⁇ ( ⁇ ⁇ ⁇ ⁇ )
  • G is a scalar quantity as shown below.
  • the normal albedo in order to derive the normal albedo vector B that maximizes the conditional distribution P (BIY) of the normal albedo vector B given the image vector Y, the normal albedo Differentiate the scalar quantity G with respect to the solid B and set it to 0.
  • the normal information estimation unit 42 of the registered image group creation unit 3 assumes the reflection model described in Equation (4) and creates a statistical model of each vector.
  • the error component information estimation unit 43 of the registered image group creation unit 3 uses the normal information estimation unit 42 to calculate the normal albedo vector ⁇ from the registered image 20 by using the above-described equation (5).
  • V, ⁇ ⁇ ( ⁇ ) + ⁇ ⁇ ⁇ — ⁇ ⁇ ( ⁇ - ⁇ ⁇ / )
  • each ⁇ may be obtained, for example, according to the procedure of equation (1).
  • the element p of the variance matrix of the error component corresponding to the new illumination is calculated as follows.
  • Mean / z V and R element values also mean / z V and new
  • the average value may be taken.
  • probability vectors X and y are jointly distributed 'Gaussian' distribution
  • V is derived.
  • the preprocessing for creating the registered image group 30 using the registered image 20 of the subject ends.
  • the error component information estimation unit 43 of the registered image group creation unit 3 further estimates (S5) the error component V corresponding to a plurality of illumination conditions separately input from the illumination condition input unit 44.
  • the image composition unit 45 outputs the error component value output from the error component information estimation unit 43 and the normal information of the subject estimated by the normal information estimation unit 42.
  • the registered images are synthesized and output (S6, S7).
  • the lighting condition input from the lighting condition input unit 44 in step S5 for example, when the front direction of the face is set as (left / right angle: 0 °, vertical angle: 0 °), Angles up to 60 ° can be taken at 20 ° intervals both above and below. In this case, there are 7 kinds of angular force of 60 °, -40 °, -20 °, 0 °, 20 °, 40 °, 60 °, and 49 lighting angles of 7 X 7 can be made in the vertical and horizontal directions. Note that the angles need not be equally spaced, and an angle that is effective as appropriate can be selected according to the purpose of use and application.
  • the illumination condition input unit 44 may store a plurality of illumination conditions in advance, or may have a configuration in which desired illumination conditions are input by the user.
  • the error component information estimation unit 43 estimates the error component V (S6).
  • the registered image group 30 can be created by repeatedly performing the processing shown in the equation (7) for each of a plurality of illumination angles determined in advance (S8). In other words, when the process in all directions is completed (Y), the process as a whole is terminated. If not (N), the process returns to step S5.
  • FIG. 5 is a diagram conceptually showing an example of the registered image group 30 in the first embodiment of the present invention. As shown in FIG. 5, according to the registered image group creating unit 3 of the image collating apparatus 1 according to the first embodiment of the present invention, it is possible to create a registered image group 30 having various shadows. .
  • Fig. 6 is a diagram conceptually showing an example of the comparative image 25 in the embodiment of the present invention.
  • the comparison image 25 of the person to be authenticated is input from the comparison image input unit 5
  • the comparison image 25 is compared.
  • the image is input from the image input unit 5 to the comparison / collation unit 8.
  • the comparison / collation unit 8 performs comparison / collation processing between the comparison image 25 and the registered image group 30, and the result is output from the output unit 9.
  • the comparison image 25 is input, the registered image group 30 is similar to the registered image 26 obtained by photographing the same subject under similar lighting conditions, and there are no subjects captured in the comparison image 25.
  • Authenticated to be a registered person if the registered image 26 is provided with information of the corresponding registered person, the HD information of the comparison image 25 is output from the output unit 9 together with the authentication result. In order to urge the person to be authenticated to confirm, it is desirable that the registered image 26 determined to be similar to the comparison image 25 is also output from the output unit 9 to the person to be authenticated.
  • each pixel is Information power of multiple pixels that cannot be handled independently
  • an image generation model reflection model
  • the calculation is performed using the statistical model of each vector, it is possible to perform the calculation for all pixels of the registered image 20 at the same time, and the registered image 20 is divided into a plurality of regions. It is also possible to perform calculation for each area.
  • the calculation time is shortened as compared to the case where all the pixels are calculated together. It is possible. This is because the time required for the correlation calculation is proportional to the cube of the number of pixels, so the calculation time is shortened by dividing the area into several areas rather than calculating all the pixels at once. Because it can.
  • the image collation device 1 when the image collation device 1 according to the first embodiment of the present invention is used, when the registered image group 30 is created from the registered image 20, it becomes a shadow in the registered image 20 or specular reflection. Even when there is a pixel with low reliability due to the large component, it is possible to create a more reliable registered image group 30 under the influence of other highly reliable pixels. It is possible. For this pixel reliability, the variance ⁇ V of the value of the error component V is calculated for each pixel, and a pixel whose value is larger than a predetermined threshold is determined as a pixel with low reliability, and the other pixels Can be determined as a highly reliable pixel.
  • the image collating apparatus 1 according to the first embodiment of the present invention is used, the personal collation rate between the comparison image 25 and the registered image group 30 can be improved.
  • the first-order verification rate when the comparison between the comparison image 25 and the registered image group 30 is performed using the image verification device 1 according to the first embodiment of the present invention is compared using the conventional technique.
  • Picture This can be improved from the first-order verification rate when the image 25 is registered with the registered image group.
  • the first-order verification rate is the percentage of registered images in which the same subject as the comparative image was captured with respect to the comparative image, and the higher the ratio, the higher the accuracy. !, Indicates that authentication is possible.
  • a statistical model is calculated using the same image group as a bootstrap image, and a registered image group is created by the method described in Non-Patent Document 1 using this statistical model.
  • the image matching was performed using the image matching device 1 according to the first embodiment of the present invention, whereas the first matching rate when the image matching was performed using the group was 87.8%. In this case, the first-order verification rate was greatly improved to 94.0%.
  • a force capable of simultaneously performing a correlation operation for a plurality of pixels in the registered image 20 should be performed.
  • any pixel can be selected.
  • pixels having high correlation for example, neighboring pixels such as the periphery of the nose, the periphery of the eye, and the periphery of the eyelid can be grouped. When such a grouping is performed, it is considered that there is a normal vector in contrast to the right eyelid and the left eyelid around the eyelid. By doing so, a more reliable calculation result can be obtained.
  • the registered image group creating unit 3 has been described as being a functional block of the image collating device 1.
  • the registered image group creating unit 3 The function block force can also be made independent to provide an image composition device. Accordingly, it is possible to provide an image composition device suitable for creating an image group to be stored as a registered image group in the image matching device and the image matching method.
  • FIG. 7 is a block diagram showing the configuration of the image collating apparatus 40 in the second embodiment of the present invention.
  • the image collation device 40 in the second embodiment of the present invention is compared with the image collation device 1 in the first embodiment described above in comparison image input unit 5.
  • the illumination condition estimation unit 6 Enter from Registers information on the illumination conditions estimated by the illumination condition estimation unit 6 and the illumination condition estimation unit 6, which is a comparison image illumination condition estimation unit that estimates the illumination conditions such as the illumination direction and intensity from the input comparison image.
  • the registered image group 30 stored in the registered image group storage unit 4 is searched for and extracted from the registered image corresponding to the illumination condition that matches the illumination condition of the comparison image described above, and is compared
  • An information search unit 7 that is an image search unit that outputs to the unit 8 is provided.
  • the estimation of the illumination condition in the illumination condition estimation unit 6 is performed by the illumination condition estimation method (in FIG. 3) by the illumination condition estimation unit 41 of the registered image group creation unit 3 of the image matching apparatus 1 in the first embodiment.
  • the same method as in step S2 can be used.
  • the registered image group creation unit 3 in the second embodiment of the present invention creates the registered image group 30
  • illumination information such as illumination direction and intensity is used as meta information for each registered image group 30.
  • a configuration in which information on bright conditions is given and stored in the registered image group storage unit 4 may be used.
  • the information search unit 7 of the image collation device 40 according to the second embodiment of the present invention provides the meta information assigned to the registered image group 30 stored in the registered image group storage unit 4. Using this as a clue, it is possible to search for registered images to be sent to the comparison and verification unit 8.
  • the illumination condition is estimated from the comparison image 25 by the illumination condition estimation unit 6, and the registered image corresponding to the illumination condition estimated by the illumination condition estimation unit 6 is registered from the registered image group 30 stored in the registered image group storage unit 4. Can be retrieved and sent to the comparison and verification unit 8.
  • the comparison image 25 as described in the first embodiment is input, the registered image 26 corresponding to the illumination condition is compared by the information search unit 7 from the registered image group storage unit 4. Sent to part 8. Therefore, it is possible to reduce the number of times that the comparison / collation processing is performed in the comparison / collation unit 8 and to reduce the calculation load on the CPU and the like, and to realize an optimum configuration for a small apparatus.
  • FIG. 8 is a block diagram showing a configuration of an image collating apparatus 50 according to the third embodiment of the present invention.
  • the image collation device 50 in the third embodiment of the present invention is compared with the image collation device 1 in the first embodiment described above in comparison image input unit 5. Comparative image force input from the feature amount calculation unit 31 that calculates the feature amount, and the feature amount calculation unit that calculates the feature amount of each registered image from the registered images created by the registered image group creation unit 3 The point with 32 is different.
  • a pattern called a graph is arranged at a point representing a facial feature, and an accurate facial feature point is obtained.
  • Dull matching method that compares and matches the feature quantity of each point with the registered data and the wavelet waveform to be converted, and extracts only the features (frequency components, etc.) of the waveform, signal analysis and image Force capable of using Gabor wavelet transform, which is a technique used for compression,
  • the present invention is not limited to the calculation method of these feature points.
  • the image collation device 50 according to the third embodiment of the present invention calculates the feature amount from the registered image group instead of the registered image group storage unit 4 of the image collation device 1 according to the first embodiment.
  • a feature amount storage unit 34 that stores the feature amount calculated by the unit 31 is provided.
  • the image collation device 50 according to the third embodiment of the present invention is a comparative image force feature amount calculation unit instead of the comparison collation unit 8 of the image collation device 1 according to the first embodiment.
  • a comparison / collation unit 33 for comparing and collating the feature amount calculated in 32 with the feature amount of the registered image group stored in the feature amount storage unit 34.
  • the functions of the registered image input unit 2, the registered image group creating unit 3, the comparative image input unit 5 and the output unit 9, the image in the first embodiment is used. Since it is the same as the function of each component in the image collating device 1, its description is omitted.
  • the feature amount storage unit 34 stores the data of the feature amount calculated by the feature amount calculation unit 31. Therefore, the feature amount storage unit 34 is necessary as compared with the configuration in which the image information itself of the registered image group storage unit 4 is stored. Since the storage capacity is small, the entire apparatus can be reduced in size and cost.
  • the comparison collating unit 33 further includes: Since the comparison and matching are performed using the feature values output from the feature value storage unit 34 and the feature value calculation unit 32, respectively, the calculation processing in the comparison and matching unit 33 is small compared with the configuration for matching the entire image. It is possible to realize an optimal configuration for a small device that can reduce the computation load on the CPU.
  • the image composition apparatus of the present invention the image collation apparatus using the same, and the image The combining method is not limited to this application, and an object having a general solid as a subject can also be used as the subject.
  • an image collation device that compares and collates the input two-dimensional image with a pre-recorded two-dimensional image, especially a registered image group used for image collation. It is useful as an image synthesizing apparatus, an image collating apparatus using the same, and an image synthesizing method.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Collating Specific Patterns (AREA)

Abstract

 被写体の第1の画像から所定の照明条件における第2の画像を合成する画像合成装置であって、第1の画像の輝度値から照明条件を推定する照明条件推定部と、第1の画像における所定の画素の、被写体の法線方向を含む法線情報を推定する法線情報推定部と、所定の照明条件におけるエラー成分の情報を推定するエラー成分情報推定部と、所定の照明条件における被写体の第2の画像を合成する画像合成部とを備え、法線情報推定部は、第1の画像における複数の画素の情報から所定の画素の法線情報を推定する。

Description

明 細 書
画像合成装置、それを用いた画像照合装置、画像合成方法およびプログ ラム
技術分野
[0001] 本発明は、入力された二次元画像とあらかじめ記録された二次元画像とを比較照 合する画像照合装置に関し、特に画像照合に用いる登録画像群を作成する画像合 成装置およびそれを用いた画像照合装置ならびに画像合成方法に関する。
背景技術
[0002] 従来から、入力された二次元画像とあら力じめ記録された二次元画像とを比較照合 する画像照合装置が実用化されている。特に、バイオメトリタスを用いた認証方法の 一つである顔認証方法を実現するための、画像照合装置が各種提案されてきて ヽる 。このような画像照合装置においては、認証可能な複数の者 (以下、登録された者と 記す)の顔画像をあら力じめ登録画像としてデータベースに登録しておき、認証され る者 (以下、被認証者と記す)の顔画像と登録画像とを比較照合して、その結果、被 認証者の顔画像が登録された者の登録画像と互いに一致するまたは類似すると判 定された場合に、被認証者がその登録された者であるとして認証される。
[0003] このような画像照合装置にぉ ヽては、従来から、被認証者の顔画像が撮影されたと きの撮影条件と、登録画像が撮影されたときの撮影条件との違いによって、本人認証 率が低下してしまうという課題があった。例えば、被認証者の顔画像が撮影されたと きに照明が被認証者を照射していた方向(以下、この方向のことを照明方向と記す) 等の照明条件と、登録画像が撮影されたときの照明方向等の照明条件とが異なる場 合には、たとえ同じ被写体を撮影した場合であっても、比較照合を行った結果、互い に一致しないと判定されてしまう可能性があった。
[0004] この課題を解決するために、近年様々な技術が提案されてきている。例えば、登録 された者それぞれについて、一枚の登録画像力 その撮影時の照明条件および顔 の形状 (法線ベクトル)や反射率等を推定し、これらの条件を用いて互いに異なる照 明条件下における複数の画像 (以下、登録画像群と記す)を作成してデータベース に登録し、認証時には被写体の顔画像とデータベースに登録された全ての登録画 像群とを比較照合することにより、本人認証率を向上させることのできる技術が提案さ れている (例えば、 T. Sim, T. Kanade, "Combining Models and Exemplar s for Face Recognition: An Illuminating Example, "Proc. CVPR Wo rkshop on Models versus Exemplars in Computer Vision, 2001.を参 照。)。
[0005] 前述したような従来の技術にお!、ては、まず、あら力じめ登録された者とは異なる者 について、様々な照明条件の下で撮影された学習用の顔画像の集合 (以下、この画 像の集合のことをブートストラップ画像と記す)を用いて統計モデルを生成する。次に 、生成された統計モデルを用いて、複数の登録された者についての登録画像それぞ れ力 互いに照明条件の異なる複数の登録画像群を合成する。
[0006] し力しながら、前述したような従来の技術にお!、ては、複数の登録された者それぞ れにつ 、て、一枚の登録画像力もその撮影時の顔の形状 (法線ベクトル)および拡 散反射成分以外のエラー成分等を推定する際に、登録画像を構成する画素毎にそ れぞれが独立した画素として演算を行って 、たので、演算対象となる画素が影にな つて 、るような場合には、必ずしもその画素における法線ベクトルや反射率 ( 、わゆる 法線アルべドベクトル)が正しく推定されず、その結果、現実に合致した登録画像群 を作成できな ヽと 、う課題があった。
発明の開示
[0007] 本発明はこのような課題に鑑みてなされたものであり、演算対象となる画素が影に なっているような場合でも、その画素についての法線ベクトルや反射率を正しく推定 でき、現実に合致した登録画像群を作成できる技術を提供するものである。
[0008] 本発明の画像合成装置は、被写体の第 1の画像から所定の照明条件における被 写体の第 2の画像を合成する画像合成装置であって、第 1の画像の輝度値力ゝら第 1 の画像における被写体に対する照明条件を推定する照明条件推定部と、照明条件 推定部で推定された照明条件にもとづいて、第 1の画像における所定の画素の、被 写体の法線方向を含む法線情報を推定する法線情報推定部と、第 1の画像の所定 の画素の輝度値のうち、拡散反射成分以外のエラー成分の情報を推定し、推定され たエラー成分の情報から、所定の照明条件におけるエラー成分の情報を推定するェ ラー成分情報推定部と、法線情報推定部によって推定された被写体の法線情報、お よび、エラー成分情報推定部で推定された、所定の照明条件におけるエラー成分の 情報から、所定の照明条件における被写体の第 2の画像を合成する画像合成部とを 備え、法線情報推定部は、第 1の画像における複数の画素の情報力 所定の画素の 法線情報を推定することを特徴として 、る。
[0009] このような構成によれば、法線情報推定部が法線情報を推定する際に、第 1の画像 における複数の画素の情報から、法線情報を推定することが可能であるので、演算 対象となる画素が影になっているような場合でも、他の信頼度の高い画素を用いて、 その画素についての法線ベクトルや反射率を正しく推定でき、現実に合致した登録 画像群を作成できる。
[0010] また、エラー成分情報推定部は、第 1の画像における複数の画素の情報力も所定 の画素のエラー成分の情報を推定する構成であってもよ 、。
[0011] このような構成によれば、さらに、拡散反射成分から外れたエラー成分についても、 他の関連性の高い画素を用いて、所定の画素におけるエラー成分を正しく推定する ことができる。
[0012] また、法線情報推定部は、あらかじめ学習用の画像によって計算された、複数の画 素の情報にもとづいて算出された統計モデルにもとづいて、法線方向を推定する構 成であってもよい。
[0013] このような構成によれば、さらに、あら力じめ統計モデルを準備しておくことにより、 異なる照明条件における画像をより正確に推定することができる。
[0014] さらに、エラー成分情報推定部は、あらかじめ学習用の画像によって計算された、 複数の画素の情報にもとづいて算出された統計モデルにもとづいて、エラー成分の 情報を推定する構成であってもよ ヽ。
[0015] このような構成によれば、さらに、エラー成分についても、あら力じめ統計モデルを 準備しておくことにより、異なる照明条件における画像をより正確に推定することがで きる。
[0016] また、統計モデルが、 [0017] [数 1]
Y = I/B + V
[0018] (ただし、 Y:画素の画像ベクトル、 LT:照明行列 Sの転置行列 STを対角上に配置した 照明行列、 B:法線アルべドベクトル、 V:エラーベクトル)
で表わされる画像生成モデルの各ベクトルの統計モデルである構成であってもよい。
[0019] このような構成によれば、さらに、複数の画素について、同時に具体的な統計量の 算出が可能な構成を実現することができる。
[0020] また、互いに異なる複数の照明角度を含む照明条件が入力される照明条件入力部 を備え、画像合成部は、照明条件入力部力 入力された複数の照明条件それぞれ における第 2の画像を合成する構成であってもよ 、。
[0021] このような構成によれば、さらに、所望の照明条件に対応する第 2の画像を得ること のできる構成を実現することができる。
[0022] 次に、本発明の画像照合装置は、本発明の画像合成装置と、画像合成装置で作 成された第 2の画像を登録画像群として記憶する登録画像群記憶部と、比較すべき 比較画像を入力する比較画像入力部と、比較画像入力部から入力された比較画像 と登録画像群記憶部に記憶された登録画像群とを比較照合する比較照合部とを備 えたことを特徴としている。
[0023] このような構成によれば、本発明の画像合成装置により、法線情報推定部が法線 情報を推定する際に、第 1の画像における複数の画素の法線情報を同時に推定す ることが可能であるので、演算対象となる画素が影になっているような場合でも、他の 信頼度の高 、画素を用いて、その画素につ 、ての法線ベクトルや反射率を正しく推 定でき、現実に合致した登録画像群を作成でき、その登録画像群と比較画像との比 較照合を行うので、照合率の高い構成を実現することができる。
[0024] また、比較画像入力部が入力した比較画像における照明条件を推定する比較画 像照明条件推定部と、比較画像照明条件推定部で推定された照明条件の登録画像 を登録画像群記憶部から検索する画像検索部とを備え、比較照合部は、画像検索 部で検索された登録画像と比較画像とを照合する構成であってもよい。 [0025] このような構成によれば、さらに、比較画像力もその照明条件を推定し、登録画像 群記憶部に記憶された登録画像群から、推定された照明条件に対応する登録画像 を検索して、比較照合を行うことができ、比較照合処理を行う回数を減少させることが でき、 CPU等に対する演算負荷を軽減することのできる、小型の装置に適した構成 を実現できる。
[0026] また、画像合成装置で作成された第 2の画像の特徴量を算出する第 1の特徴量算 出部と、比較画像入力部で入力された比較画像の特徴量を算出する第 2の特徴量 算出部とを備え、登録画像群記憶部は、第 2の画像の特徴量を記憶し、比較照合部 は、登録画像群と比較画像とをその特徴量によって比較照合する構成であってもよ い。
[0027] このような構成によれば、さらに、登録画像群記憶部には、特徴量算出部によって 算出された特徴量のデータが記憶されているので、登録画像群の画像情報そのもの を記憶する構成と比較して、必要な記憶容量が少なくて済むとともに、比較照合部が 、登録画像群記憶部および特徴量算出部カゝらそれぞれ出力された特徴量を用いて 比較照合を行うので、画像全体のマッチングを行う構成と比較して、比較照合部での 演算処理が小規模で済み、 CPU等に対する演算負荷を軽減することのできる、小型 の装置に適した構成を実現できる。
[0028] 次に、本発明の画像合成方法は、被写体の第 1の画像力 所定の照明条件におけ る被写体の第 2の画像を合成する画像合成方法であって、第 1の画像の輝度値から 第 1の画像における被写体に対する照明条件を推定する第 1のステップと、第 1のス テツプで推定された照明条件にもとづいて、第 1の画像における所定の画素の、被写 体の法線方向を含む法線情報を推定する第 2のステップと、第 1の画像の所定の画 素の輝度値のうち、拡散反射成分以外のエラー成分の情報を推定し、推定されたェ ラー成分の情報から、所定の照明条件におけるエラー成分の情報を推定する第 3の ステップと、第 2のステップで推定された被写体の法線情報、および、第 3のステップ において推定された、所定の照明条件における被写体の第 2の画像を合成する第 4 のステップとを備え、第 2のステップにおいて、第 1の画像における複数の画素の情 報力 所定の画素の法線情報を推定することを特徴としている。 [0029] このような方法によれば、法線情報を推定する際に、第 1の画像における複数の画 素の情報力 法線情報を推定することが可能であるので、演算対象となる画素が影 になっているような場合でも、他の信頼度の高い画素を用いて、その画素についての 法線ベクトルや反射率を正しく推定でき、現実に合致した登録画像群を作成できる。
[0030] 次に、本発明のプログラムは、被写体の第 1の画像力も所定の照明条件における被 写体の第 2の画像を合成するプログラムであって、コンピュータに、第 1の画像の輝度 値力 第 1の画像における被写体に対する照明条件を推定する第 1のステップと、第 1のステップで推定された照明条件にもとづいて、第 1の画像における所定の画素の 、被写体の法線方向を含む法線情報を推定する第 2のステップと、第 1の画像の所 定の画素の輝度値のうち、拡散反射成分以外のエラー成分の情報を推定し、推定さ れたエラー成分の情報から、所定の照明条件におけるエラー成分の情報を推定する 第 3のステップと、第 2のステップで推定された被写体の法線情報、および、第 3のス テツプにおいて推定された、所定の照明条件におけるエラー成分の情報から、所定 の照明条件における被写体の第 2の画像を合成する第 4のステップとを実行させ、第 2のステップにおいて、第 1の画像における複数の画素の情報力 所定の画素の法 線情報を推定することを特徴として 、る。
[0031] このようなプログラムをコンピュータに実行させることによって、法線情報を推定する 際に、第 1の画像における複数の画素の情報力 法線情報を推定することが可能で あるので、演算対象となる画素が影になっているような場合でも、他の信頼度の高い 画素を用いて、その画素についての法線ベクトルや反射率を正しく推定でき、現実に 合致した登録画像群を作成できる。
[0032] 以上述べたように、本発明の画像合成装置およびそれを用いた画像照合装置なら びに画像合成方法を用いれば、演算対象となる画素が影になっているような場合で も、その画素についての法線ベクトルや反射率を正しく推定でき、現実に合致した登 録画像群を作成できる技術を提供することができる。
図面の簡単な説明
[0033] [図 1]図 1は、本発明の第 1の実施の形態における画像照合装置の構成を示すブロッ ク図である。 [図 2]図 2は、本発明の第 1の実施の形態における画像照合装置の登録画像群作成 部の機能ブロック図である。
[図 3]図 3は、本発明の第 1の実施の形態における画像照合装置の登録画像群作成 部の動作ステップを示すフローチャートである。
[図 4]図 4は、本発明の第 1の実施の形態における登録画像の一例を概念的に示す 図である。
[図 5]図 5は、本発明の第 1の実施の形態における登録画像群の一例を概念的に示 す図である。
[図 6]図 6は、本発明の実施の形態における比較画像の一例を概念的に示す図であ る。
[図 7]図 7は、本発明の第 2の実施の形態における画像照合装置の構成を示すブロッ ク図である。
[図 8]図 8は、本発明の第 3の実施の形態における画像照合装置の構成を示すブロッ ク図である。
符号の説明
1, 40, 50 画像照合装置
2 登録画像入力部
3 登録画像群作成部
4 登録画像群記憶部
5 比較画像入力部
6 照明条件推定部
7 情報検索部
8, 33 比較照合部
9 出力部
20, 26 登録画像
25 比較画像
30 登録画像群
31, 32 特徴量算出部 34 特徴量記憶部
41 照明条件推定部
42 法線情報推定部
43 エラー成分情報推定部
44 照明条件入力部
45 画像合成部
発明を実施するための最良の形態
[0035] 以下、本発明の実施の形態について、図面を用いて詳細に説明する。
[0036] (第 1の実施の形態)
まず、本発明の第 1の実施の形態における画像照合装置について説明する。図 1 は、本発明の第 1の実施の形態における画像照合装置 1の構成を示すブロック図で ある。
[0037] 図 1に示したように、本発明の第 1の実施の形態における画像照合装置 1は、登録 された者の登録画像が入力される登録画像入力部 2、登録画像入力部 2によって入 力された登録画像から、後述する方法により、複数の照明条件下における登録画像 群を作成する登録画像群作成部 3、登録画像群作成部 3で作成された登録画像群 を記憶する登録画像群記憶部 4、被認証者の顔画像 (以下、比較画像と記す)が入 力される比較画像入力部 5、比較画像入力部 5から入力された比較画像と登録画像 群記憶部 4に記憶された登録画像群とを比較照合し、その結果を出力する比較照合 部 8、および、比較照合部 8から出力された結果等の情報を外部に接続された他の 装置等に出力する出力部 9を備える。
[0038] 登録画像入力部 2および比較画像入力部 5は、公知の記憶媒体から画像を入力す る構成であってもよ 、し、スキャナ等の公知の読取手段を用いて構成することも可能 であるし、カメラ等で撮影された画像が入力される構成であってもよい。また、本発明 の第 1の実施の形態における画像照合装置 1は、登録画像入力部 2と比較画像入力 部 5とをそれぞれ独立に備える構成に限定されるものではなぐ一つの入力手段を共 用する構成であってもよい。
[0039] 登録画像群作成部 3および比較照合部 8については、後述する機能がソフトウェア によって実現されて 、てもよ 、し、専用回路等のハードウェアによって機能が実現さ れていてもよい。
[0040] 登録画像群記憶部 4は、ハードディスク装置 (HDD)や半導体メモリ等の公知の記 録媒体力 選択したものを用いることができる。
[0041] 出力部 9は、比較照合部 8からの照合可能か否かを示す信号をそのまま出力する 構成であってもよいし、被認証者に対して映像または音声によって照合結果を知らし める構成であってもよい。
[0042] 比較照合部 8の機能としては、例えば、固有空間法、部分空間法または KNN法等 の公知の画像比較照合方法を用いることが可能である。
[0043] ここで、本発明の第 1の実施の形態における登録画像群作成部 3の機能について 詳細に説明する。図 2は、本発明の第 1の実施の形態における画像照合装置 1の登 録画像群作成部 3の機能ブロック図であり、図 3は、本発明の第 1の実施の形態にお ける画像照合装置 1の登録画像群作成部 3の動作ステップを示すフローチャートであ る。登録画像群作成部 3の機能は、ハードウェアまたはソフトウェアのいずれでも実現 することが可能である。登録画像群作成部 3の機能をソフトウェアにて実現しょうとす る場合には、後述する図 3におけるステップ S1からステップ S8までの処理をソフトゥェ ァにて記述して、コンピュータに実行させる。
[0044] 図 2に示したように、本発明の第 1の実施の形態における登録画像群作成部 3は、 登録画像入力部 2から入力される登録画像の輝度値から登録画像における被写体 に対する照明条件を推定する照明条件推定部 41と、照明条件推定部 41で推定され た照明条件にもとづいて、登録画像における所定の画素の、被写体の法線方向を含 む法線情報を推定する法線情報推定部 42と、登録画像の所定の画素の輝度値のう ち、拡散反射成分以外のエラー成分の情報を推定し、推定されたエラー成分の情報 から、所定の照明条件におけるエラー成分の情報を推定するエラー成分情報推定 部 43と、法線情報推定部 42によって推定された被写体の法線情報、および、エラー 成分情報推定部 43で推定された、所定の照明条件におけるエラー成分の情報から 、所定の照明条件における被写体の登録画像を合成する画像合成部 45と、エラー 成分情報推定部 43に対して所定の照明条件を入力する照明条件入力部 44とを備 えている。
[0045] 次に、図 3を用いて、本発明の第 1の実施の形態における登録画像群作成部 3の 動作ステップについて説明する。まず、登録画像入力部 2から、登録画像群作成部 3 の照明条件推定部 41に登録画像 20が入力される(Sl)。ここで、登録画像 20は、登 録されるべき者の一枚の顔画像であるとする。図 4は本発明の第 1の実施の形態に おける登録画像 20の一例を概念的に示す図である。例えば、実際には、本発明の 第 1の実施の形態における画像照合装置 1においては、登録画像 20として、縦 120 X横 90の計 10800画素の、被写体を正面力も撮影した画像を用いている力 本発 明はこの画像サイズに限定されるものではない。
[0046] ここで、後述する各推定ステップにて用いられる統計モデルを算出するために、あ らカじめ別途行っておくべき、他人の画像の集合 (ブートストラップ画像)を用いた学 習ステップについて説明する。
[0047] まず、ブートストラップ画像集合を用いて、顔表面上の任意の位置にお!、て観察さ れる明るさ (輝度値)から、顔の形状や反射特性の位置間の相関を考慮した統計量を 算出する。具体的には、登録画像とは別にあらかじめ準備したブートストラップ画像 集合の各人物に関して法線ベクトル、アルべドおよび誤差の値を算出した後に、複 数人 (K人)分の算出した法線ベクトル、アルべドおよび誤差の値を用いてその統計 量を計算する。ここで用いるブートストラップ画像集合は、複数人の人物について J個 の既知の照明条件 s下で撮影された画像集合により構成される。 1番目の人物につい て、 J個の光源下で撮影された画像集合 ια)は下記のように、
[0048] [数 2]
Figure imgf000012_0001
[0049] と表わされる。ここで各々の記号は、人物 1の J個の照明条件にっ ヽて得られた画像集 合 1(1)、人物 1の顔の法線アルべド行列 B(1)、 J個の照明方向とその強度を表した照明 条件集合 S '、 J個の照明条件に対するエラー行列 Εα)を表している。
[0050] 次に、最小二乗法によって Βα)を以下のように算出する。 [0051] [数 3]
Figure imgf000013_0001
[0052] そして、次のように拡散成分を引いた残りがエラー行列 E(1)となる。
[0053] [数 4]
Figure imgf000013_0002
リ、 二 リ、 - 、 T S'
[0054] さらに、顔の法線ベクトルと誤差の値の統計量を、ブートストラップ画像集合の全て の人物について推定された、顔の法線アルべド行列 Β(1)とエラー行列 Ε(1)とを用いて 次のように求める。法線アルべドベクトル Βのように、 Κ人について各行列 Βα)を 3d次 元ベクトルに展開し、その平均ベクトル/ ζ Β (3d次元ベクトル)と共分散行列 CB (3d X 3d行列)を求める。エラー項 v (s)の統計量についても、平均ベクトル/ z v (s )は、 各照明条件 sについて K個のエラーベクトル v(1) (s )から計算できる。
[0055] また、 dj X djの共分散行列 Cvは、共分散行列 CBを法線アルべド行列 B(1)力 求め る方法と同様の方法で、 K個のエラー行列 E(1)から算出される。
[0056] このように、本発明の第 1の実施の形態における画像照合装置 1においては、顔表 面位置間の相関を考慮することができるアルゴリズムを用いて、法線ベクトルやエラ 一成分の推定に用いる統計量を求めて 、る。
[0057] 図 3に戻って、ステップ S 1に続いて、登録画像群作成部 3の照明条件推定部 41は 、一枚の登録画像 20の撮影時における照明方向およびその強度(以下、これらをま とめて照明条件と記す)を推定する(S2)。登録画像 20の照明条件の推定は、統計 量を算出するための学習画像セットにおける J個の照明条件を各々 sとおき、そのガウ
j
スカーネルの幅を σとおき、学習画像の各照明パターンの平均を aとおき、入力画
] j
像を bとすると、以下の(1)式から(3)式に示したような、単純なカーネル回帰 (kernel regression)によって行うことができる。なお、本発明の第 1の実施の形態において は、ガウスカーネルの幅 σを、前述の非特許文献 1に記載にしたがって決定した。
[0058] なお、このときの照明条件 sとして正規ィ匕したベクトルを用いて、照明ベクトルの方 向のみを推定することも可能である。また、例えばブートストラップ画像と登録画像間 で明るさが大きく異なる照明条件の場合には、 a、 bとしてそれぞれ正規ィ匕した値を用
j
いて(1)式に代入することにより、一層精度良く照明を推定することが可能になる。
[0059] [数 5]
Figure imgf000014_0001
[0060] [数 6]
Figure imgf000014_0002
[0061] [数 7] b
Figure imgf000014_0003
一 j (3)
[0062] 次に、登録画像群作成部 3の法線情報推定部 42は、登録画像 20の各画素の輝度 値から、被写体の法線方向および反射率を考慮した法線情報である、法線アルべド ベクトルの値を推定する(S3)。なお、法線アルべドベクトルとは、被写体の法線方向 ベクトルにそのアルべド (反射率)を積算したベクトルのことを 、う。
[0063] ステップ S3における法線アルべドベクトルの値の推定方法にっ 、て、詳細に説明 する。
[0064] まず、(4)式のように、各画像に含まれる d画素分の輝度値をまとめて表現すること のできる、被写体における反射を表わすモデルを導入する。これにより、明示的に画 素間の相関を考慮しつつ、式 (4)のエラー項 Vのようにランバート成分以外の反射成 分を表現できるとともに、ブートストラップ画像力もこのエラー項 Vの統計量を獲得す ることができる。これによつて、新しい照明条件下のハイライト、相互反射および影の ような微妙な反射成分等をも推定することが可能になる。
[0065] [数 8] Y = L B + V (4)
'l "sf 0 0 0 o " " b,― " e〗 -
0 S' 0 0 0 b2 e2
Y = L = 0 0 s' 0 0 B = v =
_1 0 0 0 0
一 ― 0 0 0 0 sl — _ — cd _
Figure imgf000015_0001
[0066] (4)式に示したように、 d画素の画像ベクトル Yは、照明行列 Sの転置行列 STを対角 上に配置した照明行列 LTと d画素の法線アルべドベクトル Bとの積に、 d画素のエラ 一ベクトル Vの値を足したものである。また、画素毎の輝度ベクトル iを d画素分並べた のが画像ベクトル Yであり、画素毎の法線アルべドベクトル bを d画素分並べたのが法 線アルべドベクトル Bであり、画素毎のエラーベクトル eを d画素分並べたのがエラー ベクトル Vである。さらに、一画素における、 m個の照明パターンそれぞれにおける輝 度値を並べたのが輝度ベクトル i (m次元)であり、一画素における法線アルべドべタト ル(三次元)が法線アルべドベクトル bであり、一画素における m個の照明パターンそ れぞれにおけるエラー成分の値を並べたベクトル (m次元)がベクトル eであり、光源 の方向と強さを示す (3 X m)の照明条件 sの行列が照明行列 Sである。
[0067] このように (4)式に示した、画像を生成するための反射モデルを仮定することによつ て、画像中の複数の画素について、同時に演算を行うことが可能となるので、演算の 迅速ィ匕を図ることが可能である。
[0068] 入力画像の照明条件 sに対する統計量である誤差の平均; z と分散∑ は、既知の 照明条件におけるブートストラップ画像集合の統計量力 kernel regressionによつ て補間される。具体的には、平均 は、(1)式と同様な方法で sを (s )に置き換
V j V j
え、既知の照明条件ベクトル Sを中心とするカーネル関数の線形和で求められる。分 散∑ の要素もまた、平均 と同様に、事前に算出された統計量 C力 kernel reg v V V
ressionによってネ甫間される。
[0069] 前述した仮定の下で、登録画像 20につ 、ての法線アルべドベクトル B (X)は、
MAP
MAP (Maximum A Posteriori:最大事後確率)推定を用いて、(5)式のように推 定することができる。
[0070] [数 9]
BMAP ^ [L∑-'LJ +C-]Y [L∑"' (Y - μκ )+ C. , ] (5)
[0071] なお、(5)式の導出は、以下のように行った。
[0072] まず、ガウス分布を、平均ベクトル と共分散行列 Cを用いて N ( , C)と記述する 。 (4)式で表わされる反射モデルより、画像ベクトル Yを与えられたときの法線アルべ ドベクトル Bの条件付分布 P(B I Y)、法線アルべドベクトル Bを与えられたときの画 像ベクトル Yの条件付分布 P(Y I Β)、および、法線アルべドベクトル Βの分布 Ρ(Β) は、それぞれ、
[0073] [数 10]
Figure imgf000016_0001
N{ MA RB
ρ(γ|Β)=^ΓΒ + μκ(
Ρ(Β)= Ν(μΒ^Β)
[0074] と表わされる。
[0075] また、ベイズの定理にしたがって、下記関係を得ることができる c
[0076] [数 11]
Figure imgf000016_0002
oc N LTB + μν,∑ )χ N( B,CL
Figure imgf000016_0003
[0077] ここで、 Gは以下に示されるようなスカラー量である。
[0078] [数 12] G = 1(Y— L'B— — L'B— μ 十 [(B— μ )Ά(Β— μ )]
= B T [L∑ y 1/ + C ]B一 2[(Y— μ【, )r∑「 i/ + μ C ' ]B十 const
[0079] ここで、画像ベクトル Yを与えられたときの法線アルべドベクトル Bの条件付分布 P ( B I Y)を最大化する法線アルべドベクトル Bを導出するために、法線アルべドべタト ル Bに関してスカラー量 Gの微分をとり、これを 0とする。
[0080] [数 13]
Figure imgf000017_0001
[0081] これによつて、法線アルべドベクトル Βの MAP推定が数 9のように得られる。
[0082] なお、登録画像群作成部 3の法線情報推定部 42は、(4)式に記載した反射モデル を仮定して、各ベクトルの統計モデルを作成する場合には、ブートストラップ画像のう ち、ノ、イライトや影等の影響を除去するような、所定の閾値よりも輝度の大きな画素、 および、所定の閾値よりも輝度の小さな画素を除去した画像集合力 法線アルべド ベクトル Βα)を推定することが実用上望ましい。
[0083] 次に、登録画像群作成部 3のエラー成分情報推定部 43は、法線情報推定部 42に よって、上述した(5)式を用いることにより登録画像 20から法線アルべドベクトル Β
MAP
(X)が推定された後、(6)式にもとづいて、登録画像 20の新しい照明条件におけるェ ラーベクトル V (X)を推定する(S4)
[0084] [数 14]
Pr(V(S。)YLS。)=Pr(V(S。)YLSu,B)=Pr(V(S。)VSo
Figure imgf000017_0002
[0085] [数 15]
V , =μν(ΰ) + Ι^Σ—ν ι(ν-μί/)
QV =QV(o)■ R7∑;R
[0086] [数 16] び
R = R.„ =
Figure imgf000018_0001
[0087] ここで、各 σの値は、例えば、(1)式の要領で、求めればよい。二つの照明ベクトル sを連結させた連結照明ベクトル tを用いて、新しい照明に対応するエラー成分の分 散行列の要素 pを下記のように算出する。平均/ z V と Rの要素の値も、平均/ z Vと new
分散∑ Vから kernel regressionによって補間される。平均 μ νと分散∑ νを求めた 際と同様な方法で算出するが、今回はこれらの値を、照明条件 sと推定される照明条 件 s の連結ベクトルに対して既知照明条件 s間の連結ベクトルを中心とするカーネ new ]
ル関数の線形和によって求める。
[0088] [数 17]
Figure imgf000018_0002
[0089] [数 18]
Figure imgf000018_0003
pq ノん jk = exp t
[0090] なお、各値の算出方法として複数以上ある場合は、その平均値をとるとよい。
[0091] ここで、 V の導出について説明する。
MAP
[0092] まず、確率ベクトル Xと yがそれぞれジョイントリ一'ガウシアン 'ディストリビューション
(jointly Gaussian distribution)にし ^つと仮定するならは、
[0093] [数 19]
Figure imgf000018_0004
[0094] と記述される。 yが与えられる場合の Xの条件付分布 P (X | y)は次のように記述される
[0095] [数 20]
P x y) = N(m, C m
[0096] ここで、 m = μ + R R (y~ μ )であり、
C = R - R R _1R である。
[0097] 異なる照明条件間の誤差項を jointly Gaussian distributionとしてモデル化し ているため、
[0098] [数 21]
Figure imgf000019_0001
[0099] と表わされる。
[0100] エラー項 V (s ) は、 V (s)が与えられた場合に、ガウス分布として、
[0101] [数 22]
Figure imgf000019_0002
[0102] と表わされる。ここで、
[0103] [数 23]
VMAP Vnew
Figure imgf000019_0003
μ )
"二ム Vnew — Vl lx
[0104] となり、 V が導出される。
[0105] ここまでで、被写体の登録画像 20を用いた登録画像群 30を作成するための前処 理は終了する。
[0106] 次に、登録画像群作成部 3のエラー成分情報推定部 43は、さらに、別途照明条件 入力部 44から入力された (S5)複数の照明条件に対応するエラー成分 V の推定 を行って画像合成部 45に出力し、画像合成部 45は、エラー成分情報推定部 43から 出力されたエラー成分の値と法線情報推定部 42で推定された被写体の法線情報と から、登録画像を合成し、出力する(S6、 S7)。
[0107] ステップ S5において照明条件入力部 44から入力される照明条件の一例としては、 例えば顔の正面方向を (左右の角度: 0° 、上下の角度: 0° )と置いたときに、左右 上下ともに 20° 間隔に 60° までの角度を取ることができる。この場合、 60° 、 -4 0° 、—20° 、0° 、 20° 、40° 、 60° の 7種類の角度力あり、上下左右合わせて 7 X 7の 49通りの照明角度ができる。なお、角度は等間隔である必要はなぐ使用目的 や用途に合わせて適宜効果のある角度を選択すればよい。また、照明条件入力部 4 4には、あら力じめ複数の照明条件が記憶されていてもよいし、ユーザによって所望 の照明条件が入力される構成であってもよい。
[0108] そして、これらの互いに異なる所定の照明角度それぞれに対応して、エラー成分情 報推定部 43はエラー成分 V を推定し (S6)、さら〖こ、画像合成部 45は、法線アル
MAP
べドベクトル B および照明条件 L が既知であるので、(7)式を用いて画素毎の
MAP NEW
輝度値 Y
NEWを算出し、画像を合成することにより、被写体の複数の登録画像群 30を 得ることができる(S7)。
[0109] [数 24]
Figure imgf000020_0001
[0110] そして、(7)式に示した処理を、あら力じめ定められた複数の照明角度それぞれに ついて繰り返し行うことによって(S8)、登録画像群 30を作成することができる。すな わち、全方向についての処理が終了したら (Y)、全体としての処理を終了し、そうで ない場合 (N)には、ステップ S5に戻る。
[0111] 図 5は本発明の第 1の実施の形態における登録画像群 30の一例を概念的に示す 図である。図 5に示したように、本発明の第 1の実施の形態の画像照合装置 1の登録 画像群作成部 3によれば、様々な陰影を有する登録画像群 30を作成することが可能 である。
[0112] 再び図 1に戻って、本発明の第 1の実施の形態の画像照合装置 1において、登録 画像群作成部 3で作成された登録画像群 30は、登録画像群記憶部 4に記憶される。 ここまでで、本発明の第 1の実施の形態の画像照合装置 1における照合処理の準備 が完了する。
[0113] 図 6は、本発明の実施の形態における比較画像 25の一例を概念的に示す図であ る。図 1に示したような、本発明の第 1の実施の形態の画像照合装置 1において、被 認証者の比較画像 25が比較画像入力部 5から入力された場合には、比較画像 25は 比較画像入力部 5から比較照合部 8に送られ、比較照合部 8において、比較画像 25 と登録画像群 30との比較照合処理がなされ、その結果が出力部 9から出力される。 例えば、比較画像 25が入力された場合には、登録画像群 30のうち、同一の被写体 を類似した照明条件で撮影した登録画像 26と類似し、比較画像 25に撮影された被 写体はあら力じめ登録された者であると認証される。このとき、登録画像 26に、対応 する登録された者の 情報等が付与されていれば、その 情報から、比較画像 25 の HD情報も認証結果とともに出力部 9より出力される。なお、被認証者に対して確認 を促す意味では、比較画像 25と類似すると判定された登録画像 26も出力部 9から被 認証者に対して出力することが望ましい。
[0114] 以上述べたように、本発明の第 1の実施の形態における画像照合装置 1によれば、 登録画像群 30を作成する際に、(4)式に示したように、各画素を独立して扱うのでは なぐ複数の画素の情報力 演算対象となる画素の情報を算出するとともに、複数の 画素を同時に取り扱うことのできる画像生成モデル (反射モデル)を仮定し、その画 像生成モデルの各ベクトルの統計モデルを用いて演算を行うので、登録画像 20のう ち、全画素について同時に演算を行うことも可能であるし、登録画像 20を複数の領 域に分割して、分割された領域毎に演算を行うことも可能である。このように、登録画 像 20を複数の領域に分割して、分割された領域毎に演算を行った場合には、全画 素をまとめて演算する場合と比較して、演算時間を短くすることが可能である。これは 、相関演算に要する時間は、画素数の三乗に比例するために、全画素を一度に演 算するよりも、いくつかに領域を分割して演算を行ったほうが演算時間を短くすること ができるからである。
[0115] さらに、本発明の第 1の実施の形態における画像照合装置 1によれば、(4)式に示 したような複数の画素を同時に取り扱うことのできる統計モデルを用いて演算を行う ので、
[数 25]
= [L∑「.LL7、 + Y [L∑ ' (Y - MK ) + C"VJ
Figure imgf000022_0001
[0117] に示したように、 MAP推定を行った際、破線で囲んだ画素のみについて結果を採用 することも可能である。すなわち、登録画像 20を構成する画素のうちで、影になって いる部分等、その画素の情報を用いて法線アルべドベクトルの推定を行うことが難し い画素(以下、信頼性の低い画素と記す)については、他の鮮明に見えている画素( 以下、信頼性の高い画素と記す)とグルーピングを行って演算することによって、他の 信頼性の高い画素の影響を受けた状態で法線アルべドべ外ルの推定等を行うこと が可能である。
[0118] よって、本発明の第 1の実施の形態における画像照合装置 1を用いれば、登録画 像 20から登録画像群 30を作成する際に、登録画像 20中に影となったり、鏡面反射 成分が大き力つたりして信頼性の低い画素が存在する場合にも、他の信頼性の高い 画素の影響を受けた状態で、より信頼性の高 ヽ登録画像群 30を作成することが可能 である。なお、この画素信頼性については、画素毎にエラー成分 Vの値の分散∑Vを 算出し、この値が所定の閾値よりも大きい画素を、信頼性の低い画素として決定し、 それ以外の画素を信頼性の高い画素として決定することができる。
[0119] よって、本発明の第 1の実施の形態における画像照合装置 1を用いれば、比較画 像 25と登録画像群 30との本人照合率を向上させることができる。
[0120] 例えば、本発明の第 1の実施の形態における画像照合装置 1を用いて比較画像 25 と登録画像群 30との照合を行った場合の一位照合率を、従来技術を用いて比較画 像 25と登録画像群との照合を行った場合の一位照合率よりも向上させることができる 。なお、一位照合率とは、比較画像に対して、その比較画像と同一の被写体が撮影 された登録画像が一位で認証される割合のことを ヽ、その比率が高 ヽほど精度の 高!、認証ができて 、ることを示す。
[0121] 例えば、ブートストラップ画像として、同一の画像群を用いて統計モデルを算出し、 この統計モデルを用いて、非特許文献 1に記載された方法で登録画像群を作成し、 この登録画像群を用いて画像照合を行った場合の一位照合率が 87. 8%であった のに対して、本発明の第 1の実施の形態における画像照合装置 1を用いて画像照合 を行った場合の一位照合率は、 94. 0%と大きく向上した。
[0122] また、本発明の第 1の実施の形態における画像照合装置 1においては、登録画像 2 0中における複数の画素についての相関演算を同時に行うことが可能である力 この 相関演算を行うべき画素の決定については、任意の画素を選択することが可能であ る。例えば、相関の高い画素同士、例えば、鼻の周辺、眼の周辺、頰の周辺等、近 傍の画素同士をグルーピングすることも可能である。このようなグルーピングを行う場 合には、頰の周辺については、右側の頰と左側の頰とは対照的な法線ベクトルを有 すると考えられるので、同時に演算を行う画素にグルーピングして相関演算すること により、より信頼性の高い演算結果を得ることができる。
[0123] なお、本発明の第 1の実施の形態においては、登録画像群作成部 3を、画像照合 装置 1の機能ブロックであるとして説明を行ったが、登録画像群作成部 3を他の機能 ブロック力も独立させて、画像合成装置とすることも可能である。これにより、画像照 合装置および画像照合方法における、登録画像群として記憶されるべき画像群を作 成するのに適した画像合成装置を提供することができる。
[0124] (第 2の実施の形態)
次に、本発明の第 2の実施の形態における画像照合装置 40について説明する。図 7は本発明の第 2の実施の形態における画像照合装置 40の構成を示すブロック図で ある。
[0125] 図 7に示したように、本発明の第 2の実施の形態における画像照合装置 40は、前述 の第 1の実施の形態における画像照合装置 1と比較して、比較画像入力部 5から入 力された比較画像から、その照明方向および強度等の照明条件を推定する比較画 像照明条件推定部である照明条件推定部 6と、照明条件推定部 6で推定された照明 条件の情報を登録画像群記憶部 4に送るとともに、登録画像群記憶部 4に記憶され た登録画像群 30から前述の比較画像の照明条件に適合した照明条件に対応する 登録画像を検索、抽出して、比較照合部 8に出力する画像検索部である情報検索部 7を備えている。
[0126] 他の構成要件、すなわち、登録画像入力部 2、登録画像群作成部 3、登録画像群 記憶部 4、比較画像入力部 5、比較照合部 8および出力部 9のそれぞれの機能に関 しては、第 1の実施の形態における画像照合装置 1における各構成要素の機能と同 様であるので、その説明を省略する。
[0127] 照明条件推定部 6における照明条件の推定は、第 1の実施の形態における画像照 合装置 1の登録画像群作成部 3の照明条件推定部 41による照明条件の推定方法( 図 3におけるステップ S2と同様の方法)を用いることができる。
[0128] また、本発明の第 2の実施の形態における登録画像群作成部 3は、登録画像群 30 を作成する際に、登録画像群 30それぞれのメタ情報として、照明方向や強度等の照 明条件に関する情報を付与して登録画像群記憶部 4に記憶しておく構成であっても よい。このような構成によれば、本発明の第 2の実施の形態における画像照合装置 4 0の情報検索部 7は、登録画像群記憶部 4に記憶された登録画像群 30に付与された メタ情報を手掛かりとして、比較照合部 8に送るべき登録画像の検索を行うことが可能 である。
[0129] このような構成とすることにより、本発明の第 2の実施の形態の画像照合装置 40に よれば、第 1の実施の形態における画像照合装置 1が奏する効果に加えて、さらに、 比較画像 25から照明条件推定部 6によってその照明条件を推定し、登録画像群記 憶部 4に記憶された登録画像群 30から、照明条件推定部 6によって推定された照明 条件に対応する登録画像を検索して、比較照合部 8に送ることができる。例えば、第 1の実施の形態で説明したような比較画像 25が入力された場合には、その照明条件 に対応する登録画像 26が、登録画像群記憶部 4から情報検索部 7によって比較照 合部 8に送られる。 [0130] よって、比較照合部 8における比較照合処理を行う回数を減少させることができ、 C PU等に対する演算負荷を軽減することのできる、小型の装置に最適な構成を実現 できる。
[0131] (第 3の実施の形態)
次に、本発明の第 3の実施の形態における画像照合装置 50について説明する。図 8は本発明の第 3の実施の形態における画像照合装置 50の構成を示すブロック図で ある。
[0132] 図 8に示したように、本発明の第 3の実施の形態における画像照合装置 50は、前述 の第 1の実施の形態における画像照合装置 1と比較して、比較画像入力部 5から入 力された比較画像力 その特徴量を算出する特徴量算出部 31、および、登録画像 群作成部 3で作成された登録画像から、それぞれの登録画像の特徴量を算出する 特徴量算出部 32を備えた点が異なる。
[0133] ここで、特徴量算出部 31および特徴量算出部 32における画像からの特徴量算出 方法としては、顔の特徴を表すポイントに、グラフと呼ばれるパターンを配置し、正確 な顔の特徴点を見つけ、そのポイント毎の特徴量を登録データと比較、照合するダラ フマッチング法や、変換対象力 ウェーブレット波形を利用し、その波形が持つ特徴( 周波数成分等)のみを取り出す、信号解析や画像圧縮に用いられる手法であるガボ ールウェーブレット変換等を用いることが可能である力 本発明はこれらの特徴点の 算出方法になんら限定されるものではない。
[0134] また、本発明の第 3の実施の形態における画像照合装置 50は、第 1の実施の形態 における画像照合装置 1の登録画像群記憶部 4の代わりに、登録画像群から特徴量 算出部 31によって算出された特徴量を記憶する特徴量記憶部 34を備えている。
[0135] さらに、本発明の第 3の実施の形態における画像照合装置 50は、第 1の実施の形 態における画像照合装置 1の比較照合部 8の代わりに、比較画像力 特徴量算出部
32で算出された特徴量と特徴量記憶部 34に記憶された登録画像群の特徴量とを比 較照合する比較照合部 33を備えて 、る。
[0136] 他の構成要件、すなわち、登録画像入力部 2、登録画像群作成部 3、比較画像入 力部 5および出力部 9のそれぞれの機能に関しては、第 1の実施の形態における画 像照合装置 1における各構成要素の機能と同様であるので、その説明を省略する。
[0137] このような構成とすることにより、本発明の第 3の実施の形態の画像照合装置 50に よれば、第 1の実施の形態における画像照合装置 1が奏する効果に加えて、さらに、 特徴量記憶部 34には、特徴量算出部 31によって算出された特徴量のデータが記憶 されて 、るので、登録画像群記憶部 4の画像情報そのものを記憶する構成と比較し て、必要な記憶容量が少なくて済むので、装置全体の小型化や低コスト化を図ること ができる。
[0138] さらに、本発明の第 3の実施の形態における画像照合装置 50によれば、第 1の実 施の形態における画像照合装置 1が奏する効果に加えて、さらに、比較照合部 33が 、特徴量記憶部 34および特徴量算出部 32からそれぞれ出力された特徴量を用いて 比較照合を行うので、画像全体のマッチングを行う構成と比較して、比較照合部 33 での演算処理が小規模で済み、 CPU等に対する演算負荷を軽減することのできる、 小型の装置に最適な構成を実現できる。
[0139] なお、本発明の実施の形態においては、被写体として人物の顔を用いた場合を例 として説明を行ったが、本発明の画像合成装置およびそれを用いた画像照合装置な らびに画像合成方法は、この用途に限定されず、被写体として一般の立体を有する 物体を被写体としても用いることができる。
産業上の利用可能性
[0140] 以上述べたように、本発明によれば、演算対象となる画素が影になっているような 場合でも、その画素についての法線ベクトルや反射率を正しく推定でき、現実に合致 した登録画像群を作成できるという格別な効果を奏することができるので、入力され た二次元画像とあらかじめ記録された二次元画像とを比較照合する画像照合装置、 特に画像照合に用いる登録画像群を作成する画像合成装置およびそれを用いた画 像照合装置ならびに画像合成方法等として有用である。

Claims

請求の範囲
[1] 被写体の第 1の画像力 所定の照明条件における前記被写体の第 2の画像を合成 する画像合成装置であって、
前記第 1の画像の輝度値から前記第 1の画像における前記被写体に対する照明条 件を推定する照明条件推定部と、
前記照明条件推定部で推定された照明条件にもとづいて、前記第 1の画像における 所定の画素の、前記被写体の法線方向を含む法線情報を推定する法線情報推定 部と、
前記第 1の画像の前記所定の画素の輝度値のうち、拡散反射成分以外のエラー成 分の情報を推定し、推定された前記エラー成分の情報から、前記所定の照明条件に おけるエラー成分の情報を推定するエラー成分情報推定部と、
前記法線情報推定部によって推定された前記被写体の法線情報、および、前記エラ 一成分情報推定部で推定された、前記所定の照明条件におけるエラー成分の情報 から、前記所定の照明条件における前記被写体の前記第 2の画像を合成する画像 合成部とを備え、
前記法線情報推定部は、前記第 1の画像における複数の画素の情報から前記所定 の画素の法線情報を推定することを特徴とする画像合成装置。
[2] 前記エラー成分情報推定部は、前記第 1の画像における複数の画素の情報から前 記所定の画素のエラー成分の情報を推定することを特徴とする請求項 1に記載の画 像合成装置。
[3] 前記法線情報推定部は、あらかじめ学習用の画像によって計算された、複数の画素 の情報にもとづ ヽて算出された統計モデルにもとづいて、前記法線方向を推定する ことを特徴とする請求項 1に記載の画像合成装置。
[4] 前記エラー成分情報推定部は、あらかじめ学習用の画像によって計算された、複数 の画素の情報にもとづいて算出された統計モデルにもとづいて、前記エラー成分の 情報を推定することを特徴とする請求項 2に記載の画像合成装置。
[5] 前記統計モデルが、
[数 1] Y = I/B + V
(ただし、 Y:画素の画像ベクトル、 LT:照明行列 Sの転置行列 STを対角上に配置した 照明行列、 B:法線アルべドベクトル、 V:エラーベクトル)
で表わされる画像生成モデルの各ベクトルの統計モデルであることを特徴とする請求 項 3に記載の画像合成装置。
[6] 互いに異なる複数の照明角度を含む照明条件が入力される照明条件入力部を備え 前記画像合成部は、前記照明条件入力部力 入力された複数の照明条件それぞれ における前記第 2の画像を合成することを特徴とする請求項 1に記載の画像合成装 置。
[7] 請求項 6に記載の画像合成装置と、
前記画像合成装置で作成された第 2の画像を登録画像群として記憶する登録画像 群記憶部と、
比較すべき比較画像を入力する比較画像入力部と、
前記比較画像入力部から入力された比較画像と前記登録画像群記憶部に記憶され た登録画像群とを比較照合する比較照合部とを備えたことを特徴とする画像照合装 置。
[8] 前記比較画像入力部が入力した前記比較画像における照明条件を推定する比較画 像照明条件推定部と、
前記比較画像照明条件推定部で推定された照明条件の登録画像を前記登録画像 群記憶部から検索する画像検索部とを備え、
前記比較照合部は、前記画像検索部で検索された登録画像と前記比較画像とを照 合することを特徴とする請求項 7に記載の画像照合装置。
[9] 前記画像合成装置で作成された第 2の画像の特徴量を算出する第 1の特徴量算出 部と、
前記比較画像入力部で入力された比較画像の特徴量を算出する第 2の特徴量算出 部とを備え、 前記登録画像群記憶部は、前記第 2の画像の特徴量を記憶し、
前記比較照合部は、前記登録画像群と前記比較画像とをその特徴量によって比較 照合することを特徴とする請求項 7に記載の画像照合装置。
[10] 被写体の第 1の画像力 所定の照明条件における前記被写体の第 2の画像を合成 する画像合成方法であって、
前記第 1の画像の輝度値から前記第 1の画像における前記被写体に対する照明条 件を推定する第 1のステップと、
前記第 1のステップで推定された前記照明条件にもとづいて、前記第 1の画像におけ る所定の画素の、前記被写体の法線方向を含む法線情報を推定する第 2のステップ と、
前記第 1の画像の前記所定の画素の輝度値のうち、拡散反射成分以外のエラー成 分の情報を推定し、推定された前記エラー成分の情報から、前記所定の照明条件に おけるエラー成分の情報を推定する第 3のステップと、
前記第 2のステップで推定された前記被写体の法線情報、および、前記第 3のステツ プにおいて推定された、前記所定の照明条件におけるエラー成分の情報から、前記 所定の照明条件における前記被写体の前記第 2の画像を合成する第 4のステップと を備え、
前記第 2のステップにおいて、前記第 1の画像における複数の画素の情報から前記 所定の画素の法線情報を推定することを特徴とする画像合成方法。
[11] 被写体の第 1の画像力 所定の照明条件における前記被写体の第 2の画像を合成 するプログラムであって、
コンピュータに、
前記第 1の画像の輝度値から前記第 1の画像における前記被写体に対する照明条 件を推定する第 1のステップと、
前記第 1のステップで推定された前記照明条件にもとづいて、前記第 1の画像におけ る所定の画素の、前記被写体の法線方向を含む法線情報を推定する第 2のステップ と、
前記第 1の画像の前記所定の画素の輝度値のうち、拡散反射成分以外のエラー成 分の情報を推定し、推定された前記エラー成分の情報から、前記所定の照明条件に おけるエラー成分の情報を推定する第 3のステップと、
前記第 2のステップで推定された前記被写体の法線情報、および、前記第 3のステツ プにおいて推定された、前記所定の照明条件におけるエラー成分の情報から、前記 所定の照明条件における前記被写体の前記第 2の画像を合成する第 4のステップと を実行させ、
前記第 2のステップにおいて、前記第 1の画像における複数の画素の情報から前記 所定の画素の法線情報を推定することを特徴とするプログラム。
PCT/JP2006/311509 2005-06-14 2006-06-08 画像合成装置、それを用いた画像照合装置、画像合成方法およびプログラム WO2006134821A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US11/887,257 US7974447B2 (en) 2005-06-14 2006-06-08 Image synthesizing device, image collation device using the same, image synthesizing method and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005173380A JP4140619B2 (ja) 2005-06-14 2005-06-14 画像合成装置およびそれを用いた画像照合装置ならびに画像合成方法
JP2005-173380 2005-06-14

Publications (1)

Publication Number Publication Date
WO2006134821A1 true WO2006134821A1 (ja) 2006-12-21

Family

ID=37532184

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/311509 WO2006134821A1 (ja) 2005-06-14 2006-06-08 画像合成装置、それを用いた画像照合装置、画像合成方法およびプログラム

Country Status (4)

Country Link
US (1) US7974447B2 (ja)
JP (1) JP4140619B2 (ja)
CN (1) CN100495437C (ja)
WO (1) WO2006134821A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5273998B2 (ja) * 2007-12-07 2013-08-28 キヤノン株式会社 撮像装置、その制御方法及びプログラム
US8457389B2 (en) * 2008-09-03 2013-06-04 Nec Corporation Image processing device, image processing method and image processing program
CN101814179B (zh) * 2009-02-19 2012-06-27 富士通株式会社 图像增强方法和设备
US8194072B2 (en) * 2010-03-26 2012-06-05 Mitsubishi Electric Research Laboratories, Inc. Method for synthetically relighting images of objects
JP5443533B2 (ja) * 2012-03-22 2014-03-19 株式会社東芝 画像処理装置、画像表示装置及び画像処理方法
JP2014078808A (ja) 2012-10-09 2014-05-01 Toshiba Corp 画像処理装置、画像処理方法
JP6316068B2 (ja) 2014-03-31 2018-04-25 国立大学法人 東京大学 検査システムおよび検査方法
JP6433268B2 (ja) * 2014-03-31 2018-12-05 国立大学法人 東京大学 検査システムおよび検査方法
JP6424020B2 (ja) 2014-06-09 2018-11-14 株式会社キーエンス 画像検査装置、画像検査方法、画像検査プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP6442209B2 (ja) * 2014-09-26 2018-12-19 キヤノン株式会社 画像処理装置およびその制御方法
WO2017017900A1 (ja) * 2015-07-27 2017-02-02 パナソニックIpマネジメント株式会社 顔照合装置およびこれを備えた顔照合システムならびに顔照合方法
EP3232368A1 (en) * 2016-04-14 2017-10-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Determining facial parameters
US10229487B2 (en) * 2017-02-27 2019-03-12 Amazon Technologies, Inc. Optical vibrometric testing of container for items
JP7257765B2 (ja) * 2018-09-27 2023-04-14 キヤノン株式会社 情報処理装置、認証システムおよびそれらの制御方法、プログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001283224A (ja) * 2000-03-31 2001-10-12 Nec Corp 顔照合方法と該照合方法を格納した記録媒体と顔照合装置
JP2002024830A (ja) * 2000-07-05 2002-01-25 Nec Corp 画像照合装置、方法及びコンピュータ読み取り可能な記憶媒体
WO2006049237A1 (ja) * 2004-11-08 2006-05-11 Matsushita Electric Industrial Co., Ltd. 法線情報推定装置、登録画像群作成装置および画像照合装置ならびに法線情報推定方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001283224A (ja) * 2000-03-31 2001-10-12 Nec Corp 顔照合方法と該照合方法を格納した記録媒体と顔照合装置
JP2002024830A (ja) * 2000-07-05 2002-01-25 Nec Corp 画像照合装置、方法及びコンピュータ読み取り可能な記憶媒体
WO2006049237A1 (ja) * 2004-11-08 2006-05-11 Matsushita Electric Industrial Co., Ltd. 法線情報推定装置、登録画像群作成装置および画像照合装置ならびに法線情報推定方法

Also Published As

Publication number Publication date
US7974447B2 (en) 2011-07-05
JP4140619B2 (ja) 2008-08-27
CN101198986A (zh) 2008-06-11
CN100495437C (zh) 2009-06-03
JP2006350506A (ja) 2006-12-28
US20090226029A1 (en) 2009-09-10

Similar Documents

Publication Publication Date Title
WO2006134821A1 (ja) 画像合成装置、それを用いた画像照合装置、画像合成方法およびプログラム
Yamaguchi et al. High-fidelity facial reflectance and geometry inference from an unconstrained image
Jian et al. Simultaneous hallucination and recognition of low-resolution faces based on singular value decomposition
JP4353246B2 (ja) 法線情報推定装置、登録画像群作成装置および画像照合装置ならびに法線情報推定方法
US7876931B2 (en) Face recognition system and method
US20140043329A1 (en) Method of augmented makeover with 3d face modeling and landmark alignment
WO2010026983A1 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
US20110091113A1 (en) Image processing apparatus and method, and computer-readable storage medium
Sun et al. Depth estimation of face images using the nonlinear least-squares model
Zhang et al. Recognizing rotated faces from frontal and side views: An approach toward effective use of mugshot databases
Han et al. 3D face texture modeling from uncalibrated frontal and profile images
Parde et al. Face and image representation in deep CNN features
Baek et al. Multimodal camera-based gender recognition using human-body image with two-step reconstruction network
Choi et al. Data insufficiency in sketch versus photo face recognition
Zhao et al. Minimizing illumination differences for 3D to 2D face recognition using lighting maps
Kahraman et al. Robust face alignment for illumination and pose invariant face recognition
Di Martino et al. Rethinking shape from shading for spoofing detection
Singh et al. Performance enhancement of 2D face recognition via mosaicing
JP5244345B2 (ja) 顔認証装置
JP2008225971A (ja) 画像合成装置およびそれを用いた画像照合装置ならびに画像合成方法
JP4141090B2 (ja) 画像認識装置、陰影除去装置、陰影除去方法及び記録媒体
JP2008225970A (ja) 画像合成装置およびそれを用いた画像照合装置ならびに画像合成方法
Watabe et al. Empirical evaluations of a single-view-based ear recognition when rotated in depth
Vucini et al. Face recognition under varying illumination
JP4325605B2 (ja) 画像合成装置およびそれを用いた画像照合装置ならびに画像合成方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200680021339.3

Country of ref document: CN

DPE2 Request for preliminary examination filed before expiration of 19th month from priority date (pct application filed from 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 11887257

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 06757173

Country of ref document: EP

Kind code of ref document: A1