WO2012124124A1 - 画像照合装置、画像処理システム、画像照合プログラム、コンピュータ読み取り可能な記録媒体、および画像照合方法 - Google Patents

画像照合装置、画像処理システム、画像照合プログラム、コンピュータ読み取り可能な記録媒体、および画像照合方法 Download PDF

Info

Publication number
WO2012124124A1
WO2012124124A1 PCT/JP2011/056466 JP2011056466W WO2012124124A1 WO 2012124124 A1 WO2012124124 A1 WO 2012124124A1 JP 2011056466 W JP2011056466 W JP 2011056466W WO 2012124124 A1 WO2012124124 A1 WO 2012124124A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
registered
score
relative evaluation
evaluation score
Prior art date
Application number
PCT/JP2011/056466
Other languages
English (en)
French (fr)
Inventor
淳 入江
Original Assignee
オムロン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オムロン株式会社 filed Critical オムロン株式会社
Priority to US13/985,081 priority Critical patent/US9058513B2/en
Priority to KR1020137020729A priority patent/KR101506105B1/ko
Priority to EP11861311.6A priority patent/EP2688039A4/en
Priority to CN201180068810.5A priority patent/CN103403760B/zh
Publication of WO2012124124A1 publication Critical patent/WO2012124124A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data

Definitions

  • the present invention relates to an image collation apparatus, an image processing system, an image collation program, a computer-readable recording medium, and an image collation method that collate an image obtained by photographing an object with an image database.
  • an image in which a person's face is photographed in advance is registered in a database, and the input image is compared with the registered contents of the database in response to an input of an image in which a person's face to be authenticated is photographed.
  • a face authentication technique for identifying and authenticating an individual is known.
  • the authentication processing in the face authentication technology is illustratively composed of registration and authentication processing. Specifically, it is as follows.
  • a feature amount indicating a feature of a person's face is extracted and registered from an image in which the person's face is photographed.
  • this feature amount is extracted from the input image.
  • the feature amount extracted from the input image is compared with the feature amount registered in the database, and an authentication score is calculated. Then, by evaluating the authentication score, it is determined whether or not the input image matches that registered in the database.
  • Patent Document 1 discloses grouping registration data of persons with similar faces, and setting a threshold value corresponding to each group in the evaluation of the authentication score.
  • the present invention has been made in view of the above problems, and its purpose is to improve authentication accuracy by combining evaluation by comparison between an input image and a registered image of a database and other evaluation methods. It is to realize a face authentication device or the like that can be performed.
  • an image collation apparatus is an image collation apparatus that collates an input image obtained by photographing an object to be collated with a registered image database.
  • the feature amount of the image obtained by shooting is registered as a registered image.
  • the registered image is registered for a plurality of objects, and the feature amount of the input image and the feature amount of the registered image are used.
  • a collation score calculating means for calculating a collation score which is a score indicating how close the object indicated by the registered image is to the object of the input image, and one registered in the registered image database.
  • a relative evaluation score calculation unit that calculates a relative evaluation score, which is a score indicating how close the target object is to the target object of the input image with respect to another target object
  • an integrated score calculating means for calculating an integrated score obtained by weighting the matching score and the relative evaluation score, and an image matching means for matching the input image based on the integrated score, To do.
  • An image collation program is an image collation program for collating an input image obtained by photographing an object to be collated with a registered image database in order to solve the above-described problem.
  • the feature amount of an image obtained by photographing the object is registered as a registered image, and the registered image is registered for a plurality of objects, and the feature amount of the input image
  • Relative evaluation score for calculating a relative evaluation score, which is a score indicating how close one object registered in the registered image database is to the object of the input image with respect to another object
  • An integrated score calculating step for calculating an integrated score obtained by weighting the calculation step, the matching score, and the relative evaluation score; and the input based on the integrated score Characterized in that to execute an image matching step for matching the image, the processing including the computer.
  • an image collating method for collating an input image obtained by photographing an object to be collated with a registered image database.
  • a collation score calculating step for calculating a collation score, which is a score indicating how much the object indicated by the registered image approximates the object of the input image, and is registered in the registered image database.
  • a relative evaluation score for calculating a relative evaluation score, which is a score indicating how close one object is to the object of the input image relative to another object.
  • the input image can be collated using an integrated score that includes a relative evaluation score indicating how close to the object of the input image is.
  • the above-mentioned object means an object that can recognize a pattern, such as a person and a car.
  • the object may be a part of a certain object. For example, there is a relationship between a person as an object and the face of a person who is a part of the object.
  • the feature amount of the image obtained by photographing the object is information for setting the image obtained by photographing the object as a comparison target for collation.
  • the feature amount may be an image itself in which the object is photographed, that is, a pixel value, or may indicate an appearance feature of the object extracted from the image.
  • the feature amount may be extracted from a single specific image obtained by photographing the target object, or may be extracted from a plurality of images obtained by photographing the target object.
  • such a feature amount is registered in the registered image database as a registered image.
  • the matching score is a score derived using the feature amount of the input image and the feature amount of the registered image.
  • the collation score is a so-called approximation degree indicating the degree of approximation between the object photographed in the input image and the object represented by the registered image. Therefore, in other words, the collation score is an absolute evaluation score that can be uniquely calculated with respect to the input image if a registered image to be score-calculated is determined.
  • the collation score is an approximation obtained by comparing the feature quantity of the object photographed in the input image with the feature quantity of the registered image.
  • the above-mentioned collation score indicates how close the registered image is to the input image with the input image as the center. For example, when the object is a person, the matching score tends to be a close score between those having similar appearances such as siblings.
  • the relative evaluation score is a relative score derived from a registered image of a certain object and a registered image of another object.
  • the relative evaluation score is derived by comparing a matching score between a registered image and an input image of a certain object with a matching score between a registered image and an input image of another object. It is a relative score between registered images of an object.
  • an integrated score obtained by integrating the matching score and the relative evaluation score is calculated.
  • This integrated score can be calculated by a predetermined calculation method, for example. Specifically, the integrated score can be obtained by arbitrarily weighting the matching score and the relative evaluation score.
  • the integrated score may be an average of the matching score and the relative evaluation score.
  • the weights for both are uniform.
  • the integrated score may be a weighted average of the matching score and the relative evaluation score.
  • the integrated score is a collation score, which is an index indicating the degree of approximation between the input image and the registered image, and the registered image of one target is the other target among registered images of a plurality of targets.
  • a relative evaluation score that is an index indicating how much the image is similar to the input image is combined.
  • the image collation method may be realized by a computer.
  • a computer-readable recording medium on which it is recorded also falls within the scope of the present invention.
  • the feature amount of an image obtained by photographing an object is registered as a registered image in the registered image database, and the registered image is registered for a plurality of objects.
  • a collation score that is a score indicating how close the object indicated by the registered image is to the object of the input image is calculated.
  • Relative evaluation score which is a score indicating how much the target object registered in the registered image database and the target object registered in the registered image database is similar to the target object of the input image with respect to another target object Relative evaluation score calculation means for calculating, an integrated score calculation means for calculating an integrated score obtained by weighting the matching score and the relative evaluation score, and the above based on the integrated score
  • An image matching means for matching the force image is configured to include.
  • the feature amount of an image obtained by photographing an object is registered as a registered image in the registered image database, and the registered image is registered for a plurality of objects.
  • a matching score which is a score indicating how close the object indicated by the registered image is to the object of the input image
  • a comparison score calculation step to calculate, and a relative score that indicates how close one object registered in the registered image database is to the object of the input image relative to other objects
  • the image matching method registers the feature amount of an image obtained by photographing an object as a registered image, and the registered image is registered for a plurality of objects. And using the feature amount of the input image and the feature amount of the registered image, a matching score, which is a score indicating how close the object indicated by the registered image is to the object of the input image, A comparison score calculation step to calculate, and a relative score that indicates how close one object registered in the registered image database is to the object of the input image relative to other objects A relative evaluation score calculating step for calculating an evaluation score, an integrated score calculating step for calculating an integrated score obtained by weighting the matching score and the relative evaluation score, and the integration Based on the core characterized in that it comprises a, an image matching step for matching of the input image.
  • the face authentication system (image processing system) 100 includes a face authentication device (image collation device) 1 and an image input device 5.
  • the face authentication device 1 is a device that authenticates an image input from the image input device 5.
  • the authentication process in the face authentication apparatus 1 includes two stages of “face image registration process” and “face image authentication process”. First, in the first stage “face image registration process”, an image used for authentication is registered in the face authentication apparatus 1. Then, in the “face image authentication process” in the second stage, authentication is performed by comparing the input image with the registered image.
  • authentication exemplarily corresponds to the face of a person photographed in an input image and the face of a person photographed in any registered image. It means that it is a process of collating whether or not and specifying a person by this.
  • the image input device 5 is a device that inputs a photographed image of a person's face to the face authentication device 1.
  • the image input device 5 can be realized by, for example, a digital camera that shoots the face of a person as a subject and generates an image.
  • the subject of photographing is not limited to the person's face. That is, the subject to be targeted can be arbitrarily selected.
  • the captured image input to the face authentication apparatus 1 for registration is referred to as “registration target image A2”.
  • a photographed image input to the face authentication device 1 for authentication is referred to as “input image A1”.
  • input image A1 a photographed image input to the face authentication device 1 for authentication
  • photographed images when it is not necessary to distinguish between “input image A1” and “registration target image A2”, they are simply referred to as “photographed images”.
  • the face authentication device 1 and the image input device 5 may be provided in the same housing, or may be configured as separate housings. Moreover, there is no restriction
  • the face authentication device 1 includes an operation unit 11, a display unit 12, a storage unit 20, and a control unit 30.
  • the operation unit 11 receives various inputs from the user, and can be realized by, for example, an input button, a keyboard, a numeric keypad, a pointing device such as a mouse, a touch panel, and other input devices.
  • the operation unit 11 generates operation data according to the received user operation, and transmits the generated operation data to the control unit 30.
  • the display unit 12 displays a screen for providing information to the user.
  • the display unit 12 displays various information such as characters and images on the display screen based on the screen data received from the control unit 30.
  • the display unit 12 can be realized by a display device such as an LCD (Liquid Crystal Display), a PDP (Plasma Display Panel), or an EL (Electroluminescence) display.
  • the storage unit 20 stores various data and programs.
  • the storage unit 20 can be realized by combining storage devices such as a ROM (Read Only Memory), a RAM (Random Access Memory), and a nonvolatile memory (for example, a flash memory), for example. Details of various data stored in the storage unit 20 will be described later.
  • the control unit 30 comprehensively controls various functions in the face authentication device 1.
  • the control function of the control unit 30 is realized by executing a control program by a processing device such as a CPU (Central Processing Unit).
  • a processing device such as a CPU (Central Processing Unit).
  • the control unit 30 has a function of executing authentication processing.
  • the configuration for the control unit 30 to execute the authentication process will be described later.
  • the storage unit 20 includes a registered image database 21.
  • the registered image database 21 is used to register an image used for authentication for each person. More specific examples of the registered contents of the registered image database 21 are as follows.
  • a plurality of registered person information P is registered in the registered image database 21.
  • FIG. 2 is a diagram illustrating an example of the data structure of the registered person information P.
  • the registered person information P is identified by the name (ID) of the registered person.
  • the registered person information P one or more registered images R are registered. In the following description, it is assumed that a plurality of registered images R are registered.
  • the registered image R includes an image used for authentication and related information, and specifically has a data structure including identification information, a captured image, and facial feature data.
  • identification information information for identifying the registered image R is stored. Any identification information can be used.
  • the file name of the registered image R can be adopted as the identification information.
  • the registered image A2 input in the “face image registration process” is stored in the photographed image.
  • the registration target image A2 itself may be registered in the captured image, or a thumbnail of the registration target image A2 may be stored.
  • an image obtained by processing the registration target image A2 for example, an image subjected to image processing such as filter processing may be stored in the captured image.
  • the captured image can be omitted from the data structure of the registered person information P. That is, the registered image R only needs to include information from which “face feature data” described below can be derived and identification information. If the face feature data and the identification information are present, face authentication of the input image can be performed, thereby identifying who the input image is.
  • a feature amount indicating the feature of the face of the person included in the photographed image is stored.
  • the feature amount is obtained by quantifying the entire face and the parts recognized as eyes, nose and mouth in the face of a person included in the photographed image.
  • Examples of the feature amount include luminance information, frequency characteristic information, and information obtained by quantifying the shape, position, size, and the like of each part.
  • the registered image R may have a data structure including items of various types of information indicating the result of analyzing the face state, environment, and shooting conditions of a person when the shot image is shot.
  • the registered image R may include items such as “face orientation”, “facial expression”, “smile degree”, “lighting condition”, and “light intensity”.
  • “age”, “gender”, “how to open eyes”, and the like can be adopted as items.
  • control unit 30 includes an image acquisition unit 31, a face feature data extraction unit 32, a face authentication processing unit 33, and an authentication result output unit (image matching unit) 34.
  • Each unit included in the control unit 30 realizes a “face image registration process” and a “face image authentication process” included in the authentication process in the face authentication apparatus 1.
  • the “face image registration process” is realized by the image acquisition unit 31 and the face feature data extraction unit 32.
  • the “face image authentication process” is realized by the image acquisition unit 31, the face feature data extraction unit 32, the face authentication processing unit 33, and the authentication result output unit 34.
  • broken line arrows connecting the respective parts indicate the flow of data / control in the “face image registration process”, and solid line arrows connecting the respective parts indicate the data / control, etc. in the “face image authentication process”. The flow is shown.
  • control unit 30 each part of the control unit 30 will be described individually as follows.
  • the image acquisition unit 31 acquires the registration target image A2 from the image input device 5 in response to an input operation in the operation unit 11.
  • the image acquisition unit 31 transfers the acquired registration target image A2 to the face feature data extraction unit 32.
  • the image acquisition unit 31 acquires the name (ID) input in the operation unit 11, and registers the registration target image A2 with the registered person information P regarding the acquired name (ID).
  • the image R is registered in the registered image database 21 and transferred to the face feature data extraction unit 32.
  • the image acquisition unit 31 assigns identification information to the registered image R to be registered and registers it in the registered image database 21.
  • the image acquisition unit 31 may automatically generate identification information and assign it to the registered image R, or may acquire identification information input at the operation unit 11 and assign it to the registered image R.
  • the image acquisition unit 31 transfers the input image A1 to the face feature data extraction unit 32 in the “face image authentication process”.
  • the face feature data extraction unit 32 extracts face feature data, which is a feature amount of each part of the face, by analyzing the face of a person included in the photographed image. In the “face image registration process”, the face feature data extraction unit 32 stores the face feature data extracted from the registration target image A2 in the face feature data of the registration image R to be registered.
  • the face feature data extraction unit 32 transfers the face feature data of the input image A1 to the face authentication processing unit 33 in the “face image authentication process”.
  • the face authentication processing unit 33 calculates an integrated score indicating the degree of approximation between the input image and the registered image, and by evaluating the registered images. Details of the face authentication processing unit 33 will be described later.
  • the authentication result output unit 34 authenticates the input image A1 based on the integrated score calculated by the face authentication processing unit 33, and outputs the authentication result to the display unit 12.
  • the authentication result output unit 34 may output the name of the identified person as the authentication result, or may output a representative photographed image together with this.
  • FIG. 1 is a functional block diagram illustrating an example of a schematic configuration of the face authentication processing unit 33.
  • the face authentication processing unit 33 includes an absolute evaluation unit (collation score calculation unit) 331, an attention registered image selection unit (relative evaluation score calculation unit) 332, another registered image selection unit (relative evaluation score calculation unit). 333, a relative evaluation unit (relative evaluation score calculation unit) 334, and an evaluation integration unit (integrated score calculation unit) 335.
  • the absolute evaluation unit 331 calculates a matching score indicating the degree of approximation between the input image and the registered image by performing matching between the input image and the registered image.
  • the matching score calculated by the absolute evaluation unit 331 is referred to as “absolute evaluation score”. It should be noted that any method can be employed for calculating the matching score.
  • Boosting Boosting
  • linear / nonlinear projection methods include PCA (principal component analysis), LDA (linear discriminant analysis), PCA (KPCA) using the kernel method, LDA (KLDA), and the like.
  • PCA principal component analysis
  • LDA linear discriminant analysis
  • KPCA PCA
  • KLDA linear discriminant analysis
  • PCA principal component analysis
  • EBGM Elastic bunch graph matching method
  • HMM Hidden Markov Model
  • AdaBoost AdaBoost
  • LogitBoost multi-class boosting
  • a method for calculating a matching score a method such as a K-NN method (k-nearest neighbor) can be employed.
  • the absolute evaluation unit 331 performs matching between the facial feature data A11 of the input image supplied from the facial feature data extraction unit 32 and the facial feature data included in the registered image R of the registered person information P. To calculate the absolute evaluation score.
  • the absolute evaluation unit 331 supplies the calculated absolute evaluation score to the evaluation integration unit 335.
  • the attention registered image selection unit 332 selects from the registered images registered in the registered image database 21 an attention registered image that is a registered image that the relative evaluation unit 334 uses as a criterion for score evaluation.
  • the other registered image selection unit 333 selects, from the registered images registered in the registered image database 21, a selected registered image that is a registered image of a registered person different from the registered person of the registered image of interest as a comparison target of the registered image of interest. To do.
  • the relative evaluation unit 334 evaluates the relative relationship between the noticed registered image and the selected registered image by comparing the selected registered image with the noticed registered image as a reference.
  • the relative evaluation unit 334 calculates a relative evaluation score indicating how much the registered image of interest is similar to the input image compared to each selected registered image.
  • This relative evaluation score can be obtained, for example, by performing distance calculation or similarity calculation for the target registered image and the selected registered image and calculating the ratio of the calculated distance and similarity.
  • the relative evaluation score can be obtained, for example, by calculating a distance from the identification space formed between the attention registration image and the selection registration image.
  • the relative evaluation unit 334 supplies the calculated relative evaluation score to the evaluation integration unit 335.
  • the evaluation integration unit 335 calculates an integrated score obtained by integrating the absolute evaluation score calculated by the absolute evaluation unit 331 and the relative evaluation score calculated by the relative evaluation unit 334.
  • the evaluation integration unit 335 calculates an integrated score by, for example, averaging the absolute evaluation score and the relative evaluation score by weighting.
  • the evaluation integration unit 335 may select either an absolute evaluation score or a relative evaluation score in calculating the integrated score. That is, the evaluation integration unit 335 may set the weight of either the absolute evaluation score or the relative evaluation score to “0” in the calculation of the weighted average.
  • the evaluation integration unit 335 may calculate an average of the absolute evaluation score and the relative evaluation score in calculating the integrated score. In this case, since the deviation of data when there is variation in data can be leveled, the authentication accuracy can be improved.
  • Feature space A P shown in FIGS. 4 and 5 is a space defined by the feature quantity Y for the registered person information P.
  • collation feature quantity X a feature quantity to be collated
  • the absolute evaluation score can be calculated by distance calculation or similarity calculation as shown below, for example.
  • the degree of approximation between the input image and the registered image is defined by the absolute evaluation score calculated in this way. That is, it can be determined by comparing the magnitude of the absolute evaluation score to what extent a certain registered image and another registered image approximate to the input image.
  • the similarity will be mainly described as the degree of approximation, that is, the definition of the degree of approximation.
  • the relative evaluation score calculated by the following methods 1 to 3. Similar to the absolute evaluation score, the degree of approximation can be determined by comparing the relative evaluation scores.
  • Method 1 An example of a specific method for calculating the relative evaluation score in the relative evaluation unit 334 will be described with reference to FIGS. 6 and 7 as follows. 6 and 7 show a feature space defined by a set of feature amounts included in the face feature data.
  • Feature space A P1 shown in FIGS. 6 and 7 is a space defined by the feature quantity Y 1 for the registered person information P1
  • feature space A P2 is defined by the feature quantity Y 2 of the registration person information P2 Space.
  • the relative evaluation score can be calculated by distance calculation or similarity calculation.
  • this distance calculation the Euclidean distance, Mahalanobis distance, and the like are calculated as in the case of the absolute evaluation score.
  • similarity calculation a normalized correlation is obtained as in the case of the absolute evaluation score.
  • the distance calculation or the similarity calculation is performed in common with the absolute evaluation score.
  • Method 1 shown below the method of taking a distance in the distance calculation and the method of taking an angle in the similarity calculation are different from those of the absolute evaluation score shown above.
  • the projection space AX is a space that is required in the feature space so that a person (Mr. A) of the noticed registered image and a person (Mr. B) of the selected registered image can be identified. 6 and 7, for the sake of illustration, the projection space AX is represented as a straight line connecting the feature amount Y 1 and the feature amount Y 2 , but actually, the projection space AX is a space of an arbitrary dimension.
  • the projection space is a straight line if it is one-dimensional, and a plane if it is two-dimensional. That is, the one-dimensional projection space is a projection line, and the two-dimensional projection space is a projection plane.
  • projective space AX for example, a feature amount Y 1 of the feature space A P1, may be straight lines connecting the feature quantity Y 2 of the feature space A P2. Further, the projective space AX may be obtained from linear or nonlinear discriminant analysis.
  • a projection point Z obtained by projecting the matching target feature amount X onto the projection space AX is obtained.
  • a dotted arrow PRJ represents the projection of the matching target feature amount X onto the projection space AX. Further, the distance D 1 between the feature quantity Y 1 and the projection point Z and the distance D 2 between the feature quantity Y 2 and the projection point Z shown in FIG. 6 are calculated.
  • the value itself of the distance D 1 the registered person information P1, i.e. may be a relative evaluation score for the feature quantity Y 1.
  • relative evaluation scores for example, from the calculated D 1 and D 2 may be calculated as follows. That, and D 1 / D 2, seeking ratio such as D 1 / (D 1 + D 2), or as relative evaluation score. Further, the logarithm and index of the ratio obtained in this way may be used as the relative evaluation score.
  • the relative evaluation score is calculated by the above-described method, and finally the calculated relative evaluation score is added up, and the average of the combined relative evaluation scores is calculated. It may be taken.
  • the point of obtaining the projection point Z obtained by projecting the matching target feature quantity X onto the projection space AX is the same as that shown in FIG.
  • the value of the distance D 1 ′ itself may be used as the relative evaluation score for the registered person information P1, that is, the feature amount Y 1 .
  • the ratio between the similarities D ′ 1 and D ′ 2 or the logarithm thereof may be used as the relative evaluation score.
  • the average of the relative evaluation scores obtained by the above summation may be taken.
  • Method 2 Another example of a specific method for calculating the relative evaluation score in the relative evaluation unit 334 will be described with reference to FIGS. 8 and 9 as follows.
  • the absolute evaluation score shown in FIGS. 4 and 5 is calculated for two feature spaces, thereby calculating a relative evaluation score between the two feature spaces. For example, it can be calculated by distance calculation or similarity calculation as shown below.
  • the distances D 1 and D 2 shown in FIG. 8 can be calculated by applying the distance calculation shown in FIG. 4 to the feature amounts Y 1 and Y 2 , respectively.
  • a relative evaluation score is obtained by obtaining a ratio such as D 1 / D 2 or D 1 / (D 1 + D 2 ) based on the distances D 1 and D 2 described above.
  • the present invention is not limited to this, and the following may be mentioned as modified examples of the relative evaluation score calculation.
  • the logarithm and index of the ratio thus obtained may be used as the relative evaluation score.
  • the relative evaluation score similarly for other registered person information, the relative evaluation score is calculated by the above-described method, and finally the calculated relative evaluation score is added up, and the average of the combined relative evaluation scores is calculated. It may be taken.
  • the similarity D 1 ′ and D 2 ′ shown in FIG. 9 can be calculated by applying the similarity calculation shown in FIG. 5 to each of the feature amounts Y 1 and Y 2 .
  • the present invention is not limited thereto, and as described in Method 1, the logarithm of the obtained ratio may be used as the relative evaluation score.
  • the relative evaluation score is a score indicating how close the target registered image is to the input image with respect to the selected registered image.
  • the relative evaluation score can be calculated by performing cluster analysis on the selected registration image and the target registration image and determining how close the input image is to which class.
  • FIG. 10 shows an example in which an identification boundary B that divides the feature space A P1 and the feature space A P2 is obtained by cluster analysis. Specifically, it is as follows.
  • identification boundary B is a space of arbitrary dimensions, and is a straight line if it is one dimension, and a plane if it is two dimensions.
  • the identification boundary may be non-linear.
  • the similarity is calculated feature amount Y 1 and data entered on the basis of the identification space (feature amount X).
  • This similarity for example, can be obtained by obtaining the distance D 1 of the the decision boundary B feature quantity X.
  • feature quantity Y 2 also creates an identification space for other feature amount Y j, seeking the similarity of the feature amount Y j, which sums finally obtained degree of similarity, the average Is calculated as a relative evaluation score.
  • the relative evaluation score may be a ratio using the absolute evaluation score calculated by the absolute evaluation unit 331 for each registered image R.
  • the similarity is mainly defined as the degree of approximation, that is, the definition of the degree of approximation. It explains as being.
  • FIG. 11 is a flowchart illustrating the flow of face image registration processing in the face authentication device 1.
  • the image acquisition unit 31 of the face authentication device 1 acquires the registration target image A2 from the image input device 5 (S10).
  • the face feature data extraction unit 32 analyzes the registration target image A2, and extracts face feature data related to the face of the person included in the registration target image A2.
  • the face feature data extraction unit 32 stores the extracted face feature data in the registered image R (S11).
  • the face authentication device 1 stores the registration target image A2 in the “photographed image”, and registers the registered image R in which the extracted facial feature data is stored in the registered image database 21 in the “facial feature data”.
  • the image acquisition unit 31 exemplarily acquires the name (ID) of the registered person information P from the input in the operation unit 11.
  • the image acquisition unit 31 automatically generates identification information for a registered image.
  • the face image registration process ends.
  • FIG. 12 is a flowchart illustrating the flow of face image authentication processing in the face authentication apparatus 1.
  • the image acquisition unit 31 acquires the input image A1 input from the image input device 5 (S20)
  • the input image A1 is sent to the face feature data extraction unit 32. Forward.
  • the face feature data extraction unit 32 analyzes the input image A1 and extracts face feature data from the input image A1 (S21).
  • the absolute evaluation unit 331 performs matching between the input image and each registered image, and calculates an absolute evaluation score (S22).
  • the noticed registered image selection unit 332 selects one registered image from the registered images registered in the registered image database 21 as the noticed registered image, and the other registered image selection unit 333 selects the registered person of the noticed registered image as the registered person. While selecting a registered image of a different registered person as a selected registered image, the relative evaluation unit 334 calculates a relative evaluation score between the target registered image and the selected registered image (S23).
  • the above-described relative evaluation score is calculated for the remaining registered person registered images registered in the registered image database 21 (S24).
  • the evaluation integrating unit 335 integrates the absolute evaluation score and the relative evaluation score. (S25).
  • the authentication result output unit 34 authenticates the input image A1 based on the integrated score output from the evaluation integration unit 335, and outputs the authentication result (S26). This completes the face image authentication process.
  • registered person information P1 (Mr. A), P2 (Mr. B), P3 (Mr. C), and P4 (Mr. D) are registered in the registered image database 21, as shown in FIG. It shall be. Further, three registered images are registered in each of registered person information P1 to P4 (registered images R11 to R13, R21 to R23, R31 to R33, R41 to R43).
  • the absolute evaluation unit 331 performs matching between the input image and each registered image, and an absolute evaluation score is obtained. Calculate (S22).
  • the absolute evaluation unit 331 matches each registered image registered for the registered person information P1 to P4 with the input image A1, and calculates an absolute evaluation score.
  • FIG. 14 a registration image to be compared in the matching process performed by the absolute evaluation unit 331 and the input image A ⁇ b> 1 are connected by an arrow. Further, FIG. 14 shows that a registered image having a higher absolute evaluation score is positioned closer to the input image A1. That is, the length of the arrow represents the absolute evaluation score. Further, an absolute evaluation score calculated by the absolute evaluation unit 331 is attached to the side of the arrow.
  • the absolute evaluation score is assumed to take a value between “0” and “1000”, for example. As an example, a higher absolute evaluation score is calculated for a registered image in which a person close to the input image A1 is photographed.
  • the absolute evaluation score when the absolute evaluation score is “0”, it indicates that the person in the registered image is hardly similar to the person in the input image. Further, when the absolute evaluation score is “1000”, it indicates that the person of the registered image and the person of the input image are very similar.
  • the absolute evaluation score calculated for each registered image of the registered person information P1 to P4 will be described as follows.
  • the absolute evaluation scores ABS11, ABS12, and ABS13 of the registered images R11, R12, and R13 of the registered person information P1 are “900”, “750”, and “800”, respectively.
  • the absolute evaluation scores ABS21, ABS22, and ABS23 of the registered images R21, R22, and R23 of the registered person information P2 are “720”, “760”, and “710”, respectively.
  • the absolute evaluation scores ABS31, ABS32, and ABS33 of the registered images R31, R32, and R33 of the registered person information P3 are “400”, “380”, and “360”, respectively.
  • the absolute evaluation scores ABS41, ABS42, and ABS43 of the registered images R41, R42, and R43 of the registered person information P4 are “150”, “50”, and “100”, respectively.
  • the absolute evaluation score of “Mr. A” is in the range of “900” to “750”
  • the absolute evaluation score of “Mr. B” is in the range of “760” to “710”.
  • the relative evaluation unit 334 next calculates a relative evaluation score between the attention registered image and the selected registered image (S23).
  • the attention registration image selection unit 332 selects the registration image R12 of “Mr. A” as the attention registration image.
  • the attention registration image selection part 332 selects an attention registration image as an example by the registration order of the registration image of registration person information P1-P4.
  • the registration images R12, R11, and R13 are registered in this order. Therefore, the registered image R12 registered the oldest is selected by the attention registered image selection unit 332.
  • the registration image selected by the attention registration image selection unit 332 as the attention registration image is not limited to this.
  • the registration image having the highest absolute evaluation score among the registration images of the registered person information P1 to P4 may be used.
  • the registered image R11 having the highest absolute evaluation score shown in FIG. 14 among the registered person information P1 to P4 is selected by the noticed registered image selection unit 332. .
  • the registered image from which the noticed registered image selection unit 332 selects the noticed registered image may be based on registered person information in which the registered image having the highest absolute evaluation score is registered.
  • the registered person information may have the highest absolute evaluation score, or conversely, the absolute evaluation score may be the lowest.
  • the calculated absolute evaluation score may be a registered image indicating a median value.
  • the double circle attached below the registered image R12 indicates that the registered image R12 is a noticed registered image.
  • the other registered image selection unit 333 displays registered images of persons other than “Mr. A”, that is, registered images of “Mr. B”, “Mr. C”, and “Mr. D”. Selected as a selected registration image.
  • a single circle attached below the registered images of “Mr. B”, “Mr. C”, and “Mr. D” indicates that the registered image is a selected registered image.
  • the relative evaluation unit 334 uses the registered image R12 that is the noticeable registered image as a reference, the registered images R21 to R23 of “Mr. B” that is the selected registered image, the registered images R31 to R33 of “Mr. C”, and “Mr. D”.
  • the registered images R41 to R43 are compared.
  • the relative evaluation unit 334 calculates a relative evaluation score based on each comparison. That is, relative evaluation scores REL21 to REL23 are calculated by comparison with the registered images R21 to R23 of “Mr. B”, respectively. Also, relative evaluation scores REL31 to REL33 are calculated by comparison with the registered images R31 to R33 of “Mr. C”, respectively. Then, relative evaluation scores REL41 to REL43 are calculated by comparison with the registered images R41 to R43 of “Mr. D”, respectively.
  • the method for calculating the relative evaluation score is as already described with reference to FIGS. Note that the facial feature data included in each registered image Rn of the registered person information Pn corresponds to the feature amount Y n shown in FIGS. 6 and 7.
  • the absolute evaluation score and the relative evaluation score calculated as described above may be adjusted in the range of values depending on the calculation method. That is, when the range of the absolute evaluation score and the relative evaluation score is different due to the difference in the calculation method, adjustment is made so that the two can be compared.
  • the relative evaluation score is multiplied by a coefficient 1000 to adjust the value range.
  • relative evaluation scores are calculated for “Mr. C” and “Mr. D” as shown for “Mr. B” (S24). Further, the relative evaluation score may be calculated while changing the notice registration image.
  • the evaluation integration unit 335 integrates the absolute evaluation score and the relative evaluation score (S25). For example, the evaluation integration unit 335 calculates an integrated score (T) for each registered image according to the following equation (1).
  • the authentication result output unit 34 authenticates the input image A1 based on the integrated score (T) output from the evaluation integration unit 335, and outputs the authentication result (S26).
  • the face authentication apparatus 1 matches the input image A1 in which a person's face is photographed with the registered image database 21 in which the registered image R including face feature data is registered.
  • An absolute evaluation unit 331 for calculating an absolute evaluation score between the facial feature data A11 of the image A1 and the facial feature data included in the registered image R of the registered person information P registered in the registered image database 21, and the registration Relative evaluation which is a score indicating how much the person of one registered person information P registered in the image database 21 is similar to the person of the input image A1 with respect to the person of the other registered person information P
  • a relative evaluation unit 334 that calculates a score
  • an evaluation integration unit that calculates an integrated score obtained by weighting and integrating the absolute evaluation score and the relative evaluation score
  • An authentication result output unit 34 for matching the input image A1, which is configured to include.
  • the absolute evaluation unit 331 includes the registered image having the input image A1 and face feature data extracted from one image obtained by photographing a person (such as Mr. A).
  • the relative evaluation unit 334 calculates the absolute evaluation score with respect to (for example, the registered image R11), and the relative evaluation unit 334 uses the registered image having the facial feature data extracted from one image obtained by photographing the person. In this configuration, a relative evaluation score is calculated.
  • the registered image database 21 only registered images having face feature data extracted from one image obtained by photographing a person are registered. Therefore, even if the registered image R is not processed, each score can be immediately calculated using the registered image R that has already been registered, and collation can be performed.
  • the relative evaluation unit 334 may process a registered image having an absolute evaluation score equal to or higher than a predetermined threshold.
  • the threshold can be set to “500”.
  • a representative face image is calculated for each registered person information P, and a relative evaluation score is calculated based on the calculated representative face image.
  • the description will be made mainly focusing on the method for calculating the relative evaluation score.
  • the face authentication apparatus 1A shown in FIG. 16 differs from the face authentication apparatus 1 described so far in the following points.
  • the face authentication device 1A changes the face authentication processing unit 33 to the face authentication processing unit 33A in the control unit 30 of the face authentication device 1, adds a registered image representative data calculation unit 35, and further stores the storage unit 20
  • the representative data registration information storage unit (registered image database) 22 is added.
  • the representative data registration information storage unit 22 stores representative data registration information (representative image) AVG which is registration information of a representative face image calculated from a registered image registered in the registered person information P. As shown in FIG. 16, the representative data registration information AVG has a data structure including a name (ID) and registered image representative data.
  • the name (ID) is information for identifying representative data registration information, and the name (ID) of the corresponding registered person information P is stored.
  • the registered image representative data representative face images calculated from registered images registered in the registered person information P are stored.
  • the registered image representative data is calculated from the facial feature data of the registration target image A2. Note that the present invention is not limited to this, and the registered image representative data may be calculated from the pixel data of the registration target image A2.
  • the registered image representative data calculation unit 35 calculates registered image representative data using the face feature data extracted from the registration target image A2 in the “face image registration process”.
  • the registered image representative data calculation unit 35 illustratively calculates the average value of the facial feature data of the registered image R and the facial feature data of the registration target image A2 as registered image representative data.
  • the present invention is not limited to this, and the registered image representative data calculation unit 35 calculates the maximum value or the minimum value in the absolute evaluation scores of the facial feature data of the registered image R and the facial feature data of the registration target image A2 as registered image representative data. May be.
  • the registered image representative data calculation unit 35 may calculate, for example, the median value of the facial feature data of the registered image R and the facial feature data of the registration target image A2 as the registered image representative data.
  • the registered image representative data calculation unit 35 associates the name (ID) of the person input in the operation unit 11 with the registered image representative data, and registers them in the representative data registration information storage unit 22 as representative data registration information AVG.
  • the face authentication processing unit 33A is common to the face authentication processing unit 33 in that the integrated score indicating the degree of approximation between the input image and the registered image and the evaluation of the registered images are calculated by calculating an integrated score.
  • the face authentication processing unit 33A differs from the face authentication processing unit 33 in that it refers to the representative data registration information storage unit 22 in addition to the registered image database 21 when calculating the integrated score. The configuration of the face authentication processing unit 33A will be described below.
  • FIG. 17 is a functional block diagram illustrating an example of a schematic configuration of the face authentication processing unit 33A.
  • the face authentication processing unit 33A includes an attention registered image selection unit 332, another registered image selection unit 333, and a relative evaluation unit 334, respectively.
  • the attention representative data selection unit 332A selects attention representative data that is registered image representative data as a reference for score evaluation by the relative evaluation unit 334A from registered image representative data registered in the representative data registration information storage unit 22. . Note that the attention representative data selection unit 332A can apply the same selection method as the attention registered image selection unit 332.
  • the other representative data selection unit 333A selects, from the registered image representative data registered in the representative data registration information storage unit 22, selected representative data that is registered image representative data to be compared with the representative data of interest.
  • the other representative data selection unit 333A can apply the same selection method as the other registered image selection unit 333.
  • the relative evaluation unit 334A evaluates the relative relationship between the representative representative data and the selected representative data by comparing with the representative representative data based on the representative representative data. Then, the relative evaluation unit 334A calculates a relative evaluation score indicating how much the person indicated by the representative representative data is similar to the person photographed in the input image compared to the person indicated by the selected representative data. The other points are the same as those of the relative evaluation unit 334.
  • the relative evaluation unit 334A can use the same method for calculating the relative evaluation score as the relative evaluation unit 334. That is, the relative evaluation unit 334A can calculate the relative evaluation score by the method shown using FIG. 6 and FIG. In this case, the registered image representative data of the representative data registration information AVG corresponds to the feature quantity Y n in FIGS.
  • FIG. 18 is a flowchart illustrating the flow of face image registration processing in the face authentication device 1A.
  • Steps S10 and S11 are the same as those already described with reference to FIG.
  • the registered image representative data calculating unit 35 calculates registered image representative data using the face feature data of the registered image R and the face feature data extracted from the registration target image A2.
  • the face image registration process ends.
  • FIG. 19 is a flowchart illustrating the flow of face image authentication processing in the face authentication device 1A. Further, the flowchart shown in FIG. 19 is obtained by changing step S23 of the flowchart shown in FIG. 12 to step S23A.
  • Steps S20 to S22 are the same as already described with reference to FIG.
  • the attention representative data selection unit 332A selects registered image representative data of one registered person from the registered image representative data registered in the representative data registration information storage unit 22 as attention representative data, and selects other representative data.
  • the unit 333A selects registered image representative data of a representative person different from the registered person of the representative representative data as selection representative data, and the relative evaluation unit 334A performs relative evaluation between the representative representative data and the selected representative data.
  • a score is calculated (S23A).
  • the calculation of the relative evaluation score is executed for the registered image representative data of the remaining registered persons (S24).
  • the evaluation integrating unit 335 calculates the absolute evaluation score and the relative evaluation score. Integrate (S25).
  • the authentication result output unit 34 authenticates the input image A1 based on the integrated score output from the evaluation integration unit 335, and outputs the authentication result (S26). This completes the face image authentication process.
  • registered person information P1 (Mr. A), P2 (Mr. B), P3 (Mr. C), and P4 (Mr. D) are registered in the registered image database 21 as shown in FIG. It shall be. These registered person information P1 to P4 are the same as those shown in FIG.
  • representative data registration information AVG10 to AVG40 corresponding to registered person information P1 to P4 are registered in the representative data registration information storage unit 22, respectively.
  • the representative data registration information AVG10 to AVG40 are indicated by black circles.
  • the registered image representative data calculation unit 35 calculates the average value of the facial feature data of the registered image R of the registered person information P and the facial feature data of the registration target image A2 as registered image representative data. Therefore, as an example, the representative data registration information AVG10 includes the average value of the facial feature data of the registered images R11 to R13 as registered image representative data.
  • steps S20 to S22 are the same as those described with reference to FIGS. 12 to 15, and a description thereof will be omitted.
  • the relative evaluation unit 334A calculates a relative evaluation score between the representative representative data and the selected representative data.
  • the representative representative data is registered image representative data of the representative data registration information AVG10
  • the selected representative data is registered image representative data of the representative data registration information AVG20 to AVG40.
  • the relative evaluation unit 334A compares the registered image representative data of the representative data registration information AVG20, AVG30, and AVG40, which are selected representative data, with reference to the registered image representative data of the representative data registration information AVG10 that is the representative representative data. Do.
  • the relative evaluation unit 334A calculates the relative evaluation scores REL200, REL300, and REL400 based on the comparison result.
  • the relative evaluation unit 334A calculates the relative evaluation scores REL200, REL300, and REL400 for “Mr. B”, “Mr. C”, and “Mr. D” (S24).
  • the relative evaluation unit 334A calculates the relative evaluation score using the representative data registration information including the face feature data representing the plurality of registered images R registered for the person. It is.
  • the processing load when calculating the relative evaluation score can be reduced.
  • representative data of a plurality of registered persons different from the registered person of the representative representative data may be created.
  • representative data of the plurality of registered persons all other person representative data that is representative data of all registered persons may be created.
  • All other person representative data can be created by obtaining an average value of representative data of a plurality of registered persons different from the registered person of the representative representative data.
  • the other representative data selection unit 333A may select all the other representative data as the selected representative data.
  • the relative evaluation score can be calculated without performing projection for the number of registered persons different from the registered person of the representative representative data. .
  • the relative evaluation score can be calculated without creating identification spaces for the number of registered persons different from the registered person of the representative representative data.
  • this modification can be said to perform projection, distance calculation / similarity calculation, or creation of an identification space for a feature space of a plurality of registered persons different from the registered person of the representative representative data.
  • the registered image representative data calculation unit 35 may register the representative data registration information AVG as follows.
  • the registered image representative data calculation unit 35 compares the facial feature data of the registration target image A2 supplied from the facial feature data extraction unit 32 with the registered image database 21 to identify a registered person.
  • the registered image representative data calculation unit 35 calculates registered image representative data using the registered image R and the registration target image A2 registered for the specified person. Then, the registered image representative data calculation unit 35 associates the name (ID) of the identified person with the registered image representative data, and registers them in the representative data registration information storage unit 22 as representative data registration information AVG.
  • a representative face image is calculated for each registered person information P, and an absolute evaluation score is calculated based on the calculated representative face image.
  • the explanation will be focused mainly on the method for calculating the absolute evaluation score.
  • the face authentication apparatus 1B shown in FIG. 21 differs from the face authentication apparatus 1A described above in the following points.
  • the face authentication device 1B is obtained by changing the face authentication processing unit 33A to the face authentication processing unit 33B in the control unit 30 of the face authentication device 1A.
  • the face authentication processing unit 33B uses representative data registration information for calculating an absolute evaluation score.
  • the registered image is used to calculate the relative evaluation score.
  • FIG. 22 is a functional block diagram illustrating an example of a schematic configuration of the face authentication processing unit 33B.
  • the face authentication processing unit 33B is obtained by changing the absolute evaluation unit 331 to a representative data absolute evaluation unit (collation score calculating unit) 337 in the face authentication processing unit 33.
  • the representative data absolute evaluation unit 337 calculates the absolute evaluation score of the representative data by matching the input image with the representative data registration information.
  • the verification score calculation method of the representative data absolute evaluation unit 337 the same method as the absolute evaluation unit 331 can be used. That is, the representative data absolute evaluation unit 337 can calculate the relative evaluation score by the method shown using FIG. 4 and FIG. In this case, the registered image representative data of the representative data registration information AVG corresponds to the feature amount Y in FIGS.
  • the representative data absolute evaluation unit 337 supplies the calculated absolute evaluation score to the evaluation integration unit 335.
  • evaluation integration unit 335 is as described above except that the absolute evaluation score is supplied from the representative data absolute evaluation unit 337.
  • FIG. 23 is a flowchart illustrating the flow of face image authentication processing in the face authentication device 1A.
  • the flowchart shown in FIG. 23 is obtained by changing step S22 to step S22A in the flowchart shown in FIG.
  • Steps S20 and S21 are the same as those already described with reference to FIG.
  • step S22A the representative data absolute evaluation unit 337 performs matching between the input image and each representative data registration information, and calculates an absolute evaluation score (S22A).
  • representative data registration information AVG100 to AVG400 corresponding to registered person information P1 to P4 is registered in the representative data registration information storage unit 22, respectively.
  • the representative data registration information AVG100 to AVG400 are indicated by black circles.
  • the registered image representative data calculation unit 35 calculates the average value of the facial feature data of the registered image R of the registered person information P and the facial feature data of the registration target image A2 as registered image representative data. Therefore, as an example, the representative data registration information AVG100 includes the average value of the facial feature data of the registered images R11 to R13 as registered image representative data.
  • steps S20 and S21 are the same as described with reference to FIGS.
  • step S22A the representative data absolute evaluation unit 337 performs matching between the input image A1 and each of the representative data registration information AVG100 to AVG400, so that each of the representative data registration information AVG100 to AVG400 is Absolute evaluation scores ABS100 to ABS400 are calculated.
  • the representative data absolute evaluation unit 337 includes the input image A1 and registered image representative data that is face feature data representing a plurality of registered images R registered for a person.
  • the absolute evaluation score is calculated with the data registration information AVG.
  • the processing load when calculating the absolute evaluation score can be reduced.
  • the face authentication apparatus calculates a representative face image for each registered person information P, and calculates an absolute evaluation score and a relative evaluation score based on the calculated representative face image.
  • the face authentication device 1C shown in FIG. 25 differs from the face authentication device 1A described above in the following points.
  • the face authentication device 1C is obtained by changing the face authentication processing unit 33A to the face authentication processing unit 33C in the control unit 30 of the face authentication device 1A.
  • the configuration of the face authentication processing unit 33C will be described below.
  • FIG. 26 is a functional block diagram illustrating an example of a schematic configuration of the face authentication processing unit 33C.
  • the face authentication processing unit 33C is obtained by changing the absolute evaluation unit 331 to a representative data absolute evaluation unit 337 in the face authentication processing unit 33A.
  • the representative data absolute evaluation unit 337 is the same as the representative data absolute evaluation unit 337 of the face authentication processing unit 33B of the embodiment. Therefore, since the representative data absolute evaluation unit 337 has already been described, the description thereof is omitted here.
  • the face authentication processing unit 33C is configured to use the representative data registration information in both the absolute evaluation score and the relative evaluation score as described above.
  • the registered image representative data calculation unit 35 registers the representative data registration information separately for absolute evaluation score calculation and relative evaluation score calculation.
  • the registered image representative data calculation unit 35 calculates the average value of the facial feature data of the registered image R and the facial feature data of the registration target image A2 as registered image representative data.
  • the registered image representative data calculation unit 35 can calculate the facial feature data of the registered image R recently registered as registered image representative data.
  • the present invention is not limited to this, and a configuration opposite to the above may be used.
  • FIG. 27 is a flowchart illustrating the flow of face image authentication processing in the face authentication device 1C.
  • the flowchart shown in FIG. 27 is obtained by changing step S22 to step S22A in the flowchart shown in FIG.
  • Steps S20 and S21 are the same as those already described with reference to FIG.
  • step S22A the representative data absolute evaluation unit 337 performs matching between the input image and each representative data registration information for calculating the absolute evaluation score, and calculates an absolute evaluation score (S22A).
  • the attention representative data selection unit 332A selects the registered image representative data of one registered person as the attention representative data.
  • the other representative data selection unit 333A selects registered image representative data of a representative person different from the registered person of the representative representative data as the selected representative data, and the relative evaluation unit 334A selects the representative representative data, the selected representative data, and A relative evaluation score is calculated (S23A).
  • registered person information P1 to P4 is registered in the registered face image database as shown in FIGS. Further, as shown in FIG. 20, it is assumed that representative data registration information AVG10 to AVG40 for calculating a relative evaluation score is registered in the representative data registration information storage unit 22. Also, as shown in FIG. 24, it is assumed that representative data registration information AVG100 to AVG400 for absolute evaluation score calculation is registered in the representative data registration information storage unit 22.
  • step S22A the representative data absolute evaluation unit 337 performs matching between the input image A1 and each of the representative data registration information AVG100 to AVG400, whereby each of the representative data registration information AVG100 to AVG400 is determined. Absolute evaluation scores ABS100 to ABS400 are calculated.
  • step S23A the relative evaluation unit 334A calculates a relative evaluation score between the representative representative data and the selected representative data.
  • the relative evaluation score calculated by the relative evaluation unit 334A will be described as illustrated in FIG.
  • the representative representative data is registered image representative data of the representative data registration information AVG10
  • the selected representative data is registered image representative data of the representative data registration information AVG20 to AVG40.
  • the relative evaluation unit 334A uses the registered image representative data of the representative data registration information AVG10 that is the representative representative data as a reference, and the representative data registration information AVG20, AVG30 that is the selected representative data, and Comparison with each of the registered image representative data of the AVG 40 is performed.
  • the relative evaluation unit 334A calculates a relative evaluation score REL201, REL301, and REL401 based on the comparison result.
  • the relative evaluation unit 334A calculates the relative evaluation scores REL201, REL301, and REL401 for “Mr. B”, “Mr. C”, and “Mr. D” (S24).
  • the representative data absolute evaluation unit 337 calculates the absolute evaluation score between the input image A1 and the representative data registration information AVG, and the relative evaluation unit 334A uses the representative data registration information. In this configuration, a relative evaluation score is calculated using AVG.
  • the registered image representative data calculation unit 35 may be configured to calculate registered image representative data by using a part of the registered images registered. That is, the registered image representative data calculation unit 35 may calculate the registered image representative data by using a partial space of the registered image registered.
  • the registered image representative data calculation unit 35 may create registered image representative data by other methods (such as a statistical method or multivariate analysis).
  • the registered image representative data calculation unit 35 does not register the representative data registration information separately for absolute evaluation score calculation and relative evaluation score calculation, but in absolute evaluation score calculation and relative evaluation score calculation, Common representative data registration information may be used.
  • the evaluation integration unit 335 calculates the weighted average of the absolute evaluation score and the relative evaluation score in the calculation of the integration score.
  • the evaluation integration unit 335 performs the following process.
  • the weight w in the above equation (1) may be determined.
  • the weight w may be determined in advance, and the value of the weight w may be stored in the setting file in the storage unit 20. Then, the evaluation integration unit 335 may read the value of the weight w from the storage unit 20 and obtain a weighted average.
  • the weight w may be determined based on the registered number of registered images. That is, when the number of registered sheets is large, the absolute evaluation score weight w may be increased. On the other hand, the relative evaluation score weight w may be lowered when the number of registered sheets is small.
  • the weight w may be determined based on the difference between the status of registered data and the status of input data.
  • the registered image R is configured as a data structure including, as items, various types of information indicating the results of analyzing the face state, environment, and shooting conditions of the person when the shot image is shot.
  • the registered image R is configured as a data structure including items such as “face orientation”, “facial expression”, “smile degree”, “lighting condition”, and “light intensity”.
  • the registered image R may include “age”, “sex”, “how to open eyes”, and the like as other items.
  • the weight w of the absolute evaluation score may be increased.
  • the weight w of the relative evaluation score may be lowered.
  • the face of a person is an object to be registered and authenticated, but the present invention is not limited to this.
  • the entire person may be the target, or a vehicle or its license plate may be the target.
  • the object to be registered and authenticated may be an object capable of pattern recognition. Note that the object may be a part of another object. For example, when a certain object is a person, the face of a person who is a part of the object can also be used as the object.
  • Each block of the face authentication devices 1, 1A, 1B, and 1C may be configured by hardware logic, or may be realized by software using a CPU as follows.
  • the device includes a CPU (central processing unit) that executes instructions of a control program that implements each function, a ROM (read memory only) that stores the program, a RAM (random access memory) that expands the program,
  • a storage device (recording medium) such as a memory for storing programs and various data is provided.
  • An object of the present invention is to provide a recording medium on which a program code (execution format program, intermediate code program, source program) of a control program of the above apparatus, which is software that realizes the above-described functions, is recorded in a computer-readable manner, This can also be achieved by supplying to the apparatus and reading and executing the program code recorded on the recording medium by the computer (or CPU or MPU).
  • Examples of the recording medium include a tape system such as a magnetic tape and a cassette tape, a magnetic disk such as a floppy (registered trademark) disk / hard disk, and a CD-ROM / MO / MD / DVD / CD-R / Blu-ray disk (registered trademark). ) And the like, a card system such as an IC card (including a memory card) / optical card, or a semiconductor memory system such as a mask ROM / EPROM / EEPROM / flash ROM.
  • a tape system such as a magnetic tape and a cassette tape
  • a magnetic disk such as a floppy (registered trademark) disk / hard disk
  • a CD-ROM / MO / MD / DVD / CD-R / Blu-ray disk registered trademark
  • a card system such as an IC card (including a memory card) / optical card, or a semiconductor memory system such as a mask ROM / EPROM / EEPROM / flash ROM
  • the apparatus may be configured to be connectable to a communication network, and the program code may be supplied via the communication network.
  • the communication network is not particularly limited.
  • the Internet intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network, telephone line network, mobile communication network, satellite communication. A net or the like is available.
  • the transmission medium constituting the communication network is not particularly limited.
  • wired such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL line, etc.
  • infrared rays such as IrDA and remote control, Bluetooth (Registered trademark), 802.11 wireless, HDR, mobile phone network, satellite line, terrestrial digital network, and the like can also be used.
  • the present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.
  • the image collation apparatus is an image collation apparatus that collates an input image obtained by photographing an object to be collated with a registered image database.
  • the feature amount of the obtained image is registered as a registered image, and the registered image is registered for a plurality of objects, and using the feature amount of the input image and the feature amount of the registered image,
  • Collation score calculation means for calculating a collation score, which is a score indicating how close the object indicated by the registered image is to the object of the input image, and one object registered in the registered image database
  • a relative evaluation score calculating means for calculating a relative evaluation score, which is a score indicating how close to the object of the input image is to other objects, and the collation A core a structure comprising a combined score calculating means for calculating a total score obtained by weighting the above relative evaluation score, an image matching unit for matching of the input image based on the total score, the.
  • the image collation program according to the present invention is an image collation program for collating an input image obtained by photographing an object to be collated with a registered image database.
  • a feature amount of an image obtained by photographing an object is registered as a registered image, and the registered image is registered for a plurality of objects, and a feature amount of the input image, a feature amount of the registered image, and
  • a collation score calculating step for calculating a collation score, which is a score indicating how close the object indicated by the registered image is to the object of the input image, and is registered in the registered image database.
  • a relative evaluation score for calculating a relative evaluation score, which is a score indicating how close one object is to the object of the input image relative to another object.
  • a process including: a score calculating step; an integrated score calculating step for calculating an integrated score obtained by weighting the matching score and the relative evaluation score; and an image matching step for matching the input image based on the integrated score.
  • a score calculating step for calculating an integrated score obtained by weighting the matching score and the relative evaluation score
  • an image matching step for matching the input image based on the integrated score.
  • the image collating method according to the present invention is an image collating method in which an input image in which an object to be collated is photographed is collated with a registered image database.
  • the feature amount of the image obtained by shooting is registered as a registered image.
  • the registered image is registered for a plurality of objects, and the feature amount of the input image and the feature amount of the registered image are used.
  • a collation score calculating step for calculating a collation score which is a score indicating how close the object indicated by the registered image is to the object of the input image, and one registered in the registered image database.
  • Relative evaluation score calculation that calculates a relative evaluation score that is a score indicating how close the target object is to the target object of the input image relative to other target objects
  • An integrated score calculating step for calculating an integrated score obtained by weighting the step, the matching score, and the relative evaluation score, and an image matching step for matching the input image based on the integrated score.
  • the input image can be collated using an integrated score that includes a relative evaluation score indicating how close to the object of the input image is.
  • the above-mentioned object means an object that can recognize a pattern, such as a person and a car.
  • the object may be a part of a certain object. For example, there is a relationship between a person as an object and the face of a person who is a part of the object.
  • the feature amount of the image obtained by photographing the object is information for setting the image obtained by photographing the object as a comparison target for collation.
  • the feature amount may be an image itself in which the object is photographed, that is, a pixel value, or may indicate an appearance feature of the object extracted from the image.
  • the feature amount may be extracted from a single specific image obtained by photographing the target object, or may be extracted from a plurality of images obtained by photographing the target object.
  • such a feature amount is registered in the registered image database as a registered image.
  • the matching score is a score derived using the feature amount of the input image and the feature amount of the registered image.
  • the collation score is a so-called approximation degree indicating the degree of approximation between the object photographed in the input image and the object represented by the registered image. Therefore, in other words, the collation score is an absolute evaluation score that can be uniquely calculated with respect to the input image if a registered image to be score-calculated is determined.
  • the collation score is an approximation obtained by comparing the feature quantity of the object photographed in the input image with the feature quantity of the registered image.
  • the above-mentioned collation score indicates how close the registered image is to the input image with the input image as the center. For example, when the object is a person, the matching score tends to be a close score between those having similar appearances such as siblings.
  • the relative evaluation score is a relative score derived from a registered image of a certain object and a registered image of another object.
  • the relative evaluation score is derived by comparing a matching score between a registered image and an input image of a certain object with a matching score between a registered image and an input image of another object. It is a relative score between registered images of an object.
  • an integrated score obtained by integrating the matching score and the relative evaluation score is calculated.
  • This integrated score can be calculated by a predetermined calculation method, for example. Specifically, the integrated score can be obtained by arbitrarily weighting the matching score and the relative evaluation score.
  • the integrated score may be an average of the matching score and the relative evaluation score.
  • the weights for both are uniform.
  • the integrated score may be a weighted average of the matching score and the relative evaluation score.
  • the integrated score is a collation score, which is an index indicating the degree of approximation between the input image and the registered image, and the registered image of one target is the other target among registered images of a plurality of targets.
  • a relative evaluation score that is an index indicating how much the image is similar to the input image is combined.
  • the image collation method may be realized by a computer.
  • a computer-readable recording medium on which it is recorded also falls within the scope of the present invention.
  • the image collating apparatus further includes representative image registration means for registering, as a representative image, feature quantities representing a plurality of registered images registered for the same target object for each of the plurality of target objects. It is preferable.
  • a feature amount representing a plurality of registered images registered for the same object is registered as a representative image.
  • the representative image may represent a part of registered images among all registered images registered for the same object. For example, it may represent a registered image registered within a predetermined period.
  • the feature amount of the representative image may be derived from the feature amounts of a plurality of registered images registered for the same target object, for example.
  • the feature amount of the representative image may be an average value of the feature amounts of a plurality of registered images registered for the same target object.
  • the feature amount of the representative image may be a feature amount of a specific registered image selected from a plurality of registered images registered for the same target object.
  • the feature amount of the latest registered image registered recently can be used as the feature amount of the representative image.
  • the relative evaluation score calculating means uses the representative image, which is a registered image having a feature value representing a plurality of registered images registered for the object, to perform the relative evaluation. It is preferable to calculate a score.
  • the relative evaluation score is calculated using the representative image of one object and the representative image of another object.
  • the representative image is one registered image representing the object among a plurality of registered images registered for the object.
  • the processing load at the time of calculating the relative evaluation score can be reduced. That is, there is an advantage when the number of registered images is large.
  • the collation score calculating means includes the input image and a representative image that is a registered image having a feature amount representing a plurality of registered images registered for the object. It is preferable to calculate a matching score between them.
  • a matching score is calculated between the input image and the representative image. That is, according to the above configuration, a matching score is calculated for each target object using the representative image. For this reason, the processing load at the time of calculation of a collation score can be reduced. That is, there is an advantage when the number of registered images is large.
  • the relative evaluation score calculation means projects the input image onto the projection space in a projection space formed between the one object and the other object.
  • the degree of approximation between the projected point and the one object, or the ratio between the degree of approximation between the projection point and the one object, and the degree of approximation between the projection point and the other object Is preferably calculated as the relative evaluation score.
  • the relative evaluation score can be obtained by a technique using the feature space formed by the feature amount of the registered image of the object.
  • a projection point obtained by projecting the input image onto the projection space is obtained.
  • the projective space it is preferable to select a space in which the feature amounts of both registered images are well identified for two different objects.
  • the projection space is a straight line if it is one-dimensional and a plane if it is two-dimensional. That is, the one-dimensional projection space is a projection line, and the two-dimensional projection space is a projection plane.
  • the degree of approximation is calculated by examining the positional relationship between the projected point and the two objects.
  • the degree of approximation can be expressed as a distance such as a Euclidean distance or a Mahalanobis distance between a projection point and two objects.
  • the degree of approximation can be obtained by performing similarity calculation such as normalized correlation between the projection point and the two objects.
  • the degree of approximation is calculated as a relative evaluation score.
  • a ratio between the degree of approximation between the correlated object and the projection point and the degree of approximation between the other object and the projection point can be calculated as a relative evaluation score.
  • the relative evaluation score calculating means includes an approximation degree between the object of the input image and the one object, the object of the input image, and the other object. It is preferable to calculate the ratio between the degree of approximation and the relative evaluation score.
  • the relative evaluation score can be calculated by simple processing by obtaining the ratio.
  • the degree of approximation that has already been calculated can be used, which contributes to a reduction in processing load.
  • the relative evaluation score calculating means is configured to identify the object of the input image and the identification at an identification boundary formed between the one object and the other object. It is preferable to calculate the distance from the boundary as the relative evaluation score.
  • the relative evaluation score can be obtained by a method of forming an identification boundary in the feature space formed by the feature amount of the registered image of the object.
  • Examples of such methods include cluster analysis of feature quantities such as K-means method, Boosting (boosting), and SVM (support vector machine).
  • an identification boundary is configured between the one object and the other object by the cluster analysis as described above. And according to the said structure, the distance between the target object of the said input image and the said identification boundary is calculated as said relative evaluation score.
  • the integrated score calculation means calculates an average of the verification score and the relative evaluation score as the integrated score.
  • the object is a human face.
  • the input image is a face image obtained by photographing a person's face
  • the registered image database registers a face image obtained by photographing the person's face for each person.
  • an image processing system including the image collating device and an image input device that supplies the input image to the image collating device can be preferably configured.
  • image processing systems include those that process digital images, such as printers, scanners, personal computers, and digital cameras. It is also possible to adopt a configuration in which the image collating device and the image input device are connected by a communication network.
  • the present invention can be used for authentication of an object included in an image, it can be preferably used for a digital image device, a digital camera, a security system, and the like realized by a printer, a scanner, a personal computer, and the like. .
  • Face authentication device image verification device
  • image verification device 5 Image Input Device
  • A1 Input Image A11 Face Feature Data of Input Image 21 Registered Image Database 22
  • Representative Data Registration Information Storage Unit (Registered Image Database) 33, 33A, 33B, 33C Face authentication processing unit 34
  • Authentication result output unit image matching means 100 Face authentication system (image processing system) 331 Absolute evaluation unit (collation score calculation means) 332 Attention registration image selection section (relative evaluation score calculation means) 332A Attention representative data selection unit (relative evaluation score calculation means) 333 Other registered image selection unit (relative evaluation score calculation means) 333A
  • Other representative data selection unit (relative evaluation score calculation means) 334, 334A Relative evaluation unit (relative evaluation score calculation means) 335 evaluation integration unit (integrated score calculation means) 336
  • Representative data authentication score calculation unit Relative evaluation score calculation means) 337 Representative data absolute evaluation unit (collation score calculation means)
  • AVG representative data registration information (representative image) P Registered person information R Registered image

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Abstract

 人物の顔が撮影された入力画像(A1)を、顔特徴データを含む登録画像(R)が登録された登録画像データベース(21)と照合する顔認証装置(1)において、上記入力画像(A1)の顔特徴データ(A11)と、登録画像Rに含まれる顔特徴データとの間の絶対評価スコアを算出する絶対評価部(331)と、上記登録画像データベース(21)に登録されている一の人物が、他の人物に対して、どの程度、入力画像(A1)の人物と近似しているかを示す相対評価スコアを算出する相対評価部(334)と、絶対評価スコアと、相対評価スコアとを重み付けして統合した統合スコアを算出する評価統合部と、統合スコアに基づいて上記入力画像(A1)の照合を行う認証結果出力部(34)と、を備える。

Description

画像照合装置、画像処理システム、画像照合プログラム、コンピュータ読み取り可能な記録媒体、および画像照合方法
 本発明は、対象物が撮影された画像を画像データベースと照合する画像照合装置、画像処理システム、画像照合プログラム、コンピュータ読み取り可能な記録媒体、および画像照合方法に関する。
 従来、予め人物の顔が撮影された画像をデータベースに登録しておき、認証を行うべき人物の顔が撮影された画像の入力に応じて、入力された画像を、データベースの登録内容と比較することにより個人を識別して認証を行う顔認証技術が知られている。
 顔認証技術における認証処理について、例示的には、登録および認証の処理からなる。具体的に説明すると次のとおりである。
 まず、登録時において、人物の顔が撮影された画像から、その人物の顔の特徴を示す特徴量を抽出して登録しておく。一方、認証時には、入力された画像からこの特徴量が抽出される。また、入力された画像から抽出された特徴量がデータベースに登録されている特徴量と比較され認証スコアが算出される。そして、認証スコアを評価することで、入力された画像が、データベースに登録されているものと合致しているか否かが判定される。
 ここで、兄弟や親子等の関係にあるような似通った顔をしている人物が登録されている場合、これらの人物間において、近似の認証スコアが算出される傾向があるため、認証時に誤認証が生じやすくなることが知られている。つまり、単純に、入力画像と、データベースに登録されている人物の画像とを比較するだけであると、顔が似通った登録人物の間で誤認証を生じてしまう可能性がある。
 このような誤認証を防ぐために、様々な技術が提案されている。例えば、特許文献1には、顔が似ている人物の登録データをグルーピングし、認証スコアの評価において、それぞれのグループに応じた閾値を設定することが開示されている。
日本国公開特許公報「特開2003-141542号公報(公開日:2003年5月16日公開)」
 しかしながら、特許文献1に記載の技術では、適正な閾値の設定が困難である。例えば、兄弟のような似た人物同士で、近似の認証スコアが算出された場合、両者を区別できるように、予め閾値を設定しておくことは困難である。このため、閾値の設定は、試行錯誤のうえ、経験的に定めざるを得ない傾向がある。
 本発明は、上記問題を鑑みてなされたものであり、その目的は、入力画像とデータベースの登録画像との間の比較による評価と、それ以外の評価方法を、組み合わせることにより、認証精度を向上させることが可能な顔認証装置等を実現することにある。
 本発明に係る画像照合装置は、上記課題を解決するために、照合すべき対象物が撮影された入力画像を、登録画像データベースと照合する画像照合装置において、上記登録画像データベースでは、対象物を撮影して得られた画像の特徴量が登録画像として登録され、さらに、上記登録画像は複数の対象物について登録されており、上記入力画像の特徴量と、上記登録画像の特徴量とを用いて、上記登録画像が示す対象物が、どの程度上記入力画像の対象物と近似しているかを示すスコアである照合スコアを算出する照合スコア算出手段と、上記登録画像データベースに登録されている一の対象物が、他の対象物に対して、どの程度上記入力画像の対象物と近似しているかを示すスコアである相対評価スコアを算出する相対評価スコア算出手段と、上記照合スコアと、上記相対評価スコアとを重み付けした統合スコアを算出する統合スコア算出手段と、上記統合スコアに基づいて上記入力画像の照合を行う画像照合手段と、を備えることを特徴とする。
 本発明に係る画像照合プログラムは、上記課題を解決するために、照合すべき対象物が撮影された入力画像を、登録画像データベースと照合する画像照合プログラムであって、
 上記登録画像データベースでは、上記対象物を撮影して得られた画像の特徴量が登録画像として登録され、さらに、上記登録画像は複数の対象物について登録されており、上記入力画像の特徴量と、上記登録画像の特徴量とを用いて、上記登録画像が示す対象物が、どの程度上記入力画像の対象物と近似しているかを示すスコアである照合スコアを算出する照合スコア算出ステップと、上記登録画像データベースに登録されている一の対象物が、他の対象物に対して、どの程度上記入力画像の対象物と近似しているかを示すスコアである相対評価スコアを算出する相対評価スコア算出ステップと、上記照合スコアと、上記相対評価スコアとを重み付けした統合スコアを算出する統合スコア算出ステップと、上記統合スコアに基づいて上記入力画像の照合を行う画像照合ステップと、を含む処理をコンピュータに実行させることを特徴とする。
 本発明に係る画像照合方法は、上記課題を解決するために、照合すべき対象物が撮影された入力画像を、登録画像データベースと照合する画像照合方法において、上記登録画像データベースでは、上記対象物を撮影して得られた画像の特徴量が登録画像として登録され、さらに、上記登録画像は複数の対象物について登録されており、上記入力画像の特徴量と、上記登録画像の特徴量とを用いて、上記登録画像が示す対象物が、どの程度上記入力画像の対象物と近似しているかを示すスコアである照合スコアを算出する照合スコア算出ステップと、上記登録画像データベースに登録されている一の対象物が、他の対象物に対して、どの程度上記入力画像の対象物と近似しているかを示すスコアである相対評価スコアを算出する相対評価スコア算出ステップと、上記照合スコアと、上記相対評価スコアとを重み付けした統合スコアを算出する統合スコア算出ステップと、上記統合スコアに基づいて上記入力画像の照合を行う画像照合ステップと、を含むことを特徴とする。
 上記構成によれば、入力画像と対象物との間の照合スコアだけでなく、上記登録画像データベースに登録されている複数の対象物のうち、一の対象物が、他の対象物に対して、どの程度上記入力画像の対象物と近似しているかを示す相対評価スコアとを加味した統合スコアにより入力画像の照合を行うことができる。
 ここで、上記対象物とは、人物および車をはじめパターン認識可能な物体等のことをいう。なお、対象物とは、ある対象物の一部であってもよい。例えば、対象物で人物と、その対象物の一部である人物の顔の関係である。
 また、対象物を撮影した画像の特徴量とは、対象物を撮影した画像を照合のための比較対象とするための情報である。
 より具体的には、上記特徴量は、対象物が撮影されている画像そのもの、すなわち画素値でもよいし、当該画像から抽出された、対象物の外観的特徴を示すものであってもよい。
 また、上記特徴量は、対象物を撮影した、特定の一枚の画像から抽出したものであってもよいし、対象物を撮影した複数枚の画像から抽出したものであってもよい。
 上記構成では、このような特徴量を登録画像として登録画像データベースに登録しておく。
 また、照合スコアとは、入力画像の特徴量と登録画像の特徴量とを用いて導かれるスコアである。
 また、照合スコアは、入力画像に撮影されている対象物と、登録画像が表す対象物との近似の度合いを示す、いわゆる近似度のことである。よって、別の言い方をすれば、照合スコアは、スコア算出対象となる登録画像が定まれば、入力画像との間で一意に算出することができる絶対的な評価スコアである。
 この場合、より具体的には、照合スコアは、入力画像に撮影されている対象物の特徴量と、登録画像の特徴量とを比較することにより得られる近似度である。
 つまり、上記照合スコアは、入力画像を中心として、登録画像が入力画像とどの程度近似しているか示すものであるということもできる。照合スコアは、例えば、対象物が人物であるとき、兄弟のような似た容姿を持つもの同士の間では、近いスコアとなる傾向がある。
 これに対して、相対評価スコアは、ある対象物の登録画像と他の対象物の登録画像とから導出される相対的なスコアである。例えば、相対評価スコアは、ある対象物の登録画像および入力画像の間における照合スコアと、他の対象物の登録画像および入力画像の間における照合スコアとを相互に比較することにより導かれる複数の対象物の登録画像間における相対的なスコアである。
 つまり、相対評価スコアから、ある対象物の登録画像が、他の対象物の登録画像に比べて、どれくらい入力画像に似ているかを把握することができる。
 さらに、照合スコアと相対評価スコアとを統合した統合スコアを算出する。この統合スコアは、例えば、所定の計算手法により算出することができる。統合スコアは、具体的には、照合スコアおよび相対評価スコアを任意に重み付けして得ることができる。
 例えば、統合スコアは、照合スコアおよび相対評価スコアの平均であってもよい。この場合、両者に対する重み付けは、均一になる。
 また、例えば、統合スコアは、照合スコアおよび相対評価スコアの重み付け平均であってもよい。
 以上のように、統合スコアは、入力画像と登録画像との近似度を示す指標である照合スコアに、複数の対象物の登録画像間で、一の対象物の登録画像が、他の対象物の登録画像に比べて、どれくらい入力画像に似ているかを示す指標である相対評価スコアを組み合わせたものになっている。
 このような、統合スコアを用いて認証を行うので、照合スコアしか用いずに照合を行う場合に判断を誤ってしまうような、似た対象物に対する識別率を向上させることができる。
 また、上記画像照合方法は、コンピュータによって実現してもよく、この場合には、コンピュータに上記各ステップを含む処理を実行させることにより、画像照合方法の各ステップをコンピュータにて実現させる画像照合プログラムおよびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
 本発明に係る画像照合装置は、登録画像データベースに、対象物を撮影して得られた画像の特徴量が登録画像として登録され、さらに、上記登録画像は複数の対象物について登録されており、入力画像の特徴量と、上記登録画像の特徴量とを用いて、上記登録画像が示す対象物が、どの程度上記入力画像の対象物と近似しているかを示すスコアである照合スコアを算出する照合スコア算出手段と、上記登録画像データベースに登録されている一の対象物が、他の対象物に対して、どの程度上記入力画像の対象物と近似しているかを示すスコアである相対評価スコアを算出する相対評価スコア算出手段と、上記照合スコアと、上記相対評価スコアとを重み付けした統合スコアを算出する統合スコア算出手段と、上記統合スコアに基づいて上記入力画像の照合を行う画像照合手段と、を備える構成である。
 また、本発明に係る画像照合プログラムは、登録画像データベースに、対象物を撮影して得られた画像の特徴量が登録画像として登録され、さらに、上記登録画像は複数の対象物について登録されており、入力画像の特徴量と、上記登録画像の特徴量とを用いて、上記登録画像が示す対象物が、どの程度上記入力画像の対象物と近似しているかを示すスコアである照合スコアを算出する照合スコア算出ステップと、上記登録画像データベースに登録されている一の対象物が、他の対象物に対して、どの程度上記入力画像の対象物と近似しているかを示すスコアである相対評価スコアを算出する相対評価スコア算出ステップと、上記照合スコアと、上記相対評価スコアとを重み付けした統合スコアを算出する統合スコア算出ステップと、上記統合スコアに基づいて上記入力画像の照合を行う画像照合ステップと、を含む処理をコンピュータに実行させることを特徴とする。
 また、本発明に係る画像照合方法は、登録画像データベースでは、対象物を撮影して得られた画像の特徴量が登録画像として登録され、さらに、上記登録画像は複数の対象物について登録されており、入力画像の特徴量と、上記登録画像の特徴量とを用いて、上記登録画像が示す対象物が、どの程度上記入力画像の対象物と近似しているかを示すスコアである照合スコアを算出する照合スコア算出ステップと、上記登録画像データベースに登録されている一の対象物が、他の対象物に対して、どの程度上記入力画像の対象物と近似しているかを示すスコアである相対評価スコアを算出する相対評価スコア算出ステップと、上記照合スコアと、上記相対評価スコアとを重み付けした統合スコアを算出する統合スコア算出ステップと、上記統合スコアに基づいて上記入力画像の照合を行う画像照合ステップと、を含むことを特徴とする。
 このように、統合スコアを用いて認証を行うので、照合スコアしか用いずに照合を行う場合に判断を誤ってしまうような、似た対象物に対する識別率を向上させることができる。
 本発明のさらに他の目的、特徴、および優れた点は、以下に示す記載によって十分わかるであろう。また、本発明の利益は、添付図面を参照した次の説明で明白になるであろう。
本発明の一実施形態に係る顔認証装置が備える顔認証処理部の概略的構成の一例を示す機能ブロック図である。 本発明の一実施形態に係る顔認証装置を含む顔認証システムの構成例を示すブロック図である。 本発明の一実施形態に係る登録人物情報のデータ構造の例を示す図である。 特徴空間における距離計算により絶対評価スコアを算出する例を示す図である。 特徴空間における近似度計算により絶対評価スコアを算出する例を示す図である。 特徴空間における距離計算により相対評価スコアを算出する例を示す図である。 特徴空間における近似度計算により相対評価スコアを算出する例を示す図である。 特徴空間における距離計算により相対評価スコアを算出する他の例を示す図である。 特徴空間における近似度計算により相対評価スコアを算出する他の例を示す図である。 特徴空間におけるクラスタリング解析により相対評価スコアを算出する例を示す図である。 上記顔認証装置における顔画像登録処理の流れについて例示したフローチャートである。 上記顔認証装置における顔画像認証処理の流れについて例示したフローチャートである。 本実施形態に係る登録画像データベースにおいて、登録されている登録人物情報について示す図である。 上記登録画像データベースの登録人物情報に基づいて、絶対評価スコアを算出する場合について示す図である。 上記登録画像データベースの登録人物情報に基づいて、相対評価スコアを算出する場合について示す図である。 本発明の他の実施形態に係る顔認証装置を含む顔認証システムの構成例を示すブロック図である。 上記顔認証装置が備える顔認証処理部の概略的構成の一例を示す機能ブロック図である。 上記顔認証装置における顔画像登録処理の流れについて例示したフローチャートである。 上記顔認証装置における顔画像認証処理の流れについて例示したフローチャートである。 本実施形態に係る登録画像データベースの登録人物情報に基づいて、相対評価スコアを算出する場合について示す図である。 本発明のさらに他の実施形態に係る顔認証装置を含む顔認証システムの構成例を示すブロック図である。 上記顔認証装置が備える顔認証処理部の概略的構成の一例を示す機能ブロック図である。 上記顔認証装置における顔画像認証処理の流れについて例示したフローチャートである。 本実施形態に係る登録画像データベースの登録人物情報に基づいて、絶対評価スコアを算出する場合について示す図である。 本発明のさらに他の実施形態に係る顔認証装置を含む顔認証システムの構成例を示すブロック図である。 上記顔認証装置が備える顔認証処理部の概略的構成の一例を示す機能ブロック図である。 上記顔認証装置における顔画像認証処理の流れについて例示したフローチャートである。
 〔実施形態1〕
 本発明の一実施形態について図1~図15を参照して説明する。まず、図2を用いて、顔認証システムについて説明すると次のとおりである。図2に示すとおり、顔認証システム(画像処理システム)100は、顔認証装置(画像照合装置)1および画像入力装置5を備える構成である。
 顔認証装置1は、画像入力装置5から入力された画像を認証する装置である。顔認証装置1における認証処理には、「顔画像登録処理」および「顔画像認証処理」の2つの段階が含まれる。まず、第1段階の「顔画像登録処理」において、顔認証装置1に、認証に用いる画像を登録しておく。そして、第2段階の「顔画像認証処理」において、入力された画像と、登録されている画像とを照合して認証を行う。
 なお、以下において、“認証”の用語は、例示的に、入力された画像に撮影されている人物の顔と、登録されているいずれかの画像に撮影されている人物の顔とが一致するか否かを照合して、これにより人物を特定する処理のことを意味することとする。
 画像入力装置5は、人物の顔が撮影された撮影画像を顔認証装置1に入力する装置である。画像入力装置5は、例えば、被写体である人物の顔を撮影して画像を生成するデジタルカメラ等により実現することができる。
 なお、以下、撮影画像には、人物の顔が撮影されていることとするが、撮影の被写体は、人物の顔に限られない。すなわち、対象となる被写体は、任意に選択可能である。また、以下、必要に応じて、「顔画像登録処理」において、登録のために顔認証装置1に入力する撮影画像を、“登録対象画像A2”と称する。また、「顔画像認証処理」において、認証の対象とするために顔認証装置1に入力する撮影画像を、“入力画像A1”と称する。また、“入力画像A1”と、“登録対象画像A2”とをとくに区別する必要が無い場合には、単に“撮影画像”と称する。
 また、顔認証システム100では、顔認証装置1と画像入力装置5とが同一の筐体中に配備さていてもよいし、別々の筐体として構成されていてもよい。また、顔認証装置1と画像入力装置5との間の接続形式について特に制限はなく、例えば、有線方式であってもよいし、無線方式であってもよい。
  (顔認証装置)
 図2を用いて、顔認証装置1の各種構成について説明すると次のとおりである。図2に示すとおり、顔認証装置1は、操作部11、表示部12、記憶部20および制御部30を備える構成である。
 操作部11は、ユーザから各種の入力を受け付けるものであり、例えば、入力用ボタン、キーボード、テンキー、マウスなどのポインティングデバイス、タッチパネル、その他の入力デバイスによって実現できる。操作部11は、受け付けたユーザの操作に応じて操作データを生成し、生成した操作データを制御部30に送信する。
 表示部12は、ユーザに対して、情報提供を行うための画面表示を行うものである。表示部12は、制御部30から受信した画面データに基づいて、表示画面に文字や画像などの各種の情報を表示する。表示部12は、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、EL(Electroluminescence)ディスプレイなどの表示装置によって実現可能である。
 記憶部20は、各種データおよびプログラムを記憶するものである。記憶部20は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、および不揮発性メモリ(例えばフラッシュメモリ)等の記憶装置を組み合わせることにより実現することができる。なお、記憶部20に記憶される各種データの詳細については後述する。
 制御部30は、顔認証装置1における各種機能を統括的に制御するものである。制御部30の制御機能は、制御プログラムをCPU(Central Processing Unit)などの処理装置が実行することによって実現される。例えば、制御部30は、認証処理を実行する機能を備えている。なお、制御部30が認証処理を実行するための構成については後述する。
  (記憶部の詳細について)
 次に、図2および図3を用いて、記憶部20の詳細について説明する。図2に示すとおり、記憶部20は、登録画像データベース21を備える構成である。
 登録画像データベース21は、認証に用いる画像を人物ごとに登録しておくためのものである。登録画像データベース21の登録内容について、より具体的に例示すると、次のとおりである。
 まず、図2に示すように、登録画像データベース21には、複数の登録人物情報Pが登録される。
 ここで、図3を用いて登録人物情報Pの詳細について説明すると次のとおりである。図2は、登録人物情報Pのデータ構造の例を示す図である。
 図3に例示するように、登録人物情報Pには、登録人物の名前(ID)が付されて識別可能となっている。また、登録人物情報Pには、1または複数の登録画像Rが登録される。なお、以下では、例示的に、複数の登録画像Rが登録されているものとして説明する。
 登録画像Rは、認証に用いる画像およびその関連情報を含むものであり、具体的には、識別情報、撮影画像および顔特徴データを含むデータ構造である。
 識別情報は、登録画像Rを識別するための情報が格納される。識別情報には任意のものを用いることができる。例えば、識別情報として、登録画像Rのファイル名を採用することができる。
 撮影画像には、「顔画像登録処理」において入力される登録対象画像A2が格納される。なお、撮影画像には、登録対象画像A2そのものを登録してもよいし、登録対象画像A2のサムネイルなどを格納してもよい。また、撮影画像には、登録対象画像A2を加工した画像、例えば、フィルタ処理等の画像処理を施した画像を格納してもよい。
 また、撮影画像は、登録人物情報Pのデータ構造から省略することも可能である。すなわち、登録画像Rには、以下に説明する「顔特徴データ」を導出することができる情報と、識別情報とが含まれていればよい。顔特徴データと、識別情報とがあれば、入力画像の顔認証を行うことができ、これにより入力画像が誰かを特定することができる。
 顔特徴データには、撮影画像に含まれる人物の顔の特徴を示す特徴量が格納される。特徴量とは、撮影画像に含まれる人物の顔において、顔全体や、目、鼻、口と認められる部位を定量化したものである。特徴量の例としては、輝度情報、周波数特性情報、および上記各部位の形状、位置、大きさ等を数値化した情報が挙げられる。
 なお、登録画像Rは、撮影画像を撮影したときの人物の顔の状態や、環境、撮影条件を解析した結果を示す各種の情報を項目として含むデータ構造であってもよい。
 例えば、登録画像Rは、「顔の向き」、「顔の表情」、「笑顔度」、「照明条件」、および「射光度」等の項目を含んでいてもよい。他にも項目として、「年齢」、「性別」、「目の開き方」等を採用することが可能である。
  (制御部の詳細について)
 次に、図2を用いて、制御部30の詳細について説明する。図2に示すように、制御部30は、画像取得部31、顔特徴データ抽出部32、顔認証処理部33、および認証結果出力部(画像照合手段)34を備える。
 制御部30が備える各部は、顔認証装置1における認証処理に含まれる「顔画像登録処理」と、「顔画像認証処理」とを実現している。
 「顔画像登録処理」は、画像取得部31、および顔特徴データ抽出部32により実現される。
 「顔画像認証処理」は、画像取得部31、顔特徴データ抽出部32、顔認証処理部33および認証結果出力部34により実現される。
 なお、図2において、各部を結ぶ破線矢印は、「顔画像登録処理」におけるデータ・制御等の流れを示しており、各部を結ぶ実線矢印は、「顔画像認証処理」におけるデータ・制御等の流れを示している。
 以下、制御部30が備える各部について個別に説明していくと次のとおりである。
 画像取得部31は、操作部11における入力操作に応じて、画像入力装置5から登録対象画像A2を取得するものである。画像取得部31は、取得した登録対象画像A2を顔特徴データ抽出部32に転送する。
 画像取得部31は、「顔画像登録処理」においては、操作部11において入力される名前(ID)を取得して、登録対象画像A2を、取得した名前(ID)に関する登録人物情報Pの登録画像Rとして登録画像データベース21に登録するとともに、顔特徴データ抽出部32に転送する。
 なお、画像取得部31は、登録対象となる登録画像Rに識別情報を割り当てて登録画像データベース21に登録する。画像取得部31は、識別情報を自動的に生成して登録画像Rに割り当ててもよいし、操作部11において入力された識別情報を取得して登録画像Rに割り当ててもよい。
 また、登録対象画像A2に撮影されている人物がすでに登録画像データベース21に登録されている場合、登録画像データベース21に登録されている登録画像に基づいて認証処理を行い自動的に登録人物を特定するように構成してもよい。
 また、画像取得部31は、「顔画像認証処理」においては、入力画像A1を、顔特徴データ抽出部32に転送する。
 顔特徴データ抽出部32は、撮影画像に含まれる人物の顔を解析することにより、顔の各部位の特徴量である顔特徴データを抽出するものである。顔特徴データ抽出部32は、「顔画像登録処理」においては、登録対象画像A2から抽出した顔特徴データを、登録対象の登録画像Rの顔特徴データに格納する。
 また、顔特徴データ抽出部32は、「顔画像認証処理」においては、入力画像A1の顔特徴データを、顔認証処理部33に転送する。
 顔認証処理部33は、入力画像と、登録画像とのマッチングおよび登録画像同士の評価を行うことにより、両者の近似の度合いを示す統合スコアを算出するものである。顔認証処理部33の詳細については後述する。
 認証結果出力部34は、顔認証処理部33が算出する統合スコアに基づいて入力画像A1の認証を行って、その認証結果を表示部12に出力するものである。認証結果出力部34は、認証結果として、特定した人物の名前を出力してもよいし、これとともに代表的な撮影画像を出力してもよい。
  (顔認証処理部)
 次に、図1を用いて、顔認証処理部33の詳細について説明する。図1は、顔認証処理部33の概略的構成の一例を示す機能ブロック図である。
 図1に示すように、顔認証処理部33は、絶対評価部(照合スコア算出手段)331、注目登録画像選択部(相対評価スコア算出手段)332、他登録画像選択部(相対評価スコア算出手段)333、相対評価部(相対評価スコア算出手段)334、および評価統合部(統合スコア算出手段)335を備える。
 絶対評価部331は、入力画像と、登録画像との間でマッチングを行うことで、入力画像と、登録画像との近似の度合いを示す照合スコアを算出する。以下では、絶対評価部331が算出する照合スコアのことを、“絶対評価スコア”と称する。なお、照合スコアの算出には、任意の手法が採用可能である。
 照合スコアの算出手法としては、例えば、(1)線形/非線形射影手法(Linear/nonlinear projection methods)、(2)ニューラルネットワーク(Neural network)、(3)ガボールフィルタおよびウェーブレット変換(Gabor filters and wavelets)、(4)ブースティング(Boosting)等の手法が挙げられる。
 (1)線形/非線形射影手法としては、より具体的には、PCA(主成分分析)、LDA(線形判別分析)、カーネル法を用いたPCA(KPCA)、LDA(KLDA)などが挙げられる。なお、PCA(主成分分析)には、固有顔を用いる方法や、部分空間法などがある。また、PCAとLDAとを組み合わせた手法を採用することも可能である。
 また、(3)ガボールフィルタおよびウェーブレットとしては、EBGM(Elastic bunch graph matching method)や、HMM(Hidden Markov Model)などが知られている。
 また、(4)ブースティングとしては、AdaBoost、LogitBoost、および多クラスのBoostingなどが知られている。
 この他、照合スコアの算出手法として、K-NN法(k-nearest neighbor)などの手法も採用可能である。
 絶対評価部331は、具体的には、顔特徴データ抽出部32から供給される入力画像の顔特徴データA11と、登録人物情報Pの登録画像Rに含まれる顔特徴データとのマッチングを行うことで絶対評価スコアを算出する。また、絶対評価部331は、算出した絶対評価スコアを、評価統合部335に供給する。
 注目登録画像選択部332は、登録画像データベース21に登録されている登録画像から、相対評価部334がスコアの評価の基準とする登録画像である注目登録画像を選択する。
 他登録画像選択部333は、登録画像データベース21に登録されている登録画像から、注目登録画像の登録人物とは異なる登録人物の登録画像である選択登録画像を、注目登録画像の比較対象として選択する。
 相対評価部334は、注目登録画像を基準に、選択登録画像との比較を行うことにより、注目登録画像と選択登録画像との間における相対的な関係性を評価する。
 そして、相対評価部334は、注目登録画像が、各選択登録画像と比べて、入力画像とどの程度似ているかを示す相対評価スコアを算出する。この相対評価スコアは、例えば、注目登録画像および選択登録画像について距離計算や類似度計算を行い、算出した距離や類似度の比を計算することにより得ることができる。また、相対評価スコアは、例えば、注目登録画像と選択登録画像との間に構成される識別空間からの距離を計算することにより得ることができる。これらの詳細については、後に詳しく説明する。
 また、相対評価部334は、算出した相対評価スコアを評価統合部335に供給する。
 評価統合部335は、絶対評価部331が算出した絶対評価スコアと、相対評価部334が算出した相対評価スコアとを統合した統合スコアを算出する。
 評価統合部335は、例えば、絶対評価スコアと、相対評価スコアとを重み付け平均することで統合スコアを算出する。
 また、評価統合部335は、統合スコアの算出において、絶対評価スコアと、相対評価スコアとのどちらかを選択してもよい。すなわち、評価統合部335は、重み付け平均の計算において、絶対評価スコアおよび相対評価スコアのいずれか一方の重み付けを「0」としてもよい。
 また、評価統合部335は、統合スコアの算出において、絶対評価スコアと、相対評価スコアとの平均を算出してもよい。この場合、データにばらつきがあるときにおけるデータの偏りを均すことができるため、認証精度の向上を図ることができる。
  (絶対評価スコアについて)
 次に、図4および図5を用いて、絶対評価部331における絶対評価スコアの具体的な算出手法について説明すると次のとおりである。図4および図5は、顔特徴データに含まれる特徴量の集合によって定義される特徴空間を示している。
 図4および図5に示す特徴空間Aは、登録人物情報Pについての特徴量Yによって定義される空間である。
 すなわち、以下に示す例では、登録人物情報Pの各登録画像Rに含まれる顔特徴データが、特徴量Yに対応している。図4および図5に示す符号Xは、照合の対象となる特徴量である(以下、照合特徴量Xと称する)。
 このとき、絶対評価スコアは、例えば、以下に示すような距離計算、または、類似度計算により算出することができる。
 まず、図4を用いて距離計算の例について説明する。図4に示す距離計算では、照合特徴量Xと、特徴空間Aにおける特徴量Yとの間の距離Dを、ユークリッド距離や、マハラノビス距離などの距離計算により算出して、この距離Dを絶対評価スコアとする。
 続いて、図5を用いて類似度計算の例について説明する。図5に示す類似度計算では、正規化相関を求める。すなわち、Y-O-Xのなす角度θに基づいて、類似度D’=cosθを算出して、算出した類似度D’を絶対評価スコアとする。
 入力画像と、登録画像と近似の度合いは、このようにして算出される絶対評価スコアにより規定される。つまり、ある登録画像と、他の登録画像が、どの程度入力画像と近似しているかは、絶対評価スコアの大小を比較することに判定することが可能である。
 以上のように、絶対評価スコアの算出手法にはいくつか候補が挙げられるが、以下では、主に上記類似度のことを、近似の度合い、すなわち近似度の定義であるとして説明する。
  (相対評価スコアについて)
 相対評価部334における相対評価スコアの具体的な算出手法について説明すると次のとおりである。
 注目登録画像が、各選択登録画像と比べて、入力画像とどの程度似ているかは、以下の手法1~3にて算出される相対評価スコアにて規定される。絶対評価スコアと同様、相対評価スコアの大小を比較することで、近似の度合いを判定することが可能である。
  [手法1] 図6および図7を用いて、さらに相対評価部334における相対評価スコアの具体的な算出手法の一例について説明すると次のとおりである。図6および図7は、顔特徴データに含まれる特徴量の集合によって定義される特徴空間を示している。
 図6および図7に示す特徴空間AP1は、登録人物情報P1についての特徴量Yによって定義される空間であり、特徴空間AP2は、登録人物情報P2についての特徴量Yによって定義される空間である。
 図6および図7に示す照合特徴量Xは、図4および図5を用いて示したものと同様であるので、ここではその説明を省略する。
 また、相対評価スコアは、距離計算、または、類似度計算により算出することができる。この距離計算では、絶対評価スコアの場合と同様、ユークリッド距離や、マハラノビス距離などを計算する。また、類似度計算では、絶対評価スコアの場合と同様、正規化相関を求める。
 このように、相対評価スコアの算出において、距離計算、または、類似度計算を行う点では、絶対評価スコアの場合と共通している。
 以下に示す手法1では、距離計算における距離のとり方や、類似度計算における角度のとり方が、以上に示した絶対評価スコアのものと異なる。
 まず、図6を用いて距離計算の例について説明する。図6に示す距離計算では、まず、ある登録人物情報P1と、別の登録人物情報P2との特徴量の識別がよくなる射影空間AXを求める。
 例えば、射影空間AXは、特徴空間において、注目登録画像の人物(Aさん)と、選択登録画像の人物(Bさん)とを識別できるように求められた空間である。図6および図7では、図示のため、射影空間AXを特徴量Yおよび特徴量Yを結ぶ直線として表しているが、実際には、射影空間AXは任意次元の空間である。
 なお、射影空間は1次元であれば直線に、2次元であれば平面となる。つまり、1次元の射影空間は射影直線、2次元の射影空間は射影平面となる。
 より詳しくいえば、射影空間AXは、例えば、特徴空間AP1の特徴量Yと、特徴空間AP2の特徴量Yとを結ぶ直線であってもよい。また、射影空間AXは、線形または非線形判別分析から求めてもよい。
 そして、照合対象特徴量Xを、射影空間AXに対して射影した射影点Zを求める。図6および図7において、点線矢印PRJは、照合対象特徴量Xの射影空間AXへの射影を表している。さらに、図6に示す、特徴量Yと射影点Zとの間の距離Dおよび特徴量Yと射影点Zとの間の距離Dを算出する。
 ここで、距離Dの値そのものを、登録人物情報P1について、すなわち特徴量Yについての相対評価スコアとしてもよい。
 また、これに限られず、相対評価スコアは、例えば、算出したDおよびDから次のようにして求めてもよい。すなわち、D/Dや、D/(D+D)のような比を求めて、相対評価スコアとしてもよい。また、このようにして求めた比の対数、指数を相対評価スコアとしてもよい。
 また、相対評価スコアとして、他の登録人物情報についても同様に、上述した手法により相対評価スコアを算出して、最終的には算出した相対評価スコアを合算し、合算した相対評価スコアの平均をとってもよい。
 続いて、図7を用いて類似度計算の例について説明する。図7に示す類似度計算では、次の手順により相対評価スコアを算出する。
 まず、照合対象特徴量Xを、射影空間AXに対して射影した射影点Zを求める点については図6を示した場合と同様である。
 類似度計算では、さらに、Y-O-Zのなす角θと、Y-O-Zのなす角θとを求める。そして、類似度D’=cosθおよび類似度D’=cosθを算出する。
 ここで、距離計算の場合と同様、距離D’の値そのものを、登録人物情報P1について、すなわち特徴量Yについての相対評価スコアとしてもよい。また、距離計算の場合と同様、類似度D’およびD’の比や、その対数等を相対評価スコアとしてもよい。また、距離計算の場合と同様、上述のような合算により求めた相対評価スコアの平均をとってもよい。
   [手法2] 図8および図9を用いて、さらに相対評価部334における相対評価スコアの具体的な算出手法の他の例について説明すると次のとおりである。手法2では、図4および図5に示した絶対評価スコアの算出を2つの特徴空間について行うことで、2つの特徴空間の間の相対評価スコアを算出する。例えば、以下に示すような距離計算、または、類似度計算により算出することができる。
 まず、図8を用いて距離計算の例について説明する。図8に示す距離D、およびDは、図4に示した距離計算を特徴量YおよびYのそれぞれに適用することで算出することができる。
 そして、図8に示す距離計算では、上述の距離D、およびDに基づいて、D/Dや、D/(D+D)のような比を求めて、相対評価スコアとする。また、これに限られず、相対評価スコア算出の変形例としては次のようなものが挙げられる。すなわち、このようにして求めた比の対数、指数を相対評価スコアとしてもよい。また、相対評価スコアとして、他の登録人物情報についても同様に、上述した手法により相対評価スコアを算出して、最終的には算出した相対評価スコアを合算し、合算した相対評価スコアの平均をとってもよい。
 続いて、図9を用いて類似度計算の例について説明する。図9に示す類似度D’、およびD’は、図5に示した類似度計算を特徴量YおよびYのそれぞれに適用することで算出することができる。
 すなわち、図9に示す類似度計算では、Y-O-Xのなす角θと、Y-O-Xのなす角θとを求める。そして、類似度D’=cosθおよび類似度D’=cosθを算出する。さらに、上述の類似度D’、およびD’に基づいて、手法1で説明したような比を求めて相対評価スコアとする。
 なお、これに限られず、手法1で説明したように、求めた比の対数等を相対評価スコアとしてもよい。
   [手法3] 図10を用いて、相対評価部334における相対評価スコアの具体的な算出手法のさらに他の例について説明すると次のとおりである。
 上述のとおり、相対評価スコアとは選択登録画像に対して、注目登録画像が入力画像とどれだけ近いのかを示したスコアである。
 よって、図10に例示するように、選択登録画像と、注目登録画像をクラスタ解析し、入力画像がどちらのクラスにどれだけ近いかを判定することで相対評価スコアを算出することもできる。図10は、クラスタ解析によって、特徴空間AP1と特徴空間AP2とを分ける識別境界Bを求めた例を示している。具体的には次のとおりである。
 まず、例えば、K-means法、Boosting(ブースティング)、およびSVM(サポートベクターマシーン)などの手法を用いることで、特徴量のクラスタリングを行って、識別境界Bにより識別される識別空間を求める。なお、識別境界は、任意次元の空間であり、1次元であれば直線に、2次元であれば平面となる。また、識別境界は、非線形であってもよい。
 そして、識別空間をもとに入力されたデータ(特徴量X)と特徴量Yの類似度を算出する。この類似度は、例えば、特徴量Xの識別境界Bからの距離Dを求めることで得ることができる。
 同様に、特徴量Yや、その他の特徴量Yに対しても識別空間を作成し、特徴量Yの類似度を求めて、最終的に求めた類似度を合算し、平均したものを相対評価スコアとして算出する。
   [その他] 相対評価スコアは、絶対評価部331が各登録画像Rについて算出した絶対評価スコアを用いた比であってもよい。
 以上のように、相対評価スコアの算出手法にはいくつか候補が挙げられるが、以下では、絶対評価スコアの場合と同様、主に上記類似度のことを、近似の度合い、すなわち近似度の定義であるとして説明する。
  (顔画像登録処理の流れ)
 次に、図11を用いて、ある人物の顔を撮影した撮影画像を登録対象画像として登録する顔画像登録処理の流れの一例について説明する。図11は、顔認証装置1における顔画像登録処理の流れについて例示したフローチャートである。
 図11に示すように、顔画像登録処理では、まず顔認証装置1の画像取得部31が画像入力装置5から登録対象画像A2を取得する(S10)。
 続いて、顔特徴データ抽出部32が、登録対象画像A2を解析して、登録対象画像A2に含まれる人物の顔に関する顔特徴データを抽出する。顔特徴データ抽出部32は、抽出した顔特徴データを登録画像Rに格納する(S11)。
 ここで、顔認証装置1は、「撮影画像」に登録対象画像A2を格納し、「顔特徴データ」に抽出した顔特徴データを格納した登録画像Rを、登録画像データベース21に登録する。なお、画像取得部31は、例示的に、登録人物情報Pの名前(ID)を、操作部11における入力から取得する。また、画像取得部31は、登録画像の識別情報を自動生成する。以上で、顔画像登録処理は終了する。
  (顔画像認証処理の流れ)
 次に、図12を用いて、ある人物の顔を撮影した撮影画像を入力画像として認証する顔画像認証処理の流れについて説明する。図12は、顔認証装置1における顔画像認証処理の流れについて例示したフローチャートである。
 図12に示すように、顔画像認証処理においては、画像取得部31が、画像入力装置5から入力される入力画像A1を取得する(S20)と、入力画像A1を顔特徴データ抽出部32に転送する。
 次に、顔特徴データ抽出部32は、入力画像A1を解析して、入力画像A1から顔特徴データを抽出する(S21)。
 次に、絶対評価部331が、入力画像と、各登録画像との間でマッチングを行い、絶対評価スコアを算出する(S22)。
 次に、注目登録画像選択部332が、登録画像データベース21に登録されている登録画像から一の登録画像を注目登録画像として選択し、他登録画像選択部333が、注目登録画像の登録人物とは異なる登録人物の登録画像を選択登録画像として選択するとともに、相対評価部334が、注目登録画像と、選択登録画像との間で相対評価スコアを算出する(S23)。
 さらに、登録画像データベース21に登録されている残りの登録人物の登録画像について、上述した相対評価スコアの算出が実行される(S24)。注目登録画像の登録人物とは異なる、全ての登録人物の登録画像について相対評価スコアが算出されると(S24についてYES)、評価統合部335が、絶対評価スコアと、相対評価スコアとを統合する(S25)。
 そして、認証結果出力部34が、評価統合部335から出力される統合スコアに基づいて、入力画像A1の認証を行って、認証結果を出力する(S26)。以上で、顔画像認証処理は終了する。
  (実施例)
 以下、さらに図13~図15を用いて、図12を用いて説明した顔画像認証処理の流れの具体的な実施例について説明する。
 以下に説明する実施例では、図13に示すように、登録画像データベース21において、登録人物情報P1(Aさん)、P2(Bさん)、P3(Cさん)およびP4(Dさん)が登録されているものとする。また、登録人物情報P1~P4には、それぞれ3つの登録画像が登録されている(登録画像R11~R13、R21~R23、R31~R33、R41~R43)。
 入力画像A1が入力され、入力画像A1の顔特徴データが抽出されると(S20、S21)、絶対評価部331が、入力画像と、各登録画像との間でマッチングを行い、絶対評価スコアを算出する(S22)。
 図14を用いて、絶対評価部331が行うマッチング処理について、より具体的に説明すると次のとおりである。
 図14に示すとおり、絶対評価部331は、登録人物情報P1~P4について登録されている登録画像それぞれを、入力画像A1とマッチングし、絶対評価スコアを算出する。
 図14では、絶対評価部331が行うマッチング処理において比較の対象となる登録画像と、入力画像A1との間を矢印にて結んで示している。また、図14では、算出される絶対評価スコアが高い登録画像ほど、入力画像A1の近くに位置づけられるように示している。つまり、矢印の長さは、絶対評価スコアを表している。また、絶対評価部331が算出する絶対評価スコアを、矢印の傍に付している。
 また、絶対評価スコアは、例示的に“0”~“1000”の間の値をとるものとする。そして、一例として、入力画像A1に近い人物が撮影されている登録画像のほうが、より高い値の絶対評価スコアが算出されることとしている。
 つまり、絶対評価スコアが、“0”である場合、登録画像の人物と、入力画像の人物とがほとんど似ていないことを示す。また、絶対評価スコアが、“1000”である場合、登録画像の人物と、入力画像の人物とが非常に似ていることを示す。
 登録人物情報P1~P4の各登録画像に関して算出される絶対評価スコアについて説明すると次のとおりである。
 登録人物情報P1(Aさん)の登録画像R11、R12、およびR13の絶対評価スコアABS11、ABS12、およびABS13は、それぞれ、“900”、“750”、および“800”である。
 登録人物情報P2(Bさん)の登録画像R21、R22、およびR23の絶対評価スコアABS21、ABS22、およびABS23は、それぞれ、“720”、“760”、および“710”である。
 登録人物情報P3(Cさん)の登録画像R31、R32、およびR33の絶対評価スコアABS31、ABS32、およびABS33は、それぞれ、“400”、“380”、および“360”である。
 登録人物情報P4(Dさん)の登録画像R41、R42、およびR43の絶対評価スコアABS41、ABS42、およびABS43は、それぞれ、“150”、“50”、および“100”である。
 このように「Aさん」の絶対評価スコアは、“900”~“750”の範囲であり、「Bさん」の絶対評価スコアは、“760”~“710”の範囲である。
 「Aさん」および「Bさん」は、絶対評価スコアが比較的高く、入力画像A1の人物と似ている。
 「Aさん」と、「Bさん」とは、絶対評価スコアの範囲が一部重複しており、近い絶対評価スコアが算出されている。このため、「Aさん」と、「Bさん」とは、互いに似た人物(例えば、兄弟)であるといえる。
 これに対して、「Cさん」、「Dさん」については、「Aさん」および「Bさん」と比べて低い絶対評価スコアが算出されており、その値の範囲は“400”~“50”である。よって、「Cさん」、「Dさん」は、入力画像の人物とは似ておらず、また、「Aさん」および「Bさん」ともあまり似ていないといえる。
 このようにして絶対評価スコアが算出されると、次に、相対評価部334が、注目登録画像と、選択登録画像との間で相対評価スコアを算出する(S23)。
 図15を用いて、相対評価部334における相対評価スコアの算出について説明すると次のとおりである。
 図15に示す例では、注目登録画像選択部332が、「Aさん」の登録画像R12を注目登録画像として選択している。注目登録画像選択部332は、一例として注目登録画像を、登録人物情報P1~P4の登録画像の登録順により選択する。
 図15に示す例では、登録画像R12、R11、およびR13の順で登録がなされているとする。よって、最も古く登録された登録画像R12が注目登録画像選択部332により選択されている。
 なお、これに限られず、注目登録画像選択部332が注目登録画像として選択する登録画像は、例えば、登録人物情報P1~P4の登録画像のうち、絶対評価スコアが最も高いものであってもよい。この場合、図15を用いて説明すれば、図14に示した絶対評価スコアが、登録人物情報P1~P4のなかで最も高い登録画像R11が注目登録画像選択部332により選択されることになる。
 また、注目登録画像選択部332が注目登録画像を選択する登録画像は、絶対評価スコアが最も高い登録画像が登録されている登録人物情報を基準としてもよい。例えば、絶対評価スコアが最も高い登録画像が登録されている登録人物情報において、絶対評価スコアが最も高いものであってもよいし、逆に、絶対評価スコアが最も低いものであってもよい。また、例えば、絶対評価スコアが最も高い登録画像が登録されている登録人物情報において、算出された絶対評価スコアが中央値を示す登録画像であってもよい。
 同図において、登録画像R12の下方に付した二重丸は、登録画像R12が注目登録画像であることを示している。
 また、図10に示す例では、他登録画像選択部333が、「Aさん」以外の人物の登録画像、すなわち、「Bさん」、「Cさん」、および「Dさん」それぞれの登録画像を選択登録画像として選択している。同図において、「Bさん」、「Cさん」、および「Dさん」それぞれの登録画像の下方に付した一重丸は、登録画像が選択登録画像であることを示している。
 相対評価部334は、注目登録画像である登録画像R12を基準に、選択登録画像である「Bさん」の登録画像R21~R23、「Cさん」の登録画像R31~R33、および「Dさん」の登録画像R41~R43との比較を行う。
 そして、相対評価部334は、それぞれの比較に基づいて、相対評価スコアを算出する。すなわち、「Bさん」の登録画像R21~R23との比較により、それぞれ、相対評価スコアREL21~REL23を算出する。また、「Cさん」の登録画像R31~R33との比較により、それぞれ、相対評価スコアREL31~REL33を算出する。そして、「Dさん」の登録画像R41~R43との比較により、それぞれ、相対評価スコアREL41~REL43を算出する。
 ここでは、相対評価スコアの算出手法については、図6および図7を用いて既に説明したとおりである。なお、登録人物情報Pnの各登録画像Rnに含まれる顔特徴データは、図6および図7に示した特徴量Yに対応している。
 なお、以上のように算出した絶対評価スコア、および、相対評価スコアは、算出手法に応じて、値の範囲を調整してもよい。すなわち、算出手法の違いにより、絶対評価スコアおよび相対評価スコアの値の範囲が異なる場合は、両者を比較できるよう調整する。
 例えば、絶対評価スコアの値の範囲が、0~1000で、相対評価スコアの値の範囲が0~1である場合、相対評価スコアに係数1000を乗じて値の範囲を調整する。
 以下、「Cさん」、「Dさん」についても、「Bさん」について示したように、相対評価スコアを算出する(S24)。また、注目登録画像を変更しながら相対評価スコアを算出してもよい。
 全件分の相対評価スコアが算出されると、評価統合部335が、絶対評価スコアと、相対評価スコアとを統合する(S25)。評価統合部335は、例えば、次の式(1)に従って、それぞれの登録画像に対する統合スコア(T)を算出する。
 T = w×ABS + (1-w)REL ・・・(1)
 ※ただし、ABS:絶対評価スコア、REL:相対評価スコア、w:重み(0≦w≦1)
 なお、相対評価スコアの範囲が、絶対評価スコアの範囲と一致していなくても、wにより両者の範囲の差分を調整することが可能である。
 そして、認証結果出力部34が、評価統合部335から出力される統合スコア(T)に基づいて、入力画像A1の認証を行い、認証結果を出力する(S26)。
  (作用・効果)
 以上のように、顔認証装置1は、人物の顔が撮影された入力画像A1を、顔特徴データを含む登録画像Rが登録された登録画像データベース21と照合する顔認証装置1において、上記入力画像A1の顔特徴データA11と、登録画像データベース21に登録されている登録人物情報Pの登録画像Rに含まれる顔特徴データとの間の絶対評価スコアを算出する絶対評価部331と、上記登録画像データベース21に登録されている一の登録人物情報Pの人物が、他の登録人物情報Pの人物に対して、どの程度、入力画像A1の人物と近似しているかを示すスコアである相対評価スコアを算出する相対評価部334と、絶対評価スコアと、相対評価スコアとを重み付けして統合した統合スコアを算出する評価統合部と、統合スコアに基づいて上記入力画像A1の照合を行う認証結果出力部34と、を備える構成である。
 よって、このように、統合スコアを用いて認証を行うので、絶対評価スコアしか用いずに照合を行う場合に判断を誤ってしまうような、似た人物同士(例えば、AさんとBさん)に対する識別率を向上させることができる。
 また、以上のように、顔認証装置1では、絶対評価部331は、入力画像A1と、人物(Aさんなど)を撮影して得られた一の画像から抽出した顔特徴データを有する登録画像(例えば、登録画像R11)との間で絶対評価スコアを算出し、相対評価部334は、人物を撮影して得られた一の画像から抽出した顔特徴データを有する登録画像を用いて、上記相対評価スコアを算出する構成である。
 そして、登録画像データベース21には、人物を撮影して得られた一の画像から抽出した顔特徴データを有する登録画像のみが登録されている。よって、登録画像Rを加工しなくても、既に登録されている登録画像Rを用いて直ちに各スコアを算出して、照合を行うことが可能となる。
  (変形例)
 相対評価部334は、所定の閾値以上の絶対評価スコアを有する登録画像を処理対象としてもよい。例えば、閾値を“500”とすることができる。
 例えば、図14に示した「Cさん」および「Dさん」について算出された絶対評価スコアABS31~ABS33およびABS41~ABS43は、500以下であった。このため、図15において、「Cさん」および「Dさん」は、相対評価スコア算出の対象外とすることができる。
 上述のとおり、図14では、「Cさん」および「Dさん」は、「Aさん」および「Bさん」と比べて低い絶対評価スコアが算出されていたので、誤認証の可能性が低いといえる。
 よって、本変形例よれば、このように誤認証の可能性が低い「Cさん」および「Dさん」についての処理を省略することができ、これにより処理の簡略化、高速化を図ることができる。
 〔実施形態2〕
 本発明の他の実施形態について、図16~図20に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、上述の実施形態にて説明した図面と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
 本実施形態に係る顔認証装置では、登録人物情報Pごとに、代表的な顔画像を計算して、計算した代表的な顔画像に基づいて相対評価スコアを算出する。以下、主に相対評価スコアの算出手法に焦点を当てて説明する。
 まず、図16を用いて、顔認証装置(画像照合装置)1Aの構成について説明する。図16に示す顔認証装置1Aは、これまで説明した顔認証装置1と比べて以下の点が異なる。
 すなわち、顔認証装置1Aは、顔認証装置1の制御部30において、顔認証処理部33を、顔認証処理部33Aに変更し、登録画像代表データ算出部35を追加するとともに、さらに記憶部20において、代表データ登録情報記憶部(登録画像データベース)22を追加したものである。以下、これらの相違点について説明する。
 代表データ登録情報記憶部22は、登録人物情報Pに登録されている登録画像から計算された代表的な顔画像の登録情報である代表データ登録情報(代表画像)AVGが記憶されている。図16に示すように、代表データ登録情報AVGは、名前(ID)および登録画像代表データを含むデータ構造である。
 名前(ID)は、代表データ登録情報を識別するための情報であり、対応する登録人物情報Pの名前(ID)が格納される。
 登録画像代表データには、登録人物情報Pに登録されている登録画像から計算された代表的な顔画像が格納される。以下では、一例として、登録画像代表データは、登録対象画像A2の顔特徴データから算出されることとしている。なお、これに限られず、登録画像代表データは、登録対象画像A2の画素データから算出されるものであってもよい。
 登録画像代表データ算出部35は、「顔画像登録処理」において、登録対象画像A2から抽出された顔特徴データを用いて登録画像代表データを算出する。
 登録画像代表データ算出部35は、例示的に、登録画像Rの顔特徴データおよび登録対象画像A2の顔特徴データの平均値を登録画像代表データとして算出することとしている。しかしながら、これに限られず、登録画像代表データ算出部35は、登録画像Rの顔特徴データおよび登録対象画像A2の顔特徴データの絶対評価スコアにおける最大値または最小値を登録画像代表データとして算出してもよい。
 また、このほかにも、登録画像代表データ算出部35は、例えば、登録画像Rの顔特徴データおよび登録対象画像A2の顔特徴データの中央値を登録画像代表データとして算出してもよい。
 登録画像代表データ算出部35は、操作部11において入力された人物の名前(ID)と、登録画像代表データとを対応付けて代表データ登録情報AVGとして代表データ登録情報記憶部22に登録する。
 顔認証処理部33Aは、入力画像と、登録画像とのマッチングおよび登録画像同士の評価を行うことにより、両者の近似の度合いを示す統合スコアを算出する点で、顔認証処理部33と共通する。一方、顔認証処理部33Aは、統合スコア算出に際して、登録画像データベース21に加えて、代表データ登録情報記憶部22を参照する点で、顔認証処理部33と異なる。顔認証処理部33Aの構成については以下において説明する。
  (顔認証処理部)
 図17を用いて、顔認証処理部33Aの構成について説明する。図17は、顔認証処理部33Aの概略的構成の一例を示す機能ブロック図である。
 図17に示すように、顔認証処理部33Aは、顔認証処理部33において、注目登録画像選択部332、他登録画像選択部333、および相対評価部334を、それぞれ、注目代表データ選択部(相対評価スコア算出手段)332A、他代表データ選択部(相対評価スコア算出手段)333A、および相対評価部(相対評価スコア算出手段)334Aに変更したものである。
 注目代表データ選択部332Aは、代表データ登録情報記憶部22に登録されている登録画像代表データから、相対評価部334Aがスコアの評価の基準とする登録画像代表データである注目代表データを選択する。なお、注目代表データ選択部332Aは、注目登録画像選択部332と同様の選択手法を適用することができる。
 他代表データ選択部333Aは、代表データ登録情報記憶部22に登録されている登録画像代表データから、注目代表データとの比較の対象となる登録画像代表データである選択代表データを選択する。なお、他代表データ選択部333Aは、他登録画像選択部333と同様の選択手法を適用することができる。
 相対評価部334Aは、注目代表データを基準に、選択代表データとの比較を行うことにより、注目代表データと、選択代表データとの相対的な関係性を評価する。そして、相対評価部334Aは、注目代表データが示す人物が、選択代表データが示す人物と比べて、入力画像に撮影されている人物とどの程度似ているかを示す相対評価スコアを算出する。それ以外の点については、相対評価部334と同様である。
 例えば、相対評価部334Aは、相対評価部334と同様の相対評価スコアの算出手法を用いることができる。すなわち、相対評価部334Aは、図6および図7を用いて示した手法により、相対評価スコアを算出することができる。なお、この場合、代表データ登録情報AVGの登録画像代表データが、図6および図7における特徴量Yに対応している。
  (顔画像登録処理の流れ)
 次に、図18を用いて、ある人物の顔を撮影した撮影画像を登録対象画像として登録する顔画像登録処理の流れの他の例について説明する。図18は、顔認証装置1Aにおける顔画像登録処理の流れについて例示したフローチャートである。
 ステップS10およびS11については、図11を用いて既に説明したとおりであるので、その説明を省略する。ステップS11に続くステップS12において、登録画像代表データ算出部35は、登録画像Rの顔特徴データおよび登録対象画像A2から抽出された顔特徴データを用いて、登録画像代表データを算出する。以上で、顔画像登録処理は終了する。
  (顔画像認証処理の流れ)
 次に、図19を用いて、ある人物の顔を撮影した撮影画像を入力画像として認証する顔画像認証処理の流れの他の例について説明する。図19は、顔認証装置1Aにおける顔画像認証処理の流れについて例示したフローチャートである。また、図19に示すフローチャートは、図12に示したフローチャートのステップS23を、ステップS23Aに変更したものである。
 ステップS20~S22については、図12を用いて既に説明したとおりであるので、その説明を省略する。
 次に、注目代表データ選択部332Aが、代表データ登録情報記憶部22に登録されている登録画像代表データから一の登録人物の登録画像代表データを、注目代表データとして選択し、他代表データ選択部333Aが、注目代表データの登録人物とは異なる代表人物の登録画像代表データを、選択代表データとして選択するとともに、相対評価部334Aが、注目代表データと、選択代表データとの間で相対評価スコアを算出する(S23A)。
 さらに、この相対評価スコアの算出が、残りの登録人物の登録画像代表データについて実行される(S24)。注目代表データの登録人物とは異なる、全ての登録人物の登録画像代表データについて相対評価スコアが算出されると(S24についてYES)、評価統合部335が、絶対評価スコアと、相対評価スコアとを統合する(S25)。
 そして、認証結果出力部34が、評価統合部335から出力される統合スコアに基づいて、入力画像A1の認証を行って、認証結果を出力する(S26)。以上で、顔画像認証処理は終了する。
  (実施例)
 以下、さらに図20を用いて、図19を用いて説明した顔画像認証処理の流れの具体的な実施例について説明する。
 以下に示す実施例では、登録画像データベース21において、図20に示すように、登録人物情報P1(Aさん)、P2(Bさん)、P3(Cさん)およびP4(Dさん)が登録されているものとする。これらの登録人物情報P1~P4は、図13に示したものと同様である。
 さらに、代表データ登録情報記憶部22には、図20に示すように、登録人物情報P1~P4について、それぞれ対応する代表データ登録情報AVG10~AVG40が登録されている。図20では、代表データ登録情報AVG10~AVG40を黒丸にて示している。
 また、上述のとおり、登録画像代表データ算出部35は、登録人物情報Pの登録画像Rの顔特徴データおよび登録対象画像A2の顔特徴データの平均値を登録画像代表データとして算出する。よって、一例を示すと、代表データ登録情報AVG10には、登録画像R11~R13の顔特徴データの平均値が登録画像代表データとして含まれる。
 以下、図19に示したフローチャートの各ステップに沿って説明する。まず、ステップS20~S22の具体的な実施例については、図12~図15を用いて説明したとおりであるので、その説明を省略する。
 続くステップS23Aにおいて、相対評価部334Aが、注目代表データと、選択代表データとの間で相対評価スコアを算出する。なお、図19では、注目代表データは、代表データ登録情報AVG10の登録画像代表データであるとし、選択代表データは、代表データ登録情報AVG20~AVG40の登録画像代表データであるとする。
 相対評価部334Aは、注目代表データである代表データ登録情報AVG10の登録画像代表データを基準に、選択代表データである代表データ登録情報AVG20、AVG30、およびAVG40の登録画像代表データそれぞれとの比較を行う。
 そして、相対評価部334Aは、上記比較結果に基づいて、それぞれ、相対評価スコアREL200、REL300、およびREL400を算出する。
 具体的な、相対評価スコアREL200、REL300、およびREL400の算出手法については、前記実施形態において、図6および図7等を用いて説明したとおりであるので、その説明を省略する。
 相対評価部334Aは、このようにして、「Bさん」、「Cさん」、および「Dさん」について、相対評価スコアREL200、REL300、およびREL400を算出する(S24)。
 続くステップS25およびS26については、図12~図15を用いて説明したとおりであるので、その説明を省略する。
  (作用・効果)
 以上のように、顔認証装置1Aは、相対評価部334Aが、人物について登録されている複数の登録画像Rを代表する顔特徴データを有する代表データ登録情報を用いて相対評価スコアを算出する構成である。
 上記構成によれば代表データ登録情報AVGを用いて算出した照合スコアを用いて、相対評価スコアを算出するので、相対評価スコアの算出時における処理負荷を軽減することができる。
  (変形例)
 以下において、顔認証装置1Aの好ましい変形例について説明する。
   [代表データの変形例]
 顔認証処理部33Aにおいて、注目代表データの登録人物とは異なる複数の登録人物の代表データを作成してもよい。例えば、上記複数の登録人物の代表データとして、全登録人物の代表データである全他人代表データを作成してもよい。
 全他人代表データは、注目代表データの登録人物とは異なる複数の登録人物の代表データの平均値を求めることにより作成することができる。
 そして、他代表データ選択部333Aは、上記全他人代表データを選択代表データとして選択してもよい。
 上記構成によれば、上述の相対評価スコア算出手法の手法1を採用する場合、注目代表データの登録人物とは異なる登録人物の人数分の射影を行うことなく相対評価スコアを算出することができる。
 また、上述の手法2においても、注目代表データの登録人物とは異なる登録人物の人数分の距離計算または類似度計算を行うことなく相対評価スコアを算出することができる。
 上述の手法3では、注目代表データの登録人物とは異なる登録人物の人数分の識別空間の作成を行うことなく相対評価スコアを算出することができる。
 この変形例は、言い換えれば、注目代表データの登録人物とは異なる複数の登録人物の特徴空間に対して、射影、距離計算・類似度計算、または識別空間の作成を行っているともいえる。
  [代表データ登録情報の登録の変形例]
 登録画像代表データ算出部35は、以下のように代表データ登録情報AVGを登録してもよい。
 具体的には、登録画像代表データ算出部35は、顔特徴データ抽出部32から供給される、登録対象画像A2の顔特徴データを登録画像データベース21と照合して、登録人物を特定する。また、登録画像代表データ算出部35は、特定した人物について登録されている登録画像Rおよび登録対象画像A2を用いて、登録画像代表データを算出する。そして、登録画像代表データ算出部35は、特定された人物の名前(ID)と、登録画像代表データとを対応付けて代表データ登録情報AVGとして代表データ登録情報記憶部22に登録する。
 〔実施形態3〕
 本発明の他の実施形態について、図21~図24に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、上述の実施形態にて説明した図面と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
 本実施形態に係る顔認証装置では、登録人物情報Pごとに、代表的な顔画像を計算して、計算した代表的な顔画像に基づいて絶対評価スコアを算出する。以下、主に絶対評価スコアの算出手法に焦点を当てて説明する。
 まず、図21を用いて、顔認証装置(画像照合装置)1Bの構成について説明する。図21に示す顔認証装置1Bは、上述の顔認証装置1Aと比べて以下の点が異なる。
 すなわち、顔認証装置1Bは、顔認証装置1Aの制御部30において、顔認証処理部33Aを、顔認証処理部33Bに変更したものである。
 顔認証処理部33Bは、絶対評価スコアの算出に登録画像を用い、相対評価スコアの算出に代表データ登録情報を用いる顔認証処理部33Aと異なり、絶対評価スコアの算出に代表データ登録情報を用い、相対評価スコアの算出に登録画像を用いる。以下において、顔認証処理部33Bの構成について説明する。
  (顔認証処理部)
 図22を用いて、顔認証処理部33Bの構成について説明する。図22は、顔認証処理部33Bの概略的構成の一例を示す機能ブロック図である。
 図22に示すように、顔認証処理部33Bは、顔認証処理部33において、絶対評価部331を代表データ絶対評価部(照合スコア算出手段)337に変更したものである。
 代表データ絶対評価部337は、入力画像と、代表データ登録情報とのマッチングを行うことで代表データの絶対評価スコアを算出する。代表データ絶対評価部337の照合スコア算出手法には、絶対評価部331と同様の手法を用いることができる。すなわち、代表データ絶対評価部337は、図4および図5を用いて示した手法により、相対評価スコアを算出することができる。なお、この場合、代表データ登録情報AVGの登録画像代表データが、図4および図5における特徴量Yに対応している。
 また、代表データ絶対評価部337は、算出した絶対評価スコアを評価統合部335に供給する。
 また、評価統合部335についても、代表データ絶対評価部337から絶対評価スコアの供給を受ける点以外は、これまでに説明したとおりである。
  (顔画像登録処理の流れ)
 顔認証装置1Bにおける顔画像登録処理の流れは、図18を用いて示したとおりであるので、その説明を省略する。
  (顔画像認証処理の流れ)
 次に、図23を用いて、ある人物の顔を撮影した撮影画像を入力画像として認証する顔画像認証処理の流れのさらに他の例について説明する。図23は、顔認証装置1Aにおける顔画像認証処理の流れについて例示したフローチャートである。図23に示すフローチャートは、図12に示すフローチャートにおいて、ステップS22を、ステップS22Aに変更したものである。
 ステップS20およびS21については、図12を用いて既に説明したとおりであるので、その説明を省略する。
 次に、ステップS22Aにおいて、代表データ絶対評価部337が、入力画像と、各代表データ登録情報との間でマッチングを行い、絶対評価スコアを算出する(S22A)。
 続く、ステップS23~S26については、図12を用いて既に説明したとおりであるので、その説明を省略する。
  (実施例)
 以下、さらに図24を用いて、図23を用いて説明した顔画像認証処理の流れの具体的な実施例について説明する。
 以下に説明する実施例では、登録画像データベース21において、図24に示すように、登録画像データベースにおいて、登録人物情報P1(Aさん)、P2(Bさん)、P3(Cさん)およびP4(Dさん)が登録されているものとする。これらの登録人物情報P1~P4は、図13に示したものと同様である。
 また、代表データ登録情報記憶部22には、図24に示すように、登録人物情報P1~P4について、それぞれ対応する代表データ登録情報AVG100~AVG400が登録されている。図24では、代表データ登録情報AVG100~AVG400を黒丸にて示している。
 また、上述のとおり、登録画像代表データ算出部35は、登録人物情報Pの登録画像Rの顔特徴データおよび登録対象画像A2の顔特徴データの平均値を、登録画像代表データとして算出する。よって、一例を示すと、代表データ登録情報AVG100には、登録画像R11~R13の顔特徴データの平均値が登録画像代表データとして含まれる。
 以下、図23に示したフローチャートの各ステップに沿って説明する。まず、ステップS20およびS21については、図12~図15を用いて説明したとおりであるので、その説明を省略する。
 次に、ステップS22Aにおいて、代表データ絶対評価部337は、入力画像A1と、代表データ登録情報AVG100~AVG400のそれぞれとの間でマッチングを行うことで、代表データ登録情報AVG100~AVG400のそれぞれについて、絶対評価スコアABS100~ABS400を算出する。
 続く、ステップS23~S26については、図12~図15を用いて既に説明したとおりであるので、その説明を省略する。
  (作用・効果)
 以上のように、顔認証装置1Bは、代表データ絶対評価部337が、入力画像A1と、人物について登録されている複数の登録画像Rを代表する顔特徴データである登録画像代表データを有する代表データ登録情報AVGとの間で絶対評価スコアを算出する構成である。
 上記構成によれば、各登録人物情報Pそれぞれについて、代表データ登録情報AVGを用いて絶対評価スコアを算出するため、絶対評価スコアの算出時における処理負荷を軽減することができる。
 〔実施形態4〕
 本発明の他の実施形態について、図25~図27に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、上述の実施形態にて説明した図面と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
 本実施形態に係る顔認証装置では、登録人物情報Pごとに、代表的な顔画像を計算して、計算した代表的な顔画像に基づいて、絶対評価スコアおよび相対評価スコアを算出する。
 まず、図25を用いて、顔認証装置(画像照合装置)1Cの構成について説明する。図25に示す顔認証装置1Cは、上述の顔認証装置1Aと比べて以下の点が異なる。
 すなわち、顔認証装置1Cは、顔認証装置1Aの制御部30において、顔認証処理部33Aを、顔認証処理部33Cに変更したものである。以下において、顔認証処理部33Cの構成について説明する。
  (顔認証処理部)
 図26を用いて、顔認証処理部33Cの構成について説明する。図26は、顔認証処理部33Cの概略的構成の一例を示す機能ブロック図である。
 図26に示すように、顔認証処理部33Cは、顔認証処理部33Aにおいて、絶対評価部331を、代表データ絶対評価部337に変更したものである。
 代表データ絶対評価部337は、前記実施形態の顔認証処理部33Bの代表データ絶対評価部337と同様である。従って、代表データ絶対評価部337については、すでに説明済みであるので、ここではその説明を省略する。
 顔認証処理部33Cは、このように絶対評価スコアおよび相対評価スコアの両方において、代表データ登録情報を用いる構成となっている。
 以下では、絶対評価スコアの算出および相対評価スコアの算出において、それぞれ異なる登録画像代表データを用いる構成について説明する。しかしながら、これに限定されず、絶対評価スコアの算出および相対評価スコアの算出において、同一の登録画像代表データを用いてもよい。
 また、顔認証処理部33Cでは、登録画像代表データ算出部35が、代表データ登録情報を、絶対評価スコア算出用と、相対評価スコア算出用とで個別に登録する構成とする。
 例えば、登録画像代表データ算出部35は、登録画像Rの顔特徴データおよび登録対象画像A2の顔特徴データの平均値を登録画像代表データとして算出する。
 また、例えば、登録画像代表データ算出部35は、最近登録された登録画像Rの顔特徴データを登録画像代表データとして算出することができる。
 そして、以下では、平均値の登録画像代表データを絶対評価スコア算出用とし、最近登録された登録画像Rの顔特徴データを相対評価スコア算出用とする例について説明する。しかしながら、これに限られず、上記と逆の構成にしてもかまわない。
  (顔画像登録処理の流れ)
 顔認証装置1Cにおける顔画像登録処理の流れは、図18を用いて示したとおりであるので、その説明を省略する。
  (顔画像認証処理の流れ)
 次に、図27を用いて、ある人物の顔を撮影した撮影画像を入力画像として認証する顔画像認証処理の流れのさらに他の例について説明する。図27は、顔認証装置1Cにおける顔画像認証処理の流れについて例示したフローチャートである。図27に示すフローチャートは、図19に示すフローチャートにおいて、ステップS22を、ステップS22Aに変更したものである。
 ステップS20およびS21については、図12を用いて既に説明したとおりであるので、その説明を省略する。
 次に、ステップS22Aにおいて、代表データ絶対評価部337が、入力画像と、絶対評価スコア算出用の各代表データ登録情報との間でマッチングを行い、絶対評価スコアを算出する(S22A)。
 次に、代表データ登録情報記憶部22に登録されている相対評価スコア算出用の登録画像代表データから、注目代表データ選択部332Aが、一の登録人物の登録画像代表データを注目代表データとして選択し、他代表データ選択部333Aが、注目代表データの登録人物とは異なる代表人物の登録画像代表データを選択代表データとして選択するとともに、相対評価部334Aが、注目代表データと、選択代表データとの間で相対評価スコアを算出する(S23A)。
 続くステップS24~S26については、図12を用いて既に説明したとおりであるので、その説明を省略する。
  (実施例)
 以下、さらに図20および図24を用いて、図27を用いて説明した顔画像認証処理の流れの具体的な実施例について説明する。
 以下に説明する実施例では、登録顔画像データベースにおいて、図20および図24に示したように、登録人物情報P1~P4が登録されている。また、図20に示すように、代表データ登録情報記憶部22において、相対評価スコア算出用の代表データ登録情報AVG10~AVG40が登録されているとする。また、図24に示すように、代表データ登録情報記憶部22において、絶対評価スコア算出用の代表データ登録情報AVG100~AVG400が登録されているとする。
 以下、図27に示したフローチャートの各ステップに沿って説明する。まず、S20およびS21については、図12~図15を用いて説明したとおりである。
 続いて、ステップS22Aにおいて、代表データ絶対評価部337は、入力画像A1と、代表データ登録情報AVG100~AVG400のそれぞれとの間でマッチングを行うことで、代表データ登録情報AVG100~AVG400のそれぞれについて、絶対評価スコアABS100~ABS400を算出する。
 続いて、ステップS23Aにおいて、相対評価部334Aが、注目代表データと、選択代表データとの間で相対評価スコアを算出する。ここで、相対評価部334Aが算出する相対評価スコアについて説明すると図20に例示するとおりである。
 まず、図20に例示するように、注目代表データは、代表データ登録情報AVG10の登録画像代表データであるとし、選択代表データは、代表データ登録情報AVG20~AVG40の登録画像代表データであるとする。
 このとき、図20に例示するように、相対評価部334Aは、注目代表データである代表データ登録情報AVG10の登録画像代表データを基準に、選択代表データである代表データ登録情報AVG20、AVG30、およびAVG40の登録画像代表データそれぞれとの比較を行う。
 そして、相対評価部334Aは、上記比較結果に基づいて、それぞれ、相対評価スコアREL201、REL301、およびREL401を算出する。
 具体的な、相対評価スコアREL200、REL300、およびREL400の算出手法については、前記実施形態において、図6および図7等を用いて説明したとおりであるので、その説明を省略する。
 相対評価部334Aは、このようにして、「Bさん」、「Cさん」、および「Dさん」について、相対評価スコアREL201、REL301、およびREL401を算出する(S24)。
 続くステップS25およびS26については、図12~図15を用いて説明したとおりであるので、その説明を省略する。
  (作用・効果)
 以上のように、顔認証装置1Cは、代表データ絶対評価部337が、入力画像A1と、代表データ登録情報AVGとの間で絶対評価スコアを算出し、相対評価部334Aが、代表データ登録情報AVGを用いて相対評価スコアを算出する構成である。
 上記構成によれば、絶対評価スコアおよび相対評価スコアの算出時における処理負荷を軽減することができる。
 また、以上のように、顔認証処理において、登録画像データベースに参照しなくても済む構成となっている。
 また、絶対評価スコア算出用と、相対評価スコア算出用とで個別に代表データ登録情報を登録しておくことで、それぞれのスコア算出に適した登録画像代表データを用いた認証処理を行うことができる。これにより、認証精度の向上を図ることができる。
  (変形例)
 以下において、顔認証装置1Cの好ましい変形例について説明する。
 登録画像代表データ算出部35は、登録されている登録画像の一部を用いて、登録画像代表データを算出する構成としてもよい。すなわち、登録画像代表データ算出部35は、登録されている登録画像の部分空間を利用することにより、登録画像代表データを算出してもよい。
 また、登録画像代表データ算出部35は、それ以外の手法(統計学的手法や、多変量解析など)で登録画像代表データを作成しても良い。
 また、登録画像代表データ算出部35が、代表データ登録情報を、絶対評価スコア算出用と、相対評価スコア算出用とで個別に登録するのではなく、絶対評価スコア算出および相対評価スコア算出において、共通の代表データ登録情報を用いてもよい。
  (むすび)
 本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
 例えば、上述した実施形態では、評価統合部335が、統合スコアの算出において、絶対評価スコアと、相対評価スコアとの重み付け平均を求めることを説明したが、評価統合部335は、次のようにして上記(1)式における重みwを決定してもよい。
 すなわち、重みwは、予め定められたものであってよく、記憶部20において設定ファイルに重みwの値が記憶されていてもよい。そして、評価統合部335は、記憶部20から重みwの値を読み取って、重み付け平均を求めてもよい。
 また、重みwは、登録画像の登録枚数に基づいて決定してもよい。すなわち、登録枚数が多いときに絶対評価スコアの重みwを高くしてもよい。これに対して、登録枚数が少ないときに相対評価スコアの重みwを低くしてもよい。
 また、重みwは、登録データの状態と入力データの状態の違いに基づいて決定してもよい。この場合、登録画像Rを、撮影画像を撮影したときの人物の顔の状態や、環境、撮影条件を解析した結果を示す各種の情報を項目として含むデータ構造として構成する。
 より具体的には、登録画像Rを、「顔の向き」、「顔の表情」、「笑顔度」、「照明条件」、および「射光度」等の項目を含むデータ構造として構成する。また、登録画像Rは、他にも項目として、「年齢」、「性別」、「目の開き方」等を含んでいてもよい。
 そして、全登録画像Rの上記データ項目が示す状態と入力画像の状態とが異なる場合は、絶対評価スコアの重みwを高くしてもよい。これに対して、全登録画像Rの上記データ項目が示す状態と入力画像の状態とが似ている場合は、相対評価スコアの重みwを低くしてもよい。
 また、上述した実施形態では、人物の顔を登録および認証の対象物としていたが、これに限られない。人物全体を対象物としてもよいし、他にも車両やそのナンバープレートを対象物としてもよい。登録および認証の対象となる対象物はパターン認識可能な物体であればよい。なお、対象物とは、別の対象物の一部であってもよい。例えば、ある対象物が人物であるとき、その対象物の一部である人物の顔も対象物とすることができる。
 なお、顔認証装置1、1A、1B、1Cの各ブロックは、ハードウェアロジックによって構成してもよいし、次のようにCPUを用いてソフトウェアによって実現してもよい。
 すなわち、上記装置は、各機能を実現する制御プログラムの命令を実行するCPU(central processing unit)、上記プログラムを格納したROM(read only memory)、上記プログラムを展開するRAM(random access memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアである上記装置の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記装置に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。
 上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD-ROM/MO/MD/DVD/CD-R/ブルーレイディスク(登録商標)等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ系などを用いることができる。
 また、上記装置を通信ネットワークと接続可能に構成し、上記プログラムコードを通信ネットワークを介して供給してもよい。この通信ネットワークとしては、特に限定されず、例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、通信ネットワークを構成する伝送媒体としては、特に限定されず、例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。
 〔付記事項〕
 以上のように、本発明に係る画像照合装置は、照合すべき対象物が撮影された入力画像を、登録画像データベースと照合する画像照合装置において、上記登録画像データベースでは、対象物を撮影して得られた画像の特徴量が登録画像として登録され、さらに、上記登録画像は複数の対象物について登録されており、上記入力画像の特徴量と、上記登録画像の特徴量とを用いて、上記登録画像が示す対象物が、どの程度上記入力画像の対象物と近似しているかを示すスコアである照合スコアを算出する照合スコア算出手段と、上記登録画像データベースに登録されている一の対象物が、他の対象物に対して、どの程度上記入力画像の対象物と近似しているかを示すスコアである相対評価スコアを算出する相対評価スコア算出手段と、上記照合スコアと、上記相対評価スコアとを重み付けした統合スコアを算出する統合スコア算出手段と、上記統合スコアに基づいて上記入力画像の照合を行う画像照合手段と、を備える構成である。
 また、以上のように、本発明に係る画像照合プログラムは、照合すべき対象物が撮影された入力画像を、登録画像データベースと照合する画像照合プログラムであって、上記登録画像データベースでは、上記対象物を撮影して得られた画像の特徴量が登録画像として登録され、さらに、上記登録画像は複数の対象物について登録されており、上記入力画像の特徴量と、上記登録画像の特徴量とを用いて、上記登録画像が示す対象物が、どの程度上記入力画像の対象物と近似しているかを示すスコアである照合スコアを算出する照合スコア算出ステップと、上記登録画像データベースに登録されている一の対象物が、他の対象物に対して、どの程度上記入力画像の対象物と近似しているかを示すスコアである相対評価スコアを算出する相対評価スコア算出ステップと、上記照合スコアと、上記相対評価スコアとを重み付けした統合スコアを算出する統合スコア算出ステップと、上記統合スコアに基づいて上記入力画像の照合を行う画像照合ステップと、を含む処理をコンピュータに実行させるプログラムである。
 また、以上のように、本発明に係る画像照合方法は、照合すべき対象物が撮影された入力画像を、登録画像データベースと照合する画像照合方法において、上記登録画像データベースでは、上記対象物を撮影して得られた画像の特徴量が登録画像として登録され、さらに、上記登録画像は複数の対象物について登録されており、上記入力画像の特徴量と、上記登録画像の特徴量とを用いて、上記登録画像が示す対象物が、どの程度上記入力画像の対象物と近似しているかを示すスコアである照合スコアを算出する照合スコア算出ステップと、上記登録画像データベースに登録されている一の対象物が、他の対象物に対して、どの程度上記入力画像の対象物と近似しているかを示すスコアである相対評価スコアを算出する相対評価スコア算出ステップと、上記照合スコアと、上記相対評価スコアとを重み付けした統合スコアを算出する統合スコア算出ステップと、上記統合スコアに基づいて上記入力画像の照合を行う画像照合ステップと、を含む方法である。
 上記構成によれば、入力画像と対象物との間の照合スコアだけでなく、上記登録画像データベースに登録されている複数の対象物のうち、一の対象物が、他の対象物に対して、どの程度上記入力画像の対象物と近似しているかを示す相対評価スコアとを加味した統合スコアにより入力画像の照合を行うことができる。
 ここで、上記対象物とは、人物および車をはじめパターン認識可能な物体等のことをいう。なお、対象物とは、ある対象物の一部であってもよい。例えば、対象物で人物と、その対象物の一部である人物の顔の関係である。
 また、対象物を撮影した画像の特徴量とは、対象物を撮影した画像を照合のための比較対象とするための情報である。
 より具体的には、上記特徴量は、対象物が撮影されている画像そのもの、すなわち画素値でもよいし、当該画像から抽出された、対象物の外観的特徴を示すものであってもよい。
 また、上記特徴量は、対象物を撮影した、特定の一枚の画像から抽出したものであってもよいし、対象物を撮影した複数枚の画像から抽出したものであってもよい。
 上記構成では、このような特徴量を登録画像として登録画像データベースに登録しておく。
 また、照合スコアとは、入力画像の特徴量と登録画像の特徴量とを用いて導かれるスコアである。
 また、照合スコアは、入力画像に撮影されている対象物と、登録画像が表す対象物との近似の度合いを示す、いわゆる近似度のことである。よって、別の言い方をすれば、照合スコアは、スコア算出対象となる登録画像が定まれば、入力画像との間で一意に算出することができる絶対的な評価スコアである。
 この場合、より具体的には、照合スコアは、入力画像に撮影されている対象物の特徴量と、登録画像の特徴量とを比較することにより得られる近似度である。
 つまり、上記照合スコアは、入力画像を中心として、登録画像が入力画像とどの程度近似しているか示すものであるということもできる。照合スコアは、例えば、対象物が人物であるとき、兄弟のような似た容姿を持つもの同士の間では、近いスコアとなる傾向がある。
 これに対して、相対評価スコアは、ある対象物の登録画像と他の対象物の登録画像とから導出される相対的なスコアである。例えば、相対評価スコアは、ある対象物の登録画像および入力画像の間における照合スコアと、他の対象物の登録画像および入力画像の間における照合スコアとを相互に比較することにより導かれる複数の対象物の登録画像間における相対的なスコアである。
 つまり、相対評価スコアから、ある対象物の登録画像が、他の対象物の登録画像に比べて、どれくらい入力画像に似ているかを把握することができる。
 さらに、照合スコアと相対評価スコアとを統合した統合スコアを算出する。この統合スコアは、例えば、所定の計算手法により算出することができる。統合スコアは、具体的には、照合スコアおよび相対評価スコアを任意に重み付けして得ることができる。
 例えば、統合スコアは、照合スコアおよび相対評価スコアの平均であってもよい。この場合、両者に対する重み付けは、均一になる。
 また、例えば、統合スコアは、照合スコアおよび相対評価スコアの重み付け平均であってもよい。
 以上のように、統合スコアは、入力画像と登録画像との近似度を示す指標である照合スコアに、複数の対象物の登録画像間で、一の対象物の登録画像が、他の対象物の登録画像に比べて、どれくらい入力画像に似ているかを示す指標である相対評価スコアを組み合わせたものになっている。
 このような、統合スコアを用いて認証を行うので、照合スコアしか用いずに照合を行う場合に判断を誤ってしまうような、似た対象物に対する識別率を向上させることができる。
 また、上記画像照合方法は、コンピュータによって実現してもよく、この場合には、コンピュータに上記各ステップを含む処理を実行させることにより、画像照合方法の各ステップをコンピュータにて実現させる画像照合プログラムおよびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
 また、本発明に係る画像照合装置では、上記複数の対象物それぞれについて、同一の上記対象物について登録されている複数の登録画像を代表する特徴量を代表画像として登録する代表画像登録手段を備えることが好ましい。
 上記構成によれば、上記複数の対象物それぞれについて、同一の上記対象物について登録されている複数の登録画像を代表する特徴量を代表画像として登録する。
 代表画像は、同一の上記対象物について登録されている全登録画像のうち、一部の登録画像を代表するものであってもよい。例えば、所定期間内に登録された登録画像を代表するものであってもよい。
 また、代表画像の特徴量は、例えば、同一の上記対象物について登録されている複数の登録画像の特徴量から導出してもよい。
 具体的には、代表画像の特徴量は、同一の上記対象物について登録されている複数の登録画像の特徴量の平均値であってもよい。
 このように、複数の登録画像の特徴量の平均値に基づく代表画像を採用する場合、登録画像の特徴量にノイズが含まれていたとしても、その平均値をとることでノイズを軽減することができる。
 また、代表画像の特徴量は、同一の上記対象物について登録されている複数の登録画像から選ばれた特定の登録画像の特徴量であってもよい。例えば、最近登録された、最新の登録画像の特徴量を代表画像の特徴量とすることができる。
 また、本発明に係る画像照合装置では、上記相対評価スコア算出手段は、上記対象物について登録されている複数の登録画像を代表する特徴量を有する登録画像である代表画像を用いて上記相対評価スコアを算出することが好ましい。
 上記構成によれば、一の対象物の代表画像と、他の対象物の代表画像とを用いて、相対評価スコアを算出する。ここで、代表画像とは、ある対象物について登録されている複数の登録画像のうち、対象物を代表する一つの登録画像である。
 上記構成によれば、代表画像を用いて相対評価スコアを算出するので、相対評価スコアの算出時における処理負荷を軽減することができる。つまり、登録画像の登録数が多いときにメリットがある。
 また、本発明に係る画像照合装置では、上記照合スコア算出手段は、上記入力画像と、上記対象物について登録されている複数の登録画像を代表する特徴量を有する登録画像である代表画像との間で照合スコアを算出することが好ましい。
 上記構成によれば、入力画像と、代表画像との間で照合スコアを算出する。すなわち、上記構成によれば、対象物それぞれについて、代表画像を用いて照合スコアを算出する。このため、照合スコアの算出時における処理負荷を軽減することができる。つまり、登録画像の登録数が多いときにメリットがある。
 また、本発明に係る画像照合装置では、上記相対評価スコア算出手段は、上記一の対象物と上記他の対象物との間に構成された射影空間において、上記入力画像を前記射影空間に射影した射影点および上記一の対象物の間における近似度、または、上記射影点および上記一の対象物の間における近似度と、上記射影点および上記他の対象物の間における近似度との比を上記相対評価スコアとして算出することが好ましい。
 上記構成によれば、対象物の登録画像の特徴量が形成する特徴空間を用いた手法により、相対評価スコアを求めることができる。
 具体的には、まず、入力画像を射影空間に射影した射影点を得る。ここで、射影空間としては、異なる2つの対象物について、両者の登録画像の特徴量の識別がよくなる空間を選択することが好ましい。なお、射影空間は、1次元であれば直線に、2次元であれば平面となる。つまり、1次元の射影空間は射影直線となり、2次元の射影空間は射影平面となる。
 そして、特徴空間において、上記射影点と、2つの対象物とがどのような位置関係にあるかを調べて近似度を算出する。例えば、近似度は、射影点と、2つの対象物との間における、ユークリッド距離、マハラノビス距離などの距離として表現できる。
 また、近似度は、射影点と、2つの対象物とについて正規化相関などの類似度計算を行うことにより求めることができる。
 上記構成では、上記近似度を相対評価スコアとして算出する。あるいは、相関一の対象物および射影点の間における近似度と、他の対象物および射影点の間における近似度との比を相対評価スコアとして算出することもできる。
 このような手法を用いることにより、照合精度の高い相対評価スコアを得ることができる。
 また、本発明に係る画像照合装置では、上記相対評価スコア算出手段は、上記入力画像の対象物および上記一の対象物の間における近似度と、上記入力画像の対象物および上記他の対象物の間における近似度との比を上記相対評価スコアとして算出することが好ましい。
 上記構成によれば、比を求めることにより、簡潔な処理にて相対評価スコアを算出することができる。また、既に算出されている近似度を用いることができ、処理負荷の軽減にも寄与する。
 また、本発明に係る画像照合装置では、上記相対評価スコア算出手段は、上記一の対象物と上記他の対象物との間に構成された識別境界において、上記入力画像の対象物と上記識別境界との間の距離を上記相対評価スコアとして算出することが好ましい。
 上記構成によれば、対象物の登録画像の特徴量が形成する特徴空間において識別境界を形成する手法により、相対評価スコアを求めることができる。
 このような手法としては、例えば、例えば、K-means法、Boosting(ブースティング)、およびSVM(サポートベクターマシーン)などの特徴量のクラスタ解析が挙げられる。
 上記構成によれば、上記のようなクラスタ解析により、上記一の対象物と上記他の対象物との間に識別境界を構成する。そして、上記構成によれば、上記入力画像の対象物と上記識別境界との間の距離を上記相対評価スコアとして算出する。
 このような手法を用いることにより、照合精度の高い相対評価スコアを得ることができる。
 また、本発明に係る画像照合装置では、上記統合スコア算出手段は、上記照合スコアと、上記相対評価スコアとを平均したものを上記統合スコアとして算出することが好ましい。
 上記構成によれば、データの偏りに起因する各スコアの誤差を均すことができるため、良好な認証精度を得られる傾向がある。
 また、本発明に係る画像照合装置では、上記対象物が人物の顔であることが好ましい。
 すなわち、上記構成においては、入力画像は、人物の顔が撮影された顔画像であり、上記登録画像データベースには、人物ごとに該人物の顔を撮影して得られた顔画像が登録されている。
 上記構成によれば、人物の顔を精度よく照合することができるという効果を奏する。
 なお、上記画像照合装置と、上記入力画像を上記画像照合装置に供給する画像入力装置と、を備える画像処理システムを好ましく構成することができる。
 画像処理システムの例としては、プリンタ、スキャナ、パーソナルコンピュータや、デジタルカメラなどデジタル画像を処理するものが挙げられる。また、上記画像照合装置と、上記画像入力装置との間が通信ネットワークにより接続されている構成を採用することも可能である。
 尚、発明の詳細な説明の項においてなされた具体的な実施形態または実施例は、あくまでも、本発明の技術内容を明らかにするものであって、そのような具体例にのみ限定して狭義に解釈されるべきものではなく、本発明の精神と次に記載する請求の範囲内において、いろいろと変更して実施することができるものである。
 本発明は、画像に含まれる対象物の認証に用いることができるので、プリンタ、スキャナ、パーソナルコンピュータ等により実現されるデジタル画像機器や、デジタルカメラ、およびセキュリティシステム等に好適に利用することができる。
  1、1A、1B、1C  顔認証装置(画像照合装置)
  5  画像入力装置
 A1  入力画像
A11  入力画像の顔特徴データ
 21  登録画像データベース
 22  代表データ登録情報記憶部(登録画像データベース)
 33、33A、33B、33C  顔認証処理部
 34  認証結果出力部(画像照合手段)
100  顔認証システム(画像処理システム)
331  絶対評価部(照合スコア算出手段)
332  注目登録画像選択部(相対評価スコア算出手段)
332A 注目代表データ選択部(相対評価スコア算出手段)
333  他登録画像選択部(相対評価スコア算出手段)
333A 他代表データ選択部(相対評価スコア算出手段)
334、334A  相対評価部(相対評価スコア算出手段)
335  評価統合部(統合スコア算出手段)
336  代表データ認証スコア算出部(相対評価スコア算出手段)
337  代表データ絶対評価部(照合スコア算出手段)
AVG  代表データ登録情報(代表画像)
  P  登録人物情報
  R  登録画像

Claims (13)

  1.  照合すべき対象物が撮影された入力画像を、登録画像データベースと照合する画像照合装置において、
     上記登録画像データベースでは、対象物を撮影して得られた画像の特徴量が登録画像として登録され、さらに、上記登録画像は複数の対象物について登録されており、
     上記入力画像の特徴量と、上記登録画像の特徴量とを用いて、上記登録画像が示す対象物が、どの程度上記入力画像の対象物と近似しているかを示すスコアである照合スコアを算出する照合スコア算出手段と、
     上記登録画像データベースに登録されている一の対象物が、他の対象物に対して、どの程度上記入力画像の対象物と近似しているかを示すスコアである相対評価スコアを算出する相対評価スコア算出手段と、
     上記照合スコアと、上記相対評価スコアとを重み付けした統合スコアを算出する統合スコア算出手段と、
     上記統合スコアに基づいて上記入力画像の照合を行う画像照合手段と、を備えることを特徴とする画像照合装置。
  2.  上記複数の対象物それぞれについて、同一の上記対象物について登録されている複数の登録画像を代表する特徴量を代表画像として登録する代表画像登録手段を備えることを特徴とする請求項1に記載の画像照合装置。
  3.  上記相対評価スコア算出手段は、上記代表画像を用いて上記相対評価スコアを算出することを特徴とする請求項2に記載の画像照合装置。
  4.  上記照合スコア算出手段は、上記代表画像を用いて上記照合スコアを算出することを特徴とする請求項2に記載の画像照合装置。
  5.  上記相対評価スコア算出手段は、上記一の対象物と上記他の対象物との間に構成された射影空間において、上記入力画像を前記射影空間に射影した射影点および上記一の対象物の間における近似度、または、上記射影点および上記一の対象物の間における近似度と、上記射影点および上記他の対象物の間における近似度との比を上記相対評価スコアとして算出することを特徴とする請求項1から4のいずれか1項に記載の画像照合装置。
  6.  上記相対評価スコア算出手段は、上記入力画像の対象物および上記一の対象物の間における近似度と、上記入力画像の対象物および上記他の対象物の間における近似度との比を上記相対評価スコアとして算出することを特徴とする請求項1から4のいずれか1項に記載の画像照合装置。
  7.  上記相対評価スコア算出手段は、上記一の対象物と上記他の対象物との間に構成された識別境界において、上記入力画像の対象物と上記識別境界との間の距離を上記相対評価スコアとして算出することを特徴とする請求項1から4のいずれか1項に記載の画像照合装置。
  8.  上記統合スコアは、上記照合スコアと上記相対評価スコアとの平均値であることを特徴とする請求項1から4のいずれか1項に記載の画像照合装置。
  9.  上記対象物が人物の顔であることを特徴とする請求項1から8のいずれか1項に記載の画像照合装置。
  10.  請求項1から9のいずれか1項に記載の画像照合装置と、
     上記入力画像を上記画像照合装置に供給する画像入力装置と、を備えることを特徴とする画像処理システム。
  11.  照合すべき対象物が撮影された入力画像を、登録画像データベースと照合する画像照合プログラムであって、
     上記登録画像データベースでは、対象物を撮影して得られた画像の特徴量が登録画像として登録され、さらに、上記登録画像は複数の対象物について登録されており、
     上記入力画像の特徴量と、上記登録画像の特徴量とを用いて、上記登録画像が示す対象物が、どの程度上記入力画像の対象物と近似しているかを示すスコアである照合スコアを算出する照合スコア算出ステップと、
     上記登録画像データベースに登録されている一の対象物が、他の対象物に対して、どの程度上記入力画像の対象物と近似しているかを示すスコアである相対評価スコアを算出する相対評価スコア算出ステップと、
     上記照合スコアと、上記相対評価スコアとを重み付けした統合スコアを算出する統合スコア算出ステップと、
     上記統合スコアに基づいて上記入力画像の照合を行う画像照合ステップと、を含む処理をコンピュータに実行させるための画像照合プログラム。
  12.  請求項11に記載の画像照合プログラムを記録したコンピュータ読み取り可能な記録媒体。
  13.  照合すべき対象物が撮影された入力画像を、登録画像データベースと照合する画像照合方法において、
     上記登録画像データベースでは、対象物を撮影して得られた画像の特徴量が登録画像として登録され、さらに、上記登録画像は複数の対象物について登録されており、
     上記入力画像の特徴量と、上記登録画像の特徴量とを用いて、上記登録画像が示す対象物が、どの程度上記入力画像の対象物と近似しているかを示すスコアである照合スコアを算出する照合スコア算出ステップと、
     上記登録画像データベースに登録されている一の対象物が、他の対象物に対して、どの程度上記入力画像の対象物と近似しているかを示すスコアである相対評価スコアを算出する相対評価スコア算出ステップと、
     上記照合スコアと、上記相対評価スコアとを重み付けした統合スコアを算出する統合スコア算出ステップと、
     上記統合スコアに基づいて上記入力画像の照合を行う画像照合ステップと、を含むことを特徴とする画像照合方法。
PCT/JP2011/056466 2011-03-14 2011-03-17 画像照合装置、画像処理システム、画像照合プログラム、コンピュータ読み取り可能な記録媒体、および画像照合方法 WO2012124124A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US13/985,081 US9058513B2 (en) 2011-03-14 2011-03-17 Image verification device, image processing system, image verification program, computer readable recording medium, and image verification method
KR1020137020729A KR101506105B1 (ko) 2011-03-14 2011-03-17 화상 대조 장치, 화상 처리 시스템, 화상 대조 프로그램이 기록된 기록 매체, 및 화상 대조 방법
EP11861311.6A EP2688039A4 (en) 2011-03-14 2011-03-17 PICTURE CONTROL DEVICE, PICTURE PROCESSING SYSTEM, PICTURE TEST PROGRAM, COMPUTER READABLE RECORDING MEDIUM AND PICTURE TESTING METHOD
CN201180068810.5A CN103403760B (zh) 2011-03-14 2011-03-17 图像比对装置、图像处理系统、以及图像比对方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-055970 2011-03-14
JP2011055970A JP4775515B1 (ja) 2011-03-14 2011-03-14 画像照合装置、画像処理システム、画像照合プログラム、コンピュータ読み取り可能な記録媒体、および画像照合方法

Publications (1)

Publication Number Publication Date
WO2012124124A1 true WO2012124124A1 (ja) 2012-09-20

Family

ID=44798033

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/056466 WO2012124124A1 (ja) 2011-03-14 2011-03-17 画像照合装置、画像処理システム、画像照合プログラム、コンピュータ読み取り可能な記録媒体、および画像照合方法

Country Status (6)

Country Link
US (1) US9058513B2 (ja)
EP (1) EP2688039A4 (ja)
JP (1) JP4775515B1 (ja)
KR (1) KR101506105B1 (ja)
CN (1) CN103403760B (ja)
WO (1) WO2012124124A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014013686A1 (ja) 2012-07-19 2014-01-23 日本電気株式会社 照合装置及び照合装置の制御方法、並びにコンピュータ・プログラム
US9465813B1 (en) 2012-11-09 2016-10-11 Amazon Technologies, Inc. System and method for automatically generating albums
US20150317511A1 (en) * 2013-11-07 2015-11-05 Orbeus, Inc. System, method and apparatus for performing facial recognition
JP6215774B2 (ja) 2014-05-29 2017-10-18 富士フイルム株式会社 同一人物判定装置ならびにその方法およびその制御プログラム
JP6427973B2 (ja) * 2014-06-12 2018-11-28 オムロン株式会社 画像認識装置及び画像認識装置への特徴量データ登録方法
CN106034029A (zh) 2015-03-20 2016-10-19 阿里巴巴集团控股有限公司 基于图片验证码的验证方法和装置
US10558846B2 (en) * 2015-07-27 2020-02-11 Panasonic Intellectual Property Management Co., Ltd. Face collation device, face collation system comprising same, and face collation method
KR102427853B1 (ko) * 2015-11-11 2022-08-02 삼성전자주식회사 사용자 인증을 위한 등록 데이터베이스의 적응적 갱신 방법 및 장치
US10769255B2 (en) 2015-11-11 2020-09-08 Samsung Electronics Co., Ltd. Methods and apparatuses for adaptively updating enrollment database for user authentication
US10424072B2 (en) 2016-03-01 2019-09-24 Samsung Electronics Co., Ltd. Leveraging multi cues for fine-grained object classification
WO2017158606A1 (en) * 2016-03-15 2017-09-21 Sightec (Israel) Ltd Image comparison system and method
US10579860B2 (en) 2016-06-06 2020-03-03 Samsung Electronics Co., Ltd. Learning model for salient facial region detection
US10954001B2 (en) * 2017-02-23 2021-03-23 The Boeing Company Hanging clamped supports for aircraft
JP6791182B2 (ja) * 2018-03-14 2020-11-25 オムロン株式会社 ニューラルネットワーク型画像処理装置
CN110490026A (zh) * 2018-05-14 2019-11-22 阿里巴巴集团控股有限公司 验证对象的方法、装置和系统
CN109753920B (zh) * 2018-12-29 2021-09-17 深圳市商汤科技有限公司 一种行人识别方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03150692A (ja) * 1989-11-07 1991-06-27 Nippon Telegr & Teleph Corp <Ntt> 単語照合方式
JP2003141542A (ja) 2001-11-06 2003-05-16 Toshiba Corp 顔画像照合装置、顔画像照合システム及び顔画像照合方法
JP2005253770A (ja) * 2004-03-12 2005-09-22 Konica Minolta Medical & Graphic Inc 医用画像処理装置及び医用画像処理プログラム
JP2010257339A (ja) * 2009-04-27 2010-11-11 Fujitsu Ltd 文字識別プログラム、文字識別装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE60233935D1 (de) * 2002-07-19 2009-11-19 Mitsubishi Electric Inf Tech Verfahren und Gerät zur Datenverarbeitung
EP1864245A2 (en) * 2005-03-18 2007-12-12 Philips Intellectual Property & Standards GmbH Method of performing face recognition
CN101075291B (zh) * 2006-05-18 2010-05-12 中国科学院自动化研究所 一种用于人脸识别的高效提升训练方法
US8406525B2 (en) * 2008-01-31 2013-03-26 The Regents Of The University Of California Recognition via high-dimensional data classification
CN103003814A (zh) * 2010-05-14 2013-03-27 数据逻辑Adc公司 使用大型数据库进行对象识别的系统及方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03150692A (ja) * 1989-11-07 1991-06-27 Nippon Telegr & Teleph Corp <Ntt> 単語照合方式
JP2003141542A (ja) 2001-11-06 2003-05-16 Toshiba Corp 顔画像照合装置、顔画像照合システム及び顔画像照合方法
JP2005253770A (ja) * 2004-03-12 2005-09-22 Konica Minolta Medical & Graphic Inc 医用画像処理装置及び医用画像処理プログラム
JP2010257339A (ja) * 2009-04-27 2010-11-11 Fujitsu Ltd 文字識別プログラム、文字識別装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2688039A4

Also Published As

Publication number Publication date
JP4775515B1 (ja) 2011-09-21
EP2688039A1 (en) 2014-01-22
KR101506105B1 (ko) 2015-03-25
CN103403760A (zh) 2013-11-20
CN103403760B (zh) 2016-09-14
US9058513B2 (en) 2015-06-16
US20140010419A1 (en) 2014-01-09
JP2012194605A (ja) 2012-10-11
EP2688039A4 (en) 2015-04-08
KR20130099241A (ko) 2013-09-05

Similar Documents

Publication Publication Date Title
JP4775515B1 (ja) 画像照合装置、画像処理システム、画像照合プログラム、コンピュータ読み取り可能な記録媒体、および画像照合方法
Ramachandra et al. Presentation attack detection methods for face recognition systems: A comprehensive survey
Adjabi et al. Past, present, and future of face recognition: A review
Uddin et al. The ou-isir large population gait database with real-life carried object and its performance evaluation
Rattani et al. A survey of mobile face biometrics
US8837786B2 (en) Face recognition apparatus and method
Jain et al. Face matching and retrieval in forensics applications
WO2012086222A1 (ja) 画像認証装置、画像処理システム、画像認証装置制御プログラム、コンピュータ読み取り可能な記録媒体、および画像認証方法
Connaughton et al. Fusion of face and iris biometrics
Abdullakutty et al. A review of state-of-the-art in Face Presentation Attack Detection: From early development to advanced deep learning and multi-modal fusion methods
Gofman et al. Multimodal biometrics for enhanced mobile device security
Bhattacharjee et al. Recent advances in face presentation attack detection
Nguyen et al. Generating master faces for use in performing wolf attacks on face recognition systems
Driessen et al. Achieving anonymity against major face recognition algorithms
Anthony et al. A review of face anti-spoofing methods for face recognition systems
Saragih et al. A survey of face recognition based on convolutional neural network
Sharma et al. A survey on face presentation attack detection mechanisms: hitherto and future perspectives
Shaheed et al. Deep learning techniques for biometric security: A systematic review of presentation attack detection systems
Methani Camera based palmprint recognition
Maurya et al. Spoofed Video Detection Using Histogram of Oriented Gradients
Abdulla et al. Exploring Human Biometrics: A Focus on Security Concerns and Deep Neural Networks
Rao Multi-Modal Biometric Age Prediction Through Deep Learning Framework
Kumar et al. Convolutional Neural Network Approach for Multimodal Biometric Recognition System for Banking Sector on Fusion of Face and Finger
Kumar et al. An Advance Approach of Face Recognition using PCA and Region Base Color Segmentation
Nagaria et al. A comprehensive survey and detailed study on various face recognition methods

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11861311

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20137020729

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 13985081

Country of ref document: US