WO2003052690A1 - Creation de metadonnees faciales et calcul de similarites faciales - Google Patents

Creation de metadonnees faciales et calcul de similarites faciales Download PDF

Info

Publication number
WO2003052690A1
WO2003052690A1 PCT/JP2002/013114 JP0213114W WO03052690A1 WO 2003052690 A1 WO2003052690 A1 WO 2003052690A1 JP 0213114 W JP0213114 W JP 0213114W WO 03052690 A1 WO03052690 A1 WO 03052690A1
Authority
WO
WIPO (PCT)
Prior art keywords
face
image
reliability index
index
variance
Prior art date
Application number
PCT/JP2002/013114
Other languages
English (en)
French (fr)
Inventor
Toshio Kamei
Original Assignee
Nec Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nec Corporation filed Critical Nec Corporation
Priority to DE60232365T priority Critical patent/DE60232365D1/de
Priority to EP02790768A priority patent/EP1460580B1/en
Priority to US10/488,213 priority patent/US7593551B2/en
Publication of WO2003052690A1 publication Critical patent/WO2003052690A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Definitions

  • the present invention relates to a technique that can be used for face identification, face identification, face expression recognition, male / female identification by face, age determination by face, and the like.
  • the present invention relates to meta data generation for generating meta data related to face information appearing in a still image or a moving image, a face similarity calculation, and a meta data matching technique.
  • Metadata is generally data that describes or represents the meaning of data.
  • face recognition it mainly means data related to face data such as still face images and moving images.
  • eigenface a kind of subspace method, generally called eigenface, is applied to the extracted and normalized face image.
  • a basis matrix for extracting the feature amount of the face image is obtained.
  • a face feature is extracted from the image based on this basis matrix. This is treated as metadata. It has been proposed to use a weighted absolute value distance as the degree of similarity to this facial feature.
  • This conventional pattern recognition device uses feature selection techniques to reduce the number of dimensions of feature vectors for the purpose of identifying various types of character patterns.
  • the recognition process is speeded up, and the input pattern is recognized using a feature vector that expresses the characteristics of the input pattern.
  • the input feature vector extraction unit extracts an input feature vector expressing the features of the input pattern.
  • the orthonormal base storage unit holds the orthonormal base of the partial eigenspace of the original feature space.
  • the recognition dictionary unit stores each dictionary selection feature vector defined on the partial eigenspace corresponding to one or more recognition target patterns.
  • the feature selection unit uses an orthonormal base stored in the orthonormal base storage unit, and is a projection of the input feature vector extracted by the input feature vector extraction unit onto a partial eigenspace. Calculate the force selection feature vector.
  • the matching unit compares the input selection feature vector calculated by the feature selection unit with each dictionary selection feature vector stored in the recognition dictionary unit, thereby obtaining the input selection feature vector.
  • an object detection device is disclosed in Japanese Patent Application Laid-Open No. 11-316325.
  • This conventional object detection apparatus is relatively simple in processing, and is intended for accurately detecting an object to be identified.
  • the image input unit inputs an image
  • the storage unit stores an area model in which a plurality of determination element acquisition areas are set corresponding to a specific area of the image of the object to be detected.
  • the position specification unit applies an area model stored in the storage unit to an input image input from the image input unit or an image input in advance from the image input unit and subjected to image processing. Specify the collation local area position sequentially.
  • the judgment element acquisition unit acquires the judgment element from each judgment element acquisition area of the area model each time the area model is sequentially applied to the position designated by the position designation unit.
  • the Mahalanobis distance determination unit calculates the Mahalanobis distance based on the determination element of each determination element acquisition area acquired by the determination element acquisition unit, and the image of the local area to be collated is used as the identification target object. Judge whether the image is an image or not. In this way, the identification target is detected based on the determination result of the determination unit.
  • a face identification / collation method is disclosed in Japanese Patent Application Laid-Open No. 2000-132365.
  • This conventional face identification and matching method performs stable identification even when two face images to be compared are taken under different shooting conditions or at different shooting times.
  • the purpose is.
  • the characteristics of image variation due to differences in shooting conditions or shooting times are learned in advance for each classified class.
  • Low shooting conditions or shooting time The difference between two face images, at least one of which is different, is selected, and the class is selected from the two face images. Characteristics of image fluctuation of the class Small small characteristic amount
  • face identification and matching are performed based on the features of the two face images.
  • the feature of image variation is that a plurality of sample sets of difference images of two images with different shooting conditions or shooting times are prepared, and principal component analysis is performed for each class, and the main component and each main component are analyzed. Find the magnitude of the variance of the sample distribution in the direction. To select a cluster of image variation features, the distance between the input image of the difference between two face images and the space spanned by the principal components of each class is calculated. , Select the class with the closest calculated distance
  • an image processing apparatus is disclosed in Japanese Patent Application Laid-Open No. 2000-187073.
  • the purpose of this conventional image processing apparatus is to eliminate the need to prepare a face facing left and right, a face inclined at an angle, and the like as learning samples.
  • the image group generation unit creates a symmetrical second reference image group from the symmetrically arranged first reference image group.
  • the feature information extracting unit extracts feature information by using both the first reference image group and the second reference image group.
  • the determining unit compares the feature information extracted by the feature information extracting unit with the input image, and determines that the input image is an image having the same pattern as the first reference image group. Judge the power or the power.
  • the first reference image group is a human face image fc. Disclosure of the invention
  • an object of the present invention is to provide a face image data generation technology and a face similarity calculation technology capable of improving the accuracy of face recognition.
  • Another object of the present invention is to provide a technique for constructing a more practical face matching system.
  • reliability is extracted from a face image, similarity between patterns is adaptively calculated according to the reliability, and the accuracy of face recognition can be improved. it can.
  • a face metadata generation apparatus generates metadata about a face image portion of an image.
  • the face image data generating apparatus includes: a face feature extraction unit that extracts a face feature amount from an image; and a reliability index extraction unit that extracts a reliability index representing reliability of the face feature amount from the image.
  • the reliability index extraction unit can extract a contrast index of an image as a reliability index.
  • the difference between the maximum value and the minimum value of the pixel values in the image is extracted as a contrast index of the image.
  • the variance or standard deviation of the pixel values in the image is extracted as the contrast index of the image.
  • an asymmetry index of an image may be extracted as a reliability index.
  • the asymmetry index of the image the maximum value of the difference between the image and an image obtained by inverting the image (hereinafter referred to as an inverted image) is extracted.
  • the pixel value of the difference image between the image and the inverted image is used as an image asymmetry index. Either the sum or the average of the powers of is extracted.
  • the reliability index extraction unit includes a first reliability index extraction unit that extracts a contrast index of an image, and a second reliability index extraction unit that extracts an asymmetry index of the image. Is also good.
  • the first reliability index extraction unit extracts the difference between the maximum value and the minimum value of the pixel values in the image as a contrast index of the image
  • the second reliability index extraction unit extracts The maximum value of the difference between the image and the inverted image is extracted as the asymmetry index.
  • the first reliability index extraction unit extracts one of the variance and the standard deviation of the pixel values in the image as a contrast index of the image, and generates the second reliability index.
  • the gender index extraction unit may extract, as the asymmetry index of the image, one of the sum and the average of the powers of the pixel values of the difference image between the image and the inverted image.
  • the face feature extraction unit determines the basis matrix U specified by the partial basis vector of the feature vector ⁇ .
  • the feature vector V is extracted as a face feature amount.
  • the basis matrix U is specified by the partial basis vectors selected from the basis vectors obtained by the principal component analysis of the face image sample set [ ⁇ ]. Is
  • the base matrix U is specified by a base matrix and an inverted partial base vector in which the elements of the base vector have been exchanged to correspond to the conversion of the pixel value that inverts the face image from side to side.
  • the feature vector ⁇ requires each pixel value in the image.
  • a face similarity calculation device calculates a similarity based on a face feature extracted from an image card and a reliability index indicating reliability of the face feature. calculate .
  • the face similarity calculating device calculates the similarity between metadata and evening related to the face information of the image.
  • the above-mentioned face similarity calculating device uses a reliability index for the facial feature amounts to be compared, and a distribution estimating unit for estimating parameter information on a posterior distribution of a difference vector between the facial feature amounts. And a distance calculation unit that calculates the distance between the facial features derived from the log likelihood of the posterior distribution as the similarity.
  • the distance calculation unit determines that the posterior distribution of the difference vector between the facial features is a normal distribution, and considers the adaptive Mahalanano derived from the log likelihood of the normal distribution in the reliability index.
  • the screw distance is calculated as the similarity.
  • the distribution estimating unit calculates the variance of each element k of the difference vector S with respect to the reliability index []. , _ ([ ⁇ .1) 2), and the distance calculation unit calculates the adaptive Mahalanobis distance using the variance ⁇ s , ⁇ ( ⁇ ⁇ ) 2 of each element k.
  • a variance value table that stores in advance the variance ⁇ sk ([0.]) 2 of each element k of the difference vector s with respect to the reliability index [0.] is provided.
  • the variance is read out by referring to the variance value table based on the reliability index [0.], and the The adaptive Mahalanobis distance may be calculated using the variance.
  • the distance calculating unit calculates an adaptive mixed Mahalanano derived from the log likelihood of the mixed distribution in the reliability index.
  • the screw distance is calculated as the similarity.
  • the posterior distribution (intra-class distribution) of the difference between the facial features in the class to be regarded as a match and the mismatch Parameter information on the posterior distribution (class distribution) of the difference vector between the facial features between the classes to be assumed to be imitated and the estimated parameters
  • the distance between the facial features derived from the log likelihood of the ratio of the intra-class distribution and the inter-class distribution is calculated as the similarity using the radiator information.
  • the adaptive discrimination distance derived from the log likelihood of the ratio of each distribution in the reliability index is calculated as the similarity. It is done.
  • the intraclass variance ⁇ ⁇ k ( ⁇ ⁇ ⁇ ]) 2 is stored in advance as the first variance value table
  • the inter-class variance ⁇ B , k ( ⁇ ⁇ ⁇ ]) 2 is stored in advance as the second variance table.
  • a variance table is provided, and the variance is read by referring to the first and second variance tables based on the reliability index [S.], and the read variance is read.
  • the adaptive discrimination distance may be calculated using
  • the adaptive mixture discrimination distance is determined as the similarity from the log likelihood of the ratio of each mixture distribution in the reliability index. It may be calculated as follows.
  • a face recognition system has an image input unit for inputting an image, and a face image database unit for storing face images.
  • the face recognition system includes: a face metadata generation unit configured to generate, as face metadata, a face feature extracted from the image and a reliability index face indicating reliability of the face feature, A face metadata storage unit that stores the face metadata generated by the face metadata generator, and a reliability index that indicates the reliability of the facial features and the facial features.
  • a face similarity calculation unit that calculates the face similarity by using the same, and a face meta data generation unit, a face data storage unit, and a face similarity calculation unit according to the input command.
  • a control unit for controlling and performing matching of the face image.
  • FIG. 1 is a block diagram showing a configuration of a face image matching system according to an embodiment of the present invention.
  • the principle of the present invention will be described.
  • pattern recognition when performing pattern recognition, if it is possible to prepare a large amount of training data for the class to be recognized, it is based on statistical analysis of the training data. Thus, the distribution function of the pattern is estimated, and a pattern recognition mechanism can be constructed.
  • face recognition only one registered image can be obtained for each individual, and only a small number of registered images are often allowed. Even in such a case, an index called a reliability index is given to the facial feature vector, and it is necessary to consider a class based on the index.
  • the statistical analysis of the class against the reliability index is performed, the distribution function of the pattern is estimated, and the method is applied to face recognition that can obtain only one registered image. Furthermore, a pattern recognition mechanism based on the distribution function through the reliability index can be constructed.
  • V is the feature vector obtained from the face image when there is no error. And wrong Assuming that the difference vector ⁇ is superimposed, the observation vector V actually observed is expressed by the following equation (1).
  • V ⁇ . + ⁇ (1)
  • the error vector ⁇ 3_, the reliability index ⁇ correlated with the error vector ⁇ , and the reliability index 0 2 are obtained, and the posterior distribution is ⁇ ( ⁇ I 0 1) and ( ⁇ I 0 2 ). If such a distribution is obtained, the posterior distribution of the difference vector s between the observed vectors V ⁇ and ⁇ 2 is expressed as ⁇ (S ⁇ ⁇ ⁇ , ⁇ 2 ). , The similarity d between patterns (V
  • V 2 can be expressed by the log likelihood of the following equation (3).
  • ⁇ ( ⁇ I ⁇ .), 2) be the posterior distribution of the error vector, and if the mean is 0, consider the normal distribution of the covariance matrix ⁇ £ ( ⁇ ⁇ ). In this case, the distribution of the difference vector s has an average of 0, and the covariance matrix ⁇ s ⁇ , S 2 ) is expressed by equation (4).
  • Equation (3) is in earthenware pots by being shown in the following equation (6), the covariance matrix ⁇ ⁇ ⁇ , ⁇ "1) 'Ya' sigma epsilon (0 The reliability index
  • Equation (5) becomes as shown in the following Equation (7).
  • ( ⁇ ⁇ , ⁇ 2 ) 2 is the k-th diagonal element of the covariance matrix ⁇ s ( ⁇ , ⁇ 2 ), that is, the variance of the observation error ⁇ ⁇ k (S 1 ) 2 and (j £ ( ⁇ 2 ) 2 are the k-th diagonal elements of the covariance matrices ⁇ ⁇ ( ⁇ ⁇ ) and ⁇ ⁇ ( ⁇ 2 ), respectively.
  • S k specifies the kth element of the difference vector s.
  • equation (3) can be expressed by the following equation (8): variance ⁇ £ k , ⁇ ,-( ⁇ 2 ) to have use, and reliability index S E and 0 2
  • the similarity can be defined by the Mahalanobis distance that is adaptive to the distance. d, v,, v.
  • ⁇ k ⁇ 2 and k are the feature vectors V and V, respectively.
  • the estimation of the covariance matrices ⁇ s ( ⁇ ,, ⁇ 2 ,; j) and ⁇ (j) of the posterior distribution p (s ⁇ ⁇ 1 , ⁇ 2 , j) is a general estimation method.
  • the maximum likelihood estimation method and the EM algorithm can be used for estimation. These details are described in "Eural Networks for Pattern Recognition", C. M. Bisho, Oxford University Press, 1995.
  • the Mahalanobis distance based on the error distribution described above is used for face identification, which is used to determine which face data to be searched is closest to other registered face data. It is a good distance for such problems.
  • face identification faceverification
  • the distance named ⁇ discrimination distance '' described below is a better similarity measure for this face identification problem than when using the Mahalanobis distance described above. It is.
  • two feature vectors V of a face belong to the same class and can be determined to be identical, that is, for example, the two feature vectors V If the vector is the same person's face, it is assumed that the combination of these feature vectors belongs to class W. Also, if the two feature vectors V are the feature vectors between the classes, and if they should be determined to be mismatched, that is, the two features If the vectors are the face data of different persons, then the combination belongs to class B.
  • each posterior distribution can be expressed by the following equation (15).
  • equation (15) can be expressed as the following equation (17).
  • s k is the kth element of the difference vector s.
  • Equation (16) gives the class variance and wk for each element of each feature vector as shown in the following Equation (18).
  • Equation (18) Using ⁇ ⁇ ) 2 and interclass variance ⁇ ,, -(0.) 2 , it is possible to define the similarity of the reliability index [0. it can .
  • the reliability index for the facial feature amount is not specified whether it is a scalar quantity (only one component) or a vector quantity (having multiple components). This is an argument that holds true in both cases, and improvement in performance can be expected by using multiple elements. For specific reliability indices, it is necessary to experimentally find effective reliability indices.In the case of face recognition, a contrast that represents the contrast of an image is required.
  • the use of an asymmetric index representing the amount of distortion from the left and right symmetry of the face image caused by lighting fluctuations and posture fluctuations is highly effective.
  • the accuracy can be expected to be further improved by combining these reliability indices into a vector quantity.
  • FIG. 1 is a block diagram showing a face image matching system according to one embodiment of the present invention. Hereinafter, the face image matching system will be described in detail.
  • the face image matching system includes a face image input section 11, a face metadata generation section 12 and a face metadata overnight storage section 1. 3, a face similarity calculation unit 14, a face image data base 15, a control unit 16, and a display unit 17.
  • the face image input unit 11 inputs a face image
  • the face metadata generation unit 12 extracts the face feature amount and the reliability index from the input face image, and outputs the face image. Generates evening and evening.
  • the face meta data storage unit 13 stores the extracted face meta data.
  • the face similarity calculating unit 14 calculates a face similarity from two pieces of face metadata.
  • the face image database 15 stores face images.
  • the control unit 16 controls the input of an image, the generation of metadata, the accumulation of metadata, and the calculation of the face similarity in response to an image registration request / search request.
  • the display unit 17 displays a face image and other information.
  • the face metadata generator 12 includes a face feature extractor 121 that extracts a face feature from the input face image, and a reliability that extracts a reliability index from the face image.
  • An index extraction unit 122 is provided.
  • the face similarity calculator 14 includes a distribution estimator 141 for estimating parameter information on the posterior distribution from the reliability index, and a face estimator and a distribution estimator 141.
  • a distance calculation unit 142 for calculating the distance between the facial feature amounts from the posterior distribution information. It is desirable that a variance value table 144 storing variance values be prepared in the distribution estimating unit 141. It is preferable that the variance value stored in the variance value table 144 be calculated in advance and stored in the table 143.
  • the image input unit 11 adjusts the size and position of the face, and then inputs a face photograph from a scanner or a video camera.
  • the person's face may be directly input from a video camera or the like.
  • the face position of the input image is detected by using the face detection technology as shown in the above-mentioned Moghaddam document, and the size and the like of the face image are automatically normalized. would be better.
  • the input face image is registered in the face image database 15 in association with the face metadata or ID as needed.
  • face metadata is generated by the face metadata generator 12 and stored in the face metadata storage 13.
  • a face image is input from the face image input unit 11 and face meta data is generated by the face meta data generation unit 12. Is established.
  • the generated face meta data is temporarily registered in the face meta data storage unit 13 ', or is directly sent to the face similarity calculation unit 14.
  • face identification that is, in order to check whether or not the previously input face image is inside, it is registered in the face meta data storage unit 13.
  • the degree of similarity to each of the obtained data is calculated.
  • the control unit 16 determines the face from the face image database 15 Select the image and control the display 17 to display the face image. The worker checks the identity of the face in the search image and the registered image.
  • the face image of the specified ID number is used. Whether or not they match is calculated by the face similarity calculation unit 14. If the similarity is lower than a predetermined similarity, that is, if the distance value is large, the match is determined. It is determined that there is no match, and if the similarity is high, it is determined that they match.
  • the control unit 16 controls the display unit 17 so as to display the result.
  • control unit 16 sends an open / close control signal to the automatic door. To control the opening and closing of the automatic doors to control room entry.
  • the face image matching system operates, but such an operation is realized on a computer system. You can do that too.
  • a meta data generation program for executing meta data generation as described in detail below and a similarity calculation program for executing similarity calculation are performed on the recording medium 2. 0, read it out, store it in memory (not shown), and execute them by the program control processor (not shown), respectively. This makes it possible to achieve face image matching.
  • the face image matching system in particular, the face image data generation unit 12 and the face similarity calculation unit 14 will be described in detail.
  • the face meta data generating unit 12 extracts a face feature using the image I (X, y) whose position and size are normalized. Normalization of the position and size is performed, for example, when the eye position is (16, 24),
  • the basis matrix U is specified by a partial basis vector selected from the basis vectors obtained by principal component analysis of the face image sample set [ ⁇ ]. It is done. like this In addition, by using a partial basis vector instead of the input image, the data amount of the input image can be reduced.
  • Reducing the amount of data storage in this way is important not only for reducing the amount of data stored in the meta database, but also for achieving high-speed matching.
  • As the number of dimensions of this feature vector for example, a 48-dimensional feature amount may be used.
  • a face feature vector is extracted by using a matrix U (-aUn + bUm) obtained by a linear sum of the basis matrix Un and the basis matrix Um as a basis matrix.
  • the basis matrix U n is a basis vector obtained by principal component analysis or discriminant analysis of the feature vector set [ ⁇ ] in the face image sample as described above. It is specified by the subbasis vector selected from the files.
  • the basis matrix U m is based on an inverted partial basis vector in which elements of the basis vector are exchanged to correspond to the conversion of the pixel value by which the face image is inverted left and right. Is specified.
  • the obtained facial feature vector can extract only components that are symmetric with respect to the left and right transforms in the input image space. Since the face is originally symmetric, the image component that is asymmetric due to the light and the asymmetric component that occurs because the face is not facing the front correspond to the noise originally. Since these are four types, by removing them and extracting only the symmetric components, it becomes possible to extract a face feature amount that is stable against variations in lighting and posture.
  • the face feature extraction unit 122 extracts the face feature amount V.
  • the reliability index extraction unit 122 extracts a contrast index S con tr a s ⁇ effective as a reliability index of the face feature amount V and an asymmetry index ⁇ a s y mm e t r ic. Contrast index C
  • round () means rounding of numbers.
  • the reliability index 0 extracted in this way. ntrast to '[0, 1,
  • the standard deviation of the image was calculated as the contrast index, but the variance and the difference between the maximum value and the minimum value of the pixel values in the image may be extracted.
  • the contrast index based on the maximum and minimum pixel values in the image is the index The computational complexity is smaller than when using quasi-deviation or variance, but the effect is relatively small.
  • Asymmetry index 0 asymmet 2 Let ic be the average of the absolute value (first power) of the difference between the face image I (x, y) and its inverted image by the following equation (22). Extract.
  • Confidence index extracting unit 1 2 2 are paired in the face image, characterized base click preparative Le V confidence index 0 alpha. ntast and reliability index 0 asymmetric are extracted and output as face metadata. As described above, the above-described face metadata generation procedure can be executed by a computer using a computer program.
  • the face similarity calculator 14 calculates the reliability index of the two face metadata
  • the distance calculation unit 144 calculates the similarity d between the face features using the above.
  • the distribution estimating unit 141 obtains a variance value ⁇ P ( ⁇ ) of a difference vector with respect to a previously obtained reliability index 0 (there are 256 states).
  • the variance values ⁇ w , _ (0) and the variance value ⁇ ⁇ ( ⁇ ) are stored in a table, and the values of the respective variance value tables are stored using the reliability indices S ⁇ and 0 2.
  • the obtained variance value is passed to the distance calculation unit 144 as posterior distribution information.
  • the values of variance ⁇ £ , _ ( ⁇ 1 ) and variance ⁇ £ t ⁇ ( ⁇ 2 ) required in equation (8) are output to distance calculation section 144 2.
  • the variance values ⁇ w ,-( ⁇ ), and variance value ⁇ B required for Eq. (18) can be obtained.
  • the distance calculation unit 142 calculates the adaptive Mahalanobis distance or the adaptive discrimination distance according to equation (8) or (18), and sets the similarity d as the similarity d. Output.
  • the variance value of the variance value table described above is calculated using a prepared face image data sample k). From the feature vector set [V] in the face image sample and its reliability index ⁇ ⁇ , the variance of each can be calculated as ⁇ ( ⁇ ) 2 (2 3)
  • the interclass variance and ⁇ , k (9) 2 are used instead of the error variance ⁇ £ k ( ⁇ ) 2.
  • the accuracy is higher than when the reliability index is not used.
  • the accuracy is better using error variance.
  • the similarity between face metadata is calculated using the posterior distribution information via the reliability index ⁇ contrast and the reliability index 0 asymmetric, so that accurate face recognition is performed. It is possible .
  • the above-described face similarity calculation procedure can be executed by a computer using a computer program.
  • the similarity is calculated from the face image data samples prepared in advance.
  • ⁇ £ (0) the covariance matrix in the class of the difference vector ⁇ w ( ⁇ ), the covariance matrix between the classes ⁇ ⁇ ( ⁇ ) is calculated and prepared as a covariance table, and the covariance table may be referred to when calculating the similarity.
  • the distance is calculated using the covariance matrix, so the amount of computation increases.However, if there are sufficient learning samples, the accuracy of similarity calculation can be improved.
  • the distribution function is estimated by assuming a mixed normal distribution for the posterior distribution of Eq. (3), the interclass distribution of Eq. (14), and the interclass distribution of Eq.
  • the mixture Mahalanobis distance or the adaptive mixture discrimination distance may be calculated.
  • the covariance matrix ⁇ s (0,, j) representing the mixed normal distribution from the face image data sample is used.
  • a parameter that specifies the mixture distribution such as P (: j) may be obtained and stored as a table. Note that this estimation may be performed using a general estimation method such as the maximum likelihood estimation method or the EM algorithm.
  • the similarity for one face data can be calculated by calculating the average or the minimum value of the similarity of each combination and calculating the similarity.
  • a reliability index for expressing the reliability of a face feature is added to generate the face feature data to generate face metadata.
  • An adaptive distance through the gender index can be derived, and highly accurate face recognition can be performed using the distance.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)

Description

明 細 書 顔メタデータ生成と顔類似度算出 技術分野
本発明は、 顔同定や顔識別、 顔の表情認識、 顔に よ る男 女識別、 顔によ る年齢判別等に利用可能な技術に関する 。 特に、 本発明は、 静止画像や動画像 に映されてい る顔情報 に関する メ タ データ を生成する メ タ データ 生成、 顔類似度 算出およびメ タ データ のマ ッ チング技術に関する 。 背景技術
メ タ データ と は、 一般に、 データ の意味を記述あ る い は 代表する データ であ り 、 顔認識の場合 に は、 主に静止顔画 像や動画像な どの顔データ に関するデータ を意味する 。
映像 · 画像や音声な どの マルチメ ディ ァ コ ンテ ン ツ に対 する メ タデータの標準化活動と して、 M P E G - 7 ( M o v i n g P i c t u r e s E x e r t s G r o u - 7 ) の活動力 S広 く 知 ら れて い る 。 こ の 中で顔認識に関する メ タ デー タ の記述子 と し て 、 顔認識記述子が提案 さ れて い る ( A . Y a m a d a 他編 , " M P E G - 7 V i s u a l a r t o f e x p e r i m e n t a 1 M o d e l V e r s i o n 9 . 0 , " I S O / I E C J T C 1 / S C 2 9 / W G 1 1 N 3 9 1 4 , 2 0 0 1 ) 。
こ の顔認識記述子では、 切 り 出 さ れ、 正規化さ れた顔画 像に対 して、 一般的に固有顔 と呼ばれる部分空間法の一種 を用 いて、 顔画像の特徴量を抽出する た め の基底行列が求 め ら れる 。 こ の基底行列に基づいて画像中か ら 顔特徴量が 抽出 さ れる。 これがメ タ データ と して扱われる 。 こ の顔特 徴量に対する類似度 と して重み付け絶対値距離を用 い る こ とが提案されている。
ま た、 顔認識に関する技術に は様々 な方法があ る こ とが 知 ら れて い る 。 例えば、 主成分分析、 あ る い は、 判別分析 に基づ く 固有顔によ る方法な どが知 られてい る 。 主成分分 析は、 た と えば、 M o g a d d a m 他によ る " P r o b a l i l i s t i c V i s u a l L e a r n i n g f o r O j e c t D e t e c t i o n " ( I E E E T r a n s a c t i o n s o n P a t t e r n A n a 1 y s i s a n d M a c h i n e I n t e l l i g e n c e , V o l .
1 7 , N o . 7 , p p . 6 9 6 - 7 1 0 , 1 9 9 7 ) で知 ら れ てい る 。 また、 判別分析は、 例えば W . Z h a ο 他によ る " D i s c r i m i n a n t A n a l y s i s o f P r i n c i p a l C o m p o n e n t s f o r F a c e R e c o g n i t i o n " ( P r o c e e d i n g s o f t h e I E E E T i r d I n t e r n a t i o n a.1 C o n f e r e n c e o n A u t o m a t i c F a c e a n d G e s t u r e R e c o g n i t i o n , p p . 3 3 6 - 3 4 1 , 1 9 9
8 ) で知 ら れている。
ま た、 指紋画像か ら得 ら れた特徴量に対 して部分空間法 が適用 さ れる 際に、 品質指標を導入 し、 適応的 にパタ ー ン 間 の距離 を測る 方法 も知 ら れて い る 。 例え ば、 T . K a m e i a n d M . M i z o g u c h i によ る F i n g e r p r i n t P r e s e l e c t i o n U s i n g E i g e n f e a t u r e s ( P r o c e e d i n g s o f t h e 1 9 8 I E E E C o m p u t e r S o c i e t y C o n f e r e n c e o n C o m p u t e r V i s i o n a n d P a t t e r n R e c o g n i t i o n , p p . 9 1 8 - 9 2 3 , 1
9 9 8 , 特開平 1 0 - 1 7 7 6 5 0 号公報) であ る。
しか しなが ら 、 上記従来の技術では、 十分な顔認識の精 度を得 られなか っ た。
上記記述に関連 し て、 特徴ベク ト ルの部分固有空間への 射影によ る特徴選択を用 いたパタ ー ン認識装置が、 特開平
1 0 — 5 5 4 1 2 号公報に開示さ れて レ、 る 。 こ の従来例の パター ン認識装置は、 多種類の文字パタ ー ン の識別を 目 的 と して、 特徴選択の手法 を用 いて特徴ベ ク ト ルの次元数を 削減する こ と に よ り 認識処理の高速化 を 図 っ てお り 、 入力 パタ ー ン の特徴を表現する特徴べ ク ト ルを用 いて入力パタ ー ン を認識する 。 入力特徴ベク ト ル抽出部は、 入力パタ ー ンの特徴を表現する入力特徴べ ク ト ル を抽出す る 。 正規直 交基底記憶部は、 元特徴空間の部分固有空間の正規直交基 底を保持する 。 認識辞書部は、 1 つ以上の各認識対象パタ ー ン に対応 し前記部分固有空間上で規定さ れる 各辞書選択 特徴ベ ク ト ルを記憶 してい る 。 特徴選択部は、 正規直交基 底記憶部が記憶する正規直交基底を用 いて、 入力特徴べ ク ト ル抽出部が抽出 し た入力特徴べ ク ト ルの部分固有空間へ の 射影で あ る 入 力 選択特徴ベ ク ト ル を 算 出す る 。 照合部 は、 特徴選択部が算出 し た入力選択特徴べ ク ト ル と認識辞 書部が記憶する各辞書選択特徴べ ク ト ル と を照合する こ と に よ っ て、 入力選択特徴べク ト ルに対応する 入力パター ン の種類を認識する。
ま た、 対象物検出装置が特開平 1 1 一 3 0 6 3 2 5 号公 報 に 開示さ れてい る 。 こ の従来例の対象物検出装置は、 処 理が比較的簡単で、 し か も 、 被識別対象物を正確に検出す る こ と を 目 的 と して い る 。 画像入力部は、 画像を入力 し 、 記憶部は、 検出する 被識別対象物画像の特徵的な領域に対 応 し て複数の判定要素取得領域を設定 した領域モデルを記 憶 してい る 。 位置指定部は、 画像入力部に よ り 入力 した入 力画像、 又は予め画像入力部に よ り 入力 し 、 画像処理を施 し た画像に対 して記憶部に記憶 した領域モデルを 当てはめ る 被 照合局所領域位置 を 順次指定す る 。 判定要素取得部 は、 こ の位置指定部にて指定 した位置に領域モデルを順次 当 て はめ る毎に、 こ の領域モデルの各判定要素取得領域か ら 判定要素を取得する 。 マハ ラ ノ ビス距離判定部は、 こ の 判定要素取得部が取得 し た各判定要素取得領域の判定要素 に基づいてマハ ラ ノ ビス距離計算を行い 、 被照合局所領域 の 画像が被識別対象物画像か 否か の 判定 を 行 う 。 こ う し て、 判定部の判定結果によ り 被識別対象物の検出を行う 。
ま た、 顔識別 ' 照合方法が特開 2 0 0 0 — 1 3 2 6 7 5 号公報に 開示さ れて い る 。 こ の従来例の顔識別 · 照合方法 は、 比較する 2 つ の顔画像が異なっ た撮影条件や異な っ た 撮影時期 に撮影さ れた も のであ る場合で も安定 し た識別 を 行 う こ と 目 的 と して い る 。 その方法では、 撮影条件 ま た は 撮影時期 の違い に よ る画像変動の特徴が分類さ れた ク ラ ス 毎に予め学習 さ れて い る 。 撮影条件また は撮影時期 の少な く と も 1 つが異な る 2 枚の顔画像の差力、 ら ク ラ ス が選択さ れ、 2 枚の顔画像か ら 選択さ れた ク ラ ス の画像変動の特徴 小 さ く な特徵量をそれぞれ求め 、 2 枚の顔画像の特徴 よ り 顔識別 · 照合を行っ てい る 。 画像変動の特徴は、 撮影条件ま たは撮影時期 の異な る 2 つ の画像の差画像の標 本集合を複数用意 し 、 各ク ラ ス毎に主成分分析を行っ て主 成分 と各主成方向の標本分布の分散の大き さ を求め る 。 画 像変動の特徴の ク ラ ス タ の選択は、 入力 さ れた 2 枚の顔画 像の差の画像 と各ク ラ ス の主成分に よ っ て張 ら れる空間 と の距離を算出 し 、 算出 さ れた距離が最 も近い ク ラ ス を選択 する
た、 画像処理装置が特開 2 0 0 0 — 1 8 7 7 3 3 号公 報に 開示さ れて い る 。 こ の従来の画像処理装置は、 学習用 サ ン プル と して、 左右に向 いた顔及び斜め に傾いた顔等 を 用意 しな く て済むよ う にす る こ と を 目 的 と してい る 。 画像 処理装置では、 画像群生成部は、 左右対称配置の第 1 リ フ ァ レ ンス用画像群か ら 左右対称な第 2 リ フ ァ レ ンス用画像 群 を作成する 。 特徴情報抽出部は、 第 1 リ フ ァ レ ンス用画 像群 と 当第 2 リ フ ァ レ ンス用画像群の両方を用 いて特徴情 報 を抽出する 。 判定部は、 特徴情報抽出部に よ り 抽出 さ れ た特徴情報 と入力画像 と を比較 して、 入力画像が第 1 リ フ ァ レ ンス用画像群 と 同 じパタ ー ン の画像か ら な る 力 否力、 を 判定す る。 第 1 リ フ ァ レ ン ス用 画像群が、 人間 の顏画像で fc よ い 。 発明の開示
そ こ で、 本発明 の 目 的は、 顔認識の精度を 向上させる こ と が可能な顔メ 夕 データ 生成技術お よ び顔類似度算出技術 を提供する こ と であ る 。
本発明 の他の 目 的は、 さ ら に実用 的な顔のマ ッ チングシ ステム を構築する ため の技術を提供する こ と にあ る。
本発明 に よれば、 顔画像か ら 信頼性が抽出 さ れて、 その 信頼性に応 じて適応的にパタ ー ン間の類似度が算出さ れ、 顔認識の精度を向上させる こ とができ る。
本発明 の第 1 の観点 に よ れ ば、 顔 メ タ デー タ 生成装置 は、 画像の顔画像部に関する メ タ データ を生成する。 顔メ 夕データ生成装置は、 画像か ら 顔特徴量を抽出する顔特徴 抽出部 と 、 画像か ら 顔特徴量に対する 信頼性を表す信頼性 指標を抽出する 信頼性指標抽出部 と を備え 、 顔特徴量お よ び信頼性指標を顔メ タ データ と して生成する。
信頼性指標抽出部は、 信頼性指標 と し て、 画像の コ ン ト ラ ス ト指標を抽出する こ とができ る 。 画像の コ ン ト ラ ス ト 指標 と して、 画像中 の画素値の最大値 と最小値 と の差が抽 出 さ れる 。 あ る い は、 画像の コ ン ト ラ ス ト 指標 と して、 画 像中の画素値の分散あ る いは標準偏差が抽出さ れる。
さ ら に、 信頼性指標 と して、 画像の非対称性指標が抽出 されて も よ い。 画像の非対称性指標 と し ては、 画像 とその 画像を左右反転 し た画像 (以下、 反転画像 と い う 。 ) と の 間の差分の最大値が抽出 さ れる 。 あ る い は、 画像の非対称 性指標 と して、 画像 と反転画像 と の間の差分画像の画素値 のべき乗の和および平均のいずれかが抽出さ れる 。 信頼性指標抽出部は、 画像の コ ン ト ラ ス ト 指標を抽出す る 第 1 信頼性指標抽出部 と 、 画像の非対称性指標を抽出す る 第 2 信頼性指標抽出部 と を備えて いて も よ い。 第 1 信頼 性指標抽出部は、 画像の コ ン ト ラ ス ト 指標 と して、 画像中 の画素値の最大値 と最小値の差を抽出 し 、 第 2 信頼性指標 抽出部は、 画像の非対称性指標 と して、 画像 と反転画像 と の 間の差分の最大値 を抽 出する 。 あ る い は、 第 1 信頼性指 標抽出部は、 画像の コ ン ト ラ ス ト 指標 と して、 画像中 の画 素値の分散およ び標準偏差の一方を抽出 し、 第 2 信頼性指 標抽出部は、 画像の非対称性指標 と して、 画像 と反転画像 と の間の差分画像の画素値のべき乗の和お よ び平均の一方 を抽出 して もよ い。
顔特徴抽出部は、 画像か ら得 ら れた特徴ベ ク ト ル を Λ と する と き に、 特徴べ ク ト ル Λ の部分基底べ ク ト ルに よ っ て 特定さ れる基底行列 U と特徴べク ト ル Λ の平均べ ク ト ル Ψ と を用 いて特徴ベ ク ト ル v = U T ( Λ - Ψ ) を算出する 。 こ う し て 、 特徴ベ ク ト ル V は 、 顔特徴量 と し て抽 出 さ れ る 。 基底行列 U は、 顔画像サ ンプル集合 [ Λ ] の主成分分 析に よ っ て得 ら れる基底べク ト ルの 中か ら選択 さ れた部分 基底ベ ク ト ルに よ っ て特定さ れる 。 基底行列 U は、 基底行 列 と 、 顔画像を左右反転する画素値の変換 と対応する よ う に基底べク ト ルの要素が入れ換え ら れた反転部分基底べク ト ルに よ っ て特定さ れる基底行列 と の線形和 に よ っ て得る こ と もでき る 。 特徴べク ト ル Λ は、 画像中 の各画素値 を要 素 と する べク ト リレであ る か、 あ る い は、 画像を フ 一 リ エ変 換 し 、 得 ら れる複素フー リ エ成分の各成分の大き さ を要素 とするべク ト ルであっ て も よい。
本発明 の他の観点によれば、 顔類似度算出装置は、 画像 カゝ ら 抽出 さ れた顔特徴量 とその顔特徴量に対する信頼性を 表す信頼性指標 と に基づ い て 類似度 を 算 出す る 。 こ う し て、 顔類似度算出装置は、 画像の顔情報に関する メ タ デー 夕間の類似度を算出する。
上記顔類似度算出装置は、 比較する顔特徴量に対する 信 頼性指標 を用 いて、 顔特徴量間の差ベ ク ト ルの事後分布 に 関するパ ラ メ ータ 情報を推定する分布推定部 と 、 事後分布 の対数尤度か ら 導かれる顔特徴間の距離を類似度 と し て算 出する距離算出部と を有する。
距離算出部は、 顔特徴量間の差べ ク ト ルの事後分布が正 規分布であ る と して、 信頼性指標にお ける正規分布の対数 尤度か ら 導かれる適応的マハ ラ ノ ビス距離を類似度 と して 算出する。
分布推定部は、 信頼性指標 [ ] に対する 差ベ ク ト ル S の各要素 k の分散 ひ 。 ,_ ( [ Θ . 1 ) 2 を推定し、 距離 算出部は、 各要素 k の分散 σ s ,- ( ί Θ ) 2 を用 いて 適応的マハ ラ ノ ビス距離を計算する。
頼性指標 [ 0 . ] に対する差ベク ト ル s の各要素 k の 分散 σ s k ( [ 0 . ] ) 2 を あ ら か じ め記憶する分散値テ 一ブルが備え ら れ、 分布推定部は、 信頼性指標 [ 0 . ] に 基づいて分散値テ一ブルを参照 して分散を読み出 し、 その 分散 を用 い て適応的 マハ ラ ノ ビス 距離 が計算 さ れて も よ い。
距離算出部は、 顔特徴量間の差べ ク ト ルの事後分布が混 合分布であ る と き、 信頼性指標にお ける 混合分布の対数尤 度か ら 導かれる 適応的混合マハ ラ ノ ビス 距離を類似度 と し て算出する。
比較する顔特徴量に対する信頼性指標 を用 いて、 一致 と 見倣すべき ク ラ ス 内 にお ける顔特徴量間の差べ ク ト ルの事 後分布 (ク ラ ス 内分布) と 、 不一致 と見倣すべき ク ラ ス 間 にお ける顔特徴量間 の差ベク ト ルの事後分布 (ク ラ ス 間分 布) と に関する パ ラ メ ータ情報が推定さ れ、 推定さ れたパ ラ メ ータ情報 を用 いて ク ラス 内分布お よびク ラ ス 間分布の 比の対数尤度か ら導かれる顔特徴量間の距離を類似度 と し て算出する。
ク ラ ス 内分布お よ びク ラス 間分布がそれぞれ正規分布で あ る と き、 信頼性指標におけるそれぞれの分布の比の対数 尤度か ら 導かれる 適応的判別距離が類似度 と して算出 さ れ る。
信頼性指標 [ Θ . ] に対する差ベク ト ル S の各要素 k の ク ラス 内分散 ひ w k ( [ θ . ] ) 2 およ びク ラ ス 間分散 ひ Β ,- ( [ Θ , ] ) 2 が推定さ れ、 適応的判別距離が類似度 と して算出さ れて も よ い。
信頼性指標 [ 0 . ] に対する差ベク ト ル S の各要素 k の ク ラ ス 内分散 a w k ( [ θ ± 1 ) 2 お よびク ラ ス 間分散 σ B , k ( [ θ . ) 2 の推定のため に、 ク ラ ス 内分散 σ τ k ( ί θ ± ] ) 2 を あ ら か じめ記憶する 第 1 分散値テー ブル と 、 ク ラ ス 間分散 σ B , k ( ί θ ± ] ) 2 を あ ら か じ め記憶 す る 第 2 分散値テー ブル と が備 え ら れ、 信頼性指標 [ S . ] に基づいて第 1 お よ び第 2 分散値テー ブルがそれぞれ 参照 さ れて分散を読出 し 、 読み出 さ れた分散を用 いて適応 的判別距離が計算されて も よ い。
ク ラ ス 内分布およ びク ラ ス 間分布がそれぞれ混合分布で あ る と き、 信頼性指標にお けるそれぞれの混合分布の比の 対数尤度か ら適応的混合判別距離が類似度 と して算出 さ れ ても よ い。
本発明の第 3 の観点に よれば、 顔認識シス テム は、 画像 を入力する画像入力部 と 、 顔画像を蓄積す る 顔画像データ ベース部 と を有する 。 顔認識シス テム は、 画像か ら抽出 さ れた顔特徴量 とその顔特徴量に対する信頼性を表す信頼性 指標顔 と を顔メ タ データ と して生成する 顔メ タ デー タ 生成 部 と 、 顔メ タ データ 生成部に よ つ て生成さ れた顔メ タ デー 夕 を蓄積する顔メ タ データ蓄積部 と 、 顔特徴量 とその顔特 徴量に対する信頼性 を表す信頼性指標 と に基づいて顔類似 度 を算 出す る 顔類似度算 出部 と 、 入 力 さ れた指令 に応 じ て、 顔メ タ データ 生成部、 顏メ 夕 データ蓄積部お よ び顔類 似度算出部を制御 し 、 顔画像のマ ツ チ ン グを実行する 制御 部と を備えてい る。
上述 した顔メ タ デー タ 生成部および顔類似度算出部を用 い る こ と に よ り 、 高精度の顔画像マ ッ チ ン グを達成する こ とができる。 図面の簡単な説明
図 1 は、 本発明 の一実施形態 に よ る顔画像マ ッ チ ン グ シ ス テム の構成を示すブロ ッ ク 図であ る。 発明を実施するための最良の形態
(発明の原理)
は じ め に本発明 の原理 につ いて説明する 。 一般に、 パ タ ー ン認識 を行 う 際、 認識 さ れる べき ク ラ ス に対す る学習デ 一 夕 を大量に用意する こ とが可能であ る な ら ば、 その学習 データ に対する統計解析に基づいてパタ ー ン の分布関数が 推定さ れ、 パタ ー ン認識機構を構築する こ とができ る 。 し か し なが ら 、 顔認識の場合、 個人毎に は 1 枚だけの登録画 像 し か得 ら れず、 ご く 少数の登録画像 しか許さ れない こ と が多い。 こ の よ う な場合であ っ て も 、 顔の特徴ベ ク ト ル に 対 し て信頼性指標 と い う 指標が与え ら れ、 その指標に基づ いて ク ラ ス を考え る こ と とする 。 こ れに よ り 、 その信頼性 指標に対する ク ラ ス の統計解析が行われ、 パタ ー ン の分布 関数が推定さ れ、 一枚の登録画像 しか得 ら れな い よ う な顔 認識 に対 して も信頼性指標を通 じ た分布関数に基づ く パ タ 一ン認識機構を構築する こ とができる。
以下、 誤差分布に基づ く 場合のマハ ラ ノ ビス 距離 と ク ラ ス 内分布や ク ラ ス 間分布 に基づ く 判別距離につ い て の顔認 識の原理について説明する。
い ま 、 あ る 一人の顔を観測する 場合を考え る 。 誤差がな い場合に顔画像か ら 得 ら れる特徴ベク ト ルを V 。 と し 、 誤 差べ ク ト リレ ε が重畳 してい る とす る と 、 実際に観測さ れる 観測ベク ト ル V は、 以下の式 ( 1 ) によ り 表される。
V = ν。 + ε ( 1 )
こ こ で、 特徴ベ ク トル V Q が 2 回観測される とすれば、 以下の式 ( 2 ) に示される よ う に、 2 つ の観測ベ ク ト ル V λ と V 2 が得 ら れる。 2 V。
( 2 )
εつ レ ま 、 誤差ベ ク ト ル ε 3_ , 誤差べ ク ト ル ε に対 し て相 関 を持つ信頼性指標 θ 、 信頼性指標 0 2 がそれぞれ得 ら れ、 そ の事後分布が ρ ( ε I 0 1 ) 、 ( ε I 0 2 ) で あ る とする 。 こ の よ う な分布が得 ら れた と き の観測べク 卜 ル V λ と ν 2 の差ベク トル s の事後分布が ρ ( S \ Θ ± , Θ 2 ) と表さ れる とすれば、 パタ ー ン間の類似度 d ( V
V 2 ) は、 以下の式 ( 3 ) の対数尤度に よ り 表さ れる と ができ る。
d (ν, , v2) = - In p (s I θ1# θ2) ( 3 )
事後分布 P { B \ θ ) 、 ρ ( ε I θ 2 ) がそれぞれ正規 分布であ る と す る と 、 差ベ ク ト ル s の分布 ρ ( S I θ λ , θ ) も正規分布 と な る で 、 誤差べ ク 卜 ル の事後分 布 を ρ ( ε I Θ . ) , 2 ) と し 、 平均が 0 で め る と い 、 共分散行列 ∑ £ ( Θ ± ) の正規分布 を考え る 。 こ の場 合、 差ベ ク ト ル s の分布は、 平均が 0 であ り 、 共分散行列 ∑ s { Θ , S 2 ) は式 ( 4 ) で表される。
,θ2) = I )+ ε2) ( 4 ) 書き直すと、 事後分布 p s j ^ ;^ 0 2 ) は次式 ( 5 ) で 表される。
P s θ,,θ, exp ( 5 )
2
(2 3χ, θ2^ 従っ て、 式 ( 3 ) は、 次式 ( 6 ) に示 さ れる よ う に、 共 分散行列 ∑ ε {、 θ " 1 ) ' や ' ∑ ε ( 0 つ) を用 いて、 信頼性指標
Θ や Θ に対して適応的なマハ ラ ノ ビス距離に書き表す とができ る。
d vlf v2
= - In l^s I 9LF θ2)
= sT2 ,
Figure imgf000015_0001
S(0" Θ2)| ( 6 )
誤差べ ク ト ル の 各要素 間 に お け る 独立性が仮定 さ れれ ば、 式 ( 5 ) は次式 ( 7 ) に示される よ う にな る。
Figure imgf000015_0002
こ こで、 σ „ k { θ ± , θ 2 ) 2 は共分散行列 ∑ s ( θ , θ 2 ) の k 番目 の対角要素であ り 、 つ ま り 、 観測誤差の分 散で あ る 。 ま た 、 σ ε k ( S 1 ) 2 、 (j £ ( θ 2 ) 2 は、 それぞれ共分散行列 ∑ ε { θ λ ) 、 ∑ ε ( θ 2 ) の k 番 目 の対角要素で あ る 。 s k は差ベク ト ル s の k 番目 の要素 を指定する 。
こ のよ う に正規分布 を仮定する こ と で、 式 ( 3 ) は、 次 式 ( 8 ) の よ う に、 各特徴ベク トルの要素毎の分散 σ £ k 、 ひ ε ,- ( θ 2 ) を用 いて、 信頼性指標 S ェ や 0 2 に対 して適応的なマハ ラ ノ ビス 距離によ っ て類似度を定義 する こ とができる。 d、v, , v.
= - In p I θ1# θ.
2 2 , θ; ( 8 )
1 Ν
-
2 άι
Figure imgf000016_0001
— '
2. k=i
で ν k ν 2 , k はそれぞれ特徴ベク ト ル V ェ、 V
2 の k 番目 の要素を表す。
上記説明では、 事後分布 p ( s I 0 . , θ ) と して正規 分布が仮定さ れたが、 以下の説明では、 混合正規分布が仮 定 さ れる 。 さ て、 次式 ( 9 ) に示 さ れる よ う に 、 正規分布
P ( s I 0 丄 , Θ 2 ' , 2 , , M ) の和 に よ つ て事後分布 p ( s θ 1 , 0 2 ) が表現さ れる こ とができ る と仮定する。
P (s f θ,,θ,) = 2 p (s I θ,, θ,, ίίρ ( 9 ) 従っ て、 次式 ( 1 0 ) に よ り 適応的混合マハ ラ ノ ビス 距 離を定義する こ とができる 。 ,V2
-lnp(s I 0lfe2)
-ΙηΙρΙβ Ι Θ,,θ,,:
Figure imgf000017_0001
= -ln —— N x exp (- - ∑ Efe' j) +∑ ! ■ 1 s) P ( j)
( 1 0 )
事後分布 p ( s \ Θ 1 , Θ 2 , j ) の共分散行列 ∑ s ( θ Λ , Θ 2 , ; j ) お よび Ρ ( j ) の推定につ いて は、 一般的 な推定方法で あ る最尤推定法や E Mアルゴ リ ズム を用 いて 推定する こ とができ る 。 こ れ ら の詳細は、 C . M . B i s h o に る " e u r a l N e t w o r k s f o r P a t t e r n R e c o g n i t i o n " ( O x f o r d U n i v e r s i t y E x p r e s s , 1 9 9 5 ) に記載されてい る 。
混合正規分布を仮定する こ と で、 分布 を よ り 正確 に近似 でき、 マ ッ チ ン グ性能が向上する 。 しか しなが ら 、 大量の 学習データ が必要になる と と も に演算量 も ま た大幅 に増加 する。
前述の誤差分布に基づ く マハ ラ ノ ビス 距離は、 検索 さ れ る 顔デー タ が他の登録さ れて い る顔データ の 中で どれに最 も近いか を調べる顔同定 ( f a c e i d e n t i f i c a t i o n ) の よ う な問題 に対 して優れてい る 距離であ る 。 一方、 顔識 別 ( f a c e v e r i f i c a t i o n ) の問題では、 入力 さ れた 顔デー タ を 、 登録 さ れた顔画像 と の 同 一性 を判定す る 上 で、 入力 さ れた顔デー タ を受 け入れ る べ き か 、 棄却すべき かが重要な 問題で あ る 。 以下で説明す る 「判別距離」 と 名 付 け る 距離 は、 こ の 顔識別 問題 に対 し て は 前述 の マ ハ ラ ノ ビス 距離 を 用 い る 場合 よ り も 、 優れた類似度尺度 と な つ てい る 。
い ま 、 顔の 2 つ の特徴ベ ク ト ル V が、 同一 ク ラ ス 内 に属 して一致す る と 判定で き る な ら ば、 すなわ ち 、 例 え ば、 2 つ の特徴べ ク ト ルが 同 じ 人物 の顔デ一 夕 で あ る な ら ば、 そ れ ら の特徴べ ク ト ル の組み合わせ は ク ラ ス Wに属 し て い る と する 。 ま た 、 2 つ の特徴べ ク ト フレ V がク ラ ス 間 の特徴べ ク ト ル で あ り 、 不 一致 と 判 定 さ れ る べ き な ら ば 、 す な わ ち 、 2 つ の特徴ベ ク ト ルが異な っ た 人物 の顔デー タ で あ る な ら ば、 それ ら の組み合わせ は ク ラ ス B に属 し て い る と す る。
2 つ の特徴ベ ク ト ル V ェ、 V 2 に対 し て信頼性指標 Θ i 、 Θ 2 が得 ら れる とす る 。 差ベ ク ト ル s と 2 つ の信頼性指標 θ 1 、 9 2 (以下、 2 つ の信頼性指標 のセ ッ ト は [ 0 , ] と 表記 さ れ る ) が観測 さ れた と き に 、 2 つ の特徴ベ ク ト ル V
1 , V 2 がー致 し て い る と見做 さ れ る 場合 と 不一致 と 見倣 さ れ る 場 合 と の 判別 問 題 を 考 え る 。 こ の 場合 、 次式 ( 1 1 ) の判別貝 IJ ( d e c i s i o n r u l e ) が得 ら れる 。
Figure imgf000019_0001
上記式 ( 1 1 ) の左辺は、 ベイ ズ定理 ( B a y e s T h e o r e m ) によ っ て次式 ( 1 2 ) の よ う に書き直す こ とができ る。
Figure imgf000019_0002
( 1 2 )
(w, {eJ)P (s I w, {Θ±})
P (B, {θ±})ρ (s I B,
= (W) P (s I w, {θ,})
P (B) P (s I B,¾)
こ こ で、 ク ラ ス W、 B と [ ^ i ] の生 じ る確率は独立で あ る と 仮 定 し て 、 P ( W , [ Θ ± ] ) = P ( W ) P ( [ Θ . ] ) 、 Ρ ( Β , [ θ ] ) = Ρ ( Β ) ρ ( [ 9 . ] ) と して い る 。
ノ\°タ ー ン間の距離 d ( V χ , V 2 ) と して式 ( 1 2 ) の対 数尤度が計算さ れる な ら ば、 次式 ( 1 3 ) に示 さ れる よ う に、 顔識別問題に適した類似度を求め る こ とができる 。 d(v1 v2) = _ln.P(W)P(S I
p (B) p (S I B, |ΘΑ ( 1 3 )
p w
一 In 一 In
is I B, θ p (Bj
個別 のマ ッ チ ン グ毎に事前確率 P ( W ) 、 P ( B ) が異 な り 、 且つ、 それを知 る こ と ができ る な ら ば、 .式 ( 1 3 ) の第 2 項 を 計算す る こ と が望 ま し い 。 し か し 、 多 く の 場 合、 個別 のマ ッ チ ン グ毎に事前確率を知 る こ と ができない ので、 事前確率は一定 と仮定する こ とで、 第 2 項を一定 と 見倣し、 類似度の計算か ら は除外する。
事後確率 P ( s I W , [ Θ . ] ) 、 P ( s | B , [ Θ . ] ) を、 それぞれク ラ ス 内分布 p w ( s I ί Θ 1 ) 、 ク ラ ス 間 分布 ρ „ ( s ί Θ , ] ) と書き代え る と 、 次式 ( 1 4 ) が 得 られる。
Figure imgf000020_0001
次に、 ク ラ ス 内分布 p w ( s I ί Θ ± ) 、 ク ラス 間分布
P Β ( s I ί θ .1 ) がそれぞれ正規分布であ る と仮定 し 、 その平均がそれぞれ 0 、 共分散行列がそれぞれ ∑ w ( [ Θ . ] ) 、 ∑ B ( [ Θ ±1 ) とすれば、 事後分布はそれぞれ次 式 ( 1 5 ) で書き表す こ とができ る。
PB s
Figure imgf000020_0002
上式 を式 ( 1 4 ) に代入す る と (但 し 、 式 ( 1 4 ) の第
2 項 は省略) 、 次式 ( 1 6 ) で示 さ れる 距離 を得 る こ と が でき る 。 こ れを 「適応的判別距離」 と 呼ぶ こ と にする 。
d , , )
一 In Pwls θ
( 1 6 )
Figure imgf000021_0001
差べ ク ト ル s の各要素 間 にお け る 独立性 を仮定すれば、 式 ( 1 5 ) は、 次式 ( 1 7 ) と表す こ と が出来 る 。
Figure imgf000021_0002
( 1 7 ) ( θ ± 2 は、 それぞれ で、 び W , k ( Θ i 2、 び B , k
共分散行列 ∑ w ( θ ± ) 、 ∑ Β ( θ ± ) の k 番 目 の対角 要素 で あ り 、 つ ま り 、 ク ラ ス 内 分散 と ク ラ ス 間 分散 に 相 当 す る 。 s k は差ベ ク ト ル s の k番 目 の要素であ る 。
' こ の よ う に正規分布 を仮定す る こ と で式 ( 1 6 ) は、 次 式 ( 1 8 ) の よ う に 、 各特徴ベ ク ト ルの要素毎 の ク ラ ス 内 分散 び w k θ ± ) 2、 ク ラ ス 間分散 σ Β ,- ( 0 . ) 2 を用 いて 、 信頼性指標 [ 0 . ] に対 し て適応的な判別距離 に よ る類似度を定義する こ と ができ る 。
Figure imgf000022_0001
( 1 8 )
上記の説明ではク ラ ス 内分散 σ ( θ . ) 2、 ク ラ ス間
W , k
分散 び k ( Θ . ) 2 と して正規分布が仮定 さ れたが、 以 下では混合分布が仮定される。
次式 ( 1 9 ) の よ う に 、 ク ラ ス 内 分布 P w ( s I [ Θ . ] ) 、 ク ラ ス 間分布 P n ( s I [ Θ ± ] ) と し て、 それぞ れ正規分布 P w ( s | [ 0 i ] , j w ) ( j w , 2 , .
M 、 P B ( S | j B ) ( J B = : , 2 , . , M
B ) の和によっ て事後分布が表現でき る と仮定する
P„(s I {θ±}) = | Pw(s I {θ±}, jw) p (jj
( 1 9 )
pB(s I {ej) = 1 Pb(S I {ej, jB)p(jB) 従っ て、 こ の対数尤度を用 いて次式 ( 2 0 ) の適応的混 合マハ ラ ノ ビス距離を導 く こ とができ る。
TJP02/13114
: _ ln Pw(s I {Θ,
— ln | Pw(s I {e^ jpi j + ln J pE s θ ; jB)P(j
Figure imgf000023_0001
( 2 0 )
ク ラ ス 内分布 P w ( s | [ e i ] B , j w ) 、 ク ラ ス 間分布
P R ( s I [ Θ . ] , B ) の共分散行列 ∑ w ( s I ί θ , ] ,
w B ί θ Λ 1 j w ) 、 p
( j R ) の推定については、 最尤推定法や E M
B アルゴ リ ズム p
を用 いて推定する こ とができ る 。 混合分布 を 仮定す る こ と で 、 分布 を よ り 正確 に近似で き、 マ ッ チ ング性能を 向上 さ せる こ と ができ る 。 し か しな が ら 、 同時に大量の学習デー タ が必要にな る と と も に、 演 算量も大幅に増加する 。
こ のよ う に顔特徴量に対 して さ ら に信頼性指標 を抽出す る こ と に よ っ て、 信頼性指標 に対 して適応的な距離規範を 導 く こ とができ、 高精度な顔認識機構を構築する こ と がで き る 。 なお、 上記では、 特徴ベ ク ト ルに対する 信頼性指標 を ス カ ラ ー量 (一つ の成分のみ) か、 ベク ト ル量 (複数の 成分 を も つ) か特定 していな いが、 どち ら の場合で も 成立 す る 議論であ り 、 複数の要素 を用 い る こ と で、 性能 の向上 が期待でき る。 具体的な信頼性指標につ いては、 実験的 に有効な信頼性 指標 を発見する こ と が必要であ り 、 顔認識の場合では、 画 像の コ ン ト ラ ス ト を表すコ ン ト ラ ス ト 指標や、 正面顔の認 識では、 照明変動や姿勢変動に よ っ て生 じ る顔画像の左右 の対称性の歪みか ら の量を表す非対称指標 を用 い る と高い 効果が得 ら れ、 それ ら の信頼性指標を組み合わせてべク ト ル量とする こ とで、 よ り 精度の向上が期待でき る。
(実施例)
図 1 は、 本発明 の一実施形態に よ る顔画像マ ッ チ ングシ ス テム を示すブロ ッ ク 図であ る 。 以下、 顔画像マ ッ チ ン グ システム について詳細に説明する。
図 1 に示すよ う に、 本発明 に よ る顔画像マ ッ チ ングシス テム は、 顔画像入力 部 1 1 と 、 顔 メ タ デー タ 生成部 1 2 と 、 顔メ タ デ一夕蓄積部 1 3 と 、 顔類似度算出部 1 4 と 、 顔画像データ べ一ス 1 5 と 、 制御部 1 6 と 、 表示部 1 7 と を備えてい る 。 顔画像入力部 1 1 は、 顔画像を入力 し、 顔 メ タ デー タ 生成部 1 2 は、 入力 さ れた顔画像か ら それ ら の 顔特徴量、 信頼性指標 を抽 出 し 、 顔 メ 夕 デ一 夕 を 生成す る 。 顔メ タ データ蓄積部 1 3 は、 抽出 さ れた顔メ タ デー タ を蓄積す る 。 顔類似度算出部 1 4 は、 2 つ の顔メ タ データ か ら 顔の類似度を算出する 。 顔画像デー タ べ一ス 1 5 は、 顔画像を蓄積する 。 制御部 1 6 は、 画像の登録要求 · 検索 要求 に応 じて、 画像の入力 、 メ タ デー タ の生成、 メ タ デー 夕 の蓄積、 顔類似度の算出の制御 を行 う 。 表示部 1 7 は、 顔画像や他の情報を表示する。 ま た、 顔メ タ デー タ 生成部 1 2 は、 入力 さ れた顔画像か ら 顔特徴を抽出する 顔特徴抽出部 1 2 1 と 、 顔画像か ら信 頼性指標を抽出す る 信頼性指標抽出部 1 2 2 と を備えてい る 。 顔類似度算出部 1 4 は、 信頼性指標か ら 事後分布に関 する パ ラ メ ータ 情報 を推定する分布推定部 1 4 1 と 、 顔特 徴量 と分布推定部 1 4 1 か ら の事後分布情報か ら顔特徴量 間の距離を算出する 距離算出部 1 4 2 と を備えてい る 。 分 布推定部 1 4 1 内 に は、 分散値を格納する分散値テーブル 1 4 3 が用意さ れて い る こ とが望ま し い。 分散値テーブル 1 4 3 に格納さ れる 分散値は予め計算さ れ、 テーブル 1 4 3 に格納さ れてい る こ とが望ま し い。
登録時に は、 画像入力部 1 1 は、 顔の大き さ や位置を合 わせた上でス キ ャ ナあ る い は ビデオカ メ ラ か ら顔写真を入 力する 。 あ る い は、 人物 の顔を直接 ビデオカ メ ラ な どか ら 入力 して も構わない。 こ の場合には、 前述の M o g h a d d a m の文献に示さ れてい る よ う な顔検出技術を用 いて、 入力 さ れた画像の顔位置 を検出 し 、 顔画像の大き さ 等を 自動的 に正規化する方がよいであ ろ う 。
ま た、 入力 さ れた顔画像は、 必要に応 じて、 顔メ タ デー 夕 又は I D と 関連付けて顔画像データ べ一ス 1 5 に登録さ れる 。 顔画像登録 と 同時 に、 顔メ タ デー タ 生成部 1 2 に よ つ て顔メ タ データ が生成 さ れ、 顔メ タデー タ 蓄積部 1 3 に 蓄積される 。
検索時に は、 同様 に、 顔画像入力部 1 1 か ら顔画像が入 力 さ れ、 顔メ タ デー タ 生成部 1 2 に よ り 顔メ タ データが生 成 さ れる 。 生成さ れた顔メ タ データ は、 一旦顔メ タデータ 蓄積部 1 3' に登録 さ れる か、 ま たは、 直接に顔類似度算出 部 1 4 へ送 ら れる 。 検索では、 顔同定の場合、 すなわち 予 め入力 さ れた顔画像がデ一夕 ベース.中 に あ る か ど う か を確 認する 場合には、 顔 メ タ データ蓄積部 1 3 に登録さ れたデ 一 夕 の一つ一つ と の類似度が算出 さ れる 。 最 も類似度が高 い結果、 すなわ ち 、 距離値が小 さ い結果に対応する顔メ タ デー タ 又は I D に基づいて、 制御部 1 6 は、 顔画像データ ベース 1 5 か ら 、 顔画像 を選び、 顔画像を表示する よ う に 表示部 1 7 を制御す る 。 検索画像 と登録画像にお ける顔の 同一性を作業者が確認する。
一方、 顔識別 の場合に は、 すなわち 予め I D 番号で特定 さ れた顔画像 と検索の顔画像が一致する か ど う か を確認す る 場合に は、 特定さ れた I D 番号の顔画像 と一致する か否 かが顔類似度算出部 1 4 にお いて計算さ れ、 予め決め ら れ た類似度よ り も類似度が低い場合には、 すなわち 距離値が 大き い場合には、 一致 し ない と判定さ れ、 類似度が高い場 合に は一致する と判定 さ れる 。 制御部 1 6 は、 その結果を 表示する よ う に表示部 1 7 を制御する 。
こ の シス テムが入室管理用 に用 い ら れる な ら ば、 顔類似 度 を 表示す る 代わ り に 、 制御部 1 6 カゝ ら 自 動 ド ア に対 し て、 そ の 開 閉制御信号を送 り 、 自 動 ド ア の開 閉制御 を行 う こ と に よ っ て入室管理を行う こ とができ る。
上記 の よ う に 、 顔画像マ ッ チ ン グ シ ス テ ム は動作す る が、 こ の よ う な動作はコ ン ピ ュ ータ シス テム上で実現する こ と もでき る 。 た と え ば、 次に詳述する よ う な メ タ データ 生成を実行する メ タ デー タ 生成プ ロ グラ ムお よ び類似度算 出 を実行する類似度算出 プロ グ ラ ムが記録媒体 2 0 に格納 さ れて い て 、 それ を 読 出 し て メ モ リ ( 図示せず) に格納 し 、 これ ら を プロ グラ ム制御プロ セ ッ サ (図示せず) に よ つ てそれぞれ実行する こ とで顔画像マ ッ チ ン グを実現する こ とができ る。
次に、 こ の顔画像マ ッ チ ングシス テム の動作、 特に顔メ 夕 データ 生成部 1 2 と顔類似度算出部 1 4 につ いて詳細 に 説明する。
( 1 ) 顔メ タデータ生成
顔メ タ データ生成部 1 2 は、 位置 と大き さ が正規化さ れ た画像 I ( X , y ) を用 いて、 顔特徴量を抽出する 。 位置 と 大き さ の正規化 は、 例 え ば、 目 位置が ( 1 6 , 2 4 ) 、
( 3 1 , 2 4 ) 、 サイ ズが 4 6 X 5 6 画素 と なる よ う に画像 を正規化 してお く と よ い。 以下では、 こ のサイ ズに画像が 正規化されている場合について説明する。
顔特徴量と して、 所謂、 固有顔の手法 (前述 M o g h a d d a m の論文) を用 いて特徴を抽出する 。 つ ま り 、 画像中 の 画素値を要素 とする特徴べ ク ト ル Λ に対 して、 基底行列 U と 、 顔画像サンプル集合 [ Λ ] にお ける平均ベ ク ト ルであ る 平均顔 ψ と を用 いて、 特徴ベ ク ト ル V = U T ( Λ — Ψ ) が算出 さ れる 。 基底行列 U は、 顔画像サ ン プル集合 [ Λ ] の主成分分析によ っ て得 ら れた基底べク ト ルの 中か ら選択 さ れた部分基底ベ ク ト ル に よ っ て特定 さ れ る 。 こ の よ う に 、 入力 画像で はな く 、 部分基底ベ ク ト ル を用 い る こ と で、 入力画像のデー タ量を削減す る こ と ができ る 。 こ の よ う にデ一夕 量を削減する こ と は、 メ タ デー タ ベース にお け る蓄積量を少な く する だけではな く 、 高速なマ ッ チ ン グを 実現する ため には重要な要素であ る 。 こ の特徴べ ク ト ルの 次元数 と し ては、 例え ば、 4 8 次元の特徴量を用 いればよ い。
こ の よ う に一般的 に用 い ら れ る 固 有顔 に よ る 手法 の他 に、 主成分分析に対 して判別分析 を組み合わせた手法 (前 述、 W . Z h a o の論文) 等を用 いて部分基底ベク ト ルを規 定して も構わない。
また、 基底行列 U n と基底行列 U m の線形和によ っ て得 ら れる行列 U ( - a U n + b U m ) を基底行列 と し て用 いて、 顔特徴ベ ク ト ルを抽出 して も よ い 。 こ こ で、 基底行 列 U n は、 前述 し たよ う な顔画像サンプルにお ける特徴べ ク ト ル集合 [ Λ ] の主成分分析や判別分析 によ っ て得 ら れ る基底べク ト ルの 中か ら選択さ れた部分基底べ ク ト ルに よ つ て特定さ れる 。 ま た、 基底行列 U m は、 顔画像を左右反 転さ れる画素値の変換 と対応する よ う に基底べ ク ト ルの要 素 を入れ換 え た 反転部分基底べ ク ト ル に よ っ て特定 さ れ る 。 例 え ば a b == 1 とす る と 、 得 ら れ る 顔特徴ベ ク ト ル は、 入力画像空間で左右の変換に対 して対称な成分のみ を 抽出する こ と ができ る 。 顔は本来左右対称であ る ので、 照 明の影響で非対称 と な っ た画像成分や顔の向きが正面 に 向 いていな い ため に生 じ る 非対称成分が本来 ノ ィ ズに相当す 4 る も のであ る ので、 これを除去 し 、 対称な成分のみを抽出 す る こ とで、 照明や姿勢の変動に対 して安定な顔特徴量を 抽出する こ とが可能 となる 。
ま た、 画像を フ ー リ エ変換し、 得 ら れた複素 フー リ エ成 分の各成分の大き さ を要素 とする べ ク ト ルを特徴べク ト ル
Λ と して算出 し 、 上記の よ う な主成分分析や判別分析に よ つ て次元圧縮を行い顔特徴量を抽出 して も よ い。 こ のよ う に画像を フ ー リ エ変換す る こ とで、 位置ずれに対 して強い 顔特徴量を抽出す る こ と ができ る 。 こ の よ う に して、 顔特 徴抽出部 1 2 1 は、 顔特徴量 V を抽出する。
信頼性指標抽出部 1 2 2 では、 顔特徴量 V の信頼性指標 と して有効な コ ン ト ラ ス ト 指標 S c o n t r a s ■ と非対称性 指標 ^ a s y mm e t r i c を抽出する 。 コ ン ト ラ ス ト指標 C
O η . i„ Λ d Q . X- と して、 顔画像 I ( x , y ) の画素値の標準偏差 を次式式 ( 2 1 ) によ っ て計算する 。 round
Figure imgf000029_0001
46 χ 56 i-i J=
こ こ で r o u n d ( ) は数値の丸め処理 を意味する 。 こ の よ う に 抽 出 さ れ た 信頼性指 標 0 ハ 。 n t r a s t を ' [ 0 , 1 ,
2 1 5 ] の 4 b i t の範囲に収ま る よ う に、 値域を越 え る も の は値 を制限する 。 なお、 上記では コ ン ト ラ ス ト 指 標 と して、 画像の標準偏差を計算 し たが、 分散や画像中 の 画素値の最大値 と 最小値の差を抽出 して も よ い。 画像中 の 画素値の最大値 と 最小値 に よ る コ ン ト ラ ス ト 指標は、 標 準偏差や分散によ る 場合よ り も演算量が少な いが、 効果は 相対的に小さ い。
非対称性指標 0 a s y m m e t 2: i c と して、 顔画像 I ( x , y ) と そ の反転画像 と の間 の差分の絶対値 ( 1 乗) の平均 を次式式 ( 2 2 ) によ り 抽出する。
Θ~
Figure imgf000030_0001
- 1 (47 - ή
( 2 2 ) こ の よ う に抽 出 さ れた 信頼性指標 Θ a s y m m e t r i c を [ 0 , 1 , 2 1 5 ] の 4 b i t の範囲に収ま る よ う に値 域 を越え る も のは値 を制限する 。 なお、 上記では非対称指 標 と して、 絶対値に よ る 値 ( 1 乗) を用 いたが差分の 2 乗 を用 いて も よ い。 また、 平均の代わ り に、 和値を用 いて も 同等の効果を得る こ と ができ る 。 また、 差分の最大値を検 出 して、 その値を非対称指標 と して用 いれば演算量が少な く て済む。
信頼性指標抽出部 1 2 2 は、 顔画像に対 して、 特徴べ ク ト ル V と信頼性指標 0 αn t a s t と信頼性指標 0 a s y m m e t r i c を抽出 し 、 顔メ タ データ と して出力する 。 前述 し た よ う に、 上記顔メ タ デー タ 生成手順を コ ン ピ ュータ プ ロ グラム によ っ てコ ン ピュータ に実行させる こ と もでき る。
( 2 ) 顔類似度算出
次に、 顔類似度算出部 1 4 の動作につ いて説明する 。 顔 類似度算出部 1 4 では、 二つ の顔 メ タ データ の信頼性指標
Θ ^ n n t ^ a s J - I 0 c o n s t r a s t , 2 と 0 a s ymm e t r i c , l 、 Θ a s y m m e t r i c , 2 を用 いて、 分布推定部 1 4
1 が事後分布 に関するパ ラ メ ータ 情報を推定 し、 二つ の顔 メ タ デー タ の二つ の特徴ベク ト ル V i、 V 2 と事後分布 ('こ 関する パ ラ メ 一 夕情報 と を用 いて距離算出部 1 4 2 が顔特 徵間の類似度 d を算出する 。
こ こ では、 式 ( 8 ) あ る い は式 ( 1 8 ) に よ っ て顔の類 似度を計算する場合について説明する 。
式 ( 8 ) あ る い は式 ( 1 8 ) にて表記さ れてい る信頼性 指標 Θ ェ 、 θ 2 は本実施形態ではベ ク ト ルであ り 、 それぞ れの要素は ^ 丄 = ( 9 c o n t r a s t , l , Θ a s y m m e t r i c , 1 、 Θ = ^ 0 c o n t r a s t , 2 , Θ a s y m m e t r i c , 2 ) T となる。 コ ン ト ラス ト指標、 非対称性指標はそ れぞれ 4 b i t で表現されている ので、 Θ i の と り 得る状態 は 2 5 6 個の状態 となる。 与え ら れた信頼性指標 0 — . によ つ て、 2 5 6 個の状態の中の一つの状態が特定できる。
分布推定部 1 4 1 は、 後述する よ う に、 予め求めてお い た信頼性指標 0 ( 2 5 6 個の状態があ る) に対する差べク ト ルの分散値 σ P ( θ ) や分散値 σ w ,_ ( 0 ) 、 分散値 σ Β ( θ ) を テー ブル に記憶 し てお き、 信頼性指標 S 丄 およ び 0 2 を用 いて、 それぞれの分散値テ一ブルの値 を参 照 し 、 得 ら れた分散値を事後分布情報 と して、 距離算出部 1 4 2 に 引 き渡す。 なお、 顔同定の場合には、 式 ( 8 ) で 必要な分散値 σ £ ,_ ( θ 1 ) 、 分散値 σ £ t ^ ( θ 2 ) の値 を 距離算 出部 1 4 2 に 出 力 すればよ く 、 顔識別 の 場合 に は、 式 ( 1 8 ) に必要な分散値 σ w ,- ( Θ ) 、 分散値 σ B k ( Θ ) を出力する。 距離算出部 1 4 2 は、 式 ( 8 ) あ る い は式 ( 1 8 ) に従 つ て適応的マハ ラ ノ ビス距離あ る い は適応的判別距離を算 出 し、 類似度 d と して出力する。 前述 し た分散値テーブルの分散値は、 予め用意さ れた顔 画像デー タ サ ンプルを k)用 いて計算 さ れてい る 。 顔画像サ ン プルにお ける特徴ベ ク ト Vル集合 [ V ] と その信頼性指標 ί Θ . か ら 、 そ れぞれ の 分散値 は次 の よ う に 計算 で き る α (Θ)2 ( 2 3 )
ε(θ) ((i,3)e aw.k(6)2 _ - _ y (v - v
2Nw(6)((i, ! † d'k/
( 2 4 )
σΒ,,(θ)2 1 y (Vl h v
Β(θ) ((i こ こ で、 " ( i , 3 ) がク ラ ス Wに属する " と は、 デー 夕 i とデータ j が同一ク ラス、 すなわち 、 同一人物か ら得 ら れた デー タ で あ り 、 ク ラ ス 内 で あ る こ と を 意 味 し 、 " ( i , j ) がク ラ ス B に属する " と は、 データ i とデータ が異な る ク ラ ス 、 すなわち 、 異な る 人物か ら得 ら れたデ —夕 であ り 、 ク ラ ス 間であ る こ と を意味する 。 また、 N £ ( Θ ) N w ( θ ) Ν Β ( θ ) はそれぞれのク ラス に属す る データ の組み合わせの数であ る 。 こ の よ う に 0 の ビ ン毎 に分散値 を計算する 際に、 そのデータ 数が少な過ぎる 場合 に は、 近傍の ビ ン のデー タ を併合する よ う に して、 サ ン プ ル数を確保する よ う にする 。 これは、 分布推定における k 近傍法 (前述 B i s h o p の文献 , p p . 5 3 ) によ っ て b i n を併合する の と 同様な手法であ る。
で、 式 ( 1 8 ) の場合、 式 ( 4 ) と 同様に、 0
W , k
( ί θ . 1 ) 2 =w , k ( S ェ ) 2 + σ W f k ( θ 2 )
2、 および、 σ Β „ ( [ θ ± ] ) 2 = C7 B k ( 0 , ) 2 + σ Β , θ 2 2 となる こ と に注意さ れたい。
なお、 誤差分散 び . k ( Θ ) 2 と ク ラ ス 内分散 a w , k
( Θ ) 2 が同 じ にな る ので、 顔画像マ ッ チングシステムで 式 ( 8 ) と式 ( 1 8 ) の両方の距離を計算する 場合には、 これ ら の分散値テーブルを共有して構わない。
ま た、 誤差分布 と ク ラ ス 間分布は強い相関があ る場合が 多い ので、 誤差分 散 σ £ k ( θ ) 2 の代わ り にク ラス 間 分散 び β , k ( 9 ) 2 を用 いて も、 信頼性指標を用 いない場 合よ り は精度が向上する 。 しか し、 誤差分散を用 いた方が 精度が良い。
こ の よ う に顔メ タ デー タ 間の類似度を信頼性指標 Θ c o n t r a s t や信頼性指標 0 a s y m m e t r i c を介した事後分布 情報を用 いて算出する こ とで、 精度の よ い顔認識を行 う こ とが可能で あ る 。 前述 し たよ う に、 上記顔類似度算出手順 を コ ン ピ ュ ー タ プロ グ ラ ム によ っ て コ ン ピ ュ ー タ に実行 さ せる こ と もでき る 。
なお、 こ こ で は式 ( 8 ) と式 ( 1 8 ) を用 いて、 類似度 が計算さ れて い る が、 次式 ( 2 5 ) 、 ( 2 6 ) に示さ れる よ う な様々 な計算方法に よ っ て近似的 に計算 さ れ、 高速化 等を図る こ と も でき る。 zz
( Z )
z
1 \ ゾ ノ ノ K "C
((Ζθ)¾'30 '( '30 SUI Z
ΖΛ 'τΛ)ρ
"Λ - 'Δ +
Figure imgf000034_0001
( θ) ο'ζ(τθΓ'3
Figure imgf000034_0002
Δ - ^ ιΛ
W'3 ) a£S UT Κ - +
:Λ 'τΛ
Figure imgf000034_0003
7 Ν L
θ) D ζ
ζ ( Λ - 'τΛ) 1 'Λ ' τΛ)
T
~ L ^— L 1 I N T
Ζ 'τΛ)ρ
Iれ Λ一 'ΤΛΙ M τ θ)¾'3ο + τθ) '3οり υτ - +
= (ΖΛ ' ΤΛ ρ 、
Λ - Λ κ
τ
ノ \ ノ κ X
(Ζθ) '3θ θ) '30 2
- "Δ) «
' 、 , / Ν Τ
Figure imgf000034_0004
Mici/zodr/xad 0691S0/C0 OAV σΒ )2)
Figure imgf000035_0001
+ -∑ (ln2i«Jw,k(e2) - ln2iraB,k(82
2
( 2 6 ) 上記各式の右辺第 2 項 ( I n の部分) を計算 しな い こ と で、 さ ら なる高速演算を図る こ とができる。
ま た、 式 ( 6 ) や式 ( 1 6 ) を用 いて類似度が計算さ れ る 場合も 、 基本的 に は同様に、 予め用意さ れた顔画像デー 夕 サ ンプルか ら 、 それぞれの計算 に必要な差べ ク ト ルの誤 差の共分散行列 ∑ £ ( 0 ) や差ベ ク ト ルの ク ラ ス 内 の共分 散行列 ∑ w ( Θ ) 、 ク ラス 間の共分散行列 ∑ Β ( Θ ) が算出 さ れて、 共分散テー ブル と して用意され、 類似度計算の際 に その共分散テー ブルが参照 さ れる よ う にすればよ い。 こ の方法では、 共分散行列 を用 いて距離を計算する ので、 演 算量が増加する が、 十分な学習サ ン プルがあ る場合には類 似度計算の精度を向上させる こ とができ る 。 式 ( 3 ) の事後分布や式 ( 1 4 ) のク ラス 間分布、 ク ラ ス 間分布 に対 して混合正規分布 を仮定 して、 分布関数を推 定する こ とで、 それぞれ式 ( 1 0 ) や式 ( 2 0 ) の適応的 0213114 混合マハ ラ ノ ビス距離や適応的混合判別距離を計算 して も よ い。 こ の場合 も 、 分散や共分散行列 を用 いて、 事後分布 情報 を計算する の と 同様に 、 顔画像データ サ ンプルか ら 混 合正規分布を表す共分散行列 ∑ s ( 0 , , j ) 、 P (: j ) 等 の混合分布 を特定するパ ラ メ ー タ が求め ら れ、 テーブル と して記憶 さ れて も よ い。 なお、 こ の推定につ いては、 一般 的な推定方法であ る最尤推定法や E Mアルゴ リ ズム を用 い て推定すればよ い。
こ こ ま で の説明では、 一枚の顔画像が登録さ れ、 一枚の 一 f 1
顔画像を用 いて検索さ れる 場合につ いて説明 したが、 一人 の顔に対 して複数の画像が登録 さ れ、 一 d枚の顔画像を用 い て検索さ れる 場合に は、 例え ば、 次の よ う にすればよ い。 すなわち 、 検索側の特徴べク ト ルを V q u e と し、 登録側の 特徴べク ト ルを V r e g , k と し 、 複数画像登録の場合の類 似度 d m u t ( v q u e ' [ L v V
v r e g , 1 ' v r e g , 2 ' v r e g , n ] ) と して、 次式 ( 2 7 、 2 8 ) に示 す計算式に基づき類似度を計算すればょ レ d V , 1V. , v, V V■
n k =
( 2 7 ) あ る レ は、
^■multi que ' reg.l ' r&a,2 ' 'vreg,n = min vreg>k
k
( 2 8 ) 同 様 に 1 つ の顔当た り の複数枚の画像登録 と複数画像 によ る検索の場合 も 、 各組み合わせの類似度の平均や最小 値を求め類似度を算出する こ と で、 一つ の顔データ に対す る類似度を算出する こ と ができ る 。 こ れは、 動画像を複数 画像 と見倣す こ と で、 本発明 のマ ッ チ ン グシス テム を動画 像における顔認識に対して も適用でき る こ と を意味する 。
また、 上記説明 は、 同一人物の顔の 同定や顔の識別 を 中 心にな さ れたが、 例 えば、 男性の顔を一つ のカ テゴ リ ー、 女性の顔を一つ のカ テゴ リ ー と考えて、 それぞれの分布に 関する情報 を求め、 男女の顔を識別する性別識別 を行っ た り 、 笑っ た顔、 怒っ た顔、 悲 し い顔な どの表情のカ テ ゴ リ 一を考えて、 顔の表情を認識する表情認識に適用する こ と も可能であ る 。 1 0 代、 2 0 代、 3 0 代、 4 0 代 と い う よ う にカ テゴ リ ー を設定 し 、 そのカ テ ゴ リ ー毎に誤差分布、 ク ラス 内分布やク ラ ス 間分布を求め る こ と で、 年齢判別 を 行 う こ と も 可能であ り 、 様々 な顔認識に対 して本発明 を適 用する こ とが可能であ る。
以上詳細 に説明 し たよ う に、 本発明 によれば、 顔特徴量 に対 してその信頼性を表現する ため の信頼性指標 を加えて 顔メ タ データ と して生成する こ とで、 信頼性指標を通 じ た 適応的な距離 を導 く こ とができ 、 その距離を用 いて精度の 高い顔認識を行 う こ とが可能となる。

Claims

請求の範囲
1 . 顔画像部か ら顔特徴量を抽出する顔特徴抽出部 と 、 前記顔画像か ら 、 前記顔特徴量に対する信頼性 を表す信 頼性指標を抽出する信頼性指標抽出部と を備え、
前記顔特徴量および前記信頼性指標が顔メ タ データ と し て生成される顔メ タデータ生成装置。
2 . 前記信頼性指標抽出部は、 前記信頼性指標 と し て、 前記顔画像のコ ン ト ラ ス ト指標を抽出する
請求項 1 に記載の顔メ タデ一夕 生成装置。
3 . 前記信頼性指標抽出部は、 前記顔画像の コ ン ト ラ ス ト 指標 と して、 前記顔画像中 の画素値の最大値 と最小値 と の差を抽出する
請求項 2 に記載の顔メ タ データ生成装置。
4 . 前記信頼性指標抽出部は、 前記顔画像の コ ン ト ラ ス ト 指標 と して、 前記顔画像部中 の画素値の分散お よ び標準 偏差の一方を抽出する
請求項 2 に記載の顔メ タデータ生成装置。
5 . 前記信頼性指標抽出部は、 前記信頼性指標 と して、 前記顔画像の非対称性指標を抽出する
請求項 1 に記載の顔メ タ データ生成装置。
6 . 前記信頼性指標抽出部は、 前記顔画像の非対称性指 標 と して、 前記顔画像 と該前記顔画像を左右反転する こ と に よ り 得 ら れる画像 と して の反転画像 と の間の差分の最大 値を抽出する
請求項 5 に記載の顔メ タデータ 生成装置。
7 . 前記信頼性指標抽出部は、 前記顔画像の非対称性指 標 と して、 前記顔画像 と該前記顔画像を左右反転する こ と に よ り 得 ら れる画像 と しての反転画像 と の間の差分画像の 画素値のべき乗の和および平均のいずれかを抽出する 請求項 5 に記載の顔メ タデータ 生成装置。
8 . 前記信頼性指標抽出部は、
前記顔画像の コ ン ト ラ ス ト 指標を抽出する第 1 信頼性指 標抽出部と 、
前記顔画像の非対称性指標を抽 出する第 2 信頼性指標抽 出部 と
を備え る請求項 1 に記載の顔メ タデータ生成装置。
9 . 前記第 1 信頼性指標抽出部は、 前記顔画像の コ ン 卜 ラ ス ト 指標 と して、 前記顔画像部中 の画素値の最大値 と最 小値の差を抽出 し、
前記第 2 信頼性指標抽出部は、 前記顔画像部の非対称性 指標 と して、 前記顔画像部 と該顔画像部を左右反転する こ と に よ り 得 ら れる画像 と して の反転画像 と の間の差分の最 大値を抽出する
請求項 8 に記載の顔メ タデータ生成装置。
1 0 . 前記第 1 信頼性指標抽出部は、 前記顔画像の コ ン ト ラ ス ト 指標 と して、 前記顔画像中 の画素値の分散お よび 標準偏差の一方を抽出 し、
前記第 2 信頼性指標抽出部は、 前記顔画像の非対称性指 標 と して、 前記顔画像 と該顔画像 を左右反転する こ と に よ り 得 ら れる画像 と しての反転画像 と の間 の差分画像の画素 値のべき乗の和および平均の一方を抽出する
請求項 8 に記載の顔メ タデータ 生成装置。
1 1 . 前記顔特徴抽出部は、 前記顔画像か ら得 ら れた特 徵ベ ク ト ルを Λ と し た と き に、 前記特徴ベ ク ト ル Λ の部分 基底べク ト ルに よ っ て特定さ れる 基底行列 U と前記特徴べ ク ト ル Λ の平均べク ト ル Ψ と を用 いて特徴べ ク ト ル v = U τ ( Λ — ) を算出 し 、 前記特徴ベ ク ト ル V を前記顔特徴 量と して抽出する
請求項 1 な い し 1 0 の いずれか に記載の顔メ タ デー タ 生成 装置。
1 2 . 前記基底行列 U は、 顔画像サン プル集合 [ Λ ] の 主成分分析 に よ っ て得 ら れる基底べ ク ト ルの 中か ら 選択 さ れた前記部分基底べク トルによ っ て特定さ れる
請求項 1 1 に記載の顔メ タ データ 生成装置。
1 3 . 前記基底行列 U は、 前記顔画像サ ンプルにお ける 前記特徴ベ ク ト ル集合 [ Λ ] の主成分分析に よ っ て得 ら れ る基底べ ク ト ルの 中か ら 選択さ れた部分基底べク ト ルに よ つ て特定 さ れる 基底行列 と 、 前記顔画像部を左右反転する 画素値の変換 と対応する よ う に前記基底べ ク ト ルの要素 を 入れ換えた反転部分基底べク ト ルに よ っ て特定さ れる基底 行列 との線形和によ っ て得 られる
請求項 1 1 に記載の顔メ タデータ生成装置。
1 4 . 前記特徴べク ト ル Λ は前記顔画像中 の各画素値を 要素 とするべク トルであ る
請求項 1 1 な い し 1 3 の いずれか に記載の顔メ タ データ 生 成装置。
1 5 . 前記特徴ベ ク ト ル Λ は、 前記顔画像を フ ー リ エ変 換 し 、 得 ら れる 複素 フー リ エ成分の各成分の大き さ を要素 とするべク 1、 ルであ る
請求項 1 1 な い し 1 3 の いずれか に記載の顔メ タ データ 生 成装置。
1 6 . 前記顔画像か ら 抽出 さ れた顔特徴量 と 当該顔特徴 量に対する 信頼性を表す信頼性指標 と に基づいて前記類似 度を算出する顔類似度算出装置。
1 7 . 前記顔特徴量に対する前記信頼性指標 を用 いて、 前記顔特徴量間の差べ ク ト ルの事後分布 に関す る パ ラ メ 一 夕情報を推定する分布推定部 と、
前記パ ラ メ ータ 情報を用 いて前記事後分布の対数尤度か ら 導かれる 前記顔特徴間の距離を前記 |g似度 と して算出す る距離算出部と
を具備する請求項 1 6 に記載の顔類似度算出装置。
1 8 . 前記距離算出部は、 前記顔特徴量間 の差べ ク ト ル の前記事後分布が正規分布で あ る と き、 前記信頼性指標に お け る正規分布の前記対数尤度か ら 導かれる 適応的マハ ラ ノ ビス距離を前記類似度 と して算出する
請求項 1 7 に記載の顔類似度算出装置。
1 9 . 前記分布推定部は、 前記信頼性指標 [ 0 i ] に対 す る 前記差ベ ク ト ル s の 各要素 k の 分散 σ 3 Θ
. ] ) 2 を推定 し、
前記距離算出部は、 前記各要素 k の 分散 σ s k ( [ θ . ] ) 2 を用 いて前記適応的マハ ラ ノ ビス距離を計算する 請求項 1 8 に記載の顔類似度算出装置。
2 0 . 前記分布推定部は、 前記信頼性指標 ]: 0 ] に対 す る 前記差ベ ク ト ル s の 各要素 k の 分散 σ s ( [ θ . ] ) 2 をあ ら か じめ記憶する分散値テーブルを備え、
前記信頼性指標 [ 0 i ] に基づいて前記分散値テー プル を参照 して、 前記適応的マハ ラ ノ ビス距離の計算で必要 と なる分散を読出 し、
前記距離算出部は、 前記各要素 k の分散 σ s k ( [ θ . ] ) 2 を用 いて前記適応的マ八 ラ ノ ビス距離を計算する 請求項 1 9 に記載の顔類似度算出装置。
2 1 . 前記顔特徴量間 の差べク ト ルの事後分布が混合分 布であ る と き、 前記信頼性指標にお ける混合分布の対数尤 度か ら導かれる前記適応的混合マハ ラ ノ ビス距離を前記類 似度と して算出する
請求項 1 7 に記載の顔類似度算出装置。
2 2 . 前記顔特徴量に対する 前記信頼性指標を用 いて、 一致 と見倣される べき ク ラ ス 内 にお ける前記顔特徴量間の 差ベ ク ト ルの事後分布で あ る ク ラ ス 内分布 と 、 不一致 と見 倣さ れるべき ク ラ ス 間 にお ける 前記顔特徴量間の前記差べ ク ト ルの前記事後分布で あ る ク ラ ス 間分布 と に関するパ ラ メ ータ情報を推定し、
前記パ ラ メ 一夕 情報 を用 いて前記ク ラ ス 内分布お よび前 記 ク ラ ス 間分布の比の対数尤度か ら 導かれる 前記顔特徴量 間の距離を前記類似度 と して算出する
請求項 1 6 に記載の顔獰似度算出装置。
2 3 . 前記ク ラ ス 内分布お よ び前記ク ラ ス 間分布がそれ ぞれ正規分布であ る と き 、 前記信頼性指標にお ける それぞ れの分布の比の対数尤度か ら 導かれる前記適応的判別距離 を前記類似度と して算出する
請求項 2 2 に記載の顔類似度算出装置。
2 4 . 前記信頼性指標 [ Θ . ] に対する 前記差ベ ク ト ル s の各要素 k の ク ラ ス 内分散 a w ( ί Θ _. ] ) 2 および ク ラ ス 間分散 σ η k ( [ θ . ] ) 2 を推定 し 、 前記推定さ れた分散に基づいて前記適応的判別距離を前記類似度 と し て算出する
請求項 2 3 に記載の顔類似度算出装置。
2 5 . 前記信頼性指標 [ 0 . ] に対す る差ベ ク ト ル s の 各要素 k の前記ク ラ ス内分散 び w , ( [ Θ . ] ) 2 および 前記ク ラ ス 間分散 σ Β ,. ( [ 0 丄 ] ) 2 の推定のため に、 前記ク ラ ス 内分散 σ w , k ( ί θ ± ] ) 2 を あ ら か じ め記憶 す る 第 1 分散値 テ ー ブ ル と 、 前記 ク ラ ス 間 分散 σ B , k ( [ θ . ] ) 2 を あ ら か じ め記憶する第 2 分散値テー ブル と を備え、
前記信頼性指標 [ 0 i ] に基づいて前記第 1 お よ び第 2 分散値テーブルをそれぞれ参照 して分散を推定 し、
前記推定 さ れた分散に基づいて前記適応的判別距離を前 記類似度 と して算出する
請求項 2 4 に記載の顔類似度算出装置。
2 6 . 前記ク ラ ス 内分布およ び前記ク ラ ス 間分布がそれ ぞれ混合分布であ る と して、 前記信頼性指標にお けるそれ ぞれの混合分布の比の対数尤度か ら 導かれる 前記適応的混 合判別距離を前記類似度 と して算出する
請求項 2 2 に記載の顔類似度算出装置。
2 7 . 第 1 顔画像を入力する画像入力部 と、
前記第 1 顔画像部か ら 顔特徴量を抽出 し 、 前記第 1 顔画 像部か ら 、 前記顔特徴量 に対する 信頼性を表す信頼性指標 と抽出 し 、 前記顔特徴量を と 前記信頼性指標を第 1 顔メ タ デ一夕 と して生成する顔メ タデータ生成部 と、
複数の第 2 顔メ タ デー タ を蓄積する顔メ タ データ蓄積部 と 、
前記第 1 顔メ タ データ と 前記複数の第 2 顔メ タ データ の 各々 の間の顔類似度を算出する顔類似度算出部 と 、
入力 さ れた指令に応 じて、 前記画像入力部、 前記顔メ タ デー タ 生成部、 お よ び前記顔類似度算出部 を制御する制御 部と
を具備する顔認識シス テム 。
2 8 . 顔画像か ら 抽出 さ れた顔特徴量 と 当該顔特徴量に 対する信頼性を表す信頼性指標顔 と を第 1 顔メ タ データ と し て生成する ス テ ッ プ と 、
複数の第 2 顔メ タデータ の各々 を読み出すステ ッ プと、 前記第 1 顔メ タ デー タ と 前記複数の第 2 顔メ タ データ の 各々 の前記顔特徴量 と前記信頼性指標 と に基づいて、 前記 第 1 顔メ タ データ と前記複数の第 2 顔メ タ デー タ の各々 と の間の顔類似度を算出するステ ッ プと 、
前記顔類似度に従っ て前記顔画像のマ ッ チ ン グ結果を 出 力する ステ ッ プと
を具備する顔認識方法。
2 9 . ( a ) 顔画像か ら 顔特徴量 を抽 出す る ス テ ッ プ と 、
( b ) 前記顔画像か ら 前記顔特徴量に対する 信頼性を表 す信頼性指標を抽出ステ ッ プと、
( c ) 前記顔特徴量お よび前記信頼性指標 を顔メ タ デー 夕 と して生成するステ ッ プと
を具備する顔メ タデータ生成方法。
3 0 . 前記ステ ッ プ ( b ) は、 前記信頼性指標 と して、 前記顔画像の コ ン ト ラ ス ト 指標を抽出する ス テ ッ プを具備 する請求項 2 9 に記載の顔メ タデータ生成方法。
3 1 . 前記ステ ッ プ ( b ) は、 前記画像の コ ン ト ラ ス ト 指標 と して、 前記顔画像中 の画素値の最大値 と最小値 と の 差 を抽出する ステ ッ プを具備する 請求項 3 0 に記載の顔メ タ データ生成方法。
3 2 . 前記ステ ッ プ ( b ) は、 前記顔画像の コ ン ト ラ ス ト 指標 と して、 前記顔画像中 の画素値の分散お よ び標準偏 差の一方を抽出する ス テ ッ プを具備する 請求項 3 0 に記載 の顔メ タデータ生成方法。
3 3 . 前記ス テ ッ プ ( b ) は、 前記信頼性指標 と して、 前記顔画像の非対称性指標を抽出する ス テ ッ プを具備する 請求項 2 9 に記載の顔メ タ データ生成方法。
3 4 . 前記ス テ ッ プ ( b ) は、 前記顔画像の非対称性指 標 と して、 前記顔画像 と該顔画像を左右反転 し た画像 と し て の反転画像 と の間の差分の最大値を抽出す る ス テ ッ プを 具備する請求項 3 3 に記載の顔メ タデータ生成方法。
3 5 . 前記ステ ッ プ ( b ) は、 前記顔画像の非対称性指 標 と して、 前記顔画像 と 反転画像 と の間の差分画像の画素 値のべき乗の和および平均の いずれか を抽出する ス テ ッ プ を具備する請求項 3 3 に記載の顔メ タデータ生成方法。
3 6 . 前記信頼性指標は、 前記顔画像の コ ン ト ラ ス ト 指 標お よ び前記顔画像の非対称性指標であ る請求項 2 9 に記 載の顔メ タ データ生成方法。
3 7 . 前記ステッ プ ( b ) は、
前記顔画像の コ ン 卜 ラ ス 卜 指標 と して前記顔画像中 の画 素値の最大値 と最小値の差を抽出する ステ ッ プと 、
前記顔画像の非対称性指標 と して前記顔画像 と 前記反転 画像と の間の差分の最大値を抽出するステ ッ プと を具備する請求項 3 6 に記載の顔メ タデータ生成方法。
3 8 . 前記ステッ プ ( b ) は、
前記顔画像の コ ン ト ラ ス ト 指標 と し て前記顔画像中 の画 素値の分散および標準偏差の一方を抽出するステ ッ プと、 前記顔画像の非対称性指標 と して前記顔画像 と前記反転 画像 と の間の差分画像の画素値のべき乗の和お よび平均の 一方を抽出するステ ッ プと
を具備する請求項 3 6 に記載の顔メ タデ一夕生成方法。
3 9 . 顔画像か ら 抽出 さ れた顔特徴量 と 当該顔特徴量に 対する信頼性を表す信頼性指標 と に基づいて前記類似度を 算出する顔類似度算出方法。
4 0 . 第 1 と第 2 顔画像の各々 に対する顔特徴量に対す る信頼性指標を用 いて、 前記顔特徴量間の差べ ク ト ルの事 後分布に関するパ ラ メ ータ情報を推定ステ ッ プと 、
事後分布に関する 前記パ ラ メ 一夕 情報を用 いて対数尤度 か ら顔特徴間の距離を類似度 と して算出するス テ ッ プと を具備する請求項 3 9 に記載の顔類似度算出方法。
4 1 . 前記顔特徴量間 の差べ ク ト ルの事後分布が正規分 布で あ る と して、 前記信頼性指標にお け る正規分布の対数 尤度か ら 導かれる適応的マハ ラ ノ ビス距離を類似度 と して 算出する 請求項 4 0 に記載の顔類似度算出方法
4 2 信頼性指標 [ θ ] 対する 差ベ ク ト ル s の 各要 素 k の分散 σ 。 1 ( [ Θ ± ] ) 2 を推定するステ ッ プと、 前記各要素 k の分散 σ 3 1, ( [ Θ . ] ) 2 を用 いて適応 的マハ ラ ノ ビス距離を計算する ステ ッ プと
を具備する請求項 4 1 に記載の顔類似度算出方法。
4 3 . 信頼性指標 [ 0 . ] に対する差ベ ク ト ル s の 各要 素 k の分散 σ 3 ( [ Θ . ] ) を あ ら か じめ分散値テー ブルに記憶 し 、 信頼性指標 [ 0 . ] に よ っ て前記分散値テ 一ブル を参照する こ と に よ っ て適応的マハ ラ ノ ビス距離の 計算で必要となる分散値を生成する
請求項 4 2 に記載の顔類似度算出方法。
4 4 . 顔特徴量間の差べ ク ト ルの事後分布が混合分布で あ る と して、 前記信頼性指標にお ける混合分布の対数尤度 か ら 導かれる適応的混合マハ ラ ノ ビス距離を類似度 と して 算出する
請求項 4 0 に記載の顔類似度算出方法。
4 5 . 比較す る顔特徴量に対する 信頼性指標を用 いて、 一致 と見倣すべき ク ラ ス 内 にお ける顔特徴量間 の差べ ク ト ルの事後分布 ( ク ラス 内分布) と 、 不一致 と見倣すべき ク ラ ス 間 にお ける顔特徴量間の差ベ ク ト ルの事後分布 ( ク ラ ス 間分布) と に関するパ ラ メ ー タ 情報 を推定 し 、 前記ク ラ ス 内分布お よび前記 ク ラ ス 間分布の比の対数尤度か ら 導か れる顔特徴量間の距離を類似度 と して算出する
請求項 3 9 に記載の顔類似度算出方法。
4 6 . 前記ク ラ ス 内分布お よ び前記ク ラ ス 間分布がそれ ぞれ正規分布であ る と して、 前記信頼性指標にお ける それ ぞれの分布の比の対数尤度か ら 導かれる 適応的判別距離を 類似度と して算出する
請求項 4 5 に記載の顔類似度算出方法。
4 7 信頼性指標 [ 0 . ] に対する 差ベ ク ト ル s の各要 素 k の ク ラ ス 内分散 ひ w ( [ 0 」 ] ) 2 およびク ラス 間 分散 σ Β k ( [ θ ± ] ) 2 を推定する とで、 適応的判別 距離を類似度と して算出する
請求項 4 6 に記載の顔類似度算出方法。
4 8 . 信頼性指標 [ 0 . ] に対する 差ベ ク ト ル s の各要 素 k の ク ラ ス 内分散 ひ w ( ί Θ . 1 ) およびク ラス間 分散 σ Β , ,, ( [ Θ . ] ) 2 の推定のため に、 'ク ラ ス 内分散 a w k ( ί θ . ] ) を あ ら か じめ記憶する第 1 分散値テ —ブル と 、 ク ラ ス 間分散 び Β , k ( [ Θ ± ] ) 2 を あ ら か じ め記憶する第 2 分散値テーブルと を備え、
信頼性指標 [ 0 . ] に よ っ て第 1 お よ び第 2 分散値テー ブルをそれぞれ参照する こ と で 、 適応的判別距離にお いて 必要となる分散値を推定する
請求項 4 7 に記載の顔類似度算出方法。
4 9 . 前記ク ラ ス 内分布お よ び前記ク ラ ス 間分布がそれ ぞれ混合分布であ る と し て、 前記信頼性指標にお けるそれ ぞれの混合分布の比の対数尤度か ら 導かれる適応的混合判 別距離を類似度 と して算出する
請求項 4 5 に記載の顔類似度算出方法。
5 0 . 顔画像か ら顔特徴量を抽出 し、
前記顔画像か ら 、 前記顔特徴量に対する信頼性を表す信 頼性指標を抽出 し、
前記顔特徴量および前記信頼性指標を顔メ タ データ と し て生成する
ス テ ッ プを有する メ 夕 デ一 夕 生成プロ グ ラ ム を格納する記 録媒体。
5 1 . 前記画像か ら顔特徴量を抽出 し、
前記顔特徴量 に対す る 信頼性 を表す信頼性指標 を抽 出 し、
前記顔特徴量 と 前記信頼性指標 と に基づいて類似度を算 出する
ス テ ッ プを具備する類似度算出 プロ グ ラ ム を格納 した記 録媒体。
5 2 . 入力画像か ら抽出 さ れた顔特徴量 と 当該顔特徴量 に対する 信頼性 を表す信頼性指標顔 と を顔メ タ データ と し て生成 し、
生成さ れた複数の顔メ タ データ を顔メ タ データ 蓄積部 に 蓄積し、
あ る顔画像の顔メ タデータ と前記顔メ タ データ 蓄積部に 蓄積さ れた複数の顔メ タ データ の各々 と を入力 し 、 顔特徴 量 と 当該顔特徴量に対する信頼性を表す信頼性指標 と に基 づいて顔類似度を算出 し、
前記顔類似度に従っ て顔画像マ ッ チング結果を出力する ステッ プを有する顔認識プロ グラム を格納する記録媒体。
PCT/JP2002/013114 2001-12-14 2002-12-16 Creation de metadonnees faciales et calcul de similarites faciales WO2003052690A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE60232365T DE60232365D1 (de) 2001-12-14 2002-12-16 Gesichts-metadatenerzeugung und gesichts-ähnlichkeitsberechnung
EP02790768A EP1460580B1 (en) 2001-12-14 2002-12-16 Face meta-data creation and face similarity calculation
US10/488,213 US7593551B2 (en) 2001-12-14 2002-12-16 Face meta-data generation and face similarity calculation

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2001381530A JP3903783B2 (ja) 2001-12-14 2001-12-14 顔メタデータ生成方法および装置、並びに顔類似度算出方法および装置
JP2001-381530 2001-12-14

Publications (1)

Publication Number Publication Date
WO2003052690A1 true WO2003052690A1 (fr) 2003-06-26

Family

ID=19187349

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2002/013114 WO2003052690A1 (fr) 2001-12-14 2002-12-16 Creation de metadonnees faciales et calcul de similarites faciales

Country Status (6)

Country Link
US (1) US7593551B2 (ja)
EP (2) EP1460580B1 (ja)
JP (1) JP3903783B2 (ja)
CN (3) CN100492398C (ja)
DE (1) DE60232365D1 (ja)
WO (1) WO2003052690A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7769287B2 (en) 2007-01-24 2010-08-03 Fujifilm Corporation Image taking apparatus and image taking method

Families Citing this family (81)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10721066B2 (en) 2002-09-30 2020-07-21 Myport Ip, Inc. Method for voice assistant, location tagging, multi-media capture, transmission, speech to text conversion, photo/video image/object recognition, creation of searchable metatags/contextual tags, storage and search retrieval
US6996251B2 (en) 2002-09-30 2006-02-07 Myport Technologies, Inc. Forensic communication apparatus and method
US7778438B2 (en) 2002-09-30 2010-08-17 Myport Technologies, Inc. Method for multi-media recognition, data conversion, creation of metatags, storage and search retrieval
GB2402536B (en) * 2003-06-05 2008-04-02 Canon Kk Image processing
JP4483334B2 (ja) * 2004-02-18 2010-06-16 富士ゼロックス株式会社 画像処理装置
JP4692773B2 (ja) * 2004-03-03 2011-06-01 日本電気株式会社 物体の姿勢推定及び照合システム、物体の姿勢推定及び照合方法、並びにそのためのプログラム
US7697026B2 (en) * 2004-03-16 2010-04-13 3Vr Security, Inc. Pipeline architecture for analyzing multiple video streams
US20060083414A1 (en) * 2004-10-14 2006-04-20 The Secretary Of State For The Home Department Identifier comparison
KR100634527B1 (ko) * 2004-11-26 2006-10-16 삼성전자주식회사 층 기반 영상 처리 장치 및 방법
US20110102553A1 (en) * 2007-02-28 2011-05-05 Tessera Technologies Ireland Limited Enhanced real-time face models from stereo imaging
JP2006338092A (ja) * 2005-05-31 2006-12-14 Nec Corp パタン照合方法、パタン照合システム及びパタン照合プログラム
US8094895B2 (en) * 2005-06-08 2012-01-10 Koninklijke Philips Electronics N.V. Point subselection for fast deformable point-based imaging
JP4696857B2 (ja) 2005-11-02 2011-06-08 オムロン株式会社 顔照合装置
KR100723417B1 (ko) 2005-12-23 2007-05-30 삼성전자주식회사 얼굴 인식 방법, 그 장치, 이를 위한 얼굴 영상에서 특징추출 방법 및 그 장치
JP4771139B2 (ja) * 2006-02-14 2011-09-14 オムロン株式会社 異常検出装置および方法、記録媒体、並びに、プログラム
JP4951995B2 (ja) * 2006-02-22 2012-06-13 オムロン株式会社 顔照合装置
WO2007140609A1 (en) * 2006-06-06 2007-12-13 Moreideas Inc. Method and system for image and video analysis, enhancement and display for communication
CN100383806C (zh) * 2006-06-08 2008-04-23 上海交通大学 基于鲁棒位置保留映射的人脸识别方法
CN100527170C (zh) * 2006-09-20 2009-08-12 清华大学 一种复杂表情仿真系统及其实现方法
US8031914B2 (en) * 2006-10-11 2011-10-04 Hewlett-Packard Development Company, L.P. Face-based image clustering
KR100828371B1 (ko) * 2006-10-27 2008-05-08 삼성전자주식회사 컨텐츠의 메타 데이터 생성 방법 및 장치
DE602008001607D1 (de) 2007-02-28 2010-08-05 Fotonation Vision Ltd Trennung der direktionalen beleuchtungsvariabilität in der statistischen gesichtsmodellierung auf basis von texturraumzerlegungen
US8027541B2 (en) * 2007-03-15 2011-09-27 Microsoft Corporation Image organization based on image content
US8295603B2 (en) * 2007-03-28 2012-10-23 Sharp Kabushiki Kaisha Image processing apparatus, image forming apparatus, image processing system, and image processing method
GB2449125A (en) * 2007-05-11 2008-11-12 Sony Uk Ltd Metadata with degree of trust indication
US8041076B1 (en) * 2007-08-09 2011-10-18 Adobe Systems Incorporated Generation and usage of attractiveness scores
CN101393597B (zh) * 2007-09-19 2011-06-15 上海银晨智能识别科技有限公司 识别人脸是否为正面脸的方法
CN101414348A (zh) * 2007-10-19 2009-04-22 三星电子株式会社 多角度人脸识别方法和系统
US8180112B2 (en) * 2008-01-21 2012-05-15 Eastman Kodak Company Enabling persistent recognition of individuals in images
JP5112454B2 (ja) * 2008-01-23 2013-01-09 国立大学法人 新潟大学 識別装置、識別方法及び識別処理プログラム
US8750578B2 (en) 2008-01-29 2014-06-10 DigitalOptics Corporation Europe Limited Detecting facial expressions in digital images
US8542095B2 (en) 2008-02-22 2013-09-24 Nec Corporation Biometric authentication device, biometric authentication method, and storage medium
WO2009138938A2 (en) 2008-05-15 2009-11-19 Koninklijke Philips Electronics N.V. Method, apparatus, and computer program product for compression and decompression of an image dataset
US8520979B2 (en) * 2008-08-19 2013-08-27 Digimarc Corporation Methods and systems for content processing
JP4720880B2 (ja) * 2008-09-04 2011-07-13 ソニー株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
GB0819069D0 (en) 2008-10-17 2008-11-26 Forensic Science Service Ltd Improvements in and relating to methods and apparatus for comparison
JP5247480B2 (ja) * 2009-01-13 2013-07-24 キヤノン株式会社 オブジェクト識別装置及びオブジェクト識別方法
US8254699B1 (en) * 2009-02-02 2012-08-28 Google Inc. Automatic large scale video object recognition
JP5459312B2 (ja) * 2009-03-27 2014-04-02 日本電気株式会社 パターン照合装置、パターン照合方法及びパターン照合プログラム
JPWO2011086803A1 (ja) * 2010-01-12 2013-05-16 日本電気株式会社 画像照合システム、画像照合方法、コンピュータプログラム
US9465993B2 (en) * 2010-03-01 2016-10-11 Microsoft Technology Licensing, Llc Ranking clusters based on facial image analysis
US10108852B2 (en) * 2010-06-07 2018-10-23 Affectiva, Inc. Facial analysis to detect asymmetric expressions
US8320644B2 (en) 2010-06-15 2012-11-27 Apple Inc. Object detection metadata
WO2012071677A1 (en) * 2010-11-29 2012-06-07 Technicolor (China) Technology Co., Ltd. Method and system for face recognition
US9251854B2 (en) * 2011-02-18 2016-02-02 Google Inc. Facial detection, recognition and bookmarking in videos
US8836777B2 (en) 2011-02-25 2014-09-16 DigitalOptics Corporation Europe Limited Automatic detection of vertical gaze using an embedded imaging device
JP5923723B2 (ja) * 2011-06-02 2016-05-25 パナソニックIpマネジメント株式会社 人物属性推定システム、人物属性推定装置、及び人物属性推定方法
EP2557524A1 (en) * 2011-08-09 2013-02-13 Teclis Engineering, S.L. Method for automatic tagging of images in Internet social networks
US20130044927A1 (en) * 2011-08-15 2013-02-21 Ian Poole Image processing method and system
CN102955931B (zh) * 2011-08-19 2015-11-25 株式会社理光 识别图像中特定对象的方法以及使用该方法的系统
CN103020576B (zh) * 2011-09-20 2015-09-30 华晶科技股份有限公司 特征数据压缩装置、多方向人脸侦测系统及其侦测方法
JP5836095B2 (ja) * 2011-12-05 2015-12-24 キヤノン株式会社 画像処理装置、画像処理方法
CN102567719B (zh) * 2011-12-26 2014-07-02 东南大学 基于后验概率神经网络的人类年龄自动估计方法
US8861855B2 (en) * 2012-01-18 2014-10-14 The United States Of America As Represented By The Secretary Of The Air Force Method and apparatus for simplifying electro-optical imaging systems
JP5900052B2 (ja) * 2012-03-15 2016-04-06 オムロン株式会社 登録判定装置、その制御方法および制御プログラム、並びに電子機器
JP6016489B2 (ja) 2012-07-09 2016-10-26 キヤノン株式会社 画像処理装置、画像処理装置の制御方法、プログラム
JP6074182B2 (ja) 2012-07-09 2017-02-01 キヤノン株式会社 画像処理装置及び画像処理方法、プログラム
JP5963609B2 (ja) * 2012-08-23 2016-08-03 キヤノン株式会社 画像処理装置、画像処理方法
JP5787845B2 (ja) * 2012-08-24 2015-09-30 株式会社東芝 画像認識装置、方法、及びプログラム
US9183062B2 (en) * 2013-02-25 2015-11-10 International Business Machines Corporation Automated application reconfiguration
US8971668B2 (en) * 2013-02-27 2015-03-03 Adobe Systems Incorporated Covariance based color characteristics of images
JP6314975B2 (ja) * 2013-04-01 2018-04-25 ソニー株式会社 表示制御装置、表示制御方法および表示制御プログラム
JP6338191B2 (ja) * 2013-07-01 2018-06-06 Necソリューションイノベータ株式会社 属性推定システム
CN103810663B (zh) * 2013-11-18 2017-09-26 北京航天金盾科技有限公司 一种基于人像识别的人口数据清理方法
US9405963B2 (en) * 2014-07-30 2016-08-02 International Business Machines Corporation Facial image bucketing with expectation maximization and facial coordinates
CN106446754A (zh) * 2015-08-11 2017-02-22 阿里巴巴集团控股有限公司 图像识别方法、度量学习方法、图像来源识别方法及装置
JP6700791B2 (ja) * 2016-01-05 2020-05-27 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
CN107203529B (zh) * 2016-03-16 2020-02-21 中国移动通信集团河北有限公司 基于元数据图结构相似性的多业务关联性分析方法及装置
US10657625B2 (en) 2016-03-29 2020-05-19 Nec Corporation Image processing device, an image processing method, and computer-readable recording medium
DE102016122649B3 (de) * 2016-11-24 2018-03-01 Bioid Ag Biometrisches Verfahren
TWI731919B (zh) * 2017-01-19 2021-07-01 香港商斑馬智行網絡(香港)有限公司 圖像識別方法與裝置及度量學習方法與裝置
US10678846B2 (en) * 2017-03-10 2020-06-09 Xerox Corporation Instance-level image retrieval with a region proposal network
CN107169473A (zh) * 2017-06-10 2017-09-15 广东聚宜购家居网络科技有限公司 一种人脸识别控制系统
US11210504B2 (en) 2017-09-06 2021-12-28 Hitachi Vantara Llc Emotion detection enabled video redaction
US11373448B2 (en) 2018-04-04 2022-06-28 Panasonic Intellectual Property Management Co., Ltd. Emotion inference device, emotion inference method, and recording medium
KR102495793B1 (ko) 2018-05-01 2023-02-06 구글 엘엘씨 가속화된 대규모 유사성 계산
US11521460B2 (en) 2018-07-25 2022-12-06 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
AU2019208182B2 (en) 2018-07-25 2021-04-08 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
JP6713153B1 (ja) 2019-11-15 2020-06-24 株式会社Patic Trust 情報処理装置、情報処理方法、プログラム及びカメラシステム
JP6815667B1 (ja) 2019-11-15 2021-01-20 株式会社Patic Trust 情報処理装置、情報処理方法、プログラム及びカメラシステム
CN113158948B (zh) * 2021-04-29 2024-08-02 宜宾中星技术智能系统有限公司 信息生成方法、装置、终端设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10177650A (ja) * 1996-12-16 1998-06-30 Nec Corp 画像特徴抽出装置,画像特徴解析装置,および画像照合システム
US6108437A (en) 1997-11-14 2000-08-22 Seiko Epson Corporation Face recognition apparatus, method, system and computer readable medium thereof
JP2000306095A (ja) * 1999-04-16 2000-11-02 Fujitsu Ltd 画像照合・検索システム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0520442A (ja) 1991-07-17 1993-01-29 Nippon Telegr & Teleph Corp <Ntt> 顔画像照合装置
JPH0546743A (ja) * 1991-08-09 1993-02-26 Matsushita Electric Ind Co Ltd 個人識別装置
JP2840816B2 (ja) 1995-03-13 1998-12-24 株式会社エイ・ティ・アール通信システム研究所 表情検出装置
CN1184542A (zh) * 1995-03-20 1998-06-10 Lau技术公司 识别图象的系统和方法
US5710833A (en) * 1995-04-20 1998-01-20 Massachusetts Institute Of Technology Detection, recognition and coding of complex objects using probabilistic eigenspace analysis
JPH1055412A (ja) 1996-06-06 1998-02-24 Fujitsu Ltd 特徴ベクトルの部分固有空間への射影による特徴選択を用いたパターン認識装置及び方法
US6111978A (en) * 1996-12-13 2000-08-29 International Business Machines Corporation System and method for determining ridge counts in fingerprint image processing
US6151403A (en) * 1997-08-29 2000-11-21 Eastman Kodak Company Method for automatic detection of human eyes in digital images
JPH11306325A (ja) 1998-04-24 1999-11-05 Toshiba Tec Corp 対象物検出装置及び対象物検出方法
JP4087953B2 (ja) 1998-07-14 2008-05-21 株式会社東芝 パターン認識装置及びその方法
JP3468108B2 (ja) 1998-07-15 2003-11-17 松下電器産業株式会社 顔画像照合方法及び顔画像照合装置
US6292575B1 (en) * 1998-07-20 2001-09-18 Lau Technologies Real-time facial recognition and verification system
GB2341231A (en) * 1998-09-05 2000-03-08 Sharp Kk Face detection in an image
JP2000099722A (ja) 1998-09-22 2000-04-07 Toshiba Corp 人物顔認識装置及び人物顔認識方法
JP2000132675A (ja) 1998-10-29 2000-05-12 Matsushita Electric Ind Co Ltd 顔識別・照合方法及びその装置
JP2000187733A (ja) 1998-12-22 2000-07-04 Canon Inc 画像処理装置及び方法並びに記憶媒体
KR100343223B1 (ko) * 1999-12-07 2002-07-10 윤종용 화자 위치 검출 장치 및 그 방법
JP3877274B2 (ja) 2000-03-24 2007-02-07 富士通株式会社 画像照合処理システム
JP4443722B2 (ja) 2000-04-25 2010-03-31 富士通株式会社 画像認識装置及び方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10177650A (ja) * 1996-12-16 1998-06-30 Nec Corp 画像特徴抽出装置,画像特徴解析装置,および画像照合システム
US6108437A (en) 1997-11-14 2000-08-22 Seiko Epson Corporation Face recognition apparatus, method, system and computer readable medium thereof
JP2000306095A (ja) * 1999-04-16 2000-11-02 Fujitsu Ltd 画像照合・検索システム

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
MOGHADDAM ET AL.: "Probabilistic visual learning for object representation", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, vol. 19, no. 7, July 1997 (1997-07-01), pages 696 - 710, XP000698169 *
See also references of EP1460580A4
TOSHIO KAMEI: "Face retrieval by an adaptive mahalanobis distance using a confidence factor", PROCEEDINGS OF IEEE 2002 INTERNATIONAL CONFERENCE ON IMAGE PROCESSING, September 2002 (2002-09-01), pages 153 - 156, XP001134083 *
ZHAO ET AL.: "Discriminant analysis of principal components for face recognition", PROCEEDINGS OF THIRD IEEE INTERNATIONAL CONFERENCE ON AUTOMATIC FACE AND GESTURE RECOGNITION, April 1998 (1998-04-01), pages 336 - 341, XP010277594 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7769287B2 (en) 2007-01-24 2010-08-03 Fujifilm Corporation Image taking apparatus and image taking method

Also Published As

Publication number Publication date
DE60232365D1 (de) 2009-06-25
EP1460580A4 (en) 2007-06-13
CN1552041A (zh) 2004-12-01
CN100492397C (zh) 2009-05-27
CN1912891A (zh) 2007-02-14
EP2017770B1 (en) 2013-02-20
EP1460580A1 (en) 2004-09-22
EP2017770A2 (en) 2009-01-21
EP1460580B1 (en) 2009-05-13
JP2003187229A (ja) 2003-07-04
EP2017770A3 (en) 2009-07-01
JP3903783B2 (ja) 2007-04-11
US20040197013A1 (en) 2004-10-07
CN100492398C (zh) 2009-05-27
CN1912890A (zh) 2007-02-14
CN100367311C (zh) 2008-02-06
US7593551B2 (en) 2009-09-22

Similar Documents

Publication Publication Date Title
WO2003052690A1 (fr) Creation de metadonnees faciales et calcul de similarites faciales
US5901244A (en) Feature extraction system and face image recognition system
Cardinaux et al. User authentication via adapted statistical models of face images
US6430307B1 (en) Feature extraction system and face image recognition system
JP4543423B2 (ja) 対象物自動認識照合方法および装置
Soltane et al. Face and speech based multi-modal biometric authentication
WO2003083774A1 (fr) Creation de metadonnees faciales
JP4375570B2 (ja) 顔認識方法およびシステム
US20030113002A1 (en) Identification of people using video and audio eigen features
Bredin et al. Audio-visual speech synchrony measure for talking-face identity verification
Elmir et al. Multimodal biometric using a hierarchical fusion of a person's face, voice, and online signature
WO2013181695A1 (en) Biometric verification
Argones Rua et al. Audio-visual speech asynchrony detection using co-inertia analysis and coupled hidden markov models
JP4375571B2 (ja) 顔類似度算出方法および装置
Chetty et al. Liveness detection using cross-modal correlations in face-voice person authentication.
Luque et al. Audio, video and multimodal person identification in a smart room
Czyz et al. Scalability analysis of audio-visual person identity verification
Ilyas et al. Wavelet-Based Facial recognition
JP2000030066A (ja) 顔画像照合方法及び顔画像照合装置
Poh et al. Face video competition
McCool et al. Parts-based face verification using local frequency bands
Bendris et al. Introduction of quality measures in audio-visual identity verification
Motlicek et al. Bi-modal authentication in mobile environments using session variability modelling
Singh Bayesian distance metric learning and its application in automatic speaker recognition systems
Soltane Face, voice and signature multi-modal biometric verification fusion systems

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CN US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): DE FR GB

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2002790768

Country of ref document: EP

Ref document number: 10488213

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 20028173597

Country of ref document: CN

WWP Wipo information: published in national office

Ref document number: 2002790768

Country of ref document: EP