JP2018200592A - Face authentication device, face authentication method, and program - Google Patents

Face authentication device, face authentication method, and program Download PDF

Info

Publication number
JP2018200592A
JP2018200592A JP2017105264A JP2017105264A JP2018200592A JP 2018200592 A JP2018200592 A JP 2018200592A JP 2017105264 A JP2017105264 A JP 2017105264A JP 2017105264 A JP2017105264 A JP 2017105264A JP 2018200592 A JP2018200592 A JP 2018200592A
Authority
JP
Japan
Prior art keywords
face
organ
data
input
similarity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017105264A
Other languages
Japanese (ja)
Other versions
JP6891633B2 (en
Inventor
昌希 内田
Masaki Uchida
昌希 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2017105264A priority Critical patent/JP6891633B2/en
Publication of JP2018200592A publication Critical patent/JP2018200592A/en
Application granted granted Critical
Publication of JP6891633B2 publication Critical patent/JP6891633B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a face authentication device, a face authentication method, and a program, capable of obtaining face recognition results with high authentication accuracy.SOLUTION: A face authentication device 1: detects each facial organ (right eyebrow 32a, left eyebrow 32b, right eye 32c, left eye 32d, nose 32e, mouth 32f, jaw 32g, and the like) from a face region 31 contained in an input image 30; generates face organ data 32 defining a position and a shape of each of the detected facial organ with a plurality of feature points; aligns the input face organ data 32 and the facial organ data 82 registered in association with user information in advance with reference to a specific facial organ (for example, jaw 32g); calculates a similarity score; and performs face authentication processing based on similarity. Aligning the input face organ data and the facial organ data with reference to a specific facial organ makes it easier to identify individual differences, thereby obtaining accurate face authentication results.SELECTED DRAWING: Figure 1

Description

本発明は、顔認証装置、顔認証方法、及びプログラムに関し、詳細には、目、鼻、口等の顔器官の特徴を用いた顔認証装置、顔認証方法、及びプログラムに関する。   The present invention relates to a face authentication device, a face authentication method, and a program, and more particularly, to a face authentication device, a face authentication method, and a program that use features of facial organs such as eyes, nose, and mouth.

従来より、画像から顔の特徴を検出して人物を認証する認証システムが提案されている。例えば、非特許文献1の手法では、入力画像300内の顔領域301に含まれる各顔器官(眉、目、鼻、口、顎等)の特徴点を検出し、複数の特徴点で定義される顔器官データ332を生成することができる(図10(a))。このように、人物の顔の特徴を表す顔器官データ332を用いて、入力画像300から生成される顔器官データ332(図10(a))と登録されている複数の人物の顔器官データ382a、382b、382c、…(図10(b))とを比較し、顔の類似度を評価することができる。このように類似度の評価に顔器官データを用いれば、点の比較であるため、機械学習等を用いる場合等と比較して高速に認証処理を行える。また、学習データの収集や学習処理が不要であるという利点もある。   Conventionally, an authentication system for detecting a facial feature from an image and authenticating a person has been proposed. For example, in the technique of Non-Patent Document 1, feature points of each facial organ (eyebrow, eye, nose, mouth, chin, etc.) included in the face region 301 in the input image 300 are detected and defined by a plurality of feature points. Facial organ data 332 can be generated (FIG. 10A). As described above, using the facial organ data 332 representing the facial features of a person, facial organ data 332 (FIG. 10A) generated from the input image 300 and the facial organ data 382a of a plurality of persons registered. , 382b, 382c,... (FIG. 10B), the degree of similarity of the face can be evaluated. In this way, if facial organ data is used for evaluation of similarity, it is point comparison, so that authentication processing can be performed at a higher speed than when machine learning or the like is used. Further, there is an advantage that learning data collection and learning processing are unnecessary.

ところで、類似度を評価する際は、予め、入力画像300から検出した顔器官データ332と登録されている顔器官データ382a、382b、382c、…との位置合わせを行う必要がある。位置合わせは、例えば、非特許文献2に開示されているように、顔全体の特徴点を用いて行うことが一般的である。具体的には、図11に示すように、対応する各特徴点間の差(具体的には各特徴点間のユークリッド距離の2乗和)が顔全体で最も小さくなるように、平行移動、回転、拡大・縮小等の画像処理を行う。   By the way, when evaluating the similarity, it is necessary to align the facial organ data 332 detected from the input image 300 with the registered facial organ data 382a, 382b, 382c,. For example, as disclosed in Non-Patent Document 2, alignment is generally performed using feature points of the entire face. Specifically, as shown in FIG. 11, the parallel movement is performed so that the difference between the corresponding feature points (specifically, the sum of squares of the Euclidean distance between the feature points) is minimized in the entire face. Image processing such as rotation, enlargement / reduction, etc. is performed.

また、位置合わせを行ったあとの類似度の評価は、対応する各特徴点間のユークリッド距離に基づいて行うのが一般的である。例えば、各特徴点間のユークリッド距離の平均値を計算し、その平均値が小さいほど、似ている顔であると判断する。   In addition, the similarity evaluation after alignment is generally performed based on the Euclidean distance between corresponding feature points. For example, an average value of Euclidean distances between the feature points is calculated, and the smaller the average value, the more similar the face is determined.

Vahid Kazemi、他1名、2014年、"OneMillisecond Face Alignment with an Ensemble of Regression Trees"、[online]、Royal Institute ofTechnology、Computer Vision and Active Perception Lab(CVPR)、[平成29年4月25日検索]、インターネット、<URL:http://www.cv-foundation.org/openaccess/content_cvpr_2014/papers/Kazemi_One_Millisecond_Face_2014_CVPR_paper.pdf>Vahid Kazemi, 1 other, 2014, "OneMillisecond Face Alignment with an Ensemble of Regression Trees", [online], Royal Institute of Technology, Computer Vision and Active Perception Lab (CVPR), [April 25, 2017 search] , Internet, <URL: http: //www.cv-foundation.org/openaccess/content_cvpr_2014/papers/Kazemi_One_Millisecond_Face_2014_CVPR_paper.pdf> T.F. Cootes and C.J.Taylor、2004年、"StatisticalModels of Appearance for Computer Vision"、p102&#8211;104、[online]、[平成29年4月25日検索]、インターネット、<URL:http://www.face-rec.org/algorithms/AAM/app_models.pdf>TF Cootes and CJTaylor, 2004, “Statistical Models of Appearance for Computer Vision”, p102 &#8211; 104, [online], [April 25, 2017 search], Internet, <URL: http: // www. face-rec.org/algorithms/AAM/app_models.pdf>

しかしながら、上述したように、対応する特徴点間の差が顔全体で最も小さくなるように位置合わせをすると、個人差が出にくく、認証の精度が低下する。さらに、類似度の評価指標として特徴点間のユークリッド距離のみを用いた場合、類似度の評価結果が特徴点の多い器官に大きく依存し、また、同一人物であっても表情によって類似度の評価結果が大きく変わるため、認証の精度が低下する。   However, as described above, if alignment is performed so that the difference between corresponding feature points is minimized in the entire face, individual differences are difficult to occur, and the accuracy of authentication is reduced. Furthermore, when only the Euclidean distance between feature points is used as the similarity evaluation index, the similarity evaluation results greatly depend on the organ with many feature points, and even if the same person is used, the similarity evaluation is based on facial expressions. Since the result changes greatly, the accuracy of authentication decreases.

本発明は、このような課題に鑑みてなされたもので、認証精度の高い顔認証結果を得ることが可能な顔認証装置、顔認証方法、及びプログラムを提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides a face authentication apparatus, a face authentication method, and a program capable of obtaining a face authentication result with high authentication accuracy.

前述した課題を解決するため第1の発明は、複数の顔画像と各顔画像のそれぞれの器官の位置及び形状を複数の特徴点により定義した器官データとを紐づけて登録顔データとして記憶する記憶手段と、顔画像を入力する入力手段と、前記入力手段に入力された顔画像に含まれる顔領域から各器官を検出する器官検出手段と、検出した各器官の器官データを生成する器官データ生成手段と、前記器官データ生成手段により生成した器官データである入力器官データと、前記記憶手段に記憶された顔画像とを特定の器官を基準に位置合わせする位置合わせ手段と、位置合わせした前記入力された顔画像と前記記憶手段に記憶された顔画像との類似度を算出する類似度算出手段と、前記類似度に基づき顔認証処理を行う認証処理手段と、を備えることを特徴とする顔認証装置である。   In order to solve the above-described problem, the first invention associates a plurality of face images with organ data in which the position and shape of each organ of each face image are defined by a plurality of feature points and stores them as registered face data. Storage means; input means for inputting a face image; organ detection means for detecting each organ from a face area included in the face image input to the input means; and organ data for generating organ data of each detected organ Generating means; input organ data that is organ data generated by the organ data generating means; and positioning means for aligning the face image stored in the storage means with reference to a specific organ; A similarity calculation unit that calculates a similarity between the input face image and the face image stored in the storage unit; and an authentication processing unit that performs a face authentication process based on the similarity. A face authentication apparatus according to claim.

第1の発明によれば、複数の顔画像と各顔画像のそれぞれの器官の位置及び形状を複数の特徴点により定義した器官データとを紐づけて登録顔データとして記憶手段に記憶し、入力した顔画像に含まれる顔領域から各器官を検出し、検出した各器官の器官データを生成し、この入力器官データと予め記憶されている顔画像とを特定の器官を基準に位置合わせし、位置合わせした入力した顔画像と記憶された顔画像との類似度を求め、類似度に基づく顔認証処理を行う。特定の器官を基準に顔画像の位置合わせを行うことにより、個人差を識別しやすくなり精度のよい顔認証結果を得ることが可能となる。   According to the first invention, a plurality of face images and organ data in which the positions and shapes of the organs of each face image are defined by a plurality of feature points are linked and stored in the storage means as registered face data, and input Detecting each organ from the face area included in the face image, generating organ data of each detected organ, aligning the input organ data and the pre-stored face image with reference to a specific organ, The similarity between the registered face image and the stored face image is obtained, and face authentication processing based on the similarity is performed. By performing face image alignment based on a specific organ, individual differences can be easily identified, and an accurate face authentication result can be obtained.

第1の発明において、例えば、前記類似度算出手段は、器官毎に特徴点を用いて類似度を算出することが望ましい。器官毎の類似度が算出されるため、個人を識別しやすいものとなる。また、前記位置合わせ手段は、前記特定の器官における前記入力器官データと前記登録顔データの器官データとの対応する各特徴点間の差が最小となるように位置合わせを行う。これにより、顔全体の特徴点の位置合わせが、特定の器官の特徴点を用いて好適に実行される。また例えば、前記位置合わせ手段は、前記入力器官データ及び前記登録顔データの器官データのいずれか一方または両方について平行移動、回転、拡大、及び縮小のうち少なくともいずれか一つ以上の画像処理により位置合わせを行う。これにより、撮影時の姿勢やカメラ位置等の制約を減らすことができ、使用しやすいものとなる。   In the first invention, for example, it is desirable that the similarity calculation means calculates the similarity using feature points for each organ. Since the similarity for each organ is calculated, it becomes easy to identify an individual. Further, the positioning means performs positioning so that a difference between corresponding feature points of the input organ data and the organ data of the registered face data in the specific organ is minimized. Thereby, the alignment of the feature points of the entire face is preferably executed using the feature points of a specific organ. In addition, for example, the positioning unit may perform positioning by performing at least one of image processing among translation, rotation, enlargement, and reduction for one or both of the input organ data and the organ data of the registered face data. Align. Thereby, restrictions such as posture and camera position at the time of photographing can be reduced, and it becomes easy to use.

また、前記類似度算出手段は、前記入力器官データ及び前記登録顔データの器官データにおける対応する各特徴点間のユークリッド距離の平均値と分散とを顔器官毎に算出し、全ての器官の前記ユークリッド距離の平均値及び分散に基づき顔全体の類似度を算出することが望ましい。特徴点間のユークリッド距離のみならず、分散を評価することで、表情の変化によらず同一人物を識別しやすくなり、認証精度が向上する。   Further, the similarity calculation means calculates an average value and variance of Euclidean distances between corresponding feature points in the organ data of the input organ data and the registered face data for each facial organ, and It is desirable to calculate the similarity of the entire face based on the average value and variance of the Euclidean distance. By evaluating not only the Euclidean distance between feature points but also the variance, it becomes easier to identify the same person regardless of changes in facial expressions, and the authentication accuracy is improved.

また、前記器官データの特徴点の数は器官毎に定義されることが望ましい。これにより、各器官に応じて最適な特徴点数で特徴を抽出でき、顔の特徴を表しやすくなる。その結果、個人差を識別しやすく、かつ表情に依存しにくいロバストな顔認証結果を得ることが可能となる。   The number of feature points of the organ data is preferably defined for each organ. As a result, features can be extracted with the optimum number of feature points according to each organ, and facial features can be easily expressed. As a result, it is possible to obtain a robust face authentication result that makes it easy to identify individual differences and is less dependent on facial expressions.

第2の発明は、コンピュータが、複数の顔画像と各顔画像のそれぞれの器官の位置及び形状を複数の特徴点により定義した器官データとを紐づけて登録顔データとして記憶部に記憶するステップと、顔画像を入力するステップと、入力された顔画像に含まれる顔領域から各器官を検出するステップと、検出した各器官の器官データを生成するステップと、生成した器官データである入力器官データと、前記記憶部に記憶された顔画像とを特定の器官を基準に位置合わせするステップと、位置合わせした前記入力された顔画像と前記記憶部に記憶された顔画像との類似度を算出するステップと、前記類似度に基づき顔認証処理を行うステップと、を含むことを特徴とする顔認証方法である。   According to a second aspect of the invention, the computer associates a plurality of face images with organ data in which the positions and shapes of the organs of the face images are defined by a plurality of feature points and stores them in the storage unit as registered face data. A step of inputting a face image, a step of detecting each organ from a face region included in the input face image, a step of generating organ data of each detected organ, and an input organ which is the generated organ data A step of aligning the data and the face image stored in the storage unit with reference to a specific organ, and the similarity between the registered face image stored in the storage unit and the face image stored in the storage unit A face authentication method comprising: a step of calculating; and a step of performing face authentication processing based on the similarity.

第2の発明によれば、複数の顔画像と各顔画像のそれぞれの器官の位置及び形状を複数の特徴点により定義した器官データとを紐づけて登録顔データとして記憶部に記憶し、入力した顔画像に含まれる顔領域から各器官を検出し、検出した各器官の器官データを生成し、この入力器官データと予め記憶されている顔画像とを特定の器官を基準に位置合わせし、位置合わせした入力した顔画像と記憶された顔画像との類似度を求め、類似度に基づく顔認証処理を行う。特定の器官を基準に顔画像の位置合わせを行うことにより、個人差を識別しやすくなり精度のよい顔認証結果を得ることが可能となる。   According to the second invention, a plurality of face images and organ data in which the positions and shapes of the respective organs of the face images are defined by a plurality of feature points are linked and stored in the storage unit as registered face data, and input Detecting each organ from the face area included in the face image, generating organ data of each detected organ, aligning the input organ data and the pre-stored face image with reference to a specific organ, The similarity between the registered face image and the stored face image is obtained, and face authentication processing based on the similarity is performed. By performing face image alignment based on a specific organ, individual differences can be easily identified, and an accurate face authentication result can be obtained.

第3の発明は、コンピュータを、複数の顔画像と各顔画像のそれぞれの器官の位置及び形状を複数の特徴点により定義した器官データとを紐づけて登録顔データとして記憶する記憶手段、顔画像を入力する入力手段、前記入力手段に入力された顔画像に含まれる顔領域から各器官を検出する器官検出手段、検出した各器官の器官データを生成する器官データ生成手段、前記器官データ生成手段により生成した器官データである入力器官データと、前記記憶手段に記憶された顔画像とを特定の器官を基準に位置合わせする位置合わせ手段、位置合わせした前記入力された顔画像と前記記憶手段に記憶された顔画像との類似度を算出する類似度算出手段、前記類似度に基づき顔認証処理を行う認証処理手段、として機能させるためのプログラムである。   A third invention relates to a storage means for storing a computer as a registered face data by associating a plurality of face images with organ data in which the positions and shapes of the organs of the face images are defined by a plurality of feature points. Input means for inputting an image, organ detection means for detecting each organ from a face area included in the face image input to the input means, organ data generating means for generating organ data of each detected organ, and organ data generation Positioning means for aligning input organ data, which is organ data generated by the means, and the face image stored in the storage means with reference to a specific organ, the input face image that has been aligned, and the storage means A program for functioning as similarity calculation means for calculating the similarity to the face image stored in the image, and authentication processing means for performing face authentication processing based on the similarity That.

第3の発明により、コンピュータを第1の発明の顔認証装置として機能させることが可能となる。   According to the third invention, it is possible to cause a computer to function as the face authentication device of the first invention.

本発明により、認証精度の高い顔認証結果を得ることが可能な顔認証装置、顔認証方法、及びプログラムを提供できる。   According to the present invention, it is possible to provide a face authentication device, a face authentication method, and a program capable of obtaining a face authentication result with high authentication accuracy.

本発明に係る顔認証装置1の機能構成を示すブロック図The block diagram which shows the function structure of the face authentication apparatus 1 which concerns on this invention. 顔認証装置1として機能するコンピュータの内部構成図Internal configuration diagram of computer functioning as face authentication device 1 登録顔器官データ8のデータ構成例を示す図The figure which shows the data structural example of the registration facial organ data 8 顔認証装置1が実行する認証処理の流れを示すフローチャートThe flowchart which shows the flow of the authentication process which the face authentication apparatus 1 performs 画像30から顔器官データ32を検出する処理について説明する図The figure explaining the process which detects the facial organ data 32 from the image 30 入力顔器官データ32と登録顔器官データ82との位置合わせについて説明する図The figure explaining alignment with the input facial organ data 32 and the registration facial organ data 82 類似度評価処理の流れを示すフローチャートFlow chart showing the flow of similarity evaluation processing 顔器官毎の類似度算出について説明する図The figure explaining similarity calculation for every facial organ 入力顔器官データ32dと登録顔器官データ82dとの対応する特徴点同士の比較について説明する図The figure explaining the comparison of the corresponding feature points of the input facial organ data 32d and the registered facial organ data 82d 入力画像300から顔器官データ332を検出し、登録されている顔器官データ382a、382b、…と比較する処理について説明する図The figure explaining the process which detects the facial organ data 332 from the input image 300, and compares with the registered facial organ data 382a, 382b, ... 従来の顔器官データの位置合わせについて説明する図The figure explaining the alignment of the conventional facial organ data

以下、図面に基づいて本発明の好適な実施形態について詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明に係る顔認証装置1の機能構成を示すブロック図、図2は、顔認証装置1として機能するコンピュータの内部構成の例を示す図である。   FIG. 1 is a block diagram showing a functional configuration of a face authentication device 1 according to the present invention, and FIG. 2 is a diagram showing an example of an internal configuration of a computer that functions as the face authentication device 1.

図1に示すように、顔認証装置1は、入力部2、顔領域検出部3、顔器官検出部4、位置合わせ部5、類似度評価部6、出力部7、登録処理部9、及び記憶部12を備える。記憶部12には、登録顔データ8が記憶されている。   As shown in FIG. 1, the face authentication device 1 includes an input unit 2, a face region detection unit 3, a face organ detection unit 4, a registration unit 5, a similarity evaluation unit 6, an output unit 7, a registration processing unit 9, and A storage unit 12 is provided. The storage unit 12 stores registered face data 8.

入力部2は、画像30を顔認証装置1に入力する。入力する画像30(以下、入力画像と呼ぶ)は、顔領域を含む画像(顔画像)であり、静止画でもよいし動画でもよい。入力部2は、カメラ20により撮影された画像30を直接カメラ20から取得してもよいし、記憶部12や記録媒体等に記憶されている顔画像を取得してもよい。   The input unit 2 inputs the image 30 to the face authentication device 1. An input image 30 (hereinafter referred to as an input image) is an image including a face area (face image), and may be a still image or a moving image. The input unit 2 may acquire the image 30 captured by the camera 20 directly from the camera 20 or may acquire a face image stored in the storage unit 12 or a recording medium.

顔領域検出部3は、入力部2から入力された入力画像30に人物の顔が含まれるか否かを判定し、人物の顔を検出した場合は入力画像30から顔領域31を検出する(図5参照)。   The face area detection unit 3 determines whether or not a human face is included in the input image 30 input from the input unit 2, and detects a face area 31 from the input image 30 when a human face is detected ( (See FIG. 5).

顔器官検出部4は、顔領域検出部3により検出された顔領域31から各器官を検出する。顔器官検出部4は、検出された顔領域31の画像情報から所定の特徴点を検出し、各顔器官の位置と形状を推定する。顔器官とは、顔に含まれる器官であり、例えば、右眉32a、左眉32b、右目32c、左目32d、鼻32e、口32f、顎32g等である。顔器官の検出には、公知の手法を用いればよい。例えば、非特許文献1の手法が知られている。(非特許文献1:Vahid Kazemi、他1名、"One Millisecond Face Alignment with an Ensemble of Regression
Trees"、[online]、Royal Institute of Technology、Computer Vision and Active Perception Lab(CVPR)、<URL:http://www.cv-foundation.org/openaccess/content_cvpr_2014/papers/Kazemi_One_Millisecond_Face_2014_CVPR_paper.pdf>)。この非特許文献1の手法によれば、顔領域31から各顔器官32a〜32gの位置と形状を複数の特徴点で定義した器官データ32(以下、顔器官データと呼ぶ)を生成できる。なお、本発明において、顔器官検出部4は、画像30から各顔器官32a〜32gを検出し、各顔器官32a〜32gの位置及び形状を複数の特徴点で定義した顔器官データ32を生成できればよく、顔器官32a〜32gの検出方法は上記非特許文献1の手法に限定されない。顔器官データ32については後述する。
The face organ detection unit 4 detects each organ from the face region 31 detected by the face region detection unit 3. The face organ detection unit 4 detects predetermined feature points from the image information of the detected face region 31 and estimates the position and shape of each face organ. The facial organs are organs included in the face, such as the right eyebrow 32a, the left eyebrow 32b, the right eye 32c, the left eye 32d, the nose 32e, the mouth 32f, and the jaw 32g. A known technique may be used to detect the facial organs. For example, the method of Non-Patent Document 1 is known. (Non-Patent Document 1: Vahid Kazemi and 1 other, "One Millisecond Face Alignment with an Ensemble of Regression
Trees ", [online], Royal Institute of Technology, Computer Vision and Active Perception Lab (CVPR), <URL: http://www.cv-foundation.org/openaccess/content_cvpr_2014/papers/Kazemi_One_Millisecond_Face_2014_CVPR_paper.pdf>). According to the technique of Non-Patent Document 1, organ data 32 (hereinafter referred to as face organ data) in which the positions and shapes of the facial organs 32a to 32g are defined by a plurality of feature points can be generated from the face region 31. In the present invention, the facial organ detection unit 4 only needs to detect the facial organs 32a to 32g from the image 30 and generate facial organ data 32 in which the positions and shapes of the facial organs 32a to 32g are defined by a plurality of feature points. The detection method of the facial organs 32a to 32g is not limited to the method of Non-Patent Document 1. The facial organ data 32 will be described later.

顔器官検出部4は、入力画像30から生成した顔器官データを、登録モードにおいては登録処理部9に出力し、顔認証モードにおいては位置合わせ部5に出力する。登録モードとは、顔認証装置1を利用する利用者の顔画像と顔器官データとを紐づけて登録する処理モードである。顔認証モードとは、顔認証装置1の利用者の顔認証処理を実行する処理モードである。顔認証装置1が登録モードまたは顔認証モードのどちらを実行するかは、操作者により予め選択されるものとする。   The facial organ detection unit 4 outputs the facial organ data generated from the input image 30 to the registration processing unit 9 in the registration mode and to the registration unit 5 in the face authentication mode. The registration mode is a processing mode for registering the face image and face organ data of the user who uses the face authentication device 1 in association with each other. The face authentication mode is a processing mode for executing the face authentication process of the user of the face authentication device 1. Whether the face authentication apparatus 1 executes the registration mode or the face authentication mode is assumed to be selected in advance by the operator.

登録処理部9は、登録モードにおいて顔器官検出部4により生成された顔器官データを顔器官データ82として元となる顔画像81とを紐付けて記憶部12に記憶する(図3参照)。また、利用者の情報(以下、利用者情報83と呼ぶ。)を顔画像81及び顔器官データ82と紐づけて記憶部12に記憶してもよい。利用者情報83は、登録処理において利用者が顔認証装置1に入力した情報であり、例えば使用者の氏名、年齢、性別等の属性情報を含むものとする。   The registration processing unit 9 associates the facial organ data generated by the facial organ detection unit 4 in the registration mode with the original facial image 81 as the facial organ data 82 and stores it in the storage unit 12 (see FIG. 3). Further, user information (hereinafter referred to as user information 83) may be stored in the storage unit 12 in association with the face image 81 and the facial organ data 82. The user information 83 is information input to the face authentication apparatus 1 by the user in the registration process, and includes, for example, attribute information such as the user's name, age, and sex.

図3は、記憶部12に記憶される登録顔データ8の一例について説明する図である。図3に示すように、登録顔データ8は、利用者の識別情報である利用者ID80と、利用者の顔画像81と、顔画像81から生成される顔器官データ82と、利用者の属性情報83とが紐づけて記憶される。利用者の属性情報は、氏名、年齢、性別等である。記憶部12には、複数の利用者の顔画像81と顔器官データ82と利用者情報83とが紐づけられて登録顔データ8として記憶される。   FIG. 3 is a diagram illustrating an example of registered face data 8 stored in the storage unit 12. As shown in FIG. 3, the registered face data 8 includes a user ID 80 that is user identification information, a user face image 81, face organ data 82 generated from the face image 81, and user attributes. Information 83 is linked and stored. User attribute information includes name, age, gender, and the like. In the storage unit 12, a plurality of user face images 81, face organ data 82, and user information 83 are linked and stored as registered face data 8.

一方、顔認証モードにおいて、顔器官検出部4により検出された顔器官データは位置合わせ部5に入力される。顔器官検出部4により検出された顔器官データを入力顔器官データ32と呼ぶ。   On the other hand, in the face authentication mode, the facial organ data detected by the facial organ detection unit 4 is input to the alignment unit 5. The facial organ data detected by the facial organ detection unit 4 is referred to as input facial organ data 32.

位置合わせ部5は、顔認証モードにおいて入力部2により入力された入力画像30(入力顔画像30と呼ぶ。)と記憶部12に予め記憶されている顔画像(登録顔画像81)とを特定の顔器官を基準に位置合わせする。位置合わせは、(1)入力顔画像から検出され、生成された顔器官データ(入力顔器官データ32)と記憶部12に予め記憶されている顔画像(登録顔画像81)とを位置合わせしてもよいし、(2)顔画像同士(入力顔画像30と登録顔画像81)を位置合わせしてもよいし、(3)入力顔画像30と記憶部12に予め記憶されている顔器官データ(登録顔器官データ82)とを位置合わせしてもよい。いずれの場合でも、本発明において、位置合わせ部5は、入力顔画像30(または入力顔器官データ32)と登録顔画像81(または登録顔器官データ82)とを特定の顔器官(例えば、顎)を基準に位置合わせする。具体的な一例としては、位置合わせ部5は、入力顔器官データ32及び登録顔器官データ82の特定の顔器官における対応する各特徴点間の差(具体的には各特徴点間のユークリッド距離の2乗和)が最小となるように位置合わせを行う。顔器官データ32、82の位置合わせについては、後述する。   The alignment unit 5 identifies an input image 30 (referred to as an input face image 30) input by the input unit 2 in the face authentication mode and a face image (registered face image 81) stored in advance in the storage unit 12. Align with the facial organs as a reference. The alignment is performed by (1) aligning the generated face organ data (input face organ data 32) detected from the input face image and the face image (registered face image 81) stored in advance in the storage unit 12. (2) The face images (the input face image 30 and the registered face image 81) may be aligned, or (3) the facial organs stored in advance in the input face image 30 and the storage unit 12 Data (registered facial organ data 82) may be aligned. In any case, in the present invention, the registration unit 5 uses the input face image 30 (or input face organ data 32) and the registered face image 81 (or registered face organ data 82) as a specific face organ (for example, jaw). ) For reference. As a specific example, the registration unit 5 determines the difference between the corresponding feature points in the specific facial organs of the input facial organ data 32 and the registered facial organ data 82 (specifically, the Euclidean distance between the feature points). Alignment is performed so that the sum of squares) is minimized. The alignment of the facial organ data 32 and 82 will be described later.

類似度評価部6は、顔認証モードにおいて、位置合わせ部5により位置合わせした入力顔画像30と登録顔画像81との類似度を算出する。類似度評価部6は、顔器官毎に特徴点を用いて入力顔画像30と登録顔画像81との類似度を算出する。具体的には、入力顔器官データ32及び登録顔器官データ82における対応する特徴点間のユークリッド距離の平均値と分散とを顔器官毎に算出する。また、算出した全ての顔器官のユークリッド距離の平均値及び分散に基づき、顔全体の類似度のスコアを算出する。具体的な算出方法については後述する。   The similarity evaluation unit 6 calculates the similarity between the input face image 30 registered by the registration unit 5 and the registered face image 81 in the face authentication mode. The similarity evaluation unit 6 calculates the similarity between the input face image 30 and the registered face image 81 using the feature points for each facial organ. Specifically, the average value and variance of the Euclidean distance between corresponding feature points in the input facial organ data 32 and the registered facial organ data 82 are calculated for each facial organ. Further, the similarity score of the entire face is calculated based on the average value and variance of the calculated Euclidean distances of all facial organs. A specific calculation method will be described later.

類似度評価部6は、算出した類似度のスコアと所定の閾値とを比較し、類似度のスコアが所定の閾値以下である場合は、入力顔器官データ32と登録顔器官データ82とが類似していると判定する。顔認証モードでは、記憶部12に登録されている全ての登録顔器官データ82と入力顔器官データ32との位置合わせ及び類似度評価を行う。類似度評価においては、類似度のスコアが所定の閾値以下であり、かつ、最も類似度スコアが小さい登録顔器官データに紐づく人物を、本人として認証する。類似度のスコアが所定の閾値より大きい場合は認証失敗とする。類似度評価部6における類似度の算出、及び認証処理の具体例については後述する。   The similarity evaluation unit 6 compares the calculated similarity score with a predetermined threshold, and if the similarity score is equal to or lower than the predetermined threshold, the input facial organ data 32 and the registered facial organ data 82 are similar. It is determined that In the face authentication mode, alignment and similarity evaluation of all registered facial organ data 82 and input facial organ data 32 registered in the storage unit 12 are performed. In the similarity evaluation, a person associated with registered facial organ data having a similarity score that is equal to or lower than a predetermined threshold and having the smallest similarity score is authenticated as the person. If the similarity score is larger than a predetermined threshold value, authentication fails. A specific example of similarity calculation and authentication processing in the similarity evaluation unit 6 will be described later.

出力部7は、類似度評価部6における評価結果(認証処理の結果)を出力する。出力は、例えば、PCのログイン時の認証処理であれば、ログイン処理を実行するログイン処理部への認証結果の通知であり、ゲート開錠等における顔認証処理であれば、ゲートの開錠を実行する開錠処理部への認証結果の通知である。なお、出力の方法はこれらに限定されず、どのような方法で類似度評価部6の評価結果を通知してもよいものとする。   The output unit 7 outputs the evaluation result (authentication processing result) in the similarity evaluation unit 6. For example, the output is a notification of the authentication result to the login processing unit that executes the login process if it is an authentication process at the time of login of the PC. This is a notification of the authentication result to the unlocking processing unit to be executed. Note that the output method is not limited to these, and the evaluation result of the similarity evaluation unit 6 may be notified by any method.

図2は、顔認証装置1として機能させるコンピュータの構成例を示す図である。図2に示すように、顔認証装置1は、制御部11、記憶部12、メディア入出力部13、周辺機器I/F部14、入力部15、表示部16、通信制御部17等がバス18を介して接続されて構成される。周辺機器I/F部14には、カメラ20が接続される。コンピュータを顔認証装置1として機能させる場合、コンピュータの制御部11は、図4に示す処理を記述したプログラムを実行することにより実現する。   FIG. 2 is a diagram illustrating a configuration example of a computer that functions as the face authentication apparatus 1. As shown in FIG. 2, the face authentication device 1 includes a control unit 11, a storage unit 12, a media input / output unit 13, a peripheral device I / F unit 14, an input unit 15, a display unit 16, a communication control unit 17, and the like. 18 is connected. A camera 20 is connected to the peripheral device I / F unit 14. When the computer functions as the face authentication apparatus 1, the computer control unit 11 is realized by executing a program describing the processing shown in FIG.

制御部11は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等により構成される。CPUは、記憶部12、ROM、記録媒体等に格納されるプログラムをRAM上のワークメモリ領域に呼び出して実行し、バス18を介して接続された各部を駆動制御する。ROMは、コンピュータのブートプログラムやBIOS等のプログラム、データ等を恒久的に保持する。RAMは、ロードしたプログラムやデータを一時的に保持するとともに、制御部11が各種処理を行うために使用するワークエリアを備える。制御部11は、上記プログラムを読み出して実行することにより、顔認証装置1の各手段として機能する。   The control unit 11 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. The CPU calls a program stored in the storage unit 12, ROM, recording medium or the like to a work memory area on the RAM and executes it, and drives and controls each unit connected via the bus 18. The ROM permanently holds a computer boot program, a program such as BIOS, data, and the like. The RAM temporarily holds the loaded program and data, and includes a work area used by the control unit 11 to perform various processes. The control unit 11 functions as each unit of the face authentication device 1 by reading and executing the program.

記憶部12は、例えば、ハードディスクドライブ等の記憶装置である。記憶部12には制御部11が実行するプログラムや、プログラム実行に必要なデータ、オペレーティングシステム等が格納されている。これらのプログラムコードは、制御部11により必要に応じて読み出されてRAMに移され、CPUに読み出されて実行される。記憶部12には、各利用者の顔画像である登録顔画像81とそれらの顔画像から生成される顔器官データである登録顔器官データ82とを紐づけた登録顔データ8が記憶される(図3参照)。   The storage unit 12 is a storage device such as a hard disk drive, for example. The storage unit 12 stores a program executed by the control unit 11, data necessary for program execution, an operating system, and the like. These program codes are read by the control unit 11 as necessary, transferred to the RAM, and read and executed by the CPU. The storage unit 12 stores registered face data 8 in which registered face images 81 that are face images of each user are associated with registered face organ data 82 that is face organ data generated from the face images. (See FIG. 3).

メディア入出力部13は、例えば、CD、DVD、MO等の各種記録媒体(メディア)のドライブ装置であり、メディアに対してデータの入出力(書込み/読み出し)を行う。   The media input / output unit 13 is, for example, a drive device for various recording media (media) such as a CD, a DVD, and an MO, and inputs / outputs (writes / reads) data to / from the media.

周辺機器I/F(インタフェース)部14は、周辺機器を接続させるためのポートであり、周辺機器I/F部14を介して周辺機器とのデータの送受信を行う。周辺機器I/F部14は、USB等で構成されており、通常複数の周辺機器I/Fを有する。周辺機器との接続形態は有線、無線を問わない。   The peripheral device I / F (interface) unit 14 is a port for connecting a peripheral device, and transmits / receives data to / from the peripheral device via the peripheral device I / F unit 14. The peripheral device I / F unit 14 is configured by a USB or the like, and usually includes a plurality of peripheral devices I / F. The connection form with the peripheral device may be wired or wireless.

入力部15は、例えば、タッチパネル、キーボード、マウス等のポインティング・デバイス、テンキー等の入力装置であり、入力されたデータを制御部11へ出力する。
表示部16は、例えば液晶パネル、CRTモニタ等のディスプレイ装置と、ディスプレイ装置と連携して表示処理を実行するための論理回路(ビデオアダプタ等)で構成され、制御部11の制御により入力された表示情報をディスプレイ装置上に表示させる。なお、入力部15及び表示部16は、表示画面にタッチパネル等の入力装置を一体的に設けたタッチパネルディスプレイ(操作部25)としてもよい。
The input unit 15 is an input device such as a touch device, a pointing device such as a keyboard and a mouse, and a numeric keypad, and outputs input data to the control unit 11.
The display unit 16 includes a display device such as a liquid crystal panel or a CRT monitor, and a logic circuit (video adapter or the like) for executing display processing in cooperation with the display device, and is input under the control of the control unit 11. Display information is displayed on a display device. The input unit 15 and the display unit 16 may be a touch panel display (operation unit 25) in which an input device such as a touch panel is integrally provided on the display screen.

通信制御部17は、通信制御装置、通信ポート等を有し、ネットワーク10等との通信を制御する。ネットワーク10は、LAN(Local Area Network)や、より広域に通信接続されたWAN(Wide Area Network)、またはインターネット等の公衆の通信回線、基地局等を含む。ネットワーク10は有線、無線を問わない。顔認証装置1はネットワーク10を介してサーバ(不図示)にアクセスし、各種のプログラムやデータを送受信可能である。
バス18は、各装置間の制御信号、データ信号等の授受を媒介する経路である。
The communication control unit 17 includes a communication control device, a communication port, and the like, and controls communication with the network 10 and the like. The network 10 includes a LAN (Local Area Network), a WAN (Wide Area Network) connected to a wider area, or a public communication line such as the Internet, a base station, and the like. The network 10 may be wired or wireless. The face authentication device 1 can access a server (not shown) via the network 10 and can transmit and receive various programs and data.
The bus 18 is a path that mediates transmission / reception of control signals, data signals, and the like between the devices.

次に、図4を参照して、顔認証装置1が実行する顔認証処理の流れについて説明する。図4は顔認証モードにおける処理の流れを説明するフローチャートである。顔認証装置1の制御部11は記憶部12から図4に示す処理に関するプログラム及びデータを読み出し、このプログラム及びデータに基づいて処理を実行する。なお、この顔認証処理の実行前に、複数の利用者の登録顔データ8が記憶部12に登録されているものとする。登録顔データ8に登録されている顔器官データ82は、以下の顔認証処理を実行する顔認証装置1と同一の装置で作成されたものでもよいし、別の装置で作成され、記憶部12に記憶したものでもよい。   Next, a flow of face authentication processing executed by the face authentication device 1 will be described with reference to FIG. FIG. 4 is a flowchart for explaining the flow of processing in the face authentication mode. The control unit 11 of the face authentication device 1 reads the program and data related to the process shown in FIG. 4 from the storage unit 12, and executes the process based on the program and data. It is assumed that registered face data 8 of a plurality of users are registered in the storage unit 12 before the face authentication process is executed. The facial organ data 82 registered in the registered face data 8 may be created by the same device as the face authentication device 1 that executes the following face authentication processing, or created by another device and stored in the storage unit 12. It may be stored in

顔認証装置1の制御部11(入力部2)は、カメラ20により撮影された画像または記憶部12に記憶された画像を入力画像30として取得する(ステップS101)。ステップS101で取得する入力画像30は、静止画でも動画でもよい。動画の場合は、動画に含まれる各フレームの画像を入力画像30として以下の処理を行う。   The control unit 11 (input unit 2) of the face authentication apparatus 1 acquires an image captured by the camera 20 or an image stored in the storage unit 12 as the input image 30 (step S101). The input image 30 acquired in step S101 may be a still image or a moving image. In the case of a moving image, the following processing is performed using the image of each frame included in the moving image as the input image 30.

制御部11(顔領域検出部3)は、入力画像30から人物の顔領域31を検出する(ステップS102)。制御部11(顔器官検出部4)は、検出した顔領域31から顔器官32a〜32gを検出して顔器官データ32を生成する(ステップS103)。ステップS103で生成した顔器官データ32を、入力顔器官データ32と呼ぶ。   The control unit 11 (face area detection unit 3) detects a human face area 31 from the input image 30 (step S102). The control unit 11 (face organ detection unit 4) detects the face organs 32a to 32g from the detected face region 31 and generates face organ data 32 (step S103). The facial organ data 32 generated in step S103 is referred to as input facial organ data 32.

図5は、入力された画像30から顔器官データ32を生成する処理について説明する図である。上述したように、制御部11は、カメラ20により撮影した画像30(映像を取得する場合は各フレームの画像)から顔領域31を認識し、顔領域31から顔器官32a〜32gを検出し、顔器官データ32を生成する。画像30から顔器官データ32を生成する手法は、例えば上述の非特許文献1に示す公知のアルゴリズムを用いればよい。なお、顔器官データ32を生成する手法は、非特許文献1に記載される手法に限定されない。本発明は、その他の手法を用いて顔器官データ32を生成してもよい。   FIG. 5 is a diagram for explaining a process of generating facial organ data 32 from the input image 30. As described above, the control unit 11 recognizes the face area 31 from the image 30 (an image of each frame in the case of acquiring a video) taken by the camera 20, detects the face organs 32a to 32g from the face area 31, Facial organ data 32 is generated. As a method for generating the facial organ data 32 from the image 30, for example, a known algorithm shown in Non-Patent Document 1 described above may be used. The method for generating the facial organ data 32 is not limited to the method described in Non-Patent Document 1. The present invention may generate the facial organ data 32 using other methods.

図5(a)は、入力画像30から検出した顔領域31及び顔器官データ32を示す図である。顔器官データ32は、図5(b)に示すように、各顔器官(右眉32a、左眉32b、右目32c、左目32d、鼻32e、口32f、顎32g)の位置及び形状を複数の特徴点で定義したデータである。各顔器官32a〜32gの特徴点の個数は、顔器官毎に定義されていることとする。具体的には、例えば、右眉32a、左眉32b、右目32c、左目32dはそれぞれ20個の特徴点とする。また鼻32eは17個の特徴点で定義する。また口32fは54個の特徴点で定義する。また顎は41個の特徴点で定義する。なお、これらの特徴点の個数は一例であり、その他の個数としてもよい。   FIG. 5A is a diagram showing a face area 31 and face organ data 32 detected from the input image 30. As shown in FIG. 5B, the facial organ data 32 has a plurality of positions and shapes of each facial organ (right eyebrow 32a, left eyebrow 32b, right eye 32c, left eye 32d, nose 32e, mouth 32f, jaw 32g). Data defined by feature points. The number of feature points of each facial organ 32a to 32g is defined for each facial organ. Specifically, for example, the right eyebrow 32a, the left eyebrow 32b, the right eye 32c, and the left eye 32d are 20 feature points. The nose 32e is defined by 17 feature points. The mouth 32f is defined by 54 feature points. The jaw is defined by 41 feature points. In addition, the number of these feature points is an example, and other numbers may be used.

なお、ステップS103において、カメラ20の設置位置や人物の顔の動き等により顔を正面でとらえることができない場合には、その画像(フレーム)については顔器官検出の対象から除外するものとしてもよい。   In step S103, if the face cannot be caught in front due to the installation position of the camera 20, the movement of the person's face, etc., the image (frame) may be excluded from the face organ detection target. .

次に、制御部11は、入力画像30から生成した入力顔器官データ32と比較する登録顔画像81の顔器官データである登録顔器官データ82を記憶部12から取得する(ステップS104)。利用者の登録顔器官データ82は、図3に示すように、記憶部12に記憶されているものとする。   Next, the control unit 11 acquires, from the storage unit 12, registered facial organ data 82, which is facial organ data of the registered facial image 81 to be compared with the input facial organ data 32 generated from the input image 30 (step S104). It is assumed that the registered facial organ data 82 of the user is stored in the storage unit 12 as shown in FIG.

制御部11(位置合わせ部5)は、ステップS103で生成した顔器官データ32(入力顔器官データ32)と、ステップS104で記憶部12から呼び出した登録顔器官データ82とを位置合わせする(ステップS105)。   The control unit 11 (alignment unit 5) aligns the facial organ data 32 (input facial organ data 32) generated in step S103 and the registered facial organ data 82 called from the storage unit 12 in step S104 (step S104). S105).

ステップS105の位置合わせ処理では、制御部11は、入力顔器官データ32と、登録顔器官データ82とを特定の顔器官を基準に位置合わせする。すなわち、入力顔器官データ32及び登録顔器官データ82の特定の顔器官における対応する各特徴点間の差(各特徴点間のユークリッド距離の2乗和)が最小となるように位置合わせを行う。   In the alignment process in step S105, the control unit 11 aligns the input facial organ data 32 and the registered facial organ data 82 with reference to a specific facial organ. That is, alignment is performed so that a difference between corresponding feature points in a specific face organ in the input face organ data 32 and the registered face organ data 82 (a sum of squares of the Euclidean distance between the feature points) is minimized. .

位置合わせの基準とする特定の顔器官は、例えば図6に示す顎のように、表情によって変化が出にくい器官とすることが好適である。また、特定の顔器官をどの顔器官とするかは、当該顔認証装置1の操作者による事前の設定操作によって変更可能としてもよい。このように、特定の一つの器官(例えば、顎)を基準として入力顔器官データ32と登録顔画像81(登録顔器官データ82)との位置合わせを行うことにより、より顔の個人差を比較しやすくなる。   The specific facial organ used as a reference for alignment is preferably an organ that does not easily change depending on facial expressions, such as the jaw shown in FIG. Further, which facial organ is the specific facial organ may be changed by a setting operation performed in advance by the operator of the face authentication apparatus 1. In this way, by comparing the input facial organ data 32 and the registered facial image 81 (registered facial organ data 82) with a specific one organ (for example, the jaw) as a reference, the individual differences of the faces are compared. It becomes easy to do.

ステップS105の位置合わせ処理において、制御部11は、入力顔器官データ32及び登録顔器官データ82のいずれか一方または両方について、平行移動、回転、拡大、及び縮小のうち少なくともいずれか一つ以上の画像処理を行い、特定の顔器官の対応する各特徴点間の差(各特徴点間のユークリッド距離の2乗和)が最小となるように位置合わせを行う。このようにすれば、顔全体の特徴点の位置合わせが、特定の顔器官の特徴点を用いて好適に実行される。また、平行移動、回転、拡大、及び縮小のうち少なくともいずれか一つ以上の画像処理を行って位置合わせをするため、撮影時の姿勢やカメラ位置等の制約を減らすことができ、使用しやすいものとなる。   In the alignment process of step S105, the control unit 11 performs at least one or more of translation, rotation, enlargement, and reduction on one or both of the input facial organ data 32 and the registered facial organ data 82. Image processing is performed, and alignment is performed so that a difference between corresponding feature points of a specific facial organ (sum of squares of Euclidean distance between feature points) is minimized. In this way, the alignment of the feature points of the entire face is preferably executed using the feature points of a specific facial organ. In addition, since alignment is performed by performing at least one of image processing among translation, rotation, enlargement, and reduction, restrictions on posture and camera position at the time of shooting can be reduced, and it is easy to use. It will be a thing.

図6は、顎32gを基準に入力顔器官データ32と、登録顔器官データ82とを位置合わせした状態である。   FIG. 6 shows a state in which the input facial organ data 32 and the registered facial organ data 82 are aligned based on the jaw 32g.

なお、ステップS105の位置合わせ処理では、入力顔器官データ32と登録顔器官データ82とを位置合わせする例を示したが、この例に限定されず、入力顔器官データ32と登録顔画像81とを位置合わせしてもよいし、顔画像同士(入力顔画像30と登録顔画像81)を位置合わせしてもよいし、入力顔画像30と登録顔器官データ82とを位置合わせしてもよい。いずれの場合でも、特定の顔器官(例えば、顎)を基準に入力顔画像30(または入力顔器官データ32)と登録顔画像81(または登録顔器官データ82)とを位置合わせする。   In the registration process in step S105, an example in which the input facial organ data 32 and the registered facial organ data 82 are registered has been shown. However, the present invention is not limited to this example, and the input facial organ data 32, the registered facial image 81, and the like. May be registered, the face images (input face image 30 and registered face image 81) may be aligned, or the input face image 30 and registered face organ data 82 may be aligned. . In any case, the input face image 30 (or input face organ data 32) and the registered face image 81 (or registered face organ data 82) are aligned based on a specific face organ (for example, chin).

次に、制御部11(類似度評価部6)は、位置合わせした入力顔画像30と登録顔画像81との類似度を評価する(ステップS106)。類似度評価処理では、まず位置合わせした入力顔器官データ32と登録顔器官データ82との類似度を算出する。類似度を算出する際、制御部11は、入力顔器官データ32及び登録顔器官データ82における対応する特徴点間のユークリッド距離の平均値と分散とを顔器官毎に算出する。次に、顔器官毎に類似度のスコアの重み付け総和を用いて全体の顔の類似度を総合的に評価する。   Next, the control unit 11 (similarity evaluation unit 6) evaluates the similarity between the registered input face image 30 and the registered face image 81 (step S106). In the similarity evaluation process, first, the similarity between the registered input facial organ data 32 and the registered facial organ data 82 is calculated. When calculating the similarity, the control unit 11 calculates the average value and variance of the Euclidean distance between corresponding feature points in the input facial organ data 32 and the registered facial organ data 82 for each facial organ. Next, the similarity of the entire face is comprehensively evaluated using the weighted sum of the scores of similarity for each facial organ.

同一人物であれば各顔器官の形状はほとんど一定であるため、対応する特徴点間の距離の値にばらつきはなく、分散は小さくなると予測される。このように、顔器官別に特徴点間の距離の平均値と分散を算出し、また、全体の類似度を総合的に評価すれば、各顔器官単独での類似度を評価しながら、顔全体の類似度も評価できる。これにより、表情の変化に依存せずに同一人物を識別できる。また、特定の顔器官に偏らずに顔全体で類似度を評価できる。   Since the shape of each facial organ is almost constant for the same person, there is no variation in the value of the distance between corresponding feature points, and the variance is predicted to be small. In this way, the average value and variance of the distance between feature points for each facial organ are calculated, and if the overall similarity is comprehensively evaluated, the similarity of each facial organ alone is evaluated and the entire face is evaluated. The degree of similarity can also be evaluated. Thereby, the same person can be identified without depending on the change in facial expression. Further, the similarity can be evaluated for the entire face without being biased toward a specific facial organ.

図7を参照してステップS106の類似度評価処理について具体的に説明する。
図7に示すように、まず、演算対象の顔器官を示す値であるKを初期化し(K=1;ステップS201)、顔器官Kについて、入力顔器官データ32と登録顔器官データ82との対応する特徴点n間のユークリッド距離dを算出する(ステップS202)。
The similarity evaluation process in step S106 will be specifically described with reference to FIG.
As shown in FIG. 7, first, K, which is a value indicating the facial organ to be calculated, is initialized (K = 1; step S201), and the input facial organ data 32 and the registered facial organ data 82 for the facial organ K are obtained. calculating a Euclidean distance d n between the corresponding feature points n (step S202).

入力顔器官データ32及び登録顔器官データ82における特徴点nの位置座標をそれぞれ、   The position coordinates of the feature point n in the input facial organ data 32 and the registered facial organ data 82 are respectively

Figure 2018200592
Figure 2018200592

とすると、特徴点nについての画像間(入力顔器官データ32及び登録顔器官データ82間)のユークリッド距離dは、以下の式(1)のように表すことができる。 When the Euclidean distance d n between the images of the feature points n (between input face organ data 32 and the registered face organ data 82) can be expressed as the following equation (1).

Figure 2018200592
Figure 2018200592

また、ここで、顔器官Kに対して集合KをK={k|kは顔器官Kに含まれる特徴点}のように置くと、顔器官Kに含まれる特徴点kにおける画像間のユークリッド距離の平均μは、以下の式(2)のようになる。 Here, if the set K is placed for the facial organ K as K = {k | k is a feature point included in the facial organ K}, Euclidean between images at the characteristic point k included in the facial organ K. The average μ K of distance is as shown in the following formula (2).

Figure 2018200592
Figure 2018200592

ここで、顔器官Kとは、図8に示すように、演算対象とする顔器官の番号であり、例えば、右眉はK=1、左眉はK=2、右目はK=3、左目はK=4、鼻はK=5、口はK=6、顎はK=7等のように割り振られる。numは、顔器官Kに含まれる特徴点の個数である。 Here, as shown in FIG. 8, the facial organ K is the number of the facial organ to be calculated. For example, the right eyebrow K = 1, the left eyebrow K = 2, the right eye K = 3, and the left eye K = 4, the nose K = 5, the mouth K = 6, the chin K = 7, and so on. num K is the number of feature points included in the facial organ K.

次に、制御部11は、入力顔器官データ32と登録顔器官データ82とにおける顔器官Kの対応特徴点間のユークリッド距離の分散σ を求める(ステップS203)。入力顔器官データ32と登録顔器官データ82とにおける顔器官Kの対応特徴点間のユークリッド距離の分散σ は、以下の式(3)のようになる。分散σ は、顔器官の形状が近いほど小さくなる値である。 Next, the control unit 11 obtains a variance sigma K 2 of the Euclidean distance between the corresponding feature points of the face organs K in the input face organ data 32 registered face organ data 82 (step S203). Variance sigma K 2 of the Euclidean distance between the corresponding feature points of the face organs K in the input face organ data 32 registered face organ data 82 is given by the following equation (3). The variance σ K 2 is a value that decreases as the facial organ shape is closer.

Figure 2018200592
Figure 2018200592

図9は、入力顔器官データ32及び登録顔器官データ82における右目32d、82dの特徴点を示す図である。入力顔器官データ32と登録顔器官データ82とが同一人物のものである場合、図9に示すように、顔器官の形状はほぼ一致するが、表情の変化等のために位置がずれることがある。そのような場合、入力顔器官データ32と登録顔器官データ82との対応する各特徴点間の距離の値は、ばらつき(分散)が小さくなると仮定できる。類似度の評価に分散を用いることで、顔の個人差をより正確に評価できるようになる。   FIG. 9 is a diagram showing feature points of the right eyes 32d and 82d in the input facial organ data 32 and the registered facial organ data 82. As shown in FIG. When the input facial organ data 32 and the registered facial organ data 82 belong to the same person, as shown in FIG. 9, the shape of the facial organs are almost the same, but the positions may be shifted due to changes in facial expressions. is there. In such a case, it can be assumed that the value of the distance between the corresponding feature points of the input facial organ data 32 and the registered facial organ data 82 has a small variation (variance). By using variance for evaluation of similarity, individual differences of faces can be more accurately evaluated.

制御部11は、全ての顔器官Kについて対応特徴点間のユークリッド距離及び分散の算出を繰り返す(ステップS204;No→ステップS205→ステップS202〜ステップS203)。   The control unit 11 repeats the calculation of the Euclidean distance and the variance between the corresponding feature points for all the facial organs K (Step S204; No → Step S205 → Step S202 to Step S203).

全ての顔器官Kについて対応特徴点間のユークリッド距離及び分散を算出すると(ステップS204;Yes)、制御部11は、顔全体の総合的な類似度スコアを算出する(ステップS206)。類似度スコア(score)は、例えば以下の式(4)とする。   When the Euclidean distance and variance between corresponding feature points are calculated for all facial organs K (step S204; Yes), the control unit 11 calculates the overall similarity score of the entire face (step S206). The similarity score (score) is, for example, the following formula (4).

Figure 2018200592
Figure 2018200592

式(4)において、μ及びσ は、顔器官Kに含まれる特徴点における画像間のユークリッド距離の平均値と分散である。wK1及びwK2は、重みパラメータである。重みパラメータの値は実験的に決定される適切な値とする。Faceは、検出した顔器官集合である。例えば、図7に示す例であれば、Face={右眉、左眉、右目、左目、鼻、口、顎}である。 In Equation (4), μ K and σ K 2 are the average value and variance of Euclidean distances between images at feature points included in the facial organ K. w K1 and w K2 are weight parameters. The value of the weight parameter is an appropriate value determined experimentally. Face is a set of detected facial organs. For example, in the example shown in FIG. 7, Face = {right eyebrow, left eyebrow, right eye, left eye, nose, mouth, chin}.

上述の式(4)で算出される類似度スコアは、入力顔器官データ32と登録顔器官データ82とが類似しているほど小さな値となる。   The similarity score calculated by the above equation (4) becomes smaller as the input facial organ data 32 and the registered facial organ data 82 are more similar.

制御部11は、ステップS206において算出した類似度スコアの値を、入力顔画像30とステップS104で取得した登録顔画像81との類似度評価結果として出力する。制御部11は、登録されている全ての登録顔画像81についてステップS104〜ステップS106の処理(登録顔画像81(登録顔器官データ82)の取得、位置合わせ処理、類似度評価処理)を繰り返し実行する。これにより、制御部11は、入力顔画像30と登録顔画像81との類似度スコアを得る。   The control unit 11 outputs the similarity score value calculated in step S206 as a similarity evaluation result between the input face image 30 and the registered face image 81 acquired in step S104. The control unit 11 repeatedly executes the processing of Step S104 to Step S106 (acquisition of registered face image 81 (registered face organ data 82), alignment processing, similarity evaluation processing) for all registered face images 81 registered. To do. Thereby, the control unit 11 obtains a similarity score between the input face image 30 and the registered face image 81.

図4のステップS107の認証処理では、制御部11は、入力顔画像30と登録顔画像81との類似度評価結果(類似度スコア)に基づき本人認証を行う(ステップS107)。本人認証では、制御部11は入力画像30の人物がどの登録顔画像81に紐づけられた人物かを判定する。制御部11は、類似度のスコアが所定の閾値以下であり、かつ、最も類似度スコアが小さい登録顔画像81に紐づく人物を、本人として認証する。類似度スコアが所定の閾値より大きい場合は、顔認証失敗と判定する。   In the authentication process of step S107 in FIG. 4, the control unit 11 performs personal authentication based on the similarity evaluation result (similarity score) between the input face image 30 and the registered face image 81 (step S107). In the personal authentication, the control unit 11 determines which registered face image 81 the person of the input image 30 is associated with. The control unit 11 authenticates a person who is associated with the registered face image 81 having a similarity score equal to or lower than a predetermined threshold and having the smallest similarity score as the person. If the similarity score is greater than a predetermined threshold, it is determined that face authentication has failed.

制御部11(出力部7)は、ステップS107の認証結果を出力する(図4のステップS108)。出力は、例えば、PCのログイン時の認証処理であれば、ログイン処理部への認証結果の通知であり、ゲート開錠等における顔認証処理であれば、開錠処理部への認証結果の通知である。なお、結果出力の方法はこれらに限定されず、どのような出力方法でもよいものとする。   The control part 11 (output part 7) outputs the authentication result of step S107 (step S108 of FIG. 4). For example, the output is a notification of the authentication result to the login processing unit if it is an authentication process at the time of login of the PC, and a notification of the authentication result to the unlocking processing unit if it is a face authentication process in gate unlocking etc. It is. Note that the result output method is not limited to these, and any output method may be used.

以上説明したように、本実施の形態に係る顔認証装置1は、入力した画像30に含まれる顔領域31から各顔器官(右眉32a、左眉32b、右目32c、左目32d、鼻32e、口32f、顎32g等)を検出し、検出した各顔器官32a〜32gの位置及び形状を複数の特徴点により定義した顔器官データ32を生成し、この入力顔器官データ32と、予め利用者情報83に紐づけて登録されている登録顔画像81の登録顔器官データ82とを特定の顔器官(例えば、顎32g)を基準に位置合わせし、類似度スコアを求め、類似度スコアに基づく顔認証処理を行う。特定の顔器官を基準に位置合わせを行うことにより、個人差を識別しやすくなり精度のよい顔認証結果を得ることが可能となる。また、類似度スコアは、各顔器官Kに含まれる特徴点における画像間のユークリッド距離の平均値と分散を、全ての顔器官で統合した値とする。対応する特徴点間のユークリッド距離のみならず、分散を評価することで、表情の変化によらず、同一人物を識別しやすくなり認証精度が向上する。   As described above, the face authentication device 1 according to the present embodiment is configured so that each facial organ (right eyebrow 32a, left eyebrow 32b, right eye 32c, left eye 32d, nose 32e, Mouth 32f, jaw 32g, and the like), and facial organ data 32 in which the positions and shapes of the detected facial organs 32a to 32g are defined by a plurality of feature points is generated. The registered facial organ data 82 of the registered facial image 81 registered in association with the information 83 is registered with reference to a specific facial organ (for example, the jaw 32g), a similarity score is obtained, and based on the similarity score Perform face authentication processing. By performing alignment based on a specific facial organ, individual differences can be easily identified, and an accurate face authentication result can be obtained. The similarity score is a value obtained by integrating the average value and variance of Euclidean distances between images at feature points included in each facial organ K in all facial organs. By evaluating not only the Euclidean distance between corresponding feature points but also the variance, the same person can be easily identified regardless of the change in facial expression, and the authentication accuracy is improved.

以上、添付図面を参照して、本発明に係る顔認証装置等の好適な実施形態について説明したが、本発明は係る例に限定されない。例えば、上述の実施の形態では、コンピュータが顔認証処理を実行する例について説明したが、本発明はこれに限定されず、例えば、ロボットが顔から人物を特定する処理等に適用することも可能である。また、当業者であれば、本願で開示した技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   The preferred embodiments of the face authentication apparatus and the like according to the present invention have been described above with reference to the accompanying drawings, but the present invention is not limited to such examples. For example, in the above-described embodiment, the example in which the computer executes the face authentication process has been described. However, the present invention is not limited to this, and can be applied to, for example, a process in which a robot specifies a person from a face. It is. In addition, it is obvious for those skilled in the art that various changes or modifications can be conceived within the scope of the technical idea disclosed in the present application, and these naturally belong to the technical scope of the present invention. It is understood.

1………………顔認証装置(コンピュータ)
2………………入力部
3………………顔領域検出部
4………………顔器官検出部
5………………位置合わせ部
6………………類似度評価部
7………………出力部
8………………登録顔データ
9………………登録処理部
10……………ネットワーク
11……………制御部
12……………記憶部
13……………メディア入出力部
14……………周辺機器I/F部
15……………入力部
16……………表示部
17……………通信制御部
18……………バス
30……………画像
31……………顔領域
32……………顔器官データ(入力顔器官データ)
32a〜32g……………顔器官
80……………利用者ID
81……………顔画像(登録顔画像)
82……………顔器官データ(登録顔器官データ)
83……………利用者属性情報
1. Face recognition device (computer)
2 ……………… Input section 3 ……………… Face area detection section 4 ……………… Face organ detection section 5 ……………… Alignment section 6 ……………… Similarity Evaluation unit 7 ……………… Output unit 8 ……………… Registered face data 9 ……………… Registration processing unit 10 ……………… Network 11 …………… Control unit 12 ……… …… Storage unit 13 ……………… Media input / output unit 14 …………… Peripheral device I / F unit 15 …………… Input unit 16 …………… Display unit 17 …………… Communication control Part 18 …………… Bus 30 …………… Image 31 …………… Face area 32 …………… Facial organ data (input facial organ data)
32a to 32g ......... Facial organs 80 ... …… User ID
81 ……………… Face image (Registered face image)
82 .......... Facial organ data (Registered facial organ data)
83 ………… User attribute information

Claims (8)

複数の顔画像と各顔画像のそれぞれの器官の位置及び形状を複数の特徴点により定義した器官データとを紐づけて登録顔データとして記憶する記憶手段と、
顔画像を入力する入力手段と、
前記入力手段に入力された顔画像に含まれる顔領域から各器官を検出する器官検出手段と、
検出した各器官の器官データを生成する器官データ生成手段と、
前記器官データ生成手段により生成した器官データである入力器官データと、前記記憶手段に記憶された顔画像とを特定の器官を基準に位置合わせする位置合わせ手段と、
位置合わせした前記入力された顔画像と前記記憶手段に記憶された顔画像との類似度を算出する類似度算出手段と、
前記類似度に基づき顔認証処理を行う認証処理手段と、
を備えることを特徴とする顔認証装置。
Storage means for storing a plurality of face images and organ data in which the position and shape of each organ of each face image are defined by a plurality of feature points and storing them as registered face data;
An input means for inputting a face image;
Organ detection means for detecting each organ from a face area included in the face image input to the input means;
Organ data generating means for generating organ data of each detected organ;
Alignment means for aligning input organ data, which is organ data generated by the organ data generation means, and a facial image stored in the storage means with reference to a specific organ;
Similarity calculation means for calculating the similarity between the registered face image and the face image stored in the storage means;
Authentication processing means for performing face authentication processing based on the similarity;
A face authentication apparatus comprising:
前記類似度算出手段は、器官毎に特徴点を用いて類似度を算出することを特徴とする請求項1に記載の顔認証装置。   The face authentication apparatus according to claim 1, wherein the similarity calculation unit calculates the similarity using a feature point for each organ. 前記位置合わせ手段は、前記特定の器官における前記入力器官データと前記記憶手段に記憶された登録顔データの器官データとの対応する各特徴点間の差が最小となるように位置合わせを行うことを特徴とする請求項1または請求項2に記載の顔認証装置。   The positioning means performs positioning so that a difference between corresponding feature points between the input organ data in the specific organ and organ data of registered face data stored in the storage means is minimized. The face authentication apparatus according to claim 1, wherein: 前記位置合わせ手段は、前記入力器官データ及び前記登録顔データの器官データのいずれか一方または両方について平行移動、回転、拡大、及び縮小のうち少なくともいずれか一つ以上の画像処理を行うことにより前記位置合わせを行うことを特徴とする請求項1から請求項3のいずれかに記載の顔認証装置。   The alignment unit performs image processing of at least one of translation, rotation, enlargement, and reduction on one or both of the input organ data and the organ data of the registered face data. The face authentication apparatus according to claim 1, wherein alignment is performed. 前記類似度算出手段は、前記入力器官データ及び前記登録顔データの器官データにおける対応する各特徴点間のユークリッド距離の平均値と分散とを器官毎に算出し、全ての器官の前記ユークリッド距離の平均値及び分散に基づき顔全体の類似度を算出することを特徴とする請求項1から請求項4のいずれかに記載の顔認証装置。   The similarity calculation means calculates, for each organ, an average value and variance of Euclidean distances between corresponding feature points in the organ data of the input organ data and the registered face data, and calculates the Euclidean distance of all organs. The face authentication apparatus according to claim 1, wherein the degree of similarity of the whole face is calculated based on the average value and the variance. 前記器官データの特徴点の数は器官毎に定義されることを特徴とする請求項1から請求項5のいずれかに記載の顔認証装置。   6. The face authentication apparatus according to claim 1, wherein the number of feature points of the organ data is defined for each organ. コンピュータが、
複数の顔画像と各顔画像のそれぞれの器官の位置及び形状を複数の特徴点により定義した器官データとを紐づけて登録顔データとして記憶部に記憶するステップと、
顔画像を入力するステップと、
入力された顔画像に含まれる顔領域から各器官を検出するステップと、
検出した各器官の器官データを生成するステップと、
生成した器官データである入力器官データと、前記記憶部に記憶された顔画像とを特定の器官を基準に位置合わせするステップと、
位置合わせした前記入力された顔画像と前記記憶部に記憶された顔画像との類似度を算出するステップと、
前記類似度に基づき顔認証処理を行うステップと、
を含むことを特徴とする顔認証方法。
Computer
Linking a plurality of face images and organ data defined by a plurality of feature points to the position and shape of each organ of each face image and storing them as registered face data in a storage unit;
A step of inputting a face image;
Detecting each organ from the face area included in the input face image;
Generating organ data for each detected organ;
Aligning the input organ data, which is the generated organ data, with the face image stored in the storage unit with reference to a specific organ;
Calculating a similarity between the input face image that has been aligned and the face image stored in the storage unit;
Performing face authentication processing based on the similarity;
A face authentication method comprising:
コンピュータを、
複数の顔画像と各顔画像のそれぞれの器官の位置及び形状を複数の特徴点により定義した器官データとを紐づけて登録顔データとして記憶する記憶手段、
顔画像を入力する入力手段、
前記入力手段に入力された顔画像に含まれる顔領域から各器官を検出する器官検出手段、
検出した各器官の器官データを生成する器官データ生成手段、
前記器官データ生成手段により生成した器官データである入力器官データと、前記記憶手段に記憶された顔画像とを特定の器官を基準に位置合わせする位置合わせ手段、
位置合わせした前記入力された顔画像と前記記憶手段に記憶された顔画像との類似度を算出する類似度算出手段、
前記類似度に基づき顔認証処理を行う認証処理手段、
として機能させるためのプログラム。
Computer
Storage means for storing a plurality of face images and organ data in which the positions and shapes of the respective organs of each face image are defined by a plurality of feature points and storing them as registered face data;
An input means for inputting a face image;
Organ detection means for detecting each organ from a face region included in the face image input to the input means;
Organ data generating means for generating organ data of each detected organ;
Alignment means for aligning input organ data, which is organ data generated by the organ data generation means, and a facial image stored in the storage means with reference to a specific organ;
Similarity calculation means for calculating the similarity between the input face image that has been aligned and the face image stored in the storage means;
Authentication processing means for performing face authentication processing based on the similarity,
Program to function as.
JP2017105264A 2017-05-29 2017-05-29 Face recognition device, face recognition method, and program Active JP6891633B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017105264A JP6891633B2 (en) 2017-05-29 2017-05-29 Face recognition device, face recognition method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017105264A JP6891633B2 (en) 2017-05-29 2017-05-29 Face recognition device, face recognition method, and program

Publications (2)

Publication Number Publication Date
JP2018200592A true JP2018200592A (en) 2018-12-20
JP6891633B2 JP6891633B2 (en) 2021-06-18

Family

ID=64667215

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017105264A Active JP6891633B2 (en) 2017-05-29 2017-05-29 Face recognition device, face recognition method, and program

Country Status (1)

Country Link
JP (1) JP6891633B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021128542A (en) * 2020-02-13 2021-09-02 エヌエイチエヌ コーポレーション Information processing program and information processing system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004046697A (en) * 2002-07-15 2004-02-12 Omron Corp Personal identification device
JP2008287439A (en) * 2007-05-16 2008-11-27 Canon Inc Image processing device and image retrieval method
JP2009053916A (en) * 2007-08-27 2009-03-12 Sony Corp Face image processing apparatus, face image processing method, and computer program
JP2011165083A (en) * 2010-02-12 2011-08-25 Omron Corp Monitoring device and method, and program
WO2014184904A1 (en) * 2013-05-15 2014-11-20 株式会社島津製作所 Holder mounting assistance system, holder mounting assistance device, and holder mounting assistance method
WO2015128961A1 (en) * 2014-02-26 2015-09-03 株式会社日立製作所 Face authentication system
JP2016053868A (en) * 2014-09-04 2016-04-14 日本電信電話株式会社 Portrait image generation device, portrait image generation method and portrait image generation program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004046697A (en) * 2002-07-15 2004-02-12 Omron Corp Personal identification device
JP2008287439A (en) * 2007-05-16 2008-11-27 Canon Inc Image processing device and image retrieval method
JP2009053916A (en) * 2007-08-27 2009-03-12 Sony Corp Face image processing apparatus, face image processing method, and computer program
JP2011165083A (en) * 2010-02-12 2011-08-25 Omron Corp Monitoring device and method, and program
WO2014184904A1 (en) * 2013-05-15 2014-11-20 株式会社島津製作所 Holder mounting assistance system, holder mounting assistance device, and holder mounting assistance method
WO2015128961A1 (en) * 2014-02-26 2015-09-03 株式会社日立製作所 Face authentication system
JP2016053868A (en) * 2014-09-04 2016-04-14 日本電信電話株式会社 Portrait image generation device, portrait image generation method and portrait image generation program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021128542A (en) * 2020-02-13 2021-09-02 エヌエイチエヌ コーポレーション Information processing program and information processing system

Also Published As

Publication number Publication date
JP6891633B2 (en) 2021-06-18

Similar Documents

Publication Publication Date Title
Singh et al. A comprehensive overview of biometric fusion
Ross et al. Some research problems in biometrics: The future beckons
US8488023B2 (en) Identifying facial expressions in acquired digital images
KR101725651B1 (en) Identification apparatus and method for controlling identification apparatus
US20230087657A1 (en) Assessing face image quality for application of facial recognition
US11126827B2 (en) Method and system for image identification
JP2014182480A (en) Person recognition device and method
JP2005202653A (en) Behavior recognition device and method, animal object recognition device and method, equipment control device and method, and program
US9013591B2 (en) Method and system of determing user engagement and sentiment with learned models and user-facing camera images
JP6071002B2 (en) Reliability acquisition device, reliability acquisition method, and reliability acquisition program
WO2019003973A1 (en) Facial authentication device, facial authentication method, and program recording medium
WO2020195732A1 (en) Image processing device, image processing method, and recording medium in which program is stored
WO2010133661A1 (en) Identifying facial expressions in acquired digital images
US20230306792A1 (en) Spoof Detection Based on Challenge Response Analysis
Fenu et al. Controlling user access to cloud-connected mobile applications by means of biometrics
Mayer et al. Adjusted pixel features for robust facial component classification
EP4266242A1 (en) Authentication method, information processing device, and authentication program
JP4708835B2 (en) Face detection device, face detection method, and face detection program
JP6891633B2 (en) Face recognition device, face recognition method, and program
Barra et al. Continuous authentication on smartphone by means of periocular and virtual keystroke
RU2768797C1 (en) Method and system for determining synthetically modified face images on video
JP2018049566A (en) Image processing apparatus, image processing method, and program
Anwar Real time facial expression recognition and eye gaze estimation system
Mishra et al. Integrating State-of-the-Art Face Recognition and Anti-Spoofing Techniques into Enterprise Information Systems
JP2013069187A (en) Image processing system, image processing method, server and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200330

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210412

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210427

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210510

R150 Certificate of patent or registration of utility model

Ref document number: 6891633

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150