JP6891633B2 - Face recognition device, face recognition method, and program - Google Patents

Face recognition device, face recognition method, and program Download PDF

Info

Publication number
JP6891633B2
JP6891633B2 JP2017105264A JP2017105264A JP6891633B2 JP 6891633 B2 JP6891633 B2 JP 6891633B2 JP 2017105264 A JP2017105264 A JP 2017105264A JP 2017105264 A JP2017105264 A JP 2017105264A JP 6891633 B2 JP6891633 B2 JP 6891633B2
Authority
JP
Japan
Prior art keywords
organ
face
data
input
similarity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017105264A
Other languages
Japanese (ja)
Other versions
JP2018200592A (en
Inventor
昌希 内田
昌希 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2017105264A priority Critical patent/JP6891633B2/en
Publication of JP2018200592A publication Critical patent/JP2018200592A/en
Application granted granted Critical
Publication of JP6891633B2 publication Critical patent/JP6891633B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、顔認証装置、顔認証方法、及びプログラムに関し、詳細には、目、鼻、口等の顔器官の特徴を用いた顔認証装置、顔認証方法、及びプログラムに関する。 The present invention relates to a face recognition device, a face recognition method, and a program, and more particularly to a face recognition device, a face recognition method, and a program using features of facial organs such as eyes, nose, and mouth.

従来より、画像から顔の特徴を検出して人物を認証する認証システムが提案されている。例えば、非特許文献1の手法では、入力画像300内の顔領域301に含まれる各顔器官(眉、目、鼻、口、顎等)の特徴点を検出し、複数の特徴点で定義される顔器官データ332を生成することができる(図10(a))。このように、人物の顔の特徴を表す顔器官データ332を用いて、入力画像300から生成される顔器官データ332(図10(a))と登録されている複数の人物の顔器官データ382a、382b、382c、…(図10(b))とを比較し、顔の類似度を評価することができる。このように類似度の評価に顔器官データを用いれば、点の比較であるため、機械学習等を用いる場合等と比較して高速に認証処理を行える。また、学習データの収集や学習処理が不要であるという利点もある。 Conventionally, an authentication system that detects facial features from an image and authenticates a person has been proposed. For example, in the method of Non-Patent Document 1, feature points of each facial organ (eyebrows, eyes, nose, mouth, chin, etc.) included in the face region 301 in the input image 300 are detected and defined by a plurality of feature points. Facial organ data 332 can be generated (FIG. 10 (a)). In this way, using the facial organ data 332 representing the facial features of the person, the facial organ data 332 (FIG. 10A) generated from the input image 300 and the facial organ data 382a of a plurality of registered persons are registered. , 382b, 382c, ... (FIG. 10 (b)), and the similarity of faces can be evaluated. If the facial organ data is used for the evaluation of the degree of similarity in this way, the points are compared, so that the authentication process can be performed at a higher speed than when machine learning or the like is used. It also has the advantage that it does not require the collection of learning data or the learning process.

ところで、類似度を評価する際は、予め、入力画像300から検出した顔器官データ332と登録されている顔器官データ382a、382b、382c、…との位置合わせを行う必要がある。位置合わせは、例えば、非特許文献2に開示されているように、顔全体の特徴点を用いて行うことが一般的である。具体的には、図11に示すように、対応する各特徴点間の差(具体的には各特徴点間のユークリッド距離の2乗和)が顔全体で最も小さくなるように、平行移動、回転、拡大・縮小等の画像処理を行う。 By the way, when evaluating the similarity, it is necessary to align the facial organ data 332 detected from the input image 300 with the registered facial organ data 382a, 382b, 382c, ... In advance. Alignment is generally performed using feature points of the entire face, for example, as disclosed in Non-Patent Document 2. Specifically, as shown in FIG. 11, translation is performed so that the difference between the corresponding feature points (specifically, the sum of squares of the Euclidean distances between the feature points) is the smallest for the entire face. Performs image processing such as rotation and enlargement / reduction.

また、位置合わせを行ったあとの類似度の評価は、対応する各特徴点間のユークリッド距離に基づいて行うのが一般的である。例えば、各特徴点間のユークリッド距離の平均値を計算し、その平均値が小さいほど、似ている顔であると判断する。 In addition, the evaluation of the degree of similarity after the alignment is generally performed based on the Euclidean distance between the corresponding feature points. For example, the average value of the Euclidean distance between each feature point is calculated, and the smaller the average value, the more similar faces are judged.

Vahid Kazemi、他1名、2014年、"OneMillisecond Face Alignment with an Ensemble of Regression Trees"、[online]、Royal Institute ofTechnology、Computer Vision and Active Perception Lab(CVPR)、[平成29年4月25日検索]、インターネット、<URL:http://www.cv-foundation.org/openaccess/content_cvpr_2014/papers/Kazemi_One_Millisecond_Face_2014_CVPR_paper.pdf>Vahid Kazemi, 1 others, 2014, "OneMillisecond Face Alignment with an Ensemble of Regression Trees", [online], Royal Institute of Technology, Computer Vision and Active Perception Lab (CVPR), [Searched April 25, 2017] , Internet, <URL: http://www.cv-foundation.org/openaccess/content_cvpr_2014/papers/Kazemi_One_Millisecond_Face_2014_CVPR_paper.pdf> T.F. Cootes and C.J.Taylor、2004年、"StatisticalModels of Appearance for Computer Vision"、p102&#8211;104、[online]、[平成29年4月25日検索]、インターネット、<URL:http://www.face-rec.org/algorithms/AAM/app_models.pdf>TF Cootes and CJTaylor, 2004, "Statistical Models of Appearance for Computer Vision", p102 &#8211; 104, [online], [Searched April 25, 2017], Internet, <URL: http: // www. face-rec.org/algorithms/AAM/app_models.pdf>

しかしながら、上述したように、対応する特徴点間の差が顔全体で最も小さくなるように位置合わせをすると、個人差が出にくく、認証の精度が低下する。さらに、類似度の評価指標として特徴点間のユークリッド距離のみを用いた場合、類似度の評価結果が特徴点の多い器官に大きく依存し、また、同一人物であっても表情によって類似度の評価結果が大きく変わるため、認証の精度が低下する。 However, as described above, if the alignment is performed so that the difference between the corresponding feature points is the smallest in the entire face, individual differences are less likely to occur and the accuracy of authentication is lowered. Furthermore, when only the Euclidean distance between feature points is used as the evaluation index of similarity, the evaluation result of similarity largely depends on the organ having many feature points, and even if the same person is evaluated by facial expression, the similarity is evaluated. The accuracy of authentication is reduced because the results change significantly.

本発明は、このような課題に鑑みてなされたもので、認証精度の高い顔認証結果を得ることが可能な顔認証装置、顔認証方法、及びプログラムを提供することを目的とする。 The present invention has been made in view of such a problem, and an object of the present invention is to provide a face recognition device, a face recognition method, and a program capable of obtaining a face recognition result with high authentication accuracy.

前述した課題を解決するため第1の発明は、複数の顔画像と各顔画像のそれぞれの器官の位置及び形状を複数の特徴点により定義した器官データとを紐づけて登録顔データとして記憶する記憶手段と、顔画像を入力する入力手段と、前記入力手段に入力された顔画像に含まれる顔領域から各器官を検出する器官検出手段と、検出した各器官の器官データを生成する器官データ生成手段と、前記器官データ生成手段により生成した器官データである入力器官データと、前記記憶手段に記憶された顔画像とを特定の器官を基準に位置合わせする位置合わせ手段と、位置合わせした前記入力された顔画像と前記記憶手段に記憶された顔画像との類似度を算出する類似度算出手段と、前記類似度に基づき顔認証処理を行う認証処理手段と、を備えることを特徴とする顔認証装置である。 In order to solve the above-mentioned problems, the first invention stores a plurality of face images and organ data in which the positions and shapes of the respective organs of each face image are defined by a plurality of feature points as registered face data. A storage means, an input means for inputting a face image, an organ detection means for detecting each organ from a face region included in the face image input to the input means, and an organ data for generating organ data of each detected organ. The generation means, the input organ data which is the organ data generated by the organ data generation means, and the alignment means for aligning the face image stored in the storage means with reference to a specific organ, and the alignment means. It is characterized by including a similarity calculation means for calculating the similarity between the input face image and the face image stored in the storage means, and an authentication processing means for performing face authentication processing based on the similarity. It is a face recognition device.

第1の発明によれば、複数の顔画像と各顔画像のそれぞれの器官の位置及び形状を複数の特徴点により定義した器官データとを紐づけて登録顔データとして記憶手段に記憶し、入力した顔画像に含まれる顔領域から各器官を検出し、検出した各器官の器官データを生成し、この入力器官データと予め記憶されている顔画像とを特定の器官を基準に位置合わせし、位置合わせした入力した顔画像と記憶された顔画像との類似度を求め、類似度に基づく顔認証処理を行う。特定の器官を基準に顔画像の位置合わせを行うことにより、個人差を識別しやすくなり精度のよい顔認証結果を得ることが可能となる。 According to the first invention, a plurality of face images and organ data in which the positions and shapes of the respective organs of each face image are defined by a plurality of feature points are linked and stored as registered face data in a storage means and input. Each organ is detected from the face area included in the face image, the organ data of each detected organ is generated, and this input organ data and the pre-stored face image are aligned with respect to a specific organ. The degree of similarity between the aligned input face image and the memorized face image is obtained, and face recognition processing is performed based on the degree of similarity. By aligning the face image with reference to a specific organ, it becomes easy to identify individual differences and it becomes possible to obtain an accurate face recognition result.

第1の発明において、例えば、前記類似度算出手段は、器官毎に特徴点を用いて類似度を算出することが望ましい。器官毎の類似度が算出されるため、個人を識別しやすいものとなる。また、前記位置合わせ手段は、前記特定の器官における前記入力器官データと前記登録顔データの器官データとの対応する各特徴点間の差が最小となるように位置合わせを行う。これにより、顔全体の特徴点の位置合わせが、特定の器官の特徴点を用いて好適に実行される。また例えば、前記位置合わせ手段は、前記入力器官データ及び前記登録顔データの器官データのいずれか一方または両方について平行移動、回転、拡大、及び縮小のうち少なくともいずれか一つ以上の画像処理により位置合わせを行う。これにより、撮影時の姿勢やカメラ位置等の制約を減らすことができ、使用しやすいものとなる。 In the first invention, for example, it is desirable that the similarity calculation means calculates the similarity using feature points for each organ. Since the degree of similarity for each organ is calculated, it becomes easy to identify an individual. Further, the alignment means aligns the input organ data in the specific organ and the organ data of the registered face data so that the difference between the corresponding feature points is minimized. Thereby, the alignment of the feature points of the entire face is preferably performed using the feature points of a specific organ. Further, for example, the alignment means is positioned by image processing of at least one or more of translation, rotation, enlargement, and reduction for either or both of the input organ data and the organ data of the registered face data. Make a match. As a result, restrictions such as the posture at the time of shooting and the position of the camera can be reduced, and the camera becomes easy to use.

また、前記類似度算出手段は、前記入力器官データ及び前記登録顔データの器官データにおける対応する各特徴点間のユークリッド距離の平均値と分散とを顔器官毎に算出し、全ての器官の前記ユークリッド距離の平均値及び分散に基づき顔全体の類似度を算出することが望ましい。特徴点間のユークリッド距離のみならず、分散を評価することで、表情の変化によらず同一人物を識別しやすくなり、認証精度が向上する。 Further, the similarity calculation means calculates the average value and variance of the Euclidean distance between the corresponding feature points in the organ data of the input organ data and the registered face data for each facial organ, and the above-mentioned all organs It is desirable to calculate the similarity of the entire face based on the average value and variance of the Euclidean distance. By evaluating not only the Euclidean distance between feature points but also the variance, it becomes easier to identify the same person regardless of changes in facial expressions, and authentication accuracy is improved.

また、前記器官データの特徴点の数は器官毎に定義されることが望ましい。これにより、各器官に応じて最適な特徴点数で特徴を抽出でき、顔の特徴を表しやすくなる。その結果、個人差を識別しやすく、かつ表情に依存しにくいロバストな顔認証結果を得ることが可能となる。 Further, it is desirable that the number of feature points of the organ data is defined for each organ. As a result, features can be extracted with the optimum number of feature points according to each organ, and facial features can be easily expressed. As a result, it is possible to obtain a robust face recognition result that makes it easy to identify individual differences and is less dependent on facial expressions.

第2の発明は、コンピュータが、複数の顔画像と各顔画像のそれぞれの器官の位置及び形状を複数の特徴点により定義した器官データとを紐づけて登録顔データとして記憶部に記憶するステップと、顔画像を入力するステップと、入力された顔画像に含まれる顔領域から各器官を検出するステップと、検出した各器官の器官データを生成するステップと、生成した器官データである入力器官データと、前記記憶部に記憶された顔画像とを特定の器官を基準に位置合わせするステップと、位置合わせした前記入力された顔画像と前記記憶部に記憶された顔画像との類似度を算出するステップと、前記類似度に基づき顔認証処理を行うステップと、を含むことを特徴とする顔認証方法である。 The second invention is a step in which a computer stores a plurality of face images and organ data in which the positions and shapes of the respective organs of each face image are defined by a plurality of feature points in a storage unit as registered face data. A step of inputting a face image, a step of detecting each organ from the face area included in the input face image, a step of generating organ data of each detected organ, and an input organ which is the generated organ data. The step of aligning the data and the face image stored in the storage unit with reference to a specific organ, and the degree of similarity between the aligned input face image and the face image stored in the storage unit. The face recognition method is characterized by including a step of calculating and a step of performing face recognition processing based on the similarity.

第2の発明によれば、複数の顔画像と各顔画像のそれぞれの器官の位置及び形状を複数の特徴点により定義した器官データとを紐づけて登録顔データとして記憶部に記憶し、入力した顔画像に含まれる顔領域から各器官を検出し、検出した各器官の器官データを生成し、この入力器官データと予め記憶されている顔画像とを特定の器官を基準に位置合わせし、位置合わせした入力した顔画像と記憶された顔画像との類似度を求め、類似度に基づく顔認証処理を行う。特定の器官を基準に顔画像の位置合わせを行うことにより、個人差を識別しやすくなり精度のよい顔認証結果を得ることが可能となる。 According to the second invention, a plurality of face images and organ data in which the positions and shapes of the respective organs of each face image are defined by a plurality of feature points are linked and stored in a storage unit as registered face data and input. Each organ is detected from the face area included in the face image, the organ data of each detected organ is generated, and this input organ data and the pre-stored face image are aligned with respect to a specific organ. The degree of similarity between the aligned input face image and the memorized face image is obtained, and face recognition processing is performed based on the degree of similarity. By aligning the face image with reference to a specific organ, it becomes easy to identify individual differences and it becomes possible to obtain an accurate face recognition result.

第3の発明は、コンピュータを、複数の顔画像と各顔画像のそれぞれの器官の位置及び形状を複数の特徴点により定義した器官データとを紐づけて登録顔データとして記憶する記憶手段、顔画像を入力する入力手段、前記入力手段に入力された顔画像に含まれる顔領域から各器官を検出する器官検出手段、検出した各器官の器官データを生成する器官データ生成手段、前記器官データ生成手段により生成した器官データである入力器官データと、前記記憶手段に記憶された顔画像とを特定の器官を基準に位置合わせする位置合わせ手段、位置合わせした前記入力された顔画像と前記記憶手段に記憶された顔画像との類似度を算出する類似度算出手段、前記類似度に基づき顔認証処理を行う認証処理手段、として機能させるためのプログラムである。 A third invention is a storage means, a face, which stores a computer as registered face data by associating a plurality of face images with organ data in which the positions and shapes of the respective organs of each face image are defined by a plurality of feature points. Input means for inputting an image, organ detection means for detecting each organ from the face area included in the face image input to the input means, organ data generation means for generating organ data of each detected organ, and the organ data generation. Alignment means for aligning the input organ data, which is the organ data generated by the means, and the face image stored in the storage means with reference to a specific organ, the aligned input face image and the storage means. It is a program for functioning as a similarity calculation means for calculating the similarity with the face image stored in the above, and an authentication processing means for performing face authentication processing based on the similarity.

第3の発明により、コンピュータを第1の発明の顔認証装置として機能させることが可能となる。 The third invention makes it possible to make the computer function as the face recognition device of the first invention.

本発明により、認証精度の高い顔認証結果を得ることが可能な顔認証装置、顔認証方法、及びプログラムを提供できる。 INDUSTRIAL APPLICABILITY According to the present invention, it is possible to provide a face recognition device, a face recognition method, and a program capable of obtaining a face recognition result with high authentication accuracy.

本発明に係る顔認証装置1の機能構成を示すブロック図A block diagram showing a functional configuration of the face recognition device 1 according to the present invention. 顔認証装置1として機能するコンピュータの内部構成図Internal configuration diagram of a computer that functions as a face recognition device 1 登録顔器官データ8のデータ構成例を示す図The figure which shows the data composition example of the registered face organ data 8. 顔認証装置1が実行する認証処理の流れを示すフローチャートA flowchart showing the flow of the authentication process executed by the face recognition device 1. 画像30から顔器官データ32を検出する処理について説明する図The figure explaining the process of detecting the facial organ data 32 from the image 30. 入力顔器官データ32と登録顔器官データ82との位置合わせについて説明する図The figure explaining the alignment of the input facial organ data 32 and the registered facial organ data 82. 類似度評価処理の流れを示すフローチャートFlowchart showing the flow of similarity evaluation processing 顔器官毎の類似度算出について説明する図The figure explaining the similarity calculation for each facial organ 入力顔器官データ32dと登録顔器官データ82dとの対応する特徴点同士の比較について説明する図The figure explaining the comparison between the corresponding feature points of the input facial organ data 32d and the registered facial organ data 82d. 入力画像300から顔器官データ332を検出し、登録されている顔器官データ382a、382b、…と比較する処理について説明する図The figure explaining the process which detects the face organ data 332 from the input image 300 and compares it with the registered face organ data 382a, 382b, ... 従来の顔器官データの位置合わせについて説明する図The figure explaining the alignment of the conventional facial organ data

以下、図面に基づいて本発明の好適な実施形態について詳細に説明する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明に係る顔認証装置1の機能構成を示すブロック図、図2は、顔認証装置1として機能するコンピュータの内部構成の例を示す図である。 FIG. 1 is a block diagram showing a functional configuration of the face recognition device 1 according to the present invention, and FIG. 2 is a diagram showing an example of an internal configuration of a computer functioning as the face recognition device 1.

図1に示すように、顔認証装置1は、入力部2、顔領域検出部3、顔器官検出部4、位置合わせ部5、類似度評価部6、出力部7、登録処理部9、及び記憶部12を備える。記憶部12には、登録顔データ8が記憶されている。 As shown in FIG. 1, the face recognition device 1 includes an input unit 2, a face area detection unit 3, a face organ detection unit 4, an alignment unit 5, a similarity evaluation unit 6, an output unit 7, a registration processing unit 9, and a registration processing unit 9. A storage unit 12 is provided. The registered face data 8 is stored in the storage unit 12.

入力部2は、画像30を顔認証装置1に入力する。入力する画像30(以下、入力画像と呼ぶ)は、顔領域を含む画像(顔画像)であり、静止画でもよいし動画でもよい。入力部2は、カメラ20により撮影された画像30を直接カメラ20から取得してもよいし、記憶部12や記録媒体等に記憶されている顔画像を取得してもよい。 The input unit 2 inputs the image 30 to the face recognition device 1. The input image 30 (hereinafter referred to as an input image) is an image (face image) including a face region, and may be a still image or a moving image. The input unit 2 may acquire the image 30 taken by the camera 20 directly from the camera 20, or may acquire the face image stored in the storage unit 12, the recording medium, or the like.

顔領域検出部3は、入力部2から入力された入力画像30に人物の顔が含まれるか否かを判定し、人物の顔を検出した場合は入力画像30から顔領域31を検出する(図5参照)。 The face area detection unit 3 determines whether or not the input image 30 input from the input unit 2 includes a person's face, and if the person's face is detected, detects the face area 31 from the input image 30 ( (See FIG. 5).

顔器官検出部4は、顔領域検出部3により検出された顔領域31から各器官を検出する。顔器官検出部4は、検出された顔領域31の画像情報から所定の特徴点を検出し、各顔器官の位置と形状を推定する。顔器官とは、顔に含まれる器官であり、例えば、右眉32a、左眉32b、右目32c、左目32d、鼻32e、口32f、顎32g等である。顔器官の検出には、公知の手法を用いればよい。例えば、非特許文献1の手法が知られている。(非特許文献1:Vahid Kazemi、他1名、"One Millisecond Face Alignment with an Ensemble of Regression
Trees"、[online]、Royal Institute of Technology、Computer Vision and Active Perception Lab(CVPR)、<URL:http://www.cv-foundation.org/openaccess/content_cvpr_2014/papers/Kazemi_One_Millisecond_Face_2014_CVPR_paper.pdf>)。この非特許文献1の手法によれば、顔領域31から各顔器官32a〜32gの位置と形状を複数の特徴点で定義した器官データ32(以下、顔器官データと呼ぶ)を生成できる。なお、本発明において、顔器官検出部4は、画像30から各顔器官32a〜32gを検出し、各顔器官32a〜32gの位置及び形状を複数の特徴点で定義した顔器官データ32を生成できればよく、顔器官32a〜32gの検出方法は上記非特許文献1の手法に限定されない。顔器官データ32については後述する。
The face organ detection unit 4 detects each organ from the face region 31 detected by the face region detection unit 3. The facial organ detection unit 4 detects a predetermined feature point from the detected image information of the face region 31 and estimates the position and shape of each facial organ. The facial organ is an organ included in the face, and is, for example, a right eyebrow 32a, a left eyebrow 32b, a right eye 32c, a left eye 32d, a nose 32e, a mouth 32f, a chin 32g, and the like. A known method may be used for detecting the facial organs. For example, the method of Non-Patent Document 1 is known. (Non-Patent Document 1: Vahid Kazemi, 1 other person, "One Millisecond Face Alignment with an Ensemble of Regression"
Trees ", [online], Royal Institute of Technology, Computer Vision and Active Perception Lab (CVPR), <URL: http://www.cv-foundation.org/openaccess/content_cvpr_2014/papers/Kazemi_One_Millisecond_Face_2014_CVPR_paper.pdf>). According to the method of Non-Patent Document 1, organ data 32 (hereinafter, referred to as facial organ data) in which the positions and shapes of the facial organs 32a to 32g are defined by a plurality of feature points can be generated from the face region 31. In the present invention, the facial organ detection unit 4 may detect each facial organ 32a to 32g from the image 30 and generate facial organ data 32 in which the position and shape of each facial organ 32a to 32g are defined by a plurality of feature points. The method for detecting the facial organs 32a to 32g is not limited to the method of Non-Patent Document 1. The facial organ data 32 will be described later.

顔器官検出部4は、入力画像30から生成した顔器官データを、登録モードにおいては登録処理部9に出力し、顔認証モードにおいては位置合わせ部5に出力する。登録モードとは、顔認証装置1を利用する利用者の顔画像と顔器官データとを紐づけて登録する処理モードである。顔認証モードとは、顔認証装置1の利用者の顔認証処理を実行する処理モードである。顔認証装置1が登録モードまたは顔認証モードのどちらを実行するかは、操作者により予め選択されるものとする。 The face organ detection unit 4 outputs the face organ data generated from the input image 30 to the registration processing unit 9 in the registration mode, and outputs the face organ data to the alignment unit 5 in the face recognition mode. The registration mode is a processing mode in which the face image of the user who uses the face authentication device 1 and the face organ data are linked and registered. The face authentication mode is a processing mode for executing the face authentication process of the user of the face authentication device 1. Whether the face recognition device 1 executes the registration mode or the face recognition mode shall be selected in advance by the operator.

登録処理部9は、登録モードにおいて顔器官検出部4により生成された顔器官データを顔器官データ82として元となる顔画像81とを紐付けて記憶部12に記憶する(図3参照)。また、利用者の情報(以下、利用者情報83と呼ぶ。)を顔画像81及び顔器官データ82と紐づけて記憶部12に記憶してもよい。利用者情報83は、登録処理において利用者が顔認証装置1に入力した情報であり、例えば使用者の氏名、年齢、性別等の属性情報を含むものとする。 The registration processing unit 9 stores the facial organ data generated by the facial organ detection unit 4 in the registration mode as the facial organ data 82 in the storage unit 12 in association with the original face image 81 (see FIG. 3). Further, the user information (hereinafter referred to as user information 83) may be stored in the storage unit 12 in association with the face image 81 and the face organ data 82. The user information 83 is information input by the user to the face recognition device 1 in the registration process, and includes, for example, attribute information such as the user's name, age, and gender.

図3は、記憶部12に記憶される登録顔データ8の一例について説明する図である。図3に示すように、登録顔データ8は、利用者の識別情報である利用者ID80と、利用者の顔画像81と、顔画像81から生成される顔器官データ82と、利用者の属性情報83とが紐づけて記憶される。利用者の属性情報は、氏名、年齢、性別等である。記憶部12には、複数の利用者の顔画像81と顔器官データ82と利用者情報83とが紐づけられて登録顔データ8として記憶される。 FIG. 3 is a diagram illustrating an example of registered face data 8 stored in the storage unit 12. As shown in FIG. 3, the registered face data 8 includes a user ID 80, which is user identification information, a user's face image 81, facial organ data 82 generated from the face image 81, and user attributes. Information 83 is associated and stored. The user's attribute information is name, age, gender, etc. In the storage unit 12, the face image 81 of a plurality of users, the face organ data 82, and the user information 83 are associated with each other and stored as the registered face data 8.

一方、顔認証モードにおいて、顔器官検出部4により検出された顔器官データは位置合わせ部5に入力される。顔器官検出部4により検出された顔器官データを入力顔器官データ32と呼ぶ。 On the other hand, in the face recognition mode, the face organ data detected by the face organ detection unit 4 is input to the alignment unit 5. The facial organ data detected by the facial organ detection unit 4 is referred to as input facial organ data 32.

位置合わせ部5は、顔認証モードにおいて入力部2により入力された入力画像30(入力顔画像30と呼ぶ。)と記憶部12に予め記憶されている顔画像(登録顔画像81)とを特定の顔器官を基準に位置合わせする。位置合わせは、(1)入力顔画像から検出され、生成された顔器官データ(入力顔器官データ32)と記憶部12に予め記憶されている顔画像(登録顔画像81)とを位置合わせしてもよいし、(2)顔画像同士(入力顔画像30と登録顔画像81)を位置合わせしてもよいし、(3)入力顔画像30と記憶部12に予め記憶されている顔器官データ(登録顔器官データ82)とを位置合わせしてもよい。いずれの場合でも、本発明において、位置合わせ部5は、入力顔画像30(または入力顔器官データ32)と登録顔画像81(または登録顔器官データ82)とを特定の顔器官(例えば、顎)を基準に位置合わせする。具体的な一例としては、位置合わせ部5は、入力顔器官データ32及び登録顔器官データ82の特定の顔器官における対応する各特徴点間の差(具体的には各特徴点間のユークリッド距離の2乗和)が最小となるように位置合わせを行う。顔器官データ32、82の位置合わせについては、後述する。 The alignment unit 5 identifies the input image 30 (referred to as the input face image 30) input by the input unit 2 in the face authentication mode and the face image (registered face image 81) stored in advance in the storage unit 12. Align with reference to the facial organs. The alignment is performed by (1) aligning the face organ data (input face organ data 32) detected and generated from the input face image and the face image (registered face image 81) stored in advance in the storage unit 12. You may (2) align the face images (input face image 30 and registered face image 81) with each other, or (3) face organs stored in advance in the input face image 30 and the storage unit 12. The data (registered facial organ data 82) may be aligned. In any case, in the present invention, the alignment unit 5 uses the input face image 30 (or input face organ data 32) and the registered face image 81 (or registered face organ data 82) as a specific face organ (for example, chin). ) Is used as a reference. As a specific example, the alignment unit 5 has a difference between the corresponding feature points of the input facial organ data 32 and the registered facial organ data 82 in a specific facial organ (specifically, the Euclidean distance between the feature points). Alignment is performed so that the sum of squares of) is minimized. The alignment of the facial organ data 32 and 82 will be described later.

類似度評価部6は、顔認証モードにおいて、位置合わせ部5により位置合わせした入力顔画像30と登録顔画像81との類似度を算出する。類似度評価部6は、顔器官毎に特徴点を用いて入力顔画像30と登録顔画像81との類似度を算出する。具体的には、入力顔器官データ32及び登録顔器官データ82における対応する特徴点間のユークリッド距離の平均値と分散とを顔器官毎に算出する。また、算出した全ての顔器官のユークリッド距離の平均値及び分散に基づき、顔全体の類似度のスコアを算出する。具体的な算出方法については後述する。 The similarity evaluation unit 6 calculates the degree of similarity between the input face image 30 and the registered face image 81 aligned by the alignment unit 5 in the face recognition mode. The similarity evaluation unit 6 calculates the similarity between the input face image 30 and the registered face image 81 using the feature points for each facial organ. Specifically, the average value and the variance of the Euclidean distance between the corresponding feature points in the input facial organ data 32 and the registered facial organ data 82 are calculated for each facial organ. In addition, the score of the similarity of the entire face is calculated based on the average value and the variance of the calculated Euclidean distances of all the facial organs. The specific calculation method will be described later.

類似度評価部6は、算出した類似度のスコアと所定の閾値とを比較し、類似度のスコアが所定の閾値以下である場合は、入力顔器官データ32と登録顔器官データ82とが類似していると判定する。顔認証モードでは、記憶部12に登録されている全ての登録顔器官データ82と入力顔器官データ32との位置合わせ及び類似度評価を行う。類似度評価においては、類似度のスコアが所定の閾値以下であり、かつ、最も類似度スコアが小さい登録顔器官データに紐づく人物を、本人として認証する。類似度のスコアが所定の閾値より大きい場合は認証失敗とする。類似度評価部6における類似度の算出、及び認証処理の具体例については後述する。 The similarity evaluation unit 6 compares the calculated similarity score with a predetermined threshold value, and when the similarity score is equal to or less than the predetermined threshold value, the input facial organ data 32 and the registered facial organ data 82 are similar. Judge that it is. In the face recognition mode, the alignment and similarity evaluation of all the registered face organ data 82 registered in the storage unit 12 and the input face organ data 32 are performed. In the similarity evaluation, a person whose similarity score is equal to or less than a predetermined threshold value and which is associated with the registered facial organ data having the smallest similarity score is authenticated as the person. If the similarity score is greater than the predetermined threshold, authentication fails. A specific example of the calculation of the similarity and the authentication process in the similarity evaluation unit 6 will be described later.

出力部7は、類似度評価部6における評価結果(認証処理の結果)を出力する。出力は、例えば、PCのログイン時の認証処理であれば、ログイン処理を実行するログイン処理部への認証結果の通知であり、ゲート開錠等における顔認証処理であれば、ゲートの開錠を実行する開錠処理部への認証結果の通知である。なお、出力の方法はこれらに限定されず、どのような方法で類似度評価部6の評価結果を通知してもよいものとする。 The output unit 7 outputs the evaluation result (result of the authentication process) in the similarity evaluation unit 6. The output is, for example, a notification of the authentication result to the login processing unit that executes the login process in the case of the authentication process at the time of login of the PC, and unlocking the gate in the case of the face authentication process in the gate unlocking or the like. This is a notification of the authentication result to the unlocking processing unit to be executed. The output method is not limited to these, and the evaluation result of the similarity evaluation unit 6 may be notified by any method.

図2は、顔認証装置1として機能させるコンピュータの構成例を示す図である。図2に示すように、顔認証装置1は、制御部11、記憶部12、メディア入出力部13、周辺機器I/F部14、入力部15、表示部16、通信制御部17等がバス18を介して接続されて構成される。周辺機器I/F部14には、カメラ20が接続される。コンピュータを顔認証装置1として機能させる場合、コンピュータの制御部11は、図4に示す処理を記述したプログラムを実行することにより実現する。 FIG. 2 is a diagram showing a configuration example of a computer that functions as the face recognition device 1. As shown in FIG. 2, the face recognition device 1 includes a control unit 11, a storage unit 12, a media input / output unit 13, a peripheral device I / F unit 14, an input unit 15, a display unit 16, a communication control unit 17, and the like. It is configured by being connected via 18. A camera 20 is connected to the peripheral device I / F unit 14. When the computer functions as the face recognition device 1, the control unit 11 of the computer is realized by executing the program describing the process shown in FIG.

制御部11は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等により構成される。CPUは、記憶部12、ROM、記録媒体等に格納されるプログラムをRAM上のワークメモリ領域に呼び出して実行し、バス18を介して接続された各部を駆動制御する。ROMは、コンピュータのブートプログラムやBIOS等のプログラム、データ等を恒久的に保持する。RAMは、ロードしたプログラムやデータを一時的に保持するとともに、制御部11が各種処理を行うために使用するワークエリアを備える。制御部11は、上記プログラムを読み出して実行することにより、顔認証装置1の各手段として機能する。 The control unit 11 is composed of a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. The CPU calls and executes a program stored in the storage unit 12, ROM, recording medium, etc. in the work memory area on the RAM, and drives and controls each unit connected via the bus 18. The ROM permanently holds a computer boot program, a program such as a BIOS, data, and the like. The RAM temporarily holds the loaded program and data, and also includes a work area used by the control unit 11 to perform various processes. The control unit 11 functions as each means of the face recognition device 1 by reading and executing the above program.

記憶部12は、例えば、ハードディスクドライブ等の記憶装置である。記憶部12には制御部11が実行するプログラムや、プログラム実行に必要なデータ、オペレーティングシステム等が格納されている。これらのプログラムコードは、制御部11により必要に応じて読み出されてRAMに移され、CPUに読み出されて実行される。記憶部12には、各利用者の顔画像である登録顔画像81とそれらの顔画像から生成される顔器官データである登録顔器官データ82とを紐づけた登録顔データ8が記憶される(図3参照)。 The storage unit 12 is, for example, a storage device such as a hard disk drive. The storage unit 12 stores a program executed by the control unit 11, data necessary for executing the program, an operating system, and the like. These program codes are read by the control unit 11 as necessary, transferred to the RAM, read by the CPU, and executed. The storage unit 12 stores the registered face data 8 in which the registered face image 81, which is a face image of each user, and the registered face organ data 82, which is the face organ data generated from those face images, are linked. (See FIG. 3).

メディア入出力部13は、例えば、CD、DVD、MO等の各種記録媒体(メディア)のドライブ装置であり、メディアに対してデータの入出力(書込み/読み出し)を行う。 The media input / output unit 13 is, for example, a drive device for various recording media (media) such as a CD, DVD, and MO, and inputs / outputs (writes / reads) data to and from the media.

周辺機器I/F(インタフェース)部14は、周辺機器を接続させるためのポートであり、周辺機器I/F部14を介して周辺機器とのデータの送受信を行う。周辺機器I/F部14は、USB等で構成されており、通常複数の周辺機器I/Fを有する。周辺機器との接続形態は有線、無線を問わない。 The peripheral device I / F (interface) unit 14 is a port for connecting peripheral devices, and transmits / receives data to / from the peripheral device via the peripheral device I / F unit 14. The peripheral device I / F unit 14 is composed of USB or the like, and usually has a plurality of peripheral device I / Fs. The connection form with peripheral devices may be wired or wireless.

入力部15は、例えば、タッチパネル、キーボード、マウス等のポインティング・デバイス、テンキー等の入力装置であり、入力されたデータを制御部11へ出力する。
表示部16は、例えば液晶パネル、CRTモニタ等のディスプレイ装置と、ディスプレイ装置と連携して表示処理を実行するための論理回路(ビデオアダプタ等)で構成され、制御部11の制御により入力された表示情報をディスプレイ装置上に表示させる。なお、入力部15及び表示部16は、表示画面にタッチパネル等の入力装置を一体的に設けたタッチパネルディスプレイ(操作部25)としてもよい。
The input unit 15 is, for example, an input device such as a touch panel, a keyboard, a pointing device such as a mouse, or a numeric keypad, and outputs the input data to the control unit 11.
The display unit 16 is composed of, for example, a display device such as a liquid crystal panel or a CRT monitor, and a logic circuit (video adapter or the like) for executing display processing in cooperation with the display device, and is input under the control of the control unit 11. Display the display information on the display device. The input unit 15 and the display unit 16 may be a touch panel display (operation unit 25) in which an input device such as a touch panel is integrally provided on the display screen.

通信制御部17は、通信制御装置、通信ポート等を有し、ネットワーク10等との通信を制御する。ネットワーク10は、LAN(Local Area Network)や、より広域に通信接続されたWAN(Wide Area Network)、またはインターネット等の公衆の通信回線、基地局等を含む。ネットワーク10は有線、無線を問わない。顔認証装置1はネットワーク10を介してサーバ(不図示)にアクセスし、各種のプログラムやデータを送受信可能である。
バス18は、各装置間の制御信号、データ信号等の授受を媒介する経路である。
The communication control unit 17 has a communication control device, a communication port, and the like, and controls communication with the network 10 and the like. The network 10 includes a LAN (Local Area Network), a WAN (Wide Area Network) connected to a wider area, a public communication line such as the Internet, a base station, and the like. The network 10 may be wired or wireless. The face recognition device 1 can access a server (not shown) via the network 10 and send and receive various programs and data.
The bus 18 is a route that mediates the transfer of control signals, data signals, and the like between the devices.

次に、図4を参照して、顔認証装置1が実行する顔認証処理の流れについて説明する。図4は顔認証モードにおける処理の流れを説明するフローチャートである。顔認証装置1の制御部11は記憶部12から図4に示す処理に関するプログラム及びデータを読み出し、このプログラム及びデータに基づいて処理を実行する。なお、この顔認証処理の実行前に、複数の利用者の登録顔データ8が記憶部12に登録されているものとする。登録顔データ8に登録されている顔器官データ82は、以下の顔認証処理を実行する顔認証装置1と同一の装置で作成されたものでもよいし、別の装置で作成され、記憶部12に記憶したものでもよい。 Next, with reference to FIG. 4, the flow of the face authentication process executed by the face authentication device 1 will be described. FIG. 4 is a flowchart illustrating a processing flow in the face recognition mode. The control unit 11 of the face recognition device 1 reads out the program and data related to the processing shown in FIG. 4 from the storage unit 12, and executes the processing based on the program and data. Before executing this face recognition process, it is assumed that the registered face data 8 of a plurality of users is registered in the storage unit 12. The face organ data 82 registered in the registered face data 8 may be created by the same device as the face recognition device 1 that executes the following face recognition process, or may be created by another device and stored in the storage unit 12. It may be the one memorized in.

顔認証装置1の制御部11(入力部2)は、カメラ20により撮影された画像または記憶部12に記憶された画像を入力画像30として取得する(ステップS101)。ステップS101で取得する入力画像30は、静止画でも動画でもよい。動画の場合は、動画に含まれる各フレームの画像を入力画像30として以下の処理を行う。 The control unit 11 (input unit 2) of the face recognition device 1 acquires an image taken by the camera 20 or an image stored in the storage unit 12 as an input image 30 (step S101). The input image 30 acquired in step S101 may be a still image or a moving image. In the case of a moving image, the image of each frame included in the moving image is used as the input image 30 and the following processing is performed.

制御部11(顔領域検出部3)は、入力画像30から人物の顔領域31を検出する(ステップS102)。制御部11(顔器官検出部4)は、検出した顔領域31から顔器官32a〜32gを検出して顔器官データ32を生成する(ステップS103)。ステップS103で生成した顔器官データ32を、入力顔器官データ32と呼ぶ。 The control unit 11 (face area detection unit 3) detects the face area 31 of the person from the input image 30 (step S102). The control unit 11 (face organ detection unit 4) detects facial organs 32a to 32g from the detected face region 31 and generates facial organ data 32 (step S103). The facial organ data 32 generated in step S103 is referred to as input facial organ data 32.

図5は、入力された画像30から顔器官データ32を生成する処理について説明する図である。上述したように、制御部11は、カメラ20により撮影した画像30(映像を取得する場合は各フレームの画像)から顔領域31を認識し、顔領域31から顔器官32a〜32gを検出し、顔器官データ32を生成する。画像30から顔器官データ32を生成する手法は、例えば上述の非特許文献1に示す公知のアルゴリズムを用いればよい。なお、顔器官データ32を生成する手法は、非特許文献1に記載される手法に限定されない。本発明は、その他の手法を用いて顔器官データ32を生成してもよい。 FIG. 5 is a diagram illustrating a process of generating facial organ data 32 from the input image 30. As described above, the control unit 11 recognizes the face region 31 from the image 30 (the image of each frame when acquiring the image) taken by the camera 20, detects the facial organs 32a to 32g from the face region 31, and detects the facial organs 32a to 32g. Facial organ data 32 is generated. As a method for generating facial organ data 32 from the image 30, for example, a known algorithm shown in Non-Patent Document 1 described above may be used. The method for generating facial organ data 32 is not limited to the method described in Non-Patent Document 1. The present invention may generate facial organ data 32 using other techniques.

図5(a)は、入力画像30から検出した顔領域31及び顔器官データ32を示す図である。顔器官データ32は、図5(b)に示すように、各顔器官(右眉32a、左眉32b、右目32c、左目32d、鼻32e、口32f、顎32g)の位置及び形状を複数の特徴点で定義したデータである。各顔器官32a〜32gの特徴点の個数は、顔器官毎に定義されていることとする。具体的には、例えば、右眉32a、左眉32b、右目32c、左目32dはそれぞれ20個の特徴点とする。また鼻32eは17個の特徴点で定義する。また口32fは54個の特徴点で定義する。また顎は41個の特徴点で定義する。なお、これらの特徴点の個数は一例であり、その他の個数としてもよい。 FIG. 5A is a diagram showing the face region 31 and the facial organ data 32 detected from the input image 30. As shown in FIG. 5B, the facial organ data 32 has a plurality of positions and shapes of each facial organ (right eyebrow 32a, left eyebrow 32b, right eye 32c, left eye 32d, nose 32e, mouth 32f, chin 32g). It is the data defined by the feature points. The number of feature points of each facial organ 32a to 32g is defined for each facial organ. Specifically, for example, the right eyebrow 32a, the left eyebrow 32b, the right eye 32c, and the left eye 32d each have 20 feature points. The nose 32e is defined by 17 feature points. The mouth 32f is defined by 54 feature points. The jaw is defined by 41 feature points. The number of these feature points is an example, and may be another number.

なお、ステップS103において、カメラ20の設置位置や人物の顔の動き等により顔を正面でとらえることができない場合には、その画像(フレーム)については顔器官検出の対象から除外するものとしてもよい。 In step S103, if the face cannot be captured in front due to the installation position of the camera 20 or the movement of the face of a person, the image (frame) may be excluded from the target of facial organ detection. ..

次に、制御部11は、入力画像30から生成した入力顔器官データ32と比較する登録顔画像81の顔器官データである登録顔器官データ82を記憶部12から取得する(ステップS104)。利用者の登録顔器官データ82は、図3に示すように、記憶部12に記憶されているものとする。 Next, the control unit 11 acquires the registered facial organ data 82, which is the facial organ data of the registered face image 81 to be compared with the input facial organ data 32 generated from the input image 30, from the storage unit 12 (step S104). It is assumed that the registered facial organ data 82 of the user is stored in the storage unit 12 as shown in FIG.

制御部11(位置合わせ部5)は、ステップS103で生成した顔器官データ32(入力顔器官データ32)と、ステップS104で記憶部12から呼び出した登録顔器官データ82とを位置合わせする(ステップS105)。 The control unit 11 (alignment unit 5) aligns the facial organ data 32 (input facial organ data 32) generated in step S103 with the registered facial organ data 82 called from the storage unit 12 in step S104 (step). S105).

ステップS105の位置合わせ処理では、制御部11は、入力顔器官データ32と、登録顔器官データ82とを特定の顔器官を基準に位置合わせする。すなわち、入力顔器官データ32及び登録顔器官データ82の特定の顔器官における対応する各特徴点間の差(各特徴点間のユークリッド距離の2乗和)が最小となるように位置合わせを行う。 In the alignment process in step S105, the control unit 11 aligns the input facial organ data 32 and the registered facial organ data 82 with reference to a specific facial organ. That is, the alignment is performed so that the difference between the corresponding feature points (the sum of squares of the Euclidean distances between the feature points) in the specific facial organs of the input facial organ data 32 and the registered facial organ data 82 is minimized. ..

位置合わせの基準とする特定の顔器官は、例えば図6に示す顎のように、表情によって変化が出にくい器官とすることが好適である。また、特定の顔器官をどの顔器官とするかは、当該顔認証装置1の操作者による事前の設定操作によって変更可能としてもよい。このように、特定の一つの器官(例えば、顎)を基準として入力顔器官データ32と登録顔画像81(登録顔器官データ82)との位置合わせを行うことにより、より顔の個人差を比較しやすくなる。 It is preferable that the specific facial organ used as the reference for alignment is an organ that does not easily change depending on the facial expression, such as the chin shown in FIG. Further, which face organ is used as a specific face organ may be changed by a preset operation by the operator of the face recognition device 1. In this way, by aligning the input facial organ data 32 and the registered facial image 81 (registered facial organ data 82) with reference to one specific organ (for example, the chin), individual differences in the face can be further compared. It will be easier to do.

ステップS105の位置合わせ処理において、制御部11は、入力顔器官データ32及び登録顔器官データ82のいずれか一方または両方について、平行移動、回転、拡大、及び縮小のうち少なくともいずれか一つ以上の画像処理を行い、特定の顔器官の対応する各特徴点間の差(各特徴点間のユークリッド距離の2乗和)が最小となるように位置合わせを行う。このようにすれば、顔全体の特徴点の位置合わせが、特定の顔器官の特徴点を用いて好適に実行される。また、平行移動、回転、拡大、及び縮小のうち少なくともいずれか一つ以上の画像処理を行って位置合わせをするため、撮影時の姿勢やカメラ位置等の制約を減らすことができ、使用しやすいものとなる。 In the alignment process of step S105, the control unit 11 has at least one or more of translation, rotation, enlargement, and reduction for either or both of the input facial organ data 32 and the registered facial organ data 82. Image processing is performed, and alignment is performed so that the difference between the corresponding feature points of a specific facial organ (the sum of squares of the Euclidean distances between the feature points) is minimized. In this way, the alignment of the feature points of the entire face is preferably performed using the feature points of a specific facial organ. In addition, since at least one of parallel movement, rotation, enlargement, and reduction is performed for alignment, restrictions such as posture and camera position at the time of shooting can be reduced, and it is easy to use. It becomes a thing.

図6は、顎32gを基準に入力顔器官データ32と、登録顔器官データ82とを位置合わせした状態である。 FIG. 6 shows a state in which the input facial organ data 32 and the registered facial organ data 82 are aligned with respect to the jaw 32 g.

なお、ステップS105の位置合わせ処理では、入力顔器官データ32と登録顔器官データ82とを位置合わせする例を示したが、この例に限定されず、入力顔器官データ32と登録顔画像81とを位置合わせしてもよいし、顔画像同士(入力顔画像30と登録顔画像81)を位置合わせしてもよいし、入力顔画像30と登録顔器官データ82とを位置合わせしてもよい。いずれの場合でも、特定の顔器官(例えば、顎)を基準に入力顔画像30(または入力顔器官データ32)と登録顔画像81(または登録顔器官データ82)とを位置合わせする。 In the alignment process of step S105, an example of aligning the input face organ data 32 and the registered face organ data 82 is shown, but the present invention is not limited to this example, and the input face organ data 32 and the registered face image 81 May be aligned, face images (input face image 30 and registered face image 81) may be aligned, or input face image 30 and registered face organ data 82 may be aligned. .. In either case, the input face image 30 (or input face organ data 32) and the registered face image 81 (or registered face organ data 82) are aligned with respect to a specific face organ (for example, the chin).

次に、制御部11(類似度評価部6)は、位置合わせした入力顔画像30と登録顔画像81との類似度を評価する(ステップS106)。類似度評価処理では、まず位置合わせした入力顔器官データ32と登録顔器官データ82との類似度を算出する。類似度を算出する際、制御部11は、入力顔器官データ32及び登録顔器官データ82における対応する特徴点間のユークリッド距離の平均値と分散とを顔器官毎に算出する。次に、顔器官毎に類似度のスコアの重み付け総和を用いて全体の顔の類似度を総合的に評価する。 Next, the control unit 11 (similarity evaluation unit 6) evaluates the similarity between the aligned input face image 30 and the registered face image 81 (step S106). In the similarity evaluation process, first, the similarity between the aligned input facial organ data 32 and the registered facial organ data 82 is calculated. When calculating the similarity, the control unit 11 calculates the average value and the variance of the Euclidean distance between the corresponding feature points in the input facial organ data 32 and the registered facial organ data 82 for each facial organ. Next, the overall facial similarity is comprehensively evaluated using the weighted sum of the similarity scores for each facial organ.

同一人物であれば各顔器官の形状はほとんど一定であるため、対応する特徴点間の距離の値にばらつきはなく、分散は小さくなると予測される。このように、顔器官別に特徴点間の距離の平均値と分散を算出し、また、全体の類似度を総合的に評価すれば、各顔器官単独での類似度を評価しながら、顔全体の類似度も評価できる。これにより、表情の変化に依存せずに同一人物を識別できる。また、特定の顔器官に偏らずに顔全体で類似度を評価できる。 Since the shape of each facial organ is almost constant for the same person, the value of the distance between the corresponding feature points does not vary, and it is predicted that the variance will be small. In this way, if the average value and variance of the distance between the feature points are calculated for each facial organ and the overall similarity is evaluated comprehensively, the similarity of each facial organ alone is evaluated and the entire face is evaluated. The degree of similarity can also be evaluated. As a result, the same person can be identified without depending on the change in facial expression. In addition, the degree of similarity can be evaluated for the entire face without being biased to a specific facial organ.

図7を参照してステップS106の類似度評価処理について具体的に説明する。
図7に示すように、まず、演算対象の顔器官を示す値であるKを初期化し(K=1;ステップS201)、顔器官Kについて、入力顔器官データ32と登録顔器官データ82との対応する特徴点n間のユークリッド距離dを算出する(ステップS202)。
The similarity evaluation process in step S106 will be specifically described with reference to FIG. 7.
As shown in FIG. 7, first, K, which is a value indicating the facial organ to be calculated, is initialized (K = 1; step S201), and for the facial organ K, the input facial organ data 32 and the registered facial organ data 82 are combined. calculating a Euclidean distance d n between the corresponding feature points n (step S202).

入力顔器官データ32及び登録顔器官データ82における特徴点nの位置座標をそれぞれ、 The position coordinates of the feature point n in the input facial organ data 32 and the registered facial organ data 82 are respectively.

Figure 0006891633
Figure 0006891633

とすると、特徴点nについての画像間(入力顔器官データ32及び登録顔器官データ82間)のユークリッド距離dは、以下の式(1)のように表すことができる。 Then, the Euclidean distance d n between the images for the feature point n (between the input facial organ data 32 and the registered facial organ data 82) can be expressed by the following equation (1).

Figure 0006891633
Figure 0006891633

また、ここで、顔器官Kに対して集合KをK={k|kは顔器官Kに含まれる特徴点}のように置くと、顔器官Kに含まれる特徴点kにおける画像間のユークリッド距離の平均μは、以下の式(2)のようになる。 Further, if the set K is placed on the facial organ K as K = {k | k is a feature point included in the facial organ K}, the Euclidean distance between the images at the feature point k included in the facial organ K The average μ K of the distance is as shown in the following equation (2).

Figure 0006891633
Figure 0006891633

ここで、顔器官Kとは、図8に示すように、演算対象とする顔器官の番号であり、例えば、右眉はK=1、左眉はK=2、右目はK=3、左目はK=4、鼻はK=5、口はK=6、顎はK=7等のように割り振られる。numは、顔器官Kに含まれる特徴点の個数である。 Here, the facial organ K is the number of the facial organ to be calculated, as shown in FIG. 8, for example, the right eyebrow is K = 1, the left eyebrow is K = 2, the right eye is K = 3, and the left eye. Is K = 4, the nose is K = 5, the mouth is K = 6, the jaw is K = 7, and so on. num K is the number of feature points contained in the facial organ K.

次に、制御部11は、入力顔器官データ32と登録顔器官データ82とにおける顔器官Kの対応特徴点間のユークリッド距離の分散σ を求める(ステップS203)。入力顔器官データ32と登録顔器官データ82とにおける顔器官Kの対応特徴点間のユークリッド距離の分散σ は、以下の式(3)のようになる。分散σ は、顔器官の形状が近いほど小さくなる値である。 Next, the control unit 11 obtains the variance σ K 2 of the Euclidean distance between the corresponding feature points of the facial organ K in the input facial organ data 32 and the registered facial organ data 82 (step S203). The variance σ K 2 of the Euclidean distance between the corresponding feature points of the facial organ K in the input facial organ data 32 and the registered facial organ data 82 is as shown in the following equation (3). The variance σ K 2 is a value that becomes smaller as the shape of the facial organ is closer.

Figure 0006891633
Figure 0006891633

図9は、入力顔器官データ32及び登録顔器官データ82における右目32d、82dの特徴点を示す図である。入力顔器官データ32と登録顔器官データ82とが同一人物のものである場合、図9に示すように、顔器官の形状はほぼ一致するが、表情の変化等のために位置がずれることがある。そのような場合、入力顔器官データ32と登録顔器官データ82との対応する各特徴点間の距離の値は、ばらつき(分散)が小さくなると仮定できる。類似度の評価に分散を用いることで、顔の個人差をより正確に評価できるようになる。 FIG. 9 is a diagram showing the feature points of the right eyes 32d and 82d in the input facial organ data 32 and the registered facial organ data 82. When the input facial organ data 32 and the registered facial organ data 82 are of the same person, as shown in FIG. 9, the shapes of the facial organs are almost the same, but the positions may shift due to changes in facial expressions or the like. is there. In such a case, it can be assumed that the value of the distance between the corresponding feature points of the input facial organ data 32 and the registered facial organ data 82 has a small variation (variance). By using variance to evaluate the degree of similarity, individual differences in faces can be evaluated more accurately.

制御部11は、全ての顔器官Kについて対応特徴点間のユークリッド距離及び分散の算出を繰り返す(ステップS204;No→ステップS205→ステップS202〜ステップS203)。 The control unit 11 repeats the calculation of the Euclidean distance and the variance between the corresponding feature points for all the facial organs K (step S204; No → step S205 → step S202 to step S203).

全ての顔器官Kについて対応特徴点間のユークリッド距離及び分散を算出すると(ステップS204;Yes)、制御部11は、顔全体の総合的な類似度スコアを算出する(ステップS206)。類似度スコア(score)は、例えば以下の式(4)とする。 When the Euclidean distance and variance between the corresponding feature points are calculated for all facial organs K (step S204; Yes), the control unit 11 calculates the overall similarity score of the entire face (step S206). The similarity score is, for example, the following equation (4).

Figure 0006891633
Figure 0006891633

式(4)において、μ及びσ は、顔器官Kに含まれる特徴点における画像間のユークリッド距離の平均値と分散である。wK1及びwK2は、重みパラメータである。重みパラメータの値は実験的に決定される適切な値とする。Faceは、検出した顔器官集合である。例えば、図7に示す例であれば、Face={右眉、左眉、右目、左目、鼻、口、顎}である。 In equation (4), μ K and σ K 2 are the average value and variance of the Euclidean distance between images at the feature points included in the facial organ K. w K1 and w K2 are weight parameters. The value of the weight parameter shall be an appropriate value determined experimentally. Face is a set of detected facial organs. For example, in the example shown in FIG. 7, Face = {right eyebrow, left eyebrow, right eye, left eye, nose, mouth, chin}.

上述の式(4)で算出される類似度スコアは、入力顔器官データ32と登録顔器官データ82とが類似しているほど小さな値となる。 The similarity score calculated by the above formula (4) becomes smaller as the input facial organ data 32 and the registered facial organ data 82 are similar.

制御部11は、ステップS206において算出した類似度スコアの値を、入力顔画像30とステップS104で取得した登録顔画像81との類似度評価結果として出力する。制御部11は、登録されている全ての登録顔画像81についてステップS104〜ステップS106の処理(登録顔画像81(登録顔器官データ82)の取得、位置合わせ処理、類似度評価処理)を繰り返し実行する。これにより、制御部11は、入力顔画像30と登録顔画像81との類似度スコアを得る。 The control unit 11 outputs the value of the similarity score calculated in step S206 as the similarity evaluation result between the input face image 30 and the registered face image 81 acquired in step S104. The control unit 11 repeatedly executes the processes of steps S104 to S106 (acquisition of registered face image 81 (registered face organ data 82), alignment process, similarity evaluation process) for all registered face images 81. To do. As a result, the control unit 11 obtains a similarity score between the input face image 30 and the registered face image 81.

図4のステップS107の認証処理では、制御部11は、入力顔画像30と登録顔画像81との類似度評価結果(類似度スコア)に基づき本人認証を行う(ステップS107)。本人認証では、制御部11は入力画像30の人物がどの登録顔画像81に紐づけられた人物かを判定する。制御部11は、類似度のスコアが所定の閾値以下であり、かつ、最も類似度スコアが小さい登録顔画像81に紐づく人物を、本人として認証する。類似度スコアが所定の閾値より大きい場合は、顔認証失敗と判定する。 In the authentication process of step S107 of FIG. 4, the control unit 11 authenticates the person based on the similarity evaluation result (similarity score) between the input face image 30 and the registered face image 81 (step S107). In the personal authentication, the control unit 11 determines which registered face image 81 the person in the input image 30 is associated with. The control unit 11 authenticates the person associated with the registered face image 81 whose similarity score is equal to or less than a predetermined threshold value and whose similarity score is the smallest as the person. If the similarity score is larger than a predetermined threshold value, it is determined that the face recognition has failed.

制御部11(出力部7)は、ステップS107の認証結果を出力する(図4のステップS108)。出力は、例えば、PCのログイン時の認証処理であれば、ログイン処理部への認証結果の通知であり、ゲート開錠等における顔認証処理であれば、開錠処理部への認証結果の通知である。なお、結果出力の方法はこれらに限定されず、どのような出力方法でもよいものとする。 The control unit 11 (output unit 7) outputs the authentication result of step S107 (step S108 in FIG. 4). The output is, for example, a notification of the authentication result to the login processing unit in the case of authentication processing at the time of PC login, and a notification of the authentication result to the unlocking processing unit in the case of face recognition processing such as gate unlocking. Is. The result output method is not limited to these, and any output method may be used.

以上説明したように、本実施の形態に係る顔認証装置1は、入力した画像30に含まれる顔領域31から各顔器官(右眉32a、左眉32b、右目32c、左目32d、鼻32e、口32f、顎32g等)を検出し、検出した各顔器官32a〜32gの位置及び形状を複数の特徴点により定義した顔器官データ32を生成し、この入力顔器官データ32と、予め利用者情報83に紐づけて登録されている登録顔画像81の登録顔器官データ82とを特定の顔器官(例えば、顎32g)を基準に位置合わせし、類似度スコアを求め、類似度スコアに基づく顔認証処理を行う。特定の顔器官を基準に位置合わせを行うことにより、個人差を識別しやすくなり精度のよい顔認証結果を得ることが可能となる。また、類似度スコアは、各顔器官Kに含まれる特徴点における画像間のユークリッド距離の平均値と分散を、全ての顔器官で統合した値とする。対応する特徴点間のユークリッド距離のみならず、分散を評価することで、表情の変化によらず、同一人物を識別しやすくなり認証精度が向上する。 As described above, the face authentication device 1 according to the present embodiment has each face organ (right eyebrow 32a, left eyebrow 32b, right eye 32c, left eye 32d, nose 32e) from the face area 31 included in the input image 30. (Mouth 32f, jaw 32g, etc.) is detected, and facial organ data 32 in which the positions and shapes of the detected facial organs 32a to 32g are defined by a plurality of feature points is generated, and the input facial organ data 32 and the user in advance are generated. The registered face organ data 82 of the registered face image 81 registered in association with the information 83 is aligned with reference to a specific face organ (for example, jaw 32 g), a similarity score is obtained, and the similarity score is obtained. Perform face recognition processing. By aligning with a specific facial organ as a reference, it becomes easier to identify individual differences and it becomes possible to obtain an accurate face recognition result. Further, the similarity score is a value obtained by integrating the average value and the variance of the Euclidean distance between images at the feature points included in each facial organ K in all facial organs. By evaluating not only the Euclidean distance between the corresponding feature points but also the variance, it becomes easier to identify the same person regardless of the change in facial expression, and the authentication accuracy is improved.

以上、添付図面を参照して、本発明に係る顔認証装置等の好適な実施形態について説明したが、本発明は係る例に限定されない。例えば、上述の実施の形態では、コンピュータが顔認証処理を実行する例について説明したが、本発明はこれに限定されず、例えば、ロボットが顔から人物を特定する処理等に適用することも可能である。また、当業者であれば、本願で開示した技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。 Although preferred embodiments of the face recognition device and the like according to the present invention have been described above with reference to the accompanying drawings, the present invention is not limited to the above examples. For example, in the above-described embodiment, an example in which a computer executes a face recognition process has been described, but the present invention is not limited to this, and can be applied to, for example, a process in which a robot identifies a person from a face. Is. Further, it is clear that a person skilled in the art can come up with various modified examples or modified examples within the scope of the technical idea disclosed in the present application, and these also naturally belong to the technical scope of the present invention. It is understood that it is.

1………………顔認証装置(コンピュータ)
2………………入力部
3………………顔領域検出部
4………………顔器官検出部
5………………位置合わせ部
6………………類似度評価部
7………………出力部
8………………登録顔データ
9………………登録処理部
10……………ネットワーク
11……………制御部
12……………記憶部
13……………メディア入出力部
14……………周辺機器I/F部
15……………入力部
16……………表示部
17……………通信制御部
18……………バス
30……………画像
31……………顔領域
32……………顔器官データ(入力顔器官データ)
32a〜32g……………顔器官
80……………利用者ID
81……………顔画像(登録顔画像)
82……………顔器官データ(登録顔器官データ)
83……………利用者属性情報
1 ……………… Face recognition device (computer)
2 ……………… Input unit 3 ……………… Face area detection unit 4 ……………… Face organ detection unit 5 ……………… Alignment unit 6 ……………… Similarity Evaluation unit 7 ……………… Output unit 8 ……………… Registered face data 9 ……………… Registration processing unit 10 ……………… Network 11 ……………… Control unit 12 ………… …… Storage unit 13 ……………… Media input / output unit 14 ……………… Peripheral device I / F unit 15 ……………… Input unit 16 ……………… Display unit 17 ……………… Communication control Part 18 ……………… Bus 30 ……………… Image 31 ……………… Face area 32 ……………… Facial organ data (input facial organ data)
32a-32g ……………… Facial organ 80 ……………… User ID
81 …………… Face image (registered face image)
82 ……………… Facial organ data (registered facial organ data)
83 …………… User attribute information

Claims (8)

複数の顔画像と各顔画像のそれぞれの器官の位置及び形状を複数の特徴点により定義した器官データとを紐づけて登録顔データとして記憶する記憶手段と、
顔画像を入力する入力手段と、
前記入力手段に入力された顔画像に含まれる顔領域から各器官を検出する器官検出手段と、
検出した各器官の器官データを生成する器官データ生成手段と、
前記器官データ生成手段により生成した器官データである入力器官データと、前記記憶手段に記憶された顔画像とを特定の器官を基準に位置合わせする位置合わせ手段と、
位置合わせした前記入力された顔画像と前記記憶手段に記憶された顔画像との類似度を算出する類似度算出手段と、
前記類似度に基づき顔認証処理を行う認証処理手段と、
を備えることを特徴とする顔認証装置。
A storage means for storing a plurality of face images and organ data in which the positions and shapes of the respective organs of each face image are defined by a plurality of feature points as registered face data.
Input means for inputting face images and
An organ detecting means for detecting each organ from a face region included in a face image input to the input means, and an organ detecting means.
Organ data generation means that generates organ data of each detected organ,
An alignment means for aligning the input organ data, which is the organ data generated by the organ data generation means, and the face image stored in the storage means with reference to a specific organ.
A similarity calculation means for calculating the similarity between the aligned face image and the face image stored in the storage means, and a similarity calculation means.
An authentication processing means that performs face recognition processing based on the similarity, and
A face recognition device characterized by being equipped with.
前記類似度算出手段は、器官毎に特徴点を用いて類似度を算出することを特徴とする請求項1に記載の顔認証装置。 The face recognition device according to claim 1, wherein the similarity calculation means calculates the similarity using feature points for each organ. 前記位置合わせ手段は、前記特定の器官における前記入力器官データと前記記憶手段に記憶された登録顔データの器官データとの対応する各特徴点間の差が最小となるように位置合わせを行うことを特徴とする請求項1または請求項2に記載の顔認証装置。 The alignment means aligns the input organ data in the specific organ and the organ data of the registered face data stored in the storage means so that the difference between the corresponding feature points is minimized. The face recognition device according to claim 1 or 2, wherein the face recognition device is characterized. 前記位置合わせ手段は、前記入力器官データ及び前記登録顔データの器官データのいずれか一方または両方について平行移動、回転、拡大、及び縮小のうち少なくともいずれか一つ以上の画像処理を行うことにより前記位置合わせを行うことを特徴とする請求項1から請求項3のいずれかに記載の顔認証装置。 The alignment means performs image processing of at least one or more of translation, rotation, enlargement, and reduction with respect to either or both of the input organ data and the organ data of the registered face data. The face recognition device according to any one of claims 1 to 3, wherein alignment is performed. 前記類似度算出手段は、前記入力器官データ及び前記登録顔データの器官データにおける対応する各特徴点間のユークリッド距離の平均値と分散とを器官毎に算出し、全ての器官の前記ユークリッド距離の平均値及び分散に基づき顔全体の類似度を算出することを特徴とする請求項1から請求項4のいずれかに記載の顔認証装置。 The similarity calculation means calculates the average value and variance of the Euclidean distance between the corresponding feature points in the organ data of the input organ data and the registered face data for each organ, and determines the Euclidean distance of all the organs. The face recognition device according to any one of claims 1 to 4, wherein the similarity of the entire face is calculated based on the average value and the variance. 前記器官データの特徴点の数は器官毎に定義されることを特徴とする請求項1から請求項5のいずれかに記載の顔認証装置。 The face recognition device according to any one of claims 1 to 5, wherein the number of feature points of the organ data is defined for each organ. コンピュータが、
複数の顔画像と各顔画像のそれぞれの器官の位置及び形状を複数の特徴点により定義した器官データとを紐づけて登録顔データとして記憶部に記憶するステップと、
顔画像を入力するステップと、
入力された顔画像に含まれる顔領域から各器官を検出するステップと、
検出した各器官の器官データを生成するステップと、
生成した器官データである入力器官データと、前記記憶部に記憶された顔画像とを特定の器官を基準に位置合わせするステップと、
位置合わせした前記入力された顔画像と前記記憶部に記憶された顔画像との類似度を算出するステップと、
前記類似度に基づき顔認証処理を行うステップと、
を含むことを特徴とする顔認証方法。
The computer
A step of associating a plurality of face images with organ data in which the positions and shapes of each organ of each face image are defined by a plurality of feature points and storing them as registered face data in a storage unit.
Steps to enter the face image and
Steps to detect each organ from the face area included in the input face image,
Steps to generate organ data for each detected organ,
A step of aligning the input organ data, which is the generated organ data, and the face image stored in the storage unit with reference to a specific organ.
A step of calculating the degree of similarity between the aligned face image and the face image stored in the storage unit, and
The step of performing face recognition processing based on the similarity and
A face recognition method characterized by including.
コンピュータを、
複数の顔画像と各顔画像のそれぞれの器官の位置及び形状を複数の特徴点により定義した器官データとを紐づけて登録顔データとして記憶する記憶手段、
顔画像を入力する入力手段、
前記入力手段に入力された顔画像に含まれる顔領域から各器官を検出する器官検出手段、
検出した各器官の器官データを生成する器官データ生成手段、
前記器官データ生成手段により生成した器官データである入力器官データと、前記記憶手段に記憶された顔画像とを特定の器官を基準に位置合わせする位置合わせ手段、
位置合わせした前記入力された顔画像と前記記憶手段に記憶された顔画像との類似度を算出する類似度算出手段、
前記類似度に基づき顔認証処理を行う認証処理手段、
として機能させるためのプログラム。
Computer,
A storage means for storing a plurality of face images and organ data in which the positions and shapes of the respective organs of each face image are defined by a plurality of feature points as registered face data.
Input means for inputting face images,
Organ detecting means for detecting each organ from a face region included in a face image input to the input means,
Organ data generation means, which generates organ data of each detected organ,
An alignment means for aligning input organ data, which is organ data generated by the organ data generation means, and a face image stored in the storage means with reference to a specific organ.
A similarity calculation means for calculating the similarity between the aligned face image and the face image stored in the storage means.
An authentication processing means that performs face recognition processing based on the similarity,
A program to function as.
JP2017105264A 2017-05-29 2017-05-29 Face recognition device, face recognition method, and program Active JP6891633B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017105264A JP6891633B2 (en) 2017-05-29 2017-05-29 Face recognition device, face recognition method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017105264A JP6891633B2 (en) 2017-05-29 2017-05-29 Face recognition device, face recognition method, and program

Publications (2)

Publication Number Publication Date
JP2018200592A JP2018200592A (en) 2018-12-20
JP6891633B2 true JP6891633B2 (en) 2021-06-18

Family

ID=64667215

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017105264A Active JP6891633B2 (en) 2017-05-29 2017-05-29 Face recognition device, face recognition method, and program

Country Status (1)

Country Link
JP (1) JP6891633B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6907357B1 (en) * 2020-02-13 2021-07-21 エヌエイチエヌ コーポレーション Information processing programs and information processing systems

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004046697A (en) * 2002-07-15 2004-02-12 Omron Corp Personal identification device
JP4989308B2 (en) * 2007-05-16 2012-08-01 キヤノン株式会社 Image processing apparatus and image search method
JP4946730B2 (en) * 2007-08-27 2012-06-06 ソニー株式会社 Face image processing apparatus, face image processing method, and computer program
JP5577729B2 (en) * 2010-02-12 2014-08-27 オムロン株式会社 Monitoring device and method, and program
JP5994935B2 (en) * 2013-05-15 2016-09-21 株式会社島津製作所 Holder mounting support system, holder mounting support device, and holder mounting support method
CN106030654B (en) * 2014-02-26 2019-11-19 株式会社日立制作所 Face authenticating system
JP6204315B2 (en) * 2014-09-04 2017-09-27 日本電信電話株式会社 Caricature image generating apparatus, caricature image generating method, and caricature image generating program

Also Published As

Publication number Publication date
JP2018200592A (en) 2018-12-20

Similar Documents

Publication Publication Date Title
Ross et al. Some research problems in biometrics: The future beckons
JP5008269B2 (en) Information processing apparatus and information processing method
JP6013241B2 (en) Person recognition apparatus and method
EP1629415B1 (en) Face identification verification using frontal and side views
KR100587617B1 (en) Individual recognizing apparatus and individual recognizing method
KR20220150868A (en) Method of motion vector and feature vector based fake face detection and apparatus for the same
JP2005202653A (en) Behavior recognition device and method, animal object recognition device and method, equipment control device and method, and program
US20120320181A1 (en) Apparatus and method for security using authentication of face
WO2020195732A1 (en) Image processing device, image processing method, and recording medium in which program is stored
WO2019003973A1 (en) Facial authentication device, facial authentication method, and program recording medium
Fenu et al. Controlling user access to cloud-connected mobile applications by means of biometrics
US20230306792A1 (en) Spoof Detection Based on Challenge Response Analysis
Oza et al. Federated learning-based active authentication on mobile devices
Prakash et al. Continuous user authentication using multimodal biometric traits with optimal feature level fusion
Mayer et al. Adjusted pixel features for robust facial component classification
Kumar et al. Face Recognition Attendance System Using Local Binary Pattern Algorithm
JP6891633B2 (en) Face recognition device, face recognition method, and program
JP4708835B2 (en) Face detection device, face detection method, and face detection program
EP4266242A1 (en) Authentication method, information processing device, and authentication program
Zhang et al. A virtual proctor with biometric authentication for facilitating distance education
JP2012181629A (en) Face detection method, face detection device, and program
JP6798285B2 (en) Biometric device, biometric method and program
US20220309704A1 (en) Image processing apparatus, image processing method and recording medium
Bernardos et al. Design and deployment of a contactless hand-shape identification system for smart spaces
WO2023068956A1 (en) Method and system for identifying synthetically altered face images in a video

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200330

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210412

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210427

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210510

R150 Certificate of patent or registration of utility model

Ref document number: 6891633

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150