JP2016152029A - Face authentication device, image processing device, and living body determination device - Google Patents

Face authentication device, image processing device, and living body determination device Download PDF

Info

Publication number
JP2016152029A
JP2016152029A JP2015030990A JP2015030990A JP2016152029A JP 2016152029 A JP2016152029 A JP 2016152029A JP 2015030990 A JP2015030990 A JP 2015030990A JP 2015030990 A JP2015030990 A JP 2015030990A JP 2016152029 A JP2016152029 A JP 2016152029A
Authority
JP
Japan
Prior art keywords
exposed
person
registrant
face
mucous membrane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015030990A
Other languages
Japanese (ja)
Inventor
秀太郎 國政
Shutaro Kunimasa
秀太郎 國政
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Osaka Gas Co Ltd
Original Assignee
Osaka Gas Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Osaka Gas Co Ltd filed Critical Osaka Gas Co Ltd
Priority to JP2015030990A priority Critical patent/JP2016152029A/en
Publication of JP2016152029A publication Critical patent/JP2016152029A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a face authentication device high in living body determination accuracy and strong against surreptitious photographing, and provide an image processing device and a living body determination device applicable to the face authentication device.SOLUTION: A face authentication device 20 is provided with: an exposed mucosa detection part 24 that detects exposed mucosae, which are parts where mucosae of a face are intentionally exposed by a person; a living body determination unit 25 that detects presence/absence of a change, in an image of each exposed mucosa detected by the exposed mucosa detection unit 24, caused due to biological activity of the person so as to determine whether a person to be authenticated is a living body; a database 26 that stores registered person data indicating features of faces of registered persons; a person-in-question determination unit 27 that determines whether a face of the person to be authenticated corresponds to any of the faces of the registered persons; and an authentication determination unit 28 that authenticates the person to be authenticated when the living body determination unit 25 determines that the person to be authenticated is a living body and the person-in-question determination unit 27 determines that the person to be authenticated corresponds to any of the registered persons.SELECTED DRAWING: Figure 6

Description

本発明は、画像の中から検出した人の顔について認証を行う顔認証装置と、当該顔認証装置に適用可能な画像処理装置及び生体判定装置と、に関する。   The present invention relates to a face authentication device that performs authentication on a human face detected from an image, and an image processing device and a biological determination device that can be applied to the face authentication device.

近年、情報機器の不正使用や不審者の侵入などを防止するためのセキュリティ対策として、様々な認証システムが利用されている。特に、人の顔を認証キーとして用いる顔認証装置は、認証キーが人体の一部であるために認証キーの盗難や紛失、忘却などの問題が生じない点や、認証を受けようとする者(以下、「被認証者」という)が認証用のカメラに対して顔を向けるという非接触かつ簡易な方法で認証が可能である点など、様々な利点を有しているため、注目されている。   In recent years, various authentication systems have been used as security measures for preventing unauthorized use of information devices and intrusion of suspicious persons. In particular, a face authentication device that uses a human face as an authentication key does not cause problems such as theft, loss or forgetting of the authentication key because the authentication key is a part of the human body, or a person who wants to receive authentication Since it has various advantages such as that it is possible to authenticate in a non-contact and simple way that the face (hereinafter referred to as "authenticated person") faces the camera for authentication, it is attracting attention Yes.

しかし、顔認証装置では、認証すべき者として顔認証装置に顔が登録されている者(以下、「登録者」という)の顔を盗撮し、それによって作製した当該登録者の顔の写真を認証用のカメラに向けるという不正な方法によって、認証が成功してしまうという問題がある。   However, in the face authentication apparatus, the face of a person whose face is registered in the face authentication apparatus as a person to be authenticated (hereinafter referred to as “registrant”) is voyeurized, and a photograph of the face of the registrant created thereby is taken. There is a problem that authentication succeeds by an unauthorized method of pointing to the authentication camera.

そこで、特許文献1では、被認証者が生体であることを確認してから顔認証を行うことで、上記のような不正な方法による認証の成功を防止する顔認証装置が提案されている。具体的に、この顔認証装置では、顔の特定領域における毛細血管を流れる血液の変化が、被認証者の動画を撮像して得られる一連の画像データが示す画像の変化として検出されるか否かによって、被認証者が生体か否かを判定する。   In view of this, Japanese Patent Laid-Open No. 2004-228620 proposes a face authentication apparatus that prevents the authentication from succeeding by an unauthorized method as described above by performing face authentication after confirming that the person to be authenticated is a living body. Specifically, in this face authentication device, whether or not a change in blood flowing through capillaries in a specific area of the face is detected as an image change indicated by a series of image data obtained by capturing a moving image of the person to be authenticated. Whether or not the person to be authenticated is a living body is determined.

特開2014−184002号公報JP 2014-184002 A

しかし、特許文献1で提案されている顔認証装置では、外界に晒されるために丈夫で厚く形成されている表面層(典型的には皮膚の表皮。なお、唇は、外界に晒される外側部分は皮膚と同じく角質層から成る表皮が形成されており、皮膚の一種である。)の下の毛細血管を流れる血流の変化という、外観上極めて微細な変化を検出しなければならない。したがって、特許文献1で提案されている顔認証装置は、原理的には生体か否かを判定することが可能であるものの、現実的には生体の判定精度が低く実用化が困難であるため、問題となる。   However, in the face authentication device proposed in Patent Document 1, a surface layer (typically the skin epidermis that is strong and thick to be exposed to the outside world. Note that the lips are the outer part exposed to the outside world. The skin has a stratum corneum like the skin, and is a kind of skin.) It must detect a very fine change in appearance, that is, a change in blood flow through the capillary below. Therefore, although the face authentication device proposed in Patent Document 1 can in principle determine whether or not it is a living body, it is practically difficult to put it to practical use because the determination accuracy of the living body is low. , It becomes a problem.

さらに、特許文献1で提案されている顔認証装置において、仮に生体か否かを判定することができたとしても、写真などの静止画が認証用のカメラに向けられた場合は生体ではないと判定することができるが、動画を再生した表示装置が認証用のカメラに向けられた場合は生体であると誤判定してしまう。即ち、特許文献1で提案されている顔認証装置では、登録者の顔を動画として盗撮し、それによって得られた当該動画を再生した表示装置を認証用のカメラに向けるという不正な方法によって、認証が成功してしまう。したがって、特許文献1で提案されている顔認証装置は、盗撮に対して脆弱であるため、問題となる。   Furthermore, in the face authentication device proposed in Patent Document 1, even if it can be determined whether or not it is a living body, it is not a living body when a still image such as a photograph is directed to the authentication camera. Although it can be determined, if the display device that reproduced the moving image is directed to the authentication camera, it is erroneously determined to be a living body. In other words, in the face authentication device proposed in Patent Document 1, the registrant's face is voyeurized as a moving image, and an illegal method of directing the display device that reproduces the moving image obtained thereby to the authentication camera, Authentication succeeds. Therefore, the face authentication device proposed in Patent Document 1 is problematic because it is vulnerable to voyeurism.

そこで、本発明は、生体の判定精度が高く盗撮に対して堅牢である顔認証装置を提供することを目的とする。また、当該顔認証装置に適用可能な画像処理装置及び生体判定装置を提供することを目的とする。   SUMMARY OF THE INVENTION An object of the present invention is to provide a face authentication device that has a high accuracy of biometric determination and is robust against voyeurism. It is another object of the present invention to provide an image processing apparatus and a biometric determination apparatus that can be applied to the face authentication apparatus.

上記目的を達成するため、本発明は、被認証者の顔を撮像して生成された画像データが示す画像の中から、人が作為的に顔の粘膜を露出させた部分である露出粘膜を検出する露出粘膜検出部と、時間的に連続した撮像により生成された複数の前記画像データが示す複数の前記画像のそれぞれの中から、前記露出粘膜検出部が検出したそれぞれの前記露出粘膜について、人の生命活動に起因する画像的な変化の有無を検出することで、前記被認証者が生体であるか否かを判定する生体判定部と、登録者の顔の特徴を示す登録者データを記録するデータベースと、前記画像データが示す前記画像の中の前記被認証者の顔の特徴と、前記データベースが記録する前記登録者データが示す前記登録者の顔の特徴と、を比較することで、前記被認証者が前記登録者に該当するか否かを判定する本人判定部と、前記被認証者が生体であると前記生体判定部が判定し、かつ、前記被認証者が前記登録者に該当すると前記本人判定部が判定する場合に、前記被認証者を認証する認証決定部と、を備えることを特徴とする顔認証装置を提供する。   In order to achieve the above object, the present invention provides an exposed mucous membrane, which is a portion where a human has intentionally exposed the mucous membrane of a face from among images indicated by image data generated by imaging the face of the person to be authenticated. About each exposed mucous membrane detected by the exposed mucous membrane detection unit from among each of the plurality of images indicated by the plurality of image data generated by temporally continuous imaging to detect the exposed mucosa, By detecting the presence or absence of an image change caused by a person's life activity, a biometric determination unit for determining whether or not the person to be authenticated is a living body, and registrant data indicating the characteristics of the registrant's face By comparing the database to be recorded with the facial features of the person to be authenticated in the image indicated by the image data, and the facial features of the registrant indicated by the registrant data recorded by the database. , The person to be authenticated An identity determination unit that determines whether or not the registered person corresponds, and the biometric determination unit determines that the person to be authenticated is a living body, and the person determination that the to-be-authenticated person corresponds to the registrant. A face authentication apparatus comprising: an authentication determination unit configured to authenticate the person to be authenticated when the unit determines.

この顔認証装置によれば、皮膚等の常に外界に晒されている部分と比較して表面層が薄くなっており、毛細血管及びその中を流れる血液が外部から明確に視認される露出粘膜に基づいて、被認証者が生体か否かを判定することができる。また、人が意図的に行う表情であって、人前では滅多にしない特殊な表情である、露出粘膜が現れた表情に基づいて、被認証者が登録者に該当するか否かを判定することができる。   According to this face recognition device, the surface layer is thinner than the part that is constantly exposed to the outside, such as the skin, and the capillaries and the blood flowing through them are exposed to the exposed mucous membrane clearly visible from the outside. Based on this, it can be determined whether the person to be authenticated is a living body. In addition, it is determined whether or not the person to be authenticated is a registered person based on a facial expression intentionally performed by a person and a special expression rarely seen in the public, that is, an exposed mucosal expression. Can do.

また、上記特徴の顔認証装置において、前記画像データが示す前記画像の中から、人の顔に存在する所定の部位である顔部位を検出する顔部位検出部を、さらに備え、前記データベースが記録する前記登録者データが、前記登録者の前記顔部位を示すものであり、前記本人判定部は、前記顔部位検出部が検出した前記被認証者の前記顔部位が、前記登録者データが示す前記登録者の前記顔部位に該当するか否かに基づいて、前記被認証者が前記登録者に該当するか否かを判定すると、好ましい。   The face authentication device having the above characteristics further includes a face part detection unit that detects a face part, which is a predetermined part existing in a human face, from the image indicated by the image data, and the database records the data. The registrant data to indicate the face part of the registrant, and the identity determination unit indicates the face part of the person to be authenticated detected by the face part detection unit by the registrant data. It is preferable to determine whether or not the person to be authenticated corresponds to the registrant based on whether or not it corresponds to the face part of the registrant.

この顔認証装置によれば、顔部位という人毎に異なる特徴を比較することによって、被認証者が登録者に該当するか否かを精度良く判定することができる。   According to this face authentication device, it is possible to accurately determine whether or not the person to be authenticated corresponds to the registrant by comparing different characteristics of each person such as a face part.

さらに、上記特徴の顔認証装置において、前記露出粘膜検出部は、前記顔部位検出部が検出した前記顔部位の位置に基づいて、前記露出粘膜の出現が予測される領域である出現予測領域を設定し、設定した前記出現予測領域の中から前記露出粘膜を検出すると、好ましい。   Furthermore, in the face authentication device having the above characteristics, the exposed mucous membrane detection unit includes an appearance prediction region that is a region where the appearance of the exposed mucous membrane is predicted based on the position of the face part detected by the face part detection unit. It is preferable to set and detect the exposed mucous membrane from the set appearance prediction region.

この顔認証装置によれば、不特定の広がりを有する領域であるために網羅的な検出が困難な露出粘膜を、背景などの非顔領域から誤検出することを抑制しながら、精度良く検出することが可能になる。さらに、この顔認証装置によれば、出現予測領域という限られた領域内から露出粘膜を検出するため、露出粘膜を検出するために必要な計算量を低減して迅速に検出を行うことが可能になる。   According to this face authentication device, an exposed mucous membrane that is difficult to exhaustively detect because it is an unspecified area is accurately detected while suppressing erroneous detection from a non-face area such as a background. It becomes possible. Furthermore, according to the face authentication device, the exposed mucous membrane is detected from a limited area called the appearance prediction area, so that the calculation amount necessary for detecting the exposed mucosa can be reduced and the detection can be quickly performed. become.

さらに、上記特徴の顔認証装置において、前記露出粘膜検出部は、前記画像の赤色成分に基づいて、前記露出粘膜の検出を行うと、好ましい。   Furthermore, in the face authentication device having the above characteristics, it is preferable that the exposed mucous membrane detection unit detects the exposed mucous membrane based on a red component of the image.

この顔認証装置によれば、背景などの非顔領域の赤い部分を露出粘膜として誤検出することを防止しながら、顔の中で際立って赤い色をしている露出粘膜を検出することができる。したがって、精度良く露出粘膜を検出することが可能になる。   According to this face authentication device, it is possible to detect an exposed mucous membrane that is conspicuously red in the face while preventing erroneous detection of a red portion of a non-face area such as a background as an exposed mucosa. . Therefore, it is possible to detect the exposed mucous membrane with high accuracy.

また、上記特徴の顔認証装置において、前記顔部位検出部は、前記画像の輝度成分に基づいて、前記顔部位の検出を行うと、好ましい。   In the face authentication device having the above characteristics, it is preferable that the face part detection unit detects the face part based on a luminance component of the image.

この顔認証装置によれば、人の顔に特有の明暗パターンが存在することを利用して、精度良く顔部位を検出することが可能になる。   According to this face authentication apparatus, it is possible to detect a face part with high accuracy by utilizing the existence of a light and dark pattern peculiar to a human face.

また、上記特徴の顔認証装置において、前記データベースが記録する前記登録者データが、前記登録者の前記露出粘膜を示すものであり、前記本人判定部は、前記露出粘膜検出部が検出した前記被認証者の前記露出粘膜が、前記登録者データが示す前記登録者の前記露出粘膜に該当するか否かに基づいて、前記被認証者が前記登録者に該当するか否かを判定すると、好ましい。   In the face authentication device having the above characteristics, the registrant data recorded in the database indicates the exposed mucous membrane of the registrant, and the identity determination unit is configured to detect the subject detected by the exposed mucous membrane detection unit. Preferably, it is determined whether or not the person to be authenticated corresponds to the registrant based on whether or not the exposed mucous membrane of the certifier corresponds to the exposed mucous membrane of the registrant indicated by the registrant data. .

この顔認証装置によれば、露出粘膜という人毎に異なる特徴を比較することによって、被認証者が登録者に該当するか否かを精度良く判定することができる。また、露出粘膜に加えて顔部位の比較を行うことによって、被認証者が登録者に該当するか否かをさらに精度良く判定することが可能になる。   According to this face authentication apparatus, it is possible to accurately determine whether or not the person to be authenticated corresponds to the registrant by comparing different characteristics of the exposed mucous membrane for each person. Further, by comparing the facial region in addition to the exposed mucous membrane, it becomes possible to determine with high accuracy whether or not the person to be authenticated corresponds to the registrant.

また、上記特徴の顔認証装置において、前記データベースが記録する前記登録者データが、前記登録者毎に設定されている個人を識別するための識別コードを示すものであり、前記本人判定部は、前記被認証者が入力する前記識別コードが、前記登録者データが示す前記識別コードと一致する前記登録者を特定した上で、前記被認証者の顔の特徴と特定した前記登録者の顔の特徴とを比較すると、好ましい。   Moreover, in the face authentication device having the above characteristics, the registrant data recorded in the database indicates an identification code for identifying an individual set for each registrant, and the identity determination unit includes: The identification code input by the person to be authenticated identifies the registrant that matches the identification code indicated by the registrant data, and the facial features of the registrant who have been identified as the facial features of the person to be authenticated. It is preferable to compare the characteristics.

この顔認証装置によれば、識別コードに基づいて比較すべき登録者を予め特定することによって、本来は該当する登録者が存在しない被認証者が、偶然にいずれかの登録者に該当すると誤判定されることを防止することができる。したがって、被認証者が登録者に該当するか否かを精度良く判定することが可能になる。   According to this face authentication apparatus, by specifying in advance a registrant to be compared based on an identification code, an authenticated person who originally does not have a corresponding registrant accidentally falls into one of the registrants. It is possible to prevent the determination. Therefore, it can be accurately determined whether or not the person to be authenticated corresponds to the registrant.

また、本発明の画像処理装置は、対象者の顔を撮像して生成された画像データが示す画像の中から、人が作為的に顔の粘膜を露出させた部分である露出粘膜を検出する露出粘膜検出部と、前記画像の中から、人の顔に存在する所定の部位である顔部位を検出する顔部位検出部と、を備え、前記露出粘膜検出部は、前記顔部位検出部が検出した前記顔部位の位置に基づいて、前記露出粘膜の出現が予測される領域である出現予測領域を設定し、設定した前記出現予測領域の中から前記露出粘膜を検出することを特徴とする。   In addition, the image processing apparatus of the present invention detects an exposed mucous membrane, which is a portion where a human intentionally exposes the mucous membrane of a face, from an image indicated by image data generated by imaging a subject's face. An exposed mucous membrane detection unit; and a facial part detection unit that detects a facial part, which is a predetermined part existing on a human face, from the image, and the exposed mucous membrane detection part includes: An appearance prediction area that is an area where the appearance of the exposed mucous membrane is predicted is set based on the detected position of the face part, and the exposed mucosa is detected from the set appearance prediction area. .

この画像処理装置によれば、不特定の広がりを有する領域であるために網羅的な検出が困難な露出粘膜を、背景などの非顔領域から誤検出することを抑制しながら、精度良く検出することが可能になる。さらに、この画像処理装置によれば、出現予測領域という限られた領域内から露出粘膜を検出するため、露出粘膜を検出するために必要な計算量を低減して迅速に検出を行うことが可能になる。   According to this image processing apparatus, an exposed mucous membrane that is difficult to exhaustively detect because it is an unspecified area is detected with high accuracy while suppressing erroneous detection from a non-face area such as a background. It becomes possible. Furthermore, according to this image processing apparatus, since the exposed mucous membrane is detected from a limited area called the appearance prediction area, it is possible to reduce the amount of calculation necessary for detecting the exposed mucous membrane and perform detection quickly. become.

また、本発明の生体判定装置は、対象者の顔を撮像して生成された画像データが示す画像の中から、人が作為的に顔の粘膜を露出させた部分である露出粘膜を検出する露出粘膜検出部と、時間的に連続した撮像により生成された複数の前記画像データが示す複数の前記画像のそれぞれの中から、前記露出粘膜検出部が検出したそれぞれの前記露出粘膜について、人の生命活動に起因する画像的な変化を検出することで、前記対象者の生命活動の状態を判定する生体判定部と、を備えることを特徴とする。   In addition, the living body determination device of the present invention detects an exposed mucous membrane, which is a portion where a human has intentionally exposed the mucous membrane of the face, from an image indicated by image data generated by imaging the subject's face. For each of the exposed mucous membranes detected by the exposed mucosa detecting unit from among each of the plurality of images indicated by the exposed mucous membrane detecting unit and the plurality of image data generated by temporally continuous imaging, And a living body determination unit that determines the state of the subject's life activity by detecting an image change caused by the life activity.

この生体判定装置によれば、皮膚等の常に外界に晒されている部分と比較して表面層が薄くなっており、毛細血管及びその中を流れる血液が外部から明確に視認される露出粘膜に基づいて、対象者の生命活動の状態を精度良く判定することが可能になる。   According to this living body judgment device, the surface layer is thinner than the part that is constantly exposed to the outside such as the skin, and the capillary blood vessel and the blood flowing through it are exposed to the exposed mucous membrane clearly visible from the outside. Based on this, it becomes possible to accurately determine the state of the life activity of the subject.

上記特徴の顔認証装置では、露出粘膜に基づいて被認証者が生体か否かを判定するため、被認証者が生体か否かを精度良く判定することが可能になる。さらに、露出粘膜が現れた表情という人前では滅多にしない特殊な表情に基づいて、被認証者が登録者に該当するか否かを判定するため、盗撮に対して堅牢な顔認証装置を実現することが可能になる。   In the face authentication apparatus having the above characteristics, it is possible to accurately determine whether the person to be authenticated is a living body because the person to be authenticated is determined based on the exposed mucous membrane. Furthermore, a face recognition device that is robust against voyeurism is realized in order to determine whether or not the person to be authenticated corresponds to a registrant based on a special expression that rarely appears in the public, such as a facial expression with exposed mucous membranes. It becomes possible.

登録者データ生成装置の構成の一例について示すブロック図。The block diagram shown about an example of a structure of a registrant data production | generation apparatus. 図1の登録者データ生成装置の動作の一例を示すフローチャート。The flowchart which shows an example of operation | movement of the registrant data generation apparatus of FIG. 顔部位検出部及び露出粘膜検出部の動作の一例について示す図。The figure shown about an example of operation | movement of a face part detection part and an exposed mucous membrane detection part. 登録者データの構成の一例を示す表。The table | surface which shows an example of a structure of registrant data. 顔部位検出部及び露出粘膜検出部の動作の別例について示す図。The figure shown about another example of operation | movement of a face part detection part and an exposed mucous membrane detection part. 本発明の実施形態に係る顔認証装置の構成の一例について示すブロック図。The block diagram shown about an example of the structure of the face authentication apparatus which concerns on embodiment of this invention. 図6の顔認証装置の動作の一例を示すフローチャート。The flowchart which shows an example of operation | movement of the face authentication apparatus of FIG. 露出粘膜検出部の動作の別例を示す図。The figure which shows another example of operation | movement of an exposed mucous membrane detection part.

<登録者データ生成装置>
本発明の実施形態に係る顔認証装置について説明する前に、当該顔認証装置で使用する登録者データを生成するための登録者データ生成装置について、図面を参照して説明する。最初に、登録者データ生成装置の構成について、図面を参照して説明する。図1は、登録者データ生成装置の構成の一例について示すブロック図である。
<Registrant data generation device>
Before describing a face authentication apparatus according to an embodiment of the present invention, a registrant data generation apparatus for generating registrant data used in the face authentication apparatus will be described with reference to the drawings. First, the configuration of the registrant data generation device will be described with reference to the drawings. FIG. 1 is a block diagram illustrating an example of a configuration of a registrant data generation apparatus.

図1に示すように、登録者データ生成装置10は、識別コード取得部11と、撮像部12と、顔部位検出部13と、露出粘膜検出部14と、登録者データ生成部15と、データベース16と、を備える。   As shown in FIG. 1, the registrant data generation device 10 includes an identification code acquisition unit 11, an imaging unit 12, a face part detection unit 13, an exposed mucosa detection unit 14, a registrant data generation unit 15, and a database. 16.

識別コード取得部11は、登録者が入力する識別コードを取得して、当該識別コードを示す識別コードデータを登録者データ生成部15に与える。例えば、識別コード取得部11は、キーパッドやキーボードなとの入力装置や、接触型または非接触型のカードリーダなどの読取装置によって構成される。また、識別コードとは、登録者毎に設定されている個人を識別するための符号であり、例えば従業員IDや登録者の名前などである。   The identification code acquisition unit 11 acquires an identification code input by the registrant, and provides the registrant data generation unit 15 with identification code data indicating the identification code. For example, the identification code acquisition unit 11 includes an input device such as a keypad or a keyboard, or a reading device such as a contact type or non-contact type card reader. The identification code is a code for identifying an individual set for each registrant, such as an employee ID or the name of a registrant.

撮像部12は、登録者の顔を撮像して画像データを生成する。例えば、撮像部12は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサやCCD(Charge Coupled Device)イメージセンサなどの撮像素子を備えた撮像装置によって構成される。また、撮像部12が生成する画像データが示す画像は、RGB(赤緑青)などの色の成分を含むカラーの画像である。   The imaging unit 12 captures the registrant's face and generates image data. For example, the imaging unit 12 is configured by an imaging device including an imaging element such as a complementary metal oxide semiconductor (CMOS) image sensor or a charge coupled device (CCD) image sensor. The image indicated by the image data generated by the imaging unit 12 is a color image including color components such as RGB (red, green, and blue).

顔部位検出部13は、撮像部12が生成する画像データが示す画像の中から、人の顔に存在する所定の部位である顔部位を検出して、当該顔部位を示す顔部位データを生成する。   The face part detection unit 13 detects a face part, which is a predetermined part existing in a human face, from the image indicated by the image data generated by the imaging unit 12, and generates face part data indicating the face part. To do.

顔部位とは、目、口、鼻、耳、眉毛などの、形状や色などによって他の部分と区別され得る、顔を構成するそれぞれのパーツである。また、例えば顔部位データは、画像中のそれぞれの顔部位における、1または複数の特徴点(例えば、中心位置、左右端位置、上下端位置など)の座標を表すデータである。   A face part is each part which comprises a face which can be distinguished from other parts by shapes, colors, etc., such as eyes, mouth, nose, ears, and eyebrows. For example, the face part data is data representing the coordinates of one or a plurality of feature points (for example, the center position, the left and right end positions, the upper and lower end positions, etc.) in each face part in the image.

露出粘膜検出部14は、撮像部12が生成する画像データが示す画像の中から、人が作為的に粘膜を露出させた部分である露出粘膜を検出して、当該露出粘膜を示す露出粘膜データを生成する。   The exposed mucous membrane detection unit 14 detects an exposed mucous membrane, which is a portion where a human has intentionally exposed the mucous membrane from the image indicated by the image data generated by the imaging unit 12, and exposes the mucous membrane data indicating the exposed mucous membrane. Is generated.

露出粘膜とは、通常の状態(顔の筋肉を脱力した無表情の状態であって、手で皮膚を引っ張るなどの外部から意図的に顔の表情を変形させる行為を行っていない状態)では外界に晒されていないが、顔の筋肉を動かしたり手で皮膚を引っ張ったりするなどの作為によって外界に晒される粘膜である。例えば、露出粘膜には、目の下側(顎側)の結膜や、目の上側(頭頂側)の結膜、目蓋の裏側の結膜、舌、唇の内側(口腔側)、口腔粘膜などが含まれる。また、例えば露出粘膜データは、画像中の露出粘膜の領域の輪郭線を多角形で近似した場合における、当該多角形の各頂点の座標を表すデータである。   The exposed mucous membrane is the outside world in a normal state (a state of expressionlessness with weakened muscles of the face and no intentional deformation of the facial expression from the outside, such as pulling the skin with a hand). It is not exposed to water, but it is a mucous membrane that is exposed to the outside world by actions such as moving facial muscles or pulling skin with hands. For example, the exposed mucous membrane includes the conjunctiva on the lower side of the eye (jaw side), the conjunctiva on the upper side of the eye (the parietal side), the conjunctiva on the back side of the eyelid, the tongue, the inside of the lips (oral side), the oral mucosa, etc. . Further, for example, the exposed mucosa data is data representing the coordinates of each vertex of the polygon when the outline of the exposed mucosa region in the image is approximated by a polygon.

登録者データ生成部15は、識別コード取得部11から与えられる識別コードデータと、顔部位検出部13が生成する顔部位データと、露出粘膜検出部14が生成する露出粘膜データと、を関連付ける(紐付ける)ことで、登録者データを生成する。   The registrant data generation unit 15 associates the identification code data given from the identification code acquisition unit 11, the facial part data generated by the facial part detection unit 13, and the exposed mucous membrane data generated by the exposed mucous membrane detection unit 14 ( Registrant data is generated.

顔部位検出部13、露出粘膜検出部14及び登録者データ生成部15は、各種データの処理を行う部分であり、全体として1または複数の演算装置及び記憶装置によって実現することができる。なお、演算装置として、例えばCPU(Central Processing Unit)やGPU(Graphic Processing Unit)を用いてもよい。また、記憶装置として、例えばRAM(Random Access Memory)を用いてもよい。   The face part detection unit 13, the exposed mucous membrane detection unit 14, and the registrant data generation unit 15 are units for processing various data, and can be realized by one or a plurality of arithmetic devices and storage devices as a whole. For example, a CPU (Central Processing Unit) or a GPU (Graphic Processing Unit) may be used as the arithmetic device. Further, for example, a RAM (Random Access Memory) may be used as the storage device.

データベース16は、登録者データが生成する登録者データを記録する。例えば、データベース16は、ハードディスクやフラッシュメモリなどの不揮発性の記録装置によって構成される。   The database 16 records registrant data generated by the registrant data. For example, the database 16 is configured by a non-volatile recording device such as a hard disk or a flash memory.

次に、登録者データ生成装置10の動作について、図面を参照して説明する。図2は、図1の登録者データ生成装置の動作の一例を示すフローチャートである。図3は、顔部位検出部及び露出粘膜検出部の具体的な動作について説明する図である。なお、図3(a)は、撮像部が生成する画像データが示す画像に含まれる顔の具体例を模式的に示した図である。また、図3(b)は、図3(a)に示す顔を含む画像の中から顔部位を検出する場合の顔部位検出部の動作の具体例について模式的に示した図である。また、図3(c)及び図3(d)は、図3(a)に示す顔を含む画像の中から露出粘膜を検出する場合の露出粘膜検出部の動作の具体例について模式的に示した図である。   Next, the operation of the registrant data generation device 10 will be described with reference to the drawings. FIG. 2 is a flowchart showing an example of the operation of the registrant data generation apparatus of FIG. FIG. 3 is a diagram illustrating specific operations of the face part detection unit and the exposed mucous membrane detection unit. FIG. 3A is a diagram schematically illustrating a specific example of a face included in an image indicated by image data generated by the imaging unit. FIG. 3B is a diagram schematically showing a specific example of the operation of the face part detection unit in the case of detecting a face part from the image including the face shown in FIG. 3 (c) and 3 (d) schematically show specific examples of the operation of the exposed mucosa detection unit when the exposed mucosa is detected from the image including the face shown in FIG. 3 (a). It is a figure.

図2に示すように、最初に、識別コード取得部11が、登録者の識別コードを取得して、当該識別コードを示す識別コードデータを登録者データ生成部15に与える(ステップ#10)。このとき、登録者は、識別コード取得部11に対して所定の操作(例えば、キーパッドを打つ、カードリーダに従業員カードをかざして読み取らせるなど)を行うことで、識別コード取得部11に識別コードを入力する。   As shown in FIG. 2, first, the identification code acquisition unit 11 acquires the registrant's identification code, and provides the registrant data generation unit 15 with identification code data indicating the identification code (step # 10). At this time, the registrant performs a predetermined operation on the identification code acquisition unit 11 (for example, hitting the keypad, holding the employee card over the card reader, etc.), thereby causing the identification code acquisition unit 11 to Enter the identification code.

次に、撮像部12が、登録者の顔を撮像して画像データを生成する(ステップ#11)。このとき、登録者は、撮像部12に撮像される際に、意図的に露出粘膜が現れた表情を作る。   Next, the imaging unit 12 captures the registrant's face and generates image data (step # 11). At this time, the registrant creates an expression in which the exposed mucous membrane intentionally appears when the image is captured by the imaging unit 12.

例えば、図3(a)に示すように、登録者は、右目の下側の皮膚を右手の指で下側に引っ張ることで右目の下側の結膜を露出させるとともに、口の周囲の筋肉及び舌の筋肉を使って舌の上面を露出させる(いわゆる「あっかんべ」をする)。   For example, as shown in FIG. 3 (a), the registrant exposes the lower conjunctiva of the right eye by pulling the lower skin of the right eye with the finger of the right hand, and the muscles and tongue around the mouth. Expose the upper surface of the tongue using muscles (so-called “glance”).

次に、顔部位検出部13が、撮像部12が生成した画像データが示す画像の中から、顔部位を検出する(ステップ#12)。さらに、顔部位検出部13は、検出した顔部位を示す顔部位データを生成する。   Next, the face part detection unit 13 detects a face part from the image indicated by the image data generated by the imaging unit 12 (step # 12). Furthermore, the face part detection unit 13 generates face part data indicating the detected face part.

人の顔には、顔部位の凹凸に起因した明暗(鼻などの周囲より凸となる部分が明るくなり、眼窩などの周囲より凹となる部分が暗くなる)や、顔部位の色の違いに起因した明暗(白目などの周囲よりも白い部分が明るくなり、虹彩及び瞳孔や眉などの周囲よりも黒い部分が暗くなる)などの、特有の明暗パターンが存在する。そこで、顔部位検出部13は、画像を構成する各画素の輝度成分を取得し(例えば、撮像部12が生成したカラーの画像データを、各画素を輝度成分で表したグレースケールの画像に変換し)、上記の特有の明暗パターンを当該輝度成分の分布に当てはめることによって、当該画像データが示す画像の中から、背景の領域と区別して顔の領域を検出するとともに、当該顔の領域の中から顔部位を検出する。   The human face has lightness and darkness due to the unevenness of the facial part (the part that is convex from the periphery of the nose becomes brighter and the part that is concave from the periphery of the eye socket becomes darker) and the color of the facial part There are distinctive light and dark patterns, such as the resulting light and dark (white areas are brighter than the surroundings such as white eyes, and black parts are darker than the surroundings such as the iris and pupil and eyebrows). Therefore, the face part detection unit 13 acquires the luminance component of each pixel constituting the image (for example, converts the color image data generated by the imaging unit 12 into a grayscale image in which each pixel is represented by the luminance component). In addition, by applying the above-described unique light / dark pattern to the distribution of the luminance component, the face area is detected from the image indicated by the image data in distinction from the background area. To detect the face part.

例えば、図3(b)に示すように、顔部位検出部13は、図3(a)に示す顔を含む画像の中から、左右の目(瞳孔または中心位置)EL,ERと、左右の口角ML,MRと、のそれぞれを検出する。なお、図3(b)及び図3(c)では、図示の都合上、左右の口角ML,MRについては黒塗りの矩形で表しており、左右の目EL,ERについては白塗りの矩形で表している。また、ここでは説明を簡略化するために、左右の目EL,ERのそれぞれにおける1つの特徴点(瞳孔または中心位置)と、口における2つの特徴点(左右端位置)と、の合計4つの特徴点のみ例示しているが、実際の処理では5以上の多くの特徴点を検出することも可能である。特に、顔認証を高精度に行うためには、多数の顔部位について多数の特徴点を検出すると、好ましい。   For example, as shown in FIG. 3B, the face part detection unit 13 selects the left and right eyes (pupil or center position) EL and ER and the left and right eyes from the image including the face shown in FIG. Each of mouth angles ML and MR is detected. In FIGS. 3B and 3C, for convenience of illustration, the left and right mouth corners ML and MR are represented by black rectangles, and the left and right eyes EL and ER are represented by white rectangles. Represents. Further, here, in order to simplify the description, a total of four feature points, that is, one feature point (pupil or center position) in each of the left and right eyes EL and ER and two feature points (left and right end positions) in the mouth. Although only feature points are illustrated, many feature points of 5 or more can be detected in actual processing. In particular, in order to perform face authentication with high accuracy, it is preferable to detect a large number of feature points for a large number of face parts.

また、このとき顔部位検出部13が生成する顔部位データは、上記のそれぞれの特徴点の座標を示すデータである。例えば、顔部位データは、画像の左下隅などの特定の位置の座標を基準座標(0,0)として、それぞれの特徴点の位置を座標(x,y)で表したデータであってもよい。また例えば、顔部位データは、左目の中心位置などの特定の特徴点の座標を基準座標(0,0)として、それぞれの特徴点の位置を座標(x,y)で表したデータであってもよい。   Further, the face part data generated by the face part detection unit 13 at this time is data indicating the coordinates of the respective feature points. For example, the face part data may be data in which the coordinates of a specific position such as the lower left corner of the image are set as the reference coordinates (0, 0) and the positions of the respective feature points are represented by the coordinates (x, y). . Further, for example, the facial part data is data in which the coordinates of specific feature points such as the center position of the left eye are set as reference coordinates (0, 0), and the positions of the respective feature points are represented by coordinates (x, y). Also good.

ところで、図3(a)に示す例のように、右手で右目の下側の皮膚を下側に引っ張ると、右手が顔と重なってしまう。しかし、この右手は、特徴が少ない頬と重なっているだけであり、目、鼻、口などの特徴が豊富な部位とは重ならない。そのため、図3(b)に示すように、顔部位検出部13は、目、鼻、口などの部位を手掛かりとして、顔及び顔部位を検出することができる。   By the way, as in the example shown in FIG. 3A, when the skin under the right eye is pulled downward with the right hand, the right hand overlaps the face. However, this right hand only overlaps the cheek with few features, and does not overlap with a region rich in features such as eyes, nose and mouth. Therefore, as shown in FIG. 3B, the face part detection unit 13 can detect the face and the face part by using parts such as eyes, nose and mouth.

次に、露出粘膜検出部14が、撮像部12が生成した画像データが示す画像の中から、露出粘膜を検出する(ステップ#13)。さらに、露出粘膜検出部14は、検出した露出粘膜を示す露出粘膜データを生成する。   Next, the exposed mucosa detection unit 14 detects the exposed mucous membrane from the image indicated by the image data generated by the imaging unit 12 (step # 13). Further, the exposed mucosa detection unit 14 generates exposed mucosa data indicating the detected exposed mucosa.

露出粘膜は、皮膚等の常に外界に晒されている部分と比較して表面層が薄くなっており、毛細血管及びその中を流れる血液が外部から明確に視認される。換言すると、露出粘膜は、顔の中で際立って赤い色をしている部分と言える。そこで、露出粘膜検出部14は、撮像部12が生成した画像データが示す画像の中から、画像の赤色成分が大きい領域(例えば、赤色成分が所定の閾値以上となる領域)を検出することによって、露出粘膜を検出する。   The exposed mucous membrane has a thin surface layer as compared with a part that is constantly exposed to the outside, such as the skin, and the capillaries and the blood flowing therethrough are clearly visible from the outside. In other words, it can be said that the exposed mucous membrane is a portion of the face that is markedly red. Therefore, the exposed mucous membrane detection unit 14 detects, from the image indicated by the image data generated by the imaging unit 12, a region where the red component of the image is large (for example, a region where the red component is greater than or equal to a predetermined threshold). Detecting exposed mucous membranes.

さらに、人の顔の構造上、露出粘膜は、目及び口などの特定の顔部位に隣接した位置に出現する。そこで、露出粘膜検出部14は、顔部位検出部13が生成する顔部位データが示す顔部位の位置に基づいて、露出粘膜の検出を行う。具体的に、露出粘膜検出部14は、顔部位の位置に基づいて、露出粘膜の出現が予測される領域である出現予測領域を設定し、当該出現予測領域の中から露出粘膜を検出する。   Further, due to the structure of the human face, the exposed mucous membrane appears at a position adjacent to a specific face part such as the eyes and mouth. Therefore, the exposed mucous membrane detection unit 14 detects the exposed mucous membrane based on the position of the facial part indicated by the facial part data generated by the facial part detection unit 13. Specifically, the exposed mucous membrane detection unit 14 sets an appearance prediction area that is an area where the appearance of the exposed mucosa is predicted based on the position of the facial part, and detects the exposed mucosa from the appearance prediction area.

具体的に例えば、図3(c)に示すように、露出粘膜検出部14は、左右の目EL,ERを結ぶ直線に対して垂直であり、かつ、左目EL及び右目ERのそれぞれから左右の口角ML,MRを結んだ直線MLRまで伸びる線分SL,SRを規定する。ここで、線分SLは、左目ELから直線MLRまで伸びる線分であり、線分SRは、右目ERから直線MLRまで伸びる線分である。   Specifically, for example, as shown in FIG. 3C, the exposed mucosa detection unit 14 is perpendicular to a straight line connecting the left and right eyes EL and ER, and the left and right eyes ER Line segments SL and SR extending to a straight line MLR connecting the corner angles ML and MR are defined. Here, the line segment SL is a line segment extending from the left eye EL to the straight line MLR, and the line segment SR is a line segment extending from the right eye ER to the straight line MLR.

次に、露出粘膜検出部14は、線分SL,SRについて、画像の赤色成分が閾値以上となる部分を検出する。図3(c)に示す例の場合、線分SRの右目ERに近い部分(線分SRと右目ERの下側の結膜CRとが重なる部分)が、画像の赤色成分が閾値以上であるとして露出粘膜検出部14に検出される。   Next, the exposed mucous membrane detection unit 14 detects a portion where the red component of the image is equal to or greater than a threshold value for the line segments SL and SR. In the case of the example shown in FIG. 3C, it is assumed that the portion of the line segment SR close to the right eye ER (the portion where the line segment SR overlaps the conjunctiva CR below the right eye ER) has a red component equal to or greater than the threshold value. It is detected by the exposed mucosa detection unit 14.

次に、露出粘膜検出部14は、線分SRにおける画像の赤色成分が閾値以上となる部分の周囲に出現予測領域PRを設定する。このとき、露出粘膜検出部14が設定する出現予測領域PRの大きさを、事前に决定しておいた固定の大きさとしてもよいし、目の位置や大きさ、顔の大きさ、線分SRにおける画像の赤色成分が閾値以上となる部分の長さなどに応じた可変の大きさとしてもよい。   Next, the exposed mucous membrane detection unit 14 sets the appearance prediction region PR around the portion where the red component of the image in the line segment SR is equal to or greater than the threshold value. At this time, the size of the appearance prediction region PR set by the exposed mucous membrane detection unit 14 may be a fixed size determined in advance, or the position and size of the eyes, the size of the face, and the line segment. The size may be variable according to the length of the portion where the red component of the image in SR is equal to or greater than the threshold.

そして、露出粘膜検出部14は、設定した出現予測領域PRの中で画像の赤色成分が閾値以上となる領域を露出粘膜として検出する。図3(c)に示す例の場合、右目ERの下側の結膜CRが、露出粘膜として検出される。なお、登録者が、右目ERの下側の結膜CRに代えて(または加えて)、左目ELの下側の結膜CLを露出させた場合、図3(c)に示した右目ERの下側の結膜CRを露出した場合と同様に、左目ELの周囲に出現予測領域が設定されて、左目ELの下側の結膜の全体が露出粘膜として検出される。   Then, the exposed mucous membrane detection unit 14 detects, as the exposed mucous membrane, a region in which the red component of the image is equal to or greater than the threshold in the set appearance prediction region PR. In the example shown in FIG. 3C, the conjunctival CR below the right eye ER is detected as an exposed mucosa. When the registrant exposes the lower conjunctiva CL of the left eye EL instead of (or in addition to) the lower conjunctiva CR of the right eye ER, the lower side of the right eye ER shown in FIG. Similar to the case where the conjunctival CR is exposed, an appearance prediction region is set around the left eye EL, and the entire conjunctiva below the left eye EL is detected as an exposed mucosa.

また例えば、図3(d)に示すように、露出粘膜検出部14は、図3(c)に示した線分SL,SRの始点を左右の目EL,ERから左右の口角ML,MRに平行移動させて得られる線分TL,TRと、左右の口角ML,MRを結ぶ線分と、線分TL,TRの終点を結ぶ線分と、によって囲まれる矩形の領域を、出現予測領域Qとして設定する。そして、露出粘膜検出部14は、設定した出現予測領域Qの中で画像の赤色成分が閾値以上となる領域を露出粘膜として検出する。図3(d)に示す例の場合、舌Uが露出粘膜として検出される。   Further, for example, as shown in FIG. 3D, the exposed mucosa detection unit 14 sets the start points of the line segments SL and SR shown in FIG. 3C from the left and right eyes EL and ER to the left and right mouth corners ML and MR. A rectangular region surrounded by the line segments TL and TR obtained by translation, the line segments connecting the left and right mouth angles ML and MR, and the line segments connecting the end points of the line segments TL and TR is defined as an appearance prediction region Q. Set as. Then, the exposed mucous membrane detection unit 14 detects, as the exposed mucous membrane, a region in the set appearance prediction region Q where the red component of the image is equal to or greater than a threshold value. In the example shown in FIG. 3D, the tongue U is detected as an exposed mucosa.

また、このとき露出粘膜検出部14が生成する露出粘膜データは、上記のそれぞれの露出粘膜の領域の座標を示すデータである。例えば、露出粘膜データは、出現予測領域を設定した顔部位における特定の特徴点の座標を基準座標(0,0)として、当該出現予測領域内から検出された露出粘膜の領域の輪郭線を多角形で近似した場合における、当該多角形の各頂点の位置を座標(x,y)で表したデータであってもよい。具体的に例えば、図3(c)に示す右目ERの下側の結膜CRは、露出粘膜データにおいて、右目(瞳孔または中心位置)ERの座標を基準座標(0,0)とした、領域の位置の座標として規定される。また例えば、図3(d)に示す舌Uの領域は、露出粘膜データにおいて、左右の口角ML,MRの中心である口角中心MCの座標を基準座標(0,0)とした、領域の位置の座標として規定される。   In addition, the exposed mucosa data generated by the exposed mucosa detection unit 14 at this time is data indicating the coordinates of the respective exposed mucosa regions. For example, the exposed mucous membrane data includes a plurality of contour lines of the exposed mucosa area detected from the appearance prediction area with the coordinates of a specific feature point in the face part where the appearance prediction area is set as reference coordinates (0, 0). Data that represents the position of each vertex of the polygon in coordinates (x, y) when approximated by a square may be used. Specifically, for example, the conjunctival CR below the right eye ER shown in FIG. 3C is an area of the exposed mucosa data with the coordinates of the right eye (pupil or center position) ER as reference coordinates (0, 0). Defined as position coordinates. Further, for example, the region of the tongue U shown in FIG. 3D is the position of the region in the exposed mucous membrane data where the coordinates of the mouth corner center MC, which is the center of the left and right mouth angles ML, MR, are used as the reference coordinates (0, 0). Is defined as the coordinates of

ところで、露出粘膜データも、顔部位データと同様に、画像の左下隅などの特定の位置の座標を基準座標(0,0)として規定することが可能である。ただし、露出粘膜データについては、顔部位における特定の特徴点の座標を基準座標(0,0)として規定すると、後述する顔認証装置における処理において登録者の露出粘膜の位置を迅速かつ精度良く特定することができるため、好ましい。   By the way, the exposed mucous membrane data can also define the coordinates of a specific position such as the lower left corner of the image as the reference coordinates (0, 0), similarly to the facial part data. However, with regard to the exposed mucosa data, if the coordinates of a specific feature point in the face part are defined as the reference coordinates (0, 0), the position of the registrant's exposed mucous membrane can be quickly and accurately specified in the processing in the face authentication device described later. This is preferable.

次に、登録者データ生成部15が、識別コード取得部11が生成した識別コードデータと、顔部位検出部13が生成した顔部位データと、露出粘膜検出部14が生成した露出粘膜データと、を関連付けて(紐付けて)登録者データを生成する(ステップ#14)。   Next, the registrant data generation unit 15 includes the identification code data generated by the identification code acquisition unit 11, the facial part data generated by the face part detection unit 13, the exposed mucous membrane data generated by the exposed mucous membrane detection part 14, Are associated (linked) to generate registrant data (step # 14).

登録者データ生成部15が生成する登録者データの具体例について、図面を参照して説明する。図4は、登録者データの構成の一例を示す表である。なお、図4に示す登録者データは、1人の登録者についての登録者データの構成例を示したものである。   A specific example of the registrant data generated by the registrant data generation unit 15 will be described with reference to the drawings. FIG. 4 is a table showing an example of the configuration of registrant data. Note that the registrant data shown in FIG. 4 is a configuration example of the registrant data for one registrant.

図4に示すように、登録者データには、登録者の識別コードを示す識別コードデータと、当該登録者の顔部位の位置を示す顔部位データと、当該登録者の露出粘膜の位置を示す露出粘膜データと、が含まれる。上述の通り、例えば顔部位データは、画像中における顔部位の特徴点の位置(絶対位置)を表すデータである。また、例えば露出粘膜データは、顔部位の特定の特徴点の座標を基準とした露出粘膜の領域の位置(相対位置)を表すデータである。   As shown in FIG. 4, the registrant data indicates identification code data indicating the registrant's identification code, face part data indicating the position of the registrant's face part, and the position of the exposed mucous membrane of the registrant. And exposed mucosa data. As described above, for example, the facial part data is data representing the position (absolute position) of the feature point of the facial part in the image. Further, for example, the exposed mucous membrane data is data representing the position (relative position) of the exposed mucous membrane region based on the coordinates of a specific feature point of the facial part.

そして、登録者データ生成部15が生成した登録者データを、データベース16が記録して(ステップ#15)、登録者データ生成装置10の動作が終了する。   Then, the registrant data generated by the registrant data generation unit 15 is recorded in the database 16 (step # 15), and the operation of the registrant data generation apparatus 10 ends.

なお、図2に示した動作例では、識別コードの取得(ステップ#10)が最初に行われているが、ステップ#14よりも前であればどのタイミングで行ってもよい。   In the operation example shown in FIG. 2, acquisition of the identification code (step # 10) is performed first, but it may be performed at any timing as long as it is before step # 14.

また、図2は、登録者データ生成装置10の基本的な動作を例示したものに過ぎない。そのため、顔認証に適した登録者データを得るなどの観点から、様々な変形を加えてもよい。   FIG. 2 only illustrates the basic operation of the registrant data generation apparatus 10. Therefore, various modifications may be made from the viewpoint of obtaining registrant data suitable for face authentication.

例えば、顔部位検出部13において、正面を向いた十分な大きさの顔が所定時間以上継続して検出されるまで、露出粘膜検出部14における露出粘膜の検出や登録者データ生成部15における登録者データの生成を待機してもよい。登録者が正面を向いているか否かについては、顔及び顔部位の検出時におけるスコア(正面顔用の明暗パターンがマッチングする程度を示す値)に基づいて判定することが可能である。さらに、露出粘膜検出部14において、十分な大きさの露出粘膜が所定時間以上継続して検出されるまで、登録者データ生成部15における登録者データの生成を待機してもよい。   For example, the face part detection unit 13 detects the exposed mucous membrane in the exposed mucosa detection unit 14 or registers in the registrant data generation unit 15 until a sufficiently large face facing the front is continuously detected for a predetermined time or more. You may wait for generation of person data. Whether or not the registrant is facing the front can be determined based on the score at the time of detection of the face and the facial part (a value indicating the degree to which the contrast pattern for the front face matches). Further, generation of registrant data in the registrant data generation unit 15 may be waited until the exposed mucous membrane detection unit 14 continuously detects a sufficiently large exposed mucous membrane for a predetermined time or more.

この場合、撮像部12は、連続的に複数の画像データを生成することになる。また、顔部位検出部13及び露出粘膜検出部14は、撮像部12が生成する複数の画像データが示す複数の画像のそれぞれについて、顔部位及び露出粘膜の検出を行うことになる。   In this case, the imaging unit 12 continuously generates a plurality of image data. Further, the face part detection unit 13 and the exposed mucous membrane detection part 14 detect the face part and the exposed mucous membrane for each of the plurality of images indicated by the plurality of image data generated by the imaging unit 12.

また、図3では、正面を向きかつ顔の中心線(左右の目の中間点及び口角中心を通る直線)と画像の縦軸(図中の上下方向)とが平行になっている場合について例示したが、図5に示すように、正面を向いているが顔の中心線と画像の縦軸とが平行ではない場合(即ち、ヨー方向及びピッチ方向には回転していないがロール方向に回転している場合)でも、図3と同様に登録者データを生成することが可能である。ここで、図5は、顔部位検出部及び露出粘膜検出部の動作の別例について示す図であり、図3における顔が傾いた場合(具体的には、左目EL及び右目ERが水平方向に沿って並ぶ状態から、左目ELが下がるとともに右目ERが上がるように首を傾げた場合)を示すものである。   In addition, FIG. 3 illustrates a case where the front is faced and the center line of the face (a straight line passing through the middle point of the left and right eyes and the center of the mouth corner) and the vertical axis of the image (vertical direction in the figure) are parallel. However, as shown in FIG. 5, the face center line and the vertical axis of the image are not parallel (that is, the face does not rotate in the yaw direction and pitch direction but rotates in the roll direction). However, it is possible to generate registrant data as in FIG. Here, FIG. 5 is a diagram showing another example of the operation of the face part detection unit and the exposed mucosa detection unit. When the face in FIG. 3 is tilted (specifically, the left eye EL and the right eye ER are in the horizontal direction). When the neck is tilted so that the left eye EL is lowered and the right eye ER is raised from the state of being lined up along.

図3を参照して説明したように、顔部位検出部13は、画像の輝度成分の分布に対して、人の顔における特有の明暗パターンを当てはめることで、顔部位を検出する。そのため、画像の縦軸や横軸の方向とは無関係に、画像の中から登録者の顔を検出することができる。同様に、露出粘膜検出部14は、顔部位の位置関係(上述の例では目と口の位置関係)に基づいて出現予測領域を設定し、当該出現予測領域の中から露出粘膜を検出する。そのため、画像の縦軸や横軸の方向とは無関係に、露出粘膜を検出することができる。したがって、図5に示すように、画像中で登録者の顔が傾いたとしても、登録者データを生成することが可能である。   As described with reference to FIG. 3, the face part detection unit 13 detects a face part by applying a specific light / dark pattern in a human face to the luminance component distribution of the image. Therefore, the face of the registrant can be detected from the image regardless of the direction of the vertical axis or horizontal axis of the image. Similarly, the exposed mucous membrane detection unit 14 sets an appearance prediction region based on the positional relationship between the facial parts (in the above example, the positional relationship between the eyes and the mouth), and detects the exposed mucous membrane from the appearance prediction region. Therefore, the exposed mucous membrane can be detected regardless of the direction of the vertical axis or horizontal axis of the image. Therefore, as shown in FIG. 5, even if the registrant's face is tilted in the image, registrant data can be generated.

<顔認証装置>
次に、本発明の実施形態に係る顔認証装置について、図面を参照して説明する。最初に、顔認証装置の構成について、図面を参照して説明する。図6は、顔認証装置の構成の一例について示すブロック図である。
<Face recognition device>
Next, a face authentication apparatus according to an embodiment of the present invention will be described with reference to the drawings. First, the configuration of the face authentication device will be described with reference to the drawings. FIG. 6 is a block diagram illustrating an example of the configuration of the face authentication apparatus.

図6に示すように、顔認証装置20は、識別コード取得部21と、撮像部22と、顔部位検出部23と、露出粘膜検出部24と、生体判定部25と、データベース26と、本人判定部27と、認証決定部28と、を備える。   As shown in FIG. 6, the face authentication device 20 includes an identification code acquisition unit 21, an imaging unit 22, a face part detection unit 23, an exposed mucosa detection unit 24, a living body determination unit 25, a database 26, and the person himself / herself. The determination part 27 and the authentication determination part 28 are provided.

識別コード取得部21は、登録者データ生成装置10における識別コード取得部11と同様に、キーパッドやキーボードなとの入力装置や、接触型または非接触型のカードリーダなどの読取装置によって構成される。ただし、識別コード取得部21は、被認証者によって操作され、被認証者の識別コードを取得するとともに、被認証者の識別コードを示す識別コードデータを本人判定部27に与える。   Similar to the identification code acquisition unit 11 in the registrant data generation device 10, the identification code acquisition unit 21 is configured by an input device such as a keypad or a keyboard, or a reading device such as a contact type or non-contact type card reader. The However, the identification code acquisition unit 21 is operated by the person to be authenticated, acquires the identification code of the person to be authenticated, and gives identification code data indicating the identification code of the person to be authenticated to the person determination unit 27.

撮像部22は、登録者データ生成装置10における撮像部22と同様に、CMOSイメージセンサやCCDイメージセンサなどの撮像素子を備えた撮像装置によって構成され、RGBなどの色の成分を含むカラーの画像を生成する。ただし、撮像部22は、被認証者に対して、時間的に連続した撮像(動画撮像)を行う。   Similar to the imaging unit 22 in the registrant data generation device 10, the imaging unit 22 is configured by an imaging device including an imaging element such as a CMOS image sensor or a CCD image sensor, and is a color image including color components such as RGB. Is generated. However, the imaging unit 22 performs temporally continuous imaging (moving image imaging) on the person to be authenticated.

顔部位検出部23は、登録者データ生成装置10における顔部位検出部23と同様に、撮像部22が生成する画像データが示す画像の中から顔部位を検出して、当該顔部位を示す顔部位データを生成する。ただし、顔部位検出部23は、撮像部22が時間的に連続した撮像によって生成する複数の画像データが示す複数の画像のそれぞれについて、顔部位を検出する。   Similar to the face part detection unit 23 in the registrant data generation device 10, the face part detection unit 23 detects a face part from the image indicated by the image data generated by the imaging unit 22, and indicates the face part. Generate site data. However, the face part detection unit 23 detects a face part for each of a plurality of images indicated by a plurality of image data generated by the imaging unit 22 by temporally continuous imaging.

露出粘膜検出部24は、登録者データ生成装置10における露出粘膜検出部24と同様に、撮像部22が生成する画像データが示す画像の中から露出粘膜を検出して、当該露出粘膜を示す露出粘膜データを生成する。ただし、露出粘膜検出部24は、撮像部22が時間的に連続した撮像によって生成する複数の画像データが示す複数の画像のそれぞれについて、露出粘膜を検出する。また、露出粘膜検出部24が生成する露出粘膜データは、顔部位データと同じ基準座標(0,0)を用いた、露出粘膜の領域の位置(画像中の絶対位置)の座標を規定したデータである。   Similar to the exposed mucosa detection unit 24 in the registrant data generation apparatus 10, the exposed mucosa detection unit 24 detects the exposed mucous membrane from the image indicated by the image data generated by the imaging unit 22, and exposes the exposed mucous membrane. Generate mucosal data. However, the exposed mucosa detection unit 24 detects the exposed mucous membrane for each of a plurality of images indicated by a plurality of image data generated by the imaging unit 22 by temporally continuous imaging. The exposed mucosa data generated by the exposed mucosa detection unit 24 is data that defines the coordinates of the position of the exposed mucosa area (absolute position in the image) using the same reference coordinates (0, 0) as the face part data. It is.

生体判定部25は、撮像部22が時間的に連続した撮像によって生成した複数の画像データと、これらの複数の画像データが示す複数の画像のそれぞれの中から露出粘膜検出部24が検出した露出粘膜の領域の位置を示す露出粘膜データと、に基づいて、これらの複数の画像のそれぞれの中の露出粘膜を表す領域を特定する。さらに、生体判定部25は、特定した露出粘膜を表す領域について、人の生命活動に起因する画像的な変化の有無を検出することで、被認証者が生体であるか否かを判定し、その判定結果を示す生体判定結果データを生成する。   The biometric determination unit 25 detects the exposure detected by the exposed mucosa detection unit 24 from each of a plurality of image data generated by the imaging unit 22 by temporally continuous imaging and a plurality of images indicated by the plurality of image data. Based on the exposed mucosa data indicating the position of the mucosal region, an area representing the exposed mucosa in each of the plurality of images is specified. Furthermore, the biometric determination unit 25 determines whether or not the person to be authenticated is a living body by detecting the presence or absence of an image change caused by a human life activity for the area representing the specified exposed mucous membrane, Biological determination result data indicating the determination result is generated.

上述のように、露出粘膜は、毛細血管及びその中を流れる血液が外部から明確に視認されるために、顔の中で際立って赤い色をしている部分となっている。そのため、被認証者が生体であれば、毛細血管の中を流れる血液の心拍に応じた拍動が、画像の赤色成分の変動となって表れる。そこで、生体判定部25は、画像中から露出粘膜の拍動が検出されれば、被認証者を生体であると判定する。具体的に例えば、生体判定部25は、人の平均的な心拍数である60回/分以上90回/分以下程度(換算すると1Hz以上1.5Hz以下程度)で、少なくとも1つの露出粘膜における赤色成分が変動していれば、被認証者を生体であると判定する。   As described above, the exposed mucous membrane is a portion that is conspicuously red in the face because the capillaries and the blood flowing therethrough are clearly visible from the outside. Therefore, if the person to be authenticated is a living body, the pulsation corresponding to the heartbeat of the blood flowing in the capillary blood vessel appears as a change in the red component of the image. Therefore, if the pulsation of the exposed mucous membrane is detected from the image, the living body determination unit 25 determines that the person to be authenticated is a living body. Specifically, for example, the living body determination unit 25 has a human average heart rate of about 60 to 90 times / minute (in terms of conversion, about 1 Hz to 1.5 Hz or less), and at least one exposed mucous membrane. If the red component changes, it is determined that the person to be authenticated is a living body.

この場合、拍動は1秒間に1回程度になる。そのため、被認証者が生体であるか否かを精度良く判定するため観点から、生体判定部25が、連続して数秒以上撮像した画像データを取得するように構成すると、好ましい。具体的に例えば、撮像部22のフレームレートが30fpsの場合、生体判定部25が、300フレーム程度(撮像時間にして10秒程度)の画像データを取得するように構成すると、好ましい。   In this case, the pulsation is about once per second. Therefore, from the viewpoint of accurately determining whether or not the person to be authenticated is a living body, it is preferable that the living body determination unit 25 is configured to acquire image data continuously captured for several seconds or more. Specifically, for example, when the frame rate of the imaging unit 22 is 30 fps, the biometric determination unit 25 is preferably configured to acquire image data of about 300 frames (imaging time of about 10 seconds).

データベース26は、登録者データ生成装置10におけるデータベース16と同様に、ハードディスクやフラッシュメモリなどの不揮発性の記録装置によって構成され、登録者データ生成装置10が生成する登録者データを記録している。なお、顔認証装置20が備えるデータベース26と、登録者データ生成装置10が備えるデータベース16と、は同一の記録装置によって構成されていてもよい。   Similar to the database 16 in the registrant data generation device 10, the database 26 is configured by a non-volatile recording device such as a hard disk or a flash memory, and records registrant data generated by the registrant data generation device 10. Note that the database 26 included in the face authentication device 20 and the database 16 included in the registrant data generation device 10 may be configured by the same recording device.

本人判定部27は、まず、識別コード取得部21から与えられる識別コードデータが示す被認証者の識別コードに基づいて、当該被認証者に対応する登録者を特定し、当該登録者の登録者データをデータベース26から読み出す。具体的に、本人判定部27は、データベース26に記録されている登録者データの中で、被認証者の識別コードと一致する登録者の識別コードを示す識別コードデータが関連付けられている登録者データ(特に、顔部位データ及び露出粘膜データ)を、選択的に読み出す。   The identity determination unit 27 first identifies a registrant corresponding to the authenticated person based on the identification code of the authenticated person indicated by the identification code data given from the identification code acquisition unit 21, and the registrant of the registrant. Data is read from the database 26. Specifically, the identity determination unit 27 includes the registrant associated with the identification code data indicating the identification code of the registrant that matches the identification code of the person to be authenticated among the registrant data recorded in the database 26. Data (especially face part data and exposed mucosa data) is selectively read out.

次に、本人判定部27は、顔部位検出部23が生成した顔部位データが示す被認証者の顔部位が、データベース26から読み出した登録者データに含まれる顔部位データが示す登録者の顔部位に該当するか否かを判定する。   Next, the person determination unit 27 determines that the face part of the person to be authenticated indicated by the face part data generated by the face part detection unit 23 is the face of the registrant indicated by the face part data included in the registrant data read from the database 26. It is judged whether it corresponds to a region.

例えばこのとき、本人判定部27は、顔部位検出部23が生成した顔部位データが示す被認証者の顔部位の特徴点の座標相互位置関係(各特徴点の座標の相互の位置関係)と、データベース26から読み出した登録者データに含まれる顔部位データが示す登録者の顔部位の特徴点の座標相互位置関係と、を比較して、所定の程度以上合致すれば、被認証者の顔部位が登録者の顔部位に該当すると判定する。   For example, at this time, the person determination unit 27 determines the coordinate mutual positional relationship (the mutual positional relationship between the coordinates of each feature point) of the feature points of the face portion of the person to be authenticated indicated by the face portion data generated by the face portion detection unit 23. The coordinate mutual positional relationship of the feature points of the registrant's face part indicated by the face part data included in the registrant data read from the database 26 is compared, and if it matches a predetermined degree or more, the face of the person to be authenticated It is determined that the part corresponds to the registrant's face part.

さらにこのとき、本人判定部27が、画像中における登録者及び被認証者の顔のロール方向におけるズレを解消するために、被認証者及び登録者の顔部位の特徴点の座標相互位置関係に対する回転を許容した上で、両者の比較を行ってもよい。また、本人判定部27が、画像中における登録者及び被認証者の顔の大きさのズレ(撮像部12に対する登録者の距離と撮像部22に対する被認証者の距離との差に起因するズレ)を解消するために、被認証者及び登録者の顔部位の特徴点の座標相互位置関係に対する相似変形を許容した上で、両者の比較を行ってもよい。また、本人判定部27が、画像中における登録者及び被認証者の顔のヨー方向及びピッチ方向におけるズレを解消するために、被認証者及び登録者の顔部位の特徴点の座標相互位置関係に対する左右方向及び上下方向の変形を許容した上で、両者の比較を行ってもよい。   Further, at this time, in order to eliminate the deviation in the roll direction of the face of the registrant and the person to be authenticated in the image, the identity determination unit 27 applies to the coordinate mutual positional relationship between the feature points of the face parts of the person to be authenticated and the person to be registered. You may compare both, accept | permitting rotation. In addition, the identity determination unit 27 detects a difference in the size of the face of the registrant and the person to be authenticated in the image (the difference caused by the difference between the distance of the registrant to the imaging unit 12 and the distance of the person to be authenticated from the imaging unit 22). ) May be compared with each other after allowing similar deformation of the coordinate positions of the feature points of the face portions of the person to be authenticated and the registrant. Further, in order for the identity determination unit 27 to eliminate the deviation in the yaw direction and the pitch direction of the face of the registrant and the person to be authenticated in the image, the coordinate mutual positional relationship of the feature points of the face parts of the person to be authenticated and the registrant The two may be compared after allowing deformation in the left-right direction and the up-down direction.

さらに、本人判定部27は、露出粘膜検出部24が生成した露出粘膜データが示す被認証者の露出粘膜が、データベース26から読み出した登録者データに含まれる露出粘膜データが示す登録者の露出粘膜に該当するか否かを判定する。   Further, the identity determination unit 27 determines whether the exposed mucosa of the person to be authenticated indicated by the exposed mucosa data generated by the exposed mucosa detection unit 24 is the exposed mucous membrane of the registrant indicated by the exposed mucosa data included in the registrant data read from the database 26. It is determined whether it corresponds to.

例えばこのとき、本人判定部27は、顔部位検出部23が生成する顔部位データが示す被認証者の顔部位の特徴点の座標と、顔部位の特定の特徴点の座標を基準座標(0,0)とした相対位置の座標として規定されている登録者データに含まれる露出粘膜データが示す登録者の露出粘膜の領域の座標と、に基づいて、被認証者の当該特定の特徴点を基準座標(0,0)とした登録者の露出粘膜の領域の位置(画像中の絶対位置)の座標を算出する。そして、本人判定部27は、上記のようにして算出した登録者の露出粘膜の領域の位置(画像中の絶対位置)の座標と、露出粘膜検出部24が生成する露出粘膜データが示す被認証者の露出粘膜の領域の位置(画像中の絶対位置)の座標と、を比較して、所定の程度以上合致すれば、被認証者の露出粘膜が登録者の露出粘膜に該当すると判定する。   For example, at this time, the identity determination unit 27 uses the coordinates of the feature point of the face part of the person to be authenticated indicated by the face part data generated by the face part detection unit 23 and the coordinates of the specific feature point of the face part as reference coordinates (0 , 0) based on the coordinates of the exposed mucous membrane area of the registrant indicated by the exposed mucosa data included in the registrant data defined as the relative position coordinates, The coordinates of the position (absolute position in the image) of the region of the exposed mucous membrane of the registrant as the reference coordinates (0, 0) are calculated. The identity determination unit 27 then authenticates the registrant's exposed mucous membrane area position (absolute position in the image) calculated as described above and the exposed mucosa data generated by the exposed mucosa detection unit 24. The coordinates of the position of the person's exposed mucosa (absolute position in the image) are compared, and if they match more than a predetermined degree, it is determined that the person's exposed mucous membrane corresponds to the person's exposed mucous membrane.

さらにこのとき、本人判定部27が、被認証者及び登録者の顔部位の特徴点の座標相互位置関係の比較を行った場合と同様に、被認証者及び登録者の露出粘膜の回転、相似変形、左右方向及び上下方向の変形を許容した上で、両者の比較を行ってもよい。   Further, at this time, as in the case where the identity determination unit 27 compares the coordinate mutual positional relationship between the feature points of the face portions of the person to be authenticated and the registrant, the rotation and similarity of the exposed mucous membrane of the person to be authenticated and the registrant. A comparison between the two may be performed after allowing deformation, lateral deformation, and vertical deformation.

そして、例えば本人判定部27が、被認証者の顔部位が登録者の顔部位に該当すると判定し、かつ、被認証者の露出粘膜が登録者の露出粘膜に該当すると判定する場合に、被認証者が登録者に該当すると判定して、その判定結果を示す本人判定結果データを生成する。   For example, when the person determination unit 27 determines that the face portion of the person to be authenticated corresponds to the face portion of the registrant and determines that the exposed mucous membrane of the person to be authenticated corresponds to the exposed mucous membrane of the registrant. It is determined that the certifier corresponds to the registrant, and personal identification result data indicating the determination result is generated.

認証決定部28は、本人判定結果データ及び生体判定結果データに基づいて、被認証者に対する認証の可否を決定し、その決定結果を示す認証結果データを生成する。具体的に、認証决定部28は、被認証者が登録者に該当する旨の判定結果を示すものであり、かつ、生体判定結果データが、被認証者が生体である旨の判定結果を示すものである場合に、被認証者を認証する。   The authentication determination unit 28 determines whether or not authentication is possible for the person to be authenticated based on the person determination result data and the biometric determination result data, and generates authentication result data indicating the determination result. Specifically, the authentication determination unit 28 indicates a determination result that the person to be authenticated corresponds to the registrant, and the biometric determination result data indicates a determination result that the person to be authenticated is a living body. If so, authenticate the person to be authenticated.

顔部位検出部23、露出粘膜検出部24、生体判定部25、本人判定部27及び認証決定部28は、各種データの処理を行う部分である。そのため、全体として1または複数の演算装置及び記憶装置によって実現することができる。なお、演算装置として、例えばCPUやGPUを用いてもよい。また、記憶装置として、例えばRAMを用いてもよい。   The face part detection unit 23, the exposed mucous membrane detection unit 24, the living body determination unit 25, the person determination unit 27, and the authentication determination unit 28 are units that process various data. Therefore, it can be realized by one or a plurality of arithmetic devices and storage devices as a whole. For example, a CPU or a GPU may be used as the arithmetic device. Further, for example, a RAM may be used as the storage device.

次に、顔認証装置20の動作について、図面を参照して説明する。図7は、図6の顔認証装置の動作の一例を示すフローチャートである。   Next, the operation of the face authentication device 20 will be described with reference to the drawings. FIG. 7 is a flowchart showing an example of the operation of the face authentication apparatus of FIG.

図7に示すように、最初に、識別コード取得部21が、被認証者の識別コードを取得して、当該識別コードを示す識別コードデータを本人判定部27に与える(ステップ#20)。   As shown in FIG. 7, first, the identification code acquisition unit 21 acquires the identification code of the person to be authenticated, and gives identification code data indicating the identification code to the identity determination unit 27 (step # 20).

次に、本人判定部27が、識別コード取得部21が生成する識別コードデータが示す被認証者の識別コードを、データベース26に記録されている登録者データの識別コードデータが示す登録者の識別コードと照合する(ステップ#21)。   Next, the identity determination unit 27 identifies the identification code of the person to be authenticated indicated by the identification code data generated by the identification code acquisition unit 21, and identifies the registrant indicated by the identification code data of the registrant data recorded in the database 26. The code is collated (step # 21).

このとき、被認証者の識別コードと一致する識別コードの登録者が存在すれば、本人判定部27は、当該登録者を被認証者に該当する登録者として特定する。一方、被認証者の識別コードと一致する識別コードの登録者が存在しなければ、本人判定部27は、被認証者に該当する登録者を特定できないと判定する。   At this time, if there is a registrant with an identification code that matches the identification code of the person to be authenticated, the identity determination unit 27 identifies the registrant as a registrant corresponding to the person to be authenticated. On the other hand, if there is no registrant whose identification code matches the identification code of the person to be authenticated, the person determination unit 27 determines that the registrant corresponding to the person to be authenticated cannot be identified.

本人判定部27が、被認証者に該当する登録者を特定することができないと判定する場合(ステップ#22、NO)、被認証者が登録者に該当しない旨の判定結果を示す本人判定結果データを生成する。そして、この本人判定結果データを取得した認証決定部28が、被認証者について認証しない(認証失敗)旨を示す認証結果データを生成して(ステップ#23)、顔認証装置20の動作が終了する。   When the person determination unit 27 determines that the registrant corresponding to the person to be authenticated cannot be identified (step # 22, NO), the person determination result indicating the determination result that the person to be authenticated does not correspond to the registrant Generate data. Then, the authentication determination unit 28 that has acquired the personal identification result data generates authentication result data indicating that the person to be authenticated is not authenticated (authentication failure) (step # 23), and the operation of the face authentication device 20 is completed. To do.

一方、本人判定部27が、被認証者に該当する登録者を特定すると(ステップ#23、YES)、特定した登録者の登録者データ(特に、顔部位データ及び露出粘膜データ)を、データベース26から選択的に読み出す(ステップ#24)。   On the other hand, when the identity determination unit 27 identifies a registrant corresponding to the person to be authenticated (step # 23, YES), the registrant data of the identified registrant (particularly facial part data and exposed mucous membrane data) is stored in the database 26. Are selectively read out (step # 24).

次に、撮像部22が、被認証者の顔を撮像して画像データを生成する(ステップ#25)。このとき、被認証者は、撮像部22に撮像される際に、登録者データ生成装置10の撮像部12に撮像された際の登録者の表情と同じ表情を作る。具体的に、被認証者は、意図的に露出粘膜が現れた表情を作る(例えば、図3(a)参照)。また、撮像部22は、被認証者について、時間的に連続した撮像(例えば、10秒以上の動画撮像)を行う。   Next, the imaging unit 22 captures the face of the person to be authenticated and generates image data (step # 25). At this time, the to-be-authenticated person makes the same facial expression as the registrant's facial expression when imaged by the imaging unit 12 of the registrant data generation device 10 when being imaged by the imaging unit 22. Specifically, the person to be authenticated creates a facial expression in which the exposed mucosa appears intentionally (see, for example, FIG. 3A). Further, the imaging unit 22 performs temporally continuous imaging (for example, moving image imaging for 10 seconds or more) for the person to be authenticated.

次に、顔部位検出部23が、登録者データ生成装置10の顔部位検出部13と同様に、撮像部22が生成した画像データが示す画像の中から、顔部位を検出する(ステップ#26)。   Next, similarly to the face part detection unit 13 of the registrant data generation apparatus 10, the face part detection unit 23 detects a face part from the image indicated by the image data generated by the imaging unit 22 (step # 26). ).

このとき、顔部位検出部23は、時間的に連続した撮像により生成された複数の画像データが示す複数の画像の中から、それぞれの顔部位を検出する。さらに、顔部位検出部23は、登録者データ生成装置10の顔部位検出部13と同様に、検出した顔部位を示す顔部位データを生成する。   At this time, the face part detection unit 23 detects each face part from a plurality of images indicated by a plurality of image data generated by temporally continuous imaging. Further, the face part detection unit 23 generates face part data indicating the detected face part, similarly to the face part detection unit 13 of the registrant data generation apparatus 10.

次に、本人判定部27が、顔部位検出部23が生成する顔部位データが示す被認証者の顔部位と、データベース26から読み出した登録者データに含まれる顔部位データが示す登録者の顔部位と、を比較する(ステップ#27)。   Next, the person determination unit 27 performs the face part of the person to be authenticated indicated by the face part data generated by the face part detection unit 23 and the face of the registrant indicated by the face part data included in the registrant data read from the database 26. The site is compared (step # 27).

上述のように、本人判定部27は、顔部位検出部23が生成した顔部位データが示す被認証者の顔部位の特徴点の座標相互位置関係と、データベース26から読み出した登録者データに含まれる顔部位データが示す登録者の顔部位の特徴点の座標相互位置関係と、を比較して、所定の程度以上合致すれば、被認証者の顔部位が登録者の顔部位に該当すると判定する。   As described above, the identity determination unit 27 is included in the coordinate mutual positional relationship between the feature points of the face parts of the person to be authenticated indicated by the face part data generated by the face part detection unit 23 and the registrant data read from the database 26. Compared with the coordinate mutual positional relationship of the feature points of the registrant's face part indicated by the face part data to be identified, if it matches a predetermined degree or more, it is determined that the face part of the person to be authenticated corresponds to the registrant's face part To do.

ここで、本人判定部27は、複数の画像のそれぞれの中から顔部位検出部23が検出した複数の被認証者の顔部位について比較を行ってもよいし、任意の1つの画像の中から顔部位検出部23が検出した1つの被認証者の顔部位について比較を行ってもよい。また、本人判定部27が、複数の画像のそれぞれの中から顔部位検出部23が検出した複数の被認証者の顔部位について比較を行う場合、例えば、複数の被認証者の顔部位の特徴点の座標相互位置関係と登録者の顔部位の特徴点の座標相互位置関係とのそれぞれの比較結果を平均化することで最終的な比較結果を算出してもよいし、被認証者の顔部位の特徴点の座標相互位置関係を平均化した上で登録者の顔部位の特徴点の座標相互位置関係と比較することで比較結果を算出してもよいし、複数の被認証者の顔部位の特徴点の座標相互位置関係と登録者の顔部位の特徴点の座標相互位置関係とのそれぞれの比較結果の中で最も類似しているものを最終の比較結果として算出してもよい。   Here, the identity determination unit 27 may compare the face parts of the plurality of authentication targets detected by the face part detection unit 23 from each of the plurality of images, or from any one of the images. A comparison may be made with respect to the face part of one person to be authenticated detected by the face part detection unit 23. Further, when the person determination unit 27 compares the face parts of the plurality of authentication targets detected by the face part detection unit 23 from among each of the plurality of images, for example, the characteristics of the face parts of the plurality of authentication subjects The final comparison result may be calculated by averaging the comparison results of the coordinate mutual positional relationship of the points and the coordinate mutual positional relationship of the feature points of the registrant's face part, or the face of the person to be authenticated The comparison result may be calculated by averaging the coordinate mutual positional relationship of the feature point of the part and comparing it with the coordinate mutual positional relation of the feature point of the registrant's face. Of the comparison results between the coordinate mutual positional relationship of the feature points of the region and the coordinate mutual positional relationship of the feature points of the registrant's facial region, the most similar may be calculated as the final comparison result.

本人判定部27が、被認証者の顔部位が登録者の顔部位に該当しないと判定する場合(ステップ#28、NO)、被認証者が登録者に該当しない旨の判定結果を示す本人判定結果データを生成する。そして、この本人判定結果データを取得した認証決定部28が、被認証者について認証しない(認証失敗)旨を示す認証結果データを生成して(ステップ#23)、顔認証装置20の動作が終了する。   When the person determination unit 27 determines that the face part of the person to be authenticated does not correspond to the face part of the registrant (step # 28, NO), the person determination that indicates the determination result that the person to be authenticated does not correspond to the registrant Generate result data. Then, the authentication determination unit 28 that has acquired the personal identification result data generates authentication result data indicating that the person to be authenticated is not authenticated (authentication failure) (step # 23), and the operation of the face authentication device 20 is completed. To do.

一方、本人判定部27が、被認証者の顔部位が登録者の顔部位に該当すると判定する場合(ステップ#28、YES)、露出粘膜検出部24が、登録者データ生成装置10の露出粘膜検出部14と同様に、撮像部22が生成した画像データが示す画像の中から、露出粘膜を検出する(ステップ#29)。   On the other hand, when the person determination unit 27 determines that the face part of the person to be authenticated corresponds to the face part of the registrant (step # 28, YES), the exposed mucous membrane detection part 24 uses the exposed mucous membrane of the registrant data generation apparatus 10. Similar to the detection unit 14, the exposed mucous membrane is detected from the image indicated by the image data generated by the imaging unit 22 (step # 29).

このとき、露出粘膜検出部24は、時間的に連続した撮像により生成された複数の画像データが示す複数の画像の中から、それぞれの露出粘膜を検出する。さらに、露出粘膜検出部24は、顔部位検出部23が生成する顔部位データと同じ基準座標(0,0)を用いて、露出粘膜の領域の位置(画像中の絶対位置)の座標を示した露出粘膜データを生成する。   At this time, the exposed mucous membrane detection unit 24 detects each exposed mucous membrane from among a plurality of images indicated by a plurality of image data generated by temporally continuous imaging. Further, the exposed mucosa detection unit 24 indicates the coordinates of the position of the exposed mucosa region (absolute position in the image) using the same reference coordinates (0, 0) as the face part data generated by the face part detection unit 23. Generate exposed mucosa data.

次に、本人判定部27が、露出粘膜検出部24が生成する露出粘膜データが示す被認証者の露出粘膜と、データベース26から読み出した登録者データに含まれる露出粘膜データが示す登録者の露出粘膜と、を比較する(ステップ#30)。   Next, the person determination unit 27 exposes the exposed mucous membrane of the person to be authenticated indicated by the exposed mucosa data generated by the exposed mucosa detecting unit 24 and the exposure of the registrant indicated by the exposed mucous membrane data included in the registrant data read from the database 26. The mucous membrane is compared (step # 30).

上述のように、本人判定部27は、顔部位検出部23が生成する顔部位データが示す被認証者の顔部位の特徴点の座標と、顔部位の特定の特徴点の座標を基準座標(0,0)とした相対位置の座標として規定されている登録者データに含まれる露出粘膜データが示す登録者の露出粘膜の領域の座標と、に基づいて、被認証者の当該特定の特徴点を基準座標(0,0)とした登録者の露出粘膜の領域の位置(画像中の絶対位置)の座標を算出する。そして、本人判定部27は、上記のようにして算出した登録者の露出粘膜の領域の位置(画像中の絶対位置)の座標と、露出粘膜検出部24が生成する露出粘膜データが示す被認証者の露出粘膜の領域の位置(画像中の絶対位置)の座標と、を比較して、所定の程度以上合致すれば、被認証者の露出粘膜が登録者の露出粘膜に該当すると判定する。   As described above, the person determination unit 27 uses the coordinates of the feature point of the face part of the person to be authenticated indicated by the face part data generated by the face part detection unit 23 and the coordinates of the specific feature point of the face part as reference coordinates ( The specific feature point of the person to be authenticated based on the coordinates of the exposed mucous membrane area of the registrant indicated by the exposed mucous membrane data included in the registrant data defined as the relative position coordinates of 0,0) The coordinates of the position (absolute position in the image) of the exposed mucous membrane area of the registrant are calculated with reference coordinates (0, 0). The identity determination unit 27 then authenticates the registrant's exposed mucous membrane area position (absolute position in the image) calculated as described above and the exposed mucosa data generated by the exposed mucosa detection unit 24. The coordinates of the position of the person's exposed mucosa (absolute position in the image) are compared, and if they match more than a predetermined degree, it is determined that the person's exposed mucous membrane corresponds to the person's exposed mucous membrane.

ここで、本人判定部27は、複数の画像のそれぞれの中から露出粘膜検出部24が検出した複数の被認証者の露出粘膜について比較を行ってもよいし、任意の1つの画像の中から露出粘膜検出部24が検出した1つの被認証者の露出粘膜について比較を行ってもよい。また、本人判定部27が、複数の画像のそれぞれの中から露出粘膜検出部24が検出した複数の被認証者の露出粘膜について比較を行う場合、例えば、複数の被認証者の露出粘膜の位置の座標と登録者の露出粘膜の位置の座標とのそれぞれの比較結果を平均化することで最終的な比較結果を算出してもよいし、被認証者の露出粘膜の位置の座標を平均化した上で登録者の露出粘膜の位置の座標と比較することで最終的な比較結果を算出してもよいし、複数の被認証者の露出粘膜の位置の座標と登録者の露出粘膜の位置の座標とのそれぞれの比較結果の中で最も類似しているものを最終の比較結果として算出してもよい。   Here, the identity determination unit 27 may compare the exposed mucous membranes of the plurality of authentication targets detected by the exposed mucosa detection unit 24 from among each of the plurality of images, or from any one of the images. A comparison may be made with respect to the exposed mucous membrane of one person to be authenticated detected by the exposed mucosa detecting unit 24. Further, when the identity determination unit 27 compares the exposed mucous membranes of the plurality of authentication subjects detected by the exposed mucosa detection unit 24 from among each of the plurality of images, for example, the positions of the exposed mucous membranes of the plurality of authentication subjects. The final comparison result may be calculated by averaging the respective comparison results of the coordinates of the registrant and the position of the exposed mucous membrane of the registrant, or the coordinates of the position of the exposed mucous membrane of the authentication subject may be averaged. Then, the final comparison result may be calculated by comparing with the coordinates of the position of the exposed mucous membrane of the registrant. The most similar result of the respective comparisons with the coordinates may be calculated as the final comparison result.

本人判定部27が、被認証者の露出粘膜が登録者の露出粘膜に該当しないと判定する場合(ステップ#31、NO)、被認証者が登録者に該当しない旨の判定結果を示す本人判定結果データを生成する。そして、この本人判定結果データを取得した認証決定部28が、被認証者について認証しない(認証失敗)旨を示す認証結果データを生成して(ステップ#23)、顔認証装置20の動作が終了する。   When the person determination unit 27 determines that the exposed mucous membrane of the person to be authenticated does not correspond to the exposed mucous membrane of the registrant (step # 31, NO), the person determination indicating the determination result that the person to be authenticated does not correspond to the registrant Generate result data. Then, the authentication determination unit 28 that has acquired the personal identification result data generates authentication result data indicating that the person to be authenticated is not authenticated (authentication failure) (step # 23), and the operation of the face authentication device 20 is completed. To do.

一方、本人判定部27が、被認証者の露出粘膜が登録者の露出粘膜に該当すると判定する場合(ステップ#31、YES)、被認証者が登録者に該当する旨の判定結果を示す本人判定結果データを生成する。   On the other hand, when the person determination unit 27 determines that the exposed mucous membrane of the person to be authenticated corresponds to the exposed mucous membrane of the registrant (step # 31, YES), the person indicating the determination result that the person to be authenticated corresponds to the registrant. Judgment result data is generated.

次に、生体判定部25が、撮像部22が時間的に連続した撮像によって生成した複数の画像データと、これらの複数の画像データが示す複数の画像のそれぞれの中から露出粘膜検出部24が検出した露出粘膜の領域の位置を示す露出粘膜データと、に基づいて、これらの複数の画像のそれぞれの中の露出粘膜を表す領域を特定する。さらに、生体判定部25は、特定した露出粘膜を表す領域について、人の生命活動に起因する画像的な変化の有無を検出することで、被認証者が生体であるか否かを判定し、その判定結果を示す生体判定結果データを生成する(ステップ#32)。   Next, the exposed mucous membrane detection unit 24 selects each of the plurality of image data generated by the imaging unit 22 through temporal imaging and the plurality of images indicated by the plurality of image data. Based on the exposed mucous membrane data indicating the position of the detected exposed mucosa region, the region representing the exposed mucosa in each of the plurality of images is specified. Furthermore, the biometric determination unit 25 determines whether or not the person to be authenticated is a living body by detecting the presence or absence of an image change caused by a human life activity for the area representing the specified exposed mucous membrane, Biological determination result data indicating the determination result is generated (step # 32).

このとき、生体判定部25は、露出粘膜を表す領域から検出した画像的な変化が、人の生命活動に起因するものであるか否かを判定する。例えは、生体判定部25は、露出粘膜を表す領域における赤色成分の変動が、60回/分以上90回/分以下(1Hz以上1.5Hz以下)であれば被認証者を生体と判定し、この条件を満たさなければ被認証者を生体ではないと判定する。   At this time, the living body determination unit 25 determines whether or not the image change detected from the region representing the exposed mucous membrane is due to a human life activity. For example, the living body determination unit 25 determines that the person to be authenticated is a living body if the variation of the red component in the region representing the exposed mucous membrane is 60 times / minute or more and 90 times / minute or less (1 Hz or more and 1.5 Hz or less). If this condition is not satisfied, the person to be authenticated is determined not to be a living body.

生体判定部25が、被認証者が生体ではないと判定する場合(ステップ#33、NO)、被認証者が生体ではない旨の判定結果を示す生体判定結果データを生成する。そして、この生体判定結果データを取得した認証決定部28が、被認証者について認証しない(認証失敗)旨を示す認証結果データを生成して(ステップ#23)、顔認証装置20の動作が終了する。   When the biometric determination unit 25 determines that the person to be authenticated is not a living body (step # 33, NO), biometric determination result data indicating a determination result that the person to be authenticated is not a living body is generated. The authentication determination unit 28 that has acquired the biometric determination result data generates authentication result data indicating that the person to be authenticated is not authenticated (authentication failure) (step # 23), and the operation of the face authentication device 20 is completed. To do.

一方、生体判定部25が、被認証者が生体であると判定する場合(ステップ#33、YES)、被認証者が生体である旨の判定結果を示す生体判定結果データを生成する。そして、上述の被認証者が登録者に該当する旨の判定結果を示す本人判定結果データと、この生体判定結果データと、を取得した認証決定部28が、被認証者について認証する旨(認証成功)を示す認証結果データを生成して(ステップ#34)、顔認証装置20の動作が終了する。   On the other hand, when the biometric determination unit 25 determines that the person to be authenticated is a living body (step # 33, YES), biometric determination result data indicating a determination result that the person to be authenticated is a living body is generated. Then, the authentication determination unit 28 that has acquired the person determination result data indicating the determination result that the above-mentioned person to be authenticated corresponds to the registrant and the biometric determination result data authenticates the person to be authenticated (authentication). Authentication result data indicating (success) is generated (step # 34), and the operation of the face authentication apparatus 20 is completed.

以上のように、本発明の実施形態における顔認証装置20では、皮膚等の常に外界に晒されている部分と比較して表面層が薄くなっており、毛細血管及びその中を流れる血液が外部から明確に視認される露出粘膜に基づいて、被認証者が生体か否かを判定することができる。そのため、被認証者が生体か否かを精度良く判定することが可能になる。   As described above, in the face authentication device 20 according to the embodiment of the present invention, the surface layer is thinner than the part that is constantly exposed to the outside, such as the skin, and the capillaries and the blood flowing therein are external. It is possible to determine whether or not the person to be authenticated is a living body based on the exposed mucous membrane that is clearly visually recognized. Therefore, it can be accurately determined whether or not the person to be authenticated is a living body.

さらに、本発明の実施形態における顔認証装置20では、人が意図的に行う表情であって、人前では滅多にしない特殊な表情である、露出粘膜が現れた表情に基づいて、被認証者が登録者に該当するか否かを判定することができる。そのため、盗撮に対して堅牢な顔認証装置20を実現することが可能になる。   Furthermore, in the face authentication apparatus 20 according to the embodiment of the present invention, the person to be authenticated is based on a facial expression intentionally performed by a person and a special expression rarely seen in public, that is, an exposed mucosal expression. It can be determined whether or not the user is a registered person. Therefore, it is possible to realize the face authentication device 20 that is robust against voyeurism.

なお、図7は、顔認証装置20の基本的な動作を例示したものに過ぎない。そのため、要求されるセキュリティレベルなどに応じた適切な動作をするなどの観点から、様々な変形を加えてもよい。   FIG. 7 merely illustrates the basic operation of the face authentication device 20. Therefore, various modifications may be made from the viewpoint of performing an appropriate operation according to the required security level.

例えば、識別コードに基づく登録者の特定(ステップ#20〜#24)を行わなくてもよい。この場合、被認証者の顔部位が登録者の顔部位に該当するか否かの判定(ステップ#27及び#28)や、被認証者の露出粘膜が登録者の露出粘膜に該当するか否かの判定(ステップ#30及び#31)を行う際に、登録者の全員について網羅的に判定を行えばよい。   For example, it is not necessary to specify the registrant based on the identification code (steps # 20 to # 24). In this case, it is determined whether or not the face part of the person to be authenticated corresponds to the face part of the registrant (steps # 27 and # 28), and whether or not the exposed mucous membrane of the person to be authenticated corresponds to the exposed mucous membrane of the registrant. When making such determination (steps # 30 and # 31), it is only necessary to make an exhaustive determination for all registrants.

ただし、この方法では、本人判定部27が、本来は該当する登録者が存在しない被認証者を、偶然にいずれかの登録者に該当すると誤判定する可能性がある。そこで、要求されるセキュリティレベルが高く、被認証者が登録者に該当するか否かを精度良く判定することが必要である場合は、識別コードに基づく登録者の特定(ステップ#20〜#24)を行うと、好ましい。   However, in this method, there is a possibility that the person determination unit 27 erroneously determines that the person to be authenticated who originally does not have the corresponding registrant falls under any registrant. Therefore, when the required security level is high and it is necessary to accurately determine whether the person to be authenticated corresponds to the registrant, the registrant is identified based on the identification code (steps # 20 to # 24). ) Is preferable.

また、被認証者の顔部位が登録者の顔部位に該当するか否かの判定(ステップ#27及び#28)と、被認証者の露出粘膜が登録者の露出粘膜に該当するか否かの判定(ステップ#30及び#31)と、のいずれか一方を行わなくてもよい。   In addition, it is determined whether or not the face part of the person to be authenticated corresponds to the face part of the registrant (steps # 27 and # 28), and whether or not the exposed mucous membrane of the person to be authenticated corresponds to the exposed mucous membrane of the registrant. (Steps # 30 and # 31) may not be performed.

ただし、要求されるセキュリティレベルが高く、被認証者が登録者に該当するか否かを精度良く判定することが必要である場合は、顔部位及び露出粘膜の両方について被認証者が登録者に該当するか否かの判定を行うと、好ましい。   However, if the required security level is high and it is necessary to accurately determine whether or not the person to be authenticated falls under the category of registrant, the person to be authenticated will be asked to registrant for both the facial area and the exposed mucous membrane. It is preferable to determine whether this is the case.

また、被認証者の露出粘膜が登録者の露出粘膜に該当するか否かの判定(ステップ#30及び#31)において、結膜などの人の顔の左右に存在する露出粘膜について判定を行う際に、人の顔の左右を無視してもよい。具体的に例えば、本人判定部27が、被認証者が登録者に該当しないと判定する場合において、被認証者及び登録者の露出粘膜のいずれか一方を左右反転させた上で再度比較を行ってもよい。   When determining whether or not the exposed mucous membrane of the person to be authenticated corresponds to the exposed mucous membrane of the registrant (steps # 30 and # 31), the exposed mucosa existing on the left and right of the human face such as the conjunctiva. In addition, the left and right sides of a person's face may be ignored. Specifically, for example, when the person determination unit 27 determines that the person to be authenticated does not correspond to the registrant, the person-to-be-authenticated person and the registrant's exposed mucous membrane are reversed left and right, and then compared again. May be.

この場合、例えば、被認証者が左目の下側の結膜を露出させているが、当該被認証者と同一人物である登録者の登録者データに含まれる露出粘膜データが当該登録者の右目の下側の結膜を示すものであったとしても、本人判定部27が、被認証者が登録者に該当すると判定し得る。   In this case, for example, the person to be authenticated has exposed the lower conjunctiva of the left eye, but the exposed mucous membrane data included in the registrant data of the registrant who is the same person as the person to be authenticated is the lower side of the right eye of the registrant. Even if the person's conjunctiva is shown, the person determination unit 27 can determine that the person to be authenticated corresponds to the registrant.

ただし、要求されるセキュリティレベルが高く、露出粘膜の選択自体(即ち、登録者がどの粘膜を露出して登録者データを作成したか)も認証キーとして利用する場合は、このような処理を行わない方が好ましい。   However, if the required security level is high and the selection of the exposed mucosa itself (that is, which mucosa the registrant has exposed to create registrant data) is also used as the authentication key, such processing is performed. Preferably not.

また、被認証者の露出粘膜が登録者の露出粘膜に該当するか否かの判定(ステップ#30及び#31)において、被認証者の露出粘膜と登録者の露出粘膜とがほとんど一致しない場合において、被認証者に対して露出するべき粘膜が正しくない旨を報知してもよいし、被認証者に対して露出するべき粘膜を指示してもよい。   Further, in the determination of whether or not the exposed mucous membrane of the person to be authenticated corresponds to the exposed mucous membrane of the registrant (steps # 30 and # 31), the exposed mucous membrane of the authenticated person and the exposed mucous membrane of the registrant do not substantially match The user may be notified that the mucous membrane to be exposed is not correct, or may be instructed to the user to be exposed.

具体的に例えば、被認証者は左目の下側の結膜を露出させているが、当該被認証者と同一人物である登録者の登録者データに含まれる露出粘膜データが当該登録者の右目の下側の結膜を示すものであった場合、被認証者に対して、音声または画像表示によって「露出する粘膜が違います」や「右目の下側の結膜を露出させて下さい」などの警告を報知してもよい。   Specifically, for example, the person to be authenticated has exposed the lower conjunctiva of the left eye, but the exposed mucous membrane data included in the registrant data of the registrant who is the same person as the person to be authenticated is the lower side of the right eye of the registrant. If it indicates a conjunctiva of the subject, a warning such as "Exposed mucosa is different" or "Expose the conjunctiva under the right eye" is notified to the subject by voice or image display. Also good.

ただし、要求されるセキュリティレベルが高く、露出粘膜の選択自体も認証キーとして利用する場合は、このような処理を行わない方が好ましい。   However, when the required security level is high and the selection of the exposed mucosa is also used as an authentication key, it is preferable not to perform such processing.

<変形等>
[1] 図3及び図5では、目の下側の結膜及び舌を露出粘膜の具体例として挙げて説明したが、これ以外の粘膜を露出粘膜として検出することも可能である。ここで、図3及び図5とは異なる粘膜を露出粘膜として検出する場合について、図面を参照して説明する。図8は、露出粘膜検出部の動作の別例を示す図である。
<Deformation, etc.>
[1] In FIGS. 3 and 5, the conjunctiva and tongue below the eyes have been described as specific examples of the exposed mucosa, but other mucosa can also be detected as the exposed mucosa. Here, a case where a mucous membrane different from those shown in FIGS. 3 and 5 is detected as an exposed mucosa will be described with reference to the drawings. FIG. 8 is a diagram illustrating another example of the operation of the exposed mucosa detection unit.

図8(a)に示すように、露出粘膜検出部14,24が、目の上側の結膜を検出する場合、図3(c)における線分SL,SRと始点(左目EL及び右目ER)は共通するが反対方向に伸びる線分SL1,SR1に基づいて、出現予測領域PR1を設定してもよい。なお、図8(a)に示す例の場合、右目ERの上側に出現予測領域PR1が設定され、右目ERの上側の結膜CR1が露出粘膜として検出される。   As shown in FIG. 8A, when the exposed mucosa detection units 14 and 24 detect the conjunctiva on the upper side of the eye, the line segments SL and SR and the start points (left eye EL and right eye ER) in FIG. The appearance prediction region PR1 may be set based on the line segments SL1 and SR1 that are common but extend in the opposite direction. In the example shown in FIG. 8A, the appearance prediction region PR1 is set above the right eye ER, and the conjunctiva CR1 above the right eye ER is detected as an exposed mucosa.

また、図8(b)に示すように、露出粘膜検出部14,24が、口腔内の全体の粘膜(単に口を開けた状態で露出する粘膜)を検出する場合、図3(d)における線分TL,TRの中心を左右の口角ML,MRに合わせた線分TL2,TR2に基づいて、出現予測領域Q2を設定すればよい。なお、図8(b)に示す例の場合、開けた口の内部及び外部に出現予測領域Q2が設定され、口腔内の全体の粘膜U2が露出粘膜として検出される。   Further, as shown in FIG. 8B, when the exposed mucosa detection units 14 and 24 detect the entire mucous membrane in the oral cavity (the mucous membrane exposed only with the mouth open), The appearance prediction region Q2 may be set based on the line segments TL2 and TR2 in which the centers of the line segments TL and TR are aligned with the left and right mouth angles ML and MR. In the case of the example shown in FIG. 8B, the appearance prediction region Q2 is set inside and outside the opened mouth, and the entire mucous membrane U2 in the oral cavity is detected as the exposed mucosa.

また、露出粘膜の選択自体も認証キーとして利用する場合など、登録者及び被認証者がどの粘膜を露出すべきかを限定しない場合は、露出粘膜検出部14,24が、全ての露出粘膜を検出が可能となるように、線分及び出現予測領域を設定すると、好ましい。例えば、露出粘膜検出部14,24が、図3(c)の線分SL,SR及び図8(a)の線分SL1,SR1のそれぞれに基づいて、出現予測領域を設定してもよい。また、露出粘膜検出部14,24が、図3(d)の線分TL,TR及び図8(b)の線分TL2,TR2のそれぞれに基づいて、出現予測領域を設定してもよい。   Further, when the registrant and the person to be authenticated do not limit which mucous membrane should be exposed, such as when the selection of the exposed mucosa itself is also used as an authentication key, the exposed mucosa detection units 14 and 24 detect all the exposed mucosa. It is preferable to set the line segment and the appearance prediction area so that For example, the exposed mucous membrane detection units 14 and 24 may set the appearance prediction regions based on the line segments SL and SR in FIG. 3C and the line segments SL1 and SR1 in FIG. Further, the exposed mucous membrane detection units 14 and 24 may set the appearance prediction regions based on the line segments TL and TR in FIG. 3D and the line segments TL2 and TR2 in FIG.

[2] 図3及び図5に示した顔部位検出部13,23による顔部位の検出方法や露出粘膜検出部14,24による露出粘膜の検出方法は例示に過ぎず、別の検出方法で顔部位や露出粘膜を検出してもよい。 [2] The detection method of the facial part by the facial part detection units 13 and 23 and the detection method of the exposed mucous membrane by the exposed mucous membrane detection units 14 and 24 shown in FIGS. 3 and 5 are merely examples, and the face is detected by another detection method. You may detect a site | part and an exposed mucous membrane.

例えば、露出粘膜検出部14,24が、露出粘膜を検出する際に、顔部位の位置に基づいた出現予測領域を設定しなくてもよい。この場合、露出粘膜検出部14,24は、画像全体の中から網羅的に露出粘膜を検出することになる。   For example, when the exposed mucosa detection units 14 and 24 detect the exposed mucous membrane, it is not necessary to set an appearance prediction region based on the position of the face part. In this case, the exposed mucosa detection units 14 and 24 comprehensively detect the exposed mucosa from the entire image.

ただし、露出粘膜は不特定の広がりを有する領域であるため、網羅的な検出は困難である。特に、画像の赤色成分に基づいて画像の全体の中から露出粘膜を検出しようとすると、背景などの非顔領域の赤い部分を露出粘膜として誤検出する可能性がある。   However, since the exposed mucous membrane is an unspecified area, comprehensive detection is difficult. In particular, if an exposed mucosa is detected from the entire image based on the red component of the image, there is a possibility that a red portion of a non-face area such as a background is erroneously detected as an exposed mucosa.

そこで、図3及び図5に例示したように、露出粘膜検出部14,24が、顔部位の位置に基づいた出現予測領域を設定して露出粘膜を検出すると、精度良く露出粘膜を検出することができるため、好ましい。さらにこの場合、露出粘膜検出部14,24が、出現予測領域という限られた領域内から露出粘膜を検出することで、露出粘膜を検出するために必要な計算量を低減して迅速に検出を行うことができるため、好ましい。   Therefore, as illustrated in FIGS. 3 and 5, when the exposed mucosa detection units 14 and 24 set the appearance prediction region based on the position of the face part and detect the exposed mucosa, the exposed mucosa is detected with high accuracy. Is preferable. Furthermore, in this case, the exposed mucous membrane detection units 14 and 24 detect the exposed mucous membrane from a limited region called the appearance prediction region, thereby reducing the amount of calculation necessary for detecting the exposed mucous membrane and quickly detecting it. Since it can be performed, it is preferable.

[3] 上述の実施形態では、図1及び図6において、登録者データ生成装置10及び顔認証装置20が別々の装置であるかのように図示しているが、同一の装置(以下、「共通装置」という)であってもよい。例えばこの場合、共通装置が「登録モード」で動作する場合は、図1に示す登録者データ生成装置10の各ブロックの動作を実現し、共通装置が「認証モード」で動作する場合は、図6に示す顔認証装置20の各ブロックの動作を実現する。 [3] In the above-described embodiment, the registrant data generation device 10 and the face authentication device 20 are illustrated in FIGS. 1 and 6 as if they are separate devices. Common device ”). For example, in this case, when the common device operates in the “registration mode”, the operation of each block of the registrant data generation device 10 shown in FIG. 1 is realized, and when the common device operates in the “authentication mode”, The operation of each block of the face authentication device 20 shown in FIG.

例えば、この共通装置では、識別コード取得部11,21が、同一の入力装置または読取装置によって構成され得る。また例えば、撮像部12,22が、同一の撮像装置によって構成され得る。また例えば、データベース16,26が、同一の記録装置によって構成され得る。また例えば、顔部位検出部13,23、露出粘膜検出部14,24、登録者データ生成部15,生体判定部25及び本人判定部27が、同一の演算装置及び記憶装置によって構成され得る。   For example, in this common device, the identification code acquisition units 11 and 21 can be configured by the same input device or reading device. Further, for example, the imaging units 12 and 22 can be configured by the same imaging device. Further, for example, the databases 16 and 26 can be configured by the same recording device. Further, for example, the face part detection units 13 and 23, the exposed mucosa detection units 14 and 24, the registrant data generation unit 15, the living body determination unit 25, and the person determination unit 27 can be configured by the same arithmetic device and storage device.

[4] 顔認証装置20の露出粘膜検出部24及び生体判定部25は、顔認証装置20に限らず、対象者の生命活動の状態を判定する他の装置にも適用することができる。例えば、画像中の対象者の脈拍を計測したり、計測した脈拍について異常の有無を判定したりする医療用などの用途の生体判定装置において、露出粘膜検出部24及び生体判定部25を用いてもよい。 [4] The exposed mucous membrane detection unit 24 and the biometric determination unit 25 of the face authentication device 20 can be applied not only to the face authentication device 20 but also to other devices that determine the state of life activity of the subject. For example, in a living body determination apparatus for medical use that measures the pulse of a target person in an image or determines the presence or absence of an abnormality in the measured pulse, the exposed mucosa detection unit 24 and the living body determination unit 25 are used. Also good.

上述のように、露出粘膜は、皮膚等の常に外界に晒されている部分と比較して表面層が薄くなっており、毛細血管及びその中を流れる血液が外部から明確に視認される。そのため、上記のような生体判定装置において、露出粘膜に着目して生命活動の状態を判定すると、対象者の生命活動の状態を精度良く判定することが可能になる。   As described above, the exposed mucous membrane has a thin surface layer as compared with a part that is constantly exposed to the outside, such as skin, and the capillaries and the blood flowing therethrough are clearly visible from the outside. Therefore, in the living body determination apparatus as described above, when the state of the life activity is determined by paying attention to the exposed mucous membrane, the state of the life activity of the subject can be accurately determined.

[5] 登録者データ生成装置10の顔部位検出部13及び露出粘膜検出部14や、顔認証装置20の顔部位検出部23及び露出粘膜検出部24は、顔認証を行うための装置に限らず、露出粘膜を検出する他の画像処理装置にも適用することができる。例えば、画像中から結膜や舌などの粘膜部分を検出する医療用などの用途の画像処理装置において、顔部位検出部13,23及び露出粘膜検出部14,24を用いてもよい。 [5] The face part detection unit 13 and the exposed mucous membrane detection part 14 of the registrant data generation device 10 and the face part detection unit 23 and the exposed mucous membrane detection part 24 of the face authentication device 20 are limited to devices for performing face authentication. It can also be applied to other image processing apparatuses that detect exposed mucous membranes. For example, in an image processing apparatus for medical use that detects mucous membrane portions such as conjunctiva and tongue from an image, the facial part detection units 13 and 23 and the exposed mucosal detection units 14 and 24 may be used.

上述のように、露出粘膜は、不特定の広がりを有する領域であるために網羅的な検出が困難であり、背景などの非顔領域から誤検出することが懸念される。また、画像の全体から露出粘膜を検出する場合、露出粘膜の検出に必要な計算量が膨大となることから迅速な検出が困難になる。そこで、上記のような画像処理装置において、顔部位の位置に基づいて出現予測領域を設定し、当該出現予測領域内から露出粘膜を検出することで、露出粘膜を精度良く検出することが可能になるとともに、露出粘膜の検出に必要な計算量を低減して迅速に検出を行うことが可能になる。   As described above, the exposed mucous membrane is an area having an unspecified extent, so that comprehensive detection is difficult, and there is a concern that it may be erroneously detected from a non-face area such as a background. In addition, when detecting the exposed mucous membrane from the entire image, the amount of calculation necessary for detecting the exposed mucosa becomes enormous, making it difficult to quickly detect it. Therefore, in the image processing apparatus as described above, it is possible to accurately detect the exposed mucous membrane by setting the appearance prediction region based on the position of the face part and detecting the exposed mucosa from the appearance prediction region. In addition, the amount of calculation necessary for detecting the exposed mucous membrane can be reduced and detection can be performed quickly.

本発明は、画像の中から検出した人の顔について認証を行う顔認証装置に利用可能である。また、当該顔認証装置に適用可能な画像処理装置及び生体判定装置に利用可能である。   INDUSTRIAL APPLICABILITY The present invention can be used for a face authentication device that performs authentication on a human face detected from an image. Further, it can be used for an image processing apparatus and a biometric determination apparatus applicable to the face authentication apparatus.

10 : 登録者データ生成装置
11 : 識別コード取得部
12 : 撮像部
13 : 顔部位検出部
14 : 露出粘膜検出部
15 : 登録者データ生成部
16 : データベース
20 : 顔認証装置
21 : 識別コード取得部
22 : 撮像部
23 : 顔部位検出部
24 : 露出粘膜検出部
25 : 生体判定部
26 : データベース
27 : 本人判定部
28 : 認証決定部
EL,ER : 目
ML,MR : 口角
MC : 口角中心
MLR : 口角を結んだ直線
SL,SR,SL1,SR1 : 線分
TL,TR,TL2,TR2 : 線分
PR,PR1 : 出現予測領域(結膜)
Q,Q2 : 出現予測領域(舌、口腔内)
CR,CR1 : 結膜
U : 舌
U2 : 口腔内の全体の粘膜
DESCRIPTION OF SYMBOLS 10: Registrant data generation apparatus 11: Identification code acquisition part 12: Imaging part 13: Face part detection part 14: Exposed mucosa detection part 15: Registrant data generation part 16: Database 20: Face authentication apparatus 21: Identification code acquisition part 22: Imaging unit 23: Face part detection unit 24: Exposed mucosa detection unit 25: Biometric determination unit 26: Database 27: Identity determination unit 28: Authentication determination unit EL, ER: Eye ML, MR: Mouth corner MC: Mouth corner center MLR: Straight line connecting mouth corners SL, SR, SL1, SR1: line segment TL, TR, TL2, TR2: line segment PR, PR1: appearance prediction region (conjunctiva)
Q, Q2: Appearance prediction area (tongue, oral cavity)
CR, CR1: Conjunctiva U: Tongue U2: Whole mucous membrane in the oral cavity

Claims (9)

被認証者の顔を撮像して生成された画像データが示す画像の中から、人が作為的に顔の粘膜を露出させた部分である露出粘膜を検出する露出粘膜検出部と、
時間的に連続した撮像により生成された複数の前記画像データが示す複数の前記画像のそれぞれの中から、前記露出粘膜検出部が検出したそれぞれの前記露出粘膜について、人の生命活動に起因する画像的な変化の有無を検出することで、前記被認証者が生体であるか否かを判定する生体判定部と、
登録者の顔の特徴を示す登録者データを記録するデータベースと、
前記画像データが示す前記画像の中の前記被認証者の顔の特徴と、前記データベースが記録する前記登録者データが示す前記登録者の顔の特徴と、を比較することで、前記被認証者が前記登録者に該当するか否かを判定する本人判定部と、
前記被認証者が生体であると前記生体判定部が判定し、かつ、前記被認証者が前記登録者に該当すると前記本人判定部が判定する場合に、前記被認証者を認証する認証決定部と、
を備えることを特徴とする顔認証装置。
An exposed mucous membrane detecting unit that detects an exposed mucous membrane, which is a portion where a human has intentionally exposed the mucous membrane of the face, from an image indicated by image data generated by imaging the face of the person to be authenticated;
Of each of the plurality of images indicated by the plurality of image data generated by temporally continuous imaging, each of the exposed mucosa detected by the exposed mucosa detection unit is an image resulting from human life activity. A living body determination unit that determines whether the person to be authenticated is a living body by detecting the presence or absence of a general change;
A database that records registrant data indicating the registrant's facial features;
By comparing the facial features of the person to be authenticated in the image indicated by the image data with the facial features of the registrant indicated by the registrant data recorded in the database, A person determination unit that determines whether or not the user corresponds to the registrant;
An authentication determination unit that authenticates the person to be authenticated when the living body determination unit determines that the person to be authenticated is a living body and the person determination unit determines that the person to be authenticated corresponds to the registrant. When,
A face authentication apparatus comprising:
前記画像データが示す前記画像の中から、人の顔に存在する所定の部位である顔部位を検出する顔部位検出部を、さらに備え、
前記データベースが記録する前記登録者データが、前記登録者の前記顔部位を示すものであり、
前記本人判定部は、前記顔部位検出部が検出した前記被認証者の前記顔部位が、前記登録者データが示す前記登録者の前記顔部位に該当するか否かに基づいて、前記被認証者が前記登録者に該当するか否かを判定することを特徴とする請求項1に記載の顔認証装置。
A face part detection unit for detecting a face part, which is a predetermined part existing on a human face, from the image indicated by the image data;
The registrant data recorded in the database indicates the facial part of the registrant,
The identity determination unit, based on whether the face part of the person to be authenticated detected by the face part detection unit corresponds to the face part of the registrant indicated by the registrant data. 2. The face authentication apparatus according to claim 1, wherein it is determined whether or not a person corresponds to the registrant.
前記露出粘膜検出部は、前記顔部位検出部が検出した前記顔部位の位置に基づいて、前記露出粘膜の出現が予測される領域である出現予測領域を設定し、設定した前記出現予測領域の中から前記露出粘膜を検出することを特徴とする請求項2に記載の顔認証装置。   The exposed mucous membrane detection unit sets an appearance prediction region, which is a region where the appearance of the exposed mucous membrane is predicted, based on the position of the facial part detected by the face part detection unit, and The face authentication apparatus according to claim 2, wherein the exposed mucous membrane is detected from the inside. 前記露出粘膜検出部は、前記画像の赤色成分に基づいて、前記露出粘膜の検出を行うことを特徴とする請求項3に記載の顔認証装置。   The face authentication apparatus according to claim 3, wherein the exposed mucous membrane detection unit detects the exposed mucous membrane based on a red component of the image. 前記顔部位検出部は、前記画像の輝度成分に基づいて、前記顔部位の検出を行うことを特徴とする請求項2〜4のいずれか1項に記載の顔認証装置。   The face authentication apparatus according to claim 2, wherein the face part detection unit detects the face part based on a luminance component of the image. 前記データベースが記録する前記登録者データが、前記登録者の前記露出粘膜を示すものであり、
前記本人判定部は、前記露出粘膜検出部が検出した前記被認証者の前記露出粘膜が、前記登録者データが示す前記登録者の前記露出粘膜に該当するか否かに基づいて、前記被認証者が前記登録者に該当するか否かを判定することを特徴とする請求項1〜5のいずれか1項に記載の顔認証装置。
The registrant data recorded by the database indicates the exposed mucous membrane of the registrant,
The identity determination unit, based on whether or not the exposed mucous membrane of the person to be authenticated detected by the exposed mucous membrane detection unit corresponds to the exposed mucous membrane of the registrant indicated by the registrant data. The face authentication apparatus according to claim 1, wherein it is determined whether or not a person corresponds to the registrant.
前記データベースが記録する前記登録者データが、前記登録者毎に設定されている個人を識別するための識別コードを示すものであり、
前記本人判定部は、前記被認証者が入力する前記識別コードが、前記登録者データが示す前記識別コードと一致する前記登録者を特定した上で、前記被認証者の顔の特徴と特定した前記登録者の顔の特徴とを比較することを特徴とする請求項1〜6のいずれか1項に記載の顔認証装置。
The registrant data recorded in the database indicates an identification code for identifying an individual set for each registrant,
The identity determination unit identifies the registrant whose identification code input by the person to be authenticated matches the identification code indicated by the registrant data, and then identifies the facial feature of the person to be authenticated. The face authentication apparatus according to claim 1, wherein the face authentication apparatus compares the face characteristics of the registrant.
対象者の顔を撮像して生成された画像データが示す画像の中から、人が作為的に顔の粘膜を露出させた部分である露出粘膜を検出する露出粘膜検出部と、
前記画像の中から、人の顔に存在する所定の部位である顔部位を検出する顔部位検出部と、を備え、
前記露出粘膜検出部は、前記顔部位検出部が検出した前記顔部位の位置に基づいて、前記露出粘膜の出現が予測される領域である出現予測領域を設定し、設定した前記出現予測領域の中から前記露出粘膜を検出することを特徴とする画像処理装置。
An exposed mucous membrane detection unit that detects an exposed mucous membrane, which is a portion where a human has intentionally exposed the mucous membrane of the face, from an image indicated by image data generated by imaging the face of the subject,
A face part detection unit for detecting a face part, which is a predetermined part existing on a person's face, from the image,
The exposed mucous membrane detection unit sets an appearance prediction region, which is a region where the appearance of the exposed mucous membrane is predicted, based on the position of the facial part detected by the face part detection unit, and An image processing apparatus for detecting the exposed mucous membrane from the inside.
対象者の顔を撮像して生成された画像データが示す画像の中から、人が作為的に顔の粘膜を露出させた部分である露出粘膜を検出する露出粘膜検出部と、
時間的に連続した撮像により生成された複数の前記画像データが示す複数の前記画像のそれぞれの中から、前記露出粘膜検出部が検出したそれぞれの前記露出粘膜について、人の生命活動に起因する画像的な変化を検出することで、前記対象者の生命活動の状態を判定する生体判定部と、
を備えることを特徴とする生体判定装置。
An exposed mucous membrane detection unit that detects an exposed mucous membrane, which is a portion where a human has intentionally exposed the mucous membrane of the face, from an image indicated by image data generated by imaging the face of the subject,
Of each of the plurality of images indicated by the plurality of image data generated by temporally continuous imaging, each of the exposed mucosa detected by the exposed mucosa detection unit is an image resulting from human life activity. A living body determination unit that determines a state of the life activity of the subject by detecting a local change,
A living body determination apparatus comprising:
JP2015030990A 2015-02-19 2015-02-19 Face authentication device, image processing device, and living body determination device Pending JP2016152029A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015030990A JP2016152029A (en) 2015-02-19 2015-02-19 Face authentication device, image processing device, and living body determination device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015030990A JP2016152029A (en) 2015-02-19 2015-02-19 Face authentication device, image processing device, and living body determination device

Publications (1)

Publication Number Publication Date
JP2016152029A true JP2016152029A (en) 2016-08-22

Family

ID=56695468

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015030990A Pending JP2016152029A (en) 2015-02-19 2015-02-19 Face authentication device, image processing device, and living body determination device

Country Status (1)

Country Link
JP (1) JP2016152029A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109522877A (en) * 2018-12-14 2019-03-26 睿云联(厦门)网络通讯技术有限公司 A kind of offline plurality of human faces recognition methods and computer equipment based on Android device
JP2020064541A (en) * 2018-10-19 2020-04-23 富士通株式会社 Identity verification program, identity verification method and information processing apparatus
WO2022172430A1 (en) 2021-02-15 2022-08-18 富士通株式会社 Determination method, determination program, and information processing device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020064541A (en) * 2018-10-19 2020-04-23 富士通株式会社 Identity verification program, identity verification method and information processing apparatus
CN109522877A (en) * 2018-12-14 2019-03-26 睿云联(厦门)网络通讯技术有限公司 A kind of offline plurality of human faces recognition methods and computer equipment based on Android device
WO2022172430A1 (en) 2021-02-15 2022-08-18 富士通株式会社 Determination method, determination program, and information processing device

Similar Documents

Publication Publication Date Title
JP7004522B2 (en) Liveness inspection method and equipment
US9922238B2 (en) Apparatuses, systems, and methods for confirming identity
JP5043097B2 (en) Person identification method by eyelash analysis
JP5955133B2 (en) Face image authentication device
JP2004118627A (en) Figure identification device and method
JP7269711B2 (en) Biometric authentication system, biometric authentication method and program
JP5277365B2 (en) Personal authentication method and personal authentication device used therefor
JP2007011667A (en) Iris authentication device and iris authentication method
JP2002269565A (en) Non-contact type iris recognition method due to correction of rotated image
WO2010070745A1 (en) Biometric authentication device and biometric authentication method
JP2004213087A (en) Device and method for personal identification
US20160188975A1 (en) Biometric identification via retina scanning
JP2008067727A (en) Personal authentication device
JP2003150942A (en) Eye position tracing method
JP4899552B2 (en) Authentication device, authentication method, authentication program, and computer-readable recording medium recording the same
JP2014115821A (en) Face feature extraction device and face authentication system
JP6396357B2 (en) Face image authentication device
JP2016152029A (en) Face authentication device, image processing device, and living body determination device
EP4343689A1 (en) Body part authentication system and authentication method
JPWO2020065954A1 (en) Authentication device, authentication method, authentication program and recording medium
JP3970573B2 (en) Facial image recognition apparatus and method
WO2015181729A1 (en) Method of determining liveness for eye biometric authentication
JP2004110813A (en) Personal identification device
WO2022180890A1 (en) Biometric authentication system, authentication terminal, and authentication method
JP6798285B2 (en) Biometric device, biometric method and program