JP2016152029A - Face authentication device, image processing device, and living body determination device - Google Patents
Face authentication device, image processing device, and living body determination device Download PDFInfo
- Publication number
- JP2016152029A JP2016152029A JP2015030990A JP2015030990A JP2016152029A JP 2016152029 A JP2016152029 A JP 2016152029A JP 2015030990 A JP2015030990 A JP 2015030990A JP 2015030990 A JP2015030990 A JP 2015030990A JP 2016152029 A JP2016152029 A JP 2016152029A
- Authority
- JP
- Japan
- Prior art keywords
- exposed
- person
- registrant
- face
- mucous membrane
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Collating Specific Patterns (AREA)
Abstract
Description
本発明は、画像の中から検出した人の顔について認証を行う顔認証装置と、当該顔認証装置に適用可能な画像処理装置及び生体判定装置と、に関する。 The present invention relates to a face authentication device that performs authentication on a human face detected from an image, and an image processing device and a biological determination device that can be applied to the face authentication device.
近年、情報機器の不正使用や不審者の侵入などを防止するためのセキュリティ対策として、様々な認証システムが利用されている。特に、人の顔を認証キーとして用いる顔認証装置は、認証キーが人体の一部であるために認証キーの盗難や紛失、忘却などの問題が生じない点や、認証を受けようとする者(以下、「被認証者」という)が認証用のカメラに対して顔を向けるという非接触かつ簡易な方法で認証が可能である点など、様々な利点を有しているため、注目されている。 In recent years, various authentication systems have been used as security measures for preventing unauthorized use of information devices and intrusion of suspicious persons. In particular, a face authentication device that uses a human face as an authentication key does not cause problems such as theft, loss or forgetting of the authentication key because the authentication key is a part of the human body, or a person who wants to receive authentication Since it has various advantages such as that it is possible to authenticate in a non-contact and simple way that the face (hereinafter referred to as "authenticated person") faces the camera for authentication, it is attracting attention Yes.
しかし、顔認証装置では、認証すべき者として顔認証装置に顔が登録されている者(以下、「登録者」という)の顔を盗撮し、それによって作製した当該登録者の顔の写真を認証用のカメラに向けるという不正な方法によって、認証が成功してしまうという問題がある。 However, in the face authentication apparatus, the face of a person whose face is registered in the face authentication apparatus as a person to be authenticated (hereinafter referred to as “registrant”) is voyeurized, and a photograph of the face of the registrant created thereby is taken. There is a problem that authentication succeeds by an unauthorized method of pointing to the authentication camera.
そこで、特許文献1では、被認証者が生体であることを確認してから顔認証を行うことで、上記のような不正な方法による認証の成功を防止する顔認証装置が提案されている。具体的に、この顔認証装置では、顔の特定領域における毛細血管を流れる血液の変化が、被認証者の動画を撮像して得られる一連の画像データが示す画像の変化として検出されるか否かによって、被認証者が生体か否かを判定する。 In view of this, Japanese Patent Laid-Open No. 2004-228620 proposes a face authentication apparatus that prevents the authentication from succeeding by an unauthorized method as described above by performing face authentication after confirming that the person to be authenticated is a living body. Specifically, in this face authentication device, whether or not a change in blood flowing through capillaries in a specific area of the face is detected as an image change indicated by a series of image data obtained by capturing a moving image of the person to be authenticated. Whether or not the person to be authenticated is a living body is determined.
しかし、特許文献1で提案されている顔認証装置では、外界に晒されるために丈夫で厚く形成されている表面層(典型的には皮膚の表皮。なお、唇は、外界に晒される外側部分は皮膚と同じく角質層から成る表皮が形成されており、皮膚の一種である。)の下の毛細血管を流れる血流の変化という、外観上極めて微細な変化を検出しなければならない。したがって、特許文献1で提案されている顔認証装置は、原理的には生体か否かを判定することが可能であるものの、現実的には生体の判定精度が低く実用化が困難であるため、問題となる。 However, in the face authentication device proposed in Patent Document 1, a surface layer (typically the skin epidermis that is strong and thick to be exposed to the outside world. Note that the lips are the outer part exposed to the outside world. The skin has a stratum corneum like the skin, and is a kind of skin.) It must detect a very fine change in appearance, that is, a change in blood flow through the capillary below. Therefore, although the face authentication device proposed in Patent Document 1 can in principle determine whether or not it is a living body, it is practically difficult to put it to practical use because the determination accuracy of the living body is low. , It becomes a problem.
さらに、特許文献1で提案されている顔認証装置において、仮に生体か否かを判定することができたとしても、写真などの静止画が認証用のカメラに向けられた場合は生体ではないと判定することができるが、動画を再生した表示装置が認証用のカメラに向けられた場合は生体であると誤判定してしまう。即ち、特許文献1で提案されている顔認証装置では、登録者の顔を動画として盗撮し、それによって得られた当該動画を再生した表示装置を認証用のカメラに向けるという不正な方法によって、認証が成功してしまう。したがって、特許文献1で提案されている顔認証装置は、盗撮に対して脆弱であるため、問題となる。 Furthermore, in the face authentication device proposed in Patent Document 1, even if it can be determined whether or not it is a living body, it is not a living body when a still image such as a photograph is directed to the authentication camera. Although it can be determined, if the display device that reproduced the moving image is directed to the authentication camera, it is erroneously determined to be a living body. In other words, in the face authentication device proposed in Patent Document 1, the registrant's face is voyeurized as a moving image, and an illegal method of directing the display device that reproduces the moving image obtained thereby to the authentication camera, Authentication succeeds. Therefore, the face authentication device proposed in Patent Document 1 is problematic because it is vulnerable to voyeurism.
そこで、本発明は、生体の判定精度が高く盗撮に対して堅牢である顔認証装置を提供することを目的とする。また、当該顔認証装置に適用可能な画像処理装置及び生体判定装置を提供することを目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to provide a face authentication device that has a high accuracy of biometric determination and is robust against voyeurism. It is another object of the present invention to provide an image processing apparatus and a biometric determination apparatus that can be applied to the face authentication apparatus.
上記目的を達成するため、本発明は、被認証者の顔を撮像して生成された画像データが示す画像の中から、人が作為的に顔の粘膜を露出させた部分である露出粘膜を検出する露出粘膜検出部と、時間的に連続した撮像により生成された複数の前記画像データが示す複数の前記画像のそれぞれの中から、前記露出粘膜検出部が検出したそれぞれの前記露出粘膜について、人の生命活動に起因する画像的な変化の有無を検出することで、前記被認証者が生体であるか否かを判定する生体判定部と、登録者の顔の特徴を示す登録者データを記録するデータベースと、前記画像データが示す前記画像の中の前記被認証者の顔の特徴と、前記データベースが記録する前記登録者データが示す前記登録者の顔の特徴と、を比較することで、前記被認証者が前記登録者に該当するか否かを判定する本人判定部と、前記被認証者が生体であると前記生体判定部が判定し、かつ、前記被認証者が前記登録者に該当すると前記本人判定部が判定する場合に、前記被認証者を認証する認証決定部と、を備えることを特徴とする顔認証装置を提供する。 In order to achieve the above object, the present invention provides an exposed mucous membrane, which is a portion where a human has intentionally exposed the mucous membrane of a face from among images indicated by image data generated by imaging the face of the person to be authenticated. About each exposed mucous membrane detected by the exposed mucous membrane detection unit from among each of the plurality of images indicated by the plurality of image data generated by temporally continuous imaging to detect the exposed mucosa, By detecting the presence or absence of an image change caused by a person's life activity, a biometric determination unit for determining whether or not the person to be authenticated is a living body, and registrant data indicating the characteristics of the registrant's face By comparing the database to be recorded with the facial features of the person to be authenticated in the image indicated by the image data, and the facial features of the registrant indicated by the registrant data recorded by the database. , The person to be authenticated An identity determination unit that determines whether or not the registered person corresponds, and the biometric determination unit determines that the person to be authenticated is a living body, and the person determination that the to-be-authenticated person corresponds to the registrant. A face authentication apparatus comprising: an authentication determination unit configured to authenticate the person to be authenticated when the unit determines.
この顔認証装置によれば、皮膚等の常に外界に晒されている部分と比較して表面層が薄くなっており、毛細血管及びその中を流れる血液が外部から明確に視認される露出粘膜に基づいて、被認証者が生体か否かを判定することができる。また、人が意図的に行う表情であって、人前では滅多にしない特殊な表情である、露出粘膜が現れた表情に基づいて、被認証者が登録者に該当するか否かを判定することができる。 According to this face recognition device, the surface layer is thinner than the part that is constantly exposed to the outside, such as the skin, and the capillaries and the blood flowing through them are exposed to the exposed mucous membrane clearly visible from the outside. Based on this, it can be determined whether the person to be authenticated is a living body. In addition, it is determined whether or not the person to be authenticated is a registered person based on a facial expression intentionally performed by a person and a special expression rarely seen in the public, that is, an exposed mucosal expression. Can do.
また、上記特徴の顔認証装置において、前記画像データが示す前記画像の中から、人の顔に存在する所定の部位である顔部位を検出する顔部位検出部を、さらに備え、前記データベースが記録する前記登録者データが、前記登録者の前記顔部位を示すものであり、前記本人判定部は、前記顔部位検出部が検出した前記被認証者の前記顔部位が、前記登録者データが示す前記登録者の前記顔部位に該当するか否かに基づいて、前記被認証者が前記登録者に該当するか否かを判定すると、好ましい。 The face authentication device having the above characteristics further includes a face part detection unit that detects a face part, which is a predetermined part existing in a human face, from the image indicated by the image data, and the database records the data. The registrant data to indicate the face part of the registrant, and the identity determination unit indicates the face part of the person to be authenticated detected by the face part detection unit by the registrant data. It is preferable to determine whether or not the person to be authenticated corresponds to the registrant based on whether or not it corresponds to the face part of the registrant.
この顔認証装置によれば、顔部位という人毎に異なる特徴を比較することによって、被認証者が登録者に該当するか否かを精度良く判定することができる。 According to this face authentication device, it is possible to accurately determine whether or not the person to be authenticated corresponds to the registrant by comparing different characteristics of each person such as a face part.
さらに、上記特徴の顔認証装置において、前記露出粘膜検出部は、前記顔部位検出部が検出した前記顔部位の位置に基づいて、前記露出粘膜の出現が予測される領域である出現予測領域を設定し、設定した前記出現予測領域の中から前記露出粘膜を検出すると、好ましい。 Furthermore, in the face authentication device having the above characteristics, the exposed mucous membrane detection unit includes an appearance prediction region that is a region where the appearance of the exposed mucous membrane is predicted based on the position of the face part detected by the face part detection unit. It is preferable to set and detect the exposed mucous membrane from the set appearance prediction region.
この顔認証装置によれば、不特定の広がりを有する領域であるために網羅的な検出が困難な露出粘膜を、背景などの非顔領域から誤検出することを抑制しながら、精度良く検出することが可能になる。さらに、この顔認証装置によれば、出現予測領域という限られた領域内から露出粘膜を検出するため、露出粘膜を検出するために必要な計算量を低減して迅速に検出を行うことが可能になる。 According to this face authentication device, an exposed mucous membrane that is difficult to exhaustively detect because it is an unspecified area is accurately detected while suppressing erroneous detection from a non-face area such as a background. It becomes possible. Furthermore, according to the face authentication device, the exposed mucous membrane is detected from a limited area called the appearance prediction area, so that the calculation amount necessary for detecting the exposed mucosa can be reduced and the detection can be quickly performed. become.
さらに、上記特徴の顔認証装置において、前記露出粘膜検出部は、前記画像の赤色成分に基づいて、前記露出粘膜の検出を行うと、好ましい。 Furthermore, in the face authentication device having the above characteristics, it is preferable that the exposed mucous membrane detection unit detects the exposed mucous membrane based on a red component of the image.
この顔認証装置によれば、背景などの非顔領域の赤い部分を露出粘膜として誤検出することを防止しながら、顔の中で際立って赤い色をしている露出粘膜を検出することができる。したがって、精度良く露出粘膜を検出することが可能になる。 According to this face authentication device, it is possible to detect an exposed mucous membrane that is conspicuously red in the face while preventing erroneous detection of a red portion of a non-face area such as a background as an exposed mucosa. . Therefore, it is possible to detect the exposed mucous membrane with high accuracy.
また、上記特徴の顔認証装置において、前記顔部位検出部は、前記画像の輝度成分に基づいて、前記顔部位の検出を行うと、好ましい。 In the face authentication device having the above characteristics, it is preferable that the face part detection unit detects the face part based on a luminance component of the image.
この顔認証装置によれば、人の顔に特有の明暗パターンが存在することを利用して、精度良く顔部位を検出することが可能になる。 According to this face authentication apparatus, it is possible to detect a face part with high accuracy by utilizing the existence of a light and dark pattern peculiar to a human face.
また、上記特徴の顔認証装置において、前記データベースが記録する前記登録者データが、前記登録者の前記露出粘膜を示すものであり、前記本人判定部は、前記露出粘膜検出部が検出した前記被認証者の前記露出粘膜が、前記登録者データが示す前記登録者の前記露出粘膜に該当するか否かに基づいて、前記被認証者が前記登録者に該当するか否かを判定すると、好ましい。 In the face authentication device having the above characteristics, the registrant data recorded in the database indicates the exposed mucous membrane of the registrant, and the identity determination unit is configured to detect the subject detected by the exposed mucous membrane detection unit. Preferably, it is determined whether or not the person to be authenticated corresponds to the registrant based on whether or not the exposed mucous membrane of the certifier corresponds to the exposed mucous membrane of the registrant indicated by the registrant data. .
この顔認証装置によれば、露出粘膜という人毎に異なる特徴を比較することによって、被認証者が登録者に該当するか否かを精度良く判定することができる。また、露出粘膜に加えて顔部位の比較を行うことによって、被認証者が登録者に該当するか否かをさらに精度良く判定することが可能になる。 According to this face authentication apparatus, it is possible to accurately determine whether or not the person to be authenticated corresponds to the registrant by comparing different characteristics of the exposed mucous membrane for each person. Further, by comparing the facial region in addition to the exposed mucous membrane, it becomes possible to determine with high accuracy whether or not the person to be authenticated corresponds to the registrant.
また、上記特徴の顔認証装置において、前記データベースが記録する前記登録者データが、前記登録者毎に設定されている個人を識別するための識別コードを示すものであり、前記本人判定部は、前記被認証者が入力する前記識別コードが、前記登録者データが示す前記識別コードと一致する前記登録者を特定した上で、前記被認証者の顔の特徴と特定した前記登録者の顔の特徴とを比較すると、好ましい。 Moreover, in the face authentication device having the above characteristics, the registrant data recorded in the database indicates an identification code for identifying an individual set for each registrant, and the identity determination unit includes: The identification code input by the person to be authenticated identifies the registrant that matches the identification code indicated by the registrant data, and the facial features of the registrant who have been identified as the facial features of the person to be authenticated. It is preferable to compare the characteristics.
この顔認証装置によれば、識別コードに基づいて比較すべき登録者を予め特定することによって、本来は該当する登録者が存在しない被認証者が、偶然にいずれかの登録者に該当すると誤判定されることを防止することができる。したがって、被認証者が登録者に該当するか否かを精度良く判定することが可能になる。 According to this face authentication apparatus, by specifying in advance a registrant to be compared based on an identification code, an authenticated person who originally does not have a corresponding registrant accidentally falls into one of the registrants. It is possible to prevent the determination. Therefore, it can be accurately determined whether or not the person to be authenticated corresponds to the registrant.
また、本発明の画像処理装置は、対象者の顔を撮像して生成された画像データが示す画像の中から、人が作為的に顔の粘膜を露出させた部分である露出粘膜を検出する露出粘膜検出部と、前記画像の中から、人の顔に存在する所定の部位である顔部位を検出する顔部位検出部と、を備え、前記露出粘膜検出部は、前記顔部位検出部が検出した前記顔部位の位置に基づいて、前記露出粘膜の出現が予測される領域である出現予測領域を設定し、設定した前記出現予測領域の中から前記露出粘膜を検出することを特徴とする。 In addition, the image processing apparatus of the present invention detects an exposed mucous membrane, which is a portion where a human intentionally exposes the mucous membrane of a face, from an image indicated by image data generated by imaging a subject's face. An exposed mucous membrane detection unit; and a facial part detection unit that detects a facial part, which is a predetermined part existing on a human face, from the image, and the exposed mucous membrane detection part includes: An appearance prediction area that is an area where the appearance of the exposed mucous membrane is predicted is set based on the detected position of the face part, and the exposed mucosa is detected from the set appearance prediction area. .
この画像処理装置によれば、不特定の広がりを有する領域であるために網羅的な検出が困難な露出粘膜を、背景などの非顔領域から誤検出することを抑制しながら、精度良く検出することが可能になる。さらに、この画像処理装置によれば、出現予測領域という限られた領域内から露出粘膜を検出するため、露出粘膜を検出するために必要な計算量を低減して迅速に検出を行うことが可能になる。 According to this image processing apparatus, an exposed mucous membrane that is difficult to exhaustively detect because it is an unspecified area is detected with high accuracy while suppressing erroneous detection from a non-face area such as a background. It becomes possible. Furthermore, according to this image processing apparatus, since the exposed mucous membrane is detected from a limited area called the appearance prediction area, it is possible to reduce the amount of calculation necessary for detecting the exposed mucous membrane and perform detection quickly. become.
また、本発明の生体判定装置は、対象者の顔を撮像して生成された画像データが示す画像の中から、人が作為的に顔の粘膜を露出させた部分である露出粘膜を検出する露出粘膜検出部と、時間的に連続した撮像により生成された複数の前記画像データが示す複数の前記画像のそれぞれの中から、前記露出粘膜検出部が検出したそれぞれの前記露出粘膜について、人の生命活動に起因する画像的な変化を検出することで、前記対象者の生命活動の状態を判定する生体判定部と、を備えることを特徴とする。 In addition, the living body determination device of the present invention detects an exposed mucous membrane, which is a portion where a human has intentionally exposed the mucous membrane of the face, from an image indicated by image data generated by imaging the subject's face. For each of the exposed mucous membranes detected by the exposed mucosa detecting unit from among each of the plurality of images indicated by the exposed mucous membrane detecting unit and the plurality of image data generated by temporally continuous imaging, And a living body determination unit that determines the state of the subject's life activity by detecting an image change caused by the life activity.
この生体判定装置によれば、皮膚等の常に外界に晒されている部分と比較して表面層が薄くなっており、毛細血管及びその中を流れる血液が外部から明確に視認される露出粘膜に基づいて、対象者の生命活動の状態を精度良く判定することが可能になる。 According to this living body judgment device, the surface layer is thinner than the part that is constantly exposed to the outside such as the skin, and the capillary blood vessel and the blood flowing through it are exposed to the exposed mucous membrane clearly visible from the outside. Based on this, it becomes possible to accurately determine the state of the life activity of the subject.
上記特徴の顔認証装置では、露出粘膜に基づいて被認証者が生体か否かを判定するため、被認証者が生体か否かを精度良く判定することが可能になる。さらに、露出粘膜が現れた表情という人前では滅多にしない特殊な表情に基づいて、被認証者が登録者に該当するか否かを判定するため、盗撮に対して堅牢な顔認証装置を実現することが可能になる。 In the face authentication apparatus having the above characteristics, it is possible to accurately determine whether the person to be authenticated is a living body because the person to be authenticated is determined based on the exposed mucous membrane. Furthermore, a face recognition device that is robust against voyeurism is realized in order to determine whether or not the person to be authenticated corresponds to a registrant based on a special expression that rarely appears in the public, such as a facial expression with exposed mucous membranes. It becomes possible.
<登録者データ生成装置>
本発明の実施形態に係る顔認証装置について説明する前に、当該顔認証装置で使用する登録者データを生成するための登録者データ生成装置について、図面を参照して説明する。最初に、登録者データ生成装置の構成について、図面を参照して説明する。図1は、登録者データ生成装置の構成の一例について示すブロック図である。
<Registrant data generation device>
Before describing a face authentication apparatus according to an embodiment of the present invention, a registrant data generation apparatus for generating registrant data used in the face authentication apparatus will be described with reference to the drawings. First, the configuration of the registrant data generation device will be described with reference to the drawings. FIG. 1 is a block diagram illustrating an example of a configuration of a registrant data generation apparatus.
図1に示すように、登録者データ生成装置10は、識別コード取得部11と、撮像部12と、顔部位検出部13と、露出粘膜検出部14と、登録者データ生成部15と、データベース16と、を備える。
As shown in FIG. 1, the registrant
識別コード取得部11は、登録者が入力する識別コードを取得して、当該識別コードを示す識別コードデータを登録者データ生成部15に与える。例えば、識別コード取得部11は、キーパッドやキーボードなとの入力装置や、接触型または非接触型のカードリーダなどの読取装置によって構成される。また、識別コードとは、登録者毎に設定されている個人を識別するための符号であり、例えば従業員IDや登録者の名前などである。
The identification
撮像部12は、登録者の顔を撮像して画像データを生成する。例えば、撮像部12は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサやCCD(Charge Coupled Device)イメージセンサなどの撮像素子を備えた撮像装置によって構成される。また、撮像部12が生成する画像データが示す画像は、RGB(赤緑青)などの色の成分を含むカラーの画像である。
The
顔部位検出部13は、撮像部12が生成する画像データが示す画像の中から、人の顔に存在する所定の部位である顔部位を検出して、当該顔部位を示す顔部位データを生成する。
The face
顔部位とは、目、口、鼻、耳、眉毛などの、形状や色などによって他の部分と区別され得る、顔を構成するそれぞれのパーツである。また、例えば顔部位データは、画像中のそれぞれの顔部位における、1または複数の特徴点(例えば、中心位置、左右端位置、上下端位置など)の座標を表すデータである。 A face part is each part which comprises a face which can be distinguished from other parts by shapes, colors, etc., such as eyes, mouth, nose, ears, and eyebrows. For example, the face part data is data representing the coordinates of one or a plurality of feature points (for example, the center position, the left and right end positions, the upper and lower end positions, etc.) in each face part in the image.
露出粘膜検出部14は、撮像部12が生成する画像データが示す画像の中から、人が作為的に粘膜を露出させた部分である露出粘膜を検出して、当該露出粘膜を示す露出粘膜データを生成する。
The exposed mucous
露出粘膜とは、通常の状態(顔の筋肉を脱力した無表情の状態であって、手で皮膚を引っ張るなどの外部から意図的に顔の表情を変形させる行為を行っていない状態)では外界に晒されていないが、顔の筋肉を動かしたり手で皮膚を引っ張ったりするなどの作為によって外界に晒される粘膜である。例えば、露出粘膜には、目の下側(顎側)の結膜や、目の上側(頭頂側)の結膜、目蓋の裏側の結膜、舌、唇の内側(口腔側)、口腔粘膜などが含まれる。また、例えば露出粘膜データは、画像中の露出粘膜の領域の輪郭線を多角形で近似した場合における、当該多角形の各頂点の座標を表すデータである。 The exposed mucous membrane is the outside world in a normal state (a state of expressionlessness with weakened muscles of the face and no intentional deformation of the facial expression from the outside, such as pulling the skin with a hand). It is not exposed to water, but it is a mucous membrane that is exposed to the outside world by actions such as moving facial muscles or pulling skin with hands. For example, the exposed mucous membrane includes the conjunctiva on the lower side of the eye (jaw side), the conjunctiva on the upper side of the eye (the parietal side), the conjunctiva on the back side of the eyelid, the tongue, the inside of the lips (oral side), the oral mucosa, etc. . Further, for example, the exposed mucosa data is data representing the coordinates of each vertex of the polygon when the outline of the exposed mucosa region in the image is approximated by a polygon.
登録者データ生成部15は、識別コード取得部11から与えられる識別コードデータと、顔部位検出部13が生成する顔部位データと、露出粘膜検出部14が生成する露出粘膜データと、を関連付ける(紐付ける)ことで、登録者データを生成する。
The registrant
顔部位検出部13、露出粘膜検出部14及び登録者データ生成部15は、各種データの処理を行う部分であり、全体として1または複数の演算装置及び記憶装置によって実現することができる。なお、演算装置として、例えばCPU(Central Processing Unit)やGPU(Graphic Processing Unit)を用いてもよい。また、記憶装置として、例えばRAM(Random Access Memory)を用いてもよい。
The face
データベース16は、登録者データが生成する登録者データを記録する。例えば、データベース16は、ハードディスクやフラッシュメモリなどの不揮発性の記録装置によって構成される。
The
次に、登録者データ生成装置10の動作について、図面を参照して説明する。図2は、図1の登録者データ生成装置の動作の一例を示すフローチャートである。図3は、顔部位検出部及び露出粘膜検出部の具体的な動作について説明する図である。なお、図3(a)は、撮像部が生成する画像データが示す画像に含まれる顔の具体例を模式的に示した図である。また、図3(b)は、図3(a)に示す顔を含む画像の中から顔部位を検出する場合の顔部位検出部の動作の具体例について模式的に示した図である。また、図3(c)及び図3(d)は、図3(a)に示す顔を含む画像の中から露出粘膜を検出する場合の露出粘膜検出部の動作の具体例について模式的に示した図である。
Next, the operation of the registrant
図2に示すように、最初に、識別コード取得部11が、登録者の識別コードを取得して、当該識別コードを示す識別コードデータを登録者データ生成部15に与える(ステップ#10)。このとき、登録者は、識別コード取得部11に対して所定の操作(例えば、キーパッドを打つ、カードリーダに従業員カードをかざして読み取らせるなど)を行うことで、識別コード取得部11に識別コードを入力する。
As shown in FIG. 2, first, the identification
次に、撮像部12が、登録者の顔を撮像して画像データを生成する(ステップ#11)。このとき、登録者は、撮像部12に撮像される際に、意図的に露出粘膜が現れた表情を作る。
Next, the
例えば、図3(a)に示すように、登録者は、右目の下側の皮膚を右手の指で下側に引っ張ることで右目の下側の結膜を露出させるとともに、口の周囲の筋肉及び舌の筋肉を使って舌の上面を露出させる(いわゆる「あっかんべ」をする)。 For example, as shown in FIG. 3 (a), the registrant exposes the lower conjunctiva of the right eye by pulling the lower skin of the right eye with the finger of the right hand, and the muscles and tongue around the mouth. Expose the upper surface of the tongue using muscles (so-called “glance”).
次に、顔部位検出部13が、撮像部12が生成した画像データが示す画像の中から、顔部位を検出する(ステップ#12)。さらに、顔部位検出部13は、検出した顔部位を示す顔部位データを生成する。
Next, the face
人の顔には、顔部位の凹凸に起因した明暗(鼻などの周囲より凸となる部分が明るくなり、眼窩などの周囲より凹となる部分が暗くなる)や、顔部位の色の違いに起因した明暗(白目などの周囲よりも白い部分が明るくなり、虹彩及び瞳孔や眉などの周囲よりも黒い部分が暗くなる)などの、特有の明暗パターンが存在する。そこで、顔部位検出部13は、画像を構成する各画素の輝度成分を取得し(例えば、撮像部12が生成したカラーの画像データを、各画素を輝度成分で表したグレースケールの画像に変換し)、上記の特有の明暗パターンを当該輝度成分の分布に当てはめることによって、当該画像データが示す画像の中から、背景の領域と区別して顔の領域を検出するとともに、当該顔の領域の中から顔部位を検出する。
The human face has lightness and darkness due to the unevenness of the facial part (the part that is convex from the periphery of the nose becomes brighter and the part that is concave from the periphery of the eye socket becomes darker) and the color of the facial part There are distinctive light and dark patterns, such as the resulting light and dark (white areas are brighter than the surroundings such as white eyes, and black parts are darker than the surroundings such as the iris and pupil and eyebrows). Therefore, the face
例えば、図3(b)に示すように、顔部位検出部13は、図3(a)に示す顔を含む画像の中から、左右の目(瞳孔または中心位置)EL,ERと、左右の口角ML,MRと、のそれぞれを検出する。なお、図3(b)及び図3(c)では、図示の都合上、左右の口角ML,MRについては黒塗りの矩形で表しており、左右の目EL,ERについては白塗りの矩形で表している。また、ここでは説明を簡略化するために、左右の目EL,ERのそれぞれにおける1つの特徴点(瞳孔または中心位置)と、口における2つの特徴点(左右端位置)と、の合計4つの特徴点のみ例示しているが、実際の処理では5以上の多くの特徴点を検出することも可能である。特に、顔認証を高精度に行うためには、多数の顔部位について多数の特徴点を検出すると、好ましい。
For example, as shown in FIG. 3B, the face
また、このとき顔部位検出部13が生成する顔部位データは、上記のそれぞれの特徴点の座標を示すデータである。例えば、顔部位データは、画像の左下隅などの特定の位置の座標を基準座標(0,0)として、それぞれの特徴点の位置を座標(x,y)で表したデータであってもよい。また例えば、顔部位データは、左目の中心位置などの特定の特徴点の座標を基準座標(0,0)として、それぞれの特徴点の位置を座標(x,y)で表したデータであってもよい。
Further, the face part data generated by the face
ところで、図3(a)に示す例のように、右手で右目の下側の皮膚を下側に引っ張ると、右手が顔と重なってしまう。しかし、この右手は、特徴が少ない頬と重なっているだけであり、目、鼻、口などの特徴が豊富な部位とは重ならない。そのため、図3(b)に示すように、顔部位検出部13は、目、鼻、口などの部位を手掛かりとして、顔及び顔部位を検出することができる。
By the way, as in the example shown in FIG. 3A, when the skin under the right eye is pulled downward with the right hand, the right hand overlaps the face. However, this right hand only overlaps the cheek with few features, and does not overlap with a region rich in features such as eyes, nose and mouth. Therefore, as shown in FIG. 3B, the face
次に、露出粘膜検出部14が、撮像部12が生成した画像データが示す画像の中から、露出粘膜を検出する(ステップ#13)。さらに、露出粘膜検出部14は、検出した露出粘膜を示す露出粘膜データを生成する。
Next, the exposed
露出粘膜は、皮膚等の常に外界に晒されている部分と比較して表面層が薄くなっており、毛細血管及びその中を流れる血液が外部から明確に視認される。換言すると、露出粘膜は、顔の中で際立って赤い色をしている部分と言える。そこで、露出粘膜検出部14は、撮像部12が生成した画像データが示す画像の中から、画像の赤色成分が大きい領域(例えば、赤色成分が所定の閾値以上となる領域)を検出することによって、露出粘膜を検出する。
The exposed mucous membrane has a thin surface layer as compared with a part that is constantly exposed to the outside, such as the skin, and the capillaries and the blood flowing therethrough are clearly visible from the outside. In other words, it can be said that the exposed mucous membrane is a portion of the face that is markedly red. Therefore, the exposed mucous
さらに、人の顔の構造上、露出粘膜は、目及び口などの特定の顔部位に隣接した位置に出現する。そこで、露出粘膜検出部14は、顔部位検出部13が生成する顔部位データが示す顔部位の位置に基づいて、露出粘膜の検出を行う。具体的に、露出粘膜検出部14は、顔部位の位置に基づいて、露出粘膜の出現が予測される領域である出現予測領域を設定し、当該出現予測領域の中から露出粘膜を検出する。
Further, due to the structure of the human face, the exposed mucous membrane appears at a position adjacent to a specific face part such as the eyes and mouth. Therefore, the exposed mucous
具体的に例えば、図3(c)に示すように、露出粘膜検出部14は、左右の目EL,ERを結ぶ直線に対して垂直であり、かつ、左目EL及び右目ERのそれぞれから左右の口角ML,MRを結んだ直線MLRまで伸びる線分SL,SRを規定する。ここで、線分SLは、左目ELから直線MLRまで伸びる線分であり、線分SRは、右目ERから直線MLRまで伸びる線分である。
Specifically, for example, as shown in FIG. 3C, the exposed
次に、露出粘膜検出部14は、線分SL,SRについて、画像の赤色成分が閾値以上となる部分を検出する。図3(c)に示す例の場合、線分SRの右目ERに近い部分(線分SRと右目ERの下側の結膜CRとが重なる部分)が、画像の赤色成分が閾値以上であるとして露出粘膜検出部14に検出される。
Next, the exposed mucous
次に、露出粘膜検出部14は、線分SRにおける画像の赤色成分が閾値以上となる部分の周囲に出現予測領域PRを設定する。このとき、露出粘膜検出部14が設定する出現予測領域PRの大きさを、事前に决定しておいた固定の大きさとしてもよいし、目の位置や大きさ、顔の大きさ、線分SRにおける画像の赤色成分が閾値以上となる部分の長さなどに応じた可変の大きさとしてもよい。
Next, the exposed mucous
そして、露出粘膜検出部14は、設定した出現予測領域PRの中で画像の赤色成分が閾値以上となる領域を露出粘膜として検出する。図3(c)に示す例の場合、右目ERの下側の結膜CRが、露出粘膜として検出される。なお、登録者が、右目ERの下側の結膜CRに代えて(または加えて)、左目ELの下側の結膜CLを露出させた場合、図3(c)に示した右目ERの下側の結膜CRを露出した場合と同様に、左目ELの周囲に出現予測領域が設定されて、左目ELの下側の結膜の全体が露出粘膜として検出される。
Then, the exposed mucous
また例えば、図3(d)に示すように、露出粘膜検出部14は、図3(c)に示した線分SL,SRの始点を左右の目EL,ERから左右の口角ML,MRに平行移動させて得られる線分TL,TRと、左右の口角ML,MRを結ぶ線分と、線分TL,TRの終点を結ぶ線分と、によって囲まれる矩形の領域を、出現予測領域Qとして設定する。そして、露出粘膜検出部14は、設定した出現予測領域Qの中で画像の赤色成分が閾値以上となる領域を露出粘膜として検出する。図3(d)に示す例の場合、舌Uが露出粘膜として検出される。
Further, for example, as shown in FIG. 3D, the exposed
また、このとき露出粘膜検出部14が生成する露出粘膜データは、上記のそれぞれの露出粘膜の領域の座標を示すデータである。例えば、露出粘膜データは、出現予測領域を設定した顔部位における特定の特徴点の座標を基準座標(0,0)として、当該出現予測領域内から検出された露出粘膜の領域の輪郭線を多角形で近似した場合における、当該多角形の各頂点の位置を座標(x,y)で表したデータであってもよい。具体的に例えば、図3(c)に示す右目ERの下側の結膜CRは、露出粘膜データにおいて、右目(瞳孔または中心位置)ERの座標を基準座標(0,0)とした、領域の位置の座標として規定される。また例えば、図3(d)に示す舌Uの領域は、露出粘膜データにおいて、左右の口角ML,MRの中心である口角中心MCの座標を基準座標(0,0)とした、領域の位置の座標として規定される。
In addition, the exposed mucosa data generated by the exposed
ところで、露出粘膜データも、顔部位データと同様に、画像の左下隅などの特定の位置の座標を基準座標(0,0)として規定することが可能である。ただし、露出粘膜データについては、顔部位における特定の特徴点の座標を基準座標(0,0)として規定すると、後述する顔認証装置における処理において登録者の露出粘膜の位置を迅速かつ精度良く特定することができるため、好ましい。 By the way, the exposed mucous membrane data can also define the coordinates of a specific position such as the lower left corner of the image as the reference coordinates (0, 0), similarly to the facial part data. However, with regard to the exposed mucosa data, if the coordinates of a specific feature point in the face part are defined as the reference coordinates (0, 0), the position of the registrant's exposed mucous membrane can be quickly and accurately specified in the processing in the face authentication device described later. This is preferable.
次に、登録者データ生成部15が、識別コード取得部11が生成した識別コードデータと、顔部位検出部13が生成した顔部位データと、露出粘膜検出部14が生成した露出粘膜データと、を関連付けて(紐付けて)登録者データを生成する(ステップ#14)。
Next, the registrant
登録者データ生成部15が生成する登録者データの具体例について、図面を参照して説明する。図4は、登録者データの構成の一例を示す表である。なお、図4に示す登録者データは、1人の登録者についての登録者データの構成例を示したものである。
A specific example of the registrant data generated by the registrant
図4に示すように、登録者データには、登録者の識別コードを示す識別コードデータと、当該登録者の顔部位の位置を示す顔部位データと、当該登録者の露出粘膜の位置を示す露出粘膜データと、が含まれる。上述の通り、例えば顔部位データは、画像中における顔部位の特徴点の位置(絶対位置)を表すデータである。また、例えば露出粘膜データは、顔部位の特定の特徴点の座標を基準とした露出粘膜の領域の位置(相対位置)を表すデータである。 As shown in FIG. 4, the registrant data indicates identification code data indicating the registrant's identification code, face part data indicating the position of the registrant's face part, and the position of the exposed mucous membrane of the registrant. And exposed mucosa data. As described above, for example, the facial part data is data representing the position (absolute position) of the feature point of the facial part in the image. Further, for example, the exposed mucous membrane data is data representing the position (relative position) of the exposed mucous membrane region based on the coordinates of a specific feature point of the facial part.
そして、登録者データ生成部15が生成した登録者データを、データベース16が記録して(ステップ#15)、登録者データ生成装置10の動作が終了する。
Then, the registrant data generated by the registrant
なお、図2に示した動作例では、識別コードの取得(ステップ#10)が最初に行われているが、ステップ#14よりも前であればどのタイミングで行ってもよい。
In the operation example shown in FIG. 2, acquisition of the identification code (step # 10) is performed first, but it may be performed at any timing as long as it is before
また、図2は、登録者データ生成装置10の基本的な動作を例示したものに過ぎない。そのため、顔認証に適した登録者データを得るなどの観点から、様々な変形を加えてもよい。
FIG. 2 only illustrates the basic operation of the registrant
例えば、顔部位検出部13において、正面を向いた十分な大きさの顔が所定時間以上継続して検出されるまで、露出粘膜検出部14における露出粘膜の検出や登録者データ生成部15における登録者データの生成を待機してもよい。登録者が正面を向いているか否かについては、顔及び顔部位の検出時におけるスコア(正面顔用の明暗パターンがマッチングする程度を示す値)に基づいて判定することが可能である。さらに、露出粘膜検出部14において、十分な大きさの露出粘膜が所定時間以上継続して検出されるまで、登録者データ生成部15における登録者データの生成を待機してもよい。
For example, the face
この場合、撮像部12は、連続的に複数の画像データを生成することになる。また、顔部位検出部13及び露出粘膜検出部14は、撮像部12が生成する複数の画像データが示す複数の画像のそれぞれについて、顔部位及び露出粘膜の検出を行うことになる。
In this case, the
また、図3では、正面を向きかつ顔の中心線(左右の目の中間点及び口角中心を通る直線)と画像の縦軸(図中の上下方向)とが平行になっている場合について例示したが、図5に示すように、正面を向いているが顔の中心線と画像の縦軸とが平行ではない場合(即ち、ヨー方向及びピッチ方向には回転していないがロール方向に回転している場合)でも、図3と同様に登録者データを生成することが可能である。ここで、図5は、顔部位検出部及び露出粘膜検出部の動作の別例について示す図であり、図3における顔が傾いた場合(具体的には、左目EL及び右目ERが水平方向に沿って並ぶ状態から、左目ELが下がるとともに右目ERが上がるように首を傾げた場合)を示すものである。 In addition, FIG. 3 illustrates a case where the front is faced and the center line of the face (a straight line passing through the middle point of the left and right eyes and the center of the mouth corner) and the vertical axis of the image (vertical direction in the figure) are parallel. However, as shown in FIG. 5, the face center line and the vertical axis of the image are not parallel (that is, the face does not rotate in the yaw direction and pitch direction but rotates in the roll direction). However, it is possible to generate registrant data as in FIG. Here, FIG. 5 is a diagram showing another example of the operation of the face part detection unit and the exposed mucosa detection unit. When the face in FIG. 3 is tilted (specifically, the left eye EL and the right eye ER are in the horizontal direction). When the neck is tilted so that the left eye EL is lowered and the right eye ER is raised from the state of being lined up along.
図3を参照して説明したように、顔部位検出部13は、画像の輝度成分の分布に対して、人の顔における特有の明暗パターンを当てはめることで、顔部位を検出する。そのため、画像の縦軸や横軸の方向とは無関係に、画像の中から登録者の顔を検出することができる。同様に、露出粘膜検出部14は、顔部位の位置関係(上述の例では目と口の位置関係)に基づいて出現予測領域を設定し、当該出現予測領域の中から露出粘膜を検出する。そのため、画像の縦軸や横軸の方向とは無関係に、露出粘膜を検出することができる。したがって、図5に示すように、画像中で登録者の顔が傾いたとしても、登録者データを生成することが可能である。
As described with reference to FIG. 3, the face
<顔認証装置>
次に、本発明の実施形態に係る顔認証装置について、図面を参照して説明する。最初に、顔認証装置の構成について、図面を参照して説明する。図6は、顔認証装置の構成の一例について示すブロック図である。
<Face recognition device>
Next, a face authentication apparatus according to an embodiment of the present invention will be described with reference to the drawings. First, the configuration of the face authentication device will be described with reference to the drawings. FIG. 6 is a block diagram illustrating an example of the configuration of the face authentication apparatus.
図6に示すように、顔認証装置20は、識別コード取得部21と、撮像部22と、顔部位検出部23と、露出粘膜検出部24と、生体判定部25と、データベース26と、本人判定部27と、認証決定部28と、を備える。
As shown in FIG. 6, the
識別コード取得部21は、登録者データ生成装置10における識別コード取得部11と同様に、キーパッドやキーボードなとの入力装置や、接触型または非接触型のカードリーダなどの読取装置によって構成される。ただし、識別コード取得部21は、被認証者によって操作され、被認証者の識別コードを取得するとともに、被認証者の識別コードを示す識別コードデータを本人判定部27に与える。
Similar to the identification
撮像部22は、登録者データ生成装置10における撮像部22と同様に、CMOSイメージセンサやCCDイメージセンサなどの撮像素子を備えた撮像装置によって構成され、RGBなどの色の成分を含むカラーの画像を生成する。ただし、撮像部22は、被認証者に対して、時間的に連続した撮像(動画撮像)を行う。
Similar to the
顔部位検出部23は、登録者データ生成装置10における顔部位検出部23と同様に、撮像部22が生成する画像データが示す画像の中から顔部位を検出して、当該顔部位を示す顔部位データを生成する。ただし、顔部位検出部23は、撮像部22が時間的に連続した撮像によって生成する複数の画像データが示す複数の画像のそれぞれについて、顔部位を検出する。
Similar to the face
露出粘膜検出部24は、登録者データ生成装置10における露出粘膜検出部24と同様に、撮像部22が生成する画像データが示す画像の中から露出粘膜を検出して、当該露出粘膜を示す露出粘膜データを生成する。ただし、露出粘膜検出部24は、撮像部22が時間的に連続した撮像によって生成する複数の画像データが示す複数の画像のそれぞれについて、露出粘膜を検出する。また、露出粘膜検出部24が生成する露出粘膜データは、顔部位データと同じ基準座標(0,0)を用いた、露出粘膜の領域の位置(画像中の絶対位置)の座標を規定したデータである。
Similar to the exposed
生体判定部25は、撮像部22が時間的に連続した撮像によって生成した複数の画像データと、これらの複数の画像データが示す複数の画像のそれぞれの中から露出粘膜検出部24が検出した露出粘膜の領域の位置を示す露出粘膜データと、に基づいて、これらの複数の画像のそれぞれの中の露出粘膜を表す領域を特定する。さらに、生体判定部25は、特定した露出粘膜を表す領域について、人の生命活動に起因する画像的な変化の有無を検出することで、被認証者が生体であるか否かを判定し、その判定結果を示す生体判定結果データを生成する。
The
上述のように、露出粘膜は、毛細血管及びその中を流れる血液が外部から明確に視認されるために、顔の中で際立って赤い色をしている部分となっている。そのため、被認証者が生体であれば、毛細血管の中を流れる血液の心拍に応じた拍動が、画像の赤色成分の変動となって表れる。そこで、生体判定部25は、画像中から露出粘膜の拍動が検出されれば、被認証者を生体であると判定する。具体的に例えば、生体判定部25は、人の平均的な心拍数である60回/分以上90回/分以下程度(換算すると1Hz以上1.5Hz以下程度)で、少なくとも1つの露出粘膜における赤色成分が変動していれば、被認証者を生体であると判定する。
As described above, the exposed mucous membrane is a portion that is conspicuously red in the face because the capillaries and the blood flowing therethrough are clearly visible from the outside. Therefore, if the person to be authenticated is a living body, the pulsation corresponding to the heartbeat of the blood flowing in the capillary blood vessel appears as a change in the red component of the image. Therefore, if the pulsation of the exposed mucous membrane is detected from the image, the living
この場合、拍動は1秒間に1回程度になる。そのため、被認証者が生体であるか否かを精度良く判定するため観点から、生体判定部25が、連続して数秒以上撮像した画像データを取得するように構成すると、好ましい。具体的に例えば、撮像部22のフレームレートが30fpsの場合、生体判定部25が、300フレーム程度(撮像時間にして10秒程度)の画像データを取得するように構成すると、好ましい。
In this case, the pulsation is about once per second. Therefore, from the viewpoint of accurately determining whether or not the person to be authenticated is a living body, it is preferable that the living
データベース26は、登録者データ生成装置10におけるデータベース16と同様に、ハードディスクやフラッシュメモリなどの不揮発性の記録装置によって構成され、登録者データ生成装置10が生成する登録者データを記録している。なお、顔認証装置20が備えるデータベース26と、登録者データ生成装置10が備えるデータベース16と、は同一の記録装置によって構成されていてもよい。
Similar to the
本人判定部27は、まず、識別コード取得部21から与えられる識別コードデータが示す被認証者の識別コードに基づいて、当該被認証者に対応する登録者を特定し、当該登録者の登録者データをデータベース26から読み出す。具体的に、本人判定部27は、データベース26に記録されている登録者データの中で、被認証者の識別コードと一致する登録者の識別コードを示す識別コードデータが関連付けられている登録者データ(特に、顔部位データ及び露出粘膜データ)を、選択的に読み出す。
The
次に、本人判定部27は、顔部位検出部23が生成した顔部位データが示す被認証者の顔部位が、データベース26から読み出した登録者データに含まれる顔部位データが示す登録者の顔部位に該当するか否かを判定する。
Next, the
例えばこのとき、本人判定部27は、顔部位検出部23が生成した顔部位データが示す被認証者の顔部位の特徴点の座標相互位置関係(各特徴点の座標の相互の位置関係)と、データベース26から読み出した登録者データに含まれる顔部位データが示す登録者の顔部位の特徴点の座標相互位置関係と、を比較して、所定の程度以上合致すれば、被認証者の顔部位が登録者の顔部位に該当すると判定する。
For example, at this time, the
さらにこのとき、本人判定部27が、画像中における登録者及び被認証者の顔のロール方向におけるズレを解消するために、被認証者及び登録者の顔部位の特徴点の座標相互位置関係に対する回転を許容した上で、両者の比較を行ってもよい。また、本人判定部27が、画像中における登録者及び被認証者の顔の大きさのズレ(撮像部12に対する登録者の距離と撮像部22に対する被認証者の距離との差に起因するズレ)を解消するために、被認証者及び登録者の顔部位の特徴点の座標相互位置関係に対する相似変形を許容した上で、両者の比較を行ってもよい。また、本人判定部27が、画像中における登録者及び被認証者の顔のヨー方向及びピッチ方向におけるズレを解消するために、被認証者及び登録者の顔部位の特徴点の座標相互位置関係に対する左右方向及び上下方向の変形を許容した上で、両者の比較を行ってもよい。
Further, at this time, in order to eliminate the deviation in the roll direction of the face of the registrant and the person to be authenticated in the image, the
さらに、本人判定部27は、露出粘膜検出部24が生成した露出粘膜データが示す被認証者の露出粘膜が、データベース26から読み出した登録者データに含まれる露出粘膜データが示す登録者の露出粘膜に該当するか否かを判定する。
Further, the
例えばこのとき、本人判定部27は、顔部位検出部23が生成する顔部位データが示す被認証者の顔部位の特徴点の座標と、顔部位の特定の特徴点の座標を基準座標(0,0)とした相対位置の座標として規定されている登録者データに含まれる露出粘膜データが示す登録者の露出粘膜の領域の座標と、に基づいて、被認証者の当該特定の特徴点を基準座標(0,0)とした登録者の露出粘膜の領域の位置(画像中の絶対位置)の座標を算出する。そして、本人判定部27は、上記のようにして算出した登録者の露出粘膜の領域の位置(画像中の絶対位置)の座標と、露出粘膜検出部24が生成する露出粘膜データが示す被認証者の露出粘膜の領域の位置(画像中の絶対位置)の座標と、を比較して、所定の程度以上合致すれば、被認証者の露出粘膜が登録者の露出粘膜に該当すると判定する。
For example, at this time, the
さらにこのとき、本人判定部27が、被認証者及び登録者の顔部位の特徴点の座標相互位置関係の比較を行った場合と同様に、被認証者及び登録者の露出粘膜の回転、相似変形、左右方向及び上下方向の変形を許容した上で、両者の比較を行ってもよい。
Further, at this time, as in the case where the
そして、例えば本人判定部27が、被認証者の顔部位が登録者の顔部位に該当すると判定し、かつ、被認証者の露出粘膜が登録者の露出粘膜に該当すると判定する場合に、被認証者が登録者に該当すると判定して、その判定結果を示す本人判定結果データを生成する。
For example, when the
認証決定部28は、本人判定結果データ及び生体判定結果データに基づいて、被認証者に対する認証の可否を決定し、その決定結果を示す認証結果データを生成する。具体的に、認証决定部28は、被認証者が登録者に該当する旨の判定結果を示すものであり、かつ、生体判定結果データが、被認証者が生体である旨の判定結果を示すものである場合に、被認証者を認証する。
The
顔部位検出部23、露出粘膜検出部24、生体判定部25、本人判定部27及び認証決定部28は、各種データの処理を行う部分である。そのため、全体として1または複数の演算装置及び記憶装置によって実現することができる。なお、演算装置として、例えばCPUやGPUを用いてもよい。また、記憶装置として、例えばRAMを用いてもよい。
The face
次に、顔認証装置20の動作について、図面を参照して説明する。図7は、図6の顔認証装置の動作の一例を示すフローチャートである。
Next, the operation of the
図7に示すように、最初に、識別コード取得部21が、被認証者の識別コードを取得して、当該識別コードを示す識別コードデータを本人判定部27に与える(ステップ#20)。
As shown in FIG. 7, first, the identification
次に、本人判定部27が、識別コード取得部21が生成する識別コードデータが示す被認証者の識別コードを、データベース26に記録されている登録者データの識別コードデータが示す登録者の識別コードと照合する(ステップ#21)。
Next, the
このとき、被認証者の識別コードと一致する識別コードの登録者が存在すれば、本人判定部27は、当該登録者を被認証者に該当する登録者として特定する。一方、被認証者の識別コードと一致する識別コードの登録者が存在しなければ、本人判定部27は、被認証者に該当する登録者を特定できないと判定する。
At this time, if there is a registrant with an identification code that matches the identification code of the person to be authenticated, the
本人判定部27が、被認証者に該当する登録者を特定することができないと判定する場合(ステップ#22、NO)、被認証者が登録者に該当しない旨の判定結果を示す本人判定結果データを生成する。そして、この本人判定結果データを取得した認証決定部28が、被認証者について認証しない(認証失敗)旨を示す認証結果データを生成して(ステップ#23)、顔認証装置20の動作が終了する。
When the
一方、本人判定部27が、被認証者に該当する登録者を特定すると(ステップ#23、YES)、特定した登録者の登録者データ(特に、顔部位データ及び露出粘膜データ)を、データベース26から選択的に読み出す(ステップ#24)。
On the other hand, when the
次に、撮像部22が、被認証者の顔を撮像して画像データを生成する(ステップ#25)。このとき、被認証者は、撮像部22に撮像される際に、登録者データ生成装置10の撮像部12に撮像された際の登録者の表情と同じ表情を作る。具体的に、被認証者は、意図的に露出粘膜が現れた表情を作る(例えば、図3(a)参照)。また、撮像部22は、被認証者について、時間的に連続した撮像(例えば、10秒以上の動画撮像)を行う。
Next, the
次に、顔部位検出部23が、登録者データ生成装置10の顔部位検出部13と同様に、撮像部22が生成した画像データが示す画像の中から、顔部位を検出する(ステップ#26)。
Next, similarly to the face
このとき、顔部位検出部23は、時間的に連続した撮像により生成された複数の画像データが示す複数の画像の中から、それぞれの顔部位を検出する。さらに、顔部位検出部23は、登録者データ生成装置10の顔部位検出部13と同様に、検出した顔部位を示す顔部位データを生成する。
At this time, the face
次に、本人判定部27が、顔部位検出部23が生成する顔部位データが示す被認証者の顔部位と、データベース26から読み出した登録者データに含まれる顔部位データが示す登録者の顔部位と、を比較する(ステップ#27)。
Next, the
上述のように、本人判定部27は、顔部位検出部23が生成した顔部位データが示す被認証者の顔部位の特徴点の座標相互位置関係と、データベース26から読み出した登録者データに含まれる顔部位データが示す登録者の顔部位の特徴点の座標相互位置関係と、を比較して、所定の程度以上合致すれば、被認証者の顔部位が登録者の顔部位に該当すると判定する。
As described above, the
ここで、本人判定部27は、複数の画像のそれぞれの中から顔部位検出部23が検出した複数の被認証者の顔部位について比較を行ってもよいし、任意の1つの画像の中から顔部位検出部23が検出した1つの被認証者の顔部位について比較を行ってもよい。また、本人判定部27が、複数の画像のそれぞれの中から顔部位検出部23が検出した複数の被認証者の顔部位について比較を行う場合、例えば、複数の被認証者の顔部位の特徴点の座標相互位置関係と登録者の顔部位の特徴点の座標相互位置関係とのそれぞれの比較結果を平均化することで最終的な比較結果を算出してもよいし、被認証者の顔部位の特徴点の座標相互位置関係を平均化した上で登録者の顔部位の特徴点の座標相互位置関係と比較することで比較結果を算出してもよいし、複数の被認証者の顔部位の特徴点の座標相互位置関係と登録者の顔部位の特徴点の座標相互位置関係とのそれぞれの比較結果の中で最も類似しているものを最終の比較結果として算出してもよい。
Here, the
本人判定部27が、被認証者の顔部位が登録者の顔部位に該当しないと判定する場合(ステップ#28、NO)、被認証者が登録者に該当しない旨の判定結果を示す本人判定結果データを生成する。そして、この本人判定結果データを取得した認証決定部28が、被認証者について認証しない(認証失敗)旨を示す認証結果データを生成して(ステップ#23)、顔認証装置20の動作が終了する。
When the
一方、本人判定部27が、被認証者の顔部位が登録者の顔部位に該当すると判定する場合(ステップ#28、YES)、露出粘膜検出部24が、登録者データ生成装置10の露出粘膜検出部14と同様に、撮像部22が生成した画像データが示す画像の中から、露出粘膜を検出する(ステップ#29)。
On the other hand, when the
このとき、露出粘膜検出部24は、時間的に連続した撮像により生成された複数の画像データが示す複数の画像の中から、それぞれの露出粘膜を検出する。さらに、露出粘膜検出部24は、顔部位検出部23が生成する顔部位データと同じ基準座標(0,0)を用いて、露出粘膜の領域の位置(画像中の絶対位置)の座標を示した露出粘膜データを生成する。
At this time, the exposed mucous
次に、本人判定部27が、露出粘膜検出部24が生成する露出粘膜データが示す被認証者の露出粘膜と、データベース26から読み出した登録者データに含まれる露出粘膜データが示す登録者の露出粘膜と、を比較する(ステップ#30)。
Next, the
上述のように、本人判定部27は、顔部位検出部23が生成する顔部位データが示す被認証者の顔部位の特徴点の座標と、顔部位の特定の特徴点の座標を基準座標(0,0)とした相対位置の座標として規定されている登録者データに含まれる露出粘膜データが示す登録者の露出粘膜の領域の座標と、に基づいて、被認証者の当該特定の特徴点を基準座標(0,0)とした登録者の露出粘膜の領域の位置(画像中の絶対位置)の座標を算出する。そして、本人判定部27は、上記のようにして算出した登録者の露出粘膜の領域の位置(画像中の絶対位置)の座標と、露出粘膜検出部24が生成する露出粘膜データが示す被認証者の露出粘膜の領域の位置(画像中の絶対位置)の座標と、を比較して、所定の程度以上合致すれば、被認証者の露出粘膜が登録者の露出粘膜に該当すると判定する。
As described above, the
ここで、本人判定部27は、複数の画像のそれぞれの中から露出粘膜検出部24が検出した複数の被認証者の露出粘膜について比較を行ってもよいし、任意の1つの画像の中から露出粘膜検出部24が検出した1つの被認証者の露出粘膜について比較を行ってもよい。また、本人判定部27が、複数の画像のそれぞれの中から露出粘膜検出部24が検出した複数の被認証者の露出粘膜について比較を行う場合、例えば、複数の被認証者の露出粘膜の位置の座標と登録者の露出粘膜の位置の座標とのそれぞれの比較結果を平均化することで最終的な比較結果を算出してもよいし、被認証者の露出粘膜の位置の座標を平均化した上で登録者の露出粘膜の位置の座標と比較することで最終的な比較結果を算出してもよいし、複数の被認証者の露出粘膜の位置の座標と登録者の露出粘膜の位置の座標とのそれぞれの比較結果の中で最も類似しているものを最終の比較結果として算出してもよい。
Here, the
本人判定部27が、被認証者の露出粘膜が登録者の露出粘膜に該当しないと判定する場合(ステップ#31、NO)、被認証者が登録者に該当しない旨の判定結果を示す本人判定結果データを生成する。そして、この本人判定結果データを取得した認証決定部28が、被認証者について認証しない(認証失敗)旨を示す認証結果データを生成して(ステップ#23)、顔認証装置20の動作が終了する。
When the
一方、本人判定部27が、被認証者の露出粘膜が登録者の露出粘膜に該当すると判定する場合(ステップ#31、YES)、被認証者が登録者に該当する旨の判定結果を示す本人判定結果データを生成する。
On the other hand, when the
次に、生体判定部25が、撮像部22が時間的に連続した撮像によって生成した複数の画像データと、これらの複数の画像データが示す複数の画像のそれぞれの中から露出粘膜検出部24が検出した露出粘膜の領域の位置を示す露出粘膜データと、に基づいて、これらの複数の画像のそれぞれの中の露出粘膜を表す領域を特定する。さらに、生体判定部25は、特定した露出粘膜を表す領域について、人の生命活動に起因する画像的な変化の有無を検出することで、被認証者が生体であるか否かを判定し、その判定結果を示す生体判定結果データを生成する(ステップ#32)。
Next, the exposed mucous
このとき、生体判定部25は、露出粘膜を表す領域から検出した画像的な変化が、人の生命活動に起因するものであるか否かを判定する。例えは、生体判定部25は、露出粘膜を表す領域における赤色成分の変動が、60回/分以上90回/分以下(1Hz以上1.5Hz以下)であれば被認証者を生体と判定し、この条件を満たさなければ被認証者を生体ではないと判定する。
At this time, the living
生体判定部25が、被認証者が生体ではないと判定する場合(ステップ#33、NO)、被認証者が生体ではない旨の判定結果を示す生体判定結果データを生成する。そして、この生体判定結果データを取得した認証決定部28が、被認証者について認証しない(認証失敗)旨を示す認証結果データを生成して(ステップ#23)、顔認証装置20の動作が終了する。
When the
一方、生体判定部25が、被認証者が生体であると判定する場合(ステップ#33、YES)、被認証者が生体である旨の判定結果を示す生体判定結果データを生成する。そして、上述の被認証者が登録者に該当する旨の判定結果を示す本人判定結果データと、この生体判定結果データと、を取得した認証決定部28が、被認証者について認証する旨(認証成功)を示す認証結果データを生成して(ステップ#34)、顔認証装置20の動作が終了する。
On the other hand, when the
以上のように、本発明の実施形態における顔認証装置20では、皮膚等の常に外界に晒されている部分と比較して表面層が薄くなっており、毛細血管及びその中を流れる血液が外部から明確に視認される露出粘膜に基づいて、被認証者が生体か否かを判定することができる。そのため、被認証者が生体か否かを精度良く判定することが可能になる。
As described above, in the
さらに、本発明の実施形態における顔認証装置20では、人が意図的に行う表情であって、人前では滅多にしない特殊な表情である、露出粘膜が現れた表情に基づいて、被認証者が登録者に該当するか否かを判定することができる。そのため、盗撮に対して堅牢な顔認証装置20を実現することが可能になる。
Furthermore, in the
なお、図7は、顔認証装置20の基本的な動作を例示したものに過ぎない。そのため、要求されるセキュリティレベルなどに応じた適切な動作をするなどの観点から、様々な変形を加えてもよい。
FIG. 7 merely illustrates the basic operation of the
例えば、識別コードに基づく登録者の特定(ステップ#20〜#24)を行わなくてもよい。この場合、被認証者の顔部位が登録者の顔部位に該当するか否かの判定(ステップ#27及び#28)や、被認証者の露出粘膜が登録者の露出粘膜に該当するか否かの判定(ステップ#30及び#31)を行う際に、登録者の全員について網羅的に判定を行えばよい。
For example, it is not necessary to specify the registrant based on the identification code (steps # 20 to # 24). In this case, it is determined whether or not the face part of the person to be authenticated corresponds to the face part of the registrant (
ただし、この方法では、本人判定部27が、本来は該当する登録者が存在しない被認証者を、偶然にいずれかの登録者に該当すると誤判定する可能性がある。そこで、要求されるセキュリティレベルが高く、被認証者が登録者に該当するか否かを精度良く判定することが必要である場合は、識別コードに基づく登録者の特定(ステップ#20〜#24)を行うと、好ましい。
However, in this method, there is a possibility that the
また、被認証者の顔部位が登録者の顔部位に該当するか否かの判定(ステップ#27及び#28)と、被認証者の露出粘膜が登録者の露出粘膜に該当するか否かの判定(ステップ#30及び#31)と、のいずれか一方を行わなくてもよい。
In addition, it is determined whether or not the face part of the person to be authenticated corresponds to the face part of the registrant (
ただし、要求されるセキュリティレベルが高く、被認証者が登録者に該当するか否かを精度良く判定することが必要である場合は、顔部位及び露出粘膜の両方について被認証者が登録者に該当するか否かの判定を行うと、好ましい。 However, if the required security level is high and it is necessary to accurately determine whether or not the person to be authenticated falls under the category of registrant, the person to be authenticated will be asked to registrant for both the facial area and the exposed mucous membrane. It is preferable to determine whether this is the case.
また、被認証者の露出粘膜が登録者の露出粘膜に該当するか否かの判定(ステップ#30及び#31)において、結膜などの人の顔の左右に存在する露出粘膜について判定を行う際に、人の顔の左右を無視してもよい。具体的に例えば、本人判定部27が、被認証者が登録者に該当しないと判定する場合において、被認証者及び登録者の露出粘膜のいずれか一方を左右反転させた上で再度比較を行ってもよい。
When determining whether or not the exposed mucous membrane of the person to be authenticated corresponds to the exposed mucous membrane of the registrant (
この場合、例えば、被認証者が左目の下側の結膜を露出させているが、当該被認証者と同一人物である登録者の登録者データに含まれる露出粘膜データが当該登録者の右目の下側の結膜を示すものであったとしても、本人判定部27が、被認証者が登録者に該当すると判定し得る。
In this case, for example, the person to be authenticated has exposed the lower conjunctiva of the left eye, but the exposed mucous membrane data included in the registrant data of the registrant who is the same person as the person to be authenticated is the lower side of the right eye of the registrant. Even if the person's conjunctiva is shown, the
ただし、要求されるセキュリティレベルが高く、露出粘膜の選択自体(即ち、登録者がどの粘膜を露出して登録者データを作成したか)も認証キーとして利用する場合は、このような処理を行わない方が好ましい。 However, if the required security level is high and the selection of the exposed mucosa itself (that is, which mucosa the registrant has exposed to create registrant data) is also used as the authentication key, such processing is performed. Preferably not.
また、被認証者の露出粘膜が登録者の露出粘膜に該当するか否かの判定(ステップ#30及び#31)において、被認証者の露出粘膜と登録者の露出粘膜とがほとんど一致しない場合において、被認証者に対して露出するべき粘膜が正しくない旨を報知してもよいし、被認証者に対して露出するべき粘膜を指示してもよい。
Further, in the determination of whether or not the exposed mucous membrane of the person to be authenticated corresponds to the exposed mucous membrane of the registrant (
具体的に例えば、被認証者は左目の下側の結膜を露出させているが、当該被認証者と同一人物である登録者の登録者データに含まれる露出粘膜データが当該登録者の右目の下側の結膜を示すものであった場合、被認証者に対して、音声または画像表示によって「露出する粘膜が違います」や「右目の下側の結膜を露出させて下さい」などの警告を報知してもよい。 Specifically, for example, the person to be authenticated has exposed the lower conjunctiva of the left eye, but the exposed mucous membrane data included in the registrant data of the registrant who is the same person as the person to be authenticated is the lower side of the right eye of the registrant. If it indicates a conjunctiva of the subject, a warning such as "Exposed mucosa is different" or "Expose the conjunctiva under the right eye" is notified to the subject by voice or image display. Also good.
ただし、要求されるセキュリティレベルが高く、露出粘膜の選択自体も認証キーとして利用する場合は、このような処理を行わない方が好ましい。 However, when the required security level is high and the selection of the exposed mucosa is also used as an authentication key, it is preferable not to perform such processing.
<変形等>
[1] 図3及び図5では、目の下側の結膜及び舌を露出粘膜の具体例として挙げて説明したが、これ以外の粘膜を露出粘膜として検出することも可能である。ここで、図3及び図5とは異なる粘膜を露出粘膜として検出する場合について、図面を参照して説明する。図8は、露出粘膜検出部の動作の別例を示す図である。
<Deformation, etc.>
[1] In FIGS. 3 and 5, the conjunctiva and tongue below the eyes have been described as specific examples of the exposed mucosa, but other mucosa can also be detected as the exposed mucosa. Here, a case where a mucous membrane different from those shown in FIGS. 3 and 5 is detected as an exposed mucosa will be described with reference to the drawings. FIG. 8 is a diagram illustrating another example of the operation of the exposed mucosa detection unit.
図8(a)に示すように、露出粘膜検出部14,24が、目の上側の結膜を検出する場合、図3(c)における線分SL,SRと始点(左目EL及び右目ER)は共通するが反対方向に伸びる線分SL1,SR1に基づいて、出現予測領域PR1を設定してもよい。なお、図8(a)に示す例の場合、右目ERの上側に出現予測領域PR1が設定され、右目ERの上側の結膜CR1が露出粘膜として検出される。
As shown in FIG. 8A, when the exposed
また、図8(b)に示すように、露出粘膜検出部14,24が、口腔内の全体の粘膜(単に口を開けた状態で露出する粘膜)を検出する場合、図3(d)における線分TL,TRの中心を左右の口角ML,MRに合わせた線分TL2,TR2に基づいて、出現予測領域Q2を設定すればよい。なお、図8(b)に示す例の場合、開けた口の内部及び外部に出現予測領域Q2が設定され、口腔内の全体の粘膜U2が露出粘膜として検出される。
Further, as shown in FIG. 8B, when the exposed
また、露出粘膜の選択自体も認証キーとして利用する場合など、登録者及び被認証者がどの粘膜を露出すべきかを限定しない場合は、露出粘膜検出部14,24が、全ての露出粘膜を検出が可能となるように、線分及び出現予測領域を設定すると、好ましい。例えば、露出粘膜検出部14,24が、図3(c)の線分SL,SR及び図8(a)の線分SL1,SR1のそれぞれに基づいて、出現予測領域を設定してもよい。また、露出粘膜検出部14,24が、図3(d)の線分TL,TR及び図8(b)の線分TL2,TR2のそれぞれに基づいて、出現予測領域を設定してもよい。
Further, when the registrant and the person to be authenticated do not limit which mucous membrane should be exposed, such as when the selection of the exposed mucosa itself is also used as an authentication key, the exposed
[2] 図3及び図5に示した顔部位検出部13,23による顔部位の検出方法や露出粘膜検出部14,24による露出粘膜の検出方法は例示に過ぎず、別の検出方法で顔部位や露出粘膜を検出してもよい。
[2] The detection method of the facial part by the facial
例えば、露出粘膜検出部14,24が、露出粘膜を検出する際に、顔部位の位置に基づいた出現予測領域を設定しなくてもよい。この場合、露出粘膜検出部14,24は、画像全体の中から網羅的に露出粘膜を検出することになる。
For example, when the exposed
ただし、露出粘膜は不特定の広がりを有する領域であるため、網羅的な検出は困難である。特に、画像の赤色成分に基づいて画像の全体の中から露出粘膜を検出しようとすると、背景などの非顔領域の赤い部分を露出粘膜として誤検出する可能性がある。 However, since the exposed mucous membrane is an unspecified area, comprehensive detection is difficult. In particular, if an exposed mucosa is detected from the entire image based on the red component of the image, there is a possibility that a red portion of a non-face area such as a background is erroneously detected as an exposed mucosa.
そこで、図3及び図5に例示したように、露出粘膜検出部14,24が、顔部位の位置に基づいた出現予測領域を設定して露出粘膜を検出すると、精度良く露出粘膜を検出することができるため、好ましい。さらにこの場合、露出粘膜検出部14,24が、出現予測領域という限られた領域内から露出粘膜を検出することで、露出粘膜を検出するために必要な計算量を低減して迅速に検出を行うことができるため、好ましい。
Therefore, as illustrated in FIGS. 3 and 5, when the exposed
[3] 上述の実施形態では、図1及び図6において、登録者データ生成装置10及び顔認証装置20が別々の装置であるかのように図示しているが、同一の装置(以下、「共通装置」という)であってもよい。例えばこの場合、共通装置が「登録モード」で動作する場合は、図1に示す登録者データ生成装置10の各ブロックの動作を実現し、共通装置が「認証モード」で動作する場合は、図6に示す顔認証装置20の各ブロックの動作を実現する。
[3] In the above-described embodiment, the registrant
例えば、この共通装置では、識別コード取得部11,21が、同一の入力装置または読取装置によって構成され得る。また例えば、撮像部12,22が、同一の撮像装置によって構成され得る。また例えば、データベース16,26が、同一の記録装置によって構成され得る。また例えば、顔部位検出部13,23、露出粘膜検出部14,24、登録者データ生成部15,生体判定部25及び本人判定部27が、同一の演算装置及び記憶装置によって構成され得る。
For example, in this common device, the identification
[4] 顔認証装置20の露出粘膜検出部24及び生体判定部25は、顔認証装置20に限らず、対象者の生命活動の状態を判定する他の装置にも適用することができる。例えば、画像中の対象者の脈拍を計測したり、計測した脈拍について異常の有無を判定したりする医療用などの用途の生体判定装置において、露出粘膜検出部24及び生体判定部25を用いてもよい。
[4] The exposed mucous
上述のように、露出粘膜は、皮膚等の常に外界に晒されている部分と比較して表面層が薄くなっており、毛細血管及びその中を流れる血液が外部から明確に視認される。そのため、上記のような生体判定装置において、露出粘膜に着目して生命活動の状態を判定すると、対象者の生命活動の状態を精度良く判定することが可能になる。 As described above, the exposed mucous membrane has a thin surface layer as compared with a part that is constantly exposed to the outside, such as skin, and the capillaries and the blood flowing therethrough are clearly visible from the outside. Therefore, in the living body determination apparatus as described above, when the state of the life activity is determined by paying attention to the exposed mucous membrane, the state of the life activity of the subject can be accurately determined.
[5] 登録者データ生成装置10の顔部位検出部13及び露出粘膜検出部14や、顔認証装置20の顔部位検出部23及び露出粘膜検出部24は、顔認証を行うための装置に限らず、露出粘膜を検出する他の画像処理装置にも適用することができる。例えば、画像中から結膜や舌などの粘膜部分を検出する医療用などの用途の画像処理装置において、顔部位検出部13,23及び露出粘膜検出部14,24を用いてもよい。
[5] The face
上述のように、露出粘膜は、不特定の広がりを有する領域であるために網羅的な検出が困難であり、背景などの非顔領域から誤検出することが懸念される。また、画像の全体から露出粘膜を検出する場合、露出粘膜の検出に必要な計算量が膨大となることから迅速な検出が困難になる。そこで、上記のような画像処理装置において、顔部位の位置に基づいて出現予測領域を設定し、当該出現予測領域内から露出粘膜を検出することで、露出粘膜を精度良く検出することが可能になるとともに、露出粘膜の検出に必要な計算量を低減して迅速に検出を行うことが可能になる。 As described above, the exposed mucous membrane is an area having an unspecified extent, so that comprehensive detection is difficult, and there is a concern that it may be erroneously detected from a non-face area such as a background. In addition, when detecting the exposed mucous membrane from the entire image, the amount of calculation necessary for detecting the exposed mucosa becomes enormous, making it difficult to quickly detect it. Therefore, in the image processing apparatus as described above, it is possible to accurately detect the exposed mucous membrane by setting the appearance prediction region based on the position of the face part and detecting the exposed mucosa from the appearance prediction region. In addition, the amount of calculation necessary for detecting the exposed mucous membrane can be reduced and detection can be performed quickly.
本発明は、画像の中から検出した人の顔について認証を行う顔認証装置に利用可能である。また、当該顔認証装置に適用可能な画像処理装置及び生体判定装置に利用可能である。 INDUSTRIAL APPLICABILITY The present invention can be used for a face authentication device that performs authentication on a human face detected from an image. Further, it can be used for an image processing apparatus and a biometric determination apparatus applicable to the face authentication apparatus.
10 : 登録者データ生成装置
11 : 識別コード取得部
12 : 撮像部
13 : 顔部位検出部
14 : 露出粘膜検出部
15 : 登録者データ生成部
16 : データベース
20 : 顔認証装置
21 : 識別コード取得部
22 : 撮像部
23 : 顔部位検出部
24 : 露出粘膜検出部
25 : 生体判定部
26 : データベース
27 : 本人判定部
28 : 認証決定部
EL,ER : 目
ML,MR : 口角
MC : 口角中心
MLR : 口角を結んだ直線
SL,SR,SL1,SR1 : 線分
TL,TR,TL2,TR2 : 線分
PR,PR1 : 出現予測領域(結膜)
Q,Q2 : 出現予測領域(舌、口腔内)
CR,CR1 : 結膜
U : 舌
U2 : 口腔内の全体の粘膜
DESCRIPTION OF SYMBOLS 10: Registrant data generation apparatus 11: Identification code acquisition part 12: Imaging part 13: Face part detection part 14: Exposed mucosa detection part 15: Registrant data generation part 16: Database 20: Face authentication apparatus 21: Identification code acquisition part 22: Imaging unit 23: Face part detection unit 24: Exposed mucosa detection unit 25: Biometric determination unit 26: Database 27: Identity determination unit 28: Authentication determination unit EL, ER: Eye ML, MR: Mouth corner MC: Mouth corner center MLR: Straight line connecting mouth corners SL, SR, SL1, SR1: line segment TL, TR, TL2, TR2: line segment PR, PR1: appearance prediction region (conjunctiva)
Q, Q2: Appearance prediction area (tongue, oral cavity)
CR, CR1: Conjunctiva U: Tongue U2: Whole mucous membrane in the oral cavity
Claims (9)
時間的に連続した撮像により生成された複数の前記画像データが示す複数の前記画像のそれぞれの中から、前記露出粘膜検出部が検出したそれぞれの前記露出粘膜について、人の生命活動に起因する画像的な変化の有無を検出することで、前記被認証者が生体であるか否かを判定する生体判定部と、
登録者の顔の特徴を示す登録者データを記録するデータベースと、
前記画像データが示す前記画像の中の前記被認証者の顔の特徴と、前記データベースが記録する前記登録者データが示す前記登録者の顔の特徴と、を比較することで、前記被認証者が前記登録者に該当するか否かを判定する本人判定部と、
前記被認証者が生体であると前記生体判定部が判定し、かつ、前記被認証者が前記登録者に該当すると前記本人判定部が判定する場合に、前記被認証者を認証する認証決定部と、
を備えることを特徴とする顔認証装置。 An exposed mucous membrane detecting unit that detects an exposed mucous membrane, which is a portion where a human has intentionally exposed the mucous membrane of the face, from an image indicated by image data generated by imaging the face of the person to be authenticated;
Of each of the plurality of images indicated by the plurality of image data generated by temporally continuous imaging, each of the exposed mucosa detected by the exposed mucosa detection unit is an image resulting from human life activity. A living body determination unit that determines whether the person to be authenticated is a living body by detecting the presence or absence of a general change;
A database that records registrant data indicating the registrant's facial features;
By comparing the facial features of the person to be authenticated in the image indicated by the image data with the facial features of the registrant indicated by the registrant data recorded in the database, A person determination unit that determines whether or not the user corresponds to the registrant;
An authentication determination unit that authenticates the person to be authenticated when the living body determination unit determines that the person to be authenticated is a living body and the person determination unit determines that the person to be authenticated corresponds to the registrant. When,
A face authentication apparatus comprising:
前記データベースが記録する前記登録者データが、前記登録者の前記顔部位を示すものであり、
前記本人判定部は、前記顔部位検出部が検出した前記被認証者の前記顔部位が、前記登録者データが示す前記登録者の前記顔部位に該当するか否かに基づいて、前記被認証者が前記登録者に該当するか否かを判定することを特徴とする請求項1に記載の顔認証装置。 A face part detection unit for detecting a face part, which is a predetermined part existing on a human face, from the image indicated by the image data;
The registrant data recorded in the database indicates the facial part of the registrant,
The identity determination unit, based on whether the face part of the person to be authenticated detected by the face part detection unit corresponds to the face part of the registrant indicated by the registrant data. 2. The face authentication apparatus according to claim 1, wherein it is determined whether or not a person corresponds to the registrant.
前記本人判定部は、前記露出粘膜検出部が検出した前記被認証者の前記露出粘膜が、前記登録者データが示す前記登録者の前記露出粘膜に該当するか否かに基づいて、前記被認証者が前記登録者に該当するか否かを判定することを特徴とする請求項1〜5のいずれか1項に記載の顔認証装置。 The registrant data recorded by the database indicates the exposed mucous membrane of the registrant,
The identity determination unit, based on whether or not the exposed mucous membrane of the person to be authenticated detected by the exposed mucous membrane detection unit corresponds to the exposed mucous membrane of the registrant indicated by the registrant data. The face authentication apparatus according to claim 1, wherein it is determined whether or not a person corresponds to the registrant.
前記本人判定部は、前記被認証者が入力する前記識別コードが、前記登録者データが示す前記識別コードと一致する前記登録者を特定した上で、前記被認証者の顔の特徴と特定した前記登録者の顔の特徴とを比較することを特徴とする請求項1〜6のいずれか1項に記載の顔認証装置。 The registrant data recorded in the database indicates an identification code for identifying an individual set for each registrant,
The identity determination unit identifies the registrant whose identification code input by the person to be authenticated matches the identification code indicated by the registrant data, and then identifies the facial feature of the person to be authenticated. The face authentication apparatus according to claim 1, wherein the face authentication apparatus compares the face characteristics of the registrant.
前記画像の中から、人の顔に存在する所定の部位である顔部位を検出する顔部位検出部と、を備え、
前記露出粘膜検出部は、前記顔部位検出部が検出した前記顔部位の位置に基づいて、前記露出粘膜の出現が予測される領域である出現予測領域を設定し、設定した前記出現予測領域の中から前記露出粘膜を検出することを特徴とする画像処理装置。 An exposed mucous membrane detection unit that detects an exposed mucous membrane, which is a portion where a human has intentionally exposed the mucous membrane of the face, from an image indicated by image data generated by imaging the face of the subject,
A face part detection unit for detecting a face part, which is a predetermined part existing on a person's face, from the image,
The exposed mucous membrane detection unit sets an appearance prediction region, which is a region where the appearance of the exposed mucous membrane is predicted, based on the position of the facial part detected by the face part detection unit, and An image processing apparatus for detecting the exposed mucous membrane from the inside.
時間的に連続した撮像により生成された複数の前記画像データが示す複数の前記画像のそれぞれの中から、前記露出粘膜検出部が検出したそれぞれの前記露出粘膜について、人の生命活動に起因する画像的な変化を検出することで、前記対象者の生命活動の状態を判定する生体判定部と、
を備えることを特徴とする生体判定装置。 An exposed mucous membrane detection unit that detects an exposed mucous membrane, which is a portion where a human has intentionally exposed the mucous membrane of the face, from an image indicated by image data generated by imaging the face of the subject,
Of each of the plurality of images indicated by the plurality of image data generated by temporally continuous imaging, each of the exposed mucosa detected by the exposed mucosa detection unit is an image resulting from human life activity. A living body determination unit that determines a state of the life activity of the subject by detecting a local change,
A living body determination apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015030990A JP2016152029A (en) | 2015-02-19 | 2015-02-19 | Face authentication device, image processing device, and living body determination device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015030990A JP2016152029A (en) | 2015-02-19 | 2015-02-19 | Face authentication device, image processing device, and living body determination device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016152029A true JP2016152029A (en) | 2016-08-22 |
Family
ID=56695468
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015030990A Pending JP2016152029A (en) | 2015-02-19 | 2015-02-19 | Face authentication device, image processing device, and living body determination device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016152029A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109522877A (en) * | 2018-12-14 | 2019-03-26 | 睿云联(厦门)网络通讯技术有限公司 | A kind of offline plurality of human faces recognition methods and computer equipment based on Android device |
JP2020064541A (en) * | 2018-10-19 | 2020-04-23 | 富士通株式会社 | Identity verification program, identity verification method and information processing apparatus |
WO2022172430A1 (en) | 2021-02-15 | 2022-08-18 | 富士通株式会社 | Determination method, determination program, and information processing device |
-
2015
- 2015-02-19 JP JP2015030990A patent/JP2016152029A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020064541A (en) * | 2018-10-19 | 2020-04-23 | 富士通株式会社 | Identity verification program, identity verification method and information processing apparatus |
CN109522877A (en) * | 2018-12-14 | 2019-03-26 | 睿云联(厦门)网络通讯技术有限公司 | A kind of offline plurality of human faces recognition methods and computer equipment based on Android device |
WO2022172430A1 (en) | 2021-02-15 | 2022-08-18 | 富士通株式会社 | Determination method, determination program, and information processing device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7004522B2 (en) | Liveness inspection method and equipment | |
US9922238B2 (en) | Apparatuses, systems, and methods for confirming identity | |
JP5043097B2 (en) | Person identification method by eyelash analysis | |
JP5955133B2 (en) | Face image authentication device | |
JP2004118627A (en) | Figure identification device and method | |
JP7269711B2 (en) | Biometric authentication system, biometric authentication method and program | |
JP5277365B2 (en) | Personal authentication method and personal authentication device used therefor | |
JP2007011667A (en) | Iris authentication device and iris authentication method | |
JP2002269565A (en) | Non-contact type iris recognition method due to correction of rotated image | |
WO2010070745A1 (en) | Biometric authentication device and biometric authentication method | |
JP2004213087A (en) | Device and method for personal identification | |
US20160188975A1 (en) | Biometric identification via retina scanning | |
JP2008067727A (en) | Personal authentication device | |
JP2003150942A (en) | Eye position tracing method | |
JP4899552B2 (en) | Authentication device, authentication method, authentication program, and computer-readable recording medium recording the same | |
JP2014115821A (en) | Face feature extraction device and face authentication system | |
JP6396357B2 (en) | Face image authentication device | |
JP2016152029A (en) | Face authentication device, image processing device, and living body determination device | |
EP4343689A1 (en) | Body part authentication system and authentication method | |
JPWO2020065954A1 (en) | Authentication device, authentication method, authentication program and recording medium | |
JP3970573B2 (en) | Facial image recognition apparatus and method | |
WO2015181729A1 (en) | Method of determining liveness for eye biometric authentication | |
JP2004110813A (en) | Personal identification device | |
WO2022180890A1 (en) | Biometric authentication system, authentication terminal, and authentication method | |
JP6798285B2 (en) | Biometric device, biometric method and program |