JP4760049B2 - Face authentication device, face authentication method, electronic device incorporating the face authentication device, and recording medium recording the face authentication program - Google Patents

Face authentication device, face authentication method, electronic device incorporating the face authentication device, and recording medium recording the face authentication program Download PDF

Info

Publication number
JP4760049B2
JP4760049B2 JP2005045598A JP2005045598A JP4760049B2 JP 4760049 B2 JP4760049 B2 JP 4760049B2 JP 2005045598 A JP2005045598 A JP 2005045598A JP 2005045598 A JP2005045598 A JP 2005045598A JP 4760049 B2 JP4760049 B2 JP 4760049B2
Authority
JP
Japan
Prior art keywords
face
facial expression
authentication
face authentication
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005045598A
Other languages
Japanese (ja)
Other versions
JP2006235718A (en
Inventor
宏顕 木曽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2005045598A priority Critical patent/JP4760049B2/en
Publication of JP2006235718A publication Critical patent/JP2006235718A/en
Application granted granted Critical
Publication of JP4760049B2 publication Critical patent/JP4760049B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)

Description

本発明は、なりすまし防止した顔認証装置、その顔認証方法、その顔認証装置を組み込んだ電子機器に関し、特にバイオメトリクス認証の一つである顔認証において、顔写真などを使ったなりすまし防止した顔認装置、その顔認証方法、その顔認証装置を組み込んだ電子機器に関する。   The present invention relates to a face authentication device that prevents spoofing, a face authentication method thereof, and an electronic device incorporating the face authentication device, and in particular, in face authentication that is one of biometrics authentication, a face that is prevented from being spoofed using a face photograph or the like. The present invention relates to a recognition device, a face authentication method thereof, and an electronic device incorporating the face authentication device.

従来、バイオメトリクス認証の一つである顔認証システムでは、顔写真やビデオを使ったなりすましが問題となっており、顔認証システムとしては、そのためなりすまし防止対策を講じる必要があった。   Conventionally, in a face authentication system that is one of biometric authentication, impersonation using a face photo or video has been a problem, and it has been necessary for the face authentication system to take measures against impersonation.

一般に、顔認証システムは、あるシステムを使用しようとする利用者に対して、使用権限があるかどうかをチェックし、利用者が使用できるようにアクセスコントロールするシステムである。従来のアクセスコントロールは、例えば、利用者の所有物、秘密情報またはバイオメトリクス等を単独若しくは組み合わせることによって実現されている。具体的には、所有物によるアクセスコントロールとしては、物理的な鍵、カードなどを用いた方法がある。また、秘密情報によるアクセスコントロールとしては、暗証番号などによる方法がある。さらに、バイオメトリクスによるアクセスコントロールとしては、指紋、虹彩、顔などを利用した方法がある。   In general, the face authentication system is a system that checks whether or not a user who wants to use a certain system has a use right and performs access control so that the user can use the system. Conventional access control is realized by, for example, a user's property, confidential information, biometrics, or the like alone or in combination. Specifically, there is a method using a physical key, a card or the like as access control by possession. As access control using secret information, there is a method using a personal identification number. Furthermore, as access control by biometrics, there are methods using fingerprints, irises, faces, and the like.

従来のアクセスコントロールにおいて、各種方法を複数組み合わせる必場合は、それに伴って利便性を損なうことになる。この利便性をできるだけ損なわずにセキュリティを高めるため、例えば、特許文献1に示された技術(従来例1)がある。この技術は、ICカード等に記憶された情報とカメラ等により撮像された顔画像とを組み合わせて利用者の認証を行うものである。しかし、この技術は、ICカード等の記憶情報と顔画像の組み合わせにより利用者の認証を行う場合、例えば、顔の特徴のよく似た利用者同士について顔特徴の単純な認識処理のみで本人であるか否かを認証することは難しかった。また例えば、写真や人形等の模造物によるなりすましを排除することも困難であった。   In the conventional access control, if it is necessary to combine a plurality of methods, convenience is reduced accordingly. In order to increase security without impairing this convenience as much as possible, for example, there is a technique (conventional example 1) disclosed in Patent Document 1. This technology performs user authentication by combining information stored in an IC card or the like and a face image captured by a camera or the like. However, with this technology, when a user is authenticated by a combination of stored information such as an IC card and a face image, for example, the user himself / herself can be recognized by a simple recognition process of facial features between users with similar facial features. It was difficult to authenticate whether or not there was. Also, for example, it has been difficult to eliminate impersonation due to imitations such as photographs and dolls.

これを解決する従来技術(従来例2)としては、特許文献2に示された技術があげられるが、これは照明装置を使用して照明環境を変化させることでなりすましを排除する方法である。この技術は、照明環境を変更制御する照明手段が必要となり、小型装置(携帯電話など)への搭載が困難になっていた。   As a conventional technique for solving this (conventional example 2), there is a technique disclosed in Patent Document 2, which is a method of eliminating impersonation by changing an illumination environment using an illumination device. This technique requires illumination means for changing and controlling the illumination environment, and it has been difficult to mount it on a small device (such as a mobile phone).

さらに、アクセスをする利用者の顔の時間的な変化を利用することにより、本人認証を高い精度で行いセキュリティ性の向上を図った従来技術(従来例3)がある。この従来例3は、特許文献3に示された技術であり、この技術を図8,図9により説明する。   Furthermore, there is a conventional technique (conventional example 3) in which personal authentication is performed with high accuracy and security is improved by using temporal changes in the face of the accessing user. This conventional example 3 is a technique disclosed in Patent Document 3, and this technique will be described with reference to FIGS.

図8は従来例3のアクセスコントロールシステムの構成を示すブロック図である。図において、本システムは、例えば、撮像手段としてのカメラ4aと、記憶部11と、顔検出部12と、表情識別部13と、本人認証部14およびアクセス権判定部15と、アクセスコントロール部16とを備えている。   FIG. 8 is a block diagram showing the configuration of the access control system of Conventional Example 3. In the figure, this system includes, for example, a camera 4a as an imaging means, a storage unit 11, a face detection unit 12, a facial expression identification unit 13, a personal authentication unit 14, an access right determination unit 15, and an access control unit 16. And.

記憶部11は、利用者の顔の特徴に関する登録情報(以下、登録顔データ)Fと、利用者の表情の変化パターンに関する登録情報(以下、登録表情変化パタンデータ)Eと、利用者に認められたアクセス権に関する登録情報(以下、アクセス権データ)Aとを含んだ個人登録データが予め記憶された記憶媒体である。この記憶部11の具体的な構成としては、例えば複数の利用者A,B,C,…についての個人登録データがまとめて格納された所要の容量を有するメモリでもよい。この場合、メモリに格納された各登録データが本人認証部14およびアクセス権判定部15によって読み取られることになる。また、例えば、各利用者が個人登録データを記憶させた非接触ICカード等の携行型の記憶媒体をそれぞれ所持するようにしてもよい。この場合、その非接触ICカード等をシステム側に設けられたカード読み取り部に近づけることで個人登録データを読み取らせることも可能である。   The storage unit 11 recognizes to the user registration information (hereinafter referred to as registered face data) F regarding the facial features of the user, registration information regarding the change pattern of the facial expression of the user (hereinafter referred to as registered facial expression change pattern data) E, and the user. This is a storage medium in which personal registration data including registration information (hereinafter referred to as access right data) A relating to the access right is stored in advance. As a specific configuration of the storage unit 11, for example, a memory having a required capacity in which personal registration data for a plurality of users A, B, C,. In this case, each registration data stored in the memory is read by the personal authentication unit 14 and the access right determination unit 15. Further, for example, each user may have a portable storage medium such as a non-contact IC card in which personal registration data is stored. In this case, it is possible to read the personal registration data by bringing the non-contact IC card or the like close to a card reading unit provided on the system side.

登録顔データFは、本人認証用として予め取得した顔画像をそのまま登録データとして用いてもよい。また、本人認証用の顔画像を基に顔特徴量を算出して、その算出結果を登録データとして用いることも可能である。この顔特徴量とは、本人と他人の識別判定が可能な利用者の顔の特徴を数値化したものである。   As the registered face data F, a face image acquired in advance for personal authentication may be used as it is as registered data. It is also possible to calculate a face feature amount based on a face image for personal authentication and use the calculation result as registration data. This facial feature value is a numerical value of the facial feature of the user who can discriminate between the person and the other person.

登録表情変化パターンデータEは、利用者の表情を示す表情データの時間的な変化パターンを予め決めておき、それを本人認証用のデータとして登録したものである。この表情データとは、本人と他人の識別判定が可能な利用者の表情の特徴を数値化したものである。具体的には、例えば、顔の構成要素(目、鼻、口、眉等)のみを顔画像から切り出して互いの位置関係を数値で表したり、顔の構成要素の形状や互いの位置関係、傾き等を数値で表したりしたもので、その数値によって表情の特徴を示したものである。   The registered facial expression change pattern data E is obtained by preliminarily determining a temporal change pattern of facial expression data indicating a user's facial expression and registering it as personal authentication data. This facial expression data is obtained by quantifying the characteristics of the facial expression of the user who can discriminate between the person and others. Specifically, for example, only the face components (eyes, nose, mouth, eyebrows, etc.) are cut out from the face image to express the positional relationship with each other numerically, or the shape of the facial component and the mutual positional relationship, It represents the inclination etc. as a numerical value, and the characteristic of the facial expression is indicated by the numerical value.

また、アクセス権データAは、正当な所有者に与えられた使用権限に関する情報であって、システム内の資源に対して使用が許可される範囲などを示す情報である。具体的には、例えばドア等におけるアクセスコントロールに用いられる場合には、入室が許可される部屋についての識別情報などがアクセス権データとなる。   Further, the access right data A is information relating to the use authority given to the legitimate owner, and is information indicating a range in which use is permitted for the resources in the system. Specifically, for example, when used for access control in a door or the like, access right data is identification information about a room that is allowed to enter.

カメラ4aは、アクセスを希望する利用者の主に顔を撮像することが可能であり、取得した映像を顔検出部3に出力する。このカメラ4aは、複数台のカメラを切り替えて使用するようにしても構わない。   The camera 4 a can mainly capture a face of a user who desires access, and outputs the acquired video to the face detection unit 3. The camera 4a may be switched between a plurality of cameras.

顔検出部12は、カメラ4aからの映像を連続した画像として処理し、各画像から利用者の顔の検出処理を実行する。そして、利用者の顔を検出した場合には顔画像Fiを切り出し、その顔画像Fiを表情識別部13および本人認証部14にそれぞれ送る。表情識別部13は、例えば、表情データ作成回路および表情データ変化判定回路を有する。表情データ作成回路は、顔検出部12から連続して送られてくる顔画像Finを基に表情データを作成し、その表情データを出力する。表情データ変化判定回路は、連続して送られる表情データについて時間的な変化の有無を判別し、時間的変化有りを判別した時の表情データを逐次取り出し、本人認証部14の表情変化パターン認証部52に出力する。   The face detection unit 12 processes the video from the camera 4a as a continuous image, and executes a process of detecting a user's face from each image. When the user's face is detected, the face image Fi is cut out, and the face image Fi is sent to the facial expression identification unit 13 and the personal authentication unit 14, respectively. The facial expression identification unit 13 includes, for example, a facial expression data creation circuit and a facial expression data change determination circuit. The facial expression data creation circuit creates facial expression data based on the facial images Fin sent continuously from the face detection unit 12 and outputs the facial expression data. The facial expression data change determination circuit determines whether or not there is a temporal change in the facial expression data sent continuously, sequentially extracts facial expression data when it is determined that there is a temporal change, and the facial expression change pattern authentication unit of the personal authentication unit 14 To 52.

本人認証部14は、例えば、顔認証部51および表情変化パターン認証部52を有する(図8)。顔認証部51は、顔検出部12から送られてくる顔画像Finと記憶部11に記憶された登録顔データFとを照合する。この照合結果の尺度に基づいて、カメラ4aで撮像された利用者の顔が記憶部11に登録された利用者の顔と一致するか否かの認証を行い、その認証結果をアクセス権判定部15に出力する。   The personal authentication unit 14 includes, for example, a face authentication unit 51 and a facial expression change pattern authentication unit 52 (FIG. 8). The face authentication unit 51 collates the face image Fin sent from the face detection unit 12 with the registered face data F stored in the storage unit 11. Based on the scale of the comparison result, authentication is performed as to whether or not the user's face captured by the camera 4a matches the user's face registered in the storage unit 11, and the authentication result is used as an access right determination unit. 15 is output.

この顔認証部51における顔認証処理は、具体的には、本人認証用として予め取得した顔画像がそのまま登録顔データFとして登録される。この場合には、まず、顔検出部12からの顔画像Finについて拡大/縮小処理を施し、登録顔データF(複数の顔画像または1つの顔画像)と同等のサイズにする。次に、顔画像Finと登録顔データFを照合して互いの差分を算出することによって、両顔画像の類似度を求める。この類似度は差分が少ないほど高くなるものとする。そして、求めた類似度が予め設定された閾値を上回れば、顔画像Finと登録顔データFの一致を判断して利用者が本人であると認証する。   Specifically, in the face authentication process in the face authentication unit 51, a face image acquired in advance for personal authentication is registered as registered face data F as it is. In this case, first, enlargement / reduction processing is performed on the face image Fin from the face detection unit 12 to make it the same size as the registered face data F (a plurality of face images or one face image). Next, by comparing the face image Fin with the registered face data F and calculating the difference between them, the similarity between both face images is obtained. It is assumed that the similarity is higher as the difference is smaller. If the obtained similarity exceeds a preset threshold, it is determined that the face image Fin matches the registered face data F, and the user is authenticated.

また、本人認証用の顔画像を基に算出した顔特徴量が登録顔データFとして登録されている場合には、まず、顔検出部12からの顔画像Finを基に顔認証部51の顔特徴量算出回路で顔特徴量を算出し、その顔特徴量と登録顔データFとして示される顔特徴量とを顔特徴量照合回路で照合して類似度を求める。そして、求めた類似度が予め設定された閾値を上回るか否かを顔特徴量認証回路で判定し、類似度が閾値を上回れば利用者が本人であると認証する。   Further, when the face feature amount calculated based on the face image for personal authentication is registered as the registered face data F, first, the face of the face authentication unit 51 based on the face image Fin from the face detection unit 12 is registered. The face feature amount is calculated by the feature amount calculation circuit, and the face feature amount and the face feature amount indicated as the registered face data F are collated by the face feature amount collation circuit to obtain the similarity. Then, the face feature amount authentication circuit determines whether or not the obtained similarity exceeds a preset threshold, and if the similarity exceeds the threshold, the user is authenticated.

表情変化パターン認証部52は、表情識別部13から送られてくる表情データ列{Ein}と、記憶部11に記憶された登録表情変化パタンデータEとを照合して表情変化パターンの認証を行い、その認証結果をアクセス権判定部15に出力する。この表情変化パターン認証部52おける表情変化パターン認証処理は、表情識別部13からの表情データ列{Ein}と記憶部11からの登録表情変化パタンデータEに示される表情データの変化パタン(以下、登録表情データ列{E}とする)とが、各々の表情データ列の変化パターンが照合される。その照合結果が表情変化パタンデータ判定回路に出力される。   The facial expression change pattern authentication unit 52 authenticates the facial expression change pattern by comparing the facial expression data string {Ein} sent from the facial expression identification unit 13 with the registered facial expression change pattern data E stored in the storage unit 11. The authentication result is output to the access right determination unit 15. The facial expression change pattern authentication process in the facial expression change pattern authentication unit 52 is performed by the facial expression data change pattern (hereinafter, referred to as the facial expression data string {Ein} from the facial expression identification unit 13 and the registered facial expression change pattern data E from the storage unit 11). The registered expression data string {E}) is collated with the change pattern of each expression data string. The collation result is output to the facial expression change pattern data determination circuit.

表情変化パタンデータ判定回路では、例えば、次の認証条件1)〜4)のいずれかの場合には、表情変化パターンの認証処理が行われる。すなわち、認証条件が、1)表情データ列{Ein}と登録表情データ列{E}が同等になる場合、2)表情データ列{Ein}に登録表情データ列{E}が含まれる場合、3)表情データ列{Ein}内に、登録表情データ列{E}にある各表情データが同順で存在する場合、4)登録表情データ列{E}の集合が表情データ列{Ein}の集合に含まれる場合には、それぞれ表情データ列{Ein}で示される表情変化パターンを認証する。   In the facial expression change pattern data determination circuit, for example, in any of the following authentication conditions 1) to 4), facial expression change pattern authentication processing is performed. That is, the authentication condition is 1) when the facial expression data string {Ein} and the registered facial expression data string {E} are equivalent. 2) When the facial expression data string {Ein} includes the registered facial expression data string {E}. ) When facial expression data in the registered facial expression data sequence {E} exist in the same order in the facial expression data sequence {Ein}, 4) a set of registered facial expression data sequence {E} is a set of facial expression data sequence {Ein} Are included, each facial expression change pattern indicated by the facial expression data string {Ein} is authenticated.

なお、アクセス権判定部15は、顔認証部51および表情変化パターン認証部52における各認証結果と、記憶部11に記憶されたアクセス権データAとに基づいて、利用者のアクセスを許可するか否かを判定する。この判定結果をアクセスコントロール部16に出力する。このアクセス権判定部15における判定処理は、顔認証部51での認証結果がOKであり、かつ、表情変化パターン認証部52での認証結果もOKである場合に、記憶部11からのアクセス権データAに示される使用権限に応じて判定する。そして、この判定結果を示す信号をアクセスコントロール部16に伝える。   Whether the access right determination unit 15 permits the user's access based on each authentication result in the face authentication unit 51 and the facial expression change pattern authentication unit 52 and the access right data A stored in the storage unit 11. Determine whether or not. The determination result is output to the access control unit 16. In the determination processing in the access right determination unit 15, the access right from the storage unit 11 is obtained when the authentication result in the face authentication unit 51 is OK and the authentication result in the facial expression change pattern authentication unit 52 is also OK. The determination is made according to the use authority indicated in the data A. Then, a signal indicating the determination result is transmitted to the access control unit 16.

アクセスコントロール部16は、アクセス権判定部15における判定結果に応じて、本人であると認証されると同時に正当なアクセス権を有すると判定された利用者に対して所要のアクセスを許可する。また、それ以外の利用者に対してはアクセスを拒否するアクセスコントロールを実施する。   The access control unit 16 permits the required access to the user who is authenticated as the right person and determined to have the right access right according to the determination result in the access right determination unit 15. In addition, access control is performed to deny access to other users.

次に、図9は図8の動作を説明するフローチャートである。このアクセスコントロールシステムによるアクセスコントロールが開始されると、アクセスを希望する利用者がカメラ4aによって撮像され、その映像が顔検出部12に送られる。顔検出部12では、ステップS11で、カメラ4aから連続して送られてくる画像のなかに利用者の顔に相当する部分が検出されたか否か判別され、顔の部分が検出されるとステップS12に進み、顔画像Finが切り出されて顔認証部51および表情識別部13にそれぞれ出力する。   Next, FIG. 9 is a flowchart for explaining the operation of FIG. When access control by the access control system is started, a user who desires access is imaged by the camera 4a, and the video is sent to the face detection unit 12. In step S11, the face detection unit 12 determines whether or not a portion corresponding to the user's face has been detected in the images continuously sent from the camera 4a. In S12, the face image Fin is cut out and output to the face authentication unit 51 and the facial expression identification unit 13, respectively.

次に、顔検出部12からの顔画像Finを受ける顔認証部51では、まず、ステップS13で顔画像Finが入力されたか否かが判別され、顔画像Finの入力があるとステップS14に進み、入力された顔画像Finと記憶部11に記憶された登録顔データFとが照合される。このとき、記憶部11がメモリを使用したものである場合には、メモリに記憶された複数の利用者A,B,C,…の登録顔データFが顔認証部51によって順次読み取られて、顔画像Finとの照合処理が実行される。また、記憶部11が非接触ICカードからなる場合には、カメラ4aで撮像された利用者の提示した非接触ICカードが、読み取られる。そして、受信された個人登録データに含まれる登録顔データFが顔認証部51に送られて、顔画像Finとの照合処理が実行される。そして、ステップS15では、照合の結果を示す類似度が閾値を上回って照合一致となったか否かが判別され、照合一致が判別されると、ステップS16に進み、顔認証部51における認証結果が是であることを示す信号がアクセス権判定部15に出力される。   Next, the face authentication unit 51 that receives the face image Fin from the face detection unit 12 first determines whether or not the face image Fin is input in step S13. If the face image Fin is input, the process proceeds to step S14. The input face image Fin and the registered face data F stored in the storage unit 11 are collated. At this time, when the storage unit 11 uses a memory, the registered face data F of a plurality of users A, B, C,... Stored in the memory is sequentially read by the face authentication unit 51, and A collation process with the face image Fin is executed. When the storage unit 11 is composed of a non-contact IC card, the non-contact IC card presented by the user imaged by the camera 4a is read. Then, the registered face data F included in the received personal registration data is sent to the face authentication unit 51, and collation processing with the face image Fin is executed. In step S15, it is determined whether or not the similarity indicating the collation result exceeds the threshold value, and the collation match is determined. If collation coincidence is determined, the process proceeds to step S16, where the authentication result in the face authentication unit 51 is obtained. A signal indicating right is output to the access right determination unit 15.

また、顔検出部12からの顔画像Finを受ける表情識別部13では、まず、ステップS17で顔画像Finが入力されたか否かが判別される。顔画像Finの入力があるとステップS18に進み、入力された顔画像Finについての表情データが表情データ作成回路によって作成される。そして、ステップS19では、作成された時系列の表情データについての変化の有無が表情データ変化判定回路で判定され、変化有りが判定されると、ステップS20に進んで、その時の表情データが表情データ列{Ein }として表情変化パターン認証部52に出力される。   In addition, the facial expression identification unit 13 that receives the facial image Fin from the facial detection unit 12 first determines whether or not the facial image Fin is input in step S17. If the face image Fin is input, the process proceeds to step S18, and expression data for the input face image Fin is generated by the expression data generation circuit. In step S19, the expression data change determination circuit determines whether or not there is a change in the created time-series expression data. If it is determined that there is a change, the process proceeds to step S20, and the expression data at that time is the expression data. It is output to the facial expression change pattern authentication unit 52 as a column {Ein}.

表情識別部13からの表情データ列{Ein }を受ける表情変化パターン認証部52では、まず、ステップS21で表情データ列{Ein }が入力されたか否かが判別される。表情データ列{Ein }の入力があるとステップS22に進み、入力された表情データ列{Ein }と記憶部1に記憶された登録表情データ列{E }とが照合される。そして、ステップS23では、その照合結果が、前述した認証条件(1)〜(4)のいずれかに従って表情変化パターンの認証処理が行われ、認証条件を満たした場合には、ステップS24に進み、表情変化パターン認証部52における認証結果が是であることを示す信号がアクセス権判定部15に出力される。   The facial expression change pattern authentication unit 52 that receives the facial expression data string {Ein} from the facial expression identification unit 13 first determines whether or not the facial expression data string {Ein} is input in step S21. When the expression data string {Ein} is input, the process proceeds to step S22, where the input expression data string {Ein} and the registered expression data string {E} stored in the storage unit 1 are collated. In step S23, the verification result is subjected to the facial expression change pattern authentication process according to any of the authentication conditions (1) to (4) described above, and if the authentication condition is satisfied, the process proceeds to step S24. A signal indicating that the authentication result in the facial expression change pattern authentication unit 52 is right is output to the access right determination unit 15.

なお、顔認証部51および表情変化パターン認証部52からの出力信号を受けるアクセス権判定部15では、ステップS25において顔認証部51および表情変化パターン認証部52からの各出力信号の双方が認証結果OKであることを示しているか否かが判別される。双方の認証結果が是である場合には、ステップS26に進み、記憶部11に記憶されたアクセス権データAに応じて、その利用者に対するアクセス権が判定される。その判定結果を示す信号がステップS27でアクセスコントロール部16に出力される。そして、ステップS28では、アクセスコントロール部16において利用者に対するアクセスコントロールが実施される。   In the access right determination unit 15 that receives the output signals from the face authentication unit 51 and the facial expression change pattern authentication unit 52, both the output signals from the face authentication unit 51 and the facial expression change pattern authentication unit 52 are authenticated in step S25. It is determined whether or not it indicates OK. If both authentication results are positive, the process proceeds to step S26, and the access right for the user is determined according to the access right data A stored in the storage unit 11. A signal indicating the determination result is output to the access control unit 16 in step S27. In step S28, the access control unit 16 performs access control for the user.

特開2000−067188号JP 2000-067188 特開2003−178306号JP 2003-178306 A 特開2003−233816号JP 2003-233816 A

しかし、この従来技術3では、記憶部に記憶した顔認証のための登録顔データFおよび登録表情変化パタンデータEが、全て画像データであるため、記憶すべき画像量が膨大な量となってしまう問題がある。また、生体判別を各画像データの認証処理を繰り返して実施しているため、処理時間が大幅にかかってしまう問題もある。そのため記憶部が大きくなり、小型装置(携帯電話など)への搭載が困難になるという問題があった。また、記憶部の読み出し、書込み時間がかかり、処理速度が遅くなり、処理時間がかかるという問題もある。   However, in this prior art 3, since the registered face data F and the registered facial expression change pattern data E for face authentication stored in the storage unit are all image data, the amount of images to be stored is enormous. There is a problem. In addition, since the biometric discrimination is repeatedly performed for each image data authentication process, there is a problem that the processing time is significantly increased. For this reason, there is a problem in that the storage unit becomes large and it becomes difficult to mount it on a small device (such as a mobile phone). In addition, there is a problem that it takes time to read and write data from the storage unit, processing speed is slow, and processing time is required.

本発明の主な目的は、記憶すべきデータ量を少なくして、装置を小型化でき、携帯電話など小型機器への搭載を可能とし、なりすましを防止する顔認証装置、その顔認証方法、その顔認証装置を用いた電子機器及びプログラムを提供することにある。   The main object of the present invention is to reduce the amount of data to be stored, reduce the size of the device, enable mounting on a small device such as a mobile phone, and prevent impersonation, its face authentication method, and its An object of the present invention is to provide an electronic device and a program using a face authentication device.

本発明の顔認証装置は、入力された動画像と、認証対象者によって意図されるとともに前記認証対象者によって予め登録され且つ複数の異なる表情の組み合わせからなる表情パターンとを比較し、一致した場合には前記動画像は生体であると判定する生体判別処理部と、前記生体判別処理部によって前記動画像が生体であると判定された場合に、前記動画像について認証対象者の顔認証処理を行う顔認証処理部と、を備える。

The face authentication device according to the present invention compares the input moving image with a facial expression pattern that is intended by the authentication target person and registered in advance by the authentication target person , and is a combination of a plurality of different facial expressions. In this case, when the moving image is determined to be a living body, the living body determination processing unit determines that the moving image is a living body. A face authentication processing unit.

本発明の顔認証方法は、入力された動画像と、認証対象者によって意図されるとともに前記認証対象者によって予め登録され且つ複数の異なる表情の組み合わせからなる表情パターンとを比較し、一致した場合には前記動画像は生体であると判定し、前記動画像が生体であると判定された場合に、前記動画像について認証対象者の顔認証処理を行う。


The face authentication method of the present invention compares an input moving image with a facial expression pattern that is intended by an authentication target person and is registered in advance by the authentication target person , and is a combination of a plurality of different facial expressions. In this case, it is determined that the moving image is a living body, and when it is determined that the moving image is a living body, face authentication processing of the person to be authenticated is performed on the moving image.


以上説明したように、本発明によれば、顔認証装置が、カメラから入力された認証対象者の動画像が生体の顔である否かを、動画像の特徴点を取り出して比較しているので、記憶すべきデータ量を少なくすることができ、かつ、処理時間を短縮できるので、装置小型化を可能とした、なりすまし防止が可能となるという効果がある。   As described above, according to the present invention, the face authentication apparatus extracts and compares feature points of moving images to determine whether the moving image of the person to be authenticated input from the camera is a biological face. As a result, the amount of data to be stored can be reduced, and the processing time can be shortened, so that the apparatus can be miniaturized and spoofing can be prevented.

次に図面により本発明の実施形態を説明する。図1は本発明の一実施形態のブロック図である。図1に示すように、本実施形態は、キーボード等の入力装置1と、ディスプレイ装置等の出力装置2と、顔認証処理を行う顔認証装置3と、認証対象者(ユーザ)の動画像を入力するカメラ4とを含んで構成される。また、顔認証装置3は、制御部31と、生体の顔であるか否かを判定する生体判別処理部32と、認証対象者の顔であることを認証する顔認証処理部33とを備えている。
本実施形態の顔認証装置3は、まず生体判別処理部32で、入力した認証対象者の動画像が(任意の)生体の顔であるか否かを判別することを特徴とする。そして、その動画像が生体の顔であると判別された場合にのみ、顔認証処理部33が、認証対象者の顔であるか否かを認証するものである。また、顔認証処理部33は、従来から用いられている顔認証処理であり、認証対象者本人であると判別できる特徴点をデータとして記憶・保持しておき、このデータと撮影した認証対象者の顔画像とを比較して判別し、認証を行う。
また、制御部31は、カメラ4の制御処理、生体判別処理部32の制御処理、顔認識処理部33の制御処理、入力装置1からの入力情報制御、出力装置2への出力情報制御を行う。
Next, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram of an embodiment of the present invention. As shown in FIG. 1, in this embodiment, an input device 1 such as a keyboard, an output device 2 such as a display device, a face authentication device 3 that performs face authentication processing, and a moving image of a person to be authenticated (user) are displayed. And an input camera 4. In addition, the face authentication device 3 includes a control unit 31, a biometric discrimination processing unit 32 that determines whether or not it is a biometric face, and a face authentication processing unit 33 that authenticates the face of the person to be authenticated. ing.
The face authentication apparatus 3 according to the present embodiment is characterized in that the biometric discrimination processing unit 32 first discriminates whether or not the input moving image of the person to be authenticated is an (arbitrary) biometric face. Only when it is determined that the moving image is the face of a living body, the face authentication processing unit 33 authenticates whether or not it is the face of the person to be authenticated. The face authentication processing unit 33 is a face authentication process that has been used in the past, and stores and holds, as data, feature points that can be identified as the person to be authenticated. It compares and discriminates with the face image of and authenticates.
The control unit 31 also performs control processing of the camera 4, control processing of the biometric discrimination processing unit 32, control processing of the face recognition processing unit 33, input information control from the input device 1, and output information control to the output device 2. .

また、生体判別処理部32は、生体判別部41と、顔表情抽出部42と、顔表情パターン条件生成部43とを備えている。カメラ4から入力されている動画像は、制御部31から生体判別部41を経由して顔表情抽出部42に入力される。顔表情抽出部42は、入力される動画像に対して、生体の人の顔であるか否か、および顔がどのような動きをしているかを抽出する処理を行う。顔表情パターン条件生成部43は、認証対象者であるユーザに求める顔表情のパターン(眉毛の上下、口の開閉など)を生成する。生体判別部41は、顔表情抽出部42から得られる顔の動きと、顔表情パターン条件生成部43から得られる認証対象者(ユーザ)に求めている顔表情のパターンとを比較し、カメラ4から入力されている動画像が生体であるか否かを判別する処理を行う。   The biometric discrimination processing unit 32 includes a biometric discrimination unit 41, a facial expression extraction unit 42, and a facial expression pattern condition generation unit 43. The moving image input from the camera 4 is input from the control unit 31 to the facial expression extraction unit 42 via the living body determination unit 41. The facial expression extraction unit 42 performs processing for extracting whether or not the input moving image is a living human face and how the face is moving. The facial expression pattern condition generation unit 43 generates a facial expression pattern (eg, eyebrows up / down, mouth open / close, etc.) required for a user who is an authentication target. The biometric discrimination unit 41 compares the facial movement obtained from the facial expression extraction unit 42 with the facial expression pattern requested of the person to be authenticated (user) obtained from the facial expression pattern condition generation unit 43, and the camera 4 To determine whether or not the moving image input from is a living body.

また、顔表情パターン条件生成部43では、認証対象者に求める顔表情の画像パターンおよびその顔表情の動き(変化)の画像パターンを、ランダムに、あるいは、所定の規則に従って、顔の部位毎の画像パターンを選択して組合せて生成する。この生成された顔の画像パターンは、選択した顔の部位を変化させた時の、顔表情の画像パターンとなる。生成された顔の画像パターンは、制御部31を通して出力装置2に表示される。この場合の表示タイミングは、所定の入力、例えば、入力装置1の押下、等をトリガにしても良く、また出力装置2に撮像開始タイミング(2秒前、1秒前、開始)を表示しても良い。その表示タイミングで、カメラ4から動画像を取り込み、取り込んだ動画像を、顔表情抽出部42に渡す。顔表情抽出部42は、その動画像内の、人の顔の特徴となるポイント(顔の部位の形状など)の有無を判別して生体の人の顔であるか否かを判断する。これが、生体の人の顔であると判断した場合は、さらに生体判別部41が、顔表情パターン条件生成部43で生成された認証対象者に求める顔のパターンと、カメラで撮像した動画像の顔パターンの変化、すなわち、顔表情抽出部42から得られた顔の動き、とを比較する。これら顔のパターンが、一致しているか否かを判定し、これらが顔の動きに対応する所定時間内で一致しない場合は、顔認証処理部33が、認証を拒否し、一致する場合は認証をする。   In addition, the facial expression pattern condition generation unit 43 determines the facial expression image pattern required for the person to be authenticated and the facial expression movement (change) image pattern for each facial part randomly or in accordance with a predetermined rule. Select and combine image patterns. The generated face image pattern is a facial expression image pattern when the selected face portion is changed. The generated face image pattern is displayed on the output device 2 through the control unit 31. The display timing in this case may be triggered by a predetermined input, for example, pressing of the input device 1 or the like, and the imaging start timing (2 seconds before, 1 second before, start) is displayed on the output device 2. Also good. At the display timing, a moving image is captured from the camera 4, and the captured moving image is transferred to the facial expression extraction unit 42. The facial expression extracting unit 42 determines whether or not the face is a living human face by determining the presence or absence of a point (such as the shape of a facial part) that is a feature of the human face in the moving image. If it is determined that this is a living human face, the biometric discrimination unit 41 further generates a facial pattern required by the person to be authenticated generated by the facial expression pattern condition generation unit 43 and a moving image captured by the camera. The change in the face pattern, that is, the movement of the face obtained from the facial expression extraction unit 42 is compared. It is determined whether or not these face patterns match, and if they do not match within a predetermined time corresponding to the movement of the face, the face authentication processing unit 33 rejects authentication, and if they match, authentication is performed. do.

生体判別部41は、人の顔の特徴となるポイント(部位)の画像変化量が大きい場合、カメラ4に写っている対象が差し替えられている可能性があると判断し、認証を拒否する。顔のパターンの変化の一致は、認証対象者に求める顔のパターンの変化とカメラで撮像した動画像の顔パターンの変化を順番に比較することで行う。全ての顔パターン一致した場合、顔認証処理部33による顔認証処理を実行し、認証された場合は、認証成功とする。   When the image change amount of a point (part) that is a feature of a person's face is large, the biometric determination unit 41 determines that there is a possibility that the object shown in the camera 4 has been replaced, and rejects authentication. The matching of the face pattern change is performed by sequentially comparing the face pattern change required of the person to be authenticated and the face pattern change of the moving image captured by the camera. If all face patterns match, face authentication processing by the face authentication processing unit 33 is executed, and if authenticated, the authentication is successful.

次に、生体判別部41は、図2(a)の構成図に示される。すなわち、まず第1段階で、顔表情パターン条件生成部43からこの装置内で生成した特徴ポイントの移動情報を取得する。これは、例えば、「眉が動いた」ということは、眉の特徴ポイントがどの程度変位があればいいかという移動情報である。次に、第2段階で、顔表情抽出部42から顔の特徴ポイント情報を、動画像のフレーム毎に取得する。次に、第3段階で、第1段階と第2段階で得られた各情報を比較する。次に、第4段階で、複数パターンがある場合は、第1段階から第3段階でを繰り返す。そして、第3段階、第4段階で特徴ポイントが所定範囲にあるという条件が満たされれば、生体であると判定する。   Next, the biometric discrimination unit 41 is shown in the configuration diagram of FIG. That is, in the first stage, the movement information of the feature points generated in the apparatus is acquired from the facial expression pattern condition generation unit 43. For example, “the eyebrows have moved” is movement information indicating how much the eyebrow feature points should be displaced. Next, in the second stage, facial feature point information is acquired from the facial expression extraction unit 42 for each frame of the moving image. Next, in the third stage, each information obtained in the first stage and the second stage is compared. Next, if there are a plurality of patterns in the fourth stage, the first to third stages are repeated. If the condition that the feature point is in the predetermined range is satisfied in the third stage and the fourth stage, it is determined to be a living body.

また、顔表情抽出部42は、図2(b)の構成図に示される。すなわち、まず第1段階で、各フレーム毎の動画像に対して、濃淡などの画像情報を利用して、顔の特徴ポイントを付与する。次に、第2段階で、顔の特徴ポイント情報が、人の顔として成り立つ位置関係にあるかどうか評価する。そして第3段階で、第2段階がOKである(人の顔として成り立つ)場合、人の顔として判断し、生体判別部41に特徴ポイント情報を渡す。   The facial expression extraction unit 42 is shown in the configuration diagram of FIG. That is, in the first stage, facial feature points are assigned to moving images for each frame using image information such as shading. Next, in the second stage, it is evaluated whether or not the facial feature point information has a positional relationship that holds as a human face. Then, in the third stage, when the second stage is OK (consists as a human face), it is determined as a human face, and the feature point information is passed to the biometric determination unit 41.

図3は図1の動作を説明するフロー図である。この図3と図1を参照して本実施例の動作について詳細に説明する。まず入力装置1の押下をきっかけとし、カメラ4から動画像の取り込みを行う。カメラ4の画像は出力装置2に表示される(図3のステップS1)。同時に、顔表情パターン条件生成部43でユーザに求める顔表情のパターンを生成する。この生成した顔表情パターンは、なりすましを避けるためランダムに生成される。顔表情の情報は、制御部31と通して出力装置2に表示させ、ユーザに該当する顔表情を行うよう知らせる(図3のステップS2,3)。カメラ4から取り込んだ動画像は、顔表情抽出部42に渡される。   FIG. 3 is a flowchart for explaining the operation of FIG. The operation of this embodiment will be described in detail with reference to FIG. 3 and FIG. First, when the input device 1 is pressed, a moving image is captured from the camera 4. The image of the camera 4 is displayed on the output device 2 (step S1 in FIG. 3). At the same time, the facial expression pattern condition generation unit 43 generates a facial expression pattern required by the user. This generated facial expression pattern is randomly generated to avoid impersonation. The facial expression information is displayed on the output device 2 through the control unit 31 and informs the user to perform the corresponding facial expression (steps S2 and 3 in FIG. 3). The moving image captured from the camera 4 is transferred to the facial expression extraction unit 42.

ここで生体判別部41は、その動画像に含まれる対象に対して、人の顔の特徴となるポイントの有無を判別し、生体の人の顔であるか否かを判断する。またそのポイントの動きを追うことで、顔がどのような動きをしているかを抽出し、顔の表情を判別する。このポイントの動きを追っている際に、動きの変動量が大きい場合、ポイントを追い切れず外れてしまう場合がある。しかし、この場合はカメラ4に写っている対象が差し替えられている可能性があるため、NGと判断し、失敗として処理フローは終了となる(図3のステップS4,8)。   Here, the living body discriminating unit 41 discriminates whether or not there is a point that is a feature of a human face with respect to a target included in the moving image, and determines whether or not it is a living human face. In addition, by tracking the movement of the point, the movement of the face is extracted and the facial expression is discriminated. When the movement of this point is being followed, if the amount of movement fluctuation is large, the point may be missed without being followed. However, in this case, there is a possibility that the object shown in the camera 4 has been replaced. Therefore, it is determined as NG, and the processing flow ends as failure (steps S4 and S8 in FIG. 3).

生体判別部41では、顔表情抽出部42から得られた顔の動きと、顔表情パターン条件生成部43でユーザに求めている顔表情とを比較し、一致しているかを判定する。ある一定時間内で一致しない場合は、NGと判断し、失敗として処理フローは終了となる(図3のステップS5,8)。   The biometric determination unit 41 compares the facial movement obtained from the facial expression extraction unit 42 with the facial expression requested by the user in the facial expression pattern condition generation unit 43 to determine whether they match. If they do not match within a certain period of time, it is determined as NG and the processing flow ends as a failure (steps S5 and S8 in FIG. 3).

顔表情パターン条件生成部43で複数の顔表情のパターンが生成された場合は、生成された顔表情を順番に比較を行っていく。全ての顔表情の比較が終了するまで図3のステップS1〜S5を繰り返す(図3のステップS6)。顔表情パターンが全て一致した場合、顔認証処理部33による顔認証処理を実行する。この認証がNGの場合は、失敗として処理フローは終了となる。認証OKの場合は、認証成功として処理フローは終了となる(図3のステップS7,8,9)。この場合、生体判別処理で合格した顔画像を使用して行っているため、なりすましでない生体の人の顔であることを保証することが出来る。   When a plurality of facial expression patterns are generated by the facial expression pattern condition generation unit 43, the generated facial expressions are compared in order. Steps S1 to S5 in FIG. 3 are repeated until the comparison of all facial expressions is completed (step S6 in FIG. 3). When all the facial expression patterns match, face authentication processing by the face authentication processing unit 33 is executed. If this authentication is NG, the processing flow ends as a failure. In the case of authentication OK, the processing flow ends as authentication success (steps S7, 8, 9 in FIG. 3). In this case, since it is performed using a face image that has passed the biometric discrimination process, it can be guaranteed that the face is a human face that is not impersonated.

この顔認証処理によれば、顔認証において、顔写真やビデオを使ったなりすましの防止が可能になることである。その理由は、顔認証処理に先立ち、生体判別処理を行うことで、顔認証の対象が顔写真やビデオでないことを判別しているためである。さらに、携帯電話などの型装置への搭載が容易なことである。それは、処理に必要となる入力デバイスはカメラのみであり、カメラは既に小型装置(携帯電話など)への搭載が実現されているため、そのハードウェアを利用するだけで実現可能なためである。   According to this face authentication process, it is possible to prevent impersonation using a face photo or video in face authentication. This is because, prior to the face authentication process, the biometric determination process is performed to determine that the face authentication target is not a face photograph or video. Furthermore, it can be easily mounted on a mold device such as a mobile phone. This is because the only input device required for processing is a camera, and since the camera is already mounted on a small device (such as a mobile phone), it can be realized only by using the hardware.

次に、本実施形態の実施例1の動作を具体例により説明する。例えば、顔表情パターン条件生成部43が、顔表情パターンとして、「口を開ける」「眉を上げる」という2パターンを生成する場合を考える。まず、カメラ4から動画像の取り込みを行う(図3のステップS1)。同時に、顔表情パターン条件生成部43でユーザに求めている顔表情のパターンを生成し、制御部31を通して出力装置2に表示させる(図3のステップS2,3)。   Next, the operation of Example 1 of this embodiment will be described using a specific example. For example, consider a case where the facial expression pattern condition generation unit 43 generates two patterns “open mouth” and “raise eyebrows” as facial expression patterns. First, a moving image is captured from the camera 4 (step S1 in FIG. 3). At the same time, the facial expression pattern condition generation unit 43 generates a facial expression pattern requested by the user and displays it on the output device 2 through the control unit 31 (steps S2 and 3 in FIG. 3).

本実施例では、「口を開ける」「眉を上げる」という2パターンを生成しているので、まずは「口を開ける」という顔をユーザに要求するよう出力装置2に表示を行う。カメラ4から取り込んだ動画像は、顔表情抽出部42に渡される。ここでその動画像に含まれる対象に対して、人の顔の特徴となるポイントの有無を判別し、人の顔であるか否かを判断する。またそのポイントの動きを追うことで、顔がどのような動きをしているかを抽出し、顔の表情を判別する。   In this embodiment, two patterns of “open mouth” and “raise eyebrows” are generated. First, the output device 2 is displayed so as to request the user to open a face “open mouth”. The moving image captured from the camera 4 is transferred to the facial expression extraction unit 42. Here, the presence or absence of a point that is a feature of a person's face is determined for the object included in the moving image, and it is determined whether or not the object is a person's face. In addition, by tracking the movement of the point, the movement of the face is extracted and the facial expression is discriminated.

認証対象であるユーザが口を開けた場合、カメラ4からその動画像が顔表情抽出部42に渡され、口が開いた状態であるという情報が抽出される。この結果を生体判別部41に渡す。生体判別部41では、顔表情パターン条件生成部43から渡されている条件と比較を行う。この場合、口を開けるという条件であるため、比較の結果、一致すると判定され、ユーザは要求した通り顔の表情を行っておりパターン1が合格したと判定される。   When the user to be authenticated opens his / her mouth, the moving image is transferred from the camera 4 to the facial expression extracting unit 42 and information indicating that the mouth is open is extracted. The result is passed to the living body discrimination unit 41. The biometric discrimination unit 41 compares with the condition passed from the facial expression pattern condition generation unit 43. In this case, since it is a condition that the mouth is opened, it is determined that they match as a result of the comparison, and the user performs the facial expression as requested, and it is determined that the pattern 1 has passed.

続いて、「眉を上げる」という顔をユーザに要求するよう出力装置2に表示を行う。カメラ4から取り込んだ動画像は、顔表情抽出部42に渡され、その動画像に含まれる対象に対して、人の顔の特徴となるポイントの有無を判別し、人の顔であるか否かの判断、及びそのポイントの動きを追うことで、顔がどのような動きをしているかを抽出し、顔の表情を判別する。認証対象であるユーザが眉を上げた場合、カメラ4からその動画像が顔表情抽出部42に渡され、眉が通常な位置から、上がった状態に変化したことを抽出され、眉を上げたという情報を生体判別部41に渡す。   Subsequently, display is performed on the output device 2 so as to request the user to raise the eyebrows. The moving image captured from the camera 4 is transferred to the facial expression extracting unit 42, and it is determined whether or not there is a point that is a feature of a human face with respect to a target included in the moving image. And the movement of the point is followed to extract how the face moves, and the facial expression is discriminated. When the authentication target user raises the eyebrows, the moving image is passed from the camera 4 to the facial expression extraction unit 42, and it is extracted that the eyebrows have changed from the normal position to the raised state, and the eyebrows are raised. Is passed to the biometric determination unit 41.

生体判別部41は、顔表情パターン条件生成部43から眉を上げるという条件であるという情報が渡されている。そのため、その比較の結果が一致すると判定されると、ユーザは要求した通り顔の表情を行っておりパターン2も合格したと判定される。以上により、条件設定された、「口を開ける」「眉を上げる」という2パターンが合格となり、生体判別は成功と判断される。その結果、現在、カメラに写っている対象は、生体の人の顔であると判別される。この判別結果により、顔認証処理が開始されることになるため、生体であるという保証がされている顔画像に対して、顔認証処理を行うことが可能となる。   The biometric determination unit 41 receives information from the facial expression pattern condition generation unit 43 that the condition is to raise the eyebrows. Therefore, if it is determined that the comparison results match, it is determined that the user is performing a facial expression as requested and the pattern 2 has also passed. As described above, the two patterns of “open mouth” and “raise eyebrows” set as conditions are passed, and the biometric discrimination is determined to be successful. As a result, it is determined that the target currently reflected in the camera is a living human face. As a result of this discrimination, the face authentication process is started, so that the face authentication process can be performed on a face image that is guaranteed to be a living body.

次に、図4は本発明の第2の実施例のブロック図、図5はその動作を説明するフロー図である。図4を参照すると、本実施例は、図1に示された実施例における顔表情パターン条件生成部43のかわりに、ユーザ登録顔表情パターンデータベース(DB)44を有する点で異なる。生体判別処理として使用する顔表情パターンを、装置が生成するのではなく、ユーザが好みによりユーザ登録顔表情パターンDB44に登録しておくことにより、ユーザの意図した顔表情パターンを使用した生体判別が可能となり、ユーザの使い勝手を向上させることができる。   Next, FIG. 4 is a block diagram of the second embodiment of the present invention, and FIG. 5 is a flowchart for explaining the operation thereof. Referring to FIG. 4, the present embodiment is different in that it has a user registered facial expression pattern database (DB) 44 instead of the facial expression pattern condition generation unit 43 in the embodiment shown in FIG. 1. The facial expression pattern to be used as the biological identification process is not generated by the device, but is registered in the user registered facial expression pattern DB 44 by the user according to his / her preference, so that the biological identification using the facial expression pattern intended by the user can be performed. It becomes possible, and user convenience can be improved.

次に、本実施例の動作を図5を参照して詳細に説明する。図5のステップS1、S4、S6〜S9で示される、本実施例における入力装置1、出力装置2、制御部31、顔表情抽出部322、顔認証処理部33、カメラ4の操作は、図1で示された実施例の部分の動作と同一のため説明は省略する。図1に示された実施例では、顔表情パターンは、顔表情パターン条件生成部43が生成する処理となっていた。本実施例では、生体判別処理として使用する顔表情パターンを装置が生成するのではなく、ユーザが意図した顔表情パターンをユーザ登録顔表情パターンDB44に登録することを可能としている(図5のステップB1)。そして、ユーザの顔表情との比較を、ユーザ登録顔表情パターンDB44に登録された顔表情パターンと行うことより、ユーザは自分の意図した顔表情パターンを使用した生体判別が可能となり、ユーザの使い勝手を向上させることができる(図5のステップS2)。   Next, the operation of this embodiment will be described in detail with reference to FIG. The operations of the input device 1, the output device 2, the control unit 31, the facial expression extraction unit 322, the face authentication processing unit 33, and the camera 4 shown in steps S 1, S 4, and S 6 to S 9 in FIG. Since the operation is the same as that of the embodiment shown in FIG. In the embodiment shown in FIG. 1, the facial expression pattern is generated by the facial expression pattern condition generation unit 43. In this embodiment, the device does not generate a facial expression pattern to be used as a biometric discrimination process, but allows the user to register the facial expression pattern intended by the user in the user registered facial expression pattern DB 44 (step in FIG. 5). B1). Then, the comparison with the user's facial expression is performed with the facial expression pattern registered in the user-registered facial expression pattern DB 44, so that the user can perform biometric discrimination using the intended facial expression pattern, and the user's usability is improved. Can be improved (step S2 in FIG. 5).

次に、具体例について説明する。例えば、ユーザ登録顔表情パターンDB44に「右目ウインクをする」「左目ウインクをする」という顔表情パターンを登録した場合を考える。   Next, a specific example will be described. For example, let us consider a case where facial expression patterns such as “win right eye” and “win left eye” are registered in the user registered facial expression pattern DB 44.

図5のステップS1、S4、S6〜S9で示される、本実施例における入力装置1、出力装置2、制御部31、顔表情抽出部42、顔認証処理部43、カメラ4の操作は、図1で示された実施例の構成の動作と同一のため説明は省略する。   The operations of the input device 1, the output device 2, the control unit 31, the facial expression extraction unit 42, the face authentication processing unit 43, and the camera 4 shown in steps S 1, S 4 and S 6 to S 9 in FIG. Since the operation is the same as that of the configuration shown in FIG.

図5の処理では、ステップS1の前にステップS1aがある。このステップS1aでは、「右目ウインクをする」「左目ウインクをする」という顔表情パターンを、まず登録する。この登録により、ユーザ登録顔表情パターンDB44に、その2パターンが登録される。図5のステップS1、S4により、ユーザの顔表情が入力される。これを事前に登録した顔表情パターンのパターン「1」である「右目ウインクをする」と比較して一致するかどうか評価する(図5のステップS5a)。これが、一致した場合は、図5のステップS6、S1、S4を行った後、パターン「2である「左目ウインクをする」と比較し一致するかどうか評価する(図5のステップS5a)。これが一致すれば、生体判別が成功と判断され、顔認証処理に移行する。   In the process of FIG. 5, step S1a is present before step S1. In step S1a, facial expression patterns such as “right eye wink” and “left eye wink” are first registered. With this registration, the two patterns are registered in the user registered facial expression pattern DB 44. A user's facial expression is input in steps S1 and S4 of FIG. It is evaluated whether or not it matches with “do right eye wink” which is the pattern “1” of the facial expression pattern registered in advance (step S5a in FIG. 5). If they match, after performing steps S6, S1, and S4 of FIG. 5, it is compared with the pattern “2” “win left eye” to evaluate whether or not they match (step S5a of FIG. 5). If they match, it is determined that the biometric determination is successful, and the process proceeds to face authentication processing.

この実施例でも、ユーザ登録顔表情パターンDB44に登録しておくことにより、第1の実施例と同様に、ユーザの意図した顔表情パターンを使用した生体判別が可能となり、ユーザの使い勝手を向上させることができる。   Also in this embodiment, by registering in the user registered facial expression pattern DB 44, it is possible to perform biometric discrimination using the facial expression pattern intended by the user, as in the first embodiment, and improve user convenience. be able to.

次に、図6は本発明の第3の実施例のブロック図、図7はその動作を説明するフロー図である。図6を参照すると、本実施例は、図1に示された実施例の顔表情パターン条件生成部43や図5で示した実施例におけるユーザ登録顔表情パターンDB44を含まないものである。また、図1や図5における生体判別部41と顔表情抽出部42のかわりに、図6では生体判別実施部45と顔ポイント抽出部46を有している。図1や図5では、ユーザの顔表情と顔表情パターンの一致によって生体判別を行っているが、図6の実施例では顔ポイント抽出部46で得られた顔ポイントの動き情報のみを利用して、生体判別実施部45が生体判別を行っている(図7のステップS6a)。   Next, FIG. 6 is a block diagram of a third embodiment of the present invention, and FIG. 7 is a flowchart for explaining the operation. Referring to FIG. 6, this embodiment does not include the facial expression pattern condition generation unit 43 of the embodiment shown in FIG. 1 or the user registered facial expression pattern DB 44 in the embodiment shown in FIG. 5. Further, instead of the biometric discrimination unit 41 and the facial expression extraction unit 42 in FIGS. 1 and 5, the biometric discrimination execution unit 45 and the face point extraction unit 46 are provided in FIG. 6. In FIG. 1 and FIG. 5, the biometric discrimination is performed by matching the facial expression of the user with the facial expression pattern. However, in the embodiment of FIG. 6, only the motion information of the facial point obtained by the facial point extraction unit 46 is used. Thus, the living body discrimination performing unit 45 performs the living body discrimination (step S6a in FIG. 7).

この実施例では、ビデオなどの動画によるなりすましの可能性が出てくるが、写真などの静止画によるなりすましは防止でき、また顔表情パターンの比較処理が無くなるため、ユーザ側への生体判別処理の意識を極力減らすことが出来、使い勝手の向上が見込まれる。   In this embodiment, there is a possibility of impersonation by a moving image such as a video, but it is possible to prevent impersonation by a still image such as a photograph, and since the facial expression pattern comparison process is eliminated, the biometric discrimination process to the user side is eliminated. Consciousness can be reduced as much as possible, and usability is expected to improve.

本発明の構成としては、本発明の顔認証装置を組み込んだ電子機器に適用することが考えられる。すなわち、電子機器としては、カメラと表示部を少なくとも有する家電製品または携帯通信端末を含むことが考えられる。また、携帯通信端末としては、携帯電話機、PHS、通信機能を有するPDAやモバイルパーソナルコンピュータを含むことが考えられる。   As a configuration of the present invention, it can be applied to an electronic apparatus incorporating the face authentication device of the present invention. That is, it is conceivable that the electronic device includes a home appliance or a mobile communication terminal having at least a camera and a display unit. The mobile communication terminal may include a mobile phone, a PHS, a PDA having a communication function, and a mobile personal computer.

本発明の第1の実施形態を説明するなりすまし防止顔認証装置のブロック図である。It is a block diagram of the spoofing prevention face authentication apparatus explaining the 1st Embodiment of this invention. (a)(b)は図1の生体判別処理部を説明する機能ブロック図である。(A) and (b) are the functional block diagrams explaining the biometric discrimination | determination process part of FIG. 図1の処理動作を説明するフロー図である。It is a flowchart explaining the processing operation of FIG. 本発明の第2の実施例を説明するなりすまし防止顔認証装置のブロック図である。It is a block diagram of the spoofing prevention face authentication apparatus explaining the 2nd Example of the present invention. 図4の処理動作を説明するフロー図である。It is a flowchart explaining the processing operation of FIG. 本発明の第3の実施例を説明するなりすまし防止顔認証装置のブロック図である。It is a block diagram of the spoofing prevention face authentication apparatus explaining the 3rd Example of the present invention. 図6の処理動作を説明するフロー図である。It is a flowchart explaining the processing operation of FIG. 従来例の顔認証システムを説明するブロック図である。It is a block diagram explaining the face authentication system of a prior art example. 図8の処理動作を説明するフロー図である。It is a flowchart explaining the processing operation of FIG.

符号の説明Explanation of symbols

1 入力装置
2 出力装置
3 顔認証装置
4,4a カメラ(部)
11 記憶部
12 顔検出部
13 表情識別部
14 本人認証部
15 アクセス権判定部
16 アクセスコントロール部
31 制御部
32 生体判別処理部
33 顔認証処理部
41 生体判別部
42 顔表情抽出部
43 顔表情パターン条件生成部
44 ユーザ登録顔表情パターンDB
45 生体判別実施部
46 顔ポイント抽出部
51 顔認証部
52 表情変化パターン認証部
DESCRIPTION OF SYMBOLS 1 Input device 2 Output device 3 Face authentication device 4, 4a Camera (part)
DESCRIPTION OF SYMBOLS 11 Memory | storage part 12 Face detection part 13 Expression identification part 14 Personal authentication part 15 Access right determination part 16 Access control part 31 Control part 32 Biometric discrimination process part 33 Face authentication process part 41 Biometric discrimination part 42 Face expression extraction part 43 Facial expression pattern 43 Condition generation unit 44 User registered facial expression pattern DB
45 Biometric discrimination execution unit 46 Face point extraction unit 51 Face authentication unit 52 Expression change pattern authentication unit

Claims (6)

入力された動画像と、認証対象者によって意図されるとともに前記認証対象者によって予め登録され且つ複数の異なる表情の組み合わせからなる表情パターンとを比較し、一致した場合には前記動画像は生体であると判定する生体判別処理部と、
前記生体判別処理部によって前記動画像が生体であると判定された場合に、前記動画像について認証対象者の顔認証処理を行う顔認証処理部と、
を備えることを特徴とする顔認証装置。
A moving image is input, the authentication with contemplated by the subject is registered in advance by the authentication target person and comparing the expression pattern consisting of a combination of a plurality of different expressions, is the moving image when a match biometric A biometric determination processing unit that determines that
A face authentication processing unit that performs face authentication processing of the person to be authenticated for the moving image when the moving image is determined to be a living body by the biometric discrimination processing unit;
A face authentication apparatus comprising:
請求項1に記載の顔認証装置を組み込んだことを特徴とする電子機器。   An electronic apparatus comprising the face authentication device according to claim 1 incorporated therein. 前記電子機器が、カメラ部と表示部とを含む、家庭電気製品または携帯通信端末であることを特徴とする請求項2記載の電子機器。   The electronic device according to claim 2, wherein the electronic device is a home electric product or a portable communication terminal including a camera unit and a display unit. 前記携帯通信端末が、携帯電話機、PHS、および通信機能をもつPDAまたはモバイルパーソナルコンピュータのいずれかであることを特徴とする請求項3記載の電子機器。   4. The electronic apparatus according to claim 3, wherein the mobile communication terminal is one of a mobile phone, a PHS, a PDA having a communication function, and a mobile personal computer. 入力された動画像と、認証対象者によって意図されるとともに前記認証対象者によって予め登録され且つ複数の異なる表情の組み合わせからなる表情パターンとを比較し、一致した場合には前記動画像は生体であると判定し、
前記動画像が生体であると判定された場合に、前記動画像について認証対象者の顔認証処理を行うことを特徴とする顔認証方法。
A moving image is input, the authentication with contemplated by the subject is registered in advance by the authentication target person and comparing the expression pattern consisting of a combination of a plurality of different expressions, is the moving image when a match biometric It is determined that
A face authentication method comprising: performing face authentication processing of an authentication target person on the moving image when it is determined that the moving image is a living body.
請求項5に記載の顔認証方法を実行する顔認証プログラムを記録したことを特徴とする記録媒体。   6. A recording medium on which a face authentication program for executing the face authentication method according to claim 5 is recorded.
JP2005045598A 2005-02-22 2005-02-22 Face authentication device, face authentication method, electronic device incorporating the face authentication device, and recording medium recording the face authentication program Expired - Fee Related JP4760049B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005045598A JP4760049B2 (en) 2005-02-22 2005-02-22 Face authentication device, face authentication method, electronic device incorporating the face authentication device, and recording medium recording the face authentication program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005045598A JP4760049B2 (en) 2005-02-22 2005-02-22 Face authentication device, face authentication method, electronic device incorporating the face authentication device, and recording medium recording the face authentication program

Publications (2)

Publication Number Publication Date
JP2006235718A JP2006235718A (en) 2006-09-07
JP4760049B2 true JP4760049B2 (en) 2011-08-31

Family

ID=37043332

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005045598A Expired - Fee Related JP4760049B2 (en) 2005-02-22 2005-02-22 Face authentication device, face authentication method, electronic device incorporating the face authentication device, and recording medium recording the face authentication program

Country Status (1)

Country Link
JP (1) JP4760049B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11429700B2 (en) * 2014-06-19 2022-08-30 Nec Corporation Authentication device, authentication system, and authentication method

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5272544B2 (en) * 2008-07-03 2013-08-28 日本電気株式会社 Authentication device
JP5106459B2 (en) 2009-03-26 2012-12-26 株式会社東芝 Three-dimensional object determination device, three-dimensional object determination method, and three-dimensional object determination program
JP6311237B2 (en) * 2013-08-23 2018-04-18 日本電気株式会社 Collation device and collation method, collation system, and computer program
JP6482816B2 (en) * 2014-10-21 2019-03-13 Kddi株式会社 Biological detection device, system, method and program
JP2017004398A (en) * 2015-06-15 2017-01-05 株式会社セキュア Authentication device and authentication method
US9794260B2 (en) 2015-08-10 2017-10-17 Yoti Ltd Liveness detection
US10546183B2 (en) 2015-08-10 2020-01-28 Yoti Holding Limited Liveness detection
KR102077198B1 (en) 2015-10-31 2020-02-13 후아웨이 테크놀러지 컴퍼니 리미티드 Facial verification method and electronic device
GB2569794A (en) 2017-12-21 2019-07-03 Yoti Holding Ltd Biometric user authentication
CN108846924A (en) * 2018-05-31 2018-11-20 上海商汤智能科技有限公司 Vehicle and car door solution lock control method, device and car door system for unlocking
CN109299692A (en) * 2018-09-26 2019-02-01 深圳壹账通智能科技有限公司 A kind of personal identification method, computer readable storage medium and terminal device
JP7268725B2 (en) * 2019-04-19 2023-05-08 富士通株式会社 Image processing device, image processing method, and image processing program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000306090A (en) * 1999-04-20 2000-11-02 Ntt Data Corp Device and method for authenticating individual and recording medium
JP2003233816A (en) * 2002-02-13 2003-08-22 Nippon Signal Co Ltd:The Access control system
JP2003317100A (en) * 2002-02-22 2003-11-07 Matsushita Electric Ind Co Ltd Information terminal device, authentication system, and registering and authenticating method
JP2004110813A (en) * 2002-08-30 2004-04-08 Victor Co Of Japan Ltd Personal identification device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11429700B2 (en) * 2014-06-19 2022-08-30 Nec Corporation Authentication device, authentication system, and authentication method
US11797659B2 (en) 2014-06-19 2023-10-24 Nec Corporation Authentication device, authentication system, and authentication method

Also Published As

Publication number Publication date
JP2006235718A (en) 2006-09-07

Similar Documents

Publication Publication Date Title
JP4760049B2 (en) Face authentication device, face authentication method, electronic device incorporating the face authentication device, and recording medium recording the face authentication program
CN110555359B (en) Automatic retry of facial recognition
JP5609970B2 (en) Control access to wireless terminal functions
EP1990770B1 (en) Face authentication device, face authentication method, and program
KR100456619B1 (en) A system for registering and authenticating human face using support vector machines and method thereof
US20060158307A1 (en) System and method for face recognition
JP2003317100A (en) Information terminal device, authentication system, and registering and authenticating method
US11503021B2 (en) Mobile enrollment using a known biometric
JP2007135149A (en) Mobile portable terminal
JP7428242B2 (en) Authentication device, authentication system, authentication method and authentication program
JP4521086B2 (en) Face image recognition apparatus and face image recognition method
JP2007193656A (en) Personal identification device
KR20170123950A (en) Access Control Method and System using Face Recognition
WO2020065851A1 (en) Iris recognition device, iris recognition method and storage medium
JP2003233816A (en) Access control system
CN112183167A (en) Attendance checking method, authentication method, living body detection method, device and equipment
JP2010182056A (en) Password input device and password verification system
TWI771819B (en) Authentication system, authentication device, authentication method, and program product
WO2022059151A1 (en) Face authentication method, face authentication program, and face authentication device
JP2002352230A (en) Access control system
EP3270313B1 (en) Optical authorization method for programs and files
RU2791846C2 (en) Method and device for decision-making to perform operation based on groups of face expressions and electronic device
WO2021157023A1 (en) Authentication method, information processing device, and authentication program
Singh et al. Adapted Facial Recognition And Spoofing Detection For Management Decision Making System: A Visually Impaired People Perspective
Singh et al. Biometric Methods of Face Recognition: A Mirror Review

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20070119

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080115

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20080613

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20090511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110411

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110523

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140617

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees