JP2005149527A - System and method of facial authentication - Google Patents

System and method of facial authentication Download PDF

Info

Publication number
JP2005149527A
JP2005149527A JP2004376398A JP2004376398A JP2005149527A JP 2005149527 A JP2005149527 A JP 2005149527A JP 2004376398 A JP2004376398 A JP 2004376398A JP 2004376398 A JP2004376398 A JP 2004376398A JP 2005149527 A JP2005149527 A JP 2005149527A
Authority
JP
Japan
Prior art keywords
authentication
information
unit
mode
face image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2004376398A
Other languages
Japanese (ja)
Inventor
Tomokazu Wakasugi
智和 若杉
Osamu Yamaguchi
修 山口
Kaoru Suzuki
薫 鈴木
Kazuhiro Fukui
和広 福井
Mayumi Yuasa
真由美 湯浅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2004376398A priority Critical patent/JP2005149527A/en
Publication of JP2005149527A publication Critical patent/JP2005149527A/en
Abandoned legal-status Critical Current

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To improve convenience by enabling a adjustment balance between performance of personal authentication and conformity, and strength to a variation of environment depending on the condition. <P>SOLUTION: A system for facial authentication comprising a facial image input 41 for inputting a facial image of a user, a feature extractor 42 for extracting feature information from the facial image 42, 43, an authentication information storage 45 for storing corresponding pairs of registered facial image information for authentication and identification information inherent to the user, a collator 44 for collating the feature information with the registered information for authentication, an identification information acquisition part for acquiring the identification information from the user, and a re-collation controller for making the collator re-collate the registered facial image information for authentication, extracted from the authentication information storage 45 corresponding to the identification information acquired by the identification information acquisition part, with the feature information, when the collator, as a result of collation by the collator, cannot specify the registered information for authentication corresponding to the feature information. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は顔画像を用いた顔認証装置および顔認証方法に関する。   The present invention relates to a face authentication device and a face authentication method using a face image.

これまで生体情報から個人を認証する認証技術はより高度なセキュリティの実現を目指して様々な分野にわたって研究が行われてきた。中でも画像処理技術を用いた顔画像認識による個人認証システムは、認証に必要な生体情報の入力のために対象とする人物に時間や手間をほとんどかけさせないという快適性によって注目されている。しかし顔画像認識は他の虹彩、指紋などの生体情報を使用する認識に比べて快適性では勝っているものの認識性能において劣っており、このことが個人認証システムへの適用の障害となってきた。顔画像認識を用いて高度なセキュリティを実現するためには本人を識別する率(本人通過率)と本人以外の人物を拒絶する率(他人排除率)が共に十分な高さを維持していなくてはならない。   So far, authentication technologies for authenticating individuals from biometric information have been studied in various fields with the aim of realizing higher security. In particular, a personal authentication system based on face image recognition using image processing technology has been attracting attention because of its comfort in that little time or effort is required for a target person to input biometric information necessary for authentication. However, although facial image recognition is superior in comfort to recognition using biometric information such as other irises and fingerprints, it is inferior in recognition performance, which has been an obstacle to application to a personal authentication system. . In order to achieve high security using facial image recognition, both the rate of identifying the person (passing rate of the person) and the rate of rejecting persons other than the person (exclusion rate of others) are not sufficiently high. must not.

しかし現在の顔画像認識では被認証者の画像と登録情報を所定の特徴空間で比較・照合して類似度を求め、その類似度が所定の閾値を超えているか否かで被認証者が当該登録情報の人物であるか否かを判定することが一般的であるが、判定の基準となる閾値を固定すると少なくとも前述のどちらかの率の一方において十分な高さを得られないという不都合が発生する。   However, in the current face image recognition, the image of the person to be authenticated and the registered information are compared and collated in a predetermined feature space to obtain the similarity, and the person to be authenticated is determined whether or not the degree of similarity exceeds a predetermined threshold. It is common to determine whether or not a person is registered information, but if a threshold value that is a criterion for determination is fixed, there is an inconvenience that a sufficient height cannot be obtained at least in one of the aforementioned rates. Occur.

例えば他人排除率と本人通過率の関係は図20で示すようになり、(A)のように閾値を高く設定すれば他人が通過する率は低くなるが同時に本人が拒絶されることがあり、(B)のように閾値を低く設定すれば本人は必ず通過できても他人も通過することがある。即ちセキュリティの高さと正規利用者が拒否されないことを含んだ快適性とを共に十分達成することが従来の顔画像認識を用いた個人認証システムでは困難であった。なお生体情報の入力における快適性では顔画像に及ばないが、生体情報として音声を対象とした認証においても上記と同様の問題が発生する。   For example, the relationship between the exclusion rate of others and the passing rate of the person is as shown in FIG. 20, and if the threshold is set high as shown in (A), the rate of passing the other person is lowered, but the person may be rejected at the same time. If the threshold is set low as in (B), the person can always pass, but others can also pass. That is, it has been difficult for a conventional personal authentication system using face image recognition to sufficiently achieve both high security and comfort including that a regular user is not rejected. Note that the comfort in inputting biometric information does not reach the face image, but the same problem as described above also occurs in the authentication for voice as biometric information.

上述のように従来の顔や音声による生体情報認証では本人通過率と他人排除率の双方を十分高く保つことは困難であり、さらに照明や雑音などの環境条件に対する強さなども含めると、単一の認証論理のみを用いて十分な認証性能と快適さを持つ個人認証システムを実現することは難しかった。   As described above, it is difficult to keep both the pass rate and the exclusion rate of people with conventional biometrics authentication using faces and voices. In addition, including the strength against environmental conditions such as lighting and noise, It was difficult to realize a personal authentication system with sufficient authentication performance and comfort using only one authentication logic.

本発明はこの様な問題点に鑑みて成されたものであり、その目的とするところは個人認証の性能と快適性のバランス、また環境変動に対する強さなどを状況に応じて調整可能とし、もって利便性を向上させたシステムを提供することである。   The present invention has been made in view of such problems, and its purpose is to make it possible to adjust the balance between the performance of personal authentication and comfort, the strength against environmental fluctuations, etc. according to the situation, It is to provide a system with improved convenience.

上記目的を達成するために本発明においては、被認証者の顔画像を入力する顔画像入力部、前記顔画像から特徴情報を抽出する特徴抽出部、認証用顔画像登録情報と前記被認証者に固有な識別情報とを対応付けて記憶する認証情報記憶部、前記特徴情報と前記認証要登録情報とを照合する照合部、前記被認証者から識別情報を取得する識別情報取得部、および、前記照合部が照合を行った結果、前記特徴情報に対応する前記認証用登録情報を特定できなかった場合に、前記識別情報取得部によって取得された識別情報に対応する認証用顔画像登録情報を前記認証情報記憶部から抽出し、この抽出された認証用顔画像登録情報と前記特徴情報とを用いて前記照合部に再度照合を行わせる再照合制御部、を備えることを特徴とするものである。   In order to achieve the above object, in the present invention, a face image input unit that inputs a face image of a person to be authenticated, a feature extraction unit that extracts feature information from the face image, face image registration information for authentication, and the person to be authenticated An authentication information storage unit that stores the identification information unique to each other, a collation unit that collates the feature information with the authentication-required registration information, an identification information acquisition unit that acquires the identification information from the person to be authenticated, and As a result of the collation performed by the collation unit, when the authentication registration information corresponding to the feature information cannot be specified, authentication face image registration information corresponding to the identification information acquired by the identification information acquisition unit is obtained. A re-collation control unit that is extracted from the authentication information storage unit and causes the collation unit to perform re-collation using the extracted authentication face image registration information and the feature information. is there.

更に上記目的を達成するために本発明においては、被認証者の認証用顔画像登録情報を前記被認証者固有のIDデータと対応付けて記憶する記憶ステップと、前記被認証者の顔画像を入力する第1入力ステップと、この第1入力ステップにて入力された前記被認証者の顔画像と前記認証用顔画像登録情報とを照合する第1照合ステップと、この第1照合ステップにて認証されなかった場合、前記被認証者のIDデータ並びに顔画像を入力する第2入力ステップと、前記認証要顔画像登録情報から前記第2入力ステップにて入力されたIDデータに対応する前記認証用顔画像登録情報を抽出し、この登録情報と前記第2入力ステップにて入力された前記被認証者の顔画像とを再照合する第2照合ステップとを具備することを特徴とするものである。   Further, in order to achieve the above object, in the present invention, a storing step of storing authentication target face image registration information of a person to be authenticated in association with ID data unique to the person to be authenticated, and a face image of the person to be authenticated A first input step for input, a first verification step for verifying the face image of the person to be authenticated input in the first input step and the face image registration information for authentication, and in the first verification step If not authenticated, a second input step for inputting the ID data and face image of the person to be authenticated, and the authentication corresponding to the ID data input in the second input step from the authentication required face image registration information And a second collation step for extracting the facial image registration information and re-collating the registration information with the face image of the person to be authenticated input in the second input step. is there.

本発明によれば、安全性と快適性を高い水準で兼ね備えるセキュリティシステムを実現することが困難であった従来の生体情報認証方法を利用して、安全性と快適性のバランスを制御することによる利便性を実現する新たなシステムを提供することができる。また本発明では被認証者の周囲の環境変動を検知してそれに応じた最適な認証方法を選択することによって、総合的に認識率の低下を防ぐシステムを提供することができる。   According to the present invention, it is possible to control the balance between safety and comfort by using a conventional biometric authentication method that has been difficult to realize a security system that combines safety and comfort at a high level. A new system that realizes convenience can be provided. In the present invention, it is possible to provide a system that comprehensively prevents a decrease in recognition rate by detecting an environmental change around the person to be authenticated and selecting an optimal authentication method according to the change.

まず本発明に係わる生体情報認証装置とその方法の実施例を図面に従って説明する。ここでは生体情報として顔画像を用いた認証の実施例について述べる。   First, embodiments of the biometric information authentication apparatus and method according to the present invention will be described with reference to the drawings. Here, an embodiment of authentication using a face image as biometric information will be described.

本発明における生体情報認証装置の基本的構造を示したブロック様式を図1に示す。生体情報受理部Aは被認証者から認証に必要な入力生体情報を取得する手段であり、基本的な構成要素は画像入力部1と顔検出部2、特徴抽出部3の3つである。画像入力部1は被認証者の顔画像を含むある一定領域の画像を取得し、その入力画像情報をデジタルデータとして顔検出部2へ伝送する処理手段である。顔検出部2は画像入力部1から送られた入力画像情報を解析することによって顔画像が含まれているかどうかを判断し、含まれている場合には顔画像情報を抽出して特徴抽出部3へ送る処理手段である。特徴抽出部3は入力画像情報中の顔画像における特徴量をモード管理部Cによって選択された特徴抽出アルゴリズムによって算出し、その結果を生体特徴情報として照合部4へ送る処理手段である。   FIG. 1 shows a block format showing the basic structure of the biometric information authentication apparatus according to the present invention. The biometric information receiving unit A is a means for acquiring input biometric information necessary for authentication from the person to be authenticated, and has three basic components: an image input unit 1, a face detection unit 2, and a feature extraction unit 3. The image input unit 1 is a processing unit that acquires an image of a certain area including the face image of the person to be authenticated and transmits the input image information to the face detection unit 2 as digital data. The face detection unit 2 analyzes the input image information sent from the image input unit 1 to determine whether or not a face image is included. If it is included, the face detection unit 2 extracts the face image information and extracts a feature extraction unit. 3 is a processing means to send to 3. The feature extraction unit 3 is a processing unit that calculates the feature amount in the face image in the input image information by the feature extraction algorithm selected by the mode management unit C, and sends the result to the matching unit 4 as biometric feature information.

識別部Bは被認証者が登録されている人物に含まれているか、またどのカテゴリに分類されるのか判断する手段であり、照合部4と認証情報記憶部5から成っている。照合部4はモード管理部Cから送られるモード制御情報によって決定される識別方法を用いて生体情報受理部Aから送られる生体特徴情報と登録されている認証用登録情報を照合して類似度を求め、被認証者が登録された人物のどれかと一致しているか識別する処理手段である。認証情報記憶部5は照合部4が類似度を求める際に使用される認証用登録情報を記憶しておく処理手段であり、照合部4が識別を行う際には認証用登録情報をそこへ伝送する。   The identification unit B is means for determining whether the person to be authenticated is included in the registered person and in which category it is classified. The identification unit B includes a verification unit 4 and an authentication information storage unit 5. The collation unit 4 collates the biometric feature information sent from the biometric information receiving unit A with the registered registration information for authentication using the identification method determined by the mode control information sent from the mode management unit C, and determines the similarity. The processing means for determining whether the person to be authenticated matches one of the registered persons. The authentication information storage unit 5 is processing means for storing registration information for authentication used when the collation unit 4 obtains the similarity. When the collation unit 4 performs identification, the authentication information storage unit 5 stores the authentication registration information. To transmit.

モード管理部Cは照合部4が被認証者の生体特徴情報を登録情報と照合して識別する際に使用する識別方法を管理/制御する手段であり、様々な情報に基づいて識別方法を決定しその結果をモード制御情報として照合部4に伝送する処理手段、すなわちモード決定部6を持っている。これによってシステムは認証性能と快適性を制御することになり被認証者の利便性を向上させることができる。   The mode management unit C is a means for managing / controlling the identification method used when the verification unit 4 compares and identifies the biometric feature information of the person to be authenticated with the registered information, and determines the identification method based on various information. Then, it has processing means for transmitting the result to the collation unit 4 as mode control information, that is, a mode determination unit 6. As a result, the system controls authentication performance and comfort, and can improve the convenience of the person to be authenticated.

前記モード管理手段による認証論理の管理/制御パターンの例として以下の5つが挙げられる。   Examples of authentication logic management / control patterns by the mode management means include the following five.

(1)時間によるモードの制御。 (1) Mode control by time.

(2)センサによって感知される情報に基づくモードの制御。 (2) Mode control based on information sensed by the sensor.

(3)入力画像に含まれる環境情報に基づくモードの制御。 (3) Mode control based on environmental information included in the input image.

(4)管理者および被認証者による外部からの操作によるモードの制御。 (4) Mode control by external operation by the administrator and the person to be authenticated.

(5)複数種の異なる生体情報について、認証に使用するために被認証者からどれを取得するのか選択するモードの制御。 (5) Control of a mode for selecting which of a plurality of types of different biological information is to be acquired from the person to be authenticated for use in authentication.

(6)生体情報と非生体認証情報について、認証に使用するために被認証者からどちらを取得するのか選択するモードの制御。 (6) Control of a mode for selecting which of biometric information and non-biometric authentication information to acquire from the person to be authenticated for use in authentication.

(1)〜(3)は生体情報認証装置の中にモードを制御するための情報を自動的に収集する何らかの手段を持ち、モード管理部Cがその情報を基にモードの制御を行うシステムである。この様なモード制御の方式を自動モード制御と呼ぶ。(4)は生体情報認証装置の中に管理者および被認証者がモード管理部Cに対してモードの制御を指示するための命令を送るための外部入力装置を含んでいることが特徴である。モード管理部Cはここから送られる情報に基づいてモードを決定し各部に伝達する。この様なモード制御の方式を手動モード制御と呼ぶ。(1)〜(4)はモード管理部がモードを決定するための要素となる情報に注目した実施例であるが、(5)、(6)は認証に利用するために被認証者からどのような入力情報を取得するかを、モード管理部によって制御する実施例である。(1)〜(6)の認証モード制御機構それぞれについてその実施例を示す。   (1) to (3) are systems in which the biometric information authentication apparatus has some means for automatically collecting information for controlling the mode, and the mode management unit C controls the mode based on the information. is there. Such a mode control method is called automatic mode control. (4) is characterized in that the biometric information authentication apparatus includes an external input device for sending an instruction for the manager and the person to be authenticated to instruct the mode management unit C to control the mode. . The mode management unit C determines the mode based on the information sent from here and transmits it to each unit. Such a mode control method is called manual mode control. (1) to (4) are examples in which the mode management unit pays attention to information that is an element for determining the mode, but (5) and (6) In this embodiment, whether the input information is acquired is controlled by the mode management unit. Examples of the authentication mode control mechanisms (1) to (6) will be described.

(実施例1)
最初の実施例は(1)の時間モード制御である。この場合モード管理手段はあらかじめ設定された時刻がくると識別手段に対してそれまでとは別のある決められた識別方法に切り替えるような命令(モード制御情報)を出す。つまり識別手段は予め設定された時間帯によって異なる識別方法を用いた識別作業を行うことができる。
(Example 1)
The first embodiment is the time mode control (1). In this case, when the preset time comes, the mode management means issues a command (mode control information) for switching to a certain identification method different from that to the identification means. That is, the identification means can perform identification work using a different identification method depending on a preset time zone.

ここでは前記時間モード制御システムを取り入れた生体情報認証装置について説明する。   Here, a biometric information authentication apparatus incorporating the time mode control system will be described.

認証を判定するための閾値に対する本人通過率および他人排除率の変動(図20;山口 修、福井 和広:“動画像を用いた顔認識システム”,PRMU97−50,pp.17−24(1997))を見ても分かるように、閾値をどこに設定しても双方を十分高く固定することは不可能である。そこでどちらか一方について十分な高さを得られる閾値を二つ設定する。本実施例では“本人通過率は高いが他人排除率はやや低い”閾値設定1(本人利便モード)と“本人通過率はやや低いが他人排除率は高い”閾値設定2(安全優先モード)の2つを用意する。   Fluctuations in the pass rate of others and the exclusion rate of others with respect to the threshold for determining authentication (FIG. 20: Osamu Yamaguchi, Kazuhiro Fukui: “Face recognition system using moving images”, PRMU 97-50, pp. 17-24 (1997) As can be seen from the above, it is impossible to fix both of the thresholds high enough wherever the threshold is set. Therefore, two thresholds that can obtain a sufficient height for either one are set. In this embodiment, the threshold setting 1 (person's passing rate is high but the other person's exclusion rate is slightly low) and the threshold setting 2 (safety priority mode) is set. Prepare two.

これらのモードを時間帯によって交替させることによって、昼は快適性、夜は安全性を重視したセキュリティシステムを実現する。(図2)時間制御モードにおいてモード管理部Cは本人を識別するために必要な閾値を、時間帯によって2通りに分けて制御することができる。閾値設定1はそれほど高い安全性を求められていない昼に使用され、閾値設定2は十分な安全性を得る必要のある夜に利用される。これはモード管理部Cが人間によって意図的に操作されること無く閾値を変更することで成り立っており、この様なモード制御を自動モード制御と呼ぶ。これら2つの閾値設定を使い分けることによって実現するセキュリティシステムの処理の流れを、図3のフローチャートを参照しながら説明する。   By changing these modes according to the time of day, a security system that emphasizes comfort during the day and safety during the night is realized. (FIG. 2) In the time control mode, the mode manager C can control the threshold necessary for identifying the person in two ways according to the time zone. The threshold setting 1 is used in the daytime when high safety is not required, and the threshold setting 2 is used in the night when it is necessary to obtain sufficient safety. This is achieved by the mode manager C changing the threshold value without intentional operation by a human, and such mode control is called automatic mode control. The processing flow of the security system realized by using these two threshold settings properly will be described with reference to the flowchart of FIG.

画像入力部1は被認証者の顔をとらえるよう考慮して設置されたカメラを用いて画像情報を取得し、顔検出部2へ伝送する。顔検出部2では入力画像中に顔が検出された場合のみ検出された顔画像情報を特徴抽出部3へ送る(ステップS1)。特徴抽出部3では送られた顔画像情報を解析して取得した特徴量を生体特徴情報として照合部4へ送る。モード決定部6は作動している時間帯が昼であれば本人利便モードを、夜であれば安全優先モードで識別を行うよう照合部4に指令を出す(ステップS2)。照合部4は特徴抽出部3から送られる生体特徴情報と認証情報記憶部5から送られる認証登録情報の双方を照合することによって特徴類似度を求め、その類似度の中で最大のものがモード決定部6からの指示に従って選択された閾値設定を越えているか否かによって識別を行い、結果を出力する(ステップS3)。本実施例では2つのモードの切り替えについて述べたが、モードは2つに限定するものではなく3つ以上の複数でもよい。このことは以下の実施例(2)〜(4)についても同様である。   The image input unit 1 acquires image information using a camera installed in consideration of capturing the face of the person to be authenticated, and transmits the image information to the face detection unit 2. The face detection unit 2 sends the detected face image information to the feature extraction unit 3 only when a face is detected in the input image (step S1). The feature extraction unit 3 analyzes the sent face image information and sends the feature quantity acquired as biometric feature information to the matching unit 4. The mode determination unit 6 issues a command to the verification unit 4 to perform identification in the personal convenience mode if the operating time zone is noon, and in the safety priority mode if it is night (step S2). The collation unit 4 obtains the feature similarity by collating both the biometric feature information sent from the feature extraction unit 3 and the authentication registration information sent from the authentication information storage unit 5, and the largest of the similarities is the mode. Identification is performed based on whether or not the threshold setting selected in accordance with the instruction from the determination unit 6 is exceeded, and the result is output (step S3). In this embodiment, switching between two modes has been described. However, the number of modes is not limited to two, and a plurality of three or more modes may be used. The same applies to the following Examples (2) to (4).

(実施例2)
顔画像認識は照明条件の変動に対して十分ロバストでなく、照明変動にロバストに作成された特徴抽出アルゴリズムはそうでないものより基準となる照明条件の下での認証性能が低いという問題がある。そこで新たに照度センサを設け、このセンサによって照明の強度を感知し、強度に応じて特徴抽出アルゴリズムを照明にロバストなものに切り替える前記(2)に該当するモード制御例を導入する。この様なモード制御を実現した例が次に説明する本発明に係る第2の実施例である。
(Example 2)
Face image recognition is not sufficiently robust against variations in lighting conditions, and a feature extraction algorithm that is robust against variations in lighting has a problem that authentication performance under standard lighting conditions is lower than those that do not. Therefore, an illuminance sensor is newly provided, the intensity of illumination is sensed by this sensor, and a mode control example corresponding to the above (2) for switching the feature extraction algorithm to one that is robust to illumination according to the intensity is introduced. An example of realizing such mode control is a second embodiment according to the present invention which will be described next.

本実施例装置は認証項目を顔画像とし、照明条件に対する性質の異なる2つの特徴抽出方法を用いて照明にロバストな生体情報認証装置を構成する。2つの特徴抽出方法とは、“基準となる照明強度においては十分高い認識率を達成できるが、それ以外では認識率が良くない”アルゴリズム1と、“基準となる照明強度においてはアルゴリズム1より認識率は落ちるが、それ以外ではより高い認識率を可能にできる”アルゴリズム2である。それぞれを用いた場合の認証を通常モード、照明ロバストモードとする。(図4)ここで上記アルゴリズム1とアルゴリズム2について説明する。   The apparatus according to the present embodiment configures a biometric information authentication apparatus that is robust to illumination by using a face image as an authentication item and using two feature extraction methods having different properties with respect to illumination conditions. The two feature extraction methods are “algorithm 1 that can achieve a sufficiently high recognition rate at the reference illumination intensity, but otherwise poor recognition rate”, and “recognition from algorithm 1 at the reference illumination intensity. “Algorithm 2 that can reduce the rate, but otherwise allow higher recognition rates”. The authentication when each of them is used is set to the normal mode and the illumination robust mode. (FIG. 4) Here, algorithm 1 and algorithm 2 will be described.

ある照明条件下で人物の顔を撮影して得られる顔画像は顔という立体物に照明光が反射して作られる反射輝度画像である。装置はこの様な顔の反射輝度画像を入力し、これを所定の大きさに正規化し、更に輝度の範囲を正規化して画像パターンとする。上記アルゴリズム1はこの様にして生成される反射輝度表現による画像パタンを生体特徴情報と成す特徴抽出アルゴリズムである。   A face image obtained by photographing a person's face under a certain illumination condition is a reflection luminance image created by reflecting illumination light to a three-dimensional object called a face. The apparatus inputs such a reflected luminance image of the face, normalizes it to a predetermined size, and further normalizes the luminance range to form an image pattern. The algorithm 1 is a feature extraction algorithm that forms an image pattern based on the reflected luminance expression generated in this manner as biometric feature information.

ところが反射輝度表現による画像パターンは物体の変形(顔における表情変化などの立体形状変化)、照明変動(時間帯や天候による照明分光強度や照明方向の変化)、および物体の姿勢変動(顔における向きの変化などの撮像方向の変化)などが原因で様々な変化を受ける。特に照明方向については画像パターンの陰影の付き方が劇的に変わるという不安定差を抱えているにも関わらず、照合用登録情報に様々な照明方向のパターンを予め学習させることが難しい。未学習の照明変動はすべての入力パターンに未学習の照明輝度を与えてしまう。そのためアルゴリズム1では学習時と異なる照明条件下では深刻な認識率低下を起こすのである。   However, the image pattern based on the reflected luminance expression is object deformation (changes in three-dimensional shape such as facial expression changes), illumination fluctuations (changes in illumination spectral intensity and illumination direction due to time zone and weather), and object posture fluctuations (face orientation). Changes in the imaging direction such as changes in image quality). In particular, regarding the illumination direction, it is difficult to pre-learn patterns for various illumination directions in the verification registration information in spite of the unstable difference that the shading of the image pattern changes dramatically. Unlearned illumination fluctuations give unlearned illumination brightness to all input patterns. For this reason, algorithm 1 causes a serious reduction in recognition rate under lighting conditions different from those during learning.

このような照明変動による認識率低下を防ぐためには、照明の影響を受けにくく、かつ物体(個人の顔)固有の特徴情報を温存した特徴量(すなわち画像表現)による生体特徴情報を用いて認識を行う必要がある。照明変動は対象物の反射輝度画像に強い変動を与えるため、反射輝度表現を生体特徴情報とする限り照明変動の影響は避けられない。一方、反射輝度パターンから導かれるある種の画像表現には照明条件に影響されにくい恒常性があることが知られている。   In order to prevent such a decline in the recognition rate due to illumination fluctuations, recognition is performed using biometric feature information based on feature quantities (ie, image representations) that are not easily affected by illumination and that preserve feature information unique to an object (personal face). Need to do. Since the illumination variation gives a strong variation to the reflected luminance image of the object, the influence of the illumination variation is inevitable as long as the reflected luminance expression is the biometric feature information. On the other hand, it is known that a certain kind of image representation derived from the reflected luminance pattern has a constancy that is hardly affected by illumination conditions.

例えば、文献(Yael Moses et al., ″Face Recognition: the Problem of Compensation for Changes in Illumination Direction″, Proceeding of ECCV′94, 1994)では、照明変動に対して有効な特徴量として反射輝度画像を微分して得られる輝度勾配表現(以下、微分画像と呼ぶ)が提案されている。   For example, in the literature (Yael Moses et al., “Face Recognition: the Problem of Compensation for Changes in Illumination Direction”, Proceeding of ECCV '94, 1994), an effective feature for the luminance variation is an image with respect to luminance variation. A brightness gradient expression (hereinafter referred to as a differential image) obtained in this way has been proposed.

反射輝度画像への1階微分は輝度の変化率を求める操作に相当し、輝度がステップ状に変化する箇所(エッジ)を抽出する。物体表面には物体特有の反射率の高低パターンがあり、反射率の低い箇所では照明強度に依らず常に低い反射輝度が、反射率の高い箇所では照明強度に依存して反射輝度が高低に変化する。このため、1階微分画像は(a)照明が当たる箇所における反射率の変化と(b)高反射率箇所における陰影変化を表現している。(a)は物体の姿勢が変わらない限り照明変動による強度変動はあっても位置変動がないエッジであり、(b)は物体の姿勢が変わらなくても照明変動により強度と位置がともに変動するエッジである。   The first-order differentiation to the reflected luminance image corresponds to an operation for obtaining the luminance change rate, and a portion (edge) where the luminance changes stepwise is extracted. The object surface has a pattern of high and low reflectivity specific to the object, and the low reflection brightness always changes regardless of the illumination intensity at locations with low reflectivity, and the reflection brightness changes depending on the illumination intensity at locations with high reflectivity. To do. For this reason, the first-order differential image represents (a) a change in reflectance at a location where illumination is applied and (b) a change in shadow at a location where high reflectance is applied. (A) is an edge where there is no fluctuation in position even if there is an intensity fluctuation due to illumination fluctuation unless the attitude of the object changes, and (b) is an intensity and position which both fluctuate due to illumination fluctuation even if the attitude of the object does not change. It is an edge.

微分により抽出されるエッジの傾斜は、微分処理におけるオペレータの性質に依存する。一般的にはオペレータが大きいほどなだらかなエッジを抽出でき、小さいほど急峻なエッジのみが抽出される。どのような微分オペレータを用いるかは照明によるコントラストの強さなどに依存するので、本実施例においては、照明強度の大きさに応じて使用する微分オペレータの大きさを小さくする制御を併せてモード決定部により行う。   The slope of the edge extracted by differentiation depends on the nature of the operator in the differentiation process. Generally, a smoother edge can be extracted as the operator is larger, and only a sharper edge is extracted as the operator is smaller. Since what differential operator is used depends on the contrast intensity due to illumination, etc., in this embodiment, the mode is combined with control for reducing the size of the differential operator used in accordance with the magnitude of the illumination intensity. Performed by the decision unit.

照明変動に対する微分画像の第1の効果は、(a)が物体の姿勢に応じた物体固有の反射率パターンの特徴を保存していることである。これは微分パターンを物体認識に使用することの正当性を示している。照明変動に対する微分画像の第2の効果は、物体表面の反射率パターンの高低差が大きい、すなわち物体のテクスチャが強いほど(a)は(b)より強く現われることである。特に物体が滑らかな曲面を有しているとき、照明による陰影はなだらかな変化を示すので(b)はさらに弱くなる。これは反射輝度表現では大規模な変動であった未学習の照明変動が、微分画像では(b)に関する未学習の変動に抑えられること(局所化と微小化)を意味する。微分画像はこのような効果により照明変動恒常性を有すると考えられる。上記アルゴリズム2は顔の反射輝度画像を入力し、これを微分処理した後に所定の大きさに正規化し、さらに輝度の範囲を正規化して画像パターンとする。この結果、アルゴリズム2では照明変動の影響が局所化・微小化されて照明変動ロバスト性が向上する。   The first effect of the differential image with respect to illumination fluctuation is that (a) preserves the characteristic of the reflectance pattern unique to the object according to the posture of the object. This shows the validity of using the differential pattern for object recognition. The second effect of the differential image on the illumination variation is that (a) appears stronger than (b) as the height difference of the reflectance pattern on the object surface increases, that is, the texture of the object is stronger. In particular, when the object has a smooth curved surface, the shadow due to illumination shows a gentle change, so that (b) is further weakened. This means that an unlearned illumination variation that was a large-scale variation in the reflected luminance expression is suppressed to an unlearned variation relating to (b) in the differential image (localization and miniaturization). The differential image is considered to have illumination variation constancy due to such an effect. The algorithm 2 receives a face reflection luminance image, differentiates it, normalizes it to a predetermined size, and further normalizes the luminance range to obtain an image pattern. As a result, in the algorithm 2, the influence of the illumination variation is localized and miniaturized, and the illumination variation robustness is improved.

しかし、アルゴリズム2は顔の額や頬における陰影情報(個人の顔の立体形状的特徴を反映している)を落として、眉や目などのテクスチャ情報のみを個人性として用いるため、これら全てを手がかりに個人性を認識できるアルゴリズム1より若干認識率が劣るのである。以上の結果、アルゴリズム1は”照合用登録情報学習時の照明条件下では非常に高い認識率を達成できるが、照明条件がこれからずれると認識率が極端に悪化する”アルゴリズムであり、アルゴリズム2は”照合用登録情報学習時の照明条件下でそこそこ高い認識率を達成でき、照明条件が変動しても認識率が安定している”アルゴリズムとなる。なお、照明強度の変動に対してはいずれのアルゴリズムにおいても画像パターンの輝度を正規化することで吸収している。   However, algorithm 2 drops the shadow information on the forehead and cheeks (reflecting the three-dimensional features of the individual's face) and uses only the texture information such as eyebrows and eyes as personality. This is because the recognition rate is slightly inferior to Algorithm 1 which can recognize personality as a clue. As a result, algorithm 1 is an algorithm that “can achieve a very high recognition rate under lighting conditions when learning registration information for verification, but when the lighting conditions deviate from this, the recognition rate extremely deteriorates”, and algorithm 2 The algorithm is “a reasonably high recognition rate can be achieved under illumination conditions when learning registration information for verification, and the recognition rate is stable even if the illumination conditions change”. Note that variations in illumination intensity are absorbed by normalizing the brightness of the image pattern in any algorithm.

図5に本実施例のブロック構成を示す。構造図は図1と良く似ているが、二つ異なる部分がある。第1に被認証者周辺の照明条件を感知するための装置が取り付けられたことである。この照明センサ部17は対象範囲の照明の強度をデジタルデータ(照明強度情報)としてモード決定部16に伝送する処理手段である。第2にモード決定部16によってモードの制御を受けるのは照合部14ではなく特徴抽出部13に変更されたことである。照明に強いシステムを作るには特徴抽出を行う際のアルゴリズムを照明にロバストなものに変更しなくてはならず、特徴抽出部13に作用しなければならない。   FIG. 5 shows a block configuration of the present embodiment. The structural diagram is very similar to FIG. 1, but there are two different parts. First, a device for sensing lighting conditions around the person to be authenticated is attached. The illumination sensor unit 17 is processing means for transmitting the illumination intensity in the target range to the mode determination unit 16 as digital data (illumination intensity information). Secondly, the mode determination unit 16 is controlled by the mode extraction unit 13 instead of the collation unit 14. In order to create a system that is resistant to illumination, the algorithm used for feature extraction must be changed to one that is robust to illumination, and must act on the feature extraction unit 13.

以上を踏まえて本実施例装置の処理の流れを図6のフローチャートを参照しながら説明する。まず実施例1と同様に、画像入力部11によって取得された入力画像から顔特徴を抽出した顔検出部12により顔画像情報が特徴抽出部13へ送られる(ステップS11)。照明センサ部17は被認証者周辺の照明強度を常に感知しており、照明強度情報をモード決定部16へ伝送する。モード決定部16は現在の照明強度が照合用登録情報学習時の照明強度からさほど変化なく、アルゴリズム1で十分許容できる範囲であると判断した場合には通常モードを、照明強度の変化が大きすぎると判断した場合には照明ロバストモードを採用するように特徴抽出部13へ指令を都度出しているものとする(ステップS12)。特徴抽出部13はこれに従ってアルゴリズムを選択し特徴抽出作業を行う(ステップS13)。このことによってシステムはそれぞれのモードを単独で用いるよりも総合的に高い認識率を達成することができる。特徴抽出部で生成された生体特徴情報は照合部14へ送られ、そこで認証情報記憶部15から送られる認証用登録情報と照合して認証が行われる。   Based on the above, the processing flow of the apparatus of this embodiment will be described with reference to the flowchart of FIG. First, as in the first embodiment, face image information is sent to the feature extraction unit 13 by the face detection unit 12 that extracts the facial features from the input image acquired by the image input unit 11 (step S11). The illumination sensor unit 17 always senses the illumination intensity around the person to be authenticated, and transmits illumination intensity information to the mode determination unit 16. When the mode determining unit 16 determines that the current illumination intensity does not change much from the illumination intensity at the time of learning the registered information for verification and is within a range that is sufficiently acceptable by the algorithm 1, the change in the illumination intensity is too large. If it is determined that a command is issued to the feature extraction unit 13 to adopt the illumination robust mode each time (step S12). The feature extraction unit 13 selects an algorithm according to this and performs feature extraction work (step S13). This allows the system to achieve an overall higher recognition rate than using each mode alone. The biometric feature information generated by the feature extraction unit is sent to the collation unit 14, where authentication is performed by collating with the registration information for authentication sent from the authentication information storage unit 15.

なお変形例として、モードを変更することによって特徴抽出部13において生成される特徴量毎に照合部14で用いられる識別アルゴリズムを変えることも可能である。(図7)
(実施例3)
上述の第2の実施例と同様に照明条件にロバストな生体情報認証装置を、前記(3)に該当するモード制御例(3)を用いて実施することもできる。その基本的なブロック構成は図8に示される通りである。この装置では第2の実施例の図5と比較して照明センサの代わりに、顔検出部22と特徴抽出部23の間に新たに照明強度解析部27が設置されている。照明強度解析部27は顔検出部22から入力された顔画像情報を解析し、例えば、顔画像情報の平均輝度を照明強度情報としてモード決定部26に送る。モード決定部26は照明強度情報を受けると特徴抽出アルゴリズムを決定し、これを特徴抽出部23に指令する。また顔検出部22において取得された顔画像情報は特徴抽出部23を経て照合部24にて識別される。このとき特徴抽出部23で用いられる特徴抽出アルゴリズムは、第2の実施例と同じ通常モードと照明ロバストモードの2つである。
As a modification, it is possible to change the identification algorithm used in the collation unit 14 for each feature amount generated in the feature extraction unit 13 by changing the mode. (Fig. 7)
(Example 3)
Similarly to the second embodiment described above, a biometric information authentication apparatus that is robust to illumination conditions can be implemented using the mode control example (3) corresponding to the above (3). The basic block configuration is as shown in FIG. In this apparatus, an illumination intensity analysis unit 27 is newly installed between the face detection unit 22 and the feature extraction unit 23 instead of the illumination sensor as compared with FIG. 5 of the second embodiment. The illumination intensity analysis unit 27 analyzes the face image information input from the face detection unit 22, and sends, for example, the average luminance of the face image information to the mode determination unit 26 as illumination intensity information. When receiving the illumination intensity information, the mode determination unit 26 determines a feature extraction algorithm and instructs the feature extraction unit 23 to determine the feature extraction algorithm. The face image information acquired by the face detection unit 22 is identified by the collation unit 24 via the feature extraction unit 23. At this time, the feature extraction algorithm used by the feature extraction unit 23 is the same two modes, the normal mode and the illumination robust mode, as in the second embodiment.

次にこの装置における処理の流れを説明する。各処理ステップの主体は異なるが、フローチャートは第2の実施例で用いた図6と同一である。まず画像入力部21は定められた領域の画像を取得し、入力画像情報として顔検出部22へ送る。顔検出部22は入力画像中に顔を検出すると顔画像情報を抽出して出力する(ステップS11)。顔画像情報はそのまま照明強度解析部27に転送され、画像中の例えば平均輝度が照明強度として計算される。その照明強度情報はモード管理部Cへ送られ最適なモードを決定するための要素となる。モード管理部Cにおけるモード決定部26は受理した照明強度情報に基づいて特徴抽出に用いるべきアルゴリズムを決定し、その結果をモード制御情報として特徴抽出部23へ伝達する(ステップS12)。   Next, the flow of processing in this apparatus will be described. Although the subject of each processing step is different, the flowchart is the same as FIG. 6 used in the second embodiment. First, the image input unit 21 acquires an image of a predetermined area and sends it to the face detection unit 22 as input image information. When the face detection unit 22 detects a face in the input image, the face detection unit 22 extracts and outputs face image information (step S11). The face image information is transferred to the illumination intensity analysis unit 27 as it is, and, for example, the average luminance in the image is calculated as the illumination intensity. The illumination intensity information is sent to the mode management unit C and becomes an element for determining an optimum mode. The mode determination unit 26 in the mode management unit C determines an algorithm to be used for feature extraction based on the received illumination intensity information, and transmits the result to the feature extraction unit 23 as mode control information (step S12).

照明強度が照合用登録情報学習時の照明強度からさほど変化なく、アルゴリズム1で十分許容範囲内であれば通常モード、照明強度の変化が大きすぎる場合は照明ロバストモードを選択するよう指示を出す。特徴抽出部23は顔検出部22による顔画像情報からモード制御情報に従って決定されたアルゴリズムを用いて特徴を抽出し(ステップS13)、取得した生体特徴情報を照合部24へ送る。識別部Bでは照合部24において、認証情報記憶部25から送られる認証用登録情報と特徴抽出部23から送られる生体特徴情報を用いて認証が行われる。このようなシステムによって被認証者は第2の実施例の場合と同様に照明にロバストな個人認証を受けることができる。   An instruction is given to select the normal mode if the illumination intensity does not change much from the illumination intensity at the time of learning the registration information for verification and is sufficiently within the allowable range by algorithm 1, and the illumination robust mode if the change in illumination intensity is too great. The feature extraction unit 23 extracts features from the face image information by the face detection unit 22 using an algorithm determined according to the mode control information (step S13), and sends the acquired biometric feature information to the matching unit 24. In the identification unit B, the verification unit 24 performs authentication using the authentication registration information sent from the authentication information storage unit 25 and the biometric feature information sent from the feature extraction unit 23. By such a system, the person to be authenticated can receive the personal authentication robust to the lighting as in the case of the second embodiment.

これまでに挙げた3つの実施例は、すべて装置の中のいずれかの機能ブロックが得た情報を基に、モード管理部Bが自動的にモードを決定する自動モード制御であった。次に挙げる第4の実施例はこれらとは異なり、モード管理部Bに対して管理者もしくは被認証者自身がモードを操作する信号を送ることによって、システムが採用するモードを制御することができる。この様なモード制御を手動モード制御と呼ぶことにする。   The three examples given so far have all been automatic mode control in which the mode manager B automatically determines the mode based on information obtained by any functional block in the apparatus. Unlike the above, the fourth embodiment described below can control the mode adopted by the system by sending a signal to the mode manager B to operate the mode by the manager or the person to be authenticated. . Such mode control is referred to as manual mode control.

(実施例4)
ここでは前記(4)に該当するモード制御を採用して、管理者もしくは被認証者が外部からモード管理部Cに対してモードを選択するための信号(モード選択情報)を入力し、それに従って採用すべきモードを決定する生体情報認証装置を用いたセキュリティシステム(装置a)と(装置b)について説明する。(装置b)の被認証者によるモード制御については、生体情報に加えてパスワード、IDカードなどの記憶や物理的手段を用いた非生体認証情報を併用する実施形態について説明する。以下において、この装置の実施例として第1の実施例で使用した二つの識別方法(閾値設定1,2)を備えたシステム(装置a)と(装置b)について説明する。
Example 4
Here, the mode control corresponding to the above (4) is adopted, and the manager or the person to be authenticated inputs a signal (mode selection information) for selecting the mode to the mode manager C from the outside, and according to it. A security system (apparatus a) and (apparatus b) using a biometric authentication apparatus that determines a mode to be adopted will be described. Regarding the mode control by the person to be authenticated in (device b), an embodiment will be described in which non-biometric authentication information using physical means such as storage of a password, an ID card or the like is used in addition to biometric information. In the following, a system (apparatus a) and (apparatus b) provided with two identification methods (threshold settings 1, 2) used in the first embodiment will be described as embodiments of the apparatus.

まず管理者によって制御される装置aの実施例として、管理者が装置付近の例えば受付にいる間は快適性を重視した本人利便モード、受付を離れる場合は安全性を重視した安全優先モードを採用するシステムについて説明する。これは管理者が受付にいる場合は、管理者が通過しようとする人物をチェックしているので、本人利便モードでも十分な不正抑止力が得られるということを前提としている。   First, as an example of the device a controlled by the administrator, the user's convenience mode that emphasizes comfort is used while the administrator is in the vicinity of the device, for example, and the safety priority mode that emphasizes safety is adopted when leaving the reception. The system to perform will be described. This is based on the premise that sufficient fraud deterrence can be obtained even in the personal convenience mode because the manager checks the person to be passed when the manager is at the reception.

そのブロック構造を図9に示す。第1の実施例と異なるのはモード決定部36が時間帯によってモードを制御するのではなく、代わりに管理者用外部入力部39からの信号に従ってモードを決定するようになったことである。管理者用外部入力部39は、管理者が入力する信号をモード決定部36に伝達する処理手段である。管理者はモードを切り替えるための信号(モード選択情報)を送ることによって、自身の都合に応じてモードを制御する利便性を得ることができる。   The block structure is shown in FIG. The difference from the first embodiment is that the mode determination unit 36 does not control the mode according to the time zone, but instead determines the mode according to the signal from the manager external input unit 39. The manager external input unit 39 is a processing unit that transmits a signal input by the manager to the mode determination unit 36. The administrator can obtain the convenience of controlling the mode according to his / her convenience by sending a signal (mode selection information) for switching the mode.

この装置を使用した場合の処理の流れを図10のフローチャートを参照しながら説明する。通常この装置は照合部34で認証が行われるときは、閾値の低い本人利便モードが使用されるようにモード決定部36によって制御されている。管理者は自分が受付を離れる場合には、管理者用外部入力部39を用いて本人利便モードから安全優先モードへ切り替える信号をモード決定部36に対して入力する。この信号を受けたモード決定部36は認証モードを閾値の高い安全優先モードに切り替えるよう指示を出す(モード制御情報)。この後の情報伝達過程は第1の実施例と同様である。画像入力部31で取得した入力画像情報は顔検出部32へ送られる。そこで画像中に顔が含まれていると認識した場合には顔画像情報を(ステップS31)、特徴抽出部33は顔画像情報を解析して取得した生体特徴情報を照合部34に送る。これを受けた照合部34は先に指示された(ステップS32)通り安全優先モードで認証を行う(ステップS33)。   The flow of processing when this apparatus is used will be described with reference to the flowchart of FIG. Normally, this apparatus is controlled by the mode determination unit 36 so that the personal convenience mode with a low threshold is used when the verification unit 34 performs authentication. When the manager leaves the reception, the manager inputs a signal for switching from the personal convenience mode to the safety priority mode to the mode determination unit 36 using the manager external input unit 39. Upon receiving this signal, the mode determination unit 36 issues an instruction to switch the authentication mode to the safety priority mode with a high threshold (mode control information). The subsequent information transmission process is the same as in the first embodiment. The input image information acquired by the image input unit 31 is sent to the face detection unit 32. Therefore, when it is recognized that the face is included in the image (step S31), the feature extraction unit 33 sends the biometric feature information obtained by analyzing the face image information to the matching unit 34. Receiving this, the collation unit 34 performs authentication in the safety priority mode as instructed previously (step S32) (step S33).

受付に戻った管理者が再び認証モードを本人利便モードに切り替えるようにモード管理部Cに信号を送れば、もとの状態に戻ることができる。   If the manager who has returned to the reception sends a signal to the mode management unit C so as to switch the authentication mode to the user convenience mode again, the original state can be restored.

次に装置bについて説明する。この装置の実施例として、被認証者が無線タグ、IDカード、パスワードなどの個人IDによって自分の登録認証情報を指定し、それと入力顔画像情報を用いて一対一の個人認証を行うことができる生体情報認証装置を用いたセキュリティシステムについて説明する。装置bの基本的な構成を図11に示す。このシステムは通常安全優先モードで作動しており、一部の被認証者は登録されている本人であるにも関わらず拒絶される場合がある。そのようなとき、被認証者は被認証者用外部入力部49を用いてモード決定部46に対して暗証番号を入力し、認証モードを暗証番号によって指定される特定個人を高い本人通過率で検証する個人同定モードに切り替えてから再び認証を受けることができる。これによって十分高い安全性を維持した上で登録された本人である被認証者が最終的に拒絶される確率が低く押さえられた、非常に利便性の高いセキュリティシステムを実現することができる。   Next, the apparatus b will be described. As an example of this apparatus, a person to be authenticated can specify his / her registration authentication information by a personal ID such as a wireless tag, an ID card, and a password, and can perform one-to-one personal authentication using the input face image information. A security system using a biometric information authentication device will be described. A basic configuration of the apparatus b is shown in FIG. This system normally operates in a safety priority mode, and some authenticated users may be rejected even though they are registered. In such a case, the person to be authenticated inputs a personal identification number to the mode determination unit 46 using the external input unit 49 for the person to be authenticated, and selects a specific individual designated by the personal identification number with a high pass rate. Authentication can be received again after switching to the personal identification mode to be verified. As a result, it is possible to realize a very convenient security system in which the probability that the authenticated person who is the registered person is finally rejected is kept low while maintaining sufficiently high security.

装置aの構成と異なる点は外部入力装置が被認証者用の個人IDを入力する装置、被認証者用外部入力部49になったことである。このシステムを使用した際の処理の流れについて説明する。通常の安全優先モードが作動している場合については第1の実施例で説明しているので省略し、登録された本人でありながら拒絶された場合(ステップS41)について図12を参照しながら説明する。このとき被認証者は被認証者用外部入力部49を用いてモード決定部46に対して個人IDを入力し、モード決定部46は照合部44に対して今回のみ認証モードを個人同定モードに変更する指示と入力された個人IDとを出力する(モード制御情報)。画像入力部41と顔検出部42、特徴抽出部43では再び被認証者の生体情報を入力し、取得された生体特徴情報は照合部44へ送られる。照合部44はこの生体特徴情報と認証情報記憶部45から送られる単一の個人認証情報を個人同定モードによって照合し、再びその結果を出力する(ステップS42)。   The difference from the configuration of the device a is that the external input device is a device for inputting a personal ID for the person to be authenticated, and an external input unit 49 for the person to be authenticated. The flow of processing when using this system will be described. Since the case where the normal safety priority mode is operating is described in the first embodiment, it will be omitted, and the case where the registered person is rejected (step S41) will be described with reference to FIG. To do. At this time, the person to be authenticated inputs the personal ID to the mode determination unit 46 using the external input unit 49 for the person to be authenticated, and the mode determination unit 46 sets the authentication mode to the personal identification mode only for the collation unit 44 this time. An instruction to change and the input personal ID are output (mode control information). The image input unit 41, the face detection unit 42, and the feature extraction unit 43 input the biometric information of the person to be authenticated again, and the acquired biometric feature information is sent to the collation unit 44. The collation unit 44 collates the biometric feature information with the single personal authentication information sent from the authentication information storage unit 45 in the personal identification mode, and outputs the result again (step S42).

これまで実施例に挙げてきた認証作業は、被認証者が多数の登録人物中の誰かと一致しているか否か判定する識別問題であった。それに対しステップS41以降の処理過程(バックアップモード)は被認証者が登録人物中のある一人に一致しているか否かを判定する同定問題に帰着している。この誤認識の少ない同定問題によるバックアップ処理を持つことによって、本実施例におけるセキュリティシステムは非常に高い安全性を実現することができる。   The authentication work described so far in the embodiments has been an identification problem for determining whether or not the person to be authenticated matches someone among many registered persons. On the other hand, the process after step S41 (backup mode) results in an identification problem for determining whether or not the person to be authenticated matches one of the registered persons. By having a backup process due to an identification problem with few misrecognitions, the security system in the present embodiment can realize very high safety.

(実施例5)
モード制御例(1)〜(4)において認証に用いる生体情報が1種類(顔画像)のみであったのとは異なり、本実施例において説明される生体情報認証装置は前記(5)に該当するモード制御を用い、顔画像と虹彩の2種類を採用している。また(1)〜(4)ではすべて単一の手段によってモードを変更する機構であったのに対し、本実施例では複数の手段によってモードが制御される機構が取り入れられている。
(Example 5)
Unlike the biometric information used for authentication in the mode control examples (1) to (4), which is only one type (face image), the biometric information authentication device described in this embodiment corresponds to the above (5). Mode control is used, and two types of face image and iris are adopted. Further, in (1) to (4), all are mechanisms for changing the mode by a single means, but in this embodiment, a mechanism in which the modes are controlled by a plurality of means is adopted.

本実施例における生体情報認証装置は、昼は快適性を重視した顔画像による認証を採用し、夜は管理者がいないため十分警戒が必要であることを考慮して安全性を重視した虹彩を用いた認証を採用している。虹彩による認証は虹彩画像を取得するためのカメラを覗きこまなければならず快適性は高いとは言い難いが、認識率においては現在までにセキュリティに適用できるだけの水準に達していると考えられている。本実施例で使用するモードについて図13を参照しながら説明する。   The biometric information authentication device in this embodiment employs facial image authentication that emphasizes comfort during the day, and an iris that emphasizes safety in consideration of the necessity of vigilance since there is no administrator at night. The authentication used is adopted. Iris authentication requires having to look into the camera to acquire the iris image, and it is difficult to say that comfort is high, but the recognition rate is considered to have reached a level that can be applied to security so far. Yes. The mode used in the present embodiment will be described with reference to FIG.

上述の通り本実施例装置において使用するモードは時間帯によって交替する。昼は実施例4の装置aで使用した管理者によるモード制御システムを採用する。これは通常管理者が受付にいる時は快適性を重視した本人利便モードを使用し、管理者が受付を離れる場合は外部入力装置を用いて安全性重視の安全優先モードに切り替えるシステムであるが、既に実施例4において説明したので詳細は省く。夜は虹彩のみを用いて認証を行う虹彩認証モードを使用する。虹彩画像を用いて認証を行うために、この生体情報認証装置は顔画像を取得するものとは別に虹彩画像取得用の撮像手段と、その画像から虹彩を検出して特徴量を抽出する機能を備えている。   As described above, the mode used in the apparatus of this embodiment changes depending on the time zone. In the daytime, the mode control system by the administrator used in the apparatus a of Example 4 is adopted. This is a system that uses the user convenience mode that emphasizes comfort when the administrator is at the reception, and switches to the safety priority mode that emphasizes safety using an external input device when the administrator leaves the reception. Since it has already been described in the fourth embodiment, details are omitted. At night, the iris authentication mode is used in which authentication is performed using only the iris. In order to perform authentication using an iris image, this biometric information authentication apparatus has an imaging means for acquiring an iris image separately from that for acquiring a face image, and a function for detecting an iris from the image and extracting a feature amount. I have.

本実施例による生体情報認証装置の構造についてブロック様式図14を参照しながら説明する。顔画像を用いた認証に関連した機能を有する顔画像情報受理部A及び顔認識部Bについてはその機能が実施例3の生体情報受理部A及び認識部Bと同様であるので省く。虹彩画像情報受理部Dは虹彩画像取得部58と虹彩検出部59、虹彩特徴抽出部60によって構成されている。虹彩画像取得部58は被認証者の虹彩画像を取得できるように設定された撮像手段によって画像を取得し、それを入力画像情報として虹彩検出部59へ送る処理手段である。虹彩検出部59は伝送されてきた入力画像情報を解析することによって画像中に虹彩が含まれているか否か判断し、検出された場合には虹彩部分の画像を虹彩特徴抽出部60へ送る処理手段である。虹彩特徴抽出部60は送られてきた虹彩画像を解析し、虹彩照合部61において類似度を算出するための特徴量を抽出し虹彩特徴情報として送る処理手段である。虹彩識別部Eは虹彩照合部61と虹彩情報記憶部62で構成されている。虹彩照合部61は虹彩特徴抽出部60から送られる虹彩特徴情報と虹彩情報記憶部62から送られる登録虹彩情報を照合することによって類似度を算出し、設定された閾値と比較することによって識別を行い結果を出力する処理手段である。虹彩情報記憶部62は虹彩照合部61において照合を行う際に使用する登録虹彩情報を記憶し、必要なときに伝送する処理手段である。モード管理部Cはモード決定部56と管理者用外部入力部57で構成されている。モード決定部56は時間帯によって昼は顔認証、夜は虹彩認証を使用するように命令を出し、また時刻が昼に属している場合には管理者用外部入力部57から送られたモード選択情報に従って本人利便モードか安全優先モードのどちらを使用するのか判断し、その結果を顔照合部54に伝達する処理手段である。時間帯が昼であれば虹彩情報受理部Dと虹彩識別部Eには機能を停止しておくよう命令を出し、管理者用外部入力部57からのモード選択情報に従ってモードを決定し顔照合部34へ伝達する。時間帯が夜であれば顔画像情報受理部Aと顔識別部Bには機能を停止しておくように命令を出し、虹彩認証のみを行うシステムに移行させる。管理者用外部入力部57は、時間帯が昼の場合通常は本人利便モードが作動しているが管理者が受付を離れる場合に安全優先モードに切り替える信号(モード選択情報)をモード決定部56に対して送るための処理手段であり、実施例4で説明した管理者用外部入力部39と同じ機能を持つ。   The structure of the biometric information authentication apparatus according to the present embodiment will be described with reference to the block diagram FIG. The face image information receiving unit A and the face recognizing unit B having functions related to authentication using face images are omitted because the functions are the same as those of the biometric information receiving unit A and the recognizing unit B of the third embodiment. The iris image information receiving unit D includes an iris image acquisition unit 58, an iris detection unit 59, and an iris feature extraction unit 60. The iris image acquisition unit 58 is a processing unit that acquires an image by an imaging unit set so as to acquire an iris image of the person to be authenticated, and sends it to the iris detection unit 59 as input image information. The iris detection unit 59 determines whether or not an iris is included in the image by analyzing the transmitted input image information, and if detected, sends an image of the iris part to the iris feature extraction unit 60 Means. The iris feature extraction unit 60 is a processing unit that analyzes the transmitted iris image, extracts a feature amount for calculating the similarity in the iris collation unit 61, and sends it as iris feature information. The iris identification unit E is composed of an iris collation unit 61 and an iris information storage unit 62. The iris matching unit 61 calculates the similarity by comparing the iris feature information sent from the iris feature extracting unit 60 and the registered iris information sent from the iris information storage unit 62, and compares the iris feature information with the set threshold value for identification. It is a processing means for performing and outputting the result. The iris information storage unit 62 is processing means for storing registered iris information used when collation is performed in the iris collation unit 61 and transmitting it when necessary. The mode management unit C includes a mode determination unit 56 and an administrator external input unit 57. The mode determination unit 56 issues a command to use face authentication at daytime and iris authentication at night according to the time zone, and when the time belongs to daytime, the mode selection sent from the manager external input unit 57 This processing means determines whether to use the user convenience mode or the safety priority mode according to the information, and transmits the result to the face collation unit 54. If the time zone is noon, the iris information receiving unit D and the iris discriminating unit E are instructed to stop the function, and the mode is determined according to the mode selection information from the manager external input unit 57, and the face matching unit 34. If the time zone is night, the face image information receiving unit A and the face identifying unit B are instructed to stop the function, and the system is shifted to a system that performs only iris authentication. When the time zone is daytime, the manager external input unit 57 normally operates the personal convenience mode, but when the manager leaves the reception, the mode determination unit 56 sends a signal (mode selection information) for switching to the safety priority mode. And has the same function as the administrator external input unit 39 described in the fourth embodiment.

本生体情報認証装置を使用した場合の処理の流れを図15を参照しながら説明する。まず昼の時間帯に使用したとする(ステップS51)。このとき、モード決定部56によって虹彩認証に関連した機能、虹彩画像情報受理部D及び虹彩識別部Eは停止されており、顔画像を用いた認証のみが可能である。顔検出部52において顔が検出されると顔画像情報が特徴抽出部53に出力され(ステップS52)、顔特徴抽出部53では顔検出部52より受け取った顔画像から特徴量を抽出する(ステップS53)。モード決定部56は管理者が受付にいる通常の場合は本人利便モードを使用し、受付を離れる場合には管理者が外部入力部57を用いてモードを切り替え安全優先モードで識別作業を行う(ステップS54)よう、顔照合部54に指示を出す。この管理者のモード制御による顔画像認証の詳細は実施例4に説明したのでここでは省く。次に夜使用した場合について説明する(ステップS51)。モード決定部56によって顔認証に関連した機能、顔画像情報受理部A及び顔識別部Bは停止されており虹彩画像を用いた認証のみ可能である。虹彩検出部59において入力画像中に虹彩が検出されると、虹彩特徴抽出部60は入力虹彩画像から特徴量を抽出し(ステップS56)、虹彩照合部60においてその特徴量と登録虹彩情報を用いて識別を行う(ステップS57)。   The flow of processing when this biometric information authentication apparatus is used will be described with reference to FIG. First, assume that it is used during the daytime (step S51). At this time, the function related to iris authentication, the iris image information receiving unit D, and the iris identifying unit E are stopped by the mode determining unit 56, and only authentication using a face image is possible. When a face is detected by the face detection unit 52, face image information is output to the feature extraction unit 53 (step S52), and the face feature extraction unit 53 extracts a feature amount from the face image received from the face detection unit 52 (step S52). S53). The mode determination unit 56 uses the personal convenience mode when the manager is in the reception, and when leaving the reception, the administrator switches the mode using the external input unit 57 and performs the identification work in the safety priority mode ( In step S54), an instruction is issued to the face matching unit 54. Details of the face image authentication by the mode control of the administrator have been described in the fourth embodiment, and are omitted here. Next, the case where it uses at night is demonstrated (step S51). The function related to face authentication, the face image information receiving unit A, and the face identifying unit B are stopped by the mode determining unit 56, and only authentication using an iris image is possible. When the iris detection unit 59 detects an iris in the input image, the iris feature extraction unit 60 extracts a feature amount from the input iris image (step S56), and the iris collation unit 60 uses the feature amount and the registered iris information. Identification is performed (step S57).

(実施例6)
本発明は元々安全性と快適性をバランスよく高い水準で備えたセキュリティを実現することを目的とし、従来の認識技術が抱えている問題点を克服しようというものであった。そこで本実施例では前記(6)に該当するモード制御例を用い、生体情報認証に無線タグや暗証番号などの非生体認証情報を組み合わせて、被認証者の利便性をなるべく損なわずにより高い安全性を目指したセキュリティシステムを説明する。
(Example 6)
The present invention was originally intended to realize security with a high balance between safety and comfort, and was intended to overcome the problems of conventional recognition technology. Therefore, in this embodiment, the mode control example corresponding to the above (6) is used, and biometric information authentication is combined with non-biometric authentication information such as a wireless tag and a personal identification number so that the convenience of the person to be authenticated is reduced as much as possible. Explain the security system aiming at the sex.

本実施例におけるセキュリティシステムでは生体情報として顔画像を用い、非生体認証情報として登録者全員に渡される無線タグと暗証番号によって入力される個人IDを用いることにし、これら顔画像認証と非生体認証情報を組み合わせることによって形成される次の4つの認証モードを用いて認証を行う。まず昼は管理者が付近にいることを想定しているため、登録本人でも通過できないことがあるが本人以外が通過する可能性が低い実施例1記載の“安全優先モード”による顔画像認証か、無線タグを用いて個人IDを入力する非生体認証情報認証のどちらかで登録本人であると認められれば通過できる“昼モード”を用いる。夜は通常安全優先モードで認証を行い、通過できなかった場合には無線タグか暗証番号のどちらか一方によって個人IDを入力し、それによって指定される特定個人を高い本人通過率で同定する実施例4の装置b記載の“個人同定モード”によって再度認証を行うことができる“夜モード”を採用する。(図16)この昼モードと夜モードを時間帯に応じて使い分けることによって、昼は快適性を、夜は安全性を重視した認証を行うことができる。   In the security system in the present embodiment, a face image is used as biometric information, and a wireless tag passed to all registrants and a personal ID input by a personal identification number are used as non-biometric authentication information. Authentication is performed using the following four authentication modes formed by combining information. First of all, since it is assumed that the administrator is in the vicinity in the daytime, even the registered person may not be able to pass, but it is unlikely that anyone other than the person will pass. The “daytime mode” is used, which allows the user to pass if the registered person is recognized in either of the non-biometric authentication information authentication in which the personal ID is input using the wireless tag. At night, authentication is performed in the normal safety priority mode. If you cannot pass, enter your personal ID using either the wireless tag or PIN, and identify the specific person specified by that with a high pass rate. The “night mode” in which authentication can be performed again by the “personal identification mode” described in the apparatus b of Example 4 is adopted. (FIG. 16) By using the daytime mode and the nighttime mode according to the time zone, it is possible to perform authentication with an emphasis on comfort at daytime and safety at nighttime.

このセキュリティシステムのブロック構造図を図17に示す。   A block diagram of this security system is shown in FIG.

生体情報受理部Aは実施例1と同様に画像入力部71、顔検出部72、特徴抽出部73の3つの部分によって構成されている。これらの部分の役割については実施例1で説明したものと同様である。   Similarly to the first embodiment, the biological information receiving unit A includes three parts, that is, an image input unit 71, a face detection unit 72, and a feature extraction unit 73. The role of these parts is the same as that described in the first embodiment.

顔画像識別部Bは顔照合部74と登録顔画像情報記憶部75から構成されている。登録顔画像情報記憶部75は照合に必要な登録顔画像情報を記憶しておき、必要なときに顔照合部74に送る処理手段である。顔照合部74は特徴抽出部73から送られる生体特徴情報と登録顔画像記憶部75から送られる登録顔画像情報をモード決定部76によって指定されたモードにおける閾値設定に従って照合、識別を行い、通過判定部83に識別結果情報として送る処理手段である。なお個人同定モードで認証を行う場合顔情報記憶部75は、モード決定部76から送られる被認証者の個人ID情報を参照して特定個人の登録顔画像情報のみを顔照合部74へ送り、それと特徴抽出部73から送られる生体特徴情報を用いて顔照合部74では個人同定が行われる。   The face image identification unit B includes a face matching unit 74 and a registered face image information storage unit 75. The registered face image information storage unit 75 is processing means for storing registered face image information necessary for collation and sending it to the face collation unit 74 when necessary. The face collation unit 74 collates and identifies the biometric feature information sent from the feature extraction unit 73 and the registered face image information sent from the registered face image storage unit 75 according to the threshold setting in the mode specified by the mode determination unit 76, and passes. It is a processing means which sends to the determination part 83 as identification result information. When authentication is performed in the personal identification mode, the face information storage unit 75 refers to the personal ID information of the person to be authenticated sent from the mode determination unit 76 and sends only the registered face image information of the specific individual to the face matching unit 74. Using the biometric feature information sent from the feature extracting unit 73, the face matching unit 74 performs personal identification.

非生体認証情報受理部Fは、無線タグによる個人ID入力に関連した無線受信部77と無線情報照合部78、登録無線情報記憶部79、暗証番号による個人IDの入力に関連した暗証番号入力部80と暗証番号照合部81、登録暗証番号記憶部82から構成されている。無線受信部77は、被認証者が所有している無線タグを感知してID情報を取得し個人ID情報として無線情報照合部78へ送る処理手段である。登録無線情報記憶部79は、無線タグによる個人IDの照合に必要な登録無線情報を記憶しておき、必要な時に無線情報照合部78に送る処理手段である。無線情報照合部78は、無線受信部77から送られる個人ID情報と登録無線情報記憶部79から送られる登録無線情報を照合、識別し、被認証者が登録人物のいずれかと一致したか否かを識別結果情報として通過判定部83へ送り、また照合の結果選られた個人IDをモード決定部76へ送る処理手段である。   The non-biometric authentication information receiving unit F includes a wireless receiving unit 77 and a wireless information matching unit 78, a registered wireless information storage unit 79, a personal identification number input unit related to a personal ID input using a personal identification number. 80, a personal identification number collation unit 81, and a registered personal identification number storage unit 82. The wireless receiving unit 77 is a processing unit that senses a wireless tag owned by the person to be authenticated, acquires ID information, and sends the ID information to the wireless information matching unit 78 as personal ID information. The registered wireless information storage unit 79 is processing means for storing registered wireless information necessary for collation of the personal ID by the wireless tag and sending it to the wireless information collation unit 78 when necessary. The wireless information collating unit 78 collates and identifies the personal ID information sent from the wireless receiving unit 77 and the registered wireless information sent from the registered wireless information storage unit 79, and whether or not the person to be authenticated matches any of the registered persons. Is sent to the passage determining unit 83 as identification result information, and the personal ID selected as a result of the collation is sent to the mode determining unit 76.

暗証番号入力部80は、認証者が入力する暗証番号を個人ID情報として取得し、暗証番号照合部81へ送る処理手段である。登録暗証番号記憶部82は、暗証番号による個人IDの照合に必要な登録暗証番号を記憶しておき、必要な時に暗証番号照合部81に送る処理手段である。無線情報照合部81は、暗証番号入力部80から送られる個人ID情報と登録暗証番号記憶部82から送られる登録暗証番号を照合、識別し、被認証者が登録人物のいずれかと一致したか否かを通過判定部83に識別結果情報として送り、また照合の結果選られた個人IDをモード決定部76へ送る処理手段である。   The personal identification number input unit 80 is a processing unit that acquires the personal identification number input by the authenticator as personal ID information and sends it to the personal identification number collation unit 81. The registered personal identification number storage unit 82 is a processing means for storing a registered personal identification number necessary for collating the personal ID with the personal identification number and sending it to the personal identification number collating unit 81 when necessary. The wireless information collation unit 81 collates and identifies the personal ID information transmitted from the personal identification number input unit 80 and the registered personal identification number transmitted from the registered personal identification number storage unit 82, and whether or not the person to be authenticated matches any of the registered persons. This is a processing means for sending the information as identification result information to the passage determination unit 83 and sending the personal ID selected as a result of the collation to the mode determination unit 76.

モード管理部Cは、モード決定部76と通過判定部83から構成されている。モード決定部76は、顔照合部74に対して識別を行う際に使用する閾値設定をその時間帯が昼であれば閾値設定1、夜であれば閾値設定2を用いるように指令するモード制御情報を送り、また通過判定部83に対して昼は安全優先モードによる顔画像認証と無線タグ認証のどちらか一方、夜は安全優先モードによる顔画像認証か安全優先モード2による認証のどちらか一方が成功した場合に通過を許可するよう指定する情報をモード制御情報として送る処理手段である。通過判定部83は、顔照合部74と無線情報照合部78、暗証番号照合部81から送られる識別結果情報を統合し、モード決定部76から送られるモード制御情報に従って最終的に通過を許可するか判定する処理手段である。また夜に安全優先モードで通過を許可しない判断をした場合には、モード決定部に対して個人同定モードで認証を行うことを要請する再認証要請情報を送る。   The mode management unit C includes a mode determination unit 76 and a passage determination unit 83. The mode determination unit 76 instructs the face matching unit 74 to use the threshold setting used when identifying the threshold setting 1 if the time zone is daytime, and use the threshold setting 2 if the time zone is night. Information is sent to the passage determination unit 83, and either face image authentication or wireless tag authentication is performed in the safety priority mode in the daytime, and either face image authentication in the safety priority mode or authentication in the safety priority mode 2 is performed in the evening. Is a processing means for sending, as mode control information, information specifying that passage is permitted when the user succeeds. The passage determining unit 83 integrates the identification result information sent from the face matching unit 74, the wireless information matching unit 78, and the personal identification number matching unit 81, and finally permits passage according to the mode control information sent from the mode determining unit 76. It is a processing means to determine whether or not. When it is determined that the passage is not permitted in the safety priority mode at night, re-authentication request information for requesting the mode determination unit to perform the authentication in the personal identification mode is transmitted.

本セキュリティシステムを使用した場合の処理の流れを図18、図19を参照しながら説明する。被認証者が来訪した時間帯が昼であった場合(ステップS71)、入力画像中に顔が検出されれば(ステップS72)安全優先モードによる顔画像認証が行われ認証結果が“通過”であれば認証は終了する(ステップS73)。結果が“不通過”であった場合や前述のステップS72において顔が検出されなかった場合には、被認証者が無線タグを所有していることを感知した上で無線タグモードによる非生体認証が行われる(ステップS74)。時間帯が夜であればまず顔を検知し安全優先モードによる顔画像認証を行い(ステップS75)、結果が“通過”であればそこで認証は終了する(ステップS76)。結果が“不通過”であれば被認証者から無線タグもしくは暗証番号によって個人IDを取得し、改めて顔画像を取得し直した後に個人同定モードによる認証を改めて行う(ステップS77)。   The flow of processing when this security system is used will be described with reference to FIGS. If the time when the person to be authenticated visited is noon (step S71), if a face is detected in the input image (step S72), face image authentication is performed in the safety priority mode and the authentication result is “pass”. If so, the authentication ends (step S73). If the result is “pass” or if no face is detected in step S72 described above, the non-biometric authentication in the wireless tag mode is performed after sensing that the person to be authenticated possesses the wireless tag. Is performed (step S74). If the time zone is night, the face is first detected and face image authentication is performed in the safety priority mode (step S75). If the result is “pass”, the authentication ends there (step S76). If the result is “pass”, the personal ID is obtained from the person to be authenticated by the wireless tag or the personal identification number, and the face image is obtained again, and then the authentication in the personal identification mode is performed again (step S77).

また、実施例において、昼モードの場合には最初に生体情報を用いて判断を行い、その後生体情報を用いて最終判断を下したが、両情報の構成要素の数やそれらの順序などは制限されない。例えば、夜モードの場合に図19ステップS77からステップS78で使用した個人同定モードのように無線タグ(非生体認証情報)の判断を行った後生体情報のチェックを行ったが、これは先に非生体認証情報を取得することによって生体情報の検索範囲を制限するという利得を得るためである。例えば、顔検出範囲の方が無線検出範囲よりも広い場合、迅速さを重視して顔画像による認証を行った後通過できなければ無線タグによる認証を行う昼モードを用いれば良い。しかしよりセキュリティの高い認証を行うには先に無線タグによって個人IDを取得し、検索範囲を狭めた後顔画像認証を行う個人同定モードに切り替えた方が良い。このように順序関係の違いによっても認識全体のパフォーマンスを制御可能である。この制御はこれまでに述べた制御と同様に時間による制御や管理者の操作による制御などの他の制御と組み合わせて、パラメータの調整などのモード管理を行うことができる。   In the embodiment, in the daytime mode, the biometric information is first used for the determination, and then the biometric information is used for the final determination. However, the number of components of both pieces of information and their order are limited. Not. For example, in the night mode, the biometric information is checked after the wireless tag (non-biometric authentication information) is determined as in the individual identification mode used in steps S77 to S78 in FIG. This is to obtain a gain of limiting the search range of biometric information by acquiring non-biometric authentication information. For example, when the face detection range is wider than the wireless detection range, a daytime mode in which authentication is performed using a wireless tag may be used if the face image cannot be passed after authentication using a face image with an emphasis on speed. However, in order to perform authentication with higher security, it is better to first acquire a personal ID with a wireless tag and switch to a personal identification mode in which face image authentication is performed after narrowing the search range. In this way, the performance of the entire recognition can be controlled by the difference in order relation. Similar to the control described above, this control can be combined with other controls such as control by time or control by an administrator to perform mode management such as parameter adjustment.

なおこれまで各実施例は顔画像による認証に基づいて認証を行ったが、生体情報としては音声、指紋、掌紋、虹彩、網膜などいずれを用いても良い。また実施例4、6で用いた非生体認証情報の種類も制限されない。   Each embodiment has been authenticated based on authentication using a face image so far, but any one of voice, fingerprint, palm print, iris, retina, etc. may be used as biometric information. Also, the type of non-biometric authentication information used in Examples 4 and 6 is not limited.

本発明は上述した実施の形態に限定されるものではなく、その技術的範囲において種々変形して実施することができる。   The present invention is not limited to the above-described embodiment, and various modifications can be made within the technical scope thereof.

本発明の基本構成を示す図。The figure which shows the basic composition of this invention. 実施例1における認証モードの構成を示す図。FIG. 3 is a diagram illustrating a configuration of an authentication mode according to the first embodiment. 実施例1における処理手続を示す図。FIG. 3 is a diagram illustrating a processing procedure in the first embodiment. 実施例2における認証モードの構成を示す図。FIG. 10 is a diagram illustrating a configuration of an authentication mode in the second embodiment. 実施例2におけるブロック構成を示す図。FIG. 5 is a diagram illustrating a block configuration according to a second embodiment. 実施例2における処理手続を示す図。FIG. 10 is a diagram illustrating a processing procedure in the second embodiment. 実施例3における認証モードの構成を示す図。FIG. 10 is a diagram illustrating a configuration of an authentication mode according to the third embodiment. 実施例3におけるブロック構成を示す図。FIG. 10 is a diagram illustrating a block configuration according to a third embodiment. 実施例4装置aにおけるブロック構成を示す図。The figure which shows the block configuration in Example 4 apparatus a. 実施例4装置aにおける処理手続を示す図。The figure which shows the process procedure in Example 4 apparatus a. 実施例4装置bにおけるブロック構成を示す図。The figure which shows the block configuration in Example 4 apparatus b. 実施例4装置bにおける処理構成を示す図。The figure which shows the process structure in Example 4 apparatus b. 実施例5における認証モードの構成を示す図。FIG. 10 is a diagram illustrating a configuration of an authentication mode according to a fifth embodiment. 実施例5におけるブロック構成を示す図。FIG. 10 is a diagram illustrating a block configuration according to a fifth embodiment. 実施例5における処理構成を示す図。FIG. 10 is a diagram illustrating a processing configuration in a fifth embodiment. 実施例6における認証モードの構成を示す図。FIG. 10 is a diagram illustrating a configuration of an authentication mode according to a sixth embodiment. 実施例6におけるブロック構成を示す図。FIG. 10 is a diagram illustrating a block configuration according to a sixth embodiment. 実施例6における処理構成を示す図。FIG. 10 is a diagram showing a processing configuration in a sixth embodiment. 実施例6における処理構成を示す図。FIG. 10 is a diagram showing a processing configuration in a sixth embodiment. 他人排除率と本人通過率との関係を示す図。The figure which shows the relationship between a stranger exclusion rate and a person pass rate.

符号の説明Explanation of symbols

41 画像入力部
42 顔検出部
43 特徴抽出部
44 照合部
45 認証情報記憶部
46 モード決定部
49 被認証者用外部入力装置
DESCRIPTION OF SYMBOLS 41 Image input part 42 Face detection part 43 Feature extraction part 44 Collation part 45 Authentication information storage part 46 Mode determination part 49 External input device for to-be-authenticated persons

Claims (5)

被認証者の顔画像を入力する顔画像入力部、
前記顔画像から特徴情報を抽出する特徴抽出部、
認証用顔画像登録情報と前記被認証者に固有な識別情報とを対応付けて記憶する認証情報記憶部、
前記特徴情報と前記認証要登録情報とを照合する照合部、
前記被認証者から識別情報を取得する識別情報取得部、および、
前記照合部が照合を行った結果、前記特徴情報に対応する前記認証用登録情報を特定できなかった場合に、前記識別情報取得部によって取得された識別情報に対応する認証用顔画像登録情報を前記認証情報記憶部から抽出し、この抽出された認証用顔画像登録情報と前記特徴情報とを用いて前記照合部に再度照合を行わせる再照合制御部、
を備える顔認証装置。
A face image input unit for inputting the face image of the person to be authenticated,
A feature extraction unit for extracting feature information from the face image;
An authentication information storage unit for storing authentication face image registration information and identification information unique to the person to be authenticated in association with each other;
A collation unit that collates the feature information with the authentication-required registration information;
An identification information acquisition unit for acquiring identification information from the person to be authenticated; and
As a result of the collation performed by the collation unit, when the authentication registration information corresponding to the feature information cannot be specified, authentication face image registration information corresponding to the identification information acquired by the identification information acquisition unit is obtained. A re-collation control unit that extracts from the authentication information storage unit and causes the collation unit to perform collation again using the extracted authentication face image registration information and the feature information;
A face authentication device comprising:
前記識別情報取得部は、所定領域内に存在する無線タグから前記識別情報を受信する無線受信部を備えることを特徴とする請求項1に記載の顔認証装置。   The face authentication apparatus according to claim 1, wherein the identification information acquisition unit includes a wireless reception unit that receives the identification information from a wireless tag existing in a predetermined area. 前記識別情報取得部は、前記認証者が前記識別情報を入力する手段を備えることを特徴とする請求項1に記載の顔認証装置。   The face authentication apparatus according to claim 1, wherein the identification information acquisition unit includes means for the certifier to input the identification information. 前記識別情報は、前記被認証者固有のIDデータであることを特徴とする請求項2または3に記載の顔認証装置。   4. The face authentication apparatus according to claim 2, wherein the identification information is ID data unique to the person to be authenticated. 被認証者の認証用顔画像登録情報を前記被認証者固有のIDデータと対応付けて記憶する記憶ステップと、
前記被認証者の顔画像を入力する第1入力ステップと、
この第1入力ステップにて入力された前記被認証者の顔画像と前記認証用顔画像登録情報とを照合する第1照合ステップと、
この第1照合ステップにて認証されなかった場合、前記被認証者のIDデータ並びに顔画像を入力する第2入力ステップと、
前記認証要顔画像登録情報から前記第2入力ステップにて入力されたIDデータに対応する前記認証用顔画像登録情報を抽出し、この登録情報と前記第2入力ステップにて入力された前記被認証者の顔画像とを再照合する第2照合ステップとを具備することを特徴とする顔認証方法。
A storing step of storing face image registration information for authentication of the person to be authenticated in association with ID data unique to the person to be authenticated;
A first input step for inputting the face image of the person to be authenticated;
A first collation step of collating the face image of the person to be authenticated input in the first input step with the face image registration information for authentication;
A second input step for inputting the ID data of the person to be authenticated and the face image when the first verification step is not successful;
The authentication face image registration information corresponding to the ID data input in the second input step is extracted from the authentication required face image registration information, and the registration information and the object to be input input in the second input step are extracted. A face verification method comprising: a second verification step of re-verifying the face image of the authenticator.
JP2004376398A 2004-12-27 2004-12-27 System and method of facial authentication Abandoned JP2005149527A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004376398A JP2005149527A (en) 2004-12-27 2004-12-27 System and method of facial authentication

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004376398A JP2005149527A (en) 2004-12-27 2004-12-27 System and method of facial authentication

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP11018208A Division JP2000215308A (en) 1999-01-27 1999-01-27 Device and method for authenticating biological information

Publications (1)

Publication Number Publication Date
JP2005149527A true JP2005149527A (en) 2005-06-09

Family

ID=34698140

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004376398A Abandoned JP2005149527A (en) 2004-12-27 2004-12-27 System and method of facial authentication

Country Status (1)

Country Link
JP (1) JP2005149527A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008052549A (en) * 2006-08-25 2008-03-06 Hitachi Kokusai Electric Inc Image processing system
JP2010079609A (en) * 2008-09-26 2010-04-08 Brother Ind Ltd Personal authentication device, personal authentication program, and intercom system with personal authentication device
JP2012022713A (en) * 2011-10-19 2012-02-02 Panasonic Electric Works Co Ltd User identifying apparatus
JP2015011656A (en) * 2013-07-02 2015-01-19 株式会社リコー Image processing system and program
JP6039029B1 (en) * 2015-09-18 2016-12-07 ヤフー株式会社 Selection device, selection method, selection program, and authentication processing system
JP2017515174A (en) * 2014-02-28 2017-06-08 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited Method and system for extracting characteristic information
JP2019028958A (en) * 2017-08-04 2019-02-21 株式会社日立製作所 Design document learning device and design document learning method
WO2020179240A1 (en) * 2019-03-01 2020-09-10 株式会社日立国際電気 Image verification system
JP6819916B1 (en) * 2020-03-31 2021-01-27 日本電気株式会社 Information processing equipment, information processing methods and programs

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008052549A (en) * 2006-08-25 2008-03-06 Hitachi Kokusai Electric Inc Image processing system
JP2010079609A (en) * 2008-09-26 2010-04-08 Brother Ind Ltd Personal authentication device, personal authentication program, and intercom system with personal authentication device
JP2012022713A (en) * 2011-10-19 2012-02-02 Panasonic Electric Works Co Ltd User identifying apparatus
JP2015011656A (en) * 2013-07-02 2015-01-19 株式会社リコー Image processing system and program
JP2017515174A (en) * 2014-02-28 2017-06-08 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited Method and system for extracting characteristic information
US10389710B2 (en) 2014-02-28 2019-08-20 Alibaba Group Holding Limited Method and system for extracting characteristic information
JP6039029B1 (en) * 2015-09-18 2016-12-07 ヤフー株式会社 Selection device, selection method, selection program, and authentication processing system
JP2017060103A (en) * 2015-09-18 2017-03-23 ヤフー株式会社 Selection device, selection method, selection program and authentication processing system
JP2019028958A (en) * 2017-08-04 2019-02-21 株式会社日立製作所 Design document learning device and design document learning method
WO2020179240A1 (en) * 2019-03-01 2020-09-10 株式会社日立国際電気 Image verification system
JPWO2020179240A1 (en) * 2019-03-01 2021-12-16 株式会社日立国際電気 Image matching system
JP7214830B2 (en) 2019-03-01 2023-01-30 株式会社日立国際電気 Image matching system
JP6819916B1 (en) * 2020-03-31 2021-01-27 日本電気株式会社 Information processing equipment, information processing methods and programs
WO2021199338A1 (en) * 2020-03-31 2021-10-07 日本電気株式会社 Information processing device, information processing method, and recording medium
JP2021163457A (en) * 2020-03-31 2021-10-11 日本電気株式会社 Information processing apparatus, information processing method, and program
JP7020537B2 (en) 2020-03-31 2022-02-16 日本電気株式会社 Information processing equipment, information processing methods and programs
JP2022060274A (en) * 2020-03-31 2022-04-14 日本電気株式会社 Information processing device, information processing method, and program
JP7380723B2 (en) 2020-03-31 2023-11-15 日本電気株式会社 Information processing device, information processing method and program

Similar Documents

Publication Publication Date Title
US9922238B2 (en) Apparatuses, systems, and methods for confirming identity
JP5017873B2 (en) Personal verification device and personal verification method
US9864756B2 (en) Method, apparatus for providing a notification on a face recognition environment, and computer-readable recording medium for executing the method
US9613200B2 (en) Ear biometric capture, authentication, and identification method and system
US8818051B2 (en) Fraud resistant biometric financial transaction system and method
JP4675492B2 (en) Personal authentication device using facial images
US8422746B2 (en) Face authentication system and authentication method thereof
JP2000215308A (en) Device and method for authenticating biological information
US8493178B2 (en) Forged face detecting method and apparatus thereof
KR20180109594A (en) Method and apparatus for face verification
US20130129164A1 (en) Identity recognition system and method based on hybrid biometrics
US20230252120A1 (en) Method and apparatus with selective combined authentication
JP2008191743A (en) Face authentication device
US11341222B1 (en) System and method for securely viewing, editing and sharing documents and other information
US11714889B2 (en) Method for authentication or identification of an individual
JP2000237167A (en) Iris recognizing device
JP2005149527A (en) System and method of facial authentication
JP2005084824A (en) Face image collation apparatus and face image collation method and passage controller
JP2006277415A (en) Registration method and device, and authentication method and device
JP2008225799A (en) Biometric authentication device, biometric authentication method, and program
KR100716743B1 (en) Fingerprint Authentication System And Method Capable of Adjusting Authentication Reference Level Based on The Number Of Enrolled Fingerprint
JP4434560B2 (en) Entrance / exit management system
JP2003308524A (en) Access control system
JP2005292994A (en) Personal recognition system and passage control system
KR102483648B1 (en) Method and apparatus of performing authentication

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070607

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070612

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20070726