JP2005092700A - Face identification device and passage control device - Google Patents

Face identification device and passage control device Download PDF

Info

Publication number
JP2005092700A
JP2005092700A JP2003327689A JP2003327689A JP2005092700A JP 2005092700 A JP2005092700 A JP 2005092700A JP 2003327689 A JP2003327689 A JP 2003327689A JP 2003327689 A JP2003327689 A JP 2003327689A JP 2005092700 A JP2005092700 A JP 2005092700A
Authority
JP
Japan
Prior art keywords
self
diagnosis
image input
person
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003327689A
Other languages
Japanese (ja)
Inventor
Yusuke Yamada
雄資 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2003327689A priority Critical patent/JP2005092700A/en
Publication of JP2005092700A publication Critical patent/JP2005092700A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)
  • Image Input (AREA)
  • Lock And Its Accessories (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a face identification device that stabilizes the images acquired, thus increasing the success rate of identification while reducing identification errors. <P>SOLUTION: The face identification device takes a face image of a person to be identified using a camera, and collates the face image with dictionary information to verify whether or not the person to be identified is the true person. A lighting environment in the absence of the person to be identified is analyzed through self-diagnosis. When the result of the self-diagnosis is other than a reference value, the lighting environment is controlled so that the result is within the reference value. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、たとえば、被認証者の顔画像を基に被認証者が本人であるか否かを認証する顔認証装置、および、この顔認証装置を用いて通行者の通行(たとえば、重要施設の入退室など)を制御する通行制御装置に関する。   The present invention provides, for example, a face authentication device that authenticates whether or not the person to be authenticated is the person himself / herself based on the face image of the person to be authenticated, and a passerby's passage (for example, an important facility using the face authentication device) It is related with the traffic control apparatus which controls entrance / exit of a room.

最近、たとえば、セキュリティ管理などにおいて、被認証者の顔画像を基に被認証者が本人であるか否かを認証する顔認証装置が開発されている。
一般に、この種の顔認証装置は、顔画像を入力するためのカメラやカラー液晶表示部などを備えた操作部と、認証処理を行なうための認証エンジンやカメラ制御部などを備えた制御部とによって構成されていて、操作部のカメラからの入力画像を液晶表示部に表示しながら、被認証者の顔画像を取得して、顔の特徴点を抽出し、この抽出した特徴点を辞書情報として登録する。
Recently, for example, in security management, a face authentication device has been developed that authenticates whether or not the person to be authenticated is the person himself / herself based on the face image of the person to be authenticated.
In general, this type of face authentication device includes an operation unit including a camera and a color liquid crystal display unit for inputting a face image, and a control unit including an authentication engine and a camera control unit for performing an authentication process. While the input image from the camera of the operation unit is displayed on the liquid crystal display unit, the face image of the person to be authenticated is acquired and the feature point of the face is extracted, and the extracted feature point is dictionary information Register as

その後は、カメラからの入力画像を液晶表示部に表示しながら、被認証者の顔画像を取得する度に、顔の特徴点を抽出して、この抽出した特徴点をあらかじめ登録された辞書情報と照合することにより、被認証者が本人であるか否かを認証するようになっている。
特開2001−236499号公報 特開2000−60825号公報
After that, each time the face image of the person to be authenticated is acquired while displaying the input image from the camera on the liquid crystal display unit, the facial feature points are extracted, and the extracted feature points are registered in advance as dictionary information. Is verified to verify whether or not the person to be authenticated is the person himself / herself.
JP 2001-236499 A JP 2000-60825 A

このような顔認証装置は、その操作部の設置仕様において以下の条件を守る必要がある。
1.外光の遮断
2.昼夜/年間をとおし、被認証者の顔が一定の照度内、一定の変動範囲とする。
しかしながら、設置環境には幅広いニーズがあり、照度を変動範囲内にすることが困難である。また、これらの要因が重なると、辞書登録時の特徴点抽出データと照合時(認証時)の特徴点抽出データの変動が大きくなる。その結果、被認証者を本人と認証する認証成功率の低下と、逆に被認証者を他人と間違えて認証する誤認証の発生が問題となる。
Such a face authentication apparatus needs to observe the following conditions in the installation specifications of the operation unit.
1. Blocking outside light
2. Throughout the day / night / year, the face of the person to be authenticated is within a certain illuminance and within a certain fluctuation range.
However, the installation environment has a wide range of needs, and it is difficult to make the illuminance within the fluctuation range. If these factors overlap, the feature point extraction data at the time of dictionary registration and the feature point extraction data at the time of collation (at the time of verification) vary greatly. As a result, there is a problem of a decrease in the authentication success rate for authenticating the person to be authenticated with the person, and conversely, the occurrence of erroneous authentication for authenticating the person to be authenticated with another person.

そこで、本発明は、取得画像の安定を図り、認証成功率の向上と誤認証の低減が図れる顔認証装置および通行制御装置を提供することを目的とする。   Accordingly, an object of the present invention is to provide a face authentication device and a traffic control device that can stabilize an acquired image, improve an authentication success rate, and reduce erroneous authentication.

本発明の顔認証装置は、被認証者と対向するよう設置され、少なくとも被認証者の顔画像を撮像して入力する画像入力手段と、この画像入力手段により入力された顔画像とあらかじめ登録された辞書情報とを照合することにより当該被認証者が本人であるか否かを認証する認証手段と、前記画像入力手段の撮像視野内に被認証者が存在しないとき、所定時間ごとに少なくとも当該撮影視野内における周囲環境を自己診断により解析する環境自己診断手段と、この環境自己診断手段の自己診断結果が基準値以外のとき、その自己診断結果に基づき当該自己診断結果が基準値以内となるように前記周囲環境を制御する環境制御手段とを具備している。   The face authentication apparatus of the present invention is installed so as to face the person to be authenticated, and at least an image input unit that captures and inputs a face image of the person to be authenticated, and a face image input by the image input unit is registered in advance. Authentication means for verifying whether or not the person to be authenticated is the person himself / herself by collating with the dictionary information, and when there is no person to be authenticated within the imaging field of view of the image input means, at least for each predetermined time Environmental self-diagnosis means for analyzing the surrounding environment in the field of view by self-diagnosis, and when the self-diagnosis result of this environmental self-diagnosis means is other than the reference value, the self-diagnosis result is within the reference value based on the self-diagnosis result And environmental control means for controlling the surrounding environment.

本発明の通行制御装置は、通行者と対向するよう設置され、少なくとも通行者の顔画像を撮像して入力する画像入力手段と、この画像入力手段により入力された顔画像とあらかじめ登録された辞書情報とを照合することにより当該通行者が本人であるか否かを認証する認証手段と、この認証手段の認証結果に応じて当該通行者の通行を制御する通行制御手段と、前記画像入力手段の撮像視野内に通行者が存在しないとき、所定時間ごとに少なくとも当該撮影視野内における周囲環境を自己診断により解析する環境自己診断手段と、この環境自己診断手段の自己診断結果が基準値以外のとき、その自己診断結果に基づき当該自己診断結果が基準値以内となるように前記周囲環境を制御する環境制御手段とを具備している。   The traffic control device according to the present invention is installed so as to face a passerby, image input means for capturing and inputting at least a passer's face image, a face image input by the image input means, and a dictionary registered in advance Authentication means for authenticating whether or not the passer is the person by checking the information, passage control means for controlling the pass of the passer according to the authentication result of the authentication means, and the image input means When there is no passerby in the imaging field of view, environmental self-diagnosis means for analyzing at least the surrounding environment in the imaging field of view by self-diagnosis every predetermined time, and the self-diagnosis result of this environmental self-diagnosis means is other than the reference value And an environmental control means for controlling the surrounding environment so that the self-diagnosis result is within a reference value based on the self-diagnosis result.

本発明によれば、被認証者が存在しないときの周囲環境を自己診断により解析する環境自己診断機能を設け、この自己診断の結果を加味した認証処理を行なうことにより、取得画像の安定を図り、認証成功率の向上と誤認証の低減が図れる顔認証装置および通行制御装置を提供できる。   According to the present invention, an environmental self-diagnosis function for analyzing the surrounding environment when there is no person to be authenticated by self-diagnosis is provided, and the acquired image is stabilized by taking into account the result of this self-diagnosis. Therefore, it is possible to provide a face authentication device and a traffic control device that can improve the authentication success rate and reduce false authentication.

以下、本発明の実施の形態について図面を参照して説明する。
図1は、本実施の形態に係る顔認証装置を用いた通行制御装置の構成を概略的に示すものである。図1において、操作部1は、この例では、被認証者の顔画像(少なくとも顔を含んでいる画像)を撮影して入力する画像入力手段としてのビデオカメラ(たとえば、CCD型ビデオカメラ、以降、単にカメラと略称する)2、カメラ2で入力された被認証者の顔画像や各種操作案内などを表示する案内手段としての表示部(たとえば、カラー液晶表示器)3、被認証者が自己固有の識別情報としてのID番号やパスワードなどを入力する入力手段としてのキーボード4、および、被認証者に対して各種音声案内などを行なう音声案内手段としてのスピーカ5を備えていて、被認証者の顔部分と相対向する部位に設置される。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 schematically shows a configuration of a traffic control device using the face authentication device according to the present embodiment. In FIG. 1, the operation unit 1 in this example is a video camera (for example, a CCD type video camera, hereinafter) as an image input unit that captures and inputs a face image (an image including at least a face) of the person to be authenticated. , Simply abbreviated as a camera) 2, a display unit (for example, a color liquid crystal display) 3 as a guide means for displaying the face image of the person to be authenticated input by the camera 2, various operation guides, etc. A keyboard 4 as input means for inputting an ID number or a password as unique identification information, and a speaker 5 as voice guidance means for performing various voice guidance for the person to be authenticated are provided. It is installed in the part opposite to the face part.

操作部1は制御部6に接続されている。すなわち、操作部1のカメラ2、表示部3、キーボード4、スピーカ5は、それぞれカメラ制御部7、表示制御部8、キー入力制御部9、音声制御部10を介して主制御部(制御手段)11に接続されている。   The operation unit 1 is connected to the control unit 6. That is, the camera 2, the display unit 3, the keyboard 4, and the speaker 5 of the operation unit 1 are connected to the main control unit (control unit) via the camera control unit 7, the display control unit 8, the key input control unit 9, and the voice control unit 10, respectively. ) 11.

照明手段としての照明装置12は、カメラ2による顔画像の撮影時に被認証者の顔部分を照明するもので、たとえば、4つの照明灯12a,12b,12c,12dから構成されていて、照明制御部13を介して主制御部11に接続されている。   The illuminating device 12 as an illuminating unit illuminates the face portion of the person to be authenticated when the camera 2 captures a face image. For example, the illuminating device 12 includes four illumination lights 12a, 12b, 12c, and 12d. It is connected to the main control unit 11 via the unit 13.

主制御部11には、各種データを記憶するための記憶手段としてのメモリ14、顔画像による認証処理を行なう認証手段としての認証処理部15、辞書記憶手段としての辞書記憶部16、および、ゲート制御部17がそれぞれ接続されている。辞書記憶部16には、たとえば、あらかじめ被認証者のID番号に対応させて複数の辞書情報が記憶(登録)されている。   The main control unit 11 includes a memory 14 as a storage unit for storing various data, an authentication processing unit 15 as an authentication unit that performs authentication processing using a face image, a dictionary storage unit 16 as a dictionary storage unit, and a gate Control units 17 are connected to each other. In the dictionary storage unit 16, for example, a plurality of dictionary information is stored (registered) in advance corresponding to the ID number of the person to be authenticated.

このような構成において、カメラ2で入力された被認証者の顔画像、および、キーボード4で入力された被認証者のID番号は、カメラ制御部7、キー入力制御部9、主制御部11を介して認証処理部15へ送られる。認証処理部15は、たとえば、入力されたID番号に対応する辞書情報を辞書記憶部16から選択し、この選択した辞書情報と入力された顔画像とを照合することにより被認証者が本人であるか否かを認証し、その認証結果を主制御部11へ送るようになっている。   In such a configuration, the face image of the person to be authenticated input by the camera 2 and the ID number of the person to be authenticated input by the keyboard 4 are the camera control unit 7, the key input control unit 9, and the main control unit 11. And sent to the authentication processing unit 15. The authentication processing unit 15 selects, for example, dictionary information corresponding to the input ID number from the dictionary storage unit 16, and collates the selected dictionary information with the input face image, so that the person to be authenticated is the person himself / herself. It is authenticated whether or not there is, and the authentication result is sent to the main control unit 11.

主制御部11は、認証処理部15からの認証結果に基づき、ゲート制御部17を介して通行ゲート18の開閉制御を行なうことにより、被認証者(通行者)の通行を制御する。通行ゲート18は、たとえば、住宅の玄関に設置された入退出用ドア、あるいは、重要施設の入退出用ドアなどである。ここに、ゲート制御部17および通行ゲート18は通行制御手段を構成している。   Based on the authentication result from the authentication processing unit 15, the main control unit 11 controls the passage of the person to be authenticated (passerby) by performing opening / closing control of the pass gate 18 via the gate control unit 17. The passage gate 18 is, for example, an entrance / exit door installed at the entrance of a house or an entrance / exit door of an important facility. Here, the gate control unit 17 and the traffic gate 18 constitute traffic control means.

図2は、操作部1の外観構成および操作部1に対する照明装置12の配置例の具体例を示すものである。すなわち、操作部1の前面には、カメラ2、表示部3、キーボード4およびスピーカ5がそれぞれ設けられている。この場合、表示部3の下方にカメラ2が設けられ、カメラ2の側部にキーボード4が設けられ、表示部3の側部にスピーカ5が設けられている。そして、操作部1の上部に照明灯12aが、操作部1の下部に照明灯12bが、操作部1の左側部に照明灯12cが、操作部1の右側部に照明灯12dが、それぞれ配設されている。   FIG. 2 shows a specific example of the external configuration of the operation unit 1 and an arrangement example of the illumination device 12 with respect to the operation unit 1. That is, the camera 2, the display unit 3, the keyboard 4, and the speaker 5 are provided on the front surface of the operation unit 1, respectively. In this case, the camera 2 is provided below the display unit 3, the keyboard 4 is provided on the side of the camera 2, and the speaker 5 is provided on the side of the display unit 3. An illuminating lamp 12a is arranged at the upper part of the operating unit 1, an illuminating lamp 12b is arranged at the lower part of the operating unit 1, an illuminating lamp 12c is arranged at the left side of the operating unit 1, and an illuminating lamp 12d is arranged at the right side of the operating unit 1. It is installed.

次に、上記のような構成において、顔認証処理の基本動作について簡単に説明する。
まず、辞書登録処理について説明する。
本装置の電源オン後、操作部1のキーボード4にて所定の操作を行なうことにより管理者メニューに入る。ここで、新規登録または登録更新メニューを選択し、登録者が操作部1のカメラ2の前に位置する。このとき、登録者は、カメラ2から40cm離れた位置に立ち、カメラ2が取込んだ画像が表示部3に表示され、顔を検知していることを確認する。
Next, the basic operation of the face authentication process in the above configuration will be briefly described.
First, the dictionary registration process will be described.
After the apparatus is turned on, the administrator menu is entered by performing a predetermined operation with the keyboard 4 of the operation unit 1. Here, a new registration or registration update menu is selected, and the registrant is positioned in front of the camera 2 of the operation unit 1. At this time, the registrant stands at a position 40 cm away from the camera 2 and confirms that the image captured by the camera 2 is displayed on the display unit 3 to detect the face.

次に、登録者は、操作部1のキーボード4にて自己のID番号を入力した後、登録を実行する。登録が実行されると、認証処理部15において、入力された顔画像から顔の特徴点を抽出し、その抽出した特徴点を辞書情報として、入力されたID番号と対応させて辞書記憶部16に登録(記憶)する。これで登録処理が終了する。   Next, the registrant inputs his / her ID number with the keyboard 4 of the operation unit 1 and then performs registration. When registration is executed, the authentication processing unit 15 extracts facial feature points from the input face image, and the extracted feature points are used as dictionary information in association with the input ID numbers. Register (memorize). This completes the registration process.

次に、認証処理(照合処理)について説明する。
被認証者(通行者)は、操作部1のキーボード4にて自己のID番号を入力した後、操作部1のカメラ2の前に位置する。このとき、被認証者は、カメラ2から40cm離れた位置に立つ。カメラ2が取込んだ画像により顔を検知した時点で、自動的に認証処理を開始する。
Next, authentication processing (collation processing) will be described.
The person to be authenticated (passerby) is positioned in front of the camera 2 of the operation unit 1 after inputting his / her ID number with the keyboard 4 of the operation unit 1. At this time, the person to be authenticated stands at a position 40 cm away from the camera 2. When the face is detected by the image captured by the camera 2, the authentication process is automatically started.

認証処理が開始されると、認証処理部15において、カメラ2が取込んだ顔画像から特徴点を抽出するとともに、入力されたID番号に対応する辞書情報を辞書記憶部16から選択し、この選択した辞書情報と上記抽出した特徴点とを照合することにより、被認証者が本人であるか否かを認証し、その認証結果を主制御部11へ送る。   When the authentication process is started, the authentication processing unit 15 extracts feature points from the face image captured by the camera 2 and selects dictionary information corresponding to the input ID number from the dictionary storage unit 16. By collating the selected dictionary information with the extracted feature points, it is authenticated whether or not the person to be authenticated is the principal, and the authentication result is sent to the main control unit 11.

主制御部11は、認証処理部15から認証結果を受けると、その認証結果を参照することにより認証成功か否かを判定し、認証成功の場合、すなわち、入力された顔画像と辞書情報とが一致した場合、操作部1のスピーカ5に認証成功の音声案内を出力するとともに、表示部3に認証終了の案内を表示して、ゲート制御部17に開放命令を送る。ゲート制御部17は、主制御部11からの開放命令を受けると、通行ゲート18を開放し、被認証者(通行者)の通行を許可する。   When receiving the authentication result from the authentication processing unit 15, the main control unit 11 determines whether or not the authentication is successful by referring to the authentication result. In the case of the authentication success, that is, the input face image and dictionary information If they match, a voice guidance indicating that the authentication has succeeded is output to the speaker 5 of the operation unit 1, a guidance for the end of authentication is displayed on the display unit 3, and an opening command is sent to the gate control unit 17. When the gate control unit 17 receives the opening command from the main control unit 11, the gate control unit 17 opens the passage gate 18 and allows the person to be authenticated (passerby) to pass.

なお、認証不成功の場合、すなわち、入力された顔画像と辞書情報とが不一致の場合、主制御部11は、通行ゲート18を閉じたままとし、操作部1のスピーカ5に認証不成功の音声案内を出力するとともに、表示部3に認証未終了の案内を表示して、当該認証処理を終了する。   Note that if the authentication is unsuccessful, that is, if the input face image and the dictionary information do not match, the main control unit 11 keeps the passage gate 18 closed and the speaker 5 of the operation unit 1 fails to authenticate. While outputting the voice guidance, the display unit 3 displays guidance that has not been authenticated, and the authentication processing is terminated.

次に、本発明の特徴点でもある環境自己診断制御を中心とした認証動作について説明する。
まず、第1の動作例について図3に示すフローチャートを参照して説明する。第1の動作例は、被認証者がいないときの周囲環境(背景画像の輝度分布)を自己診断により解析し、この自己診断結果が基準値以外のとき自己診断結果が基準値以内となるように周囲環境(たとえば、照明環境)を制御するものである。
Next, an authentication operation centering on environmental self-diagnosis control, which is a feature of the present invention, will be described.
First, a first operation example will be described with reference to the flowchart shown in FIG. In the first operation example, the surrounding environment (luminance distribution of the background image) when there is no person to be authenticated is analyzed by self-diagnosis, and when the self-diagnosis result is other than the reference value, the self-diagnosis result is within the reference value. It controls the surrounding environment (for example, lighting environment).

カメラ2の前(撮影視野内)に被認証者が存在しない待機状態において(ステップS1,S2)、主制御部(環境自己診断手段)11は、あらかじめ定められた所定時間(たとえば、30分)ごとに周囲環境の自己診断を行なう(ステップS3)。
すなわち、被認証者が存在しない待機状態時、カメラ2から背景画像を取得し、この取得した背景画像の輝度分布を解析する。ここに、輝度分布の解析とは、たとえば、カメラ2から取込んだ画像について、各画素の輝度(たとえば、0〜255の256段階の輝度レベル)をそれぞれ求めて、画像全体の平均輝度を計算することであり、この計算した平均輝度を自己診断結果とする。そして、この自己診断結果が基準値以内のとき(事前に行なっている辞書登録時の環境と差異がない)は診断OKとし、自己診断結果が基準値以外(環境が明るすぎる、または暗すぎる)のとき(事前に行なっている辞書登録時の環境と差異が大きい)は診断NGとする。
In a standby state where there is no person to be authenticated in front of the camera 2 (within the field of view) (steps S1 and S2), the main control unit (environmental self-diagnosis means) 11 is set for a predetermined time (for example, 30 minutes). A self-diagnosis of the surrounding environment is performed every time (step S3).
That is, in a standby state where there is no person to be authenticated, a background image is acquired from the camera 2 and the luminance distribution of the acquired background image is analyzed. Here, the analysis of the luminance distribution refers to, for example, obtaining the luminance of each pixel (for example, 256 levels of luminance levels from 0 to 255) for the image captured from the camera 2 and calculating the average luminance of the entire image. The calculated average luminance is used as the self-diagnosis result. When the self-diagnosis result is within the reference value (no difference from the environment at the time of dictionary registration performed in advance), the diagnosis is OK, and the self-diagnosis result is other than the reference value (the environment is too bright or too dark). In this case (the difference from the environment at the time of dictionary registration performed in advance is large), the diagnosis is NG.

ステップS3の環境自己診断において診断OKの場合はステップS1の待機状態に戻り、次の自己診断動作に備え、診断NGの場合は照度安定化処理を行ない(ステップS4)、その後、ステップS1の待機状態に戻り、次の自己診断動作に備える。
以上の動作を例えば30分ごとに繰り返し行なう。これら一連の処理によって、認証処理以前に周囲環境を整えることが可能である。
If the diagnosis is OK in the environmental self-diagnosis in step S3, the process returns to the standby state in step S1, and in preparation for the next self-diagnosis operation, the illuminance stabilization process is performed in the case of diagnosis NG (step S4), and then the standby in step S1. Return to the state and prepare for the next self-diagnosis operation.
The above operation is repeated every 30 minutes, for example. With this series of processing, it is possible to prepare the surrounding environment before the authentication processing.

ここに、照度安定化処理には以下のようなものが考えられる。
1.照明、周囲照度変動要素の制御による周囲環境の安定化
・操作部1の周囲に設置されている照明灯12a,12b,12c,12dと連動させ、輝度分布の解析結果が基準値以内となるように制御する。たとえば、照明環境が明るすぎると診断された場合は照明灯12a,12b,12c,12dを暗くし、照明環境が暗すぎると診断された場合は照明灯12a,12b,12c,12dを明るくする。
・窓からの光入射は周囲環境の変動要因となるので、カーテンなどの遮光装置と連動させ、輝度分布の解析結果が基準値以内となるように制御する。
・照明装置12と遮光装置の双方を使用して、輝度分布の解析結果が基準値以内となるように制御する。
2.ガイダンスによる被認証者への警告
・輝度分布の解析結果と基準値との差異が小さいときは直接、被認証者へガイダンスを表示し、周囲環境基準化を促す。
・輝度分布の解析結果が基準値から外れたときは、システム管理者へガイダンスを発信し、事前に周囲環境基準化を促し、認証時のトラブル発生を防止する。
Here, the following can be considered for the illuminance stabilization processing.
1. Stabilize the surrounding environment by controlling lighting and ambient light fluctuation factors
Control in conjunction with the illumination lamps 12a, 12b, 12c, 12d installed around the operation unit 1 so that the analysis result of the luminance distribution is within the reference value. For example, when it is diagnosed that the lighting environment is too bright, the lighting lamps 12a, 12b, 12c, and 12d are dimmed, and when it is diagnosed that the lighting environment is too dark, the lighting lights 12a, 12b, 12c, and 12d are brightened.
-Since light incidence from the window causes fluctuations in the surrounding environment, control is performed so that the analysis result of the luminance distribution is within the reference value in conjunction with a light shielding device such as a curtain.
Using both the illumination device 12 and the light shielding device, control is performed so that the analysis result of the luminance distribution is within the reference value.
2. Warning to the person to be authenticated by guidance
・ When the difference between the luminance distribution analysis result and the reference value is small, the guidance is directly displayed to the person to be authenticated to promote standardization of the surrounding environment.
・ If the analysis result of the brightness distribution deviates from the standard value, a guidance is sent to the system administrator to promote standardization of the surrounding environment in advance and prevent troubles during authentication.

さて、待機状態において(ステップS1)、被認証者を検知すると(カメラ2から取込んだ画像に対して顔検知したとき、ステップS2)、認証処理部15は認証処理(照合処理)を行なう(ステップS5)。この認証処理については既に説明しているので説明は省略する。   Now, in the standby state (step S1), when a person to be authenticated is detected (when a face is detected for an image captured from the camera 2) (step S2), the authentication processing unit 15 performs an authentication process (collation process) ( Step S5). Since this authentication process has already been described, a description thereof will be omitted.

認証処理が終了すると、主制御部11は、その認証結果に基づく処理を行ない(ステップS6)、ステップS1の待機状態に戻る。認証結果に基づく処理とは、たとえば、前述したように、認証結果が認証成功の場合は通行ゲート18を開放し、認証結果が認証不成功の場合は通行ゲート18を閉じたままとする。   When the authentication process ends, the main control unit 11 performs a process based on the authentication result (step S6), and returns to the standby state of step S1. The processing based on the authentication result is, for example, as described above, when the authentication result is successful, the pass gate 18 is opened, and when the authentication result is unsuccessful, the pass gate 18 is kept closed.

次に、第2の動作例について図4に示すフローチャートを参照して説明する。第2の動作例は、被認証者がいないときの周囲環境(背景画像の輝度分布)を自己診断により解析し、この自己診断結果に基づき照合画像補正用パラメータを設定し、認証処理時、この設定されたパラメータに基づき入力顔画像に対し輝度補正を施すものである。   Next, a second operation example will be described with reference to the flowchart shown in FIG. In the second operation example, the surrounding environment (luminance distribution of the background image) when there is no person to be authenticated is analyzed by self-diagnosis, and the verification image correction parameter is set based on the self-diagnosis result. Luminance correction is performed on the input face image based on the set parameters.

カメラ2の前(撮影視野内)に被認証者が存在しない待機状態において(ステップS11,S12)、主制御部11は、あらかじめ定められた所定時間(たとえば、30分)ごとに周囲環境の自己診断を行なう(ステップS13)。
すなわち、被認証者が存在しない待機状態時、カメラ2から背景画像を取得し、この取得した背景画像の輝度分布を解析する。ここに、輝度分布の解析とは、たとえば、カメラ2から取込んだ画像について、各画素の輝度(たとえば、0〜255の256段階の輝度レベル)をそれぞれ求めて、画像全体の平均輝度を計算することであり、この計算した平均輝度を自己診断結果とする。
In a standby state in which there is no person to be authenticated in front of the camera 2 (within the field of view) (steps S11 and S12), the main control unit 11 performs self-regulation of the surrounding environment every predetermined time (for example, 30 minutes). Diagnosis is performed (step S13).
That is, in a standby state where there is no person to be authenticated, a background image is acquired from the camera 2 and the luminance distribution of the acquired background image is analyzed. Here, the analysis of the luminance distribution refers to, for example, obtaining the luminance of each pixel (for example, 256 levels of luminance levels from 0 to 255) for the image taken from the camera 2 and calculating the average luminance of the entire image. The calculated average luminance is used as the self-diagnosis result.

次に、この自己診断結果に基づき照合画像補正用パラメータを設定する(ステップS14)。たとえば、照合画像補正用パラメータを「0〜10」の11段階としておき、自己診断結果が基準値以内の標準の明るさであるとき(事前に行なっている辞書登録時の環境と差異がない)は照合画像補正用パラメータを「5」に設定し、自己診断結果が基準値以外(事前に行なっている辞書登録時の環境と差異が大きい)で環境が明るすぎる場合は照合画像補正用パラメータを当該自己診断結果に応じた「0〜4」の値に設定し、環境が暗すぎる場合は照合画像補正用パラメータを当該自己診断結果に応じた「6〜10」の値に設定する。
こうして、照合画像補正用パラメータを設定すると、ステップS11の待機状態に戻り、次の自己診断動作に備える。
Next, a collation image correction parameter is set based on the self-diagnosis result (step S14). For example, the collation image correction parameter is set to 11 levels of “0 to 10”, and the self-diagnosis result is a standard brightness within a reference value (there is no difference from the environment at the time of dictionary registration performed in advance). Sets the collation image correction parameter to “5”, and if the self-diagnosis result is other than the reference value (the difference is large from the environment at the time of dictionary registration performed in advance) and the environment is too bright, the collation image correction parameter is set. The value is set to “0 to 4” corresponding to the self-diagnosis result. If the environment is too dark, the collation image correction parameter is set to the value “6 to 10” corresponding to the self-diagnosis result.
When the collation image correction parameters are thus set, the process returns to the standby state in step S11 to prepare for the next self-diagnosis operation.

さて、待機状態において(ステップS11)、被認証者を検知すると(カメラ2から取込んだ画像に対して顔検知したとき、ステップS12)、認証処理部15は認証処理(照合処理)を行なう(ステップS15)。この場合、カメラ2が取込んだ顔画像に対し、ステップS14において設定された照合画像補正用パラメータに基づき補正処理を施し、補正処理した後の顔画像から特徴点を抽出するとともに、入力されたID番号に対応する辞書情報を辞書記憶部16から選択し、この選択した辞書情報と上記抽出した特徴点とを照合することにより、被認証者が本人であるか否かを認証する。   Now, in the standby state (step S11), when the person to be authenticated is detected (when a face is detected for the image captured from the camera 2) (step S12), the authentication processing unit 15 performs an authentication process (collation process) ( Step S15). In this case, the face image captured by the camera 2 is subjected to correction processing based on the collation image correction parameters set in step S14, and feature points are extracted from the corrected face image and input. The dictionary information corresponding to the ID number is selected from the dictionary storage unit 16, and the selected dictionary information is compared with the extracted feature points to authenticate whether the person to be authenticated is the person himself / herself.

たとえば、照合画像補正用パラメータが「10」に設定されていた場合、カメラ2のゲインを通常値よりもアップさせることで、全体を明るくした顔画像を取込み、辞書情報との照合を行なう。また、照合画像補正用パラメータが「1」に設定されていた場合、カメラ2のゲインを通常値よりもダウンさせることで、全体を暗くした顔画像を取込み、辞書情報との照合を行なう。なお、照合画像補正用パラメータが「5」に設定されていた場合、補正処理は行なわない。   For example, when the collation image correction parameter is set to “10”, the face image brightened as a whole is acquired by increasing the gain of the camera 2 above the normal value, and collation with dictionary information is performed. When the collation image correction parameter is set to “1”, the face image darkened as a whole is taken in by reducing the gain of the camera 2 below the normal value, and collation with dictionary information is performed. When the collation image correction parameter is set to “5”, the correction process is not performed.

認証処理が終了すると、主制御部11は、その認証結果に基づく処理を行ない(ステップS16)、ステップS11の待機状態に戻る。認証結果に基づく処理とは、たとえば、前述したように、認証結果が認証成功の場合は通行ゲート18を開放し、認証結果が認証不成功の場合は通行ゲート18を閉じたままとする。   When the authentication process ends, the main control unit 11 performs a process based on the authentication result (step S16), and returns to the standby state of step S11. The processing based on the authentication result is, for example, as described above, when the authentication result is successful, the pass gate 18 is opened, and when the authentication result is unsuccessful, the pass gate 18 is kept closed.

次に、第3の動作例について図4に示すフローチャートを参照して説明する。第3の動作例は、被認証者がいないときの周囲環境(背景画像の輝度分布)を自己診断により解析し、この自己診断結果の一定期間における統計的分布データを作成し、認証処理時、この統計的分布データを参照することにより周囲環境(たとえば、照明環境)を制御するものである。   Next, a third operation example will be described with reference to the flowchart shown in FIG. In the third operation example, the surrounding environment (luminance distribution of the background image) when there is no person to be authenticated is analyzed by self-diagnosis, and statistical distribution data for a certain period of the self-diagnosis result is created. The ambient environment (for example, lighting environment) is controlled by referring to the statistical distribution data.

カメラ2の前(撮影視野内)に被認証者が存在しない待機状態において(ステップS21,S22)、主制御部11は、あらかじめ定められた所定時間(たとえば、30分)ごとに周囲環境の自己診断を行なう(ステップS23)。
すなわち、被認証者が存在しない待機状態時、カメラ2から背景画像を取得し、この取得した背景画像の輝度分布を解析する。ここに、輝度分布の解析とは、たとえば、カメラ2から取込んだ画像について、各画素の輝度(たとえば、0〜255の256段階の輝度レベル)をそれぞれ求めて、画像全体の平均輝度を計算することであり、この計算した平均輝度を自己診断結果とする。
In a standby state where there is no person to be authenticated in front of the camera 2 (within the field of view) (steps S21 and S22), the main control unit 11 performs self-regulation of the surrounding environment every predetermined time (for example, 30 minutes). Diagnosis is performed (step S23).
That is, in a standby state where there is no person to be authenticated, a background image is acquired from the camera 2 and the luminance distribution of the acquired background image is analyzed. Here, the analysis of the luminance distribution refers to, for example, obtaining the luminance of each pixel (for example, 256 levels of luminance levels from 0 to 255) for the image taken from the camera 2 and calculating the average luminance of the entire image. The calculated average luminance is used as the self-diagnosis result.

次に、この自己診断結果に基づき、一定期間における統計的分布データ(データベース)を作成(更新)する(ステップS24)。たとえば、環境補正用パラメータを「0〜10」の11段階としておき、自己診断結果が基準値以内の標準の明るさであるとき(事前に行なっている辞書登録時の環境と差異がない)は環境補正用パラメータを「5」に設定し、自己診断結果が基準値以外(事前に行なっている辞書登録時の環境と差異が大きい)で環境が明るすぎる場合は環境補正用パラメータを当該自己診断結果に応じた「0〜4」の値に設定し、環境が暗すぎる場合は環境補正用パラメータを当該自己診断結果に応じた「6〜10」の値に設定する。   Next, based on the self-diagnosis result, statistical distribution data (database) for a certain period is created (updated) (step S24). For example, when the environmental correction parameter is set to 11 levels of “0 to 10” and the self-diagnosis result is a standard brightness within the reference value (there is no difference from the environment at the time of dictionary registration performed in advance). If the environment correction parameter is set to “5” and the environment is too bright because the self-diagnosis result is other than the reference value (large difference from the environment at the time of dictionary registration performed in advance), the environment correction parameter is The value is set to “0 to 4” according to the result. When the environment is too dark, the environment correction parameter is set to the value “6 to 10” according to the self-diagnosis result.

このような環境補正用パラメータを基に図6に示すようなデータベースを作成する。図6の例では、1日が3時間ごとのデータとなっていて、3時間のデータは6個(30分ごとに自己診断を行なうので、3×2=6)のデータの平均値となっている。たとえば、現在、8月9日の16時だった場合、自己診断結果に基づき図6の斜線部分aが更新される(15:00〜16:00までのデータの平均値を上書きする)。   A database as shown in FIG. 6 is created based on such environmental correction parameters. In the example of FIG. 6, one day is data every 3 hours, and the data for 3 hours is an average value of 6 data (3 × 2 = 6 because self-diagnosis is performed every 30 minutes). ing. For example, if it is currently 16:00 on August 9, the hatched portion a in FIG. 6 is updated based on the self-diagnosis result (overwriting the average value of data from 15:00 to 16:00).

また、図6に示すデータベースの平均値の欄bは、3時間ごとのデータの全日分の平均値が格納されていて、この欄bのデータが認証処理時に参照される。このようなデータベースを作成することにより、1日の各時間帯における照明環境を知ることができる。
こうして、一定期間における統計的分布データ(データベース)を作成(更新)すると、ステップS21の待機状態に戻り、次の自己診断動作に備える。
Further, the average value column b of the database shown in FIG. 6 stores the average value of all the data for every three hours, and the data in this column b is referred to during the authentication process. By creating such a database, it is possible to know the lighting environment in each time zone of the day.
Thus, when statistical distribution data (database) for a certain period is created (updated), the process returns to the standby state in step S21 to prepare for the next self-diagnosis operation.

さて、待機状態において(ステップS21)、被認証者を検知すると(カメラ2から取込んだ画像に対して顔検知したとき、ステップS22)、認証処理部15は認証処理(照合処理)を行なう(ステップS25)。この場合、まず、ステップS24において作成されたデータベースの現在の時間と対応するパラメータを参照することにより照明環境を制御する。   Now, in the standby state (step S21), when a person to be authenticated is detected (when a face is detected for an image captured from the camera 2) (step S22), the authentication processing unit 15 performs an authentication process (collation process) ( Step S25). In this case, first, the illumination environment is controlled by referring to a parameter corresponding to the current time of the database created in step S24.

すなわち、たとえば、現在、9月5日の9時だった場合、図6のデータベースにおいて、平均値欄bの9時が含まれる時間帯(6:00〜9:00)に対応する平均値cを参照する。参照した平均値cが「0〜4」であった場合は照明灯12a,12b,12c,12dを暗くし、参照した平均値cが「5」であった場合は照明灯12a,12b,12c,12dを標準の明るさにし、参照した平均値cが「6〜10」であった場合は照明灯12a,12b,12c,12dを明るくする。   That is, for example, if it is currently 9 o'clock on September 5, the average value c corresponding to the time zone (6: 00 to 9:00) including 9 o'clock in the average value column b in the database of FIG. Refer to When the referenced average value c is “0-4”, the lighting lamps 12a, 12b, 12c, 12d are darkened, and when the referenced average value c is “5”, the lighting lamps 12a, 12b, 12c are darkened. , 12d is set to the standard brightness, and when the average value c referred to is “6 to 10”, the illumination lamps 12a, 12b, 12c, 12d are brightened.

こうして、照明環境を制御した後、カメラ2から顔画像を取込み、この取込んだ顔画像から特徴点を抽出するとともに、入力されたID番号に対応する辞書情報を辞書記憶部16から選択し、この選択した辞書情報と上記抽出した特徴点とを照合することにより、被認証者が本人であるか否かを認証する。   In this way, after controlling the lighting environment, the face image is captured from the camera 2, the feature points are extracted from the captured face image, and dictionary information corresponding to the input ID number is selected from the dictionary storage unit 16, By comparing the selected dictionary information with the extracted feature points, it is authenticated whether or not the person to be authenticated is the person himself / herself.

認証処理が終了すると、主制御部11は、その認証結果に基づく処理を行ない(ステップS26)、ステップS21の待機状態に戻る。認証結果に基づく処理とは、たとえば、前述したように、認証結果が認証成功の場合は通行ゲート18を開放し、認証結果が認証不成功の場合は通行ゲート18を閉じたままとする。   When the authentication process ends, the main control unit 11 performs a process based on the authentication result (step S26), and returns to the standby state of step S21. The processing based on the authentication result is, for example, as described above, when the authentication result is successful, the pass gate 18 is opened, and when the authentication result is unsuccessful, the pass gate 18 is kept closed.

なお、上記第3の動作例では、周囲環境の制御として照明環境(照明灯12a,12b,12c,12dの明るさ)を制御する場合について説明したが、その他に以下のような制御も考えられる。   In the third operation example, the case where the illumination environment (the brightness of the illumination lights 12a, 12b, 12c, and 12d) is controlled as the control of the surrounding environment has been described, but the following control is also conceivable. .

1.照明、周囲照度変動要素の制御による周囲環境の安定化
・窓からの光入射は周囲環境の変動要因となるので、カーテンなどの遮光装置と連動させ、輝度分布の解析結果が基準値以内となるように制御する。
・照明装置12と遮光装置の双方を使用して、輝度分布の解析結果が基準値以内となるように制御する。
2.ガイダンスによる被認証者への警告
・データベースのパラメータが標準値に近いとき(たとえば、図6で示したような標準値を「5」としたときの「4」や「6」の状態)、直接、被認証者へガイダンスを発信し、周囲環境基準化を促す。
・データベースのパラメータが標準値から大きく外れとき(たとえば、図6で示したような標準値を「5」としたときの「0」や「10」の状態)、システム管理者へガイダンスを発信し、事前に周囲環境基準化を促し、認証時のトラブル発生を防止する。
1. Stabilize the surrounding environment by controlling lighting and ambient light fluctuation factors
-Since light incidence from the window causes fluctuations in the surrounding environment, control is performed so that the analysis result of the luminance distribution is within the reference value in conjunction with a light shielding device such as a curtain.
Using both the illumination device 12 and the light shielding device, control is performed so that the analysis result of the luminance distribution is within the reference value.
2. Warning to the person to be authenticated by guidance
・ When database parameters are close to standard values (for example, “4” or “6” when the standard value is “5” as shown in FIG. 6), the guidance is directly sent to the person to be authenticated. And promote environmental standardization.
-When the database parameter deviates significantly from the standard value (for example, “0” or “10” when the standard value is “5” as shown in FIG. 6), guidance is sent to the system administrator. Promote standardization of the surrounding environment in advance and prevent troubles during certification.

次に、第4の動作例について説明する。第4の動作例は、被認証者がいないときの周囲環境(背景画像の輝度分布)を自己診断により解析し、この自己診断結果の一定期間における統計的分布データを作成し、認証処理時、この統計的分布データを参照することにより入力顔画像に対し輝度補正を施すものである。   Next, a fourth operation example will be described. In the fourth operation example, the surrounding environment (luminance distribution of the background image) when there is no person to be authenticated is analyzed by self-diagnosis, and statistical distribution data for a certain period of the self-diagnosis result is created. By referring to this statistical distribution data, luminance correction is performed on the input face image.

すなわち、第4の動作例は、上述した第3の動作例とは図5におけるステップS25の認証処理が異なるだけで、その他の動作は第3の動作例と同様であるので、異なる認証処理についてだけ以下に説明する。   That is, the fourth operation example is different from the above-described third operation example only in the authentication process in step S25 in FIG. 5, and the other operations are the same as the third operation example. Only described below.

この動作例の場合、まず、ステップS24において作成されたデータベースの現在の時間と対応するパラメータを参照することにより入力顔画像に対し輝度補正を施す。すなわち、たとえば、現在、9月5日の9時だった場合、図6のデータベースにおいて、平均値欄bの9時が含まれる時間帯(6:00〜9:00)に対応する平均値cを参照する。参照した平均値cが「0〜4」であった場合はカメラ2のゲインを通常値よりもダウンさせることで、全体を暗くした顔画像を取込み、参照した平均値cが「5」であった場合はカメラ2のゲインを通常値にし、参照した平均値cが「6〜10」であった場合はカメラ2のゲインを通常値よりもアップさせることで、全体を明るくした顔画像を取込む。   In the case of this operation example, first, luminance correction is performed on the input face image by referring to a parameter corresponding to the current time of the database created in step S24. That is, for example, if it is currently 9 o'clock on September 5, the average value c corresponding to the time zone (6: 00 to 9:00) including 9 o'clock in the average value column b in the database of FIG. Refer to If the referenced average value c is “0 to 4”, the face image darkened as a whole is captured by lowering the gain of the camera 2 below the normal value, and the referenced average value c is “5”. If the average value c of the camera 2 is “6 to 10”, the gain of the camera 2 is increased above the normal value, so that a face image with a bright overall image is taken. Include.

こうして、輝度補正を施した後、カメラ2から顔画像を取込み、この取込んだ顔画像から特徴点を抽出するとともに、入力されたID番号に対応する辞書情報を辞書記憶部16から選択し、この選択した辞書情報と上記抽出した特徴点とを照合することにより、被認証者が本人であるか否かを認証する。   In this way, after performing the brightness correction, the face image is taken from the camera 2, the feature point is extracted from the taken face image, and dictionary information corresponding to the input ID number is selected from the dictionary storage unit 16, By comparing the selected dictionary information with the extracted feature points, it is authenticated whether or not the person to be authenticated is the person himself / herself.

なお、上記第1〜第4の動作例では、環境自己診断として画像全体の平均輝度を求めたが、この外に、たとえば、白飛び、黒つぶれの領域診断でもよい。すなわち、カメラ2から取込んだ画像について、各画素の輝度(たとえば、0〜255の256段階の輝度レベル)をそれぞれ求める。そして、黒つぶれ領域(たとえば、輝度レベルが「5」以下の画素を黒つぶれとする)と白飛び領域(たとえば、輝度レベルが「250」以上の画素を白飛びとする)を抽出し、それを自己診断結果とする。   In the first to fourth operation examples, the average luminance of the entire image is obtained as the environmental self-diagnosis. However, other than this, for example, whiteout or blackout area diagnosis may be performed. That is, for the image captured from the camera 2, the brightness of each pixel (for example, 256 levels of brightness levels from 0 to 255) is obtained. Then, a blackout area (for example, a pixel whose luminance level is “5” or lower is blackened) and a whiteout area (for example, a pixel whose luminance level is “250” or higher is whitened) are extracted. Is the self-diagnosis result.

この自己診断結果が基準値以内のとき(白飛び、黒つぶれ領域がない、または少ないとき)は診断OKとし、上記自己診断結果が基準値以外のとき(白飛びがあるとき、または一定値以上の割合があるとき/黒つぶれがあるとき、または一定値以上の割合があるとき)は診断NGとする。たとえば、画像全体に対して、白飛び(黒つぶれ)が5%以下のときは診断OKとし、5%を超えるときは診断NGとする。その理由は、全体的に環境が適当でない場合もあるだろうし、白飛びについて言えば、予期していない強いスポット光がカメラに入射したときなども診断NGとなる。   When this self-diagnosis result is within the reference value (when whiteout, no blackout area is small or small), the diagnosis is OK, and when the above self-diagnosis result is other than the standard value (when whiteout is present or above a certain value) (When there is a ratio of black / blackout or when there is a ratio of a certain value or more), the diagnosis is NG. For example, when the overexposure (blackout) is 5% or less for the entire image, the diagnosis is OK, and when it exceeds 5%, the diagnosis is NG. The reason may be that the environment may not be appropriate as a whole, and in terms of overexposure, the diagnosis is NG even when an unexpectedly strong spotlight is incident on the camera.

また、前述した画像全体の平均輝度による診断と上述した白飛び、黒つぶれの領域診断とを組合わせた診断も実現可能である。
さらに、画像全体の平均輝度による診断と上述した白飛び、黒つぶれの領域診断のいずれにおいても、画像全体ではなく、特定部分(たとえば、顔画像が存在するであろうと予想される画像の中心部付近の領域)についてだけ自己診断することも可能である。
It is also possible to implement a diagnosis that combines the above-described diagnosis based on the average brightness of the entire image and the above-described diagnosis of overexposure / blackout area.
Furthermore, in both the diagnosis based on the average luminance of the entire image and the above-described whiteout / blackout area diagnosis, a specific portion (for example, a central portion of an image where a face image is expected to be present) is expected. It is also possible to make a self-diagnosis only for a nearby area.

本発明の実施の形態に係る顔認証装置を用いた通行制御装置の構成を概略的に示すブロック図。The block diagram which shows schematically the structure of the traffic control apparatus using the face authentication apparatus which concerns on embodiment of this invention. 操作部の外観構成および操作部に対する照明装置の配置例の具体例を示す正面図。The front view which shows the specific example of the external appearance structure of an operation part, and the example of arrangement | positioning of the illuminating device with respect to an operation part. 第1の動作例について説明するフローチャート。The flowchart explaining a 1st operation example. 第2の動作例について説明するフローチャート。The flowchart explaining a 2nd operation example. 第3の動作例について説明するフローチャート。The flowchart explaining the 3rd operation example. 自己診断結果の一定期間における統計的分布データ(データベース)の一例を示す図。The figure which shows an example of the statistical distribution data (database) in the fixed period of a self-diagnosis result.

符号の説明Explanation of symbols

1…操作部、2…ビデオカメラ(画像入力手段)、3…表示部(案内手段)、4…キーボード(入力手段)、5…スピーカ(音声案内手段)、6…制御部、7…カメラ制御部、11…主制御部(制御手段、環境自己診断手段)、12…照明装置(照明手段)、13…照明制御部、14…メモリ(記憶手段)、15…認証処理部(認証手段)、16…辞書記憶部(辞書記憶手段)、17…ゲート制御部(通行制御手段)、18…通行ゲート(通行制御手段)。   DESCRIPTION OF SYMBOLS 1 ... Operation part, 2 ... Video camera (image input means), 3 ... Display part (guidance means), 4 ... Keyboard (input means), 5 ... Speaker (voice guidance means), 6 ... Control part, 7 ... Camera control 11, main control unit (control unit, environmental self-diagnosis unit), 12 illuminating device (illuminating unit), 13 illuminating control unit, 14 memory (storage unit), 15 authentication processing unit (authentication unit), 16... Dictionary storage unit (dictionary storage unit), 17... Gate control unit (passage control unit), 18.

Claims (10)

被認証者と対向するよう設置され、少なくとも被認証者の顔画像を撮像して入力する画像入力手段と、
この画像入力手段により入力された顔画像とあらかじめ登録された辞書情報とを照合することにより当該被認証者が本人であるか否かを認証する認証手段と、
前記画像入力手段の撮像視野内に被認証者が存在しないとき、所定時間ごとに少なくとも当該撮影視野内における周囲環境を自己診断により解析する環境自己診断手段と、
この環境自己診断手段の自己診断結果が基準値以外のとき、その自己診断結果に基づき当該自己診断結果が基準値以内となるように前記周囲環境を制御する環境制御手段と、
を具備したことを特徴とする顔認証装置。
An image input means that is installed to face the person to be authenticated and captures and inputs at least a face image of the person to be authenticated;
Authentication means for authenticating whether or not the person to be authenticated is the principal by collating the face image input by the image input means with dictionary information registered in advance;
When there is no person to be authenticated in the imaging field of view of the image input unit, environmental self-diagnosis unit that analyzes at least the surrounding environment in the imaging field of view by self-diagnosis every predetermined time;
When the self-diagnosis result of the environmental self-diagnosis means is other than the reference value, the environment control means for controlling the surrounding environment based on the self-diagnosis result so that the self-diagnosis result is within the reference value;
A face authentication apparatus comprising:
被認証者と対向するよう設置され、少なくとも被認証者の顔画像を撮像して入力する画像入力手段と、
この画像入力手段により入力された顔画像とあらかじめ登録された辞書情報とを照合することにより当該被認証者が本人であるか否かを認証する認証手段と、
前記画像入力手段の撮像視野内に被認証者が存在しないとき、所定時間ごとに少なくとも当該撮影視野内における周囲環境を自己診断により解析する環境自己診断手段と、
この環境自己診断手段の自己診断結果に基づき照合画像補正用パラメータを設定するパラメータ設定手段と、
前記認証手段における認証処理時、前記画像入力手段により入力される顔画像に対し前記パラメータ設定手段により設定されたパラメータに基づき輝度補正を施す画像補正手段と、
を具備したことを特徴とする顔認証装置。
An image input means that is installed to face the person to be authenticated and captures and inputs at least a face image of the person to be authenticated;
Authentication means for authenticating whether or not the person to be authenticated is the principal by collating the face image input by the image input means with dictionary information registered in advance;
When there is no person to be authenticated in the imaging field of view of the image input unit, environmental self-diagnosis unit that analyzes at least the surrounding environment in the imaging field of view by self-diagnosis every predetermined time;
Parameter setting means for setting a parameter for collation image correction based on the self-diagnosis result of the environmental self-diagnosis means;
An image correction unit for performing luminance correction on the face image input by the image input unit based on the parameter set by the parameter setting unit during the authentication process in the authentication unit;
A face authentication apparatus comprising:
被認証者と対向するよう設置され、少なくとも被認証者の顔画像を撮像して入力する画像入力手段と、
この画像入力手段により入力された顔画像とあらかじめ登録された辞書情報とを照合することにより当該被認証者が本人であるか否かを認証する認証手段と、
前記画像入力手段の撮像視野内に被認証者が存在しないとき、所定時間ごとに少なくとも当該撮影視野内における周囲環境を自己診断により解析する環境自己診断手段と、
この環境自己診断手段の自己診断結果に基づき、当該環境自己診断手段により自己診断を行なった日および自己診断を行なった時間ごとに環境補正用パラメータを設定してなる環境データベースを作成するデータベース作成手段と、
前記認証手段における認証処理時、前記データベース作成手段により作成された環境データベースの現在の日付および時間と対応するパラメータを参照することにより、前記画像入力手段から最適な顔画像が得られるように前記周囲環境を制御する環境制御手段と、
を具備したことを特徴とする顔認証装置。
An image input means that is installed to face the person to be authenticated and captures and inputs at least a face image of the person to be authenticated;
Authentication means for authenticating whether or not the person to be authenticated is the principal by collating the face image input by the image input means with dictionary information registered in advance;
When there is no person to be authenticated in the imaging field of view of the image input unit, environmental self-diagnosis unit that analyzes at least the surrounding environment in the imaging field of view by self-diagnosis every predetermined time;
Based on the self-diagnosis result of the environmental self-diagnosis means, a database creation means for creating an environment database in which environmental correction parameters are set for each day of self-diagnosis by the environmental self-diagnosis means and every time the self-diagnosis is performed When,
By referring to parameters corresponding to the current date and time of the environment database created by the database creation means during the authentication process in the authentication means, the surroundings so that an optimal face image can be obtained from the image input means Environmental control means for controlling the environment;
A face authentication apparatus comprising:
前記画像入力手段による被認証者の顔の撮影時に当該被認証者の少なくとも顔部分を照明する照明手段をさらに具備し、
前記環境制御手段は、前記データベース作成手段により作成された環境データベースの現在の日付および時間と対応するパラメータを参照することにより、適正な照明環境が得られるように前記照明手段を制御することを特徴とする請求項3記載の顔認証装置。
Further comprising illumination means for illuminating at least the face portion of the person to be authenticated when photographing the face of the person to be authenticated by the image input means;
The environment control means controls the lighting means so as to obtain an appropriate lighting environment by referring to parameters corresponding to the current date and time of the environment database created by the database creating means. The face authentication apparatus according to claim 3.
被認証者と対向するよう設置され、少なくとも被認証者の顔画像を撮像して入力する画像入力手段と、
この画像入力手段により入力された顔画像とあらかじめ登録された辞書情報とを照合することにより当該被認証者が本人であるか否かを認証する認証手段と、
前記画像入力手段の撮像視野内に被認証者が存在しないとき、所定時間ごとに少なくとも当該撮影視野内における周囲環境を自己診断により解析する環境自己診断手段と、
この環境自己診断手段の自己診断結果に基づき、当該自己診断結果の一定期間における統計的分布データを作成する統計的分布データ作成手段と、
前記認証手段における認証処理時、前記統計的分布データ作成手段により作成された統計的分布データを参照することにより前記画像入力手段により入力される顔画像に対し輝度補正を施す画像補正手段と、
を具備したことを特徴とする顔認証装置。
An image input means that is installed to face the person to be authenticated and captures and inputs at least a face image of the person to be authenticated;
Authentication means for authenticating whether or not the person to be authenticated is the principal by collating the face image input by the image input means with dictionary information registered in advance;
When there is no person to be authenticated in the imaging field of view of the image input unit, environmental self-diagnosis unit that analyzes at least the surrounding environment in the imaging field of view by self-diagnosis every predetermined time;
Statistical distribution data creating means for creating statistical distribution data for a certain period of the self-diagnosis result based on the self-diagnosis result of the environmental self-diagnosis means;
An image correction unit for performing luminance correction on the face image input by the image input unit by referring to the statistical distribution data generated by the statistical distribution data generation unit during the authentication process in the authentication unit;
A face authentication apparatus comprising:
前記環境自己診断手段は、前記画像入力手段の撮像視野内に被認証者が存在しないとき、所定時間ごとに前記画像入力手段から背景画像を取得し、この所定時間ごとに取得した背景画像の輝度分布を解析することを特徴とする請求項1,2,3,5のうちいずれかに記載の顔認証装置。   The environmental self-diagnosis unit acquires a background image from the image input unit every predetermined time when there is no person to be authenticated within the imaging field of view of the image input unit, and the brightness of the background image acquired every predetermined time 6. The face authentication apparatus according to claim 1, wherein the distribution is analyzed. 前記環境自己診断手段は、前記画像入力手段の近傍に設置された照度計の出力に基づき、前記画像入力手段の撮像視野内に被認証者が存在しないとき、所定時間ごとに当該画像入力手段の近傍における照度分布を解析することを特徴とする請求項1,2,3,5のうちいずれかに記載の顔認証装置。   The environmental self-diagnosis means is based on the output of an illuminometer installed in the vicinity of the image input means, and when there is no person to be authenticated in the imaging field of view of the image input means, the image input means The face authentication apparatus according to claim 1, wherein an illuminance distribution in the vicinity is analyzed. 前記画像入力手段による被認証者の顔の撮影時に当該被認証者の少なくとも顔部分を照明する照明手段をさらに具備し、
前記環境制御手段は、前記環境自己診断手段の自己診断結果が基準値以外のとき、当該自己診断結果に基づき適正な照明環境が得られるように前記照明手段を制御することを特徴とする請求項6または請求項7記載の顔認証装置。
Further comprising illumination means for illuminating at least the face portion of the person to be authenticated when photographing the face of the person to be authenticated by the image input means;
The environment control means controls the illumination means so that an appropriate lighting environment is obtained based on the self-diagnosis result when the self-diagnosis result of the environment self-diagnosis means is other than a reference value. The face authentication apparatus according to claim 6 or 7.
通行者と対向するよう設置され、少なくとも通行者の顔画像を撮像して入力する画像入力手段と、
この画像入力手段により入力された顔画像とあらかじめ登録された辞書情報とを照合することにより当該通行者が本人であるか否かを認証する認証手段と、
この認証手段の認証結果に応じて当該通行者の通行を制御する通行制御手段と、
前記画像入力手段の撮像視野内に通行者が存在しないとき、所定時間ごとに少なくとも当該撮影視野内における周囲環境を自己診断により解析する環境自己診断手段と、
この環境自己診断手段の自己診断結果が基準値以外のとき、その自己診断結果に基づき当該自己診断結果が基準値以内となるように前記周囲環境を制御する環境制御手段と、
を具備したことを特徴とする通行制御装置。
An image input means that is installed to face the passerby and captures and inputs at least a passer's face image;
Authentication means for authenticating whether or not the passerby is the person by comparing the face image input by the image input means with dictionary information registered in advance;
A passage control means for controlling the passage of the passer according to the authentication result of the authentication means;
When there is no passerby in the imaging field of view of the image input unit, environmental self-diagnosis unit that analyzes at least the surrounding environment in the imaging field of view by self-diagnosis every predetermined time;
When the self-diagnosis result of the environmental self-diagnosis means is other than the reference value, the environment control means for controlling the surrounding environment based on the self-diagnosis result so that the self-diagnosis result is within the reference value;
A traffic control device comprising:
通行者と対向するよう設置され、少なくとも通行者の顔画像を撮像して入力する画像入力手段と、
この画像入力手段により入力された顔画像とあらかじめ登録された辞書情報とを照合することにより当該通行者が本人であるか否かを認証する認証手段と、
この認証手段の認証結果に応じて当該通行者の通行を制御する通行制御手段と、
前記画像入力手段の撮像視野内に通行者が存在しないとき、所定時間ごとに少なくとも当該撮影視野内における周囲環境を自己診断により解析する環境自己診断手段と、
この環境自己診断手段の自己診断結果に基づき照合画像補正用パラメータを設定するパラメータ設定手段と、
前記認証手段における認証処理時、前記画像入力手段により入力される顔画像に対し前記パラメータ設定手段により設定されたパラメータに基づき輝度補正を施す画像補正手段と、
を具備したことを特徴とする通行制御装置。
An image input means that is installed to face the passerby and captures and inputs at least a passer's face image;
Authentication means for authenticating whether or not the passerby is the person by comparing the face image input by the image input means with dictionary information registered in advance;
A passage control means for controlling the passage of the passer according to the authentication result of the authentication means;
When there is no passerby in the imaging field of view of the image input unit, environmental self-diagnosis unit that analyzes at least the surrounding environment in the imaging field of view by self-diagnosis every predetermined time;
Parameter setting means for setting a parameter for collation image correction based on the self-diagnosis result of the environmental self-diagnosis means;
An image correction unit for performing luminance correction on the face image input by the image input unit based on the parameter set by the parameter setting unit during the authentication process in the authentication unit;
A traffic control device comprising:
JP2003327689A 2003-09-19 2003-09-19 Face identification device and passage control device Pending JP2005092700A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003327689A JP2005092700A (en) 2003-09-19 2003-09-19 Face identification device and passage control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003327689A JP2005092700A (en) 2003-09-19 2003-09-19 Face identification device and passage control device

Publications (1)

Publication Number Publication Date
JP2005092700A true JP2005092700A (en) 2005-04-07

Family

ID=34457485

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003327689A Pending JP2005092700A (en) 2003-09-19 2003-09-19 Face identification device and passage control device

Country Status (1)

Country Link
JP (1) JP2005092700A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007135735A1 (en) 2006-05-23 2007-11-29 Glory Ltd. Face authentication device, face authentication method, and face authentication program
US9542602B2 (en) 2014-01-21 2017-01-10 Fujitsu Limited Display control device and method
CN109102769A (en) * 2017-06-21 2018-12-28 三星显示有限公司 Method for operating display device
JP2021058361A (en) * 2019-10-04 2021-04-15 株式会社日立製作所 Biological information acquisition device and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007135735A1 (en) 2006-05-23 2007-11-29 Glory Ltd. Face authentication device, face authentication method, and face authentication program
US9542602B2 (en) 2014-01-21 2017-01-10 Fujitsu Limited Display control device and method
CN109102769A (en) * 2017-06-21 2018-12-28 三星显示有限公司 Method for operating display device
KR20190000025A (en) * 2017-06-21 2019-01-02 삼성디스플레이 주식회사 Display device and method for operating the display device
KR102430318B1 (en) * 2017-06-21 2022-08-10 삼성디스플레이 주식회사 Display device and method for operating the display device
JP2021058361A (en) * 2019-10-04 2021-04-15 株式会社日立製作所 Biological information acquisition device and program

Similar Documents

Publication Publication Date Title
KR100439118B1 (en) Entrance control apparatus and method thereof
KR101730255B1 (en) Face recognition digital door lock
US20090060293A1 (en) Personal Identification Device and Personal Identification Method
KR101682311B1 (en) Face recognition digital door lock
JP2009104599A (en) Face authenticating apparatus, face authenticating method and face authenticating system
JP2024026405A (en) Gate device, control method of gate device, and recording medium
JP2011081982A (en) Lighting control device and method
CN110930622A (en) Power supply and distribution area electronic alarm device
US20170206724A1 (en) Electronic Lock and Electronic Lock Recognizing Method
JP6962431B2 (en) Face recognition device
US12019722B2 (en) System, device and method for authentication with use of information code
JP2007026205A (en) Device for managing room entry and exit
KR20190090630A (en) Method And Digital Door Lock Apparatus for Providing Situational Awareness by using Detecting Object of Blind Area
JP4943127B2 (en) Personal authentication device and personal authentication system
JP2005092700A (en) Face identification device and passage control device
US20120268237A1 (en) System and method for controlling door
CN210244387U (en) Face identification comparison device and access control system
CN210129251U (en) Access control with edge recognition
JP2007034872A (en) Face authentication device, face authentication system and face authentication method
US20220279095A1 (en) Gate apparatus, control method of same, and program
KR20160010009A (en) System and method for managing remote entrance of person
JP2007113192A (en) Lock apparatus
JP4981700B2 (en) Face recognition device
JP2005165943A (en) Face authentication device and passage control device
JP7380716B2 (en) Facial recognition device, its control method, and program, and facial recognition gate device, its control method, and program