JP2007122400A - Authentication device, program, and recording medium - Google Patents

Authentication device, program, and recording medium Download PDF

Info

Publication number
JP2007122400A
JP2007122400A JP2005313529A JP2005313529A JP2007122400A JP 2007122400 A JP2007122400 A JP 2007122400A JP 2005313529 A JP2005313529 A JP 2005313529A JP 2005313529 A JP2005313529 A JP 2005313529A JP 2007122400 A JP2007122400 A JP 2007122400A
Authority
JP
Japan
Prior art keywords
authentication
display
person
face
authenticated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005313529A
Other languages
Japanese (ja)
Inventor
Yoshio Okada
義生 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Schneider Electric Japan Holdings Ltd
Original Assignee
Digital Electronics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Digital Electronics Corp filed Critical Digital Electronics Corp
Priority to JP2005313529A priority Critical patent/JP2007122400A/en
Publication of JP2007122400A publication Critical patent/JP2007122400A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an authentication device capable of discriminating a real object from a picture and a dummy and preventing unauthorized use in authenticating an object to be authenticated such as a face. <P>SOLUTION: This authentication device is provided with an authentication signal generator 71a for generating a signal for guidance for turning an object to be authenticated to at least two different directions, a static face feature extracting engine 74 for extracting a feature value for specifying the object to be authenticated from respective face image information of the object to be authenticated turned in various directions guided by the generated signal, and an authentication part 71d for determining whether the object to be authenticated is a registered person or not based on a result obtained by comparing a plurality of extracted feature values and a plurality of feature amounts for specifying the previously registered person. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、個人を認証するための認証装置に関するものである。   The present invention relates to an authentication device for authenticating an individual.

近年、暗証番号やパスワードなどに比べ、原理的に極めて「なりすまし」しにくい認証方式であるバイオメトリックス認証への関心が高まっている。中でも、指紋、声紋、虹彩など他のバイオメトリクス認証技術と比較して、ユーザの顔をカメラで撮影するだけでよく、体の接触や特別な動作を必要とせず認証が行われるため、効率的で心理的負担が少ないという理由から、顔認識技術を用いて個人を認証する顔認証が注目されている。   In recent years, there has been an increasing interest in biometrics authentication, which is an authentication method that is extremely difficult to “spoof” in principle compared to a password or password. In particular, compared to other biometric authentication technologies such as fingerprints, voiceprints, and irises, it is only necessary to photograph the user's face with a camera, and authentication is performed without the need for contact with the body or special actions, making it more efficient. Because of its low psychological burden, facial authentication that uses face recognition technology to authenticate individuals has attracted attention.

顔認証は、人の顔の画像データから特徴を抽出し、あらかじめ保存されたデータと照合することで個人を特定する認証方式である。具体的には、撮影した顔の画像から、傾きや位置を検出して補正し、特徴点(眼の中心、唇の端など)の位置や点同士の距離などを計測する。こうした特徴データを照合して個人を特定する。   Face authentication is an authentication method in which an individual is identified by extracting features from human face image data and comparing them with data stored in advance. Specifically, the tilt and position are detected and corrected from the captured face image, and the position of the feature point (center of the eye, the edge of the lips, etc.) and the distance between the points are measured. Individuals are identified by collating such feature data.

ところで、一般的な顔認証では、認証対象者の顔の正面の映像(平面画像)から目鼻口などの位置や形などで特徴量を抽出し、抽出した特徴量と予め登録した特徴量とを比較することで行っているので、写真を使用することで他人になりすますことが可能である。   By the way, in general face authentication, feature amounts are extracted from the video (planar image) of the face of the face of the person to be authenticated by the position and shape of the eyes, nose and mouth, etc., and the extracted feature amounts and pre-registered feature amounts are Since it is done by comparing, it is possible to impersonate others by using photos.

そこで、認証対象者を立体的に撮影し、二次元的な写真による他人へのなりすましを防止する技術が提案されている。なお、認証対象者を三次元的にとらえるには、複数台のカメラを用いて複数の角度から認証対象者を撮影する必要があるので、コストがかかるという問題が生じる。   In view of this, a technique has been proposed in which a person to be authenticated is photographed three-dimensionally and impersonation of another person by a two-dimensional photograph is prevented. Note that in order to capture the person to be authenticated in a three-dimensional manner, it is necessary to photograph the person to be authenticated from a plurality of angles using a plurality of cameras.

そこで、コストアップを抑えるために、例えば、特許文献1に記載には、1台のカメラで複数視点パターンを用いた相互部分空間方で認証対象者を立体的(三次元的)に捉える方法が開示されている。
特開2004−118627(2004年4月15日公開)
Therefore, in order to suppress an increase in cost, for example, in Patent Document 1, there is a method of capturing a person to be authenticated three-dimensionally (three-dimensionally) in a mutual subspace using a plurality of viewpoint patterns with one camera. It is disclosed.
JP 2004-118627 (April 15, 2004)

しかしながら、認証対象者を立体的に捉えた場合であっても、立体模型に写真をプリントすることで、他人になりすますことができ、不正な認証が行われるという問題が生じる。   However, even if the person to be authenticated is captured three-dimensionally, printing a photograph on a three-dimensional model can impersonate another person, resulting in a problem of unauthorized authentication.

本発明は、上記の問題点に鑑みなされたものであって、その目的は、顔等の認証対象物を認証する際に、実物と写真や模型を区別し、不正利用できないような認証装置を提供することにある。   The present invention has been made in view of the above-described problems, and its purpose is to identify an authentication device that distinguishes a real object from a photograph or a model and cannot be used illegally when authenticating an authentication object such as a face. It is to provide.

本発明に係る認証装置は、上記課題を解決するために、同一の認証対象者を少なくとも異なる2方向に向かせるための誘導用の信号を発生する信号発生手段と、発生した信号により誘導される種々の方向に向いている認証対象者の画像情報それぞれから、該認証対象者を特定するための特徴量を抽出する特徴量抽出手段と、抽出された複数の特徴量と、予め登録された人物を特定するための複数の特徴量とを比較した結果に基づいて、上記認証対象者が登録されている人物であるか否かを判定する認証判定手段とを備えていることを特徴としている。   In order to solve the above-described problem, an authentication apparatus according to the present invention is guided by signal generation means for generating a signal for guiding to direct the same person to be authenticated in at least two different directions, and the generated signal. Feature amount extraction means for extracting a feature amount for identifying the authentication target person from each piece of image information of the authentication target person facing in various directions, a plurality of extracted feature amounts, and a person registered in advance Authentication determination means for determining whether or not the person to be authenticated is a registered person based on a result of comparison with a plurality of feature amounts for specifying the feature.

上記の構成によれば、認証時に、同一の認証対象者に対して少なくとも異なる2方向に誘導して得られた画像情報それぞれから抽出した特徴量と、予め登録された人物の特徴量と比較して、人物の認証を行うようになっている。つまり、認証時に使用する特徴量は、同一の認証対象者から得られる少なくとも異なる2方向に向いた状態で得られた画像情報から抽出されているので、実物と写真や模型を区別することが可能となる。   According to the above configuration, at the time of authentication, the feature amount extracted from each image information obtained by guiding the same person to be authenticated in at least two different directions is compared with the feature amount of a person registered in advance. Person authentication. In other words, the feature quantity used at the time of authentication is extracted from the image information obtained in at least two different directions obtained from the same person to be authenticated, so it is possible to distinguish the real thing from the photograph or model. It becomes.

これにより、他人によるなりすましを防止することが可能となり、認証の必要な装置に対する不正利用を防止することができる。   As a result, it is possible to prevent impersonation by another person and to prevent unauthorized use of a device that requires authentication.

認証判定手段による認証対象者が登録されている人物であるか否かを判定するための具体的な方法は、例えば、上記特徴量抽出手段によって抽出された複数の特徴量と、予め登録された人物を特定するための複数の特徴量との一致数を求め、一致数が既定数以上であるか否かを判定する一致数判定手段と、一致数判定手段の判定結果に基づいて、上記認証対象者が登録されている人物であるか否かを判定することが考えられる。この場合、一致数が既定回数を超えているときに、認証対象者が登録されている人物であると認証する。   A specific method for determining whether or not the person to be authenticated by the authentication determination unit is a registered person is, for example, a plurality of feature amounts extracted by the feature amount extraction unit and registered in advance The number of matches with a plurality of feature quantities for specifying a person is obtained, and the number of matches is determined based on the determination result of the match number determination means for determining whether or not the match number is equal to or greater than a predetermined number, and the authentication result It is conceivable to determine whether or not the target person is a registered person. In this case, when the number of matches exceeds the predetermined number, the person to be authenticated is authenticated as a registered person.

上記画像情報は、認証対象者の顔を示す顔画像情報であってもよい。   The image information may be face image information indicating the face of the person to be authenticated.

この場合、顔画像情報により認証が行われるので、登録されている人物の特定を容易にできるという効果を奏する。   In this case, since authentication is performed based on the face image information, there is an effect that the registered person can be easily specified.

また、認証対象者を撮影する撮影手段を備え、上記撮影手段は、誘導により認証対象者の向く方向が変更される度に、該認証対象者を同一方向から撮影するようにしてもよい。   In addition, an imaging unit that captures the authentication target person may be provided, and the imaging unit may capture the authentication target person from the same direction each time the direction of the authentication target person is changed by guidance.

この場合、撮影した画像は、認証対象者が誘導され向きを変える毎に異なるようになるので、実物と写真や模型を区別することが可能となる。   In this case, the photographed image becomes different every time the person to be authenticated is guided and changed direction, so that it is possible to distinguish the real image from the photograph or model.

さらに、上記信号発生手段により発生された信号に基づいて、予め設定されたシンボルを表示する表示手段を備え、上記撮影手段による撮影方向と、上記表示手段の上記シンボルを表示する表示面とが同じ向きに設定されていてもよい。   Furthermore, a display means for displaying a preset symbol based on the signal generated by the signal generation means is provided, and the photographing direction by the photographing means is the same as the display surface for displaying the symbol of the display means. The direction may be set.

この場合、認証対象者は、表示手段の表示画面に表示されるシンボルを見る行為だけで、該認証対象者の認証用のデータが抽出されることになる。これにより、認証対象者は、意識することなく認証を行うことになる。   In this case, the authentication target person only extracts the data for authentication of the authentication target person only by looking at the symbol displayed on the display screen of the display means. As a result, the person to be authenticated performs authentication without being aware of it.

また、認証対象者を異なる方向に向くように誘導するための信号は、発生時間間隔がランダムであってもよい。   The generation time interval may be random for the signal for guiding the person to be authenticated to face in different directions.

これにより、精度の高い認証を行うことができる。   Thereby, highly accurate authentication can be performed.

本発明に係る認証装置は、以上のように、同一の認証対象者を少なくとも異なる2方向に向かせるための誘導用の信号を発生する信号発生手段と、発生した信号により誘導される種々の方向に向いている認証対象者の画像情報それぞれから、該認証対象者を特定するための特徴量を抽出する特徴量抽出手段と、抽出された複数の特徴量と、予め登録された人物を特定するための複数の特徴量とを比較した結果に基づいて、上記認証対象者が登録されている人物であるか否かを判定する認証判定手段とを備えていることで、認証時に、同一の認証対象者に対して少なくとも異なる2方向に誘導して得られた画像情報それぞれから抽出した特徴量と、予め登録された人物の特徴量と比較して、人物の認証を行うようになっている。つまり、認証時に使用する特徴量は、同一の認証対象者から得られる少なくとも異なる2方向に向いた状態で得られた画像情報から抽出されているので、実物と写真や模型を区別することが可能となる。   As described above, the authentication apparatus according to the present invention includes a signal generating means for generating a guidance signal for directing the same person to be authenticated in at least two different directions, and various directions induced by the generated signals. The feature amount extracting means for extracting the feature amount for specifying the authentication target person, the plurality of extracted feature amounts, and the person registered in advance are specified from the image information of the authentication target person who is suitable for Authentication determination means for determining whether or not the person to be authenticated is a registered person based on a result of comparison with a plurality of feature quantities for the same authentication. The person is authenticated by comparing the feature amount extracted from each of the image information obtained by guiding the subject in at least two different directions and the feature amount of the person registered in advance. In other words, the feature quantity used at the time of authentication is extracted from the image information obtained in at least two different directions obtained from the same person to be authenticated, so it is possible to distinguish the real thing from the photograph or model. It becomes.

これにより、他人によるなりすましを防止することが可能となり、認証の必要な装置に対する不正利用を防止することができるという効果を奏する。   As a result, it is possible to prevent impersonation by another person, and it is possible to prevent unauthorized use of a device that requires authentication.

本発明の一実施形態について図1ないし図9に基づいて説明すると以下の通りである。すなわち、本実施形態に係る制御システムは、制御用表示装置を使用する際に、使用者の顔で認証可能な認証装置を含んだ制御システムである。以下では、顔認証の構成について説明する前に、制御システム全体の概略構成および動作について説明する。   An embodiment of the present invention will be described with reference to FIGS. 1 to 9 as follows. That is, the control system according to the present embodiment is a control system including an authentication device that can authenticate with the face of the user when the control display device is used. Below, before explaining the configuration of face authentication, the schematic configuration and operation of the entire control system will be described.

すなわち、本実施形態に係る制御システム1は、図2に示すように、ターゲットシステム2のデバイス2aを制御するためのシステムであって、例えば、ベルトコンベアー式の自動組付機などのデバイス2aの制御に好適に用いられている。   That is, as shown in FIG. 2, the control system 1 according to the present embodiment is a system for controlling the device 2a of the target system 2, for example, a device 2a such as a belt conveyor type automatic assembly machine. It is suitably used for control.

上記制御システム1には、上記デバイス2aを制御する制御装置としてのPLC11と、多くの場合、制御対象近傍に配されると共に、制御システム1のHMIとして、デバイス2aの状態を表示し、オペレータによるデバイス2aへの操作を受け付けるプログラマブル表示器(制御用表示装置)13とを備えている。   The control system 1 includes a PLC 11 as a control device for controlling the device 2a, and in many cases, is arranged in the vicinity of the control target, and displays the state of the device 2a as an HMI of the control system 1, and is determined by an operator. And a programmable display (control display device) 13 that receives an operation to the device 2a.

本実施形態に係る制御システム1では、各プログラマブル表示器13は、イーサネット(登録商標)などのLAN(ローカルエリアネットワーク)15によって互いに接続されている。さらに、上記LAN15には、多くの場合、プログラマブル表示器13よりも離れた場所から、制御システム1全体を管理する制御用ホストコンピュータ17が接続され、さらに、プログラマブル表示器13の使用者の認証用に使用される撮影用カメラ16が接続されている。   In the control system 1 according to the present embodiment, the programmable displays 13 are connected to each other by a LAN (Local Area Network) 15 such as Ethernet (registered trademark). Furthermore, in many cases, the LAN 15 is connected to a control host computer 17 that manages the entire control system 1 from a location farther away from the programmable display 13, and further for authenticating the user of the programmable display 13. An imaging camera 16 used for the above is connected.

また、上記各プログラマブル表示器13は、シリアルケーブルなどの通信路を介して、それぞれに対応するPLC11と接続されている。なお、図2では、説明の便宜上、LAN15にプログラマブル表示器13が2台接続されると共に、各プログラマブル表示器13に1台ずつのPLC11、各PLC11に1台ずつのデバイス2aがそれぞれ接続され、且つ1台の撮影用カメラ16が接続されている場合を例示しているが、当然ながら、それぞれの接続台数は任意に設定できる。   Moreover, each said programmable display 13 is connected with PLC11 corresponding to each via communication paths, such as a serial cable. In FIG. 2, for convenience of explanation, two programmable displays 13 are connected to the LAN 15, one PLC 11 is connected to each programmable display 13, and one device 2 a is connected to each PLC 11. In addition, the case where one photographing camera 16 is connected is illustrated, but it goes without saying that the number of connected cameras can be arbitrarily set.

また、デバイスは、デバイスアドレスにより特定可能で、しかも、状態を取得したり、制御(変更)できたりするものであれば、例えば、デバイス2a自体であってもよいし、例えば、PLC11やプログラマブル表示器13の記憶装置など、制御システム1に設けられた記憶装置の一領域を示していてもよい。   In addition, the device may be the device 2a itself, for example, the PLC 11 or the programmable display, as long as the device can be specified by the device address and the state can be acquired or controlled (changed). An area of the storage device provided in the control system 1 such as the storage device of the container 13 may be shown.

ここで、上記制御システム1では、制御システム1に必須の構成であり、しかも、HMIとして動作するため、演算能力に余力のあるプログラマブル表示器13が通信の大半を処理するように構成されている。さらに、各プログラマブル表示器13は、自らに接続されているPLC11の機種に固有の専用プロトコルと、LAN15での共通プロトコルとを変換して、他のプログラマブル表示器13や制御用ホストコンピュータ17と、PLC11との通信を中継する。なお、共通プロトコルと専用プロトコルとの間のプロトコル変換には、同じ指示に同じコードが割り当てられるように予め定められた共通のコマンドと上記共通のコマンドに対応するPLC11固有のコマンドとの間の変換や、データやアドレスの表現方法の変換、デバイスアドレスと、当該デバイスアドレスに対応し、しかも、デバイスアドレスとは異なる値に設定可能な変数や変数の名称(変数名)との変換なども含まれる。   Here, in the said control system 1, since it is a structure essential to the control system 1, and since it operate | moves as HMI, it is comprised so that the programmable display 13 with sufficient computing power may process most communication. . Furthermore, each programmable display 13 converts a dedicated protocol specific to the model of the PLC 11 connected to itself and a common protocol in the LAN 15, and the other programmable display 13 and the control host computer 17, Relay communication with the PLC 11. For protocol conversion between the common protocol and the dedicated protocol, conversion between a predetermined common command so that the same code is assigned to the same instruction and a command unique to the PLC 11 corresponding to the common command is performed. Also included are conversion of data and address expression methods, conversion of device addresses and variables that correspond to the device addresses, and that can be set to values different from the device addresses and variable names (variable names). .

これにより、プログラマブル表示器13および制御用ホストコンピュータ17は、他のプログラマブル表示器13に接続されているPLC11の機種に拘らず、LAN15を介して共通のプロトコルで通信できる。この結果、互いに異なる機種のPLC11の混在する制御システム1が比較的容易に実現されている。   Thereby, the programmable display 13 and the control host computer 17 can communicate with each other via the LAN 15 using a common protocol regardless of the model of the PLC 11 connected to the other programmable display 13. As a result, the control system 1 in which different types of PLCs 11 are mixed can be realized relatively easily.

上記プログラマブル表示器13は、後述する画面データに基づいて、デバイスの状態を画面表示する際の動作や、画面への操作に応じてデバイスの状態を制御する際の動作を特定するものであって、PLC11と通信するPLC・IF部31と、上記LAN15に接続するためのLAN・IF部32と、例えば、液晶表示装置などからなるディスプレイ33と、ディスプレイ33の画面上に配されたタッチパネルなどからなる入力装置34と、上記各部材31〜34を制御するHMI処理部(制御手段、格納手段)35と、当該HMI処理部35によって参照され、上記画面データおよび上記変数が格納される記憶部(記憶手段)36と、プログラマブル表示器13の使用者の認証を行うための認証処理部37と、該認証処理部37における認証処理に使用する認証用データ(顔特徴データ)が複数登録された顔特徴DB(データベース)38とを備えている。   The programmable display 13 specifies an operation for displaying the device state on the screen and an operation for controlling the device state according to the operation on the screen, based on screen data to be described later. From the PLC / IF unit 31 communicating with the PLC 11, the LAN / IF unit 32 for connecting to the LAN 15, for example, a display 33 including a liquid crystal display device, and a touch panel arranged on the screen of the display 33. An input device 34, an HMI processing unit (control unit, storage unit) 35 that controls each of the members 31 to 34, and a storage unit (referred to by the HMI processing unit 35) that stores the screen data and the variables. Storage means) 36, an authentication processing unit 37 for authenticating the user of the programmable display 13, and the authentication processing unit 37 Authentication data used to testify processing (facial feature data) and a plurality registered face feature DB (database) 38.

なお、上記各部材31〜38、並びに、後述の各部材91〜93は、CPUなどの演算手段が、ROMやRAMなどの記憶手段に格納されたプログラムを実行し、タッチパネルや液晶表示装置などの入出力手段、あるいは、インターフェース回路などの通信回路を制御することによって実現される機能ブロックである。なお、これらの部材のうち、各記憶部36・38・92・91aは、ROMやRAMなどの記憶装置自体であってもよい。   The members 31 to 38 and the members 91 to 93 to be described later are such that a calculation unit such as a CPU executes a program stored in a storage unit such as a ROM or a RAM, and a touch panel, a liquid crystal display device, or the like. This is a functional block realized by controlling input / output means or a communication circuit such as an interface circuit. Of these members, each of the storage units 36, 38, 92, 91a may be a storage device itself such as a ROM or a RAM.

したがって、これらの手段を有するコンピュータが、上記プログラムを記録した記録媒体(例えば、CD−ROMなど)を読み取り、当該プログラムを実行するだけで、本実施形態に係るプログラマブル表示器13、制御用ホストコンピュータ17、あるいは、後述する作画エディタ装置19を実現できる。なお、例えば、LAN15、あるいは、他の通信路を介してプログラムをダウンロードするためのプログラムが、上記コンピュータに予めインストールされていれば、これらの通信路を介して、上記コンピュータへ上記プログラムを配付することもできる。   Accordingly, the computer having these means reads the recording medium (for example, a CD-ROM) on which the program is recorded, and executes the program, so that the programmable display 13 and the control host computer according to the present embodiment can be realized. 17 or a drawing editor device 19 to be described later can be realized. For example, if a program for downloading a program via the LAN 15 or another communication path is installed in the computer in advance, the program is distributed to the computer via the communication path. You can also

上記画面データは、上記プログラマブル表示器13の上記各動作を規定するデータであれば、例えば、画面上の領域およびデバイスを特定するための属性を有し、当該領域への表示や入力に対応するオブジェクトを生成するためのデータなどから構成されていてもよいが、本実施形態に係る画面データは、画面上の領域と、当該領域への表示や入力に対応するデバイスとの対応関係を示すタグを組み合わせて構成されている。本実施形態では、HMI処理部35が複数の単位画面(ベース画面)を切り換え表示可能であり、上記タグは、当該タグが有効となる単位画面を示すファイル番号と、単位画面上で実行すべき動作内容を特定する事象名と、各事象毎に参照される参照情報とを含んでいる。   If the screen data is data defining each operation of the programmable display 13, for example, the screen data has an attribute for specifying a region and a device on the screen, and corresponds to display or input to the region. The screen data according to the present embodiment may be composed of data for generating an object, but the screen data according to the present embodiment is a tag indicating a correspondence relationship between an area on the screen and a device corresponding to display or input to the area. It is configured by combining. In the present embodiment, the HMI processing unit 35 can switch and display a plurality of unit screens (base screens), and the tag should be executed on the unit screen and the file number indicating the unit screen in which the tag is valid. It includes an event name that identifies the operation content and reference information that is referenced for each event.

例えば、上記タグが所定の画面領域(表示座標範囲)へ所定のデバイスの状態に応じた部品図形を表示する表示タグの場合、上記参照情報には、表示座標範囲と、デバイスを特定可能な変数と、例えば、部品図形がスイッチの場合、ONを示す図形のファイルおよびOFFを示す図形のファイルなど、表示時に参照するファイル番号とが含まれる。さらに、タグが入力タグの場合、参照情報として、有効入力座標範囲と、入力結果が書き込まれるデバイスの変数とが含まれる。   For example, when the tag is a display tag that displays a component graphic corresponding to a predetermined device state in a predetermined screen area (display coordinate range), the reference information includes a display coordinate range and a variable that can specify the device. For example, when the part graphic is a switch, a file number to be referred to at the time of display such as a graphic file indicating ON and a graphic file indicating OFF is included. Further, when the tag is an input tag, reference information includes an effective input coordinate range and a device variable in which an input result is written.

また、記憶部36には、各変数について、変数の名称(変数名)と、変数に対応するデバイス2aまたは内部メモリを特定するための情報(例えば、アドレスなど)と、変数の内容との組み合わせが記憶されている。なお、本実施形態では、変数に対応するデバイス2aの機種に拘わらず、変数の内容を格納する際の表現方法(例えば、ワード長や符号の有無、あるいは、BCD/2進表記など)が予め定められた表現方法に統一されており、変数が実在のデバイス2aに対応する場合、記憶部36には、実際の機種での表現方法も格納されている。この場合、HMI処理部35は、PLC・IF部31を介してデバイス2aの状態を取得あるいは制御する際、表現方法を形式変換して、格納時の表現方法を統一する。   In addition, in the storage unit 36, for each variable, a combination of a variable name (variable name), information for specifying the device 2a or internal memory corresponding to the variable (for example, an address), and the contents of the variable Is remembered. In this embodiment, regardless of the model of the device 2a corresponding to the variable, the expression method (for example, the presence or absence of a word length, the presence / absence of a code, or BCD / binary notation) is stored in advance. When the variable is associated with the actual device 2a, the storage unit 36 also stores the representation method for the actual model. In this case, when the HMI processing unit 35 acquires or controls the state of the device 2a via the PLC / IF unit 31, the HMI processing unit 35 performs format conversion of the expression method to unify the expression method at the time of storage.

一方、上記HMI処理部35は、所定の時間間隔で、記憶部36に格納された画面データから、ベース画面のファイル番号が、現在表示中のベース画面である表示タグを抽出する。さらに、HMI処理部35は、記憶部36に格納された変数を参照して、タグに対応する変数の内容を読み出し、内容に応じた部品図形をディスプレイ33に表示する。ここで、PLC・IF部31に接続されたPLC11により制御されるデバイス2aに、上記変数が対応している場合、HMI処理部35は、PLC・IF部31によるPLC11との通信によって、デバイス2aの状態を取得し、上記変数の内容を当該状態に応じて更新している。これにより、ディスプレイ33には、デバイス2aの状態を示す操作画面が表示される。   On the other hand, the HMI processing unit 35 extracts a display tag whose base screen file number is the currently displayed base screen from the screen data stored in the storage unit 36 at predetermined time intervals. Furthermore, the HMI processing unit 35 refers to the variable stored in the storage unit 36, reads the content of the variable corresponding to the tag, and displays a part graphic corresponding to the content on the display 33. Here, when the variable corresponds to the device 2 a controlled by the PLC 11 connected to the PLC / IF unit 31, the HMI processing unit 35 communicates with the PLC 11 by the PLC / IF unit 31 to communicate with the device 2 a. And the contents of the variable are updated according to the state. Thereby, an operation screen showing the state of the device 2a is displayed on the display 33.

なお、変数が他のプログラマブル表示器13に接続されたPLC11によって制御されるデバイス2aの場合、HMI処理部35は、LAN・IF部32、LAN15および他のプログラマブル表示器13を介して当該PLC11と通信するなどして、デバイスの状態を取得し、それに応じて変数の内容を更新する。   In the case of the device 2a whose variable is controlled by the PLC 11 connected to another programmable display 13, the HMI processing unit 35 is connected to the PLC 11 via the LAN / IF unit 32, the LAN 15, and the other programmable display 13. The state of the device is acquired through communication or the like, and the content of the variable is updated accordingly.

また、入力装置34への押し操作など、オペレータの入力操作を受け付けると、HMI処理部35は、上記画面データから、現在表示中のベース画面に対応し、当該入力操作にマッチする入力タグを検索すると共に、入力結果に応じて、タグに対応する変数の内容を更新する。さらに、HMI処理部35は、デバイス2aの状態を取得する場合と略同様に、PLC11やプログラマブル表示器13と通信するなどして、上記変数の内容に応じて、デバイス2aの状態を制御させる。ここで、入力操作の後も、HMI処理部35は、デバイス2aの状態を画面表示するので、操作結果が画面表示に反映される。   When receiving an operator input operation such as a push operation on the input device 34, the HMI processing unit 35 searches the screen data for an input tag corresponding to the currently displayed base screen and matching the input operation. In addition, the content of the variable corresponding to the tag is updated according to the input result. Further, the HMI processing unit 35 controls the state of the device 2a in accordance with the contents of the variables by communicating with the PLC 11 and the programmable display 13 in substantially the same manner as when acquiring the state of the device 2a. Here, even after the input operation, the HMI processing unit 35 displays the state of the device 2a on the screen, so that the operation result is reflected on the screen display.

なお、HMI処理部35は、例えば、他のプログラマブル表示器13や制御用ホストコンピュータ17など、LAN15に接続された機器から自らに接続されたPLC11のデバイス2aへの制御指示を受け取った場合や、これとは逆に、上記機器へ報告すべきデバイス2aの状態を自らのPLC11から受け取った場合には、上述したプロトコル変換によって、LAN15での通信とPLC11相手の通信との間を中継できる。   The HMI processing unit 35 receives, for example, a control instruction to the device 2a of the PLC 11 connected to itself from a device connected to the LAN 15, such as another programmable display 13 or the control host computer 17, or On the contrary, when the status of the device 2a to be reported to the device is received from its own PLC 11, it is possible to relay between the communication on the LAN 15 and the communication of the other party of the PLC 11 by the protocol conversion described above.

ここで、上記画面データをプログラマブル表示器13に格納する際には、例えば、上記制御用ホストコンピュータ17など、プログラマブル表示器13と常時通信可能な装置が作画エディタ装置の機能を兼ね備え、例えば、LAN15などを介して、画面データをプログラマブル表示器13にダウンロードしてもよいが、本実施形態に係る制御システム1では、図2に示すように、作画エディタ装置19が別途設けられている。また、画面データをプログラマブル表示器13に格納する場合は、例えば、プログラマブル表示器13に作画エディタ装置19を一時的に接続して画面データを転送したり、作画エディタ装置19の生成した画面データを記録媒体(例えば、コンパクトフラッシュ(登録商標)など)に格納し、当該記録媒体の内容をプログラマブル表示器13に読み取らせたりして、画面データをプログラマブル表示器13に格納できる。   Here, when storing the screen data in the programmable display 13, for example, a device that can always communicate with the programmable display 13, such as the control host computer 17, also has the function of a drawing editor device. The screen data may be downloaded to the programmable display 13 via the above, but in the control system 1 according to the present embodiment, a drawing editor device 19 is separately provided as shown in FIG. When storing screen data in the programmable display device 13, for example, the screen editor device 19 is temporarily connected to the programmable display device 13 to transfer screen data, or the screen data generated by the screen display editor device 19 is transferred. The screen data can be stored in the programmable display 13 by storing it in a recording medium (for example, CompactFlash (registered trademark)) and causing the programmable display 13 to read the contents of the recording medium.

より詳細には、作画エディタ装置19は、図3に示すように、ユーザの操作に応じて、予め格納された画面データを修正したり、新規作成したりして、表示画面を設計し、新たな画面データを生成する作画処理部91と、上記作画処理部91の生成した画面データを格納する記憶部92とを備えている。また、図2に示す作画エディタ装置19は、一例として、プログラマブル表示器13と通信して画面データを伝送する構成であり、記憶部92に格納された画面データをプログラマブル表示器13へ通信する通信処理部93が設けられている。なお、記録媒体経由で画面データを格納する場合は、通信処理部93に代えて/加えて記録媒体に記憶部92に格納された画面データを書き込む記録装置を設ければよい。   More specifically, as shown in FIG. 3, the drawing editor device 19 modifies screen data stored in advance or creates a new screen in accordance with a user operation, designs a display screen, and creates a new screen. A drawing processing unit 91 for generating simple screen data, and a storage unit 92 for storing the screen data generated by the drawing processing unit 91. Moreover, the drawing editor apparatus 19 shown in FIG. 2 is a structure which communicates with the programmable display 13 and transmits screen data as an example, and communicates the screen data stored in the memory | storage part 92 to the programmable display 13 A processing unit 93 is provided. When screen data is stored via a recording medium, a recording device that writes the screen data stored in the storage unit 92 on the recording medium instead of / in addition to the communication processing unit 93 may be provided.

上記作画処理部91は、画面データに対応する情報が一時的に格納される作業用の記憶部91aと、ユーザの指示を受け付けて、当該記憶部91aの内容を書き換える編集処理部91bと、編集処理部91bによって編集される記憶部91aの内容を図示しないディスプレイに表示させる表示処理部91cと、上記記憶部92に格納された画面データを当該記憶部91aに展開したり、編集後の記憶部91aの内容に応じた画面データを記憶部92へ書き込んだりしたりするデータ入出力処理部91dとを備えている。   The drawing processing unit 91 includes a working storage unit 91a that temporarily stores information corresponding to screen data, an editing processing unit 91b that receives a user instruction and rewrites the contents of the storage unit 91a, and an editing unit 91b. A display processing unit 91c for displaying the contents of the storage unit 91a edited by the processing unit 91b on a display (not shown), and expanding the screen data stored in the storage unit 92 into the storage unit 91a, or a storage unit after editing A data input / output processing unit 91d for writing screen data corresponding to the contents of 91a to the storage unit 92 is provided.

ここで、上記画面データは、上述したように、画面上の領域と、当該領域への表示や入力に対応するデバイスを特定可能なアドレスとの対応関係を示すタグを組み合わせて構成されており、作画処理部91の編集処理部91bは、例えば、配置可能なタグの種類を示すパレットを表示し、パレット中のタグの種類を選択して画面上に所望の種類のタグを配置するようにユーザへ促す。また、編集処理部91bは、ユーザによるタグの配置操作を受け付けると、当該操作に応じて、編集中の画面データが上記配置されたタグのデータを含むように、記憶部91aの内容を変更し、表示処理部91cは、記憶部91aの内容に基づいて、当該タグを指定された座標に表示する。また、編集処理部91bは、ユーザのドラッグ&ドロップなどの操作に応じて記憶部91aの内容を変更して、当該タグの表示座標範囲の値を調整し、表示処理部91cは、変更後の位置にタグを表示する。また、編集処理部91bは、タグに関連するデバイスを特定するための情報としてアドレスや変数を入力するようにユーザへ促すと共に、入力されたアドレスや変数が当該タグに関連するように、記憶部91aの内容(より詳細には、タグのデバイスの変数の値)を変更し、表示処理部91cは、ユーザの指示に応じて、各タグに関連つけられているアドレスや変数を表示する。さらに、編集処理部91bは、変数に対するデバイスアドレスの入力操作を受け付け、入力されたアドレスを示すように、記憶部91aの内容(より詳細には、当該変数に関連付けて記憶されるデバイスアドレスの値)を変更し、表示処理部91cは、ユーザの指示に応じて、各変数に関連付けられているアドレスを表示できる。   Here, as described above, the screen data is configured by combining a tag indicating a correspondence relationship between an area on the screen and an address that can identify a device corresponding to display or input in the area, The editing processing unit 91b of the drawing processing unit 91 displays, for example, a palette indicating the types of tags that can be placed, and selects a tag type in the palette and places a desired type of tag on the screen. Prompt. Further, upon receiving a tag placement operation by the user, the edit processing unit 91b changes the contents of the storage unit 91a according to the operation so that the screen data being edited includes the data of the placed tag. The display processing unit 91c displays the tag at the designated coordinates based on the contents of the storage unit 91a. Further, the edit processing unit 91b changes the contents of the storage unit 91a according to the user's operation such as drag and drop, and adjusts the value of the display coordinate range of the tag, and the display processing unit 91c Display the tag at the position. Further, the edit processing unit 91b prompts the user to input an address or variable as information for specifying a device related to the tag, and stores the input unit or address so that the input address or variable is related to the tag. The content of 91a (more specifically, the value of the tag device variable) is changed, and the display processing unit 91c displays an address and a variable associated with each tag in accordance with a user instruction. Furthermore, the edit processing unit 91b accepts an input operation of a device address for a variable, and indicates the contents of the storage unit 91a (more specifically, the value of the device address stored in association with the variable) to indicate the input address. ) And the display processing unit 91c can display the address associated with each variable in accordance with a user instruction.

また、本実施形態に係る編集処理部91bは、上述したように、タグの表示座標範囲の値として、タグを配置可能な領域の範囲を示す値を設定する操作を受け付けると共に、当該操作に応じて、記憶部91aの内容(より詳細には、タグの表示座標範囲の値)を変更できる。   In addition, as described above, the edit processing unit 91b according to the present embodiment accepts an operation for setting a value indicating a range of an area in which a tag can be placed as a value of the display coordinate range of the tag, and in response to the operation. Thus, the content of the storage unit 91a (more specifically, the value of the display coordinate range of the tag) can be changed.

なお、本実施形態に係るプログラマブル表示器13は、複数の画面(操作画面)を切り換えて表示可能であり、上記編集処理部91bは、操作画面の追加操作や、それぞれの操作画面に対する編集操作を受け付けると共に、例えば、タグのファイル番号の値を当該タグが配置された単位画面を示すように変更するなどして、各操作画面に関連付けて当該操作画面に配置された各タグのデータを、記憶部91aに格納できる。   The programmable display 13 according to the present embodiment can switch and display a plurality of screens (operation screens), and the edit processing unit 91b performs an operation screen addition operation and an editing operation on each operation screen. At the same time, for example, by changing the value of the tag file number to indicate the unit screen on which the tag is arranged, the data of each tag arranged on the operation screen in association with each operation screen is stored. It can be stored in the part 91a.

一方、編集終了指示を受け付けると、データ入出力処理部91dは、記憶部91aの内容に応じた画面データを生成して、記憶部92に書き込む。これにより、編集されたタグを含む画面データを生成できる。   On the other hand, when the editing end instruction is received, the data input / output processing unit 91d generates screen data corresponding to the contents of the storage unit 91a and writes the screen data in the storage unit 92. Thereby, the screen data including the edited tag can be generated.

これらの結果、設計者は、作画エディタ装置19を操作して、画面上の所望の位置にタグを配置すると共に、各タグと変数とを対応付け、変数とデバイスのアドレスとを対応付けるだけで、画面データを作成できる。したがって、プログラマブル表示器13の表示プログラムを修正する場合に比べて容易に、各プログラマブル表示器13の表示や操作を決定(変更)でき、制御システム1のユーザ(作画エディタ装置19を操作する設計者)は、ターゲットシステム2の実情や、プログラマブル表示器13のオペレータの習熟度、あるいは、ユーザの好みや判断基準に合わせることができる。この結果、プログラマブル表示器13のオペレータは、当該画面データに基づいて表示された画面(操作画面)を確認することによって、デバイス2aの状態を的確に把握して、デバイス2aの状態変更の要否を判断できると共に、当該操作画面を操作することによって、デバイス2aの状態変更指示を的確に入力することができる。   As a result, the designer operates the drawing editor device 19 to place the tag at a desired position on the screen, associate the tag with the variable, and associate the variable with the device address. Screen data can be created. Therefore, the display and operation of each programmable display 13 can be determined (changed) more easily than when the display program of the programmable display 13 is modified, and the user of the control system 1 (the designer who operates the drawing editor device 19). ) Can be matched to the actual situation of the target system 2, the proficiency level of the operator of the programmable display 13, or the user's preference and judgment criteria. As a result, the operator of the programmable display 13 confirms the state of the device 2a by checking the screen (operation screen) displayed based on the screen data, and whether or not the state of the device 2a needs to be changed. In addition, by operating the operation screen, an instruction to change the state of the device 2a can be accurately input.

ところで、上記プログラマブル表示器13を使用する際に、セキュリティを確保するために、使用者(認証対象者)を認証する必要がある。本実施の形態では、使用者の顔の特徴量を予めデータベース化して持っておき、認証の際に、使用者の顔の特徴量を抽出し、抽出した特徴量をデータベースの中の特徴量と比較して認証を行う顔認証システムについて説明する。   By the way, when using the programmable display 13, it is necessary to authenticate a user (person to be authenticated) in order to ensure security. In the present embodiment, the user's facial feature quantity is stored in a database in advance, and the user's facial feature quantity is extracted at the time of authentication, and the extracted feature quantity is used as the feature quantity in the database. A face authentication system that performs authentication in comparison will be described.

この顔認証システムは、静的顔認証エンジン、カメラ、信号発生装置、動的顔認証処理部、動的顔登録処理部からなっている。具体的には、図4に示すように、信号発生装置としてのプログラマブル表示器13と、認証対象者である使用者Xを撮影するための撮影用カメラ16とを備えた構成となっている。   This face authentication system includes a static face authentication engine, a camera, a signal generation device, a dynamic face authentication processing unit, and a dynamic face registration processing unit. Specifically, as shown in FIG. 4, it has a configuration including a programmable display 13 as a signal generator and a photographing camera 16 for photographing a user X who is an authentication subject.

すなわち、図4に示す顔認証システムの例では、認証時に、プログラマブル表示器13のディスプレイ33の画面に中央、上下、左右等にランプやボタン等の絵(シンボル)を信号としてランダムに表示させ、使用者Xがディスプレイ33の画面に表示された絵を見る度に向きが変わる顔を撮影用カメラ16で撮影する。この撮影データ(顔画像情報)を用いて顔認証を行うようになっている。   That is, in the example of the face authentication system shown in FIG. 4, at the time of authentication, pictures (symbols) such as lamps and buttons are randomly displayed on the screen of the display 33 of the programmable display 13 as a signal at the center, up and down, left and right, etc. Each time the user X sees a picture displayed on the screen of the display 33, a face that changes direction is photographed by the photographing camera 16. Face authentication is performed using the image data (face image information).

この撮影データを用いた顔認証処理は、プログラマブル表示器13内に設けられた認証処理部37で行われる。   The face authentication process using the photographed data is performed by an authentication processing unit 37 provided in the programmable display 13.

上記認証処理部37は、図1に示すように、使用者の顔認証を行うための動的顔認証処理部71と、使用者の顔登録を行うための動的顔登録処理部72とを備え、さらに、顔検出エンジン73、静的顔特徴抽出エンジン74、静的顔認証エンジン75を備えている。   As shown in FIG. 1, the authentication processing unit 37 includes a dynamic face authentication processing unit 71 for performing user face authentication and a dynamic face registration processing unit 72 for performing user face registration. And a face detection engine 73, a static face feature extraction engine 74, and a static face authentication engine 75.

上記顔検出エンジン73は、撮影画像から顔の部分を検出処理する処理部である。   The face detection engine 73 is a processing unit that detects a face portion from a captured image.

上記静的顔特徴抽出エンジン74は、顔検出エンジン73にて検出された顔画像から特徴量を抽出する処理部(特徴量抽出手段)である。   The static face feature extraction engine 74 is a processing unit (feature amount extraction means) that extracts a feature amount from the face image detected by the face detection engine 73.

上記静的顔認証エンジン75は、静的顔特徴抽出エンジン74にて抽出された特徴量から顔の認証処理を行う処理部である。   The static face authentication engine 75 is a processing unit that performs face authentication processing from the feature amount extracted by the static face feature extraction engine 74.

なお、上記顔検出エンジン73、静的顔特徴抽出エンジン74、静的顔認証エンジン75は、既存の技術によって実現する。   The face detection engine 73, the static face feature extraction engine 74, and the static face authentication engine 75 are realized by existing techniques.

本願発明の特徴部分である動的顔認証処理部71、動的顔登録処理部72は、上述の各エンジンによる処理結果を用いて実現している。ここで、動的な処理とは、処理対象となる情報が複数種類ある場合の処理を示し、一方、静的な処理とは、処理対象となる情報が一種類の場合の処理を示すものとする。以下、本願発明では、このような意味で動的な処理、静的な処理を使用する。   The dynamic face authentication processing unit 71 and the dynamic face registration processing unit 72, which are characteristic parts of the present invention, are realized by using the processing results obtained by the engines described above. Here, dynamic processing indicates processing when there are multiple types of information to be processed, while static processing indicates processing when there is only one type of information to be processed. To do. Hereinafter, in the present invention, dynamic processing and static processing are used in this sense.

上記動的顔認証処理部71は、認証時に、プログラマブル表示器13のディスプレイ33に上述した絵をランダムに表示させるための認証用信号を発生する認証用信号発生部71aと、認証用信号発生部71aによって発生された認証用信号毎に、上記顔検出エンジン73、静的顔特徴抽出エンジン74、静的顔認証エンジン75によって顔の特徴量が登録済の顔の特徴量に一致する回数が既定回数を越えたか否かを判定する一致回数判定部71bと、上記認証用信号発生部71cによる認証用信号の発生回数が既定回数を越えたか否かを判定する信号発生回数判定部71cと、上記一致回数判定部71bと信号発生回数判定部71cからの判定結果から認証結果を導き出す認証部(認証判定手段)71dとを備えた構成となっている。   The dynamic face authentication processing unit 71 includes an authentication signal generating unit 71a that generates an authentication signal for randomly displaying the above-described picture on the display 33 of the programmable display 13 during authentication, and an authentication signal generating unit. For each authentication signal generated by 71a, the number of times that the face feature amount matches the registered face feature amount by the face detection engine 73, static face feature extraction engine 74, and static face authentication engine 75 is predetermined. A coincidence number determination unit 71b for determining whether or not the number of times has been exceeded, a signal generation number determination unit 71c for determining whether or not the number of authentication signal generations by the authentication signal generation unit 71c has exceeded a predetermined number, and the above The configuration includes an authentication unit (authentication determination unit) 71d for deriving an authentication result from the determination results from the coincidence number determination unit 71b and the signal generation number determination unit 71c.

上記認証部71dによる認証結果は、HMI処理部35を介して、ディスプレイ33に送られると共に、制御用ホストコンピュータ17にも送られる。   The authentication result by the authentication unit 71d is sent to the display 33 and also to the control host computer 17 through the HMI processing unit 35.

一方、上記動的顔登録処理部72は、認証用データの登録時に、プログラマブル表示器13のディスプレイ33に上述した絵を予め定めた規則にて絵を順次表示させるたえの登録用信号を発生する登録用信号発生部72aと、登録用信号発生部72aによって発生された登録用信号毎に、上記顔検出エンジン73、静的顔特徴抽出エンジン74によって顔の特徴量を関連付ける特徴データ関連付け部72bと、特徴データ関連付け部72bによって登録用信号と関連付けられた特徴データを顔特徴DB38に登録させるための特徴データ登録部72cとを備えた構成となっている。   On the other hand, the dynamic face registration processing unit 72 generates a registration signal for sequentially displaying pictures according to a predetermined rule on the display 33 of the programmable display 13 when registering authentication data. A registration signal generator 72a to be registered, and a feature data association unit 72b for associating a facial feature quantity by the face detection engine 73 and the static face feature extraction engine 74 for each registration signal generated by the registration signal generator 72a. And a feature data registering unit 72c for registering the feature data associated with the registration signal by the feature data associating unit 72b in the face feature DB 38.

上記顔特徴DB38では、抽出した特徴量と、抽出時の登録用信号とが対応付けて一つのレコードとし、複数のレコードによって個人を特定するための認証用データとして登録される。顔特徴DB38に登録されている認証用データとして、例えば図5に示すように、登録用の信号条件(k)と、該信号条件(k)により得られた特徴データ(k)とを対応付けて一つのレコードとし、n個のレコードを持って一個人の特徴データ(認証用データ)として登録されている。ここで、k=1、2、3、…、nとする。   In the face feature DB 38, the extracted feature amount and the registration signal at the time of extraction are associated with each other as one record, and are registered as authentication data for specifying an individual by a plurality of records. As the authentication data registered in the face feature DB 38, for example, as shown in FIG. 5, the registration signal condition (k) is associated with the feature data (k) obtained by the signal condition (k). One record and n records are registered as one individual characteristic data (authentication data). Here, k = 1, 2, 3,..., N.

上記顔特徴DB38からは、認証時に、認証に使用した信号条件(k)と同じ信号条件(k)を含むレコードの特徴データ(k)が読み出され、特徴データ同士の一致度を判定する。   The feature data (k) of the record including the same signal condition (k) as the signal condition (k) used for authentication is read from the face feature DB 38, and the degree of coincidence between the feature data is determined.

プログラマブル表示器13のディスプレイ33に表示される登録用の絵あるいは認証用の絵の表示例について、図6および図7を参照しながら以下に説明する。   A display example of a registration picture or an authentication picture displayed on the display 33 of the programmable display 13 will be described below with reference to FIGS. 6 and 7.

登録時には、登録用の絵として「☆」Aを、先ず、図6(a)に示すように、ディスプレイ33の表示画面中央に表示し、そして、図6(b)〜図6(e)に示すように、ディスプレイ33の表示画面の左上から、左下、右下、右上に表示する。   At the time of registration, “☆” A as a picture for registration is first displayed in the center of the display screen of the display 33 as shown in FIG. 6 (a), and then in FIGS. 6 (b) to 6 (e). As shown, the display screen is displayed from the upper left to the lower left, the lower right, and the upper right of the display screen.

ここで、ディスプレイ33の表示画面上の「☆」Aの表示位置を、上述した信号条件とする。このとき、図5に示す顔特徴DB38では、n=5となり、信号条件(1)が図6(a)に示す「☆」Aの表示位置を示し、信号条件(1)が図6(a)に示す「☆」Aの表示位置を示し、信号条件(2)が図6(b)に示す「☆」Aの表示位置を示し、信号条件(3)が図6(c)に示す「☆」Aの表示位置を示し、信号条件(4)が図6(d)に示す「☆」Aの表示位置を示し、信号条件(5)が図6(e)に示す「☆」Aの表示位置を示すことになる。   Here, the display position of “☆” A on the display screen of the display 33 is the signal condition described above. At this time, in the face feature DB 38 shown in FIG. 5, n = 5, the signal condition (1) indicates the display position of “☆” A shown in FIG. 6A, and the signal condition (1) is shown in FIG. ) Shows the display position of “☆” A, the signal condition (2) shows the display position of “☆” A shown in FIG. 6B, and the signal condition (3) shows “ ☆ ”indicates the display position of A, signal condition (4) indicates the display position of“ ☆ ”A shown in FIG. 6D, and signal condition (5) indicates“ ☆ ”A shown in FIG. 6E. This indicates the display position.

このように、プログラマブル表示器13のディスプレイ33の表示画面上で、「☆」Aの表示位置を変更させることで、使用者Xの顔と撮影用カメラ16の位置関係が変更されることになる。つまり、「☆」Aの表示位置(信号条件)によって、使用者Xの顔を撮影する角度を異ならせることができるので、同一人物の顔の特徴量を多面的に抽出することが可能となる。   As described above, the positional relationship between the face of the user X and the photographing camera 16 is changed by changing the display position of “☆” A on the display screen of the display 33 of the programmable display 13. . That is, since the angle at which the face of the user X is photographed can be varied depending on the display position (signal condition) of “☆” A, it is possible to extract face feature values of the same person from various angles. .

具体的には、信号条件(k)と、該信号条件(k)に基づいた表示位置に表示されている「☆」Aを見ている使用者Xの顔を撮影用カメラ16で撮影して得られた画像情報から抽出された特徴量を特徴データ(k)として関連付けて、顔特徴DB38に登録している。   Specifically, the photographing camera 16 photographs the face of the user X who is viewing the signal condition (k) and “☆” A displayed at the display position based on the signal condition (k). The feature amount extracted from the obtained image information is associated with the feature data (k) and registered in the face feature DB 38.

認証時には、認証用の絵として「☆」Bを、先ず、図7(a)に示すように、ディスプレイ33の表示画面の右下に表示し、そして、図7(b)〜図7(e)に示すように、ディスプレイ33の表画面の中央、左下、右上、左上に表示する。   At the time of authentication, “☆” B is first displayed as a picture for authentication at the lower right of the display screen of the display 33 as shown in FIG. 7A, and then FIG. 7B to FIG. As shown in (), the display is displayed at the center, lower left, upper right, and upper left of the front screen of the display 33.

このように、プログラマブル表示器13のディスプレイ33の表示画面上で、「☆」Bの表示位置を変更させることで、使用者Xの顔と撮影用カメラ16の位置関係が変更されることになる。つまり、「☆」Bの表示位置(信号条件)によって、使用者Xの顔を撮影する角度を異ならせることができるので、同一人物の顔の特徴量を多面的に抽出することが可能となる。   As described above, by changing the display position of “☆” B on the display screen of the display 33 of the programmable display 13, the positional relationship between the face of the user X and the photographing camera 16 is changed. . That is, since the angle at which the face of the user X is photographed can be varied depending on the display position (signal condition) of “☆” B, the feature amount of the face of the same person can be extracted in a multifaceted manner. .

従って、認証時においては、ある信号条件と、その信号条件に基づいた表示位置に表示されている「☆」Bを見ている使用者Xの顔を撮影用カメラ16で撮影して得られた画像情報から抽出された特徴量を特徴データとして関連付けておき、この特徴データと、顔特徴DB38に登録されている同じ信号条件に関連付けられた特徴データとが一致するか否かを判断している。   Therefore, at the time of authentication, it was obtained by photographing the face of the user X who is looking at a certain signal condition and “☆” B displayed at the display position based on the signal condition with the photographing camera 16. The feature amount extracted from the image information is associated as feature data, and it is determined whether or not the feature data matches the feature data associated with the same signal condition registered in the face feature DB 38. .

上記構成の認証装置において、個人の登録は、予め決められた信号を一つ二つ発生させて行く、その一つの信号に対して静的(平面や立体等)な特徴を上記エンジン(顔検出エンジン73等)で抽出する。この抽出されたデータを抽出時の信号条件と関連付けて個人の一部分の特徴とする。この作業を既定の信号分繰り返して1個人の認証用データとして顔特徴DB38に登録する。   In the authentication apparatus having the above-described configuration, personal registration is performed by generating two predetermined signals, and static (planar, three-dimensional, etc.) features of the engine (face detection) for the one signal. The engine 73 and the like). This extracted data is associated with a signal condition at the time of extraction and is used as a characteristic of a part of an individual. This operation is repeated for a predetermined signal and is registered in the face feature DB 38 as authentication data for one individual.

具体的な、個人の登録処理の流れについて図1、図2および図8を参照に説明する。   A specific flow of personal registration processing will be described with reference to FIGS. 1, 2, and 8. FIG.

まず、登録用信号発生部72aにより、登録用信号を発生する(ステップS11)。この登録用信号の発生により、プログラマブル表示器13のディスプレイ33では、該登録用信号により規定された表示位置に絵、例えば「☆」を表示させ、登録対象者である個人の顔を撮影用カメラ16で撮影する。   First, a registration signal is generated by the registration signal generator 72a (step S11). Due to the generation of the registration signal, the display 33 of the programmable display 13 displays a picture, for example, “☆” at the display position defined by the registration signal, and captures the face of the individual who is the registration subject. Shoot at 16.

次に、顔検出エンジン73により、撮影された個人の顔画像から顔の部分を検出する(ステップS12)。   Next, the face detection engine 73 detects a face part from the photographed personal face image (step S12).

続いて、静的顔特徴抽出エンジン74により、検出された顔画像の特徴量(特徴データ)を抽出する(ステップS13)。   Subsequently, the feature amount (feature data) of the detected face image is extracted by the static face feature extraction engine 74 (step S13).

次いで、特徴データ関連付け部72bにより、特徴量を抽出した際の信号条件と、該特徴量とを関連付けて1レコードとして、顔特徴DB38に登録する(ステップS14)。   Next, the feature data association unit 72b associates the signal condition when the feature amount is extracted with the feature amount, and registers them in the face feature DB 38 as one record (step S14).

そして、ステップS15において、特徴データ登録部72cにより、ステップS14までの処理が既定回数完了したか否かを判定し、否の場合にステップS11に移行し、レコードの登録処理を続行する。   In step S15, the feature data registration unit 72c determines whether or not the process up to step S14 has been completed a predetermined number of times. If not, the process proceeds to step S11 to continue the record registration process.

一方、ステップS15において、特徴データ登録部72cにより、ステップS14までの処理が既定回数完了したか否かを判定し、完了した場合には、関連付け特徴データの集合を個人の認証用データとして登録する(ステップS16)。   On the other hand, in step S15, the feature data registration unit 72c determines whether or not the process up to step S14 has been completed a predetermined number of times, and if complete, registers a set of associated feature data as personal authentication data. (Step S16).

次に、上記構成の認証装置において、個人の認証は、既定の信号条件をランダム関数などをもとに無作為に発生させる。認証対象者は、この信号によって登録時と同じ反応をするように促す。そして、信号毎に得られた特徴量を顔特徴DB38に登録されている特徴量と一致しているか否かを判定する。この一連の操作を所定回数繰り返し、既定回数以上一致していれば、認証成功とする。   Next, in the authentication apparatus configured as described above, for personal authentication, a predetermined signal condition is randomly generated based on a random function or the like. The person to be authenticated is prompted to perform the same reaction as at the time of registration by this signal. Then, it is determined whether or not the feature value obtained for each signal matches the feature value registered in the face feature DB 38. This series of operations is repeated a predetermined number of times, and if it matches the predetermined number of times or more, the authentication is successful.

具体的な個人の認証処理の流れについて、図1、図2および図9を参照しながら以下に説明する。   A specific flow of personal authentication processing will be described below with reference to FIGS. 1, 2, and 9.

まず、認証用信号発生部71aにより、認証用信号を発生する(ステップS21)。この認証用信号の発生により、プログラマブル表示器13のディスプレイ33では、該認証用信号により規定された表示位置に絵、例えば「☆」を表示させ、認証対象者である個人の顔を撮影用カメラ16で撮影する。   First, an authentication signal is generated by the authentication signal generator 71a (step S21). Due to the generation of the authentication signal, the display 33 of the programmable display 13 displays a picture, for example, “☆” at the display position defined by the authentication signal, and captures the face of the individual who is the subject of authentication. Shoot at 16.

次に、顔検出エンジン73により、撮影された個人の顔画像から顔の部分を検出する(ステップS22)。   Next, the face detection engine 73 detects a face portion from the photographed personal face image (step S22).

続いて、静的顔特徴抽出エンジン74により、検出された顔画像の特徴量(特徴データ)を抽出する(ステップS23)。   Subsequently, the feature amount (feature data) of the detected face image is extracted by the static face feature extraction engine 74 (step S23).

次いで、静的顔認証エンジン75により、抽出された特徴データと、顔特徴DB38に予め登録された特徴データとで静的顔認証を行い(ステップS24)、抽出された特徴データに関連付けられた信号条件に一致する、顔特徴DB38に登録されているレコード内の信号条件に対応付けられた特徴データと、抽出された特徴データとが一致しているか否かを判定する(ステップS25)。   Next, static face authentication is performed by the static face authentication engine 75 using the extracted feature data and the feature data registered in advance in the face feature DB 38 (step S24), and a signal associated with the extracted feature data. It is determined whether the feature data corresponding to the signal condition in the record registered in the face feature DB 38 that matches the condition matches the extracted feature data (step S25).

ここで、特徴が一致していると判定されれば、一致回数判定部71bにより、既定回数一致したか否かを判定する(ステップS26)。   Here, if it is determined that the features match, the match count determination unit 71b determines whether or not the preset count matches (step S26).

ステップS26において、既定回数一致していないと判定されれば、ステップS21に移行し、S22〜S25までの処理を続行する。   If it is determined in step S26 that the predetermined number of times does not match, the process proceeds to step S21, and the processes from S22 to S25 are continued.

一方、ステップS26において、既定回数一致していると判定されれば、認証部71dにより、個人の認証が完了、すなわち本人であると断定する(ステップS27)。   On the other hand, if it is determined in step S26 that they match the predetermined number of times, the authentication unit 71d determines that personal authentication is completed, that is, the person is the person himself (step S27).

また、ステップS25において、特徴が一致していないと判定されれば、信号発生回数判定部71cにより、既定回数の信号発生が行われたか否かを判定する(ステップS28)。   If it is determined in step S25 that the features do not match, the signal generation number determination unit 71c determines whether or not a predetermined number of signal generations have been performed (step S28).

ステップS28において、既定回数の信号発生が行われていれば、認証部71dにより、不一致、すなわち本人でないと断定する(ステップS29)。   In step S28, if a predetermined number of signals have been generated, the authentication unit 71d determines that there is a mismatch, that is, that the person is not the person (step S29).

なお、上記の特徴量の一致は、静的顔認証エンジンで行うが、一致度を調整し、通常の静的顔認証より厳しい値にしておくことでより認証精度の向上を図ることが可能となる。また、精度の調整範囲として登録信号条件数や一致回数を増減させることや、信号の発生タイミングの速遅によっても変えることができ、これにより、写真や模型による不正を防ぐことが可能となる。   The above feature amount matching is performed by the static face authentication engine. However, it is possible to improve the authentication accuracy by adjusting the degree of matching and setting a stricter value than the normal static face authentication. Become. In addition, the number of registered signal conditions and the number of coincidences can be increased or decreased as the accuracy adjustment range, and can also be changed depending on whether the signal generation timing is fast or slow, thereby preventing fraud due to photographs or models.

以上のように、上記構成の認証装置では、同一認証対象者自身の向きを変えるように誘導しているので、撮影用カメラを移動させる必要も、あるいは複数の撮影用カメラを使用する必要もなく、1台の撮影用カメラで認証対象者を多面的に撮影することができる。   As described above, since the authentication apparatus configured as described above guides the user to change the orientation of the same person to be authenticated, there is no need to move the shooting camera or use a plurality of shooting cameras. The subject person can be photographed in a multifaceted manner with a single photographing camera.

これにより、認証装置を含んだ顔認証システムを安価に実現できる。   Thereby, the face authentication system including the authentication device can be realized at low cost.

また、上記構成の認証装置では、動画で認証するのではなく、毎回変わる画像で認識するようになっているので、動画であっても、静止画であってもどちらも認証に使用することが可能となる。   In the authentication apparatus having the above-described configuration, authentication is not performed with a moving image, but is recognized with an image that changes every time. Therefore, both a moving image and a still image can be used for authentication. It becomes possible.

なお、本実施の形態のように、認証に、静止画を採用することで、プログラムに組み込む場合、該プログラムがコンパクトになるというメリットを有する。   Note that, as in the present embodiment, by adopting a still image for authentication, there is an advantage that the program becomes compact when incorporated into the program.

さらに、上記構成の認証装置では、認証対象者の向きを誘導する誘導方法について、プログラマブル表示器13のディスプレイ33に表示されるシンボルの表示位置を変更することで行っているが、これに限定されるものではない。例えば、音を発生させて、認証対象者の向きを変えてもよい。この場合、音を発生する位置をランダムに変えることで、認証対象者の向きを変えるようにすればよい。   Furthermore, in the authentication device having the above configuration, the guidance method for guiding the direction of the person to be authenticated is performed by changing the display position of the symbol displayed on the display 33 of the programmable display 13, but the present invention is not limited to this. It is not something. For example, sound may be generated to change the direction of the person to be authenticated. In this case, the direction of the person to be authenticated may be changed by randomly changing the position where the sound is generated.

なお、認証対象者が自然な状態で認証できるものとしては、実際に認証装置が組み込まれているプログラマブル表示器13のディスプレイ33を見ながら行うことである。   Note that what can be authenticated by the person to be authenticated in a natural state is to perform while looking at the display 33 of the programmable display 13 in which the authentication device is actually incorporated.

いずれにしても、認証時には、絵の表示位置、あるいは音の発生位置をランダムに変更することで、認証対象者は絵や音に反応しなければならないので、静止状態での認証とは異なり不正を行い難い。   In any case, at the time of authentication, the person to be authenticated must react to the picture and sound by randomly changing the display position of the picture or the sound generation position. It is difficult to do.

また、上記では、画面データがタグから構成されている場合を例にして説明したが、これに限るものではない。デバイスの状態を取得して表示する動作、および、受け付けた操作に応じてデバイスの状態を制御する動作の少なくとも一方を規定するものであれば、画面データは、例えば、これらの動作を行うオブジェクトを、HMIとしてのグラフィック操作パネルに生成するためのデータであってもよい。   In the above description, the case where the screen data is composed of tags has been described as an example. However, the present invention is not limited to this. If the screen data defines at least one of the operation for acquiring and displaying the device state and the operation for controlling the device state according to the received operation, the screen data includes, for example, an object for performing these operations. , Data to be generated on the graphic operation panel as the HMI may be used.

本発明は上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。すなわち、請求項に示した範囲で適宜変更した技術的手段を組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope of the claims. That is, embodiments obtained by combining technical means appropriately changed within the scope of the claims are also included in the technical scope of the present invention.

最後に、認証装置の各ブロック、特に認証処理部37は、ハードウェアロジックによって構成してもよいし、次のようにCPUを用いてソフトウェアによって実現してもよい。   Finally, each block of the authentication apparatus, in particular, the authentication processing unit 37 may be configured by hardware logic, or may be realized by software using a CPU as follows.

すなわち、認証装置は、各機能を実現する制御プログラムの命令を実行するCPU(central processing unit)、上記プログラムを格納したROM(read only memory)、上記プログラムを展開するRAM(random access memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアである認証装置の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記認証装置に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。   That is, the authentication device includes a CPU (central processing unit) that executes instructions of a control program that realizes each function, a ROM (read only memory) that stores the program, a RAM (random access memory) that expands the program, A storage device (recording medium) such as a memory for storing programs and various data is provided. An object of the present invention is to provide a recording medium in which a program code (execution format program, intermediate code program, source program) of a control program of an authentication device, which is software that realizes the above-described functions, is recorded in a computer-readable manner This can also be achieved by supplying to the authentication device and reading and executing the program code recorded on the recording medium by the computer (or CPU or MPU).

上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ系などを用いることができる。   Examples of the recording medium include a tape system such as a magnetic tape and a cassette tape, a magnetic disk such as a floppy (registered trademark) disk / hard disk, and an optical disk such as a CD-ROM / MO / MD / DVD / CD-R. Card system such as IC card, IC card (including memory card) / optical card, or semiconductor memory system such as mask ROM / EPROM / EEPROM / flash ROM.

また、認証装置を通信ネットワークと接続可能に構成し、上記プログラムコードを通信ネットワークを介して供給してもよい。この通信ネットワークとしては、特に限定されず、例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、通信ネットワークを構成する伝送媒体としては、特に限定されず、例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。   Further, the authentication apparatus may be configured to be connectable to a communication network, and the program code may be supplied via the communication network. The communication network is not particularly limited. For example, the Internet, intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network, telephone line network, mobile communication network, satellite communication. A net or the like is available. Also, the transmission medium constituting the communication network is not particularly limited. For example, even in the case of wired such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL line, etc., infrared rays such as IrDA and remote control, Bluetooth ( (Registered trademark), 802.11 wireless, HDR, mobile phone network, satellite line, terrestrial digital network, and the like can also be used. The present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.

本発明は、プログラマブル表示器等の制御用表示装置を使用する際の認証を不正無く行うことができる認証装置に好適に使用できる。   INDUSTRIAL APPLICABILITY The present invention can be suitably used for an authentication device that can perform authentication without any unauthorized use when using a control display device such as a programmable display.

本発明の実施形態を示すものであり、認証処理部の要部構成を示すブロック図である。1, showing an embodiment of the present invention, is a block diagram illustrating a main configuration of an authentication processing unit. FIG. 図1に示す認証処理部を備えた制御システムの要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the control system provided with the authentication process part shown in FIG. 図2に示す制御システムに含まれる作画エディタ装置の要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the drawing editor apparatus contained in the control system shown in FIG. 本発明の顔認証システムの概略を示す図である。It is a figure which shows the outline of the face authentication system of this invention. 顔特徴DBの個人の認証用データの登録例を示す図である。It is a figure which shows the example of registration of the data for personal authentication of face feature DB. (a)〜(e)は、顔認証における認証用データの登録時のディスプレイの表示例を示す図である。(A)-(e) is a figure which shows the example of a display of the display at the time of registration of the data for authentication in face authentication. (a)〜(e)は、顔認証における認証時のディスプレイの表示例を示す図である。(A)-(e) is a figure which shows the example of a display of the display at the time of the authentication in face authentication. 動的顔登録処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a dynamic face registration process. 動的顔認証処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a dynamic face authentication process.

符号の説明Explanation of symbols

1 制御システム
2 ターゲットシステム
2a デバイス
11 PLC
13 プログラマブル表示器
15 LAN
16 撮影用カメラ(撮影手段)
17 制御用ホストコンピュータ
19 作画エディタ装置
31 PLC・IF部
32 LAN・IF部
33 ディスプレイ(表示手段)
34 入力装置
35 HMI処理部
36 記憶部
37 認証処理部
38 顔特徴DB
71 動的顔認証処理部
71a 認証用信号発生部(信号発生手段)
71b 一致回数判定部
71c 信号発生回数判定部
71d 認証部
72 動的顔登録処理部
72a 登録用信号発生部(信号発生手段)
72b 特徴データ関連付け部
72c 特徴データ登録部
73 顔検出エンジン
74 静的顔特徴抽出エンジン(特徴量抽出手段)
75 静的顔認証エンジン
91 作画処理部
91a 記憶部
91b 編集処理部
91c 表示処理部
91d データ入出力処理部
92 記憶部
93 通信処理部
1 Control system 2 Target system 2a Device 11 PLC
13 Programmable display 15 LAN
16 Camera for photographing (photographing means)
17 Host computer for control 19 Drawing editor device 31 PLC / IF unit 32 LAN / IF unit 33 Display (display means)
34 Input Device 35 HMI Processing Unit 36 Storage Unit 37 Authentication Processing Unit 38 Face Feature DB
71 Dynamic Face Authentication Processing Unit 71a Authentication Signal Generation Unit (Signal Generation Unit)
71b coincidence count determination unit 71c signal generation count determination unit 71d authentication unit 72 dynamic face registration processing unit 72a registration signal generation unit (signal generation means)
72b Feature data association unit 72c Feature data registration unit 73 Face detection engine 74 Static face feature extraction engine (feature amount extraction means)
75 Static face authentication engine 91 Drawing processing unit 91a Storage unit 91b Editing processing unit 91c Display processing unit 91d Data input / output processing unit 92 Storage unit 93 Communication processing unit

Claims (8)

同一の認証対象者を少なくとも異なる2方向に向かせるための誘導用の信号を発生する信号発生手段と、
発生した信号により誘導される種々の方向に向いている認証対象者の画像情報それぞれから、該認証対象者を特定するための特徴量を抽出する特徴量抽出手段と、
抽出された複数の特徴量と、予め登録された人物を特定するための複数の特徴量とを比較した結果に基づいて、上記認証対象者が登録されている人物であるか否かを判定する認証判定手段とを備えていることを特徴とする認証装置。
Signal generating means for generating a guidance signal for directing the same person to be authenticated in at least two different directions;
A feature quantity extracting means for extracting a feature quantity for identifying the authentication target person from each image information of the authentication target person directed in various directions induced by the generated signal;
It is determined whether or not the person to be authenticated is a registered person based on a result of comparing a plurality of extracted feature quantities with a plurality of feature quantities for specifying a person registered in advance. An authentication apparatus comprising: an authentication determination unit.
上記画像情報は、認証対象者の顔を示す顔画像情報であることを特徴とする請求項1に記載の認証装置。   The authentication apparatus according to claim 1, wherein the image information is face image information indicating a face of the person to be authenticated. 認証対象者を同一方向から撮影する撮影手段を備え、
上記撮影手段は、
誘導により認証対象者の向く方向が変更される度に、該認証対象者を撮影することを特徴とする請求項1または2に記載の認証装置。
It has a photographing means for photographing the person to be authenticated from the same direction,
The photographing means is
The authentication apparatus according to claim 1, wherein the authentication target person is photographed every time the direction of the authentication target person is changed by the guidance.
誘導により認証対象者の向く方向および/または向く順番が認証毎にランダムになるように、上記信号発生手段を制御する信号発生制御手段が設けられていることを特徴とする請求項3に記載の認証装置。   The signal generation control means for controlling the signal generation means is provided so that the direction and / or the order in which the person to be authenticated faces by the guidance is random for each authentication. Authentication device. 上記信号発生手段により発生された信号に基づいて、予め設定されたシンボルを表示する表示手段を備え、
上記撮影手段による撮影方向と、上記表示手段の表示面におけるシンボルの表示方向とが同じ向きに設定されていることを特徴とする請求項3に記載の認証装置。
Display means for displaying a preset symbol based on the signal generated by the signal generating means;
4. The authentication apparatus according to claim 3, wherein the photographing direction by the photographing unit and the display direction of the symbols on the display surface of the display unit are set to be the same direction.
上記信号発生手段は、
信号発生の時間間隔がランダムであることを特徴とする請求項1〜5の何れか1項に記載の認証装置。
The signal generating means is:
6. The authentication apparatus according to claim 1, wherein a time interval of signal generation is random.
請求項1〜6の何れか1項に記載の各手段として、コンピュータを動作させることを特徴とするプログラム。   A program that causes a computer to operate as each means according to any one of claims 1 to 6. 請求項7に記載のプログラムを記録したコンピュータ読取可能な記録媒体。   A computer-readable recording medium on which the program according to claim 7 is recorded.
JP2005313529A 2005-10-27 2005-10-27 Authentication device, program, and recording medium Pending JP2007122400A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005313529A JP2007122400A (en) 2005-10-27 2005-10-27 Authentication device, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005313529A JP2007122400A (en) 2005-10-27 2005-10-27 Authentication device, program, and recording medium

Publications (1)

Publication Number Publication Date
JP2007122400A true JP2007122400A (en) 2007-05-17

Family

ID=38146188

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005313529A Pending JP2007122400A (en) 2005-10-27 2005-10-27 Authentication device, program, and recording medium

Country Status (1)

Country Link
JP (1) JP2007122400A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008152581A (en) * 2006-12-18 2008-07-03 Digital Electronics Corp Apparatus for creating interface of facial recognition system, user interface creating program, and recording medium with it recorded thereon
JP2011100267A (en) * 2009-11-05 2011-05-19 Mitsubishi Electric Corp Programmable display unit
JP2015026316A (en) * 2013-07-29 2015-02-05 オムロン株式会社 Programmable display apparatus, display control method, and program
JP2015026317A (en) * 2013-07-29 2015-02-05 オムロン株式会社 Programmable display apparatus, control method, and program
JP2015026315A (en) * 2013-07-29 2015-02-05 オムロン株式会社 Programmable display apparatus, control method, and program
WO2015194135A1 (en) * 2014-06-19 2015-12-23 日本電気株式会社 Authentication device, authentication system, authentication method, and program storage medium
JP2016126487A (en) * 2014-12-26 2016-07-11 株式会社キーエンス Programmable display
WO2016209032A1 (en) * 2015-06-26 2016-12-29 주식회사 씽크풀 Digital image determination method and system, application system for same, and authentication system
KR101725219B1 (en) * 2015-06-26 2017-04-27 주식회사 씽크풀 Method for digital image judging and system tereof, application system, and authentication system thereof
JP2022042988A (en) * 2020-08-28 2022-03-15 ティーエムアールダブリュー ファウンデーション アイピー エスエーアールエル Graphical representation-based user authentication system and method
WO2022201746A1 (en) * 2021-03-23 2022-09-29 日本電気株式会社 Entry/exit management system, entry/exit management method, and recording medium

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008152581A (en) * 2006-12-18 2008-07-03 Digital Electronics Corp Apparatus for creating interface of facial recognition system, user interface creating program, and recording medium with it recorded thereon
JP2011100267A (en) * 2009-11-05 2011-05-19 Mitsubishi Electric Corp Programmable display unit
JP2015026316A (en) * 2013-07-29 2015-02-05 オムロン株式会社 Programmable display apparatus, display control method, and program
JP2015026317A (en) * 2013-07-29 2015-02-05 オムロン株式会社 Programmable display apparatus, control method, and program
JP2015026315A (en) * 2013-07-29 2015-02-05 オムロン株式会社 Programmable display apparatus, control method, and program
US9754094B2 (en) 2013-07-29 2017-09-05 Omron Corporation Programmable display apparatus, control method, and program
JPWO2015194135A1 (en) * 2014-06-19 2017-04-20 日本電気株式会社 Authentication device, authentication system, authentication method, and computer program
WO2015194135A1 (en) * 2014-06-19 2015-12-23 日本電気株式会社 Authentication device, authentication system, authentication method, and program storage medium
JP2019003659A (en) * 2014-06-19 2019-01-10 日本電気株式会社 Authentication device, authentication system, terminal device, authentication method, and computer program
JP2020140721A (en) * 2014-06-19 2020-09-03 日本電気株式会社 Authentication device, authentication method, and computer program
US11429700B2 (en) 2014-06-19 2022-08-30 Nec Corporation Authentication device, authentication system, and authentication method
US11593465B2 (en) 2014-06-19 2023-02-28 Nec Corporation Authentication device, authentication system, and authentication method
US11797659B2 (en) 2014-06-19 2023-10-24 Nec Corporation Authentication device, authentication system, and authentication method
JP2016126487A (en) * 2014-12-26 2016-07-11 株式会社キーエンス Programmable display
WO2016209032A1 (en) * 2015-06-26 2016-12-29 주식회사 씽크풀 Digital image determination method and system, application system for same, and authentication system
KR101725219B1 (en) * 2015-06-26 2017-04-27 주식회사 씽크풀 Method for digital image judging and system tereof, application system, and authentication system thereof
KR101748136B1 (en) * 2015-06-26 2017-06-28 주식회사 씽크풀 Method for certification using digital image, application system, and authentication system thereof
JP2022042988A (en) * 2020-08-28 2022-03-15 ティーエムアールダブリュー ファウンデーション アイピー エスエーアールエル Graphical representation-based user authentication system and method
WO2022201746A1 (en) * 2021-03-23 2022-09-29 日本電気株式会社 Entry/exit management system, entry/exit management method, and recording medium

Similar Documents

Publication Publication Date Title
JP2007122400A (en) Authentication device, program, and recording medium
US11310223B2 (en) Identity authentication method and apparatus
TWI751161B (en) Terminal equipment, smart phone, authentication method and system based on face recognition
CN110889320B (en) Periocular face recognition switching
CN110555359B (en) Automatic retry of facial recognition
EP2339536A2 (en) Image processing system, image processing apparatus, image processing method, and program
CN103688273B (en) Amblyopia user is aided in carry out image taking and image review
US20150254443A1 (en) Method and system for enforced biometric authentication
CN108446638A (en) Auth method, device, storage medium and electronic equipment
JP2006235718A (en) Facial authentication device, its facial authentication method, electronic equipment integrated with the facial authentication device and recording medium with the facial authentication program stored thereon
JP2004220376A (en) Security management method and system, program, and recording medium
JPWO2020022034A1 (en) Information processing equipment, information processing methods and information processing programs
CN105894042A (en) Method and apparatus for detecting whether document image is covered
US20190034605A1 (en) Authentication method of specified condition, authentication software of specified condition, device and server used for executing authentication of specified condition
CA3087169A1 (en) Systems and methods for authenticating a user signing an electronic document
KR20160101228A (en) system for access control using hand gesture cognition, method thereof and computer recordable medium storing the method
JP6399371B1 (en) Information processing apparatus, information processing apparatus control method, and program
JP6988160B2 (en) Information processing equipment and information processing programs
JP6650018B1 (en) Information processing apparatus, information processing method, program, and information processing server
JP2020091876A (en) Information processing device, information processing method, program, and information processing server
KR102539533B1 (en) Method and apparatus for preventing other people from photographing identification
EP4113334A1 (en) Method and system for automatic proofing of a remote recording
KR100608307B1 (en) The method and system for recognition human face
WO2019026722A1 (en) Image processing device and control program
JP2005044121A (en) Personal identification system and method