JP6823267B2 - Information processing equipment, information processing systems, control methods, and programs - Google Patents

Information processing equipment, information processing systems, control methods, and programs Download PDF

Info

Publication number
JP6823267B2
JP6823267B2 JP2018238242A JP2018238242A JP6823267B2 JP 6823267 B2 JP6823267 B2 JP 6823267B2 JP 2018238242 A JP2018238242 A JP 2018238242A JP 2018238242 A JP2018238242 A JP 2018238242A JP 6823267 B2 JP6823267 B2 JP 6823267B2
Authority
JP
Japan
Prior art keywords
face
authentication
user
person
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018238242A
Other languages
Japanese (ja)
Other versions
JP2019046507A5 (en
JP2019046507A (en
Inventor
克繁 中田
克繁 中田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Canon IT Solutions Inc
Original Assignee
Canon Marketing Japan Inc
Canon IT Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc, Canon IT Solutions Inc filed Critical Canon Marketing Japan Inc
Publication of JP2019046507A publication Critical patent/JP2019046507A/en
Publication of JP2019046507A5 publication Critical patent/JP2019046507A5/ja
Application granted granted Critical
Publication of JP6823267B2 publication Critical patent/JP6823267B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ユーザ認証を行うにあたり、特に、顔認証技術を用いた認証方法に関する。 The present invention relates to an authentication method using a face authentication technique in performing user authentication.

近年、各企業でテレワークへの関心が高まっている。テレワークには機密情報への第三者のアクセスや労働管理などの問題があり、テレワークを導入するためにはそれらを解決しなければならない。 In recent years, interest in telework has been increasing in each company. Telework has problems such as third party access to confidential information and labor management, which must be resolved in order to introduce telework.

現在、それらの問題を解決するため、顔認証技術を利用したテレワーク管理支援システムが現れつつあり、このシステムを用いることで、ウェブカメラ画像から本人認証をおこない、なりすましや第三者による画面の覗き込みを検出できるようになる。また本人の在席時間も把握できるため、適切な労働時間の管理をおこなえる。 Currently, in order to solve these problems, a telework management support system that uses face recognition technology is appearing, and by using this system, identity verification is performed from webcam images, and spoofing and screen peeping by a third party. You will be able to detect crowds. In addition, since the attendance time of the person can be grasped, it is possible to manage the working hours appropriately.

上記システムで本人認証をおこなうとき、なりすまし検出や認証精度の向上が重要になってくる。 When performing personal authentication with the above system, it is important to detect spoofing and improve authentication accuracy.

そこで、なりすましを検出する技術として、写真等の記録媒体に投影された人物を用いたなりすましを検出するため、機器に備えられたカメラに対する視線の向きから、本人であるか、あるいは、写真等の記録媒体に投影された人物であるかを判断することで、なりすましの判定を行う技術が開示されている(例えば、特許文献1参照)。 Therefore, as a technique for detecting spoofing, in order to detect spoofing using a person projected on a recording medium such as a photograph, the person is the person or the photograph or the like from the direction of the line of sight to the camera provided in the device. A technique for determining spoofing by determining whether or not a person is projected on a recording medium is disclosed (see, for example, Patent Document 1).

また、認証精度の向上を図る技術として、光量不足などが原因で、顔認識の信頼度が一定の値よりも低い場合に、質問に対する回答内容とその音声の認識により、本人認証をおこなうことで、顔認識と音声認識との組み合わせによる、認証精度の向上を図る技術が開示されている(例えば、特許文献2参照)。 In addition, as a technology to improve the authentication accuracy, when the reliability of face recognition is lower than a certain value due to insufficient light, etc., the person is authenticated by recognizing the answer to the question and its voice. , A technique for improving authentication accuracy by combining face recognition and voice recognition is disclosed (see, for example, Patent Document 2).

特開2008−015800号公報Japanese Unexamined Patent Publication No. 2008-015800 特開2007−156688号公報JP-A-2007-156688

しかしながら、前述したテレワーク管理支援システムにおいては、次の二つの状況下で本人認証の精度低下によるなりすましの誤検出が発生する問題がある。 However, in the above-mentioned telework management support system, there is a problem that spoofing erroneous detection occurs due to a decrease in the accuracy of personal authentication under the following two situations.

一つ目の状況として、正面以外の顔でのなりすましの誤検出が挙げられ、このシステムでは、ディスプレイに隣接するウェブカメラ画像を用いて、定期的に本人認証によるなりすまし検出をおこなう。 The first situation is false detection of spoofing on a face other than the front, and this system periodically detects spoofing by personal authentication using a webcam image adjacent to the display.

本人認証する際、ウェブカメラに対し正面を向いていれば、現状においても比較的高精度に認証できるが、実際にはテレワーカは、ディスプレイだけでなく、それ以外の場所を見て作業をすることも多く、ウェブカメラを正面にすることは少ない。 When authenticating the person, if the person is facing the front of the webcam, the authentication can be performed with relatively high accuracy even at present, but in reality, the teleworker looks not only at the display but also at other places when working. There are many, and it is rare that the webcam is in front.

特に手元の書類を見ながらの作業では、下を向いた状態ですることも多い。そのため、本人認証の精度が低下し、なりすましの誤検出が発生する。 Especially when working while looking at the documents at hand, it is often in a downward position. Therefore, the accuracy of personal authentication is lowered, and false detection of spoofing occurs.

二つ目の状況として、マスク着用時などの顔の一部が欠けたときのなりすましの誤検出が挙げられ、このシステムで使用する顔認証処理では、鼻周辺が欠けると本人認証の精度が極端に低下してしまい、なりすましの誤検出が発生する。 The second situation is false detection of spoofing when a part of the face is missing, such as when wearing a mask. In the face recognition process used in this system, if the area around the nose is missing, the accuracy of personal authentication is extremely high. It will be reduced to, and false detection of spoofing will occur.

このような問題に対し、特許文献1に記載の技術では、写真等に投影された人物と本人とを区別するものであるため、顔の角度変化や一部が欠けたことによる本人認証の精度低下を防ぐことはできない。 In response to such a problem, the technique described in Patent Document 1 distinguishes a person projected on a photograph or the like from the person himself / herself, so that the accuracy of person authentication due to a change in the angle of the face or a lack of a part thereof. The decline cannot be prevented.

また、特許文献2に記載の技術では、顔認証処理の信頼度が低い場合に対処するものであり、質問への回答内容と音声認識の情報を用いることから、ログイン処理などの特定場面への適用には適しているものの、テレワーカ管理支援システムのような、定期的に本人認証するシステムへの適用は、認証毎に質問への回答をおこなう必要があるため、適していない。 Further, the technique described in Patent Document 2 deals with a case where the reliability of the face authentication process is low, and since the answer contents to the question and the voice recognition information are used, it is possible to perform a specific scene such as a login process. Although suitable for application, application to a system that authenticates the person on a regular basis, such as a teleworker management support system, is not suitable because it is necessary to answer questions for each authentication.

そこで本発明では、顔情報を用いて本人認証を要する仕組みに於いて、誤認識を抑止する、情報処理装置、情報処理システム、制御方法、及びプログラムの提供を目的とする。 Therefore, an object of the present invention is to provide an information processing device, an information processing system, a control method, and a program that suppress erroneous recognition in a mechanism that requires personal authentication using face information .

上記目的を達成するための第1の発明は、撮影して得られた画像の顔情報を用いて本人認証を行う情報処理装置であって、撮影して得られた画像から顔に関する顔情報を取得する取得手段と、前記取得手段によって取得した顔情報を用いて、本人認証の制御を繰り返し行う認証制御手段と、を備え、前記認証制御手段は、ユーザが本人として認証された後、前記本人として認証がなされたユーザの顔情報に基づき当該ユーザ認識された状態の継続が所定の条件を満たす場合、前記本人認証を行うように制御することを特徴とする。 The first invention for achieving the above object is an information processing device that authenticates a person by using the face information of an image obtained by taking a picture, and obtains face information about a face from the image obtained by taking a picture. The acquisition means for acquiring and the authentication control means for repeatedly controlling the person authentication using the face information acquired by the acquisition means are provided, and the authentication control means is the person after the user is authenticated as the person. When the continuation of the state in which the user is recognized based on the face information of the user who has been authenticated as a condition satisfies a predetermined condition, the user is controlled to perform the personal authentication.

上記目的を達成するための第2の発明は、クライアント端末と、管理者用端末と、サーバと、がネットワークを介して接続された情報処理システムであって、撮影して得られた画像から顔に関する顔情報を取得する取得手段と、前記取得手段によって取得した顔情報を用いて、本人認証の制御を繰り返し行う認証制御手段と、を備え、前記認証制御手段は、ユーザが本人として認証された後、前記本人として認証がなされたユーザの顔情報に基づき当該ユーザ認識された状態の継続が所定の条件を満たす場合、前記本人認証を行うように制御することを特徴とする。 A second invention for achieving the above object is an information processing system in which a client terminal, an administrator terminal, and a server are connected via a network, and a face is obtained from an image obtained by photographing. The authentication control means includes an acquisition means for acquiring face information related to the user and an authentication control means for repeatedly controlling personal authentication using the face information acquired by the acquisition means, and the authentication control means authenticates the user as the person. After that, when the continuation of the state in which the user is recognized based on the face information of the user who has been authenticated as the person satisfies a predetermined condition, the control is performed so as to perform the person authentication.

上記目的を達成するための第3の発明は、撮影して得られた画像の顔情報を用いて本人認証を行う情報処理装置の制御方法であって、前記情報処理装置は、撮影して得られた画像から顔に関する顔情報を取得する取得ステップと、前記取得ステップによって取得した顔情報を用いて、本人認証の制御を繰り返し行う認証制御ステップと、を実行し、前記認証制御ステップは、ユーザが本人として認証された後、前記本人として認証がなされたユーザの顔情報に基づき当該ユーザ認識された状態の継続が所定の条件を満たす場合、前記本人認証を行うように制御することを特徴とする。 A third invention for achieving the above object is a control method of an information processing device that authenticates a person by using face information of an image obtained by photographing, and the information processing device obtains by photographing. An acquisition step of acquiring face information about a face from the acquired image and an authentication control step of repeatedly controlling personal authentication using the face information acquired by the acquisition step are executed, and the authentication control step is a user. After being authenticated as the person, if the continuation of the state in which the user is recognized based on the face information of the user who has been authenticated as the person satisfies a predetermined condition, the person is controlled to perform the person authentication. And.

上記目的を達成するための第4の発明は、コンピュータを、撮影して得られた画像から顔に関する顔情報を取得する取得手段と、前記取得手段によって取得した顔情報を用いて、撮影して得られた画像からユーザの顔認識を行う本人認証を繰り返し行う認証制御手段と、して機能させ、前記認証制御手段は、ユーザが本人として認証された後、前記本人として認証がなされたユーザの顔情報に基づき当該ユーザ認識された状態の継続が所定の条件を満たす場合、前記本人認証を行うように制御するように機能させるためのプログラム。 A fourth invention for achieving the above object is to photograph a computer by using an acquisition means for acquiring face information about a face from an image obtained by photographing and the face information acquired by the acquisition means. It functions as an authentication control means that repeatedly performs personal authentication that recognizes the user's face from the obtained image, and the authentication control means is for a user who has been authenticated as the person after the user has been authenticated as the person. If continuation of the state where the user is recognized on the basis of face information satisfies a predetermined condition, a program for causing the functions to control to perform the personal authentication.

上記目的を達成するための第5の発明は、クライアント端末と、管理者用端末と、サーバと、がネットワークを介して接続された情報処理システムの制御方法であって、前記情報処理システムは、撮影して得られた画像から顔に関する顔情報を取得する取得ステップと、前記取得ステップによって取得した顔情報を用いて、撮影して得られた画像からユーザの顔認識を行う本人認証の制御を繰り返し行う認証制御ステップと、を実行し、前記認証制御ステップは、ユーザが本人として認証された後、前記本人として認証がなされたユーザの顔情報に基づき当該ユーザ認識された状態認識の継続が所定の条件を満たす場合、前記本人認証を行うように制御するように実行することを特徴とする。 A fifth invention for achieving the above object is a control method of an information processing system in which a client terminal, an administrator terminal, and a server are connected via a network. Control of personal authentication that recognizes the user's face from the image obtained by taking a picture by using the acquisition step of acquiring face information about the face from the image obtained by taking a picture and the face information acquired by the acquisition step. The repeated authentication control step is executed, and in the authentication control step, after the user is authenticated as the person, the state recognition in which the user is recognized based on the face information of the user who has been authenticated as the person is continued. When a predetermined condition is satisfied, it is characterized in that it is executed so as to control the personal authentication.

本発明によれば、顔情報を用いて本人認証を要する仕組みに於いて、誤認識を抑止して、システムを利用させることができる、という効果を奏する。 According to the present invention, in a mechanism that requires personal authentication using face information, it is possible to suppress erroneous recognition and use the system.

本発明の実施形態に係るテレワーク管理支援システムの構成の一例を示すシステム構成図である。It is a system block diagram which shows an example of the structure of the telework management support system which concerns on embodiment of this invention. 本発明の実施形態に係る管理サーバ、データベースサーバ、テレワーカ用PC、及び管理者用PCに適用可能な情報処理装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware configuration of the information processing apparatus applicable to the management server, the database server, the teleworker PC, and the administrator PC which concerns on embodiment of this invention. 本発明の実施形態に係るテレワーク管理支援システムにおける、管理サーバ、データベースサーバ、テレワーカ用PC、及び管理用PCの機能ブロック図である。It is a functional block diagram of a management server, a database server, a teleworker PC, and a management PC in the telework management support system according to the embodiment of the present invention. 本発明の実施形態に係るテレワーク管理支援システムにおける、認証手順の一例を示すフローチャートである。It is a flowchart which shows an example of the authentication procedure in the telework management support system which concerns on embodiment of this invention. 本発明の実施形態に係るテレワーク管理支援システムにおける、顔認識エリアと顔追従エリアの判定処理の一例を示すフローチャートである。It is a flowchart which shows an example of the determination process of a face recognition area and a face tracking area in the telework management support system which concerns on embodiment of this invention. 本発明の実施形態に係るテレワーク管理支援システムにおける、設定ファイルの記述例である。This is a description example of a setting file in the telework management support system according to the embodiment of the present invention. 本発明の実施形態に係るテレワーク管理支援システムにおける、顔認識エリアと顔追従エリアの関係を説明するための説明図である。It is explanatory drawing for demonstrating the relationship between a face recognition area and a face tracking area in the telework management support system which concerns on embodiment of this invention. 本発明の実施形態に係るテレワーク管理支援システムにおける、顔追従エリア判定の範囲を説明するための説明図である。It is explanatory drawing for demonstrating the range of face tracking area determination in the telework management support system which concerns on embodiment of this invention. 本発明の実施形態に係るテレワーク管理支援システムにおける、顔追従エリア判定の範囲を説明するための説明図である。It is explanatory drawing for demonstrating the range of face tracking area determination in the telework management support system which concerns on embodiment of this invention. 本発明の実施形態に係るテレワーク管理支援システムにおける、顔追従エリア判定の範囲を説明するための説明図である。It is explanatory drawing for demonstrating the range of face tracking area determination in the telework management support system which concerns on embodiment of this invention. 本発明の実施形態に係るテレワーク管理支援システムにおける、顔追従エリア判定の範囲を説明するための説明図である。It is explanatory drawing for demonstrating the range of face tracking area determination in the telework management support system which concerns on embodiment of this invention. 本発明の実施形態に係るテレワーク管理支援システムにおける、ウェブ管理コンソール画面の構成を示す構成図である。It is a block diagram which shows the structure of the web management console screen in the telework management support system which concerns on embodiment of this invention.

以下、図面を参照して、本発明の実施形態を詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の本人認証処理を適用したテレワーク管理支援システムの構成の一例を示すシステム構成図である。 FIG. 1 is a system configuration diagram showing an example of the configuration of a telework management support system to which the personal authentication process of the present invention is applied.

テレワーク管理支援システム100は、1または複数の管理サーバ101、1または複数のデータベースサーバ102、1または複数のテレワーカ用PC111、1または複数の管理者用PC121がインターネット130を介して接続される構成となっている。 The telework management support system 100 has a configuration in which one or more management servers 101, one or more database servers 102, one or more teleworker PCs 111, or one or more administrator PCs 121 are connected via the Internet 130. It has become.

管理サーバ101は、テレワーカの離席状況、他者による覗き込み、あるいはなりすましの証跡データをテレワーク情報として一元管理するサーバであり、サービス環境ネットワーク104上に構築されている。 The management server 101 is a server that centrally manages the teleworker's absence status, peeping by another person, or spoofing trail data as telework information, and is constructed on the service environment network 104.

管理サーバ101へは、テレワーカ用PC111と管理者用PC121が、アカウントIDとパスワードを用いた認証処理により接続し、管理サーバ101は、テレワーカ用PC111からテレワーク情報を受信した場合は、データベースサーバ102に格納する。また、管理者用PC121からテレワーク情報の取得要求があった場合は、データベースサーバ102から必要なテレワーク情報を取り出す。 When the teleworker PC 111 and the administrator PC 121 are connected to the management server 101 by an authentication process using an account ID and a password, the management server 101 connects to the database server 102 when telework information is received from the teleworker PC 111. Store. Further, when there is a request for acquisition of telework information from the administrator PC 121, the necessary telework information is extracted from the database server 102.

データベースサーバ102は、管理サーバ101の操作にもとづいてテレワーク情報を記憶するサーバであり、サービス環境ネットワーク104上に構築されており、データベースサーバ102は、テレワーク情報のほかに、管理サーバ101への接続用アカウントIDとパスワードも記憶する。尚、データベースサーバ102は、管理サーバ101からの接続のみ許可し、外部からは接続できない構成をとることが可能である。 The database server 102 is a server that stores telework information based on the operation of the management server 101, and is constructed on the service environment network 104. The database server 102 connects to the management server 101 in addition to the telework information. The account ID and password are also stored. The database server 102 can be configured to allow only the connection from the management server 101 and not to connect from the outside.

テレワーカ用PC111は、テレワーク情報の基となる証跡データを作成する端末であり、自宅ネットワーク110上に存在し、証跡データは、専用アプリケーションにより作成され、ルータ112、インターネット130、及びルータ103を介して管理サーバ101へ送信される。本実施形態の本人認証処理は、この専用アプリケーション内の機能として動作する。 The teleworker PC 111 is a terminal that creates trail data that is the basis of telework information, exists on the home network 110, and the trail data is created by a dedicated application via the router 112, the Internet 130, and the router 103. It is transmitted to the management server 101. The personal authentication process of this embodiment operates as a function in this dedicated application.

管理者用PC121は、テレワーク情報を確認するための端末であり、社内ネットワーク120上に存在し、テレワーク情報の確認には、ウェブ管理コンソール(ウェブブラウザ上で動作)を使用し、ルータ122、インターネット130、及びルータ103を介して管理サーバ101に接続する。 The administrator PC 121 is a terminal for confirming telework information, exists on the in-house network 120, uses a web management console (operates on a web browser) to confirm telework information, and is a router 122 and the Internet. It connects to the management server 101 via the 130 and the router 103.

以下、図2を用いて図1に示した管理サーバ101、データベースサーバ102、テレワーカ用PC111、及び管理者用PC121に適用可能な情報処理装置のハードウェア構成について説明する。 Hereinafter, the hardware configuration of the information processing apparatus applicable to the management server 101, the database server 102, the teleworker PC 111, and the administrator PC 121 shown in FIG. 1 will be described with reference to FIG.

図2は、図1に示した管理サーバ101、データベースサーバ102、テレワーカ用PC111、及び管理者用PC121に適用可能な情報処理装置のハードウェア構成を示すブロック図である。各装置ともに、同様な構成を備えるため、同一の符号を用いて説明を行う。 FIG. 2 is a block diagram showing a hardware configuration of an information processing device applicable to the management server 101, the database server 102, the teleworker PC 111, and the administrator PC 121 shown in FIG. Since each device has the same configuration, the same reference numerals will be used for description.

図2において、201はCPUで、システムバス204に接続される各デバイスやコントローラを統括的に制御する。また、ROM202あるいは外部メモリ212には、CPU201の制御プログラムであるBIOS(Basic Input / Output System)やオペレーティングシステムプログラム(以下、OS)や、各サーバ或いは各PCの実行する機能を実現するために必要な後述する各種プログラム等が記憶されている。 In FIG. 2, 201 is a CPU that comprehensively controls each device and controller connected to the system bus 204. Further, the ROM 202 or the external memory 212 is required to realize a function executed by a BIOS (Basic Input / Output System) or an operating system program (hereinafter, OS) which is a control program of the CPU 201, and each server or each PC. Various programs described later are stored.

203はRAMで、CPU201の主メモリ、ワークエリア等として機能する。CPU201は、処理の実行に際して必要なプログラム等をROM202あるいは外部メモリ212からRAM203にロードして、該ロードしたプログラムを実行することで各種動作を実現するものである。 Reference numeral 203 denotes a RAM, which functions as a main memory, a work area, and the like of the CPU 201. The CPU 201 realizes various operations by loading a program or the like necessary for executing the process from the ROM 202 or the external memory 212 into the RAM 203 and executing the loaded program.

また、205は入力コントローラで、キーボード(KB)209、ウェブカメラ210や不図示のマウス等のポインティングデバイス等からの入力を制御する。206はビデオコントローラで、CRTディスプレイ(CRT)211等の表示器への表示を制御する。なお、図2では、CRT211と記載しているが、表示器はCRTだけでなく、液晶ディスプレイ等の他の表示器であってもよい。これらは必要に応じて管理者が使用するものである。 Further, 205 is an input controller, which controls input from a keyboard (KB) 209, a webcam 210, a pointing device such as a mouse (not shown), or the like. Reference numeral 206 denotes a video controller, which controls the display on a display such as a CRT display (CRT) 211. Although it is described as CRT211 in FIG. 2, the display may be not only the CRT but also another display such as a liquid crystal display. These are used by the administrator as needed.

207はメモリコントローラで、ブートプログラム,各種のアプリケーション,フォントデータ、ユーザファイル、編集ファイル、各種データ等を記憶する外部記憶装置(ハードディスク(HD))や、フレキシブルディスク(FD)、或いはPCMCIAカードスロットにアダプタを介して接続されるコンパクトフラッシュ(登録商標)メモリ等の外部メモリ212へのアクセスを制御する。 Reference numeral 207 is a memory controller, which can be used in an external storage device (hard disk (HD)) for storing boot programs, various applications, font data, user files, edit files, various data, etc., a flexible disk (FD), or a PCMCIA card slot. Controls access to an external memory 212 such as a compact flash® memory connected via an adapter.

208は通信I/Fコントローラで、ネットワーク(例えば、図1に示したネットワーク104)を介して外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いた通信等が可能である。 Reference numeral 208 denotes a communication I / F controller, which connects and communicates with an external device via a network (for example, network 104 shown in FIG. 1), and executes communication control processing in the network. For example, communication using TCP / IP is possible.

なお、CPU201は、例えばRAM203内の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、CRT211上での表示を可能としている。また、CPU201は、CRT211上の不図示のマウスカーソル等でのユーザ指示を可能とする。 Note that the CPU 201 enables display on the CRT 211 by, for example, executing an outline font expansion (rasterization) process in the display information area in the RAM 203. Further, the CPU 201 enables a user instruction with a mouse cursor or the like (not shown) on the CRT 211.

本発明を実現するための後述する各種プログラムは、外部メモリ212に記録されており、必要に応じてRAM203にロードされることによりCPU201によって実行されるものである。さらに、上記プログラムの実行時に用いられる設定ファイル等も外部メモリ212に格納されており、これらについての詳細な説明も後述する。 Various programs to be described later for realizing the present invention are recorded in the external memory 212, and are executed by the CPU 201 by being loaded into the RAM 203 as needed. Further, a setting file or the like used when executing the above program is also stored in the external memory 212, and detailed description of these will be described later.

以下、図3を用いて、本発明の本人認証処理を適用したテレワーク管理支援システム100における管理サーバ101、データベースサーバ102、テレワーカ用PC111、及び管理者用PC121において主要な機能を示す機能ブロック図について説明する。 Hereinafter, using FIG. 3, a functional block diagram showing the main functions of the management server 101, the database server 102, the teleworker PC 111, and the administrator PC 121 in the telework management support system 100 to which the personal authentication process of the present invention is applied. explain.

テレワーカ用PC111は、撮像部301、通信接続部302、及びカメラ画像取得部303を備えており、撮像部301は、被写体となるテレワーカを撮影するためのカメラを示しており、前述したウェブカメラ210に該当し、通信接続部302は、ウェブカメラ210の撮影開始をトリガーとして、管理サーバ101と接続可能となるように通信を確立する機能を具備しており、カメラ画像取得部303は、撮像部301で撮影して得られたデータを画像として取得する。但し、撮影開始のトリガーは、この態様に限らず、本人認証処理を起動したことをトリガーとしても良いし、接続に適したタイミングであれば、その他の条件をトリガーとしても良い。 The teleworker PC 111 includes an imaging unit 301, a communication connection unit 302, and a camera image acquisition unit 303. The imaging unit 301 indicates a camera for photographing a teleworker as a subject, and the above-mentioned webcam 210 The communication connection unit 302 has a function of establishing communication so as to be able to connect to the management server 101 triggered by the start of shooting of the webcam 210, and the camera image acquisition unit 303 is an imaging unit. The data obtained by taking a picture with 301 is acquired as an image. However, the trigger for starting shooting is not limited to this mode, and may be triggered by activating the personal authentication process, or may be triggered by other conditions as long as the timing is suitable for connection.

また、テレワーカ用PC111は、記憶部304、顔情報取得部305、検出エリア判定部306、及び認証部307を備えている。 Further, the teleworker PC 111 includes a storage unit 304, a face information acquisition unit 305, a detection area determination unit 306, and an authentication unit 307.

記憶部304は、後述する設定ファイル(図6参照。詳細後述)を備えており、カメラ画像取得部303によって、当該設定ファイルが取得され、それぞれの処理に於いて当該設定ファイルに記録されたパラメータが利用される。 The storage unit 304 includes a setting file (see FIG. 6, which will be described in detail later) described later. The camera image acquisition unit 303 acquires the setting file, and the parameters recorded in the setting file in each process. Is used.

顔情報取得部305は、カメラ画像取得部303によって取得された画像から被写体となる人物の顔を検出し、更に、顔の個数や画像に対する顔の位置等の顔情報を取得し、検出エリア判定部306は、顔情報取得部305によって取得した顔情報を用いて、顔が、顔追従エリア、あるいは顔認識エリア(詳細後述)の何れのエリアに居するかを判定する。 The face information acquisition unit 305 detects the face of the person to be the subject from the image acquired by the camera image acquisition unit 303, and further acquires face information such as the number of faces and the position of the face with respect to the image to determine the detection area. The unit 306 determines whether the face is in the face following area or the face recognition area (details will be described later) using the face information acquired by the face information acquisition unit 305.

更に、テレワーカ用PC111は、認証部307、認証情報管理部308、イベント通知部309、及びコントロール部310を備えている。 Further, the teleworker PC 111 includes an authentication unit 307, an authentication information management unit 308, an event notification unit 309, and a control unit 310.

認証部307は、顔追従エリア、あるいは顔認識エリアにおいて、登場する人物の顔がテレワーカ本人であるか否かの判定を行い、認証情報管理部308は、テレワーカ本人であるか否かの判定、つまり認証が行われたか否かの認証状態を管理する。例えば、認証部307において認証されれば、「認証済み」とし、顔情報取得部305において、顔の個数が0個であれば、「離席」しているとして、「未認証」とし、顔の個数が2個以上存在する場合、「覗き込み」が発生しているとして、「未認証」とする等の認証状態を管理することが可能である。 The authentication unit 307 determines whether or not the face of the person appearing is the teleworker in the face tracking area or the face recognition area, and the authentication information management unit 308 determines whether or not the person is the teleworker. That is, it manages the authentication status of whether or not authentication has been performed. For example, if the authentication unit 307 is authenticated, it is regarded as "authenticated", and if the number of faces is 0, the face information acquisition unit 305 is regarded as "away" and "unauthenticated". When there are two or more of the above, it is possible to manage the authentication status such as "unauthenticated" as "peeping" has occurred.

イベント通知部309は、管理サーバ101に対して、テレワーカ用PC111に対して発生するイベントを通知する機能を備え、前述したように顔情報取得部305において検出した顔の個数によって、「離席」や「覗き込み」のイベントを検知して、カメラ画像取得部303によって取得した画像と共に、その旨を、管理サーバ101へ通知したり、認証部307によって、「なりすまし」のイベントを検知して、カメラ画像取得部303によって取得した画像と共に、その旨を、管理サーバ101へ通知する。 The event notification unit 309 has a function of notifying the management server 101 of an event that occurs to the teleworker PC 111, and as described above, "leaves the seat" depending on the number of faces detected by the face information acquisition unit 305. Or "Peeping" event is detected and the image acquired by the camera image acquisition unit 303 is notified to the management server 101, or the authentication unit 307 detects the "spoofing" event. Along with the image acquired by the camera image acquisition unit 303, the management server 101 is notified to that effect.

コントロール部310は、テレワーカ用PC111において実行される各処理や機器を制御する機能を有し、例えば、CPU201負荷調整のためにスリープ処理を行ったり、本人認証処理の終了処理等を行う。 The control unit 310 has a function of controlling each process and device executed in the teleworker PC 111, and for example, performs sleep process for CPU201 load adjustment, end process of personal authentication process, and the like.

以下、本実施形態におけるテレワーク管理支援システム100の全体の流れを説明する。 Hereinafter, the overall flow of the telework management support system 100 in the present embodiment will be described.

テレワーク管理支援システム100において、テレワーカ用PC111では本人認証処理による労務監視、管理サーバ101とデータベースサーバ102とでは、監視情報の管理、管理者用PC121では監視情報の表示をおこなう。 In the telework management support system 100, the teleworker PC 111 performs labor monitoring by personal authentication processing, the management server 101 and the database server 102 manage monitoring information, and the administrator PC 121 displays monitoring information.

テレワーカ用PC111は、専用アプリケーションを用いて、ウェブカメラ210で撮影して得られたデータに基づく画像を用いて、本人認証処理を行う。専用アプリケーションでは、アカウントIDとパスワードを使用して、管理サーバ101と通信接続を確立する。 The teleworker PC 111 uses a dedicated application to perform personal authentication processing using an image based on data obtained by taking a picture with a webcam 210. The dedicated application uses the account ID and password to establish a communication connection with the management server 101.

管理サーバ101と接続を確立後、本人認証処理によりテレワーカの労務監視をおこなう。労務監視中、離席や他者によるディスプレイの覗き込み、本人のなりすましはイベントとして検出する。イベントが検出された場合は、テレワーカ用PC111は管理サーバ101へイベントの証跡データを送信する。 After establishing a connection with the management server 101, labor monitoring of the teleworker is performed by personal authentication processing. During labor monitoring, leaving a seat, looking into the display by another person, or impersonating the person is detected as an event. When the event is detected, the teleworker PC 111 transmits the event trail data to the management server 101.

管理サーバ101は、テレワーカ用PC111からイベントの証跡データを受信すると、テレワーク情報としてデータベースサーバ102上のテレワーク情報を記憶するテーブルへ記憶する。また証跡データの受信時、管理サーバ101は管理者用PC121へ検出通知メールを送信する。 When the management server 101 receives the event trail data from the teleworker PC 111, it stores it in a table that stores the telework information on the database server 102 as telework information. Further, when the trail data is received, the management server 101 sends a detection notification mail to the administrator PC 121.

管理者用PC121では、ウェブ管理コンソールを用いて、管理サーバ上のテレワーカのイベントの証跡データを確認できる。ウェブ管理コンソールは、ウェブブラウザから専用URLへアクセスすることで利用できる。管理コンソールでは、イベントを検出した際の時刻や画像のほか、本人認証処理に使用しているテレワーカ写真、テレワーカ用PC111の管理サーバ101への通信状況について確認できる。ウェブ管理コンソールでの管理画面の一例は、図12の説明で後述する。 On the administrator PC 121, the trail data of the teleworker event on the management server can be confirmed by using the web management console. The web management console can be used by accessing the dedicated URL from a web browser. On the management console, in addition to the time and image when the event is detected, the photograph of the teleworker used for the personal authentication process and the communication status of the teleworker PC 111 to the management server 101 can be confirmed. An example of the management screen on the web management console will be described later in the description of FIG.

以下、図4を参照して、本実施形態のテレワーク管理支援システム100における本人認証処理について説明する。 Hereinafter, the personal authentication process in the telework management support system 100 of the present embodiment will be described with reference to FIG.

図4では、テレワーカ用PC111での本人認証処理について説明する。本処理は、テレワーカ用PC111に備え付けられたウェブカメラ210の画像から、テレワーカ本人であるか否かを判定する。離席、なりすまし、あるいは覗き込みのイベントと判定した場合は、管理サーバ101に証跡データを送信する。 FIG. 4 describes the personal authentication process on the teleworker PC 111. This process determines whether or not the person is the teleworker from the image of the webcam 210 provided in the teleworker PC 111. If it is determined that the event is leaving the seat, spoofing, or looking into the event, the trail data is transmitted to the management server 101.

本処理のポイントとして、本人認証する際に、ウェブカメラ210で撮影して得られた画像を顔認識エリアと顔追従エリアとに分けて判別し、どちらで顔が検出されたかにより処理内容を変更することが挙げられる。 As a point of this processing, when authenticating the person, the image obtained by taking a picture with the webcam 210 is divided into a face recognition area and a face tracking area, and the processing content is changed depending on which of the faces is detected. To do.

詳細は後述するが、顔認識エリアは、顔認証処理を必ず実行するエリアである。顔追従エリアでは、認証状態により、顔認証処理をスキップするエリアである。 The details will be described later, but the face recognition area is an area where the face recognition process is always executed. The face tracking area is an area where the face recognition process is skipped depending on the authentication state.

認証状態には「未認証」と「認証済み」があり、顔検出状況と顔認識状況により状態が遷移する。「未承認」状態の場合、どのエリアで顔が検出されても、顔認証処理を行なう。「承認済み」状態の場合、顔追従エリアで顔が検出された場合のみ、顔認証処理をスキップする。 There are two types of authentication status, "unauthenticated" and "authenticated", and the status changes depending on the face detection status and face recognition status. In the "unapproved" state, face recognition processing is performed regardless of the area where the face is detected. In the "approved" state, the face recognition process is skipped only when a face is detected in the face tracking area.

以下に、図4を参照して本実施形態の本人認証処理の各ステップについて説明する。 Hereinafter, each step of the personal authentication process of the present embodiment will be described with reference to FIG.

ステップS401では、カメラ画像取得部303は、記憶部304の設定ファイル(図6参照。詳細後述)から各種パラメータを読み込む。パラメータには、カメラ画像サイズ、顔追従エリア、顔認証の類似度の閾値、及び処理サイクルに関するパラメータがある。 In step S401, the camera image acquisition unit 303 reads various parameters from the setting file (see FIG. 6, which will be described in detail later) of the storage unit 304. The parameters include camera image size, face tracking area, face recognition similarity threshold, and processing cycle parameters.

カメラ画像サイズのパラメータは、ウェブカメラ210から得られる画像の大きさの定義に使用する。640×480のようにピクセル値で指定し、後述するステップS402、ステップS403、及びステップS408で使用する。 The camera image size parameter is used to define the size of the image obtained from the webcam 210. It is specified by a pixel value such as 640 × 480, and is used in step S402, step S403, and step S408 described later.

顔追従エリアのパラメータは、顔追従エリアの定義に使用する。横方向をX軸、縦方向をY軸とし、それぞれの上下限値をピクセル値で指定し、後述するステップS408で使用する。 The face tracking area parameters are used to define the face tracking area. The horizontal direction is the X-axis and the vertical direction is the Y-axis, and the upper and lower limit values of each are specified by pixel values, which are used in step S408 described later.

顔認証の類似度の閾値は、テレワーカ本人かどうかの判断に使用する。例えば、0.5〜1.0の範囲で指定し、後述するステップS412で使用する。 The face recognition similarity threshold is used to determine if the teleworker is the person himself or herself. For example, it is specified in the range of 0.5 to 1.0 and is used in step S412 described later.

処理サイクルのパラメータは、本人認証の処理周期の定義に使用する。例えば、単位はミリ秒で指定し、後述するステップS417で使用する。 The processing cycle parameters are used to define the processing cycle for personal authentication. For example, the unit is specified in milliseconds and is used in step S417 described later.

尚、読み込んだ各パラメータは、RAM203に記憶させておき、必要なときに参照する。 Each read parameter is stored in RAM 203 and referred to when necessary.

ステップS402では、通信接続部302は、後述するステップS406、ステップS407、及びステップS415で管理サーバ101へイベント通知できるよう、管理サーバ101との通信接続を確立する。接続の確立には、あらかじめ管理サーバ101に登録しているテレワーカのシステムログイン用のアカウントIDとパスワードを使用する。 In step S402, the communication connection unit 302 establishes a communication connection with the management server 101 so that the event can be notified to the management server 101 in steps S406, 407, and S415 described later. To establish the connection, the account ID and password for the system login of the teleworker registered in the management server 101 in advance are used.

ステップS403では、カメラ画像取得部303は、撮像部301(ウェブカメラ210)で撮影して得られたデータを画像として取得する。取得した画像はRAM203に記憶しておき、ステップS404、ステップS412で使用する。 In step S403, the camera image acquisition unit 303 acquires the data obtained by photographing with the imaging unit 301 (web camera 210) as an image. The acquired image is stored in the RAM 203 and used in steps S404 and S412.

ステップS404では、顔情報取得部305は、ステップS403で取得した画像から顔を検出する。顔の検出には外部ライブラリを使用し(既存技術を適用する)、顔の個数と画像上での位置を特定する。検出結果は、RAM203に記憶しておき、ステップS405とステップS409で使用する。 In step S404, the face information acquisition unit 305 detects the face from the image acquired in step S403. An external library is used to detect faces (existing technology is applied) to identify the number of faces and their position on the image. The detection result is stored in the RAM 203 and used in steps S405 and S409.

尚、本ステップでは、顔認識エリア及び顔追従エリアの両エリアを対象に、顔の個数及び位置を算出する。 In this step, the number and position of faces are calculated for both the face recognition area and the face tracking area.

ステップS405では、顔情報取得部305は、ステップS404での顔検出の結果を判断する。顔の検出数が0個(未検出)の場合、後述するステップS406で管理サーバ101へ「離席」イベントの証跡データを送信し、検出数が1個の場合、後述するステップS409で検出エリアの判定を行い、検出数が2個以上の場合、後述するステップS407で管理サーバ101へ「覗き込み」イベントの証跡データを送信する。 In step S405, the face information acquisition unit 305 determines the result of face detection in step S404. When the number of detected faces is 0 (not detected), the trail data of the "leaving" event is transmitted to the management server 101 in step S406 described later, and when the number of detected faces is 1, the detection area is detected in step S409 described later. If the number of detections is 2 or more, the trail data of the "peeping" event is transmitted to the management server 101 in step S407 described later.

ステップS406では、イベント通知部309は、ステップS403で取得した画像と現在時刻を、管理サーバ101に「離席」イベントの証跡データとして送信する。 In step S406, the event notification unit 309 transmits the image acquired in step S403 and the current time to the management server 101 as trail data of the "away" event.

ステップS407では、イベント通知部309は、ステップS403で取得した画像と現在時刻を、管理サーバ101に「覗き込み」イベントの証跡データとして送信する。 In step S407, the event notification unit 309 transmits the image acquired in step S403 and the current time to the management server 101 as trail data of the "peeping" event.

ステップS408では、認証情報管理部308は、「離席」イベントと「覗き込み」イベントが発生した際の処理として、認証状態を「未承認」へ遷移させる。認証状態は、RAM203に記憶しておき、ステップS411で使用する。 In step S408, the authentication information management unit 308 shifts the authentication status to "unapproved" as a process when the "leaving" event and the "peeping" event occur. The authentication state is stored in the RAM 203 and used in step S411.

ステップS409では、検出エリア判定部306は、検出した顔が、顔認識エリアと顔追従エリアとのどちらに居するのかを判定する。 In step S409, the detection area determination unit 306 determines whether the detected face is in the face recognition area or the face tracking area.

エリア判定処理には、ステップS401で読み込んだ画像サイズと顔追従エリアのパラメータを使用して処理(図5参照。詳細後述)を行う。 The area determination process is performed using the image size read in step S401 and the parameters of the face tracking area (see FIG. 5, which will be described in detail later).

ステップS410では、検出エリア判定部306は、ステップS409での顔を検出したエリアの判定結果を判断する。検出したエリアが顔追従エリアの場合、後述するステップS411で認証状態の判断を行い、検出したエリアが顔認識エリアの場合、後述するステップS412で顔認証処理を行う。 In step S410, the detection area determination unit 306 determines the determination result of the area where the face is detected in step S409. If the detected area is a face tracking area, the authentication status is determined in step S411 described later, and if the detected area is a face recognition area, face authentication processing is performed in step S412 described later.

ステップS411では、認証情報管理部308は、現在の認証状態を判断する。認証状態が「未認証」の場合、後述するステップS412で顔認証処理を行い、認証状態が「認証済み」の場合、後述するステップS418でアプリケーションを終了するか判断する。 In step S411, the authentication information management unit 308 determines the current authentication status. If the authentication status is "unauthenticated", the face recognition process is performed in step S412 described later, and if the authentication status is "authenticated", it is determined in step S418 described later whether to terminate the application.

ステップS412では、認証部307は、顔認証処理によって、画像に写る顔とテレワーカが同一人物であるかの類似度を算出する。認証処理には外部ライブラリを使用する(既存技術を適用する)。
In step S412, the authentication unit 307 calculates the degree of similarity between the face in the image and the teleworker by the face recognition process. Use an external library for authentication processing (apply existing technology).

ステップS413では、認証部307は、顔認証処理の類似度の結果とステップS401で読み込んだ類似度の閾値を比較し、テレワーカが本人か否かを判断する。類似度が閾値以上の場合は本人と判断し、後述するステップS414で認証状態を「認証済み」へ遷移させ、類似度が閾値未満の場合は他人と判断し、後述するステップS415で管理サーバ101へ「なりすまし」イベントの証跡データを送信する。 In step S413, the authentication unit 307 compares the result of the similarity of the face recognition process with the threshold of the similarity read in step S401, and determines whether or not the teleworker is the person himself / herself. If the similarity is equal to or higher than the threshold value, it is determined to be the person, the authentication status is changed to "authenticated" in step S414 described later, and if the similarity is less than the threshold value, it is determined to be another person, and the management server 101 is determined in step S415 described later. Send trail data for "spoofing" events to.

ステップS414では、認証情報管理部308は、ステップS413の結果に基づいて認証状態を「認証済み」へ遷移させる。認証状態は、RAM203に記憶しておき、S411で使用する。 In step S414, the authentication information management unit 308 shifts the authentication status to "authenticated" based on the result of step S413. The authentication state is stored in the RAM 203 and used in S411.

ステップS415では、イベント通知部309は、ステップS403で取得した画像と現在時刻を、管理サーバ101に「なりすまし」イベントの証跡データとして送信する。 In step S415, the event notification unit 309 transmits the image acquired in step S403 and the current time to the management server 101 as trail data of the "spoofing" event.

ステップS416では、認証情報管理部308は、「なりすまし」イベントが発生した際の処理として、認証状態を「未承認」へ遷移させる。認証状態は、RAM203に記憶しておき、S411で使用する。 In step S416, the authentication information management unit 308 shifts the authentication status to "unapproved" as a process when a "spoofing" event occurs. The authentication state is stored in the RAM 203 and used in S411.

ステップS417では、コントロール部310は、CPU201の負荷調整のためにスリープ処理をおこなう。スリープする時間は、ステップS401で読み込んだ処理サイクルのパラメータを使用する。 In step S417, the control unit 310 performs a sleep process for adjusting the load of the CPU 201. For the sleep time, the parameter of the processing cycle read in step S401 is used.

ステップS418では、コントロール部310は、本人認証処理を終了させるか否かを判断する。本人認証処理を終了させるには、メニュー等からユーザの明示的に命令を受付けることによって終了する。本人認証処理を終了させる場合、終了させる。本人認証処理を終了させない場合、再びS403の処理に戻る。 In step S418, the control unit 310 determines whether or not to end the personal authentication process. To end the personal authentication process, the user explicitly accepts a command from a menu or the like. When ending the personal authentication process, end it. If the personal authentication process is not terminated, the process returns to S403 again.

以下、図5を参照して、本実施形態の顔検出エリア判定処理について説明する。この処理は、検出エリア判定部306において実行される。 Hereinafter, the face detection area determination process of the present embodiment will be described with reference to FIG. This process is executed by the detection area determination unit 306.

図5では、ウェブカメラ210で撮影して得られた画像から検出された顔が、顔認識エリアと顔追従エリアとのどちらに居するのかを判定する。 In FIG. 5, it is determined whether the face detected from the image taken by the webcam 210 is in the face recognition area or the face tracking area.

ここで、顔認識エリアと顔追従エリアとについて、図7を用いて説明する。 Here, the face recognition area and the face tracking area will be described with reference to FIG. 7.

顔認識エリアとは、顔認識技術を用いて、本人であるか否かの顔認証を行うエリアを示しており、常時、このエリアに登場する顔認識を行い、顔認証を行うと共に、当該エリアに登場する顔の個数を算出する。 The face recognition area indicates an area where face recognition is performed to determine whether or not the person is the person using face recognition technology. The face recognition that appears in this area is always performed, face recognition is performed, and the area is concerned. Calculate the number of faces that appear in.

また、顔追従エリアとは、顔が存在しているか否かを確認するためのエリアを示しており、常時、当該エリアに存在する顔の個数を算出しているが、当該エリアに初めて顔が登場した時のみ、顔認識を行い、顔認証を行う。 Further, the face tracking area indicates an area for confirming whether or not a face exists, and the number of faces existing in the area is always calculated, but the face appears for the first time in the area. Face recognition is performed and face recognition is performed only when it appears.

これによって、通常、テレワーカの顔が、顔追従エリアの範囲内に居することを想定してエリアを設定するため、顔が正面以外に向く等の状態となったとしても、当該エリアに初めて顔が登場した時に限り、顔認証を行うため、誤認証を行うことを抑止することが可能となる。 As a result, the area is usually set on the assumption that the face of the teleworker is within the range of the face tracking area. Therefore, even if the face faces other than the front, the face is first faced in the area. Since face recognition is performed only when the product appears, it is possible to prevent erroneous authentication.

また、顔追従エリアのみを設定することとなれば、当該エリアに初めて顔が登場した時に限り、顔認証を行うため、第三者が、顔を上手く入れ替えた場合、顔認証が行われず、なりすまし行為が生じてしまう。 In addition, if only the face tracking area is set, face recognition is performed only when the face first appears in the area. Therefore, if a third party successfully replaces the face, face recognition is not performed and spoofing is performed. An act will occur.

そこで、本発明では、顔追従エリアの外郭を囲んだ顔認識エリアを設定することで、顔認識エリアでは、常時、顔認証を行いつつ、当該顔の個数を算出することから、なりすましの発生を抑止することが可能となる。但し、顔追従エリアの上下のみ、上のみ、下のみ、左右のみ、左のみ、あるいは右のみに顔認識エリアを設定しても良く、上下左右で設定したい方向の組み合わせで設定しても良い。 Therefore, in the present invention, by setting the face recognition area surrounding the outer shell of the face tracking area, the number of faces is calculated while constantly performing face recognition in the face recognition area, so that spoofing can occur. It becomes possible to deter. However, the face recognition area may be set only above and below the face tracking area, only above, only below, only left and right, only left, or only right, or may be set by a combination of directions to be set up, down, left and right.

例えば、顔認識エリアにおいて、顔を上手く入れ替えたとしても、常時、顔認証を行うため、顔認識エリア及び顔追従エリアにおいて、顔の個数が1個として算出されても、なりすましを検出することが可能となる。 For example, even if the faces are successfully replaced in the face recognition area, face recognition is always performed. Therefore, even if the number of faces is calculated as one in the face recognition area and the face tracking area, spoofing can be detected. It will be possible.

尚、ここで、顔の個数について述べているが、前述したように、例えば、顔認識エリア及び顔追従エリアにおいて、顔の個数が2個以上検出された場合、覗き込みが発生したと検知したり、顔の個数が0個の場合は、離籍中等の判断を行うために用いることが可能である。 Although the number of faces is described here, as described above, for example, when two or more faces are detected in the face recognition area and the face tracking area, it is detected that peeping has occurred. Or, when the number of faces is 0, it can be used to judge whether the person is leaving the office or the like.

顔追従エリアの範囲は、ステップS401で読み込んだパラメータのうち、カメラ画像サイズと顔追従エリアパラメータとをRAM203から参照する。また顔の検出位置は、ステップS404で算出された位置情報をRAM203から参照する。 The range of the face tracking area refers to the camera image size and the face tracking area parameter from the RAM 203 among the parameters read in step S401. Further, for the face detection position, the position information calculated in step S404 is referred to from the RAM 203.

顔追従エリアは、ウェブカメラ210で撮影して得られた画像内に設定し、最大でも画像サイズまでとする。例えば、画像サイズが640×480であれば、X方向の上下限値の範囲は0〜640、Y方向では範囲は0〜480となる。範囲外の値を設定した場合は、範囲内の値に自動修正する。 The face tracking area is set within the image obtained by shooting with the webcam 210, and the maximum image size is set. For example, if the image size is 640 × 480, the range of the upper and lower limit values in the X direction is 0 to 640, and the range is 0 to 480 in the Y direction. If a value outside the range is set, it is automatically corrected to a value within the range.

以下に、各ステップの処理について説明する。 The processing of each step will be described below.

ステップS501では、画像に対する顔の検出位置(顔の中央とする)と顔追従エリアのX方向の下限値を比較し、範囲内であるか否かを判断し、検出位置がX方向の下限値以上の場合、後述するS502でX方向の上限値と比較する。検出位置がX方向の下限値未満の場合、後述するS506で顔認識エリアと判定する。 In step S501, the detection position of the face (centered on the face) with respect to the image is compared with the lower limit value of the face tracking area in the X direction, and it is determined whether or not the detection position is within the range, and the detection position is the lower limit value in the X direction. In the above case, it is compared with the upper limit value in the X direction in S502 described later. When the detection position is less than the lower limit value in the X direction, it is determined as the face recognition area in S506 described later.

この判断例として、図8に示すように、左下のユーザAに関しては、顔の検出位置(顔の中央とする)と顔追従エリアのX方向の下限値とを比較すると、下限値以下と判断され、ステップS506へ処理を進める。 As an example of this determination, as shown in FIG. 8, regarding the user A in the lower left, when the face detection position (center of the face) and the lower limit value in the X direction of the face tracking area are compared, it is determined that the user A is below the lower limit value. Then, the process proceeds to step S506.

一方、右上のユーザBに関しては、顔の検出位置(顔の中央とする)と顔追従エリアのX方向の下限値とを比較すると、下限値以上と判断され、ステップS502へ処理を進める。 On the other hand, regarding the user B on the upper right, when the face detection position (center of the face) and the lower limit value of the face tracking area in the X direction are compared, it is determined that the lower limit value or more is obtained, and the process proceeds to step S502.

つまり、顔が、顔認識エリアの最外殻を示す点線及びX方向下限値をX座標の値とするY軸方向への垂直線で囲まれた範囲に存在する場合、顔の検出位置が下限値以下と判断され、顔認識エリアの最外殻を示す実線及びX方向下限値をX座標の値とするY軸方向への垂直線で囲まれた範囲に存在する場合、顔の検出位置が下限値以下ではない、と判断される。 That is, when the face exists in the range surrounded by the dotted line indicating the outermost shell of the face recognition area and the vertical line in the Y-axis direction with the lower limit value in the X direction as the value of the X coordinate, the detection position of the face is the lower limit. If it is judged to be less than or equal to the value and exists in the range surrounded by the solid line indicating the outermost shell of the face recognition area and the vertical line in the Y-axis direction with the lower limit value in the X direction as the value of the X coordinate, the detection position of the face is It is judged that it is not below the lower limit.

ステップS502では、顔の検出位置と顔追従エリアのX方向の上限値とを比較し、範囲内であるか否かを判断し、検出位置がX方向の上限値以下の場合、後述するステップS503でY方向の下限値と比較する。検出位置がX方向の上限値より大きい場合、後述するステップS506で顔認識エリアと判定する。 In step S502, the face detection position is compared with the upper limit value of the face tracking area in the X direction to determine whether or not the face is within the range. If the detection position is equal to or less than the upper limit value in the X direction, step S503 will be described later. Compare with the lower limit in the Y direction. When the detection position is larger than the upper limit value in the X direction, it is determined as the face recognition area in step S506 described later.

この判断例として、図9に示すように、右上のユーザAに関しては、顔の検出位置(顔の中央とする)と顔追従エリアのX方向の上限値とを比較すると、上限値以下ではない、と判断され、ステップS506へ処理を進める。 As an example of this determination, as shown in FIG. 9, regarding the user A on the upper right, when the face detection position (center of the face) and the upper limit value of the face tracking area in the X direction are compared, it is not less than the upper limit value. , And proceed to step S506.

一方、中央上のユーザBに関しては、顔の検出位置(顔の中央とする)と顔追従エリアのX方向の上限値とを比較すると、上限値以下と判断され、ステップS503へ処理を進める。 On the other hand, regarding the user B on the center, when the face detection position (center of the face) and the upper limit value of the face tracking area in the X direction are compared, it is determined that the user B is equal to or less than the upper limit value, and the process proceeds to step S503.

つまり、顔が、ステップS501における範囲内に存在し、かつ、顔認識エリアの最外殻を示す実線及びX方向上限値をX座標の値とするY軸方向への垂直線で囲まれた範囲に存在する場合、顔の検出位置が上限値以下と判断され、顔認識エリアの最外殻を示す点線及びX方向上限値をX座標の値とするY軸方向への垂直線で囲まれた範囲に存在する場合、顔の検出位置が上限値以下ではない、と判断される。 That is, the range in which the face exists within the range in step S501 and is surrounded by a solid line indicating the outermost shell of the face recognition area and a vertical line in the Y-axis direction having the upper limit value in the X direction as the value of the X coordinate. If it exists in, it is judged that the face detection position is below the upper limit value, and it is surrounded by a dotted line indicating the outermost shell of the face recognition area and a vertical line in the Y-axis direction with the upper limit value in the X direction as the value of the X coordinate. If it is within the range, it is determined that the face detection position is not less than or equal to the upper limit.

ステップS503では、顔の検出位置と顔追従エリアのY方向の下限値とを比較し、範囲内であるか否かを判断し、検出位置がY方向の下限値以上の場合、後述するステップS504でY方向の上限値と比較する。検出位置がY方向の下限値未満の場合、後述するステップS506で顔認識エリアと判定する。 In step S503, the face detection position is compared with the lower limit of the face tracking area in the Y direction to determine whether or not the face is within the range. If the detection position is equal to or greater than the lower limit in the Y direction, step S504 will be described later. Compare with the upper limit in the Y direction. If the detection position is less than the lower limit in the Y direction, it is determined to be a face recognition area in step S506 described later.

この判断例として、図10に示すように、中央上のユーザAに関しては、顔の検出位置(顔の中央とする)と顔追従エリアのY方向の下限値とを比較すると、下限値以上ではない、と判断され、ステップS506へ処理を進める。 As an example of this determination, as shown in FIG. 10, with respect to the user A on the center, when the face detection position (center of the face) and the lower limit value in the Y direction of the face tracking area are compared, the lower limit value or more is obtained. It is determined that there is no such thing, and the process proceeds to step S506.

一方、中央下のユーザBに関しては、顔の検出位置(顔の中央とする)と顔追従エリアのY方向の下限値とを比較すると、下限値以上と判断され、ステップS504へ処理を進める。 On the other hand, regarding the user B at the lower center, when the face detection position (which is the center of the face) and the lower limit value in the Y direction of the face tracking area are compared, it is determined that the lower limit value or more is determined, and the process proceeds to step S504.

つまり、顔が、ステップS502における範囲内に存在し、かつ、顔認識エリアの最外殻を示す点線及びY方向下限値をY座標の値とするX軸方向への垂直線で囲まれた範囲に存在する場合、顔の検出位置が下限値以上でない、と判断され、顔認識エリアの最外殻を示す実線及びY方向下限値をY座標の値とするX軸方向への垂直線で囲まれた範囲に存在する場合、顔の検出位置が下限値以上であると判断される。 That is, the range in which the face exists within the range in step S502 and is surrounded by a dotted line indicating the outermost shell of the face recognition area and a vertical line in the X-axis direction having the lower limit value in the Y direction as the value of the Y coordinate. If it exists in, it is determined that the face detection position is not above the lower limit, and it is surrounded by a solid line indicating the outermost shell of the face recognition area and a vertical line in the X-axis direction with the lower limit in the Y direction as the value of the Y coordinate. If it exists in the above range, it is determined that the face detection position is equal to or higher than the lower limit.

ステップS504では、顔の検出位置と顔追従エリアのY方向の上限値とを比較し、範囲内であるか否かを判断し、検出位置がY方向の上限値以下の場合、後述するステップS505で顔追従エリアと判定する。検出位置がY方向の上限値より大きい場合、後述するステップS506で顔認識エリアと判定する。 In step S504, the face detection position is compared with the upper limit value of the face tracking area in the Y direction, and it is determined whether or not the face is within the range. If the detection position is equal to or less than the upper limit value in the Y direction, step S505 described later. Judges as a face tracking area. When the detection position is larger than the upper limit value in the Y direction, it is determined as the face recognition area in step S506 described later.

この判断例として、図11に示すように、中央下のユーザAに関しては、顔の検出位置(顔の中央とする)と顔追従エリアのY方向の上限値とを比較すると、上限値以下ではない、と判断され、ステップS506へ処理を進める。 As an example of this determination, as shown in FIG. 11, for the user A in the lower center, when the face detection position (center of the face) and the upper limit value in the Y direction of the face tracking area are compared, the value is below the upper limit value. It is determined that there is no such thing, and the process proceeds to step S506.

一方、中央のユーザBに関しては、顔の検出位置(顔の中央とする)と顔追従エリアのY方向の上限値とを比較すると、上限値以下と判断され、ステップS505へ処理を進める。 On the other hand, regarding the user B in the center, when the face detection position (center of the face) and the upper limit value of the face tracking area in the Y direction are compared, it is determined that the user B is equal to or less than the upper limit value, and the process proceeds to step S505.

つまり、顔が、ステップS503における範囲内に存在し、かつ、顔認識エリアの最外殻を示す点線及びY方向上限値をY座標の値とするX軸方向への垂直線で囲まれた範囲に存在する場合、顔の検出位置が下限値以上でない、と判断され、Y方向上限値をY座標の値とするX軸方向への垂直線で囲まれた範囲に存在する場合、顔の検出位置が上限値以下であると判断される。 That is, the range in which the face exists within the range in step S503 and is surrounded by the dotted line indicating the outermost shell of the face recognition area and the vertical line in the X-axis direction with the upper limit value in the Y direction as the value of the Y coordinate. If it exists in, it is judged that the detection position of the face is not above the lower limit value, and if it exists in the range surrounded by the vertical line in the X-axis direction with the upper limit value in the Y direction as the value of the Y coordinate, the face is detected. It is determined that the position is below the upper limit.

ステップS505では、顔追従エリアを判定結果としてRAM203に記憶する。判定結果は、ステップS410で使用する。 In step S505, the face tracking area is stored in the RAM 203 as a determination result. The determination result is used in step S410.

ステップS506では、顔認識エリアを判定結果としてRAM203に記憶する。判定結果は、ステップS410で使用する。 In step S506, the face recognition area is stored in the RAM 203 as a determination result. The determination result is used in step S410.

以下、図6を参照して、本実施形態の設定ファイルの記述例について説明する。 Hereinafter, a description example of the setting file of the present embodiment will be described with reference to FIG.

図6は、ウェブカメラ画像のサイズ、顔追従エリア、本人認証時の類似度の閾値、本人認証処理のサイクルの設定例である。この例では、各設定項目をタグで囲んで設定している。 FIG. 6 is an example of setting the size of the webcam image, the face tracking area, the threshold value of the similarity at the time of personal authentication, and the cycle of the personal authentication process. In this example, each setting item is surrounded by tags.

ウェブカメラ画像のサイズは、image_sizeタグ601で指定する。「横のピクセル数X縦のピクセル数」の形式で、ピクセルで指定する。 The size of the webcam image is specified by the image_size tag 601. Specify in pixels in the format of "number of horizontal pixels x number of vertical pixels".

顔追従エリアは、tracking_areaタグ602で指定する。画像の左上端を0とし、エリア範囲を横と縦の上下限値をピクセルで指定する。 The face tracking area is designated by the tracking_area tag 602. The upper left corner of the image is set to 0, and the upper and lower limits of the horizontal and vertical areas are specified in pixels.

横方向(X軸方向)の下限値はX_loerタグ603、上限値はX_upperタグ604で指定し、縦方向(Y軸方向)の下限値はY_loerタグ605、上限値はY_upperタグ606で指定する。 The lower limit value in the horizontal direction (X-axis direction) is specified by the X_lower tag 603 and the upper limit value is specified by the X_upper tag 604, the lower limit value in the vertical direction (Y-axis direction) is specified by the Y_lower tag 605, and the upper limit value is specified by the Y_upper tag 606.

指定する値の範囲は、ウェブカメラ210で撮影して得られた画像のサイズの範囲内とする。例えば、画像サイズが640×480の場合、Xの上下限値は0〜640、Yは0〜480となる。画像サイズの範囲を超える場合、ステップS409にて自動的に画像サイズの範囲に修正される。顔追従エリアの指定した場合の顔認識エリアとの関係は、図7のようになる。 The range of the specified value is within the size range of the image obtained by shooting with the webcam 210. For example, when the image size is 640 × 480, the upper and lower limits of X are 0 to 640, and Y is 0 to 480. If it exceeds the image size range, it is automatically corrected to the image size range in step S409. The relationship with the face recognition area when the face tracking area is specified is as shown in FIG.

本人認証時の類似度の閾値は、similarity_thresholdタグ607で指定する。認証処理時に算出する類似度がここで設定する閾値を下回ると、他人と判断される。例えば、フォールス・ネガティブの観点から、指定できる範囲は0.5〜1.0とする。 The threshold value of the similarity at the time of personal authentication is specified by the similarity_threshold tag 607. If the similarity calculated at the time of authentication processing is less than the threshold value set here, it is judged to be another person. For example, from the viewpoint of false negative, the range that can be specified is 0.5 to 1.0.

本人認証処理のサイクルは、processing_cycleタグ608で指定する。指定する値の単位は、例えば、ミリ秒とする。 The cycle of personal authentication processing is specified by the processing_cycle tag 608. The unit of the specified value is, for example, milliseconds.

以下、図12を参照して、本実施形態のウェブ管理コンソールによる管理画面の一例について説明する。 Hereinafter, an example of the management screen by the web management console of the present embodiment will be described with reference to FIG.

図12は、管理者用PC121でのウェブ管理コンソールを用いた管理画面700である。管理画面700では、管理対象となるテレワーカのリストのほか、検出したイベントの証跡となる画像、イベント発生日時、テレワーカの通信状況について確認できる。 FIG. 12 is a management screen 700 using the web management console on the administrator PC 121. On the management screen 700, in addition to the list of teleworkers to be managed, an image that is a trail of the detected event, an event occurrence date and time, and the communication status of the teleworkers can be confirmed.

管理画面700は、テレワーカリストパネル701、カレンダーパネル702、証跡確認パネル703で構成される。 The management screen 700 is composed of a teleworker list panel 701, a calendar panel 702, and a trail confirmation panel 703.

テレワーカリストパネル701では、管理対象のテレワーカの名前と認証用写真が一覧で表示される。リスト内のテレワーカをクリックすると、証跡データを確認したいテレワーカを指定できる。またリスト内のテレワーカが青色に表示されているときは、そのテレワーカ用PC111が管理サーバ101と通信接続していることを示す。 On the teleworker list panel 701, the names of the teleworkers to be managed and the authentication photos are displayed in a list. By clicking the teleworker in the list, you can specify the teleworker for which you want to check the trail data. When the teleworker in the list is displayed in blue, it indicates that the teleworker PC 111 is in communication connection with the management server 101.

カレンダーパネル702では、確認対象のイベントの証跡データの日付を指定できる。カレンダーパネル702上の日付をクリックすると、確認したい証跡データの日付を指定できる。指定された日付は、青色で表示される。 In the calendar panel 702, the date of the trail data of the event to be confirmed can be specified. By clicking the date on the calendar panel 702, you can specify the date of the trail data you want to check. The specified date is displayed in blue.

証跡確認パネル703では、テレワーカリストパネル701とカレンダーパネル702で指定されたテレワーカと日付に関連したイベントの証跡データを表示する。イベントの証跡データは、イベント分類、発生日時、証跡となる画像で構成される。イベント分類には、「離席」、「なりすまし」、「覗き込み」があり、これらの分類はテレワーカ用PC111の専用アプリケーション内で分類される。 The trail confirmation panel 703 displays trail data of events related to the teleworker and date specified by the teleworker list panel 701 and the calendar panel 702. Event trail data consists of event classification, date and time of occurrence, and images that serve as trails. The event classification includes "leaving a seat", "spoofing", and "peeping", and these classifications are classified within the dedicated application of the teleworker PC111.

これらの管理画面700に表示する情報については、管理サーバ101を介してデータベースサーバ102に対して、テレワーカ用PC111から送信されたテレワーク情報(各イベントとそれに応じる証跡データを含む)を参照する。 Regarding the information displayed on the management screen 700, the telework information (including each event and the trail data corresponding to each event) transmitted from the teleworker PC 111 to the database server 102 via the management server 101 is referred to.

本実施形態では、顔追従エリアに、初めて登場した時のみ、ステップS412における顔認証処理を行ったが、ステップS411の処理に於いて、初めて登場した時を含めて、認証状態を「未承認」として判断した後、その回数をインクリメントしていき、その回数が、所定回数超えた場合、ステップS412における顔認証処理を行い、当該顔認証処理を終了した後、この回数をクリアする態様をとることも可能である。 In the present embodiment, the face recognition process in step S412 is performed only when the face tracking area first appears, but in the process of step S411, the authentication state is "unapproved" including the first appearance. After determining that, the number of times is incremented, and if the number of times exceeds a predetermined number of times, the face recognition process in step S412 is performed, and after the face recognition process is completed, this number of times is cleared. Is also possible.

これによって、初めて顔追従エリアに登場した時に限らず、定期的に顔認証処理を行うよりも、少ない頻度で、所定のタイミングで、顔認証を行うことが可能となり、なりすまし検出の精度を上げることも可能である。 This makes it possible to perform face recognition at a predetermined timing with less frequency than performing face recognition processing on a regular basis, not only when it first appears in the face tracking area, and improve the accuracy of spoofing detection. Is also possible.

さらに、顔追従エリアに、初めて登場した時のみ、ステップS412における顔認証処理を行ったが、ステップS411の処理に於いて、初めて登場した時に認証状態が「認証済み」と判定した後、ステップS411の処理が、認証状態が継続して「認証済み」のまま、所定回数実行された後、認証状態を「未認証」として判断し、ステップS412における顔認証処理を行っても良い。 Further, the face recognition process in step S412 was performed only when it first appeared in the face tracking area, but in the process of step S411, after determining that the authentication state was "authenticated" when it first appeared, step S411 After the processing of is executed a predetermined number of times while the authentication status is continuously "authenticated", the authentication status may be determined as "unauthenticated" and the face recognition process in step S412 may be performed.

これによって、顔追従エリアと顔認識エリアとで、認証を行う頻度の切替えを行うことが可能となるので、初めて顔追従エリアに登場した時に限らず、定期的に顔認証処理を行うよりも、少ない頻度で、顔認証を行うことが可能となり、顔追従エリアにおけるなりすまし検出の精度を上げることも可能である。 This makes it possible to switch the frequency of authentication between the face tracking area and the face recognition area, so it is better than performing face recognition processing on a regular basis, not only when the face tracking area first appears. Face recognition can be performed with a low frequency, and it is possible to improve the accuracy of spoofing detection in the face tracking area.

以上、本発明に依れば、定期的な本人認証を要するシステムに於いて、なりすましを抑止するための顔認証を行うエリアと、誤認証を抑止するための当該エリアよりも認証頻度を抑えたエリアと、を設けることで、当該システムの不正使用及び認証精度低下を抑止することができる。 As described above, according to the present invention, in a system that requires periodic personal authentication, the authentication frequency is suppressed as compared with the area where face authentication is performed to suppress spoofing and the area for suppressing false authentication. By providing an area, it is possible to prevent unauthorized use of the system and deterioration of authentication accuracy.

以上、実施形態例を詳述したが、本発明は、例えば、方法、プログラムもしくは記憶媒体等としての実施態様をとることが可能であり、具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。 Although examples of embodiments have been described in detail above, the present invention can take an embodiment as, for example, a method, a program, a storage medium, or the like, and specifically, a system composed of a plurality of devices. It may be applied, or it may be applied to a device consisting of one device.

また、本発明におけるプログラムは、各処理方法をコンピュータが実行可能(読み取り可能)なプログラムであり、本発明の記憶媒体は、各処理方法をコンピュータが実行可能なプログラムが記憶されている。 Further, the program in the present invention is a program in which a computer can execute (read) each processing method, and the storage medium of the present invention stores a program in which a computer can execute each processing method.

なお、本発明におけるプログラムは、各装置の処理方法ごとのプログラムであってもよい。 The program in the present invention may be a program for each processing method of each device.

以上のように、前述した実施形態の機能を実現するプログラムを記録した記録媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムを読取り実行することによっても、本発明の目的が達成されることは言うまでもない。 As described above, a recording medium on which a program for realizing the functions of the above-described embodiment is recorded is supplied to the system or device, and the computer (or CPU or MPU) of the system or device stores the program in the recording medium. It goes without saying that the object of the present invention is achieved by reading and executing.

この場合、記録媒体から読み出されたプログラム自体が本発明の新規な機能を実現することになり、そのプログラムを記憶した記録媒体は本発明を構成することになる。 In this case, the program itself read from the recording medium realizes the novel function of the present invention, and the recording medium storing the program constitutes the present invention.

プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、DVD−ROM、磁気テープ、不揮発性のメモリカード、ROM、EEPROM、シリコンディスク等を用いることができる。 Recording media for supplying programs include, for example, flexible disks, hard disks, optical disks, magneto-optical disks, CD-ROMs, CD-Rs, DVD-ROMs, magnetic tapes, non-volatile memory cards, ROMs, EEPROMs, and silicon. A disc or the like can be used.

また、コンピュータが読み出したプログラムを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムの指示に基づき、コンピュータで稼働しているOS等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Further, by executing the program read by the computer, not only the function of the above-described embodiment is realized, but also the OS or the like running on the computer is a part of the actual processing or based on the instruction of the program. Needless to say, there are cases where the functions of the above-described embodiment are realized by performing all of the processes.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Further, the program read from the recording medium is written to the memory provided in the function expansion board inserted in the computer or the function expansion unit connected to the computer, and then the function expansion board is based on the instruction of the program code. It goes without saying that there are cases where the CPU or the like provided in the function expansion unit performs a part or all of the actual processing, and the processing realizes the functions of the above-described embodiment.

また、本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用してもよい。 Further, the present invention may be applied to a system composed of a plurality of devices or a device composed of one device.

また、本発明は、システムあるいは装置にプログラムを供給することによって達成される場合にも適応できることは言うまでもない。この場合、本発明を達成するためのプログラムを格納した記録媒体を該システムあるいは装置に読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。 It goes without saying that the present invention can also be applied when it is achieved by supplying a program to a system or device. In this case, by reading the recording medium in which the program for achieving the present invention is stored into the system or device, the system or device can enjoy the effect of the present invention.

さらに、本発明を達成するためのプログラムをネットワーク上のサーバ,データベース等から通信プログラムによりダウンロードして読み出すことによって、そのシステム、あるいは装置が、本発明の効果を享受することが可能となる。なお、上述した各実施形態およびその変形例を組み合わせた構成も全て本発明に含まれるものである。 Further, by downloading and reading a program for achieving the present invention from a server, database, or the like on the network by a communication program, the system or device can enjoy the effect of the present invention. It should be noted that all the configurations in which the above-described embodiments and modifications thereof are combined are also included in the present invention.

100 テレワーク管理支援システム
101 管理サーバ
102 データベースサーバ
103 ルータ
104 サービス環境ネットワーク
110 自宅ネットワーク
111 テレワーカ用PC
112 ルータ
120 社内ネットワーク
121 管理者用PC121
122 ルータ
130 インターネット
201 CPU
202 ROM
203 RAM
204 システムバス
205 入力コントローラ
206 ビデオコントローラ
207 メモリコントローラ
208 通信I/Fコントローラ
209 KB
210 ウェブカメラ
211 CRT
212 外部メモリ
100 Telework management support system 101 Management server 102 Database server 103 Router 104 Service environment network 110 Home network 111 Teleworker PC
112 Router 120 Internal network 121 Administrator's PC121
122 Router 130 Internet 201 CPU
202 ROM
203 RAM
204 System Bus 205 Input Controller 206 Video Controller 207 Memory Controller 208 Communication I / F Controller 209 KB
210 webcam 211 CRT
212 external memory

Claims (11)

撮影して得られた画像の顔情報を用いて本人認証を行う情報処理装置であって、
撮影して得られた画像から顔に関する顔情報を取得する取得手段と、
前記取得手段によって取得した顔情報を用いて、本人認証の制御を繰り返し行う認証制御手段と、
を備え、
前記認証制御手段は、ユーザが本人として認証された後、前記本人として認証がなされたユーザの顔情報に基づき当該ユーザ認識された状態の継続が所定の条件を満たす場合、前記本人認証を行うように制御することを特徴とする情報処理装置。
It is an information processing device that authenticates the person using the face information of the image obtained by shooting.
An acquisition method for acquiring face information about a face from an image obtained by taking a picture,
An authentication control means that repeatedly controls personal authentication using the face information acquired by the acquisition means, and
With
After the user is authenticated as the person, the authentication control means performs the person authentication when the continuation of the state in which the user is recognized based on the face information of the user who has been authenticated as the person satisfies a predetermined condition. An information processing device characterized by being controlled in such a manner.
前記認識が所定の条件は、当該ユーザ認識された状態の継続が所定回数なされたことを示すことを特徴とする請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the condition for which the recognition is predetermined indicates that the state in which the user has been recognized has been continued for a predetermined number of times. 前記認識が所定の条件は、当該ユーザ認識された状態の継続が所定時間なされたことを示すことを特徴とする請求項1または2に記載の情報処理装置。 The information processing apparatus according to claim 1 or 2, wherein the condition for which the recognition is predetermined indicates that the state in which the user has been recognized has been continued for a predetermined time. 前記ユーザが本人として認証がなされた後、前記本人として認証がなされたユーザの顔情報が前記取得手段により取得されなくなってから、新たに、ユーザの顔情報を取得した場合、前記顔情報を用いて前記本人認証の制御を行うことを特徴とする請求項1乃至3の何れか1項に記載の情報処理装置。 When the face information of the user who has been authenticated as the person is not acquired by the acquisition means after the user is authenticated as the person himself / herself, and then the face information of the user is newly acquired, the face information is used. The information processing device according to any one of claims 1 to 3, wherein the personal authentication is controlled. 前記認証制御手段は、前記取得手段によって顔の個数が1個の時、前記顔の本人認証の制御を行うことを特徴とする請求項1乃至4の何れか1項に記載の情報処理装置。 The information processing device according to any one of claims 1 to 4, wherein the authentication control means controls the personal authentication of the face when the number of faces is one by the acquisition means. 前記取得手段によって、顔の個数が2個以上である場合、覗き込みが発生したことを通知する通知手段を備えたことと特徴とする請求項1乃至5の何れか1項に記載の情報処理装置。 The information processing according to any one of claims 1 to 5, characterized in that the acquisition means includes a notification means for notifying that a peep has occurred when the number of faces is two or more. apparatus. 前記認証制御手段は、前記取得手段によって、前回取得した個数と異なると共に、1個の顔の個数を取得した時に、前記顔の本人認証の制御を行うことを特徴とする請求項5または6に記載の情報処理装置。 According to claim 5 or 6, the authentication control means is different from the number acquired last time by the acquisition means, and controls the personal authentication of the face when the number of one face is acquired. The information processing device described. クライアント端末と、管理者用端末と、サーバと、がネットワークを介して接続された情報処理システムであって、
撮影して得られた画像から顔に関する顔情報を取得する取得手段と、
前記取得手段によって取得した顔情報を用いて、本人認証の制御を繰り返し行う認証制御手段と、
を備え、
前記認証制御手段は、ユーザが本人として認証された後、前記本人として認証がなされたユーザの顔情報に基づき当該ユーザ認識された状態の継続が所定の条件を満たす場合、前記本人認証を行うように制御することを特徴とする情報処理システム。
An information processing system in which a client terminal, an administrator terminal, and a server are connected via a network.
An acquisition method for acquiring face information about a face from an image obtained by taking a picture,
An authentication control means that repeatedly controls personal authentication using the face information acquired by the acquisition means, and
With
After the user is authenticated as the person, the authentication control means performs the person authentication when the continuation of the state in which the user is recognized based on the face information of the user who has been authenticated as the person satisfies a predetermined condition. An information processing system characterized by being controlled in such a manner.
撮影して得られた画像の顔情報を用いて本人認証を行う情報処理装置の制御方法であって、
前記情報処理装置は、
撮影して得られた画像から顔に関する顔情報を取得する取得ステップと、
前記取得ステップによって取得した顔情報を用いて、本人認証の制御を繰り返し行う認証制御ステップと、
を実行し、
前記認証制御ステップは、ユーザが本人として認証された後、前記本人として認証がなされたユーザの顔情報に基づき当該ユーザ認識された状態の継続が所定の条件を満たす場合、前記本人認証を行うように制御することを特徴とする情報処理装置の制御方法。
It is a control method of an information processing device that authenticates the person using the face information of the image obtained by taking a picture.
The information processing device
The acquisition step to acquire face information about the face from the image obtained by shooting,
An authentication control step that repeatedly controls personal authentication using the face information acquired in the acquisition step, and
And
After the user is authenticated as the person, the authentication control step performs the person authentication when the continuation of the state in which the user is recognized based on the face information of the user who has been authenticated as the person satisfies a predetermined condition. A control method for an information processing device, which is characterized by such control.
コンピュータを、
撮影して得られた画像から顔に関する顔情報を取得する取得手段と、
前記取得手段によって取得した顔情報を用いて、撮影して得られた画像からユーザの顔認識を行う本人認証を繰り返し行う認証制御手段と、
して機能させ、
前記認証制御手段は、ユーザが本人として認証された後、前記本人として認証がなされたユーザの顔情報に基づき当該ユーザ認識された状態の継続が所定の条件を満たす場合、前記本人認証を行うように制御するように機能させるためのプログラム。
Computer,
An acquisition method for acquiring face information about a face from an image obtained by taking a picture,
An authentication control means that repeatedly performs personal authentication that recognizes the user's face from an image obtained by taking a picture using the face information acquired by the acquisition means.
To make it work
After the user is authenticated as the person, the authentication control means performs the person authentication when the continuation of the state in which the user is recognized based on the face information of the user who has been authenticated as the person satisfies a predetermined condition. A program to make it work to control.
クライアント端末と、管理者用端末と、サーバと、がネットワークを介して接続された情報処理システムの制御方法であって、
前記情報処理システムは、
撮影して得られた画像から顔に関する顔情報を取得する取得ステップと、
前記取得ステップによって取得した顔情報を用いて、撮影して得られた画像からユーザの顔認識を行う本人認証の制御を繰り返し行う認証制御ステップと、
を実行し、
前記認証制御ステップは、ユーザが本人として認証された後、前記本人として認証がなされたユーザの顔情報に基づき当該ユーザ認識された状態の継続が所定の条件を満たす場合、前記本人認証を行うように制御するように実行することを特徴とする情報処理システムの制御方法。
It is a control method of an information processing system in which a client terminal, an administrator terminal, and a server are connected via a network.
The information processing system
The acquisition step to acquire face information about the face from the image obtained by shooting,
Using the face information acquired in the acquisition step, an authentication control step that repeatedly controls personal authentication that recognizes the user's face from an image obtained by taking a picture, and
And
After the user is authenticated as the person, the authentication control step performs the person authentication when the continuation of the state in which the user is recognized based on the face information of the user who has been authenticated as the person satisfies a predetermined condition. A control method for an information processing system, which is characterized in that it is executed so as to be controlled.
JP2018238242A 2013-11-25 2018-12-20 Information processing equipment, information processing systems, control methods, and programs Active JP6823267B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013242590 2013-11-25
JP2013242590 2013-11-25

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016238210A Division JP6455501B2 (en) 2013-11-25 2016-12-08 Information processing apparatus, information processing system, control method, and program

Publications (3)

Publication Number Publication Date
JP2019046507A JP2019046507A (en) 2019-03-22
JP2019046507A5 JP2019046507A5 (en) 2019-10-10
JP6823267B2 true JP6823267B2 (en) 2021-02-03

Family

ID=53533586

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2014236092A Active JP6056837B2 (en) 2013-11-25 2014-11-21 Information processing apparatus, information processing system, control method, and program
JP2016238210A Active JP6455501B2 (en) 2013-11-25 2016-12-08 Information processing apparatus, information processing system, control method, and program
JP2018238242A Active JP6823267B2 (en) 2013-11-25 2018-12-20 Information processing equipment, information processing systems, control methods, and programs

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2014236092A Active JP6056837B2 (en) 2013-11-25 2014-11-21 Information processing apparatus, information processing system, control method, and program
JP2016238210A Active JP6455501B2 (en) 2013-11-25 2016-12-08 Information processing apparatus, information processing system, control method, and program

Country Status (1)

Country Link
JP (3) JP6056837B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6826281B2 (en) * 2016-06-16 2021-02-03 キヤノンマーケティングジャパン株式会社 Information processing equipment, information processing methods, programs
JP6646226B2 (en) * 2016-11-29 2020-02-14 キヤノンマーケティングジャパン株式会社 Information processing apparatus, information processing method, and program
JP6544343B2 (en) * 2016-11-29 2019-07-17 キヤノンマーケティングジャパン株式会社 INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
JP6544413B2 (en) * 2016-12-15 2019-07-17 キヤノンマーケティングジャパン株式会社 Information processing apparatus, control method, program
JP6544404B2 (en) 2017-09-19 2019-07-17 日本電気株式会社 Matching system
JP6947202B2 (en) * 2017-09-19 2021-10-13 日本電気株式会社 Matching system
JP2019175503A (en) * 2019-06-20 2019-10-10 キヤノンマーケティングジャパン株式会社 Information processor, information processing method, and program
CN114041164A (en) * 2019-06-26 2022-02-11 日本电气株式会社 Authentication system, authentication method, control device, computer program, and recording medium
KR20220052922A (en) * 2019-09-06 2022-04-28 소니그룹주식회사 Information processing devices, information processing methods and information processing programs

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001118070A (en) * 1999-10-19 2001-04-27 Yis Corporation Co Ltd Image collating log-in system
JP2002055956A (en) * 2000-08-14 2002-02-20 Toshiba Corp Device for personal authentication and storage medium
JP4086740B2 (en) * 2003-09-09 2008-05-14 日本電気株式会社 Terminal user monitoring system
JP2005115480A (en) * 2003-10-03 2005-04-28 Toshiba Social Automation Systems Co Ltd Authentication system and computer readable storage medium
JP2006259925A (en) * 2005-03-15 2006-09-28 Omron Corp Object authentication device, cellular phone, object authentication method and object authentication program
JP4899552B2 (en) * 2006-03-15 2012-03-21 オムロン株式会社 Authentication device, authentication method, authentication program, and computer-readable recording medium recording the same
JP2009211381A (en) * 2008-03-04 2009-09-17 Nec Corp User authentication system, user authentication method and user authentication program
JP2009223651A (en) * 2008-03-17 2009-10-01 Nec Saitama Ltd Face authentication apparatus, program, and portable terminal
JP2013140440A (en) * 2011-12-28 2013-07-18 Sharp Corp Information processing device and driving method for the same, control program and readable storage medium
WO2013121711A1 (en) * 2012-02-15 2013-08-22 日本電気株式会社 Analysis processing device
JP2013182552A (en) * 2012-03-05 2013-09-12 Japan Cyber Educational Institute Ltd Authentication system in remote learning and method therefor

Also Published As

Publication number Publication date
JP6455501B2 (en) 2019-01-23
JP2015122062A (en) 2015-07-02
JP6056837B2 (en) 2017-01-11
JP2019046507A (en) 2019-03-22
JP2017045485A (en) 2017-03-02

Similar Documents

Publication Publication Date Title
JP6823267B2 (en) Information processing equipment, information processing systems, control methods, and programs
JP6442751B2 (en) Information processing apparatus, information processing system, control method, and program
CN109191730B (en) Information processing apparatus
JP6112036B2 (en) Information processing apparatus and method, information processing system, and program
JP6993597B2 (en) Information processing equipment, control methods, and programs
CN109118233B (en) Authentication method and device based on face recognition
JP6335551B2 (en) Image forming apparatus, monitoring system, log management method, and computer program
JP6691309B2 (en) Information processing apparatus, control method thereof, and program
KR20170045944A (en) Method for unlocking security status of security processed object and apparatus thereof
JP6369324B2 (en) Information processing apparatus, control method, and program
JP6485522B2 (en) Management server, information processing terminal, control method, and program
JP5891828B2 (en) Mobile terminal, photographed image disclosure method, program
JP6684009B1 (en) Program, video processing device, and authentication method
JP7104291B2 (en) Information processing system, information processing method, program
JP6631662B2 (en) Information processing apparatus, control method, and program
JP6826281B2 (en) Information processing equipment, information processing methods, programs
JP6854138B2 (en) Information processing system, information processing method, program
JP2018097866A (en) Information processing device, control method, and program
JP2020107218A (en) Information processing device, control method therefor, and program
JP6898574B2 (en) Information processing equipment, information processing methods, programs
JP7093037B2 (en) Information processing equipment, face recognition system, its control method and program
JP7299543B2 (en) Information processing system, information processing method, program
US11095814B2 (en) Image processing apparatus and image processing method
JP6788205B2 (en) Information processing device, personal authentication system, its control method, personal authentication method, its program
JP2017216556A (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190115

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190828

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200817

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201221

R151 Written notification of patent or utility model registration

Ref document number: 6823267

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250