JP6823267B2 - Information processing equipment, information processing systems, control methods, and programs - Google Patents
Information processing equipment, information processing systems, control methods, and programs Download PDFInfo
- Publication number
- JP6823267B2 JP6823267B2 JP2018238242A JP2018238242A JP6823267B2 JP 6823267 B2 JP6823267 B2 JP 6823267B2 JP 2018238242 A JP2018238242 A JP 2018238242A JP 2018238242 A JP2018238242 A JP 2018238242A JP 6823267 B2 JP6823267 B2 JP 6823267B2
- Authority
- JP
- Japan
- Prior art keywords
- face
- authentication
- user
- person
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、ユーザ認証を行うにあたり、特に、顔認証技術を用いた認証方法に関する。 The present invention relates to an authentication method using a face authentication technique in performing user authentication.
近年、各企業でテレワークへの関心が高まっている。テレワークには機密情報への第三者のアクセスや労働管理などの問題があり、テレワークを導入するためにはそれらを解決しなければならない。 In recent years, interest in telework has been increasing in each company. Telework has problems such as third party access to confidential information and labor management, which must be resolved in order to introduce telework.
現在、それらの問題を解決するため、顔認証技術を利用したテレワーク管理支援システムが現れつつあり、このシステムを用いることで、ウェブカメラ画像から本人認証をおこない、なりすましや第三者による画面の覗き込みを検出できるようになる。また本人の在席時間も把握できるため、適切な労働時間の管理をおこなえる。 Currently, in order to solve these problems, a telework management support system that uses face recognition technology is appearing, and by using this system, identity verification is performed from webcam images, and spoofing and screen peeping by a third party. You will be able to detect crowds. In addition, since the attendance time of the person can be grasped, it is possible to manage the working hours appropriately.
上記システムで本人認証をおこなうとき、なりすまし検出や認証精度の向上が重要になってくる。 When performing personal authentication with the above system, it is important to detect spoofing and improve authentication accuracy.
そこで、なりすましを検出する技術として、写真等の記録媒体に投影された人物を用いたなりすましを検出するため、機器に備えられたカメラに対する視線の向きから、本人であるか、あるいは、写真等の記録媒体に投影された人物であるかを判断することで、なりすましの判定を行う技術が開示されている(例えば、特許文献1参照)。 Therefore, as a technique for detecting spoofing, in order to detect spoofing using a person projected on a recording medium such as a photograph, the person is the person or the photograph or the like from the direction of the line of sight to the camera provided in the device. A technique for determining spoofing by determining whether or not a person is projected on a recording medium is disclosed (see, for example, Patent Document 1).
また、認証精度の向上を図る技術として、光量不足などが原因で、顔認識の信頼度が一定の値よりも低い場合に、質問に対する回答内容とその音声の認識により、本人認証をおこなうことで、顔認識と音声認識との組み合わせによる、認証精度の向上を図る技術が開示されている(例えば、特許文献2参照)。 In addition, as a technology to improve the authentication accuracy, when the reliability of face recognition is lower than a certain value due to insufficient light, etc., the person is authenticated by recognizing the answer to the question and its voice. , A technique for improving authentication accuracy by combining face recognition and voice recognition is disclosed (see, for example, Patent Document 2).
しかしながら、前述したテレワーク管理支援システムにおいては、次の二つの状況下で本人認証の精度低下によるなりすましの誤検出が発生する問題がある。 However, in the above-mentioned telework management support system, there is a problem that spoofing erroneous detection occurs due to a decrease in the accuracy of personal authentication under the following two situations.
一つ目の状況として、正面以外の顔でのなりすましの誤検出が挙げられ、このシステムでは、ディスプレイに隣接するウェブカメラ画像を用いて、定期的に本人認証によるなりすまし検出をおこなう。 The first situation is false detection of spoofing on a face other than the front, and this system periodically detects spoofing by personal authentication using a webcam image adjacent to the display.
本人認証する際、ウェブカメラに対し正面を向いていれば、現状においても比較的高精度に認証できるが、実際にはテレワーカは、ディスプレイだけでなく、それ以外の場所を見て作業をすることも多く、ウェブカメラを正面にすることは少ない。 When authenticating the person, if the person is facing the front of the webcam, the authentication can be performed with relatively high accuracy even at present, but in reality, the teleworker looks not only at the display but also at other places when working. There are many, and it is rare that the webcam is in front.
特に手元の書類を見ながらの作業では、下を向いた状態ですることも多い。そのため、本人認証の精度が低下し、なりすましの誤検出が発生する。 Especially when working while looking at the documents at hand, it is often in a downward position. Therefore, the accuracy of personal authentication is lowered, and false detection of spoofing occurs.
二つ目の状況として、マスク着用時などの顔の一部が欠けたときのなりすましの誤検出が挙げられ、このシステムで使用する顔認証処理では、鼻周辺が欠けると本人認証の精度が極端に低下してしまい、なりすましの誤検出が発生する。 The second situation is false detection of spoofing when a part of the face is missing, such as when wearing a mask. In the face recognition process used in this system, if the area around the nose is missing, the accuracy of personal authentication is extremely high. It will be reduced to, and false detection of spoofing will occur.
このような問題に対し、特許文献1に記載の技術では、写真等に投影された人物と本人とを区別するものであるため、顔の角度変化や一部が欠けたことによる本人認証の精度低下を防ぐことはできない。
In response to such a problem, the technique described in
また、特許文献2に記載の技術では、顔認証処理の信頼度が低い場合に対処するものであり、質問への回答内容と音声認識の情報を用いることから、ログイン処理などの特定場面への適用には適しているものの、テレワーカ管理支援システムのような、定期的に本人認証するシステムへの適用は、認証毎に質問への回答をおこなう必要があるため、適していない。 Further, the technique described in Patent Document 2 deals with a case where the reliability of the face authentication process is low, and since the answer contents to the question and the voice recognition information are used, it is possible to perform a specific scene such as a login process. Although suitable for application, application to a system that authenticates the person on a regular basis, such as a teleworker management support system, is not suitable because it is necessary to answer questions for each authentication.
そこで本発明では、顔情報を用いて本人認証を要する仕組みに於いて、誤認識を抑止する、情報処理装置、情報処理システム、制御方法、及びプログラムの提供を目的とする。 Therefore, an object of the present invention is to provide an information processing device, an information processing system, a control method, and a program that suppress erroneous recognition in a mechanism that requires personal authentication using face information .
上記目的を達成するための第1の発明は、撮影して得られた画像の顔情報を用いて本人認証を行う情報処理装置であって、撮影して得られた画像から顔に関する顔情報を取得する取得手段と、前記取得手段によって取得した顔情報を用いて、本人認証の制御を繰り返し行う認証制御手段と、を備え、前記認証制御手段は、ユーザが本人として認証された後、前記本人として認証がなされたユーザの顔情報に基づき当該ユーザが認識された状態の継続が所定の条件を満たす場合、前記本人認証を行うように制御することを特徴とする。 The first invention for achieving the above object is an information processing device that authenticates a person by using the face information of an image obtained by taking a picture, and obtains face information about a face from the image obtained by taking a picture. The acquisition means for acquiring and the authentication control means for repeatedly controlling the person authentication using the face information acquired by the acquisition means are provided, and the authentication control means is the person after the user is authenticated as the person. When the continuation of the state in which the user is recognized based on the face information of the user who has been authenticated as a condition satisfies a predetermined condition, the user is controlled to perform the personal authentication.
上記目的を達成するための第2の発明は、クライアント端末と、管理者用端末と、サーバと、がネットワークを介して接続された情報処理システムであって、撮影して得られた画像から顔に関する顔情報を取得する取得手段と、前記取得手段によって取得した顔情報を用いて、本人認証の制御を繰り返し行う認証制御手段と、を備え、前記認証制御手段は、ユーザが本人として認証された後、前記本人として認証がなされたユーザの顔情報に基づき当該ユーザが認識された状態の継続が所定の条件を満たす場合、前記本人認証を行うように制御することを特徴とする。 A second invention for achieving the above object is an information processing system in which a client terminal, an administrator terminal, and a server are connected via a network, and a face is obtained from an image obtained by photographing. The authentication control means includes an acquisition means for acquiring face information related to the user and an authentication control means for repeatedly controlling personal authentication using the face information acquired by the acquisition means, and the authentication control means authenticates the user as the person. After that, when the continuation of the state in which the user is recognized based on the face information of the user who has been authenticated as the person satisfies a predetermined condition, the control is performed so as to perform the person authentication.
上記目的を達成するための第3の発明は、撮影して得られた画像の顔情報を用いて本人認証を行う情報処理装置の制御方法であって、前記情報処理装置は、撮影して得られた画像から顔に関する顔情報を取得する取得ステップと、前記取得ステップによって取得した顔情報を用いて、本人認証の制御を繰り返し行う認証制御ステップと、を実行し、前記認証制御ステップは、ユーザが本人として認証された後、前記本人として認証がなされたユーザの顔情報に基づき当該ユーザが認識された状態の継続が所定の条件を満たす場合、前記本人認証を行うように制御することを特徴とする。 A third invention for achieving the above object is a control method of an information processing device that authenticates a person by using face information of an image obtained by photographing, and the information processing device obtains by photographing. An acquisition step of acquiring face information about a face from the acquired image and an authentication control step of repeatedly controlling personal authentication using the face information acquired by the acquisition step are executed, and the authentication control step is a user. After being authenticated as the person, if the continuation of the state in which the user is recognized based on the face information of the user who has been authenticated as the person satisfies a predetermined condition, the person is controlled to perform the person authentication. And.
上記目的を達成するための第4の発明は、コンピュータを、撮影して得られた画像から顔に関する顔情報を取得する取得手段と、前記取得手段によって取得した顔情報を用いて、撮影して得られた画像からユーザの顔認識を行う本人認証を繰り返し行う認証制御手段と、して機能させ、前記認証制御手段は、ユーザが本人として認証された後、前記本人として認証がなされたユーザの顔情報に基づき当該ユーザが認識された状態の継続が所定の条件を満たす場合、前記本人認証を行うように制御するように機能させるためのプログラム。 A fourth invention for achieving the above object is to photograph a computer by using an acquisition means for acquiring face information about a face from an image obtained by photographing and the face information acquired by the acquisition means. It functions as an authentication control means that repeatedly performs personal authentication that recognizes the user's face from the obtained image, and the authentication control means is for a user who has been authenticated as the person after the user has been authenticated as the person. If continuation of the state where the user is recognized on the basis of face information satisfies a predetermined condition, a program for causing the functions to control to perform the personal authentication.
上記目的を達成するための第5の発明は、クライアント端末と、管理者用端末と、サーバと、がネットワークを介して接続された情報処理システムの制御方法であって、前記情報処理システムは、撮影して得られた画像から顔に関する顔情報を取得する取得ステップと、前記取得ステップによって取得した顔情報を用いて、撮影して得られた画像からユーザの顔認識を行う本人認証の制御を繰り返し行う認証制御ステップと、を実行し、前記認証制御ステップは、ユーザが本人として認証された後、前記本人として認証がなされたユーザの顔情報に基づき当該ユーザが認識された状態認識の継続が所定の条件を満たす場合、前記本人認証を行うように制御するように実行することを特徴とする。 A fifth invention for achieving the above object is a control method of an information processing system in which a client terminal, an administrator terminal, and a server are connected via a network. Control of personal authentication that recognizes the user's face from the image obtained by taking a picture by using the acquisition step of acquiring face information about the face from the image obtained by taking a picture and the face information acquired by the acquisition step. The repeated authentication control step is executed, and in the authentication control step, after the user is authenticated as the person, the state recognition in which the user is recognized based on the face information of the user who has been authenticated as the person is continued. When a predetermined condition is satisfied, it is characterized in that it is executed so as to control the personal authentication.
本発明によれば、顔情報を用いて本人認証を要する仕組みに於いて、誤認識を抑止して、システムを利用させることができる、という効果を奏する。 According to the present invention, in a mechanism that requires personal authentication using face information, it is possible to suppress erroneous recognition and use the system.
以下、図面を参照して、本発明の実施形態を詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
図1は、本発明の本人認証処理を適用したテレワーク管理支援システムの構成の一例を示すシステム構成図である。 FIG. 1 is a system configuration diagram showing an example of the configuration of a telework management support system to which the personal authentication process of the present invention is applied.
テレワーク管理支援システム100は、1または複数の管理サーバ101、1または複数のデータベースサーバ102、1または複数のテレワーカ用PC111、1または複数の管理者用PC121がインターネット130を介して接続される構成となっている。
The telework
管理サーバ101は、テレワーカの離席状況、他者による覗き込み、あるいはなりすましの証跡データをテレワーク情報として一元管理するサーバであり、サービス環境ネットワーク104上に構築されている。
The
管理サーバ101へは、テレワーカ用PC111と管理者用PC121が、アカウントIDとパスワードを用いた認証処理により接続し、管理サーバ101は、テレワーカ用PC111からテレワーク情報を受信した場合は、データベースサーバ102に格納する。また、管理者用PC121からテレワーク情報の取得要求があった場合は、データベースサーバ102から必要なテレワーク情報を取り出す。
When the teleworker PC 111 and the administrator PC 121 are connected to the
データベースサーバ102は、管理サーバ101の操作にもとづいてテレワーク情報を記憶するサーバであり、サービス環境ネットワーク104上に構築されており、データベースサーバ102は、テレワーク情報のほかに、管理サーバ101への接続用アカウントIDとパスワードも記憶する。尚、データベースサーバ102は、管理サーバ101からの接続のみ許可し、外部からは接続できない構成をとることが可能である。
The
テレワーカ用PC111は、テレワーク情報の基となる証跡データを作成する端末であり、自宅ネットワーク110上に存在し、証跡データは、専用アプリケーションにより作成され、ルータ112、インターネット130、及びルータ103を介して管理サーバ101へ送信される。本実施形態の本人認証処理は、この専用アプリケーション内の機能として動作する。
The
管理者用PC121は、テレワーク情報を確認するための端末であり、社内ネットワーク120上に存在し、テレワーク情報の確認には、ウェブ管理コンソール(ウェブブラウザ上で動作)を使用し、ルータ122、インターネット130、及びルータ103を介して管理サーバ101に接続する。
The
以下、図2を用いて図1に示した管理サーバ101、データベースサーバ102、テレワーカ用PC111、及び管理者用PC121に適用可能な情報処理装置のハードウェア構成について説明する。
Hereinafter, the hardware configuration of the information processing apparatus applicable to the
図2は、図1に示した管理サーバ101、データベースサーバ102、テレワーカ用PC111、及び管理者用PC121に適用可能な情報処理装置のハードウェア構成を示すブロック図である。各装置ともに、同様な構成を備えるため、同一の符号を用いて説明を行う。
FIG. 2 is a block diagram showing a hardware configuration of an information processing device applicable to the
図2において、201はCPUで、システムバス204に接続される各デバイスやコントローラを統括的に制御する。また、ROM202あるいは外部メモリ212には、CPU201の制御プログラムであるBIOS(Basic Input / Output System)やオペレーティングシステムプログラム(以下、OS)や、各サーバ或いは各PCの実行する機能を実現するために必要な後述する各種プログラム等が記憶されている。
In FIG. 2, 201 is a CPU that comprehensively controls each device and controller connected to the
203はRAMで、CPU201の主メモリ、ワークエリア等として機能する。CPU201は、処理の実行に際して必要なプログラム等をROM202あるいは外部メモリ212からRAM203にロードして、該ロードしたプログラムを実行することで各種動作を実現するものである。
また、205は入力コントローラで、キーボード(KB)209、ウェブカメラ210や不図示のマウス等のポインティングデバイス等からの入力を制御する。206はビデオコントローラで、CRTディスプレイ(CRT)211等の表示器への表示を制御する。なお、図2では、CRT211と記載しているが、表示器はCRTだけでなく、液晶ディスプレイ等の他の表示器であってもよい。これらは必要に応じて管理者が使用するものである。
Further, 205 is an input controller, which controls input from a keyboard (KB) 209, a
207はメモリコントローラで、ブートプログラム,各種のアプリケーション,フォントデータ、ユーザファイル、編集ファイル、各種データ等を記憶する外部記憶装置(ハードディスク(HD))や、フレキシブルディスク(FD)、或いはPCMCIAカードスロットにアダプタを介して接続されるコンパクトフラッシュ(登録商標)メモリ等の外部メモリ212へのアクセスを制御する。
208は通信I/Fコントローラで、ネットワーク(例えば、図1に示したネットワーク104)を介して外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いた通信等が可能である。
なお、CPU201は、例えばRAM203内の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、CRT211上での表示を可能としている。また、CPU201は、CRT211上の不図示のマウスカーソル等でのユーザ指示を可能とする。
Note that the
本発明を実現するための後述する各種プログラムは、外部メモリ212に記録されており、必要に応じてRAM203にロードされることによりCPU201によって実行されるものである。さらに、上記プログラムの実行時に用いられる設定ファイル等も外部メモリ212に格納されており、これらについての詳細な説明も後述する。
Various programs to be described later for realizing the present invention are recorded in the
以下、図3を用いて、本発明の本人認証処理を適用したテレワーク管理支援システム100における管理サーバ101、データベースサーバ102、テレワーカ用PC111、及び管理者用PC121において主要な機能を示す機能ブロック図について説明する。
Hereinafter, using FIG. 3, a functional block diagram showing the main functions of the
テレワーカ用PC111は、撮像部301、通信接続部302、及びカメラ画像取得部303を備えており、撮像部301は、被写体となるテレワーカを撮影するためのカメラを示しており、前述したウェブカメラ210に該当し、通信接続部302は、ウェブカメラ210の撮影開始をトリガーとして、管理サーバ101と接続可能となるように通信を確立する機能を具備しており、カメラ画像取得部303は、撮像部301で撮影して得られたデータを画像として取得する。但し、撮影開始のトリガーは、この態様に限らず、本人認証処理を起動したことをトリガーとしても良いし、接続に適したタイミングであれば、その他の条件をトリガーとしても良い。
The
また、テレワーカ用PC111は、記憶部304、顔情報取得部305、検出エリア判定部306、及び認証部307を備えている。
Further, the
記憶部304は、後述する設定ファイル(図6参照。詳細後述)を備えており、カメラ画像取得部303によって、当該設定ファイルが取得され、それぞれの処理に於いて当該設定ファイルに記録されたパラメータが利用される。
The
顔情報取得部305は、カメラ画像取得部303によって取得された画像から被写体となる人物の顔を検出し、更に、顔の個数や画像に対する顔の位置等の顔情報を取得し、検出エリア判定部306は、顔情報取得部305によって取得した顔情報を用いて、顔が、顔追従エリア、あるいは顔認識エリア(詳細後述)の何れのエリアに居するかを判定する。
The face information acquisition unit 305 detects the face of the person to be the subject from the image acquired by the camera
更に、テレワーカ用PC111は、認証部307、認証情報管理部308、イベント通知部309、及びコントロール部310を備えている。
Further, the
認証部307は、顔追従エリア、あるいは顔認識エリアにおいて、登場する人物の顔がテレワーカ本人であるか否かの判定を行い、認証情報管理部308は、テレワーカ本人であるか否かの判定、つまり認証が行われたか否かの認証状態を管理する。例えば、認証部307において認証されれば、「認証済み」とし、顔情報取得部305において、顔の個数が0個であれば、「離席」しているとして、「未認証」とし、顔の個数が2個以上存在する場合、「覗き込み」が発生しているとして、「未認証」とする等の認証状態を管理することが可能である。
The
イベント通知部309は、管理サーバ101に対して、テレワーカ用PC111に対して発生するイベントを通知する機能を備え、前述したように顔情報取得部305において検出した顔の個数によって、「離席」や「覗き込み」のイベントを検知して、カメラ画像取得部303によって取得した画像と共に、その旨を、管理サーバ101へ通知したり、認証部307によって、「なりすまし」のイベントを検知して、カメラ画像取得部303によって取得した画像と共に、その旨を、管理サーバ101へ通知する。
The
コントロール部310は、テレワーカ用PC111において実行される各処理や機器を制御する機能を有し、例えば、CPU201負荷調整のためにスリープ処理を行ったり、本人認証処理の終了処理等を行う。
The
以下、本実施形態におけるテレワーク管理支援システム100の全体の流れを説明する。
Hereinafter, the overall flow of the telework
テレワーク管理支援システム100において、テレワーカ用PC111では本人認証処理による労務監視、管理サーバ101とデータベースサーバ102とでは、監視情報の管理、管理者用PC121では監視情報の表示をおこなう。
In the telework
テレワーカ用PC111は、専用アプリケーションを用いて、ウェブカメラ210で撮影して得られたデータに基づく画像を用いて、本人認証処理を行う。専用アプリケーションでは、アカウントIDとパスワードを使用して、管理サーバ101と通信接続を確立する。
The
管理サーバ101と接続を確立後、本人認証処理によりテレワーカの労務監視をおこなう。労務監視中、離席や他者によるディスプレイの覗き込み、本人のなりすましはイベントとして検出する。イベントが検出された場合は、テレワーカ用PC111は管理サーバ101へイベントの証跡データを送信する。
After establishing a connection with the
管理サーバ101は、テレワーカ用PC111からイベントの証跡データを受信すると、テレワーク情報としてデータベースサーバ102上のテレワーク情報を記憶するテーブルへ記憶する。また証跡データの受信時、管理サーバ101は管理者用PC121へ検出通知メールを送信する。
When the
管理者用PC121では、ウェブ管理コンソールを用いて、管理サーバ上のテレワーカのイベントの証跡データを確認できる。ウェブ管理コンソールは、ウェブブラウザから専用URLへアクセスすることで利用できる。管理コンソールでは、イベントを検出した際の時刻や画像のほか、本人認証処理に使用しているテレワーカ写真、テレワーカ用PC111の管理サーバ101への通信状況について確認できる。ウェブ管理コンソールでの管理画面の一例は、図12の説明で後述する。
On the
以下、図4を参照して、本実施形態のテレワーク管理支援システム100における本人認証処理について説明する。
Hereinafter, the personal authentication process in the telework
図4では、テレワーカ用PC111での本人認証処理について説明する。本処理は、テレワーカ用PC111に備え付けられたウェブカメラ210の画像から、テレワーカ本人であるか否かを判定する。離席、なりすまし、あるいは覗き込みのイベントと判定した場合は、管理サーバ101に証跡データを送信する。
FIG. 4 describes the personal authentication process on the
本処理のポイントとして、本人認証する際に、ウェブカメラ210で撮影して得られた画像を顔認識エリアと顔追従エリアとに分けて判別し、どちらで顔が検出されたかにより処理内容を変更することが挙げられる。
As a point of this processing, when authenticating the person, the image obtained by taking a picture with the
詳細は後述するが、顔認識エリアは、顔認証処理を必ず実行するエリアである。顔追従エリアでは、認証状態により、顔認証処理をスキップするエリアである。 The details will be described later, but the face recognition area is an area where the face recognition process is always executed. The face tracking area is an area where the face recognition process is skipped depending on the authentication state.
認証状態には「未認証」と「認証済み」があり、顔検出状況と顔認識状況により状態が遷移する。「未承認」状態の場合、どのエリアで顔が検出されても、顔認証処理を行なう。「承認済み」状態の場合、顔追従エリアで顔が検出された場合のみ、顔認証処理をスキップする。 There are two types of authentication status, "unauthenticated" and "authenticated", and the status changes depending on the face detection status and face recognition status. In the "unapproved" state, face recognition processing is performed regardless of the area where the face is detected. In the "approved" state, the face recognition process is skipped only when a face is detected in the face tracking area.
以下に、図4を参照して本実施形態の本人認証処理の各ステップについて説明する。 Hereinafter, each step of the personal authentication process of the present embodiment will be described with reference to FIG.
ステップS401では、カメラ画像取得部303は、記憶部304の設定ファイル(図6参照。詳細後述)から各種パラメータを読み込む。パラメータには、カメラ画像サイズ、顔追従エリア、顔認証の類似度の閾値、及び処理サイクルに関するパラメータがある。
In step S401, the camera
カメラ画像サイズのパラメータは、ウェブカメラ210から得られる画像の大きさの定義に使用する。640×480のようにピクセル値で指定し、後述するステップS402、ステップS403、及びステップS408で使用する。
The camera image size parameter is used to define the size of the image obtained from the
顔追従エリアのパラメータは、顔追従エリアの定義に使用する。横方向をX軸、縦方向をY軸とし、それぞれの上下限値をピクセル値で指定し、後述するステップS408で使用する。 The face tracking area parameters are used to define the face tracking area. The horizontal direction is the X-axis and the vertical direction is the Y-axis, and the upper and lower limit values of each are specified by pixel values, which are used in step S408 described later.
顔認証の類似度の閾値は、テレワーカ本人かどうかの判断に使用する。例えば、0.5〜1.0の範囲で指定し、後述するステップS412で使用する。 The face recognition similarity threshold is used to determine if the teleworker is the person himself or herself. For example, it is specified in the range of 0.5 to 1.0 and is used in step S412 described later.
処理サイクルのパラメータは、本人認証の処理周期の定義に使用する。例えば、単位はミリ秒で指定し、後述するステップS417で使用する。 The processing cycle parameters are used to define the processing cycle for personal authentication. For example, the unit is specified in milliseconds and is used in step S417 described later.
尚、読み込んだ各パラメータは、RAM203に記憶させておき、必要なときに参照する。
Each read parameter is stored in
ステップS402では、通信接続部302は、後述するステップS406、ステップS407、及びステップS415で管理サーバ101へイベント通知できるよう、管理サーバ101との通信接続を確立する。接続の確立には、あらかじめ管理サーバ101に登録しているテレワーカのシステムログイン用のアカウントIDとパスワードを使用する。
In step S402, the
ステップS403では、カメラ画像取得部303は、撮像部301(ウェブカメラ210)で撮影して得られたデータを画像として取得する。取得した画像はRAM203に記憶しておき、ステップS404、ステップS412で使用する。
In step S403, the camera
ステップS404では、顔情報取得部305は、ステップS403で取得した画像から顔を検出する。顔の検出には外部ライブラリを使用し(既存技術を適用する)、顔の個数と画像上での位置を特定する。検出結果は、RAM203に記憶しておき、ステップS405とステップS409で使用する。
In step S404, the face information acquisition unit 305 detects the face from the image acquired in step S403. An external library is used to detect faces (existing technology is applied) to identify the number of faces and their position on the image. The detection result is stored in the
尚、本ステップでは、顔認識エリア及び顔追従エリアの両エリアを対象に、顔の個数及び位置を算出する。 In this step, the number and position of faces are calculated for both the face recognition area and the face tracking area.
ステップS405では、顔情報取得部305は、ステップS404での顔検出の結果を判断する。顔の検出数が0個(未検出)の場合、後述するステップS406で管理サーバ101へ「離席」イベントの証跡データを送信し、検出数が1個の場合、後述するステップS409で検出エリアの判定を行い、検出数が2個以上の場合、後述するステップS407で管理サーバ101へ「覗き込み」イベントの証跡データを送信する。
In step S405, the face information acquisition unit 305 determines the result of face detection in step S404. When the number of detected faces is 0 (not detected), the trail data of the "leaving" event is transmitted to the
ステップS406では、イベント通知部309は、ステップS403で取得した画像と現在時刻を、管理サーバ101に「離席」イベントの証跡データとして送信する。
In step S406, the
ステップS407では、イベント通知部309は、ステップS403で取得した画像と現在時刻を、管理サーバ101に「覗き込み」イベントの証跡データとして送信する。
In step S407, the
ステップS408では、認証情報管理部308は、「離席」イベントと「覗き込み」イベントが発生した際の処理として、認証状態を「未承認」へ遷移させる。認証状態は、RAM203に記憶しておき、ステップS411で使用する。
In step S408, the authentication
ステップS409では、検出エリア判定部306は、検出した顔が、顔認識エリアと顔追従エリアとのどちらに居するのかを判定する。
In step S409, the detection
エリア判定処理には、ステップS401で読み込んだ画像サイズと顔追従エリアのパラメータを使用して処理(図5参照。詳細後述)を行う。 The area determination process is performed using the image size read in step S401 and the parameters of the face tracking area (see FIG. 5, which will be described in detail later).
ステップS410では、検出エリア判定部306は、ステップS409での顔を検出したエリアの判定結果を判断する。検出したエリアが顔追従エリアの場合、後述するステップS411で認証状態の判断を行い、検出したエリアが顔認識エリアの場合、後述するステップS412で顔認証処理を行う。
In step S410, the detection
ステップS411では、認証情報管理部308は、現在の認証状態を判断する。認証状態が「未認証」の場合、後述するステップS412で顔認証処理を行い、認証状態が「認証済み」の場合、後述するステップS418でアプリケーションを終了するか判断する。
In step S411, the authentication
ステップS412では、認証部307は、顔認証処理によって、画像に写る顔とテレワーカが同一人物であるかの類似度を算出する。認証処理には外部ライブラリを使用する(既存技術を適用する)。
In step S412, the
ステップS413では、認証部307は、顔認証処理の類似度の結果とステップS401で読み込んだ類似度の閾値を比較し、テレワーカが本人か否かを判断する。類似度が閾値以上の場合は本人と判断し、後述するステップS414で認証状態を「認証済み」へ遷移させ、類似度が閾値未満の場合は他人と判断し、後述するステップS415で管理サーバ101へ「なりすまし」イベントの証跡データを送信する。
In step S413, the
ステップS414では、認証情報管理部308は、ステップS413の結果に基づいて認証状態を「認証済み」へ遷移させる。認証状態は、RAM203に記憶しておき、S411で使用する。
In step S414, the authentication
ステップS415では、イベント通知部309は、ステップS403で取得した画像と現在時刻を、管理サーバ101に「なりすまし」イベントの証跡データとして送信する。
In step S415, the
ステップS416では、認証情報管理部308は、「なりすまし」イベントが発生した際の処理として、認証状態を「未承認」へ遷移させる。認証状態は、RAM203に記憶しておき、S411で使用する。
In step S416, the authentication
ステップS417では、コントロール部310は、CPU201の負荷調整のためにスリープ処理をおこなう。スリープする時間は、ステップS401で読み込んだ処理サイクルのパラメータを使用する。
In step S417, the
ステップS418では、コントロール部310は、本人認証処理を終了させるか否かを判断する。本人認証処理を終了させるには、メニュー等からユーザの明示的に命令を受付けることによって終了する。本人認証処理を終了させる場合、終了させる。本人認証処理を終了させない場合、再びS403の処理に戻る。
In step S418, the
以下、図5を参照して、本実施形態の顔検出エリア判定処理について説明する。この処理は、検出エリア判定部306において実行される。
Hereinafter, the face detection area determination process of the present embodiment will be described with reference to FIG. This process is executed by the detection
図5では、ウェブカメラ210で撮影して得られた画像から検出された顔が、顔認識エリアと顔追従エリアとのどちらに居するのかを判定する。
In FIG. 5, it is determined whether the face detected from the image taken by the
ここで、顔認識エリアと顔追従エリアとについて、図7を用いて説明する。 Here, the face recognition area and the face tracking area will be described with reference to FIG. 7.
顔認識エリアとは、顔認識技術を用いて、本人であるか否かの顔認証を行うエリアを示しており、常時、このエリアに登場する顔認識を行い、顔認証を行うと共に、当該エリアに登場する顔の個数を算出する。 The face recognition area indicates an area where face recognition is performed to determine whether or not the person is the person using face recognition technology. The face recognition that appears in this area is always performed, face recognition is performed, and the area is concerned. Calculate the number of faces that appear in.
また、顔追従エリアとは、顔が存在しているか否かを確認するためのエリアを示しており、常時、当該エリアに存在する顔の個数を算出しているが、当該エリアに初めて顔が登場した時のみ、顔認識を行い、顔認証を行う。 Further, the face tracking area indicates an area for confirming whether or not a face exists, and the number of faces existing in the area is always calculated, but the face appears for the first time in the area. Face recognition is performed and face recognition is performed only when it appears.
これによって、通常、テレワーカの顔が、顔追従エリアの範囲内に居することを想定してエリアを設定するため、顔が正面以外に向く等の状態となったとしても、当該エリアに初めて顔が登場した時に限り、顔認証を行うため、誤認証を行うことを抑止することが可能となる。 As a result, the area is usually set on the assumption that the face of the teleworker is within the range of the face tracking area. Therefore, even if the face faces other than the front, the face is first faced in the area. Since face recognition is performed only when the product appears, it is possible to prevent erroneous authentication.
また、顔追従エリアのみを設定することとなれば、当該エリアに初めて顔が登場した時に限り、顔認証を行うため、第三者が、顔を上手く入れ替えた場合、顔認証が行われず、なりすまし行為が生じてしまう。 In addition, if only the face tracking area is set, face recognition is performed only when the face first appears in the area. Therefore, if a third party successfully replaces the face, face recognition is not performed and spoofing is performed. An act will occur.
そこで、本発明では、顔追従エリアの外郭を囲んだ顔認識エリアを設定することで、顔認識エリアでは、常時、顔認証を行いつつ、当該顔の個数を算出することから、なりすましの発生を抑止することが可能となる。但し、顔追従エリアの上下のみ、上のみ、下のみ、左右のみ、左のみ、あるいは右のみに顔認識エリアを設定しても良く、上下左右で設定したい方向の組み合わせで設定しても良い。 Therefore, in the present invention, by setting the face recognition area surrounding the outer shell of the face tracking area, the number of faces is calculated while constantly performing face recognition in the face recognition area, so that spoofing can occur. It becomes possible to deter. However, the face recognition area may be set only above and below the face tracking area, only above, only below, only left and right, only left, or only right, or may be set by a combination of directions to be set up, down, left and right.
例えば、顔認識エリアにおいて、顔を上手く入れ替えたとしても、常時、顔認証を行うため、顔認識エリア及び顔追従エリアにおいて、顔の個数が1個として算出されても、なりすましを検出することが可能となる。 For example, even if the faces are successfully replaced in the face recognition area, face recognition is always performed. Therefore, even if the number of faces is calculated as one in the face recognition area and the face tracking area, spoofing can be detected. It will be possible.
尚、ここで、顔の個数について述べているが、前述したように、例えば、顔認識エリア及び顔追従エリアにおいて、顔の個数が2個以上検出された場合、覗き込みが発生したと検知したり、顔の個数が0個の場合は、離籍中等の判断を行うために用いることが可能である。 Although the number of faces is described here, as described above, for example, when two or more faces are detected in the face recognition area and the face tracking area, it is detected that peeping has occurred. Or, when the number of faces is 0, it can be used to judge whether the person is leaving the office or the like.
顔追従エリアの範囲は、ステップS401で読み込んだパラメータのうち、カメラ画像サイズと顔追従エリアパラメータとをRAM203から参照する。また顔の検出位置は、ステップS404で算出された位置情報をRAM203から参照する。
The range of the face tracking area refers to the camera image size and the face tracking area parameter from the
顔追従エリアは、ウェブカメラ210で撮影して得られた画像内に設定し、最大でも画像サイズまでとする。例えば、画像サイズが640×480であれば、X方向の上下限値の範囲は0〜640、Y方向では範囲は0〜480となる。範囲外の値を設定した場合は、範囲内の値に自動修正する。
The face tracking area is set within the image obtained by shooting with the
以下に、各ステップの処理について説明する。 The processing of each step will be described below.
ステップS501では、画像に対する顔の検出位置(顔の中央とする)と顔追従エリアのX方向の下限値を比較し、範囲内であるか否かを判断し、検出位置がX方向の下限値以上の場合、後述するS502でX方向の上限値と比較する。検出位置がX方向の下限値未満の場合、後述するS506で顔認識エリアと判定する。 In step S501, the detection position of the face (centered on the face) with respect to the image is compared with the lower limit value of the face tracking area in the X direction, and it is determined whether or not the detection position is within the range, and the detection position is the lower limit value in the X direction. In the above case, it is compared with the upper limit value in the X direction in S502 described later. When the detection position is less than the lower limit value in the X direction, it is determined as the face recognition area in S506 described later.
この判断例として、図8に示すように、左下のユーザAに関しては、顔の検出位置(顔の中央とする)と顔追従エリアのX方向の下限値とを比較すると、下限値以下と判断され、ステップS506へ処理を進める。 As an example of this determination, as shown in FIG. 8, regarding the user A in the lower left, when the face detection position (center of the face) and the lower limit value in the X direction of the face tracking area are compared, it is determined that the user A is below the lower limit value. Then, the process proceeds to step S506.
一方、右上のユーザBに関しては、顔の検出位置(顔の中央とする)と顔追従エリアのX方向の下限値とを比較すると、下限値以上と判断され、ステップS502へ処理を進める。 On the other hand, regarding the user B on the upper right, when the face detection position (center of the face) and the lower limit value of the face tracking area in the X direction are compared, it is determined that the lower limit value or more is obtained, and the process proceeds to step S502.
つまり、顔が、顔認識エリアの最外殻を示す点線及びX方向下限値をX座標の値とするY軸方向への垂直線で囲まれた範囲に存在する場合、顔の検出位置が下限値以下と判断され、顔認識エリアの最外殻を示す実線及びX方向下限値をX座標の値とするY軸方向への垂直線で囲まれた範囲に存在する場合、顔の検出位置が下限値以下ではない、と判断される。 That is, when the face exists in the range surrounded by the dotted line indicating the outermost shell of the face recognition area and the vertical line in the Y-axis direction with the lower limit value in the X direction as the value of the X coordinate, the detection position of the face is the lower limit. If it is judged to be less than or equal to the value and exists in the range surrounded by the solid line indicating the outermost shell of the face recognition area and the vertical line in the Y-axis direction with the lower limit value in the X direction as the value of the X coordinate, the detection position of the face is It is judged that it is not below the lower limit.
ステップS502では、顔の検出位置と顔追従エリアのX方向の上限値とを比較し、範囲内であるか否かを判断し、検出位置がX方向の上限値以下の場合、後述するステップS503でY方向の下限値と比較する。検出位置がX方向の上限値より大きい場合、後述するステップS506で顔認識エリアと判定する。 In step S502, the face detection position is compared with the upper limit value of the face tracking area in the X direction to determine whether or not the face is within the range. If the detection position is equal to or less than the upper limit value in the X direction, step S503 will be described later. Compare with the lower limit in the Y direction. When the detection position is larger than the upper limit value in the X direction, it is determined as the face recognition area in step S506 described later.
この判断例として、図9に示すように、右上のユーザAに関しては、顔の検出位置(顔の中央とする)と顔追従エリアのX方向の上限値とを比較すると、上限値以下ではない、と判断され、ステップS506へ処理を進める。 As an example of this determination, as shown in FIG. 9, regarding the user A on the upper right, when the face detection position (center of the face) and the upper limit value of the face tracking area in the X direction are compared, it is not less than the upper limit value. , And proceed to step S506.
一方、中央上のユーザBに関しては、顔の検出位置(顔の中央とする)と顔追従エリアのX方向の上限値とを比較すると、上限値以下と判断され、ステップS503へ処理を進める。 On the other hand, regarding the user B on the center, when the face detection position (center of the face) and the upper limit value of the face tracking area in the X direction are compared, it is determined that the user B is equal to or less than the upper limit value, and the process proceeds to step S503.
つまり、顔が、ステップS501における範囲内に存在し、かつ、顔認識エリアの最外殻を示す実線及びX方向上限値をX座標の値とするY軸方向への垂直線で囲まれた範囲に存在する場合、顔の検出位置が上限値以下と判断され、顔認識エリアの最外殻を示す点線及びX方向上限値をX座標の値とするY軸方向への垂直線で囲まれた範囲に存在する場合、顔の検出位置が上限値以下ではない、と判断される。 That is, the range in which the face exists within the range in step S501 and is surrounded by a solid line indicating the outermost shell of the face recognition area and a vertical line in the Y-axis direction having the upper limit value in the X direction as the value of the X coordinate. If it exists in, it is judged that the face detection position is below the upper limit value, and it is surrounded by a dotted line indicating the outermost shell of the face recognition area and a vertical line in the Y-axis direction with the upper limit value in the X direction as the value of the X coordinate. If it is within the range, it is determined that the face detection position is not less than or equal to the upper limit.
ステップS503では、顔の検出位置と顔追従エリアのY方向の下限値とを比較し、範囲内であるか否かを判断し、検出位置がY方向の下限値以上の場合、後述するステップS504でY方向の上限値と比較する。検出位置がY方向の下限値未満の場合、後述するステップS506で顔認識エリアと判定する。 In step S503, the face detection position is compared with the lower limit of the face tracking area in the Y direction to determine whether or not the face is within the range. If the detection position is equal to or greater than the lower limit in the Y direction, step S504 will be described later. Compare with the upper limit in the Y direction. If the detection position is less than the lower limit in the Y direction, it is determined to be a face recognition area in step S506 described later.
この判断例として、図10に示すように、中央上のユーザAに関しては、顔の検出位置(顔の中央とする)と顔追従エリアのY方向の下限値とを比較すると、下限値以上ではない、と判断され、ステップS506へ処理を進める。 As an example of this determination, as shown in FIG. 10, with respect to the user A on the center, when the face detection position (center of the face) and the lower limit value in the Y direction of the face tracking area are compared, the lower limit value or more is obtained. It is determined that there is no such thing, and the process proceeds to step S506.
一方、中央下のユーザBに関しては、顔の検出位置(顔の中央とする)と顔追従エリアのY方向の下限値とを比較すると、下限値以上と判断され、ステップS504へ処理を進める。 On the other hand, regarding the user B at the lower center, when the face detection position (which is the center of the face) and the lower limit value in the Y direction of the face tracking area are compared, it is determined that the lower limit value or more is determined, and the process proceeds to step S504.
つまり、顔が、ステップS502における範囲内に存在し、かつ、顔認識エリアの最外殻を示す点線及びY方向下限値をY座標の値とするX軸方向への垂直線で囲まれた範囲に存在する場合、顔の検出位置が下限値以上でない、と判断され、顔認識エリアの最外殻を示す実線及びY方向下限値をY座標の値とするX軸方向への垂直線で囲まれた範囲に存在する場合、顔の検出位置が下限値以上であると判断される。 That is, the range in which the face exists within the range in step S502 and is surrounded by a dotted line indicating the outermost shell of the face recognition area and a vertical line in the X-axis direction having the lower limit value in the Y direction as the value of the Y coordinate. If it exists in, it is determined that the face detection position is not above the lower limit, and it is surrounded by a solid line indicating the outermost shell of the face recognition area and a vertical line in the X-axis direction with the lower limit in the Y direction as the value of the Y coordinate. If it exists in the above range, it is determined that the face detection position is equal to or higher than the lower limit.
ステップS504では、顔の検出位置と顔追従エリアのY方向の上限値とを比較し、範囲内であるか否かを判断し、検出位置がY方向の上限値以下の場合、後述するステップS505で顔追従エリアと判定する。検出位置がY方向の上限値より大きい場合、後述するステップS506で顔認識エリアと判定する。 In step S504, the face detection position is compared with the upper limit value of the face tracking area in the Y direction, and it is determined whether or not the face is within the range. If the detection position is equal to or less than the upper limit value in the Y direction, step S505 described later. Judges as a face tracking area. When the detection position is larger than the upper limit value in the Y direction, it is determined as the face recognition area in step S506 described later.
この判断例として、図11に示すように、中央下のユーザAに関しては、顔の検出位置(顔の中央とする)と顔追従エリアのY方向の上限値とを比較すると、上限値以下ではない、と判断され、ステップS506へ処理を進める。 As an example of this determination, as shown in FIG. 11, for the user A in the lower center, when the face detection position (center of the face) and the upper limit value in the Y direction of the face tracking area are compared, the value is below the upper limit value. It is determined that there is no such thing, and the process proceeds to step S506.
一方、中央のユーザBに関しては、顔の検出位置(顔の中央とする)と顔追従エリアのY方向の上限値とを比較すると、上限値以下と判断され、ステップS505へ処理を進める。 On the other hand, regarding the user B in the center, when the face detection position (center of the face) and the upper limit value of the face tracking area in the Y direction are compared, it is determined that the user B is equal to or less than the upper limit value, and the process proceeds to step S505.
つまり、顔が、ステップS503における範囲内に存在し、かつ、顔認識エリアの最外殻を示す点線及びY方向上限値をY座標の値とするX軸方向への垂直線で囲まれた範囲に存在する場合、顔の検出位置が下限値以上でない、と判断され、Y方向上限値をY座標の値とするX軸方向への垂直線で囲まれた範囲に存在する場合、顔の検出位置が上限値以下であると判断される。 That is, the range in which the face exists within the range in step S503 and is surrounded by the dotted line indicating the outermost shell of the face recognition area and the vertical line in the X-axis direction with the upper limit value in the Y direction as the value of the Y coordinate. If it exists in, it is judged that the detection position of the face is not above the lower limit value, and if it exists in the range surrounded by the vertical line in the X-axis direction with the upper limit value in the Y direction as the value of the Y coordinate, the face is detected. It is determined that the position is below the upper limit.
ステップS505では、顔追従エリアを判定結果としてRAM203に記憶する。判定結果は、ステップS410で使用する。
In step S505, the face tracking area is stored in the
ステップS506では、顔認識エリアを判定結果としてRAM203に記憶する。判定結果は、ステップS410で使用する。
In step S506, the face recognition area is stored in the
以下、図6を参照して、本実施形態の設定ファイルの記述例について説明する。 Hereinafter, a description example of the setting file of the present embodiment will be described with reference to FIG.
図6は、ウェブカメラ画像のサイズ、顔追従エリア、本人認証時の類似度の閾値、本人認証処理のサイクルの設定例である。この例では、各設定項目をタグで囲んで設定している。 FIG. 6 is an example of setting the size of the webcam image, the face tracking area, the threshold value of the similarity at the time of personal authentication, and the cycle of the personal authentication process. In this example, each setting item is surrounded by tags.
ウェブカメラ画像のサイズは、image_sizeタグ601で指定する。「横のピクセル数X縦のピクセル数」の形式で、ピクセルで指定する。
The size of the webcam image is specified by the
顔追従エリアは、tracking_areaタグ602で指定する。画像の左上端を0とし、エリア範囲を横と縦の上下限値をピクセルで指定する。 The face tracking area is designated by the tracking_area tag 602. The upper left corner of the image is set to 0, and the upper and lower limits of the horizontal and vertical areas are specified in pixels.
横方向(X軸方向)の下限値はX_loerタグ603、上限値はX_upperタグ604で指定し、縦方向(Y軸方向)の下限値はY_loerタグ605、上限値はY_upperタグ606で指定する。
The lower limit value in the horizontal direction (X-axis direction) is specified by the X_lower tag 603 and the upper limit value is specified by the X_upper tag 604, the lower limit value in the vertical direction (Y-axis direction) is specified by the Y_lower tag 605, and the upper limit value is specified by the
指定する値の範囲は、ウェブカメラ210で撮影して得られた画像のサイズの範囲内とする。例えば、画像サイズが640×480の場合、Xの上下限値は0〜640、Yは0〜480となる。画像サイズの範囲を超える場合、ステップS409にて自動的に画像サイズの範囲に修正される。顔追従エリアの指定した場合の顔認識エリアとの関係は、図7のようになる。
The range of the specified value is within the size range of the image obtained by shooting with the
本人認証時の類似度の閾値は、similarity_thresholdタグ607で指定する。認証処理時に算出する類似度がここで設定する閾値を下回ると、他人と判断される。例えば、フォールス・ネガティブの観点から、指定できる範囲は0.5〜1.0とする。
The threshold value of the similarity at the time of personal authentication is specified by the
本人認証処理のサイクルは、processing_cycleタグ608で指定する。指定する値の単位は、例えば、ミリ秒とする。 The cycle of personal authentication processing is specified by the processing_cycle tag 608. The unit of the specified value is, for example, milliseconds.
以下、図12を参照して、本実施形態のウェブ管理コンソールによる管理画面の一例について説明する。 Hereinafter, an example of the management screen by the web management console of the present embodiment will be described with reference to FIG.
図12は、管理者用PC121でのウェブ管理コンソールを用いた管理画面700である。管理画面700では、管理対象となるテレワーカのリストのほか、検出したイベントの証跡となる画像、イベント発生日時、テレワーカの通信状況について確認できる。
FIG. 12 is a
管理画面700は、テレワーカリストパネル701、カレンダーパネル702、証跡確認パネル703で構成される。
The
テレワーカリストパネル701では、管理対象のテレワーカの名前と認証用写真が一覧で表示される。リスト内のテレワーカをクリックすると、証跡データを確認したいテレワーカを指定できる。またリスト内のテレワーカが青色に表示されているときは、そのテレワーカ用PC111が管理サーバ101と通信接続していることを示す。
On the
カレンダーパネル702では、確認対象のイベントの証跡データの日付を指定できる。カレンダーパネル702上の日付をクリックすると、確認したい証跡データの日付を指定できる。指定された日付は、青色で表示される。
In the
証跡確認パネル703では、テレワーカリストパネル701とカレンダーパネル702で指定されたテレワーカと日付に関連したイベントの証跡データを表示する。イベントの証跡データは、イベント分類、発生日時、証跡となる画像で構成される。イベント分類には、「離席」、「なりすまし」、「覗き込み」があり、これらの分類はテレワーカ用PC111の専用アプリケーション内で分類される。
The
これらの管理画面700に表示する情報については、管理サーバ101を介してデータベースサーバ102に対して、テレワーカ用PC111から送信されたテレワーク情報(各イベントとそれに応じる証跡データを含む)を参照する。
Regarding the information displayed on the
本実施形態では、顔追従エリアに、初めて登場した時のみ、ステップS412における顔認証処理を行ったが、ステップS411の処理に於いて、初めて登場した時を含めて、認証状態を「未承認」として判断した後、その回数をインクリメントしていき、その回数が、所定回数超えた場合、ステップS412における顔認証処理を行い、当該顔認証処理を終了した後、この回数をクリアする態様をとることも可能である。 In the present embodiment, the face recognition process in step S412 is performed only when the face tracking area first appears, but in the process of step S411, the authentication state is "unapproved" including the first appearance. After determining that, the number of times is incremented, and if the number of times exceeds a predetermined number of times, the face recognition process in step S412 is performed, and after the face recognition process is completed, this number of times is cleared. Is also possible.
これによって、初めて顔追従エリアに登場した時に限らず、定期的に顔認証処理を行うよりも、少ない頻度で、所定のタイミングで、顔認証を行うことが可能となり、なりすまし検出の精度を上げることも可能である。 This makes it possible to perform face recognition at a predetermined timing with less frequency than performing face recognition processing on a regular basis, not only when it first appears in the face tracking area, and improve the accuracy of spoofing detection. Is also possible.
さらに、顔追従エリアに、初めて登場した時のみ、ステップS412における顔認証処理を行ったが、ステップS411の処理に於いて、初めて登場した時に認証状態が「認証済み」と判定した後、ステップS411の処理が、認証状態が継続して「認証済み」のまま、所定回数実行された後、認証状態を「未認証」として判断し、ステップS412における顔認証処理を行っても良い。 Further, the face recognition process in step S412 was performed only when it first appeared in the face tracking area, but in the process of step S411, after determining that the authentication state was "authenticated" when it first appeared, step S411 After the processing of is executed a predetermined number of times while the authentication status is continuously "authenticated", the authentication status may be determined as "unauthenticated" and the face recognition process in step S412 may be performed.
これによって、顔追従エリアと顔認識エリアとで、認証を行う頻度の切替えを行うことが可能となるので、初めて顔追従エリアに登場した時に限らず、定期的に顔認証処理を行うよりも、少ない頻度で、顔認証を行うことが可能となり、顔追従エリアにおけるなりすまし検出の精度を上げることも可能である。 This makes it possible to switch the frequency of authentication between the face tracking area and the face recognition area, so it is better than performing face recognition processing on a regular basis, not only when the face tracking area first appears. Face recognition can be performed with a low frequency, and it is possible to improve the accuracy of spoofing detection in the face tracking area.
以上、本発明に依れば、定期的な本人認証を要するシステムに於いて、なりすましを抑止するための顔認証を行うエリアと、誤認証を抑止するための当該エリアよりも認証頻度を抑えたエリアと、を設けることで、当該システムの不正使用及び認証精度低下を抑止することができる。 As described above, according to the present invention, in a system that requires periodic personal authentication, the authentication frequency is suppressed as compared with the area where face authentication is performed to suppress spoofing and the area for suppressing false authentication. By providing an area, it is possible to prevent unauthorized use of the system and deterioration of authentication accuracy.
以上、実施形態例を詳述したが、本発明は、例えば、方法、プログラムもしくは記憶媒体等としての実施態様をとることが可能であり、具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。 Although examples of embodiments have been described in detail above, the present invention can take an embodiment as, for example, a method, a program, a storage medium, or the like, and specifically, a system composed of a plurality of devices. It may be applied, or it may be applied to a device consisting of one device.
また、本発明におけるプログラムは、各処理方法をコンピュータが実行可能(読み取り可能)なプログラムであり、本発明の記憶媒体は、各処理方法をコンピュータが実行可能なプログラムが記憶されている。 Further, the program in the present invention is a program in which a computer can execute (read) each processing method, and the storage medium of the present invention stores a program in which a computer can execute each processing method.
なお、本発明におけるプログラムは、各装置の処理方法ごとのプログラムであってもよい。 The program in the present invention may be a program for each processing method of each device.
以上のように、前述した実施形態の機能を実現するプログラムを記録した記録媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムを読取り実行することによっても、本発明の目的が達成されることは言うまでもない。 As described above, a recording medium on which a program for realizing the functions of the above-described embodiment is recorded is supplied to the system or device, and the computer (or CPU or MPU) of the system or device stores the program in the recording medium. It goes without saying that the object of the present invention is achieved by reading and executing.
この場合、記録媒体から読み出されたプログラム自体が本発明の新規な機能を実現することになり、そのプログラムを記憶した記録媒体は本発明を構成することになる。 In this case, the program itself read from the recording medium realizes the novel function of the present invention, and the recording medium storing the program constitutes the present invention.
プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、DVD−ROM、磁気テープ、不揮発性のメモリカード、ROM、EEPROM、シリコンディスク等を用いることができる。 Recording media for supplying programs include, for example, flexible disks, hard disks, optical disks, magneto-optical disks, CD-ROMs, CD-Rs, DVD-ROMs, magnetic tapes, non-volatile memory cards, ROMs, EEPROMs, and silicon. A disc or the like can be used.
また、コンピュータが読み出したプログラムを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムの指示に基づき、コンピュータで稼働しているOS等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Further, by executing the program read by the computer, not only the function of the above-described embodiment is realized, but also the OS or the like running on the computer is a part of the actual processing or based on the instruction of the program. Needless to say, there are cases where the functions of the above-described embodiment are realized by performing all of the processes.
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Further, the program read from the recording medium is written to the memory provided in the function expansion board inserted in the computer or the function expansion unit connected to the computer, and then the function expansion board is based on the instruction of the program code. It goes without saying that there are cases where the CPU or the like provided in the function expansion unit performs a part or all of the actual processing, and the processing realizes the functions of the above-described embodiment.
また、本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用してもよい。 Further, the present invention may be applied to a system composed of a plurality of devices or a device composed of one device.
また、本発明は、システムあるいは装置にプログラムを供給することによって達成される場合にも適応できることは言うまでもない。この場合、本発明を達成するためのプログラムを格納した記録媒体を該システムあるいは装置に読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。 It goes without saying that the present invention can also be applied when it is achieved by supplying a program to a system or device. In this case, by reading the recording medium in which the program for achieving the present invention is stored into the system or device, the system or device can enjoy the effect of the present invention.
さらに、本発明を達成するためのプログラムをネットワーク上のサーバ,データベース等から通信プログラムによりダウンロードして読み出すことによって、そのシステム、あるいは装置が、本発明の効果を享受することが可能となる。なお、上述した各実施形態およびその変形例を組み合わせた構成も全て本発明に含まれるものである。 Further, by downloading and reading a program for achieving the present invention from a server, database, or the like on the network by a communication program, the system or device can enjoy the effect of the present invention. It should be noted that all the configurations in which the above-described embodiments and modifications thereof are combined are also included in the present invention.
100 テレワーク管理支援システム
101 管理サーバ
102 データベースサーバ
103 ルータ
104 サービス環境ネットワーク
110 自宅ネットワーク
111 テレワーカ用PC
112 ルータ
120 社内ネットワーク
121 管理者用PC121
122 ルータ
130 インターネット
201 CPU
202 ROM
203 RAM
204 システムバス
205 入力コントローラ
206 ビデオコントローラ
207 メモリコントローラ
208 通信I/Fコントローラ
209 KB
210 ウェブカメラ
211 CRT
212 外部メモリ
100 Telework
112
122
202 ROM
203 RAM
204
210
212 external memory
Claims (11)
撮影して得られた画像から顔に関する顔情報を取得する取得手段と、
前記取得手段によって取得した顔情報を用いて、本人認証の制御を繰り返し行う認証制御手段と、
を備え、
前記認証制御手段は、ユーザが本人として認証された後、前記本人として認証がなされたユーザの顔情報に基づき当該ユーザが認識された状態の継続が所定の条件を満たす場合、前記本人認証を行うように制御することを特徴とする情報処理装置。 It is an information processing device that authenticates the person using the face information of the image obtained by shooting.
An acquisition method for acquiring face information about a face from an image obtained by taking a picture,
An authentication control means that repeatedly controls personal authentication using the face information acquired by the acquisition means, and
With
After the user is authenticated as the person, the authentication control means performs the person authentication when the continuation of the state in which the user is recognized based on the face information of the user who has been authenticated as the person satisfies a predetermined condition. An information processing device characterized by being controlled in such a manner.
撮影して得られた画像から顔に関する顔情報を取得する取得手段と、
前記取得手段によって取得した顔情報を用いて、本人認証の制御を繰り返し行う認証制御手段と、
を備え、
前記認証制御手段は、ユーザが本人として認証された後、前記本人として認証がなされたユーザの顔情報に基づき当該ユーザが認識された状態の継続が所定の条件を満たす場合、前記本人認証を行うように制御することを特徴とする情報処理システム。 An information processing system in which a client terminal, an administrator terminal, and a server are connected via a network.
An acquisition method for acquiring face information about a face from an image obtained by taking a picture,
An authentication control means that repeatedly controls personal authentication using the face information acquired by the acquisition means, and
With
After the user is authenticated as the person, the authentication control means performs the person authentication when the continuation of the state in which the user is recognized based on the face information of the user who has been authenticated as the person satisfies a predetermined condition. An information processing system characterized by being controlled in such a manner.
前記情報処理装置は、
撮影して得られた画像から顔に関する顔情報を取得する取得ステップと、
前記取得ステップによって取得した顔情報を用いて、本人認証の制御を繰り返し行う認証制御ステップと、
を実行し、
前記認証制御ステップは、ユーザが本人として認証された後、前記本人として認証がなされたユーザの顔情報に基づき当該ユーザが認識された状態の継続が所定の条件を満たす場合、前記本人認証を行うように制御することを特徴とする情報処理装置の制御方法。 It is a control method of an information processing device that authenticates the person using the face information of the image obtained by taking a picture.
The information processing device
The acquisition step to acquire face information about the face from the image obtained by shooting,
An authentication control step that repeatedly controls personal authentication using the face information acquired in the acquisition step, and
And
After the user is authenticated as the person, the authentication control step performs the person authentication when the continuation of the state in which the user is recognized based on the face information of the user who has been authenticated as the person satisfies a predetermined condition. A control method for an information processing device, which is characterized by such control.
撮影して得られた画像から顔に関する顔情報を取得する取得手段と、
前記取得手段によって取得した顔情報を用いて、撮影して得られた画像からユーザの顔認識を行う本人認証を繰り返し行う認証制御手段と、
して機能させ、
前記認証制御手段は、ユーザが本人として認証された後、前記本人として認証がなされたユーザの顔情報に基づき当該ユーザが認識された状態の継続が所定の条件を満たす場合、前記本人認証を行うように制御するように機能させるためのプログラム。 Computer,
An acquisition method for acquiring face information about a face from an image obtained by taking a picture,
An authentication control means that repeatedly performs personal authentication that recognizes the user's face from an image obtained by taking a picture using the face information acquired by the acquisition means.
To make it work
After the user is authenticated as the person, the authentication control means performs the person authentication when the continuation of the state in which the user is recognized based on the face information of the user who has been authenticated as the person satisfies a predetermined condition. A program to make it work to control.
前記情報処理システムは、
撮影して得られた画像から顔に関する顔情報を取得する取得ステップと、
前記取得ステップによって取得した顔情報を用いて、撮影して得られた画像からユーザの顔認識を行う本人認証の制御を繰り返し行う認証制御ステップと、
を実行し、
前記認証制御ステップは、ユーザが本人として認証された後、前記本人として認証がなされたユーザの顔情報に基づき当該ユーザが認識された状態の継続が所定の条件を満たす場合、前記本人認証を行うように制御するように実行することを特徴とする情報処理システムの制御方法。 It is a control method of an information processing system in which a client terminal, an administrator terminal, and a server are connected via a network.
The information processing system
The acquisition step to acquire face information about the face from the image obtained by shooting,
Using the face information acquired in the acquisition step, an authentication control step that repeatedly controls personal authentication that recognizes the user's face from an image obtained by taking a picture, and
And
After the user is authenticated as the person, the authentication control step performs the person authentication when the continuation of the state in which the user is recognized based on the face information of the user who has been authenticated as the person satisfies a predetermined condition. A control method for an information processing system, which is characterized in that it is executed so as to be controlled.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013242590 | 2013-11-25 | ||
JP2013242590 | 2013-11-25 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016238210A Division JP6455501B2 (en) | 2013-11-25 | 2016-12-08 | Information processing apparatus, information processing system, control method, and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019046507A JP2019046507A (en) | 2019-03-22 |
JP2019046507A5 JP2019046507A5 (en) | 2019-10-10 |
JP6823267B2 true JP6823267B2 (en) | 2021-02-03 |
Family
ID=53533586
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014236092A Active JP6056837B2 (en) | 2013-11-25 | 2014-11-21 | Information processing apparatus, information processing system, control method, and program |
JP2016238210A Active JP6455501B2 (en) | 2013-11-25 | 2016-12-08 | Information processing apparatus, information processing system, control method, and program |
JP2018238242A Active JP6823267B2 (en) | 2013-11-25 | 2018-12-20 | Information processing equipment, information processing systems, control methods, and programs |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014236092A Active JP6056837B2 (en) | 2013-11-25 | 2014-11-21 | Information processing apparatus, information processing system, control method, and program |
JP2016238210A Active JP6455501B2 (en) | 2013-11-25 | 2016-12-08 | Information processing apparatus, information processing system, control method, and program |
Country Status (1)
Country | Link |
---|---|
JP (3) | JP6056837B2 (en) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6826281B2 (en) * | 2016-06-16 | 2021-02-03 | キヤノンマーケティングジャパン株式会社 | Information processing equipment, information processing methods, programs |
JP6646226B2 (en) * | 2016-11-29 | 2020-02-14 | キヤノンマーケティングジャパン株式会社 | Information processing apparatus, information processing method, and program |
JP6544343B2 (en) * | 2016-11-29 | 2019-07-17 | キヤノンマーケティングジャパン株式会社 | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM |
JP6544413B2 (en) * | 2016-12-15 | 2019-07-17 | キヤノンマーケティングジャパン株式会社 | Information processing apparatus, control method, program |
JP6544404B2 (en) | 2017-09-19 | 2019-07-17 | 日本電気株式会社 | Matching system |
JP6947202B2 (en) * | 2017-09-19 | 2021-10-13 | 日本電気株式会社 | Matching system |
JP2019175503A (en) * | 2019-06-20 | 2019-10-10 | キヤノンマーケティングジャパン株式会社 | Information processor, information processing method, and program |
CN114041164A (en) * | 2019-06-26 | 2022-02-11 | 日本电气株式会社 | Authentication system, authentication method, control device, computer program, and recording medium |
KR20220052922A (en) * | 2019-09-06 | 2022-04-28 | 소니그룹주식회사 | Information processing devices, information processing methods and information processing programs |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001118070A (en) * | 1999-10-19 | 2001-04-27 | Yis Corporation Co Ltd | Image collating log-in system |
JP2002055956A (en) * | 2000-08-14 | 2002-02-20 | Toshiba Corp | Device for personal authentication and storage medium |
JP4086740B2 (en) * | 2003-09-09 | 2008-05-14 | 日本電気株式会社 | Terminal user monitoring system |
JP2005115480A (en) * | 2003-10-03 | 2005-04-28 | Toshiba Social Automation Systems Co Ltd | Authentication system and computer readable storage medium |
JP2006259925A (en) * | 2005-03-15 | 2006-09-28 | Omron Corp | Object authentication device, cellular phone, object authentication method and object authentication program |
JP4899552B2 (en) * | 2006-03-15 | 2012-03-21 | オムロン株式会社 | Authentication device, authentication method, authentication program, and computer-readable recording medium recording the same |
JP2009211381A (en) * | 2008-03-04 | 2009-09-17 | Nec Corp | User authentication system, user authentication method and user authentication program |
JP2009223651A (en) * | 2008-03-17 | 2009-10-01 | Nec Saitama Ltd | Face authentication apparatus, program, and portable terminal |
JP2013140440A (en) * | 2011-12-28 | 2013-07-18 | Sharp Corp | Information processing device and driving method for the same, control program and readable storage medium |
WO2013121711A1 (en) * | 2012-02-15 | 2013-08-22 | 日本電気株式会社 | Analysis processing device |
JP2013182552A (en) * | 2012-03-05 | 2013-09-12 | Japan Cyber Educational Institute Ltd | Authentication system in remote learning and method therefor |
-
2014
- 2014-11-21 JP JP2014236092A patent/JP6056837B2/en active Active
-
2016
- 2016-12-08 JP JP2016238210A patent/JP6455501B2/en active Active
-
2018
- 2018-12-20 JP JP2018238242A patent/JP6823267B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP6455501B2 (en) | 2019-01-23 |
JP2015122062A (en) | 2015-07-02 |
JP6056837B2 (en) | 2017-01-11 |
JP2019046507A (en) | 2019-03-22 |
JP2017045485A (en) | 2017-03-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6823267B2 (en) | Information processing equipment, information processing systems, control methods, and programs | |
JP6442751B2 (en) | Information processing apparatus, information processing system, control method, and program | |
CN109191730B (en) | Information processing apparatus | |
JP6112036B2 (en) | Information processing apparatus and method, information processing system, and program | |
JP6993597B2 (en) | Information processing equipment, control methods, and programs | |
CN109118233B (en) | Authentication method and device based on face recognition | |
JP6335551B2 (en) | Image forming apparatus, monitoring system, log management method, and computer program | |
JP6691309B2 (en) | Information processing apparatus, control method thereof, and program | |
KR20170045944A (en) | Method for unlocking security status of security processed object and apparatus thereof | |
JP6369324B2 (en) | Information processing apparatus, control method, and program | |
JP6485522B2 (en) | Management server, information processing terminal, control method, and program | |
JP5891828B2 (en) | Mobile terminal, photographed image disclosure method, program | |
JP6684009B1 (en) | Program, video processing device, and authentication method | |
JP7104291B2 (en) | Information processing system, information processing method, program | |
JP6631662B2 (en) | Information processing apparatus, control method, and program | |
JP6826281B2 (en) | Information processing equipment, information processing methods, programs | |
JP6854138B2 (en) | Information processing system, information processing method, program | |
JP2018097866A (en) | Information processing device, control method, and program | |
JP2020107218A (en) | Information processing device, control method therefor, and program | |
JP6898574B2 (en) | Information processing equipment, information processing methods, programs | |
JP7093037B2 (en) | Information processing equipment, face recognition system, its control method and program | |
JP7299543B2 (en) | Information processing system, information processing method, program | |
US11095814B2 (en) | Image processing apparatus and image processing method | |
JP6788205B2 (en) | Information processing device, personal authentication system, its control method, personal authentication method, its program | |
JP2017216556A (en) | Information processing device, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190115 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190118 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190828 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191031 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191203 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200630 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200817 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201208 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201221 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6823267 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |