JP2009259269A - Face image recording system and face image recording method - Google Patents
Face image recording system and face image recording method Download PDFInfo
- Publication number
- JP2009259269A JP2009259269A JP2009174032A JP2009174032A JP2009259269A JP 2009259269 A JP2009259269 A JP 2009259269A JP 2009174032 A JP2009174032 A JP 2009174032A JP 2009174032 A JP2009174032 A JP 2009174032A JP 2009259269 A JP2009259269 A JP 2009259269A
- Authority
- JP
- Japan
- Prior art keywords
- face
- face image
- user
- history information
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Alarm Systems (AREA)
- Collating Specific Patterns (AREA)
Abstract
Description
この発明は、重要施設(部屋,フロア,建物など)の出入り管理やコンピュータあるいは端末などのアクセスにおけるカメラを用いた不正抑止、及びアクセス者の行動把握のためのシステムに関する。 The present invention relates to a system for managing access to an important facility (room, floor, building, etc.), fraud prevention using a camera in accessing a computer or a terminal, and grasping an accessor's action.
従来、カメラを用いて管理を行うシステムとしては主に2通りある。
一つは,銀行やコンビニエンスストアなどに設置されている監視システムである。この種の監視システムでは、カメラ(監視カメラ)により撮影されている人物の監視、あるいは、上記カメラにて撮影した画像の記録を行う。上記監視カメラからの映像は、別の場所にモニタリングされ、監視員によりチェックされる。ここでの中心技術は、最適な状態の人物や顔の画像を撮像する技術、撮像した画像を高速で伝送技術、あるいは撮像した画像を高圧縮で記録する技術などである。
Conventionally, there are mainly two systems for performing management using a camera.
One is a monitoring system installed in banks and convenience stores. In this type of surveillance system, a person photographed by a camera (surveillance camera) is monitored, or an image photographed by the camera is recorded. The video from the surveillance camera is monitored at another location and checked by a supervisor. The central technique here is a technique for capturing an image of a person or face in an optimal state, a technique for transmitting the captured image at high speed, or a technique for recording the captured image with high compression.
もう一つは、人物に対する認証処理を行う認証システムである。この種の認証システムでは、被認証者の顔画像などの生体情報を用いて個人認証(本人確認)を行う。たとえば、あらかじめアクセス権利をもつユーザの顔画像パターンを登録しておき、アクセス時にユーザの顔画像をカメラより入力し,リアルタイムで登録画像パターンとの照合を行い、本人かどうかを判定する。顔画像パターンを用いる方法は、指紋に代表される生体情報に基づいた(バイオメトリクス)個人認証方法に属するが、離れた位置から非接触で入力でき、その顔画像と照合のために抽出された顔パターン特徴を履歴として残せるという利点がある。 The other is an authentication system that performs authentication processing for a person. In this type of authentication system, personal authentication (identification) is performed using biological information such as a face image of the person to be authenticated. For example, a face image pattern of a user who has an access right is registered in advance, and the user's face image is input from the camera at the time of access, and is compared with the registered image pattern in real time to determine whether the user is the person. The method using a face image pattern belongs to the (biometrics) personal authentication method based on biometric information typified by fingerprints, but can be input in a non-contact manner from a distant position and extracted for collation with the face image. There is an advantage that the face pattern feature can be left as a history.
しかしながら、従来の監視カメラを用いた監視システムでは、ユーザに自分の顔が撮像されていることをなるべく意識されないようにするために、監視カメラを一定距離だけ離した比較的高位置に設置する場合が多い。このような場合、必ずしも個人が特定可能な正面向きの顔画像が得られないなど人物の顔画像がいつも適性に撮像されないという問題がある。言いかえれば、入力の際のユーザ負担(使い勝手)という観点からは問題は少ないが、不正抑止力という点では、必ずしも強力とは言えないことがある。 However, in a conventional surveillance system using a surveillance camera, the surveillance camera is installed at a relatively high position separated by a certain distance in order to prevent the user from being aware that his / her face is captured as much as possible. There are many. In such a case, there is a problem that a face image of a person is not always properly captured such that a face image facing the front that can be identified by an individual cannot always be obtained. In other words, there are few problems from the viewpoint of user burden (usability) at the time of input, but it may not necessarily be powerful in terms of fraud deterrence.
一方、従来の個人認証(本人確認)システムでは、ユーザに意識して正面顔を入力してもらい、あらかじめ登録してある顔画像(もしくは顔パターン)データとの照合をリアルタイムに行ってアクセス管理を行う。このような顔画像入力による個人認証方法は、指紋などの他の生体照合方法と比較するとユーザにとってなじみ易く、顔画像を入力する際のユーザへの負担という点では優れている。しかしながら、人物を監視するシステムや人物の画像を録画するシステムと比較した場合、セキュリティレベルにおいてかなり高くなる反面、事前に顔画像パターンを登録する手間や、外光などの照明変動が認識性能に影響を与えるという点で使い勝手が悪いという問題点がある。 On the other hand, in the conventional personal authentication (identity confirmation) system, the user is consciously input the front face, and access control is performed in real time by collating with face image (or face pattern) data registered in advance. Do. Such a personal authentication method by inputting a face image is easier for the user to compare with other biometric verification methods such as fingerprints, and is superior in terms of the burden on the user when inputting a face image. However, compared with systems that monitor people and systems that record human images, the security level is considerably higher, but the effort to register face image patterns in advance and lighting fluctuations such as outside light affect recognition performance. There is a problem that it is not easy to use because it gives
このように、従来のシステムでは、使い勝手とセキュリティレベルにおいて一長一短があり、両者のバランスにおいて中間的な装置あるいはシステムがこれまで存在せず、応用範囲が狭いという問題点がある。 As described above, the conventional system has advantages and disadvantages in usability and security level, and there is no intermediate device or system in the balance between the two, and there is a problem that the application range is narrow.
本発明は,上記事情を考慮してなされたもので,その目的とするところは、顔照合による非接触性の利点を活かし、ユーザの使い勝手、及び利便性をできるだけ損なわないようにしながら,情報セキュリティや物理セキュリティにおけるセキュリティレベル及び不正抑止効果を高めることが可能なシステムを提供することを目的とする。 The present invention has been made in view of the above circumstances, and its purpose is to take advantage of the non-contact property by face matching and to minimize the usability and convenience of the user as much as possible. Another object of the present invention is to provide a system capable of enhancing the security level and fraud deterrent effect in physical security.
この発明の顔画像記録システムは、複数の地点に設置された複数の入力端末と、これらの入力端末からのデータを受信可能なサーバ装置とを有するものにおいて、前記入力端末は、各設置地点においてユーザの顔画像を入力する画像入力手段と、この画像入力手段により入力された顔画像データと、その撮影地点及び撮影時間を含む履歴情報とを前記サーバ装置へ送信する送信手段とを有し、前記サーバ装置は、前記入力端末から送信された顔画像データとその履歴情報とを記録する画像記録手段と、前記入力端末からの顔画像データを受信した場合、前記入力端末から受信した顔画像データと前記画像記録手段に既に記録されている顔画像データとを照合する照合手段と、この照合手段により前記入力端末から受信した顔画像データと前記画像記録手段に既に記録されている顔画像データとの照合が成功した場合、前記入力端末から受信した顔画像データと照合した顔画像データに対応する履歴情報を前記画像記録手段から読み出し、その履歴情報に含まれている撮影場所と撮影時間とに基づいて当該ユーザの行動の軌跡を表示する表示手段とを有する。 The face image recording system of the present invention has a plurality of input terminals installed at a plurality of points and a server device capable of receiving data from these input terminals. An image input means for inputting a user's face image; and a transmission means for transmitting face image data input by the image input means and history information including the shooting location and shooting time to the server device; When the server device receives the face image data transmitted from the input terminal and the image recording means for recording the face image data, and the face image data from the input terminal, the face image data received from the input terminal And face image data already recorded in the image recording means, face image data received from the input terminal by the matching means, and the face image data When the collation with the face image data already recorded in the image recording means is successful, the history information corresponding to the face image data collated with the face image data received from the input terminal is read from the image recording means, and the history Display means for displaying a trajectory of the user's action based on the shooting location and the shooting time included in the information.
この発明によれば、顔照合による非接触性の利点を活かし、ユーザの使い勝手、及び利便性をできるだけ損なわないようにしながら,情報セキュリティや物理セキュリティにおけるセキュリティレベル及び不正抑止効果を高めることが可能な顔画像記録システムを提供できる。 According to the present invention, it is possible to enhance the security level and fraud deterrent effect in information security and physical security while making the most of the convenience and convenience of the user as much as possible by taking advantage of non-contact by face matching. A face image recording system can be provided.
以下、この発明の第1〜第7の実施の形態について図面を参照して説明する。
まず、各実施の形態に共通な構成となるシステムについて説明する。
本発明の各実施の形態に係るシステムは、図1及び図2に示すように、大きく2つにモデル化できる。図1は、モデルAのシステム構成を概略的に示す図であり、図2は、モデルBのシステム構成を概略的に示す図である。
Hereinafter, first to seventh embodiments of the present invention will be described with reference to the drawings.
First, a system having a configuration common to the embodiments will be described.
The system according to each embodiment of the present invention can be roughly modeled into two as shown in FIGS. FIG. 1 is a diagram schematically illustrating a system configuration of model A, and FIG. 2 is a diagram schematically illustrating a system configuration of model B.
まず、モデルAは、図1に示すように、ID認証装置1、顔画像入力装置2、顔記録サーバ3、及び、顔履歴データベース4などから構成されている。上記ID認証装置1は、ユーザが入力するID情報に基づいてID認証処理を行う。ここで、ユーザが入力するID情報としては、IDカードに記憶されているID情報、あるいは、キー入力される情報(ID番号、パスワード)などの情報である。上記顔画像入力装置2は、ユーザの少なくとも顔を含む領域の画像(顔画像)を入力(撮影)し、その入力画像から顔の特徴パターンを検出したり、入力された画像に基づく顔画像データを上記顔記録サーバ3へ伝送したりするものである。上記顔記録サーバ3は、上記顔画像入力装置2から伝送された顔画像データを履歴情報とともに上記顔履歴データベース4に記録したり、上記顔履歴データベース4から特定の人物の顔画像データを検索したりするものである。上記顔履歴データベース4は、例えば、大容量磁気ディスクで構成される。
First, as shown in FIG. 1, the model A includes an
すなわち、モデルAにおいて、ユーザは、まず、自身のID情報をIDカードあるいはキー入力により入力する。すると、上記ID認証装置1は、ユーザにより入力されたID情報に基づいてユーザ認証を行う。ここで、ユーザ認証としては、ユーザが本人であるか否かを判断するものであっても良いし、ユーザが誰であるかを判断するものであっても良い。
That is, in the model A, the user first inputs his / her ID information by an ID card or key input. Then, the
上記ID認証装置1によりユーザが認証されると、上記顔画像入力装置2は、図示しないカメラにて当該ユーザの顔画像を入力(撮影)する。当該ユーザの顔画像が顔画像データとして入力されると、上記顔画像入力装置2は、入力画像データから顔の特徴パターンを検出する。これにより、入力画像データから顔の特徴パターンを検出すると、上記顔画像入力装置2は、顔の特徴パターンが検出された入力画像データをその入力画像データの属性情報とともに、上記顔記録サーバ3へ伝送する。上記顔記録サーバ3では、上記顔画像入力装置2から伝送された入力された顔画像データとその属性情報とを上記顔履歴データベース4に記録する。
When the user is authenticated by the
また、モデルBは、図2に示すように,上記モデルAのID認証装置1が省略された構成となっており、上記のようなモデルAでのID情報によるユーザ認証を省略される。
すなわち、モデルBでは、まず、上記顔画像入力装置2によりユーザの顔画像を撮影する。当該ユーザの顔画像を入力すると、上記顔画像入力装置2は、入力された画像に基づく顔画像データから顔の特徴パターンを検出する。これにより、入力画像データから顔の特徴パターンを検出すると、上記顔画像入力装置2は、顔の特徴パターンが検出された入力画像データをその入力画像データの属性情報とともに、上記顔記録サーバ3へ伝送する。上記顔記録サーバ3では、上記顔画像入力装置2から伝送された入力画像データとその属性情報とを上記顔履歴データベース4に記録する。
Further, as shown in FIG. 2, the model B has a configuration in which the model A
That is, in the model B, first, the face
なお、モデルA及びモデルBの実現形態としては、顔画像入力装置2の機能と顔記録サーバ3の機能と有する一体型の装置(スタンドアロン型)で構成されるようにしても良いし、図3に示すように、複数の顔画像入力装置2に対してネットワークを介して顔記録サーバ3が接続されているシステム(ネットワーク型)で構成されるようにしても良い。
As an implementation form of the model A and the model B, the model A and the model B may be configured as an integrated device (stand-alone type) having the function of the face
以下の説明では、本システム全体が、図3に示されるようなネットワーク型で構成されるものとする。すなわち、本システムにおいて、各顔画像入力装置(端末)2は、顔画像データをその履歴情報とともに上記顔記録サーバ3へ伝送する。上記顔記録サーバ3は、各顔画像入力装置2から送られてくる顔画像データと履歴情報を顔記録サーバ3に接続されている顔履歴データベース4に蓄える。また、上記顔記録サーバ3では、管理者(監視員)の操作により指定された人物の顔データの検索(トラッキング)を行うようになっている。
In the following description, it is assumed that the entire system is configured as a network type as shown in FIG. That is, in this system, each face image input device (terminal) 2 transmits the face image data to the
次に、上記顔画像入力装置2について説明する。
図4は、上記顔画像入力装置2の外観構成例を示す図である。また、図4では、上記顔画像入力装置2の制御に基づいて動作する機器の例として自動ドア及び電気錠が示されている。
図4に示す構成では、顔画像入力装置2が操作部11と処理部12とにより構成されている。上記操作部11には上記処理部12が接続され、上記処理部12には自動ドア及び電気錠を制御する電気錠制御部が接続されている。
Next, the face
FIG. 4 is a diagram showing an external configuration example of the face
In the configuration illustrated in FIG. 4, the face
上記操作部11には、図4に示すように、表示部(ディスプレイ)21、カメラ22、スピーカ23、テンキー24などが組み込まれている。
上記表示部21は、例えばカラー液晶表示装置により構成される。上記表示部21には、上記カメラ22から入力された画像上に顔領域の検出結果(例えば、顔領域を表す円図形で示す)を重ねて表示される。上記カメラ22は、ユーザの少なくとも顔を含む領域の画像(顔画像)を複数枚撮影(入力)する。上記テンキー24は、ID情報などを入力するキーである。上記スピーカ23は、上記処理部12からの音声データを再生するものであり、音声ガイドなどを行う。なお、図4に示す顔画像入力装置2をモデルBに適用する場合には、上記テンキー24は省略しても良い。
As shown in FIG. 4, the
The
また、上記処理部12は、上記カメラ22により入力された画像データから顔の特徴量を検出する顔検出、上記カメラ22を制御するカメラ制御、上記テンキー24を制御するテンキー制御、上記自動ドアあるいは上記電気錠制御を介して電気錠を制御するドア制御、上記カメラ22からの入力画像データを外部に伝送する画像伝送、上記カメラ22からの入力画像データを記憶装置に記憶する画像記録などの機能を有している。
Further, the
図5(a)、(b)は、顔画像入力装置2の設置例を示す側面図である。
図5(a)は、壁掛けタイプの操作部11を有する顔画像入力装置2の設置例を示す側面図である。図5(a)では、図4に示すように構成された操作部11が壁に掛けて設置されている。このような構成では、操作部11の正面に立つ利用者Pの顔は、斜め下方からカメラ22によって撮影されるようになっている。また、操作部11はケーブルを介して処理部12に接続されている。
FIGS. 5A and 5B are side views showing an installation example of the face
FIG. 5A is a side view showing an installation example of the face
また、図5(b)は、据え置きが可能なポール型の顔画像入力装置2の例である。図5(b)に示す構成例では、ポール形状の筐体に表示部21、及びカメラ22などの操作部11の構成が設けられるともに、筐体内に処理部12が設置される。また、図5(b)に示す構成において、ポール形状の筐体の高さは、人間の身長に合わせて、例えば、140〜150cmに設定される。すなわち、図5(b)に示す構成のポール形状の筐体は、ユーザの正面向きの顔を安定して撮影できる上記カメラ22の取り付け位置を確保できる高さがあれば良く、そのカメラ22の近傍に表示部21が設置される。
FIG. 5B shows an example of a pole-type face
また、図5(a)、(b)に示すような構成の顔画像入力装置2がネットワーク型のシステムに適用される場合、上記処理部12には、無線LANやブルートゥースなどの無線通信による上記顔記録サーバ3との無線通信機能(送信手段)を設けるようにしても良い。このように顔画像入力装置2に無線通信機能を搭載することによりネットワーク回線や顔記録サーバ3と接続するための配線の手間を省くことができ、顔画像入力装置2の設置や増設などが容易となる。
Further, when the face
図6は、顔画像入力装置の制御系統としての全体構成を示す図である。
上記顔画像入力装置2は、図6に示すように、ユーザインターフェースとしての操作部11と処理部12とから構成されている。また、上記顔画像入力装置2は、LANを介して上記顔記録サーバ3及びプリンタなどに接続されている。上記顔画像入力装置2の操作部11は、例えば、図4に示すような外観構成からなり、ディスプレイ21、カメラ22、スピーカ23、テンキー24などを有している。また、図6に示す構成例では、上記カメラ22により撮影するユーザの顔を照明する照明手段を図示していないが、上記カメラ22の近傍などにユーザの顔を照明する照明手段を設けるようにしても良い。
FIG. 6 is a diagram illustrating an overall configuration as a control system of the face image input apparatus.
As shown in FIG. 6, the face
また、上記顔画像入力装置2の処理部12は、処理プロセッサ31、ワークメモリ32、プログラムメモリ33、I/Oボード34、キャプチャボード35、ディスクインターフェース36、LANインターフェース38、及びシステムバス39から構成されている。さらに、上記キャプチャボード35は、A/D変換回路41、及び画像メモリ42を有している。
The
上記処理プロセッサ31は、種々の処理を実行することにより、顔画像入力装置2全体の制御を行うものである。上記ワークメモリ32は、処理中の画像データやその他のデータなどを一時的に記憶するメモリである。上記プログラムメモリ33は、制御用のプログラムなどが記憶されるメモリである。上記処理プロセッサ31は、上記プログラムメモリ33に記憶されている制御プログラムに基づいて種々の機能を実現するようになっている。例えば、上記処理プロセッサ31は、各カメラに対し制御信号を送って顔画像データを取込み,そのデータに対しワークメモリ32を使いながら顔画像データの登録処理を行う。
The
上記I/Oボード34は、種々のインターフェースとして機能し、上記ティスプレイ21、上記スピーカ23、及び上記テンキー24などに接続される。上記キャプチャボード35は、上記カメラ22で撮影された画像を処理部12内に取り込む際のインターフェースである。上記キャプチャボード35内のA/D変換回路41は、上記カメラ22で撮影されたアナログ信号からなる画像データを取り込んでデジタル信号の画像データに変換するものである。上記画像メモリ34は、画像データを一旦蓄えるバッファリングするメモリである。上記画像メモリ34には、上記カメラ22で撮影され、上記A/D変換回路41によりA/D変換された画像データが蓄積される。なお、上記カメラ22がUSB(ユニバーサル・シリアル・バス)インターフェースを備えている場合、A/D変換回路41は不要でUSBインターフェースを持たせれば良い。
The I /
上記ディスクインターフェース36は、上記磁気ディスク(記録装置)37に対するデータの読出し、或は、書込みを行うものである。上記磁気ディスク37は、上記カメラ22から入力した入力画像データや入力画像データの履歴情報などを記憶する。また、上記磁気ディスク37は、一時的なバッファメモリとしても機能する。上記LANインターフェース38は、LANとの接続するためのインターフェースである。上記システムバス39は、制御データや画像データなどデータを送受信するデータバスである。上記システムバス39は、上記処理プロセッサ31、ワークメモリ32、プログラムメモリ33、I/Oボード34、キャプチャボード35内の画像メモリ42、ディスクインターフェース36、及びLANインターフェース38に接続されている。
The
また、当該顔画像入力装置2がモデルAの形態で利用される場合、上記磁気ディスク37には、各ユーザのIDコード及びパスワードなどのID情報が記憶されるID情報テーブル37aが設けられ、上記プログラムメモリ33には、ID情報による認証(ID認証)を行うための制御プログラムが記憶される。これにより、当該顔画像入力装置2がモデルAの形態で利用される場合、上記処理プロセッサ31は、上記ID認証部1として、ユーザがテンキー24などにより入力したID情報と上記ID情報テーブル37aに記憶されているID情報との照合を行うことによりユーザに対するID認証を行う。
When the face
また、上記処理プロセッサ31が上記プログラムメモリ33に記憶されている制御プログラムに基づいて実現する機能としては、特徴量抽出処理、情報生成処理、画像処理、及び画像伝送処理などがある。
上記特徴量抽出処理は、上記カメラ22で撮影した画像から顔の特徴量(特徴パターン)を抽出する処理である。上記情報生成処理は、上記カメラ22で撮影した画像に関する属性情報(撮影時間等)を生成する処理である。また、上記処理プロセッサ31が実行する画像処理は、例えば、上記カメラ22で撮影した画像に対して、顔領域を切り出す処理、画像濃度の補正処理、正規化処理、あるいは画像圧縮処理などである。上記画像伝送処理は、上記カメラ22にて撮影した画像に基づく顔画像データをその履歴情報とともに上記顔記録サーバ3へ転送する処理である。
The functions realized by the
The feature amount extraction processing is processing for extracting a facial feature amount (feature pattern) from an image photographed by the
次に、上記顔記録サーバ3の構成例について説明する。
図7は、顔記録サーバ3の構成例を概略的に示すブロック図である。
図7に示すように、上記顔記録サーバ3は、制御部51、プログラムメモリ52、ワークメモリ53、磁気ディスクインターフェース54、表示部55、操作部56、LANインターフェース57などを有している。
Next, a configuration example of the
FIG. 7 is a block diagram schematically showing a configuration example of the
As shown in FIG. 7, the
上記制御部51は、顔記録サーバ3全体の制御を司る。上記プログラムメモリ52は、制御用のプログラムなどが記憶されるメモリである。上記ワークメモリ53は、処理中の画像やデータなどを一時的に記憶するメモリである。上記磁気ディスクインターフェース54は、上記顔履歴データベース4にアクセスするためのインターフェースである。
The
上記表示部55は、表示装置により構成され、上記顔履歴データベース4の検索結果などを表示する。上記操作部83は、キーボード或はマウス等の入力装置により構成され、当該顔記録サーバ3を操作する監視員からの操作指示などが入力される。上記LANインターフェース57は、上記LANを介して上記顔画像入力装置2とのデータの送受信を行うためのインターフェースである。
The
上記顔記録サーバ3では、上記制御部51が上記プログラムメモリ52に記憶されている制御プログラムに基づいて動作することにより種々の処理を実現している。例えば、上記顔記録サーバ3では、上記顔画像入力装置2からの顔画像をその履歴とともに上記顔履歴データベース4に記録する機能と、上記顔履歴データベース4に記憶されている情報を検索する機能を有している。
In the
以下、上記のように構成されるシステムをベースとして実現される7つの実施の形態について説明する。
まず、第1の実施の形態について説明する。
この第1の実施の形態は、上記モデルAのネットワーク型システムに適用されるものである。また、この第1の実施の形態の実現形態としては、一体型装置であっても良いし、ネットワーク型のシステムであっても良い。
以下に説明する第1の実施の形態では、複数の地点にID認証機能を有する顔画像入力装置(以下、入力端末と呼ぶ)2が設置され、これらの入力端末が無線LANなどのネットワークを介して、監視員あるいは管理者が操作する顔記録サーバ3に接続されているものとする。
Hereinafter, seven embodiments realized based on the system configured as described above will be described.
First, the first embodiment will be described.
The first embodiment is applied to the model A network type system. In addition, as an implementation form of the first embodiment, an integrated apparatus or a network system may be used.
In the first embodiment described below, a face image input device (hereinafter referred to as an input terminal) 2 having an ID authentication function is installed at a plurality of points, and these input terminals are connected via a network such as a wireless LAN. It is assumed that the monitor is connected to the
まず、第1の実施の形態に係る入力端末2における顔画像の入力処理について説明する。
図8は、第1の実施の形態に係る入力端末2における顔画像の入力処理の流れを説明ためのフローチャートである。図8に示す処理は、各入力端末の上記処理プロセッサ31により実行されるものである。
まず、入力端末2が設置されている地点のユーザは、上記操作部11のテンキー24により当該ユーザのID情報としてIDコードとパスワードとを入力する。なお、IDコードは、各ユーザに対して管理者側が予め提供するものであり、パスワードは、各ユーザが登録時などに自由に設定するものであるとする。
First, face image input processing in the
FIG. 8 is a flowchart for explaining a flow of face image input processing in the
First, a user at a point where the
ユーザによりID情報(IDコード及びパスワード)が入力されると、上記処理プロセッサ31は、ID情報による認証処理(ID認証)を行う(ステップS11)。このID認証において、上記処理プロセッサ31は、ユーザが入力したID情報(IDコード及びパスワード)と上記磁気ディスク37のID情報テーブル37aに記憶されているID情報(各ユーザのIDコード及びパスワード)とを照合する。
When ID information (ID code and password) is input by the user, the
この照合によりユーザが入力したID情報と一致するID情報がID情報テーブル37aに存在しない場合(ステップS11、失敗)、上記処理プロセッサ31は、当該ユーザに対するID認証が失敗したと判断する。このようにID認証が失敗した場合、上記処理プロセッサ31は、ユーザが入力したID情報が認証されなかった旨を上記表示部21に表示し、当該ユーザのアクセスをリジェクトする。
If there is no ID information in the ID information table 37a that matches the ID information input by the user as a result of this collation (step S11, failure), the
上記照合によりユーザが入力したID情報と一致するID情報がID情報データベース37aに存在した場合(ステップS11、成功)、上記処理プロセッサ31は、当該ユーザに対するID認証が成功したと判断する。このようにID認証が成功した場合、上記処理プロセッサ31は、例えば、上記表示部21にユーザが入力したID情報が認証された旨を表示するとともに、少なくとも正面向きの顔を含む画像(顔画像)を上記カメラ22にて撮影することを当該ユーザに対して促す。このような案内とともに、上記処理プロセッサ31は、上記カメラ22によりユーザの顔画像を入力する画像入力処理を行う(ステップS12)。
When ID information that matches the ID information input by the user by the above collation exists in the
上記画像入力処理では、上記処理プロセッサ31の制御によりカメラ22が1フレーム分の画像を撮影し、撮影した画像をキャプチャボード35によって上記処理部12内に取り込む。上記カメラ22が撮影した顔画像を顔画像データとして処理部12内に取り込むと、上記処理プロセッサ31は、取り込んだ画像データ全体から顔の特徴点を検出することにより顔検出処理を行う(ステップ13)。この顔検出処理では、上記カメラ22により取り込んだ画像データ(入力画像データ)から粗く顔画像領域を探索し、続いて細かく顔領域内の瞳領域中心点と鼻孔領域中心点との4つの特徴点を顔の特徴点として検出する処理である。
In the image input process, the
このような顔検出処理において入力画像から顔の特徴点が検出できなった場合、つまり、顔の検出に失敗した場合(ステップS13、失敗)、上記処理プロセッサ31は、当該ユーザのアクセスをリジェクトする。この場合、上記処理プロセッサ31は、上記ステップS12の画像入力処理へ戻り、再度、顔画像を撮影して顔検出処理を行う。
When face feature points cannot be detected from the input image in such face detection processing, that is, when face detection fails (step S13, failure), the
また、上記顔検出処理により入力画像から顔の特徴点が検出できた場合、つまり、顔の検出に成功した場合(ステップS13、成功)、上記処理プロセッサ31は、検出した顔の特徴点に基づいて顔パターン領域の切出処理を行う(ステップS14)。
In addition, when the face feature point can be detected from the input image by the face detection process, that is, when the face detection is successful (step S13, success), the
この切出処理により入力された顔画像データから顔パターン領域を切り出すと、上記処理プロセッサ31は、顔パターン領域の画像データに対して正規化処理を行う(ステップS16)。この正規化処理では、顔パターン領域の画像データに対して幾何補正および濃度補正を行う。これらの処理が完了すると、処理プロセッサ31は、抽出された特徴点に基づいて顔の特徴量としての特徴ベクトル(顔パターン)を算出(生成)する(ステップS16)。
When the face pattern area is cut out from the face image data input by this cut-out process, the
当該ユーザの顔の特徴量としての特徴ベクトルを算出すると、上記処理プロセッサ31は、履歴情報の生成処理として当該ユーザのID情報、撮影時間、及び、撮影地点などからなる履歴情報を生成する。この履歴情報の生成処理により履歴情報を生成すると、上記処理プロセッサ31は、当該履歴情報、撮影した画像、及びその画像から算出した特徴ベクトルなどからなる顔履歴情報を上記顔記録サーバ3へ伝送する伝送処理を実行する(ステップS17)。なお、この伝送処理において上記顔記録サーバ3へデータを伝送する際、上記処理プロセッサ31は、上記磁気ディスク37を一時バッファとして用いる。
When the feature vector as the feature amount of the user's face is calculated, the
また、図8に示す動作例では、上記カメラ22にて撮影した1フレームの顔画像を対象としているが、あらかじめ設定した複数枚(N枚)のフレームを収集するようにしてもよい。この場合の入力端末2の動作は、図9に示すように、顔の特徴点の検出に成功したフレームの数が少なくともN枚になるまで、図8のステップS12及びステップS13の処理を繰返し行うものである。
Further, in the operation example shown in FIG. 8, the face image of one frame taken by the
すなわち、図9に示す動作例では、まず、上記ステップS12で画像を入力すると、上記処理プロセッサ31は、上記カメラ22から入力したフレーム数(入力フレーム数)がTとなったか否かを判断する。この判断により入力フレーム数がTに達していないと判断した場合、上記処理プロセッサ31は、当該入力フレームの画像に基づく画像データに対して顔検出処理を行う(ステップS22)。この顔検出処理により顔の特徴点が検出できなかった場合(ステップS22、失敗)、上記処理プロセッサ31は、上記ステップS12へ戻り、上記カメラ22から次のフレームの画像を入力する。
That is, in the operation example shown in FIG. 9, first, when an image is input in step S <b> 12, the
また、上記顔検出処理により顔の特徴点が検出できた場合(ステップS22、成功)、上記処理プロセッサ31は、当該フレームの画像を受理し、そのフレーム(受理フレーム)の画像を上記磁気ディスク37などの記憶手段に蓄積する。当該フレームを受理すると、上記処理プロセッサ31は、受理フレームが所定数(M)に達したか否かを判断する(ステップS23)。この判断により受理フレーム数がMに達していないと判断した場合、上記処理プロセッサ31は、上記ステップS12へ戻り、上記カメラ22から次のフレームの画像を入力する。また、上記判断により受理フレーム数がMに達したと判断した場合、上記処理プロセッサ31は、蓄積した受理フレームの対する処理を行うステップS25へ進む。
When the facial feature point can be detected by the face detection process (step S22, success), the
また、上記ステップS21で、入力フレーム数がTに達したと判断した場合、上記処理プロセッサ31は、それまでに受理した受理フレーム数がN以上であるか否かを判断する(ステップS24)。この判断により受理フレーム数がN以上でないと判断した場合、上記処理プロセッサ31は、当該ユーザに対する顔画像の入力処理をリジェクトする。また、上記判断により受理フレーム数がN以上であると判断した場合、上記処理プロセッサ31は、上記ステップS25へ進む。
If it is determined in step S21 that the number of input frames has reached T, the
上記ステップS25では、受理フレームとして上記磁気ディスク37などの記録手段に蓄積された複数の画像に対して上記ステップS14〜S16の処理を行う。すなわち、上記処理プロセッサ31は、顔の特徴点が検出できた画像が少なくともN以上獲得できた場合に、それらの画像に対して顔パターン領域の切出処理、画像正規化処理、及び特徴ベクトルの算出処理を行う。
In step S25, the processes in steps S14 to S16 are performed on a plurality of images stored in a recording unit such as the
上記ステップS25の処理が完了すると、上記処理プロセッサ31は、入力した一群の顔画像データに対するユーザのID情報、撮影時間及び撮影地点などからなる履歴情報を生成する。このような履歴情報を生成すると、上記処理プロセッサ31は、当該履歴情報、受理した全ての顔画像データ、及びそれらの顔画像データから算出した特徴ベクトルなどからなる顔履歴情報を上記顔記録サーバ3へ伝送する(ステップS17)。
When the process of step S25 is completed, the
なお、上記顔記録サーバ3に伝送する画像のフレーム数は多ければ多いほど、上記顔記録サーバ3での顔検索の精度を上げることができる。しかしながら、上記入力端末2で収集すべき顔画像データのフレーム数が多くなればなるほど、顔画像の入力(登録)処理に時間がかかることとなる。そこで、図9に示す動作例では、パラメータMを導入し,ユーザが入力端末での処理として許容できる範囲の入力フレーム数を設定しておき、その入力フレーム数内において、N枚からM枚までのフレーム数(少なくともN以上のフレーム)の画像を収集するようになっている。
Note that the greater the number of frames of the image transmitted to the
また、図8及び図9の動作説明においては、上記表示部に表示される案内や上記スピーカによる音声ガイダンスなどに関する処理は省略しているが、画像入力処理時に、ユーザに対して顔の正面をカメラ22に向けるようなガイダンスを行ったり、顔検出に成功した場合にユーザにアクセス許可を報知したり、逆に失敗した場合にユーザのアクセスを拒否したり、ユーザにリトライを促すといったことを行うようにしても良い。
Further, in the explanation of the operations in FIG. 8 and FIG. 9, processing related to guidance displayed on the display unit and voice guidance by the speaker is omitted, but the front of the face is shown to the user at the time of image input processing. Guidance is directed to the
次に、第1の実施の形態に係る顔記録サーバ3の動作について説明する。
図10は、第1の実施の形態に係る顔記録サーバ3の動作を説明するためのフローチャートである。
まず、上記顔記録サーバ3は、上記入力端末2からの顔履歴情報を受信する(ステップS31)。ここでは、上記入力端末2から受信した顔履歴情報には、少なくともユーザのID情報と当該ユーザの顔画像データから抽出した顔の特徴パターン(顔パターン)とを含まれているものとする。
Next, the operation of the
FIG. 10 is a flowchart for explaining the operation of the
First, the
上記入力端末2か顔履歴情報を受信した場合、上記顔記録サーバ3の制御部51は、受信した顔履歴情報をそのID情報に対応づけて顔履歴データベース4に記録する(ステップS32)。さらに、上記制御部51は、当該顔履歴情報がそのID情報に対応する最初の顔履歴情報か否かを判断する(ステップS33)。
When the face history information is received from the
この判断により当該顔履歴情報がそのID情報に対応する最初の顔履歴情報であると判断した場合、つまり、当該顔履歴情報と同じID情報の顔履歴情報が存在しない場合、上記制御部51は、当該顔履歴情報に含まれている顔パターンをそのID情報に対応するユーザの代表顔パターンとして上記顔履歴データベース4に記録する(ステップS34)。ここで、代表顔パターンとは、各ユーザの顔パターンを代表するものであるとする。また、上記代表顔パターンは、新たに取得した顔パターンを用いて照合処理(同定処理)を行う場合に、各ユーザの辞書データとしての顔パターンとして用いられる。
When it is determined by this determination that the face history information is the first face history information corresponding to the ID information, that is, when face history information having the same ID information as the face history information does not exist, the
また、上記ステップS33で、当該顔履歴情報がそのID情報に対応する最初の顔履歴情報でないと判断した場合、つまり、当該顔履歴情報と同じID情報の顔履歴情報が既に顔履歴データベース4に存在している場合、上記制御部51は、既に上記顔履歴データベース4に記録されている当該顔履歴情報のID情報に対応する顔パターン(代表顔パターン)と当該顔履歴情報の顔パターンとの照合(同定)処理を行う(ステップS35)。この照合処理の結果としては、当該顔履歴情報の顔パターンと代表顔パターンとの照合度が算出される。
If it is determined in step S33 that the face history information is not the first face history information corresponding to the ID information, that is, face history information having the same ID information as the face history information is already stored in the
なお、顔パターンの照合処理の具体的な処理方法としては、文献3に記載されているような「相互部分空間法」を適用できる。さらに、顔パターン照合の方法としては、デジタル画像処理やパターン認識分野で知られている従来技術(例えば、特徴ベクトル間の「相関法」や文字認識などで使われている「部分空間法」など)を適用することができる。
As a specific processing method of face pattern matching processing, a “mutual subspace method” as described in
上記照合処理の結果としての照合度が算出されると、上記制御部51は、算出した照合度が所定の閾値以上か否かを判断する(ステップS36)。この判断により照合度が所定の閾値以上であると判断した場合、上記制御部51は、当該ユーザが本人でない(「なりすまし」である)と判断し、上記表示部55あるいは図示しないアラーム等により監視員に対して当該ユーザが「なりすまし」である旨を報知する。
When the collation degree as a result of the collation processing is calculated, the
なお、ユーザが「なりすまし」であると判断した場合、上記ステップS32で上記顔履歴データベース4に記録した当該顔履歴情報には、当該ユーザが「なりすまし」である旨、あるいは、当該顔履歴情報が無効である旨が記録される。また、このような場合には当該顔履歴情報を上記顔履歴データベース4から削除するようにしても良い。
When it is determined that the user is “spoofing”, the face history information recorded in the
ここで、「なりすまし」とは、上記入力端末2でID認証を行った人物が他のユーザになりすましていることである。従って、「なりすまし検知」とは、上記入力端末2でID認証を行った人物が他のユーザになりすましていないかを上記入力端末2で撮影された顔画像(顔画像データ)に基づいて判断するものである。
Here, “spoofing” means that a person who has performed ID authentication at the
また、上記判断により照合度が所定の閾値以上でないと判断すると、上記制御部51は、当該ユーザが本人である(「なりすまし」でない)と判断する。これにより当該ユーザが本人であると判断した場合、上記制御部51は、当該顔履歴情報の顔パターンにより当該ユーザの代表顔パターンを更新する処理を行う(ステップS38)。
If it is determined by the above determination that the collation degree is not equal to or greater than a predetermined threshold, the
また、上記代表顔パターンの更新処理では、代表顔パターンを当該顔履歴情報の顔パターンに書き換えるようにしても良し、既存の代表顔パターンと当該顔履歴情報の顔パターンとから平均的な顔パターンを生成して代表顔パターンとするようにしても良い。前者の場合は、当該顔履歴情報の顔パターンが最新のユーザの顔パターンであるので、ユーザの代表顔パターンが常に最新の顔パターンに書き換えることができるという利点がある。また、後者の場合は、既存の代表顔パターンと最新の顔パターンとに基づいて代表顔パターンが更新されていくため、質の高い代表顔パターンを生成することができるという利点がある。 In the representative face pattern update process, the representative face pattern may be rewritten to the face pattern of the face history information, and an average face pattern is calculated from the existing representative face pattern and the face pattern of the face history information. May be used as a representative face pattern. In the former case, since the face pattern of the face history information is the latest face pattern of the user, there is an advantage that the representative face pattern of the user can always be rewritten to the latest face pattern. In the latter case, since the representative face pattern is updated based on the existing representative face pattern and the latest face pattern, there is an advantage that a high-quality representative face pattern can be generated.
なお、当該顔履歴情報の顔パターンが安定した状態の顔パターンでないと判断できる場合には、当該ユーザの代表顔パターンの更新処理を行わないようにしても良い。また、上記ステップS38では代表顔パターンの更新を行わずに、別途、管理者が上記顔履歴データベース4に記録されている顔パターンから代表顔パターンとするものを対話的に指定するようにしても良い。
If it can be determined that the face pattern of the face history information is not a stable face pattern, the update process of the representative face pattern of the user may not be performed. In step S38, the representative face pattern is not updated, and the administrator interactively designates the face pattern recorded in the
上記のように、上記第1の実施の形態では、入力端末2においてユーザが入力したID情報によるID認証で認証されたユーザの顔画像を撮影し、その顔画像に基づく顔画像データを用いた顔照合により顔記録サーバで当該ユーザが本人であるか否かを確認するようにしたものである。
As described above, in the first embodiment, the face image of the user authenticated by ID authentication based on the ID information input by the user at the
すなわち、上記第1の実施の形態では、上記顔記録サーバが、各入力端末から送られてきた顔履歴情報に含まれるID情報に基づいて、同じID情報をもった過去の履歴情報の顔画像データと当該顔履歴情報の顔画像データとの照合処理を行い、この照合処理により当該顔履歴情報の人物が本人であると確認(同定)されなければ、「なりすまし(本人ではない)」と判定して監視員に報知するようにしたものである。 That is, in the first embodiment, the face recording server is a face image of past history information having the same ID information based on the ID information included in the face history information sent from each input terminal. If the data and the face image data of the face history information are collated, and the person of the face history information is not confirmed (identified) by this collation processing, it is determined as “spoofing (not the person)” This is to inform the monitoring personnel.
これにより、第1の実施の形態によれば、リアルタイム(複数の入力端末からの顔履歴情報に基づいて処理を行うための多少の時間遅れとしての準リアルタイムも含めるものとする)で各入力端末における「なりすまし」を顔記録サーバにて判断し、監視員に報知することがきる。 Thus, according to the first embodiment, each input terminal in real time (including a near real time as a slight time delay for processing based on face history information from a plurality of input terminals). The “spoofing” can be determined by the face recording server and notified to the monitoring staff.
以下、第2の実施の形態について説明する。
この第2の実施の形態は、例えば、上記モデルBのネットワークシステムに適用される。また、第2の実施の形態の実現形態としては、一体型装置であっても良いし、ネットワーク型のシステムであっても良い。この第2の実施の形態では、リアルタイムで当該ユーザの顔履歴情報の一覧(「1地点追跡」結果)をモニタリングするシステムである。
Hereinafter, a second embodiment will be described.
This second embodiment is applied to the model B network system, for example. Further, as an implementation form of the second embodiment, it may be an integrated device or a network type system. In the second embodiment, a list of face history information of the user (“one-point tracking” result) is monitored in real time.
なお、この第2の実施の形態は、入力端末としての顔画像入力装置の外観構成やシステム全体構成などは、上記第1の実施の形態と同じものであるとする。但し、この第2の実施の形態では、入力端末2でのID認証(キーイン入力及びそのコード処理)が不要となる(モデルBを対象とする)ため、上記テンキー24等のID認証に係る構成は省略しても良い。
In the second embodiment, the appearance configuration and the overall system configuration of a face image input device as an input terminal are the same as those in the first embodiment. However, in the second embodiment, ID authentication (key-in input and code processing thereof) at the
この第2の実施の形態では、上記顔履歴データベース4に記録される顔履歴情報は、ユーザごとの顔履歴情報のグループとしてのクラスタごとに記録される。従って、上記顔履歴データベース4に記録される顔履歴情報には、ユーザごとに割り当てられるクラスタ番号が付与され、クラスタごとにグループ化される。また、各クラスタには、そのユーザの代表的な顔パターンとして代表顔パターンが定義されている。
In the second embodiment, the face history information recorded in the
次に、第2の実施の形態に係る入力端末2の動作について説明する。
上記第2の実施の形態において、上記入力端末2は、ID認証以外の動作は上記第1の実施の形態とほぼ同様な動作を行う。すなわち、第2の実施の形態の入力端末2では、図8又は図9に示す動作から上記ステップS11の動作を省略した動作を行う。このため、上記入力端末2は、ユーザのID情報を含まない顔履歴情報を生成して上記顔記録サーバ3へ伝送するようになっている。
Next, the operation of the
In the second embodiment, the
次に、第2の実施の形態に係る顔記録サーバ3の動作について説明する。
図11は、第2の実施の形態に係る顔記録サーバ3での処理の流れを説明するためのフローチャートである。
Next, the operation of the
FIG. 11 is a flowchart for explaining the flow of processing in the
まず、上記顔記録サーバ3は、上記入力端末2からの顔履歴情報を受信する(ステップS41)。ここでは、上記入力端末2から受信した顔履歴情報には、当該ユーザの顔画像から抽出した顔の特徴パターン(顔パターン)が含まれているが、ユーザのID情報は含まれないものとする。
First, the
上記入力端末2から顔履歴情報を受信した場合、上記顔記録サーバ3の制御部51は、受信した顔履歴情報が当該顔記録サーバ3が最初に受信した顔履歴情報か否かを判断する(ステップS42)。この判断により最初の顔履歴情報と判断した場合、つまり、上記顔履歴データベース4に顔履歴情報が蓄積されていない場合(ステップS42、YES)、上記制御部51は、後述するステップS46へ進む。
When the face history information is received from the
また、上記判断により最初の顔履歴情報でないと判断した場合、つまり、上記顔履歴データベース4に顔履歴情報が蓄積されていると判断した場合(ステップS42、NO)、上記制御部51は、受信した顔履歴情報の顔パターンと顔履歴データベース4に蓄積されている各クラスタの代表顔パターンとの照合処理を行う(ステップS43)。この照合処理では、受信した顔履歴情報の顔パターンと各クラスタの代表顔パターンとの照合度をそれぞれ算出し、それらの照合度のうち最大照合度を照合結果とする。また、上記顔履歴情報に顔画像を入力した入力端末を示す端末IDを含めておき、上記照合処理においては、受信した顔履歴情報の顔パターンと照合するクラスタを当該顔履歴情報と同じ端末IDの顔履歴情報を有するものに限定するようにしても良い。
When it is determined that the face history information is not the first face history information, that is, when it is determined that the face history information is stored in the face history database 4 (NO in step S42), the
上記照合処理により当該顔履歴情報の顔パターンに対する最大照合度が得られると、上記制御部51は、その最大照合度となる代表顔パターンのクラスタ番号を判定する(ステップS43)。さらに、上記制御部51は、上記照合処理で得られた最大照合度が所定の閾値以上か否かを判断する(ステップS44)。
When the maximum matching degree for the face pattern of the face history information is obtained by the matching process, the
この判断により最大照合度が所定の閾値以上でないと判断すると、上記制御部51は、新たなクラスタを1つ生成し、上記顔履歴データベース4に記録する。上記顔履歴データベース4に新たなクラスタを記録すると、さらに、上記制御部51は、受信した顔履歴情報をそのクラスタに属する顔履歴情報として上記顔履歴データベース4に記録する。この際、上記制御部51は、当該顔履歴情報の顔パターンをそのクラスタの代表顔パターンとして上記顔履歴データベース4に記録する(ステップS46)。
If it is determined by this determination that the maximum matching degree is not equal to or greater than a predetermined threshold, the
このような動作により当該顔履歴情報を上記顔履歴データベース4に記録すると、上記制御部51は、その顔履歴情報のユーザが初めて上記入力端末2で撮影されたユーザである旨を上記表示部に表示する。これにより、上記顔記録サーバ3の監視員は、初めてのユーザが当該入力端末2に現れたことをリアルタイムで認識できる。
When the face history information is recorded in the
また、上記ステップS45で、上記照合処理により得られた最大照合度が所定の閾値以上であると判断した場合、上記制御部51は、当該顔履歴情報のユーザが上記ステップS44で判定した最大照合度となったクラスタ(対応するクラスタ)のユーザであることを判断する。これにより、上記制御部51は、対応するクラスタに当該顔履歴情報が属するように、当該顔履歴情報を上記顔履歴データベース4に記録する(ステップS48)。当該顔履歴情報を上記顔履歴データベース4に記録する際、上記制御部51は、そのクラスタの代表顔パターンを当該顔履歴情報の顔パターンにより更新する(ステップS49)。
If it is determined in step S45 that the maximum matching degree obtained by the matching process is equal to or greater than a predetermined threshold, the
当該顔履歴情報を上記顔履歴データベース4に記録すると、上記制御部51は、そのクラスタのユーザの行動履歴を上記表示部55に表示する。この際、当該ユーザの行動履歴として上記表示部55には、例えば、図12に示すような画面が表示される。図12に示す表示例では、当該ユーザのクラスタ番号、及び、最新の顔画像を撮影した入力端末を示す端末番号とともに、当該ユーザの行動履歴を示す情報が表示されている。上記表示部21に表示される当該ユーザの行動履歴としては、当該クラスタ内の顔履歴情報ごとに、登録番号、アクセス日時(アクセス月日、アクセス時間)、顔画像(記録されている顔画像の縮小画像等)などが最新のものから順に表示される。
When the face history information is recorded in the
なお、上記ステップS49では、受信した顔履歴情報(最新の顔履歴情報)の顔パターンに基づいて当該クラスタの代表顔パターンを更新するものとしたが、顔履歴情報を受信するごとに、上記顔記録サーバ3の管理者が受信した顔履歴情報の顔パターンで対応するクラスタの代表顔パターンを更新するか否かを指定するようにしても良い。また、各クラスタで複数の代表顔パターンを有することを可能とし、顔履歴情報を受信するごとに、上記顔記録サーバ3が顔履歴情報の顔パターンを代表顔パターンとして追加するようにしても良い。また、顔履歴情報を受信するごとに、上記制御部51が、受信した顔履歴情報の顔パターンと対応するクラスタの代表顔パターンと1つにマージするようにしても良い。ここで、マージするとは、例えば、複数の顔パターンを平均化したり、統計的に主成分分析をおこなって主成分のみを保持したりするものである。
In step S49, the representative face pattern of the cluster is updated based on the face pattern of the received face history information (latest face history information). The administrator of the
上記のように、第2の実施の形態では、上記顔記録サーバが各入力端末から顔履歴情報をごとに、今送られてきた顔履歴情報の顔パターンと上記顔履歴データベース4に記録されている各クラスタの代表顔パターンとを照合し、当該顔履歴情報の顔パターンと同定された代表顔パターンを有するクラスタに属する顔履歴情報により、当該ユーザの行動履歴を表示する。これにより、上記顔記録サーバの管理者は、各入力端末で人物が撮影される度に、その人物の行動履歴を容易に確認することができる。
また、上記第2の実施の形態では、上記履歴データベースにユーザごとのクラスタとして各顔履歴情報を分類して記録するようにしているため、照合処理が効率化できる。
As described above, in the second embodiment, the face record server records the face history information from each input terminal in the
In the second embodiment, since the face history information is classified and recorded as clusters for each user in the history database, the matching process can be made efficient.
以下、第3の実施の形態について説明する。
この第3の実施の形態は、例えば、上記モデルBのネットワーク型のシステムに適用される。また、第3の実施の形態では複数地点に設置された入力端末が必要となるため、実現形態としてはネットワーク型のシステムとなる。
The third embodiment will be described below.
The third embodiment is applied to the model B network type system, for example. In the third embodiment, since input terminals installed at a plurality of points are required, a network type system is realized as an implementation form.
この第3の実施の形態は、顔記録サーバ3において、各入力端末2で撮影したユーザの行動軌跡(「多地点追跡」結果)をリアルタイムでモニタリングするものである。すなわち、この第3の実施の形態は、上記第2の実施の形態を拡張したものであり、複数の地点に設置された入力端末から得られた顔履歴情報を元に、各入力端末で撮影されたユーザの行動履歴として、当該ユーザの行動の軌跡を監視員に報知するものである。
In the third embodiment, the
また、第3の実施の形態が適用される顔画像入力装置の外観構成及びシステム構成は、第2の実施の形態と同様である。つまり、第3の実施の形態も、上記第1の実施の形態と同じものであり、第1の実施の形態における入力端末2でのID認証(キーイン入力及びそのコード処理)が不要となる。
The appearance configuration and system configuration of the face image input apparatus to which the third embodiment is applied are the same as those of the second embodiment. That is, the third embodiment is also the same as the first embodiment, and ID authentication (key-in input and its code processing) at the
この第3の実施の形態では、上記第2の実施の形態と同様に、上記顔履歴データベース4に記録される顔履歴情報は、ユーザごとの顔履歴情報のグループとしてのクラスタごとに分類して記録される。特に、第3の実施の形態では、複数の端末間の履歴情報についても照合処理を行うことが必要となるため,第2の実施の形態に比べて、処理量がそれだけ多くなる。このため、第3の実施の形態では、これまでの検索結果(ユーザクラスタ情報)を常に保持することにより重複処理をなくし、同定処理を効率化するようになっている。
In the third embodiment, as in the second embodiment, the face history information recorded in the
また、第3の実施の形態に係る入力端末2の動作についても、上記第2の実施の形態と同様である。つまり、第3の実施の形態において、上記入力端末2は、図8又は図9に示す動作から上記ステップS11の動作を省略した動作を行う。このため、上記入力端末2は、ユーザのID情報を含まない顔履歴情報を生成して上記顔記録サーバ3へ伝送するようになっている。但し、この第3の実施の形態では、顔履歴情報に少なくとも撮影場所及び顔画像を撮影した撮影時間が含まれる。上記撮影場所を示す情報としては、顔画像を撮影した入力端末を示す端末番号が用いられる。
The operation of the
また、第3の実施の形態に係る顔記録サーバ3の動作は、上記表示部55に表示するユーザの行動履歴としての情報以外は上記第2の実施の形態とほぼ同様である。すなわち、第3の実施の形態において上記顔記録サーバ3の動作は、上記ステップS50以外は図11に示す動作と同様である。
The operation of the
図11に示す動作の上記ステップS50において、上記顔記録サーバ3の制御部51は、まず、受信した顔履歴情報の顔パターンとの照合が成功したユーザ(クラスタ)の履歴情報を上記顔履歴データベース4から読み出す。次に、上記制御部51は、上記顔履歴データベース4から読み出した履歴情報に基づいて、当該ユーザの行動の軌跡を上記表示部55に表示する。この際、上記表示部55には、図13に示すような画面が表示される。
In step S50 of the operation shown in FIG. 11, the
図13に示す表示例では、クラスタ番号、及び、最新のアクセス日時を表示するとともに、当該ユーザの過去の顔履歴情報に基づく、当該ユーザが過去に撮影された地点(撮影した入力端末の端末番号)及び撮影時間が行動の軌跡として表示されている。また、図13に示す表示例では、撮影地点と撮影時間とをチャートにて表示している。 In the display example shown in FIG. 13, the cluster number and the latest access date and time are displayed, and the point where the user has been photographed in the past based on the user's past face history information (the terminal number of the photographed input terminal) ) And the shooting time are displayed as a trajectory of action. In the display example shown in FIG. 13, the shooting point and the shooting time are displayed in a chart.
なお、上記表示部55にユーザの行動の軌跡として表示する顔履歴情報は、所定の条件に基づいて制限するようにしても良い。たとえば、現在までの経過時間が所定期間内の顔履歴情報に限定して、ユーザの行動の軌跡を表示するようにしても良い。この場合、現在までの経過時間が所定期間のものだけを表示することができ、古い顔履歴情報に基づくユーザの行動の軌跡を表示しないようにすることができる。また、ユーザの行動の軌跡として表示する顔履歴情報の数を制限するようにしても良い。例えば、最新の顔履歴情報から順に所定の件数分の顔履歴情報を表示するようにする。これにより、所定件数の軌跡を表示することができ、監視員が見やすい表示を行うことができる。
The face history information displayed on the
以下、第4の実施の形態について説明する。
この第4の実施の形態は、例えば、上記モデルA及びモデルBのネットワーク型のシステムに適用される。また、第4の実施の形態の実現形態としては、一体型装置であっても良いし、ネットワーク型のシステムであっても良い。この第4の実施の形態では、事前に顔画像を登録しておき、リアルタイムで「特定人物検知」を行うものである。
この第4の実施の形態は、入力端末2としての顔画像入力装置の外観構成やシステム全体の構成などは、上記第1の実施の形態と同じものであるとする。また、この第4の実施の形態において、入力端末2は、ID認証(キーイン入力及びそのコード処理)を行うモデルAの形態であっても良いし、ID認証が不要なモデルBの形態であっても良い。
Hereinafter, a fourth embodiment will be described.
The fourth embodiment is applied to, for example, the model A and model B network type systems. Moreover, as an implementation form of the fourth embodiment, an integrated apparatus or a network type system may be used. In the fourth embodiment, face images are registered in advance and “specific person detection” is performed in real time.
In the fourth embodiment, the appearance configuration of the face image input device as the
また、第4の実施の形態における入力端末2の動作については、第1の実施の形態と同様に、図8又は図9に示す動作を行う者であっても良いし、第2、第3の実施の形態のように図8又は図9に示す動作から上記ステップS11の動作を省略した動作であっても良い。
In addition, the operation of the
次に、第4の実施の形態に係る顔記録サーバ3の動作について説明する。
この第4の実施の形態では、管理者は、予め特定人物の顔画像情報(顔パターン)のリスト(以下、「特定人物リスト」と呼ぶ)4aを作成して上記顔履歴データベース4に記録しておくものとする。ここで、特定人物とは、管理者が特に監視の対象としたい人物である。例えば、特定人物としては、不審者や要注意人物などが挙げられる。
Next, the operation of the
In the fourth embodiment, the administrator creates a face image information (face pattern) list (hereinafter referred to as “specific person list”) 4 a of a specific person in advance and records it in the
また、特定人物リスト4aに登録される顔パターンは、上記顔履歴データベース4に蓄積されている顔履歴情報から選択される顔パターンであるものとする。また、上記特定人物リスト4aに登録される顔パターンは、写真などの顔画像データから作成された顔パターンであっても良いし、他の機器から取り込んだ顔パターンや他の機器から取り込んだ顔画像から作成した顔パターンなどであっても良い。
The face pattern registered in the
図14は、第4の実施の形態に係る顔記録サーバ3の動作を説明するためのフローチャートである。
まず、上記顔記録サーバ3の管理者は、予め上記のような特定人物リスト4aを上記顔履歴データベース4に登録しておくものとする。この状態で、上記入力端末2から顔履歴情報を受信すると、上記制御部51は、受信した顔履歴情報を上記顔履歴データベース4に記録する(ステップS61)。上記入力端末2から受信した顔履歴情報を上記顔履歴データベース4に記録すると、上記制御部51は、受信した顔履歴情報の顔パターンと上記特定人物リスト4aに登録されている全ての顔パターンとの照合処理を行う(ステップS62)。この照合処理の結果としては、受信した顔履歴情報の顔パターンと上記特定人物リスト4aに登録されている全ての顔パターンとの照合度が得られる。
FIG. 14 is a flowchart for explaining the operation of the
First, it is assumed that the administrator of the
上記照合処理の結果が得られると、上記制御部51は、この照合処理の結果として得られた各照合度が閾値以上から否かを判断する。この判断により所定の閾以上の照合度が無かった場合には処理を終了する。また、上記判断により所定の閾値以上の照合度があった場合、上記制御部51は、その照合度を与える特定人物に対する情報を上記特定人物リスト4aから読み出して上記表示部55に表示する。この場合、例えば、図15に示すような表示例が上記表示部55に表示される。
When the result of the collation process is obtained, the
また、図15に示す表示例では、アクセス日時、当該顔履歴情報を入力した入力端末を示す端末番号、当該顔履歴情報の顔画像、及び、ヒットした特定人物(当該顔履歴情報の顔パターンとの照合度が所定の閾値以上となった人物)の顔画像などが表示されている。 In the display example shown in FIG. 15, the access date and time, the terminal number indicating the input terminal that has input the face history information, the face image of the face history information, and the hit specific person (the face pattern of the face history information and The face image of a person whose collation degree is equal to or greater than a predetermined threshold is displayed.
また、この第4の実施の形態は、上記第1、第2、第3の実施の形態と併用して実施することが可能である。例えば,上記第1の実施の形態と併用することにより、第1の実施の形態で説明したような「なりすまし検知」で「なりすまし」を行ったと判断された人物の顔履歴情報を特定人物リスト4aに登録するようにすることも可能である。また、第4の実施の形態と上記第2あるいは第3の実施の形態と併用して実施することにより、特定人物と照合した人物の過去の履歴情報を上記顔履歴データベースから抽出し、当該人物の行動履歴や行動の軌跡などを表示することが可能である。
The fourth embodiment can be implemented in combination with the first, second, and third embodiments. For example, by using together with the first embodiment, the face history information of the person who is determined to have performed “spoofing” by “spoofing detection” as described in the first embodiment is used as the
上記のように、上記顔履歴データベース4などに予め特定人物リストを登録しておき、上記顔記録サーバが入力端末2から顔履歴情報を受信した場合、受信した顔履歴情報の顔パターンと上記特定人物リストに登録されている全ての人物の顔パターンとの照合処理を行い、この照合処理で顔履歴情報の人物が上記特定人物リストに登録されている人物と同定された場合にはその旨を監視員に報知するようにしてものである。
As described above, when a specific person list is registered in advance in the
これにより、第4の実施の形態によれば、顔記録サーバの監視員は、予め指定した人物を容易に発見したり、特定の人物に対する監視を容易に行ったりすることができ、セキュリティレベルを向上させることができる。 Thereby, according to the fourth embodiment, the monitoring staff of the face recording server can easily find a person designated in advance or can easily monitor a specific person, and the security level can be increased. Can be improved.
以下、第5の実施の形態について説明する。
この第5の実施の形態は、例えば、上記モデルAと上記モデルBの中間的なモデルに適用される。この第5の実施の形態では、例えば日記のような、ユーザの行動記録を示す情報を自動的に作成するものである。
The fifth embodiment will be described below.
The fifth embodiment is applied to an intermediate model between the model A and the model B, for example. In the fifth embodiment, information indicating a user's action record such as a diary is automatically created.
この第5の実施の形態では、例えば、最初のアクセス時などに少なくとも1回はID情報を入力する。すなわち、第5の実施の形態は、少なくとも1度はID情報が入力されることが条件であるが、1度ID情報を入力したユーザはその後の運用においてID情報を必ずしも入力する必要はない。また、第5の実施の形態の実現形態としては、一体型装置であっても良いし、ネットワーク型のシステムであっても良い。 In the fifth embodiment, for example, ID information is input at least once at the time of first access or the like. That is, in the fifth embodiment, it is a condition that ID information is input at least once, but a user who has input ID information does not necessarily need to input ID information in subsequent operations. In addition, as an implementation form of the fifth embodiment, an integrated device may be used or a network system may be used.
次に、第5の実施の形態に係る入力端末2の動作について説明する。
この第5の実施の形態において、入力端末2は、通常の運用時の動作としては、第1の実施の形態とほぼ同様であるが、図8又は図9に示す動作のうち上記ステップS11の処理が異なる。すなわち、上記入力端末2には、通常の運用時に、各ユーザが少なくとも一度、自身のID情報を入力する必要がある。従って、少なくとも1度ID情報を入力したことがあるユーザは、通常の運用時にはID情報の入力を省略することが可能である。この場合、入力端末は、図8又は図9に示す動作から上記ステップS11の動作を省略した動作を行う。
Next, the operation of the
In the fifth embodiment, the
図16は、第5の実施の形態に係わる入力端末2の動作を説明するためのフローチャートである。
まず、管理者は、上記入力端末2の操作部としてのテンキー24などにより専用の動作モード(管理者モード)を起動させる。この管理者モードでは、第5の実施の形態としてのユーザの行動記録を作成する動作モードを実行することができるようになっている。
FIG. 16 is a flowchart for explaining the operation of the
First, the administrator activates a dedicated operation mode (administrator mode) using the
この管理者モードが起動すると、管理者は、ユーザの行動記録の表示あるいは作成を指示する。すると、上記入力端末2の処理プロセッサ31は、上記顔記録サーバ3を介して上記顔履歴データベース4にアクセスする。上記顔履歴データベース4にアクセスすると、上記処理プロセッサ31は、上記顔履歴データベース4に記録されている顔履歴情報のうちID情報が付与されている顔履歴情報を検索する。
When this manager mode is activated, the manager instructs display or creation of user action records. Then, the
これにより、ID情報が付与されている顔履歴情報を検索すると、上記処理プロセッサ31は、ID情報が付与されている顔履歴情報の顔パターンを照合用のテンプレート(辞書データ)として、他の顔履歴情報の顔パターンとの照合処理を行う。この照合処理によりID情報が付与されていない顔履歴情報の顔パターンに対しては、ID情報が付与されている各顔履歴情報の顔パターンとの照合度が算出される。
Thus, when the face history information to which the ID information is assigned is searched, the
この照合処理の結果に基づいて、上記処理プロセッサ31は、ID情報が付与されていない顔履歴情報に、それぞれ照合度が最も高かった顔パターンを有する顔履歴情報のID情報を割り付ける(ステップS71)。つまり、ID情報が付与されていなかった顔履歴情報は、照合度が最も高かった顔パターンの顔履歴情報と同定される。
Based on the result of this matching process, the
これによりID情報が付与されていなかった顔履歴情報にID情報が割り振られると、上記処理プロセッサ31は、各ID情報ごとに、撮影場所や撮影時間等の履歴を時系列などでまとめ、各ID情報つまり各ユーザの行動履歴を示す行動記録レポートを作成し、出力する。この行動記録レポートは、LANなどに接続されている用紙に印刷して出力するようにしても良いし、上記表示部21に表示出力するようにしても良い。
As a result, when the ID information is assigned to the face history information to which no ID information is assigned, the
また、図17は、第5の実施の形態に係わる入力端末2の動作を説明するためのフローチャートであり、図16に示す動作の変形例である。
すなわち、図17に示す動作例では、上記ステップS71において、単に、最も照合度が高いID情報に割り振るのではなく、所定の閾値以上で、かつ、最も照合度が高いID情報に割り振るものである。従って、図17に示す動作例では、最大照合度が所定の閾値より小さい場合、当該顔履歴情報に対するID情報の割り付けを保留する(ステップS73)。
FIG. 17 is a flowchart for explaining the operation of the
That is, in the operation example shown in FIG. 17, in step S71 described above, the ID information is not simply assigned to the ID information with the highest matching degree, but is assigned to the ID information with the highest matching degree and higher than the predetermined threshold value. . Therefore, in the operation example shown in FIG. 17, when the maximum matching degree is smaller than the predetermined threshold, the allocation of ID information to the face history information is suspended (step S73).
次に、上記入力端末2の処理プロセッサ31は、ID情報の割り付けができた顔履歴情報をID情報ごとに集めてそれらの顔パターンをマージすることによって、ID情報に対応した1つのテンプレート(照合用の辞書データ)を生成する(ステップS74)。これにより、各ID情報ごとのテンプレートが生成されると、上記処理プロセッサ31は、ID情報の割り付けがまだの顔履歴情報(ID情報の割り付けが保留されている顔履歴情報)の顔パターンと各ID情報ごとのテンプレートとの照合処理を行う。
Next, the
この照合処理によりID情報の割り付け保留されている顔履歴情報の顔パターンに対しては、ID情報ごとのテンプレートとの照合度が算出される。この照合処理の結果に基づいて、上記処理プロセッサ31は、ID情報の割り付け保留されている顔履歴情報に、それぞれ照合度が最も高かったテンプレートのID情報を割り付ける(ステップS75)。これにより、全ての顔履歴情報にID情報が割り付けられ、上記ステップS72でIDごとの行動記録レポートが作成及び出力される。
また、図16及び図17に示す動作例では、ID情報が付与されている全ての顔履歴情報を対象として行動記録レポートを作成して出力するようにしたが、上記管理者が特定のユーザのID情報のみを指定することにより、そのID情報のユーザに関する行動記録レポートを作成して出力するようにしても良い。この場合、ID情報が付与されている全ての顔履歴情報の顔パターンについて照合処理を行う必要がなくなるため、処理時間を短縮して所望のユーザの行動記録レポートを早く作成して出力できる。
With respect to the face pattern of the face history information whose ID information is put on hold by this matching process, a matching degree with the template for each ID information is calculated. Based on the result of this collation processing, the
Further, in the operation examples shown in FIGS. 16 and 17, an action record report is generated and output for all face history information to which ID information is assigned. By specifying only the ID information, an action record report regarding the user of the ID information may be created and output. In this case, since it is not necessary to perform collation processing for all face patterns of face history information to which ID information is assigned, it is possible to shorten the processing time and quickly create and output a desired user action record report.
図16に示す動作と図17に示す動作との主な相違点は、図17に示す処理の方が精度が高くなるがそれだけ処理時間が長くなることである。 The main difference between the operation shown in FIG. 16 and the operation shown in FIG. 17 is that the processing shown in FIG. 17 is more accurate but the processing time is longer.
また、上記ステップS74の処理は、複数の顔パターンを1つのテンプレートに統合(マージ)するようにしたが、マージの方法としては、例えば、非特許文献4に示されているような、平均化や統計的に主成分分析をおこなって主成分のみを取出す従来方法を用いることができる。また、上記ステップS74の処理での作成したテンプレートを次回の照合処理から各ID情報の顔パターンを代表するテンプレートとして用いるようにしても良い。なお、図16及び図17の処理は、パターン認識分野においては「クラスタリング」と呼ばれている手法に属し、例えば、非特許文献4に示されている「K平均アルゴリズム」と呼ばれているアルゴリズムを用いてもよい。
In the process of step S74, a plurality of face patterns are integrated (merged) into one template. As a merging method, for example, averaging as shown in
また、上記行動記録レポートは、例えば、18に示す表示例のように構成される。図18に示す表示例では、ID情報としてのユーザID及び入力端末を示す端末番号とともに、行動記録としての登録番号、アクセス日時(アクセス月日、アクセス時間)、顔画像などが表示されている。 Moreover, the said action recording report is comprised like the example of a display shown, for example. In the display example shown in FIG. 18, a user ID as ID information and a terminal number indicating an input terminal, a registration number as an action record, an access date (access date and time), a face image, and the like are displayed.
また、上記行動記録レポートは、端末(操作部)の表示画面に出力され、管理者が確認後、その指示によりプリントアウトする。行動記録のレポートをプリントするプリンタは、例えば、LANを経由してネットワーク接続されても良いし、端末装置内部に組み込んでも良い。 The action record report is output on the display screen of the terminal (operation unit), and after confirmation by the administrator, is printed out according to the instruction. A printer that prints an action record report may be connected to a network via a LAN, for example, or may be incorporated in a terminal device.
また、この第5の実施の形態に係る顔記録サーバ3は、通常、運用時においては上記第1、第2、第3あるいは第4の実施の形態と同様な動作を行う。また、図16あるいは図17の処理と同様な処理を上記顔記録サーバ3により実行するようにしても良い。この場合、上記顔記録サーバ3の管理者が上記操作部56によって専用の動作モード(管理者モード)を起動させることにより開始するようにすれば良い。
The
上記のように、第5の実施の形態では、過去の顔履歴情報に対して顔パターンの照合処理を行って、各ユーザごとの行動記録としての履歴情報を作成して出力するようにしたものである。これにより、上記顔履歴データベースに蓄積された顔履歴情報を区分けし、さらに、各ユーザごとの行動記録を容易に抽出することができる。 As described above, in the fifth embodiment, face pattern matching processing is performed on past face history information, and history information as action records for each user is created and output. It is. Thereby, the face history information accumulated in the face history database can be classified, and further, action records for each user can be easily extracted.
以下、第6の実施の形態について説明する。
この第6の実施の形態は、上述の各システムに適用できる。この第6の実施の形態は、顔画像を入力するためのカメラ22を人物監視のための監視カメラとしても用いるシステムである。上記のようなシステムでは、顔画像を入力している時以外は、上記カメラ22が待機状態となっている。そこで、第6の実施の形態では、「人物監視機能」を新たに付加し、上記カメラ22の使用効率を高めるものである。
Hereinafter, a sixth embodiment will be described.
The sixth embodiment can be applied to each of the systems described above. In the sixth embodiment, a
この第6の実施の形態では、上記入力端末2にて撮影している画像に基づいて、上記カメラ22に接近している人物及び上記カメラ22から遠ざかっている人物を検出し、この間に上記カメラ22が撮影している映像を上記顔記録サーバ3に伝送したり記録したりするものである。
In the sixth embodiment, a person approaching the
なお、以下の第6の実施の形態の説明では、ネットワーク型のシステムでの適用例について説明するが、ネットワーク型のシステムではなく、スタンドアロン型の装置に対しても適用可能である。スタンドアロン型の装置に第6の実施の形態を適用した場合、上記カメラ22に人物が接近してから遠ざかるまでの間の時間帯に、上記カメラ22が撮影した動画像は、当該ユーザの履歴情報として入力端末2内の磁気ディスク37に記録するようにすればよい。
In the following description of the sixth embodiment, an example of application in a network type system will be described. However, the present invention can also be applied to a stand-alone apparatus instead of a network type system. When the sixth embodiment is applied to a stand-alone device, the moving image captured by the
通常、ある地点に設置したカメラ22に対して、ユーザ(あるいは通行人)は、接近、顔画像の入力、遠ざかりという流れになる。従って、この第6の実施の形態では、顔画像の入力処理の成功あるいは失敗にかかわらず、当該ユーザが上記カメラ22に対して接近してから遠ざかるまでの映像を取得する。このため、上記第6の実施の形態で説明する処理は、上記第1、第2、第3の実施の形態にて説明したユーザの顔履歴情報を上記顔履歴データベース4に記録する顔履歴情報の記録処理(第6の実施の形態では入力モードを呼ぶ)とは別の処理として上記顔履歴情報の記録処理に平行して実行される。
Normally, a user (or a passerby) has a flow of approaching, inputting a face image, and moving away from the
次に、上記カメラ22への人物の接近及び遠ざかりの検知について説明する。
まず、上記カメラ22への人物の接近は、上記カメラ22の近傍に設けた近接センサが人物を検知した時、あるいは、上記カメラ22が撮影している画像から人物らしい画像領域が検出された時などに検知される。また、上記カメラ22からの人物の遠ざかりは、上記カメラ22の近傍に設けた近接センサが人物を検知しなくなった時、あるいは、上記カメラ22が撮影している画像から人物らしい画像領域が検出されなくなった時などに検知される。つまり、人物の検知は、近接センサによるものと上記カメラ22が撮影している画像に対する画像処理によるものとがある。
Next, detection of approaching and moving away of a person from the
First, the approach of the person to the
次に、上記カメラ22が撮影している画像に対する画像処理により人物を検知する処理について説明する。
図19は、上記カメラ22が撮影している画像か人物の有無を検知する人物検知処理を説明するための図である。
図19に示すように、まず、上記カメラ22が撮影している背景画像を上記磁気ディスク37などに登録しておく(ステップS81)。この状態において、上記処理プロセッサ31は、上記カメラ22が撮影している画像を随時取得している(ステップS82)。上記処理プロセッサ31では、上記カメラ22にて撮影した画像データと上記背景画像データとの差分を算出したり、2値化したりすることにより、随時、上記カメラ22にて撮影した画像データに変化があるか否かを判断している(ステップS83)。
Next, processing for detecting a person by image processing on an image captured by the
FIG. 19 is a diagram for explaining person detection processing for detecting the presence of an image or a person photographed by the
As shown in FIG. 19, first, a background image taken by the
この判断により上記カメラ22にて撮影した画像データと予め登録されている背景画像データとに変化があると判断した場合、上記制御部51は、上記カメラ22にて撮影された画像データと背景画像データとの差分画像データなどから変化成分を抽出する(ステップS84)。この変化成分を抽出すると、上記制御部51は、抽出した変化成分の面積の大きさが所定の閾値よりも大きいか否かを判断する。この判断により抽出した変化成分の面積が所定の閾値よりも大きいと判断した場合、上記制御部51は、上記カメラ22の撮影範囲内に人物が存在することを検知する。
If it is determined that there is a change between the image data captured by the
次に、第6の実施の形態に係る入力端末2の動作について説明する。
図20は、第6の実施の形態に係る入力端末2の動作を説明するためのフローチャートである。
まず、上記入力端末2のカメラ22は、所定の撮影範囲の画像を随時撮影しているものとする。上記処理プロセッサ31は、例えば、所定間隔ごとに、上記カメラ22から画像を取り込み(ステップS91)、上記のような人物検知処理により、上記カメラ22の撮影範囲内に人物が存在するか否かを判断する(ステップS92)。
Next, the operation of the
FIG. 20 is a flowchart for explaining the operation of the
First, it is assumed that the
この判断により人物の存在が検知されると、上記処理プロセッサ31は、上記顔記録サーバ3へ上記カメラ22が撮影している連続画像(動画像)の画像データの伝送を開始する(ステップS93)。これにより、上記顔記録サーバ3への動画像のデータの伝送を開始すると、上記処理プロセッサ31は、上記顔記録サーバ3への動画像のデータの伝送を継続して実行するとともに、上記カメラ22が撮影している画像に対してユーザの顔画像を検出する顔検出処理を行う(ステップS94)。なお、ここでは、入力端末2がモデルBの場合を想定しているが、入力端末2がモデルAの場合、上記ステップS94ではユーザによりID情報が入力されたか否かを判断する。
When the presence of a person is detected by this determination, the
上記顔検出処理にて顔画像が検出されなかった場合(ステップS94、NO)、上記処理プロセッサ31は、上記人物検知処理を行って人物が上記カメラ22の撮影範囲からいなくなったか否かを判断する(ステップS95)。この判断により人物がいなくなっていないと判断した場合、つまり、上記カメラ22の撮影範囲内に人物がまだ存在していると判断した場合(ステップS95、NO)、上記処理プロセッサ31は、上記ステップS94へ戻る。また、上記ステップS95の判断により人物がいなくなったと判断した場合(ステップS95、YES)、上記処理プロセッサ31は、上記顔記録サーバ3への動画像のデータの伝送を終了する(ステップS96)。
When a face image is not detected in the face detection process (step S94, NO), the
また、上記ステップS94の顔検出処理で顔画像が検出された場合(ステップS94、YES)、上記処理プロセッサ31は、顔履歴情報を生成して上記顔記録サーバ3へ伝送する入力モードの処理を実行する(ステップS97)。この入力モードの処理を実行すると、上記処理プロセッサ31は、さらに、上記人物検知処理を行って人物が上記カメラ22の撮影範囲からいなくなったか否かを判断する(ステップS98)。
When a face image is detected in the face detection process in step S94 (YES in step S94), the
この判断により人物がいなくなっていないと判断した場合、つまり、上記カメラ22の撮影範囲内に人物がまだ存在していると判断した場合(ステップS98、NO)、上記処理プロセッサ31は、人物がいなくなったと判断するまで人物検知処理を繰返し実行する。このステップS98で人物がいなくなったと判断した場合(ステップS98、YES)、上記処理プロセッサ31は、上記顔記録サーバ3への動画像のデータの伝送を終了する(ステップS96)。
If it is determined by this determination that there is no person, that is, if it is determined that a person still exists within the shooting range of the camera 22 (NO in step S98), the
上記のように、入力端末2では、上記カメラ22にて撮影している画像から撮影範囲内の人物の有無を検知し、人物が存在する場合には上記入力モードの処理と平行してその動画像のデータを人物がいなくなるまで上記顔記録サーバ3へ伝送するようにしてものである。これにより、上記カメラ22に対して人物が接近してきてから遠ざかるまでの画像を上記顔記録サーバ3へ伝送することが可能となる。
As described above, the
次に、第6の実施の形態に係る顔記録サーバ3の動作について説明する。
図21は、第6の実施の形態に係る顔記録サーバ3の動作を説明するためのフローチャートである。
まず、上記顔記録サーバ3の制御部51は、上記入力端末2からの動画像を伝送する旨のリクエストがあったか否かを判断する(ステップS101)。この判断により入力端末2からの動画像のデータを伝送する旨のリクエストがあったと判断した場合、上記制御部51は、当該入力端末2から伝送される動画像のデータ(ストリームデータ)を受信し、上記表示部55に表示する。この際、上記表示部55には、例えば、図22に示すような画面が表示される。図22に示す表示例では、各入力端末2から伝送されてきた動画像のデータがそれぞれの入力端末を示す端末番号とともに表示されている。なお、ここでは、入力端末2から送られてきた動画像のデータを表示部55に表示するようにしたが、入力端末2から送られてきた動画像のデータを顔履歴データベース4などの記録装置に記録するようにしても良い。
Next, the operation of the
FIG. 21 is a flowchart for explaining the operation of the
First, the
これにより、上記顔記録サーバ3の監視員は、上記表示部55に表示された動画像を見て、上記カメラ22の撮影範囲内の様子をリアルタイムで監視することができる。
Thereby, the monitor of the
上記のように、第6の実施の形態では、他の実施の形態のような動作とともに、入力端末2のカメラ22が撮影している人物を含む動画像のデータを上記顔記録サーバ3に伝送し、上記顔記録サーバでは各入力端末から伝送されてきた動画像のデータを動画像として表示したり、記録したりするようにしたものである。
これにより、上記監視員が、各入力端末のカメラの撮影範囲における様子をリアルタイムで、かつ、効率的に監視することができる。
As described above, in the sixth embodiment, moving image data including a person photographed by the
Thereby, the said monitoring person can monitor the mode in the imaging | photography range of the camera of each input terminal efficiently in real time.
以下、第7の実施の形態について説明する。
この第7の実施の形態は、例えば、上記した各実施の形態のシステムに適用される。この第7の実施の形態では、事前に顔画像を登録しておき、その事前に登録されている顔画像から顔照合用テンプレート(辞書)としての顔パターンを生成し、顔の特徴点を検出する顔検出処理に加えて簡易的な顔画像による照合処理を追加したものである。
The seventh embodiment will be described below.
The seventh embodiment is applied to, for example, the systems of the above-described embodiments. In the seventh embodiment, face images are registered in advance, a face pattern as a face matching template (dictionary) is generated from the registered face images, and feature points of the face are detected. In addition to the face detection process to be performed, a simple face image matching process is added.
この第7の実施の形態は、上記第1〜第6の実施の形態に対する付加機能として実現可能である。この第7の実施の形態は、入力端末2で顔画像による個人認証が顔検出処理の後処理として実行される。さらに、第7の実施の形態における個人認証と従来の個人認証装置との違いは、ユーザの顔辞書が管理者の操作によって履歴情報から構成される点である。これにより、第7の実施の形態では、ユーザにとっての顔画像の登録という作業が発生せず、あくまで顔検出の後処理として実行されるのでユーザの使い勝手がそこなわれないというメリットがある。さらに、入力端末での個人認証における照合度のしきい値を通常より低くしておくことにおり、本人誤排除率がほぼゼロになり、ユーザの使い勝手がそこなわれないというメリットもある。
The seventh embodiment can be realized as an additional function to the first to sixth embodiments. In the seventh embodiment, personal authentication using a face image is executed as a post-processing of face detection processing at the
まず、第7の実施の形態に係る顔記録サーバ3の動作について説明する。
図23は、第7の実施の形態に係る顔記録サーバ3の動作を説明するためのフローチャートである。なお、ここでは、上記顔履歴データベース4に蓄積されている顔履歴情報にはユーザを示すID情報が含まれていないものとする。
First, the operation of the
FIG. 23 is a flowchart for explaining the operation of the
まず、上記顔記録サーバ3の管理者は、操作部56により上記顔履歴データベース4に蓄積されている顔履歴情報のクラスタリングを指示する。なお、実現形態がスタンドアロンの場合には入力端末2のテンキー24によりクラスタリングを指示する。すると、上記上記制御部51は、上記顔履歴データベース4に蓄積されている全ての顔履歴情報の顔パターンを同士で照合処理することにより顔履歴情報のクラスタリングを行う(ステップS111)。
First, the administrator of the
このような照合処理の結果としては、照合度が所定の閾値以上となる顔パターン(顔履歴情報)の組み合わせが得られる。すなわち、この照合処理により上記顔履歴データベース4に蓄積されている顔履歴情報から同一のユーザの顔履歴情報が判定される。この照合処理の結果に基づいて、上記制御部51は、上記顔履歴データベース4に蓄積されている顔履歴情報をユーザごとに分類する。ユーザごとに顔履歴情報を分類すると、上記制御部51は、それぞれのユーザ(クラスタ)に対してIDコードとしてのクラスタ番号を付与する(ステップS112)。
As a result of such collation processing, a combination of face patterns (face history information) having a collation degree equal to or higher than a predetermined threshold is obtained. That is, the face history information of the same user is determined from the face history information accumulated in the
さらに、上記制御部51は、それぞれのクラスタ内で各顔履歴情報の顔パターンを1つに統合(マージ)することにより、各クラスタ(ユーザ)ごとに1つのテンプレート(顔照合用の辞書データ)としての顔パターンを生成する(ステップS113)。なお、クラスタ内の顔パターン(特徴ベクトル)データを1つにマージしてテンプレートとする方法としては、例えば、平均化や統計的に主成分分析をおこなって主成分のみを取出すといった従来方法を用いることができる。これらの技術は、非特許文献4などに記載されている。
このような処理により各クラスタのテンプレートデータを生成すると、上記制御部51は、入力端末2側にテンプレートデータをダウンロードする(ステップS114)。このテンプレートデータには、少なくとも各クラスタ(ユーザ)のテンプレートとIDコードとが含まれる。
Further, the
When the template data of each cluster is generated by such processing, the
上記のように、第7の実施の形態において、上記顔記録サーバ3では、上記顔履歴データベース4に蓄積されている顔履歴情報の顔パターン同士の照合処理を行い、この照合結果に基づいて顔履歴情報をユーザごとにクラスタリングし、さらに、クラスタリングされた各クラスタ内の顔履歴情報の顔パターンから当該ユーザのテンプレート(代表顔パターン)を生成し、入力端末2にダウンロードするようにしたものである。
As described above, in the seventh embodiment, the
次に、第7の実施の形態に係る入力端末2の動作について説明する。
まず、入力端末2には、上記顔記録サーバ3からのテンプレートデータがダウンロードされている。このテンプレートデータには、少なくとも顔照合用の顔パターン(テンプレート)とそのクラスタ(ユーザ)に付与されたIDコードが含まれる。従って、上記顔記録サーバ3からテンプレートデータがダウンロードされると、上記入力端末2の処理プロセッサ31は、当該テンプレートデータのテンプレートとそのユーザのIDコードとを対応づけて磁気ディスク37に登録する。なお、上記顔記録サーバ3にてクラスタリングされた顔履歴情報のユーザには、管理者から自身のIDコードが知らされているものとする。
Next, the operation of the
First, the template data from the
図24は、第7の実施の形態に係る入力端末2の動作を説明するためのフローチャートである。
図24に示すフローチャートのステップS11〜S17は、図8に示すフローチャートのステップS11〜S17と同様であるため、説明を省略する。すなわち、上記ステップS16において、上記カメラ22から入力した画像から当該ユーザの顔パターンを生成すると、上記処理プロセッサ31は、入力画像から生成した顔パターンと、上記磁気ディスク37に記録されている当該ユーザが上記ステップS11で入力したID情報に対応するテンプレート(顔パターン)との照合処理を行う(ステップS121)。
FIG. 24 is a flowchart for explaining the operation of the
Steps S11 to S17 in the flowchart shown in FIG. 24 are the same as steps S11 to S17 in the flowchart shown in FIG. That is, when the user's face pattern is generated from the image input from the
この照合処理の結果は、照合度として与えられる。従って、上記処理プロセッサ31は、上記照合処理で得られた照合度が所定の閾値以上であるか否かを判断する(ステップS122)。この判断により上記照合処理で得られた照合度が所定の閾値以上であると判断した場合、上記処理プロセッサ31は、上記ステップS17へ進み、顔履歴情報を上記顔記録サーバ3へ伝送する処理を行う。また、上記判断により上記照合処理で得られた照合度が所定の閾値以上でないと判断した場合、上記処理プロセッサ31は、当該ユーザが本人でない(「なりすまし」である)と判断し、当該ユーザに対する処理をリジェクトする。
The result of this matching process is given as a matching degree. Therefore, the
なお、上記ステップS122の処理で用いられる照合度は、通常よりも低い値に設定するようにしても良い。この場合、顔画像による照合処理が「軽く」なり、本人であるにもかかわらずに誤認識よってリジェクトされる可能性をゼロに近くすることができる。つまり、通常よりも低い閾値を設定して「軽い」照合処理を行うことにより、本人誤排除率がほぼゼロになり、ユーザの使い勝手がそこなわれないというメリットがある。 Note that the matching degree used in the process of step S122 may be set to a value lower than usual. In this case, the collation process by the face image becomes “light”, and the possibility of being rejected due to erroneous recognition even though the person is the person can be made close to zero. That is, by setting a threshold value lower than usual and performing “light” collation processing, there is an advantage that the false error rejection rate becomes almost zero and user convenience is not lost.
上記のように、第7の実施の形態では、上記顔記録サーバで蓄積されている顔履歴情報をクラスタリングしてユーザごとに分類して、各ユーザの照合用の顔パターンとしてのテンプレートを生成し、そのテンプレートとIDコードとを上記入力端末へダウンロードするようにしたものである。これにより、上記顔履歴データベースに蓄積された顔履歴情報からユーザごとのクラスタ、あるいは、テンプレートを作成することができ、ユーザがテンプレートを作成する手間が省ける。 As described above, in the seventh embodiment, the face history information accumulated in the face recording server is clustered and classified for each user, and a template as a face pattern for each user is generated. The template and the ID code are downloaded to the input terminal. As a result, a cluster or template for each user can be created from the face history information accumulated in the face history database, saving the user from creating a template.
さらに、第7の実施の形態では、入力端末にテンプレートとIDコードとを登録しておき、顔画像を入力する際に入力端末で顔照合によるなりすまし検知を行うようにしたものである。これにより、入力端末での顔画像の入力処理の段階でなりすましを検知することが可能となる。 Furthermore, in the seventh embodiment, a template and an ID code are registered in the input terminal, and impersonation detection by face matching is performed at the input terminal when a face image is input. Thereby, it is possible to detect impersonation at the stage of face image input processing at the input terminal.
以上詳述したように、各実施の形態によれば、ユーザがセキュリティ性の高い対象にアクセスする際に,正面顔の登録を義務付けて不正アクセスを抑止する。また、第1のモデルとして、ユーザが入力したID情報によるID認証を行った上で当該ユーザの顔画像による照合処理及び顔画像の記録を行うシステムと、第2のモデルとして、ID情報の入力を省略して、顔画像による照合処理及び顔画像の記録だけを行うシステムとの2つのシステムを想定する。 As described above in detail, according to each embodiment, when a user accesses an object with high security, registration of the front face is obligated and unauthorized access is suppressed. In addition, as a first model, a system that performs ID authentication based on ID information input by a user and then performs collation processing and recording of the face image of the user's face image, and input of ID information as a second model Are omitted, and two systems are assumed: a system that performs only a face image matching process and a face image recording.
さらに、各モデルに履歴として蓄積される顔画像とその履歴情報に対する自動トラッキング(検索)機能をもたせ、第1のモデルでは「なりすまし検知」を行ってセキュリティレベルを向上させることができ、第2のモデルおいては「ユーザ分類」を行って、効率的な顔画像とその履歴情報との蓄積を行うことが可能となる。さらに、特定人物を検索する機能は、どちらのモデルにおいても実施可能であり、他の機能との組み合わせが可能である。また、各モデルの実現形態においては、一体型装置(スタンドアロン型)とネットワーク型のシステムの両方が有り得る。さらに、顔トラッキング(顔画像による照合処理)は、リアルタイム処理、またはバッチ処理の2通りの処理が可能である。 Furthermore, each model has a face image accumulated as a history and an automatic tracking (search) function for the history information. In the first model, “spoofing detection” can be performed to improve the security level. In the model, it is possible to perform “user classification” to accumulate efficient face images and their history information. Furthermore, the function of searching for a specific person can be implemented in either model and can be combined with other functions. Moreover, in the implementation form of each model, there can be both an integrated apparatus (stand-alone type) and a network type system. Furthermore, face tracking (collation processing using face images) can be performed in two ways: real-time processing or batch processing.
このような各実施の形態の効果としては、ユーザには正面向きの顔を記録することが義務づけられるので、従来の人物を監視するシステムや監視用の画像を記録するシステムに比べて、不正アクセスの抑止効果が高くなる。また、従来の顔照合装置に比べ利便性が向上する。これらの結果、従来の装置やシステムでは実現できていない利便性とセキュリティレベルのバランスの取れた効率的なシステムが提供でき、当該システムの応用範囲を広くすることが可能となる。 As an effect of each of these embodiments, since the user is obliged to record a face facing forward, unauthorized access is compared to a conventional system for monitoring a person or a system for recording a monitoring image. The deterrent effect becomes higher. Further, convenience is improved as compared with the conventional face matching device. As a result, it is possible to provide an efficient system that balances convenience and security levels that cannot be realized by conventional apparatuses and systems, and it is possible to widen the application range of the system.
1…ID認証部、2…顔画像入力装置、3…顔記録サーバ、4…顔履歴データベース、4a…特定人物リスト、4…顔画像履歴データベース、11…操作部、12…処理部、21…表示部、22…カメラ、24…テンキー、31…処理プロセッサ、37…LANインターフェース、37…磁気ディスク、38…LANインターフェース、51…制御部、55…表示部、56…操作部、57…LANインターフェース
DESCRIPTION OF
Claims (3)
前記入力端末は、
各設置地点においてユーザの顔画像を入力する画像入力手段と、
この画像入力手段により入力された顔画像データと、その撮影地点及び撮影時間を含む履歴情報とを前記サーバ装置へ送信する送信手段と、を有し、
前記サーバ装置は、
前記入力端末から送信された顔画像データとその履歴情報とを記録する画像記録手段と、
前記入力端末からの顔画像データを受信した場合、前記入力端末から受信した顔画像データと前記画像記録手段に既に記録されている顔画像データとを照合する照合手段と、
この照合手段により前記入力端末から受信した顔画像データと前記画像記録手段に既に記録されている顔画像データとの照合が成功した場合、前記入力端末から受信した顔画像データと照合した顔画像データに対応する履歴情報を前記画像記録手段から読み出し、その履歴情報に含まれている撮影場所と撮影時間とに基づいて当該ユーザの行動の軌跡を表示する表示手段と、を有する、
ことを特徴とする顔画像記録システム。 In a face image recording system having a plurality of input terminals installed at a plurality of points and a server device capable of receiving data from these input terminals,
The input terminal is
Image input means for inputting a user's face image at each installation point;
Transmission means for transmitting the face image data input by the image input means and history information including the shooting location and shooting time to the server device,
The server device
Image recording means for recording face image data and history information transmitted from the input terminal;
When face image data from the input terminal is received, collation means for collating face image data received from the input terminal and face image data already recorded in the image recording means;
When the collation means succeeds in collating the face image data received from the input terminal with the face image data already recorded in the image recording means, the face image data collated with the face image data received from the input terminal Display means for reading history information corresponding to the image recording means, and displaying a trajectory of the user's action based on the shooting location and the shooting time included in the history information,
A face image recording system characterized by that.
前記照合手段は、前記画像入力手段により入力されたユーザの顔画像データと前記画像記録手段に既に記録されている各ユーザの顔画像データと照合し、
前記表示手段は、前記入力端末から受信した顔画像データと前記画像記録手段に既に記録されているユーザの顔画像データとの照合が成功した場合、前記入力端末から受信した顔画像データと照合したユーザの履歴情報を前記画像記録手段から読み出し、その履歴情報に含まれている撮影場所と撮影時間とに基づいて当該ユーザの行動の軌跡を表示する、
ことを特徴とする前記請求項1に記載の顔画像記録システム。 The image recording means classifies and records the face image data and its history information for each user,
The collation means collates the user's face image data input by the image input means with the face image data of each user already recorded in the image recording means,
The display unit collates with the face image data received from the input terminal when the collation between the face image data received from the input terminal and the user face image data already recorded in the image recording unit is successful. Read the user's history information from the image recording means, and display the user's action trajectory based on the shooting location and shooting time included in the history information.
The face image recording system according to claim 1, wherein:
前記入力端末の各設置地点においてユーザの顔画像を入力する画像入力工程と、
この画像入力工程により入力された顔画像と、その撮影地点及び撮影時間を含む履歴情報とを前記サーバ装置へ送信する送信工程と、
前記入力端末から送信された顔画像データとその履歴情報とを画像記録手段に記録する画像記録工程と、
前記入力端末から顔画像データを受信した場合、前記入力端末から受信した顔画像データと前記画像記録手段に既に記録されている顔画像データとを照合する照合工程と、
この照合工程により前記入力端末から受信した顔画像データと前記画像記録手段に既に記録されている顔画像データとの照合が成功した場合、前記入力端末から受信した顔画像データと照合した顔画像データに対応する履歴情報を前記画像記録手段から読み出し、その履歴情報に含まれている撮影場所と撮影時間とに基づいて当該ユーザの行動の軌跡を表示する表示工程と、
を有することを特徴とする顔画像記録方法。 A face image recording method of a face image recording system having a plurality of input terminals installed at a plurality of points and a server device connected to these input terminals,
An image input step of inputting a user's face image at each installation point of the input terminal;
A transmission step of transmitting the face image input by the image input step and history information including the shooting point and the shooting time to the server device;
An image recording step of recording the face image data transmitted from the input terminal and its history information in an image recording means;
A collation step of collating the face image data received from the input terminal with the face image data already recorded in the image recording means when receiving the face image data from the input terminal;
When the collation between the face image data received from the input terminal and the face image data already recorded in the image recording means is successful, the face image data collated with the face image data received from the input terminal. A display step of reading the history information corresponding to the image recording means, and displaying the locus of the user's action based on the shooting location and the shooting time included in the history information;
A face image recording method characterized by comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009174032A JP2009259269A (en) | 2009-07-27 | 2009-07-27 | Face image recording system and face image recording method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009174032A JP2009259269A (en) | 2009-07-27 | 2009-07-27 | Face image recording system and face image recording method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003056188A Division JP2004265231A (en) | 2003-03-03 | 2003-03-03 | Face picture recording system and method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009259269A true JP2009259269A (en) | 2009-11-05 |
Family
ID=41386524
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009174032A Pending JP2009259269A (en) | 2009-07-27 | 2009-07-27 | Face image recording system and face image recording method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009259269A (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013061875A (en) * | 2011-09-14 | 2013-04-04 | Hitachi Information & Communication Engineering Ltd | Authentication system and reliability determination method |
US8416998B2 (en) | 2010-03-25 | 2013-04-09 | Sony Corporation | Information processing device, information processing method, and program |
JP2013182325A (en) * | 2012-02-29 | 2013-09-12 | Toshiba Corp | Face registration device, program and face registration method |
JP2014038557A (en) * | 2012-08-20 | 2014-02-27 | Canon Inc | Authentication device, authentication method, and program |
US9189680B2 (en) | 2011-09-14 | 2015-11-17 | Hitachi Information & Telecommunication Engineering, Ltd. | Authentication system |
JPWO2015016262A1 (en) * | 2013-07-30 | 2017-03-02 | 日本電気株式会社 | Information processing apparatus, authentication system, authentication method, and program |
CN106657913A (en) * | 2016-12-24 | 2017-05-10 | 深圳云天励飞技术有限公司 | Video processing method and device |
JP2021525425A (en) * | 2018-06-05 | 2021-09-24 | 北京市商▲湯▼科技▲開▼▲發▼有限公司Beijing Sensetime Technology Development Co.,Ltd. | Information processing methods and devices, electronic devices and storage media |
JP2022031747A (en) * | 2018-04-26 | 2022-02-22 | キヤノンマーケティングジャパン株式会社 | Information processing device, information processing method, and program |
JP2022058211A (en) * | 2020-09-30 | 2022-04-11 | 大日本印刷株式会社 | Personal authentication system, server, server program, transaction device and device program |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1141589A (en) * | 1997-07-17 | 1999-02-12 | Hitachi Ltd | Method and system for supervising mobile object |
JP2000126160A (en) * | 1998-10-23 | 2000-05-09 | Toppan Printing Co Ltd | Security system |
JP2002027313A (en) * | 2000-07-03 | 2002-01-25 | Fuji Photo Film Co Ltd | Image selecting device |
JP2002352291A (en) * | 2001-05-28 | 2002-12-06 | Toshiba Corp | Device and method for managing admission |
-
2009
- 2009-07-27 JP JP2009174032A patent/JP2009259269A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1141589A (en) * | 1997-07-17 | 1999-02-12 | Hitachi Ltd | Method and system for supervising mobile object |
JP2000126160A (en) * | 1998-10-23 | 2000-05-09 | Toppan Printing Co Ltd | Security system |
JP2002027313A (en) * | 2000-07-03 | 2002-01-25 | Fuji Photo Film Co Ltd | Image selecting device |
JP2002352291A (en) * | 2001-05-28 | 2002-12-06 | Toshiba Corp | Device and method for managing admission |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8416998B2 (en) | 2010-03-25 | 2013-04-09 | Sony Corporation | Information processing device, information processing method, and program |
JP2013061875A (en) * | 2011-09-14 | 2013-04-04 | Hitachi Information & Communication Engineering Ltd | Authentication system and reliability determination method |
US9189680B2 (en) | 2011-09-14 | 2015-11-17 | Hitachi Information & Telecommunication Engineering, Ltd. | Authentication system |
JP2013182325A (en) * | 2012-02-29 | 2013-09-12 | Toshiba Corp | Face registration device, program and face registration method |
JP2014038557A (en) * | 2012-08-20 | 2014-02-27 | Canon Inc | Authentication device, authentication method, and program |
CN103632130A (en) * | 2012-08-20 | 2014-03-12 | 佳能株式会社 | Authentication apparatus that authenticates object, authentication method, and storage medium |
JPWO2015016262A1 (en) * | 2013-07-30 | 2017-03-02 | 日本電気株式会社 | Information processing apparatus, authentication system, authentication method, and program |
US10114936B2 (en) | 2013-07-30 | 2018-10-30 | Nec Corporation | Information processing device, authentication system, authentication method, and program |
CN106657913A (en) * | 2016-12-24 | 2017-05-10 | 深圳云天励飞技术有限公司 | Video processing method and device |
JP2022031747A (en) * | 2018-04-26 | 2022-02-22 | キヤノンマーケティングジャパン株式会社 | Information processing device, information processing method, and program |
JP2021525425A (en) * | 2018-06-05 | 2021-09-24 | 北京市商▲湯▼科技▲開▼▲發▼有限公司Beijing Sensetime Technology Development Co.,Ltd. | Information processing methods and devices, electronic devices and storage media |
JP2022058211A (en) * | 2020-09-30 | 2022-04-11 | 大日本印刷株式会社 | Personal authentication system, server, server program, transaction device and device program |
JP7226496B2 (en) | 2020-09-30 | 2023-02-21 | 大日本印刷株式会社 | Personal authentication system, server, server program, transaction device and device program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009259269A (en) | Face image recording system and face image recording method | |
JP2004265231A (en) | Face picture recording system and method | |
US7120278B2 (en) | Person recognition apparatus | |
JP4177598B2 (en) | Face image recording apparatus, information management system, face image recording method, and information management method | |
JP4153691B2 (en) | Face image matching device and face image matching method | |
JP5805040B2 (en) | Person authentication dictionary update method, person authentication dictionary update apparatus, person authentication dictionary update program, and person authentication system | |
JP2008071366A (en) | Face image collating device, face image collating system, and face image collating method | |
JP2008305400A (en) | Face image recording apparatus, and face image recording method | |
JP2008040781A (en) | Subject verification apparatus and subject verification method | |
JP7196932B2 (en) | Information processing device, information processing method, and program | |
JP2011039959A (en) | Monitoring system | |
JP7056194B2 (en) | Information processing equipment | |
JP4797517B2 (en) | Monitoring device and method, and program | |
JP2011170711A (en) | Moving object tracking system and moving object tracking method | |
JP2006309491A (en) | Biometrics system | |
JP2007328590A (en) | Information processor, information processing method, monitoring system and program | |
JP2012083997A (en) | Authentication system and determination method for authentication reliability | |
JP2020052822A (en) | Information processing apparatus, authentication system, control method thereof, and program | |
JP2024056872A (en) | Stay management apparatus, stay management method, and program | |
JP2010182056A (en) | Password input device and password verification system | |
JP7020567B2 (en) | Information processing systems, information processing equipment, information processing methods, and programs | |
JP2010086263A (en) | Biometrics matching device, face matching device and biometrics matching method | |
JP4434560B2 (en) | Entrance / exit management system | |
KR101286750B1 (en) | Password estimation system using gesture. | |
JP5055151B2 (en) | Imaging processing system and method, management server and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090727 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100126 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100525 |